WO2001016563A1 - Navigationsgerät für ein landgebundenes fahrzeug - Google Patents

Navigationsgerät für ein landgebundenes fahrzeug Download PDF

Info

Publication number
WO2001016563A1
WO2001016563A1 PCT/DE2000/002914 DE0002914W WO0116563A1 WO 2001016563 A1 WO2001016563 A1 WO 2001016563A1 DE 0002914 W DE0002914 W DE 0002914W WO 0116563 A1 WO0116563 A1 WO 0116563A1
Authority
WO
WIPO (PCT)
Prior art keywords
navigation device
processor
user
objects
representation
Prior art date
Application number
PCT/DE2000/002914
Other languages
English (en)
French (fr)
Inventor
Martin Wawra
Ralph Behrens
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Priority to JP2001520069A priority Critical patent/JP2003508738A/ja
Priority to GB0110595A priority patent/GB2359715B/en
Priority to US09/830,596 priority patent/US6556917B1/en
Publication of WO2001016563A1 publication Critical patent/WO2001016563A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps

Definitions

  • the invention relates to a navigation device for a land vehicle according to the type of the independent claim.
  • navigation devices with a perspective representation of the area in which a land-based vehicle is located are available.
  • a user enters a route, the user then being guided by means of the navigation device while driving, optical and acoustic guidance being possible.
  • the location of the vehicle is determined by means of a locating device to which the navigation device is connected.
  • the user can change his route while driving and enter this on the navigation device.
  • Scenes to be displayed are saved in a format specified by the manufacturer in the navigation device.
  • the navigation device according to the invention for a landbound vehicle with the features of the independent claim has the advantage that a choice between a two-dimensional and a perspective view is offered to the user, which makes the user more advantageous Way to choose a display type adapted to his needs.
  • the user can select any viewpoint in the display, so that he advantageously determines which objects lie in his field of view.
  • the scene to be displayed is composed of objects, so that an update of the objects, for example a construction site or new buildings, is implemented in a simple manner.
  • the objects in the optical representation are linked with communication means, so that messages from the user about persons who are linked to these objects by means of an address can be sent. This makes it possible, for example, to quickly contact service providers at a specific location.
  • the user looks at any given route visually by means of the navigation device without driving on the route, so that he can simulate a possible trip in a simple manner.
  • This leads to an optimization of route planning for a user.
  • with such a simulation it is possible to get a first picture of certain locations and to remember striking objects.
  • the navigation device is connected to a recognition device for objects, so that objects in front of a vehicle are recognized by means of this recognition device and then compared by the navigation device by means of stored objects for this location, so that an update of the object-oriented representation of the Navigation device is enabled.
  • the navigation device is connected to a transceiver for transmitting and receiving radio signals.
  • information e.g. Audio or video data are received by means of this transceiver in order to then be displayed by means of the navigation device.
  • an enormous amount of additional information is available for the display of the navigation device.
  • the navigation device is connected to a sensor system of the land-based vehicle, so that the navigation device receives data about the vehicle and then presents this data to the user. This makes it possible to warn the user by means of the navigation device. to give signals about the state 'of his vehicle, if this is necessary.
  • the data managed and received by the navigation device ie data, audio or video signals
  • the data managed and received by the navigation device are managed in MPEG4 format.
  • This generally known coding standard for multimedia data enables the navigation device to access a large number of data sources without having to carry out reformatting of the data. This particularly facilitates communication with data sources that are remote from the land-based vehicle.
  • the visual representation of the navigation device is simplified with increasing speed of the land-based vehicle in order to relieve the driver of his concentration. Furthermore, the driver is less distracted from traffic.
  • the user specifies how exactly the objects are displayed on the optical representation of the navigation device. As a result, it is up to the user what accuracy the user demands from the display of the navigation device. If the user selects a simpler representation, that is to say with fewer details, this leads to a faster representation, as is appropriate for fast driving, with the user neither the objects in fact recognizes itself even more should be distracted by an accurate representation.
  • the user is shown additional information by the navigation device in the visual representation in order to reach his destination in a simple manner. It is thus possible for the user to safely reach his destination even with poor visibility using the navigation device according to the invention.
  • FIG. 1 shows an inventive navigation device.
  • Navigation devices are used for graphically and acoustically assisted route guidance, and the most accurate representation of reality on a monitor of the navigation device is helpful for a user who controls a land-based vehicle. This makes it easier to recognize an actual scene. Acoustic signals from the navigation device lead to improved guidance of the user to his destination.
  • FIG. 1 A navigation device according to the invention is shown in FIG.
  • the navigation device has a processor 1.
  • the processor is connected to signal processing 2 via a first input / output.
  • the signal processing 2 prepares the data that are transmitted from the processor 1 to the signal processing 2 for the display with the optical and acoustic signals connected to the signal processing 2. see representation 3, so that the data can then be represented by means of the optical and acoustic representation 3.
  • the signal processor 2 converts the data coming from the processor 1 into signals suitable for the optical and acoustic representation 3.
  • the optical and acoustic representation 3 has a monitor for the optical representation and a loudspeaker system for the acoustic representation.
  • the signal processing 2 can alternatively be integrated in the processor 1. A separation of the processor 1 and the signal processing 2 presented here relieves the processor 1, so that the processor 1 is available for other tasks.
  • the processor 1 is connected to a memory 5 via a second input / output.
  • This memory 5 has the data with which the acoustic and optical representation is achieved.
  • the processor 1 retrieves the necessary data from the memory 5 for a specific area, for example in order to implement a perspective or a two-dimensional representation.
  • the memory 5 contains optical data which encode acoustic signals. These acoustic signals are used to give the user acoustic information while driving.
  • the processor 1 is connected via a first data input to a locating device 11 which is, for example, a GPS (Global Positioning System) receiver.
  • the locating device 11 supplies the location of the land-bound vehicle to the processor 1 as coordinates, because the locating device 11 is part of the navigation device according to the invention and is installed directly next to the other elements of the navigation device such as the processor 1, so that the location of the locating device 11 is the same The location of the navigation device is.
  • the processor 1 thus continuously has the current location of the land-bound vehicle.
  • the processor 1 is connected via a third input / output to a transceiver device 6 for transmitting and receiving radio signals.
  • An antenna 7 is connected to the transceiver device 6 via an input / output.
  • Radio signals are received by means of the antenna 7 and the transceiver 6, the data containing, for example, audio or video data, which are then passed on to the processor 1.
  • the transceiver 6 converts the received radio signals into a digital data stream.
  • a receiving part of the transceiver 6 is a DAB (Digital Audio Broadcasting) radio receiver, via which multimedia data for the display of the navigation device are received in a simple manner.
  • DAB Digital Audio Broadcasting
  • DAB is a digital broadcasting method that has a frame structure that allows data to be transmitted in different sizes, said data comprising audio, video or text data.
  • the frames are made by the
  • DAB receivers are evaluated, and the data comprising the frames are then assembled and used, for example, to play a short video sequence using the navigation device, which represents the rooms of a hotel.
  • DAB has been designed in particular for the mobile reception of radio signals, so that DAB is suitable for the reception of multimedia data by a land-based vehicle, a DAB receiver generally being purchased primarily for radio reception. If already one
  • the navigation device is connected to this DAB receiver, so that the DAB receiver is used as the receiving part of the transceiver 6.
  • the transmitting part of the transceiver 6 is then either also set off from the navigation device or contained in the navigation device.
  • a data service provider for navigation devices transmits its data using DAB, whereby such a data service provider can also be a hotel that offers its services. Access authorization for this data is integrated in the navigation device according to the invention as a key for decrypting the received data, but it can also be provided that the data remain unencrypted, since the data can only be received by a suitably equipped navigation device.
  • DVB Digital Video Broadcasting
  • DRM Digital Radio Mondial
  • a transmitting part of the transceiver 6 is a GSM (Global System for Mobile Communication) transmitting station with which other data in addition to voice signals can be transmitted in a simple manner.
  • the GSM transmitter station is either a unit remote from the navigation device according to the invention, for example connected to the DAB receiver, or an element of the navigation device itself.
  • GSM Global System for Mobile communications
  • GSM + and GPRS General Packet Radio Service
  • the processor 1 is also passed data to the transceiver 6, which are then sent as radio signals by means of the antenna 7. For example, an email to a hotel marked as an object on the visual and audible display 3 is sent by the user to ask if a room can be reserved.
  • the data received are e.g. Information from a theater about its events calendar or from a supermarket about current special offers. This information is then displayed in multimedia form (image and sound and text and video) using the navigation device.
  • the processor 1 is connected to an input device 4 via a second data input.
  • This input device 4 is designed as a keyboard. However, it can also be implemented as a touch screen, ie a screen in which entries are made by touching the screen, as a mouse or simply by voice input.
  • the input device 5 has signal processing in order to convert the user's inputs into electrical signals, since the inputs are often made by the user using mechanical signals, for example by pressing a key or voice signals, on the input device 4.
  • the user specifies his route by means of the input device 4, these data being transferred to the processor 1, with which the processor 1 then retrieves the corresponding data from the memory 5 in order to then transmit this data to the signal work 2 to be passed so that they are shown on the visual and acoustic representation 3.
  • the user is also able to use the input device 4 to determine certain objects that are on the optical
  • Representation 3 are to be marked, this marking being transferred to processor 1 as a date, so that processor 1 assigns the corresponding object to this marking.
  • Additional information associated with this object is called up by the processor 1 from the memory 5 or by means of the transceiver 6 from an external data source. It is thus possible for an object to emit such additional information by means of radio signals. For example, a museum broadcast its opening times and striking exhibits using radio signals as additional information using a DAB signal.
  • the user is able to select the type of optical representation using the input device 4.
  • Perspective and two-dimensional representation are available to the user as display modes. In the perspective view, the user is still free to choose any viewpoint.
  • the processor 1 retrieves the corresponding data from the memory 5 in order to be able to present the route on the optical and acoustic representation 3.
  • the user is free to choose the time factor with which the route is shown on the visual and acoustic display 3. It is therefore possible for him to use a time lapse to view the simulated route route faster than in real time. It is also possible to set routes that cannot be driven at all with a land-based vehicle. The prerequisite for this is that the necessary data are stored in the memory 5 or that the data are retrieved from external data sources by means of the transceiver 6.
  • the processor 1 is connected via a third data input to a signal processing system for image recognition, which in turn is connected to a camera 9 via an input / output.
  • the camera 9 is placed on the land vehicle so that the front view of the vehicle can be observed by this camera.
  • angles with respect to the azimuth and elevation angles can be set.
  • 9 actuators are provided on the camera, which enable this change in angle.
  • Such actuators are, for example, electric motors.
  • the camera 9 is also designed as a night vision device.
  • the camera 9 has an infrared or residual light amplifying receiving device.
  • Software for image recognition is located in signal processing 8.
  • the individual objects are analyzed and assigned to specific objects. This data is then transferred from the signal processing 8 to the processor 1.
  • the processor 1 compares this data, which are assigned to the recognized objects, with object data which are stored in the memory 5. In addition, the processor 1 only compares this object data from the memory 5 which is currently used for the display.
  • the visual representation 3 is retained, if there is a discrepancy, then the objects are naten, in which the camera 9 has recorded the objects, inserted in the optical representation 3 and possibly replace obsolete objects, ie those objects that are no longer available.
  • An example of this is switching a traffic light from red to yellow, so that this switching is also shown in the optical and acoustic display 3.
  • the camera 9 recognizes that the traffic light switches from red to yellow, the object now being the traffic light that has switched to yellow and is recognized by the signal processing 8 by means of image processing software. This is transferred to processor 1 by signal processing 8.
  • the processor 1 compares with the traffic light shown at the moment, which shows red, and recognizes the discrepancy and uses the new object, that is the traffic light which shows yellow that the camera 9 has recorded, for the display on the optical display third
  • the sensor system 10 supplies measurement data of the landbound vehicle to the processor 1.
  • Such data are, for example, the fuel reserve or energy reserve in a battery-powered vehicle, the tire pressure, the interior temperature, the oil level and the cooling water temperature, these data being sent to the processor 1 be handed over.
  • the processor 1 brings these measurement data via the signal processing 2 to the optical and acoustic display 3, so that the user is informed about critical values of his land-based vehicle.
  • Fade-in takes place depending on preset warning values for the individual sensor values. If, for example, the fuel level is measured below a specified value, a warning is sent to the user via the visual and acu tical display device 3 passed on that the user must refuel his vehicle.
  • the processor 1 sets one in the case of a preset two-dimensional representation of the current area
  • MPEG4 is a well-known, general standard for multimedia files
  • MPEG4 means source coding, i.e. data is reduced during source coding by removing redundant data from the original data in order to minimize the data size.
  • the processor 1 takes the MPEG4 files from the memory 5 and decodes these files so that they can then be represented by means of the signal processing 2 and the optical and acoustic representation 3.
  • the signal processing 2 and the optical and acoustic representation 3 In particular, there are also text files that describe the scene depicted and determine which objects are depicted in the scene.
  • MPEG4 files and / or MPEG4 data streams are also retrieved from external data sources by means of the transceiver 6. Since MPEG4 is a generally accepted standard, compatibility with data service providers is easy to achieve. For example, it is possible for audio and video data streams from an event to be encoded as MPEG4 data streams were received by means of the transceiver 6 and decoded by means of the processor 1 and represented by means of the acoustic and optical representation 3.
  • the processor 1 uses the text files and the object files and possibly object data streams to generate the scene, which is then represented by means of the signal processing 2 and the acoustic and visual representation 3.
  • the object files and data streams are either available as MPEG4 files or data streams or as MPEG4-compatible data, which are then translated into MPEG4 data for the scene display by means of a real-time translator that runs on processor 1 ,
  • a traffic light is described here as an object.
  • the traffic light is still linked to the display for a red, yellow and green traffic light. Depending on the event, one or the other link is used for the display.
  • the objects are also linked to a coordinate file, that is to say depending on the location of the land-bound vehicle, processor 1 calls up the objects specified for these coordinates in the coordinate file in order to display these objects.
  • the processor 1 receives data on a speed of the vehicle from the sensors (10) of the landbound vehicle. As a result, the processor 1 is able to adapt the accuracy of the visual representation of the navigation device to the speed. At high speeds, which are defined by exceeding a predetermined speed value, the visual representation is simplified because, on the one hand, the user is more attentive to the must pay attention and on the other hand the user no longer fully perceives the actual objects due to his speed.
  • the accuracy of the optical representation can be adapted exactly to the current speed value.
  • the optical and acoustic representation is represented by the optical and acoustic representation 3 according to predetermined parameters which the user inputs by means of the input device 4. In this way, the user specifies which details are to be displayed, whether only traffic signs and the streets are to be displayed, any display specifications being made possible. The user can also determine whether acoustic information is given or not.
  • the navigation device displays additional artificial objects such as arrows on the monitor.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)
  • Traffic Control Systems (AREA)

Abstract

Es wird ein Navigationsgerät für ein landgebundenes Fahrzeug vorgeschlagen, das zur Unterstützung eines Fahrers bei der Streckenführung dient. Das Navigationsgerät umfasst einen Prozessor (1), eine Signalverarbeitung (2), eine akustische und optische Darstellung (3), eine Eingabevorrichtung (4), einen Speicher (5), eine Sende-Empfangseinrichtung (6), eine Antenne (7), eine Bildverarbeitung (8), eine Kamera (9), eine Sensorik (10) und eine Ortungsvorrichtung (11). Das erfindungsgemässe Navigationsgerät erlaubt das Umschalten zwischen zweidimensionaler und perspektivischer Darstellung, und es erlaubt die freie Wahl des Ansichtspunkts bei der perspektivischen Darstellung.

Description

Navigationsgerät für ein landgebundenes Fahrzeug
Stand der Technik
Die Erfindung geht aus von einem Navigationsgerät für ein landgebundenes Fahrzeug nach der Gattung des unabhängigen Patentanspruchs .
Es ist bereits bekannt, daß Navigationsgeräte mit einer perspektivischen Darstellung des Gebietes, in dem sich ein landgebundenes Fahrzeug befindet, verfügbar sind. Ein Benutzer gibt dabei eine Route ein, wobei dann der Benutzer während der Fahrt mittels des Navigationsgeräts geführt wird, wobei eine optische als auch akustische Führung möglich ist. Mittels einer Ortungsvorrichtung, mit der das Navigationsgerät verbunden ist, wird der Standort des Fahrzeugs festgestellt . Der Benutzer kann während der Fahrt seine Route ändern und dies am Navigationsgerät eingeben. Darzustellende Szenen sind in einem vom Hersteller bestimmten Format im Navigationsgerät abgespeichert.
Vorteile der Erfindung
Das erfindungsgemäße Navigationsgerät für ein landgebundenes Fahrzeug mit den Merkmalen des unabhängigen Patentanspruchs hat demgegenüber den Vorteil, daß eine Wahl zwischen einer zweidimensionalen und einer perspektivischen Darstellung dem Benutzer angeboten wird, wodurch der Benutzer vorteilhafter Weise einer seinen Bedürfnissen angepaßten Darstellungsart zu wählen hat .
Darüber hinaus ist es von Vorteil, daß der Benutzer einen beliebigen Ansichtspunkt in der Darstellung wählen kann, so daß er vorteilhafter Weise selbst bestimmt, welche Objekte in seinem Gesichtsfeld liegen.
Weiterhin ist es von Vorteil, daß die darzustellende Szene aus Objekten zusammengesetzt wird, so daß eine Aktualisierung der Objekte, zum Beispiel eine Baustelle oder neue Gebäude, in einfacher Weise verwirklicht wird.
Darüber hinaus ist es von Vorteil, daß der Benutzer zu den einzelnen Objekten verknüpfte Zusatzinformationen abruft, so daß er vorteilhafterweise rasch und einfach für ihn wichtige Informationen erhält. Dadurch wird dem Benutzer ein großer Zeitvorteil ermöglicht.
Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen des im unabhängigen Anspruch angegebenen Navigationsgeräts für ein landgebundenes Fahrzeug möglich.
Besonders vorteilhaft ist, daß durch Markieren von Objekten durch den Benutzer auf der optischen Darstellung Zusatzinformationen zu diesen Objekten abgerufen werden können. Dadurch ist es dem Benutzer ermöglicht, weitergehende Informationen zu diesen Objekten abzurufen, z.B. über eine Sehens- Würdigkeit.
Eine vorteilhafte Weiterbildung ist, daß die Objekte in der optischen Darstellung mit Kommunikationsmitteln verknüpft werden, so daß zu Personen, die mit diesen Objekten mittels einer Adresse verknüpft sind, Nachrichten von dem Benutzer versandt werden können. Dadurch ist es z.B. rasch möglich, mit Dienstleistern an einem bestimmten Ort Kontakt aufzunehmen.
Darüber hinaus ist es von Vorteil, daß der Benutzer sich irgendeine vorgegebene Route mittels des Navigationsgeräts optisch ansieht, ohne die Route zu befahren, so daß er eine mögliche Fahrt in einfacher Weise simuliert. Dies führt zu einer Optimierung einer Routenplanung für einen Benutzer. Darüber hinaus ist es mit solch einer Simulation möglich, sich von bestimmten Örtlichkeiten ein erstes Bild zu machen und sich an markante Objekte zu erinnern.
Weiterhin ist es von Vorteil, daß das Navigationsgerät mit einem Erkennungsgerät für Objekte verbunden ist, so daß mittels dieses Erkennungsgerätes Objekte vor einem Fahrzeug erkannt werden und dann vom Navigationsgerät mittels abgespeicherter Objekte für diesen Ort verglichen werden, so daß dann eine Aktualisierung der objektorientierten Darstellung des Navigationsgerätes ermöglicht wird.
In einer vorteilhaften Weiterbildung ist das Navigationsgerät mit einer Sende-Empfangseinrichtung zum Senden und Empfangen von Funksignalen verbunden. Dadurch wird es ermög- licht, daß Informationen, z.B. Audio- oder Videodaten mittels dieser Sende-Empfangseinrichtung empfangen werden, um dann mittels des Navigationsgeräts dargestellt zu werden. Dadurch steht eine enorme Menge an zusätzlichen Informationen für die Darstellung des Navigationsgeräts zur Verfügung.
Darüber hinaus ist es von Vorteil, daß das Navigationsgerät mit einer Sensorik des landgebundenen Fahrzeugs verbunden ist, so daß das Navigationsgerät Daten über das Fahrzeug erhält und diese Daten dann dem Benutzer darstellt. Damit ist es möglich, dem Benutzer mittels des Navigationsgeräts Warn- signale über den Zustand' seines Fahrzeugs zu geben, falls dieses notwendig ist.
Weiterhin ist es von Vorteil, daß das Navigationsgerät der Reichweite des landgebundenen Fahrzeugs mit dem noch zur
Verfügung stehenden Energiereserven anzeigt. Dadurch ist eine effiziente Planung der Energieaufnahme für das landgebundene Fahrzeug für den Benutzer möglich.
Darüber hinaus ist es von Vorteil, daß die vom Navigationsgerät verwalteten und empfangenen Daten, also Daten-, Audiooder Videosignale im MPEG4 -Format verwaltet werden. Durch diesen allgemeinen bekannten Codierungsstandard für Multimediadaten ist es dem Navigationsgerät ermöglicht, auf eine Vielzahl von Datenquellen zurückzugreifen, ohne eine Umfor- matierung der Daten vornehmen zu müssen. Damit ist insbesondere die Kommunikation mit von dem landgebundenen Fahrzeug abgesetzten Datenquellen erleichtert.
Weiterhin ist es von Vorteil, daß die optische Darstellung des Navigationsgeräts bei zunehmender Geschwindigkeit des landgebundenen Fahrzeugs vereinfacht wird, um den Fahrer in seiner Konzentration zu entlasten. Des weiteren wird der Fahrer weniger vom Straßenverkehr abgelenkt .
In einer vorteilhaften Weiterbildung der Erfindung ist vorgesehen, daß der Benutzer Vorgaben macht, wie genau die Darstellung der Objekte auf der optischen Darstellung des Navigationsgeräts vorgenommen wird. Dadurch ist es dem Benutzer überlassen, welche Genauigkeit der Benutzer von der Darstellung des Navigationsgeräts verlangt. Wählt der Benutzer eine einfachere Darstellung, also mit weniger Details, führt dies zu einer schnelleren Darstellung, wie es für ein schnelles Fahren angemessen ist, wobei der Benutzer weder die Objekte in Wirklichkeit selbst genau erkennt noch durch eine genaue Darstellung abgelenkt werden soll.
Darüber hinaus ist es von Vorteil, daß der Benutzer von dem Navigationsgerät in die optische Darstellung zusätzliche Hinweise eingeblendet bekommt, um damit in einfacher Weise sein Fahrziel zu erreichen. Damit ist es dem Benutzer möglich, auch bei schlechter Sicht mit Hilfe des erfindungsgemäßen Navigationsgeräts sicher sein Ziel zu erreichen.
Zeichnung
Ausführungsbeispiele der Erfindung sind in der Zeichnung dargestellt und in der nachfolgenden Beschreibung näher er- läutert. Es zeigt Figur 1 ein erfindungsgemäßes Navigationsgerät .
Beschreibung der Ausführungsbeispiele
Navigationsgeräte dienen zur grafisch und akustisch unterstützen Routenführung, wobei eine möglichst genaue Darstellung der Wirklichkeit auf einem Monitor des Navigationsgeräts für einen Benutzer, der ein landgebundenes Fahrzeug steuert, hilfreich ist. Das erleichtert die Wiedererkennung einer tatsächlichen Szene. Akustische Hinweise des Navigationsgeräts führen zu einer verbesserten Leitung des Benutzers zu seinem Ziel .
In Figur 1 wird ein erfindungsgemäßes Navigationsgerät ge- zeigt. Das Navigationsgerät weist einen Prozessor 1 auf.
Über einen ersten Ein-/Ausgang ist der Prozessor mit einer Signalverarbeitung 2 angeschlossen. Die Signalverarbeitung 2 bereitet die Daten, die vom Prozessor 1 zur Signalverarbeitung 2 übertragen werden, für die Darstellung mit der an die Signalverarbeitung 2 angeschlossenen optischen und akusti- sehen Darstellung 3 vor, so daß die Daten dann mittels der optischen und akustischen Darstellung 3 dargestellt werden können. Dafür wandelt die Signalverarbeitung 2 die vom Prozessor 1 kommenden Daten in für die optische und akustische Darstellung 3 geeignete Signale um. Die optische und akustische Darstellung 3 weist zur optischen Darstellung einen Monitor auf und zur akustischen Darstellung ein Lautsprechersystem. Die Signalverarbeitung 2 kann alternativ in den Prozessor 1 integriert sein. Eine hier vorgestellte Trennung des Prozessors 1 und der Signalverarbeitung 2 entlastet den Prozessor 1, so daß der Prozessor 1 für andere Aufgaben zur Verfügung steht .
Über einen zweiten Ein-/Ausgang ist der Prozessor 1 mit ei- nem Speicher 5 verbunden. Dieser Speicher 5 weist die Daten auf, mit denen die akustische und optische Darstellung erreicht wird. Der Prozessor 1 ruft von dem Speicher 5 für ein bestimmtes Gebiet die notwendigen Daten ab, um zum Beispiel eine perspektivische oder eine zweidimensionale Darstellung zu realisieren. Darüber hinaus enthält der Speicher 5 neben diesen optischen Daten, die akustische Signale codieren. Diese akustischen Signale dienen dazu, dem Benutzer während einer Fahrt akustische Hinweise zu geben.
Über einen ersten Dateneingang ist der Prozessor 1 mit einer Ortungsvorrichtung 11 verbunden, die z.B. ein GPS- (Global Positioning System) -Empfänger ist. Die Ortungsvorrichtung 11 liefert als Koordinaten den Standort des landgebundenen Fahrzeugs an den Prozessor 1, denn die Ortungsvorrichtung 11 ist ein Teil des erfindungsgemäßen Navigationsgeräts und ist direkt neben den übrigen Elementen des Navigationsgeräts wie dem Prozessor 1 eingebaut, so daß der Standort der Ortungsvorrichtung 11 gleich dem Standort des Navigationsgeräts ist. Damit verfügt der Prozessor 1 laufend über den aktuel- len Standort des landgebundenen Fahrzeugs. Über einen dritten Ein-/Ausgang ist der Prozessor 1 mit einer Sende-Empfangs-Einrichtung 6 für das Senden und Empfangen von Funksignalen verbunden. An die Sende-Empfangs - Einrichtung 6 ist eine Antenne 7 über einen Ein-/Ausgang verbunden. Mittels der Antenne 7 und der Sende-Empfangs- Einrichtung 6 werden Funksignale empfangen, die Daten, die z.B. Audio- oder Videodaten enthalten, die dann an den Prozessor 1 weitergegeben werden. Die Sende-Empfangs- Einrichtung 6 wandelt die empfangenen Funksignale in einen digitalen Datenstrom um. Ein Empfangsteil der Sende- Empfangseinrichtung 6 ist ein DAB (Digital Audio Broadcasting) -Rundfunkempfänger, über den Multimediadaten für die Darstellung des Navigationsgeräts in einfacher Weise empfangen werden.
DAB ist ein digitales Rundfunkübertragungsverfahren, das eine Rahmenstruktur aufweist, die es erlaubt, Daten in verschiedenen Größen zu übertragen, wobei diese Daten Audio-, Video- oder Textdaten aufweisen. Die Rahmen werden von dem
DAB-Empfänger ausgewertet, und es werden dann die Daten, die die Rahmen aufweisen, zusammengesetzt und zum Beispiel zum Abspielen einer kurzen Videosequenz mittels des Navigationsgeräts benutzt, die die Zimmer eines Hotels darstellt.
DAB ist insbesondere für einen mobilen Empfang von Rundfunksignalen konzipiert worden, so daß DAB für den Empfang von Multimediadaten durch ein landgebundenes Fahrzeug geeignet ist, wobei ein DAB-Empfänger im allgemeinen vorwiegend für den Rundfunkempfang angeschafft wird. Wenn bereits ein
DAB-Empfänger im landgebundenen Fahrzeug vorliegt, dann wird das erfindungsgemäße Navigationsgerät an diesen DAB- Empfänger angeschlossen, so daß der DAB-Empfänger als Empfangsteil der Sende-Empfangseinrichtung 6 genutzt wird. Der Sendeteil der Sende-Empfangseinrichtung 6 ist dann entweder auch von dem Navigationsgerät abgesetzt oder im Navigations- gerät enthalten.
Ein Datendienstanbieter für Navigationsgeräte wird seine Da- ten mittels DAB übertragen, wobei solch ein Datendienstanbieter auch ein Hotel sein kann, das seine Leistungen anbietet. Eine Zugangsberechtigung für diese Daten ist im erfindungsgemäßen Navigationsgerät als Schlüssel zur Entschlüsselung der empfangenen Daten integriert, wobei es jedoch auch vorgesehen sein kann, daß die Daten unverschlüsselt bleiben, da die Daten nur von einem geeignet ausgerüsteten Navigationsgerät empfangen werden können.
Neben DAB bieten andere bekannte digitale Rundfunkübertra- gungsverfahren wie DVB (Digital Video Broadcasting) und DRM (Digital Radio Mondial) die Möglichkeit, Multimediadaten zu übertragen. DVB und DRM unterscheiden sich von DAB zum Beispiel in der Rahmenstruktur, dem Sendefrequenzbereich und der Übertragungsbandbreite .
Ein Sendeteil der Sende-Empfangseinrichtung 6 ist eine GSM (Global System for Mobile Communication) -Sendestation, mit der andere Daten neben Sprachsignalen in einfacher Weise übertragen werden. Dabei ist die GSM-Sendestation entweder eine von dem erfindungsgemäßen Navigationsgerät abgesetzte Einheit, zum Beispiel mit dem DAB-Empfänger verbunden, oder ein Element des Navigationsgeräts selbst.
GSM ist ein weltweit benutzter Standard für digitale draht- lose mobile Kommunikation. Da GSM insbesondere für mobile Kommunikation konzipiert wurde, ist GSM für den Betrieb in einem landgebundenen Fahrzeug geeignet. Neben GSM sind alle anderen Mobilfunkstandards wie zum Beispiel UMTS (Universal Mobile Communication System) als Übertragungsverfahren für den Sendeteil der Sende-Empfangseinrichtung 6 geeignet. Neben GSM sind auch Erweiterungen des GSM-Standards hierfür geeignet. Dazu zählen GSM+ und GPRS (General Packet Radio Service), wesentlich hierbei ist, daß insbesondere GPRS die Daten in Paketen überträgt .
Der Prozessor 1 wird auch Daten an die Sende-Empfangs- Einrichtung 6 übergeben, die dann mittels der Antenne 7 als Funksignale versendet werden. So kann z.B. eine E-Mail an ein Hotel, das als Objekt auf der optischen und akustischen Darstellung 3 markiert wurde, von dem Benutzer gesendet werden, um nachzufragen, ob ein Zimmer reserviert werden kann. Als empfangene Daten bieten sich z.B. Informationen von einem Theater über sein Veranstaltungskalender oder von einem Supermarkt über aktuelle Sonderangebote an. Diese Informationen werden dann multimedial (Bild und Ton und Text und Video) mittels des Navigationsgeräts dargestellt.
Über einen zweiten Dateneingang ist der Prozessor 1 mit ei- ner Eingabeeinrichtung 4 verbunden. Diese Eingabeeinrichtung 4 ist als Tastatur ausgeführt. Sie kann aber auch als Touch- Screen, also ein Bildschirm, bei dem Eingaben durch Berühren des Bilschirms gemacht werden, als Maus oder einfach per Spracheingabe realisiert werden. Die Eingabevorrichtung 5 weist eine Signalverarbeitung auf, um Eingaben des Benutzers in elektrische Signale umzuwandeln, denn die Eingaben werden häufig durch den Benutzer mittels mechanischer Signale, zum Beispiel durch einen Tastendruck oder Sprachsignale, an der Eingabeeinrichtung 4 vorgenommen.
Mittels der Eingabevorrichtung 4 gibt der Benutzer seine Route an, wobei diese Daten dem Prozessor 1 übergeben werden, womit dann der Prozessor 1 die entsprechenden Daten aus dem Speicher 5 abruft, um dann diese Daten an die Signalver- arbeitung 2 zu übergeben, so daß sie auf der optischen und akustischen Darstellung 3 dargestellt werden.
Der Benutzer ist auch in der Lage, mittels der Eingabevor- richtung 4 bestimmte Objekte, die sich auf der optischen
Darstellung 3 befinden, zu markieren, wobei diese Markierung dem Prozessor 1 als Datum übergeben wird, so daß der Prozessor 1 das entsprechende Objekt dieser Markierung zuordnet. Zusatzinformationen, die mit diesem Objekt verbunden sind, werden von dem Prozessor 1 aus dem Speicher 5 oder mittels der Sende-Empfangseinrichtung 6 von einer externen Datenquelle abgerufen. So ist es möglich, daß ein Objekt selbst solche Zusatzinformationen mittels Funksignalen ausstrahlt. So kann z.B. ein Museum seine Öffnungszeiten und markante Ausstellungsstücke mittels Funksignalen als Zusatzinformationen mittels eines DAB-Signals ausstrahlen.
Weiterhin ist es dem Benutzer ermöglicht, mittels der Eingabevorrichtung 4 die Art der optischen Darstellung zu wählen. So steht dem Benutzer als Darstellungsmoden die perspektivische Darstellung und die zweidimensionale Darstellung zur Verfügung. Bei der perspektivischen Darstellung steht es dem Benutzer weiterhin frei, einen beliebigen Ansichtspunkt zu wählen.
Nachdem der Benutzer mittels der Eingabevorrichtung 4 eine Route angegeben hat, ist es ihm möglich, eine Simulation dieser Route sich mittels der optischen und akustischen Darstellung 3 anzusehen. Wenn der Benutzer die Simulation mit- tels der Eingabevorrichtung 4 gewählt hat, ruft der Prozessor 1 aus dem Speicher 5 die entsprechenden Daten ab, um die Route auf der optischen und akustischen Darstellung 3 darstellen zu können. Darüber hinaus steht es dem Benutzer frei, den Zeitfaktor zu wählen, mit der die Route auf der optischen und akustischen Darstellung 3 dargestellt wird. Daher ist es ihm möglich, mittels eines Zeitraffers das simulierte Abfahren der Route sich schneller als in Echtzeit anzusehen. Dabei sind auch solche Routen einstellbar, die mit einem landgebundenen Fahrzeug überhaupt nicht befahrbar sind. Voraussetzung dafür ist, daß die notwendigen Daten im Speicher 5 bevorratet sind oder daß die Daten von externen Datenquellen mittels der Sende-Empfangseinrichtung 6 abgerufen werden.
Über einen dritten Dateneingang ist der Prozessor 1 mit einer Signalverarbeitung für Bilderkennung verbunden, die ihrerseits über einen Ein- /Ausgang mit einer Kamera 9 verbunden ist. Die Kamera 9 ist auf dem landgebundenen Fahrzeug so plaziert, daß die Vorderansicht des Fahrzeugs mittels dieser Kamera beobachtet werden kann. Darüber hinaus sind Winkel bezüglich des Azimuths- und des Elevationswinkels einstellbar. Dazu sind an der Kamera 9 Aktoren vorgesehen, die diese Winkelveränderung ermöglichen. Solche Aktoren sind zum Beispiel Elektromotoren.
Die Kamera 9 wird darüber hinaus auch als Nachtsichtgerät ausgeführt. Dazu weist die Kamera 9 eine Infrarot- oder restlichtverstärkende Empfangsvorrichtung auf. In der Signalverarbeitung 8 befindet sich eine Software zur Bilder- kennung. Es werden dabei bei einem Bild, daß die Kamera 9 aufgenommen hat, die einzelnen Objekte analysiert und bestimmten Objekten zugeordnet. Diese Daten werden dann von der Signalverarbeitung 8 an den Prozessor 1 übergeben. Der Prozessor 1 vergleicht dann diese Daten, die den erkannten Objekten zugeordnet sind, mit Objektdaten, die im Speicher 5 abgelegt sind. Darüber hinaus vergleicht der Prozessor 1 nur diese Objektdaten aus dem Speicher 5, die im Moment zur Darstellung verwendet werden. Stimmen die Objekte überein, bleibt die optische Darstellung 3 erhalten, ergibt sich eine Diskrepanz, dann werden die Objekte entsprechend den Koordi- naten, bei denen die Kamera 9 die Objekte aufgenommen hat, in der optischen Darstellung 3 eingefügt und ersetzen gegebenenfalls veraltete Objekte, also solche Objekte, die nun nicht mehr vorhanden sind.
Ein Beispiel hierfür ist ein Umschalten einer Ampel von Rot auf Gelb, so daß auch in der optischen und akustischen Darstellung 3 dieses Umschalten abgebildet wird. Dafür erkennt die Kamera 9, daß die Ampel von Rot auf Gelb umschaltet, wo- bei das Objekt nun die Ampel, die auf Gelb geschaltet hat, ist und von der Signalverarbeitung 8 mittels Bildverarbeitungssoftware erkannt wird. Dies wird von der Signalverarbeitung 8 dem Prozessor 1 übergeben. Der Prozessor 1 vergleicht mit der im Moment dargestellten Ampel, die Rot an- zeigt, und erkennt die Diskrepanz und benutzt das neue Objekt, das ist die Ampel, die Gelb anzeigt, daß die Kamera 9 aufgenommen hat, für die Darstellung auf der optischen Darstellung 3.
Über einen vierten Dateneingang des Prozessors 1 ist eine
Sensorik 10 des landgebundenen Fahrzeugs angeschlossen. Die Sensorik 10 liefert Meßdaten des landgebundenen Fahrzeugs an den Prozessor 1. Solche Daten sind zum Beispiel die Treibstoffreserve oder Energiereserve bei einem batteriegetriebe- nen Fahrzeug, der Reifendruck, die Innentemperatur, der Öl- stand und die Kühlwassertemperatur, wobei diese Daten an den Prozessor 1 übergeben werden. Der Prozessor 1 bringt diese Meßdaten über die Signalverarbeitung 2 auf die optische und akustische Darstellung 3, so daß der Benutzer über kritische Werte seines landgebundenen Fahrzeugs informiert wird. Die
Einblendung erfolgt abhängig von voreingestellten Warnwerten für die einzelnen Sensorenwerte. Wird zum Beispiel der Treibstoffstand unter einem vorgegebenen Wert gemessen, dann wird eine Warnung an den Benutzer über die optische und aku- stische Darstellungseinrichtung 3 weitergegeben, daß der Benutzer sein Fahrzeug nachtanken muß.
Weiterhin stellt der Prozessor 1 bei einer voreingestellten zweidimensionalen Darstellung des aktuellen Gebietes einen
Radius dar, der anzeigt, wie weit das landgebundene Fahrzeug mit den vorhandenen Treibstoffreserven noch fahren kann. Dabei werden Tankstellen optisch hervorgehoben. Diese Hervorhebung erfolgt z.B. durch eine sich von der übrigen Darstel- lung klar absetzenden Farbe oder durch ein Blinken oder durch Pfeile, die auf die Tankstellen zeigen.
Die Daten, die der Prozessor 1 für die Darstellung verwendet, sind als MPEG4 -Dateien angelegt. MPEG4 ist ein bekann- ter, allgemeiner Standard für Multimedia-Dateien und -
Datenströme, mit denen sowohl Audio-, Video- und Textdateien codiert werden können. MPEG4 bezeichnet also hier eine Quellencodierung, d.h. bei der Quellencodierung findet eine Datenreduktion statt, in dem redundante Daten aus den Origi- naldaten entfernt werden, um die Datengröße zu minimieren.
Der Prozessor 1 entnimmt die MPEG4 -Dateien aus dem Speicher 5 und decodiert diese Dateien, so daß sie dann mittels der Signalverarbeitung 2 und der optischen und akustischen Dar- Stellung 3 dargestellt werden können. Insbesondere liegen auch Textdateien vor, die die dargestellte Szene beschreiben und festlegen, welche Objekte in der Szene dargestellt werden.
MPEG4 -Dateien und/oder MPEG4-Datenströme werden auch mittels der Sende-Empfangseinrichtung 6 von externen Datenquellen abgerufen. Da MPEG4 ein allgemein anerkannter Standard ist, ist die Kompatibilität zu Datendienstanbietern leicht zu erreichen. So ist zum Beispiel möglich, von einem Ereignis Au- dio- und Videodatenströme, die als MPEG4 -Datenströme kodiert wurden, mittels der Sende-Empfangseinrichtung 6 zu empfangen und mittels des Prozessors 1 zu dekodieren und mittels der akustischen und optischen Darstellung 3 darzustellen.
Es liegen hier Textdateien vor, die insbesondere eine Szene, die dargestellt werden soll, enthalten. Der Prozessor 1 erzeugt dann mittels der Textdateien und den Objektdateien und gegebenenfalls Objektdatenströmen die Szene, die dann mittels der Signalverarbeitung 2 und der akustischen und opti- sehen Darstellung 3 dargestellt wird. Die Objektdateien und -datenströme liegen entweder als MPEG4 -Dateien oder -Daten- ströme vor oder als MPEG4 -kompatible Daten, die dann mittels eines Echtzeitübersetzers , der auf dem Prozessor 1 läuft, für die Szenendarstellung bei Bedarf in MPEG4 -Daten über- setzt werden.
Eine Ampel wird hier als Objekt beschrieben. Die Ampel ist weiterhin mit der Darstellung für eine rote, gelbe und grüne Ampel verknüpft. Je nach Ereignis wird die eine oder andere Verknüpfung zur Darstellung verwendet.
Die Objekte sind weiterhin mit einer Koordinatendatei verbunden, das heißt abhängig von dem Standort des landgebundenen Fahrzeugs ruft der Prozessor 1 die in der Koordinaten- datei für diese Koordinaten spezifizierte Objekte ab, um diese Objekte darzustellen.
Von der Sensorik (10) des landgebundenen Fahrzeugs erhält der Prozessor 1 Daten über eine Geschwindigkeit des Fahr- zeugs . Dadurch ist der Prozessor 1 in der Lage, die Genauigkeit der optischen Darstellung des Navigationsgeräts an die Geschwindigkeit anzupassen. Bei hohen Geschwindigkeiten, die durch das Überschreiten eines vorgegebenen Geschwindigkeits- werts definiert werden, wird die optische Darstellung ver- einfacht, weil einerseits der Benutzer stärker auf den Ver- kehr achten muß und andererseits der Benutzer die tatsächlichen Objekte aufgrund seiner Geschwindigkeit nicht mehr voll wahrnimmt .
Durch Vergleich der aktuellen Geschwindigkeit mit einer im Navigationsgerät abgespeicherten Kurve, die einer Geschwindigkeit der Genauigkeit der optischen Darstellung zuordnet, kann die Genauigkeit der optischen Darstellung genau an den aktuellen Geschwindigkeitswert angepaßt werden.
Die optische und akustische Darstellung wird nach vorgegebenen Parametern, die der Benutzer mittels der Eingabevorrichtung 4 eingibt, von den optischen und akustischen Darstellung 3 dargestellt. So gibt der Benutzer vor, welche Einzel- heiten dargestellt werden sollen, ob nur Verkehrszeichen und die Straßen dargestellt werden, wobei beliebige Darstellungsvorgaben ermöglicht werden. Der Benutzer kann darüber hinaus bestimmen, ob akustische Hinweise gemacht werden oder nicht .
Das Navigationsgerät blendet auf dem Monitor neben der nachgebildeten Wirklichkeit zusätzliche künstliche Objekte wie Hinweispfeile ein.

Claims

Ansprüche
1. Navigationsgerät für ein landgebundenes Fahrzeug, wobei das Navigationsgerät einen Prozessor (1) aufweist, wobei der Prozessor (1) den Ort des landgebundenen Fahrzeugs mittels einer Ortungsvorrichtung (11) feststellt, wobei das Navigationsgerät Mittel (3) zur akustischen und optischen Darstellung aufweist, wobei die Mittel (3) zur aku- stischen und optischen Darstellung ein Gebiet, in dem sich das landgebundene Fahrzeug befindet, darstellen, wobei ein Benutzer eine Route mittels einer Eingabevorrichtung (4) dem Navigationsgerät mitteilt, wobei der Benutzer die vom Benutzer gewählte Route am Navigationsgerät während der Fahrt anpaßt, wobei die Mittel (3) zur optischen und akustischen Darstellung das Gebiet perspektivisch darstellen, dadurch gekennzeichnet, daß die Mittel (3) zur optischen und akustischen Darstellung eine darzustellende Szene aus Objekten zusammenfügt, daß der Pro- zessor (1) die Objekte mit Zusatzinformationen verknüpft, daß der Benutzer mittels der Eingabevorrichtung (4) die verknüpften Zusatzinformationen zu den Objekten abruft, daß der Benutzer mittels der Eingabevorrichtung (4) am Navigationsgerät zwischen zweidimensionaler Darstellung und perspektivischer Darstellung wählt und daß der Benutzer mittels der Eingabevorrichtung (4) am Navigationsgerät einen beliebigen Ansichtspunkt für die perspektivische Darstellung der Route wählt.
2. Navigationsgerät nach Anspruch 1, dadurch gekennzeichnet, daß der Benutzer durch Markieren der Objekte mittels der Eingabevorrichtung (4) Zusatzinformationen zu den markierten Objekten abruft.
3. Navigationsgerät nach Anspruch 2, dadurch gekennzeichnet, daß der Prozessor (1) die Objekte mit Kommunikationsmitteln verknüpft, so daß der Benutzer mittels der Kommunikationsmittel Nachrichten zu Adressaten, die mit den mar- kierten Objekten verknüpft sind, versendet.
4. Navigationsgerät nach Anspruch 2, dadurch gekennzeichnet, daß der Benutzter sich eine vom Benutzer gewählte Route mittels der Darstellung des Navigationsgeräts mit einem einstellbaren Zeitfaktor ansieht.
5. Navigationsgerät nach Anspruch 2, dadurch gekennzeichnet, daß der Prozessor (1) mit einem Erkennungsgerät (9) für Objekte verbunden ist, daß das Erkennungsgerät (9) dem Prozessor (1) die erkannten Objekte für einen Ort mitteilt und daß der Prozessor (1) das erkannte Objekt mit einem Objekt vergleicht, welches das Navigationsgerät für diesen Ort in einem Speicher (5) gespeichert hat, so daß das Navigationsgerät die optische Darstellung der vom Be- nutzer gewählten Route mittels aktueller Objekte aktualisiert, falls sich das erkannte Objekt von dem abgespeicherten Objekt unterscheidet.
6. Navigationsgerät nach Anspruch 2, dadurch gekennzeichnet, daß der Prozessor (1) mit einer Sende-Empfangseinrichtung
(6) zum Senden und Empfangen von Funksignalen verbunden ist, so daß das Navigationsgerät mittels der Sende- Empfangseinrichtung (6) Audiodaten und Videosignale empfängt, verarbeitet und darstellt.
7. Navigationsgerät nach Anspruch 2, dadurch gekennzeichnet, daß der Prozessor (1) von dem landgebundenen Fahrzeug über den Zustand des landgebundenen Fahrzeugs erhält und für den Benutzer darstellt.
8. Navigationsgerät nach Anspruch 7, dadurch gekennzeichnet, daß das Navigationsgerät in zweidimensionaler Darstellung eine aktuelle Reichweite des landgebundenen Fahrzeugs von dem aktuellen Ort an dem sich das landgebundene Fahrzeug befindet aus darstellt.
9. Navigationsgerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß der Prozessor (1) die Objekte, die Video- und die Audiodaten sowie die Beschreibung einer Darstellungsszene als MPEG4 -Dateien verwaltet.
10.Navigationsgerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß der Prozessor (1) mit zunehmender Geschwindigkeit des landgebundenen Fahrzeugs die optische Darstellung vereinfacht.
11.Navigationsgerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß das Navigationsgerät die Objekte nach vorgegebenen Einstellungen optisch darstellt.
12.Navigationsgerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß das Navigationsgerät in das mit den Mitteln zur optischen Darstellung dargestellte Gebiet zusätzliche Hinweise einblendet.
PCT/DE2000/002914 1999-09-01 2000-08-25 Navigationsgerät für ein landgebundenes fahrzeug WO2001016563A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2001520069A JP2003508738A (ja) 1999-09-01 2000-08-25 陸上車両用ナビゲーション装置
GB0110595A GB2359715B (en) 1999-09-01 2000-08-25 Land-bound vehicle navigation device with a variable representation of an area
US09/830,596 US6556917B1 (en) 1999-09-01 2000-08-25 Navigation device for a land-bound vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE19941477A DE19941477A1 (de) 1999-09-01 1999-09-01 Navigationsgerät für ein landgebundenes Fahrzeug
DE19941477.7 1999-09-01

Publications (1)

Publication Number Publication Date
WO2001016563A1 true WO2001016563A1 (de) 2001-03-08

Family

ID=7920305

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2000/002914 WO2001016563A1 (de) 1999-09-01 2000-08-25 Navigationsgerät für ein landgebundenes fahrzeug

Country Status (5)

Country Link
US (1) US6556917B1 (de)
JP (1) JP2003508738A (de)
DE (1) DE19941477A1 (de)
GB (1) GB2359715B (de)
WO (1) WO2001016563A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018133669A1 (de) 2018-12-28 2020-07-02 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Wiedergabe von Navigationshinweisen

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10036023A1 (de) * 2000-07-22 2002-01-31 Fahrradfabrik Hans Schauff Visuelles Navigationssystem
US20030009280A1 (en) * 2001-01-05 2003-01-09 Alcatel Navigation method and navigation system
WO2003078930A1 (fr) 2002-03-15 2003-09-25 Mitsubishi Denki Kabushiki Kaisha Dispositif de navigation a bord d'un vehicule
DE10249816B4 (de) * 2002-10-24 2006-01-12 Daimlerchrysler Ag Verfahren und Vorrichtung zum Betrieb eines automobilen Nachtsichtsystems
ATE371166T1 (de) * 2003-06-30 2007-09-15 Harman Becker Automotive Sys Fahrzeugnavigationssystem
US7068996B1 (en) 2004-04-14 2006-06-27 Sprint Spectrum L.P. Banded billing system for telecommunication service
US7603102B1 (en) 2004-04-14 2009-10-13 Sprint Spectrum L.P. Banded billing system for data communication service
JP4507815B2 (ja) * 2004-07-09 2010-07-21 アイシン・エィ・ダブリュ株式会社 信号情報作成方法、信号案内情報提供方法及びナビゲーション装置
US7177761B2 (en) * 2004-10-27 2007-02-13 Navteq North America, Llc Map display for a navigation system
US7451041B2 (en) * 2005-05-06 2008-11-11 Facet Technology Corporation Network-based navigation system having virtual drive-thru advertisements integrated with actual imagery from along a physical route
US7603103B1 (en) 2005-06-02 2009-10-13 Sprint Spectrum L.P. Banded billing and associated invoice generation for communication service
EP2034412A4 (de) * 2006-06-09 2012-03-28 Aisin Aw Co Datenaktualisierungssystem, endgeräteeinrichtung, servereinrichtung und datenaktualisierungsverfahren
JP4446201B2 (ja) * 2007-03-30 2010-04-07 アイシン・エィ・ダブリュ株式会社 画像認識装置及び画像認識方法
US8155826B2 (en) * 2007-03-30 2012-04-10 Aisin Aw Co., Ltd. Vehicle behavior learning apparatuses, methods, and programs
DE102007028401B4 (de) 2007-06-15 2011-08-25 Navigon Ag, 20251 Verfahren zum Betrieb einer Navigationseinrichtung
US7577433B2 (en) * 2007-06-18 2009-08-18 Cvon Innovations Limited Method and system for managing delivery of communications
JP4501983B2 (ja) * 2007-09-28 2010-07-14 アイシン・エィ・ダブリュ株式会社 駐車支援システム、駐車支援方法、駐車支援プログラム
DE102007053305A1 (de) 2007-11-08 2009-05-14 Robert Bosch Gmbh Verfahren und Vorrichtung zur Ausgabe von optischen Fahrempfehlungen in einem Fahrzeug
DE102009019498A1 (de) 2009-02-10 2010-08-19 Navigon Ag Verfahren zur Erzeugung einer digitalen Straßenkarte, Navigationssystem und Verfahren zum Betrieb eines Navigationssystems
DE102010006702A1 (de) * 2009-02-26 2010-09-02 Navigon Ag Verfahren und Vorrichtung zur Berechnung alternativer Routen in einem Navigationssystem
DE102009043309A1 (de) * 2009-02-26 2010-09-16 Navigon Ag Verfahren und Navigationseinrichtung zur Ermittlung der voraussichtlichen Fahrzeit
US9286624B2 (en) 2009-09-10 2016-03-15 Google Inc. System and method of displaying annotations on geographic object surfaces
US20110151760A1 (en) * 2009-12-22 2011-06-23 Caterpillar Inc. Exhaust stack with baffles
US8686873B2 (en) 2011-02-28 2014-04-01 Toyota Motor Engineering & Manufacturing North America, Inc. Two-way video and 3D transmission between vehicles and system placed on roadside
TW201237451A (en) * 2011-03-04 2012-09-16 Hon Hai Prec Ind Co Ltd Positioning and navigating device
CN104508720B (zh) 2012-08-01 2016-09-07 丰田自动车株式会社 驾驶辅助装置
US10479262B2 (en) * 2013-03-14 2019-11-19 International Research Institute iRI Systems and methods for replicating vehicular illumination

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0378271A1 (de) * 1989-01-11 1990-07-18 Koninklijke Philips Electronics N.V. Verfahren zum visuellen Darstellen eines Teils einer topografischen Karte, sowie für ein derartiges Verfahren geeignete Anordnung
US5289572A (en) * 1989-10-24 1994-02-22 Mitsubishi Denki Kabushiki Kaisha Electronic map combined with user service information
EP0738876A2 (de) * 1995-04-20 1996-10-23 Hitachi, Ltd. Kartenanzeigegerät
EP0841537A2 (de) * 1996-11-07 1998-05-13 Xanavi Informatics Corporation Verfahren und Vorrichtung zum Anzeigen einer Navigationskarte
WO1998035311A1 (en) * 1997-02-06 1998-08-13 Delorme Publishing Company, Inc. Travel reservation and information planning system
EP0875729A2 (de) * 1997-04-28 1998-11-04 Pioneer Electronic Corporation Verfahren und Vorrichtung zum Steuern einer Kartenanzeige

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59127200A (ja) * 1983-01-11 1984-07-21 株式会社デンソー 車載交通情報報知装置
JP3385657B2 (ja) * 1993-08-10 2003-03-10 トヨタ自動車株式会社 車載用ナビゲーション装置
DE69428505T2 (de) * 1993-12-27 2002-06-06 Aisin Aw Co Kartenanzeigesystem
EP0673010B1 (de) * 1994-03-18 2003-06-04 Aisin Aw Co., Ltd. Führungssystem
JPH09159481A (ja) * 1995-10-04 1997-06-20 Aisin Aw Co Ltd 地図表示装置、ナビゲーション装置及び地図情報処理のためのコンピュータプログラムを記憶した媒体
JP3501390B2 (ja) * 1995-12-19 2004-03-02 本田技研工業株式会社 車載用ナビゲーション装置
JP3321536B2 (ja) * 1996-12-03 2002-09-03 株式会社日立製作所 情報提供システム、情報表示装置及び情報提供装置
JP3429425B2 (ja) * 1997-03-27 2003-07-22 富士通テン株式会社 ナビゲーション装置
JPH1131295A (ja) * 1997-07-14 1999-02-02 Toshiba Corp 道路情報管理システムおよび道路情報端末装置
JPH11118498A (ja) * 1997-10-18 1999-04-30 Mazda Motor Corp 車両のコミュニケーションシステム
US6266614B1 (en) * 1997-12-24 2001-07-24 Wendell Alumbaugh Travel guide
JP3546680B2 (ja) * 1998-01-26 2004-07-28 トヨタ自動車株式会社 ナビゲーション装置
US6285317B1 (en) * 1998-05-01 2001-09-04 Lucent Technologies Inc. Navigation system with three-dimensional display
US6266442B1 (en) * 1998-10-23 2001-07-24 Facet Technology Corp. Method and apparatus for identifying objects depicted in a videostream

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0378271A1 (de) * 1989-01-11 1990-07-18 Koninklijke Philips Electronics N.V. Verfahren zum visuellen Darstellen eines Teils einer topografischen Karte, sowie für ein derartiges Verfahren geeignete Anordnung
US5289572A (en) * 1989-10-24 1994-02-22 Mitsubishi Denki Kabushiki Kaisha Electronic map combined with user service information
EP0738876A2 (de) * 1995-04-20 1996-10-23 Hitachi, Ltd. Kartenanzeigegerät
EP0841537A2 (de) * 1996-11-07 1998-05-13 Xanavi Informatics Corporation Verfahren und Vorrichtung zum Anzeigen einer Navigationskarte
WO1998035311A1 (en) * 1997-02-06 1998-08-13 Delorme Publishing Company, Inc. Travel reservation and information planning system
EP0875729A2 (de) * 1997-04-28 1998-11-04 Pioneer Electronic Corporation Verfahren und Vorrichtung zum Steuern einer Kartenanzeige

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018133669A1 (de) 2018-12-28 2020-07-02 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Wiedergabe von Navigationshinweisen

Also Published As

Publication number Publication date
GB2359715B (en) 2003-12-24
JP2003508738A (ja) 2003-03-04
DE19941477A1 (de) 2001-03-22
GB2359715A (en) 2001-08-29
US6556917B1 (en) 2003-04-29
GB0110595D0 (en) 2001-06-20

Similar Documents

Publication Publication Date Title
WO2001016563A1 (de) Navigationsgerät für ein landgebundenes fahrzeug
EP1226486B1 (de) Vorrichtung zur darstellung von informationen in einem fahrzeug
DE69934648T2 (de) Informationsauffindungssystem
DE69936922T2 (de) Mobilendgerät und server in einem navigationssystem
DE10044935B4 (de) Navigationsvorrichtung
DE60032969T2 (de) Verkehrsinformationssystem für Fahrzeuge
EP1131804B1 (de) Vorrichtung zur eingabe von fahrzielen in eine navigationsvorrichtung
WO2001015117A1 (de) Ortsbezogene wap-staukarte durch verknüpfung von kartenausschnitten in einer verkehrsinformationszentrale
DE102008037690A1 (de) Verfahren und Vorrichtung zur Warnung vor Einsatzfahrzeugen im Notfalleinsatz
WO2001032482A1 (de) Vorrichtung zur fahrerzustandsabhängigen steuerung
DE102008045406A1 (de) Bordeigene Anzeigevorrichtung und Anzeigeverfahren für eine bordeigene Anzeigevorrichtung
DE19604084A1 (de) Verfahren und Einrichtung zur Ermittlung von Dynamischen Verkehrsinformationen
DE10060599A1 (de) System und Verfahren zum Übertragen von Verkehrsinformationen
DE102007056401A1 (de) Vorrichtung zur Mitteilung der Wetterinformation und Programm dafür
EP1508889A2 (de) Fahrerinformationsvorrichtung
DE19746745A1 (de) Digitales Kommunikationssystem sowie mobiles und stationäres Endgerät dafür
EP0800092A2 (de) Vorrichtung und Verfahren zur Zielführung eines Fahrzeuges
EP1087359A2 (de) Verfahren zum Anordnen von Streckeninformation innerhalb einer Strassenkarte und Navigationsgerät
DE19608538C1 (de) Verkehrsleit- und Informationssystem
EP1309962A1 (de) Verfahren und vorrichtung zur wiedergabe von informationen
WO2002011100A1 (de) Verfahren zur übertragung einer route und eines standorts eines einsatzfahrzeugs zu kraftfahrzeugen
DE19852237A1 (de) Verfahren und Vorrichtung zur Wiedergabe von Signalen in einem Telematikmodul
WO2009010258A1 (de) Eingabe von geodaten in eine navigationseinrichtung
DE10001252B4 (de) Überwachungssystem
DE10027136C2 (de) Mobiles System zur Erzeugung eines virtuellen Displays

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): GB JP US

ENP Entry into the national phase

Ref country code: GB

Ref document number: 200110595

Kind code of ref document: A

Format of ref document f/p: F

Ref country code: JP

Ref document number: 2001 520069

Kind code of ref document: A

Format of ref document f/p: F

WWE Wipo information: entry into national phase

Ref document number: 09830596

Country of ref document: US