DE60122963T2 - Navigationsvorrichtung - Google Patents

Navigationsvorrichtung Download PDF

Info

Publication number
DE60122963T2
DE60122963T2 DE60122963T DE60122963T DE60122963T2 DE 60122963 T2 DE60122963 T2 DE 60122963T2 DE 60122963 T DE60122963 T DE 60122963T DE 60122963 T DE60122963 T DE 60122963T DE 60122963 T2 DE60122963 T2 DE 60122963T2
Authority
DE
Germany
Prior art keywords
vehicle
object model
information
map data
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60122963T
Other languages
English (en)
Other versions
DE60122963D1 (de
Inventor
Akira Sakai-shi Ishida
Yoshiki Sakai-shi Ueyama
Kiyomi Ikoma-shi Sakamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of DE60122963D1 publication Critical patent/DE60122963D1/de
Application granted granted Critical
Publication of DE60122963T2 publication Critical patent/DE60122963T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3697Output of additional, non-guidance related information, e.g. low fuel level

Description

  • Hintergrund der Erfindung
  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf Navigationsvorrichtungen und genauer auf eine Navigationsvorrichtung zum Unterstützen des Fahrers eines Fahrzeugs beim Fahren, indem Information darüber erkannt und ihm/ihr angezeigt wird, was sich um das Fahrzeug herum abspielt.
  • Beschreibung des technischen Hintergrundes
  • Es wurde solch ein System entwickelt wie Überwachen um ein Fahrzeug auf der Straße mit einem Sensor, um zu sehen, was darum herum geschieht und wenn eine Kollision mit anderen Fahrzeugen als hochwahrscheinlich betrachtet wird, den Fahrer zu warnen. In der japanischen Patent-Offenlegungsschrift Nr. 11-321494 (99-321494) z.B. ist solch eine herkömmliche Technik wie folgt offenbart.
  • Zu allererst wird ein Videosignal, das von einer Kamera ausgegeben wird, Bildverarbeitung unterworfen, um zu erkennen, ob sich irgendein Fahrzeug nähert. Wenn irgendeines erkannt wird, wird der Fahrer eines Fahrzeugs durch einen Piepton gewarnt. Was das sich annähernde Fahrzeug betrifft, so wird auch ein Bild davon mit einem Rechteck markiert und auf einer Anzeigevorrichtung angezeigt. Dementsprechend kann der Fahrer auf der Anzeige erkennen, welches das Fahrzeug ist, das bei einer Kollision gewarnt wird.
  • In der obigen herkömmlichen Technik wird dem Fahrer jedoch nicht viel Information bereitgestellt, wenn er/sie in Gefahr ist, es wird jedoch adäquate Information geboten, wenn ihm/ihr keine Gefahr droht. Daher mag der Fahrer, selbst wenn er/sie einen Warnpiepton hört, er/sie verärgert sein, da er/sie kaum weiß, ob ihm/ihr irgendeine Gefahr droht, und wie gefährlich es tatsächlich ist. Wenn der Fahrer ferner irgendeine Routenführung während des Fahrens hört, mag er/sie dadurch abgelenkt sein und gehobene Aufmerksamkeit allein nach vorne schenken, aber nicht nach hinten. In der herkömmlichen Technik wird keine Berücksichtigung auf solch eine Möglichkeit gegeben.
  • Ähnlich ist ein Beispiel in JP-09178505 offenbart, wo ein Bildverarbeitungsabschnitt Bilddaten verarbeitet, die mittels einer CCD-Kamera aufgenommen wurden und Bildinformation, die repräsentativ für die Merkmale in der Umgebung eines Autos sind, an eine CPU abgibt zum Erkennen von Umgebungszuständen; diese CPU bündelt die Bildinformation mit einer Vielzahl zuvor gespeicherter Musterbilder, basierend auf einem Bild, welches im Bildverarbeitungsabschnitt identifiziert wurde und gibt die gebündelten Ergebnisse an eine Navigations-CPU aus zusammen mit der Entfernung von der gegenwärtigen Position; die Navigations-CPU ist dazu bestimmt, die Straßenkartendaten der gegenwärtigen Position, die gemessen ist, erneut zu erzeugen von einem CD-ROM durch einen CD-ROM-Player, welcher mit einem Anzeiger verbunden ist.
  • Ein weiteres ähnliches Beispiel ist in JP-11339192 offenbart, wo eine Navigations-ECU erkennt, ob ein Objekt, das ein Fahrer erkennen sollte oder ein Ereignis, wie ein Unfall, in einer Richtung existiert oder nicht, in die ein eigenes Fahrzeug fortschreitet; basierend auf der Information bezüglich der Neigung einer Straße und der Krümmung einer Kurve wird die Sichtbarkeit des Objekts für einen Fahrer beurteilt; ein entsprechendes Achtsamkeitsniveau wird aktualisiert und das Objekt mit höherem Achtsamkeitsniveau wird dreidimensional angezeigt oder verbal durch Lautsprecher angekündigt.
  • Zusammenfassung der Erfindung
  • Daher ist es eine Aufgabe der vorliegenden Erfindung, eine Navigationsvorrichtung bereitzustellen, um dem Fahrer eines Fahrzeugs zu helfen, sicher zu fahren, ohne den Fahrer zu verärgern, indem ihm/ihr akkurate Information zur rechten Zeit bereitgestellt wird, was sich um sein/ihr Fahrzeug herum abspielt.
  • Die vorliegende Erfindung ist durch die Ansprüche 1, 11, 19 und 20 definiert und hat die folgenden Merkmale, um die obige Aufgabe zu erfüllen.
  • Ein Aspekt der vorliegenden Erfindung ist auf eine Navigationsvorrichtung von einem in einem Fahrzeug montierten Typ gerichtet zum Erkennen der Gegebenheiten um ein Fahrzeug herum und wenn sie betrachtet, dass es angebracht ist, einen Benutzer zu warnen, Anordnung eines anwendbaren Objektmodells zur Anzeige auf einem Kartenbild und zum Machen einer Leitung zu einem Ziel. In der vorliegenden Navigationsvorrichtung überwacht ein Teil zur externen Überwachung die Gegebenheiten um das Fahrzeug und gibt resultierende Überwachungsinformation aus. Basierend auf der Überwachungsinformation erkennt ein Hinderniserkennungsteil jegliches Hindernis, das außerhalb des Fahrzeugs beobachtet wird und gibt externe Information aus einschließlich Positionsinformation des Hindernisses. Basierend auf der externen Information bestimmt ein Leitteil, ob das Hindernis der Aufmerksamkeit dess Benutzers bedarf und wenn es ihr bedarf, erzeugt er Fahrerunterstützungsinformation einschließlich der Positionsinformation des Hindernisses wie in der externen Information. Basierend auf so erzeugter Fahrassistenzinformation und Objektmodellanzeigeinformation für das Hindernis erzeugt ein Kartendatenanordnungsteil ein Objektmodell zum Anordnen auf einem Kartenbild. Weiter erzeugt der Leitteil Leitinformation einschließlich dem resultierenden Kartenbild, welches von einem Kartendatenanordnungsteil ausgegeben wird in Antwort auf die Route, welche durch einen Routenauswahlteil ausgewählt wird, die gegenwärtige Position, welche durch einen Positionserken nungsteil erkannt wird und Kartendaten aus einem Kartendatenspeicherteil. So erzeugte Leitinformation wird auf einem Anzeigeteil für den Benutzer dargestellt.
  • Diese und andere Aufgaben, Merkmale, Aspekte und Vorteile der vorliegenden Erfindung werden ersichtlicher werden aus der folgenden detaillierten Beschreibung der vorliegenden Erfindung, wenn im Zusammenhang mit den beigefügten Zeichnungen genommen.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist ein Blockdiagramm, welches die Struktur einer Navigationsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung zeigt;
  • 2 ist ein Diagramm, welches die Struktur der Navigationsvorrichtung von 1 zeigt, die in einem allgemeinen Computersystem verwirklicht ist;
  • 3 ist ein Flussdiagramm, welches einen grundlegenden Fluss von Verarbeitung in der vorliegenden Navigationsvorrichtung zeigt;
  • 4 ist ein Flussdiagramm, welches den detaillierten Prozess von Unterroutinenschritt S54 zeigt;
  • 5 ist ein Flussdiagramm, welches einen grundlegenden Fluss von Verarbeitung zum Erzeugen externer Information durch einen Hinderniserkennungsteil 8 zeigt;
  • 6 ist ein Flussdiagramm, welches den detaillierten Prozess von Unterroutinenschritt S120 zeigt;
  • 7 ist ein Flussdiagramm, welches den detaillierten Prozess von Unterroutinenschritt S130 zeigt;
  • 8 ist ein Flussdiagramm, welches den detaillierten Prozess von Unterroutinenschritt S140 zeigt;
  • 9 ist eine Tabelle, welche schematisch den Zusammenhang zwischen einem Zustand Mit-Sorge und einem Fahrzeug Mit-Sorge zeigt;
  • 10 ist ein schematisches Diagramm, welches beispielhaft zeigt, welche Fahrassistenzinformation darin trägt;
  • 11 ist ein Flussdiagramm, welches den detaillierten Prozess von Unterroutinenschritt S55 zeigt;
  • 12 ist ein Blockdiagramm, welches die detaillierte Struktur eines Kartendatenanordnungsteils 4 zeigt, ein dadurch erzeugtes resultierendes Kartenbild ist von einer 2D-Landschaft;
  • 13 ist ein schematisches Diagramm, welches ein beispielhaftes Kartenbild zeigt, das auf einer Anzeige 5 angezeigt wird;
  • 14 ist ein schematisches Diagramm, welches ein anderes Beispiel von Kartenbild zeigt, das auf der Anzeige 5 angezeigt wird;
  • 15 ist ein schematisches Diagramm, welches ein nochmals weiteres Beispiel eines Kartenbildes zeigt, das auf der Anzeige 5 angezeigt wird;
  • 16 ist ein Blockdiagramm, welches die detaillierte Struktur des Kartendatenanordnungsteils 4 zeigt, ein dadurch erzeugtes resultierendes Kartenbild ist von einer Vogelperspektive;
  • 17 ist ein Diagramm, welches eine Technik demonstriert zum Erzeugen einer vogelperspektivischen Ansicht durch Unterwerfen von 2D-Kartendaten einer perspektivischen Transformation;
  • 18 zeigt ein beispielhaftes Kartenbild in Vogelperspektive, welches auf der Anzeige 5 angezeigt wird;
  • 19 ist ein Blockdiagramm, welches die detaillierte Struktur des Kartendatenanordnungsteils 4 zeigt, dadurch erzeugte resultierende Bilddaten sind von einer 3D-Landschaft unterschiedlich von einer vogelperspektivischen Ansicht;
  • 20 ist ein Blockdiagramm, das die detaillierte Struktur eines 3D-Kartendatenerzeugungsteils 147 zeigt;
  • 21 ist ein Diagramm, das beispielhaft einen Fall zeigt, wo 3D-Objektmodelle auf der 3D-Landschaft angezeigt werden, welche ein Mit-Sorge Fahrzeug und dessen Richtung zeigen, welches dabei ist, einen Fahrspurwechsel nach rechts zu machen;
  • 22 ist ein Blockdiagramm, welches die detaillierte Struktur des Kartendatenanordnungsteils 4 zeigt, welcher 2D-Daten empfängt von dem Objektmodellanzeigeinformationsspeicherteil 6 und 3D-Kartendaten von dem Kartendatenspeicherteil 3 und erzeugt ein Kartenbild von 3D-Landschaft;
  • 23 ist ein Diagramm, welches beispielhaft mehrere Bilddateien zeigt, bereitet als 2D-Forminformation in Objektmodellanzeigeinformation; und
  • 24 zeigt ein beispielhaftes Kartenbild von 3D-Landschaft, erzeugt durch den Kartendatenanordnungsteil 4 von 22.
  • Beschreibung der bevorzugten Ausführungsform
  • 1 ist ein Blockdiagramm, welches die Struktur einer Navigationsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung zeigt. In 1 enthält die Navigationsvorrichtung eine Eingabevorrichtung 2, einen Kartendatenspeicherteil 3, einen Kartendatenanordnungsteil 4, eine Anzeige 5, einen Objektmodellanzeigeinformationsspeicherteil 6, einen externen Überwachungsteil 7, einen Hinderniserkennungsteil 8, einen Positionserkennungsteil 9, einen Routenauswahlteil 10 und einen Leitteil 11.
  • Der Eingabeteil 2 ist durch den Fahrer bedienbar und verwendet zur funktionellen Auswahl (z.B. Verarbeitung eines Wechsels eines Gegenstands, Umschalten von Karten, Veränderung in hierarchischem Niveau), Punktsetzungen und ähnliches. Von dem Eingabeteil 2 wird Anweisungsinformation ausgegeben, die an den Routenauswahlteil 10 weitergeleitet wird.
  • Der Positionserkennungsteil 9 setzt sich zusammen aus einem GPS, Funkstrahlempfänger, Fahrzeugsgeschwindigkeitssensor, Winkelgeschwindigkeitssensor, Sensor für absoluten Azimuth oder ähnliches und erkennt die gegenwärtige Position des Fahrzeugs. Von dem Positionserkennungsteil 9 wird Information ausgegeben über die gegenwärtige Position des Fahrzeugs, die sowohl zu dem Routenauswahlteil 10 als auch dem Leitteil 11 weitergeleitet wird.
  • Der externe Überwachungsteil 7 kann eine CCD-Kamera, Laserradar, Ultraschallsensor oder ähnliches sein und überwacht um das Fahrzeug herum, um zu wissen, ob, typischer Weise, irgendein Hindernis beobachtet wird oder wie rückwärtige Fahrzeuge sich verhalten. Der externe Überwachungsteil 7 gibt dann resultierende Überwachungsinformation an den Hinderniserkennungsteil 8 aus. Hier kann der externe Überwachungsteil 7 mit anderen Fahrzeugen, einem Verkehrskontrollzentrum und ähnlichem kommunizieren, um um sein eigenes Fahrzeug herum zu überwachen. Um solch eine Überwachung zu verwirklichen ist jedoch die Errichtung eines Systems benötigt und die Kosten werden dadurch erhöht. Dementsprechend ist der externe Überwachungsteil 7 bevorzugt durch z.B. einen Sensor gebildet. Eine Bildaufnahmevorrichtung, wie eine Kamera, ist auch eine vorzugswürdige Möglichkeit für den externen Überwachungsteil 7, da sie menschlichen Augen kompetent ist, Dinge wahrzunehmen.
  • Basierend auf der durch den externen Überwachungsteil 7 bereitgestellten Überwachungsinformation analysiert der Hinderniserkennungsteil 8 ein Hindernis und welcher Typ, Position, Geschwindigkeit und ähnliches und gibt externe Information aus, die später beschrieben werden wird. Hier schließt solch ein Hindernis alles ein, was die direkte Aufmerksamkeit des Fahrers bedarf oder ihn/sie am Fahren stört. Zum Beispiel wird alles, was im Voraus auf der Straße liegt, jegliches Fahrzeug, das sich von hinten nähert und jedes Fahrzeug, welches sich unbesonnen verhält, als ein Hindernis betrachtet.
  • Der Kartendatenspeicherteil 3 setzt sich zusammen aus einer optischen Platte (z.B. CD, DVD), Festplatte, Halbleiterspeicherkarte (z.B. SD-Karte) oder ähnliches. Der Kartendatemspeicherteil 3 speichert im Voraus 2D- oder 3-D-Kartendaten, welche ein spezifisches Gebiet durch geographische Merkmale anzeigen und in dem Gebiet sind Kreuzungen und Straßenverbindungen durch Koordinaten, Form, Attribut, Regulierungsinformation und ähnliches definiert. Die Kartendaten, welche in dem Kartenspeicherteil 3 gespeichert sind, werden wie geeignet zur Verwendung durch den Kartendatenanordnungsteil 4, den Routenauswahlteil 10 und den Leitteil 11 gelesen.
  • Der Routenauswahlteil 10 liest die Kartendaten aus dem. Kartendatenspeicherteil 3 allein für ein benötigtes Gebiet gemäß der Anweisungsinformation, die durch den Eingabeteil 2 bereitgestellt wird. Der Routenauswahlteil 10 bestimmt dann einen Startpunkt und ein Ziel, basierend auf Punktinformation, die in der Anweisungsinformation enthalten ist, und der Information über die gegenwärtige Position des Fahrzeugs, die durch den Positionserkennungsteil 9 bereitgestellt wird. Danach sucht der Routenauswahlteil 10 nach einer Route, die in Kosten minimal ist, zwischen dem Startpunkt und dem Ziel. Ein dadurch erhaltenes Ergebnis wird an den Leitteil 11 als Routeninformation ausgegeben.
  • Basierend auf sowohl der Routeninformation von dem Routenauswahlteil 10, der Information über die gegenwärtige Position des Fahrzeugs von dem Positionserkennungsteil 9, den Kartendaten von dem Kartendatenspeicherteil 3 als auch der externen Information von dem Hinderniserkennungsteil 8 erzeugt der Leitteil 11 Leitinformation zum Leiten des Fahrzeugs zum Ziel. Diese Leitinformation wird der Anzeige 5 zur Anzeige darauf bereitgestellt.
  • Der Kartendatenanordnungsteil 4 ordnet Objektmodelle in einem Kartenraum an. Diese Anordnung wird gemacht basierend auf sowohl den Kartendaten, die in dem Kartendatenspeicherteil 3 gespeichert sind, der Information, die durch ein Hinderniserkennungsteil 8 bereitgestellt wird, als auch der Information, die in der Objektmodellanzeigeinformation des Speicherteils 6 gespeichert ist.
  • Die Anzeige 5 besteht aus einer Anzeigevorrichtung (z.B. Flüssigkristallanzeige, Kathodenstrahlröhrenanzeige), Lautsprecher und ähnliches und zeigt die Leitinformation zusammen mit einem resultierenden Kartenbild an, das durch den Kartendatenanordnungsteil 4 bereitgestellt wird. Alternativ kann die Anzeige 5 Laute zum Leiten ausgeben, mit oder ohne Anzeige auszuführen.
  • Wie in dem Kartendatenspeicherteil 3 besteht auch der Objektmodellanzeigeinformationsspeicherteil 6 aus einer optischen Platte, Festplatte oder ähnliches. Darin gespeichert ist Information über eine Technik zum Darstellen von 2D- oder 3D-Objektmodellen auf einem Kartenbild gemäß der Information, die durch den Hinderniserkennungsteil 8 oder den Eingabeteil 2 bereitgestellt wird. Zur späteren Beschreibung wird über die Technik und die Details der Information belassen.
  • Eine solche strukturierte Navigationsvorrichtung der 1 kann in einem allgemeinen Computersystem verwirklicht werden. Die Struktur einer solchermaßen verwirklichten Navigationsvorrichtung ist in 2 gezeigt.
  • In 2 enthält die Navigationsvorrichtung eine CPU 342, ROM 343, RAM 344, einen Ausgabeteil 345, einen Eingabeteil 346, einen Positionserkennungsteil 349 und einen externen Überwachungsteil 348, welche alle durch einen gemeinsamen Bus oder einen externen Bus miteinander verbunden sind. Hier sei angenommen, dass sowohl das ROM 343 als auch das RAM 344 möglicherweise eine Speichervorrichtung enthalten, die ein externes Speichermedium enthält.
  • In 2 arbeitet die CPU 342 in Übereinstimmung mit Programmen, die in einem oder beiden des ROM 343 und des RAM 344 gespeichert sind. Sowohl der Kartendatenanordnungsteil 4, der Hinderniserkennungsteil 8, der Routenauswahlteil 10 als auch der Leitteil 11 sind in der Funktionalität durch jeweils entsprechende Programme verwirklicht. In solch einem Fall ist ein Aufzeichnungsmedium, welches typischer Weise solche Programme speichert, in der Navigationsvorrichtung implementiert. Das Programm kann dasjenige sein, das über eine Kommunikationsschaltung übertragen wird.
  • Das ROM 343 enthält typischer Weise den Kartendatenspeicherteil 3 von 1 oder das RAM 344 kann dies gänzlich oder teilweise tun. Ähnlich enthält das RAM 344 typischer Weise den Objektmodellanzeigeinformationsspeicherteil 6 oder das ROM 343 kann dies tun.
  • 3 ist ein Flussdiagramm, das einen grundlegenden Fluss von Verarbeitung in der vorliegenden Navigationsvorrichtung zeigt. Im Schritt S51 von 3 führt der Routenauswahlteil 10 mit durch den Eingabeteil 2 bereitgestelltem, durch den Fahrer bezeichneten Ziel und Kartengebiet und mit einer durch den Positionserkennungsteil 9 bereitgestellten Fahrzeugposition dementsprechend Routensuche durch. Ein dadurch erhaltenes Ergebnis wird an den Leitteil 11 ausgegeben.
  • Als nächstes fordert, im Schritt S52, der Leitteil 11 den Kartendatenanordnungsteil 4 für Kartendatenanordnung auf, eine Karte anzuzeigen, welche ein Gebiet abdeckt entsprechend der durch den Positionserkennungsteil 9 erkannten Fahrzeugposition. Im Schritt S53 liest der Kartendatenanordnungsteil 4 Kartendaten aus dem Kartendatenspeicherteil 3. In dem Unterroutinenschritt S54 liest der Leitteil 11 externe Information von dem Hinderniserkennungsteil 8, um die Gegebenheiten um das Fahrzeug herum zu sehen, z.B., ob das Fahrzeug dabei ist, nach rechts/links abzubiegen. Basierend auf der externen Information und dem Routensuchergebnis bestimmt der Leitteil 11, ob das Fahrzeug irgendeine Fahrassistenzinformation benötigt und falls es sie benötigt, welche Art von Information. Die Details für diesen Unterroutinenschritt S54 sind zur späteren Beschreibung belassen.
  • Im Unterroutinenschritt S55 gemäß der Fahrassistenzinformation und der Information, die unter dem Objektmodellanzeigeinformationsspeicherteil 6 gespeichert sind, erzeugt der Kartendatenanordnungsteil 4 ein 2D- oder 3D-Objektmodell zum Anordnen auf den Kartendaten, die aus dem Kartendatenspeicherteil 3 gelesen wurden. Die Details für diesen Unterroutinenschritt S55 sind auch zur späteren Beschreibung belassen.
  • Im Schritt S56 veranlasst der Leitteil 11 die Anzeige 5, das Kartenbild zur Leitinformation oder das Kartenbild, worin Objektmodelle angeordnet sind, anzuzeigen. Hierin wird die Leitinformation nicht notwendiger Weise auf dem Kartenbild angezeigt und der Leitteil 11 kann funktionell durch den Kartendatenanordnungsteil 4 für diese Operation ersetzt werden.
  • Schließlich, in Schritt S57, fährt der Leitteil 11 fort, Leitung bereitzustellen, bis das Fahrzeug dessen Ziel erreicht. Daher kehrt die Prozedur zum Schritt S52 zu rück, um die Verarbeitung zu wiederholen, bis der Leitteil 11 bestimmt, dass das Fahrzeug dessen Ziel erreicht hat.
  • 4 ist ein Flussdiagramm, das den detaillierten Prozess von Unterroutinenschritt S54 von 3 zeigt. In Schritt S541 von 4 liest der Leitteil 11 von dem Hinderniserkennungsteil 8 die externe Information, die erzeugt wird wie geeignet durch den Hinderniserkennungsteil 8 basierend auf der Überwachungsinformation von dem externen Überwachungsteil 7.
  • Nun wird im Detail beschrieben die Operation des Hinderniserkennungsteils 8 zum Erzeugen der externen Information. 5 ist ein Flussdiagramm, die einen grundlegenden Fluss zur Verarbeitung in dem Hinderniserkennungsteil 8 zu diesem Zwecke zeigt. Hierin ist der externe Überwachungsteil 7 mutmaßlicher Weise auf einer Bildaufnahmevorrichtung, wie einer CCD-Kamera zum Beispiel, aufgebaut und nimmt Bilddaten auf.
  • Im Schritt S110 von 5 empfängt der Hinderniserkennungsteil 8 Bilddaten von dem externen Überwachungsteil 7. Hier sind die Bilddaten typischer Weise ein Standbild, können aber auch zwei Standbilder sein, die durch zwei Kameras aufgenommen werden, die mit einem vorherbestimmten Abstand dazwischen angeordnet sind, oder Bewegtbilder für eine vorherbestimmte Zeitperiode.
  • Im Unterroutinenschritt S120 erkennt der Hinderniserkennungsteil 8 aus den empfangenen Bilddaten irgendeine Fahrspur, die mutmaßlich durch eine weiße Linie definiert ist. Mit Bezug auf 6 wird nun die detaillierte Verarbeitung in diesem Unterroutinenschritt S120 beschrieben.
  • Im Schritt S121 von 6, was die empfangenen Bilddaten betrifft, erkennt der Hinderniserkennungsteil 8 eine maximale Luminanz in einem vorher bestimmten Bereich davon. Mit Bezug auf den so erkannten Maximalwert und in Anbetracht von Luminanzverteilung setzt der Hinderniserkennungsteil 8 einen Schwellenwert, der zur Erkennung der weißen Linie als optimal betrachtet wird.
  • Im Schritt S122 sucht der Hinderniserkennungsteil 8 das Bild nach irgendeinem Pixel ab, das diesen Schwellenwert überschreitet. Dies wird auf der Basis einer Pixellinie gemacht, die zwischen zwei vorherbestimmten Pixeln auf den Bilddaten gezogen ist, z.B. von einem mittleren Pixel auf der fernen linken Spalte zu demjenigen auf der fernen rechten Spalte. Jegliche aufeinanderfolgende Pixel, die alle den Schwellenwert überschreiten, werden als ein Teil einer weißen Linie betrachtet. In solch einer Weise werden die Bilddaten gründlich durchsucht und weiße Linien werden geeignet daraus extrahiert. Hier ist auch Kantenextraktion eine Möglichkeit durch Verwenden eines Kantenextraktionsfilters, wie einem SOBEL-Filter.
  • Im Schritt S123 setzt zur linearen Annäherung das Hinderniserkennungsteil 8 einen Verarbeitungsbereich, worin so extrahierte weiße Linien beobachtet werden. Für die lineare Annäherung wird z.B. ein HOUGH-Transformations-Algorithmus verwendet. Als ein Ergebnis erscheinen die weißen Linien linear auf den Bilddaten.
  • Im Schritt S124 erkennt der Hinderniserkennungsteil 8 als eine Fahrspur einen dreieckigen Bereich, der durch beliebige zwei benachbarte weiße Linien und der unteren Seite des Bildes gebildet wird. Hier sei angenommen, dass zwei oder mehr Fahrspuren zu erkennen sind.
  • Als nächstes extrahiert im Unterroutinenschritt S130 von 5 der Hinderniserkennungsteil 8 irgendeinen Fahrzeugbereich aus den Bilddaten, die von dem externen Überwachungsteil 7 empfangen wurden. Hier ist der Fahrzeugbereich typischer Weise durch eine geschlossene Kurve definiert, die als Kontur eines Fahrzeugs betrachtet wird. Hier wird des einfachen Verstehens halber ein Fahrzeug, das die vorliegende Navigationsvorrichtung darauf angebracht hat, einfach als "Fahrzeug" bezeichnet und andere, die darum herum beobachtet werden, werden gemeinsam als "Fahrzeuge in der Nähe" bezeichnet. Dem Fahrzeugbereich wird eine eindeutige Fahrzeug-ID zugewiesen, somit kann, sogar bei mehrfacher Extraktion, jeder Fahrzeugbereich dadurch eindeutig identifiziert werden. Dieser Unterroutinenschritt S130 ist in größerem Detail und mit Bezug auf 7 beschrieben.
  • In Schritt S131 von 7 mit Bezug auf jede der in Schritt S124 erkannten Linien führt der Hinderniserkennungsteil 8 Kantenerkennung aus und extrahiert jeglichen Bereich, worin das Fahrzeug in der Nähe beobachtet wird. Um genau zu sein, werden zuerst aus dem Bild typischer Weise horizontale und vertikale Kanten erkannt und es werden um einen dadurch definierten rechteckigen Bereich Tangentenlinien zur Extraktion gezeichnet.
  • In Schritt S132 durchsucht der Hinderniserkennungsteil 8 eine Fahrzeugbeispielmodelldatenbank (nicht gezeigt) nach einem nächstkommend analogen Fahrzeugmodell zur Überlagerung auf den so extrahierten rechteckigen Bereich. Falls dies gefunden wird, überlagert der Hinderniserkennungsteil 8 das am nächstkommend analoge Fahrzeugmodell auf den extrahierten Bereich in solch einer Weise, dass beide Baryzentren bzw. Schwerpunkte übereinstimmen.
  • In Schritt S133 extrahiert der Hinderniserkennungsteil 8 die Kontur des am nächstkommend analogen Fahrzeugmodells und der so extrahierte Bereich innerhalb der Kontur ist der Fahrzeugbereich.
  • In Schritt S134 weist der Hinderniserkennungsteil 8 dem Fahrzeugbereich eine eindeutige Fahrzeug-ID zu, die als ein Teil der externen Information verwendet wird.
  • In Schritt S140 von 5, basierend auf den Fahrzeugbereich auf dem Bild, bestimmt der Hinderniserkennungsteil 8, wo das Fahrzeug in der Nähe auf wel cher Fahrspur ist. Dann werden relativer Abstand, relative Geschwindigkeit und relative Beschleunigung zu dem Fahrzeug erkannt. Hier ist es mit einem aktiven Sensor, wie einem Laserradar, einfach zu messen, wo das Fahrzeug in der Nähe ist, aber mit einer Kamera bedarf es zusätzlicher Verarbeitung, die in Art und Weise variiert. In diesem Beispiel werden zwei Kameras verwendet, um Objektbilder aufzunehmen, und der gegenwärtige Abstand zu dem Objekt wird berechnet, nach dem Prinzip der Dreiecksmessung unter Verwendung von Parallaxen zwischen diesen zwei Bildern. Dieser Unterroutinenschritt S140 ist in größerem Detail mit Bezug auf die 8 beschrieben.
  • In Schritt S141 von 8 erkennt der Hinderniserkennungsteil 8, auf welcher Fahrbahn sich das Fahrzeug in der Nähe gegenwärtig befindet. Diese Erkennung wird gemacht basierend auf den in Schritt S124 erkannten Fahrspuren.
  • In Schritt S142 extrahiert der Hinderniserkennungsteil 8 zuerst irgendein Merkmal von jedem dieser zwei Objektbilder, um die Entsprechungen dazwischen zu kennen. Hier ist das Merkmal z.B. eine Kante oder eine Ecke eines Polyeders. Dann werden mit so extrahierten Merkmalen Übereinstimmungspunkte gesucht, um epipolare Randbedingung zu verwenden. Aus diesem Paar von übereinstimmenden Punkten wird zuerst eine Parallaxe d gemessen, und dann der Abstand D durch die folgende Gleichung (1) berechnet. D = L × f/d (1)worin L den Abstand zwischen diesen zwei Kameras bezeichnet, und f eine Brennweite.
  • In Schritt S143 berechnet der Hinderniserkennungsteil 8 aus der Entfernung D, die im Schritt S142 berechnet wurde, Raumkoordinaten auf einem Kamerakoordinatensystem für die entsprechenden Punkte, um die Position des Fahrzeugs in der Nähe zu berechnen. Die resultierende Position wird temporär gespeichert als ein historischer Eintrag, typischer Weise mit dessen Fahrzeug-ID und der Zeit der Berechnung.
  • In Schritt S144 mit Bezug auf den historischen Eintrag berechnet der Hinderniserkennungsteil 8 die Geschwindigkeit und Beschleunigung des Fahrzeugs in der Nähe. Hier kann der Leitteil 11 alternativ solche Berechnung durchführen. Die so berechnete Position, Geschwindigkeit und Beschleunigung des Fahrzeugs in der Nähe, ist in der externen Information enthalten zusammen mit dessen entsprechender Fahrzeug-ID.
  • Als nächstes in Schritt S150 von 5, was das Fahrzeug in der Nähe betrifft, bestimmt der Hinderniserkennungsteil 8 den Fahrzeugtyp davon, indem er den Fahrzeugbereich in Betracht zieht. Um den Fahrzeugtyp zu bestimmen, führt der Hinderniserkennungsteil 8 typischer Weise einen Abgleich in Form und Größe zwischen dem Fahrzeugbereich und einem Fahrzeugbeispielmodell in der Datenbank (nicht gezeigt) durch. Wenn die Distanz zum Fahrzeug in der Nähe annähernd gemessen werden kann aus der Größe des Fahrzeugbereichs, kann die Verarbeitung im Schritt S140 ausgelassen werden. Der so bestimmte Fahrzeugtyp ist auch in der externen Information zusammen mit dessen entsprechender Fahrzeug-ID enthalten.
  • Im Schritt S160 bezieht sich der Hinderniserkennungsteil 8 auf den Fahrzeugbereich, um zu sehen, ob das Fahrzeug in der Nähe irgendein Zeichen trägt, das nach der Aufmerksamkeit des Fahrers ruft (hiernach als ein "Mit-Sorge"-Zeichen). Beispielhaft für solch ein Mit-Sorge-Zeichen ist ein "Noch-nicht-geübt"-Zeichen, das obligatorisch für einen Fahrer für eine bestimmte Zeitperiode ist, der/die gerade erst seinen ihren Führerschein bekommen hat. Das Mit-Sorge-Zeichen erinnert die Fahrer, aufmerksam für das Fahrzeug zu sein, das selbiges trägt und zur einfachen Erkennung, jede vorherbestimmt in Form und Farbe. Dementsprechend extrahiert der Hinderniserkennungsteil 8 aus dem Fahrzeugbereich zuerst irgendein Teil, das dieselbe Farbe hat wie ein existierendes Mit-Sorge-Zeichen. Dann wird der extra hierte Teil in Form mit Templates verglichen, die von den existierenden Mit-Sorge-Zeichen sind, zuvor bereitgestellt und dann dasjenige findet, das eindeutig zu irgendeinem spezifischen Mit-Sorge-Zeichen entspricht. Darauf ist das dadurch erhaltene Ergebnis in der externen Information zusammen mit der anwendbaren Fahrzeug-ID enthalten.
  • Im Schritt S170 bezieht sich das Hinderniserkennungsteil 8 auf den Fahrzeugbereich, wenn die Blinker des Fahrzeugs in der Nähe an sind und falls dem so ist, welche Seite der Blinker an- und ausgehen. Hier, da der Blinker auch in Farbe vorherbestimmt ist, wie es die Mit-Sorge-Zeichen sind, kann die Verarbeitung in Schritt S160 ausgeführt werden, um solch eine Bestimmung zu machen. Alternative kann Verarbeitung ausgeführt werden zum Extrahieren jeglichen blinkenden Bereichs aus einer Vielzahl von Bildern, die zu vorher bestimmten Zeitintervallen aufgenommen wurden. Das dadurch erhaltene Ergebnis ist in der externen Information zusammen mit der anwendbaren Fahrzeug-ID enthalten.
  • In Schritt S180 bestimmt der Hinderniserkennungsteil 8, ob das Bild sorgfältig nach jedem Fahrzeugbereich erkannt wurde oder nicht. Falls dies noch nicht der Fall ist, kehrt die Prozedur zu Unterroutinenschritt S130 zurück, anderenfalls ist dies das Ende der Verarbeitung. Man bemerke, dass die Verarbeitung der 5 zu regelmäßigen Zeitintervallen wiederholt wird, um kontinuierlich die Gegebenheiten um das Fahrzeug herum zu überwachen.
  • Nachdem eine solche Bearbeitung durchlaufen wurde, wird die externe Information für jede Fahrzeug-ID erzeugt und in den Leitteil 11 gelesen. Es ist das Ende der Verarbeitung im Schritt S541 von 4.
  • Als nächstes bezieht sich in Schritt S542 der Leitteil 11 auf die externe Information, um zu bestimmen, ob es irgendein Fahrzeug Mit-Sorge um das Fahrzeug herum gibt. Hier wird jegliches Fahrzeug in der Nähe als ein Fahrzeug Mit-Sorge betrachtet, falls es gefährlich erscheint in Anbetracht dessen Fahrzeugtyp, Ge schwindigkeit, Abstand zum Fahrzeug, Fahrverhalten und ähnlichem. Als typische Beispiele, mit Bezug auf das Fahrzeug, ist ein Fahrzeug Mit-Sorge jegliches Fahrzeug in der Nähe (einschließlich Motorrad), das sich schnell nähert, dahinter verbleibt, seine Blinker zum Blinken bringt, ein Mit-Sorge-Zeichen trägt und sich in Schlangenlinien bewegt. Zum Beispiel sind auch Notfallfahrzeuge enthalten.
  • Solche Fahrzeuge Mit-Sorge sind einfach erkennbar, indem die externe Information verwendet wird. Im Detail, um irgendein Fahrzeug in der Nähe zu erkennen, das sich rasch nähert oder dahinter verbleibt, werden relative Entfernung, relative Geschwindigkeit und relative Beschleunigung zu dem Fahrzeug verwendet, die in Schritt S140 von 5 erkannt wurden mit der Hilfe einer vorherbestimmten Gleichung und Tabelle. Ähnlich ist auch jegliches Fahrzeug in der Nähe einfach erkennbar, das sich in Schlangenlinien fortbewegt, indem zuerst eine Variation eines Bewegungsvektors davon berechnet wird und dann dessen Grad an Schwingen mit Bezug auf die Fahrtrichtung erkannt wird. Hier, wie im Vorhergehenden beschrieben, ist der Fahrzeugtyp in Schritt S150 erkennbar, das Mit-Sorge-Zeichen in Schritt S 160 und der Blinker in Schritt S170.
  • Wenn bestimmt wird, dass kein Mit-Sorge Fahrzeug beobachtet wird, kehrt die Prozedur zur Verarbeitung von 3 zurück. Wenn Irgendeines bestimmt wird, geht die Prozedur zu Schritt S543.
  • Im Schritt S543, in Anbetracht des so erkannten Mit-Sorge Fahrzeugs, entscheidet der Leitteil 11, ob das Fahrzeug in einem Zustand Mit-Sorge ist oder nicht. Hier wird jeglicher Zustand als der Mit-Sorge-Zustand betrachtet, wenn das Fahrzeug in der Nähe als eine Bedrohung für das Fahrzeug betrachtet wird. Diese Bestimmung wird gemacht basierend darauf, wie die voraus liegende Straße aussieht, ob das Fahrzeug rechts/links abbiegen muss oder verlangsamen und ähnliches. Wenn bestimmt wird, dass das Fahrzeug nicht in dem Mit-Sorge-Zustand ist, kehrt die Prozedur zu der Verarbeitung von 3 zurück. Wenn ja bestimmt wird, geht die Prozedur zu Schritt S544.
  • Hier wird beispielhaft der Zusammenhang zwischen dem Fahrzeug Mit-Sorge und dem Mit-Sorge-Zustand beschrieben. 9 ist eine schematische Tabelle, welche einen solchen Zusammenhang zeigt. In der Tabelle bezeichnen Werte "0" "grundsätzlich keine Bedrohung" und Werte "1" bezeichnen "Bedrohung". Obwohl diese Tabelle beispielhaft gegeben ist für Länder, in welchen Fahrzeuge auf der rechten Seite fahren (z.B. Japan), wird sie aber anwendbar auf Länder, in welchen Fahrzeug auf der linken fahren allein durch Tauschen von "rechts" und "links".
  • In 9 sind durch. die Spalte der Tabelle Attribute gezeigt, die für den Typ der Bedrohung des Mit-Sorge Fahrzeugs relevant sind. Um genau zu sein, ist das Mit-Sorge Fahrzeug definiert als sich dem Fahrzeug nähernd, dessen Blinker ist an, trägt irgendein Mit-Sorge-Zeichen, bewegt sich schlangenlinienförmig und durch einen Fahrzeugtyp anders als Fahrzeug wie Motorrad und Notfallfahrzeuge. Wenn das Mit-Sorge Fahrzeug definiert ist als sich annähernd, zeigt die Tabelle ferner an, von welcher Fahrspur sich das Fahrzeug Mit-Sorge nähert, genauer von der rechten Fahrspur, der linken Fahrspur oder direkt hinter dem Fahrzeug. Auf ähnliche Weise, wenn das Mit-Sorge Fahrzeug definiert ist als die Blinker anmachend, zeigt die Tabelle ferner an, welche Seite der Blinker an- und ausgeht.
  • Durch die Reihe der Tabelle sind verschiedene Mit-Sorge-Zustände gezeigt, genauer, wenn das Fahrzeug sich zu einer rechten/linken Fahrspur bewegen muss, nach rechts/links abbiegen oder bremsen oder verlangsamen und wenn die Route im Voraus sich verengt oder kurvig ist und falls dies so ist, auf welcher Seite.
  • Hier kann zur einfachen Vorhersage, ob die Route im Voraus sich verengt oder kurvig ist, auf die Kartendaten auf dem Kartendatenspeicherteil 3 allein für einen bestimmten Bereich der Route bezogen werden, die durch den Routenauswahlteil 10 ausgewählt wurde. Als solches kann, indem im Voraus bekannt ist, wie die Straße im Voraus aussieht, das Fahrzeug bereit sein für mögliches Verhalten anderer Fahrzeuge in der Nähe, z.B. Fahrspurwechsel und enges Abbiegen.
  • Weiter genügt zur einfachen Vorhersage, ob das Fahrzeug Fahrspuren wechselt, nach rechts/links abbiegt, bremst oder sich verlangsamt, eine Überwachung in Echtzeit der gegenwärtigen Position des Fahrzeugs, Lenkrad, Gaspedal, Bremse und ähnliches. Auf ähnliche Weise hilft eine Überwachung in Echtzeit des Blinkers des Fahrzeugs, um vorherzusagen, auf welche Fahrspur sich das Fahrzeug als nächstes bewegt. Weiter wird die Route, die durch den Routenauswahlteil 10 ausgewählt wurde, analysiert, um das mögliche Verhalten des Fahrzeugs zu wissen.
  • 9 zeigt zum Beispiel, ob sich irgendein Fahrzeug in der Nähe von der rechten Fahrspur nähert, eine Kollision wird als möglich betrachtet, wenn das Fahrzeug sich auf die rechte Fahrspur bewegt oder nach rechts abbiegt. Daher zeigen anwendbare Felder in der Tabelle alle "1". Auf ähnliche Weise, in dem Fall, dass die Route, die durch den Routenauswahlteil 10 ausgewählt wurde, sich vorne verengt und die rechte Fahrspur endet, mag irgendein Fahrzeug in der Nähe, das sich von der rechten Fahrspur nähert, aggressiv in dieselbe Fahrspur wechseln und daher wird eine Kollision als wahrscheinlich betrachtet. Auch in dem Fall, dass die Route sich zur Rechten krümmt mit einer bestimmten Krümmung und mehr, kann irgendein Fahrzeug in der Nähe, welches sich schnell auf der rechten Fahrspur bewegt, um diese herum in dieselbe Fahrspur gleiten. Dementsprechend zeigen anwendbare Felder in der Tabelle alle "1".
  • Wenn es irgendein Fahrzeug in der Nähe gibt, das sich von hinten nähert, scheint darin kein Unheil zu liegen, wenn das Fahrzeug nach rechts/links abbiegt. Jedoch verlangsamt der Fahrer üblicherweise die Geschwindigkeit des Fahrzeugs, um rechts/links abzubiegen. Abhängig von der relativen Position. des Fahrzeugs, relativer Geschwindigkeit und relativer Beschleunigung mit Bezug zum Fahrzeug in der Nähe wird daher eine Kollision als wahrscheinlich betrachtet. Daher zeigen anwendbare Felder in der Tabelle alle "1". Andererseits, sogar wenn sich irgend ein Fahrzeug in der Nähe auf derselben Fahrspur von hinten nähert, wenn das Fahrzeug steht, so wird erwartet, dass das Fahrzeug in der Nähe anhält und wird dies üblicherweise auch tun. Daher wird solch ein Fall als keine Bedrohung betrachtet und daher zeigen anwendbare Felder in der Tabelle alle "0".
  • Als nächstes wird ein Motorrad betrachtet, das sich hinter dem Fahrzeug oder auf der linken Fahrspur positioniert. Wenn das Fahrzeug nach links abbiegt, kann solch ein Motorrad einfach im toten Winkel des Fahrzeugs sein und bedarf daher einiger Aufmerksamkeit. Auch kann, wenn der Fahrer des Fahrzeugs die linke Türe öffnet, ohne sorgsam zu sein, die Türe das Motorrad treffen. Daher zeigen anwendbare Felder in der Tabelle alle "1". Hier kann alternative die Hand des Fahrers, welche auf einer der Türen des Fahrzeugs erkannt wird, möglicherweise als eine Bedrohung betrachtet werden.
  • Was das Notfallfahrzeug betrifft, so wird erwartet, dass das Fahrzeug ihm Platz macht, und in dem Verlauf kann das Notfallfahrzeug Unheil für das Fahrzeug verursachen. Daher zeigen anwendbare Felder in der Tabelle alle "1". Hier kann auf alternative Weise, unabhängig von Mit-Sorge-Zuständen, die Fahrassistenzinformation erzeugt werden, wann immer das Notfallfahrzeug bekannt wird.
  • Hier ist die 9 allein beispielhaft und jegliche andere verschiedene Mit-Sorge-Zustände, Mit-Sorge Fahrzeuge und Kombinationen davon sind sicherlich möglich. Zum Beispiel wird jegliches Fahrzeug in der Nähe als ein Mit-Sorge Fahrzeug betrachtet, wenn es Fahrspuren wechselt, ohne seinen Blinker zu betätigen oder kontinuierlich die Geschwindigkeit des Fahrzeugs erhöht und vermindert. Auch kann der Hinderniserkennungsteil 8 zusätzlich das Nummernschild und den Fahrzeugtyp des Fahrzeugs in der Nähe erkennen und wenn das Fahrzeug in der Nähe ein Luxustyp ist, kann der Fahrer des Fahrzeugs gewarnt werden und wenn es als ein gestohlenes Fahrzeug oder ein gesuchtes Fahrzeug gefunden. wird, kann automatisch ein Anruf zur Polizei gemacht werden.
  • Auf solche eine Weise kann der Zusammenhang zwischen dem Mit-Sorge Fahrzeug und dem Mit-Sorge-Zustand gemessen werden. Hier ist die 9 allein beispielhaft und daher ist solch eine generische Tabelle nicht immer notwendig, wenn einige andere Techniken anwendbar sind, um den obigen Zusammenhang zu messen.
  • Um genau zu sein, variiert das oben beschriebene Bedrohungsniveau entsprechend abhängig von Position, Geschwindigkeit, Beschleunigung, Abbiegen oder Fahrspurwechseln des Fahrzeugs und des Fahrzeugs in der Nähe und Straßenform, Straßenoberflächenzustand und ähnliches. Daher wird von solch einem Zusammenhang eine vorherbestimmte Gleichung abgeleitet oder ein komplexer Bedingungsausdruck mit verschiedenen denkbaren Fällen, die in Betracht gezogen werden. Indem solch eine Gleichung oder komplexer Ausdruck verwendet wird, kann der Zusammenhang zwischen dem Mit-Sorge Fahrzeug und dem Mit-Sorge-Zustand gemessen werden.
  • Als solches entscheidet in Schritt S543 von 4 der Leitteil 11, ob das Fahrzeug im Mit-Sorge-Zustand in Anbetracht des Mit-Sorge Fahrzeugs ist oder nicht.
  • Als nächstes in Schritt S544, um mit dem Mit-Sorge Fahrzeug umzugehen, erzeugt der Leitteil 11 Fahrassistenzinformation. Hier wird die Fahrerassistenzinformation typischerweise verwendet, um ein Bild des Mit-Sorge Fahrzeugs auf den Kartendaten zur Anzeige anzuordnen.
  • 10 ist ein schematisches Diagramm, welches zeigt, was die Fahrassistenzinformation trägt. In 10 enthält die Fahrassistenzinformation eine ID eines Fahrzeugs in der Nähe 551, Fahrzeugtypinformation 552, Farbinformation 553, relative Position 554 und ein oder mehrere Attribute, die für das Bedrohungsniveau relevant sind (hiernach Bedrohungsattribute) 555. Die ID des Fahrzeugs in der Nähe 551 ist eine Identifikationsnummer, die eindeutig jedem Fahrzeug in der Nähe zur Identifikation zugewiesen ist. Die Fahrzeugtypinformation 552 und die Farbinformation 553 werden bestimmt basierend auf der externen Information, die durch den Hinderniserkennungsteil 8 erkannt wurde. Hier werden die Fahrzeugtypinformation 552 und die Farbinformation 553 hauptsächlich zur Bildanzeige verwendet und sind daher nicht notwendigerweise enthalten. Auch ist die relative Position 554 nicht immer notwendig, wenn die Navigationsvorrichtung den Fahrer allein durch Laut ohne Anzeige auf dem Kartenbild warnt.
  • Hier sind die Bedrohungsattribute 555, die selektive durch den Leitteil 11 als schädlich bzw. gefährdend erkannt wurden in Anbetracht des Zusammenhangs zwischen dem Mit-Sorge Fahrzeug und dem Mit-Sorge-Zustand (z.B. der Wert "1" in der Tabelle von 9).
  • Man bemerke, dass, wenn der Leitteil 11 selektive als solches bestimmt, der im Schritt 543 bestimmte Mit-Sorge-Zustand nicht die einzige Besorgnis ist. Wenn z.B. das Fahrzeug Fahrspuren wechselt, um abzubiegen, während es seine Geschwindigkeit verlangsamt, ist das Fahrzeug in drei Typen von Mit-Sorge-Zuständen. In solch einem Fall wird jedes mögliche Bedrohungsattribut ausgewählt in Anbetracht des Zusammenhangs zwischen diesen Mit-Sorge-Zuständen und den Mit-Sorge Fahrzeugen.
  • Weiter kann das Mit-Sorge Fahrzeug verschiedene Bedrohungsattribute begleiten. Als ein Beispiel, wenn ein Fahrzeug in der Nähe mit einem Mit-Sorge-Zeichen sich schlangenlinienförmig annähert, ist die Anzahl von Bedrohungsattributen zumindest drei. In solch einem Fall wird jedes mögliche Bedrohungsattribut ausgewählt, das für das Mit-Sorge Fahrzeug relevant ist.
  • Als solches bestimmt in Schritt S544 der Leitteil 11 selektive jedes mögliche Bedrohungsattribut für ein bestimmtes Mit-Sorge Fahrzeug, indem er jeden bekannten Mit-Sorge-Zustand in Betracht zieht und erzeugt entsprechend Fahrassistenzinformation.
  • Als nächstes bezieht sich in Schritt S545 der Leitteil 11 auf die externe Information, um zu bestimmen, ob es irgendein anderes Mit-Sorge Fahrzeug gibt. Falls ja bestimmt wird, kehrt die Prozedur zu Schritt S543 zurück und wiederholt dieselbe Verarbeitung wie oben, bis die Fahrassistenzinformation für jedes Mit-Sorge Fahrzeug erzeugt wurde. Falls nein bestimmt wurde, kehrt die Prozedur zur Verarbeitung von 3 zurück und geht zum Schritt S55.
  • 11 ist ein Flussdiagramm, das den detaillierten Prozess des Unterroutinenschritt S55 von 3 zeigt. In Schritt S551 von 11 bestimmt der Kartendatenanordnungsteil 4, ob es die durch den Leitteil 11 im Unterroutinenschritt S54 erzeugte Fahrassistenzinformation gibt oder nicht. Falls nein bestimmt wird, kehrt die Prozedur zu der Verarbeitung von 3 zurück, anderenfalls geht sie zum Schritt S552.
  • In Schritt S552 liest der Kartendatenanordnungsteil 4 aus dem Objektmodellanzeigeinformationsspeicherteil 6 Objektmodellanzeigeinformation entsprechend bestimmter Fahrassistenzinformation. Hier wird Objektmodellanzeigeinformation verwendet, um Objektmodelle anzuzeigen entsprechend dem Mit-Sorge Fahrzeug und dessen Bedrohungsattributen.
  • In Schritt S553 erzeugt der Kartendatenanordnungsteil 4 ein Objektmodell entsprechend der so gelesenen Objektmodellanzeigeinformation und ordnet in geeigneter Dimensionierung das Objektmodell auf einem Kartenbild an in Anbetracht eines Anzeigemaßstabs und Kartenraums. Das resultierende Kartenbild wird durch die Anzeige 5 angezeigt.
  • Hier wird der Anzeigemaßstab so gesetzt, dass das Fahrzeug und andere Mit-Sorge Fahrzeuge auf dem Kartenbild mit geeigneter Größe und Abstand in Anbetracht gegenwärtiger relativer Abstände angezeigt werden. Zum Beispiel werden in der vorliegenden Navigationsvorrichtung vier Anzeigemaßstäbe bereitgestellt. Der erste Anzeigemaßstab wird verwendet, um ein Kartenbild anzuzeigen, das 1,6 bis 50 km2 abdeckt und solch ein Kartenbild wird eine 3D-Satellitenkarte genannt. Der zweite Anzeigemaßstab wird verwendet für ein Kartenbild, welches 100 bis 800 m2 abdeckt und das Kartenbild wird allgemein eine 2D-Karte genannt. Ein Kartenbild für den dritten Anzeigemaßstab bedeckt 25 bis 100 m2 und wird eine virtuelle Stadtkarte genannt. Ein Kartenbild für den vierten Anzeigemaßstab bedeckt 25 bis 50 m2 und wird eine Vorderansichtskarte genannt. In der virtuellen Stadtkarte und der Vorderansichtskarte unter diesen Vieren erscheinen das Fahrzeug und die Mit-Sorge Fahrzeuge geeignet in Größe. Diese vier Karten werden darunter wie geeignet umgeschaltet. Dementsprechend wird die Fahrassistenzinformation mit höherer Genauigkeit dem Fahrer des Fahrzeugs auf einfach zu sehende Weise dargestellt.
  • Hier ist der Anzeigemaßstab nicht auf diese Vier begrenzt und kann kontinuierlich verändert werden, so dass das Fahrzeug und die Mit-Sorge Fahrzeuge im Raum zwischen ihnen immer geeignet erscheinen. Nachdem der Anzeigemaßstab als solcher gesetzt ist, wird eine andere Verarbeitung ausgeführt, um das so erzeugte Objektmodell auf dem Kartenbild zur Anzeige anzuordnen. Die Details davon werden zur späteren Beschreibung belassen.
  • Im Schritt S554 bestimmt der Kartendatenanordnungsteil 4, ob es andere Fahrassistenzinformation gibt, die durch den Leitteil 11 erzeugt wurde oder nicht. Falls nein bestimmt wurde, kehrt die Prozedur zu der Verarbeitung von 3 zurück. Falls ja, kehrt die Prozedur zu Schritt S552 zurück, um dieselbe Verarbeitung zu wiederholen, bis jede Fahrassistenzinformation gründlich angezeigt wird.
  • Als nächstes wird Schritt S553 von 11 beschrieben, wie der Kartendatenanordnungsteil 4 ein Kartenbild erzeugt. Zuerst wird ein Fall beschrieben, worin ein resultierendes Kartenbild von einer 2D-Landschaft ist. 12 ist ein Diagramm, das die detaillierte Struktur des Kartendatenanordnungsteils 4 für solch einen Fall zeigt. In 12 enthält der Kartendatenanordnungsteil 4 einen 2D-Objektmodellerzeugungsteil 145 und einen 2D-Datenanordnungsteil 146.
  • Der 2D-Objektmodellerzeugungsteil 145 empfängt die Objektmodellanzeigeinformation von dem Objektmodellanzeigeinformationsspeicherteil 6 und erzeugt ein 2D-Objektmodell. Der 2D-Datenanordnungsteil 146 empfängt das so erzeugte 2D-Objektmodell und 2D-Kartendaten von dem Kartendatenspeicherteil 3 und erzeugt ein Kartenbild durch Anordnen dieser in Übereinstimmung mit 2D-Koordinaten, die in jeder von diesen enthalten ist. 13 ist ein schematisches Diagramm, das beispielhaft ein Beispielkartenbild zeigt, das als solches auf der Anzeige 5 angezeigt wird.
  • In 13 sind in dem 2D-Kartenbild auf einer Straße mit jeweils zwei Fahrspuren ein Fahrzeugobjektmodell 301, ein Fahrzeugzeugobjekt in der Nähe 302, das als ein Mit-Sorge Fahrzeug betrachtet wird und ein Pfeilobjektmodell 303, welches dem Bedrohungsattribut entspricht, angeordnet. Hier werden der Fahrzeugtyp und Farbe des Fahrzeugobjekts in der Nähe 302 bevorzugt gemäß der Fahrassistenzinformation angezeigt. Das Modell des Objekts in der Nähe 302 kann nachdrücklich angezeigt werden, um das Fahrzeug in der Nähe anzuzeigen, welches das Mit-Sorge Fahrzeug ist. Zum Beispiel kann das Modell des Objekts in der Nähe 302 in rot sein, an und aus blinken und Farben verändern. Jede Art und Weise ist zufriedenstellend, solange der Fahrer dadurch gewarnt wird.
  • Es sei hier angenommen, dass das Mit-Sorge Fahrzeug seinen vorderen rechten Blinker anschaltet und das Fahrzeug ist auch dabei, sich auf die rechte Fahrspur zu bewegen. In solch einem Fall, wie in 9 beschrieben, ist eine Kollision zwischen diesen zwei Fahrzeugen wahrscheinlich. Daher wird, um den Fahrer des Fahrzeugs zu warnen, dass das Mit-Sorge Fahrzeug hinten sich nach rechts bewegt, ein solches Pfeilobjektmodell 303 wie in 13 gezeigt, angezeigt.
  • Hier, sogar wenn das Fahrzeug in der Nähe sich von der rechten Fahrspur nähert, wie in 9 gezeigt, wird das Fahrzeug in der Nähe als keine Bedrohung betrachtet, solange sich das Fahrzeug nicht nach rechts bewegt, abbiegt und die Straße sich auf der rechten Seite verengt oder nach rechts gekrümmt ist. Als solches, wenn das Fahrzeug in der Nähe als harmlos bestimmt ist, wird keine Fahrassistenzinformation erzeugt und daher wird kein Pfeilobjektmodell 303 angezeigt.
  • 14 ist ein schematisches Diagramm, welches beispielhaft ein anderes Beispiel eines Kartenbildes zeigt, das auf der Anzeige 5 angezeigt wird. In 14 sind auf der Straße ein Fahrzeugobjektmodell 311, ein Objektmodell eines Fahrzeugs in der Nähe 312, das als ein Mit-Sorge Fahrzeug betrachtet wird und ein Mit-Sorge-Zeichen-Objektmodell 313 angezeigt, welches dem Bedrohungsattribut entspricht. Es sei hier angenommen, dass das Fahrzeug dabei ist, nach links abzubiegen und das Mit-Sorge Fahrzeug dahinter trägt ein Mit-Sorge-Zeichen. In solch einem Fall scheint eine gewisse Bedrohung zu sein und daher wird solch ein Mit-Sorge-Zeichen-Objektmodell 313, wie in 14 gezeigt, angezeigt, um den Fahrer des Fahrzeugs zu warnen, dass das Mit-Sorge Fahrzeug dahinter mit dem Mit-Sorge-Zeichen ist.
  • Hier kann das Bedrohungsattribut in Mehrzahl angezeigt werden für das Objektmodell des Fahrzeugs in der Nähe und zwei oder mehr Objektmodelle können bereitgestellt sein, um ein Bedrohungsattribut anzuzeigen. 15 ist ein schematisches Diagramm, welches beispielhaft ein nochmals weiteres Beispiel eines Kartenbildes zeigt, das auf der Anzeige 5 angezeigt wird. In 15 sind auf der Straße ein Fahrzeugobjektmodell 321, ein Objektmodell eines Fahrzeugs in der Nähe 322, welches als ein Mit-Sorge Fahrzeug betrachtet wird, ein schlangenlinienförmiges Zeichenobjektmodell 323 und ein Sprechblasenobjektmodell 324 dargestellt, welche beide dem Bedrohungsattribut entsprechen. Es sei hier angenommen, dass das Fahrzeug dabei ist, nach links abzubiegen und das Mit-Sorge Fahrzeug dahinter bewegt sich schlangenlinienförmig. In solch einem Fall scheint eine gewisse Bedrohung zu sein und daher werden solch ein schlangenlinienförmiges Zeichenobjektmodell 323 und das Sprechblasenobjektmodell 324, wie in 15 gezeigt, angezeigt, um den Fahrer des Fahrzeugs zu warnen, dass sich das Mit-Sorge Fahrzeug dahinter schlangenlinienförmig bewegt. Hier sind in dem Sprechblasenobjektmodell 324 Wörter der Warnung angezeigt.
  • Als solches, durch geeignetes Anordnen des Fahrzeugmodellobjekts und des Objektmodells des Fahrzeugs in der Nähe auf einem Kartenbild kann der Fahrer unverzüglich die positionelle Beziehung dazwischen verstehen. Indem jedes geeignete Objektmodell für jedes mögliche Bedrohungsattribut erzeugt wird, kann der Fahrer auch unverzüglich sein Bedrohungsniveau bestätigen. Dementsprechend kann die durch die vorliegende Navigationsvorrichtung angebotene Information dem Fahrer des Fahrzeugs mit höherer Genauigkeit beim Fahren geeignet helfen.
  • Als nächstes wird ein Fall beschrieben, wo ein resultierendes Kartenbild, das in dem Kartendatenanordnungsteil 4 erzeugt wird, von einer 3D-Landschaft ist. In solch einem Fall ist es nicht notwendig, dass ein Objektmodell, welches von der Objektmodellanzeigeinformation erzeugt wird und Kartendaten, die in dem Kartendatenspeicherteil 3 gespeichert sind, 3D sind. Es wird nun ein Fall beispielhaft gegeben, wo die Daten, die durch den Objektmodellanzeigeinformationsspeicherteil 6 bereitgestellt werden, an den Kartendatenanordnungsteil 4 3D sind und die Kartendaten von dem Kartendatenspeicherteil 3 2D sind und ein resultierendes Kartenbild von einer 3D-Landschaft ist.
  • 16 ist ein Blockdiagramm, welches die detaillierte Struktur des Kartendatenanordnungsteil 4 zeigt, welcher 3D-Daten von dem Objektmodellanzeigeinformationsspeicherteil 6 und 2D-Kartendaten von dem Kartendatenspeicherteil 3 empfängt. Ein resultierendes Kartenbild, welches dadurch erzeugt wird, ist von einer vogelperspektivischen Ansicht.
  • In 16 enthält der Kartendatenanordnungsteil 4 einen Vogelperspektivenansichtstransformationsteil 141, einen 3D-Objektmodellerzeugungsteil 142 und einen 3D-Anordnungsteil 143.
  • Der Vogelperspektivenansichtstransformationsteil 141 empfängt die 2D Kartendaten von dem Kartendatenspeicherteil 3 und transformiert dann die Daten in eine vogelperspektivische Ansicht. Eine Technik zum Transformieren von 2D-Daten in eine vogelperspektivische Ansicht ist im Detail zum Beispiel offenbart in "Development of a Car Navigation System with a Bird's-eye View Map Display" (Society of Automotive Engineers of Japan, Inc, Papers, 962 1996-5). Als nächstes wird unten eine Technik zum Transformieren von 2D-Daten in eine Vogelperspektive beschrieben.
  • 17 ist ein Diagramm, welches eine Technik zeigt zum Erzeugen einer Vogelperspektive durch Unterwerfen von 2D-Kartendaten einer perspektivischen Transformation. In 17 zeigt ein Punkt V (Vx, Vy, Vz) Betrachtungspunktkoordinaten an. Ein Punkt S (Sx, Sy) zeigt Koordinaten eines vogelperspektivischen Bildes auf einem Monitor an und ein Punkt M (Mx, My, Mz) zeigt Koordinaten auf einem 2D-Kartenbild an. Hier ist, da die Kartendaten 2D-Daten sind, Mz = 0. Punkte Ex, Ey und Ez zeigen jeder eine relative Position zu dem Punkt M im Betrachtungspunktkoordinatensystem an. Ein Bezugszeichen θ bezeichnet einen Winkel, um den heruntergesehen wird, während ϕ einen Richtungswinkel der Betrachtung anzeigt. Ein Bezugszeichen DS zeigt eine theoretische Entfernung zwischen dem Betrachtungspunkt und dem Bild an.
  • Hier, mit den Betrachtungspunktkoordinaten V (Vx, Vy, Vz), Winkel θ, um den heruntergesehen wird und Richtungswinkel ϕ, die im Wert spezifiziert sind, können die Koordinaten S (Sx, Sy) des vogelperspektivischen Bildes mit Bezug auf die Koordinaten M (Mx, My, Mz) auf dem 2D-Kartenbild berechnet werden. Eine Gleichung (2) dazu ist wie folgt:
    Figure 00300001
  • Mit der obigen Gleichung (2) transformiert z.B. der Vogelperspektivenansichtstransformationsteil 141 die durch den Kartendatenspeicherteil 3 bereitgestellten 2D-Kartendaten zu einer vogelperspektivischen Ansicht. Die vogelperspektivische Ansicht von 3D-Daten wird an den 3D-Datenanordnungsteil 143 weitergeleitet.
  • Das 3D-Objektmodellerzeugungsteil 142 empfängt die 3D-Daten und erzeugt dann ein 3D-Objektmodell mit der Verarbeitung in Unterroutinenschritt S553 von 11. Das so erzeugte 3D-Objektmodell wird an den 3D-Datenanordnungsteil 143 weitergeleitet.
  • Der 3D-Datenanordnungsteil 143 ordnet so empfangene 3D-Daten und Objektmodelldaten zusammen an zur Ausgabe an die Anzeige 5. 18 zeigt beispielhaft Daten, die so erzeugt und auf der Anzeige 5 angezeigt wurden.
  • In 18 ist auf dem Kartenbild der Vogelperspektivenansicht ein Fahrzeugmodellobjekt 331, ein Objektmodell eines Fahrzeugs in der Nähe 332, welches als ein Mit-Sorge Fahrzeug betrachtet wird, und ein Mit-Sorge-Zeichenobjektmodell 333 enthalten, welches dem Bedrohungsattribut entspricht. Die hierin gemachte Annahme ist dieselbe wie im Falle der 14 und wird daher nicht wieder beschrieben. In 18 sind angenommener Weise diese Objektmodelle 3D von einem Typ, der sich in Form ändert mit variierenden Betrachtungspunkten, sogar wenn als 2D betrachtet.
  • Beispielhaft wird nun ein Fall gegeben, wo die Daten, die durch den Objektmodellanzeigeinformationsspeicherteil 6 bereitgestellt werden, 3D sind und die Daten, die durch den Kartendatenspeicherteil 3 bereitgestellt werden, sind 2D und ein resultierendes Kartenbild ist von einer 3D-Landschaft, welche anders aussieht als eine Vogelperspektivansicht.
  • 19 ist ein Blockdiagramm, welches die detaillierte Struktur des Kartendatenanordnungsteils 4 zeigt, welcher 3D-Daten von dem Objektmodellanzeigeinformationsspeicherteil 6 und 2D-Kartendaten vom Kartendatenspeicherteil 3 empfängt. Ein dadurch erzeugtes resultierendes Kartenbild ist von einer 3D-Landschaft, die sich von einer vogelperspektivischen Ansicht unterscheidet.
  • In 19 enthält der Kartendatenanordnungsteil 4 einen 3D-Kartendatenerzeugungsteil 147, den 3D-Objektmodellerzeugungsteil 142 und den 3D-Datenanordnungsteil 143.
  • In 19 sind der 3D-Objektmodellerzeugungsteil 142 und der 3D-Datenanordnungsteil 143 in Struktur und Operation ähnlich zu denjenigen in 16. Daher wird hauptsächlich der 3D-Kartendatenerzeugungsteil 147 in Struktur und Operation unten beschrieben.
  • 20 ist ein Blockdiagramm, welches die detaillierte Struktur des 3D-Kartendatenerzeugungsteils 147 zeigt. In 20 enthält der 3D-Kartendatenerzeugungsteil 147 einen Teil 1471 zum Liefern von Höhen/Breiten-Information und einen 3D-Polygonerzeugungsteil 1472. Der Teil 1471 zum Liefern von Höhen/Breiten-Information liefert Information über Höhe und Breite an den 3D-Polygonerzeugungsteil 1472 in Antwort auf 2D-Kartendaten, die von dem Kartendatenspeicherteil 3 bereitgestellt werden. Der 3D-Polygonerzeugungsteil 1472 erzeugt dann ein 3D-Objektmodell.
  • Der Teil 1471 zum Liefern von Höhen/Breiten-Information analysiert die 3D-Form einer Straße zum Beispiel mit der Hilfe des Verbindungstyps (z.B. Nebenstraßenverbindung, erhöhte Verbindung) und Information über einen Verzweigungsknoten, die in den 2D-Kartendaten enthalten sind, typischerweise, indem ein vorher bestimmtes Muster angewandt wird. Mit dem analysierten Ergebnis fügt der Teil 1471 zum Liefern von Höhen/Breiten-Information Information über Höhe und Breite zu den 2D-Daten der Straßen zum Beispiel hinzu, um 3D-Kartendaten zu erzeugen.
  • Der 3D-Polygonerzeugungsteil 1472 empfängt die so erzeugten 3D-Kartendaten und erzeugt ein 3D-Objektmodell mit einer allgemeinen Technik dafür. In der obigen Weise erzeugt der Kartendatenanordnungsteil 4 von 19 ein Kartenbild von einer 3D-Landschaft, welches anders aussieht als eine vogelperspektivische Ansicht.
  • 21 ist ein Diagramm, das beispielhaft einen Fall zeigt, wo auf der 3D-Landschaft 3D-Objektmodelle angezeigt werden, welche ein Mit-Sorge Fahrzeug und dessen Richtung anzeigen, das dabei ist, sich auf die rechte Fahrspur zu bewegen. Wie in 21 gezeigt, in der sowohl das Objektmodell des Fahrzeugs in der Nähe, das sich zu der rechten Fahrspur bewegt und das Pfeilobjektmodell, das dessen Bewegungsrichtung anzeigt, angezeigt werden, kann der Fahrer des Fahrzeugs intuitiv verstehen, was das Fahrzeug hinten in der Nähe zu tun ansetzt.
  • Beispielhaft ist als nächstes ein Fall gegeben, wo die Daten, die durch den Objektmodellanzeigeinformationsspeicherteil 6 an den Kartendatenanordnungsteil 4 bereitgestellt werden, 2D sind und die Daten durch den Kartendatenspeicherteil 3 3D sind und ein resultierendes Kartenbild ist von einer 3D-Landschaft.
  • 22 ist ein Blockdiagramm, welches die detaillierte Struktur des Kartendatenanordnungsteil 4 zeigt, welcher 2D-Daten von dem Objektmodellanzeigeinformationsspeicherteil 6 empfängt und 3D-Kartendaten von dem Kartendatenspeicherteil 3. Ein resultierendes Kartenbild, welches dadurch erzeugt wird, ist ein Kartenbild einer 3D-Landschaft.
  • In 22 enthält der Kartendatenanordnungsteil 4 einen 2D-Objektmodellerzeugungsteil 145, einen 2D/3D-Koordinatentransformationsteil 144 und den 3D-Datenanordnungsteil 143.
  • In 22 empfängt der 2D-Objektmodellerzeugungsteil 145 2D-Daten von dem Objektmodellanzeigeinformationsspeicherteil 6 und erzeugt dann ein 2D-Objektmodell, indem er durch den Unterroutinenschritt S553 von 11 läuft.
  • Um genau zu sein, wie bereits beschrieben, werden eine Mehrzahl von Bilddateien als 2D-Forminformation vorbereitet, enthalten in der Objektmodellanzeigeinformation. 23 ist ein Diagramm, welches beispielhaft verschiedene Bilddateien zeigt, die als solche vorbereitet sind. In 23 werden Bilder klassifiziert in "sich schlangenlinienförmig bewegendes Fahrzeug", "Motorrad" und "Fahrzeug mit Mit-Sorge-Zeichen". Solch ein Bildtyp entspricht der Objektmodellanzeigeinformation und ferner klassifiziert in "Nahbereich", "Mittlerer Bereich" und "Fernbereich".
  • Der 2D-Objektmodellerzeugungsteil 145 bestimmt zuerst den Bildtyp, indem er sich auf die Objektmodellanzeigeinformation bezieht. Der 2D- Objektmodellerzeugungsteil 145 wählt dann einen Entfernungsbereich für den bestimmten Bildtyp unter denjenigen ""Nahbereich", "Mittlerer Bereich" und "Fernbereich" aus. Hier enthält, wie oben beschrieben, die Objektmodellanzeigeinformation Positionsinformation, welche die Position des Objektmodells durch 3D-Koordinaten anzeigt. In 23 wird das Auswählen eines Entfernungsbereichs für jedes Bild auf einer Entfernung zwischen solchen 3D-Koordinaten und Betrachtungspunktkoordinaten ausgeführt. Daher berechnet typischerweise der 2D-Objektmodellerzeugungsteil 145 eine solche Entfernung, um zu bestimmen, für welchen Entfernungsbereich die so berechnete Entfernung gilt.
  • Was ein resultierendes 2D-Objektmodell betrifft, so transformiert der 2D/3D-Koordinatentransformationsteil 144 2D-Koordinaten davon in 3D-Koordinaten, basierend auf der entsprechenden Positionsinformation. Dann werden die resultierenden 3D-Objektdaten in den 3D-Datenanordnungsteil 143 eingegeben.
  • Der 3D-Datenanordnungsteil 143 empfängt 3D-Kartendaten von dem Kartendatenspeicherteil 3. Der 3D-Datenanordnungsteil 143 ordnet dann die Kartendaten zusammen mit den 3D-Objektmodelldaten, die durch den 2D/3D-Koordinatentransformationsteil 144 bereitgestellt werden, an, um eine Kartenbild einer 3D-Landschaft zu erzeugen. Das so erzeugte Kartenbild wird an die Anzeige 5 weitergeleitet.
  • Hier wird in dem wie oben strukturierten Kartendatenanordnungsteil 4 das durch den 2D-Objektmodellerzeugungsteil 145 erzeugte 2D-Objektmodell in. 3D-Daten durch den 2D/3D-Koordinatentransformationsteil 144 transformiert und dann zusammen mit den 3D-Kartendaten in dem 3D-Kartendatenanordnungsteil 143 angeordnet. Dies ist nicht beschränkend und der 2D/3D-Koordinatentransformationstiel 144 kann weggelassen werden und ein 2D/3D-Bildanordnungsteil kann als eine Alternative zu dem 3D-Datenanordnungsteil 143 bereitgestellt werden. Falls dies der Fall ist, fügt der 2D/3D-Bildanordnungsteil ein 2D-Objektmodell, erzeugt durch den 2D-Objektmodellerzeugungsteil 145, in ein Kartenbild einer 3D-Landschaft ein. In größerem Detail erzeugt das 2D/3D-Bildanordnungsteil zuerst ein Kartenbild einer 3D-Landschaft durch Transformieren von 3D-Kartendaten auf Bildschirmkoordinaten, berechnet Bildschirmkoordinaten eines 2D-Objektmodells und ordnet 2D-Daten so wie sie sind auf einem resultierenden Kartenbild einer 3D-Landschaft an. Mit solch einer modifizierten Struktur sieht ein Objektmodell gleich aus, sogar wenn aus verschiedenen Positionen gesehen und wird immer gleich angezeigt. Daher wird bessere Sichtbarkeit angeboten.
  • 24 zeigt ein beispielhaftes Kartenbild einer 3D-Landschaft, erzeugt durch den Kartendatenanordnungsteil 4 von 22. In 24 hat das Kartenbild ein Objektmodell, das anzeigend für das Fahrzeug ist, das in der Mitte angezeigt wird und zur rechten Seite davon Objektmodelle, die anzeigend für sich auf einer Straße schlangenlinienförmig fortbewegende Fahrzeuge sind. Was diese Objektmodelle betrifft, die anzeigend für sich schlangenlinienförmig fortbewegende Fahrzeuge sind, so wird die Größe davon verändert basierend auf einer Entfernung von den Betrachtungspunktkoordinaten, wie oben beschrieben, wobei Tiefe in dem Kartenbild einer 3D-Landschaft hinzugefügt wird, sogar wenn die Objektmodelle 2D sind.
  • Als letztes wird ein Fall beispielhaft gegeben, wo die Daten, die durch den Objektmodellanzeigeinformationsspeicherteil 6 dem Kartendatenanordnungsteil 4 bereitgestellt werden, 2D sind und die Kartendaten durch den Kartendatenspeicherteil 3 2D sind und ein resultierendes Kartenbild ist von einer 3D-Landschaft.
  • Falls dies der Fall ist, ist der Kartendatenanordnungsteil 4 von 22 zusätzlich mit dem Vogelperspektivenansichttransformationsteil 141 von 16 versehen oder dem 3D-Kartendatenerzeugungsteil 147 von 19, welche beide 2D-Kartendaten in 3D-Kartendaten wandeln. In solch einem Kartendatenanordnungsteil 4 führt auch der 3D-Kartendatenanordnungsteil 143 Datenanordnung der Kartendaten und der 2D-Objektmodelldaten von dem 2D/3D-Koordinatentransformationsteil 144 aus. Hier arbeiten die darin enthaltenen Komponenten ähnlich zu den oben beschriebenen.
  • In solch einem Fall wie dem, dass ein Kartenbild einer 3D-Landschaft aus 2D-Daten erzeugt wird, sind die 2D-Daten, die in dem Objektmodellanzeigeinformationsspeicherteil 6 gespeichert werden, in Menge geringer als 3D-Daten. Wenn daher Objektmodelldaten gespeichert sind, die sich im Typ unterscheiden, kann der Objektmodellanzeigeinformationsspeicherteil 6 die größere Anzahl von Typen speichern und wenn er denselben Typ von Objektmodelldaten speichert, kann die Kapazität davon reduziert werden.
  • Ferner kann in solch einem Fall wie dem, dass ein Kartenbild einer 3D-Landschaft aus 2D-Daten erzeugt wird, der Fahrer des Fahrzeugs intuitiv Information verstehen, sogar wenn die Objektmodelle 2D sind. Wenn z.B. es ein Fahrzeug in der Nähe gibt, welches sich auf schlangenlinienförmige Weise fortbewegend nähert, kann der Fahrer des Fahrzeugs einfach und intuitiv verstehen, wie sich das Fahrzeug in der Nähe verhält, allein indem er ein Objektmodell sieht, welches anzeigend für ein sich schlangenlinienförmig fortbewegendes Fahrzeug hinter seinem ihrem Fahrzeug ist.
  • Während die Erfindung im Detail beschrieben wurde, ist die vorstehende Beschreibung in allen Aspekten erläuternd und nicht beschränkend. Es wird verstanden werden, dass zahlreiche andere Modifikationen und Variationen erdacht werden können, ohne den Bereich der Erfindung zu verlassen, der durch die angefügten Ansprüche definiert ist.

Claims (20)

  1. Navigationsvorrichtung von in einem Fahrzeug angebrachten Typ zum Erkennen von Gegebenheiten um ein erstes Fahrzeug, und, wenn sie meint, dass es angebracht ist, einen Benutzer zu warnen, zum Anordnen eines geeigneten Objektmodells zum Anzeigen auf einem Kartenbild und zum Ausführen einer Leitung zu einem Ziel, wobei die Vorrichtung aufweist: einen Eingabeteil (2) zum Empfangen der Anweisungen des Benutzers; einen Positionserkennungsteil (9) zum Erkennen einer gegenwärtigen Position des ersten Fahrzeugs; einen Kartendatenspeicherteil (3), um im Voraus Kartendaten zu speichern; eine Objektmodellanzeigeinformation zum Anzeigen des Objektmodells auf dem Kartenbild; einen Routenauswählteil (10) zum Auswählen einer Route zu dem Ziel, basierend auf der Anweisung, die durch den Eingabeteil (2) bereitgestellt ist, wobei die gegenwärtige Position durch den Positionserkennungsteil (9) erkannt wird, und die Kartendaten in dem Kartendatenspeicherteil (3) gespeichert sind; einen externen Überwachungsteil (7) zum Überwachen der Gegebenheiten um das erste Fahrzeug und Ausgeben resultierender Überwachungsinformation; ein Hinderniserkennungsteil (8) zum Erkennen eines Hindernisses, einschließlich eines zweiten Fahrzeugs, das außerhalb des ersten Fahrzeugs wahrgenommen wird, basierend auf der Überwachungsinformation, die durch den externen Überwachungsteil (7) bereitgestellt ist, und Ausgeben resultierender externer Überwachungsinformation einschließlich Positionsinformation des Hindernisses; einen Kartendatenanordnungsteil (4) zum Erzeugen des Objektmodells, wenn entschieden wird, dass es angebracht ist, den Benutzer zu warnen, basierend auf Fahrassistenzinformation, einschließlich der Positionsinformation wie in der externen Information und der Objektmodellanzeigeinformation für das Objektmodell und Anordnen des Objektmodells auf dem Kartenbild; einen Leitteil (11) zum Bestimmten, ob das Hindernis der Aufmerksamkeit durch den Benutzer bedarf, basierend auf der externen Information, die durch den Hinderniserkennungsteil (8) bereitgestellt ist, und falls sie benötigt ist, Erzeugen der Fahrassistenzinformation und Erzeugen von Leitinformation einschließlich eines resultierenden Kartenbildes, ausgegeben von dem Kartendatenanordnungsteil (4) in Antwort auf die Route, die durch den Routenauswählteil (10) ausgewählt ist, die gegenwärtige Position erkannt durch den Positionserkennungsteil (9), und den Kartendaten, die durch Kartendatenspeicherteil (3) bereitgestellt sind; und einen Anzeigeteil (5) zum Anzeigen der Leitinformation, die durch den Leitteil (11) erzeugt ist; worin der Hinderniserkennungsteil die externe Information ausgibt einschließlich jeglicher Typeninformation, die erhalten wird durch Bestimmten eines Typs des zweiten Fahrzeugs, Zeicheninformation, erhalten durch Erkennen eines Zeichens, das auf dem Hindernis angeordnet ist, und Richtungsinformation erhalten durch Erkennen einer Richtung, die durch einen Blinker des Hindernisses angezeigt wird.
  2. Navigationsvorrichtung nach Anspruch 1, worin der externe Überwachungsteil (7) eine Bildaufnahmevorrichtung aufweist zum Aufnehmen eines Bildes, das um das erste Fahrzeug abdeckt, und der Hinderniserkennungsteil (8), basierend auf der Überwachungsinformation einschließlich des Bildes, das von dem externen Überwachungsteil (7) empfangen ist, das Hindernis erkennt, das um das erste Fahrzeug beobachtet wird, durch das Bild.
  3. Navigationsvorrichtung nach Anspruch 1, worin der Leitteil (11) bestimmte, ob das erste Fahrzeug in einem Mit-Sorge-Zustand ist, durch Schätzen jeglicher situationsbedingter möglicher Veränderung für entweder das erste Fahrzeug oder den Gegenstand oder beide, und basierend auf dem Mit-Sorge-Zustand bestimmte, ob das Hindernis die Aufmerksamkeit des Benutzers erfordert.
  4. Navigationsvorrichtung nach Anspruch 3, worin der Leitteil (11) die situationsbedingte Veränderung schätzt durch Analysieren der Route, die durch den Routenauswählteil (10) gewählt ist und bestimmt, ob das erste Fahrzeug in dem Mit-Sorge-Zustand ist.
  5. Navigationsvorrichtung nach Anspruch 1, worin der Leitteil (11) die Fahrassistenzinformation erzeugt einschließlich einem Bedrohungsattribut für das Hindernis, das die Aufmerksamkeit des Benutzers erfordert, und der Kartendatenanordnungsteil (4) ein Objektmodell (303, 313, 333, 323 und 324) erzeugt entsprechend dem Bedrohungsattribut basierend auf der Fahrassistenzinformation und der Objektmodellanzeigeinformation für das Objektmodell, das durch den Objektmodell-Anzeigeinformationsspeicherteil (6) bereitgestellt ist.
  6. Navigationsvorrichtung nach Anspruch 1, worin der Kartendatenanordnungsteil (4) ein Fahrzeugobjektmodell (301, 311, 321 und 331) erzeugt entsprechend dem ersten Fahrzeug und einem sich in der Nähe befindlichen Fahrzeugobjektmodell (302, 312, 322 und 332) entsprechend dem Hindernis.
  7. Navigationsvorrichtung nach Anspruch 6, worin der Kartendatenanordnungsteil (4) eine Anzeigegröße für das Kartenbild wählt, so dass das Fahrzeugobjektmodell und das sich in der Nähe befindliche Fahrzeugobjektmodell auf dem Anzeigeteil (5) mit einem vorherbestimmten Abstand unter Berücksichtigung einer positionellen Beziehung dazwischen angezeigt werden.
  8. Navigationsvorrichtung nach Anspruch 1, worin der Kartendatenanordnungsteil (4) aufweist: einen Objektmodellerzeugungsteil (142, 145) zum Erzeugen des Objektmodells basierend auf dem Fahrassistenzinformationsspeicherteil (6); und einen Datenanordnungsteil (143, 146) zum Anordnen des Objektmodells auf dem Kartenbild.
  9. Navigationsvorrichtung nach Anspruch 8, worin der Kartendatenanordnungsteil (4) ferner einen 3D-Kartenerzeugungsteil (147) aufweist zum Erzeugen einer 3D-Karte basisierend auf 2D-Kartendaten, die durch den Kartendatenspeicher (3) bereitgestellt sind, und der Datenanordnungsteil das Objektmodell auf der 3D-Karte, die durch den 3D-Kartenerzeugungsteil (147) erzeugt ist, anordnet.
  10. Navigationsvorrichtung nach Anspruch 8, worin der Kartendatenanordnungsteil (4) ferner einen 2D/3D-Koordinatentransformationsteil (144) aufweist zum Transformieren des Objektmodells, das 2D ist, erzeugt durch den Objektmodellerzeugungsteil, auf ein 3D-Objektmodell, und der Datenanordnungsteil das 3D-Objektmodell, das durch den 2D/3D-Koordinatentransformationsteil (144) transformiert ist, auf das Kartenbild anordnet.
  11. Navigationsverfahren zum Erkennen von Gegebenheiten um ein erstes Fahrzeug, und wenn es meint, dass es angebracht ist, einen Benutzer zu warnen, Anordnen eines geeigneten Objektmodells zur Anzeige auf einem Kartenbild und Ausführen einer Leitung zu einem Ziel, wobei das Verfahren aufweist: einen Empfangsschritt des Empfangens der Anweisung des Benutzers; einen Positionserkennungsschritt, um eine gegenwärtige Position des ersten Fahrzeugs zu erkennen; einen externen Überwachungsschritt, um die Gegebenheiten um das erste Fahrzeug zu erkennen und resultierende Überwachungsinformation auszugeben; einen Hinderniserkennungsschritt, um ein Hindernis zu erkennen, einschließlich eines zweiten Fahrzeugs, beobachtet außerhalb des ersten Fahrzeugs, basierend auf der Überwachungsinformation und Erzeugen von externer Information einschließlich Positionsinformation des Hindernisses; einen Routenauswahlschritt, um eine Route zu dem Ziel basierend auf der Anweisung zu wählen, die in dem Eingabeschritt bereitgestellt ist, die gegenwärtige Position, die in dem Positionserkennungsschritt erkannt wurde und im Voraus bereitgestellte Kartendaten; einen Kartendatenanordnungsschritt, um das Objektmodell zu erzeugen, wenn entschieden wird, dass es angebracht ist, den Benutzer zu warnen, gemäß Fahrassistenzinformation, welche basierend auf der externen Information und der Objektmodellanzeigeinformation für das Objektmodell erzeugt wurde, und Anordnen des Objektmodells auf dem Kartenbild; einen Leitschritt, um Leitinformation zu erzeugen einschließlich eines resultierenden Kartenbildes, das in dem Kartendatenanordnungsschritt in Antwort auf die in dem Routenauswahlschritt gewählte Route ausgegeben wurde, und die Kartendaten; und einen Anzeigeschritt, um die Leitinformation, die in dem Leitschritt erzeugt wurde, anzuzeigen; worin der Hinderniserkennungsschritt die externe Information ausgibt einschließlich jeglicher Typinformation, die erhalten wird durch Bestimmen eines Typs des zweiten Fahrzeugs, Zeicheninformation erhalten durch Er kennen eines Zeichens, das an dem Hindernis angeordnet ist, und Richtungsinformation, die erhalten wird durch Erkennen einer Richtung, die durch einen Blinker des Hindernisses angezeigt wird.
  12. Navigationsverfahren nach Anspruch 11, worin in dem externen Überwachungsschritt ein Bild, das um das Fahrzeug abdeckt, aufgenommen wird, und in dem Hinderniserkennungsschritt, basisierend auf der Überwachungsinformation einschließlich dem Bild, das in dem externen Überwachungsschritt aufgenommen wurde, das Hindernis, das um das erste Fahrzeug beobachtet wird, durch das Bild davon erkannt wird.
  13. Navigationsverfahren nach Anspruch 11, worin in dem Leitschritt bestimmt wird, ob das erste Fahrzeug in einem Mit-Sorge-Zustand ist durch Schätzen jeglicher möglicher situationsbedingter Veränderung für entweder das erste Fahrzeug oder das Hindernis oder beide, und basierend auf dem Mit-Sorge-Zustand es bestimmt wird, ob das Hindernis die Aufmerksamkeit des Benutzers erfordert.
  14. Navigationsverfahren nach Anspruch 11, worin in dem Leitschritt die Fahrassistenzinformation einschließlich eines Bedrohungsattributs für das Hindernis, das die Aufmerksamkeit des Benutzers erfordert, erzeugt wird, und in dem Kartendatenanordnungsschritt ein Objektmodell entsprechend dem Bedrohungsattribut erzeugt wird, basierend auf der Fahrassistenzinformation und der Objektmodellanzeigeinformation für das Objektmodell.
  15. Navigationsverfahren nach Anspruch 11, worin in dem Kartendatenanordnungsschritt ein Fahrzeugobjektmodell entsprechend dem ersten Fahrzeug und einem sich in der Nähe befindlichen Fahrzeugobjektmodell entsprechend dem Hindernis erzeugt werden und eine Anzeigegröße für das Kar tenbild so gewählt wird, dass das Fahrzeugobjektmodell und das sich in der Nähe befindliche Fahrzeugobjektmodell mit einem vorherbestimmten Abstand dazwischen unter Berücksichtigung einer positionellen Beziehung dazwischen angezeigt werden.
  16. Navigationsverfahren nach Anspruch 11, worin der Kartendatenanordnungsschritt aufweist: einen Objektmodellerzeugungsschritt zum Erzeugen des Objektmodells, basierend auf der Fahrassistenzinformation und der Objektmodellanzeigeinformation; und einen Datenanordnungsschritt, welcher das Objektmodell auf dem Kartenbild anordnet.
  17. Navigationsverfahren nach Anspruch 16, worin der Kartendatenanordnungsschritt ferner einen 3D-Kartenerzeugungsschritt aufweist, um eine 3D-Karte basierend auf 2D-Kartendaten zu erzeugen, und in dem Datenanordnungsschritt das Objektmodell auf dem Kartenbild angeordnet wird.
  18. Navigationsverfahren nach Anspruch 16, worin der Kartendatenanordnungsschritt ferner einen 2D/3D-Koordinatentransforamtionsschritt aufweist des Transformierens des Objektmodells, das 2D ist, erzeugt in dem Objektmodellerzeugungsschritt, zu einem 3D-Objektmodell, und in dem Datenanordnungsschritt das 3D-Objektmodell, transformiert in dem 2D/3D-Koordinatentransformationsschritt, auf dem Kartenbild angeordnet wird.
  19. Computer-lesbares Aufzeichnungsmedium, welches ein Programm darauf aufgezeichnet hat, zur Ausführung auf einer Navigationsvorrichtung eines in einem Fahrzeug angeordneten Typs zum Erkennen von Gegebenheiten um ein erstes Fahrzeug, und wenn es meint, dass es angebracht ist, einen Benutzer zu warnen, Anordnen eines geeigneten Objektmodells zur Anzeige auf einem Kartenbild und Ausführen einer Leitung zu einem Ziel, wobei das Programm aufweist: einen Empfangsschritt zum Empfangen der Anweisung des Benutzers; einen Positionserkennungsschritt zum Erkennen einer gegenwärtigen Position eines ersten Fahrzeugs; einen externen Überwachungsschritt, um die Gegebenheiten um das erste Fahrzeug zu erkennen und resultierende Überwachungsinformation auszugeben; einen Hinderniserkennungsschritt, um ein Hindernis zu erkennen, einschließlich eines zweiten Fahrzeugs, beobachtet außerhalb des ersten Fahrzeugs, basierend auf der Überwachungsinformation und Erzeugen von externer Information einschließlich Positionsinformation des Hindernisses; einen Routenauswahlschritt, um eine Route zu dem Ziel basierend auf der Anweisung zu wählen, die in dem Eingabeschritt bereitgestellt wurde, die gegenwärtige Position, die in dem Positionserkennungsschritt erkannt wurde und im Voraus bereitgestellten Kartendaten; einen Kartendatenanordnungsschritt, um das Objektmodell zu erzeugen, wenn entschieden wird, dass es angebracht ist, den Benutzer zu warnen, gemäß Fahrassistenzinformation, welche basierend auf dem externen Objektmodell erzeugt wurde, und Anordnen des Objektmodells auf dem Kartenbild; einen Leitschritt, um Leitinformation zu erzeugen einschließlich eines resultierenden Kartenbildes, das in dem Kartendatenanordnungsschritt in Antwort auf die in dem Routenauswahlschritt gewählte Route ausgegeben wurde, die gegenwärtige Position, welche in dem Positionserkennungsschritt erkannt wurde, und den Kartendaten; und einen Anzeigeschritt, um die Leitinformation, die in dem Leitschritt erzeugt wurde, anzuzeigen; worin der Hinderniserkennungsschritt die externe Information ausgibt einschließlich jeglicher Typinformation, die erhalten wird durch Bestimmen eines Typs des zweiten Fahrzeugs, Zeicheninformation erhalten durch Erkennen eines Zeichens, das an dem Hindernis angeordnet ist, und Richtungsinformation, die erhalten wird durch Erkennen einer Richtung, die durch einen Blinker des Hindernisses angezeigt wird.
  20. Programm zur Ausführung auf einer Navigationsvorrichtung von einem in einem Fahrzeug angeordneten Typ zum Erkennen von Gegebenheiten um ein erstes Fahrzeug und falls es meint, dass es angebracht ist, einen Benutzer zu warnen, Anordnen eines geeigneten Objektmodells zur Anzeige auf einem Kartenbild und Ausführen einer Leitung zu einem Ziel, wobei das Programm aufweist: einen Empfangsschritt zum Empfangen der Anweisung des Benutzers; einen Positionserkennungsschritt zum Erkennen einer gegenwärtigen Position des ersten Fahrzeugs; einen externen Überwachungsschritt, um die Gegebenheiten um das erste Fahrzeug zu erkennen und resultierende Überwachungsinformation auszugeben; einen Hinderniserkennungsschritt, um ein Hindernis zu erkennen, einschließlich eines zweiten Fahrzeugs, beobachtet außerhalb des ersten Fahrzeugs, basierend auf der Überwachungsinformation und Erzeugen von externer Information einschließlich Positionsinformation des Hindernisses; einen Routenauswahlschritt, um eine Route zu dem Ziel basierend auf der Anweisung zu wählen, die in dem Eingabeschritt bereitgestellt wurde, die gegenwärtige Position, die in dem Positionserkennungsschritt erkannt wurde und im Voraus bereitgestellten Kartendaten; einen Kartendatenanordnungsschritt, um das Objektmodell zu erzeugen, wenn es entschieden wird, dass es angebracht ist, den Benutzer zu warnen, gemäß Fahrassistenzinformation, welche basierend auf der externen Information und der Objektmodellanzeigeinformation für das Objektmodell erzeugt wurde, und Anordnen des Objektmodells auf dem Kartenbild; einen Leitschritt, um Leitinformation zu erzeugen einschließlich eines resultierenden Kartenbildes, das in dem Kartendatenanordnungsschritt in Antwort auf die in dem Routenauswahlschritt gewählte Route ausgegeben wurde, und den Kartendaten; und einen Anzeigeschritt, um die Leitinformation, die in dem Leitschritt erzeugt wurde, anzuzeigen; worin der Hinderniserkennungsschritt die externe Information ausgibt einschließlich jeglicher Typinformation, die erhalten wird durch Bestimmen eines Typs des zweiten Fahrzeugs, Zeicheninformation erhalten durch Erkennen eines Zeichens, das an dem Hindernis angeordnet ist, und Richtungsinformation, die erhalten wird durch Erkennen einer Richtung, die durch einen Blinker des Hindernisses angezeigt wird.
DE60122963T 2000-04-24 2001-04-24 Navigationsvorrichtung Expired - Lifetime DE60122963T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000122685 2000-04-24
JP2000122685 2000-04-24

Publications (2)

Publication Number Publication Date
DE60122963D1 DE60122963D1 (de) 2006-10-26
DE60122963T2 true DE60122963T2 (de) 2007-09-13

Family

ID=18633133

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60122963T Expired - Lifetime DE60122963T2 (de) 2000-04-24 2001-04-24 Navigationsvorrichtung

Country Status (3)

Country Link
US (1) US6411898B2 (de)
EP (1) EP1152218B1 (de)
DE (1) DE60122963T2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017210070A1 (de) * 2017-06-14 2018-12-20 Robert Bosch Gmbh Verfahren zum Erstellen einer digitalen Karte für ein automatisiertes Fahrzeug

Families Citing this family (106)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPQ181699A0 (en) * 1999-07-23 1999-08-19 Cmte Development Limited A system for relative vehicle navigation
NL1013349C2 (nl) * 1999-10-20 2001-04-23 Lely Res Holding Inrichting voor het afbakenen van een gebied alsmede voertuig geschikt voor gebruik in de inrichting.
US6801244B2 (en) * 2000-02-29 2004-10-05 Kabushiki Kaisha Toshiba Obstacle detection apparatus and method
JP2002140798A (ja) * 2000-11-06 2002-05-17 Masato Abe 運転支援制御システム
JP2002319091A (ja) * 2001-04-20 2002-10-31 Fuji Heavy Ind Ltd 後続車両認識装置
EP1332923B1 (de) * 2002-02-05 2007-07-11 Donnelly Hohe GmbH & Co. KG Einpark- und/oder Rangierhilfeeinrichtung
WO2003100760A1 (fr) * 2002-05-29 2003-12-04 Yamaha Hatsudoki Kabushiki Kaisha Systeme d'indication de l'etat de produits, programme pour systeme d'indication de l'etat de produits, support d'enregistrement pour systeme d'indication de l'etat de produits
JP3938532B2 (ja) * 2002-09-05 2007-06-27 本田技研工業株式会社 車両制御装置、プログラム及び方法
JP4077400B2 (ja) * 2002-12-26 2008-04-16 株式会社東芝 案内情報提供装置、サーバー装置、案内情報提供方法、及びコンピュータに案内情報提供を実行させるためのプログラム
JP4134785B2 (ja) * 2003-03-28 2008-08-20 株式会社デンソー 表示装置
JP4048994B2 (ja) * 2003-04-10 2008-02-20 ソニー株式会社 ナビゲーション装置
JP3879696B2 (ja) * 2003-04-25 2007-02-14 日産自動車株式会社 運転支援装置
JP4055656B2 (ja) * 2003-05-30 2008-03-05 トヨタ自動車株式会社 衝突予測装置
US9341485B1 (en) * 2003-06-19 2016-05-17 Here Global B.V. Method and apparatus for representing road intersections
EP1491857A1 (de) * 2003-06-26 2004-12-29 Harman Becker Automotive Systems GmbH Navigationsassistenzverfahren und Navigationssystem
US20050015201A1 (en) * 2003-07-16 2005-01-20 Sarnoff Corporation Method and apparatus for detecting obstacles
KR100520707B1 (ko) * 2003-10-20 2005-10-17 엘지전자 주식회사 3차원 지도에서의 다중레벨 텍스트데이터 표시방법
JP4513318B2 (ja) * 2003-12-10 2010-07-28 日産自動車株式会社 後側方画像制御装置および方法
JP4352389B2 (ja) * 2003-12-24 2009-10-28 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置及びナビゲーションシステム
JP4380561B2 (ja) * 2004-04-16 2009-12-09 株式会社デンソー 運転支援装置
JP4423114B2 (ja) * 2004-06-02 2010-03-03 アルパイン株式会社 ナビゲーション装置およびその交差点案内方法
US8751156B2 (en) * 2004-06-30 2014-06-10 HERE North America LLC Method of operating a navigation system using images
JP2006072830A (ja) * 2004-09-03 2006-03-16 Aisin Aw Co Ltd 運転支援システム及び運転支援モジュール
US20060055521A1 (en) * 2004-09-15 2006-03-16 Mobile-Vision Inc. Automatic activation of an in-car video recorder using a GPS speed signal
JP2006112962A (ja) * 2004-10-15 2006-04-27 Aisin Aw Co Ltd 運転支援方法及び運転支援装置
JP4539361B2 (ja) * 2005-02-16 2010-09-08 アイシン精機株式会社 移動体通信装置
JP4596978B2 (ja) * 2005-03-09 2010-12-15 三洋電機株式会社 運転支援システム
US7307578B2 (en) * 2005-03-31 2007-12-11 Honeywell International Inc. Declutter of graphical TCAS targets to improve situational awareness
US7933929B1 (en) * 2005-06-27 2011-04-26 Google Inc. Network link for providing dynamic data layer in a geographic information system
US20080284848A1 (en) * 2005-08-26 2008-11-20 Peter Martin Security surveillance planning tool kit
JP4501840B2 (ja) * 2005-10-31 2010-07-14 アイシン・エィ・ダブリュ株式会社 経路案内システム及び経路案内方法
US7899211B2 (en) * 2005-12-07 2011-03-01 Nissan Motor Co., Ltd. Object detecting system and object detecting method
US20070225914A1 (en) * 2006-03-21 2007-09-27 Hiroshi Kawazoe Lane departure avoidance control
WO2007116552A1 (ja) * 2006-03-31 2007-10-18 Sharp Kabushiki Kaisha 車載用インパネ表示システム、画像データ出力装置
WO2008018292A1 (fr) * 2006-08-11 2008-02-14 Sharp Kabushiki Kaisha Système d'affichage et dispositif de commande de panneau d'affichage embarqués sur un véhicule
US7974460B2 (en) * 2007-02-06 2011-07-05 Honeywell International Inc. Method and system for three-dimensional obstacle mapping for navigation of autonomous vehicles
GB2447672B (en) 2007-03-21 2011-12-14 Ford Global Tech Llc Vehicle manoeuvring aids
JP4748111B2 (ja) * 2007-05-31 2011-08-17 株式会社デンソー 障害物検出装置
JP2009026177A (ja) * 2007-07-23 2009-02-05 Clarion Co Ltd 表示制御装置、表示制御方法および制御プログラム
JP4731627B2 (ja) * 2007-12-28 2011-07-27 三菱電機株式会社 ナビゲーション装置
CN101532844A (zh) * 2008-03-14 2009-09-16 鸿富锦精密工业(深圳)有限公司 移动通信装置及其移动通信装置的行程引导方法
US8610727B1 (en) * 2008-03-14 2013-12-17 Marvell International Ltd. Dynamic processing core selection for pre- and post-processing of multimedia workloads
DE102008054641A1 (de) 2008-12-15 2010-06-17 Robert Bosch Gmbh Steuereinrichtung und Verfahren zur Erzeugung einer Anzeigendarstellung
US20100152967A1 (en) * 2008-12-15 2010-06-17 Delphi Technologies, Inc. Object detection system with learned position information and method
DE102009041007A1 (de) * 2009-09-10 2011-03-24 Bayerische Motoren Werke Aktiengesellschaft Navigationssystem und Radioempfangssystem
WO2011044922A1 (en) * 2009-10-12 2011-04-21 Tomtom International B.V. Navigation device with warning about right of way of other users
US8346466B2 (en) * 2009-11-11 2013-01-01 Northrop Grumman Guidance & Electronics Systems and methods for determining heading
US9691281B2 (en) * 2010-03-24 2017-06-27 Telenav, Inc. Navigation system with image assisted navigation mechanism and method of operation thereof
KR101448411B1 (ko) 2010-08-19 2014-10-07 닛산 지도우샤 가부시키가이샤 입체물 검출 장치 및 입체물 검출 방법
DE102010040803A1 (de) * 2010-09-15 2012-03-15 Continental Teves Ag & Co. Ohg Visuelles Fahrerinformations- und Warnsystem für einen Fahrer eines Kraftfahrzeugs
JP5783243B2 (ja) * 2011-02-21 2015-09-24 日産自動車株式会社 周期的静止物検出装置及び周期的静止物検出方法
JP5460635B2 (ja) * 2011-03-31 2014-04-02 本田技研工業株式会社 画像処理判定装置
US9926008B2 (en) 2011-04-19 2018-03-27 Ford Global Technologies, Llc Trailer backup assist system with waypoint selection
US9506774B2 (en) 2011-04-19 2016-11-29 Ford Global Technologies, Llc Method of inputting a path for a vehicle and trailer
US9723274B2 (en) 2011-04-19 2017-08-01 Ford Global Technologies, Llc System and method for adjusting an image capture setting
US9969428B2 (en) 2011-04-19 2018-05-15 Ford Global Technologies, Llc Trailer backup assist system with waypoint selection
US9248858B2 (en) 2011-04-19 2016-02-02 Ford Global Technologies Trailer backup assist system
US9290204B2 (en) 2011-04-19 2016-03-22 Ford Global Technologies, Llc Hitch angle monitoring system and method
US9346396B2 (en) 2011-04-19 2016-05-24 Ford Global Technologies, Llc Supplemental vehicle lighting system for vision based target detection
US9555832B2 (en) 2011-04-19 2017-01-31 Ford Global Technologies, Llc Display system utilizing vehicle and trailer dynamics
US9683848B2 (en) 2011-04-19 2017-06-20 Ford Global Technologies, Llc System for determining hitch angle
US9854209B2 (en) 2011-04-19 2017-12-26 Ford Global Technologies, Llc Display system utilizing vehicle and trailer dynamics
US9500497B2 (en) 2011-04-19 2016-11-22 Ford Global Technologies, Llc System and method of inputting an intended backing path
US9164955B2 (en) 2013-02-04 2015-10-20 Ford Global Technologies Trailer active back-up assist with object avoidance
US9374562B2 (en) 2011-04-19 2016-06-21 Ford Global Technologies, Llc System and method for calculating a horizontal camera to target distance
JP6193222B2 (ja) * 2011-06-17 2017-09-06 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 車道上で車両を誘導する際に運転者を支援する機能を実現させるためのプログラム、およびそれを実行するための装置
TWI446225B (zh) * 2011-07-28 2014-07-21 Aptos Technology Inc 投影系統與其影像處理方法
TWI474173B (zh) * 2012-02-21 2015-02-21 Hon Hai Prec Ind Co Ltd 行走輔助系統及行走輔助方法
EP2843615B1 (de) * 2012-04-16 2016-12-07 Nissan Motor Co., Ltd. Vorrichtung zur erkennung dreidimensionaler objekte und verfahren zur erkennung dreidimensionaler objekte
US9969081B2 (en) * 2012-07-27 2018-05-15 Alberto Daniel Lacaze Method and system for the directed control of robotic assets
US9286800B2 (en) * 2012-12-30 2016-03-15 Robert Gordon Guidance assist vehicle module
US9053636B2 (en) * 2012-12-30 2015-06-09 Robert Gordon Management center module for advanced lane management assist for automated vehicles and conventionally driven vehicles
US9511799B2 (en) 2013-02-04 2016-12-06 Ford Global Technologies, Llc Object avoidance for a trailer backup assist system
US9592851B2 (en) 2013-02-04 2017-03-14 Ford Global Technologies, Llc Control modes for a trailer backup assist system
US9129528B2 (en) 2013-02-04 2015-09-08 Ford Global Technologies Trailer active back-up assist with lane width HMI
DE102013216994A1 (de) * 2013-08-27 2015-03-05 Robert Bosch Gmbh Geschwindigkeitsassistent für ein Kraftfahrzeug
US9352777B2 (en) 2013-10-31 2016-05-31 Ford Global Technologies, Llc Methods and systems for configuring of a trailer maneuvering system
KR20150061752A (ko) * 2013-11-28 2015-06-05 현대모비스 주식회사 차량 운행 보조 장치 및 그 장치에 의한 차량 운행 보조 기능의 자동 활성화 방법
GB2521274B (en) * 2013-12-11 2018-07-04 Continental automotive systems inc Emergency vehicle detection with digital image sensor
US9576208B2 (en) 2013-12-11 2017-02-21 Continental Automotive Systems, Inc. Emergency vehicle detection with digital image sensor
US9233710B2 (en) 2014-03-06 2016-01-12 Ford Global Technologies, Llc Trailer backup assist system using gesture commands and method
US9522677B2 (en) 2014-12-05 2016-12-20 Ford Global Technologies, Llc Mitigation of input device failure and mode management
US9533683B2 (en) 2014-12-05 2017-01-03 Ford Global Technologies, Llc Sensor failure mitigation system and mode management
WO2016110999A1 (ja) 2015-01-09 2016-07-14 三菱電機株式会社 操作制御装置
US9607242B2 (en) 2015-01-16 2017-03-28 Ford Global Technologies, Llc Target monitoring system with lens cleaning device
US9836056B2 (en) * 2015-06-05 2017-12-05 Bao Tran Smart vehicle
US9896130B2 (en) 2015-09-11 2018-02-20 Ford Global Technologies, Llc Guidance system for a vehicle reversing a trailer along an intended backing path
JP6365481B2 (ja) * 2015-09-23 2018-08-01 トヨタ自動車株式会社 車両走行制御装置
US9836060B2 (en) 2015-10-28 2017-12-05 Ford Global Technologies, Llc Trailer backup assist system with target management
US9610975B1 (en) 2015-12-17 2017-04-04 Ford Global Technologies, Llc Hitch angle detection for trailer backup assist system
US9911345B2 (en) * 2016-02-24 2018-03-06 Honeywell International Inc. System and method for detecting misaligned stationary objects
CN105956268B (zh) * 2016-04-29 2018-01-02 百度在线网络技术(北京)有限公司 应用于无人驾驶汽车的测试场景构建方法和装置
US10112646B2 (en) 2016-05-05 2018-10-30 Ford Global Technologies, Llc Turn recovery human machine interface for trailer backup assist
CN106200612B (zh) * 2016-07-07 2019-01-22 百度在线网络技术(北京)有限公司 用于测试车辆的方法和系统
US11067996B2 (en) 2016-09-08 2021-07-20 Siemens Industry Software Inc. Event-driven region of interest management
US10317901B2 (en) 2016-09-08 2019-06-11 Mentor Graphics Development (Deutschland) Gmbh Low-level sensor fusion
US10585409B2 (en) 2016-09-08 2020-03-10 Mentor Graphics Corporation Vehicle localization with map-matched sensor measurements
US10678240B2 (en) * 2016-09-08 2020-06-09 Mentor Graphics Corporation Sensor modification based on an annotated environmental model
US10665039B2 (en) * 2016-12-09 2020-05-26 Traffilog Ltd. Distributed monitoring and control of a vehicle
US20180314253A1 (en) 2017-05-01 2018-11-01 Mentor Graphics Development (Deutschland) Gmbh Embedded automotive perception with machine learning classification of sensor data
US10955259B2 (en) * 2017-10-20 2021-03-23 Telenav, Inc. Navigation system with enhanced navigation display mechanism and method of operation thereof
US10553044B2 (en) 2018-01-31 2020-02-04 Mentor Graphics Development (Deutschland) Gmbh Self-diagnosis of faults with a secondary system in an autonomous driving system
US11145146B2 (en) 2018-01-31 2021-10-12 Mentor Graphics (Deutschland) Gmbh Self-diagnosis of faults in an autonomous driving system
CN109087521B (zh) * 2018-08-09 2022-06-24 上海擎感智能科技有限公司 旅行地图车载显示方法、服务端及客户端
CN110658822A (zh) * 2019-10-11 2020-01-07 北京小马慧行科技有限公司 车辆行驶的控制方法、装置、存储介质和处理器
KR20230028852A (ko) * 2021-08-23 2023-03-03 현대자동차주식회사 모빌리티 배차 시스템 및 방법

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5128874A (en) * 1990-01-02 1992-07-07 Honeywell Inc. Inertial navigation sensor integrated obstacle detection system
US5956250A (en) * 1990-02-05 1999-09-21 Caterpillar Inc. Apparatus and method for autonomous vehicle navigation using absolute data
JPH08241419A (ja) 1995-03-06 1996-09-17 Digital:Kk 図形の描画制御方法
JPH08263784A (ja) * 1995-03-23 1996-10-11 Honda Motor Co Ltd 道路状況認識装置
JP3417134B2 (ja) 1995-04-21 2003-06-16 日産自動車株式会社 車両側方監視装置
JP3468620B2 (ja) 1995-08-24 2003-11-17 三菱自動車工業株式会社 車両のノーズビュー装置
JPH09178505A (ja) 1995-12-27 1997-07-11 Pioneer Electron Corp 運転支援装置
JP3591192B2 (ja) * 1996-10-25 2004-11-17 トヨタ自動車株式会社 車両用情報提供装置
JPH113499A (ja) 1997-06-10 1999-01-06 Hitachi Ltd 移動体管理システム,移動体載装置,基地局備装置および移動体管理方法
JPH11272640A (ja) 1998-03-23 1999-10-08 Aqueous Reserch:Kk エージェント装置
JP4032492B2 (ja) 1998-03-23 2008-01-16 株式会社エクォス・リサーチ エージェント装置
JP3965538B2 (ja) 1998-02-27 2007-08-29 株式会社エクォス・リサーチ エージェント装置
JPH11311515A (ja) 1998-04-28 1999-11-09 Toppan Printing Co Ltd 道路撮影データにおける道路分岐点識別方法
JPH11321494A (ja) 1998-05-08 1999-11-24 Yazaki Corp 後側方監視装置
JPH11339192A (ja) * 1998-05-25 1999-12-10 Hitachi Ltd 車両用表示装置
JP2000238594A (ja) 1998-12-25 2000-09-05 Aisin Aw Co Ltd 運転支援装置
JP2000203465A (ja) 1999-01-13 2000-07-25 Equos Research Co Ltd 情報記録装置
JP2000222698A (ja) 1999-02-02 2000-08-11 Nec Corp 車両対物確認装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017210070A1 (de) * 2017-06-14 2018-12-20 Robert Bosch Gmbh Verfahren zum Erstellen einer digitalen Karte für ein automatisiertes Fahrzeug
US11163308B2 (en) 2017-06-14 2021-11-02 Robert Bosch Gmbh Method for creating a digital map for an automated vehicle

Also Published As

Publication number Publication date
US20010040505A1 (en) 2001-11-15
EP1152218A2 (de) 2001-11-07
US6411898B2 (en) 2002-06-25
EP1152218A3 (de) 2003-05-02
DE60122963D1 (de) 2006-10-26
EP1152218B1 (de) 2006-09-13

Similar Documents

Publication Publication Date Title
DE60122963T2 (de) Navigationsvorrichtung
DE112016001259B4 (de) Bilderzeugungsvorrichtung
EP2805183B1 (de) Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs
DE102016200018B4 (de) Fahrzeugfortbewegungssteuereinrichtung
DE102020110458A1 (de) Fahrzeugpfadvorhersage
DE102016210254A1 (de) Fahrzeugortung an kreuzungen anhand von visuellen anhaltspunkte, stationären objekten und durch gps
EP2082388B1 (de) Verfahren und vorrichtung zur erkennung von verdeckten objekten im strassenverkehr
DE112018004377T5 (de) Fahrzeugfahrassistenzsystem, fahrzeugfahrassistenzverfahren und fahrzeugfahrassistenzprogramm
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE102019205228A1 (de) Einfädelverhaltenssysteme und Verfahren für Fahrzeuge auf einer Hauptspur
DE102019205223A1 (de) Einfädelverhaltenssysteme und Verfahren zum Einfädeln von Fahrzeugen
DE102004057188A1 (de) Fahrzeug-Fahrunterstützungsvorrichtung
DE112018007027T5 (de) Abbiegewegvisualisierung zum verbessern von räumlichem und situativem bewusstsein bei abbiegemanövern
DE102016217125A1 (de) Kurvenführungsverfahren, Kurvenführungsgerät, elektronisches Gerät und auf dem computerlesbaren Aufnahmemedium gespeichertes Programm
DE10101250A1 (de) Überwachung der Umgebung eines Motorfahrzeugs auf Kollisionsgefahr
DE112015001544T5 (de) Fahrzeuganzeigesteuervorrichtung
DE102016106832A1 (de) Fahrzeugsteuerungsvorrichtung
DE112018004521T5 (de) Anzeigevorrichtung eines überlagerten Bildes und Computerprogramm
DE112017004936T5 (de) Peripherieüberwachungsvorrichtung
WO2011157251A1 (de) Verfahren zur fusion eines verkehrszeichenerkennungssystems und eines spurerkennungssystems eines kraftfahrzeugs
DE102015105248A1 (de) Erzeugen eines bildes von der umgebung eines gelenkfahrzeugs
DE102009012917A1 (de) Hinderniserkennungsvorrichtung für Fahrzeuge
DE10108646A1 (de) Gefahrenentscheidungsvorrichtung für ein Kraftfahrzeug und Umgebungsüberwachungsvorrichtung für dasselbe
DE112015006773T5 (de) Anzeigesteuervorrichtung, Anzeigevorichtung und Anzeigesteuerverfahren
DE102006037993A1 (de) System und Verfahren zum Detektieren einer Kollision und Vorhersagen eines Fahrzeugpfads

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: PANASONIC CORP., KADOMA, OSAKA, JP

8320 Willingness to grant licences declared (paragraph 23)