DE102014112601A1 - Fahrzeugumgebungerkennungsvorrichtung - Google Patents

Fahrzeugumgebungerkennungsvorrichtung Download PDF

Info

Publication number
DE102014112601A1
DE102014112601A1 DE201410112601 DE102014112601A DE102014112601A1 DE 102014112601 A1 DE102014112601 A1 DE 102014112601A1 DE 201410112601 DE201410112601 DE 201410112601 DE 102014112601 A DE102014112601 A DE 102014112601A DE 102014112601 A1 DE102014112601 A1 DE 102014112601A1
Authority
DE
Germany
Prior art keywords
vehicle
unit
specific object
image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE201410112601
Other languages
English (en)
Inventor
c/o FUJI JUKOGYO KABUSHIKI KAISH Hiwatashi Yutaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK, Fuji Heavy Industries Ltd filed Critical Fuji Jukogyo KK
Publication of DE102014112601A1 publication Critical patent/DE102014112601A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/40Correcting position, velocity or attitude
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/485Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

Es wird eine Fahrzeugumgebungerkennungsvorrichtung bereitgestellt. Eine Fahrzeugumgebungerkennungsvorrichtung 120 beinhaltet: eine Bildverarbeitungseinheit 160, die Bilddaten von einem aufgenommenen Detektionsbereich akquiriert, eine Räumliche-Position-Information-Erzeugungseinheit 162, die Relativpositionen von Zielbereichen in dem Detektionsbereich von dem Fahrzeug identifiziert, basierend auf den Bilddaten, eine Spezifisches-Objekt-Identifikationseinheit 164, die ein spezifisches Objekt identifiziert, entsprechend den Zielbereichen, basierend auf den Bilddaten und den Relativpositionen, und die Relativpositionen als Bildpositionen speichert, eine Datenpositionsidentifikationseinheit 172, die eine Datenposition identifiziert, welche eine Relativposition des spezifischen Objekts von dem Fahrzeug ist, entsprechend einer GPS-basierten Absolutposition des Fahrzeugs und Kartendaten, eine Korrekturwertherleiteeinheit 174, die einen Korrekturwert herleitet, der eine Differenz ist zwischen der Bildposition und der Datenposition, und eine Positionskorrektureinheit 176, die die GPS-basierte Absolutposition durch den hergeleiteten Korrekturwert korrigiert.

Description

  • Die vorliegende Erfindung betrifft eine Fahrzeugumgebungerkennungsvorrichtung, die die Umgebung außerhalb eines Fahrzeugs erkennt und insbesondere eine Fahrzeugumgebungerkennungsvorrichtung, die eine GPS-basierte, das heißt auf Satelitteninformation basierende Absolutposition des Fahrzeugs korrigiert.
  • Bei einer konventionellen Fahrzeugnavigationsvorrichtung werden Kartendaten verwendet, die es ermöglichen, dass auf dreidimensionale Objekte, Straßen und Anderes als elektronische Daten Bezug genommen werden kann. Bei einer bekannten Technologie (beispielsweise die japanische ungeprüfte Patentanmeldungsveröffentlichung (JP-A) Nr. H11-184375 ) werden zum Verbessern der Genauigkeit solcher Kartendaten Daten von Fotografien, die von einem Flugzeug aufgenommen werden, in Orthobilder konvertiert, Straßennetzwerkdaten der Bodenoberfläche extrahiert und Informationselemente auf die Straßennetzwerkdaten überlagert. Mit dieser Technologie können geographische Merkmale auf der Karte mit hoher Genauigkeit wiedergegeben werden.
  • Andererseits hat das, was adaptive-cruise-control (ACC) beziehungsweise adaptive Fahrtsteuerung genannt wird, Aufmerksamkeit auf sich gezogen. ACC detektiert ein stationäres Objekt wie beispielsweise ein Verkehrssignal oder eine Fahrtspur, bestimmt einen Fahrtweg, längs dem das Fahrzeug fährt, und unterstützt so den Bedienvorgang des Fahrers. ACC detektiert auch ein sich bewegendes Objekt wie beispielsweise ein anderes Fahrzeug (vorausfahrendes Fahrzeug), das sich vor dem Fahrzeug befindet, und hält einen Sicherheitsabstand zwischen dem Fahrzeug und dem sich bewegenden Objekt aufrecht, während eine Kollision mit dem vorausfahrenden Fahrzeug vermieden wird.
  • Bei der vorstehend erwähnten Technologie wird die Außenumgebung vor dem Fahrzeug erkannt basierend auf Bilddaten, die von einer Bildaufnahmevorrichtung erhalten werden, die in dem Fahrzeug montiert ist, und das Fahrzeug wird gesteuert entsprechend dem Fahrtweg, längs dem das Fahrzeug fahren sollte, oder der Bewegung des vorausfahrenden Fahrzeugs. Die erkennbare Umgebung außerhalb des Fahrzeugs ist jedoch begrenzt auf einen Detektionsbereich, der von der Bildaufnahmevorrichtung aufgenommen werden kann, und ein blinder Fleck (toter Winkel) und ein Bereich weiter weg von dem Fahrzeug, die nicht leicht aufgenommen werden können, sind daher nur schwierig zu erkennen.
  • Der Erfinder hat daher die Idee entwickelt, die Genauigkeit von Fahrtsteuerung zu verbessern durch Verwenden von Kartendaten, um die Umgebung außerhalb des Fahrzeugs in einem weiten Bereich, der schwer aufzunehmen ist, zu erkennen und durch Verwenden selbst eines Fahrtweges an einem entfernten Punkt als einen Steuerungseingang. Auf diese Art und Weise ist es möglich, das Fahrzeug komfortabler zu steuern, beispielsweise anzuhalten, oder das Fahrzeug zu verzögern, durch Erkennen der Straßenbedingungen an einem entfernten Punkt.
  • Die in einer Fahrzeugnavigationsvorrichtung oder dergleichen verwendeten Kartendaten weisen jedoch nur feststehende geographische Merkmale auf und es kann daher nicht möglich sein, die relative Positionsbeziehung zwischen stationären Objekten, die auf der Karte gezeigt sind, und dem fahrenden Fahrzeug zu erkennen. Obwohl es möglich ist, die Absolutposition des Fahrzeugs unter Verwendung eines globalen Positionsbestimmungssystems (GPS), das in dem Fahrzeug montiert ist, abzuschätzen, ist die Positionsgenauigkeit des GPS nicht so hoch und, wenn ein Fehler in der Absolutposition in den Steuerungseingang eingeführt wird, kann die Betätigung eines Fahrers nicht ausreichend unterstützt werden.
  • Im Hinblick auf dieses Problem stellt die vorliegende Erfindung eine Fahrzeugumgebungerkennungsvorrichtung bereit, die komfortables Fahren ermöglicht durch Korrigieren der GPS-basierten Absolutposition des Fahrzeugs mit hoher Genauigkeit.
  • Um das vorstehend genannte Problem zu lösen, weist gemäß einem Aspekt der vorliegenden Erfindung eine Fahrzeugumgebungerkennungsvorrichtung auf: eine Bildverarbeitungseinheit, die Bilddaten von einem aufgenommenen Detektionsbereich akquiriert, eine Räumliche-Position-Information-Erzeugungseinheit, die relative Positionen von mehreren Zielbereichen in dem Detektionsbereich in Bezug auf das Fahrzeug identifiziert, basierend auf den Bilddaten, eine Spezifisches-Objekt-Identifikationseinheit, die ein spezifisches Objekt, korrespondierend zu den Zielbereichen, basierend auf den Bilddaten, und die relativen Positionen des Zielbereichs identifiziert, und die relativen Positionen der Zielbereiche als Bildpositionen speichert, eine Datenpositionsidentifikationseinheit, die eine Datenposition identifiziert gemäß einer GPS-basierten Absolutposition des Fahrzeugs und Kartendaten, wobei die Datenposition eine relative Position des spezifischen Objektes ist bezüglich des Fahrzeugs, eine Korrekturwertherleiteeinheit, die einen Korrekturwert herleitet, der eine Differenz ist zwischen der Bildposition und der Datenposition, und eine Positionskorrektureinheit, die die GPS-basierte Absolutposition des Fahrzeugs um den hergeleiteten Korrekturwert korrigiert.
  • Die Korrekturwertherleiteeinheit kann einen Korrekturwert herleiten intermittierend während eines Zeitabschnitts, in dem die Spezifisches-Objekt-Identifikationseinheit ein spezifisches Objekt identifizieren kann.
  • Die Fahrzeugumgebungerkennungsvorrichtung kann weiterhin aufweisen eine Fahrzeugumgebungdetektionseinheit, die eine Umgebung außerhalb des Fahrzeugs detektiert, und eine Referenzbestimmungseinheit, die entsprechend der Umgebung außerhalb des Fahrzeugs bestimmt, welche von der relativen Position, basierend auf den Bilddaten, und der korrigierten GPS-basierten Absolutposition für die vorbestimmte Steuerung zu verwenden ist.
  • Das spezifische Objekt kann ein Punkt sein, der sich auf einem Fahrtweg befindet, auf dem das Fahrzeug fährt, und der von dem Fahrzeug um einen vorbestimmten Abstand entfernt ist.
  • Das spezifische Objekt kann ein Verkehrssignal sein oder ein Straßenschild.
  • Die Erfindung wird im Folgenden weiter erläutert im Zusammenhang mit einem Ausführungsbeispiel unter Bezug auf die beigefügten Zeichnungen, in denen
  • 1 ein Blockschaubild ist, das eine Verbindungsbeziehung einer Umgebungserkennungsvorrichtung zeigt,
  • 2 ein funktionales Blockschaubild ist, das schematisch Funktionen einer Fahrzeugumgebungerkennungsvorrichtung zeigt,
  • die 3A und 3B beispielhafte Darstellungen sind zum Erläutern eines Luminanzbildes und eines Abstandsbildes,
  • 4 eine beispielhafte Darstellung ist zum Erläutern einer spezifischen Operation eines Verkehrssignals,
  • 5 ein Steuerungsblockschaubild ist, das einen Ablauf einer Fahrtunterstützungssteuerung zeigt,
  • 6 eine beispielhafte Darstellung zum Erläutern eines Fahrtweges ist,
  • 7 ein funktionales Blockschaubild ist, das schematisch Funktionen der Fahrzeugumgebungerkennungsvorrichtung zeigt, und
  • 8 ein Flussdiagramm ist zum Erläutern des schematischen Ablaufs eines Interruptprozesses einer Fahrzeugumgebungdetektionseinheit und einer Referenzbestimmungseinheit.
  • Im Folgenden werden bevorzugte Ausführungsformen der vorliegenden Erfindung detailliert beschrieben unter Bezug auf die beigefügten Zeichnungen. Die Dimensionen, Materialien und andere spezifische numerische Werte, die bei den Ausführungsbeispielen angegeben werden, dienen lediglich der Illustration zum Erleichtern des Verständnisses der Erfindung und sind nicht dahingehend zu verstehen, dass sie die vorliegende Erfindung beschränken, soweit nicht anders angegeben. In der vorliegenden Beschreibung und den vorliegenden Zeichnungen werden Elemente, die im Wesentlichen die gleiche Funktion und Konfiguration haben, mit den gleichen Symbolen bezeichnet, und eine redundante Beschreibung wird hierdurch weggelassen.
  • Zudem werden Elemente, die keinen Bezug zu der vorliegenden Erfindung haben, nicht dargestellt.
  • In den vergangenen Jahren hat sich die Fahrtunterstützungstechnologie verbreitet. Mit dieser Technologie wird die Außenumgebung vor einem Fahrzeug von einer Bildaufnahmevorrichtung, die in dem Fahrzeug angebracht ist, aufgenommen, ein spezifisches Objekt wie beispielsweise ein Verkehrssignal oder eine Fahrspur werden detektiert, basierend auf Farbinformationen und Positionsinformationen in dem aufgenommenen Bild, und ein Fahrtweg des Fahrzeugs wird abgeschätzt, wodurch der Fahrtvorgang eines Fahrers unterstützt wird. Die erkennbare Umgebung außerhalb eines Fahrzeugs ist jedoch begrenzt auf einen Detektionsbereich, der von der Bildaufnahmevorrichtung aufgenommen werden kann, und somit können ein blinder Fleck (toter Winkel) und ein Bereich weiter weg von dem Fahrzeug nur schwer erkannt werden.
  • Bei den vorliegenden Ausführungsformen werden daher Kartendaten verwendet, die es erlauben, dass auf dreidimensionale Objekte, Straßen und Anderes als elektronische Daten Bezug genommen wird, die Fahrzeugumgebung in einem Bereich, der schwierig aufzunehmen ist, wird erkannt und ein langer Fahrtweg zu einem entfernten Punkt wird als Steuerungseingang verwendet und die Genauigkeit der Fahrtsteuerung wird verbessert. Die relative positionale Beziehung zwischen einem spezifischen Objekt, das auf der Karte gezeigt ist, und dem fahrenden Fahrzeug kann jedoch nicht erkannt werden, wenn die Kartendaten alleine verwendet werden. Obwohl es möglich ist, die absolute Position des Fahrzeugs unter Verwendung eines GPS, das in dem Fahrzeug angebracht ist, zu erkennen, ist die positionale Genauigkeit des GPS nicht so hoch und, selbst wenn die absolute Position des Fahrzeugs einschließlich eines Fehlers in den Steuerungseingang eingeführt wird, kann die Betätigung eines Fahrers nicht in ausreichender Weise unterstützt werden. Bei den vorliegenden Ausführungsformen wird daher eine relative Position, hergeleitet basierend auf einem Bild, verwendet, um die GPS-basierte Absolutposition des Fahrzeugs mit hoher Genauigkeit zu korrigieren und es wird Information der Kartendaten, die mit einer Bildaufnahmevorrichtung schwierig erhalten werden kann, verwendet, wodurch ein komfortables Fahren erreicht wird.
  • (Umgebungserkennungssystem 100)
  • 1 ist ein Blockschaubild, das eine Verbindungsbeziehung eines Umgebungserkennungssystems 100 zeigt. Das Umgebungserkennungssystem 100 weist auf eine Bildaufnahmevorrichtung 110, die in einem Fahrzeug 1 vorgesehen ist, eine Fahrzeugumgebungerkennungsvorrichtung 120 und eine Fahrzeugsteuerungsvorrichtung (Motorsteuerungseinheit (ECU)) 130.
  • Die Bildaufnahmevorrichtung 110 weist auf eine Bildgebungsvorrichtung wie beispielsweise eine ladungsgekoppelte Vorrichtung (CCD) oder einen komplementären Metalloxidhalbleiter (CMOS) und ist dazu geeignet, die Umgebung vor dem Fahrzeug 1 aufzunehmen und ein Farbbild mit drei Farben (rot (R), grün (G), blau (B)) oder ein monochromes Bild zu erzeugen. Hier wird ein Farbbild, das von der Bildaufnahmevorrichtung 110 aufgenommen wird, ein Luminanzbild genannt, und es wird unterschieden von einem Abstandsbild, das später beschrieben wird.
  • Zwei Bildaufnahmevorrichtungen 110 sind so angeordnet, dass sie in im Wesentlichen einer horizontalen Richtung voneinander beabstandet sind, so dass die optischen Achsen der Bildaufnahmevorrichtungen 110 im Wesentlichen parallel in dem Bereich vor dem Fahrzeug 1 in einer Fahrtrichtung sind. Jede Bildaufnahmevorrichtung 110 erzeugt kontinuierlich Bilder von aufgenommenen Bilddaten eines Objekts, das sich vor dem Fahrzeug 1 befindet, beispielsweise jede 1/60 Sekunde (60 fps (frame per second = Bilder pro Sekunde)). Hierbei beinhalten Zielobjekte, die als spezifische Objekte zu erkennen sind, nicht nur unabhängige dreidimensionale Objekte wie beispielsweise ein Fahrzeug, ein Fußgänger, ein Verkehrssignal, ein Straßenschild, eine Fahrtspur, eine Straße und eine Leitplanke, sondern auch Objekte, die identifiziert werden können als ein Teil eines dreidimensionalen Objekts, wie beispielsweise ein Hecklicht, ein Blinker, Lichter eines Verkehrssignals beziehungsweise einer Ampel und auch ein Fahrtweg, welcher hergeleitet wird durch weitere Operationen, basierend auf diesen Objekten. Jede der Funktionseinheiten in der nachfolgend beschriebenen Ausführungsform führt relevante Prozesse aus für jedes Bild beim Aktualisieren solcher Bilddaten.
  • Die Fahrzeugumgebungerkennungsvorrichtung 120 akquiriert Bilddaten von jeder der zwei Bildaufnahmevorrichtungen 110, leitet eine Parallaxe her unter Verwendung eines sogenannten Musterabgleichs und erzeugt ein Abstandsbild durch Zuordnen der hergeleiteten Parallaxeinformation (die dem Tiefenabstand entspricht, der ein Abstand in der Vorwärtsrichtung des Fahrzeugs ist) mit den Bilddaten. Das Luminanzbild und das Abstandsbild werden später detailliert beschrieben. Zusätzlich identifiziert die Fahrzeugumgebungerkennungsvorrichtung 120, dass ein Objekt in dem Detektionsbereich vor dem Fahrzeug mit einem von spezifischen Objekten korrespondiert, unter Verwendung einer Luminanz, basierend auf dem Luminanzbild, und einem Tiefenabstand von dem Fahrzeug 1, basierend auf dem Abstandsbild.
  • Beim Identifizieren eines spezifischen Objekts leitet die Fahrzeugumgebungerkennungsvorrichtung 120 einen Fahrtweg her entsprechend dem spezifischen Objekt (zum Beispiel eine Fahrtspur), und gibt relevante Informationen an die Fahrzeugsteuerungsvorrichtung 130 aus, so dass ein Fahrer das Fahrzeug in geeigneter Weise längs des hergeleiteten Fahrtweges fahren kann, wodurch die Betätigung eines Fahrers unterstützt wird. Des Weiteren leitet die Fahrzeugumgebungerkennungsvorichtung 120 die Relativgeschwindigkeit von einem spezifischen Objekt her (beispielsweise einem vorausfahrenden Fahrzeug), während sie das spezifische Objekt nachverfolgt, und bestimmt, ob die Möglichkeit der Kollision zwischen dem spezifischen Objekt und dem Fahrzeug 1 groß ist oder nicht. Wenn die Möglichkeit der Kollision dahingehend bestimmt wird, groß zu sein, zeigt die Fahrzeugumgebungerkennungsvorrichtung 120 eine Warnung (Benachrichtigung) für einen Fahrer an auf einer Anzeige 122, die vor dem Fahrer installiert ist, und gibt eine Information aus, die die Warnung anzeigt, an die Fahrzeugsteuerungsvorrichtung 130.
  • Die Fahrzeugsteuerungsvorrichtung 130 empfängt einen Betätigungseingang eines Fahrers über ein Lenkrad 132, ein Gaspedal 134 und ein Bremspedal 136 und steuert das Fahrzeug 1 durch Übertragen des Betätigungseingangs auf einen Lenkungsmechanismus 142, einen Antriebsmechanismus 144 und einen Bremsmechanismus 146. Die Fahrzeugsteuerungsvorrichtung 130 steuert den Lenkungsmechanismus 142, den Antriebsmechanismus 144 und den Bremsmechanismus 146 entsprechend einem Befehl von der Fahrzeugumgebungerkennungsvorrichtung 120.
  • Nachfolgend wird die Konfiguration der Fahrzeugumgebungerkennungsvorrichtung 120 im Detail beschrieben. Hierbei wird die Korrektur der GPS-basierten Absolutposition des Fahrzeugs 1, das heißt das spezielle Merkmal der vorliegenden Erfindung, im Detail beschrieben, und die Beschreibung von Konfigurationen, die mit dem Merkmal der vorliegenden Erfindung nicht in Beziehung stehen, wird weggelassen.
  • (Erste Ausführungsform: Fahrzeugumgebungerkennungsvorrichtung 120)
  • 2 ist ein Funktionsblockschaubild, das schematisch Funktionen der Fahrzeugumgebungerkennungsvorrichtung 120 zeigt. Wie in 2 gezeigt, weist die Fahrzeugumgebungerkennungsvorrichtung 120 eine I/F-Einheit 150, eine Datenspeichereinheit 152 und eine Zentralsteuereinheit 154 auf.
  • Die I/F-Einheit 150 ist eine Schnittstelle zum Austausch von Information mit den Bildaufnahmevorrichtungen 110 und der Fahrzeugsteuerungsvorrichtung 130 in beiden Richtungen. Die Datenspeichereinheit 152 weist auf ein RAM, einen Flash-Speicher und ein HDD (Festplattenlaufwerk), speichert verschiedene Informationen, die notwendig sind zum Verarbeiten der funktionalen Einheiten, die unten erwähnt werden, und speichert temporär Bilddaten, die von den Bildaufnahmevorrichtungen 110 empfangen werden.
  • Die Zentralsteuereinheit 154 umfasst eine integrierte Halbleiterschaltung mit einer Zentraleinheit (CPU), einen ROM (Festspeicher), der Programme und anderes speichert, und einen RAM (Arbeitsspeicher) als ein Arbeitsbereich und steuert die I/F-Einheit 150 und die Datenspeichereinheit 152 durch einen Systembus 156. In der vorliegenden Ausführungsform funktioniert die Zentralsteuereinheit 154 auch als eine Bildverarbeitungseinheit 160, eine Räumliche-Position-Information-Erzeugungseinheit 162, eine Spezifisches-Objekt-Identifikationseinheit 164, eine Fahrtunterstützungssteuereinheit 166, eine GPS-Akquisitionseinheit 168, eine Kartenverarbeitungseinheit 170, eine Datenpositionsidentifikationseinheit 172, eine Korrekturwertherleiteeinheit 174, eine Positionskorrektureinheit 176 und eine Vergrößerter-Fahrtweg-Herleiteeinheit 178. Hierbei werden, basierend auf allgemeinen Zwecken dieser funktionalen Einheiten, detaillierte Funktionen von Bildverarbeitung, Spezifisches-Objekt-Identifikationsprozess, Fahrtunterstützungssteuerung und Korrektur von GPS-basierter Absolutposition des Fahrzeugs 1 in dieser Reihenfolge beschrieben.
  • (Bildverarbeitung)
  • Die Bildverarbeitungseinheit 160 akquiriert Bilddaten von jeder der zwei Bildaufnahmevorrichtungen 110 und leitet eine Parallaxe her unter Verwendung von sogenanntem Musterabgleich, wobei ein Block (beispielsweise eine Anordnung von 4 horizontalen Pixeln × 4 vertikalen Pixeln) aus einem Bilddatensatz extrahiert wird und ein korrespondierender Block aus dem anderen Bilddatensatz abgerufen wird. Hierbei zeigt „horizontal” eine horizontale Richtung an eines aufgenommenen Luminanzbildes auf dem Bildschirm und „vertikal” zeigt eine vertikale Richtung an des aufgenommenen Luminanzbildes auf dem Bildschirm.
  • Bezüglich des Musterabgleichs kann die Luminanz (Y-Farbdifferenzsignal) verglichen werden zwischen zwei Bilddatensätzen für jede Blockeinheit, die eine Position in dem Bild anzeigt. Vergleichstechniken beinhalten beispielsweise die Summe der absoluten Differenz (SAD), die eine Differenz in der Luminanz verwendet, die Summe der quadrierten Luminanzdifferenz (SSD), die die quadrierte Differenz verwendet, und eine normalisierte Querkorrelation (NCC), die den Grad an Ähnlichkeit eines Varianzwertes verwendet, der erhalten wird durch Subtrahieren des Durchschnittswerts von der Luminanz jedes Pixels. Die Bildverarbeitungseinheit 160 führt einen solchen Block-pro-Block-Parallaxeherleitungsprozess durch für alle Blöcke, die auf einem Detektionsbereich angezeigt werden (zum Beispiel horizontal 600 Pixel × vertikal 180 Pixel). Obwohl jeder Block horizontal 4 Pixel × vertikal 4 Pixel hierbei aufweist, kann die Anzahl von Pixeln in jedem Block auf jede beliebige Zahl gesetzt sein.
  • Es ist zu beachten dass, obwohl die Bildverarbeitungseinheit 160 eine Parallaxe für jeden Block herleiten kann, der eine Detektionsauflösungseinheit ist, ist die Bildverarbeitungseinheit 160 nicht dazu in der Lage, zu erkennen, welche Art Objekt der Block als Teil beinhaltet. Daher wird Parallaxeinformation hergeleitet unabhängig von einer Detektionsauflösungseinheit (zum Beispiel einer Blockeinheit) in einem Detektionsbereich, anstatt einer Objekteinheit. Hierbei bezeichnet ein Abstandsbild ein Bild, in dem eine Parallaxeinformation (die einem Tiefenabstand entspricht), welche in dieser Weise hergeleitet ist, den Bilddaten zugeordnet wird.
  • Die 3A und 3B sind beispielhafte Darstellungen zum Erläutern eines Luminanzbildes 210 und eines Abstandsbildes 212. Es sei beispielsweise angenommen, dass das Luminanzbild (Bilddaten) 210 für einen Detektionsbereich 214 erzeugt wurde, wie in 3A gezeigt, mit zwei Bildaufnahmevorrichtungen 110. Es ist zu beachten, dass zum Zwecke des Erleichterns des Verständnisses nur eines der zwei Luminanzbilder 210 schematisch dargestellt ist. In der vorliegenden Ausführungsform bestimmt die Bildverarbeitungseinheit 160 eine Parallaxe für jeden Block, basierend auf einem solchen Luminanzbild 210, und bildet das Abstandsbild 212, wie es in 3B gezeigt ist. Jeder Block in dem Abstandsbild 212 ist der Parallaxe des Blocks zugeordnet. Hier wird zum Zwecke der Beschreibung ein Block, für den eine Parallaxe hergeleitet wurde, mit einem schwarzen Punkt gekennzeichnet.
  • Zurückkehrend zu 2 konvertiert die Räumliche-Position-Information-Erzeugungseinheit 162, basierend auf dem Abstandsbild 212, erzeugt durch die Bildverarbeitungseinheit 160, Parallaxeinformation für jeden Block in dem Detektionsbereich 214 in eine dreidimensionale Positionsinformation (Relativposition) einschließlich einem horizontalen Abstand, einer Höhe (senkrechter Abstand) und einem Tiefenabstand, mittels dem, was ein Stereoverfahren genannt wird. In der vorliegenden Ausführungsform ist es jedoch ausreichend, dass zweidimensionale Relativpositionen identifiziert werden einschließlich zumindest einem horizontalen Abstand und einem Tiefenabstand. Hierbei ist die Stereomethode beziehungsweise das Stereoverfahren ein Verfahren des Herleitens des Tiefenabstands eines Objektes in Bezug auf die Bildaufnahmevorrichtung 110, basierend auf einer Parallaxe des Objekts, unter Verwendung des Triangulationsverfahrens. In dem obigen Verfahren leitet die Räumliche-Position-Information-Erzeugungseinheit 162 die Höhe eines Zielbereichs von der Straßenoberfläche her basierend auf dem Tiefenabstand des Zielbereichs und einem Detektionsabstand auf dem Abstandsbild 212, wobei der Detektionsabstand zwischen dem Zielbereich und einem Punkt auf der Straßenoberfläche ist, der den gleichen Tiefenabstand hat wie der Zielbereich. Da verschiedene bekannte Technologien auf den Herleitungsprozess für den vorstehend genannten Tiefenabstand und für den Identifikationsprozess für eine dreidimensionale Position anwendbar sind, werden deren Beschreibungen hier weggelassen.
  • (Spezifisches-Objekt-Identifikationsprozess)
  • Die Spezifisches-Objekt-Identifikationseinheit 164 bestimmt, dass ein Zielbereich (Pixel und/oder Block) in dem Detektionsbereich 214 einem von spezifischen Objekten entspricht unter Verwendung einer Luminanz, basierend auf dem Luminanzbild 210, und dreidimensionaler Relativpositionen basierend auf dem Abstandsbild 212. Die Spezifisches-Objekt-Identifikationseinheit 164 speichert dann die Relativposition des bestimmten spezifischen Objekts in der Datenspeichereinheit 152 als eine Bildposition, die dem spezifischen Objekt zugeordnet ist. In der vorliegenden Ausführungsform identifiziert beispielsweise die Spezifisches-Objekt-Identifikationseinheit 164 ein einzelnes oder mehrere Verkehrssignale beziehungsweise Verkehrslichtzeichen (Ampel), die sich vor dem Fahrzeug 1 befinden, und eine Signalfarbe (rote Signalfarbe, gelbe Signalfarbe, blaue beziehungsweise grüne Signalfarbe) des Lichts von jedem Verkehrslichtsignal.
  • 4 ist eine beispielhafte Darstellung zum Erläutern einer spezifischen Operation eines Verkehrssignals beziehungsweise eines Verkehrslichtzeichens (zum Beispiel Ampel). Im Folgenden wird der Identifikationsschritt beschrieben mittels eines Beispiels eines Identifikationsprozesses für die rote Signalfarbe eines Verkehrslichtzeichens. Als erstes bestimmt die Spezifisches-Objekt-Identifikationseinheit 164, ob die Luminanz von einem Zielbereich in dem Luminanzbild 210 in einem Luminanzbereich enthalten ist oder nicht (zum Beispiel mit einem Referenzwert der Luminanz (R), Luminanz (G) ist 0,5 Mal der Referenzwert (R) oder weniger, und Luminanz (B) ist 0,38 Mal der Referenzwert (R) oder weniger) eines spezifischen Objekts (rote Signalfarbe). In dem Fall, in dem die Luminanz des Zielbereichs in dem Zielluminanzbereich enthalten ist, wird der Zielbereich mit einer Identifikationsnummer, die das spezifische Objekt anzeigt, gekennzeichnet. Hier, wie durch die vergrößerte Darstellung von 4 gezeigt, wird der Zielbereich, der dem spezifischen Objekt entspricht, mit der Identifikationsnummer „1” gekennzeichnet (rote Signalfarbe).
  • Als Nächstes klassifiziert die Spezifisches-Objekt-Identifikationseinheit 164, mit irgendeinem Zielbereich als einem Referenzpunkt, einen Zielbereich in die gleiche Gruppe in dem Fall, in dem eine Differenz im horizontalen Abstand und eine Differenz in der Höhe (eine Differenz im Tiefenabstand kann ebenfalls beinhaltet sein) zwischen dem Zielbereich und dem Referenzpunkt innerhalb eines vorbestimmten Bereiches ist, und der Zielbereich wahrscheinlich dem gleichen spezifischen Objekt entspricht (mit der gleichen Identifikationsnummer gekennzeichnet ist). Hierbei wird ein vorbestimmter Bereich ausgedrückt durch einen Abstand in dem realen Raum und kann auf irgendeinen Wert gesetzt werden (zum Beispiel 1,0 m). Zusätzlich klassifiziert die Spezifisches-Objekt-Identifikationseinheit 164, mit einem anderen Zielbereich, der durch die Klassifikation als ein Referenzpunkt hinzugefügt wurde, einen Zielbereich in die gleiche Gruppe in dem Fall, in dem eine Differenz im horizontalen Abstand und eine Differenz in der Höhe zwischen dem Zielbereich und dem Referenzpunkt innerhalb eines vorbestimmten Bereichs liegt und der Zielbereich dem gleichen spezifischen Objekt entspricht (rote Signalfarbe). Als Ergebnis werden, wenn der Abstand zwischen Zielbereichen, die mit der gleichen Identifikationsnummer gekennzeichnet sind, in einem vorbestimmten Bereich liegt, alle die Zielbereiche in die gleiche Gruppe klassifiziert. Hier bilden, wie durch die vergrößerte Ansicht von 4 gezeigt, die Zielbereiche, die mit der Identifikationsnummer „1” gekennzeichnet sind, eine Zielbereichgruppe 220.
  • Als Nächstes bestimmt die Spezifisches-Objekt-Identifikationseinheit 164, ob die klassifizierte Zielbereichgruppe 220 vorbestimmte Bedingungen, die dem spezifischen Objekt zugeordnet sind, wie beispielsweise ein Höhenbereich (zum Beispiel 4,5 bis 7,0 m), ein Breitenbereich (zum Beispiel 0,05 bis 0,2 m) und eine Form (beispielsweise eine runde Form), erfüllt oder nicht. Hier wird ein Vergleich (Musterabgleich) der Form durchgeführt durch Bezug auf Muster, die dem spezifischen Objekt vorab zugeordnet wurden, und das Vorhandensein einer Korrelation eines vorbestimmten Wertes oder höher bestimmt, dass die vorbestimmten Bedingungen erfüllt sind. Wenn die vorbestimmten Bedingungen erfüllt sind, wird die klassifizierte Zielbereichgruppe 220 dahingehend bestimmt, ein spezifisches Objekt (rote Signalfarbe) oder ein spezifisches Objekt (Verkehrslichtzeichen) zu sein. In diesem Fall kann die Spezifisches-Objekt-Identifikationseinheit 164 ein Verkehrslichtzeichen identifizieren, basierend auf den Bilddaten. Obwohl ein Beispiel gegeben wurde, bei dem ein Verkehrslichtzeichen durch die rote Signalfarbe identifiziert wurde, versteht es sich, dass ein Verkehrslichtzeichen identifiziert werden kann auf der Basis der gelben Signalfarbe oder der blauen beziehungsweise grünen Signalfarbe.
  • Wenn die Zielbereichgruppe 220 Merkmale aufweist, die für ein spezifisches Objekt speziell sind, können diese Merkmale verwendet werden als die Bedingungen zum Bestimmen des spezifischen Objekts. Wenn beispielsweise die lichtaussendenden Elemente eines Verkehrslichtzeichens Leuchtdioden (LED) sind, blinken die lichtaussendenden Elemente mit einer Frequenz (beispielsweise 100 Hz), die vom menschlichen Auge nicht erkannt werden kann. Die Spezifisches-Objekt-Identifikationseinheit 164 kann daher auch ein spezifisches Objekt (rote Signalfarbe) bestimmen basierend auf Blinkzeiten der LEDs und asynchron-akquirierten zeitlichen Änderungen in der Luminanz des Zielbereichs in dem Luminanzbild 210.
  • Die Spezifisches-Objekt-Identifikationseinheit 164 kann auch eine Fahrtroute beziehungsweise einen Fahrtweg, längs der beziehungsweise dem das Fahrzeug 1 fährt, durch einen Prozess identifizieren, der ähnlich ist dem Prozess für ein Verkehrssignal beziehungsweise ein Verkehrslichtzeichen. In diesem Fall identifiziert die Spezifisches-Objekt-Identifikationseinheit 164 zuerst mehrere weiße Linien, die auf der Straße vor dem Fahrzeug auftauchen. Genauer gesagt, die Spezifisches-Objekt-Identifikationseinheit 164 bestimmt, ob die Luminanz von irgendeinem Zielbereich in den Luminanzbereich des spezifischen Objekts (weiße Linien) fällt oder nicht. Wenn die Zielbereiche innerhalb eines vorbestimmten Bereichs sind, klassifiziert die Spezifisches-Objekt-Identifikationseinheit 164 diese Zielbereiche in die gleiche Gruppe und die Zielbereiche bilden eine integrale Zielbereichgruppe.
  • Anschließend bestimmt die Spezifisches-Objekt-Identifikationseinheit 164, ob die klassifizierte Zielbereichgruppe vorbestimmte Bedingungen, die dem spezifischen Objekt (weiße Linien) zugeordnet sind, wie beispielsweise ein Höhenbereich (zum Beispiel auf der Straßenoberfläche), ein Breitenbereich (zum Beispiel 0,10 bis 0,25 m) und eine Form (zum Beispiel eine durchgezogene Linie oder eine gestrichelte Linie), erfüllt oder nicht. Wenn die vorbestimmten Bedingungen erfüllt werden, wird die klassifizierte Zielbereichgruppe dahingehend bestimmt, das spezifische Objekt (weiße Linie) zu sein. Anschließend extrahiert die Spezifisches-Objekt-Identifikationseinheit 164 rechtsseitige und linksseitige weiße Linien, eine für jede Seite, aus den identifizierten weißen Linien, die auf der Straße vor dem Fahrzeug 1 erscheinen, die weißen Linien, die dem Fahrzeug 1 am Nächsten sind, in horizontalem Abstand. Die Spezifisches-Objekt-Identifikationseinheit 164 leitet dann einen Fahrtweg her, der eine Linie ist, die in der Mitte von und parallel zu den extrahierten rechtsseitigen und linksseitigen weißen Linien angeordnet ist. Auf diese Weise kann die Spezifisches-Objekt-Identifikationseinheit 164 einen Fahrtweg identifizieren, basierend auf den Bilddaten.
  • (Fahrtunterstützungssteuerung)
  • Die Fahrtunterstützungssteuereinheit 166 unterstützt die Betätigung eines Fahrers basierend auf dem Fahrtweg, der von der Spezifisches-Objekt-Identifikationseinheit 164 identifiziert wurde. Beispielsweise schätzt eine Fahrtunterstützungssteuereinheit 166 einen Fahrtweg, längs dem das Fahrzeug 1 tatsächlich fährt, ab entsprechend dem Fahrtzustand (beispielsweise eine Gierrate, eine Geschwindigkeit) des Fahrzeugs 1, und steuert den Fahrtzustand des Fahrzeugs 1 so, dass der tatsächliche Fahrtweg mit dem Fahrtweg, der von der Spezifisches-Objekt-Identifikationseinheit 164 identifiziert wurde, übereinstimmt, das heißt, um das Fahrzeug 1 in geeigneter Weise längs einer Fahrtspur zu halten. Zum Herleiten des tatsächlichen Fahrtwegs sind verschiedene existierende Technologien anwendbar und deren Beschreibung wird hier weggelassen, wobei existierende Technologien beispielsweise offenbart sind in den JP-A Nr. 2012-185562 , 2010-100120 , 2008-130059 und 2007-186175 .
  • 5 ist ein Steuerungsblockschaubild, das einen Ablauf einer Fahrtunterstützungssteuerung zeigt. Die Fahrtunterstützungssteuereinheit 166 beinhalt ein Kurvenkrümmungabschätzmodul 166a, ein Kurvenkrümmung-basierte-Zielgierratemodul 166b, ein Horizontaldifferenz-basierte-Zielgierratemodul 166c und ein Drehmomentherleitemodul 166d und unterstützt die Betätigung beziehungsweise Operation eines Fahrers entsprechend einem Fahrtweg.
  • Als erstes leitet das Kurvenkrümmungabschätzmodul 166a einen Kurvenkrümmungsradius R einer Kurve her, angezeigt durch den Fahrtweg, basierend auf dem Fahrtweg, der basierend auf Bilddaten hergeleitet wurde. Das Kurvenkrümmung-basierte-Zielgierratemodul 166b leitet eine Zielgierrate γr her, die in dem Fahrzeug 1 auftreten sollte, basierend auf einer Kurvenkrümmung, die hergeleitet wurde durch das Kurvenkrümmungabschätzmodul 166a.
  • Das Horizontaldifferenz-basierte-Zielgierratemodul 166c leitet den horizontalen Abstand des Schnittpunktes (Frontfixationspunkt) zwischen dem Fahrtweg, der hergeleitet wurde basierend auf den Bilddaten, und der Frontfixationslinie vor dem Fahrzeug her und leitet ebenfalls den horizontalen Abstand zu dem Schnittpunkt mit der Frontfixationslinie in dem Fall her, in dem das Fahrzeug durch die Frontfixationslinie fährt, wenn der derzeitige Fahrtzustand (die Geschwindigkeit, der Gierwinkel, der Lenkwinkel des Fahrzeugs 1) beibehalten wird. Das Horizontaldifferenz-basierte-Zielgierratemodul 166c leitet eine Gierrate her, die notwendig ist, um zu bewirken, dass die Differenz (Horizontaldifferenz) ε im horizontalen Abstand zwischen den Schnittpunkten 0 (Null) wird, und die hergeleitete Gierrate wird bezeichnet als eine Horizontaldifferenz-basierte-Zielgierrate γε. Hier ist die Frontfixationslinie eine senkrechte Linie (Linie verlaufend in der Breitenrichtung) durch einen Punkt, der um einen vorbestimmten Abstand (zum Beispiel 10,24 m) vor dem Fahrzeug 1 liegt, und senkrecht zu der Linie (Vorwärtsgeradeauslinie), die sich in der Vorwärtsrichtung von der Mitte der Breite des Fahrzeugs erstreckt. Der Horizontalabstand zeigt hierin einen Abstand von der Vorwärtsgeradeauslinie auf der Frontfixationslinie an.
  • Das Drehmomentherleitemodul 166d leitet eine umfassende Zielgierrate γs her durch Multiplizieren einer Zielgierrate γr und einer Zielgierrate γε mit entsprechend vorbestimmten Abstimmungskoeffizienten kr, kε (zum Beispiel kr = 0,5, kε = 0,5) und addiert auf wie in der folgenden Gleichung 1, wobei die Zielgierrate γr, basierend auf der Kurvenkrümmung, ein Vorgabe- beziehungsweise feed-forward-Wert ist und die Zielgierrate γε, basierend auf der Horizontaldifferenz, ein Rückführungs- beziehungsweise feedback-Wert ist. γs = kr·γr + kε·γε (Gleichung 1)
  • Das Drehmomentherleitemodul 166d leitet daraufhin einen Ziellenkwinkel θs her zum Erreichen der umfassenden Zielgierrate γs, wie der obigen, und gibt ein Ziellenkdrehmoment Τs aus, bestimmt durch den Ziellenkwinkel θs, an ein zu steuerndes Objekt, beispielsweise den Antriebsmechanismus 144. Der spezielle Prozess für die vorstehend erwähnte Fahrtunterstützungssteuerung wird beschrieben in der japanischen ungeprüften Patentanmeldungsveröffentlichung Nr. 2004-199286 , eingereicht von der vorliegenden Anmelderin, und eine detaillierte Beschreibung wird daher weggelassen. Auf diese Weise ist die Fahrtunterstützungssteuereinheit 166 dazu in der Lage, die Operationen eines Fahrers zu unterstützen, basierend auf dem Fahrtweg.
  • (Korrektur der GPS-basierten Absolutposition des Fahrzeugs 1)
  • 6 ist eine beispielhafte Darstellung zum Erläutern eines Fahrtweges. In der oben beschriebenen Fahrtunterstützungssteuerung unterstützt die Spezifisches-Objekt-Identifikationseinheit 164 die Fahrtoperation unter Verwendung der Fahrtroute, die identifiziert wird basierend auf den Bilddaten. Wenn jedoch die Fahrtunterstützung gesteuert wird unter Verwendung des Fahrtweges, der auf den Bilddaten basiert, kann ein ausreichend langer Fahrtweg zu einem entfernten Punkt nicht erhalten werden, wie durch einen gestrichelten Pfeil in 6 gezeigt. Bei der vorliegenden Ausführungsform werden, wie zuvor beschrieben, Kartendaten verwendet und ein Fahrtweg („Fahrtweg basierend auf GPS”, der durch einen durchgezogenen Pfeil in 6 gezeigt ist) wird eingeführt, wobei der Weg auch einen Bereich einschließt, der schwierig aufgenommen werden kann, wodurch die Genauigkeit der Fahrtsteuerung verbessert wird. Obwohl die Absolutposition des Fahrzeugs 1 auf den Kartendaten hergeleitet werden muss von einem GPS, das in dem Fahrzeug 1 angebracht ist, wenn die Kartendaten verwendet werden, ist die Positionsgenauigkeit der GPS-basierten Absolutposition des Fahrzeugs 1 nicht so hoch. Die GPS-basierte Absolutposition des Fahrzeugs 1 wird daher wie folgt korrigiert.
  • Die GPS-Akquisitionseinheit 168 akquiriert die Absolutposition (zum Beispiel Breite, Länge) des Fahrzeugs 1 über GPS. Die Kartenverarbeitungseinheit 170 nimmt Bezug auf die Kartendaten und akquiriert Straßeninformation in der Nähe, in der das Fahrzeug 1 fährt. Obwohl die Kartendaten in der Datenspeichereinheit 152 gespeichert sein können, können die Kartendaten akquiriert werden von einer Navigationsvorrichtung, die in dem Fahrzeug 1 installiert ist, oder einem Kommunikationsnetzwerk wie beispielsweise dem Internet.
  • Die Datenpositionsidentifikationseinheit 172 nimmt Bezug auf die Absolutposition des Fahrzeugs 1, akquiriert von der GPS-Akquisitionseinheit 168, und leitet den Ort des Fahrzeugs 1 auf den Kartendaten her. Die Datenpositionsidentifikationseinheit 172 leitet dann eine Datenposition her, basierend auf der Absolutposition des Fahrzeugs 1 auf den Kartendaten, sowie die Absolutposition eines Ziel-spezifischen-Objekts, wobei die Datenposition eine Relativposition ist des spezifischen Objekts in Bezug auf das Fahrzeug 1.
  • Hierbei beinhalten spezifische Objekte, die als Ziele anwendbar sind, ein spezifisches Objekt, für das die Absolutposition auf den Kartendaten angegeben ist, und ein spezifisches Objekt, für das die Absolutposition bestimmt werden kann durch Operationen basierend auf den Absolutpositionen von anderen spezifischen Objekten auf den Kartendaten. Die erstgenannten anwendbaren spezifischen Objekte beinhalten beispielsweise ein Verkehrssignal oder Verkehrslichtzeichen (Ampel) und ein Straßenschild, und die letztgenannten anwendbaren spezifischen Objekte beinhalten einen Punkt, der auf einem Fahrtweg liegt und um einen vorbestimmten Abstand von dem Fahrzeug 1 entfernt ist, beispielsweise ein Schnittpunkt zwischen dem Fahrtweg und der Frontfixationslinie vor dem Fahrzeug. Hierbei schließt Straßenschild ein ein Hinweisschild, ein Warnschild, ein Regelungsschild, ein Anzeichenschild und ein Hilfsschild.
  • Wenn ein vorausliegender Schnittpunkt zwischen einem Fahrtweg und einer Frontfixationslinie als ein Ziel-spezifischer-Punkt verwendet wird, leitet die Datenpositionsidentifikationseinheit 172, unabhängig von der später beschriebenen Vergrößerter-Fahrtweg-Herleiteeinheit 178, einen Fahrtweg her auf den Kartendaten und leitet den vorausliegenden Schnittpunkt her zwischen dem Fahrtweg und der Frontfixationslinie, basierend auf der Straßeninformation auf den Kartendaten und der Absolutposition des Fahrzeugs 1, die akquiriert wird von der GPS-Akquisitionseinheit 168.
  • Die Korrekturwertherleiteeinheit 174 vergleicht die Bildposition, hergeleitet von der Spezifisches-Objekt-Identifikationseinheit 164, mit der Datenposition, hergeleitet von der Datenpositionsidentifikationseinheit 172, leitet einen Korrekturwert her, der die Differenz ist (die Bildposition – die Datenposition), und speichert den Korrekturwert in der Datenspeichereinheit 152. Hier kann ein Korrekturwert angegeben werden durch eine Breitendifferenz und eine Längendifferenz. Wenn mehrere Ziel-spezifische-Objekte ausgewählt werden statt nur einem einzelnen Ziel-spezifischen-Objekt, beispielsweise ein Verkehrssignal und ein Schnittpunkt zwischen einem Fahrtweg und der Frontfixationslinie vor dem Fahrzeug ausgewählt werden, kann die Differenz zwischen der Bildposition und der Datenposition für jedes Ziel gemittelt und als ein Korrekturwert verwendet werden.
  • Die Spezifisches-Objekt-Identifikationseinheit 164 ist jedoch nicht immer in der Lage, ein spezifisches Objekt zu identifizieren, und in dem Fall, wenn effektive Bilddaten nicht verfügbar sind von der Bildaufnahmevorrichtung 110 in Folge von beispielsweise Wetter (Umgebung außerhalb des Fahrzeugs), kann ein spezifisches Objekt nicht exakt identifiziert werden. In diesem Fall leitet die Korrekturwertherleiteeinheit 174 einen Korrekturwert her in einem Zeitabschnitt, in dem ein spezifisches Objekt identifiziert werden kann von der Spezifisches-Objekt-Identifikationseinheit 164. Zudem leitet die Korrekturwertherleiteeinheit 174, um die Prozesslast zu reduzieren, einen Korrekturwert intermittierend her (zum Beispiel einmal in 5 Minuten) in einem Zeitabschnitt, in dem ein spezifisches Objekt identifiziert werden kann. Wenn ein Korrekturwert auf diese Weise neu hergeleitet wird, wird der Korrekturwert, der aktuell in der Datenspeichereinheit 152 gespeichert ist, aktualisiert.
  • Die Positionskorrektureinheit 176 korrigiert die GPS-basierte Absolutposition des Fahrzeugs 1 durch Hinzufügen des hergeleiteten Korrekturwerts zu der Absolutposition des Fahrzeugs 1, die von der GPS-Akquisitionseinheit 168 akquiriert wurde.
  • Die Vergrößerter-Fahrtweg-Herleiteeinheit 178 leitet einen Fahrtweg her auf den Kartendaten unter Verwendung der Straßeninformation auf den Kartendaten und der korrigierten GPS-basierten Absolutposition des Fahrzeugs 1. Die Fahrtunterstützungssteuereinheit 166 unterstützt die Bedienungshandlungen eines Fahrers basierend auf dem Fahrtweg, hergeleitet von der Vergrößerter-Fahrtweg-Herleiteeinheit 178 anstelle des Fahrtwegs, der von der Spezifisches-Objekt-Identifikationseinheit 164 identifiziert wurde. Auf diese Weise wird die GPS-basierte Absolutposition des Fahrzeugs korrigiert mit hoher Genauigkeit und Information der Kartendaten, die mit der Bildaufnahmevorrichtung 110 schwer zu erkennen sind, wird verwendet, wodurch ein ausreichend langer Fahrtweg bereitgestellt und somit komfortables Fahren erreicht wird.
  • (Zweite Ausführungsform)
  • Bei der ersten Ausführungsform werden die Relativposition eines spezifischen Objektes, basierend auf den Bilddaten, und die Relativposition des spezifischen Objektes, basierend auf GPS, miteinander verglichen, die GPS-basierte Absolutposition des Fahrzeugs 1 wird korrigiert durch die Differenz (Korrekturwert), ein Fahrtweg wird weiterberechnet mit Kartendaten, die die korrigierte GPS-basierte Absolutposition des Fahrzeugs 1 reflektieren, und der auf GPS basierende Fahrtweg wird verwendet anstelle eines Fahrtwegs, der auf den Bilddaten basiert.
  • Es ist jedoch nicht immer möglich, eine GPS-basierte Absolutposition des Fahrzeugs 1 zu erhalten, und, wie zuvor beschrieben, ist es zudem nicht immer möglich, Bilddaten zu erhalten. Bei der vorliegenden Ausführungsform wird daher unter der Annahme, dass sowohl GPS-basierte Absolutpositionen als auch bilddatenbasierte Relativpositionen verfügbar sind, Positionsinformation verwendet zum vorbestimmten Steuern wie beispielsweise die vorstehend beschriebene Fahrtunterstützungssteuerung, die gewechselt wird zwischen der GPS-basierten Absolutposition und der bilddatenbasierten Relativposition entsprechend der Umgebung außerhalb des Fahrzeugs.
  • 7 ist ein Funktionsblockdiagramm, das schematisch Funktionen einer Fahrzeugumgebungerkennungsvorrichtung 250 zeigt. Wie in 7 gezeigt, umfasst die Fahrzeugumgebungerkennungsvorrichtung 250 die I/F-Einheit 150, die Datenspeichereinheit 152 und die Zentralsteuereinheit 154. Die Zentralsteuereinheit 154 funktioniert auch als eine Bildverarbeitungseinheit 160, eine Räumliche-Position-Information-Erzeugungseinheit 162, eine Spezifisches-Objekt-Identifikationseinheit 164, eine Fahrtunterstützungssteuereinheit 166, eine GPS-Akquisitionseinheit 168, eine Kartenverarbeitungseinheit 170, eine Datenpositionsidentifikationseinheit 172, eine Korrekturwertherleiteeinheit 174, eine Positionskorrektureinheit 176, eine Vergrößerter-Fahrtweg-Herleiteeinheit 178, eine Fahrzeugumgebungdetektionseinheit 280 und eine Referenzbestimmungseinheit 282. Die folgenden Komponenten in der ersten Ausführungsform, die oben beschrieben wurden, haben im Wesentlichen die gleiche Funktion wie in der zweiten Ausführungsform und eine redundante Beschreibung wird daher weggelassen: die I/F-Einheit 150, die Datenspeichereinheit 152, die Zentralsteuereinheit 154, die Bildverarbeitungseinheit 160, die Räumliche-Position-Information-Erzeugungseinheit 162, die Spezifisches-Objekt-Identifikationseinheit 164, die Fahrtunterstützungssteuereinheit 166, die GPS-Akquisitionseinheit 168, die Kartenverarbeitungseinheit 170, die Datenpositionsidentifikationseinheit 172, die Korrekturwertherleiteeinheit 174, die Positionskorrektureinheit 176 und die Vergrößerter-Fahrtweg-Herleiteeinheit 178. Nachfolgend werden die Fahrzeugumgebungdetektionseinheit 280 und die Referenzbestimmungseinheit 282, die eine unterschiedliche Konfiguration reflektieren, hauptsächlich beschrieben.
  • Die Fahrzeugumgebungdetektionseinheit 280 detektiert die Umgebung außerhalb eines Fahrzeugs, insbesondere die bildaufnehmende Umgebung der Bildaufnahmevorrichtung 110 und die Funkwellenumgebung des GPS.
  • Die Referenzbestimmungseinheit 282 bestimmt, welche von der bilddatenbasierten Relativposition und der korrigierten GPS-basierten Absolutposition für die vorbestimmte Steuerung zu verwenden ist entsprechend der Umgebung außerhalb des Fahrzeugs, detektiert von der Fahrzeugumgebungdetektionseinheit 280.
  • 8 ist ein Flussdiagramm zum Erläutern des schematischen Ablaufs eines Interruptprozesses der Fahrzeugumgebungdetektionseinheit 280 und der Referenzbestimmungseinheit 282. Die Fahrzeugumgebungdetektionseinheit 280 detektiert die Funkwellenumgebung des GPS (S300) und bestimmt, ob die GPS-basierte Absolutposition des Fahrzeugs 1 effektiv detektiert wird oder nicht (S302), beispielsweise ob der Raum außerhalb des Fahrzeugs offen ist (nicht in einem Tunnel). Wenn die GPS-basierte Absolutposition des Fahrzeugs 1 effektiv detektiert wird (JA in S302), bestimmt die Referenzbestimmungseinheit 282, dass die GPS-basierte Absolutposition für die Steuerung verwendet wird (S304). Andernfalls, wenn die GPS-basierte Absolutposition des Fahrzeugs 1 nicht effektiv detektiert wird (NEIN in S302), bestimmt die Referenzbestimmungseinheit 282, dass die bilddatenbasierte Relativposition für die Steuerung verwendet wird (S306).
  • Auf diese Weise wird in einem Bereich, der nicht innerhalb eines Tunnels ist oder zwischen hohen Gebäuden, Fahrtsteuerung mit Bezug auf die GPS-basierte Absolutposition durchgeführt, und selbst wenn effektive Bilddaten von der Bildaufnahmevorrichtung 110 nicht verfügbar sind in Folge bestimmter Gründe wie beispielsweise wolkigem Wetter oder Regen, kann die Fahrtsteuerung für das Fahrzeug 1 mit hoher Genauigkeit aufrechterhalten werden. In einem Bereich wie beispielsweise innerhalb eines Tunnels oder zwischen hohen Gebäuden, wo die GPS-basierte Absolutposition des Fahrzeugs 1 nicht effektiv detektiert wird, wird die Fahrtsteuerung durchgeführt mit Bezug auf die Relativposition, basierend auf den Bilddaten anstelle des GPS, und es kann wiederum eine Fahrtsteuerung für das Fahrzeug 1 mit hoher Genauigkeit aufrechterhalten werden.
  • (Dritte Ausführungsform)
  • Die zweite Ausführungsform wurde beschrieben unter Hinweis auf ein Beispiel, bei dem entweder die GPS-basierte Absolutposition oder die bilddatenbasierte Relativposition ausgewählt wird entsprechend der Umgebung außerhalb des Fahrzeugs 1 und für die Steuerung verwendet wird. Wenn jedoch die GPS-basierte Absolutposition und die bilddatenbasierte Relativposition beide effektiv gegeben sind, können beide Positionen auch sich ergänzend verwendet werden. Beispielsweise kann, wenn die Fahrtsteuerung durchgeführt wird basierend auf einer der beiden, die Zuverlässigkeit der Steuerung evaluiert werden auf der Basis der anderen. Auf diese Weise können die Verlässlichkeit und Genauigkeit beider Positionen wechselweise gesteigert werden und eine stabilere Fahrtsteuerung wird möglich gemacht.
  • Wie zuvor soweit beschrieben, kann mit den vorstehend genannten Fahrzeugumgebungerkennungsvorrichtungen 120, 250 die GPS-basierte Absolutposition des Fahrzeugs 1 mit hoher Genauigkeit korrigiert werden. Zudem kann komfortables Fahren erreicht werden mittels Durchführen von Fahrtsteuerung unter Verwendung von Kartendaten, basierend auf dem in dieser Weise korrigierten GPS. Des Weiteren kann durch Verwendung von einem von der GPS-basierten Absolutposition und der bilddatenbasierten Relativposition für die Fahrtsteuerung entsprechend der Umgebung außerhalb des Fahrzeugs eine stabile und in hohem Maße exakte Fahrtsteuerung aufrechterhalten werden, unabhängig von Änderungen der Umgebung außerhalb des Fahrzeugs.
  • Es wird zudem ein Programm bereitgestellt, welches bewirkt, dass ein Computer als die Fahrzeugumgebungerkennungsvorrichtung 120 funktioniert, und ein Speichermedium, auf dem das Programm aufgezeichnet ist, wie beispielsweise eine computerlesbare Floppy Disk, magnetooptische Scheibe, ROM, CD, DVD oder BD. Hierbei bedeutet ein Programm ein Datenverarbeitungsverfahren, das in irgendeiner Sprache geschrieben ist oder durch ein beschreibendes Verfahren.
  • Obwohl bislang bevorzugte Ausführungsformen der Erfindung beschrieben wurden unter Bezug auf die beigefügten Zeichnungen, versteht es sich, dass die vorliegende Erfindung nicht auf die obigen Ausführungsformen beschränkt ist. Es versteht sich, dass verschiedenartige Modifikationen und Änderungen sich dem Fachmann erschließen innerhalb des Bereichs der beigefügten Patentansprüche und es versteht sich, dass diese Modifikationen und Änderungen naturgemäß in den technischen Umfang der vorliegenden Erfindung fallen.
  • Obwohl beispielsweise bei den obigen Ausführungsformen eine Fahrtunterstützungssteuerung gegeben und beschrieben wurde als vorbestimmte Steuerung, für die GPS und Kartendaten verwendet werden, ohne auf den obigen Fall beschränkt zu sein, ist die vorliegende Erfindung anwendbar auf verschiedene Arten von Steuerungen wie beispielsweise eine Steuerung zum Nachfolgen eines vorausfahrenden Fahrzeugs, eine Lenkwinkelsteuerung, eine Drehmomentsteuerung, eine Verzögerungssteuerung und eine Stoppsteuerung in einer ACC (adaptive cruise control = adaptive Fahrtsteuerung).
  • Obwohl die obigen Ausführungsformen beschrieben wurden als ein Beispiel, bei dem die zwei Bildaufnahmevorrichtungen 110 verwendet wurden, die voneinander beabstandet vorgesehen sind, können die vorstehenden Ausführungsformen ausgeführt werden mit lediglich einer Bildaufnahmevorrichtung, solange die spezifischen Objekte identifiziert werden können.
  • Die vorliegende Erfindung betrifft eine Fahrzeugumgebungerkennungsvorrichtung, die die Umgebung außerhalb des Fahrzeugs erkennt, und ist insbesondere anwendbar auf eine Fahrzeugumgebungerkennungsvorrichtung, die eine GPS-basierte Absolutposition des Fahrzeugs korrigiert.
  • ZUSAMMENFASSUNG DER OFFENBARUNG
  • Es wird eine Fahrzeugumgebungerkennungsvorrichtung bereitgestellt. Eine Fahrzeugumgebungerkennungsvorrichtung 120 beinhaltet: eine Bildverarbeitungseinheit 160, die Bilddaten von einem aufgenommenen Detektionsbereich akquiriert, eine Räumliche-Position-Information-Erzeugungseinheit 162, die Relativpositionen von Zielbereichen in dem Detektionsbereich von dem Fahrzeug identifiziert, basierend auf den Bilddaten, eine Spezifisches-Objekt-Identifikationseinheit 164, die ein spezifisches Objekt identifiziert, entsprechend den Zielbereichen, basierend auf den Bilddaten und den Relativpositionen, und die Relativpositionen als Bildpositionen speichert, eine Datenpositionsidentifikationseinheit 172, die eine Datenposition identifiziert, welche eine Relativposition des spezifischen Objekts von dem Fahrzeug ist, entsprechend einer GPS-basierten Absolutposition des Fahrzeugs und Kartendaten, eine Korrekturwertherleiteeinheit 174, die einen Korrekturwert herleitet, der eine Differenz ist zwischen der Bildposition und der Datenposition, und eine Positionskorrektureinheit 176, die die GPS-basierte Absolutposition durch den hergeleiteten Korrekturwert korrigiert.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 11-184375 A [0002]
    • JP 2012-185562 A [0048]
    • JP 2010-100120 [0048]
    • JP 2008-130059 [0048]
    • JP 2007-186175 [0048]
    • JP 2004-199286 [0053]

Claims (5)

  1. Fahrzeugumgebungerkennungsvorrichtung, umfassend: eine Bildverarbeitungseinheit, die Bilddaten von einem aufgenommenen Detektionsbereich akquiriert, eine Räumliche-Position-Information-Erzeugungseinheit, die Relativpositionen von mehreren Zielbereichen in dem Detektionsbereich identifiziert in Bezug auf das Fahrzeug, basierend auf den Bilddaten, eine Spezifisches-Objekt-Identifikationseinheit, die ein spezifisches Objekt identifiziert, entsprechend den Zielbereichen, basierend auf den Bilddaten und den Relativpositionen der Zielbereiche, und die Relativpositionen der Zielbereiche als Bildpositionen speichert, eine Datenpositionsidentifikationseinheit, die eine Datenposition identifiziert entsprechend einer GPS-basierten Absolutposition des Fahrzeug und Kartendaten, wobei die Datenposition eine Relativposition des spezifischen Objekts bezüglich des Fahrzeugs ist, eine Korrekturwertherleiteeinheit, die einen Korrekturwert herleitet, der eine Differenz ist zwischen der Bildposition und der Datenposition, und eine Positionskorrektureinheit, die die GPS-basierte Absolutposition des Fahrzeugs durch den hergeleiteten Korrekturwert korrigiert.
  2. Fahrzeugumgebungerkennungsvorrichtung nach Anspruch 1, wobei die Korrekturwertherleiteeinheit einen Korrekturwert intermittierend herleitet während eines Zeitabschnitts, in dem die Spezifisches-Objekt-Identifikationseinheit das spezifische Objekt identifizieren kann.
  3. Fahrzeugumgebungerkennungsvorrichtung nach Anspruch 1 oder 2, weiterhin umfassend: eine Fahrzeugumgebungdetektionseinheit, die eine Umgebung außerhalb des Fahrzeugs detektiert, und eine Referenzbestimmungseinheit, die bestimmt entsprechend der Umgebung außerhalb des Fahrzeugs, welche von der Relativposition, basierend auf den Bilddaten, und der korrigierten GPS-basierten Absolutposition für eine vorbestimmte Steuerung zu verwenden ist.
  4. Fahrzeugumgebungerkennungsvorrichtung nach einem der Ansprüche 1 bis 3, wobei das spezifische Objekt ein Punkt ist, der auf einem Fahrtweg ist, längs dem das Fahrzeug fährt, und von dem Fahrzeug um einen vorbestimmten Abstand entfernt ist.
  5. Fahrzeugumgebungerkennungsvorrichtung nach einem der Ansprüche 1 bis 4, wobei das spezifische Objekt ein Verkehrssignal oder Straßenschild ist.
DE201410112601 2013-09-09 2014-09-02 Fahrzeugumgebungerkennungsvorrichtung Withdrawn DE102014112601A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013185942A JP2015052548A (ja) 2013-09-09 2013-09-09 車外環境認識装置
JP2013-185942 2013-09-09

Publications (1)

Publication Number Publication Date
DE102014112601A1 true DE102014112601A1 (de) 2015-03-12

Family

ID=52478691

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201410112601 Withdrawn DE102014112601A1 (de) 2013-09-09 2014-09-02 Fahrzeugumgebungerkennungsvorrichtung

Country Status (4)

Country Link
US (1) US20150073705A1 (de)
JP (1) JP2015052548A (de)
CN (1) CN104424487A (de)
DE (1) DE102014112601A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108025751A (zh) * 2015-08-31 2018-05-11 日立汽车系统株式会社 车辆控制装置及车辆控制系统

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150106010A1 (en) * 2013-10-15 2015-04-16 Ford Global Technologies, Llc Aerial data for vehicle navigation
US9558408B2 (en) 2013-10-15 2017-01-31 Ford Global Technologies, Llc Traffic signal prediction
US10192122B2 (en) * 2014-08-21 2019-01-29 Mitsubishi Electric Corporation Driving assist apparatus, driving assist method, and non-transitory computer readable recording medium storing program
KR102263731B1 (ko) * 2014-11-11 2021-06-11 현대모비스 주식회사 주변차량의 위치정보 보정 시스템 및 방법
US10007998B2 (en) * 2015-03-20 2018-06-26 Ricoh Company, Ltd. Image processor, apparatus, and control system for correction of stereo images
DE102015210015A1 (de) * 2015-06-01 2016-12-01 Robert Bosch Gmbh Verfahren und Vorrichtung zur Positionsbestimmung eines Fahrzeugs
KR101843773B1 (ko) * 2015-06-30 2018-05-14 엘지전자 주식회사 차량 운전 보조 장치, 차량용 디스플레이 장치 및 차량
EP3130945B1 (de) * 2015-08-11 2018-05-02 Continental Automotive GmbH System und verfahren zur genauen positionierung eines fahrzeugs
EP3131020B1 (de) 2015-08-11 2017-12-13 Continental Automotive GmbH System und verfahren zur zweistufigen objektdatenverarbeitung durch ein fahrzeug und server-datenbank zur erzeugung, aktualisierung und abgabe einer präzisen strasseneigenschaftsdatenbank
EP3130891B1 (de) 2015-08-11 2018-01-03 Continental Automotive GmbH Verfahren zur aktualisierung einer präzisionsstrassendatenbank auf einem server
CN105222775B (zh) * 2015-10-28 2018-10-09 烽火通信科技股份有限公司 一种基于智能终端的空间位置排序方法
JP6150950B1 (ja) 2015-11-20 2017-06-21 三菱電機株式会社 運転支援装置、運転支援システム、運転支援方法及び運転支援プログラム
JP6418139B2 (ja) * 2015-11-26 2018-11-07 マツダ株式会社 標識認識システム
WO2017130285A1 (ja) * 2016-01-26 2017-08-03 三菱電機株式会社 車両判定装置、車両判定方法及び車両判定プログラム
KR101769807B1 (ko) * 2016-02-03 2017-08-21 (주)한양정보통신 관심 영역 설정 장치 및 방법
JP6432116B2 (ja) * 2016-05-23 2018-12-05 本田技研工業株式会社 車両位置特定装置、車両制御システム、車両位置特定方法、および車両位置特定プログラム
JP6312754B2 (ja) * 2016-08-04 2018-04-18 三菱電機株式会社 車両走行制御装置および車両走行制御方法
KR102518534B1 (ko) * 2016-11-30 2023-04-07 현대자동차주식회사 차량 위치 인식 장치 및 방법
US10754348B2 (en) * 2017-03-28 2020-08-25 Uatc, Llc Encoded road striping for autonomous vehicles
US10387727B2 (en) 2017-09-13 2019-08-20 Wing Aviation Llc Backup navigation system for unmanned aerial vehicles
WO2019118713A1 (en) * 2017-12-15 2019-06-20 Walmart Apollo, Llc System for determining the location of an autonomous vehicle when a location system is offline
JP6950538B2 (ja) * 2018-01-11 2021-10-13 トヨタ自動車株式会社 車両撮影支援装置及びプログラム
JP2019148900A (ja) * 2018-02-26 2019-09-05 本田技研工業株式会社 車両用制御装置、車両及び経路案内装置
CN108363985B (zh) * 2018-03-06 2023-06-06 深圳市易成自动驾驶技术有限公司 目标对象感知系统测试方法、装置及计算机可读存储介质
JP2020164045A (ja) * 2019-03-29 2020-10-08 マツダ株式会社 車両走行制御装置
JP2020205498A (ja) * 2019-06-14 2020-12-24 マツダ株式会社 外部環境認識装置
CN110231039A (zh) * 2019-06-27 2019-09-13 维沃移动通信有限公司 一种定位信息修正方法及终端设备
CN110673609A (zh) * 2019-10-10 2020-01-10 北京小马慧行科技有限公司 车辆行驶的控制方法、装置及系统
JP7238821B2 (ja) * 2020-02-06 2023-03-14 トヨタ自動車株式会社 地図生成システム及び地図生成プログラム
US11816902B2 (en) * 2020-08-26 2023-11-14 Subaru Corporation Vehicle external environment recognition apparatus
US11386650B2 (en) * 2020-12-08 2022-07-12 Here Global B.V. Method, apparatus, and system for detecting and map coding a tunnel based on probes and image data
CN112945244B (zh) * 2021-02-03 2022-10-14 上海博汽智能科技有限公司 适用于复杂立交桥的快速导航系统及导航方法
JPWO2023007588A1 (de) * 2021-07-27 2023-02-02
US20230278593A1 (en) * 2022-03-01 2023-09-07 Mitsubishi Electric Research Laboratories, Inc. System and Method for Parking an Autonomous Ego-Vehicle in a Dynamic Environment of a Parking Area

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11184375A (ja) 1997-12-25 1999-07-09 Toyota Motor Corp デジタル地図データ処理装置及びデジタル地図データ処理方法
JP2004199286A (ja) 2002-12-17 2004-07-15 Fuji Heavy Ind Ltd 車両の走行制御装置
JP2007186175A (ja) 2006-01-16 2007-07-26 Fuji Heavy Ind Ltd 車外監視装置、及び、この車外監視装置を備えた走行制御装置
JP2008130059A (ja) 2006-11-27 2008-06-05 Fuji Heavy Ind Ltd 先行車両離脱判定装置
JP2010100120A (ja) 2008-10-22 2010-05-06 Fuji Heavy Ind Ltd 車線逸脱防止装置
JP2012185562A (ja) 2011-03-03 2012-09-27 Fuji Heavy Ind Ltd 車線逸脱警報制御装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07146351A (ja) * 1993-11-24 1995-06-06 Sumitomo Electric Ind Ltd 位置検出装置
JP2007011937A (ja) * 2005-07-04 2007-01-18 Nissan Motor Co Ltd 信号機検出システム、信号機検出装置、情報センター、および信号機検出方法
JP2007232690A (ja) * 2006-03-03 2007-09-13 Denso Corp 現在地検出装置、地図表示装置、および現在地検出方法
JP2008249555A (ja) * 2007-03-30 2008-10-16 Mitsubishi Electric Corp 位置特定装置、位置特定方法および位置特定プログラム
JP2010190647A (ja) * 2009-02-17 2010-09-02 Mitsubishi Electric Corp 車両位置測定装置及び車両位置測定プログラム
EP2491344B1 (de) * 2009-10-22 2016-11-30 TomTom Global Content B.V. System und verfahren zur fahrzeugnavigation mit seitlichem versatz
DE102011118161B3 (de) * 2011-11-10 2013-03-28 Audi Ag Verfahren zur Positionsbestimmung
JP5995589B2 (ja) * 2012-07-30 2016-09-21 キヤノン株式会社 補正値導出装置、変位量導出装置、制御装置、および補正値導出方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11184375A (ja) 1997-12-25 1999-07-09 Toyota Motor Corp デジタル地図データ処理装置及びデジタル地図データ処理方法
JP2004199286A (ja) 2002-12-17 2004-07-15 Fuji Heavy Ind Ltd 車両の走行制御装置
JP2007186175A (ja) 2006-01-16 2007-07-26 Fuji Heavy Ind Ltd 車外監視装置、及び、この車外監視装置を備えた走行制御装置
JP2008130059A (ja) 2006-11-27 2008-06-05 Fuji Heavy Ind Ltd 先行車両離脱判定装置
JP2010100120A (ja) 2008-10-22 2010-05-06 Fuji Heavy Ind Ltd 車線逸脱防止装置
JP2012185562A (ja) 2011-03-03 2012-09-27 Fuji Heavy Ind Ltd 車線逸脱警報制御装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108025751A (zh) * 2015-08-31 2018-05-11 日立汽车系统株式会社 车辆控制装置及车辆控制系统
CN108025751B (zh) * 2015-08-31 2020-11-27 日立汽车系统株式会社 车辆控制装置及车辆控制系统

Also Published As

Publication number Publication date
US20150073705A1 (en) 2015-03-12
CN104424487A (zh) 2015-03-18
JP2015052548A (ja) 2015-03-19

Similar Documents

Publication Publication Date Title
DE102014112601A1 (de) Fahrzeugumgebungerkennungsvorrichtung
EP3213260B1 (de) Verfahren und vorrichtung zur lokalisierung eines fahrzeugs in seinem umfeld
DE102014110213B4 (de) Fahrzeugaußenumgebungerkennungsvorrichtung
DE102017113572A1 (de) Spurerkennungssysteme und -verfahren
DE102020204390A1 (de) Fahrerassistenzsystem, Fahrzeug mit demselben und Verfahren zum Steuern des Fahrzeugs
DE102018111778A1 (de) Verfahren, Vorrichtung und System zur Steuerung eines Fahrzeugs, das eine Kreuzung passiert.
DE102017100013A1 (de) Bestimmen der fahrerabsicht an strassenverkehrskreuzungen zum vermeiden der kollision von automobilen
DE102014110206B4 (de) Fahrzeugaußenumgebungerkennungsvorrichtung
DE102016210254A9 (de) Fahrzeugortung an kreuzungen anhand von visuellen anhaltspunkte, stationären objekten und durch gps
EP3292423B1 (de) Diagnoseverfahren für einen sichtsensor eines fahrzeugs und fahrzeug mit einem sichtsensor
DE102018218220A1 (de) Steuergerät für ein Fahrzeug
DE102018101496A1 (de) Winderfassungssysteme und verfahren
DE102017100199A1 (de) FUßGÄNGERERKENNUNG MIT AUFFÄLLIGKEITSKARTEN
DE102012203505A1 (de) Geschwindigkeitsbegrenzungswertunterrichtungsvorrichtung und Geschwindigkeitsbegrenzungswertunterrichtungssystem
DE102009012917A1 (de) Hinderniserkennungsvorrichtung für Fahrzeuge
DE112017001198T5 (de) Fahrwechsel-steuerungsvorrichtung und fahrwechsel-steuerungsverfahren
DE112019000801T5 (de) Fahrunterstützungsvorrichtung und Fahrunterstützungsverfahren
DE102015209467A1 (de) Verfahren zur Schätzung von Fahrstreifen
DE102013112916A1 (de) Fahrzeugfahrtunterstützungssteuerungsvorrichtung
DE102013101618A1 (de) Fahrzeug-gestützte Verfolgungssteuervorrichtung
DE102013221497A1 (de) Gerät und Verfahren für das Erkennen einer Fahrbahn bzw. Fahrspur
DE102017218141A1 (de) Fahrunterstützungsvorrichtung unter Verwendung einer Frontüberwachungsvorrichtung und Fahrunterstützungsverfahren unter Verwendung einer Frontüberwachungsvorrichtung
DE102021103149A1 (de) Verfahren und vorrichtung zur bestimmung der optimalen kreuzungsspur in einem unterstützten fahrsystem
DE102019111485A1 (de) Fahrzeugfahrsteuervorrichtung
DE102018133457B4 (de) Verfahren und System zum Bereitstellen von Umgebungsdaten

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: STAUDT IP LAW, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee