DE102009043458A1 - Fahrunterstützungssystem für Fahrzeuge - Google Patents

Fahrunterstützungssystem für Fahrzeuge Download PDF

Info

Publication number
DE102009043458A1
DE102009043458A1 DE102009043458A DE102009043458A DE102009043458A1 DE 102009043458 A1 DE102009043458 A1 DE 102009043458A1 DE 102009043458 A DE102009043458 A DE 102009043458A DE 102009043458 A DE102009043458 A DE 102009043458A DE 102009043458 A1 DE102009043458 A1 DE 102009043458A1
Authority
DE
Germany
Prior art keywords
vehicle
velocity component
movable body
route
travel path
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102009043458A
Other languages
English (en)
Other versions
DE102009043458B4 (de
Inventor
Masaru Kogure
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK, Fuji Heavy Industries Ltd filed Critical Fuji Jukogyo KK
Publication of DE102009043458A1 publication Critical patent/DE102009043458A1/de
Application granted granted Critical
Publication of DE102009043458B4 publication Critical patent/DE102009043458B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T8/00Arrangements for adjusting wheel-braking force to meet varying vehicular or ground-surface conditions, e.g. limiting or varying distribution of braking force
    • B60T8/17Using electrical or electronic regulation means to control braking
    • B60T8/1755Brake regulation specially adapted to control the stability of the vehicle, e.g. taking into account yaw rate or transverse acceleration in a curve
    • B60T8/17558Brake regulation specially adapted to control the stability of the vehicle, e.g. taking into account yaw rate or transverse acceleration in a curve specially adapted for collision avoidance or collision mitigation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/02Active or adaptive cruise control system; Distance control
    • B60T2201/022Collision avoidance systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

Eine Form eines Fahrweges (S) eines entgegenkommenden Fahrzeugs (50) wird auf der Basis von Markierungsliniendaten erkannt. Eine Geschwindigkeitskomponente des entgegenkommenden Fahrzeugs (50) in Bezug auf den Fahrweg (Route) wird durch Wichten einer lateralen Geschwindigkeitskomponente (vy) orthogonal zu der Route (S) sowie einer der Route folgenden Geschwindigkeitskomponente berechnet, und zwar mittels eines Geschwindigkeitskorrekturkoeffizienten (k), der in Abhängigkeit von einer relativen Distanz (L) zwischen einem betreffenden Fahrzeug (1) und dem entgegenkommenden Fahrzeug (50) vorgegeben wird. Eine Änderung in dem Verhalten des entgegenkommenden Fahrzeugs (50) wird vorhergesagt, und es wird eine Möglichkeit einer Kollision gegen das betreffende Fahrzeug (1) festgestellt. Wenn festgestellt wird, dass eine Kollisionsmöglichkeit besteht, wird ein Alarm zum Warnen eines Fahrers hinsichtlich der Möglichkeit einer Kollision abgegeben.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf ein Fahrunterstützungssystem für Fahrzeuge, das eine Fahrunterstützung für einen Fahrer schafft, indem es die Umgebung um ein betreffendes Fahrzeug herum erkennt.
  • 2. Beschreibung des einschlägigen Standes der Technik
  • In den letzten Jahren ist eine Technik entwickelt und in der Praxis eingesetzt worden, die ein dreidimensionales Objekt, wie zum Beispiel ein Hindernis oder ein davor befindliches Fahrzeug erkennt, indem die äußere Umgebung um ein Fahrzeug, beispielsweise ein Kraftfahrzeug, herum mittels einer in dem Fahrzeug angebrachten Kamera oder eines Laserradars erfaßt wird und bei dem eine Fahrunterstützungssteuerung beispielsweise in Form einer Warnung, eines automatischen Bremsvorgangs und eines automatischen Lenkvorgangs erfolgt, um eine Kollision zu verhindern, so daß auf diese Weise die Sicherheit erhöht wird.
  • Mit einem derartigen Fahrunterstützungssystem wird eine Kollision typischerweise auf der Basis der relativen Positionen eines betreffenden Fahrzeugs und eines Hindernisses sowie auf der Basis von Geschwindigkeitsinformation von dem betreffenden Fahrzeug vorhergesagt. Unter Verwendung des Vorhersageresultats erfolgen die Warnung und der Steuervorgang für präventive Sicherheit.
  • Beispielsweise offenbart die japanische ungeprüfte Patentanmeldungsveröffentlichung JP-A-2000-357 299 eine Technik, bei der eine Position, an der ein betreffendes Fahrzeug mit einem entgegenkommenden Fahrzeug kollidiert, auf der Basis einer relativen positionsmäßigen Beziehung zwischen dem betreffenden Fahrzeug und dem entgegenkommenden Fahrzeug sowie auf der Basis einer Fahrzeuggeschwindigkeit des betreffenden Fahrzeugs vorhergesagt wird.
  • Ein Sensor zum Erkennen der Umgebung um das betreffende Fahrzeug herum verwendet typischerweise eine Stereokamera, ein Millimeterwellen-Radar, ein Laser-Radar usw. Leider ist die Geschwindigkeitserfassungsgenauigkeit eines derartigen Sensors in der lateralen Richtung unzulänglich. Es ist äußerst schwierig, die Möglichkeit einer Kollision zwischen dem betreffenden Fahrzeug und einem beweglichen Körper, wie zum Beispiel einem entgegenkommenden Fahrzeug, mittels der Technik des einschlägigen Standes der Technik vorherzusagen, die in der japanischen ungeprüften Patentanmeldungsveröffentlichung JP-A-2000-357 299 offenbart ist. Aus diesem Grund besteht die Wahrscheinlichkeit eines falsch ausgelösten Alarms und Steuervorgangs.
  • KURZBESCHREIBUNG DER ERFINDUNG
  • In Anbetracht der vorstehend geschilderten Situationen besteht die Aufgabe der vorliegenden Erfindung in der Schaffung eines Fahrunterstützungssystems für Fahrzeuge, das eine korrekte Fahrunterstützung schaffen kann, indem es ein Verhalten eines beweglichen Körpers exakt prognostiziert und die Möglichkeit einer Kollision korrekt feststellt.
  • Gelöst wird diese Aufgabe mit einem System, wie es im Hauptanspruch definiert ist. Vorteilhafte Weiterbildungen der Erfindung sind in den Unteransprüchen angegeben.
  • Genauer gesagt, es schafft ein Fahrunterstützungssystem für Fahrzeuge gemäß einem Gesichtspunkt der vorliegenden Erfindung eine Fahrunterstützung für einen Fahrer, indem es die Umgebung um ein betreffendes Fahrzeug herum erkennt. Das System weist folgendes auf:
    eine Umgebungserkennungseinheit, die zum Erkennen eines beweglichen Körpers, der sich dem betreffenden Fahrzeug nähert, sowie zum Erkennen einer Form eines Fahrweges, auf dem sich der beweglichen Körper bewegt, konfiguriert ist;
    eine Geschwindigkeitskorrektureinheit, die zum Korrigieren einer Geschwindigkeitskomponente des beweglichen Körpers in Richtung auf einen Wegrand des Fahrweges mit einem Korrekturparameter in Abhängigkeit von einer relativen Distanz zwischen dem betreffenden Fahrzeug und dem beweglichen Körper konfiguriert ist; und
    eine Kollisionsbestimmungseinheit, die zum Vorhersagen eines Verhaltens des beweglichen Körpers auf der Basis einer Geschwindigkeitskomponente des beweglichen Körpers entlang des Fahrweges und auf der Basis der mit dem Korrekturparameter korrigierten Geschwindigkeitskomponente sowie zum Bestimmen einer Kollisionsmöglichkeit zwischen dem beweglichen Körper und dem betreffenden Fahrzeug konfiguriert ist.
  • Bei einem derartigen System kann selbst dann, wenn die Erfassungsgenauigkeit für den beweglichen Körper in der lateralen Richtung unzulänglich ist, eine korrekte Fahrunterstützung geschaffen werden, indem das Verhalten des beweglichen Körpers exakt vorhergesagt wird und die Möglichkeit einer Kollision zwischen dem beweglichen Körper und dem betreffenden Fahrzeug korrekt festgestellt wird.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • In den Zeichnungen zeigen:
  • 1 eine schematische Konfigurationsdarstellung zur allgemeinen Veranschaulichung eines Fahrunterstützungssystems, das in einem Fahrzeug angebracht ist;
  • 2 eine Ansicht zur Erläuterung einer Geschwindigkeitskomponente eines entgegenkommenden Fahrzeugs;
  • 3 eine Ansicht zur Erläuterung einer Geschwindigkeit in einer lateralen Richtung beim Folgen einer Route;
  • 4 eine Ansicht zur Erläuterung eines Geschwindigkeitskorrekturkoeffizienten;
  • 5 eine Ansicht zur Erläuterung einer Verhaltensvorhersage für ein entgegenkommendes Fahrzeug auf einem geraden Weg;
  • 6 eine Ansicht zur Erläuterung eines Schätzvorgangs eines Fahrweges; und
  • 7 ein Flußdiagramm zur Erläuterung eines Verarbeitungsvorgangs bei einer Kollisionswarnung.
  • BESCHREIBUNG DES BEVORZUGTEN AUSFÜHRUNGSBEISPIELS
  • Ein Ausführungsbeispiel der vorliegenden Erfindung wird im folgenden unter Bezugnahme auf die Zeichnungen beschrieben. Die 1 bis 7 betreffen ein Ausführungsbeispiel der vorliegenden Erfindung. Dabei zeigt 1 eine schematische Konfigurationsdarstellung zur allgemeinen Veranschaulichung eines in einem Fahrzeug angebrachten Fahrunterstützungssystems. 2 zeigt eine Ansicht zur Erläuterung einer Geschwindigkeitskomponente eines entgegenkommenden Fahrzeugs.
  • 3 zeigt eine Ansicht zur Erläuterung einer Geschwindigkeit in einer lateralen Richtung beim Folgen einer Route. 4 zeigt eine Ansicht zur Erläuterung eines Geschwindigkeitskorrekturkoeffizienten. 5 zeigt eine Ansicht zur Erläuterung einer Verhaltensvorhersage eines entgegenkommenden Fahrzeugs auf einem geraden Weg. 6 zeigt eine Ansicht zur Erläuterung eines Schätzvorgangs eines Fahrweges. 7 zeigt ein Flußdiagramm zur Erläuterung der Verarbeitung bei einer Kollisionswarnung.
  • Wie unter Bezugnahme auf 1 ersichtlich, handelt es sich bei einem Fahrzeug (betreffendes Fahrzeug) 1 beispielsweise um ein Kraftfahrzeug. Ein Fahrunterstützungssystem 2 ist in dem betreffenden Fahrzeug 1 angebracht. Das Fahrunterstüt zungssystem 2 liefert einem Fahrer eine Fahrunterstützung, indem es die externe Umgebung um das betreffende Fahrzeug 1 herum erkennt. Bei dem vorliegenden Ausführungsbeispiel besitzt das Fahrunterstützungssystem 2 eine Stereokamera 3, eine Umgebungserkennungseinrichtung 4 sowie eine Steuereinheit 5 als primäre Einrichtungen.
  • Die Stereokamera 3 dient als Umgebungserkennungssensor zum Erkennen der Umgebung um das betreffende Fahrzeug 1 herum und nimmt ein Bild von der äußeren Umgebung des betreffenden Fahrzeugs 1 auf. Die Umgebungserkennungseinrichtung 4 dient als Umgebungserkennungseinheit zum Erkennen der Umgebung um das betreffende Fahrzeug 1 herum unter Verwendung der Bildinformation von der Stereokamera 3 als Hauptinformation.
  • Die Steuereinheit 5 bestimmt die Ausführung eines Fahrunterstützungsvorgangs für den Fahrer auf der Basis des erkannten Resultats der Umgebung. Die Steuereinheit 5 ist mit verschiedenen Vorrichtungen verbunden, die mit der Fahrunterstützung in Beziehung stehen, wobei diese Vorrichtungen eine Anzeige 21, die auch als Alarmvorrichtung dient, eine automatische Bremssteuereinheit 22 sowie eine automatische Lenksteuereinheit 23 beinhalten.
  • Die Umgebungserkennungseinrichtung 4, die Steuereinheit 5, die automatische Bremssteuereinheit 22 sowie die automatische Lenksteuereinheit 23 sind jeweils aus einer Steuereinheit gebildet, die eine einzige oder mehrere Computersysteme beinhaltet. Die Steuereinheiten tauschen gegenseitig Daten unter Verwendung eines Kommunikationsbusses aus.
  • Das betreffende Fahrzeug 1 ist mit einem Fahrzeuggeschwindigkeitssensor 11, der eine Geschwindigkeit des betreffenden Fahrzeugs mißt, einem Gierratensensor, der eine Gierrate mißt, sowie mit einem Hauptschalter 13 versehen, dem ein EIN/AUS-Signal für die Antriebssystemsteuerung zugeführt wird. Die Geschwindigkeit des betreffenden Fahrzeugs wird in die Umgebungserkennungseinrichtung 4 und die Steuereinheit 5 eingegeben. Die Gierrate wird in die Steuereinheit 5 eingegeben. Das EIN/AUS-Signal für die Fahrunterstützungssteuerung wird in die Steuereinheit 5 eingegeben.
  • Die Stereokamera 3, die als Umgebungserkennungssensor dient, besitzt ein Paar aus einer linken und einer rechten Kamera, wobei zum Beispiel Festkörper-Bildaufnahmevorrichtungen, wie ladungsgekoppelte Vorrichtungen (CCDs) oder komplementäre Metalloxid-Halbleiter (CMOSs), verwendet werden. Die Kameras sind in einem vorderen Bereich einer Decke des Fahrzeuginnenraums mit einer vorbestimmten Grundlinienlänge zwischen ihnen angebracht. Die Stereokamera 3 nimmt Stereobilder von Objekten außerhalb des betreffenden Fahrzeugs von unterschiedlichen Betrachtungspunkten auf und gibt die gewonnenen Bilddaten in die Umgebungserkennungseinrichtung 4 ein.
  • Die Umgebungserkennungseinrichtung 4 besitzt eine Bildverarbeitungseinheit für eine mit hoher Geschwindigkeit erfolgende Verarbeitung eines mittels den Stereokameras 3 aufgenommenen Bildes. Darüber hinaus erkennt die Umgebungserkennungseinrichtung 4 ein Hindernis, ein davor befindliches Fahrzeug, Fahrbahnmarkierungen (zum Beispiel eine weiße durchgehende/unterbrochene Linie oder eine gelbe Linie) sowie ein am Straßenrand vorhandenes Objekt beim Empfang von Eingangsinformation, wie zum Beispiel Karteninformation von einem Navigationsgerät (nicht gezeigt).
  • Die Bildverarbeitung mit den Stereokameras 3 wird von der Umgebungserkennungseinrichtung 4 folgendermaßen durchgeführt. Ein Paar Stereobilder in einer Fahrtrichtung des betreffenden Fahrzeugs 1, die von den Stereokameras 3 aufgenommen worden sind, werden zum Ermitteln von Distanzinformation auf der Basis einer Verschiebung zwischen entsprechenden Positionen in den Stereobildern verwendet, und daraus wird ein Distanzbild erzeugt.
  • Die erzielten Daten werden durch Gruppierung usw. verarbeitet und mit Rahmen (Fenstern) von zuvor gespeicherten dreidimensionalen Straßenformdaten, Seitenwanddaten bzw. Seitenbegrenzungsdaten und dreidimensionalen Objektdaten verglichen. Anschließend werden Daten bezüglich weißer Linien sowie Daten für ein am Straßenrand befindliches Objekt, wie zum Beispiel eine Leitplanke oder ein Randstein, extrahiert. Das dreidimensionale Objekt wird in eine Kategorie Motorrad, Standardfahrzeug, großes Fahrzeug, Fußgänger und Strommast eingeteilt, und die Daten werden extrahiert.
  • Bei dem vorliegenden Ausführungsbeispiel wird die Umgebung zwar auf der Basis des Stereobildes erkannt, jedoch kann die Umgebung auch unter Verwendung anderer Erkennungssensoreinrichtungen erfolgen, beispielsweise mit einer Spiegelreflexkamera oder mit Millimeterwellen-Radar.
  • Die Daten werden als Daten in einem Koordinatensystem mit Bezug auf das betreffende Fahrzeug erkannt, wobei das betreffende Fahrzeug 1 einen Ursprung bzw. Nullpunkt bildet, die X-Achse eine Vorwärts-Rückwärts-Richtung bzw. Längsrichtung des betreffenden Fahrzeugs 1 darstellt und die Y-Achse eine Breitenrichtung (laterale Richtung) des betreffenden Fahrzeugs 1 darstellt.
  • Die Daten bezüglich weißer Linien, die Seitenbegrenzungsdaten, wie z. B. eine Leitplanke oder ein Randstein, die längs einer Straße vorhanden sind, sowie ein Typ, eine Distanz von dem betreffenden Fahrzeug 1, eine Mittelposition, eine Geschwindigkeit usw. des dreidimensionalen Objekts werden berechnet. Die Geschwindigkeit des dreidimensionalen Objekts wird durch zeitliche Differenzierung einer im Verlauf der Zeit auftretenden Veränderung der Position des dreidimensionalen Objekts berechnet.
  • Die Umgebungserkennungseinrichtung 4 erkennt einen beweglichen Körper, wie zum Beispiel ein entgegenkommendes Fahrzeug oder Motorrad, das sich in Richtung auf das betreffende Fahrzeug 1 bewegt, erkennt eine Form eines Fahrweges, auf dem sich der bewegliche Körper bewegt, und überträgt das erkannte Resultat zu der Steuereinheit 5.
  • Der Fahrweg des beweglichen Körpers wird in Form von vorhandenen Fahrspuren auf der Basis der Markierungsliniendaten erfaßt, wenn eine weiße Markierungslinie auf einer Straße vorhanden ist, oder wird in Form von Fahrspuren erfaßt, die durch Teilen einer Straße in zwei Bereiche auf der Basis von Straßenrand-Objektdaten, wie zum Beispiel einer Leitplanke, erfaßt, wenn keine weiße Linie vorhanden ist oder wenn eine weiße Linie bei Nacht nicht erkennbar ist. Alternativ hierzu können Fahrspuren auf der Basis von Kartenknotenpunktinformation als Fahrweg eines beweglichen Körpers erfaßt werden.
  • Die Steuereinheit 5 sagt ein Verhalten eines beweglichen Körpers, wie zum Beispiel eines entgegenkommenden Fahrzeugs oder Motorrads, das sich in Richtung auf das betreffende Fahrzeug 1 bewegt, voraus und stellt eine Kollisionsmöglichkeit gegenüber dem betreffenden Fahrzeug 1 auf der Basis einer Geschwindigkeit V des betreffenden Fahrzeugs von dem Fahrzeuggeschwindigkeitssensor 11, einer Gierrate von dem Gierratensensor 12 sowie Daten von der Umgebungserkennungseinrichtung 4 fest.
  • Das heißt, die Steuereinheit 5 hat die Funktion einer Geschwindigkeitskorrektureinheit, die eine Geschwindigkeitskomponente des beweglichen Körpers in Richtung auf den Straßenrand des Fahrweges (Geschwindigkeitskomponente in Richtung auf einen Rand einer durch eine weiße Linie, eine Leitplanke, einen Kartenknotenpunkt usw. definierten Fahrspur) korrigiert, und hat ferner die Funktion einer Kollisionsbestimmungseinheit, die das Verhalten des beweglichen Körpers vorhersagt und die Möglichkeit einer Kollision bestimmt.
  • Somit kann die Steuereinheit 5 das Verhalten des beweglichen Körpers selbst dann mit hoher Genauigkeit vorhersagen, wenn ein Sensor (bei dem vorliegenden Ausführungsbeispiel eine Stereokamera 3) zum Erkennen der Umgebung eine unzulängliche Erfassungsgenauigkeit in der lateralen Richtung aufweist.
  • Es wird nun ein Beispiel beschrieben, bei dem im Hinblick auf einen beweglichen Körper, der sich als entgegenkommendes Fahrzeug in Richtung auf das betreffende Fahrzeug 1 bewegt, die Form des Fahrweges, auf dem sich das entgegenkommende Fahrzeug bewegt, anhand der weißen Linie der Straße erkannt wird und die Geschwindigkeitskomponente des entgegenkommenden Fahrzeugs in bezug auf die weiße Linie korrigiert wird.
  • Wenn ein entgegenkommendes Fahrzeug 50 in einer Position vor dem betreffenden Fahrzeug 1 aus den Stereobildern erkannt wird und Geschwindigkeitsinformation von dem entgegenkommenden Fahrzeug 50 ermittelt wird, verwendet die Steuereinheit 5 die ermittelte Geschwindigkeitsinformation von dem entgegenkommenden Fahrzeug 50 und berechnet eine Geschwindigkeitskomponente vy in einer Richtung orthogonal zu einer Route S (Fahrweg), die durch eine weiße Linie bzw. Markierungslinie defi niert ist, als tatsächlichen Beobachtungswert (Geschwindigkeitskomponente auf der Basis von Bildern von der Stereokamera 3).
  • Es werden eine Geschwindigkeitskomponente des entgegenkommenden Fahrzeugs 50 in Fahrzeuglängsrichtung sowie eine virtuelle laterale Geschwindigkeitskomponente vy' des entgegenkommenden Fahrzeugs 50 bei der Fahrt des entgegenkommenden Fahrzeugs 50 entlang der Route S berechnet. Ein Korrekturwert vs wird ermittelt durch Korrigieren der Geschwindigkeitskomponente vy als tatsächlichen Beobachtungswert. Anschließend wird die Möglichkeit einer Kollision durch Vorhersagen des Verhaltens des entgegenkommenden Fahrzeugs 50 in der lateralen Richtung bestimmt.
  • Wie unter Bezugnahme auf 2 ersichtlich, teilt die Steuereinheit 5 Geschwindigkeitsinformation von dem entgegenkommenden Fahrzeug 50 in eine Geschwindigkeitskomponente vx parallel zu der Route S sowie ein Geschwindigkeitskomponente vy in einer senkrechten Richtung orthogonal zu der Route S. Bei den Geschwindigkeitskomponenten vx, vy handelt es sich um tatsächliche Beobachtungswerte, die durch Verarbeiten der Stereobilder erzielt werden.
  • Zum korrekten Bestimmen der Möglichkeit einer Kollision zwischen dem entgegenkommenden Fahrzeug 50 und dem betreffenden Fahrzeug 1 ist es wichtig, die Geschwindigkeitskomponente vy in der senkrechten Richtung im Vergleich zu der Geschwindigkeitskomponente vx in der Fahrtrichtung in noch exakterer Weise zu erkennen.
  • Die Geschwindigkeitskomponente vy als tatsächlicher Beobachtungswert in der Richtung orthogonal zu der Route S erreicht eine ausreichende Genauigkeit, wenn sich das entgegenkommende Fahrzeug 50 in einer relativ geringen Distanz von dem betreffen den Fahrzeug 1 befindet. Wenn sich das entgegenkommende Fahrzeug 50 jedoch in einer großen Distanz von dem betreffenden Fahrzeug 1 befindet, kann die Genauigkeit unzulänglich werden. Mit zunehmender relativer Distanz zwischen dem betreffenden Fahrzeug 1 und dem entgegenkommenden Fahrzeug 50 nimmt ein Fehler zu.
  • Andererseits wird die virtuelle laterale Geschwindigkeitskomponente vy', die auf der Basis der Geschwindigkeitskomponente des entgegenkommenden Fahrzeugs in der Fahrzeuglängsrichtung und auf der Basis der Route S berechnet wird, unter der Annahme bestimmt, daß sich das entgegenkommende Fahrzeug 50 entlang der Route S bewegt, solange der Fahrzustand normal ist. Wenn die relative Distanz zwischen dem betreffenden Fahrzeug 1 und dem entgegenkommenden Fahrzeug 50 groß ist (wenn das entgegenkommende Fahrzeug 50 weit von dem betreffenden Fahrzeug 1 entfernt ist), kann das Verhalten des entgegenkommenden Fahrzeugs 50 in der lateralen Richtung anhand der virtuellen Geschwindigkeitskomponente vy' in exakterer Weise erkannt werden als anhand der Geschwindigkeitskomponente vy des tatsächlichen Beobachtungswerts.
  • Somit sagt die Steuereinheit 5 das Verhalten des entgegenkommenden Fahrzeugs 50 in der lateralen Richtung in äußerst exakter Weise voraus, und zwar unter Berücksichtigung der virtuellen Geschwindigkeitskomponente vy' auf der Basis der Route S und der Geschwindigkeitskomponente in Fahrzeuglängsrichtung zusätzlich zu der Geschwindigkeitskomponente vy des tatsächlichen Beobachtungswerts.
  • Unter Bezugnahme auf 3 wird die virtuelle Geschwindigkeitskomponente vy' auf der Basis einer Veränderung in der Route X in dem XY-Koordinatensystem in bezug auf das betreffende Fahrzeug sowie auf der Basis einer Geschwindigkeitskomponente V des entgegenkommenden Fahrzeugs 50 in Fahrzeuglängsrichtung berechnet.
  • Insbesondere wird unter Verwendung einer Neigung dy/dx an einem Punkt der Route S sowie einer Geschwindigkeitskomponente V (= dx/dt) des entgegenkommenden Fahrzeugs 50 in Fahrzeuglängsrichtung die virtuelle Geschwindigkeitskomponente vy' anhand der nachfolgenden Gleichung (1) berechnet: vy' = dy/dt = V·dy/dx (1).
  • Anschließend wird eine Geschwindigkeitskomponente vs direkt in Richtung auf die Route S unter Wichtung der Geschwindigkeitskomponente vy des tatsächlichen Beobachtungswerts und der virtuellen Geschwindigkeitskomponente vy' auf der Basis der Route S sowie der Geschwindigkeitskomponente in der Fahrzeuglängsrichtung unter Verwendung eines Geschwindigkeitskorrekturkoeffizienten k als Korrekturparameter, der in Abhängigkeit von einer relativen Korrekturdistanz zwischen dem betreffenden Fahrzeug 1 und dem entgegenkommenden Fahrzeug 50 vorgegeben wird, unter Verwendung der nachfolgenden Gleichung (2) berechnet:. vs = k·vy + (1 – k)·vy (2).
  • Der Geschwindigkeitskorrekturkoeffizient k wird in Abhängigkeit von einem erkannten Fehler aufgrund einer Auflösung der Stereokameras 3 in der lateralen Richtung vorgegeben. Beispielsweise wird, unter Bezugnahme auf 4, der Geschwindigkeitskorrekturkoeffizient k in Annäherung auf 0 vorgegeben, wenn die relative Distanz L zwischen dem betreffenden Fahrzeug 1 und dem entgegenkommenden Fahrzeug 50 bei Erkennung größer wird. Wenn das entgegenkommende Fahrzeug 50 weit entfernt ist, nähert sich der Geschwindigkeitskorrekturkoeffizient k dem Wert 0.
  • Selbst wenn die Genauigkeit der Geschwindigkeitskomponente vy als tatsächlicher Beobachtungswert, der unter Verwendung der Stereobilder ermittelt wird, unzulänglich ist, wird somit die Betonung auf die virtuelle Geschwindigkeitskomponente vy' auf der Basis der Route S und der Geschwindigkeitskomponente in Fahrzeuglängsrichtung gelegt, und es wird die Geschwindigkeitskomponente vs direkt in Richtung auf die Route S ermittelt. Somit kann das Verhalten des entgegenkommenden Fahrzeugs 50 mit hoher Genauigkeit vorhergesagt werden.
  • Wenn sich das entgegenkommende Fahrzeug 50 dem betreffenden Fahrzeug 1 nähert, dann nähert sich der Geschwindigkeitskorrekturkoeffizient k dem Wert 1. Die Betonung kann auf die Geschwindigkeitskomponente der tatsächlichen Messung im Vergleich zu der virtuellen Geschwindigkeitskomponente vy' auf der Basis der Route S und der Geschwindigkeitskomponente in Fahrzeuglängsrichtung gelegt werden. Somit kann eine Veränderung in dem Verhalten des entgegenkommenden Fahrzeugs 50 rasch und mit hoher Genauigkeit anhand der tatsächlichen Bewegung des entgegenkommenden Fahrzeugs 50 erkannt werden.
  • Zum Beispiel kann im Fall einer Fahrt auf einem geraden Weg gemäß der Darstellung in 5 die virtuelle Geschwindigkeitskomponente vy', die auf der Route S und der Geschwindigkeitskomponente des entgegenkommenden Fahrzeugs 50 in Fahrzeuglängsrichtung basiert, weggelassen werden. Insbesondere dann, wenn eine Krümmung der Route S einen vorbestimmten Schwellenwert oder einen geringeren Wert als diesen aufweist, kann eine Geschwindigkeitskomponente vs in bezug auf die Route S unter Verwendung der Gleichung (2') verwendet werden, in der ein Ausdruck für die Geschwindigkeitskomponente vy' aus der Gleichung (2) zum Vereinfachen der Verarbeitung weggelassen ist.
  • Die Bewegung des entgegenkommenden Fahrzeugs 50 in Richtung auf das betreffende Fahrzeug 1, wie dies in 5 in gestrichelten Linien dargestellt ist, kann korrekt vorhergesagt werden. Dabei lautet die Gleichung (2') wie folgt: vs = k·vy (2').
  • Bei der vorstehend beschriebenen Verarbeitung kann es, wie unter Bezugnahme auf 6 ersichtlich, schwierig sein, eine weiße Linie bzw. Markierungslinie an einer Position des entgegenkommenden Fahrzeugs 50 zu erkennen, obwohl das entgegenkommende Fahrzeug aus der Bildinformation des Erkennungssensors (Stereokameras 3) erkennbar ist.
  • In diesem Fall wird eine Koordinate (Route S) der weißen Linie in einem Bereich mit einer aktuell erkennbaren weißen Linie beispielsweise unter Verwendung eines Polynoms angenähert, um die Koordinate bis zu der Position des entgegenkommenden Fahrzeugs 50 fortzuführen. Somit wird eine Route S' in einem Bereich mit einer nicht erkennbaren weißen Linie bestimmt.
  • Als nächstes wird von der Steuereinheit 5 eine Änderung in dem Verhalten des entgegenkommenden Fahrzeugs auf der Basis der Geschwindigkeitskomponente vx parallel zu der Route S und auf der Basis der Geschwindigkeitskomponente vs orthogonal zu der Route S vorhergesagt, und die Steuereinheit 5 bestimmt die Möglichkeit einer Kollision mit dem betreffenden Fahrzeug.
  • Wenn festgestellt wird, daß eine Kollision möglich ist, sorgt die Steuereinheit 5 für eine Fahrunterstützung, beispielsweise durch Abgeben eines Alarms über die Anzeige 21, automatisches Bremsen über die automatische Bremssteuereinheit 22 und/oder Steuern des Lenkvorgangs zum Vermeiden einer Kollision über die automatische Lenksteuereinheit 23.
  • Beispielsweise kann die Möglichkeit einer Kollision auf der Basis der Veränderung in dem Verhalten des entgegenkommenden Fahrzeugs durch Auswerten einer positionsmäßigen Veränderung des entgegenkommenden Fahrzeugs im Verlauf der Zeit oder einer für die Umgebung des betreffenden Fahrzeugs vorgegebenen Risikofunktion bestimmt werden.
  • Bei Verwendung der positionsmäßigen Veränderung des entgegenkommenden Fahrzeugs im Verlauf der Zeit, wird eine Kurvenapproximation bei der positionsmäßigen Änderung des entgegenkommenden Fahrzeugs im Verlauf der Zeit auf der Basis der Geschwindigkeitskomponente vx parallel zu der Route S sowie der Geschwindigkeitskomponente vs orthogonal zu der Route S des entgegenkommenden Fahrzeugs 50 angewendet, um auf diese Weise den Fahrweg vorherzusagen.
  • Wenn sich der Fahrweg des entgegenkommenden Fahrzeugs an den Fahrweg des betreffenden Fahrzeugs innerhalb eines vorgegebenen Bereichs annähert und diesen kreuzt, wird die Feststellung getroffen, daß eine Möglichkeit für eine Kollision besteht.
  • Wenn die Risikofunktion für die Umgebung des betreffenden Fahrzeugs vorgegeben wird, werden Funktionen für ein Risiko für eine weiße Linie des betreffenden Fahrzeugs und ein Risiko für ein in der Fahrtrichtung des betreffenden Fahrzeugs vorhandenes dreidimensionales Objekt (entgegenkommendes Fahrzeug) auf der Basis der Positionen des betreffenden Fahrzeugs und des dreidimensionalen Objekts erzeugt.
  • Beide Resultate werden kombiniert, um dadurch eine Gesamtrisikoverteilung in einer XY-Koordinate zu erzielen, wobei das betreffende Fahrzeug den Nullpunkt bildet. Wenn die Risikoverteilung einen vorbestimmten Schwellenwert überschreitet, wird die Feststellung getroffen, daß eine Möglichkeit einer Kollision mit dem betreffenden Fahrzeug besteht.
  • Im folgenden wird ein Beispiel zum Bestimmen einer Kollisionsmöglichkeit mit dem entgegenkommenden Fahrzeug sowie der Abgabe eines Kollisionsalarms anhand einer Programmverarbeitung beschrieben, bei der eine Kollisionswarnung abgegeben wird, wie dies in einem Flußdiagramm der 7 gezeigt ist.
  • Bei der Programmverarbeitung wird in einem Schritt S101 ein erforderlicher Parameter, insbesondere verschiedene Daten, wie zum Beispiel Daten über weiße Linien, Seitenwanddaten bzw. Seitenbegrenzungsdaten einer entlang einer Straße vorhandenen Leitplanke oder eines Randsteins sowie Daten hinsichtlich eines dreidimensionalen Objekts (zum Beispiel Typ, Distanz von dem betreffenden Fahrzeug, zentrale Position und Geschwindigkeit) gelesen.
  • Anschließend wird in einem Schritt S102 eine Fahrwegform des entgegenkommenden Fahrzeugs auf der Basis der Markierungsliniendaten erkannt. In einem Schritt S103 wird eine Geschwindigkeitskomponente vs des entgegenkommenden Fahrzeugs orthogonal zu dem Fahrweg (Route) berechnet. Die Geschwindigkeitskomponente vs wird unter Wichtung einer Geschwindigkeitskomponente vy eines tatsächlichen Beobachtungswerts und einer virtuellen Geschwindigkeitskomponente vy' bei der Fahrt entlang der Route berechnet, und zwar unter Verwendung eines Geschwindigkeitskorrekturkoeffizienten k, der gemäß einer relativen Distanz zwischen dem betreffenden Fahrzeug und dem entgegenkommenden Fahrzeug vorgegeben ist, wie dies vorstehend in der Gleichung (2) beschrieben ist.
  • Wenn es sich bei dem aktuellen Fahrweg zum Beispiel um einen geraden Weg mit einer Krümmung mit einem Schwellenwert oder einem geringeren Wert handelt, muß die der Route folgende laterale Geschwindigkeitskomponente vy' nicht verwendet werden, und die zu der Route orthogonale laterale Geschwindigkeitskomponente vy kann mit dem Geschwindigkeitskorrekturkoeffizienten k korrigiert werden (siehe Gleichung 2').
  • In einem Schritt S104 wird eine Veränderung in dem Verhalten des entgegenkommenden Fahrzeugs auf der Basis der Geschwindigkeitskomponente vx parallel zu der Route S und auf der Basis der lateralen Geschwindigkeitskomponente vs in bezug auf die Route S des entgegenkommenden Fahrzeugs vorhergesagt. In einem Schritt S105 wird festgestellt, ob eine Möglichkeit einer Kollision mit dem betreffenden Fahrzeug besteht.
  • Bei der Feststellung, daß keine Möglichkeit einer Kollision zwischen dem betreffenden Fahrzeug und dem entgegenkommenden Fahrzeug besteht, verläßt die Verarbeitung von dem Schritt S105 aus die Routine. Wenn dagegen festgestellt wird, daß eine Kollisionsmöglichkeit zwischen dem betreffenden Fahrzeug und dem entgegenkommenden Fahrzeug besteht, fährt die Verarbeitung mit einem Schritt S106 fort, in dem ein Alarm in akustischer Form oder als bildliche Darstellung durch die Anzeige 21 abgegeben wird. Nachdem der Fahrer gewarnt worden ist, endet die Verarbeitung mit diesem Schritt.
  • Wie vorstehend beschrieben, wird bei dem vorliegenden Ausführungsbeispiel die Fahrwegform des beweglichen Körpers, der sich in Richtung auf das betreffende Fahrzeug bewegt, erkannt, und die Geschwindigkeitskomponente in Richtung auf den Wegrand des Fahrweges wird mit dem Korrekturparameter in Abhängigkeit von der relativen Distanz zwischen dem betreffenden Fahrzeug und dem beweglichen Körper korrigiert.
  • Selbst wenn der Erkennungssensor eine unzulängliche Auflösung in der lateralen Richtung aufweist, kann somit die Änderung in dem Verhalten des beweglichen Körpers in der lateralen Richtung mit hoher Genauigkeit vorhergesagt werden. Auf diese Weise kann die Möglichkeit einer Kollision zwischen dem beweglichen Körper und dem betreffenden Fahrzeug korrekt bestimmt werden.
  • Wenn ferner die Schwierigkeit besteht, das Verhalten des beweglichen Körpers in der lateralen Richtung korrekt vorherzusagen, obwohl der Erkennungssensor eine hohe Erfassungsgenauigkeit in der lateralen Richtung aufweist, beispielsweise bei der Fahrt in einer Kurve, wird die Geschwindigkeitskomponente in bezug auf den Fahrweg des beweglichen Körpers in Abhängigkeit von der Distanz korrigiert, und das Verhalten des entgegenkommenden Fahrzeugs wird vorhergesagt.
  • Somit kann die Möglichkeit einer Kollision zwischen dem beweglichen Körper und dem betreffenden Fahrzeug korrekt bestimmt werden, und es kann eine angemessene Fahrunterstützung ohne einen falsch ausgelösten Alarm oder falsch ausgelösten Steuervorgang geschaffen werden.
  • 1
    betreffendes Fahrzeug
    2
    Fahrunterstützungssystem
    3
    Stereokamera
    4
    Umgebungserkennungseinrichtung
    5
    Steuereinheit
    11
    Fahrzeuggeschwindigkeitssensor
    12
    Gierratensensor
    13
    Hauptschalter
    21
    Anzeige
    22
    automatische Bremssteuereinrichtung
    23
    automatische Lenksteuereinrichtung
    50
    entgegenkommendes Fahrzeug
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - JP 2000-357299 A [0004, 0005]

Claims (7)

  1. Fahrunterstützungssystem für Fahrzeuge, das eine Fahrunterstützung für einen Fahrer schafft, indem es die Umgebung um ein betreffendes Fahrzeug herum erkennt, wobei das System folgendes aufweist: – eine Umgebungserkennungseinheit (4), die zum Erkennen eines beweglichen Körpers (50), der sich dem betreffenden Fahrzeug (1) nähert, sowie zum Erkennen einer Form eines Fahrweges (S), auf dem sich der bewegliche Körper (50) bewegt, konfiguriert ist; – eine Geschwindigkeitskorrektureinheit (5), die zum Korrigieren einer Geschwindigkeitskomponente des beweglichen Körpers (50) in Richtung auf einen Wegrand des Fahrweges (S) in Abhängigkeit von einem auf der Basis einer relativen Distanz zwischen dem betreffenden Fahrzeug (1) und dem beweglichen Körper (50) berechneten Korrekturparameter konfiguriert ist; und – eine Kollisionsbestimmungseinheit, die zum Vorhersagen eines Verhaltens des beweglichen Körpers (50) auf der Basis einer Geschwindigkeitskomponente (vx) des beweglichen Körpers (50) entlang des Fahrweges (S) und auf der Basis der anhand des Korrekturparameters (k) korrigierten Geschwindigkeitskomponente (vy) in Richtung auf den Wegrand des Fahrweges sowie zum Bestimmen einer Kollisionsmöglichkeit zwischen dem beweglichen Körper (50) und dem betreffenden Fahrzeug (1) konfiguriert ist.
  2. System nach Anspruch 1, wobei es sich bei der Geschwindigkeitskomponente (vy) in Richtung auf den Wegrand des Fahrweges (S) um eine zu dem Fahrweg (S) orthogonale Geschwindigkeitskomponente handelt.
  3. System nach Anspruch 1 oder 2, wobei die Geschwindigkeitskomponente (vy) in Richtung auf den Wegrand des Fahrweges (S) korrigiert wird, indem ein Gewicht des Korrekturparameters zu einer virtuellen Geschwindigkeitskomponente, die bei der Bewegung des bewegli chen Körpers (50) entlang des Fahrweges (S) erzeugt wird, als Geschwindigkeitskomponente auf der Basis einer tatsächlichen positionsmäßigen Veränderung des beweglichen Körpers (50) hinzuaddiert wird.
  4. System nach einem der Ansprüche 1 bis 3, wobei ein Korrekturbetrag (k) für die Geschwindigkeitskomponente (vy) in Richtung auf den Wegrand des Fahrweges (S) auf einen hohen Wert gesetzt ist, wenn sich der bewegliche Körper (50) in einer großen Distanz (L) von dem betreffenden Fahrzeug (1) befindet, und wobei der Korrekturbetrag (k) für die Geschwindigkeitskomponente (vy) in Richtung auf den Wegrand des Fahrweges (S) auf einen relativ kleinen Wert gesetzt ist, wenn sich der bewegliche Körper (50) in einer relativ kleinen Distanz von dem betreffenden Fahrzeug (1) befindet.
  5. System nach einem der Ansprüche 1 bis 4, wobei die Form des Fahrweges (S) auf der Basis von Bildinformation einer Markierungslinie einer Straße oder eines am Straßenrand vorhandenen Objekts erkannt wird.
  6. System nach einem der Ansprüche 1 bis 5, wobei dann, wenn ein Bereich des Fahrweges (S), der durch die Bildinformation erkennbar ist, eine Position des beweglichen Körpers (50) nicht erreicht, ein aktuell erkennbarer Fahrweg etwa bis zu der Position des beweglichen Körpers fortgeführt wird.
  7. System nach einem der Ansprüche 1 bis 4, wobei die Form des Fahrweges (S) auf der Basis von Karteninformation erkannt wird.
DE102009043458.5A 2008-09-30 2009-09-25 Fahrunterstützungssystem für Fahrzeuge Active DE102009043458B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-254157 2008-09-30
JP2008254157A JP5167051B2 (ja) 2008-09-30 2008-09-30 車両の運転支援装置

Publications (2)

Publication Number Publication Date
DE102009043458A1 true DE102009043458A1 (de) 2010-04-29
DE102009043458B4 DE102009043458B4 (de) 2016-12-15

Family

ID=42055317

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009043458.5A Active DE102009043458B4 (de) 2008-09-30 2009-09-25 Fahrunterstützungssystem für Fahrzeuge

Country Status (3)

Country Link
US (1) US8175797B2 (de)
JP (1) JP5167051B2 (de)
DE (1) DE102009043458B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015003712A1 (de) * 2015-03-20 2016-09-22 e.solutions GmbH Optische Detektionsvorrichtung

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8825304B2 (en) * 2010-06-30 2014-09-02 Microsoft Corporation Mediation of tasks based on assessments of competing cognitive loads and needs
CN103318174B (zh) * 2012-03-20 2015-09-30 比亚迪股份有限公司 车辆防撞控制系统及其控制方法
JP5572657B2 (ja) * 2012-03-29 2014-08-13 富士重工業株式会社 車両の運転支援装置
US9196164B1 (en) * 2012-09-27 2015-11-24 Google Inc. Pedestrian notifications
EP2915715B1 (de) * 2012-10-31 2017-05-17 Yamaha Hatsudoki Kabushiki Kaisha Fahrzeuggeschwindigkeitsregelungsvorrichtung und damit ausgestattetes fahrzeug
JP5842862B2 (ja) * 2013-05-14 2016-01-13 株式会社デンソー 衝突緩和装置
JP5884771B2 (ja) * 2013-05-22 2016-03-15 株式会社デンソー 衝突緩和装置
US9229453B1 (en) * 2014-08-29 2016-01-05 GM Global Technology Operations LLC Unified motion planner for autonomous driving vehicle in avoiding the moving obstacle
US9573592B2 (en) 2014-12-23 2017-02-21 Toyota Motor Engineering & Manufacturing North America, Inc. Risk mitigation for autonomous vehicles relative to oncoming objects
JP6252576B2 (ja) * 2015-09-30 2017-12-27 トヨタ自動車株式会社 車両の運転支援装置
KR101714250B1 (ko) 2015-10-28 2017-03-08 현대자동차주식회사 주변 차량의 이동 경로의 예측 방법
DE102015226232A1 (de) * 2015-12-21 2017-06-22 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Kollisionsvermeidung eines Kraftfahrzeuges mit einem Einsatzfahrzeug und ein diesbezügliches System und Kraftfahrzeug
US10562531B2 (en) * 2016-04-28 2020-02-18 Hyundai Motor Company Adaptive cruise control apparatus and method thereof
US10196058B2 (en) 2016-11-28 2019-02-05 drive.ai Inc. Method for influencing entities at a roadway intersection
US10261513B2 (en) 2016-12-19 2019-04-16 drive.ai Inc. Methods for communicating state, intent, and context of an autonomous vehicle
JP6515125B2 (ja) 2017-03-10 2019-05-15 株式会社Subaru 画像表示装置
JP6497819B2 (ja) 2017-03-10 2019-04-10 株式会社Subaru 画像表示装置
JP6465317B2 (ja) 2017-03-10 2019-02-06 株式会社Subaru 画像表示装置
JP6593803B2 (ja) 2017-03-10 2019-10-23 株式会社Subaru 画像表示装置
JP6497818B2 (ja) 2017-03-10 2019-04-10 株式会社Subaru 画像表示装置
JP6465318B2 (ja) 2017-03-10 2019-02-06 株式会社Subaru 画像表示装置
JP6429413B2 (ja) * 2017-03-10 2018-11-28 株式会社Subaru 画像表示装置
JP6438516B2 (ja) * 2017-03-31 2018-12-12 株式会社Subaru 車両の走行制御装置
US10703361B2 (en) * 2017-06-14 2020-07-07 Toyota Motor Engineering & Manufacturing North America, Inc. Vehicle collision mitigation
JP6859902B2 (ja) 2017-08-31 2021-04-14 トヨタ自動車株式会社 車両制御装置
JP7084124B2 (ja) * 2017-11-06 2022-06-14 トヨタ自動車株式会社 運転支援制御システム
JP7132713B2 (ja) * 2017-12-28 2022-09-07 株式会社Soken 車両走行制御装置、車両走行制御システムおよび車両走行制御方法
CN108189763A (zh) * 2018-01-17 2018-06-22 北京万得嘉瑞汽车技术有限公司 一种分析驾驶员驾驶行为的方法及专用智能车载后视镜
US20200001779A1 (en) 2018-06-27 2020-01-02 drive.ai Inc. Method for communicating intent of an autonomous vehicle
CN109017814B (zh) * 2018-08-09 2020-01-24 北京智行者科技有限公司 车载人机交互系统
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
JP7255240B2 (ja) * 2019-03-06 2023-04-11 株式会社デンソー 運転支援装置
CN113826153B (zh) * 2019-05-15 2024-01-02 日产自动车株式会社 车辆的行驶控制方法及行驶控制装置
WO2020230308A1 (ja) * 2019-05-15 2020-11-19 日産自動車株式会社 運転支援方法及び運転支援装置
DE102019210977A1 (de) * 2019-07-24 2021-01-28 Volkswagen Aktiengesellschaft Warnung vor einer potentiellen Kollision von Kraftfahrzeugen
CN110723141B (zh) * 2019-09-20 2020-12-18 江苏大学 一种车辆主动避撞系统及其避撞方式切换方法
US11614739B2 (en) 2019-09-24 2023-03-28 Apple Inc. Systems and methods for hedging for different gaps in an interaction zone
KR20210035523A (ko) * 2019-09-24 2021-04-01 현대자동차주식회사 차량 주행제어 방법 및 장치
KR20210153998A (ko) 2020-06-11 2021-12-20 현대자동차주식회사 차량 및 그 제어방법
CN112380448B (zh) * 2020-12-03 2022-02-22 腾讯科技(深圳)有限公司 车辆数据处理方法、装置、计算机设备和存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000357299A (ja) 1999-06-16 2000-12-26 Honda Motor Co Ltd 車両の走行安全装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2869888B2 (ja) * 1995-11-21 1999-03-10 本田技研工業株式会社 車両の衝突防止装置
JP3143063B2 (ja) * 1996-06-07 2001-03-07 株式会社日立製作所 移動体の走行制御装置
JPH10300481A (ja) * 1997-04-25 1998-11-13 Toyota Motor Corp 地図データ利用車両走行制御装置及び地図データ利用車両走行制御方法
JP2004136785A (ja) * 2002-10-17 2004-05-13 Toyota Motor Corp 車両用制御装置
JP4175080B2 (ja) * 2002-10-17 2008-11-05 トヨタ自動車株式会社 車両用制御装置
JP3948409B2 (ja) * 2003-01-16 2007-07-25 株式会社デンソー 車両進行路推定装置
US7797107B2 (en) * 2003-09-16 2010-09-14 Zvi Shiller Method and system for providing warnings concerning an imminent vehicular collision
JP4476781B2 (ja) * 2004-11-05 2010-06-09 本田技研工業株式会社 車両の走行安全装置
JP4421450B2 (ja) * 2004-11-22 2010-02-24 本田技研工業株式会社 車両の逸脱判定装置
JP2006188129A (ja) * 2005-01-05 2006-07-20 Hitachi Ltd 衝突負荷低減車両システム
JP2007145152A (ja) * 2005-11-28 2007-06-14 Mitsubishi Electric Corp 車両用自動制動装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000357299A (ja) 1999-06-16 2000-12-26 Honda Motor Co Ltd 車両の走行安全装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015003712A1 (de) * 2015-03-20 2016-09-22 e.solutions GmbH Optische Detektionsvorrichtung
DE102015003712B4 (de) * 2015-03-20 2017-04-06 e.solutions GmbH Optische Detektionsvorrichtung

Also Published As

Publication number Publication date
JP2010083312A (ja) 2010-04-15
DE102009043458B4 (de) 2016-12-15
JP5167051B2 (ja) 2013-03-21
US20100082251A1 (en) 2010-04-01
US8175797B2 (en) 2012-05-08

Similar Documents

Publication Publication Date Title
DE102009043458B4 (de) Fahrunterstützungssystem für Fahrzeuge
DE102010006828B4 (de) Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
DE112010003874B4 (de) Fahrzeugsteuerung
DE102017100633B4 (de) Präventions-sicherheitsvorrichtung für die kursänderung eines kleinfahrzeugs
DE102018111778A1 (de) Verfahren, Vorrichtung und System zur Steuerung eines Fahrzeugs, das eine Kreuzung passiert.
DE102016109592A1 (de) Kollisionsabschwächung und -vermeidung
DE102009034386A1 (de) Fahrtunterstützungsvorrichtung für ein Fahrzeug
EP2888604B1 (de) Verfahren zur bestimmung eines fahrspurverlaufs für ein fahrzeug
DE102017218141B4 (de) Fahrunterstützungsvorrichtung unter verwendung einer frontüberwachungsvorrichtung und fahrunterstützungsverfahren unter verwendung einer frontüberwachungsvorrichtung
WO2015032707A1 (de) Verfahren und steuer- und erfassungseinrichtung zum plausibilisieren einer falschfahrt eines kraftfahrzeugs
DE102008027590A1 (de) Fahrunterstützungssystem für Fahrzeuge
DE102009009211A1 (de) Verfahren und Assistenzsystem zum Erfassen von Objekten im Umfeld eines Fahrzeugs
DE102013012324A1 (de) Verfahren und Vorrichtung zur Fahrwegfindung
DE102004048013A1 (de) Verfahren und Vorrichtung zur Fahrerunterstützung
DE102009045286A1 (de) Verfahren zur Abbildung des Umfelds eines Fahrzeugs
EP3497686A1 (de) Verfahren zur überprüfung einer überholmöglichkeitsbedingung
EP2707862B1 (de) Abstandsbestimmung mittels eines kamerasensors
DE102012201896A1 (de) Fahrerassistenzverfahren und Fahrerassistenzsystem für verschneite Straßen
EP2116958B1 (de) Verfahren und Vorrichtung zum Ermitteln des Fahrbahnverlaufs im Bereich vor einem Fahrzeug
DE102010050167A1 (de) Verfahren und Vorrichtung zur Bestimmung eines plausiblen Fahrstreifens zur Führung eines Fahrzeugs sowie Kraftwagen
DE102016202594A1 (de) Verfahren und Vorrichtung zum Interpretieren einer Fahrzeugumgebung eines Fahrzeugs sowie Fahrzeug
EP3521132B1 (de) Verfahren zum erkennen eines fahrschlauchs bei schienengebundenen fahrzeugen
DE102004013818A1 (de) Objektortungssystem für Kraftfahrzeuge
DE102016202829A1 (de) Vorrichtung zur Querführungsunterstützung für ein straßengebundenes Fahrzeug
DE102010049215A1 (de) Verfahren zur Bestimmung einer Fahrzeugumgebung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R018 Grant decision by examination section/examining division
R081 Change of applicant/patentee

Owner name: SUBARU CORPORATION, JP

Free format text: FORMER OWNER: FUJI JUKOGYO KABUSHIKI KAISHA, TOKYO, JP

R082 Change of representative

Representative=s name: MEISSNER BOLTE PATENTANWAELTE RECHTSANWAELTE P, DE

R020 Patent grant now final
R084 Declaration of willingness to licence