DE102013108000A1 - Kollisionserkennungssystem mit Plausibilitätsmodul - Google Patents

Kollisionserkennungssystem mit Plausibilitätsmodul Download PDF

Info

Publication number
DE102013108000A1
DE102013108000A1 DE102013108000.6A DE102013108000A DE102013108000A1 DE 102013108000 A1 DE102013108000 A1 DE 102013108000A1 DE 102013108000 A DE102013108000 A DE 102013108000A DE 102013108000 A1 DE102013108000 A1 DE 102013108000A1
Authority
DE
Germany
Prior art keywords
collision
host vehicle
camera
vehicle
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102013108000.6A
Other languages
English (en)
Inventor
Aaron L. Mills
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/598,166 external-priority patent/US9187091B2/en
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102013108000A1 publication Critical patent/DE102013108000A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • B60W10/184Conjoint control of vehicle sub-units of different type or different function including control of braking systems with wheel brakes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/30Conjoint control of vehicle sub-units of different type or different function including control of auxiliary equipment, e.g. air-conditioning compressors or oil pumps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/085Taking automatic action to adjust vehicle attitude in preparation for collision, e.g. braking for nose dropping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/04Monitoring the functioning of the control system
    • B60W50/045Monitoring control system parameters
    • B60W2050/046Monitoring control system parameters involving external transmission of data to or from the vehicle, e.g. via telemetry, satellite, Global Positioning System [GPS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/14Yaw
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/30Auxiliary equipments

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Regulating Braking Force (AREA)

Abstract

Ein Kollisionserkennungssystem für ein Fahrzeug umfasst einen Sensor und eine Kamera. Der Sensor misst einen ersten Datensatz eines Objekts in Bezug auf das Fahrzeug. Die Kamera misst einen zweiten Datensatz des Objekts in Bezug auf das Fahrzeug und misst getrennt eine bildbasierte Zeit bis zur Kollision mit dem Objekt basierend auf skalierbaren Unterschieden von aufgenommenen Bildern. Ein Fusionsmodul vergleicht Daten vom Sensor und der Kamera und schätzt eine Kollisionsgefahr basierend auf den verglichenen Daten. Ein Plausibilitätsmodul erzeugt ein Signal, wenn die gemessene Zeit bis zur Kollision kürzer als eine berechnete lenkungsbasierte Zeit bis zur Kollision und eine bremsungsbasierte Zeit bis zur Kollision mit dem Objekt ist. Ein Gegenmaßnahmenmodul aktiviert eine Gegenmaßnahmenvorrichtung, wie beispielsweise ein autonomes Bremssystem, wenn die Kollisionsgefahr eine Aktivierungsschwelle überschreitet und das Signal vom Plausibilitätsmodul empfangen wird, um dadurch die Rate fälschlicher Aktivierungen der Gegenmaßnahmenvorrichtung statistisch zu reduzieren.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Diese Anmeldung beansprucht Priorität gemäß 35 U.S.C. § 119(e) und den Nutzen gegenüber der vorläufigen US-Patentanmeldung Nr. 61/677,274 mit dem Titel „COLLISION DETECTION SYSTEM WITH A PLAUSIBILITY MODULE”, die am 30. Juli 2012 eingereicht wurde und deren gesamte Offenbarung durch Bezugnahme hierin aufgenommen wird.
  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft im Allgemeinen ein Kollisionserkennungssystem für ein Fahrzeug, das eine Gegenmaßnahmenvorrichtung aktiviert, um eine Kollision mit einem Objekt zu mindern oder zu vermeiden. Insbesondere betrifft die Erfindung ein Kollisionserkennungssystem mit mindestens einer Kamera zum Messen von Daten eines Objekts in Bezug auf ein Hostfahrzeug und Aktivieren eines autonomen Bremssystems des Fahrzeugs basierend auf den Messdaten und Kollisionsschätzungen.
  • HINTERGRUND DER ERFINDUNG
  • Kraftfahrzeuge werden zunehmend mit Kollisionserkennungssystemen ausgestattet, um Objekte, einschließlich Fußgänger und anderer Fahrzeuge, auf dem Fahrweg eines Hostfahrzeugs zu identifizieren. Zum Mindern oder Vermeiden von Kollisionen werden diese Systeme in Verbindung mit Gegenmaßnahmenvorrichtungen, wie beispielsweise autonomer Bremsung, adaptiver Abstandsregelung, Notlenkungshilfe und Warnsystemen, verwendet. Zum Beispiel ist Kollisionsminderung durch Bremsen (CMbB – collision mitigation by braking) zum Durchführen autonomer Bremsung bis zu Antiblockiersystem-Vollbremsstufen imstande, welche validiert werden müssen, um eine außergewöhnlich niedrige Rate fälschlicher Bremsaktivierung zu gewährleisten. Eine erhöhte Zuverlässigkeit der Kollisionserkennung ohne längeren und teuren Validierungsprozess ist wünschenswert.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Gemäß einem Aspekt der vorliegenden Erfindung umfasst ein Kollisionserkennungssystem für ein Hostfahrzeug einen Sensor zum Erkennen eines Objekts in einem Gesichtsfeld und Messen eines ersten Satzes von Zieldaten des Objekts in Bezug auf das Hostfahrzeug. Das System umfasst außerdem eine Kamera zum Aufnehmen einer Mehrzahl von Bildern vom Gesichtsfeld und Verarbeiten der Mehrzahl von Bildern, um einen zweiten Satz von Zieldaten des Objekts in Bezug auf das Hostfahrzeug zu messen und eine bildbasierte Zeit bis zur Kollision (TTCIMAGE) (TTC – time-to-collision) des Hostfahrzeugs mit dem Objekt basierend auf skalierbaren Unterschieden der Mehrzahl von Bildern zu messen. Ein Fusionsmodul bestimmt einen Vergleichssatz von Zieldaten des Objekts in Bezug auf das Hostfahrzeug basierend auf den ersten und zweiten Sätzen von Zieldaten, die vom Sensor bzw. der Kamera empfangen werden. Das Fusionsmodul schätzt eine Gefahr einer Kollision des Fahrzeugs mit dem Objekt basierend auf dem Vergleichssatz von Zieldaten. Ein Plausibilitätsmodul berechnet eine lenkungsbasierte Zeit bis zur Kollision (TTCSTEERING) und eine bremsungsbasierte Zeit bis zur Kollision (TTCBRAKING) des Hostfahrzeugs mit dem Objekt basierend auf dem zweiten Satz von Zieldaten, die von der Kamera empfangen werden, und einem zusätzlichen Satz von Daten, die von einem Fahrzeugdynamikdetektor empfangen werden. Das Plausibilitätsmodul erzeugt ein Aktivierungssignal, wenn die gemessene TTCIMAGE kürzer als die berechnete TTCSTEERING und die TTCBRAKING ist. Ein Gegenmaßnahmenmodul aktiviert eine Gegenmaßnahmenvorrichtung, wenn die vom Fusionsmodul empfangene Kollisionsgefahr eine Aktivierungsschwelle überschreitet und das Aktivierungssignal vom Plausibilitätsmodul erzeugt und empfangen wird, um dadurch die Rate fälschlicher Aktivierung der Gegenmaßnahmenvorrichtung statistisch zu reduzieren.
  • Gemäß einem anderen Aspekt der vorliegenden Erfindung umfasst ein Kollisionserkennungssystem für ein Fahrzeug einen Sensor und eine Kamera. Der Sensor misst Daten eines Objekts in Bezug auf das Fahrzeug. Die Kamera misst ebenfalls Daten des Objekts in Bezug auf das Fahrzeug und misst eine bildbasierte Zeit bis zur Kollision (TTCIMAGE) mit dem Objekt basierend auf skalierbaren Unterschieden von aufgenommenen Bildern. Ein Fusionsmodul vergleicht Daten vom Sensor und der Kamera und schätzt eine Kollisionsgefahr basierend auf den verglichenen Daten. Ein Plausibilitätsmodul erzeugt ein Signal, wenn die gemessene TTCIMAGE kürzer als eine berechnete lenkungsbasierte Zeit bis zur Kollision (TTCSTEERING) und eine bremsungsbasierte Zeit bis zur Kollision (TTCBRAKING) mit dem Objekt ist. Ein Gegenmaßnahmenmodul aktiviert eine Gegenmaßnahmenvorrichtung, wenn die Kollisionsgefahr eine Aktivierungsschwelle überschreitet und das Signal vom Plausibilitätsmodul erzeugt wird.
  • Gemäß einem noch anderen Aspekt der vorliegenden Erfindung umfasst ein Fahrzeugkollisionserkennungssystem einen Sensor und eine Kamera. Ein Fusionsmodul schätzt eine Kollisionsgefahr mit einem Objekt unter Verwendung von Daten des Objekts in Bezug auf das Fahrzeug vom Sensor und der Kamera. Ein Plausibilitätsmodul erzeugt ein Signal, wenn eine bildbasierte Zeit bis zur Kollision kürzer als eine lenkungsbasierte Zeit bis zur Kollision und eine bremsungsbasierte Zeit bis zur Kollision ist. Eine Gegenmaßnahme wird aktiviert, wenn die Kollisionsgefahr eine Schwelle überschreitet und das Signal empfangen wird.
  • Gemäß einem anderen Aspekt der vorliegenden Erfindung wird ein Verfahren zur Aktivierung einer autonomen Bremssteuerung für ein Bremssystem eines Hostfahrzeugs bereitgestellt. Das Verfahren umfasst den Schritt des Erfassens eines Objekts in einem Gesichtsfeld durch einen Objekterkennungssensor am Hostfahrzeug. Ein erster Datensatz des Objekts wird mit dem Objekterkennungssensor gemessen und umfasst eine erste Entfernung und eine erste Entfernungsrate des Objekts in Bezug auf das Hostfahrzeug, einen ersten Winkel und eine erste Winkelrate des Objekts in Bezug auf das Hostfahrzeug und eine relative Bewegungsbestimmung des Objekts. Das Verfahren umfasst außerdem den Schritt des Aufnehmens einer Mehrzahl von Bildern basierend auf Lichtwellen vom Gesichtsfeld durch eine Kamera am Hostfahrzeug in bekannten Zeitintervallen zwischen Zeitpunkten, in welchen die Bilder der Mehrzahl von Bildern aufgenommen werden. Die aufgenommenen Bilder werden verarbeitet, um einen zweiten Datensatz des Objekts zu messen, der eine zweite Entfernung und eine zweite Entfernungsrate des Objekts in Bezug auf das Hostfahrzeug, einen zweiten Winkel und eine zweite Winkelrate des Objekts in Bezug auf das Hostfahrzeug, eine Breite des Objekts und eine bildbasierte Zeit bis zur Kollision (TTCIMAGE) des Hostfahrzeugs mit dem Objekt basierend auf skalierbaren Unterschieden des Objekts umfasst, die von der Mehrzahl von Bildern abgeleitet werden. Ein zusätzlicher Datensatz wird mit einem Fahrzeugdynamikdetektor gemessen, der einen Gierratensensor zum Messen einer Gierrate des Hostfahrzeugs und einen Geschwindigkeitssensor zum Messen der Längsgeschwindigkeit des Hostfahrzeugs umfasst. Es ist eine Steuerung vorgesehen, welche die ersten und zweiten Datensätze, die TTCIMAGE und den zusätzlichen Datensatz empfängt. Das Verfahren umfasst ferner den Schritt des Schätzens einer Gefahr einer Kollision des Hostfahrzeugs mit dem Objekt basierend auf einer Kombination der ersten und zweiten Datensätze. Eine lenkungsbasierte Zeit bis zur Kollision (TTCSTEERING) des Hostfahrzeugs mit dem Objekt wird als eine Funktion des zweiten Datensatzes, der Längsgeschwindigkeit des Hostfahrzeugs und der Gierrate des Hostfahrzeugs berechnet. Eine bremsungsbasierte Zeit bis zur Kollision (TTCBRAKING) des Hostfahrzeugs mit dem Objekt wird als eine Funktion der Längsgeschwindigkeit des Hostfahrzeugs und einer maximalen Verlangsamungsrate des Hostfahrzeugs berechnet. Das Verfahren umfasst außerdem den Schritt des Erzeugens eines Aktivierungssignals, wenn die gemessene TTCIMAGE kürzer als die berechnete TTCSTEERING und die TTCBRAKING ist. Die autonome Bremssteuerung für das Bremssystem des Hostfahrzeugs wird basierend auf der Kollisionsgefahr und dem Aktivierungssignal aktiviert.
  • Gemäß noch einem anderen Aspekt der vorliegenden Erfindung umfasst ein Kollisionserkennungssystem eine Kamera und einen Sensor zum Messen von Daten eines Objekts in Bezug auf ein Hostfahrzeug, derart dass eine Kollisionsgefahr aus kombinierten Daten der Kamera und des Sensors geschätzt wird. Das unabhängige Plausibilitätsmodul empfängt eine bildbasierte Zeit bis zur Kollision, die durch die Kamera basierend auf einer gemessenen Expansionsrate des Objekts direkt und unabhängig gemessen wird. Das unabhängige Plausibilitätsmodul erzeugt ein Aktivierungssignal, wenn die bildbasierte Zeit bis zur Kollision sowohl kürzer als eine lenkungsbasierte Zeit bis zur Kollision als auch eine bremsungsbasierte Zeit bis zur Kollision ist, welche als eine Funktion von Messungen berechnet werden, die von der Kamera empfangen werden, die in Bezug auf eine allgemeine Horizontebene angeordnet ist. Eine autonome Bremssteuerung für ein Bremssystem des Fahrzeugs wird aktiviert, wenn die Kollisionsgefahr größer als eine Schwelle ist und das unabhängige Plausibilitätsmodul das Aktivierungssignal erzeugt. Die Prüfung anhand des Signals vom unabhängigen Plausibilitätsmodul erhöht statistisch die Zuverlässigkeit des gesamten Kollisionserkennungssystems und reduziert den Aufwand und das Ausmaß eines Validierungsprozesses zum Implementieren des Systems ohne Hinzufügung zusätzlicher Sensoren zum Fahrzeug.
  • Diese und andere Aspekte, Aufgaben und Merkmale der vorliegenden Erfindung sind durch die Fachleute bei Befassung mit der folgenden Spezifikation, den folgenden Ansprüchen und den angehängten Zeichnungen nachzuvollziehen und zu erkennen.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • In den Zeichnungen ist:
  • 1 eine Draufsicht, die ein Kollisionserkennungssystem an einem Hostfahrzeug mit einem Objekt in einem Gesichtsfeld des Hostfahrzeugs und mit einer im Wesentlichen ähnlichen Fahrtrichtung veranschaulicht;
  • 2 eine schematische Darstellung eines Kollisionserkennungssystems, das einen Sensor, eine Kamera und einen Fahrzeugdynamikdetektor in Kommunikation mit einer Kollisionsgefahrsteuerung umfasst, die mit einer Gegenmaßnahme in Kommunikation ist;
  • 3 ein Flussidagramm, das ein Verfahren zur Aktivierung einer Gegenmaßnahme, wie beispielsweise einer autonomen Bremssteuerung für ein Bremssystem eines Hostfahrzeugs, unter Verwendung einer Kollisionsgefahrsteuerung veranschaulicht;
  • 4 ein Logikdiagramm, das eine Routine zum Erzeugen eines Aktivierungssignals für ein Gegenmaßnahmenmodul veranschaulicht;
  • 5 ein Logikdiagramm, das eine Routine zum Schätzen und Berechnen einer lenkungsbasierten Zeit bis zur Kollision veranschaulicht; und
  • 6 ein Logikdiagramm, das eine Routine zum Schätzen und Berechnen einer bremsungsbasierten Zeit bis zur Kollision veranschaulicht.
  • AUSFÜHRLICHE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Zum Zwecke der Beschreibung hierin beziehen sich die Begriffe „ober-”, „unter-”, „rechts”, „links”, „hinter-”, „vorder-”, „vertikal”, „horizontal” und Ableitungen davon auf das Fahrzeug und sein Kollisionserkennungssystem, wie in 1 orientiert. Es versteht sich jedoch von selbst, dass die Erfindung verschiedene alternative Orientierungen annehmen kann, sofern nicht ausdrücklich anders angegeben. Es versteht sich außerdem von selbst, dass die spezifischen Vorrichtungen und Prozesse, die in den angehängten Zeichnungen veranschaulicht sind und in der folgenden Spezifikation beschrieben werden, lediglich beispielhafte Ausführungsformen der erfinderischen Konzepte sind, die in den angehängten Ansprüchen definiert werden. Folglich sind spezifische Abmessungen und andere physikalische Eigenschaften in Bezug auf die Ausführungsformen nicht als einschränkend auszulegen, sofern in den Ansprüche nicht ausdrücklich anders angegeben.
  • Unter Bezugnahme auf 1 bezeichnet das Bezugszeichen 10 im Allgemeinen ein Hostfahrzeug mit einem Kollisionserkennungssystem 12 mit einem Objekterkennungssensor (R) 14 und einer Kamera (C) 16. Ein Gesichtsfeld für den Sensor 14 und die Kamera 16 ist mit dem Bezugszeichen 18 allgemein angegeben und durch Grenzen 18A und 18B genauer definiert. Das hierin dargestellte und beschriebene Hostfahrzeug 10 ist ein Personenwagen (Kraftfahrzeug) mit Rädern 20 zum Kontakt mit einer Straße und einem Bremssystem (B) 22 zum Eingreifen in die Räder 20. Das Bremssystem 22 ist so konfiguriert, dass es beim Eingreifen in die Räder 20 die Drehung der Räder 20 reduziert und dadurch eine Verminderung einer Längsgeschwindigkeit VH des Hostfahrzeugs 10 in Bezug auf die Straße bewirkt, derart dass das Hostfahrzeug 10 eine negative Längsbeschleunigung oder eine Verlangsamung aufweist. Das Hostfahrzeug 10 umfasst eine Vorderseite, zwei laterale Seiten und eine Hinterseite, wobei der Sensor 14 und die Kamera 16 im Allgemeinen an der Vorderseite positioniert sind, um Objekte im Gesichtsfeld 18 vor dem Hostfahrzeug 10 zu erkennen. Es ist jedoch vorgesehen, dass der Sensor 14 und die Kamera 16 an einer anderen Stelle am Hostfahrzeug 10 positioniert sein könnten, um Objekte in einem alternativen Gesichtsfeld zu erkennen. Der Sensor 14 und die Kamera 16 am Hostfahrzeug 10 sind im Allgemeinen mit einer Steuerung (C) 24 verbunden, die mit dem Bremssystem (B) 22 verbunden ist. Die Steuerung 24 empfängt außerdem Daten von einem Onboard-Fahrzeugdynamikdetektor (D) 26.
  • Wie in 1 dargestellt, befindet sich ein Objekt 30 vor dem Hostfahrzeug 10 im Gesichtsfeld 18. Das Objekt 30, wie dargestellt, ist ein vorausfahrendes Fahrzeug, das in einer im Wesentlichen ähnlichen Fahrtrichtung wie das Hostfahrzeug 10 orientiert ist. Es ist ferner vorgesehen, dass das Objekt 30 alternativ u. a. einen Fußgänger, ein Fahrrad oder eine andere bewegliche oder unbewegliche Struktur umfassen kann. Das Hostfahrzeug 10 und das als das vorausfahrende Fahrzeug dargestellte Objekt 30 weisen jeweilige Längsgeschwindigkeiten in Bezug auf die zugrunde liegende Straße auf, die als VH und VL bezeichnet und als Vektoren veranschaulicht sind, um die jeweilige allgemeine Fahrtrichtung darzustellen.
  • Der Objekterkennungssensor 14 überwacht das Gesichtsfeld 18 und, wenn der Sensor 14 das Objekt 30 im Gesichtsfeld 18 erkennt, misst der Sensor 14 einen ersten Satz von Zieldaten des Objekts 30 in Bezug auf das Hostfahrzeug 10 basierend auf einer Position des Objekts in Bezug auf das Hostfahrzeug. Der erste Satz von Zieldaten des Objekts 30 in Bezug auf das Hostfahrzeug 10 umfasst eine Messung einer ersten Entfernung R1 (radialen Distanz) zwischen dem Objekt 30 und dem Hostfahrzeug 10, eine erste Entfernungsrate Ṙ1 (zeitliche Änderungsrate der radialen Distanz) des Objekts 30 in Bezug auf das Hostfahrzeug 10, eine Messung eines ersten Winkels θ1 (Richtungswinkels) der Richtung des Objekts 30 in Bezug auf das Hostfahrzeug 10, eine erste Winkelrate θ .1 (zeitliche Änderungsrate des Richtungswinkels) der Richtung des Objekts 30 in Bezug auf das Hostfahrzeug 10 und eine relative Bewegungsbestimmung des Objekts 30 in Bezug auf die Straße. Wie in 2 dargestellt, umfasst der Objekterkennungssensor 14 ein Radarsystem 32. Es ist vorgesehen, dass der erste Satz von Zieldaten mehr oder weniger Datenmessungen des Objekts 30 oder des Hostfahrzeugs 10 umfasst.
  • Die Kamera 16 überwacht ebenfalls das Gesichtsfeld 18 zum Erkennen eines oder mehrerer Objekte, wie beispielsweise des Objekts 30. Die Kamera 16 nimmt eine Mehrzahl von Bildern basierend auf Lichtwellen vom Gesichtsfeld 18 in bekannten Zeitintervallen zwischen Zeitpunkten auf, in welchen die Bilder der Mehrzahl von Bildern aufgenommen werden. Die Kamera 16 verarbeitet die Mehrzahl von Bildern, um einen zweiten Satz von Zieldaten des Objekts 30 in Bezug auf das Hostfahrzeug 10 zu messen und eine bildbasierte Zeit bis zur Kollision (TTCIMAGE) des Hostfahrzeugs 10 mit dem Objekt 30 basierend auf skalierbaren Unterschieden der Mehrzahl von Bildern zu messen. Genauer gesagt basiert die bildbasierte Zeit bis zur Kollision (TTCIMAGE) unabhängig auf der Messung von verschiedenen Aspekten des Objekts 30 in der Mehrzahl von Bildern, um eine Expansionsrate des Objekts 30 von der Perspektive der Kamera auf das Hostfahrzeug 10 zu bestimmen.
  • Der zweite Satz von Zieldaten des Objekts 30 in Bezug auf das Hostfahrzeug 10 umfasst eine zweite Entfernungsmessung R2 zwischen dem Objekt 30 und dem Hostfahrzeug 10, eine zweite Entfernungsrate Ṙ2 des Objekts 30 in Bezug auf das Hostfahrzeug 10, einen zweiten Winkel θ2 der Richtung des Objekts 30 in Bezug auf das Hostfahrzeug 10, eine zweite Winkelrate θ .2 der Richtung des Objekts 30 in Bezug auf das Hostfahrzeug 10, eine Breitenmessung des Objekts WLEAD, eine Objektklassifizierung 34 des Objekts 30 und einen Vertrauenswert 36 des Objekts 30. Der Wert der Objektklassifizierung 34 basiert auf allgemeinen Charakteristiken von bekannten Objekten, wie beispielsweise Höhe und Breite, um das Objekt 30, zum Beispiel ein Personenfahrzeug, einen Fußgänger, ein Fahrrad oder eine stationäre Struktur, zu identifizieren. Der Vertrauenswert 36 des Objekts 30 ist im Wesentlichen eine Messung dessen, ob sich die einzelnen Teile des Objekts 30 im Gesichtsfeld 18 beständig zusammen bewegen, um ein einzelnes Objekt 30 zu bilden. Wenn sich zum Beispiel seitliche Rückspiegel 38 (1) des Objekts 30 in der im Wesentlichen identischen Entfernungsrate wie die hintere Stoßstange 40 des Objekts 30 bewegen, ist der Vertrauenswert 36 des Objekts 30 hoch. Wiederum in Bezug auf die Messung der TTCIMAGE misst die Kamera 16 die TTCIMAGE direkt und unabhängig basierend auf der gemessenen Expansionsrate des Objekts 30 aus der Mehrzahl von Bildern. Hingegen misst die Kamera 16 die zweite Entfernung und die zweite Entfernungsrate des zweiten Satzes von Zieldaten basierend auf der allgemeinen Position des Objekts 30 in Bezug auf den Horizont, wie auf dem Fachgebiet allgemein bekannt ist. Demgemäß ist die TTCIMAGE-Messung statistisch unabhängig von den Messungen im zweiten Satz von Zieldaten.
  • Nunmehr unter Bezugnahme auf 2 umfasst der Objekterkennungssensor 15 zum Überwachen des Gesichtsfeldes 18 das Radarsystem 32. Der Radar 32 misst den ersten Satz von Zieldaten des Objekts 30 in Bezug auf das Hostfahrzeug 10. Es ist jedoch vorgesehen, dass der Sensor 14 außerdem oder alternativ einen Lidar-, Ultraschall-, Aktiv-Infrarot-, Passiv-Infrarot-, Telematiksensor, eine zusätzliche Kamera oder beliebige andere Sensoren umfassen kann, die auf dem Fachgebiet bekannt sind.
  • Wie in 2 dargestellt, umfasst die Kamera 16 im Allgemeinen ein Bildgerät 42 zum Aufnehmen der Mehrzahl von Bildern vom Gesichtsfeld 18 basierend auf Lichtwellen, die vom Gesichtsfeld 18 in bekannten Zeitintervallen zwischen Zeiten empfangen werden, in welchen Bilder der Mehrzahl von Bildern aufgenommen werden. Die Kamera 16 umfasst außerdem einen Bildprozessor 44 zum Verarbeiten der aufgenommenen Mehrzahl von Bildern, um den zweiten Satz von Zieldaten des Objekts 30 in Bezug auf das Hostfahrzeug 10 zu messen und die bildbasierte Zeit bis zur Kollision (TTCIMAGE) des Hostfahrzeugs 10 mit dem Objekt 30 basierend auf der Expansionsrate und der Position des Objekts 30 in Bezug auf das Hostfahrzeug 10 zu messen. Die Kamera 16 kann eine oder mehr Kameras umfassen, wie beispielsweise eine ladungsgekoppelte Vorrichtung (CCD – charge-coupled device) oder eine Bildsensorvorrichtung auf der Basis von komplementären Metalloxidhalbleitern (CMOS – complementary metal-oxide-semiconductor). Die Kamera 16 implementiert im Allgemeinen die auf dem Fachgebiet bekannte Instrumentierung zur Aufnahme von Bildern derart, dass das Bildgerät 42 eine Sichtbarlicht-Kamera, eine Ferninfrarot-Kamera und/oder eine Nahinfrarot-Kamera umfassen kann. Ferner ist der Bildprozessor 44 der Kamera 16 typischerweise zum Puffern und Verarbeiten der Mehrzahl von Bildern in Echtzeit imstande. Es ist außerdem vorgesehen, dass der Bildprozessor 44 in einen anderen Prozessor oder eine andere Steuerung getrennt von der Kamera 16 integriert sein kann.
  • Wie in 2 weiter dargestellt ist, umfasst der Fahrzeugdynamikdetektor 26 einen Gierratensensor 46, einen Geschwindigkeitssensor 48 und ein globales Positionsbestimmungssystem (GPS) 50, um einen zusätzlichen Datensatz zu messen, der die Kinematik des Hostfahrzeugs 10 anzeigt. Es ist vorgesehen, dass der Fahrzeugdynamikdetektor 26 andere Sensoren, wie beispielsweise einen Lenkradwinkelsensor und einen Beschleunigungssensor, umfassen kann, um andere kinematikbezogene Daten des Hostfahrzeugs 10 zu erfassen. Der Gierratensensor 46 bestimmt die Gierrate ω des Hostfahrzeugs 10 um einen Schwerpunkt des Hostfahrzeugs 10, wobei er die Drehtendenz des Hostfahrzeugs 10 um eine Achse senkrecht auf die Straßenfläche misst. Der Geschwindigkeitssensor 48 misst die Geschwindigkeit VH des Hostfahrzeugs 10 in der Fahrtrichtung. Wie in gestrichelten Linien veranschaulicht, ist das GPS 50 optional als eine Komponente des Fahrzeugdynamikdetektors 26 enthalten derart, dass das GPS 50 zum Messen von verschiedenen kinematischen Eigenschaften und relativen Positionsdaten des Hostfahrzeugs 10 verwendet werden kann.
  • Die Kollisionsgefahrsteuerung 24, wie in 2 dargestellt, empfängt Eingaben vom Sensor 14, der Kamera 16 und dem Fahrzeugdynamikdetektor 26. Die Kollisionsgefahrsteuerung 24 kann einen Mikroprozessor 52 und einen Speicher 54 gemäß einer Ausführungsform umfassen, und sie kann als Teil einer gemeinsam genutzten Steuerung konfiguriert sein, die für andere Zwecke verwendet wird, oder mit mehreren Mikroprozessoren und Steuereinheiten konfiguriert sein, die an verschiedenen Stellen und in verschiedenen Komponenten als Teile des Hostfahrzeugs 10 oder davon getrennt integriert sind. Der Speicher 54 kann einen Direktzugriffsspeicher (RAM), einen Festwertspeicher (ROM) und einen elektrisch löschbaren programmierbaren Festwertspeicher (EEPROM) umfassen. Die Steuerung 24 empfängt den ersten Datensatz vom Sensor 14, den zweiten Datensatz und die TTCIMAGE-Messung von der Kamera 16 und den zusätzlichen Datensatz vom Fahrzeugdynamikdetektor 26. Die Steuerung 24 verarbeitet die empfangenen Eingaben mit einer Fusionsmodulroutine 56 und einer Plausibilitätsmodulroutine 58, um zu bestimmen, ob eine Gegenmaßnahme 60 aktiviert werden sollte, um eine mögliche Kollision des Hostfahrzeugs 10 mit dem Objekt 30 zu mindern oder zu vermeiden. Es ist vorgesehen, dass die Fusionsmodulroutine 56 und die Plausibilitätsmodulroutine 58 mit anderen Routinen kombiniert oder daran angegliedert sein kann, um die allgemeinen Kollisionserkennungs- und -vermeidungsfunktionen und Plausibilitätsprüfungen auszuführen, wie hierin beschrieben.
  • Weiter unter Bezugnahme auf 2 umfasst die Gegenmaßnahme 60 eine autonome Bremssteuerung 62 zum Aktivieren des Bremssystems 22 des Hostfahrzeugs 10. Wie dargestellt, kann die Gegenmaßnahme 60 außerdem ein Fahrerwarnsystem 64, eine Beifahrersicherheitsgurt-Vorspannungssteuerung 66, eine Notlenkungssteuerung 68 und eine adaptive Abstandsregelungssteuerung 70 umfassen. Es ist vorgesehen, dass zusätzliche Gegenmaßnahmen enthalten sein können, um eine Kollision des Hostfahrzeugs 10 mit dem Objekt 30 zu vermeiden oder Schaden am Hostfahrzeug 10, etwaigen Fahrzeuginsassen oder dem Objekt 30 bei einer Kollision des Hostfahrzeugs 10 mit dem Objekt 30 zu mindern. Das Gegenmaßnahmenmodul 60 aktiviert eine Gegenmaßnahmenvorrichtung, wenn eine Kollisionsgefahr, die vom Fusionsmodul 56 empfangen wird, eine Aktivierungsschwelle überschreitet und das Aktivierungssignal vom Plausibilitätsmodul 58 durch das Plausibilitätsmodul 58 erzeugt und durch das Gegenmaßnahmenmodul 60 empfangen wird, um dadurch die Rate fälschlicher Aktivierung der Gegenmaßnahmenvorrichtung, wie beispielsweise des Bremssystems 22, statistisch zu reduzieren und die Zuverlässigkeit des Kollisionserkennungssystems 12 zu verbessern. Schließlich erzeugt das Plausibilitätsmodul 58 ein Aktivierungssignal, wenn die gemessene TTCIMAGE kürzer als eine berechnete lenkungsbasierte Zeit bis zur Kollision (TTCSTEERING) und eine berechnete bremsungsbasierte Zeit bis zur Kollision (TTCBRAKING) ist. Optional kann das Plausibilitätsmodul 58 auch zusätzliche Plausibilitätsprüfungen durchführen, um die Zuverlässigkeit zu verbessern, wie beispielsweise ein Schätzen vor dem Erzeugen des Aktivierungssignals, ob das Objekt 30 im Weg des Hostfahrzeugs 10 ist.
  • Nunmehr unter Bezugnahme auf 3 ist ein Verfahren zur Aktivierung der autonomen Bremssteuerung 62 (2) für das Bremssystem 22 (2) des Hostfahrzeugs 10 dargestellt. Bei Schritt 92 wird das Objekt 30 im Gesichtsfeld 18 durch den Objekterkennungssensor 14 am Hostfahrzeug 10 erfasst. Der erste Datensatz des Objekts 30 wird bei Schritt 93 mit dem Objekterkennungssensor 14 gemessen und umfasst die erste Entfernung R1 und die erste Entfernungsrate Ṙ1 des Objekts 30 in Bezug auf das Hostfahrzeug 10, den ersten Winkel θ1 und die erste Winkelrate θ .1 des Objekts 30 in Bezug auf das Hostfahrzeug 10 und die relative Bewegungsbestimmung des Objekts 30. Es ist zwar vorgesehen, dass der Sensor 14, der zum Erfassen des Objekts 30 und Vornehmen dieser Messungen verwendet wird, ein Radarsystem 32 ist, wie in 2 dargestellt, aber er umfasst auch andere Sensoren, die auf dem Fachgebiet bekannt sind.
  • Das Verfahren umfasst ferner den Schritt 94 des Aufnehmens einer Mehrzahl von Bildern basierend auf Lichtwellen vom Gesichtsfeld 18 durch die Kamera 16 am Hostfahrzeug 10 in bekannten Zeitintervallen zwischen Zeitpunkten, in welchen die Bilder der Mehrzahl von Bildern aufgenommen werden. Die aufgenommenen Bilder werden bei Schritt 95 verarbeitet, der den Bildprozessor 44 verwendend veranschaulicht ist. Danach werden die verarbeiteten Bilder bei Schritt 96 zum Messen des zweiten Datensatzes des Objekts 30 verwendet, der die zweite Entfernung R2 und die zweite Entfernungsrate Ṙ2 des Objekts 30 in Bezug auf das Hostfahrzeug 10, den zweiten Winkel θ2 und die zweite Winkelrate θ .2 des Objekts 30 in Bezug auf das Hostfahrzeug 10, die Breite WLEAD des Objekts 30 und den Vertrauenswert 36 des Objekts 30 umfasst. Die aufgenommenen Bilder werden bei Schritt 97 ebenfalls verarbeitet, um die TTCIMAGE des Hostfahrzeugs 10 mit dem Objekt 30 nur auf der Basis von skalierbaren Unterschieden des Objekts 30, die aus der Mehrzahl von Bildern abgeleitet werden, unabhängig zu messen.
  • Der Fahrzeugdynamikdetektor 26 erfasst bei Schritt 98 die Kinematik des Hostfahrzeugs 10. Bei Schritt 99 wird der zusätzliche Datensatz mit den kinematischen Werten vom Fahrzeugdynamikdetektor 26 gemessen, der den Gierratensensor 46 zum Messen der Gierrate ω des Hostfahrzeugs 10 und den Geschwindigkeitssensor 48 zum Messen der Längsgeschwindigkeit VH des Hostfahrzeugs 10 umfasst. Wie bereits erwähnt, ist vorgesehen, dass das GPS 50 oder andere Sensoren zum Messen von Komponenten dieses zusätzlichen Datensatzes verwendet werden könnten.
  • Das Verfahren umfasst ferner den Schritt 100 des Fusionierens der ersten und zweiten Datensätze, um den Vergleichsdatensatz zu erhalten. Das Fusionsmodul 56 (2) bestimmt den Vergleichssatz von Zieldaten des Objekts 30 in Bezug auf das Hostfahrzeug 10 basierend auf den ersten und zweiten Sätzen von Zieldaten, die vom Sensor 14 bzw. der Kamera 16 empfangen werden. Unter Verwendung des fusionierten Satzes von Zieldaten, die auch als der Vergleichsdatensatz bezeichnet werden, schätzt das Fusionsmodul 56 einen Kollisionsgefahrwert des Hostfahrzeugs 10 mit dem Objekt 30. Der Kollisionsgefahrwert weist eine erhöhte Zuverlässigkeit aus dem Verwenden von Messungen sowohl der ersten als auch zweiten Sätze von Daten auf, da der Vergleichsdatensatz durch Vergleichen der Datensätze und Verwenden des beständigeren Wertes, Verwenden der genauesten Messungen basierend auf dem Sensor- und Kameratyp und/oder Verwenden eines Wertes zwischen den Messungen, wie beispielsweise des Mittelwerts zwischen den ersten und zweiten Sätzen, abgeleitet wird. Demgemäß ist der Vergleichssatz von Zieldaten ein verhältnismäßig optimierter Wert, der auf den ersten und zweiten Sätzen von Daten basiert. Bei Schritt 102 wird dann die Kollisionsgefahr des Hostfahrzeugs 10 mit dem Objekt 30 basierend auf dem Vergleichsdatensatz und dem bei Schritt 99 gemessenen, zusätzlichen Datensatz vom Fahrzeugdynamikdetektor geschätzt.
  • Weiter unter Bezugnahme auf 3 wird die TTCSTEERING des Hostfahrzeugs 10 mit dem Objekt 30 bei Schritt 104 als eine Funktion des zweiten Datensatzes und des zusätzlichen Datensatzes berechnet, der die Längsgeschwindigkeit VH des Hostfahrzeugs 10 und die Gierrate ω des Hostfahrzeugs 10 umfasst. Das Plausibilitätsmodul 58 (2) berechnet den TTCSTEERING-Wert, um die maximale Zeit zur Vermeidung einer Kollision des Hostfahrzeugs 10 mit dem Objekt 30 durch Lenken des Hostfahrzeugs 10 zu schätzen. Obwohl dieser Wert mit verschiedenen Funktionen abgeleitet oder geschätzt werden kann, wird die TTCSTEERING hierin basierend auf dem zweiten Satz von Zieldaten, die von der Kamera 16 empfangen werden, und einem zusätzlichen Satz von Daten berechnet, die von einem Fahrzeugdynamikdetektor 26 empfangen werden.
  • Die TTCBRAKING des Hostfahrzeugs 10 mit dem Objekt 30 wird bei Schritt 106 als eine Funktion des zusätzlichen Datensatzes, nämlich der Längsgeschwindigkeit VH des Hostfahrzeugs 10, berechnet. Das Plausibilitätsmodul 58 (2) berechnet den TTCBRAKING-Wert, um die maximale Zeit zur Vermeidung einer Kollision des Hostfahrzeugs 10 mit dem Objekt 30 durch Bremsen mit dem Bremssystem 22 (1) des Hostfahrzeugs 10 zu schätzen. Dieser Wert kann auf verschiedene Arten und Weisen, wie beispielsweise durch Verwenden von zusätzlichen Messungen des Fahrzeuggewichts, der Straßenbedingungen und der Bremsfähigkeiten, geschätzt werden. Die TTCBRAKING, wie hierin veranschaulicht und beschrieben, wird jedoch basierend auf dem zusätzlichen Satz von Daten, die von einem Fahrzeugdynamikdetektor 26 empfangen werden, und anderen Werten berechnet, die als Konstante ausgewählt werden, wie im Folgenden ausführlicher beschrieben.
  • Das Verfahren umfasst einen Bestimmungsschritt 108 des Erzeugens eines Aktivierungssignals, wenn die gemessene TTCIMAGE kürzer als die berechnete TTCSTEERING und die TTCBRAKING ist. Schritt 108 ist als eine Funktion des Plausibilitätsmoduls 58 (2) vorgesehen, was die Aktivierung einer Gegenmaßnahme nur dann ermöglicht, wenn das Signal vorhanden ist. Ein anderer Bestimmungsschritt 110 umfasst ein Vergleichen der Kollisionsgefahr mit einem Schwellenwert. Dieser Schritt ist zwar als eine Funktion der Fusionsmodulroutine 56 (2) vorgesehen, kann aber auch durch die Bremssteuerung 62 oder eine andere Steuerung im Hostfahrzeug 10 ausgeführt werden. Wie bei Schritt 112 dargestellt, wird die Gegenmaßnahme nur dann aktiviert, wenn die Kollisionsgefahr die Schwelle überschreitet und das Aktivierungssignal erzeugt wird, und andernfalls leitet die Bestimmung das System zum Start des Verfahrens. Wenn sowohl die Kollisionsgefahr die Schwelle überschreitet, als auch das Aktivierungssignal erzeugt wird, wird bei Schritt 114 schließlich die autonome Bremssteuerung aktiviert. Demgemäß funktioniert bei Aktivieren der Gegenmaßnahme, wie beispielsweise der Bremssteuerung 62, die Gegenmaßnahme so, dass sie eine Kollision des Hostfahrzeugs 10 mit dem Objekt 30 verhindert oder mindert. Wie veranschaulicht, kann zum Beispiel bei Schritt 116 die Bremssteuerung 62 das Bremssystem 22 des Hostfahrzeugs 10 aktivieren. Es ist vorgesehen, dass die Bremssteuerung 62 in das Bremssystem 22 integriert ist, wie in 2 veranschaulicht.
  • Nunmehr unter Bezugnahme auf 4, ist ein logisches Flussdiagramm des Plausibilitätsmoduls 58 dargestellt, wobei zu erkennen ist, dass die TTCSTEERING bei Schritt 118 als eine Funktion der zweiten Entfernung R2 von der Kamera 16, des zweiten Winkels θ2 von der Kamera 16, der gemessenen Objektklassifizierung 34 von der Kamera 16, der Geschwindigkeit VH vom Geschwindigkeitssensor 48 des Fahrzeugdynamikdetektors 26 und der Gierrate ω vom Gierratensensor 46 des Fahrzeugdynamikdetektors 26 berechnet wird. Zusätzlich zum Berechnen einer Ausgabe der TTCSTEERING bestimmt die TTCSTEERING-Funktion optional außerdem, ob das Objekt 30 im Weg des Hostfahrzeugs 10 ist, was als ein Wert IN_PATH 120 dargestellt ist.
  • Genauer gesagt kann TTCSTEERING als der folgende Algorithmus ausgedrückt werden:
    Figure DE102013108000A1_0002
  • Im vorstehenden Ausdruck stellt TTCSTEERING die maximale berechnete Zeit zur Vermeidung einer Kollision durch Lenken des Hostfahrzeugs 10 dar. Die TTCSTEERING-Logik ist eine vereinfachte Gleichung, die davon ausgeht, dass keine relative Seitengeschwindigkeit des Hostfahrzeugs 10 oder des Objekts 30 vorliegt. Eine komplexere Strategie könnte u. a. unter Verwendung von gemessener Seitengeschwindigkeit definiert werden. WLEAD stellt die Breite des Objekts 30 oder vorausfahrenden Fahrzeugs dar, wie beispielsweise eines Autos, Motorrads oder Fußgängers. WLEAD kann entweder eine Konstante sein oder durch die Kamera 16 oder einen anderen Sensor gemessen werden. WHOST wiederum stellt die Breite des Hostfahrzeugs 10 dar. R entspricht R2 und stellt die Entfernung vom Hostfahrzeug 10 zum Objekt 30, wie durch die Kamera 16 gemessen, dar. Die Variable ω stellt die gemessene Gierrate des Hostfahrzeugs 10 dar, welche durch den Gierratensensor 46, das GPS 50, die Kamera 16 oder einen Trägheitssensor gemessen werden kann. V entspricht VH und stellt die gemessene Längsgeschwindigkeit des Hostfahrzeugs 10 dar, welche durch den Geschwindigkeitssensor 48, das GPS 50, Raddrehzahlsensoren, die Kamera 16 oder einen Trägheitssensor gemessen werden kann. θ entspricht θ2 und stellt den relativen Winkel des Hostfahrzeugs 10 auf das Objekt 30, wie durch die Kamera 16 gemessen, dar. ALAT_DRIVER_MAX stellt die maximal erreichbare Seitenbeschleunigung des Hostfahrzeugs 10 durch Lenken dar. ALAT_DRIVER_MAX kann als eine Konstante geschätzt oder als eine Funktion von anderen Informationen, wie beispielsweise Straßenreibung, Geschwindigkeit, Fahrzeugmasse, Bremssystemfähigkeiten, Fahrerpräferenzen oder Fahrerfähigkeiten, abgleitet werden. KLAT_MAX stellt einfach einen Skalierungsfaktor dar, welcher typischerweise kleiner als (1,0) ist und kalibriert werden kann, um wünschenswerte Berechnungen zu erhalten.
  • Wie in 5 veranschaulicht, ist die zum Berechnen der TTCSTEERING verwendete Funktion als ein logisches Flussdiagramm dargestellt, das die Schritte der Funktion einzeln aufführt. Das Diagramm verwendet die gleichen Variablen, die zuvor zum Ausdrücken der Berechnungsschritte beschrieben wurden. Wie dargestellt, wird die gemessene Objektklassifizierung 34 von der Kamera 16 mit dem Feld VALID_OBJECT verglichen, um zu gewährleisten, dass die Klassifizierung gültig ist, und den entsprechenden WLEAD-Wert zu bestimmen. Es ist außerdem vorgesehen, dass der WLEAD-Wert gemessen werden kann. Bei Schalter 136 wird, wenn bestimmt wird, dass die Objektklassifizierung gültig ist, die Hälfte der WLEAD des Objekts ausgegeben, die als HALF_WLEAD dargestellt ist. Diese Ausgabe wird bei Schritt 138 mit der Hälfte der Breite WHOST des Hostfahrzeugs summiert, derart dass ein Fahrer des Hostfahrzeugs 10 das Hostfahrzeug 10 seitlich höchstens um eine Distanz bewegen müsste, die den kombinierten Hälften von WLEAD und WHOST entspricht, um eine Kollision zu vermeiden, vorausgesetzt, dass sich das Hostfahrzeug 10 auf jede Seite des Objekts 30 frei bewegen kann. Diese Ausgabe wird dann bei Schritt 140 um den absoluten Wert der Ausgabe des als 142 bezeichneten Schritts reduziert, der zusätzlich zu anderen Schritten, die zu 142 führen, einen Vergleich von VH oder (SPEED) mit MIN_SPEED, einer Schwellengeschwindigkeit, die das Hostfahrzeug überschreiten muss, bevor der TTCSTEERING-Ausgabewert einigermaßen genau ist, bereitstellt. Im Allgemeinen stellen die restlichen Schritte in 5 die mathematischen Schritte bereit, um TTCSTEERING zu berechnen, wie zuvor beim Algorithmus beschrieben.
  • Zurück zu 4 ist TTCBRAKING so dargestellt, dass sie bei Schritt 122 als eine Funktion der Geschwindigkeit oder Längsgeschwindigkeit berechnet wird, welche im Allgemeinen gleich der Messung der Geschwindigkeit VH vom Geschwindigkeitssensor 48 des Fahrzeugdynamikdetektors 26 ist. 6 veranschaulicht ein logisches Flussdiagramm, das die Schritte der zur Berechnung von TTCBRAKING verwendeten Funktion einzeln aufführt. Im Wesentlichen wird die Geschwindigkeit VH durch zweimal einen geschätzten Wert der maximalen Längsbeschleunigung ALONG_DRIVER_MAX geteilt, um die TTCBRAKING zu berechnen. Die maximale Längsbeschleunigung ALONG_DRIVER_MAX oder Verlangsamung, die als ein konstanter Wert dargestellt ist, wird für das Hostfahrzeug 10 basierend auf Typ, Gewicht und Bremskonfiguration des Hostfahrzeugs 10 ausgewählt. Es ist denkbar, dass die maximale Längsbeschleunigung ALONG_DRIVER_MAX ein Wert sein könnte, der u. a. von der Messung von Straßenreibung, Fahrzeugmasse, Bremssystembedingungen und -fähigkeiten, Fahrerpräferenzen und/oder Fahrerfähigkeiten abgeleitet ist.
  • Genauer gesagt kann TTCBRAKING als der folgende Algorithmus ausgedrückt werden:
    Figure DE102013108000A1_0003
  • Im vorstehenden Ausdruck stellt TTCBRAKING die maximale berechnete Zeit zur Vermeidung einer Kollision durch Bremsen des Hostfahrzeugs 10 dar. Wiederum könnte eine komplexere Strategie u. a. unter Verwendung von gemessener Seitengeschwindigkeit definiert werden. V entspricht VH und stellt die gemessene Längsgeschwindigkeit des Hostfahrzeugs 10 dar. ALONG_DRIVER_MAX stellt die maximal erreichbare Längsbeschleunigung des Hostfahrzeugs 10 durch Bremsen dar, welche hier als eine Konstante ausgewählt ist, obwohl es denkbar ist, dass sie als eine Funktion eines anderen Sensors oder von ausgewählten Informationen, wie beispielsweise Straßenreibung, Geschwindigkeit, Fahrzeugmasse, Bremssystemfähigkeiten, Fahrerpräferenzen und/oder Fahrerfähigkeiten abgeleitet sein könnte. Der Einfachheit halber ist ALONG_DRIVER_MAX hierin als konstante Verlangsamungsrate des Hostfahrzeugs ausgewählt. KLONG_MAX stellt einfach einen Skalierungsfaktor dar, welcher typischerweise kleiner als (1,0) ist und kalibriert werden kann, um wünschenswerte Berechnungen zu erhalten.
  • Unter neuerlicher Bezugnahme auf 4 werden die bei Schritt 118 und 122 generierten Werte von TTCSTEERING bzw. TTCBRAKING bei Schritt 124, der als MIN bezeichnet ist, verglichen, um den kleineren der beiden Werte auszugeben. Die Ausgabe von Schritt 124 wird mit einer Konstanten KUNCERTAINTY summiert, um einen Wert bereitzustellen, der bei Schritt 126 mit der gemessenen TTCIMAGE verglichen werden soll. Wenn der Wert bei Schritt 126 größer als die oder gleich der gemessenen TTCIMAGE ist, beginnt das Plausibilitätsmodul mit der Erzeugung des Aktivierungssignals. Abgesehen von KUNCERTAINTY, einem konstanten Wert, der zum Kalibrieren des Plausibilitätsmoduls 58 verwendet wird, beginnt das Plausibilitätsmodul 58 auch mit der Erzeugung des Aktivierungssignals, wenn bestimmt wird, dass die gemessene TTCIMAGE kürzer als die berechnete TTCSTEERING und die TTCBRAKING ist. Wie in 4 dargestellt, können bei Schritt 128 zusätzliche Plausibilitätsprüfungen durchgeführt werden, bevor das Plausibilitätsmodul das Aktivierungssignal erzeugt. Eine Plausibilitätsprüfung stellt sicher, dass der IN_PATH-Wert 120, der durch die TTCSTEERING-Funktion geschätzt wird, anzeigt, dass das Objekt 30 im Fahrweg des Hostfahrzeugs 10 ist.
  • Konkret kann die IN_PATH-Wert-Funktion oder Pseudocodelogikbestimmung ausgedrückt werden, wie folgt:
    Figure DE102013108000A1_0004
  • Im vorstehenden Ausdruck stellen die eingegebenen Variablen die gleichen Werte dar, wie im TTCSTEERING-Ausdruck gemessen oder berechnet. Demgemäß ist es denkbar, dass eine komplexere Strategie u. a. unter Verwendung von gemessener Seitengeschwindigkeit definiert werden könnte.
  • Weiter unter Bezugnahme auf 4 kann das Plausibilitätsmodul 58 bei Schritt 130 außerdem eine Plausibilitätsprüfung durchführen, dass der durch die Kamera 16 gemessene Vertrauenswert 36 des Objekts 30 eine Vertrauensschwelle 80 überschreitet. Der Vertrauenswert 36 ist im Wesentlichen eine Messung dessen, ob die einzelnen Teile des Objekts 30 sich beständig zusammen bewegen, zum Beispiel die seitlichen Rückspiegel 38 des Objekts 30 sich in einer im Wesentlichen identischen Entfernung wie die hintere Stoßstange 40 des Objekts 30 bewegen. Schritt 128 ermöglicht die Erzeugung des Aktivierungssignals nur dann, wenn alle Plausibilitätsprüfungen bestanden werden und bestimmt wird, dass die TTCIMAGE kürzer als die berechnete TTCSTEERING und die TTCBRAKING ist. Daher kann die Gegenmaßnahme 60 (2) zusätzlich auf der Basis dessen aktiviert werden, ob das Objekt 30 im Fahrweg des Fahrzeugs 10 ist und ob der Vertrauenswert 36 des Objekts die Vertrauensschwelle 80 überschreitet.
  • Wenn alle Plausibilitätsprüfungen bestanden wurden, kann das Plausibilitätsmodul 58 bei Schritt 132 optional eine Zeitverzögerung zum Fortsetzen der Erzeugung des Aktivierungssignals für eine festgelegte konstante Zeitdauer KOFF_TIME_DELAY, wie beispielsweise 0,5 Sekunden, nach der Erzeugung des Aktivierungssignals für eine weitere konstante Zeitdauer KON_TIME_DELAY, wie beispielsweise 0,5 Sekunden, einbeziehen, um sicherzustellen, dass die Gegenmaßnahme aufgrund von Bedingungen, die durch die Gegenmaßnahme geschaffen werden, oder eines momentanen Ausfalls einer der Plausibilitätsprüfungen das Aktivierungssignal nicht verliert. Die Verzögerung bei Schritt 132 kann in Pseudocodelogik ausgedrückt werden, wie folgt:
    WENN
    das Aktivierungssignal von Schritt 128 kontinuierlich WAHR ist für die vergangenen KON_TIME_DELAY Sekunden,
    DANN
    bleibt das Aktivierungssignal WAHR für KOFF_TIME_DELAY Sekunden nach dem Übergang der zuvor erwähnten Bedingungen auf FALSCH.
  • Wie bei Schritt 134 dargestellt, kann die Zeitverzögerung bei Schritt 132 alternativ zur Erzeugung des Aktivierungssignals verwendet werden, wenn es nicht direkt von Schritt 128 empfangen wird. Es ist außerdem vorgesehen, dass weitere Zeitverzögerungen an verschiedenen anderen Stellen im Plausibilitätsmodul eingeführt werden können, wie beispielsweise in Übereinstimmung mit den Plausibilitätsprüfungen 120 und 130.
  • In einem vereinfachten Ausdruck des Plausibilitätsmoduls 59 wird unter Verwendung der optionalen IN_PATH-Wert-Prüfung das Aktivierungssignal freigegeben oder erzeugt, wenn eine Variable CMbB_PLAUSIBLE wahr ist. Diese Funktion oder Pseudocodelogikbestimmung, wie auch in 4 teilweise veranschaulicht, kann ausgedrückt werden, wie folgt:
    WENN
    ((min(TTCSTEERING, TTCBRAKING) + KUNCERTAINTY) > TTCMEASURED) UND
    (IN_PATH = WAHR)
    DANN
    CMbB_PLAUSIBLE = WAHR → Gegenmaßnahmenaktivierungssignal wird freigegeben
    SONST
    CMbB_PLAUSIBLE = FALSCH → Gegenmaßnahmenaktivierungssignal wird blockiert
  • Im vorstehenden Ausdruck bzw. der vorstehenden logischen Bestimmung entspricht die TTCMEASURED der TTCIMAGE und stellt die Zeit bis zur Kollision zwischen dem Hostfahrzeug 10 und dem Objekt 30, wie durch die Kamera 16 gemessen, dar. Außerdem stellt KUNCERTAINTY wiederum einfach eine Konstante dar, die kalibriert werden kann, um wünschenswerte Ergebnisse zu erhalten.
  • Unter neuerlicher Bezugnahme auf 2 und 3 aktiviert das Gegenmaßnahmenmodul 60 eine Gegenmaßnahmenvorrichtung, wenn die vom Fusionsmodul 56 empfangene Kollisionsgefahr eine Aktivierungsschwelle überschreitet und das Aktivierungssignal vom Plausibilitätsmodul 58 durch das Plausibilitätsmodul 58 erzeugt und durch das Gegenmaßnahmenmodul 60 empfangen wird. Nach diesem Ereignis wird die autonome Bremssteuerung 62 für das Bremssystem 22 des Hostfahrzeugs 10 aktiviert. Das durch das Plausibilitätsmodul 58 erzeugte Aktivierungssignal reduziert statistisch die Rate fälschlicher Aktivierung der Gegenmaßnahmenvorrichtung, insbesondere der autonomen Bremssteuerung 62, und verbessert die Zuverlässigkeit des gesamten Kollisionserkennungssystems 12. Demgemäß reduziert die verbesserte Zuverlässigkeit den Aufwand und das Ausmaß der Validierung, die zum Implementieren eines autonomen Bremssystems erforderlich ist.
  • Für Durchschnittsfachleute ist zu erkennen, dass der Aufbau der beschriebenen Erfindung und anderer Komponenten nicht auf irgendein spezifisches Material beschränkt ist. Andere beispielhafte Ausführungsformen der hierin offenbarten Erfindung können aus einer großen Vielfalt von Materialien gebildet werden, sofern hierin nicht anders angegeben.
  • Zum Zwecke dieser Offenbarung bezieht sich der Begriff „gekoppelt” (in allen seinen Formen, koppeln, koppelnd, gekoppelt usw.) im Allgemeinen auf die direkte oder indirekte Verbindung von zwei (elektrischen oder mechanischen) Komponenten miteinander. Solch eine Verbindung kann von unbeweglicher Beschaffenheit oder beweglicher Beschaffenheit sein. Solch eine Verbindung kann mit den zwei (elektrischen oder mechanischen) Komponenten und beliebigen zusätzlichen Zwischenelementen erreicht werden, die als ein einzelner Einheitskörper einstückig miteinander oder mit den beiden Komponenten ausgebildet sind. Solch eine Verbindung kann von dauerhafter Beschaffenheit oder von entfernbarer oder lösbarer Beschaffenheit sein, sofern nicht anders angegeben.
  • Es ist außerdem wichtig zu erwähnen, dass der Aufbau und die Anordnung der Elemente der Erfindung, wie in den beispielhaften Ausführungsformen dargestellt, lediglich veranschaulichend sind. Obwohl in dieser Offenbarung nur einige Ausführungsformen der vorliegenden Neuerungen ausführlich beschrieben wurden, ist für Fachleute, die diese Offenbarung prüfen, leicht zu erkennen, dass viele Modifikationen (z. B. Änderungen von Größen, Abmessungen, Strukturen, Formen und Proportionen der verschiedenen Elemente, Parameterwerten, Befestigungsanordnungen, Verwendung von Materialien, Farben, Ausrichtungen usw.) möglich sind, ohne wesentlich von den neuartigen Lehren und Vorteilen des beschriebenen Gegenstands abzuweichen. Zum Beispiel können Elemente, die als einstückig ausgebildet dargestellt sind, aus mehreren Teilen gebaut werden, oder Elemente, die als mehrere Teile dargestellt sind, können einstückig ausgebildet werden, der Betrieb der Schnittstellen kann umgekehrt oder anderweitig geändert werden, die Länge oder Breite der Strukturen und/oder Elemente oder Verbinder oder anderer Elemente des Systems können geändert werden, die Beschaffenheit oder Anzahl von Einstellungspositionen, die zwischen den Elementen vorgesehen sind, kann geändert werden. Es ist zu erwähnen, dass die Elemente und/oder Baugruppen des Systems aus beliebigen einer großen Vielfalt von Materialien, die ausreichende Festigkeit und Haltbarkeit bereitstellen, in einer großen Vielfalt von Farben, Texturen und Kombinationen gebaut werden können. Demgemäß ist beabsichtigt, dass solche Modifikationen in den Rahmen der vorliegenden Neuerungen fallen. Andere Ersetzungen, Modifikationen, Änderungen und Weglassungen können an Konstruktion, Betriebsbedingungen und Anordnung der gewünschten und anderer beispielhafter Ausführungsformen vorgenommen werden, ohne vom Gedanken der vorliegenden Neuerungen abzuweichen.
  • Es versteht sich von selbst, dass alle beschriebenen Prozesse oder Schritte innerhalb beschriebener Prozesse mit anderen offenbarten Prozessen oder Schritten kombiniert werden können, um Strukturen innerhalb des Schutzumfangs der vorliegenden Erfindung zu bilden. Die beispielhaften Strukturen und Prozesse, die hierin offenbart werden, dienen lediglich Veranschaulichungszwecken und sind nicht als einschränkend auszulegen.
  • Es versteht sich außerdem von selbst, dass Änderungen und Modifikationen an der zuvor erwähnten Struktur vorgenommen werden können, ohne von den Konzepten der vorliegenden Erfindung abzuweichen, und es versteht sich ferner von selbst, dass beabsichtigt ist, dass solche Konzepte durch die folgenden Ansprüche erfasst werden, sofern diese Ansprüche durch ihren Wortlaut nichts anderes angeben.
  • Zeichenerklärung
  • Fig. 5
    • (RANGE)
      – (ENTFERNUNG)
      (SPEED)
      – (GESCHWINDIGKEIT)
      OUT
      – AUS

Claims (10)

  1. Kollisionserkennungssystem für ein Hostfahrzeug, umfassend: einen Sensor zum Erkennen eines Objekts in einem Gesichtsfeld und Messen eines ersten Satzes von Zieldaten basierend auf einer Position des Objekts in Bezug auf das Hostfahrzeug; eine Kamera zum Aufnehmen einer Mehrzahl von Bildern vom Gesichtsfeld und Verarbeiten der Mehrzahl von Bildern, um einen zweiten Satz von Zieldaten basierend auf der Position des Objekts in Bezug auf das Hostfahrzeug zu messen und eine bildbasierte Zeit bis zur Kollision (TTCIMAGE) des Hostfahrzeugs mit dem Objekt basierend auf skalierbaren Unterschieden der Mehrzahl von Bildern zu messen; ein Fusionsmodul zum Bestimmen eines Vergleichssatzes von Zieldaten basierend auf den ersten und zweiten Sätzen von Zieldaten, die vom Sensor und der Kamera empfangen werden, wobei das Fusionsmodul eine Kollisionsgefahr des Hostfahrzeugs mit dem Objekt basierend auf dem Vergleichssatz von Zieldaten schätzt; ein Plausibilitätsmodul zum Berechnen einer lenkungsbasierten Zeit bis zur Kollision (TTCSTEERING) und einer bremsungsbasierten Zeit bis zur Kollision (TTCBRAKING) des Hostfahrzeugs mit dem Objekt basierend auf dem zweiten Satz von Zieldaten, die von der Kamera empfangen werden, und einem zusätzlichen Satz von Daten, die von einem Fahrzeugdynamikdetektor empfangen werden, wobei das Plausibilitätsmodul ein Aktivierungssignal erzeugt, wenn die TTCIMAGE kürzer als die TTCSTEERING und die TTCBRAKING ist; ein Gegenmaßnahmenmodul zum Aktivieren einer Gegenmaßnahmenvorrichtung, wenn die vom Fusionsmodul empfangene Kollisionsgefahr eine Aktivierungsschwelle überschreitet und das Aktivierungssignal vom Plausibilitätsmodul erzeugt und empfangen wird.
  2. Kollisionserkennungssystem nach Anspruch 1, wobei der erste Satz von Zieldaten, die durch den Sensor gemessen werden, eine erste Entfernung und eine erste Entfernungsrate des Objekts in Bezug auf das Hostfahrzeug, einen ersten Winkel und eine erste Winkelrate des Objekts in Bezug auf das Hostfahrzeug und eine relative Bewegungsbestimmung des Objekts umfasst, und wobei der Sensor ein Radarsystem umfasst.
  3. Kollisionserkennungssystem nach Anspruch 1, wobei die Kamera ein Bildgerät zum Aufnehmen der Mehrzahl von Bildern vom Gesichtsfeld basierend auf Lichtwellen umfasst, die vom Gesichtsfeld in bekannten Zeitintervallen zwischen Zeiten empfangen werden, in welchen Bilder der Mehrzahl von Bildern aufgenommen werden.
  4. Kollisionserkennungssystem nach Anspruch 1, wobei der zweite Satz von Zieldaten, die durch die Kamera gemessen werden, eine zweite Entfernung und eine zweite Entfernungsrate des Objekts in Bezug auf das Hostfahrzeug, einen zweiten Winkel und eine zweite Winkelrate des Objekts in Bezug auf das Hostfahrzeug, eine Breitenmessung des Objekts und eine Objektklassifizierung des Objekts umfasst.
  5. Kollisionserkennungssystem nach Anspruch 4, wobei der Fahrzeugdynamikdetektor einen Gierratensensor und einen Geschwindigkeitssensor am Hostfahrzeug umfasst, und wobei der zusätzliche Satz von Daten, die vom Fahrzeugdynamikdetektor empfangen werden, eine durch den Gierratensensor gemessene Gierrate des Hostfahrzeugs und eine durch den Geschwindigkeitssensor gemessene Geschwindigkeit des Hostfahrzeugs umfasst.
  6. Kollisionserkennungssystem für ein Fahrzeug, umfassend: einen Sensor; eine Kamera; ein Fusionsmodul zum Schätzen einer Kollisionsgefahr mit einem Objekt unter Verwendung von Daten des Objekts in Bezug auf das Fahrzeug vom Sensor und der Kamera; ein Plausibilitätsmodul zum Erzeugen eines Signals, wenn eine gemessene bildbasierte Zeit bis zur Kollision kürzer als eine berechnete lenkungsbasierte Zeit bis zur Kollision und eine berechnete bremsungsbasierte Zeit bis zur Kollision ist; und eine Gegenmaßnahme, die basierend auf der Kollisionsgefahr und dem Signal aktiviert wird.
  7. Kollisionserkennungssystem nach Anspruch 6, wobei die gemessene bildbasierte Zeit bis zur Kollision mit dem Objekt auf skalierbaren Unterschieden von Bildern basiert, die durch die Kamera aufgenommen werden.
  8. Kollisionserkennungssystem nach Anspruch 6, wobei die Kamera ein Bildgerät zum Aufnehmen einer Mehrzahl von Bildern von Lichtwellen umfasst, die von einem Gesichtsfeld in bekannten Zeitintervallen zwischen Zeiten empfangen werden, in welchen Bildern der Mehrzahl von Bildern aufgenommen werden, und wobei die Kamera einen Bildprozessor zum Verarbeiten der Mehrzahl von Bildern zum Messen der Daten und der bildbasierten Zeit bis zur Kollision umfasst.
  9. Kollisionserkennungssystem nach Anspruch 6, wobei die durch das Fusionsmodul verwendeten Daten Folgendes umfassen: einen ersten Datensatz, der durch den Sensor gemessen wird und eine erste Entfernung und eine erste Entfernungsrate des Objekts in Bezug auf das Fahrzeug, einen ersten Winkel und eine erste Winkelrate des Objekts in Bezug auf das Fahrzeug und eine relative Bewegungsbestimmung des Objekts aufweist; und einen zweiten Datensatz, der durch die Kamera gemessen wird und eine zweite Entfernung und eine zweite Entfernungsrate des Objekts in Bezug auf das Hostfahrzeug, einen zweiten Winkel und eine zweite Winkelrate des Objekts in Bezug auf das Hostfahrzeug, eine Breitenmessung des Objekts, eine Klassifizierung des Objekts und einen Vertrauenswert des Objekts aufweist.
  10. Kollisionserkennungssystem nach Anspruch 9, wobei die lenkungsbasierte Zeit bis zur Kollision als eine Funktion der zweiten Entfernung und der zweiten Entfernungsrate, des zweiten Winkels und der zweiten Winkelrate, der Klassifizierung des Objekts, einer gemessenen Gierrate des Fahrzeugs und einer gemessenen Geschwindigkeit des Fahrzeugs berechnet wird.
DE102013108000.6A 2012-07-30 2013-07-26 Kollisionserkennungssystem mit Plausibilitätsmodul Pending DE102013108000A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201261677274P 2012-07-30 2012-07-30
US61/677,274 2012-07-30
US13/598,166 2012-08-29
US13/598,166 US9187091B2 (en) 2012-07-30 2012-08-29 Collision detection system with a plausibiity module

Publications (1)

Publication Number Publication Date
DE102013108000A1 true DE102013108000A1 (de) 2014-01-30

Family

ID=49118917

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013108000.6A Pending DE102013108000A1 (de) 2012-07-30 2013-07-26 Kollisionserkennungssystem mit Plausibilitätsmodul

Country Status (2)

Country Link
DE (1) DE102013108000A1 (de)
GB (1) GB2506479A (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9499141B1 (en) 2015-09-29 2016-11-22 Faraday & Future Inc. Sensor-triggering of friction and regenerative braking
WO2017102150A1 (de) * 2015-12-18 2017-06-22 Robert Bosch Gmbh Verfahren zum bewerten einer durch zumindest einen sensor eines fahrzeugs erfassten gefahrensituation, verfahren zum steuern einer wiedergabe einer gefahrenwarnung und verfahren zum wiedergeben einer gefahrenwarnung
DE102016001308A1 (de) 2016-02-05 2017-08-10 Audi Ag Verfahren zum Betreiben eines Fahrzeugs sowie Fahrzeug zum Durchführen des Verfahrens
DE102020132302A1 (de) * 2019-12-27 2021-07-01 Motional Ad Llc Sicherheitssystem für ein fahrzeug
CN113335311A (zh) * 2021-07-22 2021-09-03 中国第一汽车股份有限公司 一种车辆碰撞检测方法、装置、车辆及存储介质
WO2021244813A1 (de) * 2020-06-05 2021-12-09 Zf Friedrichshafen Ag Bremssystem für ein fahrzeug und fahrzeug mit einem solchen bremssystem
DE102020132431A1 (de) 2020-12-07 2022-06-09 Valeo Schalter Und Sensoren Gmbh Bestimmung eines Unaufmerksamkeitszustandes eines Fahrers eines Zielfahrzeugs in einer Umgebung eines Ego-Fahrzeugs

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015214748B4 (de) 2015-08-03 2023-07-20 Bayerische Motoren Werke Aktiengesellschaft Bremsassistent zur Steuerung einer automatischen Verzögerung eines Kraftfahrzeugs
DE102018211240A1 (de) * 2018-07-07 2020-01-09 Robert Bosch Gmbh Verfahren zum Klassifizieren einer Relevanz eines Objekts
CN110723142B (zh) * 2019-09-20 2020-12-18 江苏大学 一种智能汽车紧急避撞控制方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4211809B2 (ja) * 2006-06-30 2009-01-21 トヨタ自動車株式会社 物体検出装置
EP1898232B1 (de) * 2006-09-08 2010-09-01 Ford Global Technologies, LLC Verfahren und System zur Kollisionsvermeidung

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9499141B1 (en) 2015-09-29 2016-11-22 Faraday & Future Inc. Sensor-triggering of friction and regenerative braking
WO2017058273A1 (en) * 2015-09-29 2017-04-06 Faraday&Future Inc. Sensor-triggering of friction and regenerative braking
US10189452B2 (en) 2015-09-29 2019-01-29 Faraday & Future Inc. Sensor-triggering of friction and regenerative braking
WO2017102150A1 (de) * 2015-12-18 2017-06-22 Robert Bosch Gmbh Verfahren zum bewerten einer durch zumindest einen sensor eines fahrzeugs erfassten gefahrensituation, verfahren zum steuern einer wiedergabe einer gefahrenwarnung und verfahren zum wiedergeben einer gefahrenwarnung
US10438492B2 (en) 2015-12-18 2019-10-08 Robert Bosch Gmbh Method for evaluating a hazardous situation which is sensed by at least one sensor of a vehicle, method for controlling reproduction of a hazard warning and method for reproducing a hazard warning
DE102016001308A1 (de) 2016-02-05 2017-08-10 Audi Ag Verfahren zum Betreiben eines Fahrzeugs sowie Fahrzeug zum Durchführen des Verfahrens
DE102020132302A1 (de) * 2019-12-27 2021-07-01 Motional Ad Llc Sicherheitssystem für ein fahrzeug
WO2021244813A1 (de) * 2020-06-05 2021-12-09 Zf Friedrichshafen Ag Bremssystem für ein fahrzeug und fahrzeug mit einem solchen bremssystem
US12109992B2 (en) 2020-06-05 2024-10-08 Zf Friedrichshafen Ag Braking system for a vehicle and vehicle with a braking system of this kind
DE102020132431A1 (de) 2020-12-07 2022-06-09 Valeo Schalter Und Sensoren Gmbh Bestimmung eines Unaufmerksamkeitszustandes eines Fahrers eines Zielfahrzeugs in einer Umgebung eines Ego-Fahrzeugs
CN113335311A (zh) * 2021-07-22 2021-09-03 中国第一汽车股份有限公司 一种车辆碰撞检测方法、装置、车辆及存储介质

Also Published As

Publication number Publication date
GB201312853D0 (en) 2013-09-04
GB2506479A (en) 2014-04-02

Similar Documents

Publication Publication Date Title
DE102013108000A1 (de) Kollisionserkennungssystem mit Plausibilitätsmodul
EP2097770B1 (de) Vertikale ausrichtung eines lidar-sensors
DE102016106299B4 (de) Raderfassung und ihre Applikation bei Objektverfolgung und Sensorregistrierung
DE102017125454B4 (de) Frontalaufprall-Abschwächungssystem für ein Fahrzeug und Verfahren
EP2242674B1 (de) Verfahren und assistenzsystem zum erfassen von objekten im umfeld eines fahrzeugs
DE112016002750B4 (de) Fahrzeugsteuerungsvorrichtung und fahrzeugsteuerungsverfahren
DE102012216386A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs
DE102016109592A1 (de) Kollisionsabschwächung und -vermeidung
DE112016001512T5 (de) Fahrzeugsteuerungsvorrichtung in einem fahrzeugsteuerungsverfahren
DE102016106298A1 (de) Fusionsverfahren für eine Querverkehr-Applikation unter Verwenden von Radargeräten und einer Kamera
DE112018006009T5 (de) Bremsunterstützungsvorrichtung, steuerungsvorrichtung und bremsunterstützungsverfahren für ein fahrzeug
DE102009004626B4 (de) Vorrichtung zur Überwachung der Umgebung eines Fahrzeugs
EP2333578B1 (de) Verfahren und Steuergerät zur Bestimmung einer Bewegungsrichtung eines sich auf ein Fahrzeug zu bewegenden Objektes
DE10336638A1 (de) Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld
DE102015223176A1 (de) Verfahren und Vorrichtung zur Ermittlung von Verdeckungsbereichen in der Fahrzeugumgebung eines Fahrzeuges
DE102016119160A1 (de) Fahrzeug-Kollisionssystem und Verfahren zu dessen Verwendung
DE102011055795A1 (de) Verfahren zur Ermittlung eines drohenden Überschlags eines Fahrzeugs
DE102005042989B3 (de) Verfahren zur Erkennung eines bevorstehenden Unfalls aufgrund eines Schleudervorgangs bei einem vorausfahrenden Fahrzeug
DE102017209427B3 (de) Vorrichtung zur Fahrschlauchabsicherung
DE102015121353A1 (de) Verfahren zum Erkennen einer möglichen Kollision zwischen einem Kraftfahrzeug und einem Objekt unter Berücksichtigung einer räumlichen Unsicherheit, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102017104412A1 (de) Fahrzeugkollisionssystem und verfahren zu dessen verwendung
EP3078015B1 (de) Verfahren und vorrichtung zum erzeugen einer warnung mittels zweier durch kameras erfasster bilder einer fahrzeugumgebung
DE112016001570T5 (de) Fahrzeugsteuerungsvorrichtung in einem fahrzeugsteuerungsverfahren
DE102015207206A1 (de) Objekterfassungsgerät
WO2015090691A1 (de) Verfahren zum erzeugen eines umgebungsmodells eines kraftfahrzeugs, fahrerassistenzsystem und kraftfahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication