-
QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
-
Diese Anmeldung beansprucht Priorität gemäß 35 U.S.C. § 119(e) und den Nutzen gegenüber der vorläufigen US-Patentanmeldung Nr. 61/677,274 mit dem Titel „COLLISION DETECTION SYSTEM WITH A PLAUSIBILITY MODULE”, die am 30. Juli 2012 eingereicht wurde und deren gesamte Offenbarung durch Bezugnahme hierin aufgenommen wird.
-
GEBIET DER ERFINDUNG
-
Die vorliegende Erfindung betrifft im Allgemeinen ein Kollisionserkennungssystem für ein Fahrzeug, das eine Gegenmaßnahmenvorrichtung aktiviert, um eine Kollision mit einem Objekt zu mindern oder zu vermeiden. Insbesondere betrifft die Erfindung ein Kollisionserkennungssystem mit mindestens einer Kamera zum Messen von Daten eines Objekts in Bezug auf ein Hostfahrzeug und Aktivieren eines autonomen Bremssystems des Fahrzeugs basierend auf den Messdaten und Kollisionsschätzungen.
-
HINTERGRUND DER ERFINDUNG
-
Kraftfahrzeuge werden zunehmend mit Kollisionserkennungssystemen ausgestattet, um Objekte, einschließlich Fußgänger und anderer Fahrzeuge, auf dem Fahrweg eines Hostfahrzeugs zu identifizieren. Zum Mindern oder Vermeiden von Kollisionen werden diese Systeme in Verbindung mit Gegenmaßnahmenvorrichtungen, wie beispielsweise autonomer Bremsung, adaptiver Abstandsregelung, Notlenkungshilfe und Warnsystemen, verwendet. Zum Beispiel ist Kollisionsminderung durch Bremsen (CMbB – collision mitigation by braking) zum Durchführen autonomer Bremsung bis zu Antiblockiersystem-Vollbremsstufen imstande, welche validiert werden müssen, um eine außergewöhnlich niedrige Rate fälschlicher Bremsaktivierung zu gewährleisten. Eine erhöhte Zuverlässigkeit der Kollisionserkennung ohne längeren und teuren Validierungsprozess ist wünschenswert.
-
KURZDARSTELLUNG DER ERFINDUNG
-
Gemäß einem Aspekt der vorliegenden Erfindung umfasst ein Kollisionserkennungssystem für ein Hostfahrzeug einen Sensor zum Erkennen eines Objekts in einem Gesichtsfeld und Messen eines ersten Satzes von Zieldaten des Objekts in Bezug auf das Hostfahrzeug. Das System umfasst außerdem eine Kamera zum Aufnehmen einer Mehrzahl von Bildern vom Gesichtsfeld und Verarbeiten der Mehrzahl von Bildern, um einen zweiten Satz von Zieldaten des Objekts in Bezug auf das Hostfahrzeug zu messen und eine bildbasierte Zeit bis zur Kollision (TTCIMAGE) (TTC – time-to-collision) des Hostfahrzeugs mit dem Objekt basierend auf skalierbaren Unterschieden der Mehrzahl von Bildern zu messen. Ein Fusionsmodul bestimmt einen Vergleichssatz von Zieldaten des Objekts in Bezug auf das Hostfahrzeug basierend auf den ersten und zweiten Sätzen von Zieldaten, die vom Sensor bzw. der Kamera empfangen werden. Das Fusionsmodul schätzt eine Gefahr einer Kollision des Fahrzeugs mit dem Objekt basierend auf dem Vergleichssatz von Zieldaten. Ein Plausibilitätsmodul berechnet eine lenkungsbasierte Zeit bis zur Kollision (TTCSTEERING) und eine bremsungsbasierte Zeit bis zur Kollision (TTCBRAKING) des Hostfahrzeugs mit dem Objekt basierend auf dem zweiten Satz von Zieldaten, die von der Kamera empfangen werden, und einem zusätzlichen Satz von Daten, die von einem Fahrzeugdynamikdetektor empfangen werden. Das Plausibilitätsmodul erzeugt ein Aktivierungssignal, wenn die gemessene TTCIMAGE kürzer als die berechnete TTCSTEERING und die TTCBRAKING ist. Ein Gegenmaßnahmenmodul aktiviert eine Gegenmaßnahmenvorrichtung, wenn die vom Fusionsmodul empfangene Kollisionsgefahr eine Aktivierungsschwelle überschreitet und das Aktivierungssignal vom Plausibilitätsmodul erzeugt und empfangen wird, um dadurch die Rate fälschlicher Aktivierung der Gegenmaßnahmenvorrichtung statistisch zu reduzieren.
-
Gemäß einem anderen Aspekt der vorliegenden Erfindung umfasst ein Kollisionserkennungssystem für ein Fahrzeug einen Sensor und eine Kamera. Der Sensor misst Daten eines Objekts in Bezug auf das Fahrzeug. Die Kamera misst ebenfalls Daten des Objekts in Bezug auf das Fahrzeug und misst eine bildbasierte Zeit bis zur Kollision (TTCIMAGE) mit dem Objekt basierend auf skalierbaren Unterschieden von aufgenommenen Bildern. Ein Fusionsmodul vergleicht Daten vom Sensor und der Kamera und schätzt eine Kollisionsgefahr basierend auf den verglichenen Daten. Ein Plausibilitätsmodul erzeugt ein Signal, wenn die gemessene TTCIMAGE kürzer als eine berechnete lenkungsbasierte Zeit bis zur Kollision (TTCSTEERING) und eine bremsungsbasierte Zeit bis zur Kollision (TTCBRAKING) mit dem Objekt ist. Ein Gegenmaßnahmenmodul aktiviert eine Gegenmaßnahmenvorrichtung, wenn die Kollisionsgefahr eine Aktivierungsschwelle überschreitet und das Signal vom Plausibilitätsmodul erzeugt wird.
-
Gemäß einem noch anderen Aspekt der vorliegenden Erfindung umfasst ein Fahrzeugkollisionserkennungssystem einen Sensor und eine Kamera. Ein Fusionsmodul schätzt eine Kollisionsgefahr mit einem Objekt unter Verwendung von Daten des Objekts in Bezug auf das Fahrzeug vom Sensor und der Kamera. Ein Plausibilitätsmodul erzeugt ein Signal, wenn eine bildbasierte Zeit bis zur Kollision kürzer als eine lenkungsbasierte Zeit bis zur Kollision und eine bremsungsbasierte Zeit bis zur Kollision ist. Eine Gegenmaßnahme wird aktiviert, wenn die Kollisionsgefahr eine Schwelle überschreitet und das Signal empfangen wird.
-
Gemäß einem anderen Aspekt der vorliegenden Erfindung wird ein Verfahren zur Aktivierung einer autonomen Bremssteuerung für ein Bremssystem eines Hostfahrzeugs bereitgestellt. Das Verfahren umfasst den Schritt des Erfassens eines Objekts in einem Gesichtsfeld durch einen Objekterkennungssensor am Hostfahrzeug. Ein erster Datensatz des Objekts wird mit dem Objekterkennungssensor gemessen und umfasst eine erste Entfernung und eine erste Entfernungsrate des Objekts in Bezug auf das Hostfahrzeug, einen ersten Winkel und eine erste Winkelrate des Objekts in Bezug auf das Hostfahrzeug und eine relative Bewegungsbestimmung des Objekts. Das Verfahren umfasst außerdem den Schritt des Aufnehmens einer Mehrzahl von Bildern basierend auf Lichtwellen vom Gesichtsfeld durch eine Kamera am Hostfahrzeug in bekannten Zeitintervallen zwischen Zeitpunkten, in welchen die Bilder der Mehrzahl von Bildern aufgenommen werden. Die aufgenommenen Bilder werden verarbeitet, um einen zweiten Datensatz des Objekts zu messen, der eine zweite Entfernung und eine zweite Entfernungsrate des Objekts in Bezug auf das Hostfahrzeug, einen zweiten Winkel und eine zweite Winkelrate des Objekts in Bezug auf das Hostfahrzeug, eine Breite des Objekts und eine bildbasierte Zeit bis zur Kollision (TTCIMAGE) des Hostfahrzeugs mit dem Objekt basierend auf skalierbaren Unterschieden des Objekts umfasst, die von der Mehrzahl von Bildern abgeleitet werden. Ein zusätzlicher Datensatz wird mit einem Fahrzeugdynamikdetektor gemessen, der einen Gierratensensor zum Messen einer Gierrate des Hostfahrzeugs und einen Geschwindigkeitssensor zum Messen der Längsgeschwindigkeit des Hostfahrzeugs umfasst. Es ist eine Steuerung vorgesehen, welche die ersten und zweiten Datensätze, die TTCIMAGE und den zusätzlichen Datensatz empfängt. Das Verfahren umfasst ferner den Schritt des Schätzens einer Gefahr einer Kollision des Hostfahrzeugs mit dem Objekt basierend auf einer Kombination der ersten und zweiten Datensätze. Eine lenkungsbasierte Zeit bis zur Kollision (TTCSTEERING) des Hostfahrzeugs mit dem Objekt wird als eine Funktion des zweiten Datensatzes, der Längsgeschwindigkeit des Hostfahrzeugs und der Gierrate des Hostfahrzeugs berechnet. Eine bremsungsbasierte Zeit bis zur Kollision (TTCBRAKING) des Hostfahrzeugs mit dem Objekt wird als eine Funktion der Längsgeschwindigkeit des Hostfahrzeugs und einer maximalen Verlangsamungsrate des Hostfahrzeugs berechnet. Das Verfahren umfasst außerdem den Schritt des Erzeugens eines Aktivierungssignals, wenn die gemessene TTCIMAGE kürzer als die berechnete TTCSTEERING und die TTCBRAKING ist. Die autonome Bremssteuerung für das Bremssystem des Hostfahrzeugs wird basierend auf der Kollisionsgefahr und dem Aktivierungssignal aktiviert.
-
Gemäß noch einem anderen Aspekt der vorliegenden Erfindung umfasst ein Kollisionserkennungssystem eine Kamera und einen Sensor zum Messen von Daten eines Objekts in Bezug auf ein Hostfahrzeug, derart dass eine Kollisionsgefahr aus kombinierten Daten der Kamera und des Sensors geschätzt wird. Das unabhängige Plausibilitätsmodul empfängt eine bildbasierte Zeit bis zur Kollision, die durch die Kamera basierend auf einer gemessenen Expansionsrate des Objekts direkt und unabhängig gemessen wird. Das unabhängige Plausibilitätsmodul erzeugt ein Aktivierungssignal, wenn die bildbasierte Zeit bis zur Kollision sowohl kürzer als eine lenkungsbasierte Zeit bis zur Kollision als auch eine bremsungsbasierte Zeit bis zur Kollision ist, welche als eine Funktion von Messungen berechnet werden, die von der Kamera empfangen werden, die in Bezug auf eine allgemeine Horizontebene angeordnet ist. Eine autonome Bremssteuerung für ein Bremssystem des Fahrzeugs wird aktiviert, wenn die Kollisionsgefahr größer als eine Schwelle ist und das unabhängige Plausibilitätsmodul das Aktivierungssignal erzeugt. Die Prüfung anhand des Signals vom unabhängigen Plausibilitätsmodul erhöht statistisch die Zuverlässigkeit des gesamten Kollisionserkennungssystems und reduziert den Aufwand und das Ausmaß eines Validierungsprozesses zum Implementieren des Systems ohne Hinzufügung zusätzlicher Sensoren zum Fahrzeug.
-
Diese und andere Aspekte, Aufgaben und Merkmale der vorliegenden Erfindung sind durch die Fachleute bei Befassung mit der folgenden Spezifikation, den folgenden Ansprüchen und den angehängten Zeichnungen nachzuvollziehen und zu erkennen.
-
KURZE BESCHREIBUNG DER ZEICHNUNGEN
-
In den Zeichnungen ist:
-
1 eine Draufsicht, die ein Kollisionserkennungssystem an einem Hostfahrzeug mit einem Objekt in einem Gesichtsfeld des Hostfahrzeugs und mit einer im Wesentlichen ähnlichen Fahrtrichtung veranschaulicht;
-
2 eine schematische Darstellung eines Kollisionserkennungssystems, das einen Sensor, eine Kamera und einen Fahrzeugdynamikdetektor in Kommunikation mit einer Kollisionsgefahrsteuerung umfasst, die mit einer Gegenmaßnahme in Kommunikation ist;
-
3 ein Flussidagramm, das ein Verfahren zur Aktivierung einer Gegenmaßnahme, wie beispielsweise einer autonomen Bremssteuerung für ein Bremssystem eines Hostfahrzeugs, unter Verwendung einer Kollisionsgefahrsteuerung veranschaulicht;
-
4 ein Logikdiagramm, das eine Routine zum Erzeugen eines Aktivierungssignals für ein Gegenmaßnahmenmodul veranschaulicht;
-
5 ein Logikdiagramm, das eine Routine zum Schätzen und Berechnen einer lenkungsbasierten Zeit bis zur Kollision veranschaulicht; und
-
6 ein Logikdiagramm, das eine Routine zum Schätzen und Berechnen einer bremsungsbasierten Zeit bis zur Kollision veranschaulicht.
-
AUSFÜHRLICHE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
-
Zum Zwecke der Beschreibung hierin beziehen sich die Begriffe „ober-”, „unter-”, „rechts”, „links”, „hinter-”, „vorder-”, „vertikal”, „horizontal” und Ableitungen davon auf das Fahrzeug und sein Kollisionserkennungssystem, wie in 1 orientiert. Es versteht sich jedoch von selbst, dass die Erfindung verschiedene alternative Orientierungen annehmen kann, sofern nicht ausdrücklich anders angegeben. Es versteht sich außerdem von selbst, dass die spezifischen Vorrichtungen und Prozesse, die in den angehängten Zeichnungen veranschaulicht sind und in der folgenden Spezifikation beschrieben werden, lediglich beispielhafte Ausführungsformen der erfinderischen Konzepte sind, die in den angehängten Ansprüchen definiert werden. Folglich sind spezifische Abmessungen und andere physikalische Eigenschaften in Bezug auf die Ausführungsformen nicht als einschränkend auszulegen, sofern in den Ansprüche nicht ausdrücklich anders angegeben.
-
Unter Bezugnahme auf 1 bezeichnet das Bezugszeichen 10 im Allgemeinen ein Hostfahrzeug mit einem Kollisionserkennungssystem 12 mit einem Objekterkennungssensor (R) 14 und einer Kamera (C) 16. Ein Gesichtsfeld für den Sensor 14 und die Kamera 16 ist mit dem Bezugszeichen 18 allgemein angegeben und durch Grenzen 18A und 18B genauer definiert. Das hierin dargestellte und beschriebene Hostfahrzeug 10 ist ein Personenwagen (Kraftfahrzeug) mit Rädern 20 zum Kontakt mit einer Straße und einem Bremssystem (B) 22 zum Eingreifen in die Räder 20. Das Bremssystem 22 ist so konfiguriert, dass es beim Eingreifen in die Räder 20 die Drehung der Räder 20 reduziert und dadurch eine Verminderung einer Längsgeschwindigkeit VH des Hostfahrzeugs 10 in Bezug auf die Straße bewirkt, derart dass das Hostfahrzeug 10 eine negative Längsbeschleunigung oder eine Verlangsamung aufweist. Das Hostfahrzeug 10 umfasst eine Vorderseite, zwei laterale Seiten und eine Hinterseite, wobei der Sensor 14 und die Kamera 16 im Allgemeinen an der Vorderseite positioniert sind, um Objekte im Gesichtsfeld 18 vor dem Hostfahrzeug 10 zu erkennen. Es ist jedoch vorgesehen, dass der Sensor 14 und die Kamera 16 an einer anderen Stelle am Hostfahrzeug 10 positioniert sein könnten, um Objekte in einem alternativen Gesichtsfeld zu erkennen. Der Sensor 14 und die Kamera 16 am Hostfahrzeug 10 sind im Allgemeinen mit einer Steuerung (C) 24 verbunden, die mit dem Bremssystem (B) 22 verbunden ist. Die Steuerung 24 empfängt außerdem Daten von einem Onboard-Fahrzeugdynamikdetektor (D) 26.
-
Wie in 1 dargestellt, befindet sich ein Objekt 30 vor dem Hostfahrzeug 10 im Gesichtsfeld 18. Das Objekt 30, wie dargestellt, ist ein vorausfahrendes Fahrzeug, das in einer im Wesentlichen ähnlichen Fahrtrichtung wie das Hostfahrzeug 10 orientiert ist. Es ist ferner vorgesehen, dass das Objekt 30 alternativ u. a. einen Fußgänger, ein Fahrrad oder eine andere bewegliche oder unbewegliche Struktur umfassen kann. Das Hostfahrzeug 10 und das als das vorausfahrende Fahrzeug dargestellte Objekt 30 weisen jeweilige Längsgeschwindigkeiten in Bezug auf die zugrunde liegende Straße auf, die als VH und VL bezeichnet und als Vektoren veranschaulicht sind, um die jeweilige allgemeine Fahrtrichtung darzustellen.
-
Der Objekterkennungssensor 14 überwacht das Gesichtsfeld 18 und, wenn der Sensor 14 das Objekt 30 im Gesichtsfeld 18 erkennt, misst der Sensor 14 einen ersten Satz von Zieldaten des Objekts 30 in Bezug auf das Hostfahrzeug 10 basierend auf einer Position des Objekts in Bezug auf das Hostfahrzeug. Der erste Satz von Zieldaten des Objekts 30 in Bezug auf das Hostfahrzeug 10 umfasst eine Messung einer ersten Entfernung R1 (radialen Distanz) zwischen dem Objekt 30 und dem Hostfahrzeug 10, eine erste Entfernungsrate Ṙ1 (zeitliche Änderungsrate der radialen Distanz) des Objekts 30 in Bezug auf das Hostfahrzeug 10, eine Messung eines ersten Winkels θ1 (Richtungswinkels) der Richtung des Objekts 30 in Bezug auf das Hostfahrzeug 10, eine erste Winkelrate θ .1 (zeitliche Änderungsrate des Richtungswinkels) der Richtung des Objekts 30 in Bezug auf das Hostfahrzeug 10 und eine relative Bewegungsbestimmung des Objekts 30 in Bezug auf die Straße. Wie in 2 dargestellt, umfasst der Objekterkennungssensor 14 ein Radarsystem 32. Es ist vorgesehen, dass der erste Satz von Zieldaten mehr oder weniger Datenmessungen des Objekts 30 oder des Hostfahrzeugs 10 umfasst.
-
Die Kamera 16 überwacht ebenfalls das Gesichtsfeld 18 zum Erkennen eines oder mehrerer Objekte, wie beispielsweise des Objekts 30. Die Kamera 16 nimmt eine Mehrzahl von Bildern basierend auf Lichtwellen vom Gesichtsfeld 18 in bekannten Zeitintervallen zwischen Zeitpunkten auf, in welchen die Bilder der Mehrzahl von Bildern aufgenommen werden. Die Kamera 16 verarbeitet die Mehrzahl von Bildern, um einen zweiten Satz von Zieldaten des Objekts 30 in Bezug auf das Hostfahrzeug 10 zu messen und eine bildbasierte Zeit bis zur Kollision (TTCIMAGE) des Hostfahrzeugs 10 mit dem Objekt 30 basierend auf skalierbaren Unterschieden der Mehrzahl von Bildern zu messen. Genauer gesagt basiert die bildbasierte Zeit bis zur Kollision (TTCIMAGE) unabhängig auf der Messung von verschiedenen Aspekten des Objekts 30 in der Mehrzahl von Bildern, um eine Expansionsrate des Objekts 30 von der Perspektive der Kamera auf das Hostfahrzeug 10 zu bestimmen.
-
Der zweite Satz von Zieldaten des Objekts 30 in Bezug auf das Hostfahrzeug 10 umfasst eine zweite Entfernungsmessung R2 zwischen dem Objekt 30 und dem Hostfahrzeug 10, eine zweite Entfernungsrate Ṙ2 des Objekts 30 in Bezug auf das Hostfahrzeug 10, einen zweiten Winkel θ2 der Richtung des Objekts 30 in Bezug auf das Hostfahrzeug 10, eine zweite Winkelrate θ .2 der Richtung des Objekts 30 in Bezug auf das Hostfahrzeug 10, eine Breitenmessung des Objekts WLEAD, eine Objektklassifizierung 34 des Objekts 30 und einen Vertrauenswert 36 des Objekts 30. Der Wert der Objektklassifizierung 34 basiert auf allgemeinen Charakteristiken von bekannten Objekten, wie beispielsweise Höhe und Breite, um das Objekt 30, zum Beispiel ein Personenfahrzeug, einen Fußgänger, ein Fahrrad oder eine stationäre Struktur, zu identifizieren. Der Vertrauenswert 36 des Objekts 30 ist im Wesentlichen eine Messung dessen, ob sich die einzelnen Teile des Objekts 30 im Gesichtsfeld 18 beständig zusammen bewegen, um ein einzelnes Objekt 30 zu bilden. Wenn sich zum Beispiel seitliche Rückspiegel 38 (1) des Objekts 30 in der im Wesentlichen identischen Entfernungsrate wie die hintere Stoßstange 40 des Objekts 30 bewegen, ist der Vertrauenswert 36 des Objekts 30 hoch. Wiederum in Bezug auf die Messung der TTCIMAGE misst die Kamera 16 die TTCIMAGE direkt und unabhängig basierend auf der gemessenen Expansionsrate des Objekts 30 aus der Mehrzahl von Bildern. Hingegen misst die Kamera 16 die zweite Entfernung und die zweite Entfernungsrate des zweiten Satzes von Zieldaten basierend auf der allgemeinen Position des Objekts 30 in Bezug auf den Horizont, wie auf dem Fachgebiet allgemein bekannt ist. Demgemäß ist die TTCIMAGE-Messung statistisch unabhängig von den Messungen im zweiten Satz von Zieldaten.
-
Nunmehr unter Bezugnahme auf 2 umfasst der Objekterkennungssensor 15 zum Überwachen des Gesichtsfeldes 18 das Radarsystem 32. Der Radar 32 misst den ersten Satz von Zieldaten des Objekts 30 in Bezug auf das Hostfahrzeug 10. Es ist jedoch vorgesehen, dass der Sensor 14 außerdem oder alternativ einen Lidar-, Ultraschall-, Aktiv-Infrarot-, Passiv-Infrarot-, Telematiksensor, eine zusätzliche Kamera oder beliebige andere Sensoren umfassen kann, die auf dem Fachgebiet bekannt sind.
-
Wie in 2 dargestellt, umfasst die Kamera 16 im Allgemeinen ein Bildgerät 42 zum Aufnehmen der Mehrzahl von Bildern vom Gesichtsfeld 18 basierend auf Lichtwellen, die vom Gesichtsfeld 18 in bekannten Zeitintervallen zwischen Zeiten empfangen werden, in welchen Bilder der Mehrzahl von Bildern aufgenommen werden. Die Kamera 16 umfasst außerdem einen Bildprozessor 44 zum Verarbeiten der aufgenommenen Mehrzahl von Bildern, um den zweiten Satz von Zieldaten des Objekts 30 in Bezug auf das Hostfahrzeug 10 zu messen und die bildbasierte Zeit bis zur Kollision (TTCIMAGE) des Hostfahrzeugs 10 mit dem Objekt 30 basierend auf der Expansionsrate und der Position des Objekts 30 in Bezug auf das Hostfahrzeug 10 zu messen. Die Kamera 16 kann eine oder mehr Kameras umfassen, wie beispielsweise eine ladungsgekoppelte Vorrichtung (CCD – charge-coupled device) oder eine Bildsensorvorrichtung auf der Basis von komplementären Metalloxidhalbleitern (CMOS – complementary metal-oxide-semiconductor). Die Kamera 16 implementiert im Allgemeinen die auf dem Fachgebiet bekannte Instrumentierung zur Aufnahme von Bildern derart, dass das Bildgerät 42 eine Sichtbarlicht-Kamera, eine Ferninfrarot-Kamera und/oder eine Nahinfrarot-Kamera umfassen kann. Ferner ist der Bildprozessor 44 der Kamera 16 typischerweise zum Puffern und Verarbeiten der Mehrzahl von Bildern in Echtzeit imstande. Es ist außerdem vorgesehen, dass der Bildprozessor 44 in einen anderen Prozessor oder eine andere Steuerung getrennt von der Kamera 16 integriert sein kann.
-
Wie in 2 weiter dargestellt ist, umfasst der Fahrzeugdynamikdetektor 26 einen Gierratensensor 46, einen Geschwindigkeitssensor 48 und ein globales Positionsbestimmungssystem (GPS) 50, um einen zusätzlichen Datensatz zu messen, der die Kinematik des Hostfahrzeugs 10 anzeigt. Es ist vorgesehen, dass der Fahrzeugdynamikdetektor 26 andere Sensoren, wie beispielsweise einen Lenkradwinkelsensor und einen Beschleunigungssensor, umfassen kann, um andere kinematikbezogene Daten des Hostfahrzeugs 10 zu erfassen. Der Gierratensensor 46 bestimmt die Gierrate ω des Hostfahrzeugs 10 um einen Schwerpunkt des Hostfahrzeugs 10, wobei er die Drehtendenz des Hostfahrzeugs 10 um eine Achse senkrecht auf die Straßenfläche misst. Der Geschwindigkeitssensor 48 misst die Geschwindigkeit VH des Hostfahrzeugs 10 in der Fahrtrichtung. Wie in gestrichelten Linien veranschaulicht, ist das GPS 50 optional als eine Komponente des Fahrzeugdynamikdetektors 26 enthalten derart, dass das GPS 50 zum Messen von verschiedenen kinematischen Eigenschaften und relativen Positionsdaten des Hostfahrzeugs 10 verwendet werden kann.
-
Die Kollisionsgefahrsteuerung 24, wie in 2 dargestellt, empfängt Eingaben vom Sensor 14, der Kamera 16 und dem Fahrzeugdynamikdetektor 26. Die Kollisionsgefahrsteuerung 24 kann einen Mikroprozessor 52 und einen Speicher 54 gemäß einer Ausführungsform umfassen, und sie kann als Teil einer gemeinsam genutzten Steuerung konfiguriert sein, die für andere Zwecke verwendet wird, oder mit mehreren Mikroprozessoren und Steuereinheiten konfiguriert sein, die an verschiedenen Stellen und in verschiedenen Komponenten als Teile des Hostfahrzeugs 10 oder davon getrennt integriert sind. Der Speicher 54 kann einen Direktzugriffsspeicher (RAM), einen Festwertspeicher (ROM) und einen elektrisch löschbaren programmierbaren Festwertspeicher (EEPROM) umfassen. Die Steuerung 24 empfängt den ersten Datensatz vom Sensor 14, den zweiten Datensatz und die TTCIMAGE-Messung von der Kamera 16 und den zusätzlichen Datensatz vom Fahrzeugdynamikdetektor 26. Die Steuerung 24 verarbeitet die empfangenen Eingaben mit einer Fusionsmodulroutine 56 und einer Plausibilitätsmodulroutine 58, um zu bestimmen, ob eine Gegenmaßnahme 60 aktiviert werden sollte, um eine mögliche Kollision des Hostfahrzeugs 10 mit dem Objekt 30 zu mindern oder zu vermeiden. Es ist vorgesehen, dass die Fusionsmodulroutine 56 und die Plausibilitätsmodulroutine 58 mit anderen Routinen kombiniert oder daran angegliedert sein kann, um die allgemeinen Kollisionserkennungs- und -vermeidungsfunktionen und Plausibilitätsprüfungen auszuführen, wie hierin beschrieben.
-
Weiter unter Bezugnahme auf 2 umfasst die Gegenmaßnahme 60 eine autonome Bremssteuerung 62 zum Aktivieren des Bremssystems 22 des Hostfahrzeugs 10. Wie dargestellt, kann die Gegenmaßnahme 60 außerdem ein Fahrerwarnsystem 64, eine Beifahrersicherheitsgurt-Vorspannungssteuerung 66, eine Notlenkungssteuerung 68 und eine adaptive Abstandsregelungssteuerung 70 umfassen. Es ist vorgesehen, dass zusätzliche Gegenmaßnahmen enthalten sein können, um eine Kollision des Hostfahrzeugs 10 mit dem Objekt 30 zu vermeiden oder Schaden am Hostfahrzeug 10, etwaigen Fahrzeuginsassen oder dem Objekt 30 bei einer Kollision des Hostfahrzeugs 10 mit dem Objekt 30 zu mindern. Das Gegenmaßnahmenmodul 60 aktiviert eine Gegenmaßnahmenvorrichtung, wenn eine Kollisionsgefahr, die vom Fusionsmodul 56 empfangen wird, eine Aktivierungsschwelle überschreitet und das Aktivierungssignal vom Plausibilitätsmodul 58 durch das Plausibilitätsmodul 58 erzeugt und durch das Gegenmaßnahmenmodul 60 empfangen wird, um dadurch die Rate fälschlicher Aktivierung der Gegenmaßnahmenvorrichtung, wie beispielsweise des Bremssystems 22, statistisch zu reduzieren und die Zuverlässigkeit des Kollisionserkennungssystems 12 zu verbessern. Schließlich erzeugt das Plausibilitätsmodul 58 ein Aktivierungssignal, wenn die gemessene TTCIMAGE kürzer als eine berechnete lenkungsbasierte Zeit bis zur Kollision (TTCSTEERING) und eine berechnete bremsungsbasierte Zeit bis zur Kollision (TTCBRAKING) ist. Optional kann das Plausibilitätsmodul 58 auch zusätzliche Plausibilitätsprüfungen durchführen, um die Zuverlässigkeit zu verbessern, wie beispielsweise ein Schätzen vor dem Erzeugen des Aktivierungssignals, ob das Objekt 30 im Weg des Hostfahrzeugs 10 ist.
-
Nunmehr unter Bezugnahme auf 3 ist ein Verfahren zur Aktivierung der autonomen Bremssteuerung 62 (2) für das Bremssystem 22 (2) des Hostfahrzeugs 10 dargestellt. Bei Schritt 92 wird das Objekt 30 im Gesichtsfeld 18 durch den Objekterkennungssensor 14 am Hostfahrzeug 10 erfasst. Der erste Datensatz des Objekts 30 wird bei Schritt 93 mit dem Objekterkennungssensor 14 gemessen und umfasst die erste Entfernung R1 und die erste Entfernungsrate Ṙ1 des Objekts 30 in Bezug auf das Hostfahrzeug 10, den ersten Winkel θ1 und die erste Winkelrate θ .1 des Objekts 30 in Bezug auf das Hostfahrzeug 10 und die relative Bewegungsbestimmung des Objekts 30. Es ist zwar vorgesehen, dass der Sensor 14, der zum Erfassen des Objekts 30 und Vornehmen dieser Messungen verwendet wird, ein Radarsystem 32 ist, wie in 2 dargestellt, aber er umfasst auch andere Sensoren, die auf dem Fachgebiet bekannt sind.
-
Das Verfahren umfasst ferner den Schritt 94 des Aufnehmens einer Mehrzahl von Bildern basierend auf Lichtwellen vom Gesichtsfeld 18 durch die Kamera 16 am Hostfahrzeug 10 in bekannten Zeitintervallen zwischen Zeitpunkten, in welchen die Bilder der Mehrzahl von Bildern aufgenommen werden. Die aufgenommenen Bilder werden bei Schritt 95 verarbeitet, der den Bildprozessor 44 verwendend veranschaulicht ist. Danach werden die verarbeiteten Bilder bei Schritt 96 zum Messen des zweiten Datensatzes des Objekts 30 verwendet, der die zweite Entfernung R2 und die zweite Entfernungsrate Ṙ2 des Objekts 30 in Bezug auf das Hostfahrzeug 10, den zweiten Winkel θ2 und die zweite Winkelrate θ .2 des Objekts 30 in Bezug auf das Hostfahrzeug 10, die Breite WLEAD des Objekts 30 und den Vertrauenswert 36 des Objekts 30 umfasst. Die aufgenommenen Bilder werden bei Schritt 97 ebenfalls verarbeitet, um die TTCIMAGE des Hostfahrzeugs 10 mit dem Objekt 30 nur auf der Basis von skalierbaren Unterschieden des Objekts 30, die aus der Mehrzahl von Bildern abgeleitet werden, unabhängig zu messen.
-
Der Fahrzeugdynamikdetektor 26 erfasst bei Schritt 98 die Kinematik des Hostfahrzeugs 10. Bei Schritt 99 wird der zusätzliche Datensatz mit den kinematischen Werten vom Fahrzeugdynamikdetektor 26 gemessen, der den Gierratensensor 46 zum Messen der Gierrate ω des Hostfahrzeugs 10 und den Geschwindigkeitssensor 48 zum Messen der Längsgeschwindigkeit VH des Hostfahrzeugs 10 umfasst. Wie bereits erwähnt, ist vorgesehen, dass das GPS 50 oder andere Sensoren zum Messen von Komponenten dieses zusätzlichen Datensatzes verwendet werden könnten.
-
Das Verfahren umfasst ferner den Schritt 100 des Fusionierens der ersten und zweiten Datensätze, um den Vergleichsdatensatz zu erhalten. Das Fusionsmodul 56 (2) bestimmt den Vergleichssatz von Zieldaten des Objekts 30 in Bezug auf das Hostfahrzeug 10 basierend auf den ersten und zweiten Sätzen von Zieldaten, die vom Sensor 14 bzw. der Kamera 16 empfangen werden. Unter Verwendung des fusionierten Satzes von Zieldaten, die auch als der Vergleichsdatensatz bezeichnet werden, schätzt das Fusionsmodul 56 einen Kollisionsgefahrwert des Hostfahrzeugs 10 mit dem Objekt 30. Der Kollisionsgefahrwert weist eine erhöhte Zuverlässigkeit aus dem Verwenden von Messungen sowohl der ersten als auch zweiten Sätze von Daten auf, da der Vergleichsdatensatz durch Vergleichen der Datensätze und Verwenden des beständigeren Wertes, Verwenden der genauesten Messungen basierend auf dem Sensor- und Kameratyp und/oder Verwenden eines Wertes zwischen den Messungen, wie beispielsweise des Mittelwerts zwischen den ersten und zweiten Sätzen, abgeleitet wird. Demgemäß ist der Vergleichssatz von Zieldaten ein verhältnismäßig optimierter Wert, der auf den ersten und zweiten Sätzen von Daten basiert. Bei Schritt 102 wird dann die Kollisionsgefahr des Hostfahrzeugs 10 mit dem Objekt 30 basierend auf dem Vergleichsdatensatz und dem bei Schritt 99 gemessenen, zusätzlichen Datensatz vom Fahrzeugdynamikdetektor geschätzt.
-
Weiter unter Bezugnahme auf 3 wird die TTCSTEERING des Hostfahrzeugs 10 mit dem Objekt 30 bei Schritt 104 als eine Funktion des zweiten Datensatzes und des zusätzlichen Datensatzes berechnet, der die Längsgeschwindigkeit VH des Hostfahrzeugs 10 und die Gierrate ω des Hostfahrzeugs 10 umfasst. Das Plausibilitätsmodul 58 (2) berechnet den TTCSTEERING-Wert, um die maximale Zeit zur Vermeidung einer Kollision des Hostfahrzeugs 10 mit dem Objekt 30 durch Lenken des Hostfahrzeugs 10 zu schätzen. Obwohl dieser Wert mit verschiedenen Funktionen abgeleitet oder geschätzt werden kann, wird die TTCSTEERING hierin basierend auf dem zweiten Satz von Zieldaten, die von der Kamera 16 empfangen werden, und einem zusätzlichen Satz von Daten berechnet, die von einem Fahrzeugdynamikdetektor 26 empfangen werden.
-
Die TTCBRAKING des Hostfahrzeugs 10 mit dem Objekt 30 wird bei Schritt 106 als eine Funktion des zusätzlichen Datensatzes, nämlich der Längsgeschwindigkeit VH des Hostfahrzeugs 10, berechnet. Das Plausibilitätsmodul 58 (2) berechnet den TTCBRAKING-Wert, um die maximale Zeit zur Vermeidung einer Kollision des Hostfahrzeugs 10 mit dem Objekt 30 durch Bremsen mit dem Bremssystem 22 (1) des Hostfahrzeugs 10 zu schätzen. Dieser Wert kann auf verschiedene Arten und Weisen, wie beispielsweise durch Verwenden von zusätzlichen Messungen des Fahrzeuggewichts, der Straßenbedingungen und der Bremsfähigkeiten, geschätzt werden. Die TTCBRAKING, wie hierin veranschaulicht und beschrieben, wird jedoch basierend auf dem zusätzlichen Satz von Daten, die von einem Fahrzeugdynamikdetektor 26 empfangen werden, und anderen Werten berechnet, die als Konstante ausgewählt werden, wie im Folgenden ausführlicher beschrieben.
-
Das Verfahren umfasst einen Bestimmungsschritt 108 des Erzeugens eines Aktivierungssignals, wenn die gemessene TTCIMAGE kürzer als die berechnete TTCSTEERING und die TTCBRAKING ist. Schritt 108 ist als eine Funktion des Plausibilitätsmoduls 58 (2) vorgesehen, was die Aktivierung einer Gegenmaßnahme nur dann ermöglicht, wenn das Signal vorhanden ist. Ein anderer Bestimmungsschritt 110 umfasst ein Vergleichen der Kollisionsgefahr mit einem Schwellenwert. Dieser Schritt ist zwar als eine Funktion der Fusionsmodulroutine 56 (2) vorgesehen, kann aber auch durch die Bremssteuerung 62 oder eine andere Steuerung im Hostfahrzeug 10 ausgeführt werden. Wie bei Schritt 112 dargestellt, wird die Gegenmaßnahme nur dann aktiviert, wenn die Kollisionsgefahr die Schwelle überschreitet und das Aktivierungssignal erzeugt wird, und andernfalls leitet die Bestimmung das System zum Start des Verfahrens. Wenn sowohl die Kollisionsgefahr die Schwelle überschreitet, als auch das Aktivierungssignal erzeugt wird, wird bei Schritt 114 schließlich die autonome Bremssteuerung aktiviert. Demgemäß funktioniert bei Aktivieren der Gegenmaßnahme, wie beispielsweise der Bremssteuerung 62, die Gegenmaßnahme so, dass sie eine Kollision des Hostfahrzeugs 10 mit dem Objekt 30 verhindert oder mindert. Wie veranschaulicht, kann zum Beispiel bei Schritt 116 die Bremssteuerung 62 das Bremssystem 22 des Hostfahrzeugs 10 aktivieren. Es ist vorgesehen, dass die Bremssteuerung 62 in das Bremssystem 22 integriert ist, wie in 2 veranschaulicht.
-
Nunmehr unter Bezugnahme auf 4, ist ein logisches Flussdiagramm des Plausibilitätsmoduls 58 dargestellt, wobei zu erkennen ist, dass die TTCSTEERING bei Schritt 118 als eine Funktion der zweiten Entfernung R2 von der Kamera 16, des zweiten Winkels θ2 von der Kamera 16, der gemessenen Objektklassifizierung 34 von der Kamera 16, der Geschwindigkeit VH vom Geschwindigkeitssensor 48 des Fahrzeugdynamikdetektors 26 und der Gierrate ω vom Gierratensensor 46 des Fahrzeugdynamikdetektors 26 berechnet wird. Zusätzlich zum Berechnen einer Ausgabe der TTCSTEERING bestimmt die TTCSTEERING-Funktion optional außerdem, ob das Objekt 30 im Weg des Hostfahrzeugs 10 ist, was als ein Wert IN_PATH 120 dargestellt ist.
-
Genauer gesagt kann TTC
STEERING als der folgende Algorithmus ausgedrückt werden:
-
Im vorstehenden Ausdruck stellt TTCSTEERING die maximale berechnete Zeit zur Vermeidung einer Kollision durch Lenken des Hostfahrzeugs 10 dar. Die TTCSTEERING-Logik ist eine vereinfachte Gleichung, die davon ausgeht, dass keine relative Seitengeschwindigkeit des Hostfahrzeugs 10 oder des Objekts 30 vorliegt. Eine komplexere Strategie könnte u. a. unter Verwendung von gemessener Seitengeschwindigkeit definiert werden. WLEAD stellt die Breite des Objekts 30 oder vorausfahrenden Fahrzeugs dar, wie beispielsweise eines Autos, Motorrads oder Fußgängers. WLEAD kann entweder eine Konstante sein oder durch die Kamera 16 oder einen anderen Sensor gemessen werden. WHOST wiederum stellt die Breite des Hostfahrzeugs 10 dar. R entspricht R2 und stellt die Entfernung vom Hostfahrzeug 10 zum Objekt 30, wie durch die Kamera 16 gemessen, dar. Die Variable ω stellt die gemessene Gierrate des Hostfahrzeugs 10 dar, welche durch den Gierratensensor 46, das GPS 50, die Kamera 16 oder einen Trägheitssensor gemessen werden kann. V entspricht VH und stellt die gemessene Längsgeschwindigkeit des Hostfahrzeugs 10 dar, welche durch den Geschwindigkeitssensor 48, das GPS 50, Raddrehzahlsensoren, die Kamera 16 oder einen Trägheitssensor gemessen werden kann. θ entspricht θ2 und stellt den relativen Winkel des Hostfahrzeugs 10 auf das Objekt 30, wie durch die Kamera 16 gemessen, dar. ALAT_DRIVER_MAX stellt die maximal erreichbare Seitenbeschleunigung des Hostfahrzeugs 10 durch Lenken dar. ALAT_DRIVER_MAX kann als eine Konstante geschätzt oder als eine Funktion von anderen Informationen, wie beispielsweise Straßenreibung, Geschwindigkeit, Fahrzeugmasse, Bremssystemfähigkeiten, Fahrerpräferenzen oder Fahrerfähigkeiten, abgleitet werden. KLAT_MAX stellt einfach einen Skalierungsfaktor dar, welcher typischerweise kleiner als (1,0) ist und kalibriert werden kann, um wünschenswerte Berechnungen zu erhalten.
-
Wie in 5 veranschaulicht, ist die zum Berechnen der TTCSTEERING verwendete Funktion als ein logisches Flussdiagramm dargestellt, das die Schritte der Funktion einzeln aufführt. Das Diagramm verwendet die gleichen Variablen, die zuvor zum Ausdrücken der Berechnungsschritte beschrieben wurden. Wie dargestellt, wird die gemessene Objektklassifizierung 34 von der Kamera 16 mit dem Feld VALID_OBJECT verglichen, um zu gewährleisten, dass die Klassifizierung gültig ist, und den entsprechenden WLEAD-Wert zu bestimmen. Es ist außerdem vorgesehen, dass der WLEAD-Wert gemessen werden kann. Bei Schalter 136 wird, wenn bestimmt wird, dass die Objektklassifizierung gültig ist, die Hälfte der WLEAD des Objekts ausgegeben, die als HALF_WLEAD dargestellt ist. Diese Ausgabe wird bei Schritt 138 mit der Hälfte der Breite WHOST des Hostfahrzeugs summiert, derart dass ein Fahrer des Hostfahrzeugs 10 das Hostfahrzeug 10 seitlich höchstens um eine Distanz bewegen müsste, die den kombinierten Hälften von WLEAD und WHOST entspricht, um eine Kollision zu vermeiden, vorausgesetzt, dass sich das Hostfahrzeug 10 auf jede Seite des Objekts 30 frei bewegen kann. Diese Ausgabe wird dann bei Schritt 140 um den absoluten Wert der Ausgabe des als 142 bezeichneten Schritts reduziert, der zusätzlich zu anderen Schritten, die zu 142 führen, einen Vergleich von VH oder (SPEED) mit MIN_SPEED, einer Schwellengeschwindigkeit, die das Hostfahrzeug überschreiten muss, bevor der TTCSTEERING-Ausgabewert einigermaßen genau ist, bereitstellt. Im Allgemeinen stellen die restlichen Schritte in 5 die mathematischen Schritte bereit, um TTCSTEERING zu berechnen, wie zuvor beim Algorithmus beschrieben.
-
Zurück zu 4 ist TTCBRAKING so dargestellt, dass sie bei Schritt 122 als eine Funktion der Geschwindigkeit oder Längsgeschwindigkeit berechnet wird, welche im Allgemeinen gleich der Messung der Geschwindigkeit VH vom Geschwindigkeitssensor 48 des Fahrzeugdynamikdetektors 26 ist. 6 veranschaulicht ein logisches Flussdiagramm, das die Schritte der zur Berechnung von TTCBRAKING verwendeten Funktion einzeln aufführt. Im Wesentlichen wird die Geschwindigkeit VH durch zweimal einen geschätzten Wert der maximalen Längsbeschleunigung ALONG_DRIVER_MAX geteilt, um die TTCBRAKING zu berechnen. Die maximale Längsbeschleunigung ALONG_DRIVER_MAX oder Verlangsamung, die als ein konstanter Wert dargestellt ist, wird für das Hostfahrzeug 10 basierend auf Typ, Gewicht und Bremskonfiguration des Hostfahrzeugs 10 ausgewählt. Es ist denkbar, dass die maximale Längsbeschleunigung ALONG_DRIVER_MAX ein Wert sein könnte, der u. a. von der Messung von Straßenreibung, Fahrzeugmasse, Bremssystembedingungen und -fähigkeiten, Fahrerpräferenzen und/oder Fahrerfähigkeiten abgeleitet ist.
-
Genauer gesagt kann TTC
BRAKING als der folgende Algorithmus ausgedrückt werden:
-
Im vorstehenden Ausdruck stellt TTCBRAKING die maximale berechnete Zeit zur Vermeidung einer Kollision durch Bremsen des Hostfahrzeugs 10 dar. Wiederum könnte eine komplexere Strategie u. a. unter Verwendung von gemessener Seitengeschwindigkeit definiert werden. V entspricht VH und stellt die gemessene Längsgeschwindigkeit des Hostfahrzeugs 10 dar. ALONG_DRIVER_MAX stellt die maximal erreichbare Längsbeschleunigung des Hostfahrzeugs 10 durch Bremsen dar, welche hier als eine Konstante ausgewählt ist, obwohl es denkbar ist, dass sie als eine Funktion eines anderen Sensors oder von ausgewählten Informationen, wie beispielsweise Straßenreibung, Geschwindigkeit, Fahrzeugmasse, Bremssystemfähigkeiten, Fahrerpräferenzen und/oder Fahrerfähigkeiten abgeleitet sein könnte. Der Einfachheit halber ist ALONG_DRIVER_MAX hierin als konstante Verlangsamungsrate des Hostfahrzeugs ausgewählt. KLONG_MAX stellt einfach einen Skalierungsfaktor dar, welcher typischerweise kleiner als (1,0) ist und kalibriert werden kann, um wünschenswerte Berechnungen zu erhalten.
-
Unter neuerlicher Bezugnahme auf 4 werden die bei Schritt 118 und 122 generierten Werte von TTCSTEERING bzw. TTCBRAKING bei Schritt 124, der als MIN bezeichnet ist, verglichen, um den kleineren der beiden Werte auszugeben. Die Ausgabe von Schritt 124 wird mit einer Konstanten KUNCERTAINTY summiert, um einen Wert bereitzustellen, der bei Schritt 126 mit der gemessenen TTCIMAGE verglichen werden soll. Wenn der Wert bei Schritt 126 größer als die oder gleich der gemessenen TTCIMAGE ist, beginnt das Plausibilitätsmodul mit der Erzeugung des Aktivierungssignals. Abgesehen von KUNCERTAINTY, einem konstanten Wert, der zum Kalibrieren des Plausibilitätsmoduls 58 verwendet wird, beginnt das Plausibilitätsmodul 58 auch mit der Erzeugung des Aktivierungssignals, wenn bestimmt wird, dass die gemessene TTCIMAGE kürzer als die berechnete TTCSTEERING und die TTCBRAKING ist. Wie in 4 dargestellt, können bei Schritt 128 zusätzliche Plausibilitätsprüfungen durchgeführt werden, bevor das Plausibilitätsmodul das Aktivierungssignal erzeugt. Eine Plausibilitätsprüfung stellt sicher, dass der IN_PATH-Wert 120, der durch die TTCSTEERING-Funktion geschätzt wird, anzeigt, dass das Objekt 30 im Fahrweg des Hostfahrzeugs 10 ist.
-
Konkret kann die IN_PATH-Wert-Funktion oder Pseudocodelogikbestimmung ausgedrückt werden, wie folgt:
-
Im vorstehenden Ausdruck stellen die eingegebenen Variablen die gleichen Werte dar, wie im TTCSTEERING-Ausdruck gemessen oder berechnet. Demgemäß ist es denkbar, dass eine komplexere Strategie u. a. unter Verwendung von gemessener Seitengeschwindigkeit definiert werden könnte.
-
Weiter unter Bezugnahme auf 4 kann das Plausibilitätsmodul 58 bei Schritt 130 außerdem eine Plausibilitätsprüfung durchführen, dass der durch die Kamera 16 gemessene Vertrauenswert 36 des Objekts 30 eine Vertrauensschwelle 80 überschreitet. Der Vertrauenswert 36 ist im Wesentlichen eine Messung dessen, ob die einzelnen Teile des Objekts 30 sich beständig zusammen bewegen, zum Beispiel die seitlichen Rückspiegel 38 des Objekts 30 sich in einer im Wesentlichen identischen Entfernung wie die hintere Stoßstange 40 des Objekts 30 bewegen. Schritt 128 ermöglicht die Erzeugung des Aktivierungssignals nur dann, wenn alle Plausibilitätsprüfungen bestanden werden und bestimmt wird, dass die TTCIMAGE kürzer als die berechnete TTCSTEERING und die TTCBRAKING ist. Daher kann die Gegenmaßnahme 60 (2) zusätzlich auf der Basis dessen aktiviert werden, ob das Objekt 30 im Fahrweg des Fahrzeugs 10 ist und ob der Vertrauenswert 36 des Objekts die Vertrauensschwelle 80 überschreitet.
-
Wenn alle Plausibilitätsprüfungen bestanden wurden, kann das Plausibilitätsmodul 58 bei Schritt 132 optional eine Zeitverzögerung zum Fortsetzen der Erzeugung des Aktivierungssignals für eine festgelegte konstante Zeitdauer KOFF_TIME_DELAY, wie beispielsweise 0,5 Sekunden, nach der Erzeugung des Aktivierungssignals für eine weitere konstante Zeitdauer KON_TIME_DELAY, wie beispielsweise 0,5 Sekunden, einbeziehen, um sicherzustellen, dass die Gegenmaßnahme aufgrund von Bedingungen, die durch die Gegenmaßnahme geschaffen werden, oder eines momentanen Ausfalls einer der Plausibilitätsprüfungen das Aktivierungssignal nicht verliert. Die Verzögerung bei Schritt 132 kann in Pseudocodelogik ausgedrückt werden, wie folgt:
WENN
das Aktivierungssignal von Schritt 128 kontinuierlich WAHR ist für die vergangenen KON_TIME_DELAY Sekunden,
DANN
bleibt das Aktivierungssignal WAHR für KOFF_TIME_DELAY Sekunden nach dem Übergang der zuvor erwähnten Bedingungen auf FALSCH.
-
Wie bei Schritt 134 dargestellt, kann die Zeitverzögerung bei Schritt 132 alternativ zur Erzeugung des Aktivierungssignals verwendet werden, wenn es nicht direkt von Schritt 128 empfangen wird. Es ist außerdem vorgesehen, dass weitere Zeitverzögerungen an verschiedenen anderen Stellen im Plausibilitätsmodul eingeführt werden können, wie beispielsweise in Übereinstimmung mit den Plausibilitätsprüfungen 120 und 130.
-
In einem vereinfachten Ausdruck des Plausibilitätsmoduls 59 wird unter Verwendung der optionalen IN_PATH-Wert-Prüfung das Aktivierungssignal freigegeben oder erzeugt, wenn eine Variable CMbB_PLAUSIBLE wahr ist. Diese Funktion oder Pseudocodelogikbestimmung, wie auch in 4 teilweise veranschaulicht, kann ausgedrückt werden, wie folgt:
WENN
((min(TTCSTEERING, TTCBRAKING) + KUNCERTAINTY) > TTCMEASURED) UND
(IN_PATH = WAHR)
DANN
CMbB_PLAUSIBLE = WAHR → Gegenmaßnahmenaktivierungssignal wird freigegeben
SONST
CMbB_PLAUSIBLE = FALSCH → Gegenmaßnahmenaktivierungssignal wird blockiert
-
Im vorstehenden Ausdruck bzw. der vorstehenden logischen Bestimmung entspricht die TTCMEASURED der TTCIMAGE und stellt die Zeit bis zur Kollision zwischen dem Hostfahrzeug 10 und dem Objekt 30, wie durch die Kamera 16 gemessen, dar. Außerdem stellt KUNCERTAINTY wiederum einfach eine Konstante dar, die kalibriert werden kann, um wünschenswerte Ergebnisse zu erhalten.
-
Unter neuerlicher Bezugnahme auf 2 und 3 aktiviert das Gegenmaßnahmenmodul 60 eine Gegenmaßnahmenvorrichtung, wenn die vom Fusionsmodul 56 empfangene Kollisionsgefahr eine Aktivierungsschwelle überschreitet und das Aktivierungssignal vom Plausibilitätsmodul 58 durch das Plausibilitätsmodul 58 erzeugt und durch das Gegenmaßnahmenmodul 60 empfangen wird. Nach diesem Ereignis wird die autonome Bremssteuerung 62 für das Bremssystem 22 des Hostfahrzeugs 10 aktiviert. Das durch das Plausibilitätsmodul 58 erzeugte Aktivierungssignal reduziert statistisch die Rate fälschlicher Aktivierung der Gegenmaßnahmenvorrichtung, insbesondere der autonomen Bremssteuerung 62, und verbessert die Zuverlässigkeit des gesamten Kollisionserkennungssystems 12. Demgemäß reduziert die verbesserte Zuverlässigkeit den Aufwand und das Ausmaß der Validierung, die zum Implementieren eines autonomen Bremssystems erforderlich ist.
-
Für Durchschnittsfachleute ist zu erkennen, dass der Aufbau der beschriebenen Erfindung und anderer Komponenten nicht auf irgendein spezifisches Material beschränkt ist. Andere beispielhafte Ausführungsformen der hierin offenbarten Erfindung können aus einer großen Vielfalt von Materialien gebildet werden, sofern hierin nicht anders angegeben.
-
Zum Zwecke dieser Offenbarung bezieht sich der Begriff „gekoppelt” (in allen seinen Formen, koppeln, koppelnd, gekoppelt usw.) im Allgemeinen auf die direkte oder indirekte Verbindung von zwei (elektrischen oder mechanischen) Komponenten miteinander. Solch eine Verbindung kann von unbeweglicher Beschaffenheit oder beweglicher Beschaffenheit sein. Solch eine Verbindung kann mit den zwei (elektrischen oder mechanischen) Komponenten und beliebigen zusätzlichen Zwischenelementen erreicht werden, die als ein einzelner Einheitskörper einstückig miteinander oder mit den beiden Komponenten ausgebildet sind. Solch eine Verbindung kann von dauerhafter Beschaffenheit oder von entfernbarer oder lösbarer Beschaffenheit sein, sofern nicht anders angegeben.
-
Es ist außerdem wichtig zu erwähnen, dass der Aufbau und die Anordnung der Elemente der Erfindung, wie in den beispielhaften Ausführungsformen dargestellt, lediglich veranschaulichend sind. Obwohl in dieser Offenbarung nur einige Ausführungsformen der vorliegenden Neuerungen ausführlich beschrieben wurden, ist für Fachleute, die diese Offenbarung prüfen, leicht zu erkennen, dass viele Modifikationen (z. B. Änderungen von Größen, Abmessungen, Strukturen, Formen und Proportionen der verschiedenen Elemente, Parameterwerten, Befestigungsanordnungen, Verwendung von Materialien, Farben, Ausrichtungen usw.) möglich sind, ohne wesentlich von den neuartigen Lehren und Vorteilen des beschriebenen Gegenstands abzuweichen. Zum Beispiel können Elemente, die als einstückig ausgebildet dargestellt sind, aus mehreren Teilen gebaut werden, oder Elemente, die als mehrere Teile dargestellt sind, können einstückig ausgebildet werden, der Betrieb der Schnittstellen kann umgekehrt oder anderweitig geändert werden, die Länge oder Breite der Strukturen und/oder Elemente oder Verbinder oder anderer Elemente des Systems können geändert werden, die Beschaffenheit oder Anzahl von Einstellungspositionen, die zwischen den Elementen vorgesehen sind, kann geändert werden. Es ist zu erwähnen, dass die Elemente und/oder Baugruppen des Systems aus beliebigen einer großen Vielfalt von Materialien, die ausreichende Festigkeit und Haltbarkeit bereitstellen, in einer großen Vielfalt von Farben, Texturen und Kombinationen gebaut werden können. Demgemäß ist beabsichtigt, dass solche Modifikationen in den Rahmen der vorliegenden Neuerungen fallen. Andere Ersetzungen, Modifikationen, Änderungen und Weglassungen können an Konstruktion, Betriebsbedingungen und Anordnung der gewünschten und anderer beispielhafter Ausführungsformen vorgenommen werden, ohne vom Gedanken der vorliegenden Neuerungen abzuweichen.
-
Es versteht sich von selbst, dass alle beschriebenen Prozesse oder Schritte innerhalb beschriebener Prozesse mit anderen offenbarten Prozessen oder Schritten kombiniert werden können, um Strukturen innerhalb des Schutzumfangs der vorliegenden Erfindung zu bilden. Die beispielhaften Strukturen und Prozesse, die hierin offenbart werden, dienen lediglich Veranschaulichungszwecken und sind nicht als einschränkend auszulegen.
-
Es versteht sich außerdem von selbst, dass Änderungen und Modifikationen an der zuvor erwähnten Struktur vorgenommen werden können, ohne von den Konzepten der vorliegenden Erfindung abzuweichen, und es versteht sich ferner von selbst, dass beabsichtigt ist, dass solche Konzepte durch die folgenden Ansprüche erfasst werden, sofern diese Ansprüche durch ihren Wortlaut nichts anderes angeben.
-
Zeichenerklärung
-
Fig. 5
-
-
- (RANGE)
- – (ENTFERNUNG)
- (SPEED)
- – (GESCHWINDIGKEIT)
- OUT
- – AUS