DE102013113619B4 - Probabilistische Zielauswahl und Gefahrbewertungsverfahren und Anwendung auf ein Kreuzungs-Kollisonswarnsystem - Google Patents

Probabilistische Zielauswahl und Gefahrbewertungsverfahren und Anwendung auf ein Kreuzungs-Kollisonswarnsystem Download PDF

Info

Publication number
DE102013113619B4
DE102013113619B4 DE102013113619.2A DE102013113619A DE102013113619B4 DE 102013113619 B4 DE102013113619 B4 DE 102013113619B4 DE 102013113619 A DE102013113619 A DE 102013113619A DE 102013113619 B4 DE102013113619 B4 DE 102013113619B4
Authority
DE
Germany
Prior art keywords
host vehicle
points
vehicle
path
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102013113619.2A
Other languages
English (en)
Other versions
DE102013113619A1 (de
Inventor
Shuqing Zeng
Wende Zhang
Mark E. Shields
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102013113619A1 publication Critical patent/DE102013113619A1/de
Application granted granted Critical
Publication of DE102013113619B4 publication Critical patent/DE102013113619B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/93185Controlling the brakes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4039Means for monitoring or calibrating of parts of a radar system of sensor or antenna obstruction, e.g. dirt- or ice-coating

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Verfahren zum Bereitstellen einer Zielgefahrbewertung in einem Kollisionsvermeidungssystem (22) in einem Trägerfahrzeug (138, 162), wobei das Verfahren umfasst:Bestimmen eines Fahrwegs (134, 136, 156, 158) des Trägerfahrzeugs (138, 162) unter Verwendung der Bewegungsdynamik des Trägerfahrzeugs (138, 162);Senden eines Abtastsignals (168) von wenigstens einem Sensor an dem Trägerfahrzeug (138, 162);Empfangen mehrerer Abtastechopunkte (144) bei dem Trägerfahrzeug (138, 162) von einem oder von mehreren detektierten Objekten (140, 160), die das Abtastsignal (168) reflektieren;Erzeugen eines Verteilungssignals, das einen Umriss jedes detektierten Objekts (140, 160) definiert, unter Verwendung des Abtastsignals (168);Berechnen einer Position, einer Translationsgeschwindigkeit und einer Winkelgeschwindigkeit jedes detektierten Objekts (140, 160) unter Verwendung der Abtastechopunkte (144);Auswählen der Objekte (140, 160, 164), die auf dem Fahrweg (134, 136, 156, 158) des Trägerfahrzeugs (138, 162) sein oder in ihn eintreten können, unter Verwendung des Verteilungssignals, der Position, der Translationsgeschwindigkeit und der Winkelgeschwindigkeit jedes Objekts (140, 160, 164); undBestimmen einer Gefahrbewertung jener Objekte (140, 160, 164), die auf dem Fahrweg (134, 136, 156, 158) des Trägerfahrzeugs (138, 162) sind oder in ihn eintreten können, durch Vergleichen einer Anzahl von Abtastechopunkten (144), die angeben, dass das Objekt (140, 160, 164) auf dem Fahrweg (134, 136, 156, 158) ist oder in ihn eintreten kann, mit der Anzahl von Abtastpunkten, die für dieses Objekt (140, 160, 164) empfangen werden, wobei das Auswählen der Objekte (140, 160, 164), die auf dem Fahrweg (134, 136, 156, 158) des Trägerfahrzeugs (138, 162) sein oder in ihn eintreten können, das Verringern der Komplexität des Verteilungssignals auf eine verringerte Anzahl von Abtastpunkten enthält, wobei das Auswählen der Objekte (140, 160, 164), die auf dem Fahrweg (134, 136, 156, 158) des Trägerfahrzeugs (138, 162) sein oder in ihn eintreten können, das Verwenden einer probabilistischen Technik enthält, wobei die probabilistische Technik das Verwenden einer Monte-Carlo-Technik, die das Verteilungssignal in mehrere Partikel trennt, enthält.

Description

  • Hintergrund der Erfindung
  • Gebiet der Erfindung
  • Diese Erfindung bezieht sich allgemein auf ein System und auf ein Verfahren zur Bereitstellung einer Zielauswahl und einer Gefahrbewertung in einem Fahrzeugkollisionsvermeidungssystem (VCA-System) und insbesondere auf ein System und auf ein Verfahren zum Bereitstellen einer Zielauswahl und einer Gefahrbewertung in einem VCA-System, das Wahrscheinlichkeitsanalyse und Radar/LiDAR-Abtastechos nutzt.
  • Diskussion des verwandten Gebiets
  • Moderne Fahrzeuge enthalten gelegentlich ein Kollisionsvermeidungssystem, das Objektdetektierungssensoren nutzt, die verwendet werden, um eine Kollisionswarnung oder -vermeidung und andere aktive Sicherheitsanwendungen zu ermöglichen. Die Objektdetektierungssensoren können irgendwelche eine Anzahl von Technologien wie etwa kurzreichweitiges Radar, langreichweitiges Radar, Kameras mit Bildverarbeitung, Laser oder LiDAR, Ultraschall usw. verwenden. Die Objektdetektierungssensoren detektieren Fahrzeuge und andere Objekte auf dem Weg eines Trägerfahrzeugs und die Anwendungssoftware verwendet die Objektdetektierungsinformationen, um gegebenenfalls Warnungen bereitzustellen oder Maßnahmen zu ergreifen. In viele Fahrzeugen sind die Objektdetektierungssensoren direkt in den vorderen Stoßfänger oder in eine andere Verkleidung des Fahrzeugs integriert.
  • Damit das Kollisionsvermeidungssystem optimal arbeitet, müssen die Objektdetektierungssensoren richtig auf das Fahrzeug ausgerichtet sein. Falls ein Sensor z. B. ein Objekt detektiert, das auf dem Weg des Trägerfahrzeugs ist, der Sensor aber wegen Sensorfehlausrichtung bestimmt, dass das Objekt etwas auf einer Seite des Wegs des Trägerfahrzeugs ist, kann das erhebliche Folgen für die Anwendungssoftware haben. Selbst wenn es an einem Fahrzeug mehrere nach vorn gerichtete Objektdetektierungssensoren gibt, ist es wichtig, dass sie alle richtig ausgerichtet sind, um im Widerspruch stehende Sensorablesungen zu minimieren oder zu beseitigen.
  • Herkömmliche Fahrzeugradarsensoren bieten von einem detektierten Objekt nur ein einzelnes Radarecho pro Abtastzeit. Üblicherweise ist das Radarecho ein Punkt, der den Ort des gesamten Objekts angibt. Somit wird der genaue Ort des Objekts in Abhängigkeit davon, von welchem Teil des Objekts das Radarecho ausgegangen ist, an einem anderen Ort identifiziert, was gelegentlich zu einer fehlenden Kollisionswarnung führt. Außerdem könnte Rauschen in dem System angeben, dass das Radarecho von einem Ort kam, der von dem, an dem das Objekt tatsächlich ist, etwas versetzt ist, was gelegentlich zu einer falschen Angabe einer Kollision führt.
  • Aus der DE 103 19 700 A1 ist ein Verfahren bekannt, das die Wahrscheinlichkeit für eine Kollision zwischen einem Fahrzeug und einem Gegenstand auf Basis von tiefenaufgelösten Bildern und der Relativgeschwindigkeit des Gegenstands gegenüber dem Fahrzeug ermittelt. Sowohl für den Gegenstand, als auch für das Fahrzeug, wird jeweils eine projizierte Kontur und deren Lage in einer geschätzten Kollisionslage zueinander bestimmt. Aus der Überdeckung der beiden projizierten Konturen wird die Kollisionswahrscheinlichkeit berechnet.
  • Aus der Druckschrift B. VO et al. „Sequential Monte Carlo methods for multitarget filtering with random finite sets“, in IEEE Transactions on Aerospace and Electronic Systems, Vol. 41, S. 1224-1245, 2005 - ISSN 1557-9603 ist ein sequentielles Monte Carlo Verfahren bekannt.
    Die DE 10 2010 038 180 A1 offenbart eine Fahrzeugunterstützungsvorrichtung zur Kollisionsvermeidung in einem Kreuzungsbereich. Um eine drohende Kollision zu verhindern, werden dem Fahrer bei schlechten Sichtverhältnissen Informationen über ein sich bewegendes Objekt im Kreuzungsbereich zur Verfügung gestellt.
  • Es ist Aufgabe der Erfindung, ein Verfahren zur Bewertung von potenziellen Gefahren für Fahrzeugkollisionsvermeidungszwecke durch Wahrscheinlichkeitsanalyse zu schaffen, das effizienter und zuverlässiger als aus dem Stand der Technik bekannte Verfahren ist.
  • Die Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1 gelöst.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • In Übereinstimmung mit den Lehren der vorliegenden Erfindung werden ein System und ein Verfahren zum Bereitstellen einer Zielauswahl und einer Gefahrbewertung für Fahrzeugkollisionsvermeidungszwecke, die die probabilistische Analyse von Radarabtastechos nutzen, offenbart. Das System bestimmt unter Verwendung der Bewegungsdynamik des Trägerfahrzeugs einen Fahrweg eines Trägerfahrzeugs und stellt ein Radarsignal bereit, das von wenigstens einem Sensor an dem Trägerfahrzeug gesendet wird. Das System empfängt von einem oder von mehreren detektierten Objekten, die das Radarsignal reflektieren, mehrere Abtastechopunkte, verarbeitet die Abtastechopunkte, um ein Verteilungssignal zu erzeugen, das einen Umriss jedes detektierten Objekts definiert, und verarbeitet die Abtastechopunkte, um eine Position, eine Translationsgeschwindigkeit und eine Winkelgeschwindigkeit jedes detektierten Objekts bereitzustellen. Das Syseine Winkelgeschwindigkeit jedes detektierten Objekts bereitzustellen. Das System wählt unter Verwendung der Verteilung, der Position, der Translationsgeschwindigkeit und der Winkelgeschwindigkeit jedes Objekts die Objekte aus, die auf dem Fahrweg des Trägerfahrzeugs sein oder in ihn eintreten können, und nimmt durch Vergleichen einer Anzahl von Abtastechopunkten, die angeben, dass das Objekt auf dem Fahrweg ist oder in ihn eintreten kann, mit der Anzahl der Abtastpunkte, die für dieses Objekt empfangen werden, eine Gefahrbewertung dieser Objekte, die auf dem Fahrweg des Trägerfahrzeugs sein oder in ihn eintreten können, vor.
  • Zusätzliche Merkmale der vorliegenden Erfindung gehen aus der folgenden Beschreibung und aus den angefügten Ansprüchen in Verbindung mit den beigefügten Zeichnungen hervor.
  • Figurenliste
    • 1 ist eine Darstellung eines Fahrzeugs, das mehrere Radar- oder LiDAR-Sensoren enthält;
    • 2 ist eine Darstellung, die ein Trägerfahrzeug zeigt, das einen herkömmlichen Radarsensor enthält, der ein Zielfahrzeug innerhalb seines Fahrwegs nicht detektiert;
    • 3 ist eine Darstellung, die ein Trägerfahrzeug zeigt, das einen herkömmlichen Radarsensor enthält, der ein Zielfahrzeug innerhalb seines Fahrwegs detektiert, wenn es dort nicht ist;
    • 4 ist eine Darstellung einer Radarabtastclusterkarte zu zwei aufeinanderfolgenden Abtastzeitpunkten;
    • 5 ist eine Darstellung von Radarabtastpunkten an verschiedenen Zielen mit verschiedenen Formen;
    • 6 ist eine Darstellung, die ein Trägerfahrzeug zeigt, das ein Zielfahrzeug auf seinem Fahrweg unter Verwendung mehrerer Abtastpunkte richtig detektiert;
    • 7 ist eine Darstellung, die ein Trägerfahrzeug zeigt, das ein Zielfahrzeug auf seinem Fahrweg falsch detektiert, wenn es dort nicht ist;
    • 8 ist ein Blockschaltplan eines Gefahrbewertungssystems in einem Fahrzeug;
    • 9 ist eine graphische Darstellung, die eine Verteilung von Radarechopunkten von einem Ziel in einem Zielkoordinatensystem darstellt;
    • 10 ist eine Darstellung zweier Fahrzeuge auf einem Kollisionsweg an einer Kreuzung, die in einer Weltkoordinatenansicht gezeigt ist;
    • 11 ist eine Darstellung zweier Fahrzeuge auf einem Kollisionsweg, der in einer Fahrzeugkoordinatenansicht gezeigt ist;
    • 12 ist eine Darstellung eines Trägerfahrzeugs, das sich einer Kreuzung nähert, wobei ein verborgenes Fahrzeug vor dem Trägerfahrzeug in die Kreuzung eintreten kann;
    • 13 ist ein Ablaufplandiagramm, das einen Prozess zum Bereitstellen einer Sensorsichtbarkeitsanalyse und Gefahrbewertung zeigt; und
    • 14 ist eine graphische Darstellung mit der Zeit auf der horizontalen Achse und mit Zählwerten auf der vertikalen Achse, die eine Gefahrbewertungswarnzone zeigt.
  • AUSFÜHRLICHE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Die folgende Diskussion der Ausführungsformen der Erfindung, die auf ein System und auf ein Verfahren zum Bereitstellen einer Zielauswahl und Gefahrbewertung in einem Fahrzeugkollisionsvermeidungssystem unter Verwendung einer probabilistischen Analyse mehrerer Radar/LiDAR-Abtastpunkte gerichtet ist, ist dem Wesen nach lediglich beispielhaft und soll die Erfindung oder ihre Anwendungen oder Verwendungen in keiner Weise einschränken. Zum Beispiel kann die hier diskutierte Wahrscheinlichkeitstechnik Anwendung auf andere Systeme als Fahrzeugkollisionsvermeidungssysteme besitzen.
  • 1 ist eine Darstellung eines Fahrzeugs 10, das einen nach vorn gerichteten Sensor 12, einen nach hinten gerichteten Sensor 14, einen zur rechten Seite gerichteten Sensor 16 und einen zur linken Seite gerichteten Sensor 18 enthält. Die Sensoren 12-18 sollen irgendeinen Sensor repräsentieren, der für ein Fahrzeugkollisionsvermeidungssystem, das Radarsensoren, LiDAR-Sensoren, Kameras usw. enthält, anwendbar ist und der für die hier beschriebenen Zwecke geeignet ist, wobei auf dem Gebiet der Kraftfahrzeuge viele davon bekannt sind. Wie der Fachmann auf dem Gebiet gut versteht und würdigen wird, können die Sensoren 12-18 innerhalb oder an irgendeiner geeigneten Struktur, die Teil des Fahrzeugs 10 ist, wie etwa Stoßfänger, Verkleidung, Kühlergrill, Außenspiegel, Türplattenelemente usw. angebracht sein. Die Sensordaten von den Sensoren 12-18 werden für ein Kollisionsvermeidungssystem 22 bereitgestellt, das die Daten verarbeitet, um Kollisionsvermeidungsfunktionen bereitzustellen. Das System 22 soll irgendeine und/oder alle der Vorrichtungen, Schaltungen, Prozessoren, Software usw. repräsentieren, die notwendig sind, um Sensordaten zu verarbeiten und die hier diskutierten Signale und Betriebe bereitzustellen.
  • Wie oben erwähnt wurde, würden die Sensoren 12-18 ein einzelnes Radarecho bereitstellen, falls sie herkömmliche Radarsensoren wären. 2 ist eine Darstellung 50, die ein Trägerfahrzeug 52 zeigt, das ein Kollisionsvermeidungssystem (nicht gezeigt), das hinter einem Zielfahrzeug 54 herfährt, enthält, wobei ein Weg 56 vor dem Fahrzeug 52 ein Kollisionsweg für die aktuelle Fahrtrichtung des Fahrzeugs 52 ist. Das Trägerfahrzeug 52 enthält einen oder mehrere herkömmliche Radarsensoren (nicht gezeigt), die von dem Zielfahrzeug 54 einen einzelnen Radarabtastechopunkt 58 bereitstellen. Wie gezeigt ist, ist der Abtastechopunkt 58 eine Reflexion von einem Teil des Fahrzeugs 54, der nicht innerhalb des Kollisionswegs 56 ist. Die Darstellung 50 soll eine Bedingung eines fehlenden Alarms zeigen, wobei ein Teil des Zielfahrzeugs 54 oder das gesamte Zielfahrzeug 54 innerhalb des Kollisionswegs 56 des Trägerfahrzeugs 52 ist, der Abtastpunkt 58 aber angibt, dass das Fahrzeug 54 außerhalb des Wegs 56 ist, wobei das Kollisionsvermeidungssystem in dem Fahrzeug 52 keine Warnung vor einer potentiellen Kollision bereitstellen würde.
  • 3 ist eine Darstellung 60 ähnlich der Darstellung 50, in der gleiche Elemente durch dasselbe Bezugszeichen identifiziert sind. In der Darstellung 60 ist das Zielfahrzeug 54 vollständig außerhalb des Kollisionswegs 56. Allerdings ist der einzelne Abtastechopunkt 58, dessen Position in diesem Fall durch Rauschen bewirkt ist und der nicht an dem Fahrzeug 56 ist, innerhalb des Kollisionswegs 56, was eine Kollisionsfehlalarmbedingung bereitstellt.
  • Viele moderne Typen von Radarsensoren, die an Fahrzeugen gelegentlich zum Detektieren von Objekten um das Fahrzeug genutzt werden und die eine Entfernung und Orientierung zu diesen Objekten bereitstellen, stellen Reflexionen von den Objekten als mehrere Abtastpunkte bereit, die als eine Punktclusterentfernungskarte kombinieren, wobei für jeweils 1/2° über das Sichtfeld des Sensors ein getrennter Abtastpunkt bereitgestellt wird. Falls ein Zielfahrzeug oder ein anderes Objekt vor dem Trägerfahrzeug detektiert wird, kann es somit mehrere Abtastpunkte geben, die zurückgegeben werden, die die Distanz des Zielfahrzeugs von dem Trägerfahrzeug identifizieren. Durch Bereitstellung eines Clusters von Abtastechopunkten können Objekte, die verschiedene und beliebige Formen aufweisen, wie etwa Lastkraftwagen, Anhänger, ein Fahrrad, ein Fußgänger, eine Leitplanke, eine K-Sperre usw. leichter detektiert werden, wobei umso mehr Abtastpunkte bereitgestellt werden, je größer und/oder näher zu dem Trägerfahrzeug das Objekt ist. Andere Typen von Sensoren einschließlich LiDAR-Sensoren, Stereokameras, d. h. zwei oder mehr Kameras usw., stellen ebenfalls eine Punktclusterentfernungskarte bereit, die mehrere Abtastpunkte enthält.
  • Ein Fahrzeug kann mehrere Sensoren aufweisen, um ein 360°-Sichtfeld um das Fahrzeug bereitzustellen. Diese mehreren Sensoren können zur Seite gerichtete Sensoren, nach hinten gerichtete Sensoren und nach vorn gerichtete Sensoren enthalten. Jeder der Sensoren führt unabhängig von den anderen Sensoren Objekte in seinem Sichtfeld nach. Die Abtastkarte wird unter Verwendung der Abtastechopunkte von den mehreren Sensoren erzeugt, um Objekte in der Nähe des Trägerfahrzeugs nachzuführen. Für ein Fahrzeug mit mehreren Sensoren werden mehrere Abtastpunktclusterkarten zurückgegeben und für sich überschneidende Sensorsichtfelder können die Sensoren dasselbe Objekt nachführen. Es ist notwendig, die Abtastpunktkarten der Sensoren zu kombinieren, damit dasselbe Objekt, das durch die Sensoren nachgeführt wird, als ein einzelnes Ziel verarbeitet wird.
  • Wie hier diskutiert ist, sind im Gebiet verschiedene Systeme bekannt, die Sensoren nutzen, die mehrere Abtastechopunkte bereitstellen, um mehrere Objekte gleichzeitig zu detektieren. 4 ist eine Darstellung 30, die eine Clusterkarte 32 von Abtastechopunkten 34 zu einem Zeitpunkt und eine Clusterkarte 36 von Abtastechopunkten 38 zu einem nachfolgenden Zeitpunkt zeigt. Die Darstellung 30 zeigt die Abbildung der Abtastpunkte 34 von dem früheren Zeitpunkt auf die zu dem späteren Zeitpunkt. In einer Ausführungsform wird der neue Cluster in dem nächsten Datenrahmen mit einer Rate von etwa 100 Millisekunden bereitgestellt.
  • 5 ist eine Darstellung 70 eines Trägerfahrzeugs 72, das ein Kollisionsvermeidungssystem (nicht gezeigt) enthält, das Radarabtastechopunkte von verschiedenen Objekten in der Nähe des Fahrzeugs 72 bereitstellt. Zum Beispiel stellt ein Lastkraftwagen 74 vor dem Fahrzeug 72 ein Cluster von Abtastechopunkten 78 bereit und stellt eine Sperre 76 entlang der Seite des Fahrzeugs 72 ein Cluster von Abtastechopunkten 80 bereit. Im Gegensatz zu den herkömmlichen Radarsensoren, die nur einen einzelnen Echopunkt bereitgestellt haben, enthält jedes detektierte Objekt mehrere Abtastechopunkte zur Auswahl, um zu bestimmen, ob eine Kollision möglich oder wahrscheinlich ist. Die Darstellung 70 zeigt, dass verschiedene Ziele verschiedene und unterschiedliche Formen aufweisen können. Wie hervorgeht, kann der Cluster der Abtastechopunkte in der Lage sein, die Form des Objekts zu identifizieren.
  • 6 ist eine Darstellung 90 ähnlich der Darstellung 50, wobei gleiche Elemente durch dasselbe Bezugszeichen identifiziert sind. In dieser Ausführungsform enthält das Trägerfahrzeug 52 Sensoren (nicht gezeigt), die einen Cluster 92 der Abtastechopunkte 94 bereitstellen, so dass die Form des Zielfahrzeugs 54 identifiziert werden kann. Die Darstellung 90 zeigt, dass das Zielfahrzeug 54 auf dem Kollisionsweg 56 ist und dass die Abtastechopunkte 94 eine Angabe einer potentiellen Kollision bereitstellen, was als echt positiv bezeichnet werden kann.
  • 7 ist eine Darstellung 100 ähnlich der Darstellung 90, wobei gleiche Elemente mit demselben Bezugszeichen identifiziert sind. In der Darstellung 100 ist das Zielfahrzeug 54 nicht auf dem Kollisionsweg 56, allerdings ist eines der Abtastpunktechos 102 auf dem Kollisionsweg 56, was eine Alarmbedingung bereitstellen würde, die als echt negativ bezeichnet wird.
  • Wie oben diskutiert wurde, haben herkömmliche Radarsensoren den Nachteil, im Ergebnis dessen, dass nur ein einzelner Radarechopunkt bereitgestellt wird, fehlende Alarme und Fehlalarme bereitzustellen. Moderne Radarsensoren, die mehrere Abtastpunktechos bereitstellen, können die Anzahl von fehlenden Alarmen und Fehlalarmen wegen der mehreren Abtastpunktechos verringern. Es können verschiedene Techniken genutzt werden, um die mehreren Echopunkte auszunutzen. Die vorliegende Erfindung schlägt eine Technik vor, bei der eine potentielle oder mögliche Kollision zwischen einem Trägerfahrzeug und einem Zielfahrzeug durch Wahrscheinlichkeitsanalyse identifiziert wird, die Statistik und Histogramme nutzt, die durch Vergleichen eines Prozentsatzes der von dem Zielfahrzeug zurückgegebenen Abtastpunkte, die auf dem Kollisionsweg sind, mit einem Schwellenwert bestimmen, ob das Zielfahrzeug auf den Kollisionsweg mit dem Trägerfahrzeug ist oder in ihn eintreten kann. Mit anderen Worten, es kann eine statistische Analyse genutzt werden, die das Vergleichen der Anzahl der Abtastpunkte, die von dem Ziel empfangen werden, mit der Anzahl jener Abtastpunkte, die innerhalb des Kollisionswegs sind, enthält, um zu bestimmen, ob eine Kollision möglich oder wahrscheinlich ist. Wie diskutiert wird, werden auf diese Weise mehrere Datenrahmen statistisch analysiert, um das Potential für eine Kollision zu bestimmen.
  • Es wird angemerkt, dass sich die vorliegende Diskussion spezifisch auf Zielfahrzeuge und Radarsensoren beziehen kann. Wie der Fachmann auf de Gebiet würdigen wird, besitzt die vorliegende Erfindung aber Anwendung für die Detektierung irgendeines Objekts in dem Weg eines Trägerfahrzeugs, wobei das Trägerfahrzeug irgendeinen Sensortyp, der mehrere Abtastechopunkte von dem Objekt bereitstellt, enthalten kann.
  • 8 ist ein Blockschaltplan 110, der einen Prozess zum Bereitstellen einer Zielgefahrbewertung in einem Fahrzeugkollisionsvermeidungssystem zeigt. In dem Kasten 112 stellt das Kollisionsvermeidungssystem unter Verwendung eines oder mehrerer Sensoren in Übereinstimmung mit der vorliegenden Diskussion, die die Abtastpunktclusterkarten bereitstellen, eine Objekterfassung bereit. Im Kasten 114 werden die Abtastpunktclusterkarten mit der Abtastrate der Sensoren bereitgestellt, wobei der Algorithmus eine Datenfusion, falls mehrere Sensoren genutzt werden, und eine Sensorklassifizierung, falls mehrere Typen von Sensoren genutzt werden, ausführt. Der Fachmann auf dem Gebiet kennt viele für diesen Zweck geeignete Datenfusions- und Sensorklassifizierungsalgorithmen. Außerdem bestimmt der Algorithmus im Kasten 116 unter Verwendung von Fahrzeugdynamikdaten wie etwa der Fahrzeuggeschwindigkeit, der Fahrzeuggierrate, des Lenkwinkels, des Seitenschlupfs usw., die bereits von vorhandenen Sensoren verfügbar sind, einen vorhergesagten Weg (Kollisionsweg) des Trägerfahrzeugs. Dem Fachmann auf dem Gebiet sind ebenfalls viele geeignete Fahrzeugdynamikalgorithmen bekannt, die für diesen Zweck verwendet werden können.
  • Die fusionierten und klassifizierten Abtastpunktkarten werden für einen Kasten 118 der probabilistischen Zieldarstellung bereitgestellt, der eine Verteilung p(x) der Abtastechopunkte erzeugt, um eine Form jedes der detektierten Ziele zu repräsentieren. In einer nicht einschränkenden Ausführungsform ist die Verteilung p(x) eine Wahrscheinlichkeitsverteilungsfunktion (PDF), z. B. ein Histogramm, des in 9 gezeigten Typs. 9 ist eine graphische Darstellung mit der Position (x, y) auf zwei der Achsen und mit der PDF auf der anderen Achse, wobei die Anzahl der Abtastechopunkte an einen spezifischen Ort die Größe der PDF an diesem Ort bestimmt. In diesem Beispiel zeigt die PDF die Form der Rückseite oder der Vorderseite und der Seite eines Zielfahrzeugs.
  • Der durch die PDF repräsentierte Umriss wird bei jedem Abtastzeitpunkt durch Aufeinanderpassen von Punkten auf einer Abtastclusterkarte mit denen der nächsten Abtastclusterkarte ständig aktualisiert. Falls z. B. der Cluster 32 die Abtastpunkte von einem Abtastzeitpunkt repräsentiert und der Cluster 36 die Abtastpunkte für den nächsten Abtastzeitpunkt repräsentiert, wobei der Cluster 32 ein Objektmodell M ist, S der aktuelle Abtastcluster 36 ist, m die Abtastpunkte in dem Objektmodell M sind und s die Abtastpunkte in dem Cluster S sind, wird die Verteilung durch Bereitstellen einer starren Transformation der Abtastpunkte in dem Cluster 32 in die Abtastpunkte in dem Cluster 36 aktualisiert. Auf diese Weise wird jedes detektierte Ziel unter Verwendung der Translationsgeschwindigkeit v und der Winkelgeschwindigkeit ω des Ziels relativ zu einer Referenzmitte r des Zielfahrzeugs nachgeführt.
  • Die Aktualisierung der PDF oder Verteilung p(x) für jeden Abtastzeitpunkt kann wie folgt ausgeführt werden. Der Algorithmus bestimmt durch Bereitstellen des Objektmodells M, der aktuellen Radarkarte S (Cluster) und einer früheren starren Bewegung v(0) von dem Objektmodell M zu der Radarkarte S die starre Bewegung v durch iteratives Berechnen als: v ( n = + 1 ) = a r g m i n v j , k A ^ j k ( s j T v ( n ) ( m k ) 2 σ 1 ,
    Figure DE102013113619B4_0001
    wobei sj und mk die Abtastpunkte bzw. die Modellpunkte sind und T v ( n )
    Figure DE102013113619B4_0002
    der Operator ist, der die starre Bewegung v während Δt für den Punkt x zu der n-ten Epoche anwendet. Die Gewichtung Âjk ist die geschätzte Wahrscheinlichkeit, dass sj eine Messung des Modells mk ist.
  • Das Objektmodell M wird als ein gaußsches Mischmodell (GMM) als p ( x ; M ) = k = 1 n M 1 n M p ( x | m k ) ,
    Figure DE102013113619B4_0003
    p ( x | m k ) = 1 ( 2 π σ 2 ) 2 3 e x p ( x m k 2 2 σ 2 )
    Figure DE102013113619B4_0004
    modelliert. Der Parameter mk sei als p ( m k ) = N ( v k , σ 2 η k )
    Figure DE102013113619B4_0005
    verteilt. Eine Aktualisierungsregel ist gegeben als: v k ' = ρ k s ¯ k + η k T y ¯ t + 1 ( v k ) ρ k + η k ,
    Figure DE102013113619B4_0006
    p k = j A ^ j k , s ¯ k = j A ^ j k s j / ρ k ,
    Figure DE102013113619B4_0007
    η k ' = η k + ρ k .
    Figure DE102013113619B4_0008
  • Von dem Kasten 118 der probabilistischen Zieldarstellung werden die Verteilung oder der Umriss p(x) des Zielfahrzeugs, die Position (xo, yo) des Zielfahrzeugs, die Translationsbewegung (Geschwindigkeit) des Zielfahrzeugs (vx, vy) und die Winkelgeschwindigkeit ω des Zielfahrzeugs ausgegeben und für einen Sensorsichtbarkeitsanalysekasten 120, für einen Gefahrbewertungskasten 122 und für einen Zielauswahlkasten 124 bereitgestellt. Der vorhergesagte Weg des Zielfahrzeugs von dem Kasten 116 wird ebenfalls für den Zielauswahlkasten 124 bereitgestellt. Der Zielauswahlalgorithmus in dem Kasten 124 verwendet eine probabilistische Technik, um nur jene Ziele auszuwählen, von denen detektiert worden ist, dass sie potentiell auf einem Kollisionsweg mit dem Trägerfahrzeug sind. Der Zielauswahlalgorithmus verringert die Komplexität der Verteilung p(x), z. B. durch Bereitstellen einer verringerten Anzahl von Komponenten p(x|mk) (durch Punkte mk bezeichnet), die eine gaußsche Verteilung aufweisen, die auf eine dem Fachmann auf dem Gebiet bekannte Weise kombinieren, um den Umriss des Ziels zu bilden.
  • In einem Beispiel kann ein Fahrzeug auf einer Querfahrspur als auf dem Kollisionsweg mit dem Trägerfahrzeug detektiert werden, wenn das Trägerfahrzeug auf einer Kreuzung ist. 10 ist eine Darstellung 130 einer Kreuzung 132, die Fahrzeugfahrspuren 134 und 136, die sich kreuzen, enthält. Es ist ein Trägerfahrzeug 138 gezeigt, das auf der Fahrspur 136 fährt, und es ist ein Zielfahrzeug 140 gezeigt, das auf der Fahrspur 134 fährt. Das Trägerfahrzeug 138 weist die Geschwindigkeit Vx auf und das Zielfahrzeug 140 weist eine Geschwindigkeit Vy auf.
  • In der Darstellung 130 sind die Fahrzeuge 138 und 140 in einer Weltkoordinatenansicht (x, y) gezeigt, wobei der Ursprung des Koordinatensystems in dem Schwerpunkt (CG) des Trägerfahrzeugs 138 ist.
  • 11 ist eine Darstellung 142, die das Trägerfahrzeug 138 und das Zielfahrzeug 140 in derselben Orientierung wie in der Darstellung 130, aber in einer Fahrzeugkoordinatenansicht, zeigt. Das Trägerfahrzeug 138 ist mit einer Kollisionseinhüllenden 146 darum gezeigt, die als ein Puffer verwendet wird, um das Fahrzeug 138 für die Kollisionsberechnungen größer zu machen, als es ist. Das Zielfahrzeug 140 ist mit Abtastpunkten 144 gezeigt, die die obenerwähnte verringerte Anzahl der tatsächlichen Abtastechopunkte sind, wobei die Abtastpunkte 144 von der PDF als diejenigen abgetastet worden sind, die die Position des Zielfahrzeugs 140 am besten identifizieren, um die Rechenkomplexität zu verringern. Durch Bereitstellung eines Modells für jedes Ziel wird eine Wahrscheinlichkeit bestimmt, dass das Zielfahrzeug 140 auf einem potentiellen Kollisionsweg mit dem Trägerfahrzeug 138 ist. Das Zielfahrzeug 140 wird ausgewählt, falls die Wahrscheinlichkeit höher als ein vorgegebener Schwellenwert ist. Zum Beispiel bestimmt der Algorithmus, dass das Zielfahrzeug 140 auf einem Kollisionsweg mit dem Trägerfahrzeug 138 ist, falls irgendeiner der verringerten Anzahl von Punkten in die Einhüllende 146 eintritt.
  • Erfindungsgemäß nutzt die probabilistische Zielauswahltechnik einen Monte-Carlo-Prozess. In dieser Herangehensweise wird die Verteilung p(x) für jedes Modell jedes Zielfahrzeugs, das detektiert wird, in K Partikel {xk, k = 1, ..., K} abgetastet. Eine Partikel ist auf einem Kollisionsweg mit dem Trägerfahrzeug 138, falls sie die Einhüllende 146 des Trägerfahrzeugs 138 durchquert, wobei die Einhüllende 146 erhöht oder verringert werden kann, um die Empfindlichkeit des Zielauswahlalgorithmus zu kalibrieren. Für jede Partikel xk wird die Geschwindigkeit vk der Partikel als v k = v + ( x k r o ) x   ω ,
    Figure DE102013113619B4_0009
    berechnet, wobei die Zielmitte ro, die Zieltranslationsgeschwindigkeit v und die Winkelgeschwindigkeit ω gegeben sind.
  • Falls die Sensoren in dem Trägerfahrzeug in einer bestimmten Richtung gesperrt sind, stellt der Sensorsichtbarkeits-Analysealgorithmus in dem Kasten 120 eine Zieldetektierungsanalyse bereit. 12 ist eine Darstellung 150, die eine Kreuzung 152 zeigt, die nebeneinanderliegende Fahrspuren 154 und 156 enthält, die sich mit einer Querfahrspur 158 kreuzen. Ein Trägerfahrzeug 162 fährt auf der Fahrspur 156 und beabsichtigt, eine Fahrtrichtungsänderung nach rechts in die Fahrspur 158 vorzunehmen. Ein erstes Zielfahrzeug 160 ist in der Fahrspur 154 an der Kreuzung 152 angehalten und ein zweites Zielfahrzeug 164 fährt entlang der Fahrspur 158 in Richtung des Trägerfahrzeugs 162. Durch Linien 168 dargestellte Radarabtastungen von dem Trägerfahrzeug 162, die eine durch den Kreis 166 identifizierte Reichweite aufweisen, detektieren das Zielfahrzeug 160, detektieren aber nicht das Zielfahrzeug 164, da die Radarsignale durch das Zielfahrzeug 160 versperrt sind.
  • 13 ist ein Ablaufplandiagramm 170, das in dem Kasten 120 einen Prozess für die Sensorsichtbarkeitsanalyse zeigt. Der Algorithmus beginnt in dem Oval 172 und geht zu dem Kasten 174 zum Detektieren einer Kreuzung über. Der Kreuzungsdetektierungsprozess kann in dem Kasten 176 z. B. das Detektieren einer Haltelinie, eines Stoppschilds oder eines Bremslichts an der Kreuzung unter Verwendung eines Sensors (z. B. einer Kamera) oder unter Verwendung digitaler Kartendaten enthalten. Falls die Kreuzung 152 detektiert wird, bestimmt der Algorithmus daraufhin in der Entscheidungsraute 178, ob sich das Trägerfahrzeug 162 der Kreuzung 152 nähert, wobei er in dem Kasten 180 eine Sensorsichtbarkeitsanalyse bereitstellt, wenn das der Fall ist. Die Sensorsichtbarkeitsanalyse kann das Bestimmen, ob ein Ziel wie etwa das Zielfahrzeug 160 detektiert wird, und wenn das der Fall ist, ob es innerhalb einer gewissen minimalen Entfernung von dem Trägerfahrzeug 162 wie etwa 30 Metern, wie durch den Kreis 166 dargestellt ist, ist, enthalten. Auf der Grundlage von Objekten, die innerhalb der minimalen Distanz detektiert werden, und des Orts dieser Objekte kann veranlasst werden, dass der Algorithmus Merker setzt, die angeben, dass eine potentielle Bedrohung vorhanden sein kann. Daraufhin bestimmt der Algorithmus in der Entscheidungsraute 182, ob die Trägerfahrzeuggeschwindigkeit höher als ein vorgegebener Schwellenwert ist. Falls die Trägerfahrzeuggeschwindigkeit über einem Schwellenwert ist und der Algorithmus angibt, dass eine potentielle Bedrohung vorliegt, stellt der Algorithmus in dem Kasten 184 eine Warnung vor einer potentiellen Kollision oder Bremsung bereit, falls bestimmt wird, dass eine Kollision unmittelbar bevorsteht, was in dem Gefahrbewertungskasten 122 ausgeführt wird. Daraufhin kehrt der Algorithmus zu dem Kasten 174 zurück, um eine Kreuzungsdetektierung bereitzustellen. Falls sich das Trägerfahrzeug 162 in der Entscheidungsraute 178 nicht der Kreuzung nähert oder falls die Trägerfahrzeuggeschwindigkeit in der Entscheidungsraute 182 unter dem Schwellenwert ist, kehrt der Algorithmus ebenfalls zu dem Kasten 174 zurück, um eine Kreuzungsdetektierung bereitzustellen.
  • Die Sensorsichtbarkeitsdaten und die Zielauswahldaten werden ebenfalls für den Gefahrbewertungsalgorithmus in dem Kasten 122 bereitgestellt, der die Gefahrbewertung bestimmt. Der Gefahrbewertungsalgorithmus bestimmt eine Zeit bis zur Kollision (TTC) jedes der Punkte an dem Zielfahrzeug, die als auf dem Weg des Trägerfahrzeugs befindlich ausgewählt werden. Mit anderen Worten, die TTC für jeden Punkt wird analysiert, um zu bestimmen, ob das Zielfahrzeug, von dem die Punkte empfangen werden, eine Kollisionsgefahr ist. In der robusten Berechnung der Zeit bis zur Kollision wählt der Algorithmus nicht alle Ziele aus, die eine Gefahr für das Trägerfahrzeug darstellen, sondern nur jene Ziele, die eine positive TTC aufweisen, die daraufhin analysiert werden. Die TTC des Zielfahrzeugs ist eine Verteilung der Zielpunkte, wobei jeder Punkt die durch (x, y, vx, vy) repräsentierte Position und Geschwindigkeit aufweist: T T C = m i n i x i v x i = m i n i y i v y i .
    Figure DE102013113619B4_0010
  • Die Verteilung der TTC-Werte kann unter Verwendung eines Histogramms der TTCs für alle Ziele geschätzt werden. 14 ist eine graphische Darstellung 190 mit der TTC auf der horizontalen Achse und mit der Anzahl der Zählwerte auf der vertikalen Achse, die die obenerwähnte Verteilung zeigt. Jeder Balken 192 in der graphischen Darstellung 190 repräsentiert für diesen Zeitpunkt für alle Ziele die Anzahl der Punkte, die eine TTC aufweisen. Ein Histogramm 194 zeigt den Umriss der Balken 192. Die Linie 196 definiert den TTC-Wert, unterhalb dessen in Abhängigkeit von der Anzahl der Punkte, die kleiner als die Linie 196 sind, eine Warnung oder eine scharfe Bremsung gegeben wird. Die Anzahl der Punkte unter der Linie 196, dividiert durch die Gesamtzahl der Punkte in dem Histogramm 194, gibt die Wahrscheinlichkeit einer Kollision.
  • Falls eine kleinere Gefahr bestimmt wird, kann der Algorithmus ein Signal für eine durch den Kasten 126 dargestellte Warnvorrichtung bereitstellen, und falls eine unmittelbar bevorstehende Kollision bestimmt wird, stellt der Gefahrbewertungsalgorithmus für den Kasten 128 ein Signal bereit, das eine scharfe Bremsung repräsentiert. In einer nicht einschränkenden Ausführungsform wird die Warnung gegeben, falls die Wahrscheinlichkeit der Kollision für einen Schwellenwert von drei Sekunden 30 % ist, und wird eine automatische Bremsung bereitgestellt, falls die Wahrscheinlichkeit der Kollision für einen Schwellenwert von 0,6 Sekunden höher als 30 % ist.
  • Wie der Fachmann auf dem Gebiet gut versteht, können sich die mehreren und verschiedenen hier zur Beschreibung der Erfindung diskutierten Schritte und Prozesse auf durch einen Computer, durch einen Prozessor oder durch eine andere elektronische Rechenvorrichtung, die Daten unter Verwendung einer elektrischen Erscheinung manipulieren und/oder transformieren, ausgeführte Betriebe beziehen. Diese Computer und elektronischen Vorrichtungen können verschiedene flüchtige und/oder nicht flüchtige Speicher einschließlich eines nicht vorübergehenden computerlesbaren Mediums mit einem darauf gespeicherten ausführbaren Programm, das verschiedenen Code oder ausführbare Anweisungen enthält, die durch den Computer oder Prozessor ausgeführt werden können, nutzen, wobei der Speicher und/oder das computerlesbare Medium alle Formen und Arten von Speicher und anderen computerlesbaren Medien enthalten kann.

Claims (7)

  1. Verfahren zum Bereitstellen einer Zielgefahrbewertung in einem Kollisionsvermeidungssystem (22) in einem Trägerfahrzeug (138, 162), wobei das Verfahren umfasst: Bestimmen eines Fahrwegs (134, 136, 156, 158) des Trägerfahrzeugs (138, 162) unter Verwendung der Bewegungsdynamik des Trägerfahrzeugs (138, 162); Senden eines Abtastsignals (168) von wenigstens einem Sensor an dem Trägerfahrzeug (138, 162); Empfangen mehrerer Abtastechopunkte (144) bei dem Trägerfahrzeug (138, 162) von einem oder von mehreren detektierten Objekten (140, 160), die das Abtastsignal (168) reflektieren; Erzeugen eines Verteilungssignals, das einen Umriss jedes detektierten Objekts (140, 160) definiert, unter Verwendung des Abtastsignals (168); Berechnen einer Position, einer Translationsgeschwindigkeit und einer Winkelgeschwindigkeit jedes detektierten Objekts (140, 160) unter Verwendung der Abtastechopunkte (144); Auswählen der Objekte (140, 160, 164), die auf dem Fahrweg (134, 136, 156, 158) des Trägerfahrzeugs (138, 162) sein oder in ihn eintreten können, unter Verwendung des Verteilungssignals, der Position, der Translationsgeschwindigkeit und der Winkelgeschwindigkeit jedes Objekts (140, 160, 164); und Bestimmen einer Gefahrbewertung jener Objekte (140, 160, 164), die auf dem Fahrweg (134, 136, 156, 158) des Trägerfahrzeugs (138, 162) sind oder in ihn eintreten können, durch Vergleichen einer Anzahl von Abtastechopunkten (144), die angeben, dass das Objekt (140, 160, 164) auf dem Fahrweg (134, 136, 156, 158) ist oder in ihn eintreten kann, mit der Anzahl von Abtastpunkten, die für dieses Objekt (140, 160, 164) empfangen werden, wobei das Auswählen der Objekte (140, 160, 164), die auf dem Fahrweg (134, 136, 156, 158) des Trägerfahrzeugs (138, 162) sein oder in ihn eintreten können, das Verringern der Komplexität des Verteilungssignals auf eine verringerte Anzahl von Abtastpunkten enthält, wobei das Auswählen der Objekte (140, 160, 164), die auf dem Fahrweg (134, 136, 156, 158) des Trägerfahrzeugs (138, 162) sein oder in ihn eintreten können, das Verwenden einer probabilistischen Technik enthält, wobei die probabilistische Technik das Verwenden einer Monte-Carlo-Technik, die das Verteilungssignal in mehrere Partikel trennt, enthält.
  2. Verfahren nach Anspruch 1, wobei das Erzeugen eines Verteilungssignals jedes Objekts (140, 160, 164) das Aktualisieren des Verteilungssignals zu nachfolgenden Abtastzeitpunkten unter Verwendung eines gaußschen Mischmodells enthält.
  3. Verfahren nach Anspruch 1, wobei die probabilistische Technik das Darstellen jeder verringerten Anzahl von Punkten als eine gaußsche Verteilung enthält.
  4. Verfahren nach Anspruch 1, das ferner das Ausführen einer Sensorsichtbarkeitsanalyse (120), um zu bestimmen, ob einer oder mehrere der Sensoren in einer bestimmten Richtung versperrt sind, umfasst, wobei das Bestimmen einer Gefahrbewertung (122) das Bestimmen einer Kollisionsgefahr enthält, falls einer der Sensoren versperrt ist.
  5. Verfahren nach Anspruch 4, wobei das Ausführen der Sensorsichtbarkeitsanalyse (120) das Ausführen der Sensorsichtbarkeitsanalyse (120), falls bestimmt wird, dass das Trägerfahrzeug (138, 162) auf einer Kreuzung (132, 152) ist oder sich einer nähert, enthält.
  6. Verfahren nach Anspruch 5, wobei das Ausführen der Sensorsichtbarkeitsanalyse (120) das Bestimmen einer Geschwindigkeit des Trägerfahrzeugs (138, 162) enthält.
  7. Verfahren nach Anspruch 1, wobei das Bestimmen einer Gefahrbewertung (122) das Bestimmen einer Zeit bis zur Kollision für einen oder mehrere der Abtastechopunkte (144) enthält.
DE102013113619.2A 2013-05-23 2013-12-06 Probabilistische Zielauswahl und Gefahrbewertungsverfahren und Anwendung auf ein Kreuzungs-Kollisonswarnsystem Active DE102013113619B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/901,123 US9250324B2 (en) 2013-05-23 2013-05-23 Probabilistic target selection and threat assessment method and application to intersection collision alert system
US13/901,123 2013-05-23

Publications (2)

Publication Number Publication Date
DE102013113619A1 DE102013113619A1 (de) 2014-11-27
DE102013113619B4 true DE102013113619B4 (de) 2022-10-27

Family

ID=51863049

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013113619.2A Active DE102013113619B4 (de) 2013-05-23 2013-12-06 Probabilistische Zielauswahl und Gefahrbewertungsverfahren und Anwendung auf ein Kreuzungs-Kollisonswarnsystem

Country Status (3)

Country Link
US (2) US9250324B2 (de)
CN (1) CN104181534B (de)
DE (1) DE102013113619B4 (de)

Families Citing this family (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7525425B2 (en) * 2006-01-20 2009-04-28 Perdiem Llc System and method for defining an event based on relationship between an object location and a user-defined zone
WO2007073470A2 (en) 2005-12-23 2007-06-28 Perdiem, Llc System and method for defining an event based on a relationship between an object location and a user-defined zone
US20230135207A1 (en) * 2011-07-06 2023-05-04 Peloton Technology, Inc. Gap measurement for vehicle convoying
US9153084B2 (en) * 2012-03-14 2015-10-06 Flextronics Ap, Llc Destination and travel information application
US9125255B2 (en) 2012-05-03 2015-09-01 Abl Ip Holding Llc Networked architecture for system of lighting devices having sensors, for intelligent applications
US9250324B2 (en) * 2013-05-23 2016-02-02 GM Global Technology Operations LLC Probabilistic target selection and threat assessment method and application to intersection collision alert system
JP6020729B2 (ja) * 2013-08-01 2016-11-02 日産自動車株式会社 車両位置姿勢角推定装置及び車両位置姿勢角推定方法
JP2015067193A (ja) * 2013-09-30 2015-04-13 株式会社デンソー 先行車選択装置
JP6131813B2 (ja) * 2013-10-03 2017-05-24 株式会社デンソー 先行車選択装置
US20150285639A1 (en) * 2014-04-04 2015-10-08 Umm-Al-Qura University Method and system for crowd sensing to be used for automatic semantic identification
US10088561B2 (en) * 2014-09-19 2018-10-02 GM Global Technology Operations LLC Detection of a distributed radar target based on an auxiliary sensor
JP6292097B2 (ja) * 2014-10-22 2018-03-14 株式会社デンソー 側方測距センサ診断装置
DE102015210015A1 (de) * 2015-06-01 2016-12-01 Robert Bosch Gmbh Verfahren und Vorrichtung zur Positionsbestimmung eines Fahrzeugs
US9610945B2 (en) 2015-06-10 2017-04-04 Ford Global Technologies, Llc Collision mitigation and avoidance
DE102015118957A1 (de) * 2015-11-05 2017-05-11 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erkennen einer Abschattung einer Sensoreinrichtung, Recheneinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
US10692126B2 (en) 2015-11-17 2020-06-23 Nio Usa, Inc. Network-based system for selling and servicing cars
CN105828029A (zh) * 2016-03-11 2016-08-03 乐卡汽车智能科技(北京)有限公司 车辆碰撞监测系统、方法及装置
JP6808958B2 (ja) * 2016-03-30 2021-01-06 住友電気工業株式会社 衝突警報装置、コンピュータプログラム及び衝突警報方法
US9701307B1 (en) 2016-04-11 2017-07-11 David E. Newman Systems and methods for hazard mitigation
DE102016206550A1 (de) * 2016-04-19 2017-10-19 Conti Temic Microelectronic Gmbh Vorrichtung und Verfahren zur Ermittlung einer Objektkinematik eines beweglichen Objektes
CN109416872B (zh) * 2016-05-13 2022-08-23 大陆汽车系统公司 用于对用户告警潜在碰撞的系统和方法
US10266175B2 (en) 2016-05-31 2019-04-23 Ford Global Technologies, Llc Vehicle collision avoidance
US10011277B2 (en) 2016-06-02 2018-07-03 Ford Global Technologies, Llc Vehicle collision avoidance
CN105866761B (zh) * 2016-06-27 2018-06-22 湖南华诺星空电子技术有限公司 基于迭代滑窗傅里叶变换的雷达慢时间维频谱构建方法
US20180012197A1 (en) 2016-07-07 2018-01-11 NextEv USA, Inc. Battery exchange licensing program based on state of charge of battery pack
US9928734B2 (en) 2016-08-02 2018-03-27 Nio Usa, Inc. Vehicle-to-pedestrian communication systems
US10118610B2 (en) 2016-08-31 2018-11-06 Ford Global Technologies, Llc Autonomous vehicle using path prediction
US10359504B2 (en) * 2016-09-30 2019-07-23 Veoneer Us, Inc. Apparatus and method for mitigating interference in an automotive radar system
US10031523B2 (en) 2016-11-07 2018-07-24 Nio Usa, Inc. Method and system for behavioral sharing in autonomous vehicles
US10694357B2 (en) 2016-11-11 2020-06-23 Nio Usa, Inc. Using vehicle sensor data to monitor pedestrian health
US10708547B2 (en) 2016-11-11 2020-07-07 Nio Usa, Inc. Using vehicle sensor data to monitor environmental and geologic conditions
US10410064B2 (en) 2016-11-11 2019-09-10 Nio Usa, Inc. System for tracking and identifying vehicles and pedestrians
US10515390B2 (en) 2016-11-21 2019-12-24 Nio Usa, Inc. Method and system for data optimization
US10249104B2 (en) 2016-12-06 2019-04-02 Nio Usa, Inc. Lease observation and event recording
GB2560096A (en) * 2017-01-13 2018-08-29 Ford Global Tech Llc Collision mitigation and avoidance
US10074223B2 (en) 2017-01-13 2018-09-11 Nio Usa, Inc. Secured vehicle for user use only
US10351129B2 (en) * 2017-01-13 2019-07-16 Ford Global Technologies, Llc Collision mitigation and avoidance
US9984572B1 (en) 2017-01-16 2018-05-29 Nio Usa, Inc. Method and system for sharing parking space availability among autonomous vehicles
US10471829B2 (en) 2017-01-16 2019-11-12 Nio Usa, Inc. Self-destruct zone and autonomous vehicle navigation
US10031521B1 (en) 2017-01-16 2018-07-24 Nio Usa, Inc. Method and system for using weather information in operation of autonomous vehicles
US10286915B2 (en) 2017-01-17 2019-05-14 Nio Usa, Inc. Machine learning for personalized driving
US10464530B2 (en) 2017-01-17 2019-11-05 Nio Usa, Inc. Voice biometric pre-purchase enrollment for autonomous vehicles
US10897469B2 (en) 2017-02-02 2021-01-19 Nio Usa, Inc. System and method for firewalls between vehicle networks
US10324469B2 (en) 2017-03-28 2019-06-18 Mitsubishi Electric Research Laboratories, Inc. System and method for controlling motion of vehicle in shared environment
US10994729B2 (en) 2017-03-29 2021-05-04 Mitsubishi Electric Research Laboratories, Inc. System and method for controlling lateral motion of vehicle
US10195992B2 (en) * 2017-04-03 2019-02-05 Ford Global Technologies, Llc Obstacle detection systems and methods
US10139833B1 (en) * 2017-05-17 2018-11-27 GM Global Technology Operations LLC Six-dimensional point cloud system for a vehicle
US10710579B2 (en) 2017-06-01 2020-07-14 Waymo Llc Collision prediction system
US20180373992A1 (en) * 2017-06-26 2018-12-27 Futurewei Technologies, Inc. System and methods for object filtering and uniform representation for autonomous systems
US10234302B2 (en) 2017-06-27 2019-03-19 Nio Usa, Inc. Adaptive route and motion planning based on learned external and internal vehicle environment
US10369974B2 (en) 2017-07-14 2019-08-06 Nio Usa, Inc. Control and coordination of driverless fuel replenishment for autonomous vehicles
US10710633B2 (en) 2017-07-14 2020-07-14 Nio Usa, Inc. Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles
US10837790B2 (en) 2017-08-01 2020-11-17 Nio Usa, Inc. Productive and accident-free driving modes for a vehicle
US10877148B2 (en) 2017-09-07 2020-12-29 Magna Electronics Inc. Vehicle radar sensing system with enhanced angle resolution using synthesized aperture
US10962641B2 (en) * 2017-09-07 2021-03-30 Magna Electronics Inc. Vehicle radar sensing system with enhanced accuracy using interferometry techniques
US10635109B2 (en) 2017-10-17 2020-04-28 Nio Usa, Inc. Vehicle path-planner monitor and controller
US10606274B2 (en) 2017-10-30 2020-03-31 Nio Usa, Inc. Visual place recognition based self-localization for autonomous vehicles
US10935978B2 (en) 2017-10-30 2021-03-02 Nio Usa, Inc. Vehicle self-localization using particle filters and visual odometry
EP3483625B1 (de) * 2017-11-10 2023-01-04 Denso Corporation Kraftfahrzeugradarsystem mit direkter messung der giergeschwindigkeit und/oder der fahrtrichtung eines objektfahrzeugs
US10717412B2 (en) 2017-11-13 2020-07-21 Nio Usa, Inc. System and method for controlling a vehicle using secondary access methods
US10480952B2 (en) * 2018-02-01 2019-11-19 Didi Research America, Llc Probabilistic navigation system and method
US10363944B1 (en) * 2018-02-14 2019-07-30 GM Global Technology Operations LLC Method and apparatus for evaluating pedestrian collision risks and determining driver warning levels
KR102486179B1 (ko) * 2018-02-20 2023-01-10 현대자동차주식회사 차량 및 그 제어 방법
US10369966B1 (en) 2018-05-23 2019-08-06 Nio Usa, Inc. Controlling access to a vehicle using wireless access devices
US11091158B2 (en) * 2018-06-24 2021-08-17 Mitsubishi Electric Research Laboratories, Inc. System and method for controlling motion of vehicle with variable speed
DE102018118150A1 (de) * 2018-07-26 2020-01-30 S.M.S Smart Microwave Sensors Gmbh System zum Steuern einer Verkehrsführung an einer Kreuzung
KR102592825B1 (ko) * 2018-08-31 2023-10-23 현대자동차주식회사 충돌 회피 제어 장치 및 그 방법
US10829113B2 (en) 2018-09-17 2020-11-10 Ford Global Technologies, Llc Vehicle collision avoidance
US10816635B1 (en) 2018-12-20 2020-10-27 Autonomous Roadway Intelligence, Llc Autonomous vehicle localization system
US10820349B2 (en) 2018-12-20 2020-10-27 Autonomous Roadway Intelligence, Llc Wireless message collision avoidance with high throughput
DE102019105547A1 (de) * 2019-03-05 2020-09-10 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Steuereinheit zur Erkennung eines ein- bzw. ausscherenden Fahrzeugs
US10820182B1 (en) 2019-06-13 2020-10-27 David E. Newman Wireless protocols for emergency message transmission
US10939471B2 (en) 2019-06-13 2021-03-02 David E. Newman Managed transmission of wireless DAT messages
US10713950B1 (en) 2019-06-13 2020-07-14 Autonomous Roadway Intelligence, Llc Rapid wireless communication for vehicle collision mitigation
CN110428661A (zh) * 2019-08-12 2019-11-08 深圳成谷科技有限公司 一种保护行人过斑马线的方法、装置和设备
US11325594B2 (en) * 2020-02-10 2022-05-10 GM Global Technology Operations LLC Sensor fusion based on intersection scene to determine vehicle collision potential
US11708071B2 (en) * 2020-03-30 2023-07-25 Denso Corporation Target-orientated navigation system for a vehicle using a generic navigation system and related method
CN114074658A (zh) * 2020-08-14 2022-02-22 为昇科科技股份有限公司 接近物体侦测的预警系统及方法
US11430224B2 (en) 2020-10-23 2022-08-30 Argo AI, LLC Systems and methods for camera-LiDAR fused object detection with segment filtering
US11885886B2 (en) 2020-10-23 2024-01-30 Ford Global Technologies, Llc Systems and methods for camera-LiDAR fused object detection with LiDAR-to-image detection matching
US11841439B2 (en) * 2020-11-02 2023-12-12 Waymo Llc Point cloud segmentation using a coherent lidar for autonomous vehicle applications
US11153780B1 (en) 2020-11-13 2021-10-19 Ultralogic 5G, Llc Selecting a modulation table to mitigate 5G message faults
US11202198B1 (en) 2020-12-04 2021-12-14 Ultralogic 5G, Llc Managed database of recipient addresses for fast 5G message delivery
CN116631221B (zh) * 2023-05-05 2024-01-23 同济大学 一种基于蒙特卡洛模拟的在途车辆运行风险量化计算方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10319700A1 (de) 2003-05-02 2004-11-18 Ibeo Automobile Sensor Gmbh Verfahren und Vorrichtung zur Ermittlung einer Wahrscheinlichkeit für eine Kollision eines Fahrzeugs mit einem Gegenstand
DE102010038180A1 (de) 2009-10-29 2011-07-14 Fuji Jukogyo K.K., Shinjuku-Ku Fahrunterstützungsvorrichtung für Fahrzeuge in einem Kreuzungsbereich

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0784709B2 (ja) 1985-12-23 1995-09-13 株式会社ブリヂストン タイヤ補強用コ−ド反の処理方法
US5341142A (en) 1987-07-24 1994-08-23 Northrop Grumman Corporation Target acquisition and tracking system
US5613039A (en) 1991-01-31 1997-03-18 Ail Systems, Inc. Apparatus and method for motion detection and tracking of objects in a region for collision avoidance utilizing a real-time adaptive probabilistic neural network
IL100175A (en) * 1991-11-27 1994-11-11 State Of Isreal Ministry Of De Vehicle collision warning device
JP3104559B2 (ja) * 1995-02-08 2000-10-30 トヨタ自動車株式会社 車載用レーダ装置
JP3470453B2 (ja) * 1995-04-06 2003-11-25 株式会社デンソー 車間距離制御装置
JPH09222477A (ja) * 1996-02-19 1997-08-26 Toyota Motor Corp 車載用レーダ装置
DE19780489T1 (de) * 1996-04-22 1998-12-24 Furukawa Electric Co Ltd Radargerät
US6085151A (en) * 1998-01-20 2000-07-04 Automotive Systems Laboratory, Inc. Predictive collision sensing system
US6026347A (en) 1997-05-30 2000-02-15 Raytheon Company Obstacle avoidance processing method for vehicles using an automated highway system
JP3684776B2 (ja) * 1997-07-23 2005-08-17 株式会社デンソー 車両用障害物認識装置
JP3385304B2 (ja) * 1997-08-29 2003-03-10 三菱電機株式会社 車載用レーダ装置
JP2000292538A (ja) * 1999-04-07 2000-10-20 Mitsubishi Electric Corp 車両用障害物検出装置
WO2001011388A1 (en) * 1999-08-06 2001-02-15 Roadrisk Technologies, Llc Methods and apparatus for stationary object detection
US6225891B1 (en) * 2000-01-07 2001-05-01 Hittite Microwave Corp. Wide-angle, static and positional anticipatory object detection system
JP3427815B2 (ja) * 2000-03-30 2003-07-22 株式会社デンソー 先行車選択方法及び装置、記録媒体
US6420996B1 (en) * 2001-08-08 2002-07-16 Ford Global Technologies, Inc. Integrated radar and active transponder collision prediction system
US6775605B2 (en) * 2001-11-29 2004-08-10 Ford Global Technologies, Llc Remote sensing based pre-crash threat assessment system
DE10258794A1 (de) 2002-12-16 2004-06-24 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung und Verfolgung von Objekten
US7263209B2 (en) 2003-06-13 2007-08-28 Sarnoff Corporation Vehicular vision system
FR2857771B1 (fr) 2003-07-17 2005-09-23 Thales Sa Systeme d'identification automatique de cibles
US7639841B2 (en) 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
JP4480083B2 (ja) 2005-02-23 2010-06-16 アイシン精機株式会社 物体認識装置
JP4600760B2 (ja) 2005-06-27 2010-12-15 アイシン精機株式会社 障害物検出装置
JP2007333486A (ja) * 2006-06-13 2007-12-27 Denso Corp 車両用障害物検知装置
US7831098B2 (en) 2006-11-07 2010-11-09 Recognition Robotics System and method for visual searching of objects using lines
JP4062353B1 (ja) * 2006-11-10 2008-03-19 トヨタ自動車株式会社 障害物進路予測方法、装置、およびプログラム
US8098889B2 (en) 2007-01-18 2012-01-17 Siemens Corporation System and method for vehicle detection and tracking
US7881868B2 (en) 2007-06-12 2011-02-01 Palo Alto Research Center Incorporated Dual assessment for early collision warning
JP2009042181A (ja) * 2007-08-10 2009-02-26 Denso Corp 推定装置
US20090292468A1 (en) 2008-03-25 2009-11-26 Shunguang Wu Collision avoidance method and system using stereo vision and radar sensor fusion
US8290637B2 (en) 2008-06-16 2012-10-16 GM Global Technology Operations LLC Vehicle control using stochastic information
US8705792B2 (en) 2008-08-06 2014-04-22 Toyota Motor Engineering & Manufacturing North America, Inc. Object tracking using linear features
JP5141452B2 (ja) 2008-09-05 2013-02-13 富士通株式会社 姿勢計測装置及び姿勢計測方法
US8055445B2 (en) 2008-09-24 2011-11-08 Delphi Technologies, Inc. Probabilistic lane assignment method
US8744122B2 (en) 2008-10-22 2014-06-03 Sri International System and method for object detection from a moving platform
JP4706984B2 (ja) * 2009-02-25 2011-06-22 トヨタ自動車株式会社 衝突推定装置及び衝突推定方法
TW201133412A (en) * 2010-03-19 2011-10-01 Cct Co Ltd Method of using radar vehicle detector to determine vehicle type, speed, and radar detection zone width
JP5083466B2 (ja) * 2010-04-22 2012-11-28 トヨタ自動車株式会社 飛翔体の飛行状態制御装置
JP5554688B2 (ja) * 2010-11-19 2014-07-23 株式会社デンソー レーダ装置
JP4784709B1 (ja) 2011-03-10 2011-10-05 オムロン株式会社 対象物追跡装置、対象物追跡方法、および制御プログラム
US9250324B2 (en) * 2013-05-23 2016-02-02 GM Global Technology Operations LLC Probabilistic target selection and threat assessment method and application to intersection collision alert system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10319700A1 (de) 2003-05-02 2004-11-18 Ibeo Automobile Sensor Gmbh Verfahren und Vorrichtung zur Ermittlung einer Wahrscheinlichkeit für eine Kollision eines Fahrzeugs mit einem Gegenstand
DE102010038180A1 (de) 2009-10-29 2011-07-14 Fuji Jukogyo K.K., Shinjuku-Ku Fahrunterstützungsvorrichtung für Fahrzeuge in einem Kreuzungsbereich

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
VO, B. [et al.]: Sequential Monte Carlo methods for multitarget filtering with random finite sets. In: IEEE Transactions on Aerospace and Electronic Systems, Vol. 41, S. 1224-1245, 2005. - ISSN 1557-9603

Also Published As

Publication number Publication date
US20140347207A1 (en) 2014-11-27
US9250324B2 (en) 2016-02-02
US20160109571A1 (en) 2016-04-21
CN104181534A (zh) 2014-12-03
DE102013113619A1 (de) 2014-11-27
CN104181534B (zh) 2018-01-12
US9983306B2 (en) 2018-05-29

Similar Documents

Publication Publication Date Title
DE102013113619B4 (de) Probabilistische Zielauswahl und Gefahrbewertungsverfahren und Anwendung auf ein Kreuzungs-Kollisonswarnsystem
DE102016106298B4 (de) Fusionsverfahren für eine Querverkehr-Applikation unter Verwenden von Radargeräten und einer Kamera
DE102016106299B4 (de) Raderfassung und ihre Applikation bei Objektverfolgung und Sensorregistrierung
DE102017207968B4 (de) Vorrichtung zum Vorbeugen gegen einen Fußgängerkollisionsunfall, System mit derselben, und Verfahren hierzu
DE102018218220A1 (de) Steuergerät für ein Fahrzeug
DE102014103695B4 (de) Fahrzeuggestützte Kreuzungsbeurteilungsvorrichtung und -programm
DE102019102216A1 (de) Fusion von Frontfahrzeugsensordaten zur Erkennung und zur Bestimmung der Entfernung von vorausfahrenden Objekten
DE102016210254A1 (de) Fahrzeugortung an kreuzungen anhand von visuellen anhaltspunkte, stationären objekten und durch gps
DE102012111846B4 (de) Kollisionsschutzverfahren und Kollisionsschutzsystem
DE102012224499A1 (de) Verfahren und System zum Erkennen eines Raums eines Seitenstreifens
DE112015004478B4 (de) Fahrunterstützungsvorrichtung
DE102011103795A1 (de) Verfahren und System zur Kollisionsbewertung für Fahrzeuge
DE102008026396A1 (de) Verfahren und Vorrichtung zur Vermeidung einer Kollision mit rückwärtigem Querverkehr
DE102016212193A1 (de) Vorrichtung und Verfahren zur Detektion eines Objekts auf einer Strasse
DE102022124322A1 (de) Fahrzeugsteuervorrichtung, Fahrzeug, Fahrzeugsteuerverfahren und Fahrzeugsteuerprogramm
DE102012215014A1 (de) Verfahren zur Überwachung eines toten Winkels und Fahrassistenzsystem
DE102019131667A1 (de) Fahrzeug und verfahren zur voraussage einer kollision
DE102019213929A1 (de) Plausibilitätsprüfung angehaltener vormals dynamischer Objekte mit Hilfe von Belegungsrastern
DE102017205245A1 (de) Freibereichsfusion für Fahrerassistenzsysteme
DE112019006516T5 (de) Fahrassistenzvorrichtung
DE102016109850B4 (de) Verfahren zum Erkennen einer Neigung in einer Fahrbahn eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
WO2021078335A1 (de) Verfahren zur erfassung eines zielobjekts
DE102019213927A1 (de) Grid-basierte Leitpfosten-Klassifizierung
DE102016006381B3 (de) Verfahren zum Betreiben einer Verarbeitungseinrichtung für Sensordaten eines in einem Kraftfahrzeug angeordneten Sensors und Kraftfahrzeug
DE102022207736B3 (de) Verfahren zur Bestimmung des rückwärtigen Verlaufs einer Straßengrenze eines Fahrzeuges sowie Assistenzsystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final