DE102022004435A1 - System zur Erfassung des toten Winkels und Verfahren dazu - Google Patents

System zur Erfassung des toten Winkels und Verfahren dazu Download PDF

Info

Publication number
DE102022004435A1
DE102022004435A1 DE102022004435.8A DE102022004435A DE102022004435A1 DE 102022004435 A1 DE102022004435 A1 DE 102022004435A1 DE 102022004435 A DE102022004435 A DE 102022004435A DE 102022004435 A1 DE102022004435 A1 DE 102022004435A1
Authority
DE
Germany
Prior art keywords
vehicle
blind spot
target vehicle
signals
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022004435.8A
Other languages
English (en)
Inventor
Monith Biswojyothi
Udaya Joshi
Ranga MakanaBoyina
Chitaranjan Dash
Shashank Puranik
Laxmi Kant Sahoo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Mercedes Benz Group AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mercedes Benz Group AG filed Critical Mercedes Benz Group AG
Publication of DE102022004435A1 publication Critical patent/DE102022004435A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9315Monitoring blind spots

Abstract

Die vorliegende Offenbarung stellt ein System und ein Verfahren bereit, das die Erfassung des toten Winkels von vorausfahrenden Fahrzeugen ermöglicht und somit unsichere Situationen verhindert und dem Fahrer des Ego-Fahrzeugs ein dynamisches Situationsbewusstsein ermöglicht. Im Fusionssystem 202 werden stabile fusionierte klassifizierte Objektfahrzeuge mit unterschiedlichen Fahrzeugklassen bereitgestellt. Bei Zielauswahl und Zielpriorisierung 204 wird die Eingabe vorverarbeitet und nur ein Teil der fusionierten Objektfahrzeuge anhand von Position, Fahrzeugklasse und Abmessungen ausgewählt. Bei Fahrzeug-Spiegelklasse und Spiegel-FoV 206 werden Totwinkelzonen erstellt und die entsprechenden Abmessungen basierend auf der Klasse der Objektfahrzeuge und den Spiegelklassen der Objektfahrzeuge aktualisiert. Ferner werden bei der Totwinkelzonenerfassung 208 mehrere Totwinkelzonen abgeleitet. Darüber hinaus wird bei der Identifizierung 210 von kritischen Szenarien ein kritisches Szenario analysiert, indem erfasst wird, ob sich das Ego-Fahrzeug innerhalb der abgeleiteten mehrfachen Totwinkelzonen befindet.

Description

  • Die vorliegende Offenbarung bezieht sich auf fortschrittliche Fahrerassistenzsysteme und -verfahren. Insbesondere stellt die vorliegende Offenbarung ein System zur Erfassung des toten Winkels und ein entsprechendes Verfahren bereit.
  • Es besteht ein Unfallrisiko, wenn sich ein Fahrzeug (als Ego-Fahrzeug bezeichnet) im toten Winkel eines vorausfahrenden Fahrzeugs befindet und der Ego-Fahrer nicht weiß, dass der Fahrer des vorausfahrenden Fahrzeugs ihn nicht sehen kann. Bestehende Technologien zur Erfassung von toten Winkeln sind auf die Erfassung von toten Winkeln des Ego-Fahrzeugs ausgerichtet, nicht aber auf die des vorausfahrenden Fahrzeugs. Unsichere Fahrszenarien könnten jedoch besser vermieden werden, wenn der Fahrer des Ego-Fahrzeugs darauf aufmerksam gemacht werden kann, dass das Ego-Fahrzeug in den toten Winkel des vorausfahrenden Fahrzeugs einfährt oder bereits eingefahren ist. Diese Idee könnte, wenn sie als Funktion eines Fahrerassistenzsystems implementiert wird, bei autonomen Fahrzeugen (Level 3 und höher) im Bereich der Trajektorienplanung eine sehr wichtige Rolle spielen.
  • Das Patentdokument US20190359218A offenbart eine Erfassungsvorrichtung mit einem oder mehreren Sensoren, die dafür konfiguriert sind, Sensoreingaben aus einer Umgebung eines ersten Fahrzeugs zu empfangen und Sensordaten zu erzeugen, die die empfangenen Sensoreingaben repräsentieren. Ein oder mehrere Prozessoren werden ebenfalls bereitgestellt und sind für Folgendes konfiguriert: Erfassen eines zweiten Fahrzeugs aus den empfangenen Sensordaten; Bestimmen aus den Sensordaten eines Bereichs eines ersten Typs relativ zu dem zweiten Fahrzeug und eines Bereichs eines zweiten Typs relativ zu dem zweiten Fahrzeug; und Steuern des ersten Fahrzeugs, um die Fahrt in dem einen oder den mehreren Bereichen des ersten Typs zu vermeiden oder zu reduzieren oder um von einem Bereich des ersten Typs zu einem Bereich des zweiten Typs zu fahren.
  • Das Patentdokument JP2021028206A offenbart eine Technologie, die es ermöglicht, ein Eindringen in einen Bereich des toten Winkels eines vorausfahrenden Fahrzeugs wirksam zu unterdrücken, indem ein Fahrer veranlasst wird, den Bereich des toten Winkels des vorausfahrenden Fahrzeugs, das in einer benachbarten Fahrspur fährt, vorteilhaft zu erkennen oder dergleichen. Eine Anzeigesteuerungsvorrichtung, die dafür konfiguriert ist, die Anzeige eines Anzeigebildes auf einer Fahrzeuganzeigevorrichtung zu steuern, die das Anzeigebild auf einer Straßenoberfläche überlagert, die durch eine Frontscheibe eines Fahrzeugs sichtbar ist. Das Fahrzeug umfasst: eine Erkennungsergebnis-Erfassungseinheit; eine Relativpositions-Erfassungseinheit; und eine Anzeigesteuereinheit. Die Erkennungsergebnis-Erfassungseinheit erfasst ein Erkennungsergebnis eines vorausfahrenden Fahrzeugs auf der Fahrbahnoberfläche. Die Relativpositions-Erfassungseinheit erfasst ein Erfassungsergebnis einer Relativposition zwischen dem Fahrzeug und dem vorausfahrenden Fahrzeug. Die Anzeigesteuereinheit überlagert und zeigt den Inhalt des toten Winkels an, der ein Anzeigebild ist, das den Bereich des toten Winkels des vorausfahrenden Fahrzeugs auf der Fahrbahnoberfläche zeigt, basierend auf dem Erkennungsergebnis und dem Erfassungsergebnis.
  • Das Patentdokument US20200111368A1 offenbart eine Vorrichtung und ein Verfahren zur Vermeidung des toten Winkels des Fahrzeugs auf der nächsten Fahrspur. Es bestimmt basierend auf dem Ergebnis der Erfassung eines Fahrzeugs auf der nächsten Fahrspur und dem Ergebnis der Erfassung der Länge des Fahrzeugs auf der nächsten Fahrspur, ob sich das betreffende Fahrzeug in einem toten Winkel eines Fahrzeugs auf der nächsten Fahrspur befindet, unter Verwendung einer Vielzahl von Seitensensoren, die Objekte in Frontquer-, Mittelseiten- und Heckquerbereichen des betreffenden Fahrzeugs erfassen, und steuert das betreffende Fahrzeug so, dass es fährt, während es den toten Winkel des Fahrzeugs auf der nächsten Fahrspur vermeidet, so dass es zu einem sicheren Fahren beitragen kann.
  • Während die zitierten Patentdokumente Systeme und Verfahren zum Erfassen/Vermeiden von toten Winkeln eines vorausfahrenden Fahrzeugs offenbaren, besteht die Möglichkeit, eine weiter verbesserte, effiziente, optimale und kostengünstige Lösung zum Erfassen von toten Winkelbereichen vorausfahrender Fahrzeuge bereitzustellen.
  • Eine allgemeine Aufgabe der vorliegenden Offenbarung ist es, ein effizientes, zuverlässiges und schnelles System und Verfahren bereitzustellen, das die oben erwähnten Einschränkungen herkömmlicher Systeme und Verfahren vermeidet und eine effektive und zuverlässige Lösung für die Erfassung von toten Winkeln vorausfahrender Fahrzeuge ermöglicht.
  • Eine weitere Aufgabe der vorliegenden Offenbarung ist es, ein System und Verfahren bereitzustellen, das dem Fahrer ein dynamisches Situationsbewusstsein ermöglicht.
  • Eine weitere Aufgabe der vorliegenden Offenbarung ist es, ein System und Verfahren zur Erfassung von toten Winkeln vorausfahrender Fahrzeuge bereitzustellen, um unsichere Situationen zu vermeiden.
  • Eine weitere Aufgabe der vorliegenden Offenbarung ist es, ein System und Verfahren bereitzustellen, dessen Sensorfusionsalgorithmus ein erhöhtes FoV und eine bessere Leistung in SMPC-Eckenfällen bietet.
  • Eine weitere Aufgabe der vorliegenden Offenbarung ist es, ein System und Verfahren bereitzustellen, das die 2/3-Punkt-Objektklassifizierung von Fahrzeugen basierend auf von SMPC-Daten ermöglicht.
  • Eine weitere Aufgabe der vorliegenden Offenbarung ist es, ein System und Verfahren bereitzustellen, bei dem Totwinkelzonen für Lkw und Pkw getrennt berechnet werden, da ihre Spiegelklassen und Spiegelpositionen unterschiedlich sind.
  • Eine weitere Aufgabe der vorliegenden Offenbarung ist es, ein System und Verfahren bereitzustellen, das bei der Integration bestehender AR-HUDs mit der Technologie zur Erfassung des toten Winkels hilft.
  • Aspekte der vorliegenden Offenbarung beziehen sich auf fortschrittliche Fahrerassistenzsysteme und -verfahren. Insbesondere stellt die vorliegende Offenbarung ein System zur Erfassung des toten Winkels und ein entsprechendes Verfahren bereit.
  • Ein Aspekt der vorliegenden Offenbarung bezieht sich auf ein System zur Erfassung des toten Winkels, das in einem Ego-Fahrzeug implementiert ist, wobei das System
  • Folgendes umfasst: eine Überwachungseinheit, die einen Satz von Sensoren umfasst, die dafür konfiguriert sind, einen Satz von Parametern zu überwachen, die einem oder mehreren Objektfahrzeugen zugeordnet sind, die sich innerhalb einem Bereich von Interesse (Region of Interest, ROI) des Ego-Fahrzeugs befinden, und entsprechend einen Satz von Signalen zu überwachen, die von jedem Sensor aus dem Satz von Sensoren erzeugt werden; und eine Erfassungsvorrichtung in Kommunikation mit der Überwachungseinheit, wobei die Erfassungsvorrichtung operativ mit einer Lernmaschine gekoppelt ist und die Erfassungsvorrichtung einen oder mehrere Prozessoren umfasst, wobei der eine oder die mehreren Prozessoren operativ mit einem Speicher gekoppelt sind, wobei der Speicher Anweisungen speichert, die von dem einen oder den mehreren Prozessoren für Folgendes ausgeführt werden können: Empfangen, von der Überwachungseinheit, des Satzes von Signalen, die von jedem Sensor aus dem Satz von Sensoren erzeugt werden, und weiteres Fusionieren des empfangenen Satzes von Signalen; Erkennen, durch Extrahieren zeitlicher Parameter des einen oder der mehreren Objektfahrzeuge aus dem fusionierten Satz von Signalen, der Klasse des einen oder der mehreren Objektfahrzeuge; Extrahieren, aus dem fusionierten Satz von Signalen, von kinematischen Parametern des einen oder der mehreren Objektfahrzeuge; Auswählen, unter Berücksichtigung der extrahierten zeitlichen Parameter, kinematischen Parameter und erkannten Klasse, eines Zielfahrzeugs aus dem einen oder den mehreren Objektfahrzeugen; Identifizieren einer Spiegelklasse, die einem in dem Zielfahrzeug vorgesehenen Spiegel zugeordnet ist, und entsprechendes Abgrenzen des Sichtfeldes (Field of View, FoV) der identifizierten Spiegelklasse; und Ableiten, basierend auf dem abgegrenzten FoV und den extrahierten kinematischen Parametern, mehrerer Totwinkelzonen für das ausgewählte Zielfahrzeug.
  • In einem Aspekt, wenn mehr als ein Zielfahrzeug ausgewählt wird, priorisiert das System ein einzelnes Zielfahrzeug für jede einzelne Fahrspur und leitet dementsprechend mehrere Totwinkelzonen für das priorisierte Zielfahrzeug ab.
  • In einem anderen Aspekt kann das System relative kinematische und zeitliche Parameter von mehr als einem Zielfahrzeug mit entsprechenden Schwellenwerten abgleichen und dementsprechend das einzelne Zielfahrzeug priorisieren.
  • In einem anderen Aspekt kann das System durch die Lernmaschine auf einer Anzeigeeinheit des Ego-Fahrzeugs eine Ansicht mit erweiterter Realität (Augmented- Reality, AR) des ausgewählten Zielfahrzeugs und der entsprechenden mehrfachen Totwinkelzonen emulieren.
  • In einem Aspekt löst die Erfassungsvorrichtung einen Satz von Warnsignalen aus, wenn sich das Ego-Fahrzeug innerhalb der abgeleiteten mehrfachen Totwinkelzonen befindet, und wobei der ausgelöste Satz von Warnsignalen in einen Satz von Anzeigesignalen umgewandelt wird, die auf der Anzeigeeinheit angezeigt werden.
  • In einem weiteren Aspekt erkennt das System die Klasse des einen oder der mehreren Objektfahrzeuge, indem es die extrahierten zeitlichen Parameter mit einem ersten Datensatz abbildet, und wobei das System die Spiegelklasse identifiziert und das entsprechende FoV abgrenzt, indem es die erkannte Klasse des Zielfahrzeugs mit einem zweiten Datensatz abgleicht.
  • In noch einem weiteren Aspekt kann der Satz von Sensoren SMPC, LiDAR und RADAR umfassen.
  • Ein weiterer Aspekt der vorliegenden Offenbarung bezieht sich auf ein Verfahren zur Erfassung eines toten Winkels, das Folgendes umfasst: Überwachen, durch eine Überwachungseinheit, die einen Satz von Sensoren umfasst, eines Satzes von Parametern, die einem oder mehreren Objektfahrzeugen zugeordnet sind, die innerhalb eines Bereichs von Interesse (ROI) von dem Ego-Fahrzeug vorhanden sind, und entsprechendes Erzeugen eines Satzes von Signalen von jedem Sensor aus dem Satz von Sensoren; Empfangen, an einer Erfassungsvorrichtung, die mit der Überwachungseinheit kommuniziert und operativ mit einer Lernmaschine gekoppelt ist, des Satzes von Signalen, die von jedem Sensor aus dem Satz von Sensoren erzeugt werden, und ferner Fusionieren des empfangenen Satzes von Signalen; Erkennen, an der Erfassungsvorrichtung, der Klasse des einen oder der mehreren Objektfahrzeuge durch Extrahieren von zeitlichen Parametern des einen oder der mehreren Objektfahrzeuge aus dem fusionierten Satz von Signalen; Extrahieren, an der Erfassungsvorrichtung, von kinematischen Parametern des einen oder der mehreren Objektfahrzeuge aus dem fusionierten Satz von Signalen; Auswählen, an der Erfassungsvorrichtung, eines Zielfahrzeugs aus dem einen oder den mehreren Objektfahrzeugen unter Berücksichtigung der extrahierten zeitlichen Parameter, kinematischen Parameter und erkannten Klasse; Identifizieren, an der Erfassungsvorrichtung, einer Spiegelklasse, die einem in dem Zielfahrzeug vorgesehenen Spiegel zugeordnet ist, und entsprechendes Abgrenzen des Sichtfeldes (FoV) der identifizierten Spiegelklasse; und Ableiten, an der Erfassungsvorrichtung, mehrerer Totwinkelzonen für das ausgewählte Zielfahrzeug, basierend auf dem abgegrenzten FoV und den extrahierten kinematischen Parametern.
  • In einem Aspekt, falls mehr als ein Zielfahrzeug ausgewählt wird, umfasst das Verfahren das Priorisieren eines einzelnen Zielfahrzeugs für jede einzelne Fahrspur und das entsprechende Ableiten mehrerer Totwinkelzonen für das priorisierte Zielfahrzeug.
  • In einem Aspekt umfasst das Verfahren das Emulieren einer Ansicht mit erweiterter Realität des ausgewählten Zielfahrzeugs und entsprechender mehrfacher Totwinkelzonen durch die Lernmaschine auf einer Anzeigeeinheit des Ego-Fahrzeugs, wobei das Verfahren das Auslösen eines Satzes von Warnsignalen umfasst, für den Fall, dass sich das Ego-Fahrzeug innerhalb der abgeleiteten mehrfachen Totwinkelzonen befindet, und wobei der ausgelöste Satz von Warnsignalen in einen Satz von Anzeigesignalen umgewandelt wird, die auf der Anzeigeeinheit angezeigt werden.
  • Verschiedene Objekte, Merkmale, Aspekte und Vorteile des Erfindungsgegenstandes werden aus der folgenden detaillierten Beschreibung bevorzugter Ausführungsformen zusammen mit den beigefügten Zeichnungen, in denen gleiche Ziffern gleiche Komponenten darstellen, deutlicher.
  • Die beigefügten Zeichnungen dienen dem weiteren Verständnis der vorliegenden Offenbarung und sind Bestandteil dieser Beschreibung. Die Zeichnungen zeigen beispielhafte Ausführungsformen der vorliegenden Offenbarung und dienen zusammen mit der Beschreibung zur Erläuterung der Grundsätze der vorliegenden Offenbarung.
    • 1 zeigt eine beispielhafte Netzwerkarchitektur des vorgeschlagenen Totwinkel-Erfassungssystems, um dessen allgemeine Funktionsweise gemäß einer Ausführungsform der vorliegenden Offenbarung zu veranschaulichen.
    • 2 zeigt ein Blockdiagramm, das die Funktionsweise des vorgeschlagenen Systems zur Erfassung des toten Winkels in Übereinstimmung mit einer beispielhaften Ausführungsform der vorliegenden Offenbarung darstellt.
    • 3 zeigt ein Flussdiagramm, das die Zielauswahl und Priorisierung gemäß einer beispielhaften Ausführungsform der vorliegenden Offenbarung darstellt.
    • 4A zeigt ein Flussdiagramm, das die Erfassung des toten Winkels und die Identifizierung kritischer Szenarien für eine erste Fahrzeugkategorie darstellt, in Übereinstimmung mit einer beispielhaften Ausführungsform der vorliegenden Offenbarung.
    • 4B zeigt ein Flussdiagramm, das die Erfassung des toten Winkels und die Identifizierung kritischer Szenarien für eine zweite Fahrzeugkategorie darstellt, in Übereinstimmung mit einer beispielhaften Ausführungsform der vorliegenden Offenbarung.
    • 5A und 5B zeigen ein beispielhaftes Diagramm zur Berechnung des toten Winkels gemäß Ausführungsformen der vorliegenden Offenbarung.
    • 6A zeigt ein Diagramm, das die Totwinkelzonen eines Fahrzeugs der Klasse M1 gemäß den Ausführungsformen der vorliegenden Offenbarung darstellt.
    • 6B zeigt ein Diagramm, das die Totwinkelzonen eines Fahrzeugs der Klasse N3 gemäß den Ausführungsformen der vorliegenden Offenbarung darstellt.
    • 7A zeigt die Klassifizierung von Fahrzeugen unter Verwendung eines 2/3-Punkte-Objekts gemäß den Ausführungsformen der vorliegenden Offenbarung.
    • 7B zeigt Sensor-Fusionsdaten, die mit dem Fahrzeug verbunden sind, in Übereinstimmung mit Ausführungsformen der vorliegenden Offenbarung.
    • 8A und 8B zeigen Diagramme, die die Berechnung der Größe und Form des toten Winkels gemäß den Ausführungsformen der vorliegenden Offenbarung darstellen.
    • 9A und 9B zeigen Diagramme, die eine visuelle Warnung in einem Ego-Fahrzeug darstellen, sowie entsprechende Simulationen gemäß den Ausführungsformen der vorliegenden Offenbarung.
    • 10 zeigt ein Flussdiagramm des vorgeschlagenen Verfahrens gemäß Ausführungsformen der vorliegenden Offenbarung.
  • Es folgt eine ausführliche Beschreibung der in den begleitenden Zeichnungen dargestellten Ausführungsformen der Offenbarung. Die Ausführungsformen sind so ausführlich, dass die Offenbarung klar vermittelt wird. Die Ausführlichkeit ist jedoch nicht dazu gedacht, die erwarteten Variationen der Ausführungsformen einzuschränken; im Gegensatz dazu wird beabsichtigt, alle Modifikationen, Äquivalente und Alternativen abzudecken, die in den Geist und den Umfang der vorliegenden Offenbarung fallen, wie sie durch die beigefügten Ansprüche definiert sind.
  • Die hierin erläuterten Ausführungsformen beziehen sich auf fortschrittliche Fahrerassistenzsysteme und -verfahren. Insbesondere stellt die vorliegende Offenbarung ein System zur Erfassung des toten Winkels und ein entsprechendes Verfahren bereit, das die Erfassung des toten Winkels von vorausfahrenden Fahrzeugen ermöglicht und somit unsichere Situationen verhindert und dem Fahrer des Ego-Fahrzeugs ein dynamisches Situationsbewusstsein ermöglicht.
  • Bezugnehmend auf 1 kann ein beispielhaftes Blockdiagramm des vorgeschlagenen Systems 100 (hierin austauschbar als System 100 bezeichnet) eine Überwachungseinheit 102 umfassen, die dafür konfiguriert ist, einen Satz von Parametern zu überwachen, die einem oder mehreren Objektfahrzeugen zugeordnet sind, die innerhalb einer Bereich von Interesse (ROI) von einem Ego-Fahrzeug vorhanden sind. In einer beispielhaften Ausführungsform kann die Überwachungseinheit 102 einen Satz von Sensoren umfassen, die dafür konfiguriert werden können, den Satz von Parametern zu überwachen, und dementsprechend kann ein Satz von Signalen von jedem Sensor aus dem Satz von Sensoren erzeugt werden. In einer anderen beispielhaften Ausführungsform kann der Satz von Sensoren SMPC, LiDAR, RADAR und dergleichen umfassen.
  • Gemäß einer Ausführungsform kann das System 100 eine Erfassungsvorrichtung 106 umfassen, die mit der Überwachungseinheit 102 in Verbindung stehen kann. In einer Ausführungsform kann die Erfassungsvorrichtung 106 operativ mit einer Lernmaschine 110 gekoppelt sein, die ferner neuronale Netze umfassen kann, die die Erfassung von toten Winkeln der ein oder mehreren Objektfahrzeugen ermöglichen.
  • In einer Ausführungsform kann die Überwachungseinheit 102 den Satz von Signalen, die von jedem Sensor aus dem Satz von Sensoren erzeugt werden, übertragen, die dann von der Erfassungsvorrichtung 106 empfangen werden können. In einer anderen Ausführungsform kann die Detektionsvorrichtung 106 den Satz von Signalen, die von jedem Sensor aus dem Satz von Sensoren empfangen werden, fusionieren. Ferner kann die Erfassungsvorrichtung 106 die Klasse (hier auch als Kategorie oder Fahrzeugkategorie bezeichnet) des einen oder der mehreren Objektfahrzeuge erkennen, indem sie zeitliche Parameter des einen oder der mehreren Objektfahrzeuge aus dem fusionierten Satz von Signalen extrahiert.
  • In einer anderen Ausführungsform kann die Erfassungsvorrichtung 106 kinematische Parameter des einen oder der mehreren Objektfahrzeuge (hierin auch kollektiv als Objektfahrzeuge bezeichnet und individuell als Objektfahrzeug bezeichnet) aus dem fusionierten Satz von Signalen extrahieren. In einer ersten beispielhaften Ausführungsform können die zeitlichen Parameter des einen oder der mehreren Objektfahrzeuge Höhe, Breite, Länge, Position, Orientierung und dergleichen umfassen. In einer zweiten beispielhaften Ausführungsform können die kinetischen Parameter des einen oder der mehreren Objektfahrzeuge Geschwindigkeit, Fahrgeschwindigkeit, Beschleunigung und dergleichen umfassen.
  • In einer weiteren Ausführungsform kann die Erfassungsvorrichtung 106 unter Berücksichtigung der extrahierten zeitlichen Parameter, der kinematischen Parameter und der erkannten Klasse ein Zielfahrzeug aus dem einen oder den mehreren Objektfahrzeugen auswählen.
  • In einer Ausführungsform kann die Erfassungsvorrichtung 106 eine Spiegelklasse identifizieren, die einem in dem Zielfahrzeug vorgesehenen Spiegel zugeordnet ist, und dementsprechend kann die Erfassungsvorrichtung 106 ein Sichtfeld (FoV) der identifizierten Spiegelklasse abgrenzen. Ferner kann die Erfassungsvorrichtung 106 mehrere Totwinkelzonen für das ausgewählte Zielfahrzeug basierend auf dem abgegrenzten Sichtfeld und den extrahierten kinematischen Parametern ableiten.
  • In einer Ausführungsform kann das System 100 auch mehr als ein Zielfahrzeug auswählen, das auf unterschiedlichen Fahrspuren fährt, wobei in einem solchen Fall das System 100 ferner ein einzelnes Zielfahrzeug für jede unterschiedliche Fahrspur priorisieren kann, und dementsprechend das System 100 auch mehrere Totwinkelzonen für das priorisierte Zielfahrzeug ableiten kann. In einer beispielhaften Ausführungsform kann das System 100 die Priorisierung des Zielfahrzeugs durch Abgleich relativer kinematischer und zeitlicher Parameter mehrerer Zielfahrzeuge mit entsprechenden Schwellenwerten vornehmen.
  • Gemäß einer Ausführungsform kann das System 100 eine Anzeigeeinheit 112 umfassen, die operativ mit der Erfassungsvorrichtung 106 gekoppelt sein kann, so dass das System 100 durch die Lernmaschine 110 auf der Anzeigeeinheit 112 eine Ansicht mit erweiterter Realität (Augmented-Reality, AR) des ausgewählten Zielfahrzeugs und der entsprechenden mehrfachen Totwinkelzonen emulieren kann. Ferner kann die Erfassungsvorrichtung 106 einen Satz von Warnsignalen auslösen, wenn sich das Ego-Fahrzeug innerhalb der abgeleiteten mehrfachen Totwinkelzonen befindet, und wobei der ausgelöste Satz von Warnsignalen in einen Satz von Anzeigesignalen umgewandelt werden kann, die weiterhin auf der Anzeigeeinheit 112 angezeigt werden können.
  • In einer Ausführungsform kann die Erfassungsvorrichtung 106 über ein Netzwerk 104 mit der Überwachungseinheit 102, der Lernmaschine 110 und der Anzeigeeinheit 112 in Verbindung stehen. Ferner kann das Netzwerk 104 ein drahtloses Netzwerk, ein verdrahtetes Netzwerk oder eine Kombination davon sein, das als eine der verschiedenen Arten von Netzwerken, wie Intranet, Local Area Network (LAN), Wide Area Network (WAN), Internet und dergleichen, implementiert werden kann. Ferner kann das Netzwerk 104 entweder ein dediziertes Netzwerk oder ein gemeinsam genutztes Netzwerk sein. Das gemeinsam genutzte Netzwerk kann eine Verbindung der verschiedenen Arten von Netzwerken darstellen, die eine Vielzahl von Protokollen verwenden können, z. B. Hypertext Transfer Protocol (HTTP), Transmission Control Protocol/Internet Protocol (TCP/IP), Wireless Application Protocol (WAP) und ähnliches.
  • In einer Ausführungsform kann die Erfassungsvorrichtung 106 unter Verwendung beliebiger oder einer Kombination von Hardwarekomponenten und Softwarekomponenten implementiert werden, wie z. B. einer Cloud, einem Server 108, einem Computersystem, einer Computervorrichtung, einer Netzwerkvorrichtung und dergleichen. Ferner kann die Erfassungsvorrichtung 106 mit der Überwachungseinheit 102 über eine Website oder eine Anwendung interagieren, die sich in dem vorgeschlagenen System 100 befinden kann. In einer Implementierung kann auf das System 100 über eine Website oder eine Anwendung zugegriffen werden, die mit einem beliebigen Betriebssystem konfiguriert werden kann, einschließlich, ohne darauf beschränkt zu sein, Android™, iOS™ und dergleichen.
  • Bezugnehmend auf 2 kann die Erfassungsvorrichtung 106 gemäß einer Ausführungsform im Fusionssystem 202 den Satz von Signalen fusionieren, die von jedem Sensor aus dem Satz von Sensoren, die in der Überwachungseinheit 102 implementiert sind, empfangen werden. Im Fusionssystem 202 kann die Erfassungsvorrichtung 106 eine Eingabe als stabiles fusioniertes klassifiziertes Objekt Fahrzeuge mit verschiedenen Fahrzeugklassen, wie z.B., ohne darauf beschränkt zu sein, Autos, LKW und Lieferwagen, bereitstellen.
  • In einer Ausführungsform kann die Erfassungsvorrichtung 106 bei der Zielauswahl und Zielpriorisierung 204 zunächst ein Zielfahrzeug unter den ein oder mehreren Objektfahrzeugen auswählen, wobei die extrahierten zeitlichen Parameter, kinematischen Parameter und dergleichen berücksichtigt werden. Darüber hinaus kann die Erfassungsvorrichtung 106 bei der Zielauswahl und Zielpriorisierung 204 ein einzelnes Zielfahrzeug für jede einzelne Fahrspur priorisieren, wenn das System 100 mehr als ein Zielfahrzeug auswählt, die auf verschiedenen Fahrspuren fahren. Darüber hinaus kann das System 100 auch mehrere Totwinkelzonen für das priorisierte Zielfahrzeug ableiten. In einer beispielhaften Ausführungsform kann die Erfassungsvorrichtung 106 bei der Zielauswahl und Zielpriorisierung 204 die Eingabe vom Fusionssystem 202 lesen, die Eingabe vorverarbeiten und dann nur einen Teil der fusionierten Zielfahrzeuge basierend auf Position, Fahrzeugklasse und Abmessungen auswählen.
  • In einer beispielhaften Ausführungsform kann die Erfassungsvorrichtung 106 höchstens ein Zielfahrzeug von jeder Fahrspur priorisieren, d.h. linke Fahrspur, rechte Fahrspur und mittlere Fahrspur. Falls einzelne Fahrspuren mehr als ein ausgewähltes Zielfahrzeug aufweisen, können nicht alle Ziele von der Erfassungsvorrichtung 106 weiterverarbeitet werden. Ferner kann eine Priorisierung auf Basis der relativen Geschwindigkeit und des Längsabstands zwischen dem Ego-Fahrzeug und den ausgewählten Zielfahrzeugen erfolgen.
  • In einer Ausführungsform kann die Erfassungsvorrichtung 106 bei Fahrzeugspiegelklasse und Spiegel-FoV 206 die Klasse des einen oder der mehreren Objektfahrzeuge erkennen, indem sie zeitliche Parameter des einen oder der mehreren Objektfahrzeuge aus dem fusionierten Satz von Signalen extrahiert. Ferner kann die Erfassungsvorrichtung 106 bei der Fahrzeugspiegelklasse und dem Spiegel FoV 206 eine Spiegelklasse identifizieren, die einem in dem Zielfahrzeug vorgesehenen Spiegel zugeordnet ist, und dementsprechend kann die Überwachungseinheit 102 ein Sichtfeld (FoV) der identifizierten Spiegelklasse abgrenzen. Ferner kann die Erfassungsvorrichtung 106, bei der Totwinkelzonenerfassung 208, mehrere Totwinkelzonen für das ausgewählte Zielfahrzeug basierend auf dem abgegrenzten Sichtfeld und den extrahierten kinematischen Parametern ableiten. In einer beispielhaften Ausführungsform können die Totwinkelzonen basierend auf der Klasse der Objektfahrzeuge, einschließlich M1/M2/M3 oder N1/N2/N3, und der Spiegelklassen der Objektfahrzeuge auf dem System 100 erstellt und die entsprechenden Abmessungen aktualisiert werden.
  • In einer Ausführungsform kann die Erfassungsvorrichtung 106 bei der Identifizierung des kritischen Szenarios 210 das kritische Szenario analysieren, indem sie erfasst, ob sich das Ego-Fahrzeug innerhalb der abgeleiteten mehrfachen Totwinkelzonen des einen oder der mehreren Objektfahrzeuge befindet. Befindet sich das Ego-Fahrzeug innerhalb der abgeleiteten mehrfachen Totwinkelzonen, kann die Erfassungsvorrichtung 106 eine Reihe von Warnsignalen basierend auf der Art der kritischen Zone auslösen. Ferner kann in der Lageschicht 212 der ausgelöste Satz von Warnsignalen in einen Satz von Anzeigesignalen umgewandelt werden, die dann auf der Anzeigeeinheit 112 angezeigt werden können. In einer Ausführungsform kann das System 100 alle Bereiche des toten Winkels in jeder der linken Fahrspur, der rechten Fahrspur und der mittleren Fahrspur überprüfen. Ferner kann das System 100 alle Totwinkelzonen analysieren und ferner den Satz von Warnsignalen auslösen. In einer Implementierung kann der Satz von Warnsignalen anzeigen, ob das Ego-Fahrzeug innerhalb einer der Totwinkelzonen des Zielfahrzeugs fährt, und ferner kann der Satz von Warnsignalen an die Lageschicht 212 gesendet werden.
  • Bezugnehmend auf 3 können bei der Zielauswahl und Priorisierung zunächst Fusionsobjektfahrzeuge (hier auch als Objekte bezeichnet) dynamisch priorisiert werden. In einer anderen Ausführungsform können die Zielfahrzeuge (hier auch als Ziele bezeichnet) in vordefinierte Klassen eingeteilt werden, wie z.B. M1, M2, M3, N1, N2 und N3, ohne darauf beschränkt zu sein. In einer Ausführungsform können die dynamisch priorisierten Fusionsobjekte und die klassifizierten Ziele zusammen abgebildet werden, und ferner kann das System 100 den Zielabstand vom Ego-Fahrzeug sowohl in X- als auch in Y-Richtung zur Fahrspuridentifizierung analysieren.
  • In einer Ausführungsform kann das System 100 in dem Fall, dass der Zielabstand zum Ego-Fahrzeug in X-Richtung größer als ein Längsabstandsschwellenwert (Smin) ist, den Zielabstand nach einer vordefinierten Zeitdauer erneut analysieren. In einer Ausführungsform kann das System 100 für den Fall, dass der Zielabstand zum Ego-Fahrzeug in X-Richtung kleiner als der Längsabstandsschwellwert ist, den Zielabstand zum Ego-Fahrzeug in Y-Richtung in Form der Y-Koordinate überprüfen. In der ersten Ausführungsform wird, wenn die Y-Koordinate größer als 0, d.h. positiv ist, das Ziel auf der linken Fahrspur ausgewählt. In der zweiten Ausführungsform wird, wenn die Y-Koordinate kleiner als 0 ist, d.h. negativ, das Ziel von der rechten Fahrspur ausgewählt. In der dritten Ausführungsform wird, wenn die Y-Koordinate weder positiv noch negativ ist, das Ziel von der Ego-Fahrspur ausgewählt, d.h. von der Fahrspur, auf der das Ego-Fahrzeug fährt.
  • Ferner kann das System 100 eine Berechnung der relativen Geschwindigkeit und des Abstands des priorisierten Ziels zum Ego-Fahrzeug durchführen. In einer Ausführungsform kann das System 100 die Relativgeschwindigkeit mit einer Grenzgeschwindigkeit (Rvmax) vergleichen. In einem Fall, wenn die Relativgeschwindigkeit größer als Rvmax ist, wird das Ziel vom System 100 nicht priorisiert. In einer anderen Ausführungsform, wenn bestimmt wird, dass die Relativgeschwindigkeit des priorisierten Ziels kleiner als Rvmax ist, kann das System 100 den Abstand des Ziels zum Ego-Fahrzeug mit einem Mindestschwellenabstand vergleichen. Im ersten Fall, wenn der Zielabstand größer als der Schwellenabstand ist, wird das Ziel nicht priorisiert. Im zweiten Fall, wenn der Zielabstand kleiner als der Schwellenabstand ist, wird das Ziel für die Berechnung des toten Winkels priorisiert, und dann wird das priorisierte Ziel in Block A eingegeben.
  • Es wird auf 4A für die Erfassung des toten Winkels und die Identifizierung des kritischen Szenarios für eine erste Fahrzeugkategorie, beispielsweise M1/M2/M3, Bezug genommen. In einer Ausführungsform, wenn die Fahrzeugklasse des priorisierten Ziels als eine der Klassen M1/M2/M3 bestimmt wird, wird die Spiegelklasse des Fahrzeugs identifiziert und das Spiegel-FoV berechnet. Ferner kann das System 100 bei einem Zielabstand von mehr als Null nahe und ferne Referenzpunkte in X-Richtung in Querrichtung berechnen. In einer Ausführungsform wird das Ziel für die Berechnung des toten Winkels abgewählt, wenn der Querabstand kleiner als der Mindestquerabstand ist.
  • In einer anderen Ausführungsform, wenn der Querabstand größer als der Mindestquerabstand ist, wird die relative Geschwindigkeit mit Rvmax und der Zielabstand mit Smin verglichen. Im ersten Fall, wenn die Relativgeschwindigkeit größer als Rvmax und der Zielabstand kleiner als Smin ist, wird das Ziel für die Berechnung des toten Winkels abgewählt. Im zweiten Fall, wenn die Relativgeschwindigkeit kleiner als Rvmax und der Zielabstand größer als Smin ist, gleicht das System 100 eine Summe aus effektivem Abstand und Ziellänge mit dem maximalen Längsabstand ab.
  • In einem Fall, wenn die Summe aus effektivem Abstand und Ziellänge größer ist als der maximale Längsabstand, dann wird das Ziel für die Berechnung des toten Winkels abgewählt. In einem anderen Fall, wenn die Summe des effektiven Abstands und der Ziellänge kleiner als der maximale Längsabstand ist, dann berechnet das System 100 den tatsächlichen Abstand vom Referenzpunkt zum Heck des Zielfahrzeugs.
  • Wenn ferner der tatsächliche Abstand größer ist als der nahe Referenzabstand in X-Richtung, prüft das System 100, ob die Relativgeschwindigkeit unter dem Schwellenwert für die Gefahrenzone liegt. Wenn dies der Fall ist, prüft es, ob die Zeit für die Gefahrenzone größer ist als die Entprellzeit für die Gefahrenzone, und blendet dementsprechend die der Gefahrenzone zugeordnete AR-Ansicht auf der Anzeigeeinheit ein. Andernfalls, wenn die Relativgeschwindigkeit kleiner als der Schwellenwert für die Gefahrenzone ist oder die Zeit der Gefahrenzone kleiner als die Entprellzeit der Gefahrenzone ist, kann das System 100 die Parameter der Gefahrenzone für die Anzeigebedingungen überwachen.
  • In einer Ausführungsform kann das System 100, wenn bestimmt wird, dass der tatsächliche Abstand geringer ist als der nahe Referenzabstand in X-Richtung, prüfen, ob der kombinierte tatsächliche Abstand mit der Ziellänge größer ist als ein weiter Referenzabstand in X-Richtung. Wenn dies der Fall ist, kann das System 100 eine Vorwarnzone berechnen, oder andernfalls kann das System 100 eine Sicherheitszone berechnen.
  • Falls jedoch die Fahrzeugklasse des priorisierten Ziels nicht als eine der Klassen M1/M2/M3 bestimmt wird, beginnt das System mit Block B.
  • Es wird auf 4B für die Erfassung des toten Winkels und die Identifizierung des kritischen Szenarios für eine erste Fahrzeugkategorie, beispielsweise N1/N2/N3, Bezug genommen. In einer Ausführungsform kann das System 100 die Fahrzeugspiegelklasse und das Spiegel-FoV identifizieren. Dann kann das System 100 für einen Zielabstand vom vorderen Stoßfänger von mehr als Null den effektiven Abstand vom vorderen Stoßfänger zum Fahrzeugtyp sowie nahe und ferne Referenzpunkte in X-Richtung berechnen.
  • Ferner prüft das System 100, ob die Summe aus effektivem Abstand und Ziellänge größer ist als der maximale Längsabstand, woraufhin das Ziel für die Berechnung des toten Winkels abgewählt wird. In einem anderen Fall, wenn die Summe des effektiven Abstands und der Ziellänge kleiner als der maximale Längsabstand ist, dann berechnet das System 100 den tatsächlichen Abstand vom Referenzpunkt zum Heck des Zielfahrzeugs.
  • Wenn der effektive Abstand vom vorderen Stoßfänger größer ist als ein Schwellenwert für die Referenzgeschwindigkeit, prüft das System 100 ferner, ob die Relativgeschwindigkeit kleiner ist als der Schwellenwert für die Relativgeschwindigkeit in der Gefahrenzone. Wenn dies der Fall ist, prüft es, ob die Zeit für die Gefahrenzone größer ist als die Entprellzeit für die Gefahrenzone, und blendet dementsprechend die der Gefahrenzone zugeordnete AR-Ansicht auf der Anzeigeeinheit ein. Andernfalls, wenn die Relativgeschwindigkeit kleiner als die relative Schwellengeschwindigkeit für die Gefahrenzone ist oder die Zeit der Gefahrenzone kleiner als die Entprellzeit der Gefahrenzone ist, kann das System 100 die Parameter der Gefahrenzone für die Anzeigebedingungen überwachen.
  • In einer Ausführungsform, wenn der effektive Abstand vom vorderen Stoßfänger kleiner als eine Referenzgeschwindigkeitsschwelle ist, dann prüft es, ob der tatsächliche Abstand vom Referenzpunkt zum Heck des Zielfahrzeugs größer ist als der nahe Referenzabstand in X-Richtung, und dementsprechend wird in einem solchen Fall eine sichere Zone errechnet. Andernfalls kann das System 100 eine Gefahrenzone berechnen.
  • Bezugnehmend auf 5A und 5B kann das im Ego-Fahrzeug (Ego-Car) implementierte System 100 Totwinkelzonen für ein vorausfahrendes Zielfahrzeug unter Berücksichtigung der zeitlichen Parameter w, I und s, d.h. Breite, Länge und Abstand des Ego-Cars vom Zielfahrzeug, berechnen. Ferner ist für das Zielfahrzeug der Kategorie M1 Rvmax die maximale Relativgeschwindigkeit, Smin ist der Mindestabstand zwischen dem Ego-Fahrzeug und dem Zielfahrzeug, um tote Winkel bei hohen Relativgeschwindigkeiten zu erfassen und anzuzeigen, Lt ist die Länge des Verkehrsfahrzeugs, MinD ist der seitliche Mindestabstand zur Bildung des toten Winkels, x_actual ist der Abstand der hinteren Stoßfänger des Ego-Fahrzeugs vom Referenzpunkt (R), d_max ist der maximale Abstand von der Bildung des toten Winkels, x_max ist der maximale Längsabstand vom Heck des Zielfahrzeugs, und P ist der Parallelabstand des Ego-Fahrzeugs zum Zielfahrzeug.
  • In einer Ausführungsform werden für Lkw und Pkw die Bereiche des toten Winkels getrennt berechnet, da ihre Spiegelklassen und Spiegelpositionen unterschiedlich sind. Fahrzeuge, die sich nicht innerhalb des FoV der obligatorischen Spiegelklassen befinden, können als Totwinkelzonen betrachtet werden. In einer Ausführungsform stellt 6A die Totwinkelzonen eines vorausfahrenden Zielfahrzeugs der Kategorie M1 und eines sich den Totwinkelzonen nähernden Ego-Fahrzeugs dar. In einer anderen Ausführungsform stellt 6B ein Ego-Fahrzeug dar, das sich den Bereichen des toten Winkels eines vorausfahrenden Zielfahrzeugs der Kategorie N3 nähert, wie z.B. eines Fernlasters. Es kann beobachtet werden, dass Größe und Anzahl der Totwinkelzonen für ein Fahrzeug der Kategorie N3 viel größer sind als die eines Fahrzeugs der Kategorie M1.
  • Bezugnehmend auf 7A können die Objektfahrzeuge mit Hilfe der 2/3-Punkt-Objektklassifizierung klassifiziert werden, wobei die 2-Punkt-Objektklassifizierung (gerade Linienform) von SMPC durchgeführt werden kann, wenn keine Längendaten des vorausfahrenden Fahrzeugs vorliegen, während die 3-Punkt-Objektklassifizierung (L-Form/umgekehrte L-Form) von SMPC durchgeführt werden kann, wenn Längs- und Breitendaten des vorausfahrenden Fahrzeugs vorliegen. Der derzeitige Klassifizierungsalgorithmus nach dem Stand der Technik kann nur Pkw und Lkw klassifizieren, wohingegen das vorgeschlagene System 100 eine bessere Leistung zeigen kann, wie in 7B dargestellt, indem es eine Reihe von Signalen fusioniert, die von verschiedenen Sensoren der Überwachungseinheit 102 empfangen werden.
  • In einer Ausführungsform sind Sichtfelder (FoV) für verschiedene Klassen von Spiegeln und entsprechende Regelungsaspekte im Stand der Technik bereits bekannt.
  • Bezugnehmend auf 8A und 8B kann die Berechnung des toten Winkels für Fahrzeuge der Klasse M1 bzw. der Klasse N3 unter Berücksichtigung von Parametern wie Relativgeschwindigkeit, Seiten- und Längsabstand erfolgen. In einer beispielhaften Ausführungsform können Fahrzeuge der Klasse M1 die Klassen I und III umfassen, und Fahrzeuge der Klasse N3 können die Klassen II, IV, V und VI umfassen.
  • Bezugnehmend auf 9A und 9B stellt der hervorgehobene Bereich die Gefahrenzone dar, d.h. wenn sich das Ego-Fahrzeug im toten Winkel des Lkw befindet. Die Warnung blinkt nur, wenn die relativen Geschwindigkeiten vergleichbar sind, z.B. weniger als +/-10 km/h, und das Ego-Fahrzeug für eine vordefinierte Zeitspanne, z.B. mehr als 5 Sekunden, in die Gefahrenzone gerät.
  • Bezugnehmend auf 10 kann das vorgeschlagene Verfahren 1000 zur Erfassung des toten Winkels (hierin austauschbar als Verfahren 1000 bezeichnet) Folgendes umfassen: Überwachen, in Block 1002, durch eine Überwachungseinheit, die einen Satz von Sensoren umfasst, eines Satzes von Parametern, die einem oder mehreren Objektfahrzeugen zugeordnet sind, die innerhalb eines Bereichs von Interesse (ROI) von dem Ego-Fahrzeug vorhanden sind, und entsprechendes Erzeugen eines Satzes von Signalen von jedem Sensor aus dem Satz von Sensoren.
  • In einer Ausführungsform kann das Verfahren 1000 Folgendes umfassen: Empfangen, in Block 1004, an einer Erfassungsvorrichtung, die mit der Überwachungseinheit kommuniziert und operativ mit einer Lernmaschine gekoppelt ist, des Satzes von Signalen, die von jedem Sensor aus dem Satz von Sensoren erzeugt werden, und ferner Fusionieren des empfangenen Satzes von Signalen.
  • In einer anderen Ausführungsform kann das Verfahren 1000 umfassen, dass in Block 1006 in der Erfassungsvorrichtung die Klasse des einen oder der mehreren Objektfahrzeuge erkannt wird, indem zeitliche Parameter des einen oder der mehreren Objektfahrzeuge aus dem fusionierten Satz von Signalen extrahiert werden.
  • In einer anderen Ausführungsform kann das Verfahren 1000 in Block 1008 an der Erfassungsvorrichtung das Extrahieren kinematischer Parameter des einen oder der mehreren Objektfahrzeuge aus dem fusionierten Satz von Signalen umfassen.
  • In einer anderen Ausführungsform kann das Verfahren 1000 umfassen, dass in Block 1010 in der Erfassungsvorrichtung ein Zielfahrzeug aus dem einen oder den mehreren Objektfahrzeugen ausgewählt wird, wobei die extrahierten zeitlichen Parameter, kinematischen Parameter und die erkannte Klasse berücksichtigt werden.
  • In einer anderen Ausführungsform kann das Verfahren 1000 in Block 1012 an der Erfassungsvorrichtung das Identifizieren einer Spiegelklasse, die einem in dem Zielfahrzeug vorgesehenen Spiegel zugeordnet ist, und das entsprechende Abgrenzen des Sichtfeldes (FoV) der identifizierten Spiegelklasse umfassen.
  • In einer anderen Ausführungsform kann das Verfahren 1000 in Block 1014 an der Erfassungsvorrichtung das Ableiten mehrerer Totwinkelzonen für das ausgewählte Zielfahrzeug basierend auf dem abgegrenzten Sichtfeld und der extrahierten kinematischen Parameter umfassen.
  • In einer Ausführungsform, falls mehr als ein Zielfahrzeug ausgewählt wird, umfasst das Verfahren das Priorisieren eines einzelnen Zielfahrzeugs für jede einzelne Fahrspur und das entsprechende Ableiten mehrerer Totwinkelzonen für das priorisierte Zielfahrzeug.
  • In einer anderen Ausführungsform kann das Verfahren 1000 das Emulieren einer Ansicht mit erweiterter Realität des ausgewählten Zielfahrzeugs und entsprechender mehrfacher Totwinkelzonen durch die Lernmaschine auf einer Anzeigeeinheit des Ego-Fahrzeugs umfassen. Ferner kann das Verfahren 1000 auch das Auslösen eines Satzes von Warnsignalen umfassen, falls sich das Ego-Fahrzeug innerhalb der abgeleiteten mehrfachen Totwinkelzonen befindet, wobei der ausgelöste Satz von Warnsignalen in einen Satz von Anzeigesignalen umgewandelt wird, die auf der Anzeigeeinheit angezeigt werden.
  • In einer Ausführungsform kann das vorgeschlagene System und Verfahren zur effektiven und zuverlässigen Erfassung von Totwinkelzonen vorausfahrender Fahrzeuge eingesetzt werden. Somit kann das vorgeschlagene System und Verfahren das dynamische Situationsbewusstsein für Fahrer ermöglichen und dadurch Unfälle und andere unsichere Situationen verhindern.
  • In einer anderen Ausführungsform kann das vorgeschlagene System und Verfahren die 2/3-Punkt-Objektklassifizierung von Objektfahrzeugen basierend auf SMPC-Daten ermöglichen. Ferner ist es dafür konfiguriert, die Totwinkelzonen für Lkw und Pkw separat zu berechnen, da ihre Spiegelklassen und Spiegelpositionen unterschiedlich sind. Darüber hinaus hilft das vorgeschlagene System und Verfahren bei der Integration von bestehenden AR-HUDs mit der Technologie zur Erfassung des toten Winkels.
  • Es ist daher für Fachleute ersichtlich, dass die Diagramme, Schemata, Illustrationen und dergleichen konzeptionelle Ansichten oder Prozesse darstellen, die Systeme und Verfahren zur Umsetzung dieser Erfindung illustrieren. Die Funktionen der verschiedenen in den Figuren gezeigten Elemente können sowohl durch den Einsatz spezieller Hardware als auch durch Hardware, die in der Lage ist, zugehörige Software auszuführen, bereitgestellt werden. In ähnlicher Weise sind alle in den Figuren gezeigten Schalter nur konzeptionell. Ihre Funktion kann durch den Betrieb von Programmlogik, durch dedizierte Logik, durch das Zusammenwirken von Programmsteuerung und dedizierter Logik oder sogar manuell ausgeführt werden, wobei die jeweilige Technik von der Einheit, die diese Erfindung implementiert, ausgewählt werden kann. Fachleuten ist ferner ersichtlich, dass die hierin beschriebenen beispielhaften Hardware-, Software-, Prozess-, Verfahrens- und/oder Betriebssysteme nur der Veranschaulichung dienen und daher nicht auf bestimmte genannte Vorrichtungen beschränkt sein sollen.
  • Während das Vorstehende verschiedene Ausführungsformen der Erfindung beschreibt, können andere und weitere Ausführungsformen der Erfindung erdacht werden, ohne vom grundsätzlichen Umfang der Erfindung abzuweichen. Der Umfang der Erfindung wird durch die folgenden Ansprüche bestimmt. Die Erfindung ist nicht auf die beschriebenen Ausführungsformen, Varianten oder Beispiele beschränkt, die enthalten sind, um eine Person mit normalem Fachwissen auf dem Gebiet der Technik in die Lage zu versetzen, die Erfindung herzustellen und zu verwenden, wenn sie mit Informationen und Wissen kombiniert wird, die der Person mit normalem Fachwissen auf dem Gebiet der Technik zur Verfügung stehen.
  • Die vorliegende Offenbarung stellt ein System und ein Verfahren bereit, das dem Fahrer ein dynamisches Situationsbewusstsein ermöglicht.
  • Die vorliegende Offenbarung stellt ein System und ein Verfahren zur Erfassung des toten Winkels von vorausfahrenden Fahrzeugen bereit, um unsichere Situationen zu vermeiden.
  • Die vorliegende Offenbarung stellt ein System und Verfahren bereit, dessen Sensorfusionsalgorithmus ein erhöhtes FoV und eine bessere Leistung in SMPC-Eckenfällen bietet.
  • Die vorliegende Offenbarung stellt ein System und Verfahren bereit, das die 2/3-Punkt-Objektklassifizierung von Fahrzeugen basierend auf von SMPC-Daten ermöglicht.
  • Die vorliegende Offenbarung stellt ein System und Verfahren bereit, bei dem Totwinkelzonen für Lkw und Pkw getrennt berechnet werden, da ihre Spiegelklassen und Spiegelpositionen unterschiedlich sind.
  • Die vorliegende Offenbarung stellt ein System und Verfahren bereit, das bei der Integration bestehender AR-HUDs mit der Technologie zur Erfassung des toten Winkels hilft.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 20190359218 A [0003]
    • JP 2021028206 A [0004]
    • US 20200111368 A1 [0005]

Claims (10)

  1. System (100) zur Erfassung des toten Winkels, das in einem Ego-Fahrzeug implementiert ist, wobei das System (100) Folgendes umfasst: eine Überwachungseinheit (102), die einen Satz von Sensoren umfasst, die dafür konfiguriert sind, einen Satz von Parametern zu überwachen, die mit einem oder mehreren Objektfahrzeugen verbunden sind, die sich innerhalb einem Bereich von Interesse (Region of Interest, ROI) des Ego-Fahrzeugs befinden, und entsprechend einen Satz von Signalen zu überwachen, die von jedem Sensor aus dem Satz von Sensoren erzeugt werden; und eine Erfassungsvorrichtung (106) in Kommunikation mit der Überwachungseinheit (102), wobei die Erfassungsvorrichtung (106) operativ mit einer Lernmaschine (110) gekoppelt ist und die Erfassungsvorrichtung (106) einen oder mehrere Prozessoren umfasst, wobei der eine oder die mehreren Prozessoren operativ mit einem Speicher gekoppelt sind, wobei der Speicher Anweisungen speichert, die von dem einen oder den mehreren Prozessoren für Folgendes ausgeführt werden können: Empfangen, von der Überwachungseinheit, des Satzes von Signalen, die von jedem Sensor aus dem Satz von Sensoren erzeugt werden, und weiteres Fusionieren des empfangenen Satzes von Signalen; Erkennen, durch Extrahieren zeitlicher Parameter des einen oder der mehreren Objektfahrzeuge aus dem fusionierten Satz von Signalen, der Klasse des einen oder der mehreren Objektfahrzeuge; Extrahieren, aus dem fusionierten Satz von Signalen, von kinematischen Parametern des einen oder der mehreren Objektfahrzeuge; Auswählen, unter Berücksichtigung der extrahierten zeitlichen Parameter, kinematischen Parameter und erkannten Klasse, eines Zielfahrzeugs aus dem einen oder den mehreren Objektfahrzeugen; Identifizieren einer Spiegelklasse, die einem in dem Zielfahrzeug vorgesehenen Spiegel zugeordnet ist, und entsprechendes Abgrenzen des Sichtfeldes (Field of View, FoV) der identifizierten Spiegelklasse; und Ableiten, basierend auf dem abgegrenzten FoV und den extrahierten kinematischen Parametern, mehrerer Totwinkelzonen für das ausgewählte Zielfahrzeug.
  2. System (100) nach Anspruch 1, wobei, wenn mehr als ein Zielfahrzeug ausgewählt wird, das System (100) ein einzelnes Zielfahrzeug für jede einzelne Fahrspur priorisiert und dementsprechend mehrere Totwinkelzonen für das priorisierte Zielfahrzeug ableitet.
  3. System (100) nach Anspruch 2, wobei das System (100) relative kinematische und zeitliche Parameter von mehr als einem Zielfahrzeug mit entsprechenden Schwellenwerten abgleicht und dementsprechend das einzelne Zielfahrzeug priorisiert.
  4. System (100) nach Anspruch 1, wobei das System (100) durch die Lernmaschine (110) auf einer Anzeigeeinheit (112) des Ego-Fahrzeugs eine Ansicht mit erweiterter Realität (Augmented-Reality, AR) des ausgewählten Zielfahrzeugs und der entsprechenden mehrfachen Totwinkelzonen emuliert.
  5. System (100) nach Anspruch 4, wobei die Erfassungsvorrichtung (106) einen Satz von Warnsignalen auslöst, für den Fall, dass sich das Ego-Fahrzeug innerhalb der abgeleiteten mehrfachen Totwinkelzonen befindet, und wobei der ausgelöste Satz von Warnsignalen in einen Satz von Anzeigesignalen umgewandelt wird, die auf der Anzeigeeinheit (112) angezeigt werden.
  6. System (100) nach Anspruch 1, wobei das System (100) die Klasse des einen oder der mehreren Objektfahrzeuge erkennt, indem es die extrahierten zeitlichen Parameter mit einem ersten Datensatz abbildet, und wobei das System (100) die Spiegelklasse identifiziert und das entsprechende FoV abgrenzt, indem es die erkannte Klasse des Zielfahrzeugs mit einem zweiten Datensatz abgleicht.
  7. System (100) nach Anspruch 1, wobei der Satz von Sensoren SMPC, LiDAR und RADAR umfasst.
  8. Verfahren zur Erfassung des toten Winkels (1000), wobei das Verfahren Folgendes umfasst: Überwachen (1002), durch eine Überwachungseinheit, die einen Satz von Sensoren umfasst, eines Satzes von Parametern, die einem oder mehreren Objektfahrzeugen zugeordnet sind, die innerhalb eines Bereichts von Interesse (ROI) von dem Ego-Fahrzeug vorhanden sind, und entsprechendes Erzeugen eines Satzes von Signalen von jedem Sensor aus dem Satz von Sensoren; Empfangen (1004), an einer Erfassungsvorrichtung, die mit der Überwachungseinheit kommuniziert und operativ mit einer Lernmaschine gekoppelt ist, des Satzes von Signalen, die von jedem Sensor aus dem Satz von Sensoren erzeugt werden, und ferner Fusionieren des empfangenen Satzes von Signalen; Erkennen (1006), an der Erfassungsvorrichtung, der Klasse des einen oder der mehreren Objektfahrzeuge durch Extrahieren von zeitlichen Parametern des einen oder der mehreren Objektfahrzeuge aus dem fusionierten Satz von Signalen; Extrahieren (1008), an der Erfassungsvorrichtung, von kinematischen Parametern des einen oder der mehreren Objektfahrzeuge aus dem fusionierten Satz von Signalen; Auswählen (1010), an der Erfassungsvorrichtung, eines Zielfahrzeugs aus dem einen oder den mehreren Objektfahrzeugen unter Berücksichtigung der extrahierten zeitlichen Parameter, kinematischen Parameter und erkannten Klasse; Identifizieren (1012), an der Erfassungsvorrichtung, einer Spiegelklasse, die einem in dem Zielfahrzeug vorgesehenen Spiegel zugeordnet ist, und entsprechendes Abgrenzen des Sichtfeldes (FoV) der identifizierten Spiegelklasse; und Ableiten (1014), an der Erfassungsvorrichtung, mehrerer Totwinkelzonen für das ausgewählte Zielfahrzeug basierend auf dem abgegrenzten FoV und den extrahierten kinematischen Parametern.
  9. Verfahren (1000) nach Anspruch 8, wobei, wenn mehr als ein Zielfahrzeug ausgewählt wird, das Verfahren (1000) das Priorisieren eines einzelnen Zielfahrzeugs für jede einzelne Fahrspur und dementsprechend das Ableiten mehrerer Totwinkelzonen für das priorisierte Zielfahrzeug umfasst.
  10. Verfahren (1000) nach Anspruch 8, wobei das Verfahren (1000) das Emulieren einer Ansicht mit erweiterter Realität (Augmented Reality, AR) des ausgewählten Zielfahrzeugs und entsprechender mehrfacher Totwinkelzonen durch die Lernmaschine auf einer Anzeigeeinheit des Ego-Fahrzeugs umfasst, wobei das Verfahren (1000) das Auslösen eines Satzes von Warnsignalen umfasst, für den Fall, dass sich das Ego-Fahrzeug innerhalb der abgeleiteten mehrfachen Totwinkelzonen befindet, und wobei der ausgelöste Satz von Warnsignalen in einen Satz von Anzeigesignalen umgewandelt wird, die auf der Anzeigeeinheit angezeigt werden.
DE102022004435.8A 2021-12-11 2022-11-28 System zur Erfassung des toten Winkels und Verfahren dazu Pending DE102022004435A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN202111057671 2021-12-11
IN202111057671 2021-12-11

Publications (1)

Publication Number Publication Date
DE102022004435A1 true DE102022004435A1 (de) 2023-06-15

Family

ID=86498974

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022004435.8A Pending DE102022004435A1 (de) 2021-12-11 2022-11-28 System zur Erfassung des toten Winkels und Verfahren dazu

Country Status (1)

Country Link
DE (1) DE102022004435A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190359218A1 (en) 2019-08-09 2019-11-28 Intel Corporation Blind spot detection
US20200111368A1 (en) 2018-10-08 2020-04-09 Mando Corporation Apparatus and method for avoiding blind spot of next-lane vehicle
JP2021028206A (ja) 2019-08-09 2021-02-25 株式会社デンソー 表示制御装置、表示制御方法、および表示制御プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200111368A1 (en) 2018-10-08 2020-04-09 Mando Corporation Apparatus and method for avoiding blind spot of next-lane vehicle
US20190359218A1 (en) 2019-08-09 2019-11-28 Intel Corporation Blind spot detection
JP2021028206A (ja) 2019-08-09 2021-02-25 株式会社デンソー 表示制御装置、表示制御方法、および表示制御プログラム

Similar Documents

Publication Publication Date Title
DE102017201717B4 (de) Verfahren zur Verwendung eines Rückblicksystem für ein Trägerfahrzeug sowie Rückblicksystem zur Ausführung des Verfahrens
DE102004035842B4 (de) Duales ungleichartiges erfassendes Objektdetektions- und Zielerfassungssystem
DE102009017152B4 (de) Verfahren und Vorrichtung zur Längs- und Querführung eines Kraftfahrzeugs
DE102005002760B4 (de) Vorrichtung und Verfahren zur Unfallvermeidung bei Kraftfahrzeugen
DE112012006226B4 (de) Fahrassistenzvorrichtung
DE102018218220A1 (de) Steuergerät für ein Fahrzeug
DE102009034386A1 (de) Fahrtunterstützungsvorrichtung für ein Fahrzeug
DE102009012917A1 (de) Hinderniserkennungsvorrichtung für Fahrzeuge
DE112019004554T5 (de) System und verfahren zur warnung vor vorhergesagten fahrzeugvorfällen und zum ausweichen
DE102007015032A1 (de) Verfahren zur Bewertung der Kritikalität einer Verkehrssituation und Vorrichtung zur Kollisionsvermeidung oder Kollisionsfolgenminderung
DE10336638A1 (de) Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld
DE10244205A1 (de) Verfahren und Einrichtung zur Verhinderung der Kollision von Fahrzeugen
DE102019215399A1 (de) Verfahren und vorrichtung zum analysieren einer fahrtendenz und system zum steuern eines fahrzeugs
DE102019108610A1 (de) Verbesserung des fahrzeugverhaltens unter verwendung von informationen aus anderen fahrzeugleuchten
DE102019122536A1 (de) Exzentrizitätskarten
DE102017111468A1 (de) Fahrzeugsystem und Verfahren zum Bestimmen, ob ein Fahrzeuginsasse ein fahrzeugexternes Objekt wahrgenommen hat
EP3024709B1 (de) Effizientes bereitstellen von belegungsinformationen für das umfeld eines fahrzeugs
EP1652161B1 (de) Vorrichtung zur klassifizierung wenigstens eines objekts in einem fahrzeugumfeld
DE102017205495A1 (de) Vorrichtung und Verfahren zum Fokussieren von Sensoren im fahrdynamischen Grenzbereich für ein Kraftfahrzeug
DE102019217428A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems, Fahrerassistenzsystem und Fahrzeug
DE102017201538A1 (de) Verfahren zum Verarbeiten von Daten über ein in einer Umgebung eines ersten Fahrzeugs befindliches Objekt
WO2019120709A1 (de) Verfahren und steuereinheit zur steuerung einer funktion eines zumindest teilweise automatisiert fahrenden fahrzeugs
DE102018213378B4 (de) Fahrassistenzsystem für ein Fahrzeug, Fahrzeug mit demselben und Fahrassistenzverfahren für ein Fahrzeug
DE102019131667A1 (de) Fahrzeug und verfahren zur voraussage einer kollision
DE102007007283A1 (de) Verfahren und Vorrichtung zur Bestimmung von in der Fahrzeugumgebung befindlichen Fahrzeugen