DE102021101320A1 - Situationsbewusstsein für versteckte gefahren - Google Patents

Situationsbewusstsein für versteckte gefahren Download PDF

Info

Publication number
DE102021101320A1
DE102021101320A1 DE102021101320.8A DE102021101320A DE102021101320A1 DE 102021101320 A1 DE102021101320 A1 DE 102021101320A1 DE 102021101320 A DE102021101320 A DE 102021101320A DE 102021101320 A1 DE102021101320 A1 DE 102021101320A1
Authority
DE
Germany
Prior art keywords
host vehicle
information
scene
target vehicle
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021101320.8A
Other languages
English (en)
Inventor
Prakash Mohan Peranandam
Erik B. Golm
Meng Jiang
Shengbing Jiang
Jiyu Zhang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102021101320A1 publication Critical patent/DE102021101320A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V1/00Seismology; Seismic or acoustic prospecting or detecting
    • G01V1/001Acoustic presence detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0953Predicting travel path or likelihood of collision the prediction being responsive to vehicle dynamic parameters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V1/00Seismology; Seismic or acoustic prospecting or detecting
    • G01V1/003Seismic data acquisition in general, e.g. survey design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Data Mining & Analysis (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Geology (AREA)
  • Environmental & Geological Engineering (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ein System und Verfahren zur Bestimmung des Vorhandenseins einer versteckten Gefahr kann die Identifizierung einer Betriebsszene für ein Host-Fahrzeug und die Identifizierung einer Betriebssituation für das Host-Fahrzeug umfassen. Informationen von einer Vielzahl von Näherungssensoren werden gesammelt und klassifiziert. Eine Vielzahl von Wahrscheinlichkeiten für das Vorhandensein einer versteckten Gefahr, die den Informationen von jedem der Vielzahl von Näherungssensoren, der Betriebsszene, der Betriebssituation und mindestens einem von einem vergleichenden Prozess und einem dynamischen neuronalen Netzwerkprozess entsprechen, werden geschätzt. Ein Fusionsprozess kann mit der Vielzahl der Wahrscheinlichkeiten für das Vorhandensein einer versteckten Gefahr durchgeführt werden, um das Vorhandensein einer versteckten Gefahr zu bestimmen.

Description

  • EINLEITUNG
  • Diese Offenbarung bezieht sich auf das Situationsbewusstsein in Straßenfahrzeugen.
  • Es ist von Fahrzeugsysteme bekannt, dass sie die Umgebung des Fahrzeugs überwachen, um das Situationsbewusstsein des Fahrers zu verbessern, z. B. Vorwärts- und Rückwärtsabstands-, Abstandsraten- und Sichtsysteme. Solche Systeme können genutzt werden, um dem Fahrer Warnungen und Steuereingaben in Bezug auf Objekte, einschließlich anderer Fahrzeuge, zu geben. Solche Systeme können bei autonomen und teilautonomen Fahrzeugsteuerungen eingesetzt werden, z. B. bei adaptiven Geschwindigkeitsreglern, Einparkhilfen, Spurhalte- und Totwinkelwarnungen für benachbarte Fahrspuren. Bekannte Systemfähigkeiten und -implementierungen können sich jedoch in erster Linie auf die Erkennung in der Sichtlinie beziehen.
  • KURZFASSUNG
  • In einer beispielhaften Ausführungsform kann ein Verfahren zum Bestimmen des Vorhandenseins einer versteckten Gefahr das Identifizieren einer Betriebsszene für ein Host-Fahrzeug, das Identifizieren einer Betriebssituation für das Host-Fahrzeug, das Sammeln und Klassifizieren von Informationen von einer Vielzahl von Näherungssensoren, das Schätzen einer Vielzahl von Wahrscheinlichkeiten für das Vorhandensein einer versteckten Gefahr, die den Informationen von jedem der Vielzahl von Näherungssensoren, der Betriebsszene, der Betriebssituation und mindestens einem von einem Vergleichsprozess und einem dynamischen neuronalen Netzwerkprozess entsprechen, und das Durchführen eines Fusionsprozesses mit der Vielzahl von Wahrscheinlichkeiten für das Vorhandensein einer versteckten Gefahr zum Bestimmen des Vorhandenseins einer versteckten Gefahr umfassen.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann das Sammeln und Klassifizieren von Informationen von einer Vielzahl von Näherungssensoren das Sammeln und Klassifizieren von Informationen von einem Umgebungslichtsensor, einem Sichtsystem, einem akustischen Sensor und einem seismischen Sensor umfassen.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann das Sammeln und Klassifizieren von Informationen von einer Vielzahl von Näherungssensoren das Sammeln und Klassifizieren von Informationen von mindestens einem von einem Umgebungslichtsensor und einem Bildverarbeitungssystem und von mindestens einem von einem akustischen Sensor und einem seismischen Sensor umfassen.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann das Sammeln und Klassifizieren von Informationen von einer Vielzahl von Näherungssensoren das Sammeln von Umgebungslicht und das Klassifizieren von Bereichen mit unterschiedlicher Helligkeit umfassen.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann das Sammeln und Klassifizieren von Informationen von einer Vielzahl von Annäherungssensoren das Sammeln von Umgebungslicht und das Klassifizieren von Bereichen mit überlappenden Scheinwerfermustern des Host-Fahrzeugs und mindestens eines verdeckten Zielfahrzeugs umfassen.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann das Sammeln und Klassifizieren von Informationen von einer Vielzahl von Näherungssensoren das Sammeln von Bildern von Lichtstrahlen von einem Bildverarbeitungssystem und das Klassifizieren der Bilder basierend auf einer Vielzahl von vorbestimmten Lichtstrahlcharakteristiken umfassen.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann das Sammeln und Klassifizieren von Informationen von einer Vielzahl von Näherungssensoren das Sammeln von akustischen Wellenformen und das Klassifizieren der Wellenformen basierend auf einer Vielzahl von vorbestimmten akustischen Merkmalen umfassen.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann das Sammeln und Klassifizieren von Informationen von einer Vielzahl von Näherungssensoren das Sammeln von seismischen Wellenformen und das Klassifizieren der Wellenformen basierend auf einer Vielzahl von vorbestimmten seismischen Merkmalen umfassen.
  • In einer anderen beispielhaften Ausführungsform kann ein System zum Bestimmen des Vorhandenseins einer versteckten Gefahr ein Host-Fahrzeug, eine Vielzahl von Näherungssensoren, die dem Host-Fahrzeug zugeordnet sind, und eine Steuerung umfassen, die konfiguriert ist, um eine Betriebsszene für das Host-Fahrzeug zu identifizieren, eine Betriebssituation für das Host-Fahrzeug zu identifizieren, Informationen von der Vielzahl von Näherungssensoren zu sammeln und zu klassifizieren, eine Vielzahl von Wahrscheinlichkeiten für das Vorhandensein einer versteckten Gefahr zu schätzen, die den Informationen von jedem der Vielzahl von Näherungssensoren, der Betriebsszene, der Betriebssituation und mindestens einem von einem Vergleichsprozess und einem dynamischen neuronalen Netzwerkprozess entsprechen, und einen Fusionsprozess mit der Vielzahl von Wahrscheinlichkeiten für das Vorhandensein einer versteckten Gefahr durchzuführen, um das Vorhandensein einer versteckten Gefahr zu bestimmen.
  • Zusätzlich zu einer oder mehreren der hier beschriebenen Funktionen kann die Steuerung so konfiguriert sein, dass sie Informationen von einem Umgebungslichtsensor, einem Bildverarbeitungssystem, einem akustischen Sensor und einem seismischen Sensor erfasst und klassifiziert.
  • Zusätzlich zu einer oder mehreren der hier beschriebenen Funktionen kann die Steuerung so konfiguriert sein, dass sie Informationen von mindestens einem Umgebungslichtsensor und einem Bildverarbeitungssystem sowie von mindestens einem akustischen Sensor und einem seismischen Sensor erfasst und klassifiziert.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann die Steuerung so konfiguriert sein, dass sie das Umgebungslicht erfasst und Bereiche mit überlappenden Scheinwerfermustern des Host-Fahrzeugs und mindestens eines verdeckten Zielfahrzeugs klassifiziert.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann die Steuerung so konfiguriert sein, dass sie Bilder von Lichtstrahlen von einem Bildverarbeitungssystem sammelt und die Bilder auf der Grundlage einer Vielzahl vorbestimmter Lichtstrahleigenschaften klassifiziert.
  • Zusätzlich zu einer oder mehreren der hier beschriebenen Funktionen kann die Steuerung so konfiguriert sein, dass sie akustische Wellenformen sammelt und die Wellenformen auf der Grundlage einer Vielzahl vorgegebener akustischer Merkmale klassifiziert.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann die Steuerung so konfiguriert sein, dass sie seismische Wellenformen sammelt und die Wellenformen auf der Grundlage einer Vielzahl von vorbestimmten seismischen Merkmalen klassifiziert.
  • In einer weiteren beispielhaften Ausführungsform kann ein System zur Bestimmung des Vorhandenseins einer versteckten Gefahr ein Host-Fahrzeug und eine Vielzahl von Näherungssensoren umfassen, die mit dem Host-Fahrzeug verbunden sind, einschließlich eines Umgebungslichtsensors, eines Sichtsystems, eines akustischen Sensors und eines seismischen Sensors. Das System kann ferner eine Steuerung umfassen, die konfiguriert ist, um eine Betriebsszene für das Host-Fahrzeug auf der Grundlage von Informationen zu identifizieren, die Informationen umfassen, die dem aktuellen geographischen Standort des Host-Fahrzeugs entsprechen, eine Betriebssituation für das Host-Fahrzeug auf der Grundlage von Informationen zu identifizieren, die Informationen umfassen, die dynamischen Bedingungen innerhalb der Betriebsszene entsprechen, Informationen von der Vielzahl von Näherungssensoren zu sammeln und zu klassifizieren, Schätzen einer Vielzahl von Wahrscheinlichkeiten für das Vorhandensein einer versteckten Gefahr, die den Informationen von jedem der Vielzahl von Näherungssensoren, der Betriebsszene, der Betriebssituation und mindestens einem von einem Vergleichsprozess und einem dynamischen neuronalen Netzwerkprozess entsprechen, und Durchführen eines Fusionsprozesses mit der Vielzahl von Wahrscheinlichkeiten für das Vorhandensein einer versteckten Gefahr, um das Vorhandensein einer versteckten Gefahr zu bestimmen.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann der Vergleichsprozess das Abrufen von Regeln umfassen, die der Betriebsszene und der Betriebssituation entsprechen und die Überlappungs- und Nicht-Überlappungszonen innerhalb eines Scheinwerfermusters des Host-Fahrzeugs definieren, das Erstellen von Helligkeitsvergleichen für die Zonen und das Vergleichen der Helligkeitsvergleiche mit gesammelten und klassifizierten Bereichen von überlappendem Licht innerhalb des Scheinwerfermusters des Host-Fahrzeugs.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann der Vergleichsprozess das Abrufen typischer Lichtstrahlbilder von verdeckten Zielfahrzeugen, die der Einsatzszene und der Einsatzsituation entsprechen, und den Vergleich der Bilder mit gesammelten und klassifizierten Bildern des Sichtsystems umfassen.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann der Vergleichsprozess das Abrufen von akustischen Signaturen, die der Betriebsszene und der Betriebssituation entsprechen, und den Vergleich der Signaturen mit gesammelten und klassifizierten akustischen Wellenformen umfassen.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann der Vergleichsprozess das Abrufen von seismischen Signaturen, die der Betriebsszene und der Betriebssituation entsprechen, und den Vergleich der Signaturen mit gesammelten und klassifizierten seismischen Wellenformen umfassen.
  • Die oben genannten Merkmale und Vorteile sowie andere Merkmale und Vorteile der Offenbarung sind aus der folgenden detaillierten Beschreibung leicht ersichtlich, wenn sie in Verbindung mit den beigefügten Zeichnungen genommen wird.
  • Figurenliste
  • Weitere Merkmale, Vorteile und Details sind nur beispielhaft in der folgenden ausführlichen Beschreibung aufgeführt, wobei sich die ausführliche Beschreibung auf die Zeichnungen bezieht, in denen:
    • 1 ein beispielhaftes System zur Situationserkennung bei versteckten Gefahren in Übereinstimmung mit der vorliegenden Offenbarung zeigt;
    • 2 zeigt eine beispielhafte Fahrzeugbetriebsszene, die keine versteckte Gefahr gemäß der vorliegenden Offenbarung darstellt;
    • 3 zeigt eine beispielhafte Fahrzeugbetriebsszene, die eine beispielhafte versteckte Gefahr gemäß der vorliegenden Offenbarung illustriert;
    • 4 zeigt eine beispielhafte Fahrzeugbetriebsszene, die eine beispielhafte verborgene Gefahr gemäß der vorliegenden Offenbarung illustriert;
    • 5 zeigt eine beispielhafte Fahrzeugbetriebsszene, in der beispielhaft versteckte Gefahren gemäß der vorliegenden Offenlegung dargestellt sind;
    • 6 zeigt eine beispielhafte Fahrzeugbetriebsszene, die eine beispielhafte versteckte Gefahr gemäß der vorliegenden Offenlegung illustriert;
    • 7 zeigt eine beispielhafte Fahrzeugbetriebsszene, die eine beispielhafte versteckte Gefahr gemäß der vorliegenden Offenlegung illustriert;
    • 8 zeigt eine beispielhafte Fahrzeugbetriebsszene, die eine beispielhafte versteckte Gefahr gemäß der vorliegenden Offenbarung illustriert;
    • 9 zeigt eine beispielhafte Fahrzeugbetriebsszene, die beispielhafte verborgene Gefahren in Übereinstimmung mit der vorliegenden Offenbarung veranschaulicht; und
    • 10 zeigt ein beispielhaftes Verfahren zur Abschätzung verdeckter Gefahren gemäß der vorliegenden Offenlegung.
  • DETAILLIERTE BESCHREIBUNG
  • Die folgende Beschreibung ist lediglich beispielhaft und soll die vorliegende Offenbarung, ihre Anwendung oder Verwendung nicht einschränken. In den Zeichnungen bezeichnen entsprechende Bezugsziffern gleiche oder entsprechende Teile und Merkmale. Wie hierin verwendet, bedeuten Steuermodul, Modul, Steuerung, Controller, Steuereinheit, elektronische Steuereinheit, Prozessor und ähnliche Begriffe eine oder verschiedene Kombinationen einer oder mehrerer anwendungsspezifischer integrierter Schaltungen (ASIC), elektronischer Schaltungen, zentraler Verarbeitungseinheiten (vorzugsweise Mikroprozessoren) und zugehöriger Speicher (Festwertspeicher (ROM), Direktzugriffsspeicher (RAM), elektrisch programmierbarer Festwertspeicher (EPROM), Festplatte usw.) oder Mikrocontroller, die ein oder mehrere Software- oder Firmware-Programme oder -Routinen ausführen, kombinatorische Logikschaltung(en), Eingangs-/Ausgangsschaltung(en) und -geräte (E/A) sowie geeignete Signalkonditionierungs- und Pufferschaltungen, Hochgeschwindigkeitstaktgeber, Analog-Digital- (A/D) und Digital-Analog-(D/A) Schaltungen und andere Komponenten zur Bereitstellung der beschriebenen Funktionalität. Ein Steuermodul kann eine Vielzahl von Kommunikationsschnittstellen enthalten, darunter Punktzu-Punkt- oder diskrete Leitungen und verdrahtete oder drahtlose Schnittstellen zu Netzwerken, einschließlich Weitverkehrsnetzen und lokalen Netzwerken, fahrzeuginternen Steuerungsnetzwerken und werksinternen und servicebezogenen Netzwerken. Funktionen des Steuermoduls gemäß dieser Offenlegung können in einer verteilten Steuerungsarchitektur unter mehreren vernetzten Steuermodulen ausgeführt werden. Software, Firmware, Programme, Anweisungen, Routinen, Code, Algorithmen und ähnliche Begriffe bezeichnen beliebige steuerungsausführbare Befehlssätze einschließlich Kalibrierungen, Datenstrukturen und Look-up-Tabellen. Ein Steuermodul verfügt über einen Satz von Steuerroutinen, die ausgeführt werden, um beschriebene Funktionen bereitzustellen. Routinen werden ausgeführt, z. B. von einer Zentraleinheit, und können Eingaben von Sensorgeräten und anderen vernetzten Steuermodulen überwachen und Steuer- und Diagnoseroutinen ausführen, um den Betrieb von Aktoren zu steuern. Routinen können in regelmäßigen Abständen während des laufenden Motor- und Fahrzeugbetriebs ausgeführt werden. Alternativ können Routinen als Reaktion auf das Auftreten eines Ereignisses, auf Softwareaufrufe oder bei Bedarf über Eingaben oder Anforderungen der Benutzeroberfläche ausgeführt werden.
  • Während des teil- oder vollautonomen Betriebs eines Fahrzeugs auf der Straße durch einen Fahrzeugführer kann das Fahrzeug ein Beobachter in einer Betriebsszene und -situation sein. Unter einer Betriebsszene (Szene) wird im Allgemeinen die im Wesentlichen statische Fahrumgebung verstanden, z. B. die Fahrbahn und die umgebende Infrastruktur, während unter einer Betriebssituation (Situation) im Allgemeinen die im Wesentlichen kinetischen, dynamischen und zeitlichen Bedingungen innerhalb der Szene verstanden werden, wie z. B. andere Fahrzeuge auf der Fahrbahn, Objekte und Gefahren. Ein beobachtendes Fahrzeug kann hier als Host-Fahrzeug bezeichnet werden. Andere Fahrzeuge, die die Fahrbahn teilen, können hier als Zielfahrzeuge bezeichnet werden.
  • Ein Host-Fahrzeug kann mit verschiedenen Sensoren und Kommunikationshardware und -systemen ausgestattet sein. Ein beispielhaftes Host-Fahrzeug 101 ist in 1 dargestellt, das ein beispielhaftes System 100 für die Situationserkennung bei versteckten Gefahren gemäß der vorliegenden Offenbarung illustriert. Das Host-Fahrzeug 101 kann ein Steuersystem 102 enthalten, das eine Vielzahl von vernetzten elektronischen Steuereinheiten (ECUs) umfasst, die über eine Busstruktur 111 kommunikativ gekoppelt sein können, um Steuerfunktionen und Informationsaustausch durchzuführen, einschließlich der Ausführung von Steuerroutinen lokal oder in verteilter Weise. Die Busstruktur 111 kann ein Teil eines Controller Area Network (CAN) oder eines anderen ähnlichen Netzwerks sein, wie es dem Fachmann bekannt ist. Ein beispielhaftes Steuergerät kann ein Motorsteuermodul (ECM) 115 enthalten, das in erster Linie Funktionen im Zusammenhang mit der Überwachung, Steuerung und Diagnose von Verbrennungsmotoren auf der Grundlage einer Vielzahl von Eingängen 121 ausführt. Während die Eingänge 121 als direkt mit dem ECM 115 gekoppelt dargestellt sind, können die Eingänge dem ECM 115 von einer Vielzahl bekannter Sensoren, Berechnungen, Ableitungen, Synthesen, anderen Steuergeräten und Sensoren über die Busstruktur 111 zur Verfügung gestellt oder innerhalb des ECM 115 bestimmt werden, wie es für den Fachmann verständlich ist. Ein Fachmann erkennt, dass eine Vielzahl anderer Steuergeräte 117 Teil des Netzwerks von Steuergeräten an Bord des Host-Fahrzeugs 101 sein können und andere Funktionen in Bezug auf verschiedene andere Fahrzeugsysteme (z. B. Fahrwerk, Lenkung, Bremsen, Getriebe, Kommunikation, Infotainment usw.) ausführen können. Eine Vielzahl von fahrzeugbezogenen Informationen kann allgemein verfügbar und für alle vernetzten Steuergeräte zugänglich sein, z. B. fahrdynamische Informationen wie Geschwindigkeit, Kurs, Lenkwinkel, mehrachsige Beschleunigungen, Gieren, Nicken, Rollen usw.
  • Ein weiteres beispielhaftes Steuergerät kann ein externes Objektberechnungsmodul (EOCM) 113 enthalten, das in erster Linie Funktionen im Zusammenhang mit der Erfassung der Umgebung außerhalb des Fahrzeugs 101 und insbesondere im Zusammenhang mit der Fahrbahn-, Belag- und Objekterfassung ausführt. EOCM 113 empfängt Informationen von einer Vielzahl von Sensoren 119 und anderen Quellen. Nur beispielhaft und ohne Einschränkung kann EOCM 113 Informationen von einem oder mehreren Radarsystemen, Lidarsystemen, Ultraschallsystemen, Sichtsystemen (z. B. Kameras), globalen Positionierungssystemen (GPS), Fahrzeug-zu-Fahrzeug-Kommunikationssystemen und Fahrzeug-zu-Infrastruktur-Kommunikationssystemen sowie von On- oder Off-Board-Datenbanken, z. B. Karten-, Straßenabschnitts-, Navigations- und Infrastrukturinformationen sowie Crowd-Sourced-Informationen empfangen. GPS- und Datenbankinformationen können einen Großteil der Fahrszeneninformationen liefern, während die Vielzahl der Sensoren 119 einen Großteil der Fahrsituationsinformationen liefern kann. Das EOCM 113 kann Zugang zu Positions- und Geschwindigkeitsdaten des Host-Fahrzeugs, zu Sichtlinien-, Entfernungs- und Geschwindigkeitsdaten des Zielfahrzeugs und zu bildbasierten Daten haben, die bei der Bestimmung oder Validierung von Fahrbahn- und Zielfahrzeuginformationen nützlich sein können, z. B. Fahrbahnmerkmale und geometrische, Entfernungs- und Geschwindigkeitsinformationen des Zielfahrzeugs, um nur einige zu nennen. Viele solcher Erfassungssysteme sind jedoch in ihrer Nützlichkeit beschränkt oder wurden in ihrer Anwendung auf Objekte, einschließlich anderer Fahrzeuge, innerhalb einer nicht abgeschlossenen Sichtlinie beschränkt. Gemäß der vorliegenden Offenlegung können bestimmte andere Sensortechnologien eingesetzt werden, um das Situationsbewusstsein für versteckte Gefahren zu verbessern, z. B. Umgebungslichtsensoren, akustische Sensoren und seismische Sensoren. Ebenso können Bildverarbeitungssysteme gemäß der vorliegenden Offenbarung angepasst werden, um das Situationsbewusstsein für versteckte Gefahren zu verbessern. Es versteht sich daher, dass bestimmte Sensoren als Sichtliniensensoren (LOS-Sensoren) in dem Sinne betrachtet werden können, dass sie sich auf die direkte Erfassung von Objekten innerhalb der Szene verlassen und in erster Linie auf eine nicht verdeckte Sichtlinie zwischen dem Sensor und dem erfassten Objekt angewiesen sind. Beispiele für solche LOS-Sensoren sind z. B. Radar-, Lidar-, Ultraschall- und Sichtsensoren. Im Gegensatz dazu können bestimmte Sensoren auch als Näherungssensoren in dem Sinne betrachtet werden, dass sie auf einer indirekten Erfassung von Objekten beruhen, die sich nicht innerhalb der Sichtlinie zwischen dem Sensor und dem erfassten Objekt befinden. Solche Näherungssensoren detektieren Einflüsse oder Erregungen innerhalb der Szene, die verarbeitet werden können, um das Vorhandensein des Objekts, von dem die Einflüsse oder Erregungen ausgehen, inferentiell zu bestimmen. Beispiele für solche Näherungssensoren sind z. B. Umgebungslichtsensoren, akustische Sensoren, seismische Sensoren und Sichtsensoren. Die Sensoren 119 können an verschiedenen Umfangspunkten um das Fahrzeug herum positioniert werden, z. B. vorne, hinten, in den Ecken, an den Seiten usw., wie im Fahrzeug 101 durch große Punkte an diesen Positionen dargestellt. Andere Positionierungen von Sensoren sind denkbar und können vorwärts gerichtete Sensoren durch die Windschutzscheibe des Fahrzeugs einschließen, die z. B. vor einem Rückspiegel montiert oder in eine solche Spiegelbaugruppe integriert sind. Die Positionierung des Sensors 119 kann so gewählt werden, dass er die gewünschte Abdeckung für bestimmte Anwendungen bietet. Beispielsweise kann die Positionierung der Sensoren 119 an der Vorderseite und an den vorderen Ecken und ansonsten an der Vorderseite bevorzugt werden, um die Situationswahrnehmung von versteckten Gefahren während der Vorwärtsfahrt zu verbessern, in Übereinstimmung mit der vorliegenden Offenbarung. Es wird jedoch anerkannt, dass eine analoge Anordnung der Sensoren 119 an der Rückseite oder nach hinten gerichtet bevorzugt sein kann, um die Situationswahrnehmung von versteckten Gefahren während der Rückwärtsfahrt gemäß der vorliegenden Offenbarung zu verbessern. Bestimmte der Sensoren, z. B. seismische Sensoren, sind möglicherweise nicht primär empfindlich für Richtungsinformationen und daher ist ihre Platzierung möglicherweise nicht positionskritisch. Seismische Sensoren können an der gefederten oder ungefederten Masse des Host-Fahrzeugs angebracht werden. In einer Ausführungsform können seismische Sensoren in die ungefederte Masse des Fahrgestells an einem oder mehreren Reifendrucküberwachungsgeräten (TPM) integriert werden, die mit jedem Rad verbunden sind. Bekannte TPMs können an einem Ende eines Reifenventilschaftes auf der Innenseite des Rades eingebaut oder am gegenüberliegenden Ende des Ventilschaftes angebracht werden, wo üblicherweise die Ventilschaftkappe angebracht ist. Bekannte TPMs verwenden vorteilhafterweise eine stromsparende Hochfrequenzkommunikation von Informationen an das zugehörige Fahrzeug. Es ist bekannt, dass TPM-Systeme Steuergeräte für schlüssellose Zugangssysteme (Remote Keyless Entry, RKE) verwenden, um TPM-Signale zu empfangen. Ein Fachmann kann daher bekannte TPMs leicht anpassen, um seismische Informationen an das zugehörige Fahrzeug zu übermitteln, um das Situationsbewusstsein für versteckte Gefahren zu verbessern, in Übereinstimmung mit der vorliegenden Offenbarung. Während die Sensoren 119 als direkt mit dem EOCM 113 gekoppelt dargestellt sind, können die Eingänge dem EOCM 113 über die Busstruktur 111 zur Verfügung gestellt werden, wie es dem Fachmann geläufig ist. Das Host-Fahrzeug 101 kann mit Funkkommunikationsfähigkeiten ausgestattet sein, die allgemein unter 123 dargestellt sind und sich insbesondere auf die GPS-Satellitenkommunikation 107, die Fahrzeug-zu-Fahrzeug-Kommunikation (V2V) und die Fahrzeug-zu-Infrastruktur-Kommunikation (V2I) beziehen, z. B. mit terrestrischen Funktürmen 105. Die vorliegende Beschreibung des beispielhaften Systems 100 zur Situationserkennung bei versteckten Gefahren erhebt keinen Anspruch auf Vollständigkeit. Auch ist die Beschreibung der verschiedenen beispielhaften System nicht als vollständig erforderlich zu interpretieren. So wird jemand, der über gewöhnliche Fachkenntnisse verfügt, verstehen, dass einige, alle und zusätzliche Technologien aus dem beschriebenen beispielhaften System 100 in verschiedenen Implementierungen der versteckten Gefahr Situationsbewusstsein in Übereinstimmung mit der vorliegenden Offenbarung verwendet werden können.
  • 2-9 zeigen eine Vielzahl von beispielhaften Fahrzeugbetriebsszenen gemäß der vorliegenden Offenlegung. In der Szene 200 von 2 können ein Host-Fahrzeug 201 und ein erstes Zielfahrzeug 203 in der gleichen Richtung auf verschiedenen Fahrspuren einer Fahrbahn fahren. Beide Fahrzeuge können mit eingeschalteten Scheinwerfern unterwegs sein. Beide Fahrzeuge haben ein jeweiliges Scheinwerferbeleuchtungsmuster, das im Wesentlichen nach vorne in die jeweilige Fahrtrichtung gerichtet ist. Außerdem können beide Fahrzeuge so nahe beieinander fahren, dass sich ihre jeweiligen Scheinwerfermuster in einem Bereich 209 überlappen, der heller ist als die nicht überlappenden Bereiche 205, 207. In 2 wird der Bereich 205 hauptsächlich von den Scheinwerfern des Host-Fahrzeugs 201 beleuchtet, während der Bereich 207 hauptsächlich von den Scheinwerfern des ersten Zielfahrzeugs 203 beleuchtet wird. Gemäß der vorliegenden Offenbarung können die Beleuchtungsbereiche 205 und 209 von dem/den vorausschauenden Sensor(en) des Host-Fahrzeugs erkannt werden, z. B. von einem oder mehreren Sichtsystemen und Umgebungslichtsensoren. Das Host-Fahrzeug 201 kann den Bereich 209 vom Bereich 205 unterscheiden und erkennen, dass der Bereich 209 aufgrund einer beitragenden, additiven Lichtquelle innerhalb des Scheinwerferbeleuchtungsmusterbereichs des Host-Fahrzeugs heller ist.
  • Das Host-Fahrzeug 201 kann auch die Anwesenheit und Position des ersten Zielfahrzeugs 203 erkennen und die zusätzliche Lichtquelle dem Scheinwerfersystem des ersten Zielfahrzeugs zuordnen.
  • 3 zeigt dieselbe Szene 200 und Situation in Bezug auf das Host-Fahrzeug 201 und das erste Zielfahrzeug 203. 3 zeigt zusätzlich ein zweites Zielfahrzeug 202, das auf einer Linksabbiegerspur in die entgegengesetzte Richtung fährt und sich in einem Winkel nähert, um die Fahrspuren des Leitfahrzeugs 201 und des ersten Zielfahrzeugs 203 zu kreuzen. Das zweite Zielfahrzeug 202 kann aus der Sichtlinie des Fahrers des Host-Fahrzeugs 201 verborgen sein, da das zweite Zielfahrzeug durch das dazwischenliegende erste Zielfahrzeug 203 verdeckt ist. Das zweite Zielfahrzeug 202 kann auch mit eingeschalteten Scheinwerfern betrieben werden. Alle Fahrzeuge haben ein entsprechendes Scheinwerferlichtmuster, das im Wesentlichen nach vorne in die jeweilige Fahrtrichtung gerichtet ist. Außerdem können alle Fahrzeuge so nahe beieinander fahren, dass sich ihre jeweiligen Scheinwerfermuster in bestimmten Bereichen überlappen. Im Szenario von 3 kann sich der Bereich 215 mit den Scheinwerfermustern des Host-Fahrzeugs 201 und des zweiten Zielfahrzeugs 202 überlappen, der Bereich 209 kann sich mit den Scheinwerfermustern des Host-Fahrzeugs 201 und des ersten Zielfahrzeugs 203 überlappen, der Bereich 211 kann sich mit den Scheinwerfermustern des ersten Zielfahrzeugs 203 und des zweiten Zielfahrzeugs 202 überlappen, der Bereich 213 kann sich mit den Scheinwerfermustern des Host-Fahrzeugs 201, des ersten Zielfahrzeugs 203 und des zweiten Zielfahrzeugs 202 überlappen. Die Bereiche 205, 207 können primär durch das Scheinwerfermuster des Host-Fahrzeugs 201 beleuchtet werden. Gemäß der vorliegenden Offenbarung können die Beleuchtungsbereiche 205, 207, 215, 213 und 209 von dem/den vorwärts gerichteten Sensor(en) des Host-Fahrzeugs unterschieden werden, beispielsweise von einem oder mehreren Sichtsystemen und Umgebungslichtsensoren. Das Host-Fahrzeug 201 kann diese Bereiche anhand der Helligkeit unterscheiden und erkennen, dass die Bereiche 209, 213 und 215 aufgrund einer beitragenden, additiven Lichtquelle innerhalb des Scheinwerferbeleuchtungsmusterbereichs des Host-Fahrzeugs 201 heller sind als die Bereiche 205, 207. Ebenso kann das Host-Fahrzeug 201 erkennen, dass der Bereich 213 heller ist als die Bereiche 205, 215 und 209 aufgrund einer mitwirkenden, zusätzlichen Lichtquelle innerhalb des Scheinwerferbeleuchtungsmusterbereichs des Host-Fahrzeugs. Das Host-Fahrzeug 201 kann die Anwesenheit und Position des ersten Zielfahrzeugs 203 erkennen und die zusätzliche Lichtquelle des Bereichs 209 dem Scheinwerfersystem des ersten Zielfahrzeugs 201 zuordnen. Das Host-Fahrzeug 201 kann aufgrund der Szenen- und Situationsinformationen ableiten, dass die additiven Lichtquellen im Bereich 213 und 215 von einem verdeckten Zielfahrzeug (zweites Zielfahrzeug 202) stammen.
  • In ähnlicher Weise zeigt 4 eine alternative Szene 400 und Situation in Bezug auf das Host-Fahrzeug 401 und das erste Zielfahrzeug 403. zeigt das erste Zielfahrzeug 403, das auf der rechten Fahrspur der jeweiligen Fahrbahn fährt. Das erste Zielfahrzeug 403 kann durch das Gebäude 411 von der Sicht des Host-Fahrzeugs 401 verdeckt sein. In einer Ausführungsform können beide Fahrzeuge mit eingeschalteten Scheinwerfern unterwegs sein. In einer alternativen Ausführungsform kann nur das verdeckte Zielfahrzeug 403 mit eingeschalteten Scheinwerfern betrieben werden. Beide Fahrzeuge sind mit einem jeweiligen Scheinwerferlichtmuster dargestellt, das in der jeweiligen Fahrtrichtung im Wesentlichen nach vorne gerichtet ist. Außerdem können beide Fahrzeuge so nahe beieinander fahren, dass sich ihre jeweiligen Scheinwerfermuster in einem Bereich 409 überlappen, der heller ist als die nicht überlappenden Bereiche 405, 407 und 413. In der Ausführungsform, in der nur das Zielfahrzeug 403 mit eingeschalteten Scheinwerfern fährt, wird nur das Beleuchtungsmuster des Zielfahrzeugs 403 projiziert. In 4 werden die Bereiche 405, 413 hauptsächlich von den Scheinwerfern des Host-Fahrzeugs 401 beleuchtet, während der Bereich 407 hauptsächlich von den Scheinwerfern des ersten Zielfahrzeugs 403 beleuchtet wird. Gemäß der vorliegenden Offenbarung können die Beleuchtungsbereiche 405, 407, 413 und 409 von dem/den vorwärts gerichteten Sensor(en) des Host-Fahrzeugs 401 unterschieden werden, beispielsweise von einem oder mehreren Sichtsystemen und Umgebungslichtsensoren. Das Host-Fahrzeug 401 kann den Bereich 409 von den Bereichen 405, 407 und 413 unterscheiden und erkennen, dass der Bereich 409 aufgrund einer beitragenden, additiven Lichtquelle innerhalb des Scheinwerferbeleuchtungsmusterbereichs des Host-Fahrzeugs 401 heller ist. Das Host-Fahrzeug 401 kann aufgrund der Szenen- und Situationsinformationen schließen, dass die additive Lichtquelle des Bereichs 409 und die Lichtquelle des Bereichs 407 auf ein verdecktes Zielfahrzeug (erstes Zielfahrzeug 403) zurückzuführen sind. In der alternativen Ausführungsform, in der nur das Zielfahrzeug 403 mit eingeschalteten Scheinwerfern fährt, kann der von den Scheinwerfern des Zielfahrzeugs 403 beleuchtete Bereich von dem/den vorausschauenden Sensor(en) des Host-Fahrzeugs 401 erkannt werden, beispielsweise durch ein oder mehrere Sichtsysteme und Umgebungslichtsensoren. Das Host-Fahrzeug 401 kann den mit Scheinwerfern beleuchteten Bereich vor dem Zielfahrzeug 403 von anderen Bereichen unterscheiden und erkennen, dass der mit Scheinwerfern beleuchtete Bereich aufgrund des Scheinwerferbeleuchtungsmusters des Zielfahrzeugs heller ist. Das Host-Fahrzeug 401 kann aufgrund der Szenen- und Situationsinformationen folgern, dass die additive Lichtquelle des Scheinwerferbeleuchtungsbereichs auf ein verdecktes Zielfahrzeug (erstes Zielfahrzeug 403) zurückzuführen ist. In beiden Ausführungsformen kann das Host-Fahrzeug 401 Bereiche mit additivem Licht oder Bereiche mit unterschiedlicher Lichthelligkeit erkennen.
  • 5 zeigt dieselbe Szene 400 und Situation in Bezug auf das Host-Fahrzeug 401 und das erste Zielfahrzeug 403. 5 zeigt zusätzlich ein zweites Zielfahrzeug 402, das in der gleichen Richtung wie das erste Zielfahrzeug 403 auf der linken Fahrspur der jeweiligen Fahrbahn fährt. Das zweite Zielfahrzeug 402 kann aus der Sichtlinie des Fahrers des Host-Fahrzeugs 401 verborgen sein, wobei das zweite Zielfahrzeug durch das dazwischenliegende erste Zielfahrzeug 403 oder sowohl das erste Zielfahrzeug 403 als auch das Gebäude 411 verdeckt ist. Das zweite Zielfahrzeug 402 kann auch mit eingeschalteten Scheinwerfern betrieben werden. Alle Fahrzeuge haben ein jeweiliges Scheinwerferbeleuchtungsmuster, das im Wesentlichen in der jeweiligen Fahrtrichtung nach vorne gerichtet ist. Außerdem können alle Fahrzeuge so nahe beieinander fahren, dass sich ihre jeweiligen Scheinwerfermuster in bestimmten Bereichen überlappen. Im Szenario von 5 kann der Bereich 410 von den Scheinwerfermustern des Host-Fahrzeugs 401 und des zweiten Zielfahrzeugs 402 überlappt werden, der Bereich 406 kann von den Scheinwerfermustern des Host-Fahrzeugs 401 und des ersten Zielfahrzeugs 403 überlappt werden, der Bereich 408 kann von den Scheinwerfermustern des ersten Zielfahrzeugs 403 und des zweiten Zielfahrzeugs 402 überlappt werden, der Bereich 414 kann von den Scheinwerfermustern des Host-Fahrzeugs 401, des ersten Zielfahrzeugs 403 und des zweiten Zielfahrzeugs 402 überlappt werden. Die Bereiche 405 und 413 können primär von den Scheinwerfermustern des Host-Fahrzeugs 401 beleuchtet werden, der Bereich 407 kann primär von den Scheinwerfermustern des ersten Zielfahrzeugs 403 beleuchtet werden, und der Bereich 412 kann primär von den Scheinwerfermustern des zweiten Zielfahrzeugs 402 beleuchtet werden. Gemäß der vorliegenden Offenbarung können die Beleuchtungsbereiche 405, 406, 407, 408, 410, 412, 413 und 414 von dem/den vorwärts gerichteten Sensor(en) des Host-Fahrzeugs 401 erkannt werden, zum Beispiel von einem oder mehreren Sichtsystemen und Umgebungslichtsensoren. Das Host-Fahrzeug 401 kann diese Bereiche anhand der Helligkeit unterscheiden und erkennen, dass die Bereiche 406, 408 und 410 aufgrund einer beitragenden, additiven Lichtquelle innerhalb des Scheinwerferbeleuchtungsmusterbereichs des Host-Fahrzeugs 401 heller sind als die Bereiche 405, 407, 412 und 413. Ebenso kann das Host-Fahrzeug 401 erkennen, dass der Bereich 414 heller ist als die Bereiche 406, 408 und 410 aufgrund von mitwirkenden, zusätzlichen Lichtquellen innerhalb des Scheinwerferbeleuchtungsmusterbereichs des Host-Fahrzeugs. Das Host-Fahrzeug 401 kann auch zu einem bestimmten Zeitpunkt, wenn die Situation fortschreitet (z. B. wenn eines oder beide Host-Fahrzeuge 401 und das erste Zielfahrzeug 403 vorwärts fahren), das Vorhandensein und die Position des ersten Zielfahrzeugs 403 erkennen und die additive Lichtquelle des Bereichs 406 dem Scheinwerfersystem des ersten Zielfahrzeugs zuordnen. Das Host-Fahrzeug 401 kann anhand der Szenen- und Situationsinformationen ableiten, dass die additiven Lichtquellen in den Bereichen 414 und 408 auf ein verdecktes Zielfahrzeug (zweites Zielfahrzeug 402) zurückzuführen sind.
  • 6 zeigt eine Szene 600 und die Situation in Bezug auf das Host-Fahrzeug 601, das erste Zielfahrzeug 603 und das zweite Zielfahrzeug 602. Das Host-Fahrzeug 601 und das erste Zielfahrzeug 603 können in der gleichen Richtung auf verschiedenen Fahrspuren einer Fahrbahn unterwegs sein. Das zweite Zielfahrzeug 602 kann auf einer Linksabbiegerspur in die entgegengesetzte Richtung fahren und sich in einem Winkel nähern, um die Fahrspuren des Host-Fahrzeugs 601 und des ersten Zielfahrzeugs 603 zu kreuzen. Das zweite Zielfahrzeug 602 kann aus der Sichtlinie des Fahrers des Host-Fahrzeugs 601 verborgen sein, da das zweite Zielfahrzeug durch das dazwischenfahrende erste Zielfahrzeug 603 verdeckt ist. Das zweite Zielfahrzeug 602 kann mit eingeschalteten Scheinwerfern betrieben werden. Die Scheinwerfer des zweiten Zielfahrzeugs 602 können relativ kompakte Strahlen 605 erzeugen, die dem zweiten Zielfahrzeug vorausgehen und in einen Bereich projizieren, der dem Host-Fahrzeug 601 vorausgeht. Gemäß der vorliegenden Offenbarung können ein oder beide Strahlen 605 von dem/den vorausschauenden Sensor(en) des Host-Fahrzeugs, z. B. von einem Sichtsystem, erkannt werden. Das Host-Fahrzeug 601 kann die Strahlen 605 von anderen Lichtquellen unterscheiden, die innerhalb der Szene 600 auftreten können. Das Host-Fahrzeug 601 kann das Vorhandensein und die Position des ersten Zielfahrzeugs 603 erkennen und den einen oder die mehreren Strahlen 605 einem versteckten Zielfahrzeug (zweites Zielfahrzeug 602) zuordnen und auf der Grundlage der Szenen- und Situationsinformationen auf das zweite Zielfahrzeug 602 schließen.
  • In ähnlicher Weise zeigt 7 eine alternative Szene 700 und Situation in Bezug auf das Host-Fahrzeug 701 und das erste Zielfahrzeug 703. zeigt das erste Zielfahrzeug 703, das auf der rechten Fahrspur der jeweiligen Fahrbahn fährt. Das erste Zielfahrzeug 703 kann durch das Gebäude 711 von der Sicht des Host-Fahrzeugs 701 abgeschirmt sein. Das erste Zielfahrzeug 703 kann mit eingeschalteten Scheinwerfern unterwegs sein. Die Scheinwerfer des ersten Zielfahrzeugs 703 können relativ kompakte Strahlen 705 erzeugen, die dem ersten Zielfahrzeug vorausgehen und in einen Bereich projizieren, der dem Host-Fahrzeug 701 vorausgeht. Gemäß der vorliegenden Offenbarung können ein oder beide Strahlen 705 von dem/den vorausschauenden Sensor(en) des Host-Fahrzeugs erkannt werden, z. B. von einem Sichtsystem. Das Host-Fahrzeug 701 kann die Strahlen 705 von anderen Lichtquellen unterscheiden, die innerhalb der Szene 700 auftreten können. Das Host-Fahrzeug 701 kann das Vorhandensein und die Position des ersten Zielfahrzeugs 703 erkennen und den einen oder die mehreren Strahlen 705 einem verborgenen Zielfahrzeug (erstes Zielfahrzeug 703) zuordnen und basierend auf den Szenen- und Situationsinformationen auf das erste Zielfahrzeug 703 schließen.
  • 8 zeigt eine Szene 800 und eine Situation in Bezug auf das Host-Fahrzeug 801, das erste Zielfahrzeug 803 und das zweite Zielfahrzeug 802. Das Host-Fahrzeug 801 und das erste Zielfahrzeug 803 können in der gleichen Richtung auf verschiedenen Fahrspuren einer Fahrbahn fahren. Das zweite Zielfahrzeug 802 kann in einer Linksabbiegerspur in die entgegengesetzte Richtung fahren und sich in einem Winkel nähern, um die Fahrspuren des Wirts- und des ersten Zielfahrzeugs 801 bzw. 803 zu kreuzen. Das zweite Zielfahrzeug 802 kann aus der Sichtlinie des Fahrers des Host-Fahrzeugs 801 verborgen sein, da das zweite Zielfahrzeug durch das dazwischen liegende erste Zielfahrzeug 803 verdeckt wird. Das zweite Zielfahrzeug 802 kann eine hörbare Wellenform 808 erzeugen, zum Beispiel durch seinen Antriebsstrang und Straßengeräusche. Zusätzlich kann das zweite Zielfahrzeug 802 durch seinen kinetischen Kontakt mit der Straßenoberfläche eine seismische Wellenform 806 anregen. Das erste Zielfahrzeug 803 kann auf ähnliche Weise eine akustische Wellenform 807 erzeugen und eine seismische Wellenform 805 anregen. Gemäß der vorliegenden Offenbarung können die akustischen und seismischen Wellenformen von den akustischen Sensoren bzw. seismischen Sensoren des Host-Fahrzeugs erkannt werden. Das Host-Fahrzeug 801 kann die akustische Wellenform 808 des zweiten Zielfahrzeugs 802 von anderen hörbaren Geräuschen (einschließlich der akustischen Wellenform 807 des ersten Zielfahrzeugs 803) unterscheiden, die innerhalb der Szene 800 auftreten können. Das Host-Fahrzeug 801 kann die seismischen Wellenformen von anderen seismischen Geräuschen (einschließlich der seismischen Wellenform 805 des ersten Zielfahrzeugs 803) unterscheiden, die innerhalb der Szene 800 auftreten können. Das Host-Fahrzeug 801 kann das Vorhandensein und die Position des ersten Zielfahrzeugs 803 erkennen und die Schallwellenform 808 und/oder die seismische Wellenform 806 einem verborgenen Zielfahrzeug (zweites Zielfahrzeug 802) zuordnen und auf der Grundlage der Szenen- und Situationsinformationen auf das zweite Zielfahrzeug 802 schließen.
  • In ähnlicher Weise zeigt 9 eine alternative Szene 900 und Situation in Bezug auf das Host-Fahrzeug 901, das erste Zielfahrzeug 903 und das zweite Zielfahrzeug 902. 9 zeigt das erste Zielfahrzeug 903, das auf der rechten Spur der jeweiligen Fahrbahn fährt, und das zweite Zielfahrzeug, das in der gleichen Richtung auf der linken Spur der jeweiligen Fahrbahn fährt. Das zweite Zielfahrzeug 902 kann aus der Sichtlinie des Bedieners des Host-Fahrzeugs 901 verborgen sein, wobei das zweite Zielfahrzeug durch das dazwischen befindliche erste Zielfahrzeug 903 oder sowohl das erste Zielfahrzeug 903 als auch das Gebäude 911 verdeckt ist. Das zweite Zielfahrzeug 902 kann eine hörbare Wellenform 908 erzeugen, z. B. durch seinen Antriebsstrang und Straßengeräusche. Zusätzlich kann das zweite Zielfahrzeug 902 durch seinen kinetischen Kontakt mit der Fahrbahnoberfläche eine seismische Wellenform 906 anregen. Das erste Zielfahrzeug 903 kann auf ähnliche Weise eine akustische Wellenform 907 erzeugen und eine seismische Wellenform 905 anregen. Gemäß der vorliegenden Offenbarung können die akustischen und seismischen Wellenformen von den akustischen Sensoren bzw. den seismischen Sensoren des Host-Fahrzeugs erkannt werden. Das Host-Fahrzeug 901 kann die akustische Wellenform 908 des zweiten Zielfahrzeugs 902 von anderen hörbaren Geräuschen (einschließlich der akustischen Wellenform 907 des ersten Zielfahrzeugs 903) unterscheiden, die innerhalb der Szene 900 auftreten können. Das Host-Fahrzeug 901 kann die seismischen Wellenformen von anderen seismischen Geräuschen (einschließlich der seismischen Wellenform 905 des ersten Zielfahrzeugs 903) unterscheiden, die innerhalb der Szene 900 auftreten können. Das Host-Fahrzeug 901 kann das Vorhandensein und die Position des ersten Zielfahrzeugs 903 erkennen und die Schallwellenform 908 und/oder die seismische Wellenform 906 einem verborgenen Zielfahrzeug (zweites Zielfahrzeug 902) zuordnen und auf der Grundlage der Szenen- und Situationsinformationen auf das zweite Zielfahrzeug 902 schließen.
  • 10 zeigt einen beispielhaften Prozess 1000 zur Abschätzung versteckter Gefahren gemäß der vorliegenden Offenbarung. Der Prozess beginnt bei 1001, z. B. nach der Erfüllung von Zugangsbedingungen wie der Zündung des Fahrzeugs. Bei 1003 erfolgt die Identifizierung des Schauplatzes und kann Verweise auf GPS-, Karten-, Straßenabschnitts-, Navigations-, Infrastruktur- und Crowd-Sourced-Informationen 1002 umfassen, die dem aktuellen geografischen Standort des Host-Fahrzeugs entsprechen. Bei 1005 erfolgt die Situationsidentifikation und kann Verweise auf Zielfahrzeuge auf der Fahrbahn, Objekte und Gefahren von Fahrzeugsensoreingaben 1006, einschließlich Sichtliniensensoren, und Verweise auf Tageszeit, Wetter und andere relevante Informationen von lokalen und/oder entfernten Ressourcen und Datenbanken 1004, einschließlich Crowd-Sourced-Ressourcen, enthalten. Die Szenen- und Situationserkennung (1002-1006) kann eine gemeinsame Prozessbasis zur Unterstützung der verschiedenen hier beschriebenen Erkennungen versteckter Gefahren sein, die beispielsweise auf Umgebungslichtsensoren, akustischen Sensoren, seismischen Sensoren und Sichtsystemen basieren.
  • Bei 1007 werden mehrere Eingänge von Näherungssensoren 1008 für die Schätzung der versteckten Gefahr empfangen. Diese Eingänge können z. B. Umgebungslichtsensoren, akustische Sensoren, seismische Sensoren und Sichtsysteme 1008 umfassen. Der Prozess bei 1007 sammelt und klassifiziert die Informationen von den verschiedenen Näherungssensoren 1008. Gemäß einer Ausführungsform liefern mindestens zwei der Umgebungslichtsensoren, akustischen Sensoren, seismischen Sensoren und Bildverarbeitungssysteme Informationen für die Sammlung und Klassifizierung. Gemäß einer anderen Ausführungsform liefern mindestens einer der Umgebungslichtsensoren und Bildverarbeitungssysteme und mindestens einer der akustischen Sensoren und seismischen Sensoren Informationen zur Sammlung und Klassifizierung. Vorwärts gerichtete Umgebungslichtsensoren und/oder Kameras des Bildverarbeitungssystems können die Bereiche mit überlappendem Licht innerhalb des Beleuchtungsmusters der Scheinwerfer des Host-Fahrzeugs basierend auf Helligkeit/Intensität und Ort klassifizieren. Kameras des Bildverarbeitungssystems können Bilder sammeln, von denen im Voraus bestimmt wurde, dass sie Lichtstrahlkonzentrationen entsprechen, und sie klassifizieren, z. B. in Übereinstimmung mit einer Vielzahl vorbestimmter Lichtstrahlcharakteristika, einschließlich z. B. Strahldichte/-ausdehnung, Strahlintensität, Strahlrichtung usw. Akustische Sensoren und seismische Sensoren können entsprechende akustische und seismische Wellenformen erfassen und sie z. B. gemäß einer Vielzahl vorbestimmter akustischer oder seismischer Merkmale klassifizieren, darunter z. B. Energiepegel, Kontinuität, Frequenzgehalt usw.
  • Bei 1009 kann das Vorhandensein von versteckten Gefahren auf der Grundlage der gesammelten und klassifizierten Informationen 1007 von den Sensoren 1008 und einem vergleichenden Prozess 1013 und/oder einem trainierten dynamischen neuronalen Netzwerk (DNN) Prozess 1015 geschätzt werden. In Bezug auf die Erfassung des Umgebungslichts und die Überlappung von Scheinwerfermustern kann der Vergleichsprozess 1013 das Abrufen von Regeln aus lokalen und/oder entfernten Datenbanken 1004 umfassen, die Überlappungs- und Nicht-Überlappungszonen innerhalb des Scheinwerfermusters des Host-Fahrzeugs in Bezug auf die Szenen- und Situationsinformationen definieren. Es werden Helligkeitsvergleiche für die Zonen erstellt und die klassifizierten Bereiche mit überlappendem Licht innerhalb des Scheinwerfermusters des Host-Fahrzeugs aus 1007 werden damit verglichen. So kann aus den Vergleichsdaten auf ein verdecktes Zielfahrzeug geschlossen werden. In Bezug auf die Kamera des Sichtsystems, die Lichtstrahlen abbildet, kann der Vergleichsprozess 1013 das Abrufen von typischen Lichtstrahlbildern von verdeckten Zielfahrzeugen aus lokalen und/oder entfernten Datenbanken 1004 in Bezug auf die Szenen- und Situationsinformationen umfassen. Diese typischen Bilder können als Vergleichsbilder für die gesammelten und klassifizierten Bilder des Sichtsystems bei 1007 verwendet werden. So kann aus den Vergleichsdaten auf ein verstecktes Zielfahrzeug geschlossen werden. In Bezug auf akustische und seismische Wellenformen kann der Vergleichsprozess 1013 das Abrufen von akustischen und seismischen Signaturen von Interesse aus lokalen und/oder entfernten Datenbanken 1004 in Bezug auf die Szenen- und Situationsinformationen umfassen. Diese Signaturen können als Vergleichsdaten für die gesammelten und klassifizierten akustischen und seismischen Wellenformen bei 1007 verwendet werden. Ein verstecktes Zielfahrzeug kann somit aus den Vergleichsdaten abgeleitet werden. Jeder der Rückschlüsse auf ein verstecktes Zielfahrzeug kann ein zugehöriges Konfidenzniveau zugeordnet werden.
  • In Bezug auf den DNN-Prozess 1015 wird ein Offline-Training durchgeführt. Der Trainingsprozess kann für jeden der Umgebungslichtsensoren, akustischen Sensoren, seismischen Sensoren und Bildverarbeitungssysteme eine entsprechende Datensammlung über eine Matrix von Straßenbedingungen und Situationen mit einem oder mehreren Fahrzeugen unterschiedlichen Typs umfassen. Die gesammelten Daten können einer manuellen Annotation von Fakten und Ground Truth durch Beobachtung unterzogen werden, vorzugsweise durch eine Szenenerfassung des Sichtsystems. Die annotierten Daten werden dann für das Training spezifischer DNN-Modelle für jeden der Umgebungslichtsensoren, akustischen Sensoren, seismischen Sensoren und Bildverarbeitungssysteme verwendet. Diese trainierten DNN-Modelle werden im DNN-Prozess verwendet, wobei die gesammelten und klassifizierten Informationen 1007 von den Sensoren 1008 in das jeweilige DNN-Modell eingegeben werden, um verborgene Gefahrenschlussfolgerungen zu liefern.
  • Jeder der Vergleichsprozesse 1013 und der DNN-Prozess 1015 kann allein oder in Kombination verwendet werden, um die jeweiligen Rückschlüsse auf versteckte Gefahren für jeden der Näherungssensoren 1008 zu liefern. Das Vorhandensein von versteckten Gefahren kann dabei als Wahrscheinlichkeit des Vorhandenseins bei 1011 geschätzt werden. Der Prozess 1000 kann sich dann wiederholen, wobei die Szenen- und Situationsinformationen kontinuierlich aktualisiert werden.
  • Der Prozess bei 1011 kann die mehreren Wahrscheinlichkeiten, die den mehreren Näherungssensoren 1008 entsprechen, an den Fusionsprozess 1021 weitergeben, wo die mehreren Wahrscheinlichkeiten fusioniert werden können und eine endgültige Bestimmung bezüglich des Vorhandenseins einer versteckten Gefahr vorgenommen werden kann. Die Datenfusion bei 1021 kann auf regelbasierten Prioritäten und Gewichtungen von 1019 basieren. 1019 kann szenen- und situationsbasierte Eingaben von 1017 erhalten, das wiederum szenen- und situationsbezogene Informationen erhält, die in 1003 und 1005 ermittelt wurden. Beispielsweise kann 1017 Straßencharakteristika wie Belagstyp und -qualität, Autobahn oder Landstraße, städtisch oder ländlich, etc. bestimmen. 1017 kann auch Umgebungsmerkmale wie aktuelle Wetterbedingungen, Lärmbelastung, Nähe zum öffentlichen Nahverkehr, Uhrzeit, Lichtverschmutzung usw. bestimmen. Basierend auf solchen Merkmalen kann der Prozess bei 1019 abhängige Regeln anwenden. Zum Beispiel können nachts an städtischen Standorten mit spärlicher Beleuchtung Umgebungslichtsensoren bevorzugt werden und eine höhere Gewichtung für zugehörige Erkennungen festlegen. In ähnlicher Weise können in der Nacht an städtischen Standorten mit starker Beleuchtung akustische und seismische Sensoren gegenüber Umgebungslichtsensoren bevorzugt werden und eine höhere Gewichtung für zugehörige Erkennungen festlegen. Die so festgelegten Gewichtungen können bei der Fusion der mehreren Wahrscheinlichkeiten verwendet werden, die den mehreren Eingängen der Näherungssensoren entsprechen (1021), wobei die mehreren Wahrscheinlichkeiten fusioniert werden können und eine endgültige Entscheidung über das Vorhandensein einer versteckten Gefahr getroffen wird. Bei 1023 wird das Vorhandensein einer versteckten Gefahr dem Fahrzeugbediener gemeldet oder als Steuereingabe in der Fahrzeugsteuerung verwendet.
  • Wenn eine Beziehung zwischen einem ersten und einem zweiten Element in der obigen Offenbarung nicht ausdrücklich als „direkt“ beschrieben wird, kann diese Beziehung eine direkte Beziehung sein, bei der keine anderen intervenierenden Elemente zwischen dem ersten und dem zweiten Element vorhanden sind, sie kann aber auch eine indirekte Beziehung sein, bei der ein oder mehrere intervenierende Elemente (entweder räumlich oder funktionell) zwischen dem ersten und dem zweiten Element vorhanden sind.
  • Es versteht sich, dass ein oder mehrere Schritte innerhalb einer Methode oder eines Prozesses in unterschiedlicher Reihenfolge (oder gleichzeitig) ausgeführt werden können, ohne die Prinzipien der vorliegenden Offenbarung zu verändern. Obwohl jede der Ausführungsformen oben mit bestimmten Merkmalen beschrieben ist, können ein oder mehrere dieser Merkmale, die in Bezug auf eine beliebige Ausführungsform der Offenbarung beschrieben sind, in einer beliebigen anderen Ausführungsform implementiert und/oder mit Merkmalen einer beliebigen anderen Ausführungsform kombiniert werden, selbst wenn diese Kombination nicht explizit beschrieben ist. Mit anderen Worten, die beschriebenen Ausführungsformen schließen sich nicht gegenseitig aus, und Permutationen von einer oder mehreren Ausführungsformen miteinander bleiben im Rahmen dieser Offenbarung.
  • Obwohl die obige Offenbarung unter Bezugnahme auf beispielhafte Ausführungsformen beschrieben wurde, versteht der Fachmann, dass verschiedene Änderungen vorgenommen und Elemente durch Äquivalente ersetzt werden können, ohne den Anwendungsbereich der Offenbarung zu verletzen. Darüber hinaus können viele Modifikationen vorgenommen werden, um eine bestimmte Situation oder ein bestimmtes Material an die Lehren der Offenbarung anzupassen, ohne den wesentlichen Umfang der Offenbarung zu verlassen. Es ist daher beabsichtigt, dass die vorliegende Offenbarung nicht auf die besonderen Ausführungsformen beschränkt ist, die offenbart sind, sondern alle Ausführungsformen umfasst, die in ihren Anwendungsbereich fallen.

Claims (10)

  1. Verfahren zur Bestimmung des Vorhandenseins einer versteckten Gefahr, das Folgendes umfasst: Identifizierung einer Betriebsszene für ein Host-Fahrzeug; Identifizierung einer Betriebssituation für das Host-Fahrzeug; Sammeln und Klassifizieren von Informationen von einer Vielzahl von Näherungssensoren; Schätzen einer Vielzahl von versteckten Gefahrenpräsenzwahrscheinlichkeiten entsprechend der Information von jedem der Vielzahl von Näherungssensoren, der Betriebsszene, der Betriebssituation und mindestens einem von einem vergleichenden Prozess und einem dynamischen neuronalen Netzwerkprozess; und Durchführen eines Fusionsprozesses mit der Vielzahl von Wahrscheinlichkeiten für das Vorhandensein einer versteckten Gefahr, um das Vorhandensein einer versteckten Gefahr zu bestimmen.
  2. Verfahren nach Anspruch 1, wobei das Sammeln und Klassifizieren von Informationen von einer Vielzahl von Näherungssensoren das Sammeln und Klassifizieren von Informationen von einem Umgebungslichtsensor, einem Sichtsystem, einem akustischen Sensor und einem seismischen Sensor umfasst.
  3. Verfahren nach Anspruch 1, wobei das Sammeln und Klassifizieren von Informationen von einer Vielzahl von Näherungssensoren das Sammeln und Klassifizieren von Informationen von mindestens einem von einem Umgebungslichtsensor und einem Sichtsystem und von mindestens einem von einem akustischen Sensor und einem seismischen Sensor umfasst.
  4. Verfahren nach Anspruch 1, wobei das Sammeln und Klassifizieren von Informationen von mehreren Näherungssensoren das Sammeln von Umgebungslicht und das Klassifizieren von Bereichen unterschiedlicher Helligkeit umfasst.
  5. Verfahren nach Anspruch 1, wobei das Sammeln und Klassifizieren von Informationen von einer Vielzahl von Näherungssensoren das Sammeln von Bildern von Lichtstrahlen von einem Bildverarbeitungssystem und das Klassifizieren der Bilder basierend auf einer Vielzahl von vorbestimmten Lichtstrahleigenschaften umfasst.
  6. System zur Bestimmung des Vorhandenseins einer verborgenen Gefahr, umfassend: ein Host-Fahrzeug; eine Vielzahl von Näherungssensoren, die mit dem Host-Fahrzeug verbunden sind und einen Umgebungslichtsensor, ein Sichtsystem, einen akustischen Sensor und einen seismischen Sensor umfassen, eine Steuerung, die so konfiguriert ist, dass sie: eine Betriebsszene für das Host-Fahrzeug auf der Grundlage von Informationen identifizieren, die Informationen umfassen, die dem aktuellen geografischen Standort des Host-Fahrzeugs entsprechen; eine Betriebssituation für das Host-Fahrzeug auf der Grundlage von Informationen identifiziert, die Informationen umfassen, die dynamischen Bedingungen innerhalb der Betriebsszene entsprechen; Informationen aus der Vielzahl von Näherungssensoren sammelt und klassifiziert; eine Vielzahl von versteckten Gefahrenpräsenzwahrscheinlichkeiten entsprechend der Information von jedem der Vielzahl von Näherungssensoren, der Betriebsszene, der Betriebssituation und mindestens einem von einem vergleichenden Prozess und einem dynamischen neuronalen Netzwerkprozess schätzt; und einen Fusionsprozess mit der Vielzahl von Wahrscheinlichkeiten für das Vorhandensein einer versteckten Gefahr durchführt, um das Vorhandensein einer versteckten Gefahr zu bestimmen.
  7. System nach Anspruch 6, wobei der Vergleichsprozess umfasst: das Abrufen von Regeln, die der Betriebsszene und der Betriebssituation entsprechen und Überlappungs- und Nicht-Überlappungszonen innerhalb eines Scheinwerfermusters des Host-Fahrzeugs definieren, das Erstellen von Helligkeitsvergleichen für die Zonen und das Vergleichen der Helligkeitsvergleiche mit gesammelten und klassifizierten Bereichen von überlappendem Licht innerhalb des Scheinwerfermusters des Host-Fahrzeugs.
  8. System nach Anspruch 6, wobei der Vergleichsprozess das Abrufen typischer Lichtstrahlbilder von verdeckten Zielfahrzeugen, die der Betriebsszene und der Betriebssituation entsprechen, und das Vergleichen der Bilder mit gesammelten und klassifizierten Bildern des Sichtsystems umfasst.
  9. System nach Anspruch 6, wobei der Vergleichsprozess das Abrufen von akustischen Signaturen, die der Betriebsszene und der Betriebssituation entsprechen, und das Vergleichen der Signaturen mit gesammelten und klassifizierten akustischen Wellenformen umfasst.
  10. System nach Anspruch 6, wobei der Vergleichsprozess das Abrufen von seismischen Signaturen, die der Betriebsszene und der Betriebssituation entsprechen, und das Vergleichen der Signaturen mit gesammelten und klassifizierten seismischen Wellenformen umfasst.
DE102021101320.8A 2020-02-14 2021-01-22 Situationsbewusstsein für versteckte gefahren Pending DE102021101320A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/790,799 2020-02-14
US16/790,799 US11195063B2 (en) 2020-02-14 2020-02-14 Hidden hazard situational awareness

Publications (1)

Publication Number Publication Date
DE102021101320A1 true DE102021101320A1 (de) 2021-08-19

Family

ID=77061010

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021101320.8A Pending DE102021101320A1 (de) 2020-02-14 2021-01-22 Situationsbewusstsein für versteckte gefahren

Country Status (3)

Country Link
US (1) US11195063B2 (de)
CN (1) CN113264042B (de)
DE (1) DE102021101320A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11713047B2 (en) * 2020-02-21 2023-08-01 Calamp Corp. Technologies for driver behavior assessment
KR20220083002A (ko) * 2020-12-10 2022-06-20 현대자동차주식회사 차량

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4161584B2 (ja) * 2002-02-07 2008-10-08 トヨタ自動車株式会社 移動体用安全装置
JP2007310741A (ja) * 2006-05-19 2007-11-29 Fuji Heavy Ind Ltd 立体物認識装置
DE102009054227A1 (de) * 2009-11-21 2011-05-26 Volkswagen Ag Verfahren zum Steuern einer Scheinwerferanordnung für ein Fahrzeug und Scheinwerferanordnung
US10525921B2 (en) * 2017-08-10 2020-01-07 Ford Global Technologies, Llc Monitoring windshield vibrations for vehicle collision detection
CN108428343B (zh) * 2018-05-17 2023-10-24 长沙理工大学 一种多车驾驶行为分析和危险预警方法及系统
US11322019B2 (en) * 2019-10-23 2022-05-03 Zoox, Inc. Emergency vehicle detection

Also Published As

Publication number Publication date
US20210256327A1 (en) 2021-08-19
CN113264042B (zh) 2024-05-31
US11195063B2 (en) 2021-12-07
CN113264042A (zh) 2021-08-17

Similar Documents

Publication Publication Date Title
DE102018120786B4 (de) Verfahren zum Überwachen eines autonomen Fahrzeugs sowie entsprechend eingerichtetes Fahrzeug
DE102018120845B4 (de) Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
DE102018104857B4 (de) Verfahren und Systeme zum Analysieren von Fahrzeugreifen unter Verwendung von an einem Fahrzeug montierten Kameras
DE102018120785B4 (de) Verfahren zum Überwachen eines autonomen Fahrzeugs
DE112019004554T5 (de) System und verfahren zur warnung vor vorhergesagten fahrzeugvorfällen und zum ausweichen
DE102015110446A1 (de) Fahrzeugradar mit Strahlanpassung
DE102016212326A1 (de) Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs
DE102019108610A1 (de) Verbesserung des fahrzeugverhaltens unter verwendung von informationen aus anderen fahrzeugleuchten
DE102018101114A1 (de) Fahrspurwechsel eines fahrzeugs
DE102021101426A1 (de) Erkennung von fahrzeugbetriebsbedingungen
DE102021101320A1 (de) Situationsbewusstsein für versteckte gefahren
DE102011077333A1 (de) Fahrerassistenzsystem mit Objektdetektion
DE102018133457B4 (de) Verfahren und System zum Bereitstellen von Umgebungsdaten
DE102019116056A1 (de) System und verfahren zur steuerung eines autonomen fahrzeugs
DE102018116684A1 (de) Systeme und verfahren zum bereitstellen einer intelligenten übersteuerung für ein antriebsautomatisierungssystem
DE102021128041A1 (de) Verbesserung eines neuronalen fahrzeugnetzwerks
DE102019210339A1 (de) Verfahren zur Steuerung eines Fahrzeugs, Computerprogramm, maschinenlesbares Speichermedium, Steuergerät und Fahrzeug
DE102017223431A1 (de) Verfahren zum Assistieren eines Fahrers eines Kraftfahrzeugs bei einem Überholvorgang; Kraftfahrzeug; sowie System
DE102010038961A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Empfehlung für eine Strahlungscharakteristik zumindest eines Schweinwerfers eines Fahrzeugs
DE102019114626B4 (de) Kraftfahrzeug mit einem System zur Hardware-Überprüfung in einem Kraftfahrzeug
DE112022001403T5 (de) Lichtinterferenzdetektion während der fahrzeugnavigation
DE102020101832A1 (de) Verfahren und systeme zum interpretieren von verkehrssignalen und passieren von signalisierten kreuzungen
DE102017206856A1 (de) Einrichtung, Fahrzeug und Verfahren
DE102020107627A1 (de) Dynamische lidar-anpassung
DE102011121278A1 (de) Verfahren zum Betreiben eines Verkehrszeichen-Erkennungssystems und Verkehrszeichen-Erkennungssystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed