DE102017127972A1 - Mehrfachsensor-Wahrscheinlichkeitsobjekterkennung und automatisiertes Bremsen - Google Patents

Mehrfachsensor-Wahrscheinlichkeitsobjekterkennung und automatisiertes Bremsen Download PDF

Info

Publication number
DE102017127972A1
DE102017127972A1 DE102017127972.5A DE102017127972A DE102017127972A1 DE 102017127972 A1 DE102017127972 A1 DE 102017127972A1 DE 102017127972 A DE102017127972 A DE 102017127972A DE 102017127972 A1 DE102017127972 A1 DE 102017127972A1
Authority
DE
Germany
Prior art keywords
probability
sensor
sensors
vehicle controller
directional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017127972.5A
Other languages
English (en)
Inventor
Sneha Kadetotad
Jinesh J. Jain
Vidya Nariyambut murali
Dongran Liu
Marcos Pau Gerardo Castro
Adil Nizam SIDDIQUI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102017127972A1 publication Critical patent/DE102017127972A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Mathematical Physics (AREA)
  • Acoustics & Sound (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

Eine Steuerung empfängt Ausgaben von einer Vielzahl von Sensoren, wie etwa einer Kamera, einem LIDAR-Sensor, einem RADAR-Sensor und einem Ultraschallsensor, die nach hinten weisend sein können. Eine Wahrscheinlichkeit wird jedes Mal, wenn ein Merkmal in einer Sensorausgabe die Anwesenheit eines Objekts angibt, aktualisiert. Die Wahrscheinlichkeit kann in Abhängigkeit von einer Abweichung des Sensors, der die Ausgabe bereitstellt, und einer Entfernung zu dem Merkmal aktualisiert werden. Wenn die Abweichung eines Sensors richtungsabhängig ist, können richtungsabhängige Wahrscheinlichkeiten gemäß diesen Abweichungen und der Entfernung zu dem Merkmal aktualisiert werden. Falls die Wahrscheinlichkeit eine Schwellenbedingung einhält, können Handlungen vorgenommen werden, wie etwa ein wahrnehmbares Warnsignal oder automatisches Bremsen. Die Wahrscheinlichkeit kann bei Abwesenheit der Erkennung von Objekten verfallen. Steigende oder abnehmende Tendenzen der Wahrscheinlichkeit können verstärkt werden, indem die Wahrscheinlichkeit weiter erhöht oder verringert wird.

Description

  • ALLGEMEINER STAND DER TECHNIK
  • GEBIET DER ERFINDUNG
  • Diese Erfindung betrifft die Durchführung einer Hinderniserkennung, etwa zur Verwendung in autonomen Fahrzeugen.
  • HINTERGRUND DER ERFINDUNG
  • Es wird erwartet, dass Fahrer von Fahrzeugen ständig auf ihre Umgebung achten. Aber oftmals, insbesondere beim Rückwärtsfahren, können Fahrer die Aufmerksamkeit verlieren und Objekte in einer Bildfläche einfach aufgrund der Physik der Situation übersehen. Dies wird in Situationen weiter verstärkt, in denen ein dynamisches Objekt (Person, Radfahrer, Auto usw.) den Pfad eines rückwärtsfahrenden Fahrzeugs quert. Viele Fahrzeuge weisen passive Systeme auf, einschließlich Sensoren, wie etwa Kameras, Ultraschallsensoren, RADAR usw., um die Umgebung des Fahrzeugs zu identifizieren, aber diese passiven Systeme bauen darauf, dass der Fahrer zu jeder Zeit aufmerksam und schnell genug ist, um auf Notfälle rechtzeitig zu reagieren. Zusätzlich weist jeder Sensor seine eigenen Einschränkungen auf, etwa Sichtfeld, Reichweite usw.
  • Die hierin offenbarten Systeme und Verfahren stellen einen verbesserten Ansatz zur Hinderniserkennung unter Verwendung von Sensordaten, insbesondere beim Rückwärtsfahren, bereit.
  • Figurenliste
  • Um die Vorteile der Erfindung ohne Weiteres zu verstehen, wird eine genauere Beschreibung der oben kurz beschriebenen Erfindung durch Bezugnahme auf spezifische Ausführungsformen, welche in den beigefügten Zeichnungen veranschaulicht sind, bereitgestellt. In dem Verständnis, dass diese Zeichnungen lediglich typische Ausführungsformen der Erfindung darstellen und daher nicht als den Umfang beschränkend aufzufassen sind, wird die Erfindung mit zusätzlicher Genauigkeit und Ausführlichkeit durch die Verwendung der begleitenden Zeichnungen beschrieben und erläutert, wobei:
    • 1 ein schematisches Blockdiagramm eines Systems zum Implementieren von Ausführungsformen der Erfindung ist;
    • 2 ein schematisches Blockdiagramm einer beispielhaften Rechenvorrichtung ist, die zum Implementieren von Verfahren gemäß Ausführungsformen der Erfindung geeignet ist;
    • 3 eine schematische Darstellung ist, die ein Szenario, einschließlich eines rückwärtsfahrenden Fahrzeugs mit integrierten Sensoren, veranschaulicht; und
    • 4 ein Prozessablaufdiagramm eines Verfahrens zum Erkennen von Objekten während des Rückwärtsfahrens gemäß einer Ausführungsform der vorliegenden Erfindung ist.
  • DETAILLIERTE BESCHREIBUNG
  • Bezugnehmend auf 1 kann ein System 100 eine Steuerung 102 beinhalten, die innerhalb eines Fahrzeugs untergebracht ist. Das Fahrzeug kann jedes in dem Bereich bekannte Fahrzeug beinhalten. Das Fahrzeug kann alle Strukturen und Merkmale eines beliebigen Fahrzeugs aufweisen, das in dem Bereich bekannt ist, einschließlich Rädern, eines mit den Rädern gekoppelten Antriebsstrangs, eines mit dem Antriebsstrang gekoppelten Motors, eines Lenksystems, eines Bremssystems und anderer bekannter Systeme, die in dem Bereich dahingehend bekannt sind, dass sie in einem Fahrzeug beinhaltet sind.
  • Wie hierin ausführlicher erörtert wird, kann die Steuerung 102 eine Kollisionserkennung durchführen. Die Steuerung 102 kann Alarmsignale als Reaktion auf das Erkennen einer möglichen Kollision generieren und/oder kann autonome Kollisionsvermeidung durchführen. Die Steuerung 102 kann einen oder mehrere Bildströme von einer oder mehreren Bilderfassungsvorrichtungen 104 empfangen. Beispielsweise können eine oder mehrere Kameras an dem Fahrzeug angebracht sein und die von der Steuerung 102 empfangenen Bildströme ausgeben. Die Steuerung 102 kann einen oder mehrere Datenströme von einem oder mehreren Sensoren 106 empfangen. Zum Beispiel kann die Steuerung 102 an einen oder mehrere andere Sensoren 106 gekoppelt sein, die am Fahrzeug angebracht sind. Die Sensoren können RADAR (Radio Detection and Ranging)-Sensoren, LIDAR (Light Detection and Ranging)-Sensoren, SONAR (Sound Navigation und Ranging)-Sensoren, Ultraschallsensoren und dergleichen beinhalten.
  • Die Bilderfassungsvorrichtungen 104 und die anderen Sensoren 106 erkennen die Umwelt durch eine Vielzahl von unterschiedlichen Modalitäten und bieten viele Möglichkeiten, um das gleiche Objekt zu erkennen. Die hierin offenbarten Systeme und Verfahren bieten eine Möglichkeit, wie die Ausgaben der Bilderfassungsvorrichtungen 104 und der anderen Sensoren 106 verwendet werden können, um mögliche Hindernisse mit größerer Gewissheit zu erkennen, während Falschmeldungen aufgrund von Sensorrauschen reduziert werden.
  • Die hierin offenbarten Systeme und Verfahren sind insbesondere nützlich zur Vermeidung von Kollisionen beim Rückwärtsfahren. Dementsprechend können die Sichtfelder von mindestens einigen der Bilderfassungsvorrichtungen 104 und der Sensoren 106 nach hinten weisend sein.
  • Ein Rückwärtsfahrmodul 108 kann ein Erkennungsmodul 110a beinhalten, das programmiert ist, um Merkmale in Ausgaben der Bildverarbeitungsvorrichtungen 104 und der anderen Sensoren 106 zu erkennen, die Objekten in einem Fahrzeugpfad beim Rückwärtsfahren entsprechen. Insbesondere kann das Erkennungsmodul 110a Objekte innerhalb einer interessierenden Zone hinter dem Fahrzeug erkennen, wie nachfolgend im Hinblick auf 3 erläutert.
  • Das Rückwärtsfahrmodul 108 kann ferner ein Entfernungsmodul 110b beinhalten, das eine Entfernung zu Merkmalen, die in den Ausgaben der Bilderfassungsvorrichtungen 104 und der Sensoren 106 erkannt werden, schätzt. Beispielsweise können für die Bilderfassungsvorrichtungen binokulare Sicht verwendet werden, um dreidimensionale Daten von zwei Bildern bereitzustellen. Entfernungsschätzungen zu Objekten in den dreidimensionalen Daten können dann auf Grundlage der von diesen Daten angegebenen Positionen vorgenommen werden. In ähnlicher Weise können RADAR und Ultraschallsensoren 106 Informationen über die Entfernung und Geschwindigkeit von Objekten bereitstellen. LIDAR stellt eine dreidimensionale Punktwolke bereit, aus der die Position von Objekten bestimmt werden kann. Für alle Sensorausgaben können die bestimmten Entfernungen in ein übliches Koordinatensystem umgewandelt werden, um Einheitlichkeit bereitzustellen. Beispielsweise können einige Systeme eine Schätzung einer „Zeit bis zum Aufprall“ bereitstellen, die von dem Entfernungsmodul 110b in eine ungefähre Entfernung umgewandelt werden kann.
  • Das Rückwärtsfahrmodul 108 kann ferner ein Wahrscheinlichkeitsmodul 110c beinhalten. Jedes Mal, wenn ein Objekt in der Ausgabe von einer der Bilderfassungsvorrichtungen 104 oder einem der Sensoren 106 erfasst wird, wird die Wahrscheinlichkeit, dass ein Objekt hinter einem Fahrzeug vorhanden ist, aktualisiert. In manchen Ausführungsformen kann eine Wahrscheinlichkeit auch vom Wahrscheinlichkeitsmodul 110c aktualisiert werden, so dass die Wahrscheinlichkeit jedes Mal, wenn das Objekt erfasst wird, erhöht wird. Die Wahrscheinlichkeit gibt eine Aussicht an, dass ein Objekt in der Tat in einer interessierenden Zone hinter dem Fahrzeug vorhanden ist. Die Wahrscheinlichkeit kann gemäß einem Bayesianischen Statistikmodell berechnet und mit jeder Erfassung des Objekts gemäß einer Bayesianischen Wahrscheinlichkeitsaktualisierungstechnik aktualisiert werden. Die Aktualisierung der Wahrscheinlichkeit kann gemäß dem Konzept durchgeführt werden, das nachfolgend in Bezug auf 4 beschrieben wird. Wie nachfolgend genauer beschrieben wird, kann die Wahrscheinlichkeit so aktualisiert werden, dass je kleiner die Entfernung für ein Merkmal wird, desto größer der Anstieg der Wahrscheinlichkeit ist.
  • Das Rückwärtsfahrmodul 108 kann ein Kollisionsvermeidungsmodul 110d beinhalten. Beim Erkennen einer Wahrscheinlichkeit eines Objekts in der interessierenden Zone, die eine Schwellenbedingung erfüllt, kann das Kollisionsvermeidungsmodul 110d eingreifen, um eine Aufprall auf das Objekt zu vermeiden. Dies kann ein automatisches Anhalten des Fahrzeugs durch Anwenden der Bremse und Wegnehmen der Gaspedaleingabe beinhalten. Dies kann der Fall sein, wenn das Fahrzeug nicht autonom ist und das Rückwärtsfahrmodul 108 als eine Unterstützung für einen menschlichen Fahrer vorhanden ist.
  • In Ausführungsformen, in denen das Fahrzeug autonom ist, kann das Kollisionsvermeidungsmodul 110d andere Handlungen vornehmen, um eine Kollision mit einem Hindernis zu vermeiden, das gemäß den Modulen 110a bis 110c erkannt wurde. Zum Beispiel kann das Kollisionsvermeidungsmodul 110d die Bewegungsbahn des Fahrzeugs durch Betätigen eines oder mehrerer Aktoren 112 steuern, die die Richtung und Geschwindigkeit des Fahrzeugs steuern. Die Aktoren 112 können beispielsweise einen Lenkaktor 114a, eine Gaspedalaktor 114b und einen Bremsaktor 114c beinhalten. Die Konfiguration der Aktoren 114a bis 114c kann gemäß jeder Implementierung derartiger Aktoren erfolgen, die auf dem Gebiet von autonomen Fahrzeugen bekannt sind.
  • 2 ist ein Blockdiagramm, das eine beispielhaften Rechenvorrichtung 200 veranschaulicht. Die Rechenvorrichtung 200 kann verwendet werden, um verschiedene Prozeduren, wie beispielsweise die hierin erläuterten, durchzuführen. Die Steuerung 102 kann einige oder alle der Attribute der Rechenvorrichtung 200 aufweisen.
  • Die Rechenvorrichtung 200 beinhaltet einen oder mehrere Prozessor(en) 202, eine oder mehrere Speichervorrichtung(en) 204, eine oder mehrere Schnittstelle(n) 206, eine oder mehrere Massenspeichervorrichtung(en) 208, eine oder mehrere Ein-/Ausgabe-(E/A-)Vorrichtung(en) 210 und eine Anzeigevorrichtung 230, von denen alle an einen Bus 212 gekoppelt sind. Der/Die Prozessor(en) 202 beinhaltet/beinhalten einen oder mehrere Prozessoren oder Steuerungen, die in der/den Speichervorrichtung(en) 204 und/oder der/den Massenspeichervorrichtung(en) 208 gespeicherte Anweisungen ausführen. Der/Die Prozessor(en) 202 kann/können ebenso verschiedene Arten von computerlesbaren Medien beinhalten, wie beispielsweise einen Cache-Speicher.
  • Die Speichervorrichtung(en) 204 beinhaltet/beinhalten verschiedene computerlesbare Medien, wie beispielsweise flüchtige Speicher (z. B. Direktzugriffsspeicher (RAM) 214) und/oder nichtflüchtige Speicher (z. B. Festwertspeicher (ROM) 216). Die Speichervorrichtung(en) 204 kann/können ebenso einen wiederbeschreibbaren ROM beinhalten, wie beispielsweise einen Flash-Speicher.
  • Die Massenspeichervorrichtung(en) 208 beinhalten verschiedene computerlesbare Medien, wie etwa Magnetbänder, Magnetplatten, optische Platten, Festkörperspeicher (z. B.Flash-Speicher) und so fort. Wie in 2 gezeigt, ist eine besondere Massenspeichervorrichtung ein Festplattenlaufwerk 224. Verschiedene Laufwerke können ebenso in der/den Massenspeichervorrichtung(en) 208 beinhaltet sein, um ein Auslesen aus und/oder Schreiben auf die verschiedenen computerlesbaren Medien zu ermöglichen. Die Massenspeichervorrichtung(en) 208 beinhaltet/beinhalten entfernbare Medien 226 und/oder nichtentfernbare Medien.
  • Die E/A-Vorrichtung(en) 210 beinhaltet/beinhalten verschiedene Vorrichtungen, die es ermöglichen, dass Daten und/oder andere Informationen in die Rechenvorrichtung 200 eingegeben oder daraus abgerufen werden. (Eine) Beispielhafte I/O-Vorrichtung(en) 210 beinhaltet/beinhalten Cursorsteuervorrichtungen, Tastaturen, Tastenfelder, Mikrofone, Monitore oder andere Anzeigevorrichtungen, Lautsprecher, Drucker, Netzschnittstellenkarten, Modems, Linsen, CCDs oder andere Bildaufnahmevorrichtungen und dergleichen.
  • Die Anzeigevorrichtung 230 beinhaltet jede Art von Vorrichtung, die fähig ist, Informationen für einen oder mehrere Benutzer der Rechenvorrichtung 200 darzustellen. Beispiele einer Anzeigevorrichtung 230 beinhalten einen Monitor, ein Anzeigeendgerät, eine Videoprojektionsvorrichtung und dergleichen.
  • Die Schnittstelle(n) 206 beinhaltet/beinhalten verschiedene Schnittstellen, die der Rechenvorrichtung 200 ermöglichen, mit anderen Systemen, Vorrichtungen oder Rechenumgebungen zu interagieren. (Eine) Beispielhafte Schnittstelle(n) 206 beinhaltet/beinhalten eine beliebige Anzahl von unterschiedlichen Netzschnittstellen 220, wie beispielsweise Schnittstellen zu lokalen Netzen (LANs), Großraumnetzen (WANs), drahtlosen Netzen und dem Internet. (Eine) Andere Schnittstelle(n) beinhaltet/beinhalten eine Benutzerschnittstelle 218 und eine Peripherievorrichtungsschnittstelle 222. Die Schnittstelle(n) 206 kann/können ebenso eine oder mehrere Peripherieschnittstellen beinhalten, wie beispielsweise Schnittstellen für Zeigevorrichtungen (Mäuse, Touchpad usw.), Tastaturen und dergleichen.
  • Der Bus 212 ermöglicht dem/den Prozessor(en) 202, der/den Speichervorrichtung(en) 204, der/den Schnittstelle(n) 206, der/den Massenspeichervorrichtung(en) 208, der/den E/A-Vorrichtung(en) 210 und der Anzeigevorrichtung 230 miteinander sowie mit anderen Vorrichtungen oder Komponenten, die an den Bus 212 gekoppelt sind, zu kommunizieren. Der Bus 212 stellt eine oder mehrere von verschiedenen Arten von Busstrukturen dar, wie beispielsweise einen Systembus, PCI-Bus, IEEE-1394-Bus, USB-Bus und so weiter.
  • Zum Zwecke der Veranschaulichung sind Programme und andere ausführbare Programmkomponenten hierin als diskrete Blöcke dargestellt, auch wenn es sich versteht, dass sich derartige Programme und Komponenten zu verschiedenen Zeiten in unterschiedlichen Speicherkomponenten der Rechenvorrichtung 200 befinden und durch den/die Prozessor(en) 202 ausgeführt werden. Alternativ können die hierin beschriebenen Systeme und Prozeduren in Hardware oder einer Kombination von Hardware, Software und/oder Firmware implementiert sein. Ein oder mehrere anwendungsspezifische integrierte Schaltkreise (ASICs) können zum Beispiel programmiert sein, um eines oder mehrere der hierin beschriebenen Systeme und Prozeduren auszuführen.
  • Bezugnehmend nun auf 3 kann ein Fahrzeug 300, das die Steuerung 102 aufnimmt, nach hinten weisende Sensoren 106a, 106b aufweisen, wie LIDAR, RADAR, Ultraschall- und andere Sensoren. Das Fahrzeug 300 kann ferner nach hinten weisende Kameras 104a, 104b beinhalten. Die nach hinten weisenden Kameras 104a, 104b können binokulare Sicht implementieren, so dass die dreidimensionale Position von Objekten aus den Ausgaben der Kameras 104a, 104b bestimmt werden kann. Die Ausgaben der Sensoren 106a, 106b können auch in der Form dreidimensionaler Daten vorliegen, etwa in Form einer Punktwolke, wobei jeder Punkt eine Position angibt, an der Material erkannt wurde. Andere Sensoren können Objekte in seitlichen oder vorderen Bereichen des Fahrzeugs 300 erkennen. Auch wenn die hierin offenbarten Systeme und Verfahren insbesondere nützlich sind, um die Sicherheit beim Rückwärtsfahren zu verbessern, können sie ebenfalls bei Vorwärtsbewegung mit nach vorne weisenden Kameras und anderen Sensoren angewandt werden.
  • Die hierin offenbarten Verfahren sind insbesondere mit einer interessierenden Zone 302 hinter dem Fahrzeug 300 beschäftigt. Wie ersichtlich, erstreckt sich die interessierende Zone 302 in Längsrichtung hinter dem Fahrzeug 300 und kann sich auch seitlich auf jeder Seite des Fahrzeugs 300 erstrecken. Die Bilderfassungsvorrichtungen 104a, 104b und die anderen Sensoren 106a, 106b weisen diese interessierende Zone in ihrem Sichtfeld auf. In einigen Ausführungsformen können sich die Sichtfelder der Bilderfassungsvorrichtungen 104a, 104b und der anderen Sensoren 106a, 106b weiter erstrecken als diese interessierende Zone 302. In solchen Ausführungsformen können Merkmale in Sensorausgaben, die eine Position außerhalb der interessierenden Zone 302 angeben, ignoriert werden oder haben eine reduzierte Auswirkung auf die Wahrscheinlichkeit, dass ein Objekt in der interessierenden Zone 302 liegt, im Vergleich zu Merkmalen, die in der interessierenden Zone 302 liegen.
  • Objekte 304a, 304b, die innerhalb der interessierenden Zone 302 liegen, werden von den Bilderfassungsvorrichtungen 104a, 104b und den anderen Sensoren 106a, 106b erkannt und ein Bremsen des Fahrzeugs 300 kann abgerufen werden. Das Verfahren, mit dem Objekte 304a, 304b erkannt werden, wird nachfolgend im Hinblick auf 4 beschrieben.
  • Bezugnehmend auf 4 kann das veranschaulichte Verfahren 400 durch die Steuerung 102 als Reaktion auf den Empfang der Ausgaben der Bilderfassungsvorrichtungen 104a, 104b und der anderen Sensoren 106a, 106b ausgeführt werden. Das Verfahren 400 wird für Ausgaben von allen Bilderfassungsvorrichtungen 104a, 104b und den anderen Sensoren 106a, 106b so durchgeführt, dass jedes Merkmal in der Ausgabe jedes Sensors zu einer Erhöhung der Wahrscheinlichkeit, dass ein Objekt innerhalb der interessierenden Zone 302 vorhanden ist, beitragen kann. Insbesondere kann eine einzelne Wahrscheinlichkeitsmetrik auf Grundlage der Erkennung verschiedener Objekte durch verschiedene Sensoren aktualisiert werden.
  • Das Verfahren 400 kann Empfangen (402) von Sensordaten beinhalten. Das Verfahren 400 kann im Hinblick auf jeden Rahmen der Sensordaten, die von den Bilderfassungsvorrichtungen 104a, 104b und den anderen Sensoren 106a, 106b (nachfolgend „die Erfassungsvorrichtungen 104a, 104b, 106a, 106b“) empfangen werden, ausgeführt werden. Alternativ kann das Verfahren 400 Rahmen von Sensordaten von mehreren Erfassungsvorrichtungen 104a, 104b, 106a, 106b gleichzeitig verarbeiten.
  • Das Verfahren 400 kann Bewerten (404) beinhalten, ob ein Objekt in der Sensorausgabe erkannt wird, die ein Paar von binokularen Bildern, eine Punktwolke, erkannte Radar- oder Ultraschallreflexionen oder eine andere Sensorausgabe sein kann. Die Art und Weise, wie Objekte in diesen Ausgaben erkannt werden, kann die Verwendung eines beliebigen Verfahrens auf dem Gebiet zum Erkennen von Objekten beinhalten, das binokulare Sicht, einen RADAR-Sensor, einen LIDAR-Sensor, einen Ultraschallsensor oder einen anderen Sensortyp zum Erkennen der Umwelt eines Fahrzeugs verwendet. Das Erkennen (404) eines Objekts kann genau sein oder nicht, insofern wie die Sensoren Falschmeldungen aufweisen können. Dementsprechend kann das Erkennen (404) eines Objekts ein Erkennen eines Merkmals in der Ausgabe einer Erfassungsvorrichtung 104a, 104b, 106a, 106b beinhalten, das ein mögliches Hindernis angibt. Dementsprechend beziehen sich die nachfolgenden Bezugnahmen auf erkannte Objekte auf die Verarbeitung von ein Hindernis angebenden Merkmalen in Sensorausgaben.
  • Wenn ein Objekt erkannt wird (404), dann können die restlichen Elemente des Verfahrens 400 ausgeführt werden. Dies kann Bestimmen (406) einer Entfernung zum erkannten Objekt beinhalten. Dies kann ein beliebiges Verfahren auf dem Gebiet zum Erkennen der Position von Objekten beinhalten, das binokulare Sicht, einen RADAR-Sensor, einen LIDAR-Sensor, einen Ultraschallsensor oder einen anderen Sensortyp zum Erkennen der Umwelt eines Fahrzeugs verwendet. In einigen Beispielen kann das Erkennen (404) eines Objekts inhärent ein Bestimmen seiner Position beinhalten, so dass Schritt 406 keinen anderen Schritt beinhaltet.
  • Die Erfassungsvorrichtungen 104a, 104b, 106a, 106b können eine Position eines Objekts in verschiedenen Koordinatensystemen oder in verschiedenen Formen bereitstellen, wie etwa in der Form einer Zeit bis zum Aufprall. Dementsprechend kann Schritt 406 das Übersetzen der Positionen in ein übliches Koordinatensystem oder eine übliche Entfernungsmetrik beinhalten, z. B. eine Entfernung in Längsrichtung hinter dem Fahrzeug 300 oder eine seitliche Entfernung von einer Mittellinie in Längsrichtung des Fahrzeugs 300.
  • Jede der Erfassungsvorrichtungen 104a, 104b, 106a, 106b kann eine Abweichung aufweisen, die eine Ungewissheit bei einem oder beiden von folgenden angibt: Entfernung zu dem Objekt, die von einer Ausgabe des Sensors bestimmt ist, und ob ein Objekt in der Tat vorhanden ist, wenn ein Merkmal in der Sensorausgabe angibt, dass ein Objekt vorhanden ist.
  • In manchen Fällen kann diese Abweichung richtungsabhängig sein, d. h. ein Sensor kann eine Position in Längsrichtung eines Objekts genauer erfassen als die seitliche Position eines Objekts oder umgekehrt. Dementsprechend kann ein Sensor eine Längsabweichung oder eine Seitenabweichung aufweisen. Wenn herausgefunden wird, dass ein Sensor, von dem die Ausgabe in Schritt 402 empfangen wurde, eine von der Richtung abhängige Abweichung aufweist (408), kann das Verfahren 400 Aktualisieren (410) der richtungsabhängigen Wahrscheinlichkeiten beinhalten.
  • Insbesondere kann eine Wahrscheinlichkeit für jede Ausgabe, für die festgestellt wird, dass sie eine Anwesenheit eines Objekts angibt (404), aktualisiert werden, so dass die Wahrscheinlichkeit jedes Mal, wenn die Erfassungsvorrichtungen 104a, 104b, 106a, 106b ein Objekt erfassen, steigt. In einigen Ausführungsformen wird die Wahrscheinlichkeit gemäß einer Funktion aktualisiert, die mit sowohl der Anzahl von Malen, die eine Ausgabe eine Anwesenheit eines Objekts angibt, als auch einer Entfernung zu einem erfassten Objekt, die durch diese Ausgabe angegeben wird, steigt. In einigen Ausführungsformen kann die Wahrscheinlichkeit gemäß einer Funktion aller folgenden Parameter aktualisiert werden: (a) die Anzahl von Malen, die Sensorausgaben Objekte angeben, (b) die Entfernung zu den erfassten Objekten, und (c) eine Abweichung des Sensors, der die Anwesenheit der erfassten Objekte angibt. Insbesondere wird das Ausmaß, um das die Wahrscheinlichkeit als Reaktion auf Erfassen (404) eines Objekts steigt, mit geringerer Entfernung zu dem Objekt und mit geringerer Abweichung in dem Sensor, der das Objekt erfasst hat, größer.
  • Wenn die Wahrscheinlichkeit null ist, d. h. kein Objekt wurde bisher erfasst, kann die Wahrscheinlichkeit auf Grundlage dieser Parameter unter Verwendung einer Bayesianischen Wahrscheinlichkeitsfunktion berechnet werden. Wenn die Wahrscheinlichkeit nicht null ist, kann die Wahrscheinlichkeit als Reaktion auf jede Erkennung (404) eines Objekts gemäß diesen Parametern unter Verwendung einer Bayesianischen Wahrscheinlichkeitsaktualisierungstechnik aktualisiert werden.
  • Im Falle einer von der Richtung abhängigen Abweichung, können richtungsabhängige Wahrscheinlichkeiten, z. B. eine Längswahrscheinlichkeit und eine Seitenwahrscheinlichkeit, aktualisiert werden (410) oder zu Beginn berechnet werden, wobei die Längswahrscheinlichkeit gemäß der Entfernung und der Längsabweichung der Erfassungsvorrichtung 104a, 104b, 106a, 106b berechnet wird und die Seitenwahrscheinlichkeit gemäß der Entfernung und der Seitenabweichung der Erfassungsvorrichtung 104a, 104b, 106a, 106b berechnet wird.
  • Wenn eine Erfassungsvorrichtung 104a, 104b, 106a, 106b, von der die Sensordaten in Schritt 402 empfangen wurden, keine Richtungsabhängigkeit aufweist, kann eine einzelne allgemeine Wahrscheinlichkeit unter Verwendung der gleichen Parameter und auf die gleiche Weise wie bei den richtungsabhängigen Wahrscheinlichkeiten aktualisiert werden (412). Alternativ kann Schritt 412 Aktualisieren (412) der richtungsabhängigen Wahrscheinlichkeiten unter Verwendung der von der Richtung unabhängigen Abweichung der Erfassungsvorrichtung 104a, 104b, 106a, 106b beinhalten, um beide richtungsabhängigen Wahrscheinlichkeiten zu aktualisieren.
  • Das Verfahren 400 kann Bewerten (414) beinhalten, ob ein Wahrscheinlichkeitsschwellenwert eingehalten wurde. Dies kann Bewerten, dass eine oder mehrere der allgemeinen Wahrscheinlichkeit oder der richtungsabhängigen Wahrscheinlichkeiten einen gewissen Konfidenzschwellenwert übersteigt/übersteigen, z. B. mindestens 70 %, 80 %, 90 % oder einen gewissen anderen minimalen Prozentsatz von Gewissheit.
  • Falls dies zutrifft, können dann Handlungen von der Steuerung vorgenommen werden (416), wie etwa automatisches Aktivieren der Bremsen, Verringern oder Anhalten der Beschleunigung, Generieren eines wahrnehmbaren Alarmsignals für einen Fahrer, automatisches Navigieren des Fahrzeugs 300 um erkannte Objekte (404) oder eine andere Handlung, um einen durch einen Aufprall verursachten Schaden zu verhindern oder zu reduzieren.
  • In der Praxis führt das Verfahren 400 zu einer Erhöhung der Wahrscheinlichkeit für erfasste Objekte, die weit weg vom Fahrzeug sind. Die Wahrscheinlichkeit steigt schnell, wenn sich ein Objekt nähert, weil (a) Entfernung ein Faktor beim Berechnen der Wahrscheinlichkeit ist und diese geringer wird, (b) mehr Sensoren das Objekt erkennen, und auch weil (c) das Objekt eine immer höhere Anzahl von Malen erkannt wurde, wenn es sich näher zum Fahrzeug bewegt und die Wahrscheinlichkeit jedes Mal, wenn ein Objekt erkannt wird, steigt. Die Wahrscheinlichkeit kann so berechnet werden, dass die Anwesenheit des Objekts in der interessierenden Zone 302 eine ausreichend große Wirkung auf die Wahrscheinlichkeit hat, so dass der Schwellenwert des Schritts 416 eingehalten wird.
  • In einigen Ausführungsformen kann die (allgemeine oder richtungsabhängige) Wahrscheinlichkeit bei Abwesenheit einer Erkennung (404) eines Objekts in der Ausgabe eines Sensors verfallen (418). Wenn zum Beispiel keine Objekte in den Ausgaben beliebiger Sensoren für einen oder mehrere Datenrahmen erkannt werden, kann die Wahrscheinlichkeit verfallen (418), etwa gemäß einer Verfallexponentialfunktion oder gemäß einer Bayesianischen Wahrscheinlichkeitsaktualisierung, wobei die zusätzliche Information eine Abwesenheit von Daten ist, die die von dem statistischen Modell angegebene Wahrscheinlichkeit bestätigt. Das Ausmaß des Verfalls kann mit einer Zeitmenge, die zwischen einem Datenrahmen eines beliebigen Sensors, der ein Objekt angibt, und einer aktuellen Zeit, zu der das Verfahren 400 ausgeführt wird, verstreicht, ansteigen.
  • In vielen Fällen können Objekte vorübergehend in oder nahe der interessierenden Zone 302 vorhanden sein. Gleichermaßen kann ein Sensorrauschen zu einer vorübergehenden Wahrnehmung von Objekten in der Ausgabe einer Erfassungsvorrichtung 104a, 104b führen. Dementsprechend würden nicht alle wahrgenommenen Objekte erfordern, dass gebremst wird oder andere Handlungen vorzunehmen sind. Das Verfallen (418) der Wahrscheinlichkeit kann die Auswirkung dieser vorübergehenden Erkennungen verringern.
  • In einigen Ausführungsformen kann die Auswirkung der vorübergehenden Erkennungen weiter verringert werden und die Auswirkung der steigenden Wahrscheinlichkeit kann verstärkt werden, indem Tendenzen der (allgemeinen oder richtungsabhängigen) Wahrscheinlichkeit verstärkt werden (420). Wenn zum Beispiel die Wahrscheinlichkeit mit der Zeit verfällt, können Abstimmungsparameter festgelegt werden und es kann veranlasst werden, dass die Wahrscheinlichkeit stärker verfällt, gemäß einer Funktion der Rate des Verfalls in der Wahrscheinlichkeit und der Abstimmungsparameter.
  • Gleichermaßen kann das Verstärken (420) der Tendenzen ein Erhöhen der Wahrscheinlichkeit in Abhängigkeit von den Abstimmungsparametern und einer Steigerungsrate der Wahrscheinlichkeit mit der Zeit, d. h. als Reaktion auf Erkennung (404) von Objekten für zwei oder mehr Wiederholungen des Verfahrens 400, beinhalten. Auf diese Weise wird die Auswirkung von Objekten, die nicht vorübergehend sind und eine Erhöhung der (allgemeinen oder richtungsabhängigen) Wahrscheinlichkeit verursachen, erhöht, wodurch sichergestellt wird, dass die Wahrscheinlichkeit schnell den Schwellenwert erreicht, der eine Handlung hervorruft, wie etwa das Aktivieren der Bremsen (416).
  • In der vorstehenden Offenbarung wurde auf die beigefügten Zeichnungen Bezug genommen, die einen Teil davon bilden und in denen spezifische Implementierungen zur Veranschaulichung gezeigt werden, in denen die Offenbarung ausgeübt werden kann. Es versteht sich, dass andere Implementierungen verwendet werden können und strukturelle Änderungen vorgenommen werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Bezugnahmen in der Beschreibung auf „eine Ausführungsform“, „ein Ausführungsbeispiel“ usw. geben an, dass die beschriebene Ausführungsform ein bestimmtes Merkmal, eine Struktur oder Eigenschaft einschließen kann, aber nicht jede Ausführungsform muss notwendigerweise dieses bestimmte Merkmal, diese Struktur oder Eigenschaft einschließen. Darüber hinaus beziehen sich solche Ausdrücke nicht unbedingt auf dieselbe Ausführungsform. Wenn ein Merkmal, eine Struktur oder eine Eigenschaft in Verbindung mit einer Ausführungsform beschrieben wird, wird davon ausgegangen, dass es innerhalb des Wissens eines Fachmanns liegt, das Merkmal, die Struktur oder die Eigenschaft in Verbindung mit anderen Ausführungsformen umzusetzen, unabhängig davon, ob dies ausdrücklich beschrieben wird oder nicht.
  • Implementierungen der hierin offenbarten Systeme, Vorrichtung und Verfahren können einen Spezial- oder Universalcomputer umfassen oder verwenden, der Computerhardware beinhaltet, wie etwa einen oder mehrere Prozessoren und einen Systemspeicher, wie hierin erörtert. Implementierungen innerhalb des Umfangs der vorliegenden Offenbarung können außerdem Datenträger und andere computerlesbare Medien zum Weiterleiten oder Speichern von von einem Computer ausführbaren Anweisungen und/oder Datenstrukturen beinhalten. Bei solchen computerlesbaren Medien kann es sich um beliebige verfügbare Medien handeln, auf die durch ein Universal- oder Spezialcomputersystem zugegriffen werden kann. Bei computerlesbaren Medien, auf denen von einem Computer ausführbare Anweisungen gespeichert sind, handelt es sich um Computerspeichermedien (-geräte). Bei computerlesbaren Medien, die von einem Computer ausführbare Anweisungen weiterleiten, handelt es sich um Übertragungsmedien. Daher können Implementierungen der Offenbarung beispielsweise und nicht einschränkend wenigstens zwei deutlich unterschiedliche Arten von computerlesbaren Medien umfassen: Computerspeichermedien (-geräte) und Übertragungsmedien.
  • Computerspeichermedien (-geräte) schließen RAM, ROM, EEPROM, CD-ROM, Solid-State-Drives („SSDs“) (z. B auf Grundlage von RAM), Flash-Speicher, Phasenänderungsspeicher („PCM“), andere Speichertypen, andere optische Plattenspeicher, Magnetplattenspeicher oder andere magnetische Speichervorrichtungen oder beliebige andere Medien ein, die verwendet werden können, um gewünschte Programmcodemittel in Form von von einem Computer ausführbaren Anweisungen oder Datenstrukturen zu speichern, und auf die durch einen Universal- oder Spezialcomputer zugegriffen werden kann.
  • Eine Implementierung der hierin offenbaren Vorrichtungen, Systemen und Verfahren kann über ein Computernetzwerk kommunizieren. Ein „Netzwerk“ ist als eine oder mehrere Datenverbindungen definiert, die den Transport elektronischer Daten zwischen Computersystemen und/oder Modulen und/oder anderen elektronischen Geräten ermöglichen. Wenn Informationen über ein Netzwerk oder eine andere Kommunikationsverbindung (entweder drahtgebunden, drahtlos oder eine Kombination aus drahtgebunden oder drahtlos) an einen Computer übertragen oder diesem bereitgestellt wird, betrachtet der Computer die Verbindung dementsprechend als ein Übertragungsmedium. Übertragungsmedien können ein Netzwerk und/oder Datenverbindungen einschließen, die verwendet werden können, um gewünschte Programmcodemittel in Form von von einem Computer ausführbaren Anweisungen oder Datenstrukturen zu übertragen, und auf die durch einen Universal- oder Spezialcomputer zugegriffen werden kann. Kombinationen aus den Vorstehenden fallen ebenfalls in den Umfang computerlesbarer Medien.
  • Von einem Computer ausführbare Anweisungen umfassen zum Beispiel Anweisungen und Daten, die, wenn sie an einem Prozessor ausgeführt werden, einen Universalcomputer, Spezialcomputer oder eine Spezialverarbeitungsvorrichtung dazu veranlassen, eine bestimmte Funktion oder Gruppe von Funktionen durchzuführen. Die von einem Computer ausführbaren Anweisungen können zum Beispiel Binärdateien, Zwischenformatanweisungen, wie etwa Assemblersprache, oder sogar Quellcode sein. Obwohl der Gegenstand in für Strukturmerkmale und/oder methodische Handlungen spezifischer Sprache beschrieben wurde, versteht es sich, dass der in den beigefügten Ansprüchen definierte Gegenstand nicht notwendigerweise auf die vorangehend beschriebenen Merkmale oder Handlungen beschränkt ist. Die beschriebenen Merkmale und Handlungen werden vielmehr als beispielhafte Formen der Umsetzung der Ansprüche offenbart.
  • Der Fachmann wird verstehen, dass die Offenbarung in Netzwerkrechenumgebungen mit vielen Arten von Computersystemkonfigurationen durchgeführt werden kann, einschließend einen Armaturenbrett-Fahrzeugcomputer, PCs, Desktop-Computer, Laptops, Nachrichtenprozessoren, Handgeräte, Multiprozessorsysteme, Unterhaltungselektronik auf Mikroprozessorbasis oder programmierbare Unterhaltungselektronik, Netzwerk-PCs, Minicomputer, Mainframe-Computer, Mobiltelefone, PDAs, Tablets, Pager, Router, Schalter, verschiedene Speichervorrichtungen und Ähnliches. Diese Offenbarung kann außerdem in Umgebungen mit verteilten Systemen durchgeführt werden, in denen sowohl lokale Computersysteme als auch Remotecomputersysteme, die durch ein Netzwerk (entweder durch drahtgebundene Datenverbindungen, drahtlose Datenverbindungen oder durch eine Kombination aus drahtgebundenen und drahtlosen Datenverbindungen) verbunden sind, Aufgaben durchführen. In einer verteilten Systemumgebung können Programmmodule sowohl auf lokalen als auch Remote-Speicherungsvorrichtungen angesiedelt sein.
  • Soweit zutreffend, können die hier beschriebenen Funktionen zudem in einem oder mehreren der folgenden ausgeführt werden: Hardware, Software, Firmware, digitale Komponenten oder analoge Komponenten. Ein oder mehrere anwendungsspezifische integrierte Schaltkreise (ASICs) können zum Beispiel programmiert sein, um eins oder mehrere der hierin beschriebenen Systeme und Verfahren auszuführen. Bestimmte Ausdrücke werden in der Beschreibung und den Ansprüchen in Bezug auf bestimmte Systemkomponenten verwendet. Wie ein Fachmann verstehen wird, kann auf Komponenten durch die Verwendung verschiedener Bezeichnungen Bezug genommen werden. In diesem Dokument soll nicht zwischen Komponenten unterschieden werden, die sich dem Namen nach unterscheiden, nicht jedoch von der Funktion her.
  • Es sei angemerkt, dass die vorangehend erörterten Sensorausführungsformen Computerhardware, -software, -firmware oder eine beliebige Kombination davon umfassen können, um wenigstens einen Teil der Funktionen durchzuführen. Ein Sensor kann zum Beispiel Computercode beinhalten, der konfiguriert ist, um in einem oder mehreren Prozessoren ausgeführt zu werden, und kann eine Hardware-Logikschaltung/elektrische Schaltung beinhalten, die durch den Computercode gesteuert wird. Diese beispielhaften Vorrichtungen werden hierin zu Veranschaulichungszwecken bereitgestellt und sollen nicht der Einschränkung dienen. Ausführungsformen der vorliegenden Offenbarung können in weiteren Arten von Vorrichtungen umgesetzt werden, wie einem Fachmann auf dem oder den Gebieten bekannt.
  • Wenigstens einige Ausführungsformen der Offenbarung betreffen Computerprogrammprodukte, die eine solche Logik (z. B. in Form von Software) umfassen, die auf einem beliebigen computernutzbaren Medium gespeichert ist. Solche Software veranlasst, wenn sie in einer oder mehreren Datenverarbeitungsvorrichtungen ausgeführt wird, eine Vorrichtung dazu, wie hierin beschrieben zu arbeiten.
  • Während verschiedene Ausführungsformen der vorliegenden Offenbarung oben beschrieben wurden, versteht es sich, dass diese nur als Beispiel und nicht als Einschränkung dargestellt wurden. Es ist für den einschlägigen Fachmann offensichtlich, dass verschiedene Änderungen in Form und Detail vorgenommen werden können, ohne vom Geist und Umfang der Offenbarung abzuweichen. Daher sollen die Breite und der Umfang der vorliegenden Offenbarung nicht durch eines der vorangehend beschriebenen Ausführungsbeispiele eingeschränkt werden, sondern sollen lediglich gemäß den folgenden Ansprüchen und ihrer Äquivalente definiert sein. Die vorangehende Beschreibung wurde zu Veranschaulichungs- und Beschreibungszwecken dargelegt. Sie ist nicht als umfassend anzusehen und soll die Offenbarung nicht auf die spezifische offenbarte Form beschränken. Viele Modifikationen und Variationen sind in Anbetracht der oben angegebenen Lehren möglich. Ferner sei angemerkt, dass eine beliebige oder alle der vorangehend genannten alternativen Implementierungen in einer beliebigen gewünschten Kombination genutzt werden können, um zusätzliche Hybridimplementierungen der Offenbarung zu bilden.
  • Die vorliegende Erfindung kann in anderen spezifischen Formen ausgeführt sein, ohne von ihrem Geist oder wesentlichen Merkmalen abzuweichen. Die beschriebenen Ausführungsformen sind in jeder Hinsicht nur als veranschaulichend und nicht als begrenzend anzusehen. Der Umfang der Erfindung wird daher durch die beigefügten Ansprüche und nicht durch die vorstehende Beschreibung angegeben. Alle Änderungen, die innerhalb der Bedeutung und des Bereichs der Gleichwertigkeit der Ansprüche liegen, sind innerhalb ihres Umfangs einzubinden.

Claims (15)

  1. Verfahren, umfassend Durchführen durch eine Fahrzeugsteuerung: Empfangen einer Vielzahl von Sensorausgaben, die jeweils ein ein Hindernis angebendes Merkmal von einer Vielzahl von Sensoren, die eine Vielzahl von unterschiedlichen Erfassungsmodalitäten aufweist, beinhalten; Aktualisieren einer Wahrscheinlichkeit gemäß jeder Sensorausgabe der Vielzahl von Sensorausgaben und einer geschätzten Entfernung zu dem ein Hindernis angebendes Merkmal in der jeden Sensorausgabe; und Bestimmen, dass die Wahrscheinlichkeit ausreichend hoch ist, um eine Kollisionsvermeidung durchzuführen; wobei jeder Sensor der Vielzahl von Sensoren eine mit diesem verknüpfte Abweichung aufweist; und wobei das Aktualisieren der Wahrscheinlichkeit ein Aktualisieren der Wahrscheinlichkeit gemäß jeder Sensorausgabe der Vielzahl von Sensorausgaben gemäß sowohl der geschätzten Entfernung als auch der Abweichung eines Sensors der Vielzahl von Sensoren, der die jede Sensorausgabe generiert hat, umfasst.
  2. Verfahren nach Anspruch 1, wobei die Vielzahl von Sensoren mindestens zwei eines zweidimensionalen Kamerabilds, einen RADAR (radio distancing and ranging)-Sensor, einen LIDAR (light detection and ranging)-Sensor, und einen Ultraschallsensor beinhaltet.
  3. Verfahren nach Anspruch 1, wobei mindestens ein Sensor der Vielzahl von Sensoren mehrfache richtungsabhängige Abweichungen aufweist, die mit diesem verknüpft sind; wobei das Aktualisieren der Wahrscheinlichkeit ein Aktualisieren jeder Wahrscheinlichkeit einer Vielzahl von richtungsabhängigen Wahrscheinlichkeiten gemäß jeder Sensorausgabe des mindestens einen Sensors gemäß sowohl der geschätzten Entfernung als auch einer richtungsabhängigen Abweichung der richtungsabhängigen Abweichungen, die der jeden Wahrscheinlichkeit entsprechen, umfasst.
  4. Verfahren nach Anspruch 1, wobei das Aktualisieren der Wahrscheinlichkeit ein Durchführen einer Bayesianischen Wahrscheinlichkeitsaktualisierung umfasst.
  5. Verfahren nach Anspruch 1, wobei die Vielzahl von Sensoren nach hinten weisend ist.
  6. Verfahren nach Anspruch 1, ferner umfassend: Reduzieren der Wahrscheinlichkeit als Reaktion auf Erkennen eines Zeitraums, in dem keine ein Hindernis angebende Merkmale in Ausgaben der Vielzahl von Sensoren erkannt werden; Erkennen einer abnehmenden Tendenz der Wahrscheinlichkeit; und zusätzliches Reduzieren der Wahrscheinlichkeit als Reaktion auf die abnehmende Tendenz.
  7. Verfahren nach Anspruch 6, ferner umfassend: Erkennen einer steigenden Tendenz der Wahrscheinlichkeit; und zusätzliches Erhöhen der Wahrscheinlichkeit als Reaktion auf die steigende Tendenz.
  8. Verfahren nach Anspruch 1, ferner umfassend, als Reaktion auf das Bestimmen, dass die Wahrscheinlichkeit ausreichend hoch ist, um eine Kollisionsvermeidung durchzuführen, Betätigen von mindestens einem von einem Lenkaktor, einem Gaspedalaktor und einem Bremsaktor.
  9. System, umfassend: eine Vielzahl von Sensoren, die eine Vielzahl von Erfassungsmodalitäten aufweist; eine Fahrzeugsteuerung, die mit der Vielzahl von Sensoren wirkverbunden ist, wobei die Fahrzeugsteuerung programmiert ist, um: eine Vielzahl von Sensorausgaben zu empfangen, die jeweils ein ein Hindernis angebendes Merkmal beinhalten, wobei die Vielzahl der Sensoren eine Vielzahl von unterschiedlichen Erfassungsmodalitäten aufweist; eine Wahrscheinlichkeit gemäß jeder Sensorausgabe der Vielzahl von Sensorausgaben und einer geschätzten Entfernung zu dem ein Hindernis angebendes Merkmal in jeder Sensorausgabe zu aktualisieren; und wenn die Wahrscheinlichkeit eine Schwellenbedingung einhält, eine Kollisionsvermeidung durchzuführen; wobei jeder Sensor der Vielzahl von Sensoren eine mit diesem verknüpfte Abweichung aufweist; wobei die Fahrzeugsteuerung ferner programmiert ist, um die Wahrscheinlichkeit gemäß jeder Sensorausgabe der Vielzahl von Sensorausgaben gemäß sowohl der geschätzten Entfernung als auch der Abweichung eines Sensors der Vielzahl von Sensoren, der die jede Sensorausgabe generiert hat, zu aktualisieren.
  10. System nach Anspruch 9, wobei die Vielzahl von Sensoren mindestens zwei eines zweidimensionalen Kamerabilds, einen RADAR (radio distancing and ranging)-Sensor, einen LIDAR (light detection and ranging)-Sensor, und einen Ultraschallsensor beinhaltet.
  11. System nach Anspruch 9, wobei mindestens ein Sensor der Vielzahl von Sensoren mehrfache richtungsabhängige Abweichungen aufweist, die mit diesem verknüpft sind; wobei die Fahrzeugsteuerung ferner programmiert ist, um jede Wahrscheinlichkeit einer Vielzahl von richtungsabhängigen Wahrscheinlichkeiten gemäß jeder Sensorausgabe des mindestens einen Sensors gemäß sowohl der geschätzten Entfernung als auch einer richtungsabhängigen Abweichung der richtungsabhängigen Abweichungen, die der jeden Wahrscheinlichkeit entsprechen, zu aktualisieren.
  12. System nach Anspruch 9, wobei die Fahrzeugsteuerung ferner programmiert ist, um die Wahrscheinlichkeit mittels Durchführen einer Bayesianischen Wahrscheinlichkeitsaktualisierung zu aktualisieren.
  13. System nach Anspruch 9, ferner umfassend: Reduzieren der Wahrscheinlichkeit als Reaktion auf Erkennen eines Zeitraums, in dem keine ein Hindernis angebende Merkmale in Ausgaben der Vielzahl von Sensoren erkannt werden; wobei die Fahrzeugsteuerung weiterhin programmiert ist, um: falls eine abnehmende Tendenz der Wahrscheinlichkeit erkannt wird, die Wahrscheinlichkeit als Reaktion auf die abnehmende Tendenz weiter zu reduzieren.
  14. System nach Anspruch 13, wobei die Fahrzeugsteuerung ferner programmiert ist, um: falls eine steigende Tendenz der Wahrscheinlichkeit erkannt wird, die Wahrscheinlichkeit als Reaktion auf die steigende Tendenz zusätzlich zu erhöhen.
  15. System nach Anspruch 9, ferner umfassend mindestens einem von einem Lenkaktor, einem Gaspedalaktor und einem Bremsaktor; wobei die Fahrzeugsteuerung ferner programmiert ist, um mindestens einen von dem Lenkaktor, dem Gaspedalaktor und dem Bremsaktor zu aktivieren, falls die Wahrscheinlichkeit die Schwellenbedingung einhält.
DE102017127972.5A 2016-11-29 2017-11-27 Mehrfachsensor-Wahrscheinlichkeitsobjekterkennung und automatisiertes Bremsen Pending DE102017127972A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/363,763 2016-11-29
US15/363,763 US10315649B2 (en) 2016-11-29 2016-11-29 Multi-sensor probabilistic object detection and automated braking

Publications (1)

Publication Number Publication Date
DE102017127972A1 true DE102017127972A1 (de) 2018-05-30

Family

ID=60950680

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017127972.5A Pending DE102017127972A1 (de) 2016-11-29 2017-11-27 Mehrfachsensor-Wahrscheinlichkeitsobjekterkennung und automatisiertes Bremsen

Country Status (6)

Country Link
US (2) US10315649B2 (de)
CN (1) CN108116408B (de)
DE (1) DE102017127972A1 (de)
GB (1) GB2557461A (de)
MX (1) MX2017015102A (de)
RU (1) RU2017134760A (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020089230A1 (fr) * 2018-11-02 2020-05-07 Renault S.A.S Procédé d'élaboration d'une consigne de pilotage d'un véhicule automobile
DE102019215622A1 (de) * 2019-10-11 2021-04-15 Robert Bosch Gmbh Verfahren und Fahrerassistenzsystem zum Bestimmen der Passierbarkeit eines Fahrschlauchs

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017201936A1 (de) * 2017-02-08 2018-08-09 Robert Bosch Gmbh Verfahren zur Reduzierung eines Kollisionsschadens
US10386856B2 (en) 2017-06-29 2019-08-20 Uber Technologies, Inc. Autonomous vehicle collision mitigation systems and methods
US10065638B1 (en) 2017-08-03 2018-09-04 Uber Technologies, Inc. Multi-model switching on a collision mitigation system
US10930001B2 (en) 2018-05-29 2021-02-23 Zebra Technologies Corporation Data capture system and method for object dimensioning
US10611372B2 (en) * 2018-09-06 2020-04-07 Zebra Technologies Corporation Dual-mode data capture system for collision detection and object dimensioning
US11798291B2 (en) 2019-05-30 2023-10-24 Robert Bosch Gmbh Redundancy information for object interface for highly and fully automated driving
US11314258B2 (en) * 2019-12-27 2022-04-26 Intel Corporation Safety system for a vehicle
US11713056B2 (en) * 2019-12-28 2023-08-01 Intel Corporation Autonomous vehicle system for detecting safety driving model compliance status of another vehicle, and planning accordingly
CN113776544A (zh) * 2020-06-10 2021-12-10 杭州海康威视数字技术股份有限公司 一种点云地图更新方法、装置、电子设备及定位系统
CN112339684B (zh) * 2020-10-27 2021-12-24 广州汽车集团股份有限公司 一种基于概率分布的汽车安全机制触发方法及装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594414A (en) * 1994-08-02 1997-01-14 Namngani; Abdulatif Collision probability detection system
JP3470453B2 (ja) * 1995-04-06 2003-11-25 株式会社デンソー 車間距離制御装置
US6085151A (en) * 1998-01-20 2000-07-04 Automotive Systems Laboratory, Inc. Predictive collision sensing system
US6721659B2 (en) * 2002-02-01 2004-04-13 Ford Global Technologies, Llc Collision warning and safety countermeasure system
JP3931879B2 (ja) * 2003-11-28 2007-06-20 株式会社デンソー センサフュージョンシステム及びそれを用いた車両制御装置
JP2005268847A (ja) * 2004-03-16 2005-09-29 Olympus Corp 画像生成装置、画像生成方法、および画像生成プログラム
US7266477B2 (en) 2005-06-22 2007-09-04 Deere & Company Method and system for sensor signal fusion
FR2890774B1 (fr) * 2005-09-09 2007-11-16 Inst Nat Rech Inf Automat Procede d'assitance a la conduite d'un vehicule et dispositif associe ameliore
PL1788461T3 (pl) * 2005-11-22 2010-02-26 Multitel Asbl Urządzenie i sposób projektowania czujnikowego zespołu przeznaczonego dla bezpiecznego automatycznego systemu, automatyczny system, element programowy oraz nośnik odczytywany komputerowo
DE102005059903A1 (de) * 2005-12-15 2007-06-28 Robert Bosch Gmbh Sicherheitseinrichtung für Kraftfahrzeuge
JP2007310741A (ja) 2006-05-19 2007-11-29 Fuji Heavy Ind Ltd 立体物認識装置
US8812226B2 (en) * 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system
DE102009045286A1 (de) * 2009-10-02 2011-04-21 Robert Bosch Gmbh Verfahren zur Abbildung des Umfelds eines Fahrzeugs
US9472097B2 (en) * 2010-11-15 2016-10-18 Image Sensing Systems, Inc. Roadway sensing systems
DE102011083770A1 (de) * 2011-09-29 2013-04-04 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur rechnergestützten Verarbeitung des Nahfeldes eines Fahrzeugs
US8180583B1 (en) * 2011-11-16 2012-05-15 Google Inc. Methods and systems to determine a context of a device
DE102011087774A1 (de) * 2011-12-06 2013-06-06 Robert Bosch Gmbh Verfahren zur Überwachung und Signalisierung einer Verkehrssituation im Umfeld eines Fahrzeuges
US9920234B2 (en) * 2012-01-18 2018-03-20 Maersk Olie Og Gas A/S Sealing fluid for setting a packer
US20130197736A1 (en) 2012-01-30 2013-08-01 Google Inc. Vehicle control based on perception uncertainty
US9129211B2 (en) 2012-03-15 2015-09-08 GM Global Technology Operations LLC Bayesian network to track objects using scan points using multiple LiDAR sensors
US9255988B2 (en) 2014-01-16 2016-02-09 GM Global Technology Operations LLC Object fusion system of multiple radar imaging sensors
US9656667B2 (en) * 2014-01-29 2017-05-23 Continental Automotive Systems, Inc. Method for minimizing automatic braking intrusion based on collision confidence
US9139204B1 (en) 2014-06-12 2015-09-22 GM Global Technology Operations LLC Road surface condition detection with recursive adaptive learning and validation
JP6481520B2 (ja) * 2015-06-05 2019-03-13 トヨタ自動車株式会社 車両の衝突回避支援装置
US9734455B2 (en) * 2015-11-04 2017-08-15 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020089230A1 (fr) * 2018-11-02 2020-05-07 Renault S.A.S Procédé d'élaboration d'une consigne de pilotage d'un véhicule automobile
FR3088041A1 (fr) * 2018-11-02 2020-05-08 Renault S.A.S. Procede d’elaboration d’une consigne de pilotage d’un vehicule automobile
US11657621B2 (en) 2018-11-02 2023-05-23 Renault S.A.S. Method for generating control settings for a motor vehicle
DE102019215622A1 (de) * 2019-10-11 2021-04-15 Robert Bosch Gmbh Verfahren und Fahrerassistenzsystem zum Bestimmen der Passierbarkeit eines Fahrschlauchs

Also Published As

Publication number Publication date
MX2017015102A (es) 2018-11-09
US11220259B2 (en) 2022-01-11
US20190256089A1 (en) 2019-08-22
CN108116408B (zh) 2022-11-08
US20180148047A1 (en) 2018-05-31
RU2017134760A (ru) 2019-04-04
GB201719652D0 (en) 2018-01-10
CN108116408A (zh) 2018-06-05
US10315649B2 (en) 2019-06-11
GB2557461A (en) 2018-06-20

Similar Documents

Publication Publication Date Title
DE102017127972A1 (de) Mehrfachsensor-Wahrscheinlichkeitsobjekterkennung und automatisiertes Bremsen
DE102017125963A1 (de) Objektverfolgung mit sensorfusion innerhalb eines probabalistischen rahmens
DE102018100469A1 (de) Generierten von simulierten sensordaten zum trainieren und überprüfen von erkennungsmodellen
DE102018107344A1 (de) Hinderniserfassungssysteme und -verfahren
DE102017221617A1 (de) System und Verfahren zur Verkehrsstauabschätzung
DE102018100021A1 (de) Räumliche akustische warnungen für ein fahrzeug
DE102017116213A1 (de) Fahrspurerkennung mit rückfahrkamera
DE102018101220A1 (de) Zeichenerkennung für autonome fahrzeuge
DE102016000201A1 (de) Steuerungs-System und Verfahren zum Ermitteln einer Fahrspurbelegung durch Kraftfahrzeuge
DE102015219780A1 (de) Objekterkennungsvorrichtung
DE102017129076A1 (de) Autonomer schulbus
DE102019115455A1 (de) Fokus-basiertes markieren von sensordaten
DE112019004554T5 (de) System und verfahren zur warnung vor vorhergesagten fahrzeugvorfällen und zum ausweichen
DE102013211622A1 (de) Kollisionsvermeidung für ein Kraftfahrzeug
DE102017122867A1 (de) Vorrichtung und Verfahren zum Leiten von Fahrinformationen und diese aufweisendes Fahrzeugsystem
DE102018118456A1 (de) Fahrzeugsteuerungssystem
DE102018100487A1 (de) Objektverfolgung durch unüberwachtes lernen
DE102018122133A1 (de) Fahrzeugsteuervorrichtung
DE102019108610A1 (de) Verbesserung des fahrzeugverhaltens unter verwendung von informationen aus anderen fahrzeugleuchten
DE102019105440A1 (de) Passive Klassifizierung und Lokalisierung von Tonquellen
DE102017113324A1 (de) Vorrichtung und Verfahren zum Vorhersagen von Zielen der visuellen Aufmerksamkeit
DE112014006827T5 (de) Fahrunterstützungssystem, Fahrunterstützungsverfahren und Programm
DE102018132370A1 (de) Verwendung von tiefer videobildvorhersage zum trainieren einer steuerung eines autonomen fahrzeugs und verfahren davon
DE102018129094A1 (de) Niederschlagserkennung
DE102013008946A1 (de) Vorrichtung und Verfahren zum Erkennen einer kritischen Fahrsituation eines Fahrzeugs

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE