DE102020206660A1 - Redundante umgebungswahrnehmungsverfolgung für automatisierte fahrsysteme - Google Patents

Redundante umgebungswahrnehmungsverfolgung für automatisierte fahrsysteme Download PDF

Info

Publication number
DE102020206660A1
DE102020206660A1 DE102020206660.4A DE102020206660A DE102020206660A1 DE 102020206660 A1 DE102020206660 A1 DE 102020206660A1 DE 102020206660 A DE102020206660 A DE 102020206660A DE 102020206660 A1 DE102020206660 A1 DE 102020206660A1
Authority
DE
Germany
Prior art keywords
hypotheses
sensor
environmental information
sensors
subset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020206660.4A
Other languages
English (en)
Inventor
Thomas Gussner
Oliver F. Schwindt
Joachim Carsten Mueller
Theresa Kienle
Stephan Reuter
Andreas Heyl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of DE102020206660A1 publication Critical patent/DE102020206660A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4023Type large-size vehicles, e.g. trucks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Acoustics & Sound (AREA)
  • Traffic Control Systems (AREA)

Abstract

Redundante Umgebungswahrnehmungsverfolgung für automatisierte Fahrsysteme. Ein Ausführungsbeispiel stellt ein automatisiertes Fahrsystem für ein Fahrzeug bereit, wobei das System mehrere Sensoren, einen Speicher und einen elektronischen Prozessor beinhaltet. Der elektronische Prozessor ist ausgelegt zum Empfangen, von den mehreren Prozessoren, von Umgebungsinformationen eines gemeinsamen Sichtfeldes, Erzeugen, basierend auf den Umgebungsinformationen, mehrerer Hypothesen bezüglich eines Objekts innerhalb des gemeinsamen Sichtfeldes, wobei die mehreren Hypothesen mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von mindestens einem Sensor eines ersten Sensortyps beinhalten, Bestimmen, basierend auf einem Teilsatz der mehreren Hypothesen, eines Objektzustands des Objekts, wobei der Teilsatz den mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von dem mindestens einen Sensor beinhaltet, und Durchführen eines Fahrzeugmanövers basierend auf dem bestimmten Objektzustand.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNG
  • Diese Anmeldung beansprucht die Priorität und den Vorteil der vorläufigen US-Anmeldung mit der Nr. 62/854,804 , eingereicht am 30. Mai 2019, deren gesamter Inhalt hiermit durch Bezugnahme aufgenommen ist.
  • HINTERGRUND DER ERFINDUNG
  • Zunehmend werden Fahrerassistenz und automatisierte Fahrsysteme populär. Derartige Systeme hängen von Umgebungsinformationen von einer Vielfalt unterschiedlicher Sensoren ab, um das Umfeld des Fahrzeugs zu detektieren. Durch das Detektieren von Objekten (und ihrer Bewegungen) im Umfeld des Fahrzeugs ist das System in der Lage, das Fahrzeug gemäß den detektierten Objekten und ihren Bewegungen zu fahren.
  • Figurenliste
  • Die begleitenden Zeichnungen, in denen sich überall in den separaten Ansichten gleiche Bezugsziffern auf identische und funktionell ähnliche Elemente beziehen, zusammen mit der untenstehenden ausführlichen Beschreibung sind in der Spezifikation eingeschlossen und bilden einen Teil von dieser, und dienen zum zusätzlichen Veranschaulichen von Ausführungsformen von Konzepten und zum Erläutern verschiedener Prinzipien und Vorteile dieser Ausführungsformen.
    • 1 ist ein Blockdiagramm eines automatisierten Fahrsystems gemäß manchen Ausführungsformen.
    • 2 ist ein Prozessmodell, das einen durch das System von 1 implementierten Prozess zum Bestimmen eines Objekts basierend auf Umgebungsinformationen veranschaulicht, gemäß manchen Ausführungsformen.
    • 3 ist ein Flussdiagramm, das ein durch das System von 1 implementiertes Verfahren zum Verarbeiten redundanter detektierter Umgebungsinformationen veranschaulicht, gemäß manchen Ausführungsformen.
    • 4 ist ein Diagramm, das eine Umgebung im Umfeld eines Fahrzeugs des automatisierten Fahrsystems von 1 gemäß manchen Ausführungsformen veranschaulicht.
    • 5 ist ein Graph, der mehrere gemäß dem Verfahren von 2 erzeugte Hypothesen veranschaulicht, gemäß manchen Ausführungsformen.
  • Fachleute werden erkennen, dass Elemente in den Figuren zur Vereinfachung und Verdeutlichung veranschaulicht sind, und nicht notwendigerweise maßstabsgetreu gezeichnet wurden. Beispielsweise können die Abmessungen mancher Elemente in den Figuren relativ zu anderen Elementen übertrieben sein, um das Verständnis von Ausführungsformen der vorliegenden Erfindung zu verbessern.
  • Die Einrichtungs- und Verfahrenskomponenten wurden gegebenenfalls durch herkömmliche Symbole in den Zeichnungen repräsentiert, die nur jene spezifischen Einzelheiten zeigen, die für das Verständnis der Ausführungsformen der vorliegenden Erfindung relevant sind, sodass die Offenbarung nicht mit Einzelheiten verschleiert wird, die Durchschnittsfachleuten mit der Kenntnis der Beschreibung hierin leicht ersichtlich sind.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • Wie oben angemerkt, hängen Fahrerassistenz und automatisiertes Fahren (hierin zusammengefasst als automatisiertes Fahren bezeichnet) von einer Vielfalt von Sensoren mit zahlreichen überlappenden Sichtfeldern ab, um Objekte (Autos, Fußgänger, Fahrbahnmarkierungen, Bordsteinkanten usw.) innerhalb eines Bereichs im Umfeld des Fahrzeugs (hierin als die umliegende Umgebung des Fahrzeugs bezeichnet) zu detektieren. Unter Verwendung der Sensorinformationen bestimmt das automatisierte Fahrsystem die Position und Bewegung des Objekts. Das System steuert (fährt) dann das Fahrzeug basierend auf der bestimmten Position und/oder Bewegung. Es ist wichtig, dass die Position und Bewegung des Objekts akkurat bestimmt werden, sodass das Fahrzeug ordnungsgemäß gelenkt wird, um eine Kollision zu vermeiden.
  • Obwohl die vorliegende Offenbarung den Schwerpunkt auf das automatisierte Fahren legt, ist zusätzlich die vorliegende Offenbarung nicht auf das automatisierte Fahren beschränkt. Beispielsweise kann die vorliegende Offenbarung auch zur Detektion von Objekten in Überwachungsanwendungen (z. B. mehrere Sensoren, die an Gebäuden und Fahrzeugen montiert sind, um Fußgänger, Fahrzeuge oder andere geeignete Objekte zu verfolgen) oder einer beliebigen anderen Anwendung, die einen Objektzustand eines Objekts bestimmt, verwendet werden. Der Überwachungsaspekt der vorliegenden Offenbarung ist nachstehend spezifisch bezüglich der nummerierten Beispiele 21-40 dargelegt.
  • Ein Ausführungsbeispiel stellt ein automatisiertes Fahrsystem für ein Fahrzeug bereit, wobei das System mehrere Sensoren, einen Speicher und einen elektronischen Prozessor, der kommunikativ mit dem Speicher und den mehreren Sensoren gekoppelt ist, beinhaltet. Der elektronische Prozessor ist ausgelegt zum Empfangen, von den mehreren Prozessoren, von Umgebungsinformationen eines gemeinsamen Sichtfeldes, Erzeugen, basierend auf den Umgebungsinformationen, mehrerer Hypothesen bezüglich eines Objekts innerhalb des gemeinsamen Sichtfeldes, wobei die mehreren Hypothesen mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von mindestens einem Sensor eines ersten Sensortyps beinhalten, Bestimmen, basierend auf einem Teilsatz der mehreren Hypothesen, eines Objektzustands des Objekts, wobei der Teilsatz den mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von dem mindestens einen Sensor des ersten Sensortyps beinhaltet, und Durchführen eines Fahrzeugmanövers basierend auf dem bestimmten Objektzustand.
  • Ein anderes Ausführungsbeispiel stellt ein Verfahren zum Betreiben eines automatisierten Fahrsystems bereit. Das Verfahren beinhaltet Empfangen, mit einem elektronischen Prozessor, von Umgebungsinformationen eines gemeinsamen Sichtfeldes von mehreren Sensoren. Das Verfahren beinhaltet Erzeugen, mit dem elektronischen Prozessor, mehrerer Hypothesen bezüglich eines Objekts innerhalb des gemeinsamen Sichtfeldes basierend auf den Umgebungsinformationen, wobei die mehreren Hypothesen mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von mindestens einem Sensor eines ersten Sensortyps beinhalten. Das Verfahren beinhaltet Detektieren, mit dem elektronischen Prozessor, eines mit dem mindestens einen Sensor des ersten Sensortyps assoziierten Fehlers. Das Verfahren beinhaltet Bestimmen, mit dem elektronischen Prozessor, eines Objektzustands des Objekts basierend auf einem Teilsatz der mehreren Hypothesen, wobei der Teilsatz den mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von dem mindestens einen Sensor des ersten Sensortyps beinhaltet. Das Verfahren beinhaltet außerdem Durchführen, mit dem elektronischen Prozessor, eines Fahrzeugmanövers basierend auf dem bestimmten Objektzustand.
  • Noch ein anderes Ausführungsbeispiel stellt ein nichtflüchtiges computerlesbares Medium bereit, das Anweisungen umfasst, die bei Ausführung durch einen elektronischen Prozessor veranlassen, dass der elektronische Prozessor einen Satz von Operationen durchführt. Der Satz von Operationen beinhaltet Empfangen von Umgebungsinformationen eines gemeinsamen Sichtfeldes von mehreren Sensoren. Der Satz von Operationen beinhaltet Erzeugen mehrerer Hypothesen bezüglich eines Objekts innerhalb des gemeinsamen Sichtfeldes basierend auf den Umgebungsinformationen, wobei die mehreren Hypothesen mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von mindestens einem Sensor eines ersten Sensortyps beinhalten. Der Satz von Operationen beinhaltet Detektieren eines mit dem mindestens einen Sensor des ersten Sensortyps assoziierten Fehlers. Der Satz von Operationen beinhaltet Bestimmen eines Objektzustands des Objekts basierend auf einem Teilsatz der mehreren Hypothesen, wobei der Teilsatz den mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von dem mindestens einen Sensor des ersten Sensortyps beinhaltet. Der Satz von Operationen beinhaltet außerdem Durchführen eines Fahrzeugmanövers basierend auf dem bestimmten Objektzustand.
  • Bevor irgendwelche Ausführungsformen der Erfindung ausführlich erläutert werden, versteht sich, dass die Erfindung in ihrer Anwendung nicht auf die Konstruktionsdetails und die Anordnung von Komponenten beschränkt ist, die in der folgenden Beschreibung dargelegt oder in den folgenden Zeichnungen veranschaulicht sind. Die Erfindung ist zu anderen Ausführungsformen und zum Ausgeübtwerden oder zum Ausgeführtwerden auf verschiedene Weisen in der Lage. Obwohl die hierin beschriebenen Beispiele zum Beispiel hinsichtlich automatisierter Fahrsysteme vorliegen, können die hierin beschriebenen Verfahren bei weiteren Ausführungsformen bei Fahrassistenzsystemen angewendet werden. Es sollte verstanden werden, dass sich der Ausdruck „Fahrzeug“ auf eine beliebige Art von Transportsystem bezieht, einschließlich unter anderem auf Autos, Motorräder, Drohnen, Motorräder, Boote und dergleichen.
  • Zur Vereinfachung der Beschreibung sind manche oder alle der hierin dargelegten beispielhaften Systeme mit einem einzelnen Exemplar jedes seiner Bestandteile veranschaulicht. Manche Beispiele beschreiben oder veranschaulichen möglicherweise nicht alle Komponenten der Systeme. Andere Ausführungsbeispiele können mehr oder weniger von jeder der veranschaulichten Komponenten beinhalten, können manche Komponenten kombinieren oder können zusätzliche oder alternative Komponenten beinhalten.
  • 1 ist ein beispielhaftes automatisiertes Fahrsystem 100 gemäß manchen Ausführungsformen. Das System 100 beinhaltet ein Fahrzeug 405 einschließlich eines elektronischen Prozessors 105, eines Speichers 110, einer Eingabe/Ausgabe-Schnittstelle 115, mehrerer Sensoren 120 und eines Sendeempfängers 125. Bei manchen Ausführungsformen beinhaltet das System 100 auch mehrere Sensoren 130, die an einer Infrastruktur montiert sind, die sich extern zu dem oder in der Nähe des Fahrzeugs 405 befindet. Wie oben erläutert, beinhaltet das System 100 bei alternativen Ausführungsformen eine Überwachungsvorrichtung anstelle des Fahrzeugs 405, wobei die Überwachungsvorrichtung einen elektronischen Prozessor, einen Speicher, eine Eingabe/Ausgabe-Schnittstelle, mehrere Sensoren und einen Sendeempfänger beinhaltet, die dem elektronischen Prozessor 105, dem Speicher 110, der Eingabe/Ausgabe-Schnittstelle 115, den mehreren Sensoren 120 bzw. dem Sendeempfänger 125 ähneln, wie hierin beschrieben.
  • Die veranschaulichten Komponenten zusammen mit anderen verschiedenen Modulen und Komponenten können mittels oder über eine oder mehrere Verbindungen miteinander gekoppelt sein, einschließlich zum Beispiel Steuer- oder Datenbusse, die eine Kommunikation zwischen ihnen ermöglichen. Die Verwendung von Steuer- und Datenbussen für die Verbindung zwischen den verschiedenen Modulen und Komponenten und den Austausch von Informationen zwischen diesen würde einem Fachmann hinsichtlich der hierin bereitgestellten Beschreibung ersichtlich werden. Es sollte verstanden werden, dass manche Komponenten des automatisierten Fahrsystems 100 innerhalb eines Fahrzeugs (zum Beispiel des Fahrzeugs 405 von 4) eingebunden/integriert werden können, zum Beispiel das Kommunikationssystem des Fahrzeugs und/oder das elektrische System eines Fahrzeugs (nicht gezeigt).
  • Der elektronische Prozessor 105 erhält und liefert Informationen (zum Beispiel vom Speicher 110, von der Eingabe/Ausgabe-Schnittstelle 115 und/oder von den mehreren Sensoren 120) und verarbeitet die Informationen durch das Ausführen einer/eines oder mehrerer Softwareanweisungen oder -module, die in der Lage sind, beispielsweise in einem Direktzugriffsspeicher(„RAM“)-Bereich des Speichers 110 oder einem Nurlesespeicher („ROM“) des Speichers 110 oder einem anderen nichtflüchtigen computerlesbaren Medium (nicht gezeigt) gespeichert zu werden. Die Software kann Firmware, eine oder mehrere Anweisungen, Programmdaten, Filter, Regeln, ein oder mehrere Programmmodule und andere ausführbare Anweisungen beinhalten. Der elektronische Prozessor 105 ist dazu ausgelegt, Software bezüglich den hierin beschriebenen Steuerprozessen und Verfahren aus dem Speicher 110 abzurufen und auszuführen.
  • Der Speicher 110 kann ein oder mehrere nichtflüchtige computerlesbare Medien beinhalten und beinhaltet einen Programmspeicherungsbereich und einen Datenspeicherungsbereich. Der Programmspeicherungsbereich und der Datenspeicherungsbereich können Kombinationen verschiedener Speicherarten beinhalten, wie hierin beschrieben. Der Speicher 110 kann die Form eines beliebigen nichtflüchtigen computerlesbaren Mediums annehmen.
  • Die Eingabe/Ausgabe-Schnittstelle 115 ist dazu ausgelegt, eine Eingabe über eine oder mehrere Benutzereingabevorrichtungen oder -schnittstellen zu empfangen und eine Systemausgabe über eine oder mehrere Benutzerausgabevorrichtungen bereitzustellen. Die Eingabe/Ausgabe-Schnittstelle 115 erhält Informationen und Signale (zum Beispiel über eine oder mehrere drahtgebundene und/oder drahtlose Verbindungen) von Vorrichtungen sowohl intern als auch extern zum Fahrzeug 405 und liefert Informationen und Signale zu diesen. Die Eingabe/Ausgabe-Schnittstelle 115 ist mit den mehreren Sensoren 120 gekoppelt. Die mehreren Sensoren 120 stellen der Eingabe/Ausgabe-Schnittstelle 115 eine Eingabe bereit. Die mehreren Sensoren 120 beinhalten unterschiedliche Typen von Sensoren, die überall im Fahrzeug 405 positioniert sind. Die mehreren Sensoren 130 sind an einer Infrastruktur montiert, die sich extern und in der Nähe des Fahrzeugs 405 befindet. Die mehreren Sensoren 120 und die mehreren Sensoren 130 können unter anderem Radarsensoren, Lidar-Sensoren, Bildsensoren, Ultraschallsensoren oder andere geeignete Sensoren beinhalten. Es sollte verstanden werden, dass jeder der mehreren Sensoren 120 und 130 mehr als einen Sensor des gleichen Typs beinhalten kann.
  • Zur Vereinfachung der Beschreibung sind die mehreren Sensoren 120 so beschrieben, dass sie ein überlappendes Sichtfeld aufweisen (wobei das Sichtfeld ein Bereich der umliegenden Umgebung des Fahrzeugs 405 ist, in dem der jeweilige Sensor überwacht). Zur Vereinfachung der Beschreibung und Vermeidung einer redundanten Beschreibung sind zusätzlich nachstehend nur die mehreren Sensoren 120 beschrieben. Die untenstehende Beschreibung ist jedoch nicht auf die mehreren Sensoren 120 beschränkt und ist gleichermaßen bei einer Kombination der mehreren Sensoren 120 und der mehreren Sensoren 130 anwendbar, wobei die mehreren Sensoren 120 und die mehreren Sensoren 130 kombiniert werden, um eine größere Mehrzahl von Sensoren zu bilden.
  • Wie nachstehend ausführlicher beschrieben, wird dieses Überlappungsgebiet, in dem die Sichtfelder von jedem der mehreren Sensoren 120 zusammenfallen, als „gemeinsames Sichtfeld“ bezeichnet. Das System 100 kann außerdem zusätzliche Sensoren, getrennt von den hierin beschriebenen mehreren Sensoren 120 (aber diesen ähnelnd), beinhalten, die sich ein anderes gemeinsames Sichtfeld teilen. Der Umfang des Sichtfeldes eines Sensors hängt von der Konfiguration des Sensors ab. Somit können die mehreren Sensoren 120 Sichtfelder mit unterschiedlicher Größe (und Tiefe) aufweisen.
  • Bei manchen Ausführungsformen ist der Sendeempfänger 125 zur drahtlosen Kopplung mit drahtlosen Netzwerken konfiguriert. Alternativ oder zusätzlich dazu kann das Fahrzeug 405 einen Verbinder oder Port (nicht gezeigt) zum Empfangen einer Verbindung mit einem drahtgebundenen Netzwerk (zum Beispiel Ethernet) beinhalten. Der elektronische Prozessor 105 ist dazu ausgelegt, den Sendeempfänger 125 zum Empfangen einer Eingabe und zum Bereitstellen einer Systemausgabe oder einer Kombination von beiden zu betreiben. Der Sendeempfänger 125 erhält Informationen und Signale (zum Beispiel über eine oder mehrere drahtgebundene und/oder drahtlose Verbindungen) von Vorrichtungen (einschließlich bei manchen Ausführungsformen von der Kommunikationssteuerung) sowohl intern als auch extern zum Fahrzeug 405 und liefert Informationen und Signale zu diesen.
  • Bei manchen Ausführungsformen kann der Sendeempfänger 125 Informationen und Signale von den mehreren Sensoren 130, die an der Infrastruktur in der Nähe oder extern zum Fahrzeug 405 montiert sind, erhalten und diesen Informationen und Signale bereitstellen. Bei diesen Ausführungsformen ist der Sendeempfänger 125 dazu ausgelegt, mit einem drahtlosen Fahrzeug-zu-Allem(V2X)-Netzwerk zu kommunizieren.
  • Bei anderen Ausführungsformen kann der Sendeempfänger 125 Informationen und Signale von den mehreren Sensoren 130, die an anderen Fahrzeugen in der Nähe oder extern zum Fahrzeug 405 montiert sind, erhalten und diesen Informationen und Signale bereitstellen. Bei diesen Ausführungsformen ist der Sendeempfänger 125 dazu ausgelegt, mit einem drahtlosen V2X-Netzwerk und/oder einem drahtlosen Fahrzeug-zu-Fahrzeug(V2V)-Netzwerk zu kommunizieren.
  • 2 veranschaulicht ein durch ein automatisiertes Fahrsystem implementiertes Prozessmodell 200, gemäß manchen Ausführungsformen. Zur Vereinfachung der Beschreibung soll das Modell 200 hinsichtlich des Systems 100 von 1, insbesondere des elektronischen Prozessors 105, beschrieben werden. Wie oben beschrieben, empfängt das automatisierte Fahrsystem 100 die Informationen von den mehreren Sensoren 120 (Sensormessung 205). Das Objekte bzw. die Objekte innerhalb der Umgebung im Umfeld des Fahrzeugs 405 können durch das automatisierte Fahrsystem 100 bestimmt werden, die durch Fusion (Block 210) der Daten von den mehreren Sensoren 120 gebildet wird.
  • Das Bestimmen eines Objekts kann nicht nur das Bestimmen der Position des Objekts bezüglich des Fahrzeugs 405, sondern auch der Geschwindigkeit und/oder Bewegungsrichtung des Objekts bezüglich des Fahrzeugs 405 und das Identifizieren der Art des Objekts (Objektklassifikation) (zum Beispiel Ermitteln, ob das Objekt ein Auto, ein Motorrad, eine Person oder ein Fahrrad ist) beinhalten. Die Bestimmung der einen oder der mehreren oben beschriebenen Eigenschaften des Objekts werden hierin zusammengenommen als ein „Objektzustand“ bezeichnet. Basierend auf dem Objektzustand bestimmt eine durch den elektronischen Prozessor 105 ausgeführte Funktion, ob es eine Reaktion auf das Objekt geben sollte, und was die Reaktion auf das Objekt sein sollte (Ausgabe 220).
  • Die Fusion von Sensorinformationen (Block 210) involviert ein oder mehrere Vorhersagemodelle, künstliche Intelligenz, Deep Learning und/oder Objektverfolgungsprozesse (Block 215), die durch den elektronischen Prozessor 105 durchgeführt werden. Bei Objektverfolgungsprozessen kann, wenn Informationen von mehreren Sensoren/Quellen genutzt werden, mehr als ein mögliches Objekt durch den elektronischen Prozessor 105 bestimmt werden. Jeder mögliche Zustand (hier basierend auf Informationen von einer beliebigen Anzahl und einem beliebigen Typ der Sensoren 120 bestimmt) wird als eine Assoziationshypothese bezeichnet. Ein Objektzustand wird dann durch den elektronischen Prozessor 105 basierend auf den Assoziationshypothesen bestimmt. Die Assoziationshypothesen (und somit der bestimmte Objektzustand) werden durch den elektronischen Prozessor 105 überwacht und periodisch (wobei jede Periode als ein Zyklus bezeichnet wird) basierend auf neuen von den Sensoren 120 empfangenen Informationen aktualisiert.
  • Manche Ansätze zur Nutzung und Verwaltung mehrerer Assoziationshypothesen im Laufe der Zeit beinhalten zum Beispiel MHT- (Multiple Hypotheses Tracking) und RFS-Prozesse (Random Finite Set) einschließlich LMB-Filter (Labeled Multi-Bernoulli). Während mehrere Assoziationshypothesen eine Robustheit bei der Verfolgung ermöglichen, werden Fehler (insbesondere im Fall fehlerhafter, aber plausibler Messungen) möglicherweise nicht sofort bestimmt. Dies kann insbesondere für systematische Fehler bei einem einzelnen Sensor der Fall sein (zum Beispiel aufgrund inkorrekter Kalibration, Winkelablesefehler aufgrund einer Reflexion der detektierten Oberfläche, inkorrekter Messung eines spezifischen Objekts durch Deep Learning usw.) Solche Fehler können zu einer inkorrekten Aktualisierung für den bestimmten Objektzustand und zu Verfolgungsverlust führen. Somit kann das System 100 aufgrund der Aktualisierung ein inkorrektes Fahrzeugmanöver durchführen.
  • Die oben erwähnten Ansätze sind in der Lage, fehlerhafte Hypothesen basierend auf anschließenden Messungen im Laufe der Zeit auszusortieren. Insbesondere wird die Verfolgungsleistungsfähigkeit verbessert, indem im Laufe der Zeit Hypothesen verworfen (gestrichen) werden, die eine fehlerhafte Verfolgung-zu-Messung-Assoziation (zufällige Fehler) enthalten, während mehrere andere Hypothesen behalten werden. Ein Verfahren zum Halten der Anzahl von Hypothesen praktikabel findet durch das Zusammenlegen ähnlicher Hypothesen, während die unwahrscheinlichen Hypothesen gestrichen werden, statt. Im Fall systematischer Fehler (wie jenen oben beschriebenen) werden die oben erwähnten Ansätze jedoch derartige betroffene Hypothesen detektieren.
  • Wie hierin beschrieben, kann ein „Fehler“ ein Problem mit dem Sensor sein (gewöhnlich ein Sensordefekt), wie etwa Fehlausrichtung, oder der „Fehler“ kann eine Fehldetektion sein (die fehlen könnte oder vom realen Wert verschoben sein könnte oder ähnliches). Fehldetektionen werden erwartet und können schwer von einem Sensorfehler unterschieden werden. Gewöhnlich würde ein Sensorfehler gemeldet werden, wenn ein Sensor Fehler für die meisten Verfolgungen aufweist oder der Sensor für die meisten Verfolgungen über eine Fehlerausreifungszeit fehlt.
  • 3 ist ein Flussdiagramm, das ein beispielhaftes Verfahren 300 zum Bestimmen eines Objekts in einer Umgebung im Umfeld eines Fahrzeugs gemäß manchen Ausführungsformen veranschaulicht. Das Verfahren 300 ist gegenüber beider Arten der vorgenannten „Fehler“ robust, da das Verfahren 300 unterschiedliche Hypothesen selbst beim Vorhandensein eines nicht detektierten einzelnen Sensorfehlers erstellt.
  • Als ein Beispiel ist das Verfahren 300 so beschrieben, dass es durch das System 100 und insbesondere den elektronischen Prozessor 105 durchgeführt wird. Es sollte jedoch verstanden werden, das bei manchen Ausführungsformen Teile des Verfahrens 300 durch andere Vorrichtungen durchgeführt werden können.
  • Zur Vereinfachung der Beschreibung ist das Verfahren 300 ferner in Verbindung mit 4 beschrieben. 4 veranschaulicht das Fahrzeug 405 und ein Objekt 415 (bei der veranschaulichten Ausführungsform ein Auto). Das Objekt 415 befindet sich nahe (innerhalb der Umgebung im Umfeld) des Fahrzeugs 405. Wie oben erwähnt, weist jeder der mehreren Sensoren 120 ein Sichtfeld auf, in dem er überwacht. Bei der veranschaulichten Ausführungsform entspricht zum Beispiel das Sichtfeld 410A einem ersten Sensor 120A der mehreren Sensoren 120 und entspricht das Sichtfeld 410B einem zweiten Sensor 120B der mehreren Sensoren 120. Der Bereich, in dem sich die beiden schneiden, wird als das gemeinsame Sichtfeld 410C bezeichnet. Zur Vereinfachung der Beschreibung wird das gemeinsame Sichtfeld 410C hinsichtlich des ersten und zweiten Sensors 120A und 120B beschrieben. Es sollte verstanden werden, dass bei weiteren Ausführungsformen mehr Sensoren basierend auf ihren jeweiligen Sichtfeldern mit dem gemeinsamen Sichtfeld 410C assoziiert sein können.
  • Erneut unter Bezugnahme auf 3 empfängt der elektronische Prozessor 105 bei Block 305 Umgebungsinformationen eines gemeinsamen Sichtfeldes (zum Beispiel des gemeinsamen Sichtfeldes 410C) von den mehreren Sensoren 120. Wie oben erwähnt, beinhalten die mehreren Sensoren 120 Sensoren verschiedener Typen, einschließlich unter anderem Radarsensoren, Bildsensoren, Lidar-Sensoren und anderer geeigneter Sensoren. Somit können die von den mehreren Sensoren 120 empfangenen Umgebungsinformationen in unterschiedlichen Medien (zum Beispiel bildbasiert, ultraschallbasiert usw.) erfasst werden.
  • Bei Block 310 erzeugt der elektronische Prozessor 105 basierend auf den Umgebungsinformationen mehrere Hypothesen bezüglich eines Objekts (zum Beispiel des Objekts 415 von 4) innerhalb des gemeinsamen Sichtfeldes (zum Beispiel des gemeinsamen Sichtfeldes 410C). Die mehreren Hypothesen beinhalten mindestens einen Satz von Hypothesen, der unter Verwendung der empfangenen Umgebungsinformationen mit Ausnahme von Umgebungsinformationen von mindestens einem Sensor bestimmt wird. Mit anderen Worten wird eine Hypothese unter Verwendung von Umgebungsinformationen aller der mehreren Sensoren 120 mit Ausnahme von mindestens einem der mehreren Sensoren 120 erzeugt. In dem Fall, dass ein mit dem mindestens einen Sensor assoziierter Fehler vorhanden ist oder detektiert wird, gibt es mindestens einen Satz von Hypothesen, der durch eine fehlerhafte/inakkurate Messung, die durch den mindestens einen Sensor durchgeführt wird, nicht beeinträchtigt wird.
  • Um beispielsweise den mit dem mindestens einen Sensor des ersten Sensortyps assoziierten Fehler zu detektieren, kann der elektronische Prozessor 105 dazu ausgelegt sein, eine Divergenz einer zweiten Hypothese der mehreren Hypothesen von einer ersten Hypothese der mehreren Hypothesen zu detektieren, während die mehreren Hypothesen im Laufe der Zeit basierend auf den zusätzlichen Umgebungsinformationen, die von den mehreren Hypothesen empfangen werden, aktualisiert werden. Diese Fehlerdetektion wird unten mit Bezug auf 5 ausführlicher beschrieben.
  • Bei Block 315 bestimmt der elektronische Prozessor 105 basierend auf einem Teilsatz der mehreren Hypothesen einen Objektzustand des Objekts 415, wobei der Teilsatz die Hypothese beinhaltet, die unter Verwendung der empfangenen Umgebungsinformationen mit Ausnahme der Umgebungsinformationen von mindestens einem Sensor bestimmt werden. Mit anderen Worten ist der elektronische Prozessor 105 in der Lage, einen Objektzustand ohne Abhängigkeit von einer fehlerhaften Messung zu bestimmen.
  • Bei Block 320 führt der elektronische Prozessor 105 ein Fahrzeugmanöver basierend auf dem bestimmten Objektzustand durch. Das Fahrzeugmanöver beinhaltet das Lenken und/oder Beeinflussen der Geschwindigkeit (Beschleunigen/Bremsen) des Fahrzeugs 405 basierend auf dem bestimmten Objektzustand. In 4 kann der bestimmte Objektzustand des Objekts 415 zum Beispiel lauten, dass das Objekt 415 ein Fahrzeug in der linken Spur ist und geradeaus mit x Meilen pro Stunde fährt. Der elektronische Prozessor 105 kann dementsprechend das Fahrzeug 405 steuern, in der rechten Spur stehen zu bleiben und sich nur in die linke Spur einzufädeln, nachdem das Objekt 415 an dem Fahrzeug 405 vorbeigefahren ist. Die Bestimmung des Fahrzeugmanövers durch den elektronischen Prozessor 105 basierend auf dem bestimmten Objektzustand kann unter Verwendung einer oder mehrerer automatisierter Fahrtechniken durchgeführt werden, die zur Kürze halber hier nicht besprochen sind.
  • Bei manchen Ausführungsformen wird eine zusätzliche Hypothese für jeden Sensor bestimmt, die jeweils Informationen ausschließen, die von dem jeweiligen Sensor empfangen werden. Bei weiteren Ausführungsformen wird eine zusätzliche Hypothese berechnet, die Informationen von einem oder mehreren Sensoren desselben Typs der mehreren Sensoren 120 ausschließt. Beispielsweise können die Sensortypen der mehreren Sensoren 120 eine Kombination von Radar, Video und Lidar beinhalten. Somit würde der elektronische Prozessor 105 eine „Keine-Radarinformationen“-Hypothese, eine „Keine-Videoinformationen“-Hypothese und eine „Keine-Lidar-Informationen“-Hypothese zusammen mit Hypothesen, die Messungen von allen Sensoren der mehreren Sensoren 120 einbeziehen, bestimmen.
  • Zusätzlich oder alternativ dazu können die mehreren Sensoren 120 bei manchen Beispielen eine Kombination von Sensortypen oder einen einzigen Sensortyp (z. B. nur Lidar, nur Radar oder nur Video) beinhalten. In diesen Beispielen kann der elektronische Prozessor 105 eine „Kein-Lidarl“-Hypothese, eine „Kein-Lidar2“-Hypothese und eine „Kein-Lidar3”-Hypothese zusammen mit Hypothesen, die Messungen von allen Sensoren der mehreren Sensoren 120 einbeziehen, bestimmen. Als Reaktion auf die Detektion eines mit einem beliebigen Sensor (oder Typ) assoziierten Fehlers kann die Hypothese (oder können die Hypothesen), die nicht basierend auf Informationen von dem (den) defekten Sensor(en) bestimmt wurde(n), bei der Bestimmung des Objektzustands genutzt werden (während eine oder mehrere der Hypothesen, die beeinträchtigt sind/auf derartigen Informationen basieren, von der Bestimmung des Objektzustands ausgeschlossen werden können). Einfach ausgedrückt kann der elektronische Prozessor 105 einen Objektzustand basierend auf Hypothesen, die Umgebungsinformationen von einem Sensortyp ausschließen, oder auf einer granuläreren Ebene, basierend auf Hypothesen, die Umgebungsinformationen von einem spezifischen defekten Sensor ausschließen, bestimmen.
  • Innerhalb einer Mischrepräsentation einer Verfolgung eines Objekts (zum Beispiel im Fall eines LMB-Filters) kann das Verfahren 300 angewendet werden, indem die in jeder Komponente der Mischverteilung eingebundenen Sensortypen gespeichert werden und das Streichen und Zusammenlegen spezifischer Komponenten ungeachtet des Gewichts und der Distanz zu anderen Zustandskomponenten vermieden wird. Um Speicher und Rechenlast einzusparen, weist der elektronische Prozessor 105 bei manchen Ausführungsformen Komponenten, für die die assoziierte Sensormessung (hier Radar) eine sehr hohe Likelihood aufwies, Flags zu (zum Beispiel „konsistent mit Kein-Radar“). Im Fall Gauß-verteilter Zustände entspricht dies einer sehr kleinen Mahalanobis-Distanz, die der Tatsache entspricht, dass die erwartete Messung und die tatsächliche Messung fast identisch sind. Bei manchen Ausführungsformen ist der elektronische Prozessor 105 ferner dazu ausgelegt, eine Sensorverschlechterung basierend auf einem detektierten Fehler zu bestimmen. Insbesondere kann die Distanz zwischen den Zustandsschätzungen der unterschiedlichen Zustandskomponenten eines LMB (das zu einer Bernoulli-Verteilung reduziert werden kann, falls die Komponenten zu einem einzigen Objekt für jede Gauß-Mischverteilung reduziert werden) als ein Merkmal zur Sensorverschlechterungserkennung verwendet werden. Mögliche Weisen zum Erkennen von diesem sind Zeitreihenanalysen oder die permanente Abweichung von mehr als zwei Sensoren.
  • 5 ist eine Veranschaulichung einer Mischverteilung im Laufe der Zeit 500 (veranschaulicht von links nach rechts zunehmend) unter Verwendung eines ersten Sensortyps und eines zweiten Sensortyps (zum Beispiel Radar bzw. Lidar). Bei Zeitschritt A sind die Messungen der beiden Sensortypen miteinander konsistent, und somit fallen ihre jeweiligen mehreren Hypothesen 501A und 501B zusammen (als ein überlappender Kreis veranschaulicht). Bei Zeitschritt B wird eine Messung 502A vom ersten Sensortyp empfangen (als ein weißer Stern gekennzeichnet). Die Messung 502A widerspricht sich nicht mit den Hypothesen 501B des zweiten Sensortyps, und somit fallen die Hypothesen beider Sensortypen bei Zeitschritt B weiterhin zusammen. Bei Zeitschritt C verursacht eine Messung vom zweiten Sensortyp (wobei die Messung als ein schwarzer Stern 503A veranschaulicht ist), dass die Hypothesen 501B des zweiten Sensortyps von der Hypothese 501A des ersten Sensortyps abweichen. Da ein Teil der Hypothesen des ersten Sensortyps Informationen vom zweiten Sensortyp ausschließt, werden die überlappenden Hypothesen bei Zeitschritt C möglicherweise nicht zusammengelegt, und die sehr unwahrscheinlichen Hypothesen 501A (deren Wahrscheinlichkeit aufgrund einer zweiten empfangenen Messung des zweiten Sensortyps, als Stern 503B gekennzeichnet, abnahm) bei Zeitschritt D werden nicht gestrichen. Bei Schritt E wird eine neue Messung vom ersten Sensor (Stern 502B) eingebunden und die Hypothesen 501A des ersten Sensortyps werden somit nicht durch den systematischen Fehler beeinträchtigt, der im zweiten Sensortyp auftritt.
  • Das Folgende sind nummerierte Beispiele für Systeme, Verfahren und nichtflüchtige computerlesbare Medien gemäß verschiedenen Aspekten der vorliegenden Offenbarung.
  • Beispiel 1: Ein automatisiertes Fahrsystem für ein Fahrzeug, wobei das System Folgendes umfasst: mehrere Sensoren; einen Speicher; und einen elektronischen Prozessor, der kommunikativ mit dem Speicher und den mehreren Sensoren gekoppelt ist, wobei der elektronische Prozessor ausgelegt ist zum Empfangen, von den mehreren Prozessoren, von Umgebungsinformationen eines gemeinsamen Sichtfeldes, Erzeugen, basierend auf den Umgebungsinformationen, mehrerer Hypothesen bezüglich eines Objekts innerhalb des gemeinsamen Sichtfeldes, wobei die mehreren Hypothesen mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von mindestens einem Sensor eines ersten Sensortyps beinhalten, Bestimmen, basierend auf einem Teilsatz der mehreren Hypothesen, eines Objektzustands des Objekts, wobei der Teilsatz den mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von dem mindestens einen Sensor des ersten Sensortyps beinhaltet, und Durchführen eines Fahrzeugmanövers basierend auf dem bestimmten Objektzustand.
  • Beispiel 2: Das automatisierte Fahrsystem des Beispiels 1, wobei der elektronische Prozessor ferner ausgelegt ist zum Aktualisieren der mehreren Hypothesen im Laufe der Zeit basierend auf zusätzlichen Umgebungsinformationen, die von den mehreren Sensoren empfangen werden.
  • Beispiel 3: Das automatisierte Fahrsystem des Beispiels 2, wobei der elektronische Prozessor ferner ausgelegt ist zum Detektieren eines mit dem mindestens einen Sensor des ersten Sensortyps assoziierten Fehlers, und wobei das Bestimmen, basierend auf dem Teilsatz der mehreren Hypothesen, des Objektzustands des Objekts als Reaktion auf das Detektieren des mit dem mindestens einen Sensor des ersten Sensortyps assoziierten Fehlers stattfindet.
  • Beispiel 4: Das automatisierte Fahrsystem eines der Beispiele 1 bis 3, wobei die mehreren Sensoren zwei oder mehr Sensoren beinhalten, die aus einer Gruppe bestehend aus Folgendem ausgewählt werden: einem oder mehreren Radarsensoren, einem oder mehreren Lidar-Sensoren, einem oder mehreren Bildsensoren und einem oder mehreren Ultraschallsensoren.
  • Beispiel 5: Das automatisierte Fahrsystem eines der Beispiele 1 bis 4, wobei ein erster Sensor der mehreren Sensoren ein Radarsensor ist, und wobei ein zweiter Sensor der mehreren Sensoren ein Lidar-Sensor ist.
  • Beispiel 6: Das automatisierte Fahrsystem des Beispiels 5, wobei für das Erzeugen, basierend auf den Umgebungsinformationen, der mehreren Hypothesen bezüglich des Objekts innerhalb des gemeinsamen Sichtfeldes, wobei die mehreren Hypothesen mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von mindestens einem Sensor eines ersten Sensortyps beinhalten, der elektronische Prozessor ferner ausgelegt ist zum Erzeugen eines ersten Satzes von Hypothesen der mehreren Hypothesen zumindest teilweise basierend auf den Umgebungsinformationen, die von dem Radarsensor und dem Lidar-Sensor empfangen werden, Erzeugen eines zweiten Satzes von Hypothesen der mehreren Hypothesen zumindest teilweise basierend auf den Umgebungsinformationen, die von dem Radarsensor empfangen werden, und nicht basierend auf den Umgebungsinformationen, die von dem Lidar-Sensor empfangen werden, und Erzeugen eines dritten Satzes von Hypothesen der mehreren Hypothesen zumindest teilweise basierend auf den Umgebungsinformationen, die von dem Lidar-Sensor empfangen werden, und nicht basierend auf den Umgebungsinformationen, die von dem Radarsensor empfangen werden.
  • Beispiel 7: Das automatisierte Fahrsystem des Beispiels 6, wobei für das Bestimmen, basierend auf dem Teilsatz der mehreren Hypothesen, des Objektzustands des Objekts, wobei der Teilsatz den mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von dem mindestens einen Sensor eines ersten Sensortyps beinhaltet, der elektronische Prozessor ferner ausgelegt ist zum Bestimmen des Objektzustands des Objekts basierend auf dem dritten Satz von Hypothesen.
  • Beispiel 8: Das automatisierte Fahrsystem eines der Beispiele 1 bis 7, wobei der Teilsatz andere Hypothesen einschließlich der Umgebungsinformationen von anderen Sensoren des ersten Sensortyps beinhaltet.
  • Beispiel 9: Ein Verfahren zum Betreiben eines automatisierten Fahrsystems, wobei das Verfahren Folgendes umfasst: Empfangen, mit einem elektronischen Prozessor, von Umgebungsinformationen eines gemeinsamen Sichtfeldes von mehreren Sensoren; Erzeugen, mit dem elektronischen Prozessor, mehrerer Hypothesen bezüglich eines Objekts innerhalb des gemeinsamen Sichtfeldes basierend auf den Umgebungsinformationen, wobei die mehreren Hypothesen mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von mindestens einem Sensor eines ersten Sensortyps beinhalten; Bestimmen, mit dem elektronischen Prozessor, eines Objektzustands des Objekts basierend auf einem Teilsatz der mehreren Hypothesen, wobei der Teilsatz den mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von dem mindestens einen Sensor des ersten Sensortyps beinhaltet; und Durchführen, mit dem elektronischen Prozessor, eines Fahrzeugmanövers basierend auf dem bestimmten Objektzustand.
  • Beispiel 10: Das Verfahren des Beispiels 9, ferner umfassend: Aktualisieren, mit dem elektronischen Prozessor, der mehreren Hypothesen im Laufe der Zeit basierend auf zusätzlichen Umgebungsinformationen, die von den mehreren Sensoren empfangen werden.
  • Beispiel 11: Das Verfahren des Beispiels 10, ferner umfassend: Detektieren, mit dem elektronischen Prozessor, eines mit dem mindestens einen Sensor des ersten Sensortyps assoziierten Fehlers, wobei das Bestimmen des Objektzustands des Objekts basierend auf dem Teilsatz der mehreren Hypothesen als Reaktion auf das Detektieren des mit dem mindestens einen Sensor des ersten Sensortyps assoziierten Fehlers stattfindet.
  • Beispiel 12: Das Verfahren eines der Beispiele 9 bis 11, wobei die mehreren Sensoren zwei oder mehr Sensoren beinhalten, die aus einer Gruppe bestehend aus Folgendem ausgewählt werden: einem oder mehreren Radarsensoren, einem oder mehreren Lidar-Sensoren, einem oder mehreren Bildsensoren und einem oder mehreren Ultraschallsensoren.
  • Beispiel 13: Das Verfahren eines der Beispiele 9 bis 12, wobei ein erster Sensor der mehreren Sensoren ein Radarsensor ist, und wobei ein zweiter Sensor der mehreren Sensoren ein Lidar-Sensor ist.
  • Beispiel 14: Das Verfahren des Beispiels 13, wobei das Erzeugen der mehreren Hypothesen bezüglich des Objekts innerhalb des gemeinsamen Sichtfeldes basierend auf den Umgebungsinformationen ferner beinhaltet: Erzeugen eines ersten Satzes von Hypothesen der mehreren Hypothesen zumindest teilweise basierend auf den Umgebungsinformationen, die von dem Radarsensor und dem Lidar-Sensor empfangen werden, Erzeugen eines zweiten Satzes von Hypothesen der mehreren Hypothesen zumindest teilweise basierend auf den Umgebungsinformationen, die von dem Radarsensor empfangen werden, und nicht basierend auf den Umgebungsinformationen, die von dem Lidar-Sensor empfangen werden, und Erzeugen eines dritten Satzes von Hypothesen der mehreren Hypothesen zumindest teilweise basierend auf den Umgebungsinformationen, die von dem Lidar-Sensor empfangen werden, und nicht basierend auf den Umgebungsinformationen, die von dem Radarsensor empfangen werden.
  • Beispiel 15: Das Verfahren des Beispiels 14, wobei das Bestimmen des Objektzustands des Objekts basierend auf dem Teilsatz der mehreren Hypothesen, wobei der Teilsatz den mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von dem mindestens einen Sensor des ersten Sensortyps beinhaltet, ferner Bestimmen des Objektzustands des Objekts basierend auf dem dritten Satz von Hypothesen beinhaltet.
  • Beispiel 16: Das Verfahren eines der Beispiele 9 bis 15, wobei der Teilsatz andere Hypothesen einschließlich der Umgebungsinformationen von anderen Sensoren des ersten Sensortyps beinhaltet.
  • Beispiel 17: Ein nichtflüchtiges computerlesbares Medium, das Anweisungen umfasst, die bei Ausführung durch einen elektronischen Prozessor veranlassen, dass der elektronische Prozessor einen Satz von Operationen durchführt, die Folgendes umfassen: Empfangen von Umgebungsinformationen eines gemeinsamen Sichtfeldes von mehreren Sensoren; Erzeugen mehrerer Hypothesen bezüglich eines Objekts innerhalb des gemeinsamen Sichtfeldes basierend auf den Umgebungsinformationen, wobei die mehreren Hypothesen mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von mindestens einem Sensor eines ersten Sensortyps beinhalten; Bestimmen eines Objektzustands des Objekts basierend auf einem Teilsatz der mehreren Hypothesen, wobei der Teilsatz den mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von dem mindestens einen Sensor des ersten Sensortyps beinhaltet; und Durchführen eines Fahrzeugmanövers basierend auf dem bestimmten Objektzustand.
  • Beispiel 18: Das nichtflüchtige computerlesbare Medium des Beispiels 17, wobei der Satz von Operationen ferner beinhaltet Aktualisieren der mehreren Hypothesen im Laufe der Zeit basierend auf zusätzlichen Umgebungsinformationen, die von den mehreren Sensoren empfangen werden.
  • Beispiel 19: Das nichtflüchtige computerlesbare Medium des Beispiels 18, wobei der Satz von Operationen ferner Detektieren eines mit dem mindestens einen Sensor des ersten Sensortyps assoziierten Fehlers beinhaltet, wobei das Bestimmen des Objektzustands des Objekts basierend auf dem Teilsatz der mehreren Hypothesen als Reaktion auf das Detektieren des mit dem mindestens einen Sensor des ersten Sensortyps assoziierten Fehlers stattfindet.
  • Beispiel 20: Das nichtflüchtige computerlesbare Medium eines der Beispiele 17 bis 19, wobei der Teilsatz andere Hypothesen einschließlich der Umgebungsinformationen von anderen Sensoren des ersten Sensortyps beinhaltet.
  • Beispiel 21: Ein Überwachungssystem, wobei das System Folgendes umfasst: mehrere Sensoren; einen Speicher; und einen elektronischen Prozessor, der kommunikativ mit dem Speicher und den mehreren Sensoren gekoppelt ist, wobei der elektronische Prozessor ausgelegt ist zum Empfangen, von den mehreren Prozessoren, von Umgebungsinformationen eines gemeinsamen Sichtfeldes, Erzeugen, basierend auf den Umgebungsinformationen, mehrerer Hypothesen bezüglich eines Objekts innerhalb des gemeinsamen Sichtfeldes, wobei die mehreren Hypothesen mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von mindestens einem Sensor eines ersten Sensortyps beinhalten, Bestimmen, basierend auf einem Teilsatz der mehreren Hypothesen, eines Objektzustands des Objekts, wobei der Teilsatz den mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von dem mindestens einen Sensor des ersten Sensortyps beinhaltet, und Verfolgen des Objekts basierend auf dem bestimmten Objektzustand.
  • Beispiel 22: Das Überwachungssystem des Beispiels 21, wobei der elektronische Prozessor ferner ausgelegt ist zum Aktualisieren der mehreren Hypothesen im Laufe der Zeit basierend auf zusätzlichen Umgebungsinformationen, die von den mehreren Sensoren empfangen werden.
  • Beispiel 23: Das Überwachungssystem des Beispiels 22, wobei der elektronische Prozessor ferner ausgelegt ist zum Detektieren eines mit dem mindestens einen Sensor des ersten Sensortyps assoziierten Fehlers, und wobei das Bestimmen, basierend auf dem Teilsatz der mehreren Hypothesen, des Objektzustands des Objekts als Reaktion auf das Detektieren des mit dem mindestens einen Sensor des ersten Sensortyps assoziierten Fehlers stattfindet.
  • Beispiel 24: Das Überwachungssystem eines der Beispiele 21 bis 23, wobei die mehreren Sensoren zwei oder mehr Sensoren beinhalten, die aus einer Gruppe bestehend aus Folgendem ausgewählt werden: einem oder mehreren Radarsensoren, einem oder mehreren Lidar-Sensoren, einem oder mehreren Bildsensoren und einem oder mehreren Ultraschallsensoren.
  • Beispiel 25: Das Überwachungssystem eines der Beispiele 21 bis 24, wobei ein erster Sensor der mehreren Sensoren ein Radarsensor ist, und wobei ein zweiter Sensor der mehreren Sensoren ein Lidar-Sensor ist.
  • Beispiel 26: Das Überwachungssystem des Beispiels 25, wobei für das Erzeugen, basierend auf den Umgebungsinformationen, der mehreren Hypothesen bezüglich des Objekts innerhalb des gemeinsamen Sichtfeldes, wobei die mehreren Hypothesen mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von mindestens einem Sensor eines ersten Sensortyps beinhalten, der elektronische Prozessor ferner ausgelegt ist zum Erzeugen eines ersten Satzes von Hypothesen der mehreren Hypothesen zumindest teilweise basierend auf den Umgebungsinformationen, die von dem Radarsensor und dem Lidar-Sensor empfangen werden, Erzeugen eines zweiten Satzes von Hypothesen der mehreren Hypothesen zumindest teilweise basierend auf den Umgebungsinformationen, die von dem Radarsensor empfangen werden, und nicht basierend auf den Umgebungsinformationen, die von dem Lidar-Sensor empfangen werden, und Erzeugen eines dritten Satzes von Hypothesen der mehreren Hypothesen zumindest teilweise basierend auf den Umgebungsinformationen, die von dem Lidar-Sensor empfangen werden, und nicht basierend auf den Umgebungsinformationen, die von dem Radarsensor empfangen werden.
  • Beispiel 27: Das Überwachungssystem des Beispiels 26, wobei für das Bestimmen, basierend auf dem Teilsatz der mehreren Hypothesen, des Objektzustands des Objekts, wobei der Teilsatz den mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von dem mindestens einen Sensor eines ersten Sensortyps beinhaltet, der elektronische Prozessor ferner ausgelegt ist zum Bestimmen des Objektzustands des Objekts basierend auf dem dritten Satz von Hypothesen.
  • Beispiel 28: Das Überwachungssystem eines der Beispiele 21 bis 27, wobei der Teilsatz andere Hypothesen einschließlich der Umgebungsinformationen von anderen Sensoren des ersten Sensortyps beinhaltet.
  • Beispiel 29: Ein Verfahren zum Betreiben eines Überwachungssystems, wobei das Verfahren Folgendes umfasst: Empfangen, mit einem elektronischen Prozessor, von Umgebungsinformationen eines gemeinsamen Sichtfeldes von mehreren Sensoren; Erzeugen, mit dem elektronischen Prozessor, mehrerer Hypothesen bezüglich eines Objekts innerhalb des gemeinsamen Sichtfeldes basierend auf den Umgebungsinformationen, wobei die mehreren Hypothesen mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von mindestens einem Sensor eines ersten Sensortyps beinhalten; Bestimmen, mit dem elektronischen Prozessor, eines Objektzustands des Objekts basierend auf einem Teilsatz der mehreren Hypothesen, wobei der Teilsatz den mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von dem mindestens einen Sensor des ersten Sensortyps beinhaltet; und Verfolgen, mit dem elektronischen Prozessor, des Objekts basierend auf dem bestimmten Objektzustand.
  • Beispiel 30: Das Verfahren des Beispiels 29, ferner umfassend: Aktualisieren, mit dem elektronischen Prozessor, der mehreren Hypothesen im Laufe der Zeit basierend auf zusätzlichen Umgebungsinformationen, die von den mehreren Sensoren empfangen werden.
  • Beispiel 31: Das Verfahren des Beispiels 30, ferner umfassend: Detektieren, mit dem elektronischen Prozessor, eines mit dem mindestens einen Sensor des ersten Sensortyps assoziierten Fehlers, wobei das Bestimmen des Objektzustands des Objekts basierend auf dem Teilsatz der mehreren Hypothesen als Reaktion auf das Detektieren des mit dem mindestens einen Sensor des ersten Sensortyps assoziierten Fehlers stattfindet.
  • Beispiel 32: Das Verfahren eines der Beispiele 29 bis 31, wobei die mehreren Sensoren zwei oder mehr Sensoren beinhalten, die aus einer Gruppe bestehend aus Folgendem ausgewählt werden: einem oder mehreren Radarsensoren, einem oder mehreren Lidar-Sensoren, einem oder mehreren Bildsensoren und einem oder mehreren Ultraschallsensoren.
  • Beispiel 33: Das Verfahren eines der Beispiele 29 bis 32, wobei ein erster Sensor der mehreren Sensoren ein Radarsensor ist, und wobei ein zweiter Sensor der mehreren Sensoren ein Lidar-Sensor ist.
  • Beispiel 34: Das Verfahren des Beispiels 33, wobei das Erzeugen der mehreren Hypothesen bezüglich des Objekts innerhalb des gemeinsamen Sichtfeldes basierend auf den Umgebungsinformationen ferner beinhaltet: Erzeugen eines ersten Satzes von Hypothesen der mehreren Hypothesen zumindest teilweise basierend auf den Umgebungsinformationen, die von dem Radarsensor und dem Lidar-Sensor empfangen werden, Erzeugen eines zweiten Satzes von Hypothesen der mehreren Hypothesen zumindest teilweise basierend auf den Umgebungsinformationen, die von dem Radarsensor empfangen werden, und nicht basierend auf den Umgebungsinformationen, die von dem Lidar-Sensor empfangen werden, und Erzeugen eines dritten Satzes von Hypothesen der mehreren Hypothesen zumindest teilweise basierend auf den Umgebungsinformationen, die von dem Lidar-Sensor empfangen werden, und nicht basierend auf den Umgebungsinformationen, die von dem Radarsensor empfangen werden.
  • Beispiel 35: Das Verfahren des Beispiels 34, wobei das Bestimmen des Objektzustands des Objekts basierend auf dem Teilsatz der mehreren Hypothesen, wobei der Teilsatz den mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von dem mindestens einen Sensor des ersten Sensortyps beinhaltet, ferner Bestimmen des Objektzustands des Objekts basierend auf dem dritten Satz von Hypothesen beinhaltet.
  • Beispiel 36: Das Verfahren eines der Beispiele 29 bis 35, wobei der Teilsatz andere Hypothesen einschließlich der Umgebungsinformationen von anderen Sensoren des ersten Sensortyps beinhaltet.
  • Beispiel 37: Ein nichtflüchtiges computerlesbares Medium, das Anweisungen umfasst, die bei Ausführung durch einen elektronischen Prozessor veranlassen, dass der elektronische Prozessor einen Satz von Operationen durchführt, die Folgendes umfassen: Empfangen von Umgebungsinformationen eines gemeinsamen Sichtfeldes von mehreren Sensoren; Erzeugen mehrerer Hypothesen bezüglich eines Objekts innerhalb des gemeinsamen Sichtfeldes basierend auf den Umgebungsinformationen, wobei die mehreren Hypothesen mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von mindestens einem Sensor eines ersten Sensortyps beinhalten; Bestimmen eines Objektzustands des Objekts basierend auf einem Teilsatz der mehreren Hypothesen, wobei der Teilsatz den mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von dem mindestens einen Sensor des ersten Sensortyps beinhaltet; und Verfolgen des Objekts basierend auf dem bestimmten Objektzustand.
  • Beispiel 38: Das nichtflüchtige computerlesbare Medium des Beispiels 37, wobei der Satz von Operationen ferner beinhaltet Aktualisieren der mehreren Hypothesen im Laufe der Zeit basierend auf zusätzlichen Umgebungsinformationen, die von den mehreren Sensoren empfangen werden.
  • Beispiel 39: Das nichtflüchtige computerlesbare Medium des Beispiels 38, wobei der Satz von Operationen ferner Detektieren eines mit dem mindestens einen Sensor des ersten Sensortyps assoziierten Fehlers beinhaltet, wobei das Bestimmen des Objektzustands des Objekts basierend auf dem Teilsatz der mehreren Hypothesen als Reaktion auf das Detektieren des mit dem mindestens einen Sensor des ersten Sensortyps assoziierten Fehlers stattfindet.
  • Beispiel 40: Das nichtflüchtige computerlesbare Medium eines der Beispiele 37 bis 39, wobei der Teilsatz andere Hypothesen einschließlich der Umgebungsinformationen von anderen Sensoren des ersten Sensortyps beinhaltet.
  • In der vorstehenden Spezifikation wurden spezifische Ausführungsformen beschrieben. Ein Durchschnittsfachmann wird jedoch erkennen, dass verschiedene Modifikationen und Änderungen vorgenommen werden können, ohne vom Schutzumfang der Erfindung, wie in den nachstehenden Ansprüchen dargelegt, abzuweichen. Dementsprechend sollen die Spezifikation und die Figuren als veranschaulichend anstatt beschränkend angesehen werden, und alle derartigen Modifikationen sollen innerhalb des Schutzumfangs der vorliegenden Lehren eingeschlossen werden.
  • Die Nutzen, Vorteile, Lösungen für Probleme und ein oder mehrere jegliche Elemente, die veranlassen können, dass ein jeglicher Nutzen, ein jeglicher Vorteil oder eine jegliche Lösung auftreten oder ausgeprägter werden, sollen nicht als kritische, erforderliche oder wesentliche Merkmale oder Elemente irgendeines oder aller Ansprüche angesehen werden. Die Erfindung wird einzig durch die angehängten Ansprüche einschließlich jeglicher während der Anhängigkeit dieser Anmeldung vorgenommener Änderungen und aller Äquivalente dieser Ansprüche in veröffentlichter Form definiert.
  • Darüber hinaus können in diesem Dokument beziehungsbezeichnende Ausdrücke wie etwa erster und zweiter, oben und unten und dergleichen alleinig verwendet werden, um eine Entität oder Handlung von einer anderen Entität oder Handlung zu unterscheiden, ohne notwendigerweise irgendeine derartige tatsächliche Beziehung oder Reihenfolge zwischen derartigen Entitäten oder Handlungen zu erfordern oder zu implizieren. Die Ausdrücke „umfasst“, „umfassend“, „weist auf”, „aufweisend”, „beinhaltet“, „einschließlich“, „enthält“, „enthaltend“ oder eine beliebige andere Variation davon sollen einen nicht ausschließenden Einschluss abdecken, sodass ein Prozess, ein Verfahren, ein Artikel oder eine Einrichtung, der/das/die eine Liste von Elementen umfasst, aufweist, beinhaltet, enthält, nicht nur diese Elemente beinhaltet, sondern andere Elemente beinhalten kann, die nicht ausdrücklich aufgelistet oder einem derartigen Prozess, einem derartigen Verfahren, einem derartigen Artikel oder einer derartigen Einrichtung inhärent sind. Ein Element, dem „umfasst ein...“, „weist ein ... Auf”, „beinhaltet ein...“, „enthält ein...“ vorausgeht, schließt, ohne weitere Beschränkungen, nicht das Vorhandensein zusätzlicher identischer Elemente in dem Prozess, dem Verfahren, dem Artikel oder der Einrichtung aus, der/das/die das Element umfasst, aufweist, beinhaltet, enthält. Die Ausdrücke „eine“ und „eine“ sind als eins oder mehrere definiert, insofern hierin nicht ausdrücklich anders angemerkt. Die Ausdrücke „im Wesentlichen“, „wesentlich“, „ungefähr“, „etwa“ oder eine beliebige andere Version davon sind als nahe liegend' definiert, wie einem Durchschnittsfachmann verständlich, und bei einer nicht beschränkenden Ausführungsform ist der Ausdruck so definiert, dass er innerhalb 10 % liegt, bei einer anderen Ausführungsform innerhalb 5 % liegt, bei einer anderen Ausführungsform innerhalb 1 % liegt, und bei einer anderen Ausführungsform innerhalb 0,5 % liegt. Der Ausdruck „gekoppelt“, wie hierin verwendet, ist als verbunden definiert, obwohl nicht notwendigerweise direkt und nicht notwendigerweise mechanisch. Eine Vorrichtung oder Struktur, die auf eine gewisse Weise „konfiguriert“ ist, ist in zumindest dieser Weise konfiguriert, kann aber auch auf Weisen konfiguriert sein, die nicht aufgelistet sind.
  • Es versteht sich, dass manche Ausführungsformen aus einem oder mehreren generischen oder spezialisierten Prozessoren (oder „Verarbeitungsvorrichtungen“), wie etwa Mikroprozessoren, Digitalsignalprozessoren, kundenspezifische Prozessoren und feldprogrammierbare Gate-Arrays (FPGAs), und eindeutige gespeicherte Programmanweisungen (einschließlich sowohl Software als auch Firmware), die den einen oder die mehreren Prozessoren steuern, bestehen können, um in Verbindung mit gewissen Nichtprozessorschaltungen manche, die meisten oder alle der Funktionen des hierin beschriebenen Verfahrens und/oder der Einrichtung zu implementieren. Alternativ könnten manche oder alle Funktionen durch eine Zustandsmaschine, die keine gespeicherten Programmanweisungen aufweist, oder in einer oder mehreren anwendungsspezifischen integrierten Schaltungen (ASICs) implementiert werden, in denen jede Funktion oder einige Kombinationen gewisser Funktionen als kundenspezifische Logik implementiert werden. Natürlich könnte eine Kombination der beiden Ansätze verwendet werden.
  • Darüber hinaus kann eine Ausführungsform als ein computerlesbares Speicherungsmedium mit darauf gespeichertem computerlesbarem Code zur Programmierung eines Computers (der z. B. einen Prozessor umfasst) implementiert werden, um ein wie hierin beschriebenes und beanspruchtes Verfahren durchzuführen. Beispiele für derartige computerlesbare Speicherungsmedien beinhalten unter anderem eine Festplatte, eine CD-ROM, eine optische Speicherungsvorrichtung, eine magnetische Speicherungsvorrichtung, einen ROM (Nurlesespeicher), einen PROM (programmierbaren Nurlesespeicher), einen EPROM (löschbaren programmierbaren Nurlesespeicher), einen EEPROM (elektrisch löschbaren programmierbaren Nurlesespeicher) und einen Flash-Speicher. Ferner wird erwartet, dass ein Durchschnittsfachmann, ungeachtet eines möglicherweise erheblichen Aufwands und vieler Designmöglichkeiten, die zum Beispiel durch verfügbare Zeit, gegenwärtige Technologie und ökonomische Erwägungen motiviert sind, wenn durch die hierin offenbarten Konzepte und Prinzipien geleitet, einfach in der Lage sein wird, derartige Softwareanweisungen und Programme und ICs mit minimalem Experimentieren zu erzeugen.
  • Die Zusammenfassung der Offenbarung ist bereitgestellt, um dem Leser zu ermöglichen, das Wesen der technischen Offenbarung schnell zu ermitteln. Sie wird mit dem Verständnis eingereicht, dass sie nicht zum Interpretieren oder Beschränken des Schutzumfangs oder der Bedeutung der Ansprüche verwendet wird. In der vorstehenden ausführlichen Beschreibung kann gesehen werden, dass verschiedene Merkmale bei verschiedenen Ausführungsformen zum Zweck der Optimierung der Offenbarung zusammengruppiert sind. Dieses Verfahren zur Offenbarung soll nicht so interpretiert werden, dass es eine Absicht widerspiegelt, dass die beanspruchten Ausführungsformen mehr Merkmale erfordern, als ausdrücklich in jedem Anspruch dargelegt sind. Stattdessen liegt der erfindungsgemäße Gegenstand, wie die folgenden Ansprüche widerspiegeln, in weniger als allen Merkmalen einer einzelnen offenbarten Ausführungsform. Somit werden die folgenden Ansprüche hiermit in die ausführliche Beschreibung aufgenommen, wobei jeder Anspruch für sich allein als ein separater beanspruchter Gegenstand steht.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 62/854804 [0001]

Claims (20)

  1. Automatisiertes Fahrsystem für ein Fahrzeug, wobei das System Folgendes umfasst: mehrere Sensoren; einen Speicher; und einen elektronischen Prozessor, der kommunikativ mit dem Speicher und den mehreren Sensoren gekoppelt ist, wobei der elektronische Prozessor ausgelegt ist zum: Empfangen, von den mehreren Prozessoren, von Umgebungsinformationen eines gemeinsamen Sichtfeldes, Erzeugen, basierend auf den Umgebungsinformationen, mehrerer Hypothesen bezüglich eines Objekts innerhalb des gemeinsamen Sichtfeldes, wobei die mehreren Hypothesen mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von mindestens einem Sensor eines ersten Sensortyps beinhalten, Bestimmen, basierend auf einem Teilsatz der mehreren Hypothesen, eines Objektzustands des Objekts, wobei der Teilsatz den mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von dem mindestens einen Sensor des ersten Sensortyps beinhaltet, und Durchführen eines Fahrzeugmanövers basierend auf dem bestimmten Objektzustand.
  2. Automatisiertes Fahrsystem nach Anspruch 1, wobei der elektronische Prozessor ferner ausgelegt ist zum Aktualisieren der mehreren Hypothesen im Laufe der Zeit basierend auf zusätzlichen Umgebungsinformationen, die von den mehreren Sensoren empfangen werden.
  3. Automatisiertes Fahrsystem nach Anspruch 2, wobei der elektronische Prozessor ferner ausgelegt ist zum Detektieren eines mit dem mindestens einen Sensor des ersten Sensortyps assoziierten Fehlers, und wobei das Bestimmen, basierend auf dem Teilsatz der mehreren Hypothesen, des Objektzustands des Objekts als Reaktion auf das Detektieren des mit dem mindestens einen Sensor des ersten Sensortyps assoziierten Fehlers stattfindet.
  4. Automatisiertes Fahrsystem nach Anspruch 1, wobei die mehreren Sensoren zwei oder mehr Sensoren beinhalten, die aus einer Gruppe bestehend aus Folgendem ausgewählt werden: einem oder mehreren Radarsensoren, einem oder mehreren Lidar-Sensoren, einem oder mehreren Bildsensoren, und einem oder mehreren Ultraschallsensoren.
  5. Automatisiertes Fahrsystem nach Anspruch 1, wobei ein erster Sensor der mehreren Sensoren ein Radarsensor ist, und wobei ein zweiter Sensor der mehreren Sensoren ein Lidar-Sensor ist.
  6. Automatisiertes Fahrsystem nach Anspruch 5, wobei für das Erzeugen, basierend auf den Umgebungsinformationen, der mehreren Hypothesen bezüglich des Objekts innerhalb des gemeinsamen Sichtfeldes, wobei die mehreren Hypothesen mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von dem mindestens einen Sensor des ersten Sensortyps beinhalten, der elektronische Prozessor ferner ausgelegt ist zum: Erzeugen eines ersten Satzes von Hypothesen der mehreren Hypothesen zumindest teilweise basierend auf den Umgebungsinformationen, die von dem Radarsensor und dem Lidar-Sensor empfangen werden, Erzeugen eines zweiten Satzes von Hypothesen der mehreren Hypothesen zumindest teilweise basierend auf den Umgebungsinformationen, die von dem Radarsensor empfangen werden, und nicht basierend auf den Umgebungsinformationen, die von dem Lidar-Sensor empfangen werden, und Erzeugen eines dritten Satzes von Hypothesen der mehreren Hypothesen zumindest teilweise basierend auf den Umgebungsinformationen, die von dem Lidar-Sensor empfangen werden, und nicht basierend auf den Umgebungsinformationen, die von dem Radarsensor empfangen werden.
  7. Automatisiertes Fahrsystem nach Anspruch 6, wobei für das Bestimmen, basierend auf dem Teilsatz der mehreren Hypothesen, des Objektzustands des Objekts, wobei der Teilsatz den mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von dem mindestens einen Sensor eines ersten Sensortyps beinhaltet, der elektronische Prozessor ferner ausgelegt ist zum Bestimmen des Objektzustands des Objekts basierend auf dem dritten Satz von Hypothesen.
  8. Automatisiertes Fahrsystem nach Anspruch 1, wobei der Teilsatz andere Hypothesen einschließlich der Umgebungsinformationen von anderen Sensoren des ersten Sensortyps beinhaltet.
  9. Verfahren zum Betreiben eines automatisierten Fahrsystems, wobei das Verfahren Folgendes umfasst: Empfangen, mit einem elektronischen Prozessor, von Umgebungsinformationen eines gemeinsamen Sichtfeldes von mehreren Sensoren; Erzeugen, mit dem elektronischen Prozessor, mehrerer Hypothesen bezüglich eines Objekts innerhalb des gemeinsamen Sichtfeldes basierend auf den Umgebungsinformationen, wobei die mehreren Hypothesen mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von mindestens einem Sensor eines ersten Sensortyps beinhalten; Bestimmen, mit dem elektronischen Prozessor, eines Objektzustands des Objekts basierend auf einem Teilsatz der mehreren Hypothesen, wobei der Teilsatz den mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von dem mindestens einen Sensor des ersten Sensortyps beinhaltet; und Durchführen, mit dem elektronischen Prozessor, eines Fahrzeugmanövers basierend auf dem bestimmten Objektzustand.
  10. Verfahren nach Anspruch 9, das ferner Folgendes umfasst: Aktualisieren, mit dem elektronischen Prozessor, der mehreren Hypothesen im Laufe der Zeit basierend auf zusätzlichen Umgebungsinformationen, die von den mehreren Sensoren empfangen werden.
  11. Verfahren nach Anspruch 10, das ferner Folgendes umfasst: Detektieren, mit dem elektronischen Prozessor, eines mit dem mindestens einen Sensor des ersten Sensortyps assoziierten Fehlers, wobei das Bestimmen des Objektzustands des Objekts basierend auf dem Teilsatz der mehreren Hypothesen als Reaktion auf das Detektieren des mit dem mindestens einen Sensor des ersten Sensortyps assoziierten Fehlers stattfindet.
  12. Verfahren nach Anspruch 9, wobei die mehreren Sensoren zwei oder mehr Sensoren beinhalten, die aus einer Gruppe bestehend aus Folgendem ausgewählt werden: einem oder mehreren Radarsensoren, einem oder mehreren Lidar-Sensoren, einem oder mehreren Bildsensoren, und einem oder mehreren Ultraschallsensoren.
  13. Verfahren nach Anspruch 9, wobei ein erster Sensor der mehreren Sensoren ein Radarsensor ist, und wobei ein zweiter Sensor der mehreren Sensoren ein Lidar-Sensor ist.
  14. Verfahren nach Anspruch 13, wobei das Erzeugen der mehreren Hypothesen bezüglich des Objekts innerhalb des gemeinsamen Sichtfeldes basierend auf den Umgebungsinformationen ferner beinhaltet: Erzeugen eines ersten Satzes von Hypothesen der mehreren Hypothesen zumindest teilweise basierend auf den Umgebungsinformationen, die von dem Radarsensor und dem Lidar-Sensor empfangen werden, Erzeugen eines zweiten Satzes von Hypothesen der mehreren Hypothesen zumindest teilweise basierend auf den Umgebungsinformationen, die von dem Radarsensor empfangen werden, und nicht basierend auf den Umgebungsinformationen, die von dem Lidar-Sensor empfangen werden, und Erzeugen eines dritten Satzes von Hypothesen der mehreren Hypothesen zumindest teilweise basierend auf den Umgebungsinformationen, die von dem Lidar-Sensor empfangen werden, und nicht basierend auf den Umgebungsinformationen, die von dem Radarsensor empfangen werden.
  15. Verfahren nach Anspruch 14, wobei das Bestimmen des Objektzustands des Objekts basierend auf dem Teilsatz der mehreren Hypothesen, wobei der Teilsatz den mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von dem mindestens einen Sensor des ersten Sensortyps beinhaltet, ferner Bestimmen des Objektzustands des Objekts basierend auf dem dritten Satz von Hypothesen beinhaltet.
  16. Verfahren nach Anspruch 9, wobei der Teilsatz andere Hypothesen einschließlich der Umgebungsinformationen von anderen Sensoren des ersten Sensortyps beinhaltet.
  17. Nichtflüchtiges computerlesbares Medium, das Anweisungen umfasst, die bei Ausführung durch einen elektronischen Prozessor veranlassen, dass der elektronische Prozessor einen Satz von Operationen durchführt, die Folgendes umfassen: Empfangen von Umgebungsinformationen eines gemeinsamen Sichtfeldes von mehreren Sensoren; Erzeugen mehrerer Hypothesen bezüglich eines Objekts innerhalb des gemeinsamen Sichtfeldes basierend auf den Umgebungsinformationen, wobei die mehreren Hypothesen mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von mindestens einem Sensor eines ersten Sensortyps beinhalten; Bestimmen eines Objektzustands des Objekts basierend auf einem Teilsatz der mehreren Hypothesen, wobei der Teilsatz den mindestens einen Satz von Hypothesen ausschließlich der Umgebungsinformationen von dem mindestens einen Sensor des ersten Sensortyps beinhaltet; und Durchführen eines Fahrzeugmanövers basierend auf dem bestimmten Objektzustand.
  18. Nichtflüchtiges computerlesbares Medium nach Anspruch 17, wobei der Satz von Operationen ferner beinhaltet Aktualisieren der mehreren Hypothesen im Laufe der Zeit basierend auf zusätzlichen Umgebungsinformationen, die von den mehreren Sensoren empfangen werden.
  19. Nichtflüchtiges computerlesbares Medium nach Anspruch 18, wobei der Satz von Operationen ferner Detektieren eines mit dem mindestens einen Sensor des ersten Sensortyps assoziierten Fehlers beinhaltet, wobei das Bestimmen des Objektzustands des Objekts basierend auf dem Teilsatz der mehreren Hypothesen als Reaktion auf das Detektieren des mit dem mindestens einen Sensor des ersten Sensortyps assoziierten Fehlers stattfindet.
  20. Nichtflüchtiges computerlesbares Medium nach Anspruch 17, wobei der Teilsatz andere Hypothesen einschließlich der Umgebungsinformationen von anderen Sensoren des ersten Sensortyps beinhaltet.
DE102020206660.4A 2019-05-30 2020-05-28 Redundante umgebungswahrnehmungsverfolgung für automatisierte fahrsysteme Pending DE102020206660A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201962854804P 2019-05-30 2019-05-30
US62/854804 2019-05-30

Publications (1)

Publication Number Publication Date
DE102020206660A1 true DE102020206660A1 (de) 2020-12-03

Family

ID=73264906

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020206660.4A Pending DE102020206660A1 (de) 2019-05-30 2020-05-28 Redundante umgebungswahrnehmungsverfolgung für automatisierte fahrsysteme

Country Status (3)

Country Link
US (2) US10981568B2 (de)
CN (1) CN112009467B (de)
DE (1) DE102020206660A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11555910B2 (en) * 2019-08-02 2023-01-17 Motional Ad Llc Merge-split techniques for sensor data filtering
CN113501008B (zh) * 2021-08-12 2023-05-19 东风悦享科技有限公司 一种基于强化学习算法的自动驾驶行为决策方法
CN114084129A (zh) * 2021-10-13 2022-02-25 武汉光庭信息技术股份有限公司 一种基于融合的车辆自动驾驶控制方法及系统
CN114056351B (zh) * 2021-11-26 2024-02-02 文远苏行(江苏)科技有限公司 自动驾驶方法及装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003300959A1 (en) * 2002-12-17 2004-07-22 Evolution Robotics, Inc. Systems and methods for visual simultaneous localization and mapping
DE102005002504A1 (de) 2005-01-19 2006-07-27 Robert Bosch Gmbh Fahrerassistenzsystem mit Fahrschlauchprädiktion
EP2005361A1 (de) 2006-03-22 2008-12-24 Daimler AG Multisensorieller hypothesen-basierter objektdetektor und objektverfolger
US8565481B1 (en) * 2011-05-26 2013-10-22 Google Inc. System and method for tracking objects
US20130197736A1 (en) * 2012-01-30 2013-08-01 Google Inc. Vehicle control based on perception uncertainty
CN104502900B (zh) * 2015-01-13 2017-03-29 武汉大学 一种单频网雷达多目标跟踪方法
US10082797B2 (en) * 2015-09-16 2018-09-25 Ford Global Technologies, Llc Vehicle radar perception and localization
IL288191B2 (en) * 2016-12-23 2023-10-01 Mobileye Vision Technologies Ltd A navigation system with forced commitment constraints
US10109198B2 (en) 2017-03-08 2018-10-23 GM Global Technology Operations LLC Method and apparatus of networked scene rendering and augmentation in vehicular environments in autonomous driving systems
US10754033B2 (en) 2017-06-30 2020-08-25 Waymo Llc Light detection and ranging (LIDAR) device range aliasing resilience by multiple hypotheses
US10395144B2 (en) * 2017-07-24 2019-08-27 GM Global Technology Operations LLC Deeply integrated fusion architecture for automated driving systems
US10909866B2 (en) * 2018-07-20 2021-02-02 Cybernet Systems Corp. Autonomous transportation system and methods
US20190050653A1 (en) 2018-09-28 2019-02-14 Intel Corporation Perception device for obstacle detection and tracking and a perception method for obstacle detection and tracking
DE102018220892A1 (de) * 2018-12-04 2020-06-04 Robert Bosch Gmbh Vorrichtung und Verfahren zur Generierung von Labelobjekten für die Umgebung eines Fahrzeugs
US20190126922A1 (en) 2018-12-27 2019-05-02 Intel Corporation Method and apparatus to determine a trajectory of motion in a predetermined region
US20210009121A1 (en) * 2020-09-24 2021-01-14 Intel Corporation Systems, devices, and methods for predictive risk-aware driving

Also Published As

Publication number Publication date
US10981568B2 (en) 2021-04-20
CN112009467A (zh) 2020-12-01
US20200377086A1 (en) 2020-12-03
US20210213944A1 (en) 2021-07-15
US11613255B2 (en) 2023-03-28
CN112009467B (zh) 2023-10-31

Similar Documents

Publication Publication Date Title
DE102020206660A1 (de) Redundante umgebungswahrnehmungsverfolgung für automatisierte fahrsysteme
DE102018120845B4 (de) Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
DE102018120786B4 (de) Verfahren zum Überwachen eines autonomen Fahrzeugs sowie entsprechend eingerichtetes Fahrzeug
DE102018119764A1 (de) Verfahren und vorrichtung zur erkennung und korrektur von anomalien in einer partizipativen karte
DE112017006530T5 (de) Rückmeldung für ein autonomes fahrzeug
DE102016212326A1 (de) Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs
DE102016212193A1 (de) Vorrichtung und Verfahren zur Detektion eines Objekts auf einer Strasse
DE102018215753A1 (de) Vorrichtung und Verfahren zum Ermitteln einer Trajektorie eines Fahrzeugs
DE102020206659A1 (de) Multi-hypothesen-objektverfologung für automatisierte fahrsysteme
DE102012018914A1 (de) Vorrichtung, Verfahren und Computerprogramm zur Schätzung einer Winkelabweichung
DE102019114371A1 (de) Online-diagnostik und prognostik für ein wahrnehmungssystem eines fahrzeugs
DE112018007297T5 (de) Aktion-Auswahleinrichtung, Aktion-Auswahlprogramm und Aktion-Auswahlverfahren
DE102020206755A1 (de) Redundanzinformationen für objektschnittstelle für hoch und vollautomatisiertes fahren
DE102020105619A1 (de) System und verfahren zur bestimmung der fahrzeugposition
DE102017108248A1 (de) Strassenmerkmalserkennung mit einem fahrzeugkamerasystem
DE102022205744A1 (de) Ultraschallsystem und Verfahren zum Rekonfigurieren eines in einem Fahrzeug verwendeten Maschinenlernmodells
DE102020212577A1 (de) Vorrichtung zur steuerung des autonomen fahrens eines fahrzeugs, system mit dieser vorrichtung und verfahren
DE102022120323A1 (de) Notlaufmodus für ein autonomes Fahrzeug unter Verwendung eines sekundären autonomen Sensorsystems
DE102022109162A1 (de) Verbesserter fahrzeug- und anhängerbetrieb
DE102019127322A1 (de) Verfahren zur Erfassung von Objekten in einer Fahrzeugumgebung, Vorrichtung zur Datenverarbeitung, Computerprogrammprodukt und computerlesbarer Datenträger
DE102020118628A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Position eines Fahrzeugs
DE112020004878T5 (de) Fahrzeugumgebungsüberwachungsvorrichtung und Fahrzeugumgebungsüberwachungsverfahren
DE112020006919T5 (de) Fahrzeugsteuersystem, integrierte fahrzeugsteuervorrichtung, elektronische steuervorrichtung, netzkommunikationsvorrichtung, fahrzeugsteuerverfahren und fahrzeugsteuerprogramm
DE102019215263A1 (de) Verfahren und Vorrichtung zum Führen eines Kraftfahrzeuges in einer Fahrspur
DE102022121670A1 (de) Fahrspurerkennung und Führen eines Fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed