DE102021209817A1 - Verfahren zur mehrstufigen Fusion von Messdaten - Google Patents

Verfahren zur mehrstufigen Fusion von Messdaten Download PDF

Info

Publication number
DE102021209817A1
DE102021209817A1 DE102021209817.7A DE102021209817A DE102021209817A1 DE 102021209817 A1 DE102021209817 A1 DE 102021209817A1 DE 102021209817 A DE102021209817 A DE 102021209817A DE 102021209817 A1 DE102021209817 A1 DE 102021209817A1
Authority
DE
Germany
Prior art keywords
environment model
measurement data
sensors
control unit
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021209817.7A
Other languages
English (en)
Inventor
Dirk Huelsebusch
Junyi Tao
Ingmar Berger
Martin Rabel
Matthias Mauro
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102021209817.7A priority Critical patent/DE102021209817A1/de
Priority to CN202280060398.0A priority patent/CN117918002A/zh
Priority to PCT/EP2022/069290 priority patent/WO2023030732A1/de
Publication of DE102021209817A1 publication Critical patent/DE102021209817A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Offenbart ist ein Verfahren zur Fusion von Messdaten von mehreren fahrzeugseitigen Sensoren, wobei von einer ersten Gruppe von Sensoren ermittelte Messdaten von einem ersten Steuergerät oder von einem ersten Modul einer zentralen Steuereinheit empfangen und zu einem ersten Umfeldmodell fusioniert werden, wobei die Messdaten der ersten Gruppe von Sensoren mit einer ersten Einstufung hinsichtlich einer funktionalen Sicherheit von dem ersten Umfeldmodell verwendet werden oder das erste Umfeldmodell basierend auf den Messdaten der ersten Gruppe erstellt wird, von mindestens einer zweiten Gruppe von Sensoren ermittelte Messdaten von mindestens einem zweiten Steuergerät oder von mindestens einem zweiten Modul der zentralen Steuereinheit empfangen und zu mindestens einem zweiten Umfeldmodell fusioniert werden, wobei die Messdaten der zweiten Gruppe von Sensoren mit einer zweiten Einstufung hinsichtlich einer funktionalen Sicherheit von dem zweiten Umfeldmodell verwendet werden oder das mindestens eine zweite Umfeldmodell basierend auf den Messdaten der zweiten Gruppe erstellt wird. Des Weiteren sind eine Anordnung, ein Steuergerät, ein Computerprogramm sowie ein maschinenlesbares Speichermedium offenbart.

Description

  • Die Erfindung betrifft ein Verfahren zur Fusion von Messdaten von mehreren fahrzeugseitigen Sensoren, ein Steuergerät, ein Computerprogramm sowie ein maschinenlesbares Speichermedium.
  • Stand der Technik
  • Zum Umsetzen von unterschiedlichen Fahrassistenzfunktionen und Notbremsfunktionen ist üblicherweise eine Repräsentation des Fahrzeugumfelds erforderlich. Je nach Ausprägung und Leistungsanforderung werden hierfür Messdaten mehrerer Sensoren empfangen und miteinander fusioniert. Beispielsweise wird für eine aktuelle EU NCAP 2020 Anforderung eine Ein-Radar-Ein-Video (1R1V) Fusion benötigt, um die genaueren Messverfahren des Radarsensors, mit der besseren Winkelqualität und den Klassifikationsfähigkeiten eines Videosensors zu kombinieren. Die Verbauposition ist hierbei mittig an der Fahrzeugfront und der Erfassungsbereich in Fahrtrichtung ausgerichtet.
  • Notbremsfunktionen und Fahrassistenzfunktionen haben unterschiedliche Anforderungen an die funktionale Sicherheit, die in unterschiedlichen ASIL-Einstufungen definiert ist. Notbremsfunktionen erfordern beispielsweise ASIL-B Einstufungen, da sie unmittelbar ohne Fahrerbestätigung eingesetzt werden und durch Fehlauslösungen in Gefahrensituationen resultieren können. Üblicherweise findet die zentrale Fusion von Messdaten der fahrzeugseitigen Sensoren in dem Steuergerät statt, in dem auch die entsprechenden Funktionsalgorithmen gerechnet bzw. die Umfeldmodelle erstellt werden. Die unterschiedlichen Einstufungen hinsichtlich der funktionalen Sicherheit werden allerdings von den Funktionsalgorithmen bis auf das Umfeldmodell abgeleitet, wodurch sich für dieses immer das sicherheitsrelevantere ASIL-B ergibt. Für die Umsetzung von Funktionen mit unterschiedlicher Einstufung der funktionalen Sicherheit ergeben sich zwei Möglichkeiten: Entweder alle in das Umfeldmodell beitragenden Sensordaten erfüllen ebenfalls die höchste Anforderung, beispielsweise für ASIL-B, oder es werden unterschiedliche Umfeldmodelle mit unterschiedlichen Einstufungen parallel berechnet. Hierdurch wird jedoch der Entwicklungs- und Validationsaufwand für die Sensoren oder der Ressourcenbedarf des Steuergeräts erhöht.
  • Die DE 10 2017 206 123 A1 beschreibt in Verfahren zur Fusion von Daten verschiedener Sensoren eines Fahrzeugs im Rahmen einer Objekterkennung. Die aus Messdaten unterschiedlicher Sensoren ermittelten Messgrößen werden in einem nachfolgenden Verarbeitungsschritt verknüpft und plausibilisiert.
  • Offenbarung der Erfindung
  • Die der Erfindung zugrunde liegende Aufgabe kann darin gesehen werden, ein Verfahren zum Fusionieren von Messdaten vorzuschlagen, welches den Leistungsbedarf eines Steuergeräts senkt.
  • Diese Aufgabe wird mittels des jeweiligen Gegenstands der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand von jeweils abhängigen Unteransprüchen.
  • Nach einem Aspekt der Erfindung wird ein Verfahren zur Fusion von Messdaten von mehreren fahrzeugseitigen Sensoren bereitgestellt. Von einer ersten Gruppe von Sensoren ermittelte Messdaten werden von einem ersten Steuergerät oder von einem ersten Modul einer zentralen Steuereinheit empfangen. Anschließend werden die Messdaten der ersten Gruppe von Sensoren zu einem ersten Umfeldmodell fusioniert oder optional vor einer Verwertung im Rahmen des ersten Umfeldmodells fusioniert.
  • Die mindestens zwei Gruppen von Sensoren können alternativ oder zusätzlich auch als eine Gruppe von Sensoren oder als ein Sensor ausgestaltet sein, welche zwei Messdatensätze bzw. mindestens zwei Gruppen von Messdaten bereitstellen können. Dabei können die Messdaten und/oder die Sensoren in den entsprechenden Gruppen sich auch überschneiden.
  • Die Messdaten der ersten Gruppe von Sensoren werden mit einer ersten Einstufung hinsichtlich einer funktionalen Sicherheit von dem ersten Umfeldmodell verwendet. Alternativ wird das erste Umfeldmodell mit der ersten Einstufung hinsichtlich der funktionalen Sicherheit basierend auf den Messdaten der ersten Gruppe erstellt.
  • Des Weiteren werden von mindestens einer zweiten Gruppe von Sensoren ermittelte Messdaten von mindestens einem zweiten Steuergerät oder von mindestens einem zweiten Modul der zentralen Steuereinheit empfangen und zu mindestens einem zweiten Umfeldmodell fusioniert.
  • Es erfolgt somit eine zweistufige Messdatenfusion, bei der in der zweiten Stufe das zweite Umfeldmodell auf den Daten bzw. Ergebnissen des ersten Umfeldmodells und den Messdaten der zweiten Gruppe basiert. Das zweite Umfeldmodell kann somit aus dem ersten Umfeldmodell sowie aus Messdaten weiterer Sensoren gebildet werden.
  • Je nach Ausgestaltung kann das erste Umfeldmodell auch von Messdaten der zweiten Gruppe von Sensoren abhängen.
  • Bevorzugterweise werden die Messdaten der zweiten Gruppe von Sensoren mit einer zweiten Einstufung hinsichtlich der funktionalen Sicherheit von dem zweiten Umfeldmodell verwendet. Alternativ wird das mindestens eine zweite Umfeldmodell mit der zweiten Einstufung hinsichtlich der funktionalen Sicherheit basierend auf den Messdaten der zweiten Gruppe erstellt.
  • Bevorzugterweise unterscheidet sich die erste Einstufung hinsichtlich der funktionalen Sicherheit von der mindestens einen zweiten Einstufung hinsichtlich der funktionalen Sicherheit. Dabei ist die erste Einstufung gegenüber der zweiten Einstufung vorzugsweise höher. Somit kann die erste Einstufung beispielsweise als ASIL-B, ASIL-C oder ASIL-D ausgestaltet sein und die zweite Einstufung als ASIL-A oder als QM gemäß der ISO 26262 definiert sein.
  • Neben dem ersten Umfeldmodell können mehrere zweite Umfeldmodelle verwendet werden, die jeweils unterschiedliche Einstufungen hinsichtlich der funktionalen Sicherheit aufweisen. Dabei können Umfeldmodelle und Messdaten mit einer gemeinsamen Einstufung auf einem gemeinsamen Steuergerät oder einem gemeinsamen Modul der zentralen Steuereinheit verarbeitet werden.
  • Das Verfahren ermöglicht eine mehrstufige Fusion von Messdaten unterschiedlicher Sensoren mit unterschiedlicher Einstufung hinsichtlich der funktionalen Sicherheit. Beispielsweise erlaubt eine zweistufige Fusion in einem ersten Schritt ausschließlich ein ASIL-B relevantes Umfeldmodell zu erzeugen und dessen Ausgabe kombiniert mit weiteren QM Sensordaten in einem getrennten zweiten Schritt zu fusionieren. Hierdurch resultieren beispielsweise zwei Umfeldmodelle, welche in den jeweiligen Funktionen mit unterschiedlicher ASIL Einstufung verwendet werden können. Beispielsweise kann ein ASIL-B eingestuftes Umfeldmodell Messdaten von Sensoren mit niedrigster Latenz empfangen, wodurch im zweiten, beispielsweise als QM eingestuftes, Umfeldmodell nur der zusätzliche Rechenaufwand für die Verarbeitung der Sensoren der zweiten Gruppe anfällt.
  • Das Prinzip der mehrstufigen Fusion lässt sich auf beliebig viele Stufen übertragen, solange die unterschiedlichen Umfeldmodelle mit absteigender Einstufung hinsichtlich der funktionalen Sicherheit verbunden sind.
  • Nach einem weiteren Aspekt der Erfindung wird mindestens ein Steuergerät bereitgestellt, wobei das Steuergerät dazu eingerichtet ist, das Verfahren auszuführen. Das Steuergerät kann beispielsweise ein fahrzeugseitiges Steuergerät, ein fahrzeugexternes Steuergerät oder eine fahrzeugexterne Servereinheit, wie beispielsweise ein Cloud-System, sein.
  • Das Steuergerät kann als eine zentrale Steuereinheit mit einem oder unterschiedlichen Modulen zum Verarbeiten von unterschiedlichen Umfeldmodellen ausgestaltet sein. Alternativ kann das Steuergerät als ein erstes Steuergerät oder als ein zweites Steuergerät ausgestaltet sein.
  • Darüber hinaus wird nach einem Aspekt der Erfindung ein Computerprogramm bereitgestellt, welches Befehle umfasst, die bei der Ausführung des Computerprogramms durch einen Computer oder ein Steuergerät diesen veranlassen, das erfindungsgemäße Verfahren auszuführen. Gemäß einem weiteren Aspekt der Erfindung wird ein maschinenlesbares Speichermedium bereitgestellt, auf dem das erfindungsgemäße Computerprogramm gespeichert ist.
  • Das Fahrzeug kann hierbei gemäß der BASt Norm assistiert, teilautomatisiert, hochautomatisiert und/oder vollautomatisiert bzw. fahrerlos betreibbar sein.
  • Bei einem Ausführungsbeispiel werden die von der ersten Gruppe von Sensoren ermittelten Messdaten mit einer funktionalen Sicherheit von ASIL-B oder höher empfangen. Hierdurch werden die Messdaten mit einer minimalen Latenz vom ersten Steuergerät oder vom ersten Modul der zentralen Steuereinheit empfangen, sodass besonders sicherheitskritische Funktionen umsetzbar sind.
  • Nach einer weiteren Ausführungsform wird mindestens eine Ausgabe des ersten Umfeldmodells dem zweiten Umfeldmodell bereitgestellt. Durch diese Maßnahme ist ein erneutes Verarbeiten von bereits im ersten Umfeldmodell verarbeiteten Messdaten durch das zweite Umfeldmodell nicht mehr erforderlich, wodurch der von den Steuergeräten oder der zentralen Steuereinheit benötigte Leistungsbedarf sinkt.
  • Gemäß einem weiteren Ausführungsbeispiel wird das erste Umfeldmodell mit einer gegenüber dem zweiten Umfeldmodell erhöhten Einstufung hinsichtlich der funktionalen Sicherheit erstellt. Bevorzugterweise werden das erste Umfeldmodell und weitere zweite Umfeldmodelle in Form einer Kaskade mit zunehmender Abstufung der funktionalen Sicherheit erstellt. Hierdurch kann eine separate Verarbeitung von Messdaten und Umfeldmodellen mit unterschiedlicher Einstufung der funktionalen Sicherheit realisiert werden. Dabei kann das parallele Verarbeiten von allen Messdaten entfallen, wenn die Umfeldmodelle mit geringerer Einstufung die Ergebnisse bzw. Ausgaben von Umfeldmodellen mit einer höheren ASIL Einstufung als eine zusätzliche Eingabe erhalten.
  • Nach einem weiteren Ausführungsbeispiel werden das erste Umfeldmodell mit zumindest einer ASIL-B Einstufung und das zweite Umfeldmodell mit einer ASIL-A oder einer QM Einstufung der funktionalen Sicherheit erstellt. Somit können beispielsweise Videosensoren und in Fahrtrichtung gerichtete Radarsensoren besonders optimal im Rahmen der ASIL-B Einstufung verarbeitet und die weiteren am Fahrzeug angeordneten Radarsensoren, wie beispielsweise Corner-Radare durch ein Umfeldmodell mit einer QM Einstufung der funktionalen Sicherheit verarbeitet werden.
  • Gemäß einem weiteren Ausführungsbeispiel werden die Ausgabe des ersten Umfeldmodells mindestens einer ersten Fahrassistenzfunktion und die Ausgabe des zweiten Umfeldmodells mindestens einer zweiten Fahrassistenzfunktion bereitgestellt. Die erste Fahrassistenzfunktion kann beispielsweise als ein Notbremsassistent ausgestaltet sein. Die mindestens eine zweite Fahrassistenzfunktion kann beispielsweise als ein Spurhalteassistent, ein Spurwechselassistent, ein Abbiegeassistent und dergleichen ausgestaltet sein. Dabei kann die zweite Fahrassistenzfunktion von den Ausgaben des ersten Umfeldmodells ebenfalls profitieren, die dem zweiten Umfeldmodell zugeführt werden.
  • Im Folgenden werden anhand von stark vereinfachten schematischen Darstellungen bevorzugte Ausführungsbeispiele der Erfindung näher erläutert. Hierbei zeigen
    • 1 eine schematische Sensoranordnung zum Veranschaulichen eines erfindungsgemäßen Verfahrens gemäß einer Ausführungsform,
    • 2 eine weitere schematische Sensoranordnung zum Veranschaulichen eines erfindungsgemäßen Verfahrens gemäß einer Ausführungsform und
    • 3 ein schematisches Diagramm zum Veranschaulichen eines erfindungsgemäßen Verfahrens gemäß einer weiteren Ausführungsform.
  • In der 1 ist eine schematische Sensoranordnung 1 zum Veranschaulichen eines erfindungsgemäßen, in 3 näher beschriebenen, Verfahrens 2 gemäß einer Ausführungsform gezeigt.
  • Die Sensoranordnung 1 kann beispielsweise eine fahrzeugseitige Sensoranordnung sein, die einen Frontradar 4, einen in Fahrtrichtung ausgerichteten Videosensor bzw. Kamerasensor 6 und videobasierte Fahrspursensoren 8 aufweist. Diese Sensoren 4, 6, 8 bilden eine erste Gruppe 10 von Sensoren, die mit einer besonders geringen Latenz Messdaten erzeugen und für eine weitere Verwertung weiterleiten können. Durch die der ersten Gruppe 10 zugeordneten Sensoren 4, 6, 8 können sicherheitskritische Fahrfunktionen, wie beispielsweise Notbremsfunktionen 14 realisiert werden, die eine ASIL-B Einstufung oder eine höhere Einstufung hinsichtlich der funktionalen Sicherheit erfordern. Darüber hinaus kann eine sogenannte HIL (Hardware-inthe-Loop) 9 in der ersten Gruppe 10 vorgesehen sein, um beispielsweise eine Vorverarbeitung der Messdaten der Sensoren 4, 6, 8 umzusetzen.
  • Neben der ersten Gruppe 10 von Sensoren ist auch zweite Gruppe 12 von Sensoren vorgesehen, die mit einer geringeren Einstufung hinsichtlich der funktionalen Sicherheit, beispielsweise ASIL-A oder QM, agieren. Die zweite Gruppe 12 umfasst im dargestellten Ausführungsbeispiel vier Radarsensoren 16, 17, 18, 19, die an vier Eckpositionen eines nicht näher beschriebenen Fahrzeugs angeordnet sein können. Beispielsweise können die Messdaten der Sensoren 16, 17, 18, 19 der zweiten Gruppe 12 zum Umsetzen eines Autobahnassistenten 20 als Fahrassistenzfunktion verwendet werden.
  • Im dargestellten Ausführungsbeispiel erfolgt eine Fusion der Messdaten der Sensoren der ersten Gruppe 10 im Rahmen einer ASIL-B Einstufung in einem ersten Steuergerät 22. Darüber hinaus eine Fusion der Messdaten der Sensoren der zweiten Gruppe 12 im Rahmen einer geringeren QM Einstufung in einem zweiten Steuergerät 24.
  • Das erste Steuergerät 22 verwertet die Messdaten zum Erstellen oder zum Ausführen eines ersten Umfeldmodells. Eine entsprechende Ausgabe 26 des ersten Umfeldmodells wird einem zweiten Umfeldmodell als Eingabe zugeführt, welches durch das zweite Steuergerät 24 erstellt oder ausgeführt wird. Darüber hinaus werden vom zweiten Steuergerät 24 auch die Messdaten der Sensoren der zweiten Gruppe 12 als Eingänge für das zweite Umfeldmodell herangezogen, wodurch der Autobahnassistent 20 von den Messdaten der Sensoren der ersten Gruppe 10 und des ersten Umfeldmodells profitieren kann.7
  • Analog zur 1 zeigt die 2 eine schematische Sensoranordnung 1 zum Veranschaulichen eines erfindungsgemäßen Verfahrens 2 gemäß einer weiteren Ausführungsform. Im Unterschied zur 1, wird das erste Umfeldmodell durch ein erstes Modul 21 einer zentralen Steuereinheit 25 und das zweite Umfeldmodell durch ein zweites Modul 23 der zentralen Steuereinheit 25 erstellt oder ausgeführt.
  • Die 3 zeigt ein schematisches Diagramm zum Veranschaulichen eines erfindungsgemäßen Verfahrens 2 gemäß einer weiteren Ausführungsform. Das Verfahren 2 dient zur Fusion von Messdaten von mehreren fahrzeugseitigen Sensoren 4, 6, 8, 16, 17, 18, 19.
  • Von einer ersten Gruppe 10 von Sensoren ermittelte Messdaten werden von einem ersten Steuergerät 22 oder von einem ersten Modul 21 einer zentralen Steuereinheit 25 empfangen 28. Anschließend werden die Messdaten der ersten Gruppe 10 von Sensoren 4, 6, 8 zu einem ersten Umfeldmodell fusioniert oder optional vor einer Verwertung im Rahmen des ersten Umfeldmodells fusioniert 30.
  • Die Messdaten der ersten Gruppe 10 von Sensoren 4, 6, 8 werden mit einer ersten Einstufung hinsichtlich einer funktionalen Sicherheit, beispielsweise ASIL-B, von dem ersten Umfeldmodell verwendet. Alternativ wird das erste Umfeldmodell mit der ersten Einstufung hinsichtlich der funktionalen Sicherheit basierend auf den Messdaten der ersten Gruppe 10 erstellt.
  • Des Weiteren werden von mindestens einer zweiten Gruppe 10 von Sensoren 16, 17, 18, 19 ermittelte Messdaten von mindestens einem zweiten Steuergerät 24 oder von mindestens einem zweiten Modul 23 der zentralen Steuereinheit 25 empfangen 32 und zu mindestens einem zweiten Umfeldmodell fusioniert 34.
  • Bevorzugterweise werden die Messdaten der zweiten Gruppe 12 von Sensoren mit einer zweiten Einstufung, beispielsweise QM oder ASIL-A, hinsichtlich der funktionalen Sicherheit von dem zweiten Umfeldmodell verwendet. Alternativ wird das mindestens eine zweite Umfeldmodell mit der zweiten Einstufung hinsichtlich der funktionalen Sicherheit basierend auf den Messdaten der zweiten Gruppe 12 erstellt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102017206123 A1 [0004]

Claims (9)

  1. Verfahren (2) zur Fusion von Messdaten von mehreren fahrzeugseitigen Sensoren (4, 6, 8, 16, 17, 18, 19) durch mindestens ein Steuergerät (22, 24), wobei - von einer ersten Gruppe (10) von Sensoren (4, 6, 8) ermittelte Messdaten von einem ersten Steuergerät (22) oder von einem ersten Modul (21) einer zentralen Steuereinheit (25) empfangen und zu einem ersten Umfeldmodell fusioniert werden, wobei die Messdaten der ersten Gruppe (10) von Sensoren (4, 6, 8) mit einer ersten Einstufung hinsichtlich einer funktionalen Sicherheit von dem ersten Umfeldmodell verwendet werden oder das erste Umfeldmodell basierend auf den Messdaten der ersten Gruppe (10) erstellt wird, - von mindestens einer zweiten Gruppe (12) von Sensoren (16, 17, 18, 19) ermittelte Messdaten von mindestens einem zweiten Steuergerät (24) oder von mindestens einem zweiten Modul (23) der zentralen Steuereinheit (25) empfangen und zu mindestens einem zweiten Umfeldmodell fusioniert werden, wobei die Messdaten der zweiten Gruppe (12) von Sensoren (16, 17, 18, 19) mit einer zweiten Einstufung hinsichtlich einer funktionalen Sicherheit von dem zweiten Umfeldmodell verwendet werden oder das mindestens eine zweite Umfeldmodell basierend auf den Messdaten der zweiten Gruppe (12) erstellt wird.
  2. Verfahren nach Anspruch 1, wobei die von der ersten Gruppe (10) von Sensoren (4, 6, 8) ermittelten Messdaten mit einer funktionalen Sicherheit von ASIL-B oder höher empfangen werden.
  3. Verfahren nach Anspruch 1 oder 2, wobei mindestens eine Ausgabe (26) des ersten Umfeldmodells dem zweiten Umfeldmodell bereitgestellt wird.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei das erste Umfeldmodell mit einer gegenüber dem zweiten Umfeldmodell erhöhten Einstufung hinsichtlich der funktionalen Sicherheit erstellt wird, wobei das erste Umfeldmodell und weitere zweite Umfeldmodelle in Form einer Kaskade mit zunehmender Abstufung der funktionalen Sicherheit erstellt werden.
  5. Verfahren nach Anspruch 4, wobei das erste Umfeldmodell mit zumindest einer ASIL-B Einstufung und das zweite Umfeldmodell mit einer ASIL-A oder einer QM Einstufung der funktionalen Sicherheit erstellt werden.
  6. Verfahren nach einem der Ansprüche 1 bis 5, wobei die Ausgabe (26) des ersten Umfeldmodells mindestens einer ersten Fahrassistenzfunktion (14) und die Ausgabe des zweiten Umfeldmodells mindestens einer zweiten Fahrassistenzfunktion (20) bereitgestellt werden.
  7. Steuergerät (22, 24, 25), wobei das Steuergerät (22, 24, 25) dazu eingerichtet ist, das Verfahren gemäß einem der Ansprüche 1 bis 6 auszuführen.
  8. Computerprogramm, welches Befehle umfasst, die bei der Ausführung des Computerprogramms durch einen Computer oder ein Steuergerät (22, 24, 25) diesen veranlassen, das Verfahren (2) gemäß einem der Ansprüche 1 bis 6 auszuführen.
  9. Maschinenlesbares Speichermedium, auf welchem das Computerprogramm gemäß Anspruch 8 gespeichert ist.
DE102021209817.7A 2021-09-06 2021-09-06 Verfahren zur mehrstufigen Fusion von Messdaten Pending DE102021209817A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102021209817.7A DE102021209817A1 (de) 2021-09-06 2021-09-06 Verfahren zur mehrstufigen Fusion von Messdaten
CN202280060398.0A CN117918002A (zh) 2021-09-06 2022-07-11 用于多级融合测量数据的方法
PCT/EP2022/069290 WO2023030732A1 (de) 2021-09-06 2022-07-11 Verfahren zur mehrstufigen fusion von messdaten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021209817.7A DE102021209817A1 (de) 2021-09-06 2021-09-06 Verfahren zur mehrstufigen Fusion von Messdaten

Publications (1)

Publication Number Publication Date
DE102021209817A1 true DE102021209817A1 (de) 2023-03-09

Family

ID=82546898

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021209817.7A Pending DE102021209817A1 (de) 2021-09-06 2021-09-06 Verfahren zur mehrstufigen Fusion von Messdaten

Country Status (3)

Country Link
CN (1) CN117918002A (de)
DE (1) DE102021209817A1 (de)
WO (1) WO2023030732A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017206123A1 (de) 2017-04-10 2018-10-11 Robert Bosch Gmbh Verfahren und Vorrichtung zur Fusion von Daten verschiedener Sensoren eines Fahrzeugs im Rahmen einer Objekterkennung

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11214273B2 (en) * 2017-06-23 2022-01-04 Nvidia Corporation Method of using a single controller (ECU) for a fault-tolerant/fail-operational self-driving system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017206123A1 (de) 2017-04-10 2018-10-11 Robert Bosch Gmbh Verfahren und Vorrichtung zur Fusion von Daten verschiedener Sensoren eines Fahrzeugs im Rahmen einer Objekterkennung

Also Published As

Publication number Publication date
WO2023030732A1 (de) 2023-03-09
CN117918002A (zh) 2024-04-23

Similar Documents

Publication Publication Date Title
DE102017206123A1 (de) Verfahren und Vorrichtung zur Fusion von Daten verschiedener Sensoren eines Fahrzeugs im Rahmen einer Objekterkennung
DE102014106506A1 (de) Verfahren zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102017010832A1 (de) Verfahren zur Bewertung einer erkannten Geschwindigkeitsbegrenzung
EP3857437A1 (de) Verfahren und vorrichtung zur analyse eines sensordatenstroms sowie verfahren zum führen eines fahrzeugs
DE102017209496A1 (de) Verfahren und Vorrichtung zum Klassifizieren eines Objekts für ein Fahrzeug
DE102018216423A1 (de) Bestimmung eines Ansteuerungssignals für ein teilautonomes Fahrzeug
DE102021209817A1 (de) Verfahren zur mehrstufigen Fusion von Messdaten
DE102021005053A1 (de) Verfahren zum Fusionieren von einer Vielzahl von Sensordaten mittels einer elektronischen Recheneinrichtung, sowie ein Fahrerassistenzsystem
WO2021185586A1 (de) Verfahren zur erzeugung von trainingsdaten, fahrzeug und trainingssystem
DE102015008539A1 (de) Verfahren zur Fusion mehrerer Informationsquellen zur Objektdetektion und Verfahren zum Betrieb einer Fahrerassistenzvorrichtung
DE102019215263A1 (de) Verfahren und Vorrichtung zum Führen eines Kraftfahrzeuges in einer Fahrspur
DE102019212892A1 (de) Erkennung von Detektorfehlern
DE102022000331A1 (de) Verfahren zur Detektion von Geisterobjekten in Sensormessungen
DE102017207958A1 (de) Verfahren zum Generieren von Trainingsdaten für ein auf maschinellem Lernen basierendes Mustererkennungsverfahren für ein Kraftfahrzeug, Kraftfahrzeug, Verfahren zum Betreiben einer Recheneinrichtung sowie System
WO2021069146A1 (de) Verfahren zum bereitstellen eines neuronalen netzes zum direkten validieren einer umgebungskarte in einem fahrzeug durch sensordaten
DE102022001265A1 (de) Verfahren, elektronisches Rechensystem und Computerprogramm zur Zuordnung von fusionierten Objektdarstellungen aus zwei unterschiedlichen Fusionsverfahren
DE102022200139A1 (de) Verfahren zur Optimierung der Umfeldwahrnehmung für ein Fahrunterstützungssystem mittels zusätzlicher Referenzsensorik
EP4315069A1 (de) Verfahren zum bewerten einer software für ein steuergerät eines fahrzeugs
DE102021003297A1 (de) Verfahren zur Objektverfolgung und Fusionierung von mindestens zwei Sensorsignalen, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Fusionsvorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Fusionsvorrichtung
DE102021209670A1 (de) Konzept zum Überwachen einer Datenfusionsfunktion eines Infrastruktursystems
DE102021113767A1 (de) Überwachungseinrichtung und Verfahren zum Überwachen eines Gesamtsystems aus mehreren unterschiedlichen Teilsystemen auf Fehler und Kraftfahrzeug
DE102019218590A1 (de) Verfahren und Vorrichtung zur Objekterkennung
DE102020211484A1 (de) Verfahren zum Führen eines Kraftfahrzeugs
DE102022116052A1 (de) Verfahren und Vorrichtung zur Erkennung von Objekten anhand von Sensorfusion
DE102021131868A1 (de) Zuverlässigkeitsüberprüfung einer Objektklassifizierung