DE102021209670A1 - Konzept zum Überwachen einer Datenfusionsfunktion eines Infrastruktursystems - Google Patents

Konzept zum Überwachen einer Datenfusionsfunktion eines Infrastruktursystems Download PDF

Info

Publication number
DE102021209670A1
DE102021209670A1 DE102021209670.0A DE102021209670A DE102021209670A1 DE 102021209670 A1 DE102021209670 A1 DE 102021209670A1 DE 102021209670 A DE102021209670 A DE 102021209670A DE 102021209670 A1 DE102021209670 A1 DE 102021209670A1
Authority
DE
Germany
Prior art keywords
infrastructure
result
data
input data
checking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102021209670.0A
Other languages
English (en)
Other versions
DE102021209670B4 (de
Inventor
Holger Mindt
Adwait Sanjay Kale
Nils Uhlemann
Alexander Geraldy
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102021209670.0A priority Critical patent/DE102021209670B4/de
Priority to US17/896,229 priority patent/US20230061522A1/en
Priority to CN202211073013.2A priority patent/CN115762123A/zh
Publication of DE102021209670A1 publication Critical patent/DE102021209670A1/de
Application granted granted Critical
Publication of DE102021209670B4 publication Critical patent/DE102021209670B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096783Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a roadside individual element
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0098Details of control systems ensuring comfort, safety or stability not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4044Direction of movement, e.g. backwards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/91Radar or analogous systems specially adapted for specific applications for traffic control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9316Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Überwachen einer Datenfusionsfunktion eines Infrastruktursystems zum infrastrukturgestützten Assistieren von Kraftfahrzeugen bei einer zumindest teilautomatisierten Fahraufgabe innerhalb einer Infrastruktur, wobei das Infrastruktursystem mehrere Infrastrukturumfeldsensoren zum Erfassen eines Bereichs der Infrastruktur aufweist, umfassend die folgenden Schritte:
Empfangen von mehreren für die Datenfusionsfunktion bestimmte Eingangsdatensätze, welche jeweils auf der jeweiligen Erfassung des Bereichs basierende Umfelddaten umfassen, welche den erfassten Bereich repräsentieren,
Empfangen von von der Datenfusionsfunktion ausgegebenen auf einer Datenfusion der Eingangsdatensätze basierende Ausgangsdaten,
Prüfen der Eingangsdatensätze und/oder der Ausgangsdaten auf Konsistenz, Ausgeben eines Prüfergebnisses des Prüfens.
Die Erfindung betrifft eine Vorrichtung, ein Computerprogramm und ein maschinenlesbares Speichermedium.

Description

  • Die Erfindung betrifft ein Verfahren zum Überwachen einer Datenfusionsfunktion eines Infrastruktursystems zum infrastrukturgestützten Assistieren von Kraftfahrzeugen bei einer zumindest teilautomatisierten Fahraufgabe innerhalb einer Infrastruktur, eine Vorrichtung, ein Computerprogramm und ein maschinenlesbares Speichermedium.
  • Stand der Technik
  • Die Offenlegungsschrift DE 10 2016 224 074 A1 offenbart eine Vorrichtung zum Betreiben eines Fahrzeugs.
  • Die Offenlegungsschrift DE 10 2015 226 116 A1 offenbart ein Verfahren zum Bewerten einer durch zumindest einen Sensor eines Fahrzeugs erfassten Gefahrensituation.
  • Offenbarung der Erfindung
  • Die der Erfindung zugrunde liegende Aufgabe ist darin zu sehen, ein Konzept zum effizienten Überwachen einer Datenfusionsfunktion eines Infrastruktursystems zum infrastrukturgestützten Assistieren von Kraftfahrzeugen bei einer zumindest teilautomatisierten Fahraufgabe innerhalb einer Infrastruktur bereitzustellen.
  • Diese Aufgabe wird mittels des jeweiligen Gegenstands der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand von jeweils abhängigen Unteransprüchen.
  • Nach einem ersten Aspekt wird ein Verfahren zum Überwachen einer Datenfusionsfunktion eines Infrastruktursystems zum infrastrukturgestützten Assistieren von Kraftfahrzeugen bei einer zumindest teilautomatisierten Fahraufgabe innerhalb einer Infrastruktur, wobei das Infrastruktursystem mehrere Infrastrukturumfeldsensoren zum Erfassen eines Bereichs der Infrastruktur aufweist, bereitgestellt, umfassend die folgenden Schritte:
    • Empfangen von mehreren für die Datenfusionsfunktion bestimmte Eingangsdatensätze, welche jeweils auf der jeweiligen Erfassung des Bereichs basierende Umfelddaten umfassen, welche den erfassten Bereich repräsentieren,
    • Empfangen von von der Datenfusionsfunktion ausgegebenen auf einer Datenfusion der Eingangsdatensätze basierende Ausgangsdaten,
    • Prüfen der Eingangsdatensätze und/oder der Ausgangsdaten auf Konsistenz, Ausgeben eines Prüfergebnisses des Prüfens.
  • Nach einem zweiten Aspekt wird eine Vorrichtung bereitgestellt, die eingerichtet ist, alle Schritte des Verfahrens nach dem ersten Aspekt auszuführen.
  • Nach einem dritten Aspekt wird ein Computerprogramm bereitgestellt, welches Befehle umfasst, die bei Ausführung des Computerprogramms durch einen Computer, beispielsweise durch die Vorrichtung nach dem zweiten Aspekt, diesen veranlassen, ein Verfahren gemäß dem ersten Aspekt auszuführen.
  • Nach einem vierten Aspekt wird ein maschinenlesbares Speichermedium bereitgestellt, auf dem das Computerprogramm nach dem dritten Aspekt gespeichert ist.
  • Die Erfindung basiert auf der Erkenntnis und schließt diese mit ein, dass die obige Aufgabe dadurch gelöst wird, indem die Eingangsdatensätze und/oder die Ausgangsdaten einer Datenfusionsfunktion auf Konsistenz geprüft werden. Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass die Datenfusionsfunktion des Infrastruktursystems effizient überwacht werden kann.
  • Die Datenfusionsfunktion des Infrastruktursystems führt also Informationen von mehreren Infrastrukturumfeldsensoren zusammen, um basierend auf einem entsprechenden Datenfusionsergebnis Kraftfahrzeuge bei einer zumindest teilautomatisierten Fahraufgabe innerhalb der Infrastruktur zu unterstützen oder zu assistieren. Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass die Kraftfahrzeuge effizient zumindest teilautomatisiert geführt innerhalb der Infrastruktur fahren können, da die Kraftfahrzeuge zum Beispiel Informationen über Bereiche der Infrastruktur durch die Unterstützung erhalten, welche durch kraftfahrzeugeigene Umfeldsensoren nur eingeschränkt oder gar nicht erfasst werden könnten.
  • Damit sich Kraftfahrzeuge bei ihrer zumindest teilautomatisiert geführten Fahrt innerhalb der Infrastruktur auf Informationen des Infrastruktursystems, also auf Informationen, welche basierend auf den Ausgangsdaten der Datenfusionsfunktion ermittelt wurden, verlassen können, ist es vorteilhaft, dass die Ausgangsdaten, welche insbesondere ein Fusionsergebnis der fusionierten Eingangsdatensätze angibt oder umfasst, sicher und vergleichbar gut oder besser als kraftfahrzeugeigene Kraftfahrzeugsensoren sein, ohne hierbei irgendwelche Nachteile oder Einschränkungen aufzuweisen.
  • Indem nun die Eingangsdatensätze und/oder die Ausgangsdaten der Datenfusionsfunktion auf Konsistenz geprüft werden, kann in effizienter Weise dazu beigetragen werden, die vorstehend bezeichneten Anforderungen zu erfüllen. Als Folge kann das Kraftfahrzeug zum Beispiel in vorteilhafter Weise seine zumindest teilautomatisierte Fahraufgabe sicher ausführen oder durchführen.
  • Somit wird weiter der technische Vorteil bewirkt, dass ein Kraftfahrzeug bei einer zumindest teilautomatisierten Fahraufgabe innerhalb einer Infrastruktur effizient infrastrukturgestützt unterstützt oder assistiert werden kann.
  • In der Datenfusionsfunktion werden die Eingangsdatensätze fusioniert, um ein oder mehrere Fusionsergebnisse zu ermitteln. Die Ausgangsdaten umfassen das oder die ermittelten Fusionsergebnisse.
  • Die Formulierung, dass die Eingangsdatensätze für die Datenfusionsfunktion bestimmt sind, bedeutet, dass diese unmittelbar für die Datenfusionsfunktion bestimmt sind, sodass die Datenfusionsfunktion diese unmittelbar für eine Datenfusion verwendet.
  • Die Infrastrukturumfeldsensoren sind zum Beispiel räumlich verteilt innerhalb der Infrastruktur angeordnet.
  • Ein Infrastrukturumfeldsensor ist beispielsweise einer der folgenden Umfeldsensoren: Radarsensor, Lidarsensor, Videosensor, Ultraschallsensor, Magnetfeldsensor und Infrarotsensor.
  • Gemäß einer Ausführungsform ist vorgesehen, dass einige der Eingangsdatensätze jeweils ein Freiraumerkennungsergebnis umfassen, welches ein Ergebnis einer Freiraumerkennung des Bereichs angibt, wobei die Ausgangsdaten ein fusioniertes Freiraumerkennungsergebnis der jeweiligen Freiraumerkennungsergebnisse umfassen.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass die Freiraumerkennungsergebnisse und/oder das fusionierte Freiraumerkennungsergebnis effizient auf Konsistenz geprüft werden können.
  • Gemäß einer Ausführungsform ist vorgesehen, dass einige der Eingangsdatensätze jeweils ein Objektdetektionsergebnis umfassen, welches ein Ergebnis einer Objektdetektion des Bereichs angibt, wobei die Ausgangsdaten ein fusioniertes Objektdetektionsergebnis der jeweiligen Objektdetektionsergebnisse umfassen.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass die Objektdetektionsergebnisse und/oder das fusionierte Objektdetektionsergebnis effizient auf Konsistenz geprüft werden kann.
  • Gemäß einer Ausführungsform ist vorgesehen, dass das Prüfen ein Vergleichen des fusionierten Freiraumerkennungsergebnisses mit dem fusionierten Objektdetektionsergebnis umfasst, um Inkonsistenzen zu detektieren.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass das Prüfen effizient durchgeführt werden kann, sodass Inkonsistenzen effizient detektiert werden können. Sofern zum Beispiel das fusionierte Freiraumerkennungsergebnis an einer Stelle des Bereichs einen Freiraum angibt, wobei aber für genau diese Stelle das fusionierte Objektdetektionsergebnis ein detektiertes Objekt angibt, so liegt eine Inkonsistenz vor.
  • In einer Ausführungsform ist vorgesehen, dass ein Objektdetektionsmehrheitsergebnis ermittelt wird, welches dem Objektdetektionsergebnis der Mehrheit von gleichen Objektdetektionsergebnissen entspricht, wobei das Prüfen ein Vergleichen des fusionierten Objektdetektionsergebnisses mit dem Objektdetektionsmehrheitsergebnis umfasst, um Inkonsistenzen zu detektieren.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass das Prüfen effizient durchgeführt werden kann, sodass das fusionierte Objektdetektionsergebnis effizient auf Inkonsistenzen geprüft werden kann.
  • Gemäß einer Ausführungsform ist vorgesehen, dass einer der Eingangsdatensätze Trajektoriendaten umfasst, welche eine Trajektorie eines sich innerhalb des Bereichs befindlichen Objekts repräsentieren, wobei das Prüfen ein Prüfen der Trajektorie auf Plausibilität umfasst, um Inkonsistenzen zu detektieren.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass das Prüfen effizient durchgeführt werden kann, sodass Inkonsistenzen effizient detektiert werden können. Eine Trajektorie eines sich innerhalb eines Bereichs befindlichen Objekts sollte zum Beispiel innerhalb Begrenzungsmarkierungen einer Straße verlaufen. Sofern dies nicht der Fall ist, ist dies zum Beispiel eine Inkonsistenz. Ein Objekt unterliegt physikalischen Gesetzen. Sollte die Trajektorie des Objekts physikalisch unmöglich sein, liegt eine Inkonsistenz vor.
  • Gemäß einer Ausführungsform ist vorgesehen, dass einer der Eingangsdatensätze Positionsdaten umfasst, welche eine Anfangsposition eines sich innerhalb des Bereichs befindlichen Objekts repräsentieren zu einem Zeitpunkt einer erstmaligen Erfassung durch den entsprechenden Infrastrukturumfeldsensor, wobei das Prüfen ein Vergleichen der Anfangsposition mit einer maximalen Erfassungsreichweite des entsprechenden Infrastrukturumfeldsensors umfasst, um Inkonsistenzen zwischen der Anfangsposition und der maximalen Erfassungsreichweite zu detektieren.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass das Prüfen effizient durchgeführt werden kann, sodass Inkonsistenzen zwischen der Anfangsposition und der maximalen Erfassungsreichweite effizient detektiert werden können. Diese Ausführungsform basiert auf dem Gedanken, dass unter optimalen Voraussetzungen ein Objekt erstmalig an der maximalen Erfassungsreichweite vom entsprechenden Infrastrukturumfeldsensor erfasst wird. Sofern eine erstmalige Erfassung des Objekts durch den entsprechenden Infrastrukturumfeldsensor erst innerhalb der maximalen Erfassungsreichweite stattfindet, so liegt eine Inkonsistenz vor, was zum Beispiel ein Hinweis darauf ist, dass verschlechterte Erfassungsbedingungen vorliegen, beispielsweise Nebel, Schnee, Regen und/oder einen verschmutzten Infrastrukturumfeldsensor.
  • Gemäß einer Ausführungsform ist vorgesehen, dass einer der Eingangsdatensätze Positionsdaten umfasst, welche eine Endposition eines sich innerhalb des Bereichs befindlichen Objekts repräsentieren zu einem Zeitpunkt einer letztmaligen Erfassung durch den entsprechenden Infrastrukturumfeldsensor, wobei das Prüfen ein Vergleichen der Endposition mit einer maximalen Erfassungsreichweite des entsprechenden Infrastrukturumfeldsensors umfasst, um Inkonsistenzen zwischen der Endposition und der maximalen Erfassungsreichweite zu detektieren.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass das Prüfen effizient durchgeführt werden kann, sodass Inkonsistenzen zwischen der Endposition und der maximalen Erfassungsreichweite effizient detektiert werden können. Diese Ausführungsform ist das Pendant zu vorstehend bezeichneten Ausführungsformen hinsichtlich der Anfangsposition, nur dass hier die Endposition der letztmaligen Erfassung des Objekts durch den entsprechenden Infrastrukturumfeldsensor betrachtet wird. Sollte die entsprechende Endposition innerhalb der maximalen Erfassungsreichweite liegen, so liegt eine Inkonsistenz vor. Unter optimalen Voraussetzungen sollte das Objekt vom entsprechenden Infrastrukturumfeldsensor stets an der maximalen Erfassungsreichweite erfasst werden können. Die Gründe für ein davon abweichendes Verhalten sind die gleichen, wie sie vorstehend im Zusammenhang mit der Ausführungsform betreffend die Anfangsposition benannt wurden.
  • Gemäß einer Ausführungsform ist das Verfahren nach dem ersten Aspekt ein computerimplementiertes Verfahren.
  • Technische Funktionalitäten des Verfahrens ergeben sich analog aus entsprechenden technischen Funktionalitäten der Vorrichtung und umgekehrt. Das heißt also, dass sich Vorrichtungsmerkmale aus entsprechenden Verfahrensmerkmalen und umgekehrt ergeben.
  • Eine Fahrt eines Kraftfahrzeugs im Sinne der Beschreibung ist zum Beispiel eine zumindest teilautomatisiert geführte Fahrt, insbesondere eine infrastrukturgestützte, zumindest teilautomatisiert geführte Fahrt.
  • Eine zumindest teilautomatisierte Fahraufgabe umfasst zum Beispiel eine zumindest teilautomatisiert geführte Fahrt. Das Fahrzeug wird also zum Beispiel zumindest teilautomatisiert geführt. Eine zumindest teilautomatisierte Fahraufgabe umfasst also ein zumindest teilautomatisiertes Führen des Kraftfahrzeugs oder der Kraftfahrzeuge.
  • Die Formulierung „zumindest teilautomatisiertes Führen“ umfasst einen oder mehrere der folgenden Fälle: assistiertes Führen, teilautomatisiertes Führen, hochautomatisiertes Führen, vollautomatisiertes Führen. Die Formulierung „zumindest teilautomatisiert“ umfasst also einen oder mehrere der folgenden Formulierungen: assistiert, teilautomatisiert, hochautomatisiert, vollautomatisiert.
  • Assistiertes Führen bedeutet, dass ein Fahrer des Kraftfahrzeugs dauerhaft entweder die Quer- oder die Längsführung des Kraftfahrzeugs ausführt. Die jeweils andere Fahraufgabe (also ein Steuern der Längs- oder der Querführung des Kraftfahrzeugs) wird automatisch durchgeführt. Das heißt also, dass bei einem assistierten Führen des Kraftfahrzeugs entweder die Quer- oder die Längsführung automatisch gesteuert wird.
  • Teilautomatisiertes Führen bedeutet, dass in einer spezifischen Situation (zum Beispiel: Fahren auf einer Autobahn, Fahren innerhalb eines Parkplatzes, Überholen eines Objekts, Fahren innerhalb einer Fahrspur, die durch Fahrspurmarkierungen festgelegt ist) und/oder für einen gewissen Zeitraum eine Längs- und eine Querführung des Kraftfahrzeugs automatisch gesteuert werden. Ein Fahrer des Kraftfahrzeugs muss selbst nicht manuell die Längs -und Querführung des Kraftfahrzeugs steuern. Der Fahrer muss aber das automatische Steuern der Längs- und Querführung dauerhaft überwachen, um bei Bedarf manuell eingreifen zu können. Der Fahrer muss jederzeit zur vollständigen Übernahme der Kraftfahrzeugführung bereit sein.
  • Hochautomatisiertes Führen bedeutet, dass für einen gewissen Zeitraum in einer spezifischen Situation (zum Beispiel: Fahren auf einer Autobahn, Fahren innerhalb eines Parkplatzes, Überholen eines Objekts, Fahren innerhalb einer Fahrspur, die durch Fahrspurmarkierungen festgelegt ist) eine Längs- und eine Querführung des Kraftfahrzeugs automatisch gesteuert werden. Ein Fahrer des Kraftfahrzeugs muss selbst nicht manuell die Längs -und Querführung des Kraftfahrzeugs steuern. Der Fahrer muss das automatische Steuern der Längs- und Querführung nicht dauerhaft überwachen, um bei Bedarf manuell eingreifen zu können. Bei Bedarf wird automatisch eine Übernahmeaufforderung an den Fahrer zur Übernahme des Steuerns der Längs- und Querführung ausgegeben, insbesondere mit einer ausreichenden Zeitreserve ausgegeben. Der Fahrer muss also potenziell in der Lage sein, das Steuern der Längs- und Querführung zu übernehmen. Grenzen des automatischen Steuerns der Quer- und Längsführung werden automatisch erkannt. Bei einem hochautomatisierten Führen ist es nicht möglich, in jeder Ausgangssituation automatisch einen risikominimalen Zustand herbeizuführen.
  • Vollautomatisiertes Führen bedeutet, dass in einer spezifischen Situation (zum Beispiel: Fahren auf einer Autobahn, Fahren innerhalb eines Parkplatzes, Überholen eines Objekts, Fahren innerhalb einer Fahrspur, die durch Fahrspurmarkierungen festgelegt ist) eine Längs- und eine Querführung des Kraftfahrzeugs automatisch gesteuert werden. Ein Fahrer des Kraftfahrzeugs muss selbst nicht manuell die Längs -und Querführung des Kraftfahrzeugs steuern. Der Fahrer muss das automatische Steuern der Längs- und Querführung nicht überwachen, um bei Bedarf manuell eingreifen zu können. Vor einem Beenden des automatischen Steuerns der Quer- und Längsführung erfolgt automatisch eine Aufforderung an den Fahrer zur Übernahme der Fahraufgabe (Steuern der Quer- und Längsführung des Kraftfahrzeugs), insbesondere mit einer ausreichenden Zeitreserve. Sofern der Fahrer nicht die Fahraufgabe übernimmt, wird automatisch in einen risikominimalen Zustand zurückgeführt. Grenzen des automatischen Steuerns der Quer- und Längsführung werden automatisch erkannt. In allen Situationen ist es möglich, automatisch in einen risikominimalen Systemzustand zurückzuführen.
  • In einer Ausführungsform ist vorgesehen, dass das Verfahren nach dem ersten Aspekt mittels der Vorrichtung nach dem zweiten Aspekt durchgeführt wird.
  • Die Begriffe „assistieren“ und „unterstützen“ können synonym verwendet werden.
  • Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigen:
    • 1 ein Ablaufdiagramm eines Verfahrens nach dem ersten Aspekt,
    • 2 eine Vorrichtung nach dem zweiten Aspekt,
    • 3 ein maschinenlesbares Speichermedium nach dem vierten Aspekt,
    • 4 ein Blockdiagramm und
    • 5 - 8 jeweils ein Kraftfahrzeug, welches auf einer Straße fährt.
  • Im Folgenden können für gleiche Merkmale gleiche Bezugszeichen verwendet werden.
  • 1 zeigt ein Ablaufdiagramm eines Verfahrens zum Überwachen einer Datenfusionsfunktion eines Infrastruktursystems zum infrastrukturgestützten Assistieren von Kraftfahrzeugen bei einer zumindest teilautomatisierten Fahraufgabe innerhalb einer Infrastruktur, wobei das Infrastruktursystem mehrere Infrastrukturumfeldsensoren zum Erfassen eines Bereichs der Infrastruktur aufweist, umfassend die folgenden Schritte:
    • Empfangen 101 von mehreren für die Datenfusionsfunktion bestimmte Eingangsdatensätze, welche jeweils auf der jeweiligen Erfassung des Bereichs basierende Umfelddaten umfassen, welche den erfassten Bereich repräsentieren,
    • Empfangen 103 von von der Datenfusionsfunktion ausgegebenen auf einer Datenfusion der Eingangsdatensätze basierende Ausgangsdaten,
    • Prüfen 105 der Eingangsdatensätze und/oder der Ausgangsdaten auf Konsistenz,
    • Ausgeben 107 eines Prüfergebnisses des Prüfens.
  • Gemäß einer Ausführungsform wird basierend auf dem Prüfergebnis entschieden, ob das Infrastruktursystem abgeschaltet werden soll oder ob eine durch das Infrastruktursystem bereitgestellte Assistenzfunktion eingeschränkt werden soll.
  • In einer Ausführungsform des Verfahrens umfasst dieses einen Schritt des Erfassens des Bereichs durch die mehreren Infrastrukturumfeldsensoren, um der Erfassung entsprechenden Umfeldsensordaten auszugeben. Die ausgegebenen Umfeldsensordaten werden zum Beispiel weiterverarbeitet, um jeweils auf der jeweiligen Erfassung des Bereichs basierende Umfelddaten zu ermitteln, welche den erfassten Bereich repräsentieren.
  • In einer Ausführungsform des Verfahrens umfasst dieses ein Fusionieren der Eingangsdatensätze, um ein oder mehrere Fusionsergebnisse zu ermitteln, wobei die Ausgangsdaten das oder die ermittelten Fusionsergebnisse umfassen. Das heißt also insbesondere, dass das Verfahren zum Beispiel ein Ausführen der Datenfusionsfunktion umfasst.
  • 2 zeigt eine Vorrichtung 201, die eingerichtet ist, alle Schritte des Verfahrens nach dem ersten Aspekt auszuführen.
  • 3 zeigt ein maschinenlesbares Speichermedium 301, auf dem ein Computerprogramm 303 gespeichert ist. Das Computerprogramm 303 umfasst Befehle, die bei Ausführung des Computerprogramms 303 durch einen Computer diesen veranlassen, ein Verfahren gemäß dem ersten Aspekt auszuführen.
  • 4 zeigt ein Blockdiagramm 401, welches das hier beschriebene Konzept beispielhaft erläutern soll.
  • Gemäß dem Blockdiagramm 401 sind mehrere Videokameras 403 umfassend jeweils einen Videosensor vorgesehen. Weiter sind mehrere Radarsensoren 405 vorgesehen. Weiter sind mehrere Lidarsensoren 407 vorgesehen. Diese Infrastrukturumfeldsensoren erfassen einen oder mehrere Bereiche einer Infrastruktur, durch welche Kraftfahrzeuge zumindest teilautomatisiert fahren können. Hierbei werden die Kraftfahrzeuge von einem Infrastruktursystem zum infrastrukturgestützten Assistieren von Kraftfahrzeugen bei einer zumindest teilautomatisierten Fahraufgabe unterstützt. Die Infrastrukturumfeldsensoren 403, 405, 407 sind von dem Infrastruktursystem umfasst.
  • Gemäß einem Funktionsblock 409 wird eine Objekterkennung basierend auf den Videobildern der Videokameras 403 durchgeführt. Im Rahmen dieser Objekterkennung findet auch eine Spurdetektion statt.
  • Gemäß einem Funktionsblock 411 wird eine Objekterkennung basierend auf den Radarbildern der Radarsensoren 405 durchgeführt.
  • Gemäß einem Funktionsblock 413 wird eine Objekterkennung basierend auf den Lidarbildern der Lidarsensoren 407 durchgeführt.
  • Ein Ergebnis der Objekterkennung gemäß dem Funktionsblock 409 wird einem Funktionsblock 415 zugeführt, gemäß welchem das Ergebnis geprüft wird. Dieses Prüfen umfasst zum Beispiel eine Plausibilitätsprüfung. Für das Prüfen wird eine digitale Karte 416 der Infrastruktur verwendet. Sollte zum Beispiel die digitale Karte 416 an einer Stelle ein Objekt zeigen, welches nicht in dem Ergebnis gemäß dem Funktionsblock 409 vorhanden ist, so wird zum Beispiel davon ausgegangen, dass ein Fehler aufgetreten ist, beispielsweise im Rahmen der Objekterkennung und/oder bereits in einer oder mehreren der Videokameras 403.
  • Analog wird ein Ergebnis der Objekterkennung gemäß dem Funktionsblock 411 einem Funktionsblock 417 zugeführt, gemäß welchem analog zum Funktionsblock 415 das Ergebnis der Objekterkennung gemäß dem Funktionsblock 411 geprüft wird. Die entsprechenden Ausführungen gelten analog.
  • Analog wird ein Ergebnis der Objekterkennung gemäß dem Funktionsblock 413 einem Funktionsblock 419 zugeführt, gemäß welchem analog zu den Funktionsblöcken 415, 417 das Ergebnis der Objekterkennung gemäß dem Funktionsblock 413 geprüft wird. Die entsprechenden Ausführungen gelten analog.
  • Die Ergebnisse dieser Prüfungen werden einem Zustandsautomaten 421 übermittelt. Basierend auf diesen Ergebnissen kann der Zustandsautomat 421 beispielsweise einen Zustand der Funktionsfähigkeit des Infrastruktursystems im Hinblick auf ein infrastrukturgestütztes Assistieren von Kraftfahrzeugen ermitteln. Ein Zustand kann beispielsweise sein, dass das Infrastruktursystem vollumfänglich korrekt funktioniert. Ein Zustand kann beispielsweise sein, dass das Infrastruktursystem nur eingeschränkt funktioniert. Ein Zustand kann beispielsweise sein, dass das Infrastruktursystem vollständig fehlerhaft funktioniert.
  • Das geprüfte Ergebnis gemäß dem Funktionsblock 415 wird einem Funktionsblock 423 zugeführt. Das heißt also, dass dem Funktionsblock 423 ein geprüftes Ergebnis der Objekt- und Spurerkennung gemäß dem Funktionsblock 409 zugeführt wird. Gemäß dem Funktionsblock 423 werden detektierte Objekte über die Zeit verfolgt, also getrackt.
  • Analog wird das durch den Funktionsblock 417 geprüfte Ergebnis der Objekterkennung gemäß dem Funktionsblock 411 einem Funktionsblock 425 zugeführt. Der Funktionsblock 425 verfolgt über die Zeit die detektierten Objekte analog zum Funktionsblock 423.
  • Analog wird das durch den Funktionsblock 419 geprüfte Ergebnis der Objektdetektion oder Objekterkennung gemäß dem Funktionsblock 413 an einen Funktionsblock 427 übergeben. Analog zu den Funktionsblöcken 423, 425 wird gemäß dem Funktionsblock 427 ein detektiertes Objekt oder werden mehrere detektierte Objekte über die Zeit verfolgt, also getrackt.
  • Es werden also zum Beispiel jeweilige Trajektorien der detektierten Objekte in den Funktionsblöcken 423, 425, 427 ermittelt. Diese Trajektorien werden an eine Datenfusionsfunktion 429 übermittelt. Die Datenfusionsfunktion umfasst einen Funktionsblock 431, gemäß welchem die ermittelten Trajektorien, welche jeweils basierend auf Videobildern, Radarbildern und Lidarbildern ermittelt wurden, auf Konsistenz geprüft. Dieses Prüfen umfasst zum Beispiel eine Plausibilitätsprüfung der Trajektorien. Es wird hier zur weiteren Veranschaulichung auf die 5 bis 8 und die entsprechenden nachfolgenden Erläuterungen verwiesen.
  • Ein Ergebnis dieses Prüfens wird dem Zustandsautomaten 421 zur Verfügung gestellt, welcher basierend auf dem Ergebnis entscheiden kann, welchen Zustand das Infrastruktursystem aufweist.
  • Die entsprechend geprüften Trajektorien werden einem Funktionsblock 433 zur Verfügung gestellt, gemäß welchem die einzelnen Trajektoriendaten fusioniert werden.
  • Die Videobilder, Radarbilder und Lidarbilder werden einem Funktionsblock 435 zur Verfügung gestellt. Aus diesen Eingangsdaten erzeugt der Funktionsblock 435 für jeden Sensor die Information über die für den Sensor sichtbaren Bereiche. Mit dieser Information sind dem System Verdeckungen durch statische und dynamische Hindernisse für jeden Sensor bekannt. Die erzeugten Informationen sind die Ausgabe des Funktionsblocks 435.
  • Die Ausgabe des Funktionsblocks 435 wird zum einen den Funktionsblöcken 423, 425, 427 zur Verfügung gestellt und zum anderen auch dem Funktionsblock 433 zwecks Durchführung der Fusion der Trajektorien.
  • Der Funktionsblock 433 gibt als Ausgangsdaten im Sinne der Beschreibung ein fusioniertes Objektdetektionsergebnis aus, welches in einem Funktionsblock 437 auf Konsistenz geprüft wird.
  • Die Videobilder werden weiter einem Funktionsblock 439 zur Verfügung gestellt, gemäß welchem eine Freiraumerkennung durchgeführt wird. Die Radarbilder werden weiter einem Funktionsblock 441 zur Verfügung gestellt, gemäß welchem eine Freiraumerkennung basierend auf den Radarbildern durchgeführt wird. Die Lidarbilder werden weiter einem Funktionsblock 443 zur Verfügung gestellt, gemäß welchem eine Freiraumerkennung basierend auf den Lidarbildern durchgeführt wird.
  • Entsprechende Freiraumerkennungsergebnisse der einzelnen Funktionsblöcke 439, 441, 443 werden einem Funktionsblock 445 der Datenfusionsfunktion 429 zur Verfügung gestellt, gemäß welchem die Freiraumerkennungsergebnisse zu einem fusionierten Freiraumerkennungsergebnis fusioniert werden. Der Funktionsblock 445 gibt als Ausgangsdaten im Sinne der Beschreibung das fusionierte Freiraumerkennungsergebnis an den Funktionsblock 437 aus, gemäß welchem das fusionierte Freiraumerkennungsergebnis geprüft wird.
  • Die Prüfschritte gemäß dem Funktionsblock 437 sind beispielsweise die vor- und/oder nachstehend beschriebenen Prüfschritte.
  • Ein Ergebnis dieses Prüfens, also ein Prüfergebnis, wird an den Zustandsautomaten 421 ausgegeben, welcher basierend darauf entscheiden kann, welchen Zustand das Infrastruktursystem hat.
  • Entsprechend kann dann gemäß einem Funktionsblock 447 entschieden werden, was genau zum Beispiel an Kraftfahrzeuge, welche zumindest teilautomatisiert durch den oder die Bereiche der Infrastruktur fahren, gesendet werden soll.
  • Sollte zum Beispiel festgestellt werden, dass gemäß dem Funktionsblock 437 eine Inkonsistenz zwischen Objektdetektionsergebnis und Freiraumerkennungsergebnis vorliegt, dann wird der entsprechende Bereich im Freiraumerkennungsergebnis als nicht frei, also als belegt, markiert und an Kraftfahrzeuge gesendet. In keinem Fall werden inkonsistente oder nicht sichtbare Bereiche als Frei gemeldet.
  • In einer nicht gezeigten Ausführungsform ist vorgesehen, dass analog zum Funktionsblock 431 ein entsprechender Funktionsblock vor dem Funktionsblock 445 vorgesehen ist, welcher analog zum Funktionsblock 431 die Freiraumerkennungsergebnisse prüft, beispielsweise auf Konsistenz und/oder Plausibilität prüft. Ein entsprechendes Ergebnis kann ebenfalls dem Zustandsautomaten 421 zur Verfügung gestellt werden.
  • 5 zeigt ein zumindest teilautomatisiert geführtes Kraftfahrzeug 501, welches auf einer Straße 503 fährt. Es sind vier Infrastrukturumfeldsensoren vorgesehen: ein erster Infrastrukturumfeldsensor 505, ein zweiter Infrastrukturumfeldsensor 507. ein dritter Infrastrukturumfeldsensor 509 und ein vierter Infrastrukturumfeldsensor 511. Der erste Infrastrukturumfeldsensor weist einen ersten Erfassungsbereich 513 auf. Der zweite Infrastrukturumfeldsensor 507 weist einen zweiten Erfassungsbereich 515 auf. Der dritte Infrastrukturumfeldsensor 509 weist einen dritten Erfassungsbereich 517 auf. Der vierte Infrastrukturumfeldsensor 511 weist einen vierten Erfassungsbereich 519 auf.
  • Die vier Erfassungsbereiche 513, 515, 517, 519 sind jeweils mittels unterschiedlich gestrichelten Linien dargestellt.
  • Der erste Infrastrukturumfeldsensor 505 und der dritte Infrastrukturumfeldsensor 509 erfassen („schauen“) entgegengesetzt der Fahrtrichtung des Kraftfahrzeugs 501, welche bezogen auf die Papierebene von links nach rechts verläuft.
  • Der zweite Infrastrukturumfeldsensor 507 und der vierte Infrastrukturumfeldsensor 511 erfassen („schauen“) in Fahrtrichtung des Kraftfahrzeugs 501.
  • Der zweite Infrastrukturumfeldsensor 507 und der dritte Infrastrukturumfeldsensor 509 erfassen beide zum in 5 gezeigten Zeitpunkt der Fahrt des Kraftfahrzeugs 501 dieses. Bei einer Fahrt des Kraftfahrzeugs 501 wird es abhängig von der Position von entweder einem oder in einem Überlappungsbereich der Erfassungsbereiche von zwei Infrastrukturumfeldsensoren. So wird über die Zeit basierend auf den jeweiligen Erfassungen eine Trajektorie des Kraftfahrzeugs 501 ermittelt. Wenn dies über die Zeit für eine Vielzahl von Kraftfahrzeugen durchgeführt wird, was gemäß einer Ausführungsform vorgesehen ist, so kann zum Beispiel basierend auf den so ermittelten Trajektorien ein Heatmap 523 ermittelt werden. Vorliegend wurde der Heatmap 523 für vollständig kalibrierte und funktionsfähige Infrastrukturumfeldsensoren ermittelt.
  • Wie der Heatmap 523 gemäß 5 deutlich zeigt, verlaufen die ermittelten Trajektorien innerhalb von Begrenzungsmarkierungen 525, 527 der Straße 503.
  • Sofern also die Kalibrierung erhalten bleibt und die Infrastrukturumfeldsensoren fehlerfrei funktionieren, sollte auch in Zukunft ein entsprechend ermittelter Heatmap darstellen, dass die entsprechenden Trajektorien innerhalb der Begrenzungsmarkierungen verlaufen.
  • Bei einer Dekalibrierung und/oder einem Fehler in den Infrastrukturumfeldsensoren wird ein abweichender Heatmap erwartet. Dies ist beispielhaft in 6 dargestellt. Dort ist ein entsprechender Heatmap mit dem Bezugszeichen 601 versehen. Wie die Darstellung gemäß 6 zeigt, verläuft der Heatmap 601 nicht mehr komplett innerhalb der Fahrbahnbegrenzungen 525, 527, sondern teilweise außerhalb.
  • Wann also zur Laufzeit des Infrastruktursystems, also während des Betriebs des Infrastruktursystems, ein entsprechender Heatmap ermittelt wird, so ist dies ein Zeichen dafür, dass zum Beispiel entsprechende Infrastrukturumfeldsensoren dekalibriert sind und/oder ein Fehler aufgetreten ist.
  • Weiter kann beispielsweise vorgesehen sein, für das Kraftfahrzeug 501 eine Anfangsposition einer erstmaligen Erfassung durch beispielsweise den ersten Infrastrukturumfeldsensor 505 zu ermitteln. Wenn dies für mehrere Kraftfahrzeuge über die Zeit durchgeführt wird, kann ebenfalls ein Heatmap ermittelt werden, was beispielhaft in 7 gezeigt ist. Dort ist der Heatmap mit dem Bezugszeichen 701 gekennzeichnet. Bei optimalen Bedingungen sollte dieser Heatmap 701 sich an der maximalen Erfassungsreichweite entsprechend dem ersten Erfassungsbereich 513 orientieren. Dies ist in 7 der Fall.
  • Sofern aber die Umweltbedingungen schlechter werden, beispielsweise durch Regen oder Schnee, so kann der erste Infrastrukturumfeldsensor 505 nicht mehr Kraftfahrzeuge an seiner maximalen Erfassungsreichweite erfassen. Vielmehr sinkt eine aktuelle Erfassungsreichweite, sodass eine Anfangsposition einer erstmaligen Erfassung sich innerhalb des ersten Erfassungsbereichs 513 befindet und nicht mehr der maximalen Erfassungsreichweite entspricht. Wenn dies für mehrere Kraftfahrzeuge über die Zeit ermittelt wird, so kann wiederum ein entsprechender Heatmap ermittelt werden, was in 8 durch einen Heatmap mit dem Bezugszeichen 801 dargestellt ist.
  • Wie 8 klar zeigt, befinden sich die entsprechenden Anfangspositionen gemäß dem Heatmap 801 deutlich innerhalb des ersten Erfassungsbereichs 513.
  • Zusammenfassend basiert das hier beschriebene Konzept insbesondere darauf, eine Datenfusionsfunktion mittels einer Datenfusionsüberwachungsfunktion zu überwachen und zum Beispiel ein Ergebnis der Überwachung einem Zustandsautomaten zu übermitteln. Die Datenfusionsüberwachungsfunktion hilft bei der Identifizierung von Inkonsistenzen in verschiedenen Phasen der Wahrnehmungspipeline. Auf der Grundlage der Überwachungsergebnisse entscheidet der Zustandsautomat zum Beispiel, ob Degradationsfunktionen aktiviert werden müssen. Der aktuelle Status der Degradation wird zum Beispiel am Systemausgang kommuniziert.
  • Die Datenfusionsüberwachungsfunktion kann zum Beispiel eine oder mehrere der folgenden drei Möglichkeiten umfassen:
    • Möglichkeit 1: Basierend auf dem Vergleich von fusionierten Freirauminformationen (fusioniertes Freiraumerkennungsergebnis) mit globalen fusionierten Objekten (fusioniertes Objektdetektionsergebnis).
  • Freirauminformationen sind komplementär und schließen sich gegenseitig mit globalen fusionierten Objekten aus. Dies ist die Grundlage, auf der Inkonsistenzen zwischen zwei Informationsquellen identifiziert werden können. Beispiel: In einem bestimmten Gebiet meldet die globale Fusion ein Objekt mit 80 % Existenzwahrscheinlichkeit. Wenn die Freiflächenfusionsfunktion in demselben Gebiet mit hoher Sicherheit eine Freifläche meldet, handelt es sich um eine eindeutige Inkonsistenz, die erkannt werden kann.
  • Bei Infrastrukturwahrnehmungssystemen können dynamische Verdeckungen aufgrund unterschiedlicher Montagepunkte und Blickwinkel der Infrastrukturumfeldsensoren auftreten. Solche Verdeckungen werden zum Beispiel in dieser Überwachungsfunktion berücksichtigt, indem die Informationen über das für jeden Sensor berechnete dynamische Sichtbarkeitsraster verwendet werden.
  • Darüber hinaus können die ermittelten Unstimmigkeiten zum Beispiel zur Anpassung der Freirauminformationen verwendet werden, um Fehlinterpretationen innerhalb des zumindest teilautomatisierten Kraftfahrzeugs zu vermeiden. Im obigen Beispiel, in dem ein Objekt mit hoher Wahrscheinlichkeit gemeldet wurde, kann die Unsicherheit des Freiraums in diesem Bereich zum Beispiel erhöht werden, um die Gesamtkonsistenz des vom System bereitgestellten Umgebungsmodells sicherzustellen.
  • Möglichkeit 2: Basierend auf dem Vergleich zwischen mehreren Infrastrukturumfeldsensoren.
  • Unter Anwendung des 2-von-3-Prinzips kann die Wahrscheinlichkeit des Vorhandenseins jedes einzelnen Sensorobjekts zusammen mit der Wahrscheinlichkeit des Vorhandenseins des globalen Fusionsobjekts verwendet werden, um falsch-positive und falsch-negative Fälle zu identifizieren.
  • Möglichkeit 3. Basierend auf den Trajektorien der erkannten Sensorobjekte.
  • Ausgehend von der Tatsache, dass das Wahrnehmungssystem (Anordnung der mehreren Infrastrukturumfeldsensoren) statisch ist, kann von bestimmten Trajektorien der Objekte ausgegangen werden, die das Sichtfeld des Wahrnehmungssystems durchlaufen. Eine Ansammlung von unwahrscheinlichen Start- und Endpunkten oder Pfaden der Trajektorien kann erkannt werden. Wenn die Objektdaten in irgendeinem Stadium der Wahrnehmungspipeline unwahrscheinliche Trajektorien liefern, wird der Teil der Wahrnehmungspipeline, der diese unwahrscheinlichen Objektdaten liefert, an den Zustandsautomaten gemeldet.
  • Dies bietet somit den Vorteil einer Identifizierung von Inkonsistenzen, um eine geeignete Systemreaktion zu bestimmen. Zum Beispiel: wenn eine Systemdegradation erforderlich ist.
  • Dadurch kann eine Verbesserung der Sicherheit und Leistung des Systems bewirkt werden.
  • Die Wahrnehmungspipeline erhält ihre Eingangsdaten von den Infrastrukturumfeldsensoren zum Beispiel mit unterschiedlichen Messprinzipien, um das Risiko von Fehlern mit gemeinsamer Ursache zu minimieren. Von hier aus werden zum Beispiel zwei parallele Verarbeitungspfade ausgeführt:
    1. 1. Objektbasierte Wahrnehmung
      1. a) Basierend auf den empfangenen Sensordaten erzeugen sensorspezifische Objekterkennungsalgorithmen und sensorspezifische Verfolgungsalgorithmen für jeden Infrastrukturumfeldsensor Objektdaten (lokale Spuren) von verfolgten Objekten. Bereits in diesem Stadium sind Überwachungsfunktionen möglich, um die lokalen Spuren zu validieren.
      2. b) Der Funktionsblock 431 überprüft den Inhalt der lokalen Spuren z.B. anhand ihrer Trajektorien. (Möglichkeit 3, oben beschrieben).
      3. c) Die Objektfusion gemäß dem Funktionsblock 433 kombiniert zum Beispiel: lokale Spuren, Wissen darüber, wo jeder Infrastrukturumfeldsensor in der Lage ist, Objekte zu erkennen (aus dem dynamischen Sichtbarkeitsraster), zu fusionierten Objektspuren (globale Spuren).
      4. d) Der Funktionsblock 437 verwendet zum Beispiel die globalen Spuren (aus dem Funktionsblock 433), die Informationen über die beitragenden Infrastrukturumfeldsensoren (aus dem Funktionsblock 433), das Wissen darüber, wo jeder Infrastrukturumfeldsensor in der Lage ist, Objekte zu erkennen (aus dem dynamischen Sichtbarkeitsraster), um falsch-positive und falsch-negative Fälle zu erkennen.
    2. 2. Freiraumbasierte Wahrnehmung
      1. a) Die sensorspezifischen Freiraumdetektoren generieren Freirauminformationen (lokaler Freiraum) auf der Grundlage der empfangenen Umfeldsensordaten.
      2. b) Die Freiraumfusion kombiniert die lokalen Freiräume zu einem globalen Freiraum.
  • Zusätzlich zur Erkennung von Falsch-Positiv und Falsch-Negativ vergleicht der Funktionsblock 437 zum Beispiel auch die globalen Spuren und den globalen Freiraum, um Inkonsistenzen zwischen ihnen zu finden (Möglichkeiten 1 und 2 oben beschrieben).
  • Jeder Überwachungsblock entlang der Wahrnehmungspipeline meldet ein entsprechendes Überwachungsergebnis an den Zustandsautomaten 421, welcher zum Beispiel eine Ausgabe des Infrastruktursystems steuert, indem dieser über eine geeignete Systemreaktion entscheidet.
  • Nachfolgend wird die Überwachungsfunktion, die auf den Trajektorien der Sensorobjekte basiert, näher erläutert.
  • Dekalibrierte Infrastrukturumfeldsensoren können zu falschen Sensor-Objekt-Trajektorien führen (, insbesondere in Bereichen, die nur von einem einzigen Infrastrukturumfeldsensor abgedeckt werden). Diese Dekalibrierung eines einzelnen Sensors soll überwacht werden.
  • Es wird erwartet, dass die Trajektorien der Kraftfahrzeuge im Wesentlichen den Grenzen der Fahrspuren folgen. Wenn die Fahrspuren auf der Karte und die durchschnittlichen Trajektorien nicht übereinstimmen, könnte ein dekalibrierter Sensor die Ursache dafür sein.
  • Außerdem ist die Leistung der Infrastrukturumfeldsensoren nicht immer gleich. Umwelteinflüsse (schlechtes Wetter, Blendung, schwaches Licht) oder eine schlechte Kalibrierung können die Erfassungsleistung der Infrastrukturumfeldsensoren beeinflussen. Diese Leistungsverschlechterung wird zum Beispiel überwacht.
  • Unter perfekten Bedingungen wird erwartet, dass die Trajektorien der Kraftfahrzeuge bei ähnlichen Entfernungen/Positionen erstellt werden, d. h., wenn sie in das Sichtfeld des Sensors eintreten. Das Gleiche gilt zum Beispiel für die Beendigung der Trajektorien von Kraftfahrzeugen, wenn sie das Sichtfeld des Infrastrukturumfeldsensors verlassen. Aufgrund von Umwelteinflüssen (z. B. Wetter oder Tageszeit) und/oder Dekalibrierung kann sich der Bereich der Trajektorienerstellung und/oder -beendigung im Vergleich zum normalen Verhalten ändern.
  • Um die vergangenen Bereiche der Objekterstellung und -beendigung zu speichern, können Heatmaps verwendet werden. Der Heatmap 701 zeigt das nominale Verhalten bei der Objekterstellung. Die Objekte werden hauptsächlich an der Grenze des Sichtfeldes erzeugt. Gemäß dem Heatmap 801 wird die Objekterkennung durch die Umgebung stark beeinflusst und somit verringert sich auch der Objekterkennungsbereich. Die Objektspuren werden später an einer anderen Position als im Sollverhalten erzeugt, was durch die Verschiebung gemäß dem Heatmap 601 angezeigt wird. Ein analoger Heatmap (Wärmekarte) kann zum Beispiel für die Beendigung der Spur erstellt und überwacht werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102016224074 A1 [0002]
    • DE 102015226116 A1 [0003]

Claims (11)

  1. Verfahren zum Überwachen einer Datenfusionsfunktion (429) eines Infrastruktursystems zum infrastrukturgestützten Assistieren von Kraftfahrzeugen bei einer zumindest teilautomatisierten Fahraufgabe innerhalb einer Infrastruktur, wobei das Infrastruktursystem mehrere Infrastrukturumfeldsensoren zum Erfassen eines Bereichs der Infrastruktur aufweist, umfassend die folgenden Schritte: Empfangen (101) von mehreren für die Datenfusionsfunktion (429) bestimmte Eingangsdatensätze, welche jeweils auf der jeweiligen Erfassung des Bereichs basierende Umfelddaten umfassen, welche den erfassten Bereich repräsentieren, Empfangen (103) von von der Datenfusionsfunktion (429) ausgegebenen auf einer Datenfusion der Eingangsdatensätze basierende Ausgangsdaten, Prüfen (105) der Eingangsdatensätze und/oder der Ausgangsdaten auf Konsistenz, Ausgeben (107) eines Prüfergebnisses des Prüfens.
  2. Verfahren nach Anspruch 1, wobei einige der Eingangsdatensätze jeweils ein Freiraumerkennungsergebnis umfassen, welches ein Ergebnis einer Freiraumerkennung des Bereichs angibt, wobei die Ausgangsdaten ein fusioniertes Freiraumerkennungsergebnis der jeweiligen Freiraumerkennungsergebnisse umfassen.
  3. Verfahren nach Anspruch 1 oder 2, wobei einige der Eingangsdatensätze jeweils ein Objektdetektionsergebnis umfassen, welches ein Ergebnis einer Objektdetektion des Bereichs angibt, wobei die Ausgangsdaten ein fusioniertes Objektdetektionsergebnis der jeweiligen Objektdetektionsergebnisse umfassen.
  4. Verfahren nach den Ansprüchen 2 und 3, wobei das Prüfen ein Vergleichen des fusionierten Freiraumerkennungsergebnisses mit dem fusionierten Objektdetektionsergebnis umfasst, um Inkonsistenzen zu detektieren.
  5. Verfahren nach einem der vorherigen Ansprüche soweit rückbezogen auf Anspruch 3, wobei ein Objektdetektionsmehrheitsergebnis ermittelt wird, welches dem Objektdetektionsergebnis der Mehrheit von gleichen Objektdetektionsergebnissen entspricht, wobei das Prüfen ein Vergleichen des fusionierten Objektdetektionsergebnisses mit dem Objektdetektionsmehrheitsergebnis umfasst, um Inkonsistenzen zu detektieren.
  6. Verfahren nach einem der vorherigen Ansprüche, wobei einer der Eingangsdatensätze Trajektoriendaten umfasst, welche eine Trajektorie (513, 601) eines sich innerhalb des Bereichs befindlichen Objekts repräsentieren, wobei das Prüfen ein Prüfen der Trajektorie (513, 601) auf Plausibilität umfasst, um Inkonsistenzen zu detektieren.
  7. Verfahren nach einem der vorherigen Ansprüche, wobei einer der Eingangsdatensätze Positionsdaten umfasst, welche eine Anfangsposition (701, 801) eines sich innerhalb des Bereichs befindlichen Objekts repräsentieren zu einem Zeitpunkt einer erstmaligen Erfassung durch den entsprechenden Infrastrukturumfeldsensor, wobei das Prüfen ein Vergleichen der Anfangsposition (701, 801) mit einer maximalen Erfassungsreichweite des entsprechenden Infrastrukturumfeldsensors umfasst, um Inkonsistenzen zwischen der Anfangsposition (701, 801) und der maximalen Erfassungsreichweite zu detektieren.
  8. Verfahren nach einem der vorherigen Ansprüche, wobei einer der Eingangsdatensätze Positionsdaten umfasst, welche eine Endposition eines sich innerhalb des Bereichs befindlichen Objekts repräsentieren zu einem Zeitpunkt einer letztmaligen Erfassung durch den entsprechenden Infrastrukturumfeldsensor, wobei das Prüfen ein Vergleichen der Endposition mit einer maximalen Erfassungsreichweite des entsprechenden Infrastrukturumfeldsensors umfasst, um Inkonsistenzen zwischen der Endposition und der maximalen Erfassungsreichweite zu detektieren.
  9. Vorrichtung (201), die eingerichtet ist, alle Schritte des Verfahrens nach einem der vorherigen Ansprüche auszuführen.
  10. Computerprogramm (303), umfassend Befehle, die bei Ausführung des Computerprogramms (303) durch einen Computer diesen veranlassen, ein Verfahren gemäß einem der Ansprüche 1 bis 8 auszuführen.
  11. Maschinenlesbares Speichermedium (301), auf dem das Computerprogramm (303) nach Anspruch 10 gespeichert ist.
DE102021209670.0A 2021-09-02 2021-09-02 Konzept zum Überwachen einer Datenfusionsfunktion eines Infrastruktursystems Active DE102021209670B4 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102021209670.0A DE102021209670B4 (de) 2021-09-02 2021-09-02 Konzept zum Überwachen einer Datenfusionsfunktion eines Infrastruktursystems
US17/896,229 US20230061522A1 (en) 2021-09-02 2022-08-26 Concept for monitoring a data fusion function of an infrastructure system
CN202211073013.2A CN115762123A (zh) 2021-09-02 2022-09-02 用于监视基础设施系统的数据融合功能的方案、设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021209670.0A DE102021209670B4 (de) 2021-09-02 2021-09-02 Konzept zum Überwachen einer Datenfusionsfunktion eines Infrastruktursystems

Publications (2)

Publication Number Publication Date
DE102021209670A1 true DE102021209670A1 (de) 2023-03-02
DE102021209670B4 DE102021209670B4 (de) 2023-09-28

Family

ID=85175084

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021209670.0A Active DE102021209670B4 (de) 2021-09-02 2021-09-02 Konzept zum Überwachen einer Datenfusionsfunktion eines Infrastruktursystems

Country Status (3)

Country Link
US (1) US20230061522A1 (de)
CN (1) CN115762123A (de)
DE (1) DE102021209670B4 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015226116A1 (de) 2015-12-18 2017-06-22 Robert Bosch Gmbh Verfahren zum Bewerten einer durch zumindest einen Sensor eines Fahrzeugs erfassten Gefahrensituation, Verfahren zum Steuern einer Wiedergabe einer Gefahrenwarnung und Verfahren zum Wiedergeben einer Gefahrenwarnung
DE102016224074A1 (de) 2016-12-02 2018-06-07 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
DE102020203058A1 (de) 2020-03-10 2021-09-16 Siemens Mobility GmbH Automatisierte Zuverlässigkeitsprüfung einer infrastrukturseitigen Überwachungssensorik

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4073780A4 (de) * 2019-12-12 2024-04-17 INTEL Corporation Sicherheitstechnologien für vulnerable verkehrsteilnehmer auf der basis der verantwortungssensitiven sicherheit
CN115997244A (zh) * 2020-06-08 2023-04-21 英特尔公司 智能运输系统中的集体感知服务

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015226116A1 (de) 2015-12-18 2017-06-22 Robert Bosch Gmbh Verfahren zum Bewerten einer durch zumindest einen Sensor eines Fahrzeugs erfassten Gefahrensituation, Verfahren zum Steuern einer Wiedergabe einer Gefahrenwarnung und Verfahren zum Wiedergeben einer Gefahrenwarnung
DE102016224074A1 (de) 2016-12-02 2018-06-07 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
DE102020203058A1 (de) 2020-03-10 2021-09-16 Siemens Mobility GmbH Automatisierte Zuverlässigkeitsprüfung einer infrastrukturseitigen Überwachungssensorik

Also Published As

Publication number Publication date
DE102021209670B4 (de) 2023-09-28
US20230061522A1 (en) 2023-03-02
CN115762123A (zh) 2023-03-07

Similar Documents

Publication Publication Date Title
EP2149132B1 (de) Verfahren und vorrichtung zur erkennung von verkehrsrelevanten informationen
DE102019002487A1 (de) Verfahren zur Überprüfung eines Umfelderfassungssensors eines Fahrzeugs und Verfahren zum Betrieb eines Fahrzeugs
DE102016207463A1 (de) Verfahren und Vorrichtung zum Betreiben wenigstens eines Fahrzeugs in Bezug auf wenigstens ein passierbares Objekt in der Umgebung des wenigstens einen Fahrzeugs
DE102019008093A1 (de) Verfahren zum Fusionieren von Sensordaten einer Vielzahl von Erfassungseinrichtungen mittels eines spärlichen Belegungsgitters, sowie Fahrerassistenzsystem
DE102020117340A1 (de) Verfahren zur Umgebungserfassung mit wenigstens zwei unabhängigen bildgebenden Umgebungserfassungssensoren, Vorrichtung zur Durchführung des Verfahrens, Fahrzeug sowie entsprechend ausgelegtes Computerprogramm
DE102018115317A1 (de) Verfahren und Fahrunterstützungssystem zum Betreiben eines Fahrzeugs oder zum Unterstützen eines Fahrers des Fahrzeugs unter Verwendung von Fahrspurinformation
DE102016001955A1 (de) Servervorrichtung und Verfahren zum Ermitteln von Korrekturdaten für eine Konfiguration einer Fahrerassistenzeinrichtung eines Kraftfahrzeugs
DE102021201130A1 (de) Verfahren zum infrastrukturgestützten Assistieren mehrerer Kraftfahrzeuge
EP4007891B1 (de) Verfahren und vorrichtung zur lokalisierung eines fahrzeugs in einer umgebung
WO2023148339A1 (de) Fahrassistenzsystem und verfahren zum betreiben eines fahrassistenzsystems
DE102021209670B4 (de) Konzept zum Überwachen einer Datenfusionsfunktion eines Infrastruktursystems
DE102019211459A1 (de) Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren
DE102021212493A1 (de) Verfahren zum infrastrukturgestützten Assistieren eines Kraftfahrzeugs
DE102021212492A1 (de) Verfahren zum infrastrukturgestützten Assistieren eines Kraftfahrzeugs
DE102021201129A1 (de) Vorrichtung zum infrastrukturgestützten Assistieren eines Kraftfahrzeugs
DE102021005053A1 (de) Verfahren zum Fusionieren von einer Vielzahl von Sensordaten mittels einer elektronischen Recheneinrichtung, sowie ein Fahrerassistenzsystem
DE102021204239A1 (de) Verfahren zum Betrieb eines Assistenzsystems sowie Assistenzsystem
DE102020213661A1 (de) Verfahren zum Analysieren eines Umfelds eines Kraftfahrzeugs
DE102019127322A1 (de) Verfahren zur Erfassung von Objekten in einer Fahrzeugumgebung, Vorrichtung zur Datenverarbeitung, Computerprogrammprodukt und computerlesbarer Datenträger
DE102019128947A1 (de) Bestimmung eines Verkehrsampelzustands
DE102019215263A1 (de) Verfahren und Vorrichtung zum Führen eines Kraftfahrzeuges in einer Fahrspur
DE102019005825A1 (de) Verfahren zum Erzeugen von Trainingsdaten für eine kraftfahrzeugexterne elektronische Recheneinrichtung, sowie Fahrerassistenzsystem
DE102019119084A1 (de) Bestimmen eines Signalstatus einer Lichtsignalanlage
DE102020211484A1 (de) Verfahren zum Führen eines Kraftfahrzeugs
DE102020211485A1 (de) Verfahren zum Führen eines Kraftfahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final