DE102019102919A1 - Verfahren, Vorrichtung, Computerprogramm und Computerprogrammprodukt zum Betreiben eines Fahrzeuges - Google Patents

Verfahren, Vorrichtung, Computerprogramm und Computerprogrammprodukt zum Betreiben eines Fahrzeuges Download PDF

Info

Publication number
DE102019102919A1
DE102019102919A1 DE102019102919.8A DE102019102919A DE102019102919A1 DE 102019102919 A1 DE102019102919 A1 DE 102019102919A1 DE 102019102919 A DE102019102919 A DE 102019102919A DE 102019102919 A1 DE102019102919 A1 DE 102019102919A1
Authority
DE
Germany
Prior art keywords
trust
recognized
vehicle
sensor
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019102919.8A
Other languages
English (en)
Inventor
Daniel Meissner
Dominik Bauch
Michael Himmelsbach
Luca TRENTINAGLIA
Marco Baumgartl
Josef MEHRINGER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102019102919.8A priority Critical patent/DE102019102919A1/de
Priority to US17/421,395 priority patent/US11915489B2/en
Priority to PCT/EP2019/079446 priority patent/WO2020160801A1/de
Priority to CN201980087893.9A priority patent/CN113302108A/zh
Publication of DE102019102919A1 publication Critical patent/DE102019102919A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0098Details of control systems ensuring comfort, safety or stability not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/143Speed control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18154Approaching an intersection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0028Mathematical models, e.g. for simulation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2400/00Indexing codes relating to detected, measured or calculated conditions or factors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/05Type of road, e.g. motorways, local streets, paved or unpaved roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

Bei einem Verfahren zum Betreiben eines Fahrzeuges werden Sensordaten bereitgestellt, die eine Objektdetektion eines Sensors des Fahrzeuges umfassen, wobei die Objektdetektion repräsentativ ist für ein erkanntes Objekt. Des Weiteren wird ein Vertrauensmodell bereitgestellt, wobei das Vertrauensmodell dazu ausgebildet ist, ein Vertrauen in die Objektdetektion zu modellieren. Abhängig von den Sensordaten und dem Vertrauensmodell wird ein Vertrauenswert des erkannten Objekts ermittelt, wobei der Vertrauenswert des erkannten Objekts repräsentativ ist dafür, wie hoch ein Vertrauen in das erkannte Objekt ist. Das Fahrzeug wird abhängig von dem Vertrauenswert des erkannten Objekts betrieben.

Description

  • Die Erfindung betrifft ein Verfahren zum Betreiben eines Fahrzeuges. Die Erfindung betrifft des Weiteren eine Vorrichtung zum Betreiben eines Fahrzeuges. Die Erfindung betrifft des Weiteren ein Computerprogramm und Computerprogrammprodukt zum Betreiben eines Fahrzeuges.
  • Sensoren in Fahrzeugen können den Fahrzeugen Daten zu Objektdetektionen zur Verfügung stellen, die von Fahrzeugfunktionen nutzbar sind.
  • Die Aufgabe, die der Erfindung zugrunde liegt, ist einen Beitrag zu einer hohen Sicherheit des Fahrzeuges zu leisten.
  • Die Aufgabe wird gelöst durch die Merkmale der unabhängigen Patentansprüche. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen gekennzeichnet.
  • Gemäß einem ersten Aspekt zeichnet sich die Erfindung aus durch ein Verfahren zum Betreiben eines Fahrzeuges.
  • Bei dem Verfahren gemäß dem ersten Aspekt werden Sensordaten bereitgestellt, die eine Objektdetektion eines Sensors des Fahrzeuges umfassen, wobei die Objektdetektion repräsentativ für ein erkanntes Objekt ist. Des Weiteren wird ein Vertrauensmodell bereitgestellt, wobei das Vertrauensmodell dazu ausgebildet ist, ein Vertrauen in die Objektdetektion zu modellieren. Abhängig von den Sensordaten und dem Vertrauensmodell wird ein Vertrauenswert des erkannten Objekts ermittelt, wobei der Vertrauenswert des erkannten Objekts repräsentativ ist dafür, wie hoch ein Vertrauen in das erkannte Objekt ist. Das Fahrzeug wird abhängig von dem Vertrauenswert des erkannten Objekts betrieben.
  • Hierdurch ist es möglich, die Sensordaten mittels des Vertrauensmodells und des Vertrauenswerts des erkannten Objekts zu überprüfen, sowie diese zu verifizieren und/oder zu validieren. Dadurch kann der Objektdetektion eine Art Qualitätsstempel zugeordnet werden, um deren Integrität entweder zu erhöhen oder zu senken. Des Weiteren kann dadurch beispielsweise eine Sicherheit des Fahrzeuges erhöht werden, wenn die Sensordaten von einer Fahrzeugfunktion des Fahrzeuges genutzt werden. Beispielsweise können die Sensordaten auch von mehreren Fahrzeugfunktionen des Fahrzeuges genutzt werden.
    Die Sensordaten umfassen beispielsweise einen oder mehrere Datensätze, welche die Objektdetektion des Sensors des Fahrzeuges umfassen. Die Sensordaten können beispielsweise auch mehrere Objektdetektionen des Sensors umfassen, wobei die mehreren Objektdetektionen jeweils repräsentativ sind für ein jeweiliges erkanntes Objekt. Beispielsweise können die Sensordaten auch eine oder mehrere Objektdetektionen unterschiedlicher Sensoren des Fahrzeuges umfassen, wobei das Verfahren beispielsweise für die jeweilige Objektdetektion ausgeführt wird. Beispielsweise können mittels des Vertrauensmodells und des Vertrauenswerts die mehreren Objektdetektionen unterschiedlicher Sensoren des Fahrzeuges fusioniert werden, beispielsweise in einem Sensorfusionssystem. Das Sensorfusionssystem ist beispielsweise dazu ausgebildet, eine erste Objektdetektion eines ersten Sensors des Fahrzeuges mit einer zweiten Objektdetektion eines zweiten Sensors des Fahrzeuges zu fusionieren, falls die erste und die zweite Objektdetektion repräsentativ sind für das erkannte Objekt.
  • Beispielsweise werden die Sensordaten jeweils für eine Datenverarbeitungsperiode bereitgestellt. Die Datenverarbeitungsperiode ist beispielsweise abhängig von einer Abtastfrequenz des Sensors und/oder einer Verarbeitungszeit des Sensors. Beispielsweise sind der Sensor und/oder die unterschiedlichen Sensoren des Fahrzeuges heterogene Sensoren. Der Sensor und/oder die unterschiedlichen Sensoren des Fahrzeuges umfassen beispielsweise einen Kamerasensor und/oder einen Radarsensor und/oder einen Sensor für die Navigation, wie beispielsweise einen GPS-Empfänger, und/oder einen Lasersensor, wie beispielsweise einen Lidar-Sensor und/oder einen Ladar-Sensor, und/oder einen Ultraschallsensor und/oder einen Infrarotsensor oder dergleichen.
  • Das Fahrzeug weist beispielsweise den Sensor des Fahrzeuges und/oder die unterschiedlichen Sensoren des Fahrzeuges auf. Beispielsweise kann das Fahrzeug auch mehrere Sensoren einer gleichen Art aufweisen.
  • Das erkannte Objekt ist beispielsweise repräsentativ für ein sich bewegendes Objekt. Des Weiteren kann das erkannte Objekt beispielsweise aber auch repräsentativ sein für ein stationäres Objekt. Das erkannte Objekt kann beispielsweise repräsentativ sein für ein Objekt im Straßenverkehr wie beispielsweise ein Tier, eine Absperrung, eine Straßenbegrenzung, ein Auto, einen Passant, eine Mauer oder dergleichen.
  • Das Vertrauensmodell kann beispielsweise ein oder mehrere Vertrauensuntermodelle umfassen. Das eine oder die mehreren Vertrauensuntermodelle sind dazu ausgebildet das Vertrauen in die Objektdetektion zu modellieren oder zumindest einen jeweiligen Teilaspekt des Vertrauens in die Objektdetektion zu modellieren. Beispielsweise wird das Vertrauen in die Objektdetektion abhängig von einer Art des Sensors und/oder Zuständen der Objektdetektion und/oder Zuständen des Fahrzeuges oder dergleichen modelliert.
  • Beispielsweise wird der Vertrauenswert des erkannten Objekts abhängig von dem Vertrauensmodell und/oder den Vertrauensuntermodellen ermittelt. Der Vertrauenswert des erkannten Objekts kann beispielsweise einen Wert auf einer kontinuierlichen Skala umfassen. Des Weiteren kann der Vertrauenswert des erkannten Objekts auch mehrere Werte aufweisen, welche beispielsweise jeweils repräsentativ sind für eines der Vertrauensuntermodelle.
  • Beispielsweise umfasst das Betreiben des Fahrzeuges ein Durchführen einer Fahrzeugfunktion des Fahrzeuges, welche die Sensordaten abhängig von dem Vertrauenswert des erkannten Objekts nutzt. Beispielsweise nutzt die Fahrzeugfunktion hierzu ein Tracking der Objektdetektionen und/oder Objekttracking und/oder Trackmanagementmethoden, wie beispielsweise in „Y. Bar-Shalom, X. R. Li, 1995, Multitarget-Multisensor Tracking: Principles and Techniques, ISBN-13: 978-0964831209“.
  • Beispielsweise wird abhängig von den Sensordaten und/oder dem Vertrauensmodell und/oder dem Vertrauenswert des erkannten Objekts eine Objektliste ermittelt, die der Fahrzeugfunktion des Fahrzeuges zur Verfügung gestellt wird. Die Objektliste umfasst beispielsweise Informationen und Zustände des erkannten Objekts.
  • Beispielsweise wird abhängig von standardisierten Größen, welche im Zusammenhang mit dem Objekttracking und/oder den Trackmanagementmethoden verwendet werden, ein Initialvertrauenswert des erkannten Objekts ermittelt. Der Initialvertrauenswert des erkannten Objekts ist repräsentativ dafür, wie hoch ein initiales Vertrauen in das erkannte Objekt ist beispielsweise bei einer erstmaligen Erkennung des erkannten Objekts. Beispielsweise wird der Initialvertrauenswert des erkannten Objekts zusätzlich abhängig von Sensordaten der erstmaligen Erkennung des erkannten Objekts ermittelt. Des Weiteren kann beispielsweise ein erweiterter Vertrauenswert des erkannten Objekts abhängig von dem Vertrauenswert des erkannten Objekts und dem Initialvertrauenswert des erkannten Objekts ermittelt werden. Beispielsweise wird bei der Ermittlung des erweiterten Vertrauenswertes des erkannten Objekts der Initialvertrauenswert des erkannten Objekts mit dem Vertrauenswert des erkannten Objekts in dem Sensorfusionssystem fusioniert. Beispielsweise können abhängig von dem Vertrauenswert des erkannten Objekts und/oder dem erweiterten Vertrauenswert des erkannten Objekts Sensordatensätze, welche mehrere Objektdetektionen der unterschiedlichen Sensoren umfassen, in dem Sensorfusionssystem fusioniert werden.
  • Gemäß einer optionalen Ausgestaltung wird eine Information zu der Art des Sensors bereitgestellt. Des Weiteren umfasst das Vertrauensmodell ein Sensorvertrauensmodell, wobei das Sensorvertrauensmodell dazu ausgebildet ist, das Vertrauen in die Objektdetektion abhängig von einer Art eines jeweiligen Sensors zu modellieren. Der Vertrauenswert des erkannten Objekts wird abhängig von den Sensordaten, der Information zu der Art des Sensors und dem Vertrauensmodell ermittelt.
  • Hierdurch ist es möglich mit dem Vertrauenswert des erkannten Objekts, abhängig von dem Sensorvertrauensmodell, die Objektdetektion des Sensors in Bezug auf die Art des Sensors zu berücksichtigen. Somit können beispielsweise bei einer Sensorfusion die unterschiedlichen Sensoren unterschiedlich gewichtet werden.
  • Beispielsweise wird die Objektdetektion, abhängig von der Art des jeweiligen Sensors und dem Sensorvertrauensmodell, bei der Ermittlung des Vertrauenswertes des erkannten Objekts unterschiedlich stark berücksichtigt.
  • Beispielsweise umfasst das Sensorvertrauensmodell ein Simulationsmodell und/oder ein mathematisches Modell und/oder Kenndaten oder dergleichen des jeweiligen Sensors.
  • Gemäß einer weiteren optionalen Ausgestaltung wird eine Objektzustandsinformation bereitgestellt, die eine Information über einen Zustand des erkannten Objekts während der Objektdetektion umfasst. Des Weiteren umfasst das Vertrauensmodell ein Zustandsvertrauensmodell, wobei das Zustandsvertrauensmodell dazu ausgebildet ist, das Vertrauen in die Objektdetektion abhängig von einem jeweiligen Zustand des erkannten Objekts während der Objektdetektion zu modellieren. Der Vertrauenswert des erkannten Objekts wird abhängig von den Sensordaten, der Objektzustandsinformation und dem Vertrauensmodell ermittelt.
  • Hierdurch ist es möglich mit dem Vertrauenswert des erkannten Objekts, abhängig von dem Zustandsvertrauensmodell, die Objektdetektion des Sensors abhängig von dem Zustand des erkannten Objekts in Bezug auf unterschiedliche Zustände des erkannten Objekts und/oder anderer Objekte unterschiedlich stark zu berücksichtigen.
  • Beispielsweise wird die Objektdetektion, abhängig von dem jeweiligen Zustand des erkannten Objekts und dem Zustandsvertrauensmodell, bei der Ermittlung des Vertrauenswertes des erkannten Objekts unterschiedlich stark berücksichtigt.
  • Beispielsweise umfasst die Objektzustandsinformation eine Position des erkannten Objekts und/oder eine Orientierung des erkannten Objekts und/oder eine Geschwindigkeit des erkannten Objekts, oder dergleichen. Beispielsweise umfasst die Objektzustandsinformation zusätzlich eine Information über einen vorgegebenen Bereich in der Umgebung des Fahrzeuges. Der vorgegebene Bereich in der Umgebung des Fahrzeuges ist beispielsweise abhängig von einem Erfassungsbereich des Sensors und/oder ist repräsentativ für eine statistische Häufung von Falschwarnungen.
  • Gemäß einer weiteren optionalen Ausgestaltung wird eine Fahrzeugzustandsinformation bereitgestellt, die eine Information über einen Zustand des Fahrzeuges während der Objektdetektion umfasst. Des Weiteren umfasst das Vertrauensmodell ein Umgebungsvertrauensmodell, wobei das Umgebungsvertrauensmodell dazu ausgebildet ist, das Vertrauen in die Objektdetektion abhängig von einem jeweiligen Zustand des Fahrzeuges während der Objektdetektion zu modellieren. Der Vertrauenswert des erkannten Objekts wird abhängig von den Sensordaten, der Fahrzeugzustandsinformation und dem Vertrauensmodell ermittelt.
  • Hierdurch ist es möglich mit dem Vertrauenswert des erkannten Objekts, abhängig von dem Umgebungsvertrauensmodell, die Objektdetektion des Sensors abhängig von dem Zustand des Fahrzeuges in Bezug auf unterschiedliche Zustände des Fahrzeuges unterschiedlich stark zu berücksichtigen.
  • Beispielsweise wird die Objektdetektion, abhängig von dem jeweiligen Zustand des Fahrzeuges und dem Umgebungsvertrauensmodell, bei der Ermittlung des Vertrauenswertes des erkannten Objekts unterschiedlich stark berücksichtigt.
  • Beispielsweise umfasst die Fahrzeugzustandsinformation eine Information über den aktuell befahrenen Straßentyp und/oder aktuelle Sichtverhältnisse und/oder eine Geschwindigkeit des Fahrzeuges, oder dergleichen.
  • Gemäß einer weiteren optionalen Ausgestaltung wird eine Sensorbereichsinformation bereitgestellt, die eine bereichsabhängige Information des Sensors umfasst. Des Weiteren wird eine Initialposition des erkannten Objekts bereitgestellt, wobei die Initialposition des erkannten Objekts repräsentativ ist für eine Position bei einer erstmaligen Erkennung des erkannten Objekts. Des Weiteren umfasst das Vertrauensmodell ein Initialvertrauensmodell, wobei das Initialvertrauensmodell dazu ausgebildet ist, das Vertrauen in die Objektdetektion abhängig von einer jeweiligen Initialposition des erkannten Objekts und einer jeweiligen bereichsabhängigen Information des Sensors zu modellieren. Der Vertrauenswert des erkannten Objekts wird abhängig von den Sensordaten, der Sensorbereichsinformation, der Initialposition des erkannten Objekts und dem Vertrauensmodell ermittelt.
  • Hierdurch ist es möglich mit dem Vertrauenswert des erkannten Objekts, abhängig von dem Initialvertrauensmodell, die Objektdetektion des Sensors abhängig von der bereichsabhängigen Information des Sensors und der Initialposition des erkannten Objekts in Bezug auf unterschiedliche Initialpositionen des erkannten Objekts unterschiedlich stark zu berücksichtigen.
  • Beispielsweise wird die Objektdetektion, abhängig von der jeweiligen Initialposition des erkannten Objekts und von der jeweiligen bereichsabhängigen Information des Sensors und von dem Initialvertrauensmodell, bei der Ermittlung des Vertrauenswertes des erkannten Objekts unterschiedlich stark berücksichtigt.
  • Beispielsweise umfasst das Initialvertrauensmodell eine Information über den Erfassungsbereich des Sensors und/oder eine bereichsabhängige statistische Falschdetektionswahrscheinlichkeit des Sensors. Zusätzlich kann das Initialvertrauensmodell auch eine oder mehrere Annahmen bezüglich der Fahrzeugumgebung umfassen. Beispielsweise umfasst eine Annahme bezüglich der Fahrzeugumgebung, dass mindestens zwei erkannte Objekte nicht ganz oder teilweise übereinander liegen können.
  • Gemäß einer weiteren optionalen Ausgestaltung wird abhängig von den Sensordaten und/oder dem Vertrauenswert des erkannten Objekts ein Attribut der Objektdetektion ermittelt. Das Attribut der Objektdetektion ist repräsentativ für eine Qualität und/oder eine Konfidenz der Objektdetektion. Das Fahrzeug wird abhängig von dem Attribut der Objektdetektion betrieben.
  • Beispielsweise entspricht das Attribut der Objektdetektion einer der standardisierten Größen, die im Zusammenhang mit dem Objekttracking und/oder den Trackmanagementmethoden verwendet werden. Des Weiteren können beispielsweise auch mehrere Attribute der Objektdetektion ermittelt werden.
  • Hierdurch ist es möglich, abhängig von den Sensordaten und/oder dem Vertrauenswert des erkannten Objekts die standardisierten Größen, die im Zusammenhang mit dem Objekttracking und/oder den Trackmanagementmethoden verwendet werden, zu ermitteln.
  • Die standardisierten Größen, die im Zusammenhang mit dem Objekttracking und/oder den Trackmanagementmethoden verwendet werden, werden beispielsweise nicht abhängig von einer einheitlichen Datenbasis ermittelt und/oder sind stark von Algorithmen eines Sensorherstellers abhängig. Dies wirkt sich beispielsweise in dem Sensorfusionssystem unvorteilhaft aus. Mittels der Ermittlung des Attributs der Objektdetektion abhängig von dem Vertrauenswert des erkannten Objekts ist es möglich das Sensorfusionssystem zu verbessern und zu einer hohen Sicherheit des Fahrzeuges beizutragen.
  • Beispielsweise wird die Objektliste zusätzlich abhängig von dem Attribut der Objektdetektion ermittelt und die Objektliste wird der Fahrzeugfunktion des Fahrzeuges zur Verfügung gestellt. Die Objektliste umfasst beispielsweise zusätzlich das Attribut der Objektdetektion.
  • Beispielsweise kann das Attribut der Objektdetektion auch mehrere Attribute umfassen.
  • Gemäß einer weiteren optionalen Ausgestaltung umfasst das Attribut der Objektdetektion eine Existenzwahrscheinlichkeit, die repräsentativ ist dafür, wie hoch eine statistische Wahrscheinlichkeit für eine Existenz des erkannten Objekts ist, und/oder ein Gütemaß des Sensors und/oder eine oder mehrere Standardabweichungen von einem jeweiligen Zustand des erkannten Objekts während der Objektdetektion.
  • Hierdurch ist es möglich, das abhängig von den Sensordaten und/oder dem Vertrauenswert des erkannten Objekts ermittelte Attribut der Objektdetektion im Zusammenhang mit dem Objekttracking und/oder den Trackmanagementmethoden zu verwenden.
  • Beispielsweise kann die Fahrzeugfunktion des Fahrzeuges, welche Objekttracking und/oder Trackmanagementmethoden umfasst, das Fahrzeug abhängig von den Sensordaten und/oder dem Vertrauenswert des erkannten Objekts betreiben.
  • Gemäß einer weiteren optionalen Ausgestaltung wird bei einer erstmaligen Erkennung des erkannten Objekts ein erster Objektdatensatz des erkannten Objekts erstellt. Der erste Objektdatensatz umfasst einen ersten Objektvertrauenswert und eine einzigartige erste Objektidentifikationsnummer, welche repräsentativ ist für das erkannte Objekt. Des Weiteren wird der erste Objektvertrauenswert abhängig von dem Vertrauenswert des erkannten Objekts ermittelt. Das Fahrzeug wird abhängig von dem ersten Objektdatensatz betrieben.
  • Hierdurch ist es möglich, erkannte Objekte bei der erstmaligen Erkennung beim Betreiben des Fahrzeuges zu berücksichtigen.
  • Beispielsweise wird der erste Objektdatensatz nach dem Ermitteln zusätzlich gespeichert. Beispielsweise wird der erste Objektvertrauenswert abhängig von dem Vertrauenswert des erkannten Objekts so ermittelt, dass der erste Objektvertrauenswert dem Vertrauenswert des erkannten Objekts entspricht. Beispielsweise wird der gespeicherte erste Objektdatensatz bei einer weiteren Objektdetektion, wobei die weitere Objektdetektion zeitmäßig nach der Objektdetektion bereitgestellt wird, zusätzlich bei der Ermittlung des Vertrauenswertes berücksichtigt. Beispielsweise wird der gespeicherte erste Objektdatensatz bei der weiteren Objektdetektion angepasst. Beispielsweise wird der gespeicherte erste Objektdatensatz bei der weiteren Objektdetektion gelöscht. Beispielsweise wird der erste Objektdatensatz zusätzlich abhängig von dem Attribut der Objektdetektion ermittelt.
  • Beispielsweise wird die Objektliste zusätzlich abhängig von dem ersten Objektdatensatz ermittelt und die Objektliste wird der Fahrzeugfunktion des Fahrzeuges zur Verfügung gestellt.
  • Gemäß einer weiteren optionalen Ausgestaltung wird ein zweiter Objektdatensatz eines zweiten Objekts bereitgestellt. Der zweite Objektdatensatz umfasst einen zweiten Objektvertrauenswert und eine einzigartige zweite Objektidentifikationsnummer, welche repräsentativ ist für das zweite Objekt. Des Weiteren wird ermittelt, ob das erkannte Objekt dem zweiten Objekt zugeordnet werden kann. Falls das erkannte Objekt dem zweiten Objekt zugeordnet werden kann, wird der zweite Objektvertrauenswert abhängig von dem Vertrauenswert des erkannten Objekts angepasst. Beispielsweise wird, falls das erkannte Objekt dem zweiten Objekt zugeordnet werden kann, der zweite Objektvertrauenswert zusätzlich abhängig von dem Attribut der Objektdetektion angepasst. Falls das erkannte Objekt dem zweiten Objekt nicht zugeordnet werden kann, wird der zweite Objektvertrauenswert angepasst. Das Fahrzeug wird abhängig von dem zweiten Objektdatensatz betrieben.
  • Hierdurch ist es möglich, einen bereitgestellten zweiten Objektdatensatz beim Betreiben des Fahrzeuges zu berücksichtigen.
  • Beispielsweise wird der zweite Objektdatensatz nach der Anpassung zusätzlich gespeichert. Beispielsweise umfasst der zweite Objektdatensatz zusätzlich weitere Information, wie beispielsweise eine Beobachtungsdauer des erkannten Objekts. Die Beobachtungsdauer ist repräsentativ für eine Zeitdauer von der erstmaligen Erkennung des erkannten Objekts bis zur Objektdetektion. Beispielsweise wird der zweite Objektvertrauenswert falls das erkannte Objekt dem zweiten Objekt zugeordnet werden kann so angepasst, dass der zweite Objektvertrauenswert abhängig von dem Vertrauenswert des erkannten Objekts und der Beobachtungsdauer des erkannten Objekts ermittelt wird. Beispielsweise wird der zweite Objektvertrauenswert falls das erkannte Objekt dem zweiten Objekt nicht zugeordnet werden kann so angepasst, dass der zweite Objektvertrauenswert beispielsweise wertmäßig verringert wird. Beispielsweise wird der zweite Objektdatensatz falls das erkannte Objekt dem zweiten Objekt nicht zugeordnet werden kann gelöscht. Beispielsweise wird der zweite Objektdatensatz gelöscht, abhängig von einem Vergleich des zweiten Objektvertrauenswertes mit einem Schwellenwert.
  • Beispielsweise kann der zweite Objektdatensatz auch mehrere zweite Objektdatensätze umfassen, welche für unterschiedliche zweite Objekte repräsentativ sind.
  • Beispielsweise wird die Objektliste zusätzlich abhängig von dem zweiten Objektdatensatz ermittelt und die Objektliste wird der Fahrzeugfunktion des Fahrzeuges zur Verfügung gestellt.
  • Gemäß einem zweiten Aspekt zeichnet sich die Erfindung aus durch eine Vorrichtung zum Betreiben eines Fahrzeuges. Die Vorrichtung ist dazu ausgebildet, das Verfahren zum Betreiben des Fahrzeuges gemäß dem ersten Aspekt durchzuführen.
  • Gemäß einem weiteren Aspekt zeichnet sich die Erfindung aus durch ein Computerprogramm, wobei das Computerprogramm Anweisungen umfasst, die, wenn das Programm von einem Computer ausgeführt wird, den Computer veranlassen das Verfahren zum Betreiben eines Fahrzeuges bei seiner Ausführung auf einer Datenverarbeitungsvorrichtung durchzuführen. Gemäß einem weiteren Aspekt zeichnet sich die Erfindung aus durch ein Computerprogrammprodukt umfassend ausführbaren Programmcode, wobei der Programmcode bei Ausführung durch eine Datenverarbeitungsvorrichtung das Verfahren zum Betreiben eines Fahrzeuges ausführt.
  • Das Computerprogrammprodukt umfasst insbesondere ein von der Datenverarbeitungsvorrichtung lesbares Medium, auf dem der Programmcode gespeichert ist.
  • Ausführungsbeispiele der Erfindung sind im Folgenden anhand der schematischen Zeichnungen näher erläutert. Es zeigt:
    • 1 ein Ablaufdiagramm zum Betreiben eines Fahrzeuges.
  • Die 1 zeigt ein Ablaufdiagramm des Programms zum Betreiben eines Fahrzeuges.
  • Das Programm wird in einem Schritt S1 gestartet, in dem gegebenenfalls Variablen initialisiert werden.
  • Das Programm wird in einem Schritt S3 fortgesetzt. In dem Schritt S3 wird eine Objektdetektion eines Sensors eines Fahrzeuges ermittelt, wobei die Objektdetektion repräsentativ für ein erkanntes Objekt ist.
  • Das Programm wird in einem Schritt S5 fortgesetzt. In dem Schritt S5 werden Sensordaten bereitgestellt, die die Objektdetektion des Sensors des Fahrzeuges umfassen.
  • Das Programm wird in einem Schritt S7 fortgesetzt. In dem Schritt S7 wird ein Vertrauensmodell bereitgestellt, wobei das Vertrauensmodell dazu ausgebildet ist, ein Vertrauen in die Objektdetektion zu modellieren.
  • Optional wird in dem Schritt S7 eine Information zu der Art des Sensors bereitgestellt. Des Weiteren umfasst das Vertrauensmodell ein Sensorvertrauensmodell, wobei das Sensorvertrauensmodell dazu ausgebildet ist, das Vertrauen in die Objektdetektion abhängig von einer Art eines jeweiligen Sensors zu modellieren.
  • Optional wird in dem Schritt S7 eine Objektzustandsinformation bereitgestellt, die eine Information über einen Zustand des erkannten Objekts während der Objektdetektion umfasst. Des Weiteren umfasst das Vertrauensmodell ein Zustandsvertrauensmodell, wobei das Zustandsvertrauensmodell dazu ausgebildet ist, das Vertrauen in die Objektdetektion abhängig von einem jeweiligen Zustand des erkannten Objekts während der Objektdetektion zu modellieren.
  • Optional wird in dem Schritt S7 eine Fahrzeugzustandsinformation bereitgestellt, die eine Information über einen Zustand des Fahrzeuges während der Objektdetektion umfasst. Des Weiteren umfasst das Vertrauensmodell ein Umgebungsvertrauensmodell, wobei das Umgebungsvertrauensmodell dazu ausgebildet ist, das Vertrauen in die Objektdetektion abhängig von einem jeweiligen Zustand des Fahrzeuges während der Objektdetektion zu modellieren.
  • Optional wird in dem Schritt S7 eine Sensorbereichsinformation bereitgestellt, die eine bereichsabhängige Information des Sensors umfasst. Des Weiteren wird eine Initialposition des erkannten Objekts bereitgestellt, wobei die Initialposition des erkannten Objekts repräsentativ ist für eine Position bei einer erstmaligen Erkennung des erkannten Objekts. Des Weiteren umfasst das Vertrauensmodell ein Initialvertrauensmodell, wobei das Initialvertrauensmodell dazu ausgebildet ist, das Vertrauen in die Objektdetektion abhängig von einer jeweiligen Initialposition des erkannten Objekts und einer jeweiligen bereichsabhängigen Information des Sensors zu modellieren.
  • Das Programm wird in einem Schritt S9 fortgesetzt. In dem Schritt S9 wird abhängig von den Sensordaten und dem Vertrauensmodell ein Vertrauenswert des erkannten Objekts ermittelt, wobei der Vertrauenswert des erkannten Objekts repräsentativ ist dafür, wie hoch ein Vertrauen in das erkannte Objekt ist.
  • Optional wird in dem Schritt S9 der Vertrauenswert des erkannten Objekts zusätzlich abhängig von der Information zu der Art des Sensors ermittelt.
  • Beispielsweise wird mittels des Sensorvertrauensmodells eine Falschdetektionsrate des Sensors ermittelt. Beispielsweise existiert ein erster Sensor einer ersten Art, für den eine sehr hohe erste Falschdetektionsrate ermittelt wird. Für eine Objektdetektion des erkannten Objekts des ersten Sensors wird ein erster Vertrauenswert des erkannten Objekts ermittelt. Beispielsweise existiert ein zweiter Sensor einer zweiten Art, für den eine geringe zweite Falschdetektionsrate ermittelt wird. Für eine Objektdetektion des erkannten Objekts des zweiten Sensors wird ein zweiter Vertrauenswert des erkannten Objekts ermittelt. In diesem Fall ist der erste Vertrauenswert des erkannten Objekts wertmäßig geringer als der zweite Vertrauenswert des erkannten Objekts.
  • Optional wird in dem Schritt S9 der Vertrauenswert des erkannten Objekts zusätzlich abhängig von der Objektzustandsinformation ermittelt.
  • Beispielsweise wird der Vertrauenswert des erkannten Objekts mittels des Zustandsvertrauensmodells abhängig davon ermittelt, ob eine Position des erkannten Objekts innerhalb eines vorgegebenen Bereichs in der Umgebung des Fahrzeuges liegt oder nicht. Falls die Position des erkannten Objekts innerhalb des vorgegebenen Bereichs in der Umgebung des Fahrzeuges liegt, ist der Vertrauenswert des erkannten Objekts beispielsweise wertmäßig größer als wenn dies nicht der Fall ist. Der vorgegebene Bereich ist beispielsweise sensorspezifisch für eine jeweilige Art des Sensors vorgegeben. Beispielsweise wird ein Nahfeldsensor bei einer Objektdetektion in einem nahen Bereich entsprechend besser gewichtet als bei einer Objektdetektion in einem weit entfernten Bereich, bei der Ermittlung des Vertrauenswerts des erkannten Objekts.
  • Optional wird in dem Schritt S9 der Vertrauenswert des erkannten Objekts zusätzlich abhängig von der Fahrzeugzustandsinformation ermittelt.
  • Beispielsweise umfasst die Fahrzeugzustandsinformation zusätzlich eine Information über aktuelle Wetterverhältnisse, wobei die Information über aktuelle Wetterverhältnisse beispielsweise repräsentativ ist für Starkregen. Beispielsweise wird der Vertrauenswert des erkannten Objekts mittels des Umgebungsvertrauensmodells abhängig von den aktuellen Wetterverhältnissen für den Kamerasensor bei Starkregen wertmäßig geringer ermittelt, als für den Radarsensor.
  • Optional wird in dem Schritt S9 der Vertrauenswert des erkannten Objekts zusätzlich abhängig von der Sensorbereichsinformation und der Initialposition des erkannten Objekts ermittelt.
  • Beispielsweise können mittels des Vertrauensmodells und des Vertrauenswerts Rückschlüsse gezogen werden, ob eine Falschdetektion vorliegt. Die Falschdetektion ist beispielsweise repräsentativ dafür, dass der Sensor das Objekt erkennt, wobei sich das erkannte Objekt real nicht in einer Umgebung des Fahrzeuges befindet. Des Weiteren können beispielsweise auch Rückschlüsse gezogen werden, ob eine Fehldetektion vorliegt. Die Fehldetektion ist beispielsweise repräsentativ dafür, dass der Sensor ein weiteres Objekt nicht erkennt, obwohl sich das weitere Objekt real in der Umgebung des Fahrzeuges befindet.
  • Optional wird das Programm in einem Schritt S11 fortgesetzt. In dem optionalen Schritt S11 wird abhängig von den Sensordaten und/oder dem Vertrauenswert des erkannten Objekts ein Attribut der Objektdetektion ermittelt. Das Attribut der Objektdetektion ist repräsentativ für eine Qualität und/oder eine Konfidenz der Objektdetektion.
  • Das Attribut der Objektdetektion umfasst eine Existenzwahrscheinlichkeit, die repräsentativ ist dafür, wie hoch eine statistische Wahrscheinlichkeit für eine Existenz des erkannten Objekts ist, und/oder ein Gütemaß des Sensors und/oder eine oder mehrere Standardabweichungen von einem jeweiligen Zustand des erkannten Objekts während der Objektdetektion.
  • Beispielsweise entspricht das Attribut der Objektdetektion einer der standardisierten Größen, die im Zusammenhang mit Objekttracking und/oder Trackmanagementmethoden verwendet werden.
  • Optional wird das Programm in einem Schritt S13 fortgesetzt. In dem optionalen Schritt S13 wird ein zweiter Objektdatensatz eines zweiten Objekts bereitgestellt. Der zweite Objektdatensatz umfasst einen zweiten Objektvertrauenswert und eine einzigartige zweite Objektidentifikationsnummer, welche repräsentativ ist für das zweite Objekt.
  • Beispielsweise ist der zweite Objektdatensatz repräsentativ für einen zweiten Track, welcher im Zusammenhang mit dem Objekttracking und/oder den Trackmanagementmethoden verwendet wird. Der zweite Track ist repräsentativ für eine Abbildung des erkannten Objekts, welches sich real in der Umgebung des Fahrzeuges befindet, und umfasst Informationen zu diesem.
  • Beispielsweise entspricht der zweite Objektdatensatz einem zuvor gespeicherten ersten Objektdatensatz.
  • Optional wird das Programm in einem Schritt S15 fortgesetzt. In dem optionalen Schritt S15 wird ermittelt, ob das erkannte Objekt dem zweiten Objekt zugeordnet werden kann. Falls dies der Fall ist, wird die Bearbeitung in einem Schritt S17 fortgesetzt, andernfalls in dem Schritt S19.
  • In dem Schritt S17 wird der zweite Objektvertrauenswert abhängig von dem Vertrauenswert des erkannten Objekts angepasst. Nach dem Schritt S17 wird das Programm in dem Schritt S23 fortgesetzt.
  • Optional wird der zweite Objektdatensatz nach der Anpassung zusätzlich gespeichert.
  • In dem Schritt S19 wird bei einer erstmaligen Erkennung des erkannten Objekts ein erster Objektdatensatz des erkannten Objekts erstellt. Der erste Objektdatensatz umfasst einen ersten Objektvertrauenswert und eine einzigartige erste Objektidentifikationsnummer, welche repräsentativ ist für das erkannte Objekt. Des Weiteren wird der erste Objektvertrauenswert abhängig von dem Vertrauenswert des erkannten Objekts ermittelt.
  • Beispielsweise ist der erste Objektdatensatz repräsentativ für einen ersten Track, welcher im Zusammenhang mit dem Objekttracking und/oder den Trackmanagementmethoden verwendet wird. Der erste Track ist repräsentativ für eine Abbildung des erkannten Objekts, welches sich real in der Umgebung des Fahrzeuges befindet, und umfasst Informationen zu diesem.
  • Der Schritt S19 kann beispielsweise auch zeitlich nach dem Schritt S21 durchgeführt werden.
  • In dem Schritt S21 wird der zweite Objektvertrauenswert angepasst. Optional wird der zweite Objektdatensatz nach der Anpassung zusätzlich gespeichert. Nach dem Schritt S19 wird das Programm in dem Schritt S21 fortgesetzt. Nach dem Schritt S21 wird das Programm in dem Schritt S23 fortgesetzt.
  • In einem Schritt S23 wird das Fahrzeug abhängig von dem Vertrauenswert des erkannten Objekts betrieben.
  • Optional wird in dem Schritt S23 das Fahrzeug zusätzlich abhängig von dem Attribut der Objektdetektion betrieben.
  • Optional wird in dem Schritt S23 das Fahrzeug zusätzlich abhängig von dem ersten Objektdatensatz betrieben.
  • Optional wird in dem Schritt S23 das Fahrzeug zusätzlich abhängig von dem zweiten Objektdatensatz betrieben.
  • Beispielsweise umfasst das Betreiben des Fahrzeuges ein Durchführen einer Fahrzeugfunktion des Fahrzeuges, welche die Sensordaten abhängig von dem Vertrauenswert des erkannten Objekts nutzt.
  • Beispielsweise ist die Fahrzeugfunktion des Fahrzeuges eine längsregelnde Fahrzeugfunktion des Fahrzeuges, wie beispielsweise eine Adaptive Geschwindigkeitsregelung, Kreuzungsassistent, eine Abstandshaltefunktion, oder dergleichen. Alternativ oder zusätzlich ist die Fahrzeugfunktion des Fahrzeuges beispielsweise eine querregelnde Fahrzeugfunktion des Fahrzeuges, wie beispielsweise ein Seitenaufprall-Assistent, ein Lenkführungsassistent, ein Spurführungsassistent, oder dergleichen. Die längsregelnde Fahrzeugfunktion des Fahrzeuges ist dazu ausgebildet, im Wesentlichen Bewegungen längs zu einer Erstreckungsebene des Fahrzeuges zu beeinflussen. Die querregelnde Fahrzeugfunktion des Fahrzeuges ist dazu ausgebildet, im Wesentlichen Bewegungen quer zu einer Erstreckungsebene des Fahrzeuges zu beeinflussen. Die längsregelnde Fahrzeugfunktion des Fahrzeuges und/oder die querregelnde Fahrzeugfunktion des Fahrzeuges umfassen beispielsweise eine Anforderung, die eine jeweilige Falschdetektionsrate und/oder eine jeweilige Fehldetektionsrate oder dergleichen umfasst. Die Anforderung, die die jeweilige Falschdetektionsrate umfasst, ist beispielsweise repräsentativ für eine jeweilige vorgegebene Anzahl an Falschdetektionen, die in einem jeweiligen vorgegebenen Zeitintervall und/oder über eine jeweilige vorgegebene Strecke, nicht überschritten werden soll. Die Anforderung, die die jeweilige Fehldetektionsrate umfasst, ist beispielsweise repräsentativ für eine jeweilige vorgegebene Anzahl an Fehldetektionen, die in einem jeweiligen vorgegebenen Zeitintervall und/oder über eine jeweilige vorgegebene Strecke, nicht überschritten werden soll. Beispielsweise kann die Anforderung, die die jeweilige Falschdetektionsrate und/oder die jeweilige Fehldetektionsrate umfasst, abhängig von dem Vertrauenswert des erkannten Objekts und/oder den Sensordaten, überprüft werden. Beispielsweise entscheidet die Überprüfung, ob die längsregelnde Fahrzeugfunktion des Fahrzeuges und/oder die querregelnde Fahrzeugfunktion des Fahrzeuges die Sensordaten dazu verwenden können, um beispielsweise die Sicherheit des Fahrzeuges zu gewährleisten und/oder zu erhöhen. Beispielsweise entscheidet die Überprüfung, ob ein Serieneinsatz der längsregelnden Fahrzeugfunktion des Fahrzeuges und/oder der querregelnden Fahrzeugfunktion des Fahrzeuges möglich ist.
  • Anschließend wird das Programm in dem Schritt S3 wieder gestartet.

Claims (12)

  1. Verfahren zum Betreiben eines Fahrzeuges, bei dem - Sensordaten bereitgestellt werden, die eine Objektdetektion eines Sensors des Fahrzeuges umfassen, wobei die Objektdetektion repräsentativ ist für ein erkanntes Objekt, - ein Vertrauensmodell bereitgestellt wird, wobei das Vertrauensmodell dazu ausgebildet ist, ein Vertrauen in die Objektdetektion zu modellieren, - abhängig von den Sensordaten und dem Vertrauensmodell ein Vertrauenswert des erkannten Objekts ermittelt wird, wobei der Vertrauenswert des erkannten Objekts repräsentativ ist dafür, wie hoch ein Vertrauen in das erkannte Objekt ist, und - das Fahrzeug abhängig von dem Vertrauenswert des erkannten Objekts betrieben wird.
  2. Verfahren gemäß Anspruch 1, bei dem - eine Information zu der Art des Sensors bereitgestellt wird, - das Vertrauensmodell ein Sensorvertrauensmodell umfasst, wobei das Sensorvertrauensmodell dazu ausgebildet ist, das Vertrauen in die Objektdetektion abhängig von einer Art eines jeweiligen Sensors zu modellieren, und - der Vertrauenswert des erkannten Objekts abhängig von den Sensordaten, der Information zu der Art des Sensors und dem Vertrauensmodell ermittelt wird.
  3. Verfahren gemäß einem der vorhergehenden Ansprüche, bei dem - eine Objektzustandsinformation bereitgestellt wird, die eine Information über einen Zustand des erkannten Objekts während der Objektdetektion umfasst, - das Vertrauensmodell ein Zustandsvertrauensmodell umfasst, wobei das Zustandsvertrauensmodell dazu ausgebildet ist, das Vertrauen in die Objektdetektion abhängig von einem jeweiligen Zustand des erkannten Objekts während der Objektdetektion zu modellieren, und - der Vertrauenswert des erkannten Objekts abhängig von den Sensordaten, der Objektzustandsinformation und dem Vertrauensmodell ermittelt wird.
  4. Verfahren gemäß einem der vorhergehenden Ansprüche, bei dem - eine Fahrzeugzustandsinformation bereitgestellt wird, die eine Information über einen Zustand des Fahrzeuges während der Objektdetektion umfasst, - das Vertrauensmodell ein Umgebungsvertrauensmodell umfasst, wobei das Umgebungsvertrauensmodell dazu ausgebildet ist, das Vertrauen in die Objektdetektion abhängig von einem jeweiligen Zustand des Fahrzeuges während der Objektdetektion zu modellieren, und - der Vertrauenswert des erkannten Objekts abhängig von den Sensordaten, der Fahrzeugzustandsinformation und dem Vertrauensmodell ermittelt wird.
  5. Verfahren gemäß einem der vorhergehenden Ansprüche, bei dem - eine Sensorbereichsinformation bereitgestellt wird, die eine bereichsabhängige Information des Sensors umfasst, - eine Initialposition des erkannten Objekts bereitgestellt wird, wobei die Initialposition des erkannten Objekts repräsentativ ist für eine Position bei einer erstmaligen Erkennung des erkannten Objekts, - das Vertrauensmodell ein Initialvertrauensmodell umfasst, wobei das Initialvertrauensmodell dazu ausgebildet ist, das Vertrauen in die Objektdetektion abhängig von einer jeweiligen Initialposition des erkannten Objekts und einer jeweiligen bereichsabhängigen Information des Sensors zu modellieren, und - der Vertrauenswert des erkannten Objekts abhängig von den Sensordaten, der Sensorbereichsinformation, der Initialposition des erkannten Objekts und dem Vertrauensmodell ermittelt wird.
  6. Verfahren gemäß einem der vorhergehenden Ansprüche, bei dem - abhängig von den Sensordaten und/oder dem Vertrauenswert des erkannten Objekts ein Attribut der Objektdetektion ermittelt wird, wobei das Attribut der Objektdetektion repräsentativ ist für eine Qualität und/oder eine Konfidenz der Objektdetektion, und - das Fahrzeug abhängig von dem Attribut der Objektdetektion betrieben wird.
  7. Verfahren gemäß Anspruch 6, wobei das Attribut der Objektdetektion - eine Existenzwahrscheinlichkeit, die repräsentativ ist dafür, wie hoch eine statistische Wahrscheinlichkeit für eine Existenz des erkannten Objekts ist, und/oder - ein Gütemaß des Sensors und/oder - eine oder mehrere Standardabweichungen von einem jeweiligen Zustand des erkannten Objekts während der Objektdetektion umfasst.
  8. Verfahren gemäß einem der vorhergehenden Ansprüche, bei dem bei einer erstmaligen Erkennung des erkannten Objekts - ein erster Objektdatensatz des erkannten Objekts erstellt wird, welcher einen ersten Objektvertrauenswert und eine einzigartige erste Objektidentifikationsnummer, welche repräsentativ ist für das erkannte Objekt, umfasst, - der erste Objektvertrauenswert abhängig von dem Vertrauenswert des erkannten Objekts ermittelt wird, und - das Fahrzeug abhängig von dem ersten Objektdatensatz betrieben wird.
  9. Verfahren gemäß einem der vorhergehenden Ansprüche, bei dem - ein zweiter Objektdatensatz eines zweiten Objekts bereitgestellt wird, welcher einen zweiten Objektvertrauenswert und eine einzigartige zweite Objektidentifikationsnummer, welche repräsentativ ist für das zweite Objekt, umfasst, - ermittelt wird, ob das erkannte Objekt dem zweiten Objekt zugeordnet werden kann, - falls das erkannte Objekt dem zweiten Objekt zugeordnet werden kann, der zweite Objektvertrauenswert abhängig von dem Vertrauenswert des erkannten Objekts angepasst wird, - falls das erkannte Objekt dem zweiten Objekt nicht zugeordnet werden kann, der zweite Objektvertrauenswert angepasst wird, und - das Fahrzeug abhängig von dem zweiten Objektdatensatz betrieben wird.
  10. Vorrichtung zum Betreiben eines Fahrzeuges, wobei die Vorrichtung dazu ausgebildet ist, das Verfahren nach einem der Ansprüche 1 bis 9 durchzuführen.
  11. Computerprogramm, wobei das Computerprogramm Anweisungen umfasst, die, wenn das Programm von einem Computer ausgeführt wird, den Computer veranlassen das Verfahren nach einem der Ansprüche 1 bis 9 bei seiner Ausführung auf einer Datenverarbeitungsvorrichtung durchzuführen.
  12. Computerprogrammprodukt umfassend ausführbaren Programmcode, wobei der Programmcode bei Ausführung durch eine Datenverarbeitungsvorrichtung das Verfahren nach einem der Ansprüche 1 bis 9 ausführt.
DE102019102919.8A 2019-02-06 2019-02-06 Verfahren, Vorrichtung, Computerprogramm und Computerprogrammprodukt zum Betreiben eines Fahrzeuges Pending DE102019102919A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102019102919.8A DE102019102919A1 (de) 2019-02-06 2019-02-06 Verfahren, Vorrichtung, Computerprogramm und Computerprogrammprodukt zum Betreiben eines Fahrzeuges
US17/421,395 US11915489B2 (en) 2019-02-06 2019-10-29 Method, device, computer program and computer program product for operating a vehicle
PCT/EP2019/079446 WO2020160801A1 (de) 2019-02-06 2019-10-29 Verfahren, vorrichtung, computerprogramm und computerprogrammprodukt zum betreiben eines fahrzeuges
CN201980087893.9A CN113302108A (zh) 2019-02-06 2019-10-29 用于运行车辆的方法、装置、计算机程序和计算机程序产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019102919.8A DE102019102919A1 (de) 2019-02-06 2019-02-06 Verfahren, Vorrichtung, Computerprogramm und Computerprogrammprodukt zum Betreiben eines Fahrzeuges

Publications (1)

Publication Number Publication Date
DE102019102919A1 true DE102019102919A1 (de) 2020-08-06

Family

ID=68503077

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019102919.8A Pending DE102019102919A1 (de) 2019-02-06 2019-02-06 Verfahren, Vorrichtung, Computerprogramm und Computerprogrammprodukt zum Betreiben eines Fahrzeuges

Country Status (4)

Country Link
US (1) US11915489B2 (de)
CN (1) CN113302108A (de)
DE (1) DE102019102919A1 (de)
WO (1) WO2020160801A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020125448A1 (de) 2020-09-29 2022-03-31 Daimler Ag Kartenplausibilitätsprüfungsverfahren

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015008539A1 (de) * 2015-07-02 2017-01-05 Daimler Ag Verfahren zur Fusion mehrerer Informationsquellen zur Objektdetektion und Verfahren zum Betrieb einer Fahrerassistenzvorrichtung
DE102017125421A1 (de) * 2016-11-02 2018-05-17 Ford Global Technologies, Llc Objektklassifikationsanpassung anhand einer fahrzeugkommunikation

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010132056A (ja) * 2008-12-03 2010-06-17 Fujitsu Ten Ltd 検知装置、検知方法および車両制御装置
US20130197736A1 (en) * 2012-01-30 2013-08-01 Google Inc. Vehicle control based on perception uncertainty
JP5842862B2 (ja) * 2013-05-14 2016-01-13 株式会社デンソー 衝突緩和装置
DE102014217848A1 (de) * 2014-09-08 2016-03-10 Continental Automotive Gmbh Fahrerassistenzsystem
JP6189815B2 (ja) * 2014-10-29 2017-08-30 株式会社Soken 走行区画線認識システム
EP3130945B1 (de) * 2015-08-11 2018-05-02 Continental Automotive GmbH System und verfahren zur genauen positionierung eines fahrzeugs
US9707961B1 (en) * 2016-01-29 2017-07-18 Ford Global Technologies, Llc Tracking objects within a dynamic environment for improved localization
US9989963B2 (en) 2016-02-25 2018-06-05 Ford Global Technologies, Llc Autonomous confidence control
JP6690450B2 (ja) * 2016-07-19 2020-04-28 株式会社デンソー 運転支援装置
US10571908B2 (en) * 2016-08-15 2020-02-25 Ford Global Technologies, Llc Autonomous vehicle failure mode management
US10657820B2 (en) * 2018-12-27 2020-05-19 Intel Corporation Sensor data sharing management

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015008539A1 (de) * 2015-07-02 2017-01-05 Daimler Ag Verfahren zur Fusion mehrerer Informationsquellen zur Objektdetektion und Verfahren zum Betrieb einer Fahrerassistenzvorrichtung
DE102017125421A1 (de) * 2016-11-02 2018-05-17 Ford Global Technologies, Llc Objektklassifikationsanpassung anhand einer fahrzeugkommunikation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020125448A1 (de) 2020-09-29 2022-03-31 Daimler Ag Kartenplausibilitätsprüfungsverfahren

Also Published As

Publication number Publication date
US11915489B2 (en) 2024-02-27
US20220092875A1 (en) 2022-03-24
CN113302108A (zh) 2021-08-24
WO2020160801A1 (de) 2020-08-13

Similar Documents

Publication Publication Date Title
WO2021043507A1 (de) Querführung eines fahrzeugs mittels von anderen fahrzeugen erfassten umgebungsdaten
EP3695244B1 (de) Verfahren und vorrichtung zum erzeugen eines inversen sensormodells und verfahren zum erkennen von hindernissen
EP3177474A1 (de) Verfahren zum erzeugen einer umgebungskarte sowie fahrerassistenzsystem
EP3526546B1 (de) Verfahren und system zur lokalisierung eines fahrzeugs
EP3490862A1 (de) Verfahren und vorrichtung zum ermitteln eines fahrbahnmodells für ein fahrzeugumfeld
EP3024709B1 (de) Effizientes bereitstellen von belegungsinformationen für das umfeld eines fahrzeugs
DE102020118629B4 (de) Computerimplementiertes Verfahren zum Bestimmen der Validität einer geschätzten Position eines Fahrzeugs
DE102008063033B4 (de) Vorrichtung und Verfahren zur Erkennung von Kollisionen mit erhöhter funktionaler Sicherheit
DE102022100549A1 (de) Mit einem rang versehene fehlerzustände
DE102022120968A1 (de) Vernetzte fahrzeuggestützte ermittlung der strassenoberflächenqualität
DE102008021380B4 (de) Verfahren und Vorrichtung zum Vorhersagen eines Verlaufs einer Fahrbahn und Fahrerassistenzsystem
DE102016220581A1 (de) Verfahren und vorrichtung zur bestimmung eines umfeldmodells
DE102018007960A1 (de) Verfahren zum Abgleich von Kartenmaterial mit einer erfassten Umgebung eines Fahrzeugs, Steuergerät, eingerichtet zum Ausführen eines solchen Verfahrens, sowie Fahrzeug mit einem solchen Steuergerät
DE102013214631A1 (de) Effizientes Bereitstellen von Belegungsinformationen für das Umfeld eines Fahrzeugs
DE102021202778A1 (de) Verfahren und System zum Bearbeiten einer digitalen Sicherheitskarte für den Straßenverkehr
DE102019102919A1 (de) Verfahren, Vorrichtung, Computerprogramm und Computerprogrammprodukt zum Betreiben eines Fahrzeuges
DE102017207441A1 (de) Verfahren zum Überprüfen einer digitalen Umgebungskarte für ein Fahrerassistenzsystem eines Kraftfahrzeugs, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102019129904A1 (de) Automatische Fahrkompetenzanalyse
EP3673234A1 (de) Verfahren und vorrichtung zum bestimmen einer hochgenauen position und zum betreiben eines automatisierten fahrzeugs
DE102019102922A1 (de) Verfahren und Vorrichtung zur Multi-Sensor-Datenfusion für automatisierte und autonome Fahrzeuge
DE102022000849A1 (de) Verfahren zur Erzeugung einer Umgebungsrepräsentation für ein Fahrzeug
DE102019211006B4 (de) Auswerten von Sensordaten eines Fahrzeugs
EP4222451A1 (de) Kartenplausibilitätsprüfungsverfahren
DE102022002498B3 (de) Verfahren zum Fusionieren von Sensordaten
DE102019214345B4 (de) Verfahren zur Dejustageerkennung wenigstens eines Sensors eines Kraftfahrzeugs

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication