DE102016212716A1 - CONTROL DEVICE AND METHOD - Google Patents

CONTROL DEVICE AND METHOD Download PDF

Info

Publication number
DE102016212716A1
DE102016212716A1 DE102016212716.0A DE102016212716A DE102016212716A1 DE 102016212716 A1 DE102016212716 A1 DE 102016212716A1 DE 102016212716 A DE102016212716 A DE 102016212716A DE 102016212716 A1 DE102016212716 A1 DE 102016212716A1
Authority
DE
Germany
Prior art keywords
detection device
vehicle
vehicle information
detection
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016212716.0A
Other languages
German (de)
Inventor
Florian Gross
Emal Sadran
Tim Kreutzmann
Marc Fischer
Thomas Wichmann
Simon Hachfeld
Gerrit Wischer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Autonomous Mobility Germany GmbH
Original Assignee
Conti Temic Microelectronic GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Conti Temic Microelectronic GmbH filed Critical Conti Temic Microelectronic GmbH
Priority to DE102016212716.0A priority Critical patent/DE102016212716A1/en
Publication of DE102016212716A1 publication Critical patent/DE102016212716A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4021Means for monitoring or calibrating of parts of a radar system of receivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9322Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Die vorliegende Erfindung offenbart eine Steuervorrichtung (1, 20) für ein Fahrzeug, mit einer ersten Erfassungseinrichtung (3, 6, 22, 25), welche ausgebildet ist, Fahrzeuginformationen (4, 7, 23, 26) über das Fahrzeug (2, 21) oder die Umgebung des Fahrzeugs zu erfassen, und mit einer Recheneinrichtung (5, 8, 24, 27, 28), welche ausgebildet ist, die erfassten Fahrzeuginformationen (4, 7, 23, 26) basierend auf den Fahrzeuginformationen (4, 7, 23, 26) einer zweiten Erfassungseinrichtung (3, 6, 22, 25) zu verarbeiten. Ferner offenbart die vorliegende Erfindung ein entsprechendes Verfahren.The present invention discloses a control device (1, 20) for a vehicle, having a first detection device (3, 6, 22, 25) which is designed to transmit vehicle information (4, 7, 23, 26) via the vehicle (2, 21 ) or the surroundings of the vehicle, and with a computing device (5, 8, 24, 27, 28), which is configured, the detected vehicle information (4, 7, 23, 26) based on the vehicle information (4, 7, 23, 26) of a second detection device (3, 6, 22, 25) to process. Furthermore, the present invention discloses a corresponding method.

Description

Gebiet der ErfindungField of the invention

Die vorliegende Erfindung bezieht sich auf eine Steuervorrichtung für ein Fahrzeug und ein entsprechendes Verfahren.The present invention relates to a control device for a vehicle and a corresponding method.

Stand der TechnikState of the art

Obwohl die vorliegende Erfindung im Folgenden hauptsächlich in Zusammenhang mit Personenkraftwagen beschrieben wird, ist sie darauf nicht beschränkt, sondern kann mit jeder Art von Fahrzeug genutzt werden.Although the present invention will be described below mainly in connection with passenger cars, it is not limited thereto, but may be used with any type of vehicle.

In modernen Fahrzeugen wird eine Vielzahl von Fahrzeugfunktionen eingesetzt, welche den Fahrer beim Führen des Fahrzeugs unterstützen oder ihm diese Aufgabe abnehmen, also das Fahrzeug autonom bewegen.In modern vehicles a variety of vehicle functions is used, which support the driver when driving the vehicle or take this task, so move the vehicle autonomously.

Um eine autonome Bewegung des Fahrzeugs zu ermöglichen, muss die Fahrzeugumgebung für die jeweiligen Fahrzeugsysteme erfasst werden, sodass diese z. B. eine Trajektorie für das Fahrzeug planen können.In order to enable an autonomous movement of the vehicle, the vehicle environment for the respective vehicle systems must be detected, so that z. B. can plan a trajectory for the vehicle.

Die Fahrzeugumgebung kann dazu z. B. von unterschiedlichen Sensoren erfasst werden, deren Daten zusammengeführt werden, um ein aussagekräftiges Modell über die Fahrzeugumgebung zu erhalten.The vehicle environment can be z. B. are detected by different sensors whose data are merged to obtain a meaningful model on the vehicle environment.

Offenbarung der ErfindungDisclosure of the invention

Es ist eine Aufgabe der vorliegenden Erfindung eine verbesserte Erfassung der Fahrzeugumgebung zu ermöglichen.It is an object of the present invention to enable improved detection of the vehicle environment.

Diese Aufgabe wird gelöst durch eine Steuervorrichtung mit den Merkmalen des unabhängigen Patentanspruchs 1 und ein Verfahren mit den Merkmalen des unabhängigen Patentanspruchs 8.This object is achieved by a control device having the features of independent patent claim 1 and a method having the features of independent claim 8.

Demgemäß ist vorgesehen:
Eine Steuervorrichtung für ein Fahrzeug, mit einer ersten Erfassungseinrichtung, welche ausgebildet ist, Fahrzeuginformationen über das Fahrzeug oder die Umgebung des Fahrzeugs zu erfassen, und mit einer Recheneinrichtung, welche ausgebildet ist, die erfassten Fahrzeuginformationen basierend auf den Fahrzeuginformationen mindestens einer zweiten Erfassungseinrichtung zu verarbeiten.
Accordingly, it is provided:
A control device for a vehicle, having a first detection device, which is configured to detect vehicle information about the vehicle or the surroundings of the vehicle, and having a computing device, which is configured to process the detected vehicle information based on the vehicle information of at least one second detection device.

Ferner ist vorgesehen:
Ein Verfahren zum Verarbeiten von Sensordaten für ein Fahrzeug, aufweisen die Schritte: Erfassen von Fahrzeuginformationen über das Fahrzeug oder die Umgebung des Fahrzeugs mit einer ersten Erfassungseinrichtung, Erfassen von Fahrzeuginformationen über das Fahrzeug oder die Umgebung des Fahrzeugs mit mindestens einer zweiten Erfassungseinrichtung, und Verarbeiten der erfassten Fahrzeuginformationen der ersten Erfassungseinrichtung basierend auf den Fahrzeuginformationen der zweiten Erfassungseinrichtung.
It is also provided:
A method for processing sensor data for a vehicle, comprising the steps of: acquiring vehicle information about the vehicle or the surroundings of the vehicle with a first detection device, acquiring vehicle information about the vehicle or the surroundings of the vehicle with at least one second detection device, and processing the vehicle detected vehicle information of the first detection device based on the vehicle information of the second detection device.

Vorteile der ErfindungAdvantages of the invention

Üblicherweise werden Daten unterschiedlicher Sensoren in einem Fahrzeug zusammengeführt, um z. B. ein Umgebungsmodell der Fahrzeugumgebung zu erzeugen. Dazu liefern die einzelnen Sensorsysteme des Fahrzeugs Sensordaten z. B. an ein übergeordnetes Steuergerät, welches eine sog. Sensordatenfusion durchführt und das Umgebungsmodell erzeugt.Usually, data from different sensors are combined in a vehicle, for. B. to create an environment model of the vehicle environment. For this purpose, the individual sensor systems of the vehicle provide sensor data z. B. to a higher-level control unit, which performs a so-called. Sensor data fusion and generates the environment model.

Die vorliegende Erfindung basiert auf der Erkenntnis, dass es bereits zu einem früheren Stadium in der Signalkette hilfreich sein kann, zu einem Sensor Informationen von anderen Sensoren zu erhalten. The present invention is based on the recognition that it may be helpful at an earlier stage in the signal chain to obtain information from other sensors to a sensor.

Solche Daten können z. B. wichtige Informationen für eine sensorinterne Signalaufbereitung liefern. So kann beispielsweise eine Kamera dem Radarsensor mitteilen, wenn sie erkannt hat, dass es regnet oder schneit. Der Radarsensor kann seine interne Signalverarbeitung dann an diese veränderten Umgebungsbedingungen anpassen.Such data can z. B. provide important information for an internal sensor signal conditioning. For example, a camera may tell the radar sensor if it detects that it is raining or snowing. The radar sensor can then adapt its internal signal processing to these changed environmental conditions.

Die Erfindung leitet also aus den Fahrzeuginformationen einer Erfassungseinrichtung Kontextinformationen ab, die helfen können, die verminderte Leistungsfähigkeit anderer Erfassungseinrichtungen festzustellen oder zu korrigieren. Als Fahrzeuginformationen können dabei alle Informationen bezeichnet werden, die von den Erfassungseinrichtungen über das Fahrzeug erfasst bzw. gesammelt werden. Die Fahrzeuginformationen können dabei von den Erfassungseinrichtungen als Rohdaten bereitgestellt werden. Zusätzlich oder alternativ können die Fahrzeuginformationen vorverarbeitet, z. B. auf Merkmalsebene oder Entscheidungsebene, bereitgestellt werden. Die Merkmalsebene bezeichnet dabei Fahrzeuginformationen, die Informationen über Merkmale, also z. B. erkannte Kanten und Ecken in einem Bild, aufweisen. Die Entscheidungsebene bezeichnet dabei Fahrzeuginformationen, die Informationen über auszuführende Funktionen, also z. B. die Entscheidung über eine zu fahrende Fahrzeugtrajektorie, aufweisen. Hier können die Merkmale zu einer Objekthypothese verarbeitet werden und so z. B. erkannte Objekte gekennzeichnet werden. Die Fahrzeuginformationen können auch in aufbereiteter, also z. B. gefilterter, Form und/oder als Rohdaten bzw. auch prädizierte Daten oder jeweils als ein lokales Umgebungsmodell bereitgestellt werden.The invention thus derives context information from the vehicle information of a detection device, which can help to determine or correct the reduced efficiency of other detection devices. In this case, all information which is acquired or collected by the detection devices via the vehicle can be referred to as vehicle information. The vehicle information can be provided by the detection devices as raw data. Additionally or alternatively, the vehicle information may be preprocessed, e.g. At feature level or decision level. The feature level denotes vehicle information, the information about features, ie z. B. recognized edges and corners in an image, have. The decision level refers to vehicle information, the information about functions to be performed, so z. As the decision on a vehicle trajectory to drive, have. Here, the features can be processed into an object hypothesis and so z. B. recognized objects are identified. The vehicle information can also be edited, so z. B. filtered, shape and / or as raw data or predicted data or in each case as a local environment model.

Die vorliegende Erfindung ermöglicht folglich z. B. eine verbesserte Signalverarbeitung in den einzelnen Sensorsystemen. Die einzelnen Sensorsysteme können selbstverständlich mehr als eine Erfassungseinrichtung aufweisen. Beispielsweise kann ein Surround-View System eine Mehrzahl von Kameras aufweisen. The present invention thus enables z. B. an improved signal processing in the individual sensor systems. Of course, the individual sensor systems can have more than one detection device. For example, a surround view system may include a plurality of cameras.

Insbesondere können einzelnen Sensoren Informationen über Umgebungs- bzw. Fahrzeugbedingungen mitgeteilt werden, die für deren Signalerfassung oder Signalverarbeitung relevant sind bzw. diese beeinflussen.In particular, individual sensors can be informed about environmental or vehicle conditions that are relevant for their signal acquisition or signal processing or influence them.

Es versteht sich, dass die Steuervorrichtung auch weiterführende Steueraufgaben in dem Fahrzeug ausführen kann oder die aufbereiteten Fahrzeuginformationen anderen Steuereinrichtungen bereitstellen kann.It is understood that the control device can also carry out further control tasks in the vehicle or can provide the edited vehicle information to other control devices.

Vorteilhafte Ausführungsformen und Weiterbildungen ergeben sich aus den Unteransprüchen sowie aus der Beschreibung unter Bezugnahme auf die Figuren.Advantageous embodiments and further developments emerge from the dependent claims and from the description with reference to the figures.

In einer Ausführungsform können die erste Erfassungseinrichtung und die zweite Erfassungseinrichtung unterschiedliche physikalische Erfassungsprinzipien nutzen. Beispielsweise kann die erste Erfassungseinrichtung ein Radarsensor sein, während die zweite Erfassungseinrichtung z. B. eine Kamera sein kann. Weitere mögliche Arten von Sensoren sind z. B. Ultraschallsensoren, Lidarsensoren, Inertialsensoren, GPS-Sensoren oder Gierratensensoren. Jede Kombination der genannten oder weiterer Sensoren ist dabei möglich.In an embodiment, the first detection means and the second detection means may use different physical detection principles. For example, the first detection device may be a radar sensor, while the second detection device z. B. may be a camera. Other possible types of sensors are z. As ultrasonic sensors, lidar sensors, inertial sensors, GPS sensors or yaw rate sensors. Any combination of the mentioned or other sensors is possible.

In einer Ausführungsform kann die Recheneinrichtung mit der ersten Erfassungseinrichtung in einem ersten Sensorsystem angeordnet sein. Die zweite Erfassungseinrichtung kann in einem zweiten Sensorsystem angeordnet sein. Die Recheneinrichtung bildet also gemeinsam mit der ersten Erfassungseinrichtung ein einzelnes, separates Sensorsystem eines Fahrzeugs. Beispielsweise kann dieses Sensorsystem ein Radarsystem sein, welches anderen Fahrzeugsystemen Informationen über die Objekte bereitstellt, die ein Radarsensor erfasst hat.In one embodiment, the computing device may be arranged with the first detection device in a first sensor system. The second detection device can be arranged in a second sensor system. The computing device thus forms, together with the first detection device, a single, separate sensor system of a vehicle. For example, this sensor system may be a radar system that provides other vehicle systems information about the objects that a radar sensor has detected.

Die Recheneinrichtung kann eine interne Messwertverarbeitung durchführen und aus den Radarrohdaten z. B. entsprechende Informationen für die weiteren Fahrzeugsysteme generieren. Die Recheneinrichtung kann z. B. auch ein lokales Umgebungsmodell in dem Sensorsystem erzeugen und anderen Fahrzeugsystemen bereitstellen. Erstellen mehrere Recheneinrichtungen in unterschiedlichen Sensorsystemen eigene Modelle und existiert ein zentrales Umgebungsmodell, kann dies auch als hybrides Umgebungsmodell bezeichnet werden.The computing device can perform an internal measurement value processing and from the Radarrohdaten z. B. generate corresponding information for the other vehicle systems. The computing device can, for. B. also generate a local environment model in the sensor system and provide it to other vehicle systems. If several computing devices in different sensor systems create their own models and a central environment model exists, this can also be referred to as a hybrid environment model.

Die Fahrzeuginformationen der zweiten Erfassungseinrichtung kann die Recheneinrichtung z. B. über einen Fahrzeugbus, z. B. CAN oder FlexRay, abrufen.The vehicle information of the second detection device, the computing device z. B. via a vehicle bus, z. For example, CAN or FlexRay.

In einer Ausführungsform kann die die Recheneinrichtung unabhängig von der ersten Erfassungseinrichtung und der zweiten Erfassungseinrichtung die Fahrzeuginformationen von den einzelnen Erfassungseinrichtungen abrufen. Die Recheneinrichtung kann also z. B. eine übergeordnete Recheneinrichtung sein, die keinem speziellen Sensor zugeordnet ist. Eine solche übergeordnete Recheneinrichtung kann z. B. zur Sensordatenfusion in dem Fahrzeug dienen und ein Umgebungsmodell bzw. ein Egomodell, also ein physikalisches Fahrzeugmodell, des Fahrzeugs erstellen. Dazu kann die Recheneinrichtung eine Vielzahl von Sensordaten verknüpfen, also fusionieren. In one embodiment, the computing device may retrieve the vehicle information from the individual detection devices independently of the first detection device and the second detection device. The computing device can thus z. B. may be a higher-level computing device that is not associated with any special sensor. Such a higher-level computing device can, for. B. serve for sensor data fusion in the vehicle and create an environment model or a model Eg, ie a physical vehicle model of the vehicle. For this purpose, the computing device can link a large number of sensor data, that is, fuse it.

Die Sensordatenfusion kann dabei adaptiv, also nicht statisch, basierend auf den Fahrzeuginformationen der einzelnen Erfassungseinrichtungen erfolgen. Dabei kann die Recheneinrichtung z. B. von einer Kamera die Information erhalten, dass es schneit und diese Information bei der Fusion der Sensordaten z. B. eines Radars, eines Lidarsensors oder dergleichen berücksichtigen. Beispielsweise kann auch die Information über einen durch den Radar erkannten Tunnel genutzt werden, um z. B. bei Lidarsensoren oder Kamera-basierten Sensoren entsprechende Störungen begründen zu können. Die Recheneinrichtung kann z. B. die Konfidenzwerte, also ein Maß für das Vertrauen in die jeweiligen Sensorwerte, entsprechend anpassen. So wird eine verlässlichere Selbsteinschätzung des Fahrzeugs möglich.The sensor data fusion can be adaptive, not static, based on the vehicle information of the individual detection devices. In this case, the computing device z. B. from a camera receive the information that it is snowing and this information in the fusion of the sensor data z. As a radar, a Lidarsensors or the like into account. For example, the information about a detected by the radar tunnel can be used to z. B. in lidar sensors or camera-based sensors to establish appropriate interference. The computing device can, for. B. the confidence levels, so a measure of confidence in the respective sensor values, adjust accordingly. This allows a more reliable self-assessment of the vehicle.

Findet die Sensorfusion zentral in dem Fahrzeug statt und wird ein entsprechendes Umgebungsmodell erzeugt, kann dies auch als zentrales Umgebungsmodell bezeichnet werden.If the sensor fusion takes place centrally in the vehicle and a corresponding environmental model is generated, this can also be referred to as a central environmental model.

Selbstverständlich kann auch eine lokale Recheneinrichtung eines Sensorsystems diese Aufgaben erfüllen und über einen Fahrzeugbus das Fahrzeugmodell anderen Systemen bereitstellen.Of course, a local computing device of a sensor system can fulfill these tasks and provide the vehicle model to other systems via a vehicle bus.

In einer Ausführungsform kann die Recheneinrichtung ausgebildet sein, ein Konfidenzmodell für die Erfassungseinrichtungen zu erstellen, in welchem die Recheneinrichtung die Konfidenzwerte für jeweils eine der Erfassungseinrichtungen basierend auf den Fahrzeuginformationen mindestens einer anderen der Erfassungseinrichtungen berechnet. Die Recheneinrichtung erstellt also neben dem Umgebungsmodell zusätzlich ein Konfidenzmodell, in welchem eine Art Vertrauensgrad für die einzelnen Erfassungseinrichtungen festgelegt wird. Die Konfidenzwerte geben dabei ein Maß für das Vertrauen in die jeweilige Erfassungseinrichtung an. Das Konfidenzmodell kann selbstverständlich auch in ein entsprechendes Umgebungsmodell integriert werden.In one embodiment, the computing device may be configured to create a confidence model for the detection devices, in which the computing device calculates the confidence values for one of the detection devices based on the vehicle information of at least one other of the detection devices. In addition to the environment model, the computing device additionally creates a confidence model in which a type of confidence level for the individual detection devices is determined. The confidence values provide a measure of trust in the company respective detection device on. Of course, the confidence model can also be integrated into a corresponding environment model.

In einer Ausführungsform kann die erste Erfassungseinrichtung als Kamera-basierte Erfassungseinrichtung ausgebildet ein. Die zweite Erfassungseinrichtung kann als Radarbasierten Erfassungseinrichtung ausgebildet sein. Ferner kann die Recheneinrichtung ausgebildet sein, von der zweiten Erfassungseinrichtung Daten über erkannte Objekte abzurufen und die Bildausschnitte in den Daten der Kamera-basierten Erfassungseinrichtung, welche den erkannten Objekten entsprechen, mit erhöhter Genauigkeit zu analysieren. Ein Radar hat üblicherweise eine größere Reichweite als ein Kamerasystem und kann Objekte direkt aus seinen Messwerten heraus identifizieren, ohne komplexe Signal- bzw. Bildverarbeitungsalgorithmen zu nutzen. Eine Kamera dagegen ermöglicht mit komplexen Bildanalysen eine exakte Aussage über Art und Typ des Objekts. Wird das Vorhandensein eines Objekts also durch ein Radarsystem erkannt, kann diese Information genutzt werden, um diejenigen Bildausschnitt in dem Kamerabild intensiver zu bearbeiten, z. B. mit einer höheren Auflösung oder komplexeren Algorithmen, die dem erkannten Objekt entsprechen.In one embodiment, the first detection device can be designed as a camera-based detection device. The second detection device can be designed as a radar-based detection device. Furthermore, the computing device may be configured to retrieve data about detected objects from the second detection device and to analyze the image sections in the data of the camera-based detection device, which correspond to the detected objects, with increased accuracy. A radar usually has a greater range than a camera system and can identify objects directly from its measurements without using complex signal or image processing algorithms. On the other hand, a camera with complex image analyzes enables an exact statement about the type and type of the object. If the presence of an object is thus detected by a radar system, this information can be used to more intensively process those image sections in the camera image, eg. With higher resolution or more complex algorithms corresponding to the detected object.

In einer Ausführungsform kann die erste Erfassungseinrichtung als Radarbasierten Erfassungseinrichtung ausgebildet sein. Ferner kann die zweite Erfassungseinrichtung als Kamerabasierte Erfassungseinrichtung ausgebildet sein. Die Recheneinrichtung kann ausgebildet sein, von der zweiten Erfassungseinrichtung Daten über die Wetterlage abzurufen und das Rauschniveau in den Daten der Radareinrichtung entsprechend der Wetterlage zu korrigieren. Radarsensoren können durch Schneeflocken, Regentropen oder Nebeltropfen in der Luft beeinflusst werden. Insbesondere steigt dadurch deren Rauschniveau. Wird durch die Kamera eine solche Wettersituation erkannt, kann dies bei der Auswertung der Radardaten genutzt werden, um diese zu korrigieren oder zumindest deren hohes Rauschniveau zu erklären.In an embodiment, the first detection device may be designed as a radar-based detection device. Furthermore, the second detection device can be designed as a camera-based detection device. The computing device can be configured to retrieve data about the weather situation from the second detection device and to correct the noise level in the data of the radar device in accordance with the weather situation. Radar sensors can be affected by snowflakes, rain drops or mist drops in the air. In particular, this increases their noise level. If the camera detects such a weather situation, this can be used in the evaluation of the radar data in order to correct it or at least to explain its high noise level.

Die obigen Ausgestaltungen und Weiterbildungen lassen sich, sofern sinnvoll, beliebig miteinander kombinieren. Weitere mögliche Ausgestaltungen, Weiterbildungen und Implementierungen der Erfindung umfassen auch nicht explizit genannte Kombinationen von zuvor oder im Folgenden bezüglich der Ausführungsbeispiele beschriebenen Merkmalen der Erfindung. Insbesondere wird dabei der Fachmann auch Einzelaspekte als Verbesserungen oder Ergänzungen zu der jeweiligen Grundform der vorliegenden Erfindung hinzufügen.The above embodiments and developments can, if appropriate, combine with each other as desired. Further possible refinements, developments and implementations of the invention also include combinations of features of the invention which have not been explicitly mentioned above or described below with regard to the exemplary embodiments. In particular, the person skilled in the art will also add individual aspects as improvements or additions to the respective basic form of the present invention.

Kurze Beschreibung der ZeichnungenBrief description of the drawings

Die vorliegende Erfindung wird nachfolgend anhand der in den schematischen Figuren der Zeichnungen angegebenen Ausführungsbeispiele näher erläutert. Es zeigen dabei:The present invention will be explained in more detail with reference to the exemplary embodiments indicated in the schematic figures of the drawings. It shows:

1 ein Blockschaltbild einer Ausführungsform einer erfindungsgemäßen Steuervorrichtung; 1 a block diagram of an embodiment of a control device according to the invention;

2 ein Blockschaltbild einer weiteren Ausführungsform einer erfindungsgemäßen Steuervorrichtung; und 2 a block diagram of another embodiment of a control device according to the invention; and

3 ein Ablaufdiagramm einer Ausführungsform eines erfindungsgemäßen Verfahrens. 3 a flow diagram of an embodiment of a method according to the invention.

In allen Figuren sind gleiche bzw. funktionsgleiche Elemente und Vorrichtungen – sofern nichts Anderes angegeben ist – mit denselben Bezugszeichen versehen worden.In all figures, the same or functionally identical elements and devices - unless otherwise stated - have been given the same reference numerals.

Ausführungsformen der ErfindungEmbodiments of the invention

1 zeigt ein Blockschaltbild einer Ausführungsform einer erfindungsgemäßen Steuervorrichtung 1, die in einem Fahrzeug 2 angeordnet ist. Die Steuervorrichtung 1 dient insbesondere der Sensordatenaufbereitung, kann aber auch weitergehende Steueraufgaben, wie z. B. eine autonome Fahrzeugsteuerung, ausführen. 1 shows a block diagram of an embodiment of a control device according to the invention 1 in a vehicle 2 is arranged. The control device 1 is used in particular for sensor data processing, but can also be used for more extensive control tasks such. As an autonomous vehicle control run.

In dem Fahrzeug 2 ist eine als Kamera 3 ausgebildete erste Erfassungseinrichtung angeordnet, welche Kamerabilder 4 aufnimmt und an die Recheneinrichtung 5 überträgt. Die Kamera 3 und die Recheneinrichtung 5 bilden zusammen ein erstes Sensorsystem 9. In dem Fahrzeug 2 ist ferner eine als Radarsensor 6 ausgebildete zweite Erfassungseinrichtung angeordnet, die Radardaten 7 erfasst und an eine Recheneinrichtung 8 ausgibt. Der Radarsensors 6 und die Recheneinrichtung 8 bilden zusammen ein zweites Sensorsystem 10. Die Recheneinrichtung 8 verarbeitet die Radardaten 7, erzeugt also z. B. ein Umfeldmodell 12.In the vehicle 2 is one as a camera 3 trained first detection device arranged which camera images 4 and to the computing device 5 transfers. The camera 3 and the computing device 5 together form a first sensor system 9 , In the vehicle 2 is also a radar sensor 6 trained second detection device arranged radar data 7 captured and sent to a computing device 8th outputs. The radar sensor 6 and the computing device 8th together form a second sensor system 10 , The computing device 8th processes the radar data 7 , thus generates z. B. an environment model 12 ,

Der Radarsensor 6 übermittelt die Radardaten 7 zusätzlich auch an die Recheneinrichtung 5, welche aus den Kamerabildern 4 und den Radardaten 7 ebenfalls ein Umfeldmodell 11 erzeugt. Die Umfeldmodelle 11 und 12 können z. B. als lokale Umfeldmodelle 11 und 12 an eine zentrale Steuereinrichtung (nicht separat dargestellt) übermittelt werden, welche eine Sensorfusion durchführt und ein zentrales Umfeldmodell für andere Fahrzeugsysteme bereitstellt.The radar sensor 6 transmits the radar data 7 in addition also to the computing device 5 , which from the camera pictures 4 and the radar data 7 also an environment model 11 generated. The environment models 11 and 12 can z. B. as local environment models 11 and 12 to a central control device (not shown separately), which performs a sensor fusion and provides a central environment model for other vehicle systems.

Die Recheneinrichtung 5 kann die Radardaten 7 als Rohdaten empfangen und auswerten, also z. B. Objekte detektieren. Alternativ kann die Recheneinrichtung 5 aber auch bereits vorverarbeitete Radardaten 7 erhalten, die lediglich Informationen über erkannte Objekte enthalten. Basierend auf den aus den Radardaten 7 extrahierten oder in diesen enthaltenen Informationen kann die Recheneinrichtung 5 dann die Kamerabilder 4 verarbeiten. Beispielsweise kann die Recheneinrichtung 5 die Kamerabilder 4 an denjenigen Positionen einer intensiven Analyse unterziehen, die in den Kamerabildern 4 den in den Radardaten 7 erkannten Objekten entsprechen.The computing device 5 can the radar data 7 received as raw data and evaluate, so z. B. Detecting objects. Alternatively, the computing device 5 but also already preprocessed radar data 7 which only contain information about detected objects. Based on the radar data 7 extracted or contained in this information, the computing device 5 then the camera pictures 4 to process. For example, the computing device 5 the camera pictures 4 at those positions undergo an intensive analysis that in the camera images 4 in the radar data 7 correspond to detected objects.

Es versteht sich, dass die oben beschriebene Anordnung lediglich beispielhaft ist. Die Kamera 3 kann die Kamerabilder 4 oder z. B. Informationen über erkannten Regen, Schnee oder Nebel, auch an die Recheneinrichtung 8 übermitteln. Die Recheneinrichtung 8 kann diese dann Nutzen, um z. B. erhöhtes Rauschen in den Radardaten 7 zu erklären oder zu beseitigen, also z. B. herauszurechnen. Ferner kann das Sensorsystem 9 z.B. weitere Kameras aufweisen bzw. das Sensorsystem 10 kann mehr als einen Radarsensor aufweisen.It is understood that the arrangement described above is merely exemplary. The camera 3 can the camera pictures 4 or z. B. information about detected rain, snow or fog, even to the computing device 8th to transfer. The computing device 8th This can then be used to z. B. increased noise in the radar data 7 to explain or eliminate, so z. B. to calculate. Furthermore, the sensor system 9 For example, have more cameras or the sensor system 10 can have more than one radar sensor.

2 zeigt eine Steuervorrichtung 20, die in dem Fahrzeug 21 angeordnet ist. Die Steuervorrichtung 20 weist ebenfalls zwei Sensorsysteme 31, 32 auf. Wie in 1 weist das Sensorsystem 31 eine Kamera 22 auf, die einer Recheneinrichtung 24 Kamerabilder 23 bereitstellt. Das Sensorsystem 32 weist einen Radarsensor 25 auf, der einer Recheneinrichtung 27 Radardaten 26 übermittelt. 2 shows a control device 20 in the vehicle 21 is arranged. The control device 20 also has two sensor systems 31 . 32 on. As in 1 has the sensor system 31 a camera 22 on, that of a computing device 24 camera images 23 provides. The sensor system 32 has a radar sensor 25 on top of a computing device 27 radar data 26 transmitted.

Die zwei Sensorsysteme 31, 32 geben jeweils ein Umgebungsmodell 33, 34 aus und übermitteln dieses an eine zentrale Recheneinrichtung 28. Die Recheneinrichtung 28 erzeugt aus den Umgebungsmodellen 33, 34 ein zentrales Umgebungsmodell 29 und stellt dieses anderen Fahrzeugfunktionen bzw. Steuergeräten zur Verfügung. Gleichzeitig erzeugt die Recheneinrichtung 28 ein Konfidenzmodell, in welchem die Recheneinrichtung 28 jeweils die Daten der einzelnen Sensorsysteme 31, 32 anhand der Daten mindestens eines anderen Sensorsystems 32, 31 bewertet und ihnen einen Konfidenzwert zuweist. Der Konfidenzwert kann z. B. eine Wahrscheinlichkeit dafür kennzeichnen, dass die jeweiligen Fahrzeuginformationen korrekt sind. The two sensor systems 31 . 32 each give an environment model 33 . 34 and transmit this to a central computing device 28 , The computing device 28 generated from the environment models 33 . 34 a central environment model 29 and makes this available to other vehicle functions or control devices. At the same time, the computing device generates 28 a confidence model in which the computing device 28 in each case the data of the individual sensor systems 31 . 32 based on the data of at least one other sensor system 32 . 31 and assign them a confidence score. The confidence value can be z. B. indicate a likelihood that the respective vehicle information is correct.

Es versteht sich, dass die in der 2 dargestellte Anordnung lediglich beispielhafter Natur ist. Andere Anordnungen sind ebenfalls möglich. Beispielsweise kann die zentrale Steuereinrichtung 28 auch in einem weiteren Fahrzeugsystem integriert sein und neben der Funktion des Fahrzeugsystems auch die Sensordatenfusion wie oben beschrieben durchführen.It is understood that in the 2 shown arrangement is merely exemplary in nature. Other arrangements are also possible. For example, the central control device 28 be integrated into another vehicle system and perform the sensor data fusion in addition to the function of the vehicle system as described above.

3 zeigt ein Ablaufdiagramm eines Verfahrens zum Verarbeiten von Sensordaten. 3 shows a flowchart of a method for processing sensor data.

In einem ersten Schritt S1 werden Fahrzeuginformationen 4, 7, 23, 26 über das Fahrzeug 2, 21 oder die Umgebung des Fahrzeugs 2, 21 mit einer ersten Erfassungseinrichtung 3, 6, 22, 25 erfasst. In Schritt S2 werden weitere Fahrzeuginformationen 4, 7, 23, 26 über das Fahrzeug 2, 21 oder die Umgebung des Fahrzeugs 2, 21 mit einer zweiten Erfassungseinrichtung 3, 6, 22, 25 erfasst. Dabei können die erste und die zweite Erfassungseinrichtung 3, 6, 22, 25 auf unterschiedlichen physikalischen Messprinzipien basieren. Beispielsweise kann eine der Messeinrichtungen 3, 6, 22, 25 ein optisches Messverfahren anwenden, während die andere ein elektromagnetisches Messverfahren anwendet.In a first step S1 vehicle information 4 . 7 . 23 . 26 about the vehicle 2 . 21 or the environment of the vehicle 2 . 21 with a first detection device 3 . 6 . 22 . 25 detected. In step S2, further vehicle information 4 . 7 . 23 . 26 about the vehicle 2 . 21 or the environment of the vehicle 2 . 21 with a second detection device 3 . 6 . 22 . 25 detected. In this case, the first and second detection means 3 . 6 . 22 . 25 based on different physical measuring principles. For example, one of the measuring devices 3 . 6 . 22 . 25 use an optical measuring method while the other uses an electromagnetic measuring method.

Schließlich werden in Schritt S3 die erfassten Fahrzeuginformationen 4, 7, 23, 26 der ersten Erfassungseinrichtung 3, 6, 22, 25 basierend auf den Fahrzeuginformationen 4, 7, 23, 26 der zweiten Erfassungseinrichtung 3, 6, 22, 25 verarbeitet.Finally, in step S3, the detected vehicle information 4 . 7 . 23 . 26 the first detection device 3 . 6 . 22 . 25 based on the vehicle information 4 . 7 . 23 . 26 the second detection device 3 . 6 . 22 . 25 processed.

Die Anordnung der einzelnen Erfassungseinrichtungen 3, 6, 22, 25 ist dabei flexibel. Beispielsweise kann das Erfassen und Verarbeiten der Fahrzeuginformationen 4, 7, 23, 26 der ersten Erfassungseinrichtung 3, 6, 22, 25 in einem ersten Sensorsystem 9, 10 durchgeführt werden. Die Fahrzeuginformationen 4, 7, 23, 26 der zweiten Erfassungseinrichtung 3, 6, 22, 25 können dagegen in einem zweiten Sensorsystem 9, 10 erfasst werden. Die einzelnen Sensorsysteme 9, 10 können also lokale Recheneinrichtungen 5, 8, 24, 27 aufweisen.The arrangement of the individual detection devices 3 . 6 . 22 . 25 is flexible. For example, the detection and processing of the vehicle information 4 . 7 . 23 . 26 the first detection device 3 . 6 . 22 . 25 in a first sensor system 9 . 10 be performed. The vehicle information 4 . 7 . 23 . 26 the second detection device 3 . 6 . 22 . 25 can in contrast in a second sensor system 9 . 10 be recorded. The individual sensor systems 9 . 10 So can local computing devices 5 . 8th . 24 . 27 exhibit.

Alternativ können die Fahrzeuginformationen 4, 7, 23, 26 der ersten Erfassungseinrichtung 3, 6, 22, 25 und die Fahrzeuginformationen 4, 7, 23, 26 der zweiten Erfassungseinrichtung 3, 6, 22, 25 zum Verarbeiten zentral abgerufen werden. Also z. B. in einer zentralen Recheneinrichtung 28 verarbeitet werden.Alternatively, the vehicle information 4 . 7 . 23 . 26 the first detection device 3 . 6 . 22 . 25 and the vehicle information 4 . 7 . 23 . 26 the second detection device 3 . 6 . 22 . 25 be retrieved centrally for processing. So z. B. in a central computing device 28 are processed.

Neben der reinen Datenverarbeitung, z. B. zur Objekterkennung, kann ein Konfidenzmodell 30 für die Erfassungseinrichtungen 3, 6, 22, 25 erstellt werden. In diesem können Konfidenzwerte für Fahrzeuginformationen 4, 7, 23, 26 jeweils einer der Erfassungseinrichtungen 3, 6, 22, 25 basierend auf den Fahrzeuginformationen 4, 7, 23, 26 mindestens einer anderen der Erfassungseinrichtungen 3, 6, 22, 25 berechnet werden.In addition to pure data processing, z. B. for object recognition, can be a confidence model 30 for the detection devices 3 . 6 . 22 . 25 to be created. In this can provide confidence values for vehicle information 4 . 7 . 23 . 26 each one of the detection devices 3 . 6 . 22 . 25 based on the vehicle information 4 . 7 . 23 . 26 at least one other of the detection devices 3 . 6 . 22 . 25 be calculated.

Die Erfassungseinrichtungen 3, 6, 22, 25 können unterschiedliche Messprinzipien nutzen. Beispielsweise können die Fahrzeuginformationen 4, 7, 23, 26 der ersten Erfassungseinrichtung 3, 6, 22, 25 Kamera-basiert erfasst werden. Die Fahrzeuginformationen 4, 7, 23, 26 der zweiten Erfassungseinrichtung 3, 6, 22, 25 können beispielsweise Radar-basiert erfasst werden. Bei der Verarbeitung der Fahrzeuginformationen 4, 7, 23, 26 können dann von der zweiten Erfassungseinrichtung 3, 6, 22, 25 Daten über erkannte Objekte abgerufen werden. Diese Information kann genutzt werden, um die Bildausschnitte in den Bilddaten der ersten Erfassungseinrichtung 3, 6, 22, 25, welche den erkannten Objekten entsprechen, mit erhöhter Genauigkeit zu analysieren.The detection devices 3 . 6 . 22 . 25 can use different measuring principles. For example, the vehicle information 4 . 7 . 23 . 26 the first detection device 3 . 6 . 22 . 25 Camera-based capture. The vehicle information 4 . 7 . 23 . 26 the second detection device 3 . 6 . 22 . 25 can be detected, for example, radar-based. When processing the vehicle information 4 . 7 . 23 . 26 can then from the second detection device 3 . 6 . 22 . 25 Retrieve data about detected objects. This information can be used to display the image sections in the image data of the first detection device 3 . 6 . 22 . 25 which correspond to the detected objects to analyze with increased accuracy.

Es können aber auch die Fahrzeuginformationen 4, 7, 23, 26 der ersten Erfassungseinrichtung 3, 6, 22, 25 Radar-basiert erfasst werden und die Fahrzeuginformationen 4, 7, 23, 26 der zweiten Erfassungseinrichtung 3, 6, 22, 25 Kamera-basiert erfasst werden. Von der zweiten Erfassungseinrichtung 3, 6, 22, 25 können dann z. B. Daten über die Wetterlage, z. B. Regen, Schnee, Nebel, abgerufen werden und das Rauschniveau in den Daten der Radareinrichtung entsprechend der Wetterlage korrigiert werden.But it can also the vehicle information 4 . 7 . 23 . 26 the first detection device 3 . 6 . 22 . 25 Radar-based capture and vehicle information 4 . 7 . 23 . 26 the second detection device 3 . 6 . 22 . 25 Camera-based capture. From the second detection device 3 . 6 . 22 . 25 can then z. B. data on the weather, z. As rain, snow, fog, be retrieved and the noise level in the data of the radar device are corrected according to the weather.

Obwohl die vorliegende Erfindung anhand bevorzugter Ausführungsbeispiele vorstehend beschrieben wurde, ist sie darauf nicht beschränkt, sondern auf vielfältige Art und Weise modifizierbar. Insbesondere lässt sich die Erfindung in mannigfaltiger Weise verändern oder modifizieren, ohne vom Kern der Erfindung abzuweichen.Although the present invention has been described above with reference to preferred embodiments, it is not limited thereto, but modifiable in a variety of ways. In particular, the invention can be varied or modified in many ways without deviating from the gist of the invention.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

1, 201, 20
Steuervorrichtung control device
2, 212, 21
Fahrzeug  vehicle
3, 6, 22, 253, 6, 22, 25
Erfassungseinrichtung detector
4, 7, 23, 264, 7, 23, 26
Fahrzeuginformationen vehicle information
5, 8, 24, 27, 285, 8, 24, 27, 28
Recheneinrichtung computing device
9, 10, 31, 329, 10, 31, 32
Sensorsystem sensor system
11, 12, 29, 33, 3411, 12, 29, 33, 34
Umgebungsmodell environment model
3030
Konfidenzmodell Konfidenzmodell
S1–S3S1-S3
Verfahrensschritte steps

Claims (14)

Steuervorrichtung (1, 20) für ein Fahrzeug, mit einer ersten Erfassungseinrichtung (3, 6, 22, 25), welche ausgebildet ist, Fahrzeuginformationen (4, 7, 23, 26) über das Fahrzeug (2, 21) oder die Umgebung des Fahrzeugs zu erfassen, und mit einer Recheneinrichtung (5, 8, 24, 27, 28), welche ausgebildet ist, die erfassten Fahrzeuginformationen (4, 7, 23, 26) basierend auf den Fahrzeuginformationen (4, 7, 23, 26) einer zweiten Erfassungseinrichtung (3, 6, 22, 25) zu verarbeiten.Control device ( 1 . 20 ) for a vehicle, with a first detection device ( 3 . 6 . 22 . 25 ), which is designed to receive vehicle information ( 4 . 7 . 23 . 26 ) over the vehicle ( 2 . 21 ) or the environment of the vehicle, and with a computing device ( 5 . 8th . 24 . 27 . 28 ), which is formed, the detected vehicle information ( 4 . 7 . 23 . 26 ) based on the vehicle information ( 4 . 7 . 23 . 26 ) a second detection device ( 3 . 6 . 22 . 25 ) to process. Steuervorrichtung (1, 20) nach Anspruch 1, wobei die erste Erfassungseinrichtung (3, 6, 22, 25) und die zweite Erfassungseinrichtung (3, 6, 22, 25) unterschiedliche physikalische Erfassungsprinzipien nutzen.Control device ( 1 . 20 ) according to claim 1, wherein the first detection device ( 3 . 6 . 22 . 25 ) and the second detection device ( 3 . 6 . 22 . 25 ) use different physical detection principles. Steuervorrichtung (1, 20) nach einem der Ansprüche 1 und 2, wobei die Recheneinrichtung (5, 8, 24, 27, 28) mit der ersten Erfassungseinrichtung (3, 6, 22, 25) in einem ersten Sensorsystem (9, 10, 31, 32) angeordnet ist und wobei die zweite Erfassungseinrichtung (3, 6, 22, 25) in einem zweiten Sensorsystem (9, 10, 31, 32) angeordnet ist.Control device ( 1 . 20 ) according to one of claims 1 and 2, wherein the computing device ( 5 . 8th . 24 . 27 . 28 ) with the first detection device ( 3 . 6 . 22 . 25 ) in a first sensor system ( 9 . 10 . 31 . 32 ) and wherein the second detection device ( 3 . 6 . 22 . 25 ) in a second sensor system ( 9 . 10 . 31 . 32 ) is arranged. Steuervorrichtung (1, 20) nach einem der vorherigen Ansprüche, wobei die Recheneinrichtung (5, 8, 24, 27, 28) unabhängig von der ersten Erfassungseinrichtung (3, 6, 22, 25) und der zweiten Erfassungseinrichtung (3, 6, 22, 25) die Fahrzeuginformationen (4, 7, 23, 26) von den einzelnen Erfassungseinrichtungen (3, 6, 22, 25) abruft. Control device ( 1 . 20 ) according to one of the preceding claims, wherein the computing device ( 5 . 8th . 24 . 27 . 28 ) independent of the first detection device ( 3 . 6 . 22 . 25 ) and the second detection device ( 3 . 6 . 22 . 25 ) the vehicle information ( 4 . 7 . 23 . 26 ) of the individual collection facilities ( 3 . 6 . 22 . 25 ) retrieves. Steuervorrichtung (1, 20) nach Anspruch 4, wobei die Recheneinrichtung (5, 8, 24, 27, 28) ausgebildet ist, ein Konfidenzmodell (30) für die Erfassungseinrichtungen (3, 6, 22, 25) zu erstellen, in welchem die Recheneinrichtung (5, 8, 24, 27, 28) die Konfidenzwerte für jeweils eine der Erfassungseinrichtungen (3, 6, 22, 25) basierend auf den Fahrzeuginformationen (4, 7, 23, 26) mindestens einer anderen der Erfassungseinrichtungen (3, 6, 22, 25) berechnet.Control device ( 1 . 20 ) according to claim 4, wherein the computing device ( 5 . 8th . 24 . 27 . 28 ), a confidence model ( 30 ) for the detection devices ( 3 . 6 . 22 . 25 ) in which the computing device ( 5 . 8th . 24 . 27 . 28 ) the confidence levels for each of the collection facilities ( 3 . 6 . 22 . 25 ) based on the vehicle information ( 4 . 7 . 23 . 26 ) at least one other of the detection devices ( 3 . 6 . 22 . 25 ). Steuervorrichtung (1, 20) nach einem der vorherigen Ansprüche 1 bis 5, wobei die erste Erfassungseinrichtung (3, 6, 22, 25) als Kamera-basierte Erfassungseinrichtung (3, 6, 22, 25) ausgebildet ist und die zweite Erfassungseinrichtung (3, 6, 22, 25) als Radarbasierten Erfassungseinrichtung (3, 6, 22, 25) ausgebildet ist, und wobei die Recheneinrichtung (5, 8, 24, 27, 28) ausgebildet ist, von der zweiten Erfassungseinrichtung (3, 6, 22, 25) Daten über erkannte Objekte abzurufen und die Bildausschnitte in den Daten der Kamerabasierten Erfassungseinrichtung (3, 6, 22, 25), welche den erkannten Objekten entsprechen, mit erhöhter Genauigkeit zu analysieren.Control device ( 1 . 20 ) according to one of the preceding claims 1 to 5, wherein the first detection device ( 3 . 6 . 22 . 25 ) as a camera-based detection device ( 3 . 6 . 22 . 25 ) and the second detection device ( 3 . 6 . 22 . 25 ) as a radar-based detection device ( 3 . 6 . 22 . 25 ), and wherein the computing device ( 5 . 8th . 24 . 27 . 28 ) is formed by the second detection device ( 3 . 6 . 22 . 25 ) Retrieve data about detected objects and the image sections in the data of the camera-based detection device ( 3 . 6 . 22 . 25 ), which correspond to the detected objects, to analyze with increased accuracy. Steuervorrichtung (1, 20) nach einem der vorherigen Ansprüche 1 bis 5, wobei die erste Erfassungseinrichtung (3, 6, 22, 25) als Radarbasierten Erfassungseinrichtung (3, 6, 22, 25) ausgebildet ist und die zweite Erfassungseinrichtung (3, 6, 22, 25) als Kamera-basierte Erfassungseinrichtung (3, 6, 22, 25) ausgebildet ist, und wobei die Recheneinrichtung (5, 8, 24, 27, 28) ausgebildet ist, von der zweiten Erfassungseinrichtung (3, 6, 22, 25) Daten über die Wetterlage abzurufen und das Rauschniveau in den Daten der Radareinrichtung entsprechend der Wetterlage zu korrigieren. Control device ( 1 . 20 ) according to one of the preceding claims 1 to 5, wherein the first detection device ( 3 . 6 . 22 . 25 ) as a radar-based detection device ( 3 . 6 . 22 . 25 ) and the second detection device ( 3 . 6 . 22 . 25 ) as a camera-based detection device ( 3 . 6 . 22 . 25 ), and wherein the computing device ( 5 . 8th . 24 . 27 . 28 ) is formed by the second detection device ( 3 . 6 . 22 . 25 ) To retrieve data about the weather conditions and to correct the noise level in the data of the radar device according to the weather conditions. Verfahren zum Verarbeiten von Sensordaten für ein Fahrzeug, aufweisen die Schritte: Erfassen (S1) von Fahrzeuginformationen (4, 7, 23, 26) über das Fahrzeug (2, 21) oder die Umgebung des Fahrzeugs (2, 21) mit einer ersten Erfassungseinrichtung (3, 6, 22, 25), Erfassen (S2) von Fahrzeuginformationen (4, 7, 23, 26) über das Fahrzeug (2, 21) oder die Umgebung des Fahrzeugs (2, 21) mit einer zweiten Erfassungseinrichtung (3, 6, 22, 25), und Verarbeiten (S3) der erfassten Fahrzeuginformationen (4, 7, 23, 26) der ersten Erfassungseinrichtung (3, 6, 22, 25) basierend auf den Fahrzeuginformationen (4, 7, 23, 26) der zweiten Erfassungseinrichtung (3, 6, 22, 25).Method for processing sensor data for a vehicle, comprising the steps of: detecting (S1) vehicle information ( 4 . 7 . 23 . 26 ) over the vehicle ( 2 . 21 ) or the environment of the vehicle ( 2 . 21 ) with a first detection device ( 3 . 6 . 22 . 25 ), Detecting (S2) vehicle information ( 4 . 7 . 23 . 26 ) over the vehicle ( 2 . 21 ) or the environment of the vehicle ( 2 . 21 ) with a second detection device ( 3 . 6 . 22 . 25 ), and processing (S3) the captured vehicle information ( 4 . 7 . 23 . 26 ) of the first detection device ( 3 . 6 . 22 . 25 ) based on the vehicle information ( 4 . 7 . 23 . 26 ) of the second detection device ( 3 . 6 . 22 . 25 ). Verfahren nach Anspruch 8, wobei die Fahrzeuginformationen (4, 7, 23, 26) der ersten Erfassungseinrichtung (3, 6, 22, 25) und die Fahrzeuginformationen (4, 7, 23, 26) der zweiten Erfassungseinrichtung (3, 6, 22, 25) mit unterschiedlichen physikalischen Erfassungsprinzipien erfasst werden.Method according to claim 8, wherein the vehicle information ( 4 . 7 . 23 . 26 ) of the first detection device ( 3 . 6 . 22 . 25 ) and the vehicle information ( 4 . 7 . 23 . 26 ) of the second detection device ( 3 . 6 . 22 . 25 ) are detected with different physical detection principles. Verfahren nach einem der Ansprüche 8 und 9, wobei das Erfassen und Verarbeiten der Fahrzeuginformationen (4, 7, 23, 26) der ersten Erfassungseinrichtung (3, 6, 22, 25) in einem ersten Sensorsystem (9, 10, 31, 32) durchgeführt wird und das Erfassen der Fahrzeuginformationen (4, 7, 23, 26) der zweiten Erfassungseinrichtung (3, 6, 22, 25) in einem zweiten Sensorsystem (9, 10, 31, 32) durchgeführt wird.Method according to one of claims 8 and 9, wherein the detection and processing of the vehicle information ( 4 . 7 . 23 . 26 ) of the first detection device ( 3 . 6 . 22 . 25 ) in a first sensor system ( 9 . 10 . 31 . 32 ) and capturing the vehicle information ( 4 . 7 . 23 . 26 ) of the second detection device ( 3 . 6 . 22 . 25 ) in a second sensor system ( 9 . 10 . 31 . 32 ) is carried out. Verfahren nach einem der vorherigen Ansprüche 8 bis 10, wobei die Fahrzeuginformationen (4, 7, 23, 26) der ersten Erfassungseinrichtung (3, 6, 22, 25) und die Fahrzeuginformationen (4, 7, 23, 26) der zweiten Erfassungseinrichtung (3, 6, 22, 25) zum Verarbeiten zentral abgerufen werden.Method according to one of the preceding claims 8 to 10, wherein the vehicle information ( 4 . 7 . 23 . 26 ) of the first detection device ( 3 . 6 . 22 . 25 ) and the vehicle information ( 4 . 7 . 23 . 26 ) of the second detection device ( 3 . 6 . 22 . 25 ) are retrieved for processing centrally. Verfahren nach Anspruch 11, wobei ein Konfidenzmodell (30) für die Erfassungseinrichtungen (3, 6, 22, 25) erstellt wird, in welchem Konfidenzwerte für Fahrzeuginformationen (4, 7, 23, 26) jeweils einer der Erfassungseinrichtungen (3, 6, 22, 25) basierend auf den Fahrzeuginformationen (4, 7, 23, 26) mindestens einer anderen der Erfassungseinrichtungen (3, 6, 22, 25) berechnet werden.The method of claim 11, wherein a confidence model ( 30 ) for the detection devices ( 3 . 6 . 22 . 25 ) in which confidence values for vehicle information ( 4 . 7 . 23 . 26 ) one of the detection devices ( 3 . 6 . 22 . 25 ) based on the vehicle information ( 4 . 7 . 23 . 26 ) at least one other of the detection devices ( 3 . 6 . 22 . 25 ) be calculated. Verfahren nach einem der vorherigen Ansprüche 8 bis 12, wobei die Fahrzeuginformationen (4, 7, 23, 26) der ersten Erfassungseinrichtung (3, 6, 22, 25) Kamera-basiert erfasst werden und die Fahrzeuginformationen (4, 7, 23, 26) der zweiten Erfassungseinrichtung (3, 6, 22, 25) Radar-basiert erfasst werden, und wobei von der zweiten Erfassungseinrichtung (3, 6, 22, 25) Daten über erkannte Objekte abgerufen werden und die Bildausschnitte in den Bilddaten der ersten Erfassungseinrichtung (3, 6, 22, 25), welche den erkannten Objekten entsprechen, mit erhöhter Genauigkeit analysiert werden.Method according to one of the preceding claims 8 to 12, wherein the vehicle information ( 4 . 7 . 23 . 26 ) of the first detection device ( 3 . 6 . 22 . 25 ) Camera-based capture and vehicle information ( 4 . 7 . 23 . 26 ) of the second detection device ( 3 . 6 . 22 . 25 ) Are detected radar-based, and wherein the second detection device ( 3 . 6 . 22 . 25 ) Data on detected objects are retrieved and the image sections in the image data of the first detection device ( 3 . 6 . 22 . 25 ), which correspond to the detected objects, are analyzed with increased accuracy. Verfahren nach einem der vorherigen Ansprüche 8 bis 12, wobei die Fahrzeuginformationen (4, 7, 23, 26) der ersten Erfassungseinrichtung (3, 6, 22, 25) Radar-basiert erfasst werden und die Fahrzeuginformationen (4, 7, 23, 26) der zweiten Erfassungseinrichtung (3, 6, 22, 25) Kamera-basiert erfasst werden, und wobei von der zweiten Erfassungseinrichtung (3, 6, 22, 25) Daten über die Wetterlage abgerufen werden und das Rauschniveau in den Daten der Radareinrichtung entsprechend der Wetterlage korrigiert wird.Method according to one of the preceding claims 8 to 12, wherein the vehicle information ( 4 . 7 . 23 . 26 ) of the first detection device ( 3 . 6 . 22 . 25 ) Radar-based capture and vehicle information ( 4 . 7 . 23 . 26 ) of the second detection device ( 3 . 6 . 22 . 25 ) Are detected on a camera-based basis, and wherein the second detection device ( 3 . 6 . 22 . 25 ) Data about the weather conditions are retrieved and the noise level is corrected in the data of the radar device according to the weather conditions.
DE102016212716.0A 2016-07-13 2016-07-13 CONTROL DEVICE AND METHOD Pending DE102016212716A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016212716.0A DE102016212716A1 (en) 2016-07-13 2016-07-13 CONTROL DEVICE AND METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016212716.0A DE102016212716A1 (en) 2016-07-13 2016-07-13 CONTROL DEVICE AND METHOD

Publications (1)

Publication Number Publication Date
DE102016212716A1 true DE102016212716A1 (en) 2018-01-18

Family

ID=60783008

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016212716.0A Pending DE102016212716A1 (en) 2016-07-13 2016-07-13 CONTROL DEVICE AND METHOD

Country Status (1)

Country Link
DE (1) DE102016212716A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019207002A1 (en) * 2018-04-25 2019-10-31 Bayerische Motoren Werke Aktiengesellschaft Cleaning of environment sensors of a motor vehicle
CN112101316A (en) * 2020-11-17 2020-12-18 北京中科原动力科技有限公司 Target detection method and system
DE102019127050A1 (en) * 2019-10-08 2021-04-08 Bayerische Motoren Werke Aktiengesellschaft Method and device for self-diagnosis of an environment sensor
US11495028B2 (en) * 2018-09-28 2022-11-08 Intel Corporation Obstacle analyzer, vehicle control system, and methods thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10254806A1 (en) * 2002-11-22 2004-06-17 Robert Bosch Gmbh Motor vehicle data processing method in which data or information derived from at least two sources are combined to provide a prediction relating to the type of road being traveled on or the course of the road
DE10324895A1 (en) * 2003-05-30 2004-12-16 Robert Bosch Gmbh Vehicle object location procedure for adaptive cruise control system car tracking, uses video mask matching in search field from radar sensor
DE102009006113A1 (en) * 2008-03-03 2009-09-10 Volkswagen Ag Vehicle's surrounding representation providing method, involves subjecting sensor objects to fusion to generate fusion objects, and fusing existence possibilities of fusion objects based on existence possibilities of sensor objects
US20140307247A1 (en) * 2013-04-11 2014-10-16 Google Inc. Methods and Systems for Detecting Weather Conditions Including Wet Surfaces Using Vehicle Onboard Sensors

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10254806A1 (en) * 2002-11-22 2004-06-17 Robert Bosch Gmbh Motor vehicle data processing method in which data or information derived from at least two sources are combined to provide a prediction relating to the type of road being traveled on or the course of the road
DE10324895A1 (en) * 2003-05-30 2004-12-16 Robert Bosch Gmbh Vehicle object location procedure for adaptive cruise control system car tracking, uses video mask matching in search field from radar sensor
DE102009006113A1 (en) * 2008-03-03 2009-09-10 Volkswagen Ag Vehicle's surrounding representation providing method, involves subjecting sensor objects to fusion to generate fusion objects, and fusing existence possibilities of fusion objects based on existence possibilities of sensor objects
US20140307247A1 (en) * 2013-04-11 2014-10-16 Google Inc. Methods and Systems for Detecting Weather Conditions Including Wet Surfaces Using Vehicle Onboard Sensors

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019207002A1 (en) * 2018-04-25 2019-10-31 Bayerische Motoren Werke Aktiengesellschaft Cleaning of environment sensors of a motor vehicle
US11495028B2 (en) * 2018-09-28 2022-11-08 Intel Corporation Obstacle analyzer, vehicle control system, and methods thereof
DE102019127050A1 (en) * 2019-10-08 2021-04-08 Bayerische Motoren Werke Aktiengesellschaft Method and device for self-diagnosis of an environment sensor
CN112101316A (en) * 2020-11-17 2020-12-18 北京中科原动力科技有限公司 Target detection method and system
CN112101316B (en) * 2020-11-17 2022-03-25 北京中科原动力科技有限公司 Target detection method and system

Similar Documents

Publication Publication Date Title
DE102017205093A1 (en) Method and system for predicting sensor signals of a vehicle
DE102017123002A1 (en) MULTI-SENSOR PRECIPITATION CLASSIFICATION DEVICE AND METHOD
DE102017203838A1 (en) Method and system for environment detection
WO2012152268A2 (en) Redundant object detection for driver assistance systems
DE102018101105A1 (en) DIAGNOSIS FOR A CAMERA AND CLEANING SPRAYER
EP2562735A1 (en) Method and device for analysing a route section to be driven by a vehicle
DE102014106506A1 (en) Method for carrying out a diagnosis of a camera system of a motor vehicle, camera system and motor vehicle
DE102016212716A1 (en) CONTROL DEVICE AND METHOD
DE102018112400A1 (en) CONDITIONING OF A VEHICLE OUTSIDE
WO2018202552A1 (en) Method and device for classifying objects in the environment of a motor vehicle
DE102018121008A1 (en) CROSS TRAFFIC RECORDING USING CAMERAS
WO2022128014A1 (en) Correction of images from a panoramic-view camera system in the case of rain, incident light and contamination
DE102013103952A1 (en) Method for recognizing lane on road surface in which vehicle drives, involves utilizing model adjustment method to identify boundary lines in plan view image when time condition- and spatial condition threshold levels are met
WO2020020654A1 (en) Method for operating a driver assistance system having two detection devices
WO2015090691A1 (en) Method for generating a model of the surroundings of a motor vehicle, driver assistance system and motor vehicle
DE102020125232A1 (en) Color correction method for a camera system and a camera system
DE102019102672A1 (en) INTERSENSORY LEARNING
DE102018200754A1 (en) Method and device for evaluating sensor data using camera data and driver assistance system
EP4145238A1 (en) Method for controlling an unmanned aerial vehicle for an inspection flight for inspecting an object, and unmanned inspection aerial vehicle
DE102022117277A1 (en) METHOD FOR TRAINING A NEURONAL NETWORK
EP4264565A1 (en) Correction of images from a camera in case of rain, incident light and contamination
DE102014206227A1 (en) Stereo Camera System
DE102019218078B4 (en) Determination of a situation in the environment of a motor vehicle
EP3407324B1 (en) Method for monitoring a vehicle by means of at least one unmanned aerial vehicle, control device and unmanned aerial vehicle
DE102018215136B4 (en) Method for selecting an image section of a sensor

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE

Free format text: FORMER OWNER: CONTI TEMIC MICROELECTRONIC GMBH, 90411 NUERNBERG, DE