DE102019119929B4 - Method for detecting a vehicle environment - Google Patents

Method for detecting a vehicle environment Download PDF

Info

Publication number
DE102019119929B4
DE102019119929B4 DE102019119929.8A DE102019119929A DE102019119929B4 DE 102019119929 B4 DE102019119929 B4 DE 102019119929B4 DE 102019119929 A DE102019119929 A DE 102019119929A DE 102019119929 B4 DE102019119929 B4 DE 102019119929B4
Authority
DE
Germany
Prior art keywords
image data
correction unit
vehicle
detection module
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102019119929.8A
Other languages
German (de)
Other versions
DE102019119929A1 (en
Inventor
Klaus Fuchs
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AVL Software and Functions GmbH
Original Assignee
AVL Software and Functions GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AVL Software and Functions GmbH filed Critical AVL Software and Functions GmbH
Priority to DE102019119929.8A priority Critical patent/DE102019119929B4/en
Publication of DE102019119929A1 publication Critical patent/DE102019119929A1/en
Application granted granted Critical
Publication of DE102019119929B4 publication Critical patent/DE102019119929B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/029Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/029Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
    • B60W2050/0295Inhibiting action of specific actuators or systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/25Data precision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

Verfahren (100), insbesondere zur Erfassung einer Fahrzeugumgebung (1), insbesondere eines Objektes (1) einer Fahrzeugumgebung, eines Fahrzeugs (10), wobei- in einem ersten Schritt zumindest ein Erfassungsmodul (1) zur Erfassung der Fahrzeugumgebung in Betrieb genommen wird, wobei das Erfassungsmodul (1) die Fahrzeugumgebung zumindest teilweise erfasst und die durch diese Erfassung dann aufgenommenen Bilddaten (B1) zunächst- in einem weiteren Schritt an eine Korrektureinheit (2) weitergeleitet werden, welche in den Bilddaten (B1) enthaltene Bildfehler (F1) zumindest teilweise eliminiert, sodass die Korrektureinheit (2) korrigierte Bilddaten (BF1) erzeugt, welche von dem Bildfehler (F1) zumindest teilweise befreit sind, wobei- in einem weiteren Schritt diese dann korrigierten Bilddaten (BF1) einer Steuerungseinheit (ECU) zugeführt werden, welches auf Basis dieser korrigierten Bilddaten (BF1) zumindest ein Steuerungssignal ausgibt, mittels dessen zumindest ein Aktor (5) des Fahrzeugs (10) gesteuert und/oder geregelt wird,dadurch gekennzeichnet, dasseine Datenübermittlung der Bilddaten (B1) von dem Erfassungsmodul (1) zu der Steuerungseinheit (ECU), vorzugsweise ausschließlich nur, über die Korrektureinheit (2) erfolgt, vorzugsweise sodass keine Bilddaten (B1) direkt von dem Erfassungsmodul (1) zu der Steuerungseinheit (ECU) gelangen, wobeiinnerhalb der Korrektureinheit (2) die in diese eingespeisten Bilddaten (B1) mit in einer Datenbank der Korrektureinheit (2) hinterlegten Bilddaten (BDat1) verglichen werden und bei Feststellung einer Abweichung der Bilddaten (BDat1) von den eingespeisten Bilddaten (B1) mittels eines Korrekturvorgangs die Bilddaten (B1) um weitere Bilddaten ergänzt werden und/oder die Bilddaten (B1) einem Interpolations- und/oder Extrapolationsverfahren von der Korrektureinheit (2) unterzogen werden, sodass dann die korrigierten Bilddaten (BF1) von der Korrektureinheit (2) erzeugt werden, wobei das Erfassungsmodul (1) zumindest einen Sensor (1.1) umfasst, mittels dessen die Bilddaten (B1) zumindest teilweise erfasst werden, wobei die Abweichung der Bilddaten (B1) durch ein Fremdobjekt auf einer Detektionsoberfläche des Sensors (1.1) und/oder durch eine Fehlfunktion des Sensors (1.1) selbst erzeugt ist.Method (100), in particular for detecting a vehicle environment (1), in particular an object (1) of a vehicle environment, of a vehicle (10), wherein- in a first step at least one detection module (1) is put into operation for detecting the vehicle environment, wherein the detection module (1) at least partially detects the vehicle environment and the image data (B1) then recorded by this detection are initially- in a further step forwarded to a correction unit (2), which at least partially eliminates image errors (F1) contained in the image data (B1), so that the correction unit (2) generates corrected image data (BF1) which are at least partially freed from the image error (F1), wherein- in a further step these then corrected image data (BF1) are fed to a control unit (ECU), which on the basis of these corrected image data (BF1) outputs at least one control signal, by means of which at least one actuator (5) of the vehicle (10) is controlled and/or regulated,characterized in that a data transmission of the image data (B1) from the detection module (1) to the control unit (ECU), preferably exclusively, via the correction unit (2), preferably so that no image data (B1) passes directly from the detection module (1) to the control unit (ECU), wherein within the correction unit (2) the image data (B1) fed into it are compared with image data (BDat1) stored in a database of the correction unit (2) and if a deviation of the image data (BDat1) from the fed-in image data (B1) is detected, the image data (B1) is supplemented by further image data by means of a correction process and/or the image data (B1) is subjected to an interpolation and/or extrapolation process by the correction unit (2), so that the corrected image data (BF1) is then generated by the correction unit (2), wherein the detection module (1) comprises at least one sensor (1.1), by means of which the image data (B1) is at least partially detected, wherein the deviation of the image data (B1) is caused by a foreign object on a detection surface of the sensor (1.1) and/or by a malfunction of the sensor (1.1) itself.

Description

Die vorliegende Erfindung betrifft ein Verfahren, insbesondere zur Erfassung einer Fahrzeugumgebung eines Fahrzeugs, sowie eine Vorrichtung, insbesondere zur Erfassung einer Fahrzeugumgebung, eines Fahrzeugs sowie ein Vorrichtungsnetzwerk, insbesondere zur Erfassung einer Fahrzeugumgebung eines Fahrzeugs gemäß den jeweiligen Oberbegriffen der Patentansprüche 1, 7 und 8.The present invention relates to a method, in particular for detecting a vehicle environment of a vehicle, and a device, in particular for detecting a vehicle environment of a vehicle, and a device network, in particular for detecting a vehicle environment of a vehicle according to the respective preambles of patent claims 1, 7 and 8.

Solche Verfahren sind aus dem Stand der Technik bereits wohlbekannt. Insbesondere kann es sich nämlich bei einer Fahrzeugumgebung um jedwede außerhalb des Fahrzeugs angeordnete Gegenstände und/oder Objekte handeln, welche extern um das Fahrzeug herum angeordnet sind und/oder sich relativ zum Fahrzeug bewegen.Such methods are already well known from the prior art. In particular, a vehicle environment can be any items and/or objects arranged outside the vehicle that are arranged externally around the vehicle and/or move relative to the vehicle.

In der Regel wird durch eine Steuerungseinheit auf Basis von Erfassungsmodulen der Vorrichtung ein zumindest teilweise virtuelles Abbild der, zum Beispiel momentanen, Umgebung des Fahrzeugs erzeugt.As a rule, a control unit based on detection modules of the device generates an at least partially virtual image of the, for example, current, surroundings of the vehicle.

Allerdings haben die Erfinder erkannt, dass bei einem Sensorausfall und/oder einer Sensorfehlfunktion eines oder mehrerer Sensoren des Erfassungsmoduls und/oder zum Beispiel durch eine zumindest teilweise Verdeckung einer Sensorfläche eines Sensors, durch die Steuerungseinheit ein solches virtuelles Abbild der Umgebung erstellt wird, welches entsprechende Wiedergabefehler aufweist. Dies nämlich deshalb, da das von dem fehlfunktionierenden Sensor und/oder von dem Sensor weitergeleitete zumindest teilweise verdeckte Abbild der Umgebung dazu führen kann, dass die Umgebung nicht in einem der Realität entsprechenden und zur weiteren Verarbeitung notwendigen Detaillierungsgrad wiedergegeben werden kann.However, the inventors have recognized that in the event of a sensor failure and/or a sensor malfunction of one or more sensors of the detection module and/or, for example, due to at least partial covering of a sensor surface of a sensor, the control unit creates such a virtual image of the environment, which has corresponding reproduction errors. This is because the at least partially covered image of the environment transmitted by the malfunctioning sensor and/or by the sensor can lead to the environment not being able to be reproduced in a level of detail that corresponds to reality and is necessary for further processing.

Da die Steuerungseinheit üblicherweise entsprechende Aktuatoren des Fahrzeugs betätigt, kann daher die Situation entstehen, dass auf Basis dieser fehlerhaften Bilddaten, welche durch die Steuerungseinrichtung verarbeitet werden, Aktuatoren fehlerhaft oder auch gar nicht betätigt werden, um auf eine sich verändernde Fahrzeugumgebung des Fahrzeugs reagieren zu können.Since the control unit usually actuates corresponding actuators of the vehicle, the situation can arise that, based on these faulty image data, which are processed by the control device, actuators are actuated incorrectly or not at all in order to be able to react to a changing vehicle environment of the vehicle.

Denkbar ist nämlich, dass durch eine zumindest teilweise abgedeckte Sensorfläche eines Sensors des Erfassungsmoduls ein am Straßenrand stehendes Fahrzeug nur teilweise oder auch gar nicht detektiert wird, sodass die Steuerungseinheit dieses Fahrzeug nicht zur Umgebung hinzuzählt, was dazu führt, dass das Fahrzeug nicht erfasst wird und somit nicht Bestandteil des Umgebungsmodells ist. Entsprechende Aktuatoren, welche normalerweise zu einem plötzlichen Sicherheitsbremsen oder einem Umlenken des Fahrzeugs führen, um mit diesem Fahrzeug nicht zu kollidieren, werden daher im schlimmsten Szenario gar nicht betätigt, sodass es zu einer Verunfallung kommt. Dies soll unbedingt vermieden werden.It is conceivable that a vehicle parked at the side of the road is only partially detected or not detected at all by an at least partially covered sensor surface of the detection module, so that the control unit does not count this vehicle as part of the environment, which means that the vehicle is not detected and is therefore not part of the environment model. Corresponding actuators, which normally lead to a sudden safety brake or a diversion of the vehicle in order to avoid a collision with this vehicle, are therefore not activated at all in the worst case scenario, resulting in an accident. This must be avoided at all costs.

DE 10 2015 205 678 A1 zeigt ein Boardsystem bestehend aus einer Kamera, einer Fahrassistenzvorrichtung sowie einer einzigen oder einer Mehrzahl von Bordvorrichtungen. EN 10 2015 205 678 A1 shows an on-board system consisting of a camera, a driver assistance device and a single or multiple on-board devices.

DE 10 2013 220 005 A1 betrifft eine Vorrichtung zur Anzeige der Umgebung eines Fahrzeuges sowie ein Fahrerassistenzsystem mit einer solchen Vorrichtung mit mindestens einem Sensor zum Erzeugen von Sensordaten der Umgebung eines Fahrzeuges. EN 10 2013 220 005 A1 relates to a device for displaying the surroundings of a vehicle and to a driver assistance system with such a device with at least one sensor for generating sensor data of the surroundings of a vehicle.

DE 10 2010 030 616 A1 zeigt ein Verfahren zum Erkennen eines zerstörten Objektes in zumindest einem Kamerabild einer Kamerabildsequenz. EN 10 2010 030 616 A1 shows a method for detecting a destroyed object in at least one camera image of a camera image sequence.

DE 10 2018 121 697 A1 betrifft eine Rechenvorrichtung, die dazu programmiert ist, bei Bestimmen eines Fehlers in Sensordaten in einem ersten Fahrzeug eine Kolonne mit einem zweiten Fahrzeug zu bilden. EN 10 2018 121 697 A1 relates to a computing device programmed to form a convoy with a second vehicle upon determining an error in sensor data in a first vehicle.

DE 10 2007 004 349 A1 zeigt ein Kamerasystem für ein Fahrzeug, das die Fahrzeugumgebung auch bei Nacht erfassen kann. Die Infrarot-Beleuchtung sendet Strahlung aus, die von Objekten in der Umgebung reflektiert wird. EN 10 2007 004 349 A1 shows a camera system for a vehicle that can capture the vehicle's surroundings even at night. The infrared lighting emits radiation that is reflected by objects in the surroundings.

DE 11 2015 003 722 T5 offenbart ein Totpixel-Korrekturverfahren. EN 11 2015 003 722 T5 discloses a dead pixel correction method.

Es ist daher eine Aufgabe der vorliegenden Erfindung, die oben genannten Probleme zu beseitigen und somit ein Verfahren sowie eine entsprechende Vorrichtung anzubieten, welche in besonders einfacher Art und Weise es ermöglicht, eine Fahrzeugumgebung eines Fahrzeugs möglichst genau zu erfassen, um ein Unfallrisiko zu minimieren.It is therefore an object of the present invention to eliminate the above-mentioned problems and thus to offer a method and a corresponding device which, in a particularly simple manner, makes it possible to record a vehicle's surroundings as accurately as possible in order to minimize the risk of an accident.

Diese Aufgabe wird unter anderem durch die Gegenstände des Verfahrensanspruchs 1 gelöst.This problem is solved, inter alia, by the subject matter of method claim 1.

Erfindungsgemäß erfolgt eine Datenübermittlung der Bilddaten von dem Erfassungsmodul zu der Steuerungseinheit, vorzugsweise ausschließlich nur, über die Korrektureinheit, vorzugsweise sodass keine Bilddaten direkt von dem Erfassungsmodul zu der Steuerungseinheit gelangen.According to the invention, the image data is transmitted from the acquisition module to the control unit, preferably exclusively, via the correction unit, preferably so that no image data passes directly from the acquisition module to the control unit.

Die hier beschriebene erfindungsgemäße Korrektureinheit ist verfahrens- und vorrichtungsmäßig zwischen einem Erfassungsschritt des Erfassungsmoduls und einem Verarbeitungsschritt in der Steuerungseinheit dazwischengeschaltet. In diesem Konzept kann daher auf eine Korrektur der Bilddaten durch die Steuerungseinheit verzichtet sein.The correction unit according to the invention described here is interposed in terms of method and device between a detection step of the detection module and a processing step in the control unit. In this Concept, correction of the image data by the control unit can therefore be dispensed with.

Insbesondere wird nämlich erfindungsgemäß in einem ersten Schritt zumindest ein Erfassungsmodul zur Erfassung der Fahrzeugumgebung in Betrieb genommen, wobei das Erfassungsmodul die Fahrzeugumgebung zumindest teilweise erfasst und die durch diese Erfassung dann aufgenommenen Bilddaten zunächst in einem weiteren Schritt an die Korrektureinheit weitergeleitet werden, welche in den Bilddaten enthaltene Bildfehler zumindest teilweise eliminiert, sodass die Korrektureinheit korrigierte Bilddaten erzeugt, welche von dem Bildfehler zumindest teilweise befreit sind, wobei in einem nächsten Schritt diese dann korrigierten Bilddaten der Steuerungseinheit zugeführt werden, welche auf Basis dieser korrigierten Bilddaten zumindest ein Steuerungssignal ausgibt, mittels dessen zumindest ein Aktor des Fahrzeugs gesteuert und/oder geregelt wird.In particular, according to the invention, in a first step at least one detection module is put into operation for detecting the vehicle environment, wherein the detection module at least partially detects the vehicle environment and the image data then recorded by this detection are first forwarded in a further step to the correction unit, which at least partially eliminates image errors contained in the image data, so that the correction unit generates corrected image data which are at least partially freed of the image error, wherein in a next step these then corrected image data are fed to the control unit, which, on the basis of these corrected image data, outputs at least one control signal by means of which at least one actuator of the vehicle is controlled and/or regulated.

Im Unterschied zum bisher bekannten Stand der Technik werden daher die von dem Erfassungsmodul erfassten Bilddaten, noch bevor diese in die Steuerungseinheit eingespeist werden, derart abgeändert, dass in den Bilddaten enthaltene Fehler nicht dazu führen, dass in der Umgebung des Fahrzeugs stehende oder bewegte Objekte zumindest teilweise oder gar nicht oder falsch erfasst werden.In contrast to the previously known state of the art, the image data captured by the capture module are therefore modified before they are fed into the control unit in such a way that errors contained in the image data do not lead to stationary or moving objects in the vicinity of the vehicle being captured at least partially, not at all, or incorrectly.

Bildfehler können daher im Sinne der Erfindung solche Fehler sein, welche aufgrund eines fehfunktionierenden Sensors des Erfassungsmoduls, eines Defekts und/oder einer Fehlfunktion des Erfassungsmoduls selbst und/ oder durch externe Objekte eingeschränkte Sensorfähigkeiten erzeugt sind.Therefore, in the sense of the invention, image errors can be those errors which are generated due to a malfunctioning sensor of the detection module, a defect and/or malfunction of the detection module itself and/or sensor capabilities limited by external objects.

Auch können Bildfehler ein Bildrauschen beinhalten, welches von dem Erfassungsmodul selbst erzeugt ist. Als Bildrauschen bezeichnet man die Verschlechterung eines digitalen bzw. elektronisch aufgenommenen Bildes durch Störungen, die keinen Bezug zum eigentlichen Bildinhalt, dem Bildsignal, haben. Die störenden Pixel weichen in Farbe und Helligkeit von denen des eigentlichen Bildes ab. Das Signa-Rausch-Verhältnis ist ein Maß für den Rauschanteil.Image errors can also include image noise, which is generated by the capture module itself. Image noise is the deterioration of a digital or electronically recorded image due to interference that has no connection to the actual image content, the image signal. The disturbing pixels differ in color and brightness from those of the actual image. The signal-to-noise ratio is a measure of the noise component.

Ist ein Sensor des Erfassungsmoduls zumindest teilweise fehlfunktionierend und/oder wird eine Sensorfläche von einem externen Objekt zumindest teilweise abgedeckt, so ist es vorstellbar, dass dieser Sensor kein oder nun ein fehlerhaftes Sensorbild erzeugt. Im Sinne der Anmeldung wird dann von diesem Sensor ein „Totpixel“ erzeugt oder dieser Sensor stellt ein Totpixel dar. Ein solches Totpixel kann daher den einen Bildfehler darstellen. Zum Beispiel wird ein solches Totpixel auf einem Bildschirm als schwarz dargestellt. Ein solches Totpixel stellt daher eine Störung im Bild dar, wobei durch die vorliegende Erfindung diese Störung zumindest teilweise durch die Korrektureinheit beseitigt wird.If a sensor of the detection module is at least partially malfunctioning and/or a sensor surface is at least partially covered by an external object, it is conceivable that this sensor does not generate a sensor image or generates an incorrect sensor image. In the sense of the application, this sensor then generates a "dead pixel" or this sensor represents a dead pixel. Such a dead pixel can therefore represent an image error. For example, such a dead pixel is shown as black on a screen. Such a dead pixel therefore represents a disturbance in the image, whereby the present invention at least partially eliminates this disturbance by the correction unit.

Als eine „Einheit“ können im Sinne der Erfindung jeweils haptische strukturelle Bauelemente (Rechnerelement, Chips etc.) definiert sein.In the sense of the invention, a “unit” can be defined as haptic structural components (computer elements, chips, etc.).

Durch die hier beschriebene erfindungsgemäße Korrektureinheit werden solche Bildfehler daher zumindest teilweise im Nachhinein wieder korrigiert. Dies kann unter anderem dadurch geschehen, als dass zumindest ein fehlerhaftes Bildpixel (=Totpixel) auf Basis eines mathematischen Algorithmus virtuelle durch die das Totpixel umgebende Pixel ersetzt. Das in die Korrektureinheit gelangte Abbild eines Totpixels kann daher zumindest teilweise durch ein funktionierendes Bildpixel ersetzt werden. Ein solches funktionierendes Bildpixel kann ein unmittelbares Nachbarpixel zu dem Totpixel darstellen.Such image errors are therefore at least partially corrected retrospectively by the correction unit according to the invention described here. This can be done, among other things, by replacing at least one faulty image pixel (=dead pixel) with the virtual pixels surrounding the dead pixel based on a mathematical algorithm. The image of a dead pixel that has reached the correction unit can therefore be at least partially replaced by a functioning image pixel. Such a functioning image pixel can represent a pixel immediately adjacent to the dead pixel.

Zwar gibt dann dieses korrigierte Pixel nicht die entsprechende Umgebung 1:1 wieder, jedoch kann somit versucht werden, ein möglichst genaues Abbild eines funktionierenden Pixels herzustellen. Zum Beispiel gibt ein dann korrigiertes Pixel die entsprechende Umgebung mit einem Genauigkeitsgrad von wenigstens 90, bevorzugt von wenigstens 95 % wieder. Mit anderen Worten kann die Korrektureinheit aus den unmittelbar benachbarten funktionierenden Pixeln möglichst genau auf ein virtuelles Bild des Totpixel extra- und/ oder interpolieren. Das Totpixel wird dann virtuell durch ein entsprechend von der Korrektureinheit genähertes virtuelles Pixel ersetzt.Although this corrected pixel does not reproduce the corresponding environment 1:1, an attempt can be made to create the most accurate image of a functioning pixel. For example, a corrected pixel then reproduces the corresponding environment with an accuracy level of at least 90%, preferably at least 95%. In other words, the correction unit can extrapolate and/or interpolate as accurately as possible from the immediately adjacent functioning pixels to a virtual image of the dead pixel. The dead pixel is then virtually replaced by a virtual pixel approximated accordingly by the correction unit.

Im Übrigen handelt es sich im Sinne der Erfindung bei einem Pixel um das von einem oder mehreren Sensoren erzeugte Abbild der Umgebung, welches auf einem Bildschirm darstellbar ist.Furthermore, in the sense of the invention, a pixel is the image of the environment generated by one or more sensors, which can be displayed on a screen.

Gemäß zumindest einer Ausführungsform umfasst das hier beschriebene erfindungsgemäße Verfahren zur Erfassung einer Fahrzeugumgebung eines Fahrzeugs einen ersten Schritt, innerhalb dessen zumindest ein Erfassungsmodul zur Erfassung der Fahrzeugumgebung in Betrieb genommen wird, wobei das Erfassungsmodul die Fahrzeugumgebung zumindest teilweise erfasst und die durch die Erfassung dann aufgenommenen Bilddaten zunächst in einem weiteren Schritt an eine Korrektureinheit weitergeleitet werden, welche in den Bilddaten enthaltene Bildfehler zumindest teilweise eliminiert, sodass die Korrektureinheit korrigierte Bilddaten erzeugt, welche von dem Bildfehler zumindest teilweise befreit sind, wobei in einem weiteren Schritt diese dann korrigierten Bilddaten einer Steuerungseinheit zugeführt werden, welche auf Basis dieser korrigierten Bilddaten zumindest ein Steuerungssignal ausgibt, mittels dessen zumindest ein aktuelles Fahrzeug gesteuert und/oder geregelt wird.According to at least one embodiment, the method according to the invention described here for detecting a vehicle environment of a vehicle comprises a first step, within which at least one detection module is put into operation for detecting the vehicle environment, wherein the detection module at least partially detects the vehicle environment and the image data then recorded by the detection are first forwarded in a further step to a correction unit, which at least partially eliminates image errors contained in the image data, so that the correction unit generates corrected image data which are at least partially freed of the image error, wherein in a further step these then corrected image data are fed to a control unit, which on the basis of these corrected image data at least one control signal from by means of which at least one current vehicle is controlled and/or regulated.

Erfindungsgemäß erfolgt eine Datenübermittlung der Bilddaten von dem Erfassungsmodul zu der Steuerungseinheit vorzugsweise ausschließlich nur über die Korrektureinheit, vorzugsweise sodass keine Bilddaten direkt von dem Erfassungsmodul zu der Steuerungseinheit gelangen.According to the invention, data transmission of the image data from the acquisition module to the control unit preferably takes place exclusively via the correction unit, preferably so that no image data passes directly from the acquisition module to the control unit.

Es werden innerhalb der Korrektureinheit die in diese eingespeisten Bilddaten mit in einer Datenbank der Korrektureinheit hinterlegten Bilddaten und/oder einem sonstigen Datengütekriterium verglichen und bei Feststellung einer Abweichung der Bilddaten von den eingespeisten Bilddaten mittels eines Korrekturvorgangs werden die Bilddaten um weitere Bilddaten ergänzt und/oder die Bilddaten werden in einem Interpolations- und/oder Extrapolationsverfahren oder anderen Verfahren von der Korrektureinheit unterzogen, sodass die dann korrigierten Bilddaten von der Korrektureinheit erzeugt werden.Within the correction unit, the image data fed into it are compared with image data stored in a database of the correction unit and/or another data quality criterion and if a deviation of the image data from the fed-in image data is detected by means of a correction process, the image data are supplemented with further image data and/or the image data are subjected to an interpolation and/or extrapolation process or other processes by the correction unit, so that the then corrected image data are generated by the correction unit.

Zum Beispiel können die in der Datenbank hinterlegten Bilddaten oder anderen Datengütekriterien solchen Daten entsprechen, welche einer optischen Schärfe, oder einer Vollständigkeit der erfassten Bilddaten entsprechen. Zwar können in der Datenbank selbstverständlich nicht alle Bilddaten hinterlegt sein, welche einer Umgebung des Fahrzeugs entsprechen, denn dies ändert sich bekanntlich ständig. Jedoch können die dann in der Datenbank hinterlegten Bilddaten solche sein, auf Basis derer entscheidbar ist, ob die aufgenommenen Bilddaten fehlerhaft sind. Zum Beispiel kann die Datenbank solche Bilddaten umfassen, welche einem Bild zuzurechnen sind, das frei von einem Totpixel ist, sodass die eingespeisten Bilddaten mit einem solchen Basisbild eines von einem Totpixel befreiten Bildes verglichen werden können. In einem solchen Beispiel kann es daher lediglich um die Erfassung und Detektion eines Totpixels gehen.For example, the image data or other data quality criteria stored in the database can correspond to data that corresponds to optical sharpness or completeness of the captured image data. Of course, not all image data that corresponds to the surroundings of the vehicle can be stored in the database, as this is known to change constantly. However, the image data stored in the database can be data that can be used to decide whether the captured image data is faulty. For example, the database can contain image data that can be attributed to an image that is free of a dead pixel, so that the image data fed in can be compared with such a base image of an image free of a dead pixel. In such an example, it can therefore only be about the recording and detection of a dead pixel.

Gemäß zumindest einer Ausführungsform klassifiziert die Korrektureinheit die Bilddaten und/oder die korrigierten Bilddaten, sodass ein Vergleich dieser klassifizierten Daten mit den hinterlegen Bilddaten oder anderen Datengütekriterien zumindest einen Korrekturwert ergibt, auf Basis dessen die korrigierten Bilddaten erzeugt werden.According to at least one embodiment, the correction unit classifies the image data and/or the corrected image data such that a comparison of these classified data with the stored image data or other data quality criteria results in at least one correction value on the basis of which the corrected image data are generated.

Durch die Idee der Erzeugung und dem Handling der hier beschriebenen Datenklassen, also der klassifizierten Daten ist daher eine besonders elegante und kostengünstige Möglichkeit geboten, einen energieeffizienteren Betrieb des gesamten Verfahrens zu garantieren.The idea of generating and handling the data classes described here, i.e. the classified data, offers a particularly elegant and cost-effective way to guarantee more energy-efficient operation of the entire process.

Unter einer Datenklasse (auch Objekttyp genannt) versteht man in der objektorientierten Programmierung ein abstraktes Modell bzw. einen Bauplan für eine Reihe von anderen Objekten.In object-oriented programming, a data class (also called an object type) is an abstract model or blueprint for a series of other objects.

Die Klasse gilt als Bauplan für die Abbildung von realen Objekten (also der Umgebung des Fahrzeuges) in Softwareobjekte (virtuelles Abbild der Umgebung) und beschreibt Attribute (Eigenschaften) und Methoden (Verhaltensweisen) der Objekte.The class is considered a blueprint for mapping real objects (i.e. the environment of the vehicle) into software objects (virtual image of the environment) and describes attributes (properties) and methods (behaviors) of the objects.

Insbesondere kann ein reales Objekt einer, vorzugsweise genau einer bestimmten Datenklasse entsprechen.In particular, a real object can correspond to one, preferably exactly one, specific data class.

Gemäß zumindest einer Ausführungsform entsprechen die Datenklassen der Bilddaten und/oder die Datenklassen der korrigierten Bilddaten, welche von der Korrektureinheit verwaltet werden können oder in der Korrektureinheit hinterlegt sind, einem Datentyp eines von dem Erfassungsmodul erfassten oder in der Datenbank hinterlegten realen Objekts, wie zum Beispiel einem Fahrzeugkennzeichen, einer Fahrzeughöhe, einer Fahrzeugbreite, einem Lärmpegel eines Fahrzeugs, einer Fahrzeugfarbe, Fahrzeugtyp, Fahrzeugform, einer Fahrzeugklasse, Personengröße, räumliche Personenausdehnung Gegenstandsgröße, räumliche Personenausdehnung oder anderweitige Objekte.According to at least one embodiment, the data classes of the image data and/or the data classes of the corrected image data, which can be managed by the correction unit or are stored in the correction unit, correspond to a data type of a real object recorded by the detection module or stored in the database, such as a vehicle license plate, a vehicle height, a vehicle width, a noise level of a vehicle, a vehicle color, vehicle type, vehicle shape, a vehicle class, person size, spatial person extent, object size, spatial person extent or other objects.

Gemäß zumindest einer Ausführungsform wird eine Klassifikation der Bilddaten auf Basis von Bewegungsvektoren eines zu erfassenden Objekts und/ oder eines erfassten Objekts der Fahrzeugumgebung derart durchgeführt, dass zunächst aus der zeitlichen Bewegung des Objekts ein Bewegungsprofil von der Korrektureinheit erstellt wird, wobei das Bewegungsprofil das Objekt Bewegungsvektoren desselbigen umfasst. Die Bewegungsvektoren können durch die oder zumindest auf Basis der von dem Sensor oder den Sensoren aufgenommenen Bilddaten erzeugt werden. Die Bilddaten können daher im Erfassungsmodul zu den Bewegungsvektoren konvertiert und/oder zu solchen verarbeitet werden.According to at least one embodiment, a classification of the image data is carried out on the basis of motion vectors of an object to be detected and/or a detected object in the vehicle environment in such a way that a motion profile is first created by the correction unit from the temporal movement of the object, wherein the motion profile includes the object's motion vectors. The motion vectors can be generated by or at least on the basis of the image data recorded by the sensor or sensors. The image data can therefore be converted to motion vectors in the detection module and/or processed into such.

Eine Detektion und Klassifikation von Objekten aus den optischen Informationen kann daher auch auf Bewegungsvektoren basieren, die beispielsweise entweder direkt von dem Erfassungselement zur Verfügung stehen oder von diesem erzeugt werden.Detection and classification of objects from the optical information can therefore also be based on motion vectors, which are either directly available from the detection element or are generated by it.

Insbesondere können durch das Erfassungsmodul und/oder durch die Korrektureinheit die dann erfassten Daten zu sogenannten Daten zu sogenannten Datenblops oder Datenclustern zusammengefasst werden, die dann in ihrer Form und/oder Ausdehnung klassifizierbar sind.In particular, the acquisition module and/or the correction unit can combine the data acquired into so-called data blops or data clusters, which can then be classified in terms of their form and/or extent.

Als Datencluster bezeichnet man im Sinne der Erfindung eine Gruppe von Datenobjekten mit ähnlichen Eigenschaften. Die Menge der in diesem Datensatz gefundenen Cluster bezeichnet man als Clusterring, ein Verfahren zur Berechnung einer solchen Gruppierung als Clusteranalyse. Nicht zu einem Cluster gehörende Datenobjekte bezeichnet man als Ausreißer, Outlier oder Noise. Zum Beispiel kann es sich bei solchen Ausreißern um die oben beschriebenen Fehler in den Bilddaten handeln, zum Beispiel um die obig beschriebenen Totpixel.In the sense of the invention, a data cluster is a group of data objects with similar properties. The set of clusters found in this data set is called a cluster ring, and a method for calculating such a grouping is called cluster analysis. Data objects that do not belong to a cluster are called outliers, outliers or noise. For example, such outliers can be the errors in the image data described above, for example the dead pixels described above.

Gemäß zumindest einer Ausführungsform kann daher vorgesehen sein, dass durch die Korrektureinheit die Bilddaten und/oder die korrigierten Bilddaten zu sogenannten Datenblops oder Datenclustern zusammengefasst werden, die in ihrer Form und/oder Ausdehnung von der Korrektureinheit klassifiziert werden.According to at least one embodiment, it can therefore be provided that the correction unit combines the image data and/or the corrected image data into so-called data blops or data clusters, which are classified in their form and/or extent by the correction unit.

Gemäß zumindest einer Ausführungsform umfassen die Bilddaten Daten, welche durch eine optische Erfassung, eine Radarerfassung, eine Lidarerfassung und/oder eine GPS- Erfassung des Erfassungsmoduls erzeugt sind. Das Erfassungsmodul kann insbesondere mit optischen Daten mit von externen Sensoren erzeugten Lidar- und/oder GPS-Daten versorgt werden. Insbesondere können Daten verschiedener Bilddatenquellen miteinander kombiniert werden, um das reale oder imaginäre Objekt darstellen zu können.According to at least one embodiment, the image data includes data generated by an optical detection, a radar detection, a lidar detection and/or a GPS detection of the detection module. The detection module can in particular be supplied with optical data with lidar and/or GPS data generated by external sensors. In particular, data from different image data sources can be combined with one another in order to be able to represent the real or imaginary object.

Gemäß zumindest einer Ausführungsform umfasst das Erfassungsmodul zumindest einen Sensor, mittels dessen die Bilddaten zumindest teilweise erfasst werden.According to at least one embodiment, the detection module comprises at least one sensor by means of which the image data are at least partially detected.

Bei dem Sensor kann es sich um einen optischen Sensor, um einen Schallsensor, einen Lidarsensor, einen Radarsensor und/oder einen GPS- oder sonstigen Sensor handeln, welcher zum Beispiel auch im Infrarot und/oder UV-Bereich detektiert. Auch ist denkbar, dass die Bilddaten aus Quellen anderen Sensoren und/oder anderen Verarbeitungseinheiten und/oder anderen Anschlüsse zumindest teilweise stammen. Hierzu zählt eine Datengewinnung auf Grundalge von V2X, HDmaps, HMI, IMU etc.The sensor can be an optical sensor, a sound sensor, a lidar sensor, a radar sensor and/or a GPS or other sensor that also detects in the infrared and/or UV range, for example. It is also conceivable that the image data comes at least partially from other sensor sources and/or other processing units and/or other connections. This includes data acquisition based on V2X, HDmaps, HMI, IMU, etc.

V2X (Vehicle-to-everything; V2X) ist die elektronische Kommunikation der Teilnehmer an Verkehr untereinander in den FormenFahrzeug-zu-Fahrzeug (V2V), Fahrzeug-zu-Straße (V2R), Fahrzeug-zu-Infrastruktur (V2I), Fahrzeug-zu-Netzwerk (V2N) und Fahrzeug-zu-Personen (V2P).V2X (Vehicle-to-everything; V2X) is the electronic communication between traffic participants in the forms of vehicle-to-vehicle (V2V), vehicle-to-road (V2R), vehicle-to-infrastructure (V2I), vehicle-to-network (V2N) and vehicle-to-person (V2P).

HDmaps bezeichnet eine Kartierung der Umgebung des Fahrzeugs. HMI (zu englisch „Human Machine Interace“ (HMI) auch „Man Machine Interface“ (MMI) genannt ist und erlaubt dem Bediener über das Bedienen der Maschine hinaus das Beobachten der Anlagenzustände und das Eingreifen in den Prozess.HDmaps refers to a mapping of the vehicle's surroundings. HMI (Human Machine Interface) (HMI) is also called "Man Machine Interface" (MMI) and allows the operator to observe the system status and intervene in the process in addition to operating the machine.

Unter IMU können Informationen fallen, welche zum Beispiel von einem Beschleunigungssensor oder anderen Informationsdomänen fallen.IMU can include information that comes, for example, from an acceleration sensor or other information domains.

Die Abweichung der Bilddaten (= Totpixel) ist durch ein Fremdobjekt auf einer Detektionsoberfläche eines Sensors und/oder durch eine Fehlfunktion des Sensors selbst erzeugt. Eine Abweichung der Bilddaten kann daher in den fehlerhaften und dann zu korrigierenden Bilddaten sich wiederspiegeln. Wie obig bereits beschrieben kann daher das detektierte Bild und/oder das virtuelle Bild (= imaginäres Bild), welches von der Steuerungseinheit erzeugt werden kann, Fehler im Sinne der Erfindung aufweisen, die dann von der Korrektureinheit zumindest teilweise behoben werden.The deviation in the image data (= dead pixel) is caused by a foreign object on a detection surface of a sensor and/or by a malfunction of the sensor itself. A deviation in the image data can therefore be reflected in the faulty image data that must then be corrected. As already described above, the detected image and/or the virtual image (= imaginary image) that can be generated by the control unit can therefore have errors in the sense of the invention, which are then at least partially corrected by the correction unit.

Des Weiteren betrifft die vorliegende Erfindung eine Vorrichtung zur Erfassung einer Fahrzeugumgebung. Insofern sind für die hier beschriebene Vorrichtung alle Merkmale und Ausführungsformen, wie in Zusammenhang mit dem obig beschriebenen Verfahren offenbart und umgekehrt.Furthermore, the present invention relates to a device for detecting a vehicle environment. In this respect, all features and embodiments as disclosed in connection with the method described above apply to the device described here and vice versa.

Gemäß zumindest einer Ausführungsform umfasst die hier beschriebene Vorrichtung zumindest ein Erfassungsmodul zur Erfassung der Fahrzeugumgebung, wobei das Erfassungsmodul die Fahrzeugumgebung zumindest teilweise erfasst und die durch diese Erfassung aufgenommenen Bilddaten an eine Korrektureinheit weiterleitbar sind, welche in den Bilddaten enthaltene Bildfehler zumindest teilweise eliminiert, sodass die Korrektureinheit korrigierte Bilddaten erzeugt, welche von dem Bildfehler zumindest teilweise befreit sind, wobei diese dann mit korrigierten Bilddaten an eine Steuerungseinheit zuführbar sind, welche auf Basis dieser korrigierten Bilddaten zumindest ein Steuerungssignal ausgibt, mittels dessen zumindest ein aktuelles Fahrzeug steuerbar und/ der regelbar ist.According to at least one embodiment, the device described here comprises at least one detection module for detecting the vehicle environment, wherein the detection module at least partially detects the vehicle environment and the image data recorded by this detection can be forwarded to a correction unit which at least partially eliminates image errors contained in the image data, so that the correction unit generates corrected image data which are at least partially freed from the image error, which can then be fed with corrected image data to a control unit which, on the basis of this corrected image data, outputs at least one control signal by means of which at least one current vehicle can be controlled and/or regulated.

Erfindungsgemäß erfolgt eine Datenübermittlung der Bilddaten von dem Erfassungsmodul zu der Steuerungseinheit, vorzugsweise ausschließlich nur, über die Korrektureinheit, vorzugsweise sodass keine Bilddaten direkt von dem Erfassungsmodul zu der Steuerungseinheit gelangen.According to the invention, the image data is transmitted from the acquisition module to the control unit, preferably exclusively, via the correction unit, preferably so that no image data passes directly from the acquisition module to the control unit.

Des Weiteren betrifft die vorliegende Erfindung ein Vorrichtungsnetzwerk zur Erfassung einer Fahrzeugumgebung eines Fahrzeugs.Furthermore, the present invention relates to a device network for detecting a vehicle environment of a vehicle.

Das hier beschriebene Vorrichtungsnetzwerk umfasst eine Vielzahl an Vorrichtungen gemäß der obig beschriebenen Ausführungsform, die über ein Steuernetzwerk in Datenkommunikation miteinander stehen, wobei die Erfassung, Verarbeitung und/oder Weitergabe der Bilddaten eines jeden Erfassungsmoduls durch zumindest eine der Steuerungseinheiten gesteuert wird. Insbesondere kann durch ein derartiges Vorrichtungsnetzwerk eine Master-Slave-Architektur realisiert sein.The device network described here comprises a plurality of devices according to the embodiment described above, which are in data communication with each other via a control network, wherein the detection, processing and/or The transmission of the image data of each acquisition module is controlled by at least one of the control units. In particular, a master-slave architecture can be implemented by such a device network.

Eine wie hier beschriebene Vorrichtung, kann daher die Rolle eines Masters übernehmen, wobei die übrigen Vorrichtungen, welche innerhalb des gleichen Fahrzeugs und/oder anderen Fahrzeugen verbaut sein können, die Rolle eines jeweiligen Slaves übernehmen.A device as described here can therefore take on the role of a master, with the other devices, which can be installed within the same vehicle and/or other vehicles, taking on the role of a respective slave.

Gemäß zumindest einer Ausführungsform ist ein sogenanntes Steuernetzwerk mittels zumindest eines V-LAN-Switches in zumindest zwei nur logisch voneinander getrennte, Netzwerksegmente (V-LAN) unterteilbar, wobei jedes der Erfassungsmodule in Abhängigkeit von der Ansteuerung durch einen V-LAN-Switch und/oder durch die Steuerungseinrichtung durch jedes der Netzwerksegmente ansteuerbar ist.According to at least one embodiment, a so-called control network can be divided into at least two network segments (V-LAN) that are only logically separated from one another by means of at least one V-LAN switch, wherein each of the detection modules can be controlled by each of the network segments depending on the control by a V-LAN switch and/or by the control device.

Im Folgenden wird das hier beschriebene Verfahren sowie die hier beschriebene Vorrichtung und das hier beschriebene Vorrichtungsnetzwerk anhand von Figuren in einem Ausführungsbeispiel näher beschrieben.In the following, the method described here as well as the device described here and the device network described here are described in more detail using figures in an exemplary embodiment.

Die 1 zeigt schematisch einen Informationsfluss ausgehend von der Erfassung eines Objekts hin zur Aktorsteuerung.The 1 shows a schematic of an information flow starting from the detection of an object to the actuator control.

In den Ausführungsbeispielen und den Figuren sind gleiche oder gleich wirkende Bestandteile jeweils mit den gleichen Bezugszeichen versehen. Die hier dargestellten Elemente sind nicht als maßstabsgerecht anzusehen. Vielmehr können einzelne Elemente zum besseren Verständnis übertrieben groß dargestellt sein.In the embodiments and the figures, identical or identically functioning components are provided with the same reference symbols. The elements shown here are not to be regarded as being to scale. Rather, individual elements may be shown exaggeratedly large for better understanding.

In der 1 ist in einer schematischen Ansicht ein Informationsfluss sowie eine Vorrichtung 1000 gezeigt, aus dem ein Verfahren 100 zur Erfassung einer Fahrzeugumgebung eines Fahrzeuges 10 erkennbar ist, wobei in einem ersten Schritt mittels eines Erfassungsmoduls 1 eine Fahrzeugumgebung detektiert wird. Das Erfassungsmodul umfasst Sensoren 1.1 bis 1.4, wobei die Sensoren einen Kamerasensor 1.1, einen Radar- 1.2, einen Lidarsensor 1.3, einen Schallsensor 1.4 sowie einen GPS-Sensor 1.5 umfassen können.In the 1 A schematic view shows an information flow and a device 1000 from which a method 100 for detecting a vehicle environment of a vehicle 10 can be seen, wherein in a first step a vehicle environment is detected by means of a detection module 1. The detection module comprises sensors 1.1 to 1.4, wherein the sensors can comprise a camera sensor 1.1, a radar sensor 1.2, a lidar sensor 1.3, a sound sensor 1.4 and a GPS sensor 1.5.

Die dann von dem Erfassungsmodul 1 erfassten Bilddaten B1 werden in einem weiteren Schritt an eine Korrektureinheit 2 weitergeleitet, innerhalb derer Bildfehler B1, F1 zumindest teilweise eliminiert und/oder korrigiert werden, sodass die Korrektureinheit 2 korrigierte Bilddaten BF1 erzeugt, welche von den Bildfehlern F1 zumindest teilweise befreit sind.The image data B1 then acquired by the acquisition module 1 are forwarded in a further step to a correction unit 2, within which image errors B1, F1 are at least partially eliminated and/or corrected, so that the correction unit 2 generates corrected image data BF1 which are at least partially freed from the image errors F1.

In einem weiteren Schritt ist erkennbar, dass die Korrektureinheit 2 die dann korrigierten Bilddaten BF1 an eine Steuerungseinheit ECU weiterleitet. Die Steuerungseinheit ECU umfasst ein ECU-1-Modul, in welchem zunächst die korrigierten Bilddaten BF1 in entsprechende Objektklassen unterteilt werden können.In a further step, it can be seen that the correction unit 2 then forwards the corrected image data BF1 to a control unit ECU. The control unit ECU comprises an ECU-1 module in which the corrected image data BF1 can initially be divided into corresponding object classes.

Darüber hinaus umfasst die Steuerungseinheit ECU ein ECU-2-Modul, welches eine virtuelle Fahrzeugumgebung auf Basis der korrigierten Bilddaten BF1 erstellt. Diese Fahrzeugumgebung ist dabei eine solche, welche eine rein virtuelle möglichst genaue Wiedergabe der Umgebung der realen Fahrzeugumgebung darstellt.In addition, the control unit ECU includes an ECU-2 module, which creates a virtual vehicle environment based on the corrected image data BF1. This vehicle environment is one that represents a purely virtual reproduction of the real vehicle environment as accurately as possible.

Innerhalb eines ECU-3-Moduls wird eine Entscheidung herbeigeführt, ob auf Basis des „virtuellen Umweltmoduls“ der ECU-2-Einheit ein Aktor 5 des Fahrzeugs 10 angesteuert werden soll.Within an ECU-3 module, a decision is made as to whether an actuator 5 of the vehicle 10 should be controlled on the basis of the “virtual environment module” of the ECU-2 unit.

Bevor dies jedoch geschieht, wird innerhalb eines ECU-4-Moduls eine Trajektorie sowie ein Kontrollvorgang vorgenommen, um tatsächlich die von der Entscheidungseinheit ECU-3 vorgenommene Entscheidung nochmals zu überprüfen, gegebenenfalls an entsprechende Soll-Vorgaben anzupassen.Before this happens, however, a trajectory and a control process are carried out within an ECU-4 module in order to actually check the decision made by the decision unit ECU-3 again and, if necessary, adapt it to the corresponding target specifications.

Nachdem die ECU-4-Einheit dieses Signal freigegeben hat, werden durch die Steuerungseinheit ECU jeweilige Aktoren 5 des Fahrzeugs 10 angesteuert. Beim Aktor 5 des Fahrzeugs 10 kann es sich um eine Lenkradsteuerung, eine Ventilsteuerung, und/oder um eine Bremssteuerung handeln.After the ECU-4 unit has released this signal, the control unit ECU controls the respective actuators 5 of the vehicle 10. The actuator 5 of the vehicle 10 can be a steering wheel control, a valve control, and/or a brake control.

In einer Ausführungsform kann es zudem vorgesehen sein, dass die eingespeisten Bilddaten B1 mit hinterlegten Bilddaten BDat1 verglichen werden, um daher einen entsprechenden Korrekturvorgang der Bilddaten B1 vorzunehmen und die Bilddaten B1 durch weitere Bilddaten zu ergänzen.In one embodiment, it can also be provided that the fed-in image data B1 are compared with stored image data BDat1 in order to carry out a corresponding correction process of the image data B1 and to supplement the image data B1 with further image data.

In der 2 ist ein entsprechendes Vorrichtungsnetzwerk 200 zur Erfassung einer Fahrzeugumgebung eines Fahrzeugs 10 gezeigt.In the 2 a corresponding device network 200 for detecting a vehicle environment of a vehicle 10 is shown.

Erkennbar ist eine Vielzahl der Vorrichtungen 1000, welche ein Steuernetzwerk 4 ausbilden und/oder mit einem Steuernetzwerk 4 in Datenkommunikation miteinander stehen, wobei die Erfassung, Verarbeitung und/oder Wiedergabe der Bilddaten B1 eines jeden Erfassungsmoduls 1 durch zumindest eine der Steuerungseinheiten ECU gesteuert wird.A plurality of devices 1000 can be seen, which form a control network 4 and/or are in data communication with one another via a control network 4, wherein the capture, processing and/or reproduction of the image data B1 of each capture module 1 is controlled by at least one of the control units ECU.

Die Erfindung ist nicht durch die Beschreibung des Ausführungsbeispiels beschränkt. Vielmehr erfasst die Erfindung jedes neue Merkmal sowie jede Kombination von Merkmalen, was insbesondere jede Kombination von Merkmalen in den Patentansprüchen beinhaltet, auch wenn dieses Merkmal oder diese Kombination selbst nicht explizit in den Patentansprüchen oder dem Ausführungsbeispiel angegeben ist.The invention is not limited by the description of the embodiment. Rather, the invention covers any new feature and any combination of features, which in particular includes any combination of features in the patent claims, even if this feature or combination itself is not explicitly stated in the patent claims or the embodiment.

BezugszeichenlisteList of reference symbols

11
ErfassungsmodulRecording module
1.11.1
KamerasensorCamera sensor
1.21.2
RadarsensorRadar sensor
1.31.3
LidarsensorLidar sensor
1.41.4
SchallsensorSound sensor
1.51.5
GPS-SensorGPS sensor
22
KorrektureinheitCorrection unit
44
SteuernetzwerkControl network
55
AktorActuator
1010
Fahrzeugvehicle
100100
Verfahren zur Erfassung einer FahrzeugumgebungMethod for detecting a vehicle environment
200200
VorrichtungsnetzwerkDevice network
10001000
Vorrichtungcontraption
B1B1
BilddatenImage data
BDat1BDat1
hinterlegte Bilddatenstored image data
BF1BF1
BildfehlerImage errors
ECUECU
SteuerungseinheitControl unit
ECU-1ECU-1
Modulmodule
ECU-2ECU-2
Modulmodule
ECU-3ECU-3
Modulmodule
ECU-4ECU-4
Modulmodule
F1F1
BildfehlerImage errors

Claims (8)

Verfahren (100), insbesondere zur Erfassung einer Fahrzeugumgebung (1), insbesondere eines Objektes (1) einer Fahrzeugumgebung, eines Fahrzeugs (10), wobei - in einem ersten Schritt zumindest ein Erfassungsmodul (1) zur Erfassung der Fahrzeugumgebung in Betrieb genommen wird, wobei das Erfassungsmodul (1) die Fahrzeugumgebung zumindest teilweise erfasst und die durch diese Erfassung dann aufgenommenen Bilddaten (B1) zunächst - in einem weiteren Schritt an eine Korrektureinheit (2) weitergeleitet werden, welche in den Bilddaten (B1) enthaltene Bildfehler (F1) zumindest teilweise eliminiert, sodass die Korrektureinheit (2) korrigierte Bilddaten (BF1) erzeugt, welche von dem Bildfehler (F1) zumindest teilweise befreit sind, wobei - in einem weiteren Schritt diese dann korrigierten Bilddaten (BF1) einer Steuerungseinheit (ECU) zugeführt werden, welches auf Basis dieser korrigierten Bilddaten (BF1) zumindest ein Steuerungssignal ausgibt, mittels dessen zumindest ein Aktor (5) des Fahrzeugs (10) gesteuert und/oder geregelt wird, dadurch gekennzeichnet, dass eine Datenübermittlung der Bilddaten (B1) von dem Erfassungsmodul (1) zu der Steuerungseinheit (ECU), vorzugsweise ausschließlich nur, über die Korrektureinheit (2) erfolgt, vorzugsweise sodass keine Bilddaten (B1) direkt von dem Erfassungsmodul (1) zu der Steuerungseinheit (ECU) gelangen, wobei innerhalb der Korrektureinheit (2) die in diese eingespeisten Bilddaten (B1) mit in einer Datenbank der Korrektureinheit (2) hinterlegten Bilddaten (BDat1) verglichen werden und bei Feststellung einer Abweichung der Bilddaten (BDat1) von den eingespeisten Bilddaten (B1) mittels eines Korrekturvorgangs die Bilddaten (B1) um weitere Bilddaten ergänzt werden und/oder die Bilddaten (B1) einem Interpolations- und/oder Extrapolationsverfahren von der Korrektureinheit (2) unterzogen werden, sodass dann die korrigierten Bilddaten (BF1) von der Korrektureinheit (2) erzeugt werden, wobei das Erfassungsmodul (1) zumindest einen Sensor (1.1) umfasst, mittels dessen die Bilddaten (B1) zumindest teilweise erfasst werden, wobei die Abweichung der Bilddaten (B1) durch ein Fremdobjekt auf einer Detektionsoberfläche des Sensors (1.1) und/oder durch eine Fehlfunktion des Sensors (1.1) selbst erzeugt ist.Method (100), in particular for detecting a vehicle environment (1), in particular an object (1) of a vehicle environment, of a vehicle (10), wherein - in a first step, at least one detection module (1) is put into operation for detecting the vehicle environment, wherein the detection module (1) at least partially detects the vehicle environment and the image data (B1) then recorded by this detection are initially - in a further step forwarded to a correction unit (2), which at least partially eliminates image errors (F1) contained in the image data (B1), so that the correction unit (2) generates corrected image data (BF1) which are at least partially freed from the image error (F1), wherein - in a further step, these then corrected image data (BF1) are fed to a control unit (ECU), which, on the basis of these corrected image data (BF1), outputs at least one control signal by means of which at least one actuator (5) of the vehicle (10) is controlled and/or regulated, characterized in that a data transmission of the image data (B1) from the detection module (1) to the control unit (ECU), preferably exclusively, via the correction unit (2), preferably so that no image data (B1) passes directly from the detection module (1) to the control unit (ECU), wherein within the correction unit (2) the image data (B1) fed into it are compared with image data (BDat1) stored in a database of the correction unit (2) and if a deviation of the image data (BDat1) from the fed-in image data (B1) is detected, the image data (B1) is supplemented by further image data by means of a correction process and/or the image data (B1) is subjected to an interpolation and/or extrapolation process by the correction unit (2), so that the corrected image data (BF1) is then generated by the correction unit (2), wherein the detection module (1) comprises at least one sensor (1.1), by means of which the image data (B1) is at least partially detected, wherein the deviation of the image data (B1) is caused by a foreign object on a detection surface of the sensor (1.1) and/or by a malfunction of the sensor (1.1) itself. Verfahren (100) nach Anspruch 1, dadurch gekennzeichnet, dass innerhalb der Korrektureinheit (2) die in diese eingespeisten Bilddaten (B1) zusätzlich mit einem sonstigen Daten-Gütekriterium, insbesondere Algorithmen-basiert verglichen werden.Procedure (100) according to Claim 1 , characterized in that within the correction unit (2) the image data (B1) fed into it are additionally compared with another data quality criterion, in particular algorithm-based. Verfahren (100) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Korrektureinheit (2) die Bilddaten (B1) und/oder die korrigierten Bilddaten (BF1) klassifiziert, sodass ein Vergleich dieser dann klassifizierten Daten (B1, BF1) mit den hinterlegten Bilddaten (BDat1) zumindest einen Korrekturwert ergibt, auf Basis dessen die korrigierten Bilddaten (BDat1) erzeugt werden.Procedure (100) according to Claim 1 or 2 , characterized in that the correction unit (2) classifies the image data (B1) and/or the corrected image data (BF1), so that a comparison of these then classified data (B1, BF1) with the stored image data (BDat1) results in at least one correction value on the basis of which the corrected image data (BDat1) are generated. Verfahren (100) nach zumindest einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass eine Klassifikation der Bilddaten (B1) auf Basis von Bewegungsvektoren des zu erfassenden Objekts (1) der Fahrzeugumgebung derart durchgeführt wird, dass zunächst aus der zeitlichen Bewegung des Objekts (1) ein Bewegungsprofil von der Korrektureinheit (2) erstellt wird, wobei das Bewegungsprofil des Objektes (1) Bewegungsvektoren desselbigen umfasst.Method (100) according to at least one of the preceding claims, characterized in that a classification of the image data (B1) is carried out on the basis of movement vectors of the object (1) to be detected in the vehicle environment in such a way that a movement profile is first created by the correction unit (2) from the temporal movement of the object (1), wherein the movement movement profile of the object (1) includes motion vectors thereof. Verfahren (100) nach zumindest einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass durch die Korrektureinheit (2) die Bilddaten (B1) und/oder die korrigierten Bilddaten (BF1) zu sogenannten Datenblops oder Datenclustern zusammengefasst werden, die dann in ihrer Form und/oder Ausdehnung von der Korrektureinheit (2) klassifiziert werden.Method (100) according to at least one of the preceding claims, characterized in that the correction unit (2) combines the image data (B1) and/or the corrected image data (BF1) into so-called data blops or data clusters, which are then classified in their form and/or extent by the correction unit (2). Verfahren (100) nach zumindest einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Bilddaten (B1) Daten umfassen, welche durch eine optische Erfassung, eine Radarerfassung, eine LIDAR-Erfassung und/oder durch eine GPS-Erfassung des Erfassungsmoduls (1) oder weitere erzeugt sind.Method (100) according to at least one of the preceding claims, characterized in that the image data (B1) comprise data which are generated by an optical detection, a radar detection, a LIDAR detection and/or by a GPS detection of the detection module (1) or others. Vorrichtung (1000), insbesondere zur Erfassung einer Fahrzeugumgebung, eines Fahrzeugs (10), umfassend - zumindest ein Erfassungsmodul (1) zur Erfassung der Fahrzeugumgebung, wobei das Erfassungsmodul (1) die Fahrzeugumgebung zumindest teilweise erfasst und die durch diese Erfassung dann aufgenommenen Bilddaten (B1) - an eine Korrektureinheit (2) weiterleitbar sind, welche in den Bilddaten (B1) enthaltene Bildfehler (F1) zumindest teilweise eliminiert, sodass die Korrektureinheit (2) korrigierte Bilddaten (BF1) erzeugt, welche von dem Bildfehler (F1) zumindest teilweise befreit sind, wobei - diese dann korrigierten Bilddaten (BF1) an eine Steuerungseinheit (ECU) zuführbar sind, welches auf Basis dieser korrigierten Bilddaten (BF1) zumindest ein Steuerungssignal ausgibt, mittels dessen zumindest ein Aktor (5) des Fahrzeugs (10) steuerbar und/oder regelbar sind, dadurch gekennzeichnet, dass eine Datenübermittlung der Bilddaten (B1) von dem Erfassungsmodul (1) zu der Steuerungseinheit (ECU), vorzugsweise ausschließlich nur, über die Korrektureinheit (2) erfolgt, vorzugsweise sodass keine Bilddaten (B1) direkt von dem Erfassungsmodul (1) zu der Steuerungseinheit (ECU) gelangen, wobei innerhalb der Korrektureinheit (2) die in diese eingespeisten Bilddaten (B1) mit in einer Datenbank der Korrektureinheit (2) hinterlegten Bilddaten (BDat1) verglichen werden und bei Feststellung einer Abweichung der Bilddaten (BDat1) von den eingespeisten Bilddaten (B1) mittels eines Korrekturvorgangs die Bilddaten (B1) um weitere Bilddaten ergänzt werden und/oder die Bilddaten (B1) einem Interpolations- und/oder Extrapolationsverfahren von der Korrektureinheit (2) unterzogen werden, sodass dann die korrigierten Bilddaten (BF1) von der Korrektureinheit (2) erzeugt werden, wobei das Erfassungsmodul (1) zumindest einen Sensor (1.1) umfasst, mittels dessen die Bilddaten (B1) zumindest teilweise erfasst werden, wobei die Abweichung der Bilddaten (B1) durch ein Fremdobjekt auf einer Detektionsoberfläche des Sensors (1.1) und/oder durch eine Fehlfunktion des Sensors (1.1) selbst erzeugt ist.Device (1000), in particular for detecting a vehicle environment, of a vehicle (10), comprising - at least one detection module (1) for detecting the vehicle environment, wherein the detection module (1) at least partially detects the vehicle environment and the image data (B1) then recorded by this detection - can be forwarded to a correction unit (2) which at least partially eliminates image errors (F1) contained in the image data (B1), so that the correction unit (2) generates corrected image data (BF1) which are at least partially freed from the image error (F1), wherein - these then corrected image data (BF1) can be fed to a control unit (ECU), which, on the basis of these corrected image data (BF1), outputs at least one control signal by means of which at least one actuator (5) of the vehicle (10) can be controlled and/or regulated, characterized in that a data transmission of the image data (B1) from the detection module (1) to the control unit (ECU), preferably exclusively, only via the correction unit (2), preferably so that no image data (B1) reaches the control unit (ECU) directly from the detection module (1), wherein within the correction unit (2) the image data (B1) fed into it are compared with image data (BDat1) stored in a database of the correction unit (2), and if a deviation of the image data (BDat1) from the fed-in image data (B1) is detected, the image data (B1) are supplemented by further image data by means of a correction process and/or the image data (B1) are subjected to an interpolation and/or extrapolation process by the correction unit (2), so that the corrected image data (BF1) are then generated by the correction unit (2), wherein the detection module (1) comprises at least one sensor (1.1), by means of which the image data (B1) are at least partially detected, wherein the deviation of the image data (B1) is generated by a foreign object on a detection surface of the sensor (1.1) and/or by a malfunction of the sensor (1.1) itself. Vorrichtungsnetzwerk (200) zur Erfassung einer Fahrzeugumgebung eines Fahrzeugs (10), umfassend - eine Vielzahl von Vorrichtungen (1000) gemäß Anspruch 7 die über ein Steuernetzwerk (4) in Datenkommunikation miteinander stehen, wobei die Erfassung, Verarbeitung und/oder Weitergabe der Bilddaten (B1) eines jeden Erfassungsmoduls (1) durch zumindest eine der Steuerungseinheiten (ECU) gesteuert wird.Device network (200) for detecting a vehicle environment of a vehicle (10), comprising - a plurality of devices (1000) according to Claim 7 which are in data communication with one another via a control network (4), wherein the acquisition, processing and/or forwarding of the image data (B1) of each acquisition module (1) is controlled by at least one of the control units (ECU).
DE102019119929.8A 2019-07-23 2019-07-23 Method for detecting a vehicle environment Active DE102019119929B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019119929.8A DE102019119929B4 (en) 2019-07-23 2019-07-23 Method for detecting a vehicle environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019119929.8A DE102019119929B4 (en) 2019-07-23 2019-07-23 Method for detecting a vehicle environment

Publications (2)

Publication Number Publication Date
DE102019119929A1 DE102019119929A1 (en) 2021-01-28
DE102019119929B4 true DE102019119929B4 (en) 2024-05-08

Family

ID=74098590

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019119929.8A Active DE102019119929B4 (en) 2019-07-23 2019-07-23 Method for detecting a vehicle environment

Country Status (1)

Country Link
DE (1) DE102019119929B4 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007004349A1 (en) 2007-01-29 2008-07-31 Robert Bosch Gmbh Night vision system, especially for a vehicle, and method of creating a night vision image
DE102010030616A1 (en) 2010-06-28 2011-12-29 Robert Bosch Gmbh Method and device for detecting a disturbing object in a camera image
DE102013220005A1 (en) 2013-10-02 2015-04-02 Continental Automotive Gmbh Method and device for displaying the environment of a vehicle and driver assistance system
DE102015205678A1 (en) 2014-04-01 2015-10-01 Denso Corporation CONTROL DEVICE AND CONTROL SYSTEM FOR PERFORMING A PROCESS BASED ON A RECORDED PICTURE
DE112015003722T5 (en) 2014-08-11 2017-06-08 Iee International Electronics & Engineering S.A. Infrared imager unevenness correction with detection and correction of defective pixels
DE102018121697A1 (en) 2017-09-05 2019-03-07 Ford Global Technologies, Llc Cooperative vehicle operation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007004349A1 (en) 2007-01-29 2008-07-31 Robert Bosch Gmbh Night vision system, especially for a vehicle, and method of creating a night vision image
DE102010030616A1 (en) 2010-06-28 2011-12-29 Robert Bosch Gmbh Method and device for detecting a disturbing object in a camera image
DE102013220005A1 (en) 2013-10-02 2015-04-02 Continental Automotive Gmbh Method and device for displaying the environment of a vehicle and driver assistance system
DE102015205678A1 (en) 2014-04-01 2015-10-01 Denso Corporation CONTROL DEVICE AND CONTROL SYSTEM FOR PERFORMING A PROCESS BASED ON A RECORDED PICTURE
DE112015003722T5 (en) 2014-08-11 2017-06-08 Iee International Electronics & Engineering S.A. Infrared imager unevenness correction with detection and correction of defective pixels
DE102018121697A1 (en) 2017-09-05 2019-03-07 Ford Global Technologies, Llc Cooperative vehicle operation

Also Published As

Publication number Publication date
DE102019119929A1 (en) 2021-01-28

Similar Documents

Publication Publication Date Title
DE102017206123A1 (en) Method and device for merging data from various sensors of a vehicle as part of an object recognition
DE102008029311A1 (en) Brake system and method for controlling a vehicle brake
DE102016225915A1 (en) System and method for detecting the surroundings of a vehicle
WO2019076542A2 (en) Method and system for operating a vehicle
DE102018114192B4 (en) MULTI-STAGE SELECTION CONTROL SYSTEM AND METHOD OF OPERATING A CONTROL SYSTEM TO ISSUE A SELECTED COMMAND TO AN ACTUATOR DEVICE
DE102019204892A1 (en) Method and control device for detecting drowsiness of a driver for a driver assistance system for a vehicle
DE102019119929B4 (en) Method for detecting a vehicle environment
WO2018082836A1 (en) Method and device for monitoring an image sensor
DE102017201796A1 (en) Control device for determining a self-motion of a motor vehicle and motor vehicle and method for providing the control device
DE112018006022T5 (en) DETERMINATION OF AN ANGLE OF A TRAILER TRAILER
DE112020006441T5 (en) Vehicle control device and vehicle control method
DE102019218349A1 (en) Method for classifying at least one ultrasonic echo from echo signals
DE102018207923A1 (en) Improved training of a classifier
DE102018205146B4 (en) Testing procedures for high-resolution headlights using AI
WO2021018815A1 (en) Method and device for locating a vehicle in a surrounding area
DE102016103037A1 (en) Method for checking the functionality of a camera-monitor system, camera-monitor system and motor vehicle
DE102019127322A1 (en) Method for detecting objects in a vehicle environment, device for data processing, computer program product and computer-readable data carrier
DE102008060619A1 (en) Data recording system
DE102015213510A1 (en) Signal processing device
WO2018167164A1 (en) Method and device for updating a digital map for vehicle navigation
DE102023200911B3 (en) Method and assistance system for controlling a vehicle
DE102019209849B4 (en) Method and control device for distance-measuring image processing for a stereo camera device for a vehicle and stereo camera system with a stereo camera device and a control device
DE102022212227A1 (en) Method for determining an operating state of an object detection system of a rail vehicle comprising a first environmental sensor system and a second environmental sensor system
DE102022205885A1 (en) Method, computer program and device for processing time series data with an artificial neural network
DE102022205317A1 (en) Method for operating a motor vehicle, motor vehicle

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division