DE102020210188A1 - VEHICLE ENVIRONMENT RECOGNITION DEVICE - Google Patents

VEHICLE ENVIRONMENT RECOGNITION DEVICE Download PDF

Info

Publication number
DE102020210188A1
DE102020210188A1 DE102020210188.4A DE102020210188A DE102020210188A1 DE 102020210188 A1 DE102020210188 A1 DE 102020210188A1 DE 102020210188 A DE102020210188 A DE 102020210188A DE 102020210188 A1 DE102020210188 A1 DE 102020210188A1
Authority
DE
Germany
Prior art keywords
time
host vehicle
unit
future
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020210188.4A
Other languages
German (de)
Inventor
Quan Nguyen
Ioannis Souflas
Syed Adnan Yusuf
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Priority to DE102020210188.4A priority Critical patent/DE102020210188A1/en
Priority to PCT/JP2021/028524 priority patent/WO2022034815A1/en
Publication of DE102020210188A1 publication Critical patent/DE102020210188A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0011Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

Eine Fahrzeugumgebungserkennungseinrichtung für ein Trägerfahrzeug 1, das einen optischen Sensor 2 enthält, der mit der Fahrzeugumgebungserkennungseinrichtung 10 kommunikationstechnisch verbunden ist, wobei die Fahrzeugumgebungserkennungseinrichtung 10 konfiguriert ist, eine Folge von Bilddaten auszugeben, die mindestens die zukünftige Entfernung zwischen dem Trägerfahrzeug 1 und dem einen oder den mehreren detektierten Objekten O1, O2 enthält.A vehicle environment detection device for a host vehicle 1, which contains an optical sensor 2, which is communicatively connected to the vehicle environment detection device 10, wherein the vehicle environment detection device 10 is configured to output a sequence of image data that at least shows the future distance between the host vehicle 1 and the one or the contains several detected objects O1, O2.

Description

Die vorliegende Offenbarung bezieht sich auf eine Fahrzeugumgebungserkennungseinrichtung für ein Trägerfahrzeug, die insbesondere die Komplexität z. B. der Hardware, die verwendet wird, verringert, die eine erhöhte Genauigkeit und Zuverlässigkeit der Ausgabe schafft und die allgemein verwendbar ist, weil sie einfach in Fahrzeuge oder Monokameras integriert werden kann.The present disclosure relates to a vehicle environment recognition device for a host vehicle, which in particular reduces the complexity of e.g. B. the hardware used is reduced, which provides increased accuracy and reliability of the output and which is generally applicable because it can be easily integrated into vehicles or mono cameras.

Hintergrundbackground

Autonome Fahrzeuge greifen auf Sensoren zurück, um die Umgebung (die Umwelt), die Objekte enthält, zu erkennen. Typische Software-Architekturen autonomer Fahrzeuge fusionieren Informationen von mehreren Sensoren wie z. B. Kameras, LiDAR-Geräten und Radargeräten, um die Umgebung genau wahrzunehmen. Kameras werden verwendet, um Objekttypen wie z. B. Fahrzeuge, Verkehrszeichen, Fußgänger usw. zu detektieren und zu klassifizieren. LiDAR-Geräte werden verwendet, um die Position und die Orientierung von Objekten zu messen, während Radargeräte verwendet werden, um die Geschwindigkeit zu messen.Autonomous vehicles rely on sensors to detect the environment (environment) containing objects. Typical software architectures of autonomous vehicles merge information from multiple sensors such as e.g. B. Cameras, LiDAR devices and radar devices to perceive the environment accurately. Cameras are used to detect object types such as B. vehicles, traffic signs, pedestrians, etc. to detect and classify. LiDAR devices are used to measure the position and orientation of objects, while radar devices are used to measure speed.

Es ist allerdings ein Nachteil, dass das Fahrzeug die Eingabe von mehreren verschiedenen Sensoren erfordert, wie oben beschrieben ist, was die Komplexität der Hardware-Architektur sowie der softwarebasierten Datenverarbeitung erhöht.However, it is a disadvantage that the vehicle requires input from several different sensors, as described above, which increases the complexity of the hardware architecture as well as the software-based data processing.

Ferner beschreibt US 2019/0 317 519 A1 eine Systemarchitektur, die ein Modul zur dreidimensionalen (3D) Entfernungsbestimmung verwendet, das eine Entfernung zu einem Objekt auf der Grundlage einer 3D-Darstellung, die eine Abmessung besitzt, die am besten mit den Abmessungen (z. B. eine Länge, eine Breite oder eine Fläche, z. B. Länge mal Breite) eines zweidimensionalen (2D) Begrenzungs-/Abgrenzungsrahmens übereinstimmt, bestimmt. Das Modul zur Entfernungsschätzung verwendet einen Suchalgorithmus wie z. B. eine gierige Suche oder eine binäre Suche als Grundlage. Die Entfernung zum Objekt zur aktuellen Zeit kann nur geschätzt werden, nachdem die Orientierung und die 3D-Größe des Objekts geschätzt wurden.Further describes US 2019/0 317 519 A1 a system architecture that uses a three-dimensional (3D) ranging module that calculates a range to an object based on a 3D representation that has a dimension that best matches the dimensions (e.g., a length, a width, or an area (e.g., length by width) of a two-dimensional (2D) bounding box. The distance estimation module uses a search algorithm such as B. a greedy search or a binary search as a basis. The distance to the object at the current time can only be estimated after estimating the object's orientation and 3D size.

WO 2019/177562A1 beschreibt eine Systemarchitektur, die Modelle zum maschinellen Lernen verwendet, um ein Objekt in einem Bild zu detektieren und um die Entfernung zum detektieren Objekt zur aktuellen Zeit zu bestimmen. WO 2019/177562A1 describes a system architecture that uses machine learning models to detect an object in an image and to determine the distance to the detected object at the current time.

Allerdings ist immer noch ein Ermöglichen einer weiter erhöhten Zuverlässigkeit und Genauigkeit der Objektdetektion und der Informationen, die durch eine Fahrzeugumgebungserkennungseinrichtung geliefert werden, nötig, insbesondere wenn weniger komplexe Hardware-Systeme z. B. Systeme, die auf die Eingabe (lediglich) einer Monokamera statt mehrerer Fahrzeugsensoren zurückgreifen, verwendet werden.However, enabling a further increased reliability and accuracy of the object detection and the information provided by a vehicle environment recognition device is still needed, especially when less complex hardware systems e.g. B. Systems that rely on the input (only) of a mono camera instead of multiple vehicle sensors can be used.

Problem und Lösungproblem and solution

Eine Aufgabe der hier beschriebenen Offenbarung ist, eine Lösung zu schaffen, die insbesondere die Genauigkeit und die Zuverlässigkeit der Ausgabe einer Fahrzeugumgebungserkennungseinrichtung, die in Fahrzeugen, bevorzugt autonomen Fahrzeugen, verwendet werden kann, verbessert und die die Verwendung einer weniger teuren und weniger komplexen Hardware-Architektur, die leicht integriert werden kann, ermöglicht.An object of the disclosure described here is to provide a solution that improves in particular the accuracy and the reliability of the output of a vehicle environment detection device that can be used in vehicles, preferably autonomous vehicles, and that allows the use of a less expensive and less complex hardware architecture that can be easily integrated.

Insbesondere schlägt die vorliegende Offenbarung eine Technik vor, die verwendet werden kann, um die Stellung (d. h. die Position, die Orientierung und ihre Ableitungen) und die Ausdehnung umgebender Objekte aus einem einzelnen optischen Sensor, z. B. eine (Mono-)Kamera, gleichzeitig zu schätzen und vorherzusagen. Ein Vorteil sind die geringere Komplexität und die geringeren Kosten im Vergleich zu vorhandenen Lösungsversuchen, die mehrere Sensoren (z. B. Kamera, LiDAR-Gerät, Radar) erfordern, um möglicherweise die Genauigkeit und die Zuverlässigkeit der vorliegenden Offenbarung zu erzielen.In particular, the present disclosure proposes a technique that can be used to determine the posture (i.e. position, orientation and their derivatives) and extent of surrounding objects from a single optical sensor, e.g. B. a (mono) camera, to estimate and predict at the same time. One benefit is reduced complexity and cost compared to existing approaches that require multiple sensors (e.g., camera, LiDAR device, radar) to potentially achieve the accuracy and reliability of the present disclosure.

Insbesondere werden die folgenden Aspekte geschaffen:In particular, the following aspects are created:

Eine Fahrzeugumgebungserkennungseinrichtung für ein Trägerfahrzeug, das einen optischen Sensor enthalten kann, der mit der Fahrzeugumgebungserkennungseinrichtung kommunikationstechnisch verbunden ist. Der optische Sensor kann ein Bilderzeugungshalbleiter, d. h. ein Bildsensor wie z. B. ein CCD- oder CMOS-Sensor, sein oder er kann eine Kamera, die ferner optische Linsen und dergleichen enthält, sein. Am stärksten bevorzugt ist der optische Sensor ein einzelner Sensor oder eine Monokamera. Die Verwendung einer Monokamera kann Kosten sparen und verringert die Systemkomplexität z. B. im Vergleich zu einer Stereokamera oder einer Kombination verschiedener Sensoren wie z. B Lidar oder Radar.A vehicle environment detection device for a host vehicle, which may include an optical sensor communicatively connected to the vehicle environment detection device. The optical sensor can be an imaging semiconductor, i. H. an image sensor such as a CCD or CMOS sensor, or it may be a camera further including optical lenses and the like. Most preferably, the optical sensor is a single sensor or mono camera. Using a mono camera can save costs and reduce system complexity, e.g. B. in comparison to a stereo camera or a combination of different sensors such. B Lidar or radar.

Die Fahrzeugumgebungserkennungseinrichtung kann mindestens eine Recheneinheit umfassen oder in sie integriert sein und kann konfiguriert sein, Bilddaten zu einer aktuellen Zeit t vom optischen Sensor, der am Trägerfahrzeug montiert ist, zu empfangen. Der Ausdruck „aktuelle Zeit t“ kann bevorzugt die Ist-Zeit angeben, während eine Zeit t - n der Vergangenheit angehört und die Zeiten t + k und t + Dt zukünftige Zeiten sind. Die Bilddaten können bevorzugt zur aktuellen Zeit t empfangen werden. Bevorzugt kann die Bilddatenverarbeitung wie z. B. die Objektdetektion zur aktuellen Zeit t starten.The vehicle environment detection device may include or be integrated in at least one computing unit and may be configured to receive image data at a current time t from the optical sensor mounted on the host vehicle. The expression "current time t" can preferably indicate the actual time, while a time t - n belongs to the past and the times t + k and t + Dt are future times. The image data can preferably be received at the current time t the. Preferably, the image data processing such. B. start the object detection at the current time t.

Die Fahrzeugumgebungserkennungseinrichtung kann ferner konfiguriert sein, Objekte in den empfangenen Bilddaten zu detektieren, wobei ein Objekt sich auf Personen, Fußgänger, Tiere, Fahrzeuge, Fahrbahnen, Fahrspurmarkierungen, Gefahren und Objekte im Allgemeinen in Bezug auf die Position des Fahrzeugs beziehen kann. Sie kann ferner konfiguriert sein, mindestens die Entfernung zwischen einem (oder jedem) detektierten Objekt und dem Trägerfahrzeug sowie die Geschwindigkeit eines (oder jedes) detektierten Objekts zu bestimmen. Die Entfernung und die Geschwindigkeit werden für die aktuelle Zeit t, was bevorzugt bedeutet, zu der Zeit, zu der das Bild aufgenommen wurde/empfangen wurde/seine Verarbeitung gestartet wurde, bestimmt.The vehicle surroundings recognizer may be further configured to detect objects in the received image data, where an object may refer to people, pedestrians, animals, vehicles, roadways, lane markings, hazards, and objects in general with respect to the position of the vehicle. It may further be configured to determine at least the distance between a (or each) detected object and the host vehicle and the speed of a (or each) detected object. The distance and speed are determined for the current time t, which preferably means at the time the image was captured/received/its processing started.

Ferner kann die Fahrzeugumgebungserkennungseinrichtung konfiguriert sein, mindestens eine zukünftige Entfernung eines (oder jedes) detektierten Objekts zum Trägerfahrzeug vorherzusagen. Bevorzugt werden mehrere zukünftige Entfernungswerte für ein (oder jedes) detektiertes Objekt für ein vordefiniertes Zeitintervall beginnend von der aktuellen Zeit t zu einer zukünftigen Zeit t + k bestimmt. Stärker bevorzugt wird ein Satz eines zukünftigen Satzes/einer zukünftigen Folge von Entfernungswerten für ein detektiertes Objekt erzeugt, wobei das zukünftige Zeitintervall in eine vordefinierte Anzahl von Zeitpunkten, für die jeweils ein Entfernungswert erzeugt wird, segmentiert wird. Mit anderen Worten werden bevorzugt für jedes detektierte Objekt mehrere Entfernungswerte zu verschiedenen Zeiten zwischen der Zeit t und der Zeit t + k bestimmt.Furthermore, the vehicle environment detection device can be configured to predict at least one future distance of a (or each) detected object from the host vehicle. Preferably, several future distance values are determined for a (or each) detected object for a predefined time interval starting from the current time t to a future time t+k. More preferably, a set of a future set/sequence of distance values for a detected object is generated, wherein the future time interval is segmented into a predefined number of points in time, for each of which a distance value is generated. In other words, multiple distance values are preferably determined for each detected object at different times between time t and time t+k.

Ferner kann die Fahrzeugumgebungserkennungseinrichtung konfiguriert sein, die Bewegung des Trägerfahrzeugs auf der Grundlage einer Verarbeitungs- und Kommunikationszeitverzögerung Dt zur Zeit t + Dt auszugleichen. Das Zeitintervall Dt enthält oder ist die Zeit, die für die Verarbeitung der Objektdetektion und der Vorhersage sowie für die Signalübertragung zwischen Untereinheiten der Fahrzeugumgebungserkennungseinrichtung und/oder in einem Netz erforderlich ist (Latenz). Das Zeitintervall Dt kann durch die Fahrzeugumgebungserkennungseinrichtung, eine weitere Fahrzeugsteuereinrichtung oder eine fest zugeordnete Untereinheit in Echtzeit gemessen werden, es kann auf der Grundlage vorheriger vergleichbarer Szenarien geschätzt werden oder es kann berechnet/bestimmt werden, wenn die relevanten Parameter bekannt oder schätzbar sind. Der Ausgleich ermöglicht, insbesondere die Positionsänderung des Trägerfahrzeugs während des kurzen Zeitintervalls von der Zeit t zur Zeit t + Dt neu zu berechnen.Further, the vehicle environment recognizer may be configured to compensate for the movement of the host vehicle based on a processing and communication time lag Dt at time t+Dt. The time interval Dt includes or is the time required for the processing of the object detection and the prediction as well as for the signal transmission between sub-units of the vehicle environment recognition device and/or in a network (latency). The time interval Dt can be measured by the vehicle environment detection device, another vehicle controller or a dedicated sub-unit in real time, it can be estimated based on previous comparable scenarios or it can be calculated/determined when the relevant parameters are known or estimable. The compensation makes it possible, in particular, to recalculate the change in position of the host vehicle during the short time interval from time t to time t+Dt.

Ferner kann die Fahrzeugumgebungserkennungseinrichtung konfiguriert sein, eine Folge von Bildern auszugeben, die Bildrahmen im Intervall von der Zeit t (bevorzugt startet das Intervall bei t + Dt) zu t + k enthält. Die Bilder können die Position des Trägerfahrzeugs und die (kartesischen) Positionen sowie die (euklidischen) Entfernungen, Abmessungen usw. des einen oder der mehreren detektierten Objekte enthalten. Die Entfernungen usw. können die ausgeglichene/korrigierte Position des Trägerfahrzeugs zur Zeit t + Dt berücksichtigen. Die Ausgabe kann zu einer Routenplanungseinrichtung eines autonom fahrenden Trägerfahrzeugs, zu einem Navigationssystem und/oder zum Fahrer des Trägerfahrzeugs geliefert werden.Furthermore, the vehicle surroundings recognition device may be configured to output a sequence of images containing image frames in the interval from time t (preferably the interval starts at t+Dt) to t+k. The images may include the position of the host vehicle and the (Cartesian) positions as well as the (Euclidean) distances, dimensions, etc. of the one or more detected objects. The distances etc. may take into account the compensated/corrected position of the host vehicle at time t+Dt. The output can be delivered to a route planning device of an autonomously driving host vehicle, to a navigation system and/or to the driver of the host vehicle.

Der vorliegende Aspekt ermöglicht technisch vorteilhaft, dass selbst lediglich unter Verwendung einer Monokamera (eines einzelnen optischen Sensors) eine hohe Genauigkeit und Zuverlässigkeit der Ausgabeinformationen über detektierte Objekte erzielt werden kann. Die Informationen über die Positionen und weitere Informationen der detektierten Objekte in der (nahen) Zukunft ermöglichen eine genauere Routenplanung, die z. B. die Sicherheit im Hinblick auf das Vermeiden von Kollisionen erhöht. Die Genauigkeit wird außerdem aufgrund der Positionskorrektur der Trägerfahrzeugposition, die sich während des Zeitintervalls des Empfangens des einen oder der mehreren Bilder vom optischen Sensor zum Abschluss des Verarbeitens des einen oder der mehreren Bilder ändert, erhöht. Die vorliegende Vorrichtung kann diese Verschiebung der Position für eine weiter verbesserte Genauigkeit und Zuverlässigkeit berücksichtigen. Die Komplexität des Systems ist im Vergleich zu Trägerfahrzeugsystemen, die mehrere verschiedene Eingangsquellen zum Detektieren und Erkennen der Umgebung des Trägerfahrzeugs erfordern, z. B. um die Komplexität der Kalibrierung zwischen mehreren Sensoren, verringert. Ferner kann z. B. die Integration in vorhandene Fahrzeugkameras, insbesondere Monokameras aufgrund des technischen Vorteils, dass eine Kalibrierung von Kameraparametern oder dergleichen nicht nötig ist, leicht durchgeführt werden.The present aspect makes it technically advantageous that high accuracy and reliability of the output information about detected objects can be achieved even using only a mono camera (a single optical sensor). The information about the positions and further information of the detected objects in the (near) future enable a more precise route planning, which e.g. B. increases security in terms of avoiding collisions. Accuracy is also increased due to the position correction of the host vehicle position changing during the time interval of receiving the one or more images from the optical sensor to complete the processing of the one or more images. The present device can account for this shift in position for further improved accuracy and reliability. The complexity of the system is significant compared to host vehicle systems that require multiple different input sources for detecting and recognizing the environment of the host vehicle, e.g. B. reduced by the complexity of calibration between multiple sensors. Furthermore, z. B. the integration into existing vehicle cameras, in particular mono cameras, due to the technical advantage that a calibration of camera parameters or the like is not necessary, can be easily carried out.

Darüber hinaus kann die Fahrzeugumgebungserkennungseinrichtung eine Detektionseinheit umfassen, die mindestens mit dem optischen Sensor des Trägerfahrzeugs und einer Vorhersageeinheit kommunikationstechnisch verbunden sein kann. Die Vorhersageeinheit, die bevorzugt Teil der Fahrzeugumgebungserkennungseinrichtung ist, kann mindestens mit der Detektionseinheit und einer Trägerfahrzeugausgleichseinheit, die Teil der Fahrzeugumgebungserkennungseinrichtung sein kann, kommunikationstechnisch verbunden sein. Die Trägerfahrzeugausgleichseinheit kann mindestens mit einer Verarbeitungs- und Kommunikationszeitverzögerungsbestimmungseinheit, die Teil einer weiteren Vorrichtung sein kann, einer Trägerfahrzeugfahrparametereinheit, die Teil einer weiteren Vorrichtung sein kann und die Daten von Sensoren des Trägerfahrzeugs wie z. B. Geschwindigkeitssensoren, Giersensoren, Positionssensoren, Kraftmaschinenparametersensoren usw. empfangen kann, der Vorhersageeinheit und einer Ausgabebilddateneinheit, die Teil der Fahrzeugumgebungserkennungseinrichtung sein kann, kommunikationstechnisch verbunden sein.In addition, the vehicle environment detection device can include a detection unit, which can be connected in terms of communication technology at least to the optical sensor of the host vehicle and a prediction unit. The prediction unit, which is preferably part of the vehicle environment detection device, can be communicatively connected at least to the detection unit and a host vehicle compensation unit, which can be part of the vehicle environment detection device. The host vehicle compensation unit may be provided with at least one processing and communication time delay determination unit which is part of another Device may be, a host vehicle driving parameter unit, which may be part of another device and the data from sensors of the host vehicle such. speed sensors, yaw sensors, position sensors, engine parameter sensors, etc., can be communicatively connected to the prediction unit and an output image data unit, which can be part of the vehicle environment recognition device.

Ferner kann die Detektionseinheit konfiguriert sein, die Bilddaten vom optischen Sensor zu einer aktuellen Zeit t zu empfangen, ein oder mehrere Objekte in den Bilddaten zu detektieren und Objektinformationsdaten über das eine oder die mehreren detektierten Objekte zur Vorhersageeinheit auszugeben, wobei die Objektinformationsdaten jedes des einen oder der mehreren detektierten Objekte mindestens die Entfernung zum Trägerfahrzeug und die Geschwindigkeit zur aktuellen Zeit t enthalten. Ferner können die Objektinformationsdaten unter anderem weiterhin die Orientierung des Objekts, seine Begrenzungsrahmenkoordinaten und seine Abmessungen enthalten.Furthermore, the detection unit can be configured to receive the image data from the optical sensor at a current time t, to detect one or more objects in the image data and to output object information data about the one or more detected objects to the prediction unit, the object information data each of the one or of the multiple detected objects contain at least the distance to the host vehicle and the speed at the current time t. Furthermore, the object information data may further include the object's orientation, its bounding box coordinates, and its dimensions, among other things.

Die Vorhersageeinheit kann konfiguriert sein, mindestens auf der Grundlage der Objektinformationsdaten, die von der Detektionseinheit empfangen wurden, zukünftige Objektinformationsdaten über das eine oder die mehreren detektierten Objekte vorherzusagen. Die zukünftigen Objektinformationsdaten jedes des einen oder der mehreren detektierten Objekte können mindestens zukünftige Entfernungswerte zum Trägerfahrzeug zwischen der aktuellen Zeit t und einer zukünftigen Zeit t + k enthalten. Ferner können die zukünftigen Objektinformationsdaten unter anderem weiterhin die Orientierung des Objekts, seine Begrenzungsrahmenkoordinaten und seine Abmessungen enthalten.The prediction unit may be configured to predict future object information data about the one or more detected objects based at least on the object information data received from the detection unit. The future object information data of each of the one or more detected objects may include at least future distance values to the host vehicle between the current time t and a future time t+k. Furthermore, the future object information data may further include the object's orientation, its bounding box coordinates, and its dimensions, among other things.

Die Trägerfahrzeugausgleichseinheit kann konfiguriert sein, die Position des Trägerfahrzeugs zu einer Zeit t + Dt auf der Grundlage von Trägerfahrzeugfahrdaten, die von der Trägerfahrzeugfahrparametereinheit empfangen wurden, und der Verarbeitungszeitverzögerung Dt, die von der Verarbeitungszeitverzögerungsbestimmungseinheit empfangen wurde, zu korrigieren. Die Trägerfahrzeugfahrdaten können die Geschwindigkeit, das Gieren und dergleichen des Trägerfahrzeugs enthalten. Die Verarbeitungszeitverzögerungsbestimmungseinheit kann konfiguriert sein, das Zeitintervall Dt (die Latenz) zu messen, zu schätzen, zu berechnen und/oder zu bestimmen.The host vehicle compensation unit may be configured to correct the position of the host vehicle at a time t+Dt based on host vehicle running data received from the host vehicle running parameter unit and the processing time lag Dt received from the processing time lag determination unit. The host vehicle driving data may include the host vehicle's speed, yaw, and the like. The processing time delay determination unit may be configured to measure, estimate, calculate, and/or determine the time interval Dt (the latency).

Die Ausgabebilddateneinheit kann konfiguriert sein, die korrigierte Position des Trägerfahrzeugs zur Zeit t + Dt, die Objektinformationsdaten, die durch die Detektionseinheit ausgegeben wurden, und die zukünftigen Objektinformationsdaten, die durch die Vorhersageeinheit ausgegeben wurden, zu empfangen und eine Folge von Bilddaten von der Zeit t + Dt zur Zeit t + k in einem Zeitintervall von der Zeit t bis t + Dt zu erzeugen. Mit anderen Worten ist das Zeitintervall von der Zeit t bis t + Dt das Zeitintervall, während dessen die Verarbeitung/Erzeugung der zukünftigen Bilddaten/der Objektinformationsdaten durchgeführt wird. Die Bilddaten können mindestens alle detektierten Objekte, die ihre (zukünftigen) Objektinformationsdaten sowie die Position des Trägerfahrzeugs enthalten, enthalten.The output image data unit may be configured to receive the corrected position of the host vehicle at time t+Dt, the object information data output by the detection unit and the future object information data output by the prediction unit, and a sequence of image data from time t + Dt at time t + k in a time interval from time t to t + Dt. In other words, the time interval from time t to t+Dt is the time interval during which the processing/generation of the future image data/the object information data is performed. The image data can contain at least all detected objects, which contain their (future) object information data as well as the position of the host vehicle.

Die zuvor erläuterten technischen Vorteile werden auch für den oben erläuterten bevorzugten Aspekt erreicht. Zusätzlich erlaubt der Aufbau der kommunikationstechnisch verbundenen Einheiten, die empfangenen Bilddaten in verschiedenen Anwendungsszenarien flexibel zu verarbeiten. Zum Beispiel kann im Vergleich zum Stand der Technik die Objektentfernungsschätzung von der Objektdetektion getrennt sein und somit können zwei spezialisierte und deshalb genauere Einheit, die für einen bestimmten Zweck konfiguriert/trainiert sind, eingesetzt werden. Ferner können die Einheiten über verschiedene Standorte in einem System, das möglicherweise entfernte Recheneinheiten, die Recheneinheit im Trägerfahrzeug und dergleichen enthält, verteilt sein, was ermöglicht, die Hardware-Architektur an verschiedene Szenarien anzupassen.The technical advantages explained above are also achieved for the preferred aspect explained above. In addition, the structure of the communication-related units allows the received image data to be flexibly processed in various application scenarios. For example, compared to the prior art, the object distance estimation can be separated from the object detection and thus two specialized and therefore more accurate units configured/trained for a specific purpose can be employed. Furthermore, the units may be distributed across different locations in a system that may include remote computing units, the computing unit in the host vehicle, and the like, allowing the hardware architecture to be adapted to different scenarios.

Ferner können die Bilddaten, die durch die Detektionseinheit zur aktuellen Zeit t empfangen werden, eine Folge von Bildrahmen, die mehrere Rahmen von einer Zeit t - n zur aktuellen Zeit t enthält, umfassen/können als eine solche formatiert sein, wobei t - n eine Zeit in der Vergangenheit in Bezug auf die aktuelle Zeit t ist. Die Anzahl von Rahmen kann durch eine Zeit (oder eine Zeitdifferenz) oder durch einen vordefinierten Wert definiert sein, z. B. kann sie derart definiert sein, dass ein Zeitrahmen für jede Millisekunde oder kürzer oder länger gesetzt ist, oder sie kann derart definiert sein, dass im Zeitintervall t - n bis t eine vordefinierte Anzahl (unabhängig von der Dauer des Intervalls) von Rahmen verwendet werden/vorhanden sein soll.Furthermore, the image data received by the detection unit at the current time t may comprise/may be formatted as a sequence of image frames containing multiple frames from a time t - n to the current time t, where t - n is a Time in the past relative to the current time t. The number of frames can be defined by a time (or a time difference) or by a predefined value, e.g. eg it can be defined such that a time frame is set for every millisecond or shorter or longer, or it can be defined such that in the time interval t - n to t uses a predefined number (regardless of the duration of the interval) of frames will/should exist.

Ein Verwenden von Folgen von Bildern/Bildrahmen als eine Eingabe in die Vorrichtung, die zur Zeit t geliefert wird, verbessert die Datenbasis zur Detektion von Objekten und die Vorhersageverarbeitung zum Berechnen der Bilder des zukünftigen Zeitintervalls. Dadurch können eine erhöhte Genauigkeit und eine erhöhte Zuverlässigkeit erreicht werden.Using sequences of images/image frames as an input to the device provided at time t improves the database for detection of objects and the prediction processing for computing the images of the future time interval. As a result, increased accuracy and increased reliability can be achieved.

Die Objektdetektion, die bevorzugt Teil von/integriert in die Detektionseinheit sein kann, kann ein trainiertes Modell für maschinelles Lernen (ML-Modell) und/oder ein trainiertes Modell für künstliche Intelligenz (Al-Modell) zum Detektieren eines Objekts verwenden. Das eine oder die mehreren Modelle können in der Detektionseinheit enthalten sein oder die Detektionseinheit kann mit den Modellen kommunikationstechnisch verbunden sein, wenn jene von der Detektionseinheit getrennt gespeichert sind (z. B. in einem netzbasierten Server/einer netzbasierten Recheneinheit). Das Modell für maschinelles Lernen und/oder das Modell für künstliche Intelligenz der Detektionseinheit können trainiert werden, als die Objektinformationsdaten für jedes detektierte Objekt den Typ des detektierten Objekts die Orientierung des detektierten Objekts in Bezug auf ein trägerfahrzeugbasiertes Koordinatensystem, einen Begrenzungsrahmen des detektierten Objekts und der Koordinaten im trägerfahrzeugbasierten Koordinatensystem, die Abmessungen (oder die Größe) des detektierten Objekts, die Entfernung zum Trägerfahrzeug und/oder die Geschwindigkeit des detektierten Objekts zu bestimmen.The object detection, which can preferably be part of/integrated into the detection unit, can be a trained machine learning (ML) model and/or a trained artificial model Use human intelligence (AI model) to detect an object. The one or more models may be contained in the detection unit or the detection unit may be communicatively connected to the models if those are stored separately from the detection unit (e.g. in a web-based server/processing unit). The machine learning model and/or the artificial intelligence model of the detection unit can be trained as the object information data for each detected object, the type of the detected object, the orientation of the detected object with respect to a host vehicle-based coordinate system, a bounding box of the detected object and the Coordinates in the host vehicle-based coordinate system to determine the dimensions (or size) of the detected object, the distance to the host vehicle and/or the speed of the detected object.

Der Typ eines Objekts kann, wie oben erläutert wurde, z. B. die Objekte in Fußgänger, Personenkraftwagen, Lastkraftwagen, Hindernis oder dergleichen kategorisieren. Die Orientierung eines detektierten Objekts kann in Bezug auf das Trägerfahrzeug detektiert werden und kann z. B. die Richtung seiner Achse, z. B. die Längsachse, angeben. Der Begriff Begrenzungsrahmen kann bevorzugt ein rechteckiger oder ein viereckiger Bereich sein, der die Außenabmessungen des detektierten Objekts in der Bildebene (so nahe wie möglich ohne die Außenbegrenzungslinien des Objekts zu schneiden) umgibt. Der Begrenzungsrahmen kann durch die Koordinaten seiner oberen linken Ecke und seiner unteren rechten Ecke definiert sein. Die Abmessungen können die Länge, die Breite, die Höhe usw. des detektierten Objekts enthalten und die Größe kann die Fläche oder eine der Abmessungen angeben.As explained above, the type of an object can be e.g. B. categorize the objects into pedestrian, car, truck, obstacle or the like. The orientation of a detected object can be detected in relation to the host vehicle and can e.g. B. the direction of its axis, z. B. specify the longitudinal axis. The term bounding box may preferably be a rectangular or a square area surrounding the outside dimensions of the detected object in the image plane (as close as possible without intersecting the object's outside boundary lines). The bounding box can be defined by the coordinates of its upper left corner and lower right corner. The dimensions can include the length, width, height, etc. of the detected object, and the size can indicate the area or one of the dimensions.

Die Entfernung kann bevorzugt auf der Grundlage eines Koordinatensystems definiert sein, das seinen Ursprung beim optischen Sensor des Trägerfahrzeugs oder einer beliebigen weiteren wohldefinierten Position des Trägerfahrzeugs haben kann.The distance may preferably be defined based on a coordinate system, which may originate at the host vehicle's optical sensor or at any other well-defined position of the host vehicle.

Die oben beschriebene Kombination/der oben beschriebene Satz von Parametern ermöglicht, die Position und das Verhalten eines detektierten Objekts in einer sehr genauen Weise zu detektieren und zu bestimmen, während gleichzeitig die Anzahl von Parametern relativ niedrig ist, was den Rechenaufwand und den Datenverkehr verringert. Mit anderen Worten kann die gesamte Vorrichtung eine hohe Genauigkeit/Präzision mit einer geringen Komplexität der erforderlichen Hardware-/Software-Architektur erzielen.The combination/set of parameters described above enables the position and behavior of a detected object to be detected and determined in a very accurate manner, while at the same time the number of parameters is relatively low, which reduces the computational effort and data traffic. In other words, the entire device can achieve high accuracy/precision with a low complexity of the required hardware/software architecture.

Ferner kann die Vorhersage, die bevorzugt in der Vorhersageeinheit enthalten/in sie integriert ist, ein trainiertes Modell für maschinelles Lernen und/oder ein trainiertes Modell für künstliche Intelligenz zum Durchführen z. B. einer Zeitreihenanalyse zum Vorhersagen der zukünftigen Informationsdaten verwenden. Das eine oder die mehrere Modelle können in der Vorhersageeinheit enthalten sein oder die Vorhersageeinheit kann mit den Modellen kommunikationstechnisch verbunden sein, wenn sie von der Vorhersageeinheit getrennt gespeichert sind (z. B. in einem netzbasierten Server).Furthermore, the prediction preferably included/integrated in the prediction unit may be a trained machine learning model and/or a trained artificial intelligence model for performing e.g. B. use a time series analysis to predict the future information data. The one or more models may be included in the prediction engine, or the prediction engine may be communicatively coupled to the models when stored separately from the prediction engine (e.g., in a web-based server).

Das Modell für maschinelles Lernen und/oder das Modell für künstliche Intelligenz können trainiert werden, als die zukünftigen Objektinformationsdaten für jedes detektierte Objekt und für eine Folge von Bildrahmen in einem Zeitintervall zwischen der aktuellen Zeit t oder t + Dt und einer zukünftigen Zeit t + k die Orientierung des detektierten Objekts in Bezug auf ein trägerfahrzeugbasiertes Koordinatensystem, einen Begrenzungsrahmen des detektierten Objekts und der Koordinaten im trägerfahrzeugbasierten Koordinatensystem, die Abmessungen (oder die Größe) des detektierten Objekts, die Entfernung zum Trägerfahrzeug und/oder die Geschwindigkeit des detektierten Objekts zu bestimmen.The machine learning model and/or the artificial intelligence model can be trained as the future object information data for each detected object and for a sequence of image frames in a time interval between the current time t or t+Dt and a future time t+k determine the orientation of the detected object with respect to a host vehicle-based coordinate system, a bounding box of the detected object and the coordinates in the host vehicle-based coordinate system, the dimensions (or size) of the detected object, the distance to the host vehicle and/or the speed of the detected object.

Ein Bereitstellen der Bilder für das vorhergesagte zukünftige Verhalten, die Position und/oder dergleichen jedes detektierten Objekts ermöglicht eine überlegene Genauigkeit und Sicherheit der Routenplanung oder des Fahrens des Trägerfahrzeugs.Providing the images for the predicted future behavior, position, and/or the like of each detected object enables superior accuracy and safety of route planning or host vehicle driving.

Ferner können das Modell für maschinelles Lernen und/oder das Modell für künstliche Intelligenz ein neuronales Faltungsnetz für die Detektion und eine rekurrentes neuronales Netz für die Prädiktion enthalten.Furthermore, the machine learning model and/or the artificial intelligence model may contain a convolutional neural network for detection and a recurrent neural network for prediction.

Die Verwendung spezialisierter neuronaler Netze, die speziell für die beabsichtigen Aufgaben ausgelegt sind, ermöglicht eine noch weiter verbesserte Präzision und Zuverlässigkeit der Ausgangsdaten/Ergebnisse.The use of specialized neural networks, specifically designed for the intended tasks, allows for even more improved precision and reliability of the output data/results.

Ferner kann die Detektion der Entfernung jedes detektierten Objekts zum Trägerfahrzeugs zu einer aktuellen Zeit t durch einen getrennten Schritt durchgeführt werden, was bevorzugt bedeuten kann, dass die Detektionseinheit und die Prädiktionseinheit getrennte Einheiten sein/verschiedene ML/AI-Modelle verwenden können. Die Bestimmung der Entfernung kann durch ein Modell für maschinelles Lernen und/oder ein Modell für künstliche Intelligenz durchgeführt werden, die zum Bestimmen der Entfernung von den Eingangsbilddaten, die vom optischen Sensor des Trägerfahrzeugs zur aktuellen Zeit t empfangen werden, trainiert sind, wobei die empfangenen Eingangsbilddaten bevorzugt eine Folge von Bildrahmen mit Rahmen von einer vergangenen Zeit t - n zur aktuellen Zeit t enthalten können.Furthermore, the detection of the distance of each detected object to the host vehicle at a current time t can be performed by a separate step, which can preferably mean that the detection unit and the prediction unit can be separate units/use different ML/AI models. The determination of the distance may be performed by a machine learning model and/or an artificial intelligence model used to determine the distance from the input image data received from the host vehicle's optical sensor at the current time t are received, are trained, wherein the received input image data can preferably contain a sequence of image frames with frames from a past time t - n to the current time t.

Ferner können die Daten in Bezug auf die Objektdetektion und die Prädiktion und die ausgeglichenen Trägerfahrzeugfahrdaten in jedem Bildrahmen einer Folge von Bildrahmen in einem Zeitintervall von der Zeit t + Dt zur zukünftigen Zeit t + k zusammengeführt werden.Furthermore, the data related to the object detection and the prediction and the compensated host vehicle driving data can be merged in each image frame of a sequence of image frames in a time interval from time t+Dt to future time t+k.

Jedes Bild im Zeitintervall von der Zeit t + Dt zur zukünftigen Zeit t + k kann in ein Belegungsgitter (OCG oder ocg) der Umgebung/Umwelt des Trägerfahrzeugs transformiert werden. Die Transformation kann durch eine fest zugeordnete ocg-Generatoreinheit durchgeführt werden, die mathematische Transformationen zum Erzeugen der ocgs auf der Grundlage der (zukünftigen) Objektinformationsdaten durchführen kann. Die Umgebung des Trägerfahrzeugs kann bevorzugt die Nähe des Trägerfahrzeugs und sehr bevorzugt mindestens den Bereich, der mit dem Bereich, der durch den einen oder die mehreren optischen Sensoren aufgenommen wird, überlappt, enthalten.Each image in the time interval from time t+Dt to future time t+k can be transformed into an occupancy grid (OCG or ocg) of the environment of the host vehicle. The transformation can be performed by a dedicated ocg generator unit that can perform mathematical transformations to generate the ocgs based on the (future) object information data. The environment of the host vehicle may preferably include the vicinity of the host vehicle and very preferably at least the area overlapping with the area recorded by the one or more optical sensors.

Ferner kann eine Folge von Belegungsgitterbildrahmen in einem Zeitintervall von der Zeit t + Dt zur zukünftigen Zeit t + k ausgegeben werden.Furthermore, a sequence of occupancy grid image frames can be output in a time interval from time t+Dt to future time t+k.

Die Bereitstellung zukünftiger Belegungsgitter (einer Folge mehrerer Belegungsgitterbilder, die in zeitlicher Reihenfolge angeordnet sind) ermöglicht dem Fahrer des Trägerfahrzeugs, die zukünftige Verkehrsentwicklung intuitiv zu verstehen, derart, dass sie/er das Fahren anpassen kann, und sie ermöglicht dann, wenn das Trägerfahrzeug autonom fährt, den automatisch bestimmten Fahrkurs präzise und zuverlässig anzupassen, z. B. wenn die ocgs in eine Routenplanungseinrichtung/-einheit oder eine Navigationseinrichtung/-einheit des Trägerfahrzeugs eingegeben werden. Ferner kann die Bewertung der Ausgabe außerdem ermöglichen, Steueraktionen wie z. B. automatisiertes Bremsen, automatisiertes Beschleunigen, automatisiertes Lenken und dergleichen automatisch abzuleiten.The provision of future occupancy grids (a sequence of multiple occupancy grid images arranged in chronological order) allows the driver of the host vehicle to intuitively understand future traffic developments in such a way that she/he can adapt driving, and it enables when the host vehicle becomes autonomous drives to adapt the automatically determined course precisely and reliably, e.g. when the ocgs are input to a route planning device/unit or a navigation device/unit of the host vehicle. Furthermore, evaluating the output can also allow control actions such as e.g. B. automated braking, automated acceleration, automated steering and the like automatically derive.

Ferner kann die Kompensationseinheit der Position des Trägerfahrzeugs Informationen über die Verarbeitungsverzögerungszeit Dt, die durch die Detektions- und die Prädiktionsverarbeitung und die Kommunikationsverzögerung verursacht wird, und über die Ist-(Linear-)Geschwindigkeit und die Gierrate des Trägerfahrzeugs zur Zeit t empfangen und kann eine korrigierte Position des Trägerfahrzeugs zu einer Zeit t + Dt berechnen/bestimmen. Das Berechnen kann zuvor trainierte Szenarios wie z. B. das Verwenden eines Durchschnittswerts oder dergleichen als Grundlage verwenden oder es kann gemessene Parameter wie z. B. die Rechenleistung der Recheneinheit, die Übertragungsgeschwindigkeit der Kommunikationsverbindungen und dergleichen verwenden, um in jedem Fall den korrekten Wert Dt zu berechnen. Ferner kann der Wert Dt z. B. durch Aufnehmen der Zeit, zu der die Bilddaten vom optischen Sensor empfangen wurden, und durch Aufnehmen der Zeit, zu der die verarbeiteten Daten verfügbar sind, (zu einem zuvor definierten Punkt/Schritt im Ablauf der Verarbeitung) gemessen werden. Im vorhergehenden Beispiel würde die Zeitdifferenz der Wert Dt sein.Further, the host vehicle position compensation unit may receive information on the processing delay time Dt caused by the detection and the prediction processing and the communication delay, and on the actual (linear) velocity and the yaw rate of the host vehicle at the time t, and may calculate/determine corrected position of the host vehicle at a time t+Dt. The calculation can use previously trained scenarios such as e.g. B. using an average value or the like as a basis or it can be measured parameters such as e.g. B. use the computing power of the computing unit, the transmission speed of the communication links and the like to calculate the correct value Dt in each case. Furthermore, the value Dt z. B. by recording the time when the image data was received from the optical sensor and by recording the time when the processed data is available (at a previously defined point/step in the flow of processing). In the previous example, the time difference would be the value Dt.

Die Geschwindigkeit und die Gierrate können durch Sensoren des Trägerfahrzeugs geliefert werden, die zur Trägerfahrzeugfahrinformationseinheit, die die Daten zur beanspruchten Vorrichtung/dem Ausgleichsbestimmungsschritt liefern kann, Bericht erstatten können.The speed and yaw rate may be provided by host vehicle sensors that may report to the host vehicle driving information unit, which may provide the data to the claimed device/balance determination step.

Die Ausgleichsbestimmung erhöht ferner die Präzision der Datenausgabe, weil der Positionsfehler des Trägerfahrzeugs, der durch die Zeit verursacht wird, die zum Verarbeiten der Eingangsdaten und die Datenübertragung zwischen verschiedenen Einheiten benötigt wird, entfernt wird. Der Ausgleich kann eine Schätzung einer Bewegung eines Fahrzeugs unter Verwendung eines physikbasierten Fahrzeugmodells als Grundlage verwenden. Bei Kenntnis der anfänglichen kartesischen Position des Fahrzeugs, z. B. (X, Y), sowie der Ist-Geschwindigkeit und der Ist-Gierrate des Trägerfahrzeugs kann die Position (X, Y) im nächsten Zeitschritt bestimmt/geschätzt werden.The balance determination further increases the precision of the data output because the position error of the host vehicle caused by the time required to process the input data and the data transmission between different units is removed. The compensation may use an estimation of a vehicle's movement using a physics-based vehicle model as a basis. Knowing the initial Cartesian position of the vehicle, e.g. B. (X, Y), as well as the actual speed and the actual yaw rate of the host vehicle, the position (X, Y) can be determined / estimated in the next time step.

Ferner kann die Fahrzeugumgebungserkennungseinrichtung eine Kennungsverfolgereinheit enthalten, die mit einer Speichereinheit, die Daten zuvor detektierter Objekte speichern kann, kommunikationstechnisch verbunden ist. Die Kennungsverfolgereinheit kann konfiguriert sein, für jedes der detektierten Objekte zu bestimmen, ob das Objekt ein neu detektiertes Objekt oder ein zuvor detektiertes Objekt ist, und die Objektprädiktion kann konfiguriert sein, von der Kennungsverfolgereinheit Informationen darüber zu empfangen, ob das detektierte Objekt ein neu detektiertes Objekt oder ein verfolgtes zuvor detektiertes Objekt ist.Further, the vehicle surroundings recognizer may include an identifier tracker unit communicatively connected to a storage unit capable of storing data of previously detected objects. The identifier tracker unit may be configured to determine, for each of the detected objects, whether the object is a newly detected object or a previously detected object, and the object prediction may be configured to receive information from the identifier tracker unit as to whether the detected object is a newly detected object object or a tracked previously detected object.

Wenn die Kennungsverfolgereinheit eingesetzt wird, kann die Verarbeitungszeit wesentlich verringert werden, weil zuvor bestimmte Parameter/Daten aus dem Speicher gelesen werden können, anstatt sie durch das trainierte Modell neu zu bestimmen, oder das Trainingsmodell mindestens einen definierten Startpunkt zur Bestimmung besitzt, was den Rechenaufwand verringert.If the identifier tracker unit is used, the processing time can be significantly reduced because previously determined parameters/data can be read from memory instead of being re-determined by the trained model, or the training model has at least one defined starting point for determination, which reduces the computational effort reduced.

Ferner kann die Fahrzeugumgebungserkennungseinrichtung (teilweise) ein Computerprogrammprodukt sein, das computerlesbare Anweisungen umfasst, die in einem Computersystem, das einen oder mehrere Computer enthält, ausführbar sind, wobei die Einheiten Hardware- und/oder Software-Einheiten sind. Die Computer können im Trägerfahrzeug angeordnet (im Trägerfahrzeug installiert) sein und/oder sich entfernt vom Trägerfahrzeug befinden, wie z. B. an vernetzten entfernten Orten vorgesehen sein. Falls die Fahrzeugumgebungserkennungseinrichtung ein Computerprogramm sein soll, können die oben erläuterten Einheiten Software-Module/-Einheiten sein, die in einem Speicherraum gespeichert sind, der für den einen oder die mehreren Computer zugänglich ist. Die Fahrzeugumgebungserkennungseinrichtung kann außerdem eine Kombination von Hardware und Software sein und einige Einheiten können entweder Software- oder Hardware-Einheiten sein.Furthermore, the vehicle environment detection device (in part) a computer pro A program product comprising computer-readable instructions executable in a computer system including one or more computers, the units being hardware and/or software units. The computers may be located in the host vehicle (installed in the host vehicle) and/or remote from the host vehicle, e.g. B. be provided at networked remote locations. If the vehicle environment recognition device is to be a computer program, the entities discussed above may be software modules/entities stored in a memory space accessible to the one or more computers. The vehicle environment recognizer may also be a combination of hardware and software, and some units may be either software or hardware units.

Ferner können die Einheiten über Hardware- und/oder Software-Signalkommunikationskanäle kommunikationstechnisch verbunden sein und über ein oder mehrere Netze kommunikationstechnisch verbunden sein, wobei die Einheiten entweder in einer einzelnen Hardware angeordnet sind oder über verschiedene Hardware-Vorrichtungen, die Recheneinheiten/Hardware im Trägerfahrzeug enthalten, verteilt sein.Furthermore, the units may be communicatively linked via hardware and/or software signaling communication channels and communicatively linked via one or more networks, with the units being arranged either in a single piece of hardware or via different hardware devices containing computing units/hardware in the host vehicle , be distributed.

Die Einheiten, die oben diskutiert werden, können Teil einer einzelnen Einheit sein oder jede Einheit kann eine getrennte Einheit sein. Die Fahrzeugumgebungserkennungseinrichtung kann selbst Teil einer Monokamera, die den optischen Sensor enthält und in einem Trägerfahrzeug installiert ist, sein, wobei die Kamera/die Fahrzeugumgebungserkennungseinrichtung mit der Steuereinheit des Trägerfahrzeugs wie z. B. ihrem zentralen Steuercomputer oder dergleichen kommunikationstechnisch verbunden ist.The entities discussed above may be part of a single entity, or each entity may be a separate entity. The vehicle surroundings detection device can itself be part of a mono camera that contains the optical sensor and is installed in a host vehicle, the camera/vehicle surroundings detection device being connected to the control unit of the host vehicle, e.g. B. its central control computer or the like is connected by communication technology.

Eine bevorzugte Architektur kann die Rechenaufgaben mit hohem Aufwand wie z. B. die Detektion von Objekten, die Bestimmung von Parametern eines detektierten Objekts und die Vorhersageverarbeitung zu netzbasierten (entfernten) Rechenbetriebsmitteln verteilen, während die trägerfahrzeugbasierten Einheiten Rechenaufgaben mit geringerem Aufwand durchführen können. Dies ermöglicht eine schnelle und zuverlässige Verarbeitung der Eingangsdaten. Wenn allerdings die Zuverlässigkeit im Hinblick auf das Vermeiden von Unterbrechungen mobiler Datenübertragung erhöht werden soll, können die oben erläuterten Einheiten ihre Verarbeitung soweit technisch möglich vollständig/überwiegend in der Recheneinheit im Trägerfahrzeug durchführen. Die netzbasierten Betriebsmittel können dann Unterstützungsdaten wie z. B. Kartendaten von einem Karten-Server, Positionsinformationen, zuvor gespeicherte Fahrdaten oder dergleichen bereitstellen. Daher kann die Architektur an das beabsichtigte Szenario flexibel angepasst werden, was einen weiteren technischen Vorteil schafft.A preferred architecture can handle the high-effort computational tasks such as B. Distribute the detection of objects, the determination of parameters of a detected object and the prediction processing to network-based (remote) computing resources, while the host vehicle-based units can perform computing tasks with less effort. This enables fast and reliable processing of the input data. If, however, the reliability is to be increased with regard to avoiding interruptions in mobile data transmission, the units explained above can, as far as technically possible, carry out their processing completely/mainly in the computing unit in the carrier vehicle. The network-based resources can then support data such. B. provide map data from a map server, position information, previously stored driving data or the like. Therefore, the architecture can be flexibly adapted to the intended scenario, which creates another technical advantage.

Ferner wird ein Computerprogramm offenbart, das in einer oder mehreren Recheneinheiten wie z. B. der einen oder den mehreren Recheneinheiten des Trägerfahrzeugs und/oder entfernt angeordneten Recheneinheiten, die mit dem Trägerfahrzeug über ein Netz verbunden sind, installiert werden kann.Furthermore, a computer program is disclosed, in one or more computing units such. B. the one or more computing units of the host vehicle and / or remotely located computing units that are connected to the host vehicle via a network.

Ferner wird ein System offenbart, das einen optischen Sensor wie z. B. eine (Mono-)Kamera und die Fahrzeugumgebungserkennungseinrichtung mindestens eines der oben beschriebenen Aspekte enthalten kann. Das System kann außerdem entfernte Recheneinheiten, das Trägerfahrzeug mit einer Steuereinrichtung, Speichereinheiten und ein oder mehrere Netze, die entfernt angeordnete Recheneinheiten und/oder Speichereinheiten und das Trägerfahrzeug kommunikationstechnisch verbinden, enthalten.Furthermore, a system is disclosed that an optical sensor such. B. a (mono) camera and the vehicle environment detection device can contain at least one of the aspects described above. The system may also include remote computing devices, the host vehicle having a controller, storage devices, and one or more networks communicatively connecting remote computing devices and/or storage devices and the host vehicle.

Die hier offenbarte Vorrichtung und das hier offenbarte System und das hier offenbarte Computerprogrammprodukt ermöglichen, eine weniger komplexe Architektur insbesondere im Hinblick auf die Sensor-Hardware des Trägerfahrzeugs zu verwenden, die bevorzugt lediglich auf eine Einzelsensorquelle für die Eingabe von Daten über die Umgebung des Fahrzeugs (außer allgemeinen Informationen wie z. B. Kartendaten oder dergleichen, die von Recheneinheiten, die sich im Netz befinden, bereitgestellt werden) zurückgreifen, während die Ausgabeinformationen äußerst zuverlässig und genau sind und selbst Informationen in der (nahen) Zukunft über detektierte Objekte in der Umgebung des Fahrzeugs bereitstellen können. Darüber hinaus ist ein technischer Vorteil, dass die offenbarte Vorrichtung, das offenbarte System und das offenbarte Computerprogrammprodukt keine Kenntnis der intrinsischen Parameter der Kamera (wie z. B. die Brennweite usw.) erfordern, was den Lösungsversuch auf eine beliebige (vorhandene) Monokularkamera anwendbar macht, ungeachtet der Zwischenraumspezifikation der Kamera. Die Integration in vorhandene Fahrzeuge oder Kameras kann einfach durchgeführt werden.The device disclosed here and the system disclosed here and the computer program product disclosed here make it possible to use a less complex architecture, in particular with regard to the sensor hardware of the host vehicle, which preferably only relies on a single sensor source for the input of data about the environment of the vehicle ( except general information such as map data or the like provided by computing units located in the network) while the output information is extremely reliable and accurate and even information in the (near) future about detected objects in the environment of the vehicle can provide. Furthermore, a technical advantage is that the disclosed apparatus, system and computer program product do not require knowledge of the camera's intrinsic parameters (such as focal length, etc.), making the attempted solution applicable to any (existing) monocular camera makes, regardless of the camera's gap specification. The integration into existing vehicles or cameras can be carried out easily.

Figurenlistecharacter list

  • 1 zeigt schematisch ein Beispiel eines Systems der vorliegenden Offenbarung. 1 FIG. 12 schematically shows an example of a system of the present disclosure.
  • 2a zeigt schematisch eine Beispielkonfiguration einer Fahrzeugumgebungserkennungseinrichtung gemäß der vorliegenden Offenbarung. 2a 12 schematically shows an example configuration of a vehicle surroundings recognition device according to the present disclosure.
  • 2b zeigt schematisch eine Beispielkonfiguration einer Steuereinrichtung eines Trägerfahrzeugs gemäß der vorliegenden Offenbarung. 2 B 12 schematically shows an example configuration of a controller of a host vehicle according to the present disclosure.
  • 3 zeigt ein Beispiel eines Modelltrainingsverarbeitungsablaufs gemäß der vorliegenden Offenbarung. 3 12 shows an example of a model training processing flow, in accordance with the present disclosure.
  • 4 zeigt ein Beispiel für einen Fahrzeugumgebungserkennungsverarbeitungsablauf gemäß der vorliegenden Offenbarung. 4 12 shows an example of a vehicle environment recognition processing flow according to the present disclosure.
  • 5 zeigt ein Beispiel der Auswirkung der Ausgleichsverarbeitung der vorliegenden Offenbarung. 5 Figure 12 shows an example of the effect of the leveling processing of the present disclosure.
  • 6 zeigt ein Beispiel für einen Fahrzeugumgebungserkennungsverarbeitungsablauf gemäß der vorliegenden Offenbarung. 6 12 shows an example of a vehicle environment recognition processing flow according to the present disclosure.
  • 7 zeigt schematisch die Verarbeitung eines Bilds, das durch einen optischen Sensor gemäß der vorliegenden Offenbarung aufgenommen wurde. 7 FIG. 12 schematically shows the processing of an image captured by an optical sensor according to the present disclosure.
  • 8a und 8b zeigen schematisch die Erzeugung eines Belegungsgitters (OCG) oder einer Belegungsgitterkarte gemäß der vorliegenden Offenbarung. 8a and 8b 10 schematically show the generation of an occupancy grid (OCG) or occupancy grid map according to the present disclosure.

Genaue Beschreibung beispielhafter AusführungsformenDetailed description of exemplary embodiments

Im Folgenden werden bevorzugte Aspekte und Beispiele unter Bezugnahme auf die begleitenden Figuren genauer beschrieben. Dieselben oder ähnliche Merkmale in verschiedenen Zeichnungen und Beispielen werden durch ähnliche Bezugszeichen bezeichnet. Es versteht sich, dass sich die genaue Beschreibung unten auf verschiedene bevorzugte Aspekte bezieht und bevorzugte Beispiele nicht dazu bestimmt sind, den Umfang der vorliegenden Offenbarung zu beschränken.Preferred aspects and examples are described in more detail below with reference to the accompanying figures. The same or similar features in different drawings and examples are denoted by similar reference numbers. It should be understood that the detailed description below refers to various preferred aspects and preferred examples are not intended to limit the scope of the present disclosure.

1 zeigt ein Schaubild eines Systems 100, das ein Trägerfahrzeug 1 mit einem optischen Sensor 2 (der hier als eine bevorzugt verwendete Monokamera gezeigt ist), der mit einer Recheneinheit 3 kommunikationstechnisch verbunden ist (was durch die fettgedruckten gestrichelten Pfeile in den Figuren angegeben ist), enthält. Die Recheneinheit 3 ist im Trägerfahrzeug 1 installiert. Die Recheneinheit 3, die beispielhaft durch 1 gezeigt ist, enthält eine Fahrzeugumgebungserkennungseinrichtung 10 gemäß der vorliegenden Offenbarung und eine Steuereinheit/-einrichtung 4 sowie eine Speichereinheit 5. Wenn die Fahrzeugumgebungserkennungseinrichtung 10 als ein Software-Programmprodukt verkörpert werden soll, kann es auch in der Speichereinheit 5 gespeichert sein, die in 1 nicht dargestellt ist. Alternativ kann eine Recheneinheit ein integrierter Teil der Steuereinrichtung 4 und/oder der Fahrzeugumgebungserkennungseinrichtung 10 sein. Ferner können die zwei Vorrichtungen/Einheiten 4, 10 auch in einer einzelnen Steuereinrichtung integriert sein oder können in mehr als eine oder zwei Einheiten getrennt sein. Die Kommunikationsverbindungen/-leitungen/-kanäle insbesondere zwischen den Untereinheiten in einer Vorrichtung/Einheit sind in den Figuren aus Gründen der Lesbarkeit nicht dargestellt. Im Allgemeinen sind die Untereinheiten in einer übergeordneten Einheit oder Vorrichtung verbunden, um Informationen oder Signale mittels Software- oder Hardware-Kommunikationsschnittstellen und/oder -Kommunikationsleitungen miteinander auszutauschen. 1 shows a diagram of a system 100, which has a carrier vehicle 1 with an optical sensor 2 (which is shown here as a preferably used mono camera), which is communicatively connected to a computing unit 3 (which is indicated by the bold dashed arrows in the figures), contains. The processing unit 3 is installed in the carrier vehicle 1 . The arithmetic unit 3, which is exemplified by 1 is shown includes a vehicle environment detection device 10 according to the present disclosure and a control unit/device 4 and a storage unit 5. If the vehicle environment detection device 10 is to be embodied as a software program product, it may also be stored in the storage unit 5, which is shown in 1 is not shown. Alternatively, a computing unit can be an integrated part of the control device 4 and/or the vehicle environment detection device 10 . Furthermore, the two devices/units 4, 10 can also be integrated into a single controller or can be separated into more than one or two units. The communication connections/lines/channels, in particular between the sub-units in a device/unit, are not shown in the figures for reasons of legibility. In general, the sub-units are connected in a higher-level unit or device in order to exchange information or signals with one another by means of software or hardware communication interfaces and/or communication lines.

Die Recheneinheit 3 ist mit einem oder mehreren Netzen 6, die durch die schematische Wolke in 1 angegeben sind, kommunikationstechnisch verbunden; ferner sind eine oder mehrere entfernt angeordnete Speichereinheiten 7 und eine oder mehrere entfernt angeordnete Recheneinheiten 8a, 8b mit dem Netz 6 verbunden. Die Recheneinheiten 8a, 8b, die mit dem Netz 6 verbunden sind, können z. B. einen Karten-Server enthalten, der Navigationsdaten wie z. B. Kartendaten zum Trägerfahrzeug 1 liefert, und ferner können entfernte Recheneinheiten 8a, 8b Teile der hier offenbarten Fahrzeugumgebungserkennungseinrichtung 10 enthalten, was insbesondere im Falle von rechenintensiven Operationen wie z. B. der Verarbeitung, die durch AI/ML-Modelle durchgeführt wird, bevorzugt ist. Die Anzahl entfernt angeordneter Recheneinheiten 8a, 8b kann niedriger oder höher als die zwei, die in 1 gezeigt sind, sein. Der eine oder die mehreren Speicherräume 7 können eine beliebige Art Fahrdaten oder beliebige weitere Daten speichern, die den Betrieb der hier beschriebenen Fahrzeugumgebungserkennungseinrichtung 10 oder den Betrieb der Recheneinheit 3 im Trägerfahrzeug 1 oder dergleichen unterstützen können.The processing unit 3 is connected to one or more networks 6, which are represented by the schematic cloud in 1 are specified, connected by communication technology; furthermore, one or more remote storage units 7 and one or more remote computing units 8a, 8b are connected to the network 6. The processing units 8a, 8b, which are connected to the network 6, z. B. contain a map server, the navigation data such. B. provides map data for the carrier vehicle 1, and also remote computing units 8a, 8b contain parts of the vehicle environment detection device 10 disclosed here, which is particularly important in the case of computationally intensive operations such. B. the processing performed by AI/ML models is preferred. The number of remote computing units 8a, 8b may be lower or higher than the two specified in 1 are shown. The one or more storage spaces 7 can store any type of driving data or any other data that can support the operation of the vehicle environment detection device 10 described here or the operation of the computing unit 3 in the host vehicle 1 or the like.

2 zeigt ein Schaubild der Fahrzeugumgebungserkennungseinrichtung 10 und der Steuereinrichtung 4. 2a deutet an, dass die Fahrzeugumgebungserkennungseinrichtung 10 mehrere Untereinheiten enthält (obwohl auch eine einzelne Untereinheit oder mehr oder weniger Untereinheiten als die Anzahl dargestellter Untereinheiten verwendet werden können), die, wie unten weiter beschrieben wird, eine Detektionseinheit 11, eine Vorhersageeinheit 12, eine Trägerfahrzeugausgleichseinheit 13 und eine Ausgabeeinheit 14 sowie eine OCG-Erzeugungseinheit 15 enthalten. Bevorzugt kann die Fahrzeugumgebungserkennungseinrichtung 10 außerdem eine Verarbeitungszeitverzögerungsbestimmungseinheit 16 und eine Kennungsverfolgereinheit 17, die Daten von der fahrzeuginternen Speichereinheit 5 oder der entfernten Speichereinheit 7 empfangen kann, enthalten. 2 shows a diagram of the vehicle surroundings detection device 10 and the control device 4. 2a indicates that the vehicle environment recognition device 10 includes a plurality of sub-units (although a single sub-unit or more or fewer sub-units than the number of sub-units shown can also be used) which, as will be described further below, include a detection unit 11, a prediction unit 12, a host vehicle compensation unit 13 and an output unit 14 and an OCG generation unit 15 are included. Preferably, the vehicle environment recognizer 10 may further include a processing time delay determination unit 16 and an identifier tracker unit 17 which can receive data from the in-vehicle storage unit 5 or the remote storage unit 7 .

Die Fahrzeugumgebungserkennungseinrichtung 10 kann ihre eigene Recheneinheit (die nicht dargestellt ist) enthalten und kann ihre eigene Speichereinheit (die nicht dargestellt ist) besitzen, wenn die Fahrzeugumgebungserkennungseinrichtung 10 eine getrennte Hardware-Einheit ist. Dasselbe gilt für die Steuereinrichtung 4. Ferner kann die Steuereinrichtung 4 außerdem mit der Fahrzeugumgebungserkennungseinrichtung 10 zusammengeführt werden, wie zuvor beschrieben wurde.The vehicle environment recognizer 10 may include its own computing unit (not illustrated) and may have its own storage unit (not illustrated) when the vehicle environment recognizer 10 is a separate hardware unit. The same applies to the control device 4. Furthermore, the control device 4 can also be merged with the vehicle environment detection device 10, as described above.

Die Steuereinrichtung 4 enthält eine oder mehrere Untereinheiten wie z. B. eine Trägerfahrzeugsteuereinheit 41, eine Sensordatenverarbeitungseinheit 42, eine Bremssteuereinheit 43, eine Kraftmaschinensteuereinheit 44 und dergleichen. Darüber hinaus können eine oder mehrere Bewegungsplanerzeugungs- und Bewegungsplanbereitstellungseinheiten 45 in der zuvor beschriebenen Steuereinrichtung 4 oder in einer Recheneinheit 8a, 8b, die entfernt vom Trägerfahrzeug 1 angeordnet ist, vorgesehen sein.The controller 4 includes one or more sub-units such. B. a host vehicle control unit 41, a sensor data processing unit 42, a brake control unit 43, an engine control unit 44 and the like. In addition, one or more movement plan generation and movement plan provision units 45 can be provided in the previously described control device 4 or in a computing unit 8a, 8b, which is arranged remotely from the carrier vehicle 1.

Außerdem kann die Steuereinrichtung 4 eine Trägerfahrzeugfahrparametereinheit 46 enthalten, die Daten von Sensoren (die nicht dargestellt sind) des Trägerfahrzeugs 1 oder weiteren nicht dargestellten Quellen wie z. B. GPS-Signaldaten oder dergleichen empfängt.In addition, the control device 4 can contain a host vehicle driving parameter unit 46 that receives data from sensors (not shown) of the host vehicle 1 or other sources that are not shown, such as e.g. B. GPS signal data or the like.

Die Trägerfahrzeugsteuereinheit 41 kann z. B. konfiguriert sein, ein autonomes Fahren des Trägerfahrzeugs 1 durchzuführen, und kann eine Eingabe empfangen oder Steueranweisungen zu weiteren Untereinheiten wie z. B. der Sensordatenverarbeitungseinheit 42, die Trägerfahrzeugfahrparametereinheit 46 empfangen kann, liefern und kann fahrrelevante Daten zur Trägerfahrzeugsteuereinheit 41 liefern. Ferner kann die Trägerfahrzeugsteuereinheit 41 die Bremssteuereinheit 43 und die Kraftmaschinensteuereinheit 44, die die Bremsen bzw. die eine oder die mehreren Kraftmaschinen des Trägerfahrzeugs 1 steuern können, steuern. Eine Bewegungsplan-Erzeugungs-/Ausgabe-Einheit 45 kann in das Trägerfahrzeug 1 integriert sein oder kann in die eine oder die mehreren entfernten Recheneinheiten 8a, 8b integriert sein und kann ein autonomes Fahren durch Setzen der Route, der das autonom gefahrene/gesteuerte Trägerfahrzeug 1 folgen soll, unterstützen. Die Route kann zur Trägerfahrzeugsteuereinheit 41 geliefert werden. Das Trägerfahrzeug 1 oder seine Recheneinheit 3 oder seine Steuereinrichtung 4 kann ferner Informationen wie z. B. Kartendaten von einem Karten-Server entfernt über das Netz 6 empfangen, wie z. B. durch das Bezugszeichen 8a oder 8b gezeigt ist. Es kann auch eine beliebige Art zuvor gespeicherter Daten von der entfernt angeordneten Speichereinheit 7 empfangen.The host vehicle control unit 41 may e.g. B. be configured to perform an autonomous driving of the host vehicle 1, and can receive an input or control instructions to other sub-units such. B. the sensor data processing unit 42, the host vehicle driving parameter unit 46 can receive, and can provide driving-related data to the host vehicle control unit 41. Further, the host vehicle control unit 41 can control the brake control unit 43 and the engine control unit 44, which can control the brakes and the one or more engines of the host vehicle 1, respectively. A movement plan generation/output unit 45 can be integrated into the host vehicle 1 or can be integrated into the one or more remote computing units 8a, 8b and can perform autonomous driving by setting the route that the autonomously driven/controlled host vehicle 1 should follow, support. The route can be provided to the host vehicle control unit 41 . The carrier vehicle 1 or its computing unit 3 or its control device 4 can also contain information such as B. map data from a map server remotely received over the network 6, such as. B. shown by the reference numeral 8a or 8b. It can also receive any type of previously stored data from the remote storage unit 7 .

Die Detektionseinheit 11 sowie die Vorhersageeinheit 12 kann ein oder mehrere AI- und/oder ML-Modelle (die nicht dargestellt sind), die gemäß dem schematischen Ablaufplan nach 3 trainiert werden, enthalten.The detection unit 11 as well as the prediction unit 12 can use one or more AI and/or ML models (which are not shown) according to the schematic flowchart 3 be trained included.

3 zeigt den prinzipiellen Ablauf des Trainings-/Lernprozesses des einen oder der mehreren Modelle derart, dass sie für einen vordefinierten Zweck verwendet werden können. Als ein Beispiel dieses Trainings zeigt 3 einen Ablaufplan der Trainingsschritte und der dargestellte Ablaufplan ist in Kombination mit der Trainingseinheit 50 gezeigt, die die folgenden Trainingsschritte durchführt: Zuerst werden Bildrohdaten (wobei roh bedeuten soll, dass sie nicht vorverarbeitet sind) sowie Messwerte von Sensoren wie z. B. Lidarsensoren, Radarsensoren, optische Sensoren, GPS-Daten usw. in einen Prozess/eine Einheit 51 zur Datenkennzeichnung und Datenvorbereitung eingegeben. Die Daten werden derart gekennzeichnet und vorbereitet (verarbeitet, abgeglichen usw.), dass sie zum Training z. B. eines neuronalen Netzes verwendet werden können. Die Kennzeichnung und Vorbereitung der Daten kann in Übereinstimmung mit Prinzipien/Prozessschritten, die im Gebiet bereits bekannt sind, durchgeführt werden. Dann werden die vorbereiteten Daten in den Lernprozess/die Lerneinheit 52 eingegeben, wie in 3 gezeigt ist. In der Lerneinheit 52 werden die Daten zum Lernen des Modells verwendet und danach wird das Modell überprüft, wie in diesem Gebiet bereits bekannt ist. Das Modelllernen und die Modellprüfung werden wiederholt, solange es nötig ist, um bei der nötigen/gewünschten Präzision des trainierten Modells anzukommen. Dies kann vorgegeben sein, z. B. durch Vorgeben der Anzahl von Iterationen/Wiederholungen. Nach dem Lernprozess ist das Model ausreichend/gut trainiert, um als ein Detektormodell oder ein Prädiktormodell verwendet zu werden, und wird von der Trainingseinheit 50 ausgegeben. 3 shows the basic course of the training/learning process of the one or more models in such a way that they can be used for a predefined purpose. As an example of this training shows 3 a flow chart of the training steps and the illustrated flow chart is shown in combination with the training unit 50, which performs the following training steps: B. lidar sensors, radar sensors, optical sensors, GPS data, etc. are entered into a process / unit 51 for data labeling and data preparation. The data are marked and prepared (processed, compared, etc.) in such a way that they can be used for training, e.g. B. a neural network can be used. The labeling and preparation of the data can be performed in accordance with principles/process steps already known in the art. Then the prepared data is entered into the learning process/unit 52 as shown in FIG 3 is shown. In the learning unit 52 the data is used to learn the model and thereafter the model is checked as is already known in the art. Model learning and model validation are repeated as long as necessary to arrive at the required/desired precision of the trained model. This can be predetermined, e.g. B. by specifying the number of iterations/repetitions. After the learning process, the model is sufficiently/well trained to be used as a detector model or a predictor model and is output from the training unit 50 .

4 zeigt ferner einen prinzipiellen Ablauf der Verarbeitung, die in der zuvor beschriebenen Fahrzeugumgebungserkennungseinrichtung 10 gemäß 2a und/oder dem System 100, das in 1 gezeigt ist, ausgeführt wird. Speziell zeigt 4, dass ein optischer Sensor 2, der bevorzugt eine Monokamera ist, um die Systemkomplexität zu verringern, Bilder in einem Zeitraum/Intervall von t - n bis t aufnimmt, wobei t die aktuelle Zeit ist. 4 FIG. 1 also shows a basic flow of the processing carried out in the previously described vehicle environment detection device 10 according to FIG 2a and/or the system 100 contained in 1 shown is executed. Special shows 4 that an optical sensor 2, which is preferably a mono camera in order to reduce the system complexity, takes pictures in a time period/interval from t - n to t, where t is the current time.

Der optischer Sensor 2 liefert (Schritt S1) die Bilder als eine Folge von Bildrahmen, wobei mehrere Bildrahmen als eine Folge eingegeben werden. Die Folge kann als eine Baugruppe/Anordnung zeitlich geordneter Bilder (die in 4 schematisch angegeben sind) betrachtet werden. Die Folge wird in die eine oder die mehreren Detektions- und Prädiktionseinheiten 11, 12 eingegeben (Schritt S2). Zuerst verwendet die Detektionseinheit 11 die Folge von Bildrahmen, die durch den optischen Sensor 2 geliefert wird, um Objekte von Interesse für das Trägerfahrzeugfahren zu detektieren. Die Objekte O1, O2 können Fußgänger, weitere Personenkraftwagen oder Lastkraftwagen, Hindernisse, Fahrbahnmarkierungen, Fahrbahngrenzen, Gebäude und dergleichen enthalten und die Detektionseinheit 11 oder ein bestimmtes Objektinformationsdatenmodell (das in der Detektionseinheit 11 oder in einer getrennten Untereinheit, die in 2a nicht dargestellt ist, enthalten sein kann) bestimmt die folgenden Objektinformationsdaten. Die Objektinformationsdaten, die durch die Detektionseinheit 11 detektiert/bestimmt werden, können Objekt-Begrenzungs-/Abgrenzungsrahmen-Koordinaten enthalten.The optical sensor 2 supplies (step S1) the images as a sequence of image frames, and a plurality of image frames are input as a sequence. The sequence can be viewed as an assembly/arrangement of temporally ordered images (which are 4 are indicated schematically). The sequence is input to the one or more detection and prediction units 11, 12 (step S2). First ver the detection unit 11 uses the sequence of image frames provided by the optical sensor 2 to detect objects of interest for the host vehicle running. The objects O1, O2 can contain pedestrians, other cars or trucks, obstacles, lane markings, lane boundaries, buildings and the like, and the detection unit 11 or a specific object information data model (which is stored in the detection unit 11 or in a separate sub-unit, which is stored in 2a not shown may be included) determines the following object information data. The object information data detected/determined by the detection unit 11 may include object boundary/demarcation frame coordinates.

Der Begrenzungsrahmen B kann als ein rechteckiger Bereich/Rahmen betrachtet werden, der um das detektierte Objekt O1, O2 angeordnet ist, derart, dass das detektierte Objekt O1, O2 präzise in den Rahmen B, der bevorzugt ein zweidimensionaler Rahmen ist, der im Bildrahmen angeordnet ist, passt. Die Begrenzungsrahmenkoordinaten können die Koordinaten der oberen linken und der unteren rechten Ecke sein, die die rechteckige Form des Rahmens B vollständig definieren. Darüber hinaus können die Objektinformationsdaten den Typ des Objekts, bevorzugt die Orientierung des Objekts in Bezug auf das Koordinatensystem des optischen Sensors des Trägerfahrzeugs 1, eine Entfernung vom Objekt zum optischen Sensor oder zum Ursprung des Koordinatensystems des Trägerfahrzeugs, die Abmessung oder die Größe des detektierten Objekts und seine Geschwindigkeit enthalten.The bounding box B can be viewed as a rectangular area/box placed around the detected object O1, O2 such that the detected object O1, O2 is precisely within the box B, which is preferably a two-dimensional box placed in the image frame is, fits. The bounding box coordinates may be the upper left and lower right corner coordinates that completely define the rectangular shape of the box B . In addition, the object information data can include the type of object, preferably the orientation of the object in relation to the coordinate system of the optical sensor of the host vehicle 1, a distance from the object to the optical sensor or to the origin of the coordinate system of the host vehicle, the dimensions or the size of the detected object and include its speed.

In einer bevorzugten Alternative/Änderung kann außerdem eine Kennungsverfolgereinheit 17 in der Fahrzeugumgebungserkennungseinrichtung 10 enthalten sein, zu der die Informationen über das detektierte Objekt 01, 02 gesendet werden können, um Informationen darüber zu empfangen, ob das detektierte Objekt O1, O2 bereits vorab detektiert worden ist oder ob es neu detektiert wird. Dies wird unten genauer beschrieben.In a preferred alternative/modification, an identifier tracker unit 17 can also be included in the vehicle environment detection device 10, to which the information about the detected object 01, 02 can be sent in order to receive information about whether the detected object O1, O2 has already been detected in advance is or whether it is newly detected. This is described in more detail below.

Das Prädiktormodell 12 verwendet außerdem ein trainiertes Modell aus einem neuronalen Netz (das nicht dargestellt ist) und wendet eine Zeitreihenanalyse auf die Informationen jedes detektierten Objekts O1, O2 an, um zukünftige Objektinformationsdaten herzuleiten/abzuleiten. Die zukünftigen Objektinformationsdaten können die Begrenzungsrahmenkoordinaten, die eine oder die mehreren Orientierungen, die Entfernung, die eine oder die mehreren Abmessungen und/oder die Geschwindigkeit jedes detektierten Objekts in einem zukünftigen Zeitintervall, das sich von einer aktuellen Zeit t (oder t + Dt) zu einer zukünftigen Zeit t + k erstreckt, enthalten. Die Anzahl von Werten für sämtliche zukünftigen Objektinformationsdaten kann vordefiniert, z. B. in der Speichereinheit 7 gespeichert sein oder kann in Übereinstimmung mit der Anzahl kürzerer Zeitintervalle zwischen der Zeit t + Dt und der Zeit t + k sein.The predictor model 12 also uses a trained neural network model (not shown) and applies time series analysis to the information of each detected object O1, O2 to derive/derive future object information data. The future object information data may include the bounding box coordinates, the one or more orientations, the distance, the one or more dimensions, and/or the velocity of each detected object in a future time interval extending from a current time t (or t + Dt) to a future time t + k included. The number of values for all future object information data can be predefined, e.g. B. be stored in the memory unit 7 or may be in accordance with the number of shorter time intervals between the time t + Dt and the time t + k.

Mit der Detektion und der Prädiktion, die durchgeführt werden, empfängt die Trägerfahrzeugausgleichseinheit 13 Daten (Schritt S3) von der Trägerfahrzeugfahrparametereinheit 46 sowie einer Verarbeitungszeitverzögerungsbestimmungseinheit 16, um die Position des Trägerfahrzeugs 1 in Bezug auf die Zeit, die zwischen der aktuellen Zeit t, zu der das letzte Bild des Zeitintervalls zwischen t - n und t aufgenommen wurde (oder die Verarbeitung begonnen hat), und dem Abschließen der Detektions- und Prädiktionsverarbeitung sowie der entsprechenden Kommunikationsvorzögerungen vergangen ist (Latenz), zu korrigieren. Die Verarbeitungszeitverzögerungsbestimmungseinheit 16 kann diese Zeit, die als „Dt“ bezeichnet wird, messen, sie kann die Zeit auf der Grundlage vorhergehender Fälle schätzen oder sie kann die Zeit berechnen, wenn entsprechende Parameterdaten verfügbar sind. Die Trägerfahrzeugfahrparametereinheit 46 liefert darüber hinaus die Ist-Lineargeschwindigkeit und das Gieren des Trägerfahrzeugs 1 zur Zeit t, auf deren Grundlage z. B. durch Extrapolation die neue Position des Trägerfahrzeugs 1 zur Zeit t + Dt ausgeglichen/korrigiert/bestimmt werden kann.With the detection and the prediction being performed, the host vehicle compensation unit 13 receives data (step S3) from the host vehicle running parameter unit 46 as well as a processing time lag determination unit 16 to calculate the position of the host vehicle 1 with respect to the time elapsing between the current time t to the the last image of the time interval between t - n and t has been captured (or processing has started) and the completion of the detection and prediction processing and the corresponding communication delays (latency) have elapsed. The processing time delay determination unit 16 can measure this time, which is denoted as “Dt”, it can estimate the time based on previous cases, or it can calculate the time when corresponding parameter data is available. The host vehicle running parameter unit 46 also provides the actual linear velocity and yaw of the host vehicle 1 at time t, based on which e.g. B. the new position of the host vehicle 1 at the time t + Dt can be compensated / corrected / determined by extrapolation.

Der Ausgleich weist selbstverständlich eine Wirkung auf die Entfernungen, die durch die Detektoreinheit und die Prädiktoreinheit 11, 12 während ihrer entsprechenden Verarbeitung detektiert werden, auf. Daher werden bevorzugt die Werte auch ausgeglichen. In dieser Hinsicht soll wiederholt werden, dass die Entfernungen zwischen dem Trägerfahrzeug 1 und einem beliebigen detektierten Objekt 01, 02 durch ein getrenntes AI-/ML-Modell, d. h. getrennt vom Detektormodell oder Prädiktormodell bestimmt werden können. Das eine oder die mehreren getrennten Modelle (die nicht dargestellt sind) können Untereinheiten des Detektormodells/Prädiktormodells sein; die Modelle können Teil der Vorrichtung 10, die durch 2A gezeigt ist, sein. Die Entfernungsbestimmung kann durch das trainierte Modell auf der Grundlage der Eingabe der Bilddaten, die durch den optischen Sensor 2 geliefert werden, durchgeführt werden.The compensation of course has an effect on the distances detected by the detector unit and the predictor unit 11, 12 during their respective processing. Therefore, the values are preferably also balanced. In this regard, it should be repeated that the distances between the host vehicle 1 and any detected object 01, 02 can be determined by a separate AI/ML model, ie separate from the detector model or predictor model. The one or more separate models (not shown) may be sub-units of the detector model/predictor model; the models can be part of the device 10 that is carried out 2A is shown to be. The distance determination can be performed by the trained model based on the input of the image data provided by the optical sensor 2 .

Nachdem der Trägerfahrzeugausgleich ausgeführt worden ist und mit den Daten von der Detektionseinheit und der Prädiktionseinheit 11, 12 können Bilder, die in einer Folge von Bildrahmen zwischen der Zeit t (oder der Zeit t + tD) und t + k vorgesehen sind, durch die Ausgabeeinheit 14 oder die OCG-Erzeugungseinheit 15 erzeugt werden (Schritt S4), wobei die Ausgabeeinheit 14 und die OCG-Erzeugungseinheit 15 eine einzelne Einheit sein können (was vom Aufbau, der in 2a dargestellt ist, verschieden ist). Die Erzeugung der Ausgabe, bevorzugt einer Folge von Belegungsgittern im Zeitintervall zwischen der Zeit t + Dt und t + k wird in Verbindung mit 7 und 8 unten erläutert.After the host vehicle compensation has been performed and with the data from the detection unit and the prediction unit 11, 12, images provided in a sequence of image frames between time t (or time t+tD) and t+k can be output by the output unit 14 or the OCG generation unit 15 are generated (step S4), wherein the output unit 14 and the OCG generation unit 15 may be a single unit (which differs from the structure shown in 2a is shown, ver is divorced). The generation of the output, preferably a sequence of occupancy grids, in the time interval between time t+Dt and t+k is discussed in connection with 7 and 8th explained below.

Die Wirkung des Trägerfahrzeugausgleichs wird darüber hinaus durch 5, die die relative Entfernung/Position eines detektierten Objekts 01, 02 und des Trägerfahrzeugs 1 abhängig von dem Zeitpunkt, der die aktuelle Zeit t zu der Zeit ist, zu der die Bilder durch den optischen Sensor 2 aufgenommen wurden, und der Zeit t + Dt, nach der die Verarbeitung der Objektdetektion und - prädiktion abgeschlossen wurde, zeigt, schematisch beschrieben. Im Einzelnen zeigt 5 den Beispielfall, in dem das Trägerfahrzeug eine Lineargeschwindigkeit von 10 m/s besitzt und ein geparkter Personenkraftwagen 01 (dessen Geschwindigkeit 0 m/s ist) detektiert wird. Allerdings hat sich das Trägerfahrzeug 1 zur Zeit t, da die Verarbeitung der Objektdetektion usw. die Zeit Dt (die in 5 als Δt gezeigt ist) erfordert, um die Entfernung Δd von der ursprünglichen Position bewegt. Der Ausgleich berücksichtigt dies und 5 zeigt die Differenzen im Hinblick auf die relativen Entfernungen/Positionen des detektierten Objekts O1 und des Trägerfahrzeugs 1.The effect of the carrier vehicle compensation is also carried out by 5 , which calculates the relative distance/position of a detected object 01, 02 and the host vehicle 1 depending on the time, which is the current time t at the time the images were taken by the optical sensor 2 and the time t + Dt , after which the object detection and prediction processing has been completed, shows schematically described. In detail shows 5 the example case in which the host vehicle has a linear speed of 10 m/s and a parked passenger car 01 (whose speed is 0 m/s) is detected. However, at time t, since the processing of object detection, etc., the host vehicle 1 has passed the time Dt (which is in 5 shown as Δt) required to move the distance Δd from the original position. The compensation takes this and 5 shows the differences in relative distances/positions of the detected object O1 and the host vehicle 1.

Darüber hinaus ist ein Beispielfluss von Daten-/Kommunikationsmustern zwischen den verschiedenen Einheiten, der beim optischen Sensor 2 startet und Bilder zum Objektdetektormodell in der Detektionseinheit 11 und zu einem Latenzschätzer, der in der Verarbeitungszeitverzögerungsbestimmungseinheit 16 enthalten ist, liefert, durch 6 gezeigt. Das Detektormodell detektiert Objekte O1, O2 in den Bildern und liefert Informationen über die detektierten Objekte zu einer Kennungsverfolgereinheit 17, die darüber hinaus Informationen über zuvor verfolgte Objekte von einer Speichereinheit (z. B. die Einheit 7 oder 5) empfängt. Auf der Grundlage der empfangenen Informationen bestimmt die Kennungsverfolgereinheit 17, ob das detektierte Objekt O1, O2 zuvor detektiert wurde und seine Informationen im Speicher gespeichert wurden. Wenn ja, kann der Kennungsverfolger die Informationen über die detektierten Objekte O1, O2 und ob sie neu detektiert wurden oder nicht zum Objektprädiktormodell in der Vorhersageeinheit 12 weiterleiten. Die Vorhersageeinheit 12 kann Informationen zum Latenzschätzer und zum Trägerfahrzeugausgleich weiterleiten. Der Latenzschätzer kann z. B. die Zeit t, zu der die Bilder in das Objektdetektormodell eingegeben wurden, und die Zeit, zu der das Objektprädiktormodell die vorhergesagten/zukünftigen Informationen ausgibt, empfangen. Die Zeitdifferenz kann für die Berechnung/Schätzung der Latenz/Zeitverzögerung, die in den Trägerfahrzeugausgleich eingegeben wird, verwendet werden.Furthermore, an example flow of data/communication patterns between the various units, starting at the optical sensor 2 and providing images to the object detector model in the detection unit 11 and to a latency estimator included in the processing time delay determination unit 16, is through 6 shown. The detector model detects objects O1, O2 in the images and provides information about the detected objects to an identifier tracker unit 17, which also receives information about previously tracked objects from a storage unit (e.g. the unit 7 or 5). Based on the received information, the identifier tracker unit 17 determines whether the detected object O1, O2 has been previously detected and its information has been stored in memory. If so, the identifier tracker can forward the information about the detected objects O1, O2 and whether they were newly detected or not to the object predictor model in the prediction unit 12. The prediction unit 12 may forward information to the latency estimator and host vehicle compensation. The latency estimator can e.g. B. the time t when the images were input into the object detector model and the time when the object predictor model outputs the predicted/future information are received. The time difference can be used for the calculation/estimation of the latency/time delay that is input to the host vehicle offset.

Mit anderen Worten empfängt die Verarbeitungszeitverzögerungsbestimmungseinheit 16 Informationen von den aktuellen Bildern zur Zeit t und dem Vorhersagemodell und liefert eine Schätzung über die Verzögerungszeit/Latenz zur Trägerfahrzeugausgleichseinheit 13, die darüber hinaus mindestens Informationen über die Lineargeschwindigkeit und die Gierrate des Trägerfahrzeugs 1 zur aktuellen Zeit t empfängt. Die Ausgabe der Trägerfahrzeugausgleichseinheit 13 und der Objektvorhersagemodelleinheit 12 enthält dann zukünftige Objektinformationsdaten in einem Zeitintervall zwischen der Zeit t + Dt und der zukünftigen Zeit t + k. Auf dieser Grundlage kann, wie oben beschrieben ist, eine Folge von Bildrahmen im zukünftigen Zeitintervall zwischen t (t + Dt) und t + k, die bevorzugt Belegungsgitterkarten sind, wie unten weiter erläutert wird, erzeugt werden.In other words, the processing time delay determination unit 16 receives information from the current images at time t and the prediction model and provides an estimate of the delay time/latency to the host vehicle compensation unit 13, which also receives at least information about the linear velocity and the yaw rate of the host vehicle 1 at the current time t . The output of the host vehicle compensation unit 13 and the object prediction model unit 12 then contains future object information data in a time interval between time t+Dt and future time t+k. On this basis, as described above, a sequence of image frames can be generated in the future time interval between t(t+Dt) and t+k, which are preferably occupancy grid maps as further explained below.

Ein Beispiel für die Belegungserzeugung ist durch 7 und 8 gezeigt. 7 zeigt ein mögliches Bild, das durch den optischen Sensor 2 des Trägerfahrzeugs 1 aufgenommen wurde. Das Bild zeigt eine Fahrbahn, die nicht weiter spezifizierte Umgebung der Fahrbahn (die in 8 auch als ein „unbekannter Bereich“ bezeichnet wird) und ein weiteres Fahrzeug (Objekt O1). Nach der Objektdetektion ist ein Begrenzungsrahmen B um das Objekt O1, das durch die Objektdetektion detektiert wurde und als „Personenkraftwagen“ identifiziert wurde, angeordnet.An example of allocation generation is through 7 and 8th shown. 7 12 shows a possible image recorded by the optical sensor 2 of the host vehicle 1. The image shows a roadway, the unspecified surroundings of the roadway (which are listed in 8th also referred to as an “unknown area”) and another vehicle (object O1). After the object detection, a bounding box B is placed around the object O1 detected by the object detection and identified as “passenger car”.

Ferner sind in 7 ein Zentrum des Bilds (des Bildrahmens) P1 und ein Zentrum des Begrenzungsrahmens B (der als „P2“ markiert ist) ebenso gezeigt, wie eine virtuelle Linie, die „P1“ durchquert, und eine virtuelle Linie, die „P1“ und „P2“ verbindet, wobei in 7 die erste als L1 bezeichnet ist und die zweite als L2 bezeichnet ist. Der (Polar-)Winkel zwischen den zwei Linien L1, L2 wird detektiert. Der Winkel wird in 7 als „Theta“ identifiziert. Mit dem Begrenzungsrahmen B, der zuvor beschrieben wurde, dem Zentrum des Begrenzungsrahmens, das in 2 als „P2“ angegeben ist und z. B. in der Mitte der Unterseite des Begrenzungsrahmens B angeordnet ist, und dem Zentrum des Bildrahmens „P1“ (das z. B. die Mittenposition der Unterkante des Bildrahmens ist, wenn der optische Sensor 2 als an diesem Ort befindlich angenommen werden soll) kann der Polarwinkel, der in 7 als „Theta“ gezeigt ist, berechnet werden und auf dieser Grundlage kann der Ort des detektierten Objekts O1, O2 in einem kartesischen Koordinatensystem berechnet werden. Insbesondere können der Polarwinkel „Theta“ und die Entfernung vom Objekt O1 zum Trägerfahrzeug verwendet werden, um den Ort des Objekts 01 in kartesischen Koordinaten zu berechnen.Furthermore, in 7 a center of picture (picture frame) P1 and a center of bounding box B (marked as "P2") are also shown, as well as a virtual line crossing "P1" and a virtual line crossing "P1" and "P2 “ connects, where in 7 the first is labeled L1 and the second is labeled L2. The (polar) angle between the two lines L1, L2 is detected. The angle becomes in 7 identified as "Theta". With the bounding box B described earlier, the center of the bounding box shown in 2 is specified as "P2" and e.g. B. is located in the middle of the bottom of the bounding box B, and the center of the image frame "P1" (which is e.g. the center position of the bottom edge of the image frame if the optical sensor 2 is to be assumed to be at this location). the polar angle, which in 7 shown as "Theta" can be calculated and on this basis the location of the detected object O1, O2 in a Cartesian coordinate system can be calculated. In particular, the polar angle "Theta" and the distance from object O1 to the host vehicle can be used to calculate the location of object O1 in Cartesian coordinates.

Auf der Grundlage der oben beschriebenen Informationen, d. h. einschließlich des Bildrahmens, des kartesischen Koordinatensystems und der Positionen des einen oder der mehreren Objekte O1, O2 kann ein Belegungsgitter (OCG) erzeugt werden. Speziell wird ein belegter Bereich eines OCG auf der Grundlage der (zukünftigen) Objektinformationsdaten, insbesondere der Orientierung, der Abmessung, der Entfernung zum Trägerfahrzeug 1 und des Begrenzungsrahmens B berechnet. Unter Verwendung des Standorts des detektierten Objekts, seiner Orientierung und seiner Abmessung kann der von diesem Objekt O1, O2 in der Belegungsgitterkarte belegte Bereich bereitgestellt werden. In 8 ist ein Beispiel zum Umwandeln eines Bilds mit den detektierten Objekten O1, O2 (8a) in ein Belegungsgitter (8b) gezeigt.Based on the information described above, i.e. including the picture frame, an occupancy grid (OCG) can be generated from the Cartesian coordinate system and the positions of the one or more objects O1, O2. Specifically, an occupied area of an OCG is calculated based on the (future) object information data, specifically, the orientation, the dimension, the distance to the host vehicle 1, and the bounding box B. Using the location of the detected object, its orientation and its dimension, the area occupied by this object O1, O2 in the occupancy grid map can be provided. In 8th is an example of transforming an image with the detected objects O1, O2 ( 8a) into an occupancy grid ( 8b) shown.

In 8a ist ersichtlich, dass ein Lastkraftwagen und ein Personenkraftwagen als die Objekte O1 und O2, die auf der detektierten Fahrbahn fahren, detektiert wurden. Das Detektionsmodell hat Begrenzungsrahmen B um die zwei Objekte O1, O2 gelegt und auf der Grundlage der weiteren (zukünftigen) Objektinformationsdaten, die oben diskutiert werden, kann eine Transformation des Bilds, das in 8a gezeigt ist, derart durchgeführt werden, dass ein Belegungsgitterkarte, die in 8b gezeigt ist, erzeugt werden kann. Jedes der Belegungsgitter vom Zeitrahmen tD + t zum Zeitrahmen t + k wird Bereiche, die durch detektierte Objekte O1, O2 belegt sind, bevorzugt in einer Vogelperspektive sowie die Fahrbahn (die als „freier (d. h. nicht blockierter) Fahrbahnraum“ markiert ist), die Umgebung der Fahrbahn (die hier als „unbekannter Bereich“ markiert ist) und wahlweise einen Teil des Trägerfahrzeugs anzeigen.In 8a it can be seen that a truck and a passenger car were detected as the objects O1 and O2 running on the detected lane. The detection model has bounding boxes B around the two objects O1, O2 and based on the further (future) object information data discussed above, a transformation of the image shown in 8a is shown can be performed in such a way that an occupancy grid map shown in 8b shown can be generated. Each of the occupancy grids from time frame tD + t to time frame t + k shows areas occupied by detected objects O1, O2, preferably in a bird's eye view, as well as the roadway (which is marked as "free (i.e. unblocked) roadway space"), the Show surroundings of the lane (here marked as "unknown area") and optionally a part of the host vehicle.

Die OCG-Folge für das Zeitintervall zwischen der Zeit t (t + Dt) und der Zeit t + k kann derart zu einer Anzeigevorrichtung im Trägerfahrzeug 1 ausgegeben werden, dass der Fahrer des Trägerfahrzeugs 1 die Informationen zum Anpassen der Fahrroute oder dergleichen verwenden kann. Zusätzlich oder alternativ kann die Ausgabe zu einer Steuereinheit des (halb)autonomen Trägerfahrzeugs 1 derart geliefert werden, dass die Steuereinheit die Fahrtroute des Trägerfahrzeugs 1 auf der Grundlage der Informationen von der einen oder den mehreren OCG-Folgen automatisch steuern kann.The OCG sequence for the time interval between time t (t+Dt) and time t+k can be output to a display device in the host vehicle 1 such that the driver of the host vehicle 1 can use the information to adjust the travel route or the like. Additionally or alternatively, the output can be provided to a control unit of the (semi)autonomous host vehicle 1 such that the control unit can automatically control the travel route of the host vehicle 1 based on the information from the one or more OCG sequences.

Zusammenfassend werden eine Fahrzeugumgebungserkennungseinrichtung 10 und ein System 100 sowie ein in Beziehung stehendes Computerprogrammprodukt beschrieben, die eine erhöhte Zuverlässigkeit und Sicherheit bereitstellen, weil unter anderem Objektinformationen in der Zukunft vorhergesagt werden können. Diese Informationen können verwendet werden, um Kollisionen während der Navigation mit dem Trägerfahrzeug 1 oder dann, wenn das Trägerfahrzeug 1 ein autonomes Fahrzeug ist, zu vermeiden. Ferner kann die Genauigkeit der Ausgangsdaten unter anderem aufgrund des Trägerfahrzeugpositionsausgleichs verbessert werden.In summary, a vehicle environment detection device 10 and a system 100 and a related computer program product are described that provide increased reliability and safety because, among other things, object information can be predicted in the future. This information can be used to avoid collisions during navigation with the host vehicle 1 or when the host vehicle 1 is an autonomous vehicle. Furthermore, the accuracy of the output data can be improved, among other things, due to the host vehicle position compensation.

Eine genaue Belegungsgitterkarte kann mit mehr Objektinformationen, die vom Modell ausgegeben werden, versehen werden und eine Folge von Belegungsgitterkarten kann erzeugt werden, wobei die belegten Bereiche der detektierten Objekte statisch oder dynamisch repräsentiert werden. Das System kann lediglich eine Monokamera oder dergleichen statt mehrerer Sensorquellen, wie im Stand der Technik beschrieben ist, verwenden.An accurate occupancy grid map can be annotated with more object information output from the model, and a series of occupancy grid maps can be generated, with the occupied areas of the detected objects being represented statically or dynamically. The system can use only a mono camera or the like instead of multiple sensor sources as described in the prior art.

Es sollte festgehalten werden, dass z. B. 1 und 2 ein mögliches Beispiel der Architektur der hier beschriebenen Vorrichtung 10 und des Systems 100 zeigen und z. B. die Verteilung von Untereinheiten/Einheiten verschieden sein kann. Zum Beispiel können sich einige der Untereinheiten der Fahrzeugumgebungserkennungseinrichtung 10 bei einer oder beiden der Recheneinheiten 8a, 8b befinden oder die gesamte Fahrzeugumgebungserkennungseinrichtung 10 kann sich in der einen oder den mehreren Recheneinheiten 8a, 8b befinden, während die Daten, insbesondere die Ausgangsdaten zur Steuereinrichtung 3 des Trägerfahrzeugs 1 direkt zur weiteren Verarbeitung und/oder zu einer Anzeigevorrichtung des Trägerfahrzeugs 1 geliefert werden.It should be noted that e.g. B. 1 and 2 show a possible example of the architecture of the device 10 and the system 100 described here and e.g. B. the distribution of subunits/units can be different. For example, some of the sub-units of the vehicle surroundings detection device 10 can be located in one or both of the computing units 8a, 8b or the entire vehicle surroundings detection device 10 can be located in one or more computing units 8a, 8b, while the data, in particular the output data for the control device 3 of the Carrier vehicle 1 are delivered directly for further processing and / or to a display device of the carrier vehicle 1.

Wie durch Fachleute begrüßt werden wird, kann die vorliegende Offenbarung, die hier oben und in den begleitenden Figuren beschrieben ist, als ein Verfahren (z. B. ein computerimplementierter Prozess oder ein beliebiger weiterer Prozess), eine Vorrichtung (die eine Einrichtung, eine Maschine, ein System, ein Computerprogrammprodukt und/oder eine beliebige weitere Vorrichtung enthält) oder eine Kombination des Vorhergehenden verkörpert sein.As will be appreciated by those skilled in the art, the present disclosure described hereinabove and in the accompanying figures may be embodied as a method (e.g., a computer-implemented process, or any other process), an apparatus (which is a device, a machine , a system, a computer program product, and/or any other device) or a combination of the foregoing.

Aspekte/Beispiele der vorliegenden Offenbarung können vollständig eine Software (die Firmware, residente Software, Mikrocode usw. enthält) oder eine Kombination von Software- und Hardware-Aspekten, die als ein „System“ bezeichnet werden kann, sein. Darüber hinaus kann die vorliegende Offenbarung die Form eines Computerprogrammprodukts in einem computerlesbaren Medium, das computerausführbaren Programmcode enthält, der im Medium verkörpert ist, annehmen.Aspects/examples of the present disclosure may be entirely software (including firmware, resident software, microcode, etc.) or a combination of software and hardware aspects that may be referred to as a "system". Furthermore, the present disclosure may take the form of a computer program product on a computer readable medium, including computer-executable program code embodied in the medium.

Es sollte festgehalten werden, dass Pfeile in Zeichnungen verwendet werden können, um eine Kommunikation, eine Übertragung oder eine weitere Aktivität, die zwei oder mehr Einheiten einbezieht, zu repräsentieren. Doppelseitige Pfeile geben im Allgemeinen an, dass in beide Richtungen eine Aktivität auftreten kann (z. B. eine Anweisung/Anforderung in einer Richtung mit einer entsprechenden Antwort zurück in die andere Richtung oder Peer-to-Peer-Kommunikationen, die durch eine der beiden Einheiten initiiert werden), obwohl in einigen Situationen nicht notwendigerweise eine Aktivität in beide Richtungen auftreten muss.It should be noted that arrows may be used in drawings to represent communication, transmission, or other activity involving two or more entities. Double-headed arrows generally indicate that activity can occur in either direction (e.g., an instruction/requirement in one direction with a corresponding response back in the other direction, or peer-to-peer communications initiated by either entity), although in some situations activity in both directions need not necessarily occur.

Einseitige Pfeile geben im Allgemeinen eine Aktivität ausschließlich oder überwiegend in eine Richtung an, obwohl festgehalten werden sollte, dass in bestimmten Situationen eine derartige gerichtete Aktivität tatsächlich Aktivitäten in beide Richtungen umfassen kann (z. B. eine Nachricht von einem Sender zu einem Empfänger und eine Bestätigung zurück vom Empfänger zum Sender oder ein Aufbau einer Verbindung vor einer Übertragung und eine Beendigung der Verbindung nach der Übertragung). Somit ist der Typ eines Pfeils, der in einer bestimmten Zeichnung verwendet wird, um eine bestimmte Aktivität zu repräsentieren, beispielhaft und sollte nicht als einschränkend betrachtet werden.Unidirectional arrows generally indicate activity exclusively or predominantly in one direction, although it should be noted that in certain situations such directional activity may actually involve activity in both directions (e.g., a message from a sender to a receiver and a confirmation back from the receiver to the sender or establishing a connection before transmission and terminating the connection after transmission). Thus, the type of arrow used in a particular drawing to represent a particular activity is exemplary and should not be considered limiting.

Die vorliegende Offenbarung kann unter Bezugnahme auf Ablaufplandarstellungen und/oder Blockdiagramme von Verfahren und Vorrichtungen und unter Bezugnahme auf eine Anzahl von Beispielansichten einer graphischen Anwenderschnittstelle, die durch die Verfahren und/oder die Vorrichtungen erzeugt wird, beschrieben werden. Es versteht sich, dass jeder Block der Ablaufplandarstellungen und/oder Blockdiagramme und/oder Kombinationen von Blöcken in den Ablaufplandarstellungen und/oder Blockdiagrammen sowie die graphische Anwenderschnittstelle durch computerausführbaren Programmcode implementiert werden können.The present disclosure may be described with reference to flowchart illustrations and/or block diagrams of methods and devices, and with reference to a number of example views of a graphical user interface generated by the methods and/or devices. It will be understood that each block of the flowchart illustrations and/or block diagrams, and/or combinations of blocks in the flowchart illustrations and/or block diagrams, as well as the graphical user interface, can be implemented by computer-executable program code.

Der computerausführbare Programmcode kann zu einem Prozessor eines allgemein verwendbaren Computers, eines Computers für einen speziellen Zweck oder einer weiteren programmierbaren Datenverarbeitungsvorrichtung geliefert werden, um eine bestimmte Maschine derart zu erstellen, dass der Programmcode, der über den Prozessor des Computers oder eine weitere programmierbare Datenverarbeitungsvorrichtung ausgeführt wird, Mittel zum Implementieren der Funktionen/Vorgänge/Ausgaben, die im Ablaufplan, in einem oder mehreren Blockdiagrammblöcken, in Figuren und/oder einer geschriebenen Beschreibung festgelegt sind, erstellt.The computer-executable program code may be delivered to a processor of a general purpose computer, a special purpose computer, or another programmable computing device to create a particular machine such that the program code executed by the processor of the computer or other programmable computing device creates means for implementing the functions/acts/outputs specified in the flowchart, one or more block diagram blocks, figures and/or a written description.

Der computerausführbare Programmcode kann außerdem in einem computerlesbaren Speicher gespeichert sein, der einen Computer oder eine weitere programmierbare Datenverarbeitungsvorrichtung anweisen kann, in einer bestimmten Weise zu arbeiten, derart, dass der Programmcode, der im computerlesbaren Speicher gespeichert ist, einen Herstellungsgegenstand erstellt, der Anweisungsmittel enthält, die die Funktion/den Vorgang/die Ausgabe, die im Ablaufplan, in einem oder mehreren Blockdiagrammblöcken, in Figuren und/oder einer geschriebenen Beschreibung festgelegt sind, implementieren.The computer-executable program code may also be stored on a computer-readable memory that can instruct a computer or other programmable computing device to operate in a particular manner such that the program code stored in the computer-readable memory creates an article of manufacture that includes instruction means that implement the function/act/output specified in the flowchart, one or more block diagram blocks, figures, and/or a written description.

Der computerausführbare Programmcode kann außerdem in einen Computer oder eine weitere Datenverarbeitungsvorrichtung geladen werden, um zu verursachen, dass eine Reihe von Operationsschritten im Computer oder in der weiteren programmierbaren Vorrichtung durchgeführt wird, um einen computerimplementierten Prozess derart zu erstellen, dass der Programmcode, der im Computer oder in der weiteren programmierbaren Vorrichtung ausgeführt wird, Schritte zum Implementieren der Funktionen/Vorgänge/Ausgaben, die im Ablaufplan, in dem einen oder den mehreren Blockdiagrammblöcken, in den Figuren und/oder in der geschriebenen Beschreibung festgelegt sind, bereitstellt. Alternativ können computerprogrammimplementierte Schritte oder Vorgänge mit bediener- oder menschenimplementierten Schritten oder Vorgängen kombiniert werden, um eine Ausführungsform der Offenbarung auszuführen.The computer-executable program code may also be loaded into a computer or other data processing device to cause a series of operational steps to be performed in the computer or other programmable device to create a computer-implemented process such that the program code running on the computer or executed in the further programmable device provides steps for implementing the functions/acts/outputs specified in the flowchart, block diagram one or more blocks, figures and/or written description. Alternatively, computer program implemented steps or acts may be combined with operator or human implemented steps or acts to carry out an embodiment of the disclosure.

Es sollte festgehalten werden, dass Begriffe wie z. B. „Server“ und „Prozessor“ hier verwendet werden können, um Einrichtungen zu beschreiben, die in bestimmten Aspekten der vorliegenden Offenbarung verwendet werden können, und nicht ausgelegt werden sollten, die vorliegende Offenbarung zu einem bestimmten Einrichtungstyp zu beschränken, sofern es der Kontext nicht anders erfordert. Somit kann eine Einrichtung ohne Einschränkung eine Brücke, einen Router, einen Brücke-Router (Brouter), einen Switch, einen Knoten, einen Server, einen Computer, eine Vorrichtung oder weitere Typen einer Einrichtung enthalten. Derartige Einrichtungen enthalten typischerweise eine oder mehrere Netzschnittstellen zum Kommunizieren über ein Kommunikationsnetz und einen Prozessor (z. B. ein Mikroprozessor mit einem Speicher und weitere Peripheriegeräte und/oder anwendungsspezifische Hardware), der entsprechend konfiguriert ist, um Einrichtungsfunktionen durchzuführen.It should be noted that terms such as For example, "server" and "processor" may be used herein to describe devices that may be used in certain aspects of the present disclosure and should not be construed to limit the present disclosure to any particular type of device unless the context permits not otherwise required. Thus, a device may include, without limitation, a bridge, router, bridge-router (brouter), switch, node, server, computer, device, or other types of device. Such devices typically include one or more network interfaces for communicating over a communications network and a processor (e.g., a microprocessor with memory and other peripherals and/or application-specific hardware) appropriately configured to perform device functions.

Kommunikationsnetze können im Allgemeinen öffentliche und/oder private Netze enthalten; können lokale Netze, Großraumnetze, Metropolregionsnetze, Speichernetze und/oder weitere Typen von Netzen enthalten und können Kommunikationstechniken einsetzen, die analoge Technologien, digitale Technologien, optische Technologien, Drahtlostechnologien (z. B. Bluetooth), Netztechnologien und Internettechnologien enthalten, jedoch nicht darauf beschränkt sind.Communications networks may generally include public and/or private networks; may include local area networks, metropolitan area networks, metropolitan area networks, storage networks, and/or other types of networks and may employ communications technologies that include, but are not limited to, analog technologies, digital technologies, optical technologies, wireless technologies (e.g., Bluetooth), network technologies, and internet technologies are.

Es sollte außerdem festgehalten werden, dass Einrichtungen Kommunikationsprotokolle und Nachrichten (z. B. Nachrichten, die durch die Einrichtung erstellt, gesendet, empfangen, gespeichert und/oder verarbeitet werden) verwenden können und derartige Nachrichten durch ein Kommunikationsnetz oder ein Kommunikationsmedium übermittelt werden können.It should also be noted that facilities use communication protocols and Messages (e.g., messages created, sent, received, stored, and/or processed by the device) and such messages can be transmitted through a communications network or medium.

Sofern es der Kontext nicht anders erfordert, sollte die vorliegende Offenbarung nicht auf einen bestimmten Kommunikationsnachrichtentyp, ein bestimmtes Kommunikationsnachrichtenformat oder ein bestimmtes Kommunikationsprotokoll eingeschränkt ausgelegt werden. Somit kann eine Kommunikationsnachricht im Allgemeinen ohne Beschränkung einen Rahmen, ein Paket, ein Datagramm, ein Anwenderdatagramm, eine Zelle oder einen weiteren Typ einer Kommunikationsnachricht enthalten.Unless the context otherwise requires, the present disclosure should not be construed as limited to any particular communication message type, communication message format, or communication protocol. Thus, in general, without limitation, a communication message may include a frame, a packet, a datagram, a user datagram, a cell, or any other type of communication message.

Sofern es der Kontext nicht anders erfordert, sind Bezüge auf bestimmte Kommunikationsprotokolle beispielhaft und es versteht sich, dass Alternativen, wie jeweils anwendbar ist, Variationen derartiger Kommunikationsprotokolle (z. B. Änderungen oder Erweiterungen des Protokolls, die von Zeit zu Zeit gemacht werden können) oder weitere Protokolle, die entweder bekannt sind oder in der Zukunft entwickelt werden, einsetzen können.Unless the context otherwise requires, references to particular communication protocols are exemplary, and it is understood that alternatives, as appropriate, include variations on such communication protocols (e.g., modifications or enhancements to the protocol that may be made from time to time). or other protocols that are either known or may be developed in the future.

Es sollte außerdem festgehalten werden, dass Logikabläufe hier beschrieben werden können, um verschiedene Aspekte der Offenbarung zu zeigen, und nicht ausgelegt werden sollten, die vorliegende Offenbarung auf einen bestimmten Logikablauf oder eine bestimmte Logikimplementierung einzuschränken. Die beschriebene Logik kann in verschiedene Logikblöcke (z. B. Programme, Module, Funktionen oder Unterroutinen) unterteilt werden, ohne die Gesamtergebnisse zu ändern oder auf andere Weise vom wahren Umfang der Offenbarung abzuweichen.It should also be noted that logic flows may be described herein to show various aspects of the disclosure and should not be construed to limit the present disclosure to any particular logic flow or logic implementation. The logic described may be divided into different logic blocks (e.g., programs, modules, functions, or subroutines) without changing the overall results or otherwise departing from the true scope of the disclosure.

Häufig können Logikelemente hinzugefügt, geändert, ausgelassen, in einer verschiedenen Reihenfolge durchgeführt oder unter Verwendung verschiedener Logikkonstrukte (z. B. Logikgatter, Schleifengrundelemente, bedingte Logik und weitere Logikkonstrukte) implementiert werden, ohne die Gesamtergebnisse zu ändern oder auf andere Weise vom Umfang der Offenbarung abzuweichen.Often, logic elements can be added, changed, omitted, performed in a different order, or implemented using different logic constructs (e.g., logic gates, loop primitives, conditional logic, and other logic constructs) without changing the overall results or otherwise departing from the scope of the disclosure to deviate

Die vorliegende Offenbarung kann in vielen verschiedenen Formen verkörpert werden, die eine Graphikverarbeitungseinheit sowie eine Computerprogrammlogik zur Verwendung mit einem Prozessor (z. B. ein Mikroprozessor, ein Mikrocontroller, ein digitaler Signalprozessor oder ein allgemein verwendbarer Computer), eine programmierbare Logik zur Verwendung mit einer programmierbaren Logikeinrichtung (z. B. eine feldprogrammierbare Gate-Anordnung (FPGA) oder eine weitere PLD), diskrete Komponenten, eine integrierte Schaltungsanordnung (z. B. eine anwendungsspezifische integrierte Schaltung (ASIC)) oder beliebige weitere Mittel einschließlich einer beliebigen Kombination davon enthalten, jedoch nicht darauf beschränkt sind. Eine Computerprogrammlogik, die einen Teil der oder die gesamte beschriebene Funktionalität implementiert, ist typischerweise als ein Satz von Computerprogrammanweisungen implementiert, der in eine computerausführbare Form umgesetzt wird, als solcher in einem computerlesbaren Medium gespeichert wird und durch einen Mikroprozessor unter der Steuerung eines Betriebssystems ausgeführt wird. Eine hardwarebasierte Logik, die einen Teil der oder die gesamte beschriebene Funktionalität implementiert, kann unter Verwendung einer oder mehrerer geeignet konfigurierter FPGAs implementiert werden.The present disclosure may be embodied in many different forms, including a graphics processing unit, computer program logic for use with a processor (e.g., a microprocessor, microcontroller, digital signal processor, or general purpose computer), programmable logic for use with a programmable logic device (e.g., a field programmable gate array (FPGA) or another PLD), discrete components, integrated circuitry (e.g., an application specific integrated circuit (ASIC)), or any other means, including any combination thereof , but not limited to. Computer program logic that implements some or all of the described functionality is typically implemented as a set of computer program instructions, converted into computer-executable form, stored as such on a computer-readable medium, and executed by a microprocessor under the control of an operating system . Hardware-based logic that implements some or all of the functionality described may be implemented using one or more suitably configured FPGAs.

Eine Computerprogrammlogik, die die gesamte oder einen Teil der Funktionalität, die zuvor hier beschrieben wurde, implementiert, kann in verschiedenen Formen verkörpert werden, die eine Quellcodeform, eine computerausführbare Form und verschiedene Zwischenformen (z. B. Formen, die durch einen Assembler, einen Kompilierer, einen Linker oder einen Locator erzeugt werden) enthalten, jedoch nicht darauf beschränkt sind.Computer program logic that implements all or part of the functionality previously described herein may be embodied in various forms, including source code form, computer-executable form, and various intermediate forms (e.g., forms implemented by an assembler, a compiler, linker, or locator) include, but are not limited to.

Quellcode kann eine Reihe von Computerprogrammanweisungen enthalten, die in einer beliebigen von verschiedenen Programmiersprachen (z. B. ein Objektcode, eine Assemblersprache oder eine Hochsprache wie z. B. Fortran, Python, C, C++, JAVA, JavaScript oder HTML) zur Verwendung mit verschiedenen Betriebssystemen oder Betriebsumgebungen implementiert sind. Der Quellcode kann verschiedene Datenstrukturen und Kommunikationsnachrichten definieren und verwenden. Der Quellcode kann in einer computerausführbaren Form (z. B. durch einen Interpreter) vorliegen oder der Quellcode kann (z. B. über einen Translator, einen Assembler oder einen Kompilierer) in eine computerausführbare Form umgewandelt werden.Source code may include a set of computer program instructions written in any of a variety of programming languages (e.g., an object code, an assembly language, or a high-level language such as Fortran, Python, C, C++, JAVA, JavaScript, or HTML) for use with different operating systems or operating environments are implemented. The source code can define and use different data structures and communication messages. The source code may be in computer-executable form (e.g., by an interpreter), or the source code may be converted (e.g., by a translator, an assembler, or a compiler) into a computer-executable form.

Computerausführbarer Programmcode zum Ausführen von Operationen von Ausführungsformen der vorliegenden Ausführungsform kann in einer objektorientierten, skriptbasierten oder nicht skriptbasierten Programmiersprache wie z. B. Java, Perl, Smalltalk, C++ oder dergleichen geschrieben sein. Allerdings kann der Computerprogrammcode zum Ausführen von Operationen von Aspekten der vorliegenden Offenbarung außerdem in herkömmlichen prozeduralen Programmiersprachen wie z. B. die „C“-Programmiersprache oder ähnliche Programmiersprachen geschrieben sein.Computer-executable program code for performing operations of embodiments of the present embodiment may be defined in an object-oriented, scripted or non-scripted programming language such as. B. Java, Perl, Smalltalk, C ++ or the like. However, computer program code for performing operations of aspects of the present disclosure may also be written in conventional procedural programming languages such as. B. the "C" programming language or similar programming languages can be written.

Eine Computerprogrammlogik, die die gesamte oder einen Teil der Funktionalität, die zuvor hier beschrieben wurde, implementiert, kann zu verschiedenen Zeiten in einem einzelnen Prozessor (z. B. zeitlich überlappend) ausgeführt werden oder kann zur gleichen Zeit oder zu verschiedenen Zeiten auf mehreren Prozessoren ausgeführt werden und kann unter einem einzelnen Betriebssystem-Prozess/Thread oder unter verschiedenen Betriebssystem-Prozessen/Threads laufen.Computer program logic that implements all or part of the functionality previously described herein may be executed at different times on a single processor (e.g., temporally overlapping), or may be executed on multiple processors at the same time or at different times Executed and can run under a single operating system process/thread or under different operating system processes/threads.

Somit bezieht sich der Begriff „Computerprozess“ im Allgemeinen auf die Ausführung eines Satzes Computerprogrammanweisungen, ungeachtet dessen, ob verschiedene Computerprozesse in denselben oder verschiedenen Prozessoren ausgeführt werden, und ungeachtet dessen, ob verschiedene Computerprozesse unter demselben Betriebssystem-Prozess/-Thread oder verschiedenen Betriebssystem-Prozessen/-Threads laufen.Thus, the term "computer process" generally refers to the execution of a set of computer program instructions, regardless of whether different computer processes execute on the same or different processors, and regardless of whether different computer processes execute under the same operating system process/thread or different operating system processes/threads are running.

Das Computerprogramm kann in einer beliebigen Form festgehalten sein (z. B. Quellcodeform, computerausführbare Form oder eine Zwischenform), entweder permanent oder transitorisch in einem materiellen Speichermedium wie z. B. einer Halbleiterspeichereinrichtung (z. B. ein RAM, ein ROM, ein PROM, ein EEPROM oder ein flash-programmierbarerer RAM), einer magnetischen Speichereinrichtung (z. B. eine Diskette oder eine Festplatte), einer optischen Speichereinrichtung (z. B. eine CD-ROM), einer PC-Karte (z. B. eine PCMCIA-Karte) oder einer weiteren Speichereinrichtung.The computer program may be embodied in any form (e.g., source code form, computer-executable form, or an intermediate form), either permanent or transient on a tangible storage medium such as a computer drive. a semiconductor memory device (e.g. RAM, ROM, PROM, EEPROM or flash-programmable RAM), a magnetic memory device (e.g. floppy disk or hard disk), an optical memory device (e.g .a CD-ROM), a PC card (e.g. a PCMCIA card) or other storage device.

Das Computerprogramm kann in einer beliebigen Form in einem Signal festgehalten sein, das unter Verwendung einer beliebigen von verschiedenen Kommunikationstechniken, die analoge Technologien, digitale Technologien, optische Technologien, Drahtlostechnologien (z. B. Bluetooth), Netztechnologien und Internettechnologien enthalten, jedoch nicht darauf beschränkt sind, zu einem Computer gesendet werden kann.The computer program may be embodied in any form in a signal transmitted using any of a variety of communication technologies, including but not limited to analog technologies, digital technologies, optical technologies, wireless technologies (e.g., Bluetooth), network technologies, and Internet technologies are, can be sent to a computer.

Das Computerprogramm kann in einer beliebigen Form als ein entnehmbares Speichermedium mit begleitender gedruckter oder elektronischer Dokumentation (z. B. eingeschrumpfte Software) verteilt werden, in einem Computersystem (z. B. in einem System-ROM oder einer Festplatte) vorgeladen sein oder von einem Server oder einer elektronischen Pinnwand über das Kommunikationssystem (z. B. das Internet oder das weltweite Netz) verteilt werden.The computer program may be distributed in any form as a removable storage medium with accompanying printed or electronic documentation (e.g., shrink-wrapped software), preloaded into or from a computer system (e.g., in a system ROM or hard disk). Server or an electronic bulletin board over the communication system (z. B. the Internet or the global network) are distributed.

Hardware-Logik (die programmierbare Logik zur Verwendung mit einer programmierbaren Logikeinrichtung enthält), die die gesamte oder einen Teil der Funktionalität, die hier zuvor beschrieben wurde, implementiert, kann unter Verwendung traditioneller manueller Verfahren entworfen werden oder kann elektronisch unter Verwendung verschiedener Werkzeuge wie z. B. computergestützten Entwurfs (CAD), einer Hardware-Beschreibungssprache (z. B. VHDL oder AHDL) oder einer PLD-Programmiersprache (z. B. PALASM, ABEL oder CUPL) entworfen, aufgenommen, simuliert oder dokumentiert werden.Hardware logic (including programmable logic for use with a programmable logic device) that implements all or part of the functionality previously described herein can be designed using traditional manual methods or can be designed electronically using various tools such as . B. computer aided design (CAD), a hardware description language (e.g. VHDL or AHDL) or a PLD programming language (e.g. PALASM, ABEL or CUPL) can be designed, recorded, simulated or documented.

Ein beliebiges geeignetes computerlesbares Medium kann verwendet werden. Das computerlesbare Medium kann z. B. ein Elektronik-, Magnet-, Optik-, Elektromagnet-, Infrarot- oder Halbleiter-System, eine entsprechende Vorrichtung, eine entsprechende Einrichtung oder ein entsprechendes Medium sein, ohne jedoch darauf beschränkt zu sein.Any suitable computer-readable medium can be used. The computer-readable medium can e.g. B. but not limited to an electronic, magnetic, optical, electromagnetic, infrared, or semiconductor system, apparatus, device, or medium.

Spezifischere Beispiele des computerlesbaren Mediums enthalten eine elektrische Verbindung, die einen oder mehrere Drähte besitzt, oder ein weiteres materielles Speichermedium wie z. B. eine tragbare Computerdiskette, eine Festplatte, einen Schreib-/Lese-Speicher (RAM), einen schreibgeschützten Speicher (ROM), einen löschbaren programmierbaren schreibgeschützten Speicher (EPROM oder Flash-Speicher), einen kompakten Datenträger mit schreibgeschütztem Speicher (CD-ROM) oder eine weitere optische oder magnetische Speichereinrichtung, sind jedoch nicht darauf beschränkt.More specific examples of the computer-readable medium include an electrical connection having one or more wires, or another tangible storage medium such as a memory card. a portable computer floppy disk, a hard disk, random access memory (RAM), read-only memory (ROM), erasable programmable read-only memory (EPROM or flash memory), compact disk read-only memory (CD-ROM). ) or other optical or magnetic storage device, but not limited thereto.

Eine programmierbare Logik kann entweder permanent oder transitorisch in einem materiellen Speichermedium wie z. B. einer Halbleiterspeichereinrichtung (z. B. ein RAM, ein ROM, ein PROM, ein EEPROM oder ein programmierbarer Flash-RAM), einer Magnetspeichereinrichtung (z. B. eine Diskette oder eine Festplatte), einer optischen Speichereinrichtung (z. B. eine CD-ROM) oder einer weiteren Speichereinrichtung festgehalten sein.Programmable logic can be either permanent or transient in a tangible storage medium such as a memory card. a semiconductor memory device (e.g. RAM, ROM, PROM, EEPROM or programmable flash RAM), a magnetic memory device (e.g. floppy disk or hard disk), an optical memory device (e.g. a CD-ROM) or another storage device.

Die programmierbare Logik kann in einem Signal festgehalten sein, das unter Verwendung einer beliebigen von verschiedenen Kommunikationstechniken, die analoge Technologien, digitale Technologien, optische Technologien, Drahtlostechnologien (z. B. Bluetooth), Netztechnologien und Internettechnologien enthalten, jedoch nicht darauf beschränkt sind, zu einem Computer gesendet werden kann.The programmable logic may be embodied in a signal communicated using any of a variety of communications technologies, including but not limited to analog technologies, digital technologies, optical technologies, wireless technologies (e.g., Bluetooth), network technologies, and internet technologies can be sent to a computer.

Die programmierbare Logik kann als ein entnehmbares Speichermedium mit begleitender gedruckter oder elektronischer Dokumentation (z. B. eingeschrumpfte Software) verteilt werden, in einem Computersystem (z. B. in einem System-ROM oder einer Festplatte) vorgeladen sein oder von einem Server oder einer elektronischen Pinnwand über das Kommunikationssystem (z. B. das Internet oder das weltweite Netz) verteilt werden. Selbstverständlich können einige Ausführungsformen der Offenbarung als eine Kombination sowohl von Software (z. B. ein Computerprogrammprodukt) als auch Hardware implementiert werden. Nochmals weitere Aspekte der vorliegenden Offenbarung sind vollständig als Hardware oder vollständig als Software implementiert.The programmable logic may be distributed as a removable storage medium with accompanying printed or electronic documentation (e.g., shrink-wrapped software), preloaded into a computer system (e.g., in a system ROM or hard drive), or downloaded from a server or a electronic bulletin board via the communication system (e.g. the Internet or the worldwide network). Of course, some embodiments of the disclosure may be implemented as a combination of both software (e.g., a computer program product) and hardware. Still other aspects of the present disclosure are implemented entirely in hardware or entirely in software.

Während bestimmte beispielhafte Aspekte in den begleitenden Zeichnungen beschrieben und gezeigt worden sind, versteht sich, dass derartige Ausführungsformen lediglich die breite Offenbarung veranschaulichend und sie nicht einschränkend sind und dass die Aspekte der vorliegenden Offenbarung nicht auf die spezifischen Konstruktionen und Anordnungen, die gezeigt und beschrieben werden, beschränkt sind, da verschiedene weitere Änderungen, Kombinationen, Auslassungen, Änderungen und Ersetzungen zusätzlich zu denen, die in den oben beschriebenen Absätzen dargelegt sind, möglich sind.While certain exemplary aspects have been described and shown in the accompanying drawings, it is to be understood that such embodiments are merely illustrative of the broad disclosure and are not limiting, and that aspects of the present disclosure are not limited to the specific constructions and arrangements shown and described , are limited as various other modifications, combinations, omissions, changes and substitutions are possible in addition to those set forth in the paragraphs described above.

Fachleute werden begrüßen, dass verschiedene Anpassungen, Änderungen und/oder Kombinationen der gerade beschriebenen Aspekte und Beispiele konfiguriert werden können. Deshalb versteht sich, dass im Umfang der beigefügten Ansprüche die Offenbarung anders als hier speziell beschrieben praktiziert werden kann. Zum Beispiel können, sofern es nicht ausdrücklich anders angegeben ist, die Schritte von Prozessen, die hier beschrieben werden, in Reihenfolgen durchgeführt werden, die von denen, die hier beschrieben werden, verschieden sind, und ein oder mehrere Schritte können kombiniert, geteilt oder gleichzeitig durchgeführt werden. Fachleute werden außerdem begrüßen, dass, im Hinblick auf die Offenbarung verschiedene Aspekte oder Beispiele der Offenbarung, die hier beschrieben ist, kombiniert werden können, um weitere Aspekte oder Beispiele der Offenbarung zu bilden.Those skilled in the art will appreciate that various adaptations, modifications, and/or combinations of the aspects and examples just described can be configured. Therefore, it is to be understood that within the scope of the appended claims, the disclosure may be practiced otherwise than as specifically described herein. For example, unless expressly stated otherwise, the steps of processes described herein may be performed in different orders than those described herein, and one or more steps may be combined, divided, or concurrent be performed. Those skilled in the art will also appreciate that, given the disclosure, various aspects or examples of the disclosure described herein can be combined to form further aspects or examples of the disclosure.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • US 2019/0317519 A1 [0004]US 2019/0317519 A1 [0004]
  • WO 2019/177562 A1 [0005]WO 2019/177562 A1 [0005]

Claims (14)

Fahrzeugumgebungserkennungseinrichtung für ein Trägerfahrzeug (1), das einen optischen Sensor (2) enthält, der mit der Fahrzeugumgebungserkennungseinrichtung (10) kommunikationstechnisch verbunden ist, wobei die Fahrzeugumgebungserkennungseinrichtung (10) konfiguriert ist zum Empfangen von Bilddaten vom optischen Sensor (2), der am Trägerfahrzeug (1) montiert ist, zu einer aktuellen Zeit t; Detektieren eines oder mehrerer Objekte (O1, O2) in den Bilddaten; Bestimmen mindestens der Entfernung zum Trägerfahrzeug (1) und der Geschwindigkeit des einen oder der mehreren detektierten Objekte (O1, O2) zur Zeit t; Vorhersagen mindestens einer zukünftigen Entfernung zum Trägerfahrzeug (1) des einen oder der mehreren detektierten Objekte (O1, O2) in einem vordefinierten Zeitintervall von der Zeit t zu einer zukünftigen Zeit t + k; Ausgleichen der Position des Trägerfahrzeug (1) auf der Grundlage einer Verarbeitungszeitverzögerung Dt zur Zeit t + Dt und Ausgeben einer Folge von Bilddaten, die mindestens die zukünftige Entfernung zwischen dem Trägerfahrzeug (1) und dem einen oder den mehreren detektierten Objekten (O1, O2) im Intervall von der Zeit t + Dt zur Zeit t + k enthält.Vehicle environment detection device for a carrier vehicle (1), which contains an optical sensor (2) which is communicatively connected to the vehicle environment detection device (10), the vehicle environment detection device (10) being configured for receiving image data from the optical sensor (2) mounted on the host vehicle (1) at a current time t; detecting one or more objects (O1, O2) in the image data; determining at least the distance to the host vehicle (1) and the speed of the one or more detected objects (O1, O2) at time t; Predicting at least one future distance to the host vehicle (1) of the one or more detected objects (O1, O2) in a predefined time interval from time t to a future time t+k; Compensating for the position of the host vehicle (1) based on a processing time lag Dt at time t+Dt and Outputting a sequence of image data containing at least the future distance between the host vehicle (1) and the one or more detected objects (O1, O2) in the interval from time t+Dt to time t+k. Vorrichtung nach Anspruch 1, die Folgendes umfasst: - eine Detektionseinheit (11), die mindestens mit dem optischen Sensor (2) des Trägerfahrzeugs (1) und einer Vorhersageeinheit (12) kommunikationstechnisch verbunden ist; - die Vorhersageeinheit (12), die mindestens mit der Detektionseinheit (11) und einer Trägerfahrzeugausgleichseinheit (13) kommunikationstechnisch verbunden ist; - die Trägerfahrzeugausgleichseinheit (13), die mindestens mit einer Verarbeitungszeitverzögerungsbestimmungseinheit (16), einer Trägerfahrzeugfahrparametereinheit (46), der Vorhersageeinheit (12) und einer Ausgabebilddateneinheit (14) kommunikationstechnisch verbunden ist; und - die Ausgabebilddateneinheit (14); wobei die Detektionseinheit (11) konfiguriert ist, die Bilddaten vom optischen Sensor (2) zu einer aktuellen Zeit t zu empfangen, ein oder mehrere Objekte (O1, O2) in den Bilddaten zu detektieren und Objektinformationsdaten über das eine oder die mehreren detektierten Objekte (O1, O2) zur Vorhersageeinheit (12) auszugeben, wobei die Objektinformationsdaten jedes des einen oder der mehreren detektierten Objekte (O1, O2) mindestens die Entfernung zum Trägerfahrzeug (1) und die Geschwindigkeit zur aktuellen Zeit t enthalten; die Vorhersageeinheit (12) konfiguriert ist, mindestens auf der Grundlage der Objektinformationsdaten, die von der Detektionseinheit (11) empfangen wurden, zukünftige Objektinformationsdaten über das eine oder die mehreren detektierten Objekte (O1, O2) vorherzusagen, wobei die zukünftigen Objektinformationsdaten jedes des einen oder der mehreren detektierten Objekte (O1, O2) mindestens zukünftige Entfernungswerte zum Trägerfahrzeug (1) zwischen der aktuellen Zeit t und einer zukünftigen Zeit t + k enthalten; die Trägerfahrzeugausgleichseinheit (13) konfiguriert ist, die Position des Trägerfahrzeugs (1) zu einer Zeit t + Dt auf der Grundlage von Trägerfahrzeugfahrdaten, die von der Trägerfahrzeugfahrparametereinheit (46) empfangen wurden, und der Verarbeitungszeitverzögerung Dt, die von der Verarbeitungszeitverzögerungsbestimmungseinheit (16) empfangen wurde, zu korrigieren; und die Ausgabebilddateneinheit (14) konfiguriert ist, die korrigierte Position des Trägerfahrzeugs (1) zur Zeit t + Dt, die Objektinformationsdaten, die durch die Detektionseinheit (11) ausgegeben wurden, und die zukünftigen Objektinformationsdaten, die durch die Vorhersageeinheit (12) ausgegeben wurden, zu empfangen und eine Folge von Bilddaten in einem Zeitintervall von der Zeit t + Dt zur Zeit t + k zu erzeugen.device after claim 1 comprising: - a detection unit (11) communicatively connected to at least the optical sensor (2) of the host vehicle (1) and a prediction unit (12); - the prediction unit (12) being communicatively connected to at least the detection unit (11) and a host vehicle balancing unit (13); - the host vehicle compensation unit (13) communicatively connected to at least a processing time delay determination unit (16), a host vehicle running parameter unit (46), the prediction unit (12) and an output image data unit (14); and - the output image data unit (14); wherein the detection unit (11) is configured to receive the image data from the optical sensor (2) at a current time t, to detect one or more objects (O1, O2) in the image data and object information data about the one or more detected objects ( O1, O2) to the prediction unit (12), wherein the object information data of each of the one or more detected objects (O1, O2) contain at least the distance to the host vehicle (1) and the speed at the current time t; the prediction unit (12) is configured to predict, at least on the basis of the object information data received from the detection unit (11), future object information data about the one or more detected objects (O1, O2), the future object information data being each of the one or the plurality of detected objects (O1, O2) contain at least future distance values to the host vehicle (1) between the current time t and a future time t+k; the host vehicle compensation unit (13) is configured to determine the position of the host vehicle (1) at a time t + Dt based on host vehicle running data received from the host vehicle running parameter unit (46) and the processing time lag Dt received from the processing time lag determination unit (16). was to correct; and the output image data unit (14) is configured, the corrected position of the host vehicle (1) at time t + Dt, the object information data output by the detection unit (11), and the future object information data output by the prediction unit (12). , and to generate a sequence of image data in a time interval from time t+Dt to time t+k. Vorrichtung nach mindestens einem der vorhergehenden Ansprüche, wobei die Bilddaten, die durch die Detektionseinheit (11) zur aktuellen Zeit t empfangen werden, eine Folge von Bildrahmen, die mehrere Rahmen von einer vergangenen Zeit t - n zur aktuellen Zeit t enthalten, enthält.Apparatus according to at least one of the preceding claims, wherein the image data received by the detection unit (11) at the current time t contains a sequence of image frames containing a plurality of frames from a past time t - n to the current time t. Vorrichtung nach mindestens einem der vorhergehenden Ansprüche, wobei die Objektdetektion ein trainiertes Modell für maschinelles Lernen und/oder ein trainiertes Modell für künstliche Intelligenz zum Detektieren eines Objekts verwendet und das Modell für maschinelles Lernen und/oder das Modell für künstliche Intelligenz trainiert ist, als die Objektinformationsdaten für jedes detektierte Objekt (O1, O2) den Typ des detektierten Objekts (O1, O2), die Orientierung des detektierten Objekts (O1, O2) in Bezug auf ein trägerfahrzeugbasiertes Koordinatensystem, einen Begrenzungsrahmen des detektierten Objekts (O1, O2) und der Koordinaten im trägerfahrzeugbasierten Koordinatensystem, die Abmessungen des detektierten Objekts (O1, O2), die Entfernung zum Trägerfahrzeug (1) und die Geschwindigkeit des detektierten Objekts (O1, O2) zu bestimmen.Apparatus according to at least one of the preceding claims, wherein the object detection uses a trained machine learning model and/or a trained artificial intelligence model for detecting an object and the machine learning model and/or the artificial intelligence model is trained as the Object information data for each detected object (O1, O2) the type of the detected object (O1, O2), the orientation of the detected object (O1, O2) with respect to a host vehicle-based coordinate system, a bounding box of the detected object (O1, O2) and the Coordinates in the carrier vehicle-based coordinate system to determine the dimensions of the detected object (O1, O2), the distance to the carrier vehicle (1) and the speed of the detected object (O1, O2). Vorrichtung nach mindestens einem der vorhergehenden Ansprüche, wobei die Vorhersage ein trainiertes Modell für maschinelles Lernen und/oder ein trainiertes Modell für künstliche Intelligenz zum Durchführen einer Zeitreihenanalyse zum Vorhersagen der zukünftigen Informationsdaten verwendet und das Modell für maschinelles Lernen und/oder das Modell für künstliche Intelligenz trainiert ist, als die zukünftigen Objektinformationsdaten für jedes detektierte Objekt (O1, O2) und für eine Folge von Bildrahmen in einem Zeitintervall zwischen der aktuellen Zeit t + Dt und einer zukünftigen Zeit t + k die Orientierung des detektierten Objekts (O1, O2) in Bezug auf ein trägerfahrzeugbasiertes Koordinatensystem, einen Begrenzungsrahmen des detektierten Objekts (O1, O2) und der Koordinaten im trägerfahrzeugbasierten Koordinatensystem, die Abmessungen des detektierten Objekts (O1, O2), die Entfernung zum Trägerfahrzeug (1) und die Geschwindigkeit des detektierten Objekts (O1, O2) zu bestimmen.Apparatus according to at least one of the preceding claims, wherein the prediction uses a trained machine learning model and/or a trained artificial intelligence model to perform a time series analysis to predict the future information data and the machine learning model and/or the artificial intelligence model is trained as the future object information data for each detected object (O1, O2) and for a sequence of image frames in a time interval between the current time t+Dt and a future time t + k the orientation of the detected object (O1, O2) with respect to a host vehicle-based coordinate system, a bounding box of the detected object (O1, O2) and the coordinates in the host vehicle-based coordinate system, the dimensions of the detected object (O1, O2), the distance to the carrier vehicle (1) and to determine the speed of the detected object (O1, O2). Vorrichtung nach mindestens einem der vorhergehenden Ansprüche 4 bis 5, wobei das Modell für maschinelles Lernen und/oder das Modell für künstliche Intelligenz ein neuronales Faltungsnetz zur Detektion und ein rekurrentes neuronales Netz zur Prädiktion enthält.Device according to at least one of the preceding Claims 4 until 5 , wherein the model for machine learning and/or the model for artificial intelligence contains a convolutional neural network for detection and a recurrent neural network for prediction. Vorrichtung nach mindestens einem der vorhergehenden Ansprüche, wobei die Detektion der Entfernung jedes detektierten Objekts (O1, O2) zum Trägerfahrzeug (1) zu einer aktuellen Zeit t durch einen getrennten Schritt durchgeführt wird, der ein Modell für maschinelles Lernen und/oder ein Modell für künstliche Intelligenz verwendet, das zum Bestimmen der Entfernung aus den Eingangsbilddaten, die vom optischen Sensor (2) des Trägerfahrzeugs (1) zur aktuellen Zeit t empfangen wurden, trainiert ist, wobei die empfangenen Eingangsbilddaten eine Folge von Bildrahmen mit Rahmen von einer Zeit t - n zur aktuellen Zeit t enthalten.Device according to at least one of the preceding claims, wherein the detection of the distance of each detected object (O1, O2) to the host vehicle (1) at a current time t is performed by a separate step that uses a model for machine learning and/or a model for uses artificial intelligence trained to determine the distance from the input image data received from the optical sensor (2) of the host vehicle (1) at the current time t, the received input image data being a sequence of image frames with frames from a time t - n at the current time t. Vorrichtung nach mindestens einem der vorhergehenden Ansprüche, wobei die Daten, die mit der Objektdetektion und der Prädiktion in Beziehung stehen, und die ausgeglichenen Trägerfahrzeugfahrdaten in jedem Bildrahmen einer Folge von Bildrahmen in einem Zeitintervall von der Zeit t + Dt zur zukünftigen Zeit t + k zusammengeführt werden und jedes Bild jedes Bildrahmens im Zeitintervall von der Zeit t + Dt zur zukünftigen Zeit t + k in ein Belegungsgitter der Umgebung des Trägerfahrzeugs (1) transformiert wird.Apparatus according to at least one of the preceding claims, wherein the data related to object detection and prediction and the compensated host vehicle driving data are merged in each image frame of a sequence of image frames in a time interval from time t+Dt to future time t+k and each image of each image frame in the time interval from time t+Dt to future time t+k is transformed into an occupancy grid of the surroundings of the host vehicle (1). Vorrichtung nach mindestens einem der vorhergehenden Ansprüche, wobei eine Folge von Belegungsgitterbildrahmen in einem Zeitintervall von der Zeit t + Dt zur zukünftigen Zeit t + k ausgegeben wird.Apparatus according to at least one of the preceding claims, wherein a sequence of occupancy grid image frames is output in a time interval from time t+Dt to future time t+k. Vorrichtung nach mindestens einem der vorhergehenden Ansprüche, wobei der Ausgleich Informationen über die Verarbeitungsverzögerungszeit Dt, die durch die Detektions- und die Prädiktionsverarbeitung und die Kommunikationsverzögerung verursacht wird, und über die Ist-Geschwindigkeit und die Gierrate des Trägerfahrzeugs (1) zur Zeit t empfängt und eine korrekte Position des Trägerfahrzeugs (1) zu einer Zeit t + Dt bestimmt.Apparatus according to at least one of the preceding claims, wherein the compensation receives information about the processing delay time Dt caused by the detection and the prediction processing and the communication delay, and about the actual speed and the yaw rate of the host vehicle (1) at the time t and a correct position of the host vehicle (1) is determined at a time t+Dt. Vorrichtung nach mindestens einem der vorhergehenden Ansprüche, die ferner eine Kennungsverfolgereinheit (17) enthält, die mit einer Speichereinheit (5, 7), die Daten zuvor detektierter Objekte (O1, O2) speichert, kommunikationstechnisch verbunden ist, wobei die Kennungsverfolgereinheit (17) konfiguriert ist, für jedes der detektierten Objekte (O1, O2) zu bestimmen, ob das Objekt ein neu detektiertes Objekt oder ein zuvor detektiertes Objekt ist, und die Objektprädiktion konfiguriert ist, von der Kennungsverfolgereinheit (17) Informationen über das detektierte Objekt (O1, O2), das ein neu detektiertes Objekt oder ein verfolgtes zuvor detektiertes Objekt ist, zu empfangen.Apparatus according to at least one of the preceding claims, further comprising an identifier tracker unit (17) communicatively connected to a storage unit (5, 7) storing data of previously detected objects (O1, O2), the identifier tracker unit (17) configuring is to determine for each of the detected objects (O1, O2) whether the object is a newly detected object or a previously detected object, and the object prediction is configured to obtain from the identifier tracker unit (17) information about the detected object (O1, O2 ) that is a newly detected object or a tracked previously detected object. Vorrichtung nach mindestens einem der vorhergehenden Ansprüche, wobei die Vorrichtung ferner ein Computerprogrammprodukt ist, das computerlesbare Anweisungen umfasst, die in einem Computersystem ausführbar sind, das eine oder mehrere Recheneinheiten (3, 8a, 8b) enthält.Device according to at least one of the preceding claims, wherein the device is also a computer program product comprising computer-readable instructions executable in a computer system containing one or more computing units (3, 8a, 8b). Vorrichtung nach mindestens einem der vorhergehenden Ansprüche, wobei ferner die Einheiten der Fahrzeugumgebungserkennungseinrichtung 10 und eine Steuereinrichtung (4) des Trägerfahrzeugs (1) über Hardware- und/oder Software-Signalkommunikationskanäle kommunikationstechnisch verbunden sind und die Recheneinheit (3) des Trägerfahrzeugs (1) und sich entfernt befindende Recheneinheiten (8a, 8b) über ein oder mehrere Netze (6) kommunikationstechnisch verbunden sind.Device according to at least one of the preceding claims, wherein the units of the vehicle environment detection device 10 and a control device (4) of the host vehicle (1) are connected in terms of communication via hardware and/or software signal communication channels and the computing unit (3) of the host vehicle (1) and remote computing units (8a, 8b) are connected by communication via one or more networks (6). System, das einen optischen Sensor (2) und ein Trägerfahrzeug (1) mit einer Fahrzeugumgebungserkennungseinrichtung (10) nach mindestens einem der vorhergehenden Ansprüche enthält.System containing an optical sensor (2) and a carrier vehicle (1) with a vehicle environment detection device (10) according to at least one of the preceding claims.
DE102020210188.4A 2020-08-12 2020-08-12 VEHICLE ENVIRONMENT RECOGNITION DEVICE Pending DE102020210188A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102020210188.4A DE102020210188A1 (en) 2020-08-12 2020-08-12 VEHICLE ENVIRONMENT RECOGNITION DEVICE
PCT/JP2021/028524 WO2022034815A1 (en) 2020-08-12 2021-08-02 Vehicle surroundings recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020210188.4A DE102020210188A1 (en) 2020-08-12 2020-08-12 VEHICLE ENVIRONMENT RECOGNITION DEVICE

Publications (1)

Publication Number Publication Date
DE102020210188A1 true DE102020210188A1 (en) 2022-02-17

Family

ID=80000638

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020210188.4A Pending DE102020210188A1 (en) 2020-08-12 2020-08-12 VEHICLE ENVIRONMENT RECOGNITION DEVICE

Country Status (2)

Country Link
DE (1) DE102020210188A1 (en)
WO (1) WO2022034815A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019177562A1 (en) 2018-03-15 2019-09-19 Harman International Industries, Incorporated Vehicle system and method for detecting objects and object distance
US20190317519A1 (en) 2018-04-17 2019-10-17 Baidu Usa Llc Method for transforming 2d bounding boxes of objects into 3d positions for autonomous driving vehicles (advs)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018173860A (en) * 2017-03-31 2018-11-08 アイシン・エィ・ダブリュ株式会社 Travel support system and computer program
JP7050827B2 (en) * 2018-02-19 2022-04-08 三菱電機株式会社 Driving support device and video display method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019177562A1 (en) 2018-03-15 2019-09-19 Harman International Industries, Incorporated Vehicle system and method for detecting objects and object distance
US20190317519A1 (en) 2018-04-17 2019-10-17 Baidu Usa Llc Method for transforming 2d bounding boxes of objects into 3d positions for autonomous driving vehicles (advs)

Also Published As

Publication number Publication date
WO2022034815A1 (en) 2022-02-17

Similar Documents

Publication Publication Date Title
DE102019120880A1 (en) END-TO-END-DEEP-GENERATIVE MODEL FOR SIMULTANEOUS LOCALIZATION AND IMAGE
DE102020110458A1 (en) VEHICLE PATH FORECAST
DE102019133536A1 (en) Method and apparatus for enabling sequential bottom view image projection synthesis and complicated scene reconstruction at map anomaly hotspots
DE102019113856A1 (en) SYSTEMS, METHODS AND CONTROLS FOR AN AUTONOMOUS VEHICLE THAT IMPLEMENT AUTONOMOUS DRIVING AGENTS AND GUIDANCE LEARNERS TO CREATE AND IMPROVE GUIDELINES BASED ON THE COLLECTIVE DRIVING EXPERIENCES OF THE AUTONOMOUS DRIVING AGENTS
DE102019115874A1 (en) SYSTEMS AND METHODS FOR IMPROVED DISTANCE ESTIMATION BY A MONOCAMERA USING RADAR AND MOTION DATA
DE102019115455A1 (en) FOCUS-BASED MARKING OF SENSOR DATA
DE102017126877A1 (en) Automated copilot control for autonomous vehicles
DE102018120845A1 (en) Method and device for monitoring an autonomous vehicle
DE102019110430A1 (en) SIDE CONDITIONS OF SIMULTANEOUS POSITION DETERMINATION AND CARD PROCESSING IN GENERATIVE ADVERSARIAL NETWORKS FOR MONOCULAR DEPTH ESTIMATION
DE102016224604A1 (en) System and method for verifying map data for a vehicle
DE102018101465A1 (en) TRAINING AN AUTOMATIC AMPEL RECOGNITION MODULE USING SIMULATED PICTURES
DE102019101938A1 (en) Creation of cognitive maps for vehicles
DE102016107705A1 (en) Reactive path planning for autonomous driving
EP2594446B1 (en) Apparatus and method for operating a vehicle
DE102019119162A1 (en) POSEN ESTIMATE
DE102020113848A1 (en) ECCENTRICITY FUSION
DE102017206847A1 (en) Method for automatically creating and updating a data set for an autonomous vehicle
DE112018005907T5 (en) INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS, PROGRAM AND MOVABLE BODY
DE112015007054B4 (en) TRAVEL SUPPORT DEVICE, TRAVEL SUPPORT SYSTEM, TRAVEL SUPPORT PROCEDURE AND TRAVEL SUPPORT PROGRAM
CN111209956A (en) Sensor data fusion method, and vehicle environment map generation method and system
DE102020102725A1 (en) METHOD AND DEVICE FOR A CONTEXT-DEPENDENT HIGH-RESOLUTION MAP FROM THE CROWD SOURCE
DE112021005708T5 (en) Methods and systems for tracking a lane over time
EP4088224A1 (en) Method for combining a plurality of data sets for generating a current lane model of a road and device for data processing
DE112022001546T5 (en) Systems and methods for generating object recognition labels using foveal image magnification for autonomous driving
DE102021114724A1 (en) IMPROVED VEHICLE OPERATION