DE102020210188A1 - VEHICLE ENVIRONMENT RECOGNITION DEVICE - Google Patents
VEHICLE ENVIRONMENT RECOGNITION DEVICE Download PDFInfo
- Publication number
- DE102020210188A1 DE102020210188A1 DE102020210188.4A DE102020210188A DE102020210188A1 DE 102020210188 A1 DE102020210188 A1 DE 102020210188A1 DE 102020210188 A DE102020210188 A DE 102020210188A DE 102020210188 A1 DE102020210188 A1 DE 102020210188A1
- Authority
- DE
- Germany
- Prior art keywords
- time
- host vehicle
- unit
- future
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims abstract description 83
- 230000003287 optical effect Effects 0.000 claims abstract description 43
- 238000012545 processing Methods 0.000 claims description 51
- 238000004891 communication Methods 0.000 claims description 37
- 238000003860 storage Methods 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 21
- 238000010801 machine learning Methods 0.000 claims description 18
- 238000013473 artificial intelligence Methods 0.000 claims description 11
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000012731 temporal analysis Methods 0.000 claims description 3
- 238000000700 time series analysis Methods 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 claims description 2
- 230000000306 recurrent effect Effects 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 24
- 238000000034 method Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 12
- 230000000694 effects Effects 0.000 description 10
- 238000012549 training Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 230000026676 system process Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000011960 computer-aided design Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 108010001267 Protein Subunits Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0011—Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0112—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
- G08G1/0133—Traffic data processing for classifying traffic situation
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0137—Measuring and analyzing of parameters relative to traffic conditions for specific applications
- G08G1/0141—Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4041—Position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4042—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/802—Longitudinal distance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
Abstract
Eine Fahrzeugumgebungserkennungseinrichtung für ein Trägerfahrzeug 1, das einen optischen Sensor 2 enthält, der mit der Fahrzeugumgebungserkennungseinrichtung 10 kommunikationstechnisch verbunden ist, wobei die Fahrzeugumgebungserkennungseinrichtung 10 konfiguriert ist, eine Folge von Bilddaten auszugeben, die mindestens die zukünftige Entfernung zwischen dem Trägerfahrzeug 1 und dem einen oder den mehreren detektierten Objekten O1, O2 enthält.A vehicle environment detection device for a host vehicle 1, which contains an optical sensor 2, which is communicatively connected to the vehicle environment detection device 10, wherein the vehicle environment detection device 10 is configured to output a sequence of image data that at least shows the future distance between the host vehicle 1 and the one or the contains several detected objects O1, O2.
Description
Die vorliegende Offenbarung bezieht sich auf eine Fahrzeugumgebungserkennungseinrichtung für ein Trägerfahrzeug, die insbesondere die Komplexität z. B. der Hardware, die verwendet wird, verringert, die eine erhöhte Genauigkeit und Zuverlässigkeit der Ausgabe schafft und die allgemein verwendbar ist, weil sie einfach in Fahrzeuge oder Monokameras integriert werden kann.The present disclosure relates to a vehicle environment recognition device for a host vehicle, which in particular reduces the complexity of e.g. B. the hardware used is reduced, which provides increased accuracy and reliability of the output and which is generally applicable because it can be easily integrated into vehicles or mono cameras.
Hintergrundbackground
Autonome Fahrzeuge greifen auf Sensoren zurück, um die Umgebung (die Umwelt), die Objekte enthält, zu erkennen. Typische Software-Architekturen autonomer Fahrzeuge fusionieren Informationen von mehreren Sensoren wie z. B. Kameras, LiDAR-Geräten und Radargeräten, um die Umgebung genau wahrzunehmen. Kameras werden verwendet, um Objekttypen wie z. B. Fahrzeuge, Verkehrszeichen, Fußgänger usw. zu detektieren und zu klassifizieren. LiDAR-Geräte werden verwendet, um die Position und die Orientierung von Objekten zu messen, während Radargeräte verwendet werden, um die Geschwindigkeit zu messen.Autonomous vehicles rely on sensors to detect the environment (environment) containing objects. Typical software architectures of autonomous vehicles merge information from multiple sensors such as e.g. B. Cameras, LiDAR devices and radar devices to perceive the environment accurately. Cameras are used to detect object types such as B. vehicles, traffic signs, pedestrians, etc. to detect and classify. LiDAR devices are used to measure the position and orientation of objects, while radar devices are used to measure speed.
Es ist allerdings ein Nachteil, dass das Fahrzeug die Eingabe von mehreren verschiedenen Sensoren erfordert, wie oben beschrieben ist, was die Komplexität der Hardware-Architektur sowie der softwarebasierten Datenverarbeitung erhöht.However, it is a disadvantage that the vehicle requires input from several different sensors, as described above, which increases the complexity of the hardware architecture as well as the software-based data processing.
Ferner beschreibt
Allerdings ist immer noch ein Ermöglichen einer weiter erhöhten Zuverlässigkeit und Genauigkeit der Objektdetektion und der Informationen, die durch eine Fahrzeugumgebungserkennungseinrichtung geliefert werden, nötig, insbesondere wenn weniger komplexe Hardware-Systeme z. B. Systeme, die auf die Eingabe (lediglich) einer Monokamera statt mehrerer Fahrzeugsensoren zurückgreifen, verwendet werden.However, enabling a further increased reliability and accuracy of the object detection and the information provided by a vehicle environment recognition device is still needed, especially when less complex hardware systems e.g. B. Systems that rely on the input (only) of a mono camera instead of multiple vehicle sensors can be used.
Problem und Lösungproblem and solution
Eine Aufgabe der hier beschriebenen Offenbarung ist, eine Lösung zu schaffen, die insbesondere die Genauigkeit und die Zuverlässigkeit der Ausgabe einer Fahrzeugumgebungserkennungseinrichtung, die in Fahrzeugen, bevorzugt autonomen Fahrzeugen, verwendet werden kann, verbessert und die die Verwendung einer weniger teuren und weniger komplexen Hardware-Architektur, die leicht integriert werden kann, ermöglicht.An object of the disclosure described here is to provide a solution that improves in particular the accuracy and the reliability of the output of a vehicle environment detection device that can be used in vehicles, preferably autonomous vehicles, and that allows the use of a less expensive and less complex hardware architecture that can be easily integrated.
Insbesondere schlägt die vorliegende Offenbarung eine Technik vor, die verwendet werden kann, um die Stellung (d. h. die Position, die Orientierung und ihre Ableitungen) und die Ausdehnung umgebender Objekte aus einem einzelnen optischen Sensor, z. B. eine (Mono-)Kamera, gleichzeitig zu schätzen und vorherzusagen. Ein Vorteil sind die geringere Komplexität und die geringeren Kosten im Vergleich zu vorhandenen Lösungsversuchen, die mehrere Sensoren (z. B. Kamera, LiDAR-Gerät, Radar) erfordern, um möglicherweise die Genauigkeit und die Zuverlässigkeit der vorliegenden Offenbarung zu erzielen.In particular, the present disclosure proposes a technique that can be used to determine the posture (i.e. position, orientation and their derivatives) and extent of surrounding objects from a single optical sensor, e.g. B. a (mono) camera, to estimate and predict at the same time. One benefit is reduced complexity and cost compared to existing approaches that require multiple sensors (e.g., camera, LiDAR device, radar) to potentially achieve the accuracy and reliability of the present disclosure.
Insbesondere werden die folgenden Aspekte geschaffen:In particular, the following aspects are created:
Eine Fahrzeugumgebungserkennungseinrichtung für ein Trägerfahrzeug, das einen optischen Sensor enthalten kann, der mit der Fahrzeugumgebungserkennungseinrichtung kommunikationstechnisch verbunden ist. Der optische Sensor kann ein Bilderzeugungshalbleiter, d. h. ein Bildsensor wie z. B. ein CCD- oder CMOS-Sensor, sein oder er kann eine Kamera, die ferner optische Linsen und dergleichen enthält, sein. Am stärksten bevorzugt ist der optische Sensor ein einzelner Sensor oder eine Monokamera. Die Verwendung einer Monokamera kann Kosten sparen und verringert die Systemkomplexität z. B. im Vergleich zu einer Stereokamera oder einer Kombination verschiedener Sensoren wie z. B Lidar oder Radar.A vehicle environment detection device for a host vehicle, which may include an optical sensor communicatively connected to the vehicle environment detection device. The optical sensor can be an imaging semiconductor, i. H. an image sensor such as a CCD or CMOS sensor, or it may be a camera further including optical lenses and the like. Most preferably, the optical sensor is a single sensor or mono camera. Using a mono camera can save costs and reduce system complexity, e.g. B. in comparison to a stereo camera or a combination of different sensors such. B Lidar or radar.
Die Fahrzeugumgebungserkennungseinrichtung kann mindestens eine Recheneinheit umfassen oder in sie integriert sein und kann konfiguriert sein, Bilddaten zu einer aktuellen Zeit t vom optischen Sensor, der am Trägerfahrzeug montiert ist, zu empfangen. Der Ausdruck „aktuelle Zeit t“ kann bevorzugt die Ist-Zeit angeben, während eine Zeit t - n der Vergangenheit angehört und die Zeiten t + k und t + Dt zukünftige Zeiten sind. Die Bilddaten können bevorzugt zur aktuellen Zeit t empfangen werden. Bevorzugt kann die Bilddatenverarbeitung wie z. B. die Objektdetektion zur aktuellen Zeit t starten.The vehicle environment detection device may include or be integrated in at least one computing unit and may be configured to receive image data at a current time t from the optical sensor mounted on the host vehicle. The expression "current time t" can preferably indicate the actual time, while a time t - n belongs to the past and the times t + k and t + Dt are future times. The image data can preferably be received at the current time t the. Preferably, the image data processing such. B. start the object detection at the current time t.
Die Fahrzeugumgebungserkennungseinrichtung kann ferner konfiguriert sein, Objekte in den empfangenen Bilddaten zu detektieren, wobei ein Objekt sich auf Personen, Fußgänger, Tiere, Fahrzeuge, Fahrbahnen, Fahrspurmarkierungen, Gefahren und Objekte im Allgemeinen in Bezug auf die Position des Fahrzeugs beziehen kann. Sie kann ferner konfiguriert sein, mindestens die Entfernung zwischen einem (oder jedem) detektierten Objekt und dem Trägerfahrzeug sowie die Geschwindigkeit eines (oder jedes) detektierten Objekts zu bestimmen. Die Entfernung und die Geschwindigkeit werden für die aktuelle Zeit t, was bevorzugt bedeutet, zu der Zeit, zu der das Bild aufgenommen wurde/empfangen wurde/seine Verarbeitung gestartet wurde, bestimmt.The vehicle surroundings recognizer may be further configured to detect objects in the received image data, where an object may refer to people, pedestrians, animals, vehicles, roadways, lane markings, hazards, and objects in general with respect to the position of the vehicle. It may further be configured to determine at least the distance between a (or each) detected object and the host vehicle and the speed of a (or each) detected object. The distance and speed are determined for the current time t, which preferably means at the time the image was captured/received/its processing started.
Ferner kann die Fahrzeugumgebungserkennungseinrichtung konfiguriert sein, mindestens eine zukünftige Entfernung eines (oder jedes) detektierten Objekts zum Trägerfahrzeug vorherzusagen. Bevorzugt werden mehrere zukünftige Entfernungswerte für ein (oder jedes) detektiertes Objekt für ein vordefiniertes Zeitintervall beginnend von der aktuellen Zeit t zu einer zukünftigen Zeit t + k bestimmt. Stärker bevorzugt wird ein Satz eines zukünftigen Satzes/einer zukünftigen Folge von Entfernungswerten für ein detektiertes Objekt erzeugt, wobei das zukünftige Zeitintervall in eine vordefinierte Anzahl von Zeitpunkten, für die jeweils ein Entfernungswert erzeugt wird, segmentiert wird. Mit anderen Worten werden bevorzugt für jedes detektierte Objekt mehrere Entfernungswerte zu verschiedenen Zeiten zwischen der Zeit t und der Zeit t + k bestimmt.Furthermore, the vehicle environment detection device can be configured to predict at least one future distance of a (or each) detected object from the host vehicle. Preferably, several future distance values are determined for a (or each) detected object for a predefined time interval starting from the current time t to a future time t+k. More preferably, a set of a future set/sequence of distance values for a detected object is generated, wherein the future time interval is segmented into a predefined number of points in time, for each of which a distance value is generated. In other words, multiple distance values are preferably determined for each detected object at different times between time t and time t+k.
Ferner kann die Fahrzeugumgebungserkennungseinrichtung konfiguriert sein, die Bewegung des Trägerfahrzeugs auf der Grundlage einer Verarbeitungs- und Kommunikationszeitverzögerung Dt zur Zeit t + Dt auszugleichen. Das Zeitintervall Dt enthält oder ist die Zeit, die für die Verarbeitung der Objektdetektion und der Vorhersage sowie für die Signalübertragung zwischen Untereinheiten der Fahrzeugumgebungserkennungseinrichtung und/oder in einem Netz erforderlich ist (Latenz). Das Zeitintervall Dt kann durch die Fahrzeugumgebungserkennungseinrichtung, eine weitere Fahrzeugsteuereinrichtung oder eine fest zugeordnete Untereinheit in Echtzeit gemessen werden, es kann auf der Grundlage vorheriger vergleichbarer Szenarien geschätzt werden oder es kann berechnet/bestimmt werden, wenn die relevanten Parameter bekannt oder schätzbar sind. Der Ausgleich ermöglicht, insbesondere die Positionsänderung des Trägerfahrzeugs während des kurzen Zeitintervalls von der Zeit t zur Zeit t + Dt neu zu berechnen.Further, the vehicle environment recognizer may be configured to compensate for the movement of the host vehicle based on a processing and communication time lag Dt at time t+Dt. The time interval Dt includes or is the time required for the processing of the object detection and the prediction as well as for the signal transmission between sub-units of the vehicle environment recognition device and/or in a network (latency). The time interval Dt can be measured by the vehicle environment detection device, another vehicle controller or a dedicated sub-unit in real time, it can be estimated based on previous comparable scenarios or it can be calculated/determined when the relevant parameters are known or estimable. The compensation makes it possible, in particular, to recalculate the change in position of the host vehicle during the short time interval from time t to time t+Dt.
Ferner kann die Fahrzeugumgebungserkennungseinrichtung konfiguriert sein, eine Folge von Bildern auszugeben, die Bildrahmen im Intervall von der Zeit t (bevorzugt startet das Intervall bei t + Dt) zu t + k enthält. Die Bilder können die Position des Trägerfahrzeugs und die (kartesischen) Positionen sowie die (euklidischen) Entfernungen, Abmessungen usw. des einen oder der mehreren detektierten Objekte enthalten. Die Entfernungen usw. können die ausgeglichene/korrigierte Position des Trägerfahrzeugs zur Zeit t + Dt berücksichtigen. Die Ausgabe kann zu einer Routenplanungseinrichtung eines autonom fahrenden Trägerfahrzeugs, zu einem Navigationssystem und/oder zum Fahrer des Trägerfahrzeugs geliefert werden.Furthermore, the vehicle surroundings recognition device may be configured to output a sequence of images containing image frames in the interval from time t (preferably the interval starts at t+Dt) to t+k. The images may include the position of the host vehicle and the (Cartesian) positions as well as the (Euclidean) distances, dimensions, etc. of the one or more detected objects. The distances etc. may take into account the compensated/corrected position of the host vehicle at time t+Dt. The output can be delivered to a route planning device of an autonomously driving host vehicle, to a navigation system and/or to the driver of the host vehicle.
Der vorliegende Aspekt ermöglicht technisch vorteilhaft, dass selbst lediglich unter Verwendung einer Monokamera (eines einzelnen optischen Sensors) eine hohe Genauigkeit und Zuverlässigkeit der Ausgabeinformationen über detektierte Objekte erzielt werden kann. Die Informationen über die Positionen und weitere Informationen der detektierten Objekte in der (nahen) Zukunft ermöglichen eine genauere Routenplanung, die z. B. die Sicherheit im Hinblick auf das Vermeiden von Kollisionen erhöht. Die Genauigkeit wird außerdem aufgrund der Positionskorrektur der Trägerfahrzeugposition, die sich während des Zeitintervalls des Empfangens des einen oder der mehreren Bilder vom optischen Sensor zum Abschluss des Verarbeitens des einen oder der mehreren Bilder ändert, erhöht. Die vorliegende Vorrichtung kann diese Verschiebung der Position für eine weiter verbesserte Genauigkeit und Zuverlässigkeit berücksichtigen. Die Komplexität des Systems ist im Vergleich zu Trägerfahrzeugsystemen, die mehrere verschiedene Eingangsquellen zum Detektieren und Erkennen der Umgebung des Trägerfahrzeugs erfordern, z. B. um die Komplexität der Kalibrierung zwischen mehreren Sensoren, verringert. Ferner kann z. B. die Integration in vorhandene Fahrzeugkameras, insbesondere Monokameras aufgrund des technischen Vorteils, dass eine Kalibrierung von Kameraparametern oder dergleichen nicht nötig ist, leicht durchgeführt werden.The present aspect makes it technically advantageous that high accuracy and reliability of the output information about detected objects can be achieved even using only a mono camera (a single optical sensor). The information about the positions and further information of the detected objects in the (near) future enable a more precise route planning, which e.g. B. increases security in terms of avoiding collisions. Accuracy is also increased due to the position correction of the host vehicle position changing during the time interval of receiving the one or more images from the optical sensor to complete the processing of the one or more images. The present device can account for this shift in position for further improved accuracy and reliability. The complexity of the system is significant compared to host vehicle systems that require multiple different input sources for detecting and recognizing the environment of the host vehicle, e.g. B. reduced by the complexity of calibration between multiple sensors. Furthermore, z. B. the integration into existing vehicle cameras, in particular mono cameras, due to the technical advantage that a calibration of camera parameters or the like is not necessary, can be easily carried out.
Darüber hinaus kann die Fahrzeugumgebungserkennungseinrichtung eine Detektionseinheit umfassen, die mindestens mit dem optischen Sensor des Trägerfahrzeugs und einer Vorhersageeinheit kommunikationstechnisch verbunden sein kann. Die Vorhersageeinheit, die bevorzugt Teil der Fahrzeugumgebungserkennungseinrichtung ist, kann mindestens mit der Detektionseinheit und einer Trägerfahrzeugausgleichseinheit, die Teil der Fahrzeugumgebungserkennungseinrichtung sein kann, kommunikationstechnisch verbunden sein. Die Trägerfahrzeugausgleichseinheit kann mindestens mit einer Verarbeitungs- und Kommunikationszeitverzögerungsbestimmungseinheit, die Teil einer weiteren Vorrichtung sein kann, einer Trägerfahrzeugfahrparametereinheit, die Teil einer weiteren Vorrichtung sein kann und die Daten von Sensoren des Trägerfahrzeugs wie z. B. Geschwindigkeitssensoren, Giersensoren, Positionssensoren, Kraftmaschinenparametersensoren usw. empfangen kann, der Vorhersageeinheit und einer Ausgabebilddateneinheit, die Teil der Fahrzeugumgebungserkennungseinrichtung sein kann, kommunikationstechnisch verbunden sein.In addition, the vehicle environment detection device can include a detection unit, which can be connected in terms of communication technology at least to the optical sensor of the host vehicle and a prediction unit. The prediction unit, which is preferably part of the vehicle environment detection device, can be communicatively connected at least to the detection unit and a host vehicle compensation unit, which can be part of the vehicle environment detection device. The host vehicle compensation unit may be provided with at least one processing and communication time delay determination unit which is part of another Device may be, a host vehicle driving parameter unit, which may be part of another device and the data from sensors of the host vehicle such. speed sensors, yaw sensors, position sensors, engine parameter sensors, etc., can be communicatively connected to the prediction unit and an output image data unit, which can be part of the vehicle environment recognition device.
Ferner kann die Detektionseinheit konfiguriert sein, die Bilddaten vom optischen Sensor zu einer aktuellen Zeit t zu empfangen, ein oder mehrere Objekte in den Bilddaten zu detektieren und Objektinformationsdaten über das eine oder die mehreren detektierten Objekte zur Vorhersageeinheit auszugeben, wobei die Objektinformationsdaten jedes des einen oder der mehreren detektierten Objekte mindestens die Entfernung zum Trägerfahrzeug und die Geschwindigkeit zur aktuellen Zeit t enthalten. Ferner können die Objektinformationsdaten unter anderem weiterhin die Orientierung des Objekts, seine Begrenzungsrahmenkoordinaten und seine Abmessungen enthalten.Furthermore, the detection unit can be configured to receive the image data from the optical sensor at a current time t, to detect one or more objects in the image data and to output object information data about the one or more detected objects to the prediction unit, the object information data each of the one or of the multiple detected objects contain at least the distance to the host vehicle and the speed at the current time t. Furthermore, the object information data may further include the object's orientation, its bounding box coordinates, and its dimensions, among other things.
Die Vorhersageeinheit kann konfiguriert sein, mindestens auf der Grundlage der Objektinformationsdaten, die von der Detektionseinheit empfangen wurden, zukünftige Objektinformationsdaten über das eine oder die mehreren detektierten Objekte vorherzusagen. Die zukünftigen Objektinformationsdaten jedes des einen oder der mehreren detektierten Objekte können mindestens zukünftige Entfernungswerte zum Trägerfahrzeug zwischen der aktuellen Zeit t und einer zukünftigen Zeit t + k enthalten. Ferner können die zukünftigen Objektinformationsdaten unter anderem weiterhin die Orientierung des Objekts, seine Begrenzungsrahmenkoordinaten und seine Abmessungen enthalten.The prediction unit may be configured to predict future object information data about the one or more detected objects based at least on the object information data received from the detection unit. The future object information data of each of the one or more detected objects may include at least future distance values to the host vehicle between the current time t and a future time t+k. Furthermore, the future object information data may further include the object's orientation, its bounding box coordinates, and its dimensions, among other things.
Die Trägerfahrzeugausgleichseinheit kann konfiguriert sein, die Position des Trägerfahrzeugs zu einer Zeit t + Dt auf der Grundlage von Trägerfahrzeugfahrdaten, die von der Trägerfahrzeugfahrparametereinheit empfangen wurden, und der Verarbeitungszeitverzögerung Dt, die von der Verarbeitungszeitverzögerungsbestimmungseinheit empfangen wurde, zu korrigieren. Die Trägerfahrzeugfahrdaten können die Geschwindigkeit, das Gieren und dergleichen des Trägerfahrzeugs enthalten. Die Verarbeitungszeitverzögerungsbestimmungseinheit kann konfiguriert sein, das Zeitintervall Dt (die Latenz) zu messen, zu schätzen, zu berechnen und/oder zu bestimmen.The host vehicle compensation unit may be configured to correct the position of the host vehicle at a time t+Dt based on host vehicle running data received from the host vehicle running parameter unit and the processing time lag Dt received from the processing time lag determination unit. The host vehicle driving data may include the host vehicle's speed, yaw, and the like. The processing time delay determination unit may be configured to measure, estimate, calculate, and/or determine the time interval Dt (the latency).
Die Ausgabebilddateneinheit kann konfiguriert sein, die korrigierte Position des Trägerfahrzeugs zur Zeit t + Dt, die Objektinformationsdaten, die durch die Detektionseinheit ausgegeben wurden, und die zukünftigen Objektinformationsdaten, die durch die Vorhersageeinheit ausgegeben wurden, zu empfangen und eine Folge von Bilddaten von der Zeit t + Dt zur Zeit t + k in einem Zeitintervall von der Zeit t bis t + Dt zu erzeugen. Mit anderen Worten ist das Zeitintervall von der Zeit t bis t + Dt das Zeitintervall, während dessen die Verarbeitung/Erzeugung der zukünftigen Bilddaten/der Objektinformationsdaten durchgeführt wird. Die Bilddaten können mindestens alle detektierten Objekte, die ihre (zukünftigen) Objektinformationsdaten sowie die Position des Trägerfahrzeugs enthalten, enthalten.The output image data unit may be configured to receive the corrected position of the host vehicle at time t+Dt, the object information data output by the detection unit and the future object information data output by the prediction unit, and a sequence of image data from time t + Dt at time t + k in a time interval from time t to t + Dt. In other words, the time interval from time t to t+Dt is the time interval during which the processing/generation of the future image data/the object information data is performed. The image data can contain at least all detected objects, which contain their (future) object information data as well as the position of the host vehicle.
Die zuvor erläuterten technischen Vorteile werden auch für den oben erläuterten bevorzugten Aspekt erreicht. Zusätzlich erlaubt der Aufbau der kommunikationstechnisch verbundenen Einheiten, die empfangenen Bilddaten in verschiedenen Anwendungsszenarien flexibel zu verarbeiten. Zum Beispiel kann im Vergleich zum Stand der Technik die Objektentfernungsschätzung von der Objektdetektion getrennt sein und somit können zwei spezialisierte und deshalb genauere Einheit, die für einen bestimmten Zweck konfiguriert/trainiert sind, eingesetzt werden. Ferner können die Einheiten über verschiedene Standorte in einem System, das möglicherweise entfernte Recheneinheiten, die Recheneinheit im Trägerfahrzeug und dergleichen enthält, verteilt sein, was ermöglicht, die Hardware-Architektur an verschiedene Szenarien anzupassen.The technical advantages explained above are also achieved for the preferred aspect explained above. In addition, the structure of the communication-related units allows the received image data to be flexibly processed in various application scenarios. For example, compared to the prior art, the object distance estimation can be separated from the object detection and thus two specialized and therefore more accurate units configured/trained for a specific purpose can be employed. Furthermore, the units may be distributed across different locations in a system that may include remote computing units, the computing unit in the host vehicle, and the like, allowing the hardware architecture to be adapted to different scenarios.
Ferner können die Bilddaten, die durch die Detektionseinheit zur aktuellen Zeit t empfangen werden, eine Folge von Bildrahmen, die mehrere Rahmen von einer Zeit t - n zur aktuellen Zeit t enthält, umfassen/können als eine solche formatiert sein, wobei t - n eine Zeit in der Vergangenheit in Bezug auf die aktuelle Zeit t ist. Die Anzahl von Rahmen kann durch eine Zeit (oder eine Zeitdifferenz) oder durch einen vordefinierten Wert definiert sein, z. B. kann sie derart definiert sein, dass ein Zeitrahmen für jede Millisekunde oder kürzer oder länger gesetzt ist, oder sie kann derart definiert sein, dass im Zeitintervall t - n bis t eine vordefinierte Anzahl (unabhängig von der Dauer des Intervalls) von Rahmen verwendet werden/vorhanden sein soll.Furthermore, the image data received by the detection unit at the current time t may comprise/may be formatted as a sequence of image frames containing multiple frames from a time t - n to the current time t, where t - n is a Time in the past relative to the current time t. The number of frames can be defined by a time (or a time difference) or by a predefined value, e.g. eg it can be defined such that a time frame is set for every millisecond or shorter or longer, or it can be defined such that in the time interval t - n to t uses a predefined number (regardless of the duration of the interval) of frames will/should exist.
Ein Verwenden von Folgen von Bildern/Bildrahmen als eine Eingabe in die Vorrichtung, die zur Zeit t geliefert wird, verbessert die Datenbasis zur Detektion von Objekten und die Vorhersageverarbeitung zum Berechnen der Bilder des zukünftigen Zeitintervalls. Dadurch können eine erhöhte Genauigkeit und eine erhöhte Zuverlässigkeit erreicht werden.Using sequences of images/image frames as an input to the device provided at time t improves the database for detection of objects and the prediction processing for computing the images of the future time interval. As a result, increased accuracy and increased reliability can be achieved.
Die Objektdetektion, die bevorzugt Teil von/integriert in die Detektionseinheit sein kann, kann ein trainiertes Modell für maschinelles Lernen (ML-Modell) und/oder ein trainiertes Modell für künstliche Intelligenz (Al-Modell) zum Detektieren eines Objekts verwenden. Das eine oder die mehreren Modelle können in der Detektionseinheit enthalten sein oder die Detektionseinheit kann mit den Modellen kommunikationstechnisch verbunden sein, wenn jene von der Detektionseinheit getrennt gespeichert sind (z. B. in einem netzbasierten Server/einer netzbasierten Recheneinheit). Das Modell für maschinelles Lernen und/oder das Modell für künstliche Intelligenz der Detektionseinheit können trainiert werden, als die Objektinformationsdaten für jedes detektierte Objekt den Typ des detektierten Objekts die Orientierung des detektierten Objekts in Bezug auf ein trägerfahrzeugbasiertes Koordinatensystem, einen Begrenzungsrahmen des detektierten Objekts und der Koordinaten im trägerfahrzeugbasierten Koordinatensystem, die Abmessungen (oder die Größe) des detektierten Objekts, die Entfernung zum Trägerfahrzeug und/oder die Geschwindigkeit des detektierten Objekts zu bestimmen.The object detection, which can preferably be part of/integrated into the detection unit, can be a trained machine learning (ML) model and/or a trained artificial model Use human intelligence (AI model) to detect an object. The one or more models may be contained in the detection unit or the detection unit may be communicatively connected to the models if those are stored separately from the detection unit (e.g. in a web-based server/processing unit). The machine learning model and/or the artificial intelligence model of the detection unit can be trained as the object information data for each detected object, the type of the detected object, the orientation of the detected object with respect to a host vehicle-based coordinate system, a bounding box of the detected object and the Coordinates in the host vehicle-based coordinate system to determine the dimensions (or size) of the detected object, the distance to the host vehicle and/or the speed of the detected object.
Der Typ eines Objekts kann, wie oben erläutert wurde, z. B. die Objekte in Fußgänger, Personenkraftwagen, Lastkraftwagen, Hindernis oder dergleichen kategorisieren. Die Orientierung eines detektierten Objekts kann in Bezug auf das Trägerfahrzeug detektiert werden und kann z. B. die Richtung seiner Achse, z. B. die Längsachse, angeben. Der Begriff Begrenzungsrahmen kann bevorzugt ein rechteckiger oder ein viereckiger Bereich sein, der die Außenabmessungen des detektierten Objekts in der Bildebene (so nahe wie möglich ohne die Außenbegrenzungslinien des Objekts zu schneiden) umgibt. Der Begrenzungsrahmen kann durch die Koordinaten seiner oberen linken Ecke und seiner unteren rechten Ecke definiert sein. Die Abmessungen können die Länge, die Breite, die Höhe usw. des detektierten Objekts enthalten und die Größe kann die Fläche oder eine der Abmessungen angeben.As explained above, the type of an object can be e.g. B. categorize the objects into pedestrian, car, truck, obstacle or the like. The orientation of a detected object can be detected in relation to the host vehicle and can e.g. B. the direction of its axis, z. B. specify the longitudinal axis. The term bounding box may preferably be a rectangular or a square area surrounding the outside dimensions of the detected object in the image plane (as close as possible without intersecting the object's outside boundary lines). The bounding box can be defined by the coordinates of its upper left corner and lower right corner. The dimensions can include the length, width, height, etc. of the detected object, and the size can indicate the area or one of the dimensions.
Die Entfernung kann bevorzugt auf der Grundlage eines Koordinatensystems definiert sein, das seinen Ursprung beim optischen Sensor des Trägerfahrzeugs oder einer beliebigen weiteren wohldefinierten Position des Trägerfahrzeugs haben kann.The distance may preferably be defined based on a coordinate system, which may originate at the host vehicle's optical sensor or at any other well-defined position of the host vehicle.
Die oben beschriebene Kombination/der oben beschriebene Satz von Parametern ermöglicht, die Position und das Verhalten eines detektierten Objekts in einer sehr genauen Weise zu detektieren und zu bestimmen, während gleichzeitig die Anzahl von Parametern relativ niedrig ist, was den Rechenaufwand und den Datenverkehr verringert. Mit anderen Worten kann die gesamte Vorrichtung eine hohe Genauigkeit/Präzision mit einer geringen Komplexität der erforderlichen Hardware-/Software-Architektur erzielen.The combination/set of parameters described above enables the position and behavior of a detected object to be detected and determined in a very accurate manner, while at the same time the number of parameters is relatively low, which reduces the computational effort and data traffic. In other words, the entire device can achieve high accuracy/precision with a low complexity of the required hardware/software architecture.
Ferner kann die Vorhersage, die bevorzugt in der Vorhersageeinheit enthalten/in sie integriert ist, ein trainiertes Modell für maschinelles Lernen und/oder ein trainiertes Modell für künstliche Intelligenz zum Durchführen z. B. einer Zeitreihenanalyse zum Vorhersagen der zukünftigen Informationsdaten verwenden. Das eine oder die mehrere Modelle können in der Vorhersageeinheit enthalten sein oder die Vorhersageeinheit kann mit den Modellen kommunikationstechnisch verbunden sein, wenn sie von der Vorhersageeinheit getrennt gespeichert sind (z. B. in einem netzbasierten Server).Furthermore, the prediction preferably included/integrated in the prediction unit may be a trained machine learning model and/or a trained artificial intelligence model for performing e.g. B. use a time series analysis to predict the future information data. The one or more models may be included in the prediction engine, or the prediction engine may be communicatively coupled to the models when stored separately from the prediction engine (e.g., in a web-based server).
Das Modell für maschinelles Lernen und/oder das Modell für künstliche Intelligenz können trainiert werden, als die zukünftigen Objektinformationsdaten für jedes detektierte Objekt und für eine Folge von Bildrahmen in einem Zeitintervall zwischen der aktuellen Zeit t oder t + Dt und einer zukünftigen Zeit t + k die Orientierung des detektierten Objekts in Bezug auf ein trägerfahrzeugbasiertes Koordinatensystem, einen Begrenzungsrahmen des detektierten Objekts und der Koordinaten im trägerfahrzeugbasierten Koordinatensystem, die Abmessungen (oder die Größe) des detektierten Objekts, die Entfernung zum Trägerfahrzeug und/oder die Geschwindigkeit des detektierten Objekts zu bestimmen.The machine learning model and/or the artificial intelligence model can be trained as the future object information data for each detected object and for a sequence of image frames in a time interval between the current time t or t+Dt and a future time t+k determine the orientation of the detected object with respect to a host vehicle-based coordinate system, a bounding box of the detected object and the coordinates in the host vehicle-based coordinate system, the dimensions (or size) of the detected object, the distance to the host vehicle and/or the speed of the detected object.
Ein Bereitstellen der Bilder für das vorhergesagte zukünftige Verhalten, die Position und/oder dergleichen jedes detektierten Objekts ermöglicht eine überlegene Genauigkeit und Sicherheit der Routenplanung oder des Fahrens des Trägerfahrzeugs.Providing the images for the predicted future behavior, position, and/or the like of each detected object enables superior accuracy and safety of route planning or host vehicle driving.
Ferner können das Modell für maschinelles Lernen und/oder das Modell für künstliche Intelligenz ein neuronales Faltungsnetz für die Detektion und eine rekurrentes neuronales Netz für die Prädiktion enthalten.Furthermore, the machine learning model and/or the artificial intelligence model may contain a convolutional neural network for detection and a recurrent neural network for prediction.
Die Verwendung spezialisierter neuronaler Netze, die speziell für die beabsichtigen Aufgaben ausgelegt sind, ermöglicht eine noch weiter verbesserte Präzision und Zuverlässigkeit der Ausgangsdaten/Ergebnisse.The use of specialized neural networks, specifically designed for the intended tasks, allows for even more improved precision and reliability of the output data/results.
Ferner kann die Detektion der Entfernung jedes detektierten Objekts zum Trägerfahrzeugs zu einer aktuellen Zeit t durch einen getrennten Schritt durchgeführt werden, was bevorzugt bedeuten kann, dass die Detektionseinheit und die Prädiktionseinheit getrennte Einheiten sein/verschiedene ML/AI-Modelle verwenden können. Die Bestimmung der Entfernung kann durch ein Modell für maschinelles Lernen und/oder ein Modell für künstliche Intelligenz durchgeführt werden, die zum Bestimmen der Entfernung von den Eingangsbilddaten, die vom optischen Sensor des Trägerfahrzeugs zur aktuellen Zeit t empfangen werden, trainiert sind, wobei die empfangenen Eingangsbilddaten bevorzugt eine Folge von Bildrahmen mit Rahmen von einer vergangenen Zeit t - n zur aktuellen Zeit t enthalten können.Furthermore, the detection of the distance of each detected object to the host vehicle at a current time t can be performed by a separate step, which can preferably mean that the detection unit and the prediction unit can be separate units/use different ML/AI models. The determination of the distance may be performed by a machine learning model and/or an artificial intelligence model used to determine the distance from the input image data received from the host vehicle's optical sensor at the current time t are received, are trained, wherein the received input image data can preferably contain a sequence of image frames with frames from a past time t - n to the current time t.
Ferner können die Daten in Bezug auf die Objektdetektion und die Prädiktion und die ausgeglichenen Trägerfahrzeugfahrdaten in jedem Bildrahmen einer Folge von Bildrahmen in einem Zeitintervall von der Zeit t + Dt zur zukünftigen Zeit t + k zusammengeführt werden.Furthermore, the data related to the object detection and the prediction and the compensated host vehicle driving data can be merged in each image frame of a sequence of image frames in a time interval from time t+Dt to future time t+k.
Jedes Bild im Zeitintervall von der Zeit t + Dt zur zukünftigen Zeit t + k kann in ein Belegungsgitter (OCG oder ocg) der Umgebung/Umwelt des Trägerfahrzeugs transformiert werden. Die Transformation kann durch eine fest zugeordnete ocg-Generatoreinheit durchgeführt werden, die mathematische Transformationen zum Erzeugen der ocgs auf der Grundlage der (zukünftigen) Objektinformationsdaten durchführen kann. Die Umgebung des Trägerfahrzeugs kann bevorzugt die Nähe des Trägerfahrzeugs und sehr bevorzugt mindestens den Bereich, der mit dem Bereich, der durch den einen oder die mehreren optischen Sensoren aufgenommen wird, überlappt, enthalten.Each image in the time interval from time t+Dt to future time t+k can be transformed into an occupancy grid (OCG or ocg) of the environment of the host vehicle. The transformation can be performed by a dedicated ocg generator unit that can perform mathematical transformations to generate the ocgs based on the (future) object information data. The environment of the host vehicle may preferably include the vicinity of the host vehicle and very preferably at least the area overlapping with the area recorded by the one or more optical sensors.
Ferner kann eine Folge von Belegungsgitterbildrahmen in einem Zeitintervall von der Zeit t + Dt zur zukünftigen Zeit t + k ausgegeben werden.Furthermore, a sequence of occupancy grid image frames can be output in a time interval from time t+Dt to future time t+k.
Die Bereitstellung zukünftiger Belegungsgitter (einer Folge mehrerer Belegungsgitterbilder, die in zeitlicher Reihenfolge angeordnet sind) ermöglicht dem Fahrer des Trägerfahrzeugs, die zukünftige Verkehrsentwicklung intuitiv zu verstehen, derart, dass sie/er das Fahren anpassen kann, und sie ermöglicht dann, wenn das Trägerfahrzeug autonom fährt, den automatisch bestimmten Fahrkurs präzise und zuverlässig anzupassen, z. B. wenn die ocgs in eine Routenplanungseinrichtung/-einheit oder eine Navigationseinrichtung/-einheit des Trägerfahrzeugs eingegeben werden. Ferner kann die Bewertung der Ausgabe außerdem ermöglichen, Steueraktionen wie z. B. automatisiertes Bremsen, automatisiertes Beschleunigen, automatisiertes Lenken und dergleichen automatisch abzuleiten.The provision of future occupancy grids (a sequence of multiple occupancy grid images arranged in chronological order) allows the driver of the host vehicle to intuitively understand future traffic developments in such a way that she/he can adapt driving, and it enables when the host vehicle becomes autonomous drives to adapt the automatically determined course precisely and reliably, e.g. when the ocgs are input to a route planning device/unit or a navigation device/unit of the host vehicle. Furthermore, evaluating the output can also allow control actions such as e.g. B. automated braking, automated acceleration, automated steering and the like automatically derive.
Ferner kann die Kompensationseinheit der Position des Trägerfahrzeugs Informationen über die Verarbeitungsverzögerungszeit Dt, die durch die Detektions- und die Prädiktionsverarbeitung und die Kommunikationsverzögerung verursacht wird, und über die Ist-(Linear-)Geschwindigkeit und die Gierrate des Trägerfahrzeugs zur Zeit t empfangen und kann eine korrigierte Position des Trägerfahrzeugs zu einer Zeit t + Dt berechnen/bestimmen. Das Berechnen kann zuvor trainierte Szenarios wie z. B. das Verwenden eines Durchschnittswerts oder dergleichen als Grundlage verwenden oder es kann gemessene Parameter wie z. B. die Rechenleistung der Recheneinheit, die Übertragungsgeschwindigkeit der Kommunikationsverbindungen und dergleichen verwenden, um in jedem Fall den korrekten Wert Dt zu berechnen. Ferner kann der Wert Dt z. B. durch Aufnehmen der Zeit, zu der die Bilddaten vom optischen Sensor empfangen wurden, und durch Aufnehmen der Zeit, zu der die verarbeiteten Daten verfügbar sind, (zu einem zuvor definierten Punkt/Schritt im Ablauf der Verarbeitung) gemessen werden. Im vorhergehenden Beispiel würde die Zeitdifferenz der Wert Dt sein.Further, the host vehicle position compensation unit may receive information on the processing delay time Dt caused by the detection and the prediction processing and the communication delay, and on the actual (linear) velocity and the yaw rate of the host vehicle at the time t, and may calculate/determine corrected position of the host vehicle at a time t+Dt. The calculation can use previously trained scenarios such as e.g. B. using an average value or the like as a basis or it can be measured parameters such as e.g. B. use the computing power of the computing unit, the transmission speed of the communication links and the like to calculate the correct value Dt in each case. Furthermore, the value Dt z. B. by recording the time when the image data was received from the optical sensor and by recording the time when the processed data is available (at a previously defined point/step in the flow of processing). In the previous example, the time difference would be the value Dt.
Die Geschwindigkeit und die Gierrate können durch Sensoren des Trägerfahrzeugs geliefert werden, die zur Trägerfahrzeugfahrinformationseinheit, die die Daten zur beanspruchten Vorrichtung/dem Ausgleichsbestimmungsschritt liefern kann, Bericht erstatten können.The speed and yaw rate may be provided by host vehicle sensors that may report to the host vehicle driving information unit, which may provide the data to the claimed device/balance determination step.
Die Ausgleichsbestimmung erhöht ferner die Präzision der Datenausgabe, weil der Positionsfehler des Trägerfahrzeugs, der durch die Zeit verursacht wird, die zum Verarbeiten der Eingangsdaten und die Datenübertragung zwischen verschiedenen Einheiten benötigt wird, entfernt wird. Der Ausgleich kann eine Schätzung einer Bewegung eines Fahrzeugs unter Verwendung eines physikbasierten Fahrzeugmodells als Grundlage verwenden. Bei Kenntnis der anfänglichen kartesischen Position des Fahrzeugs, z. B. (X, Y), sowie der Ist-Geschwindigkeit und der Ist-Gierrate des Trägerfahrzeugs kann die Position (X, Y) im nächsten Zeitschritt bestimmt/geschätzt werden.The balance determination further increases the precision of the data output because the position error of the host vehicle caused by the time required to process the input data and the data transmission between different units is removed. The compensation may use an estimation of a vehicle's movement using a physics-based vehicle model as a basis. Knowing the initial Cartesian position of the vehicle, e.g. B. (X, Y), as well as the actual speed and the actual yaw rate of the host vehicle, the position (X, Y) can be determined / estimated in the next time step.
Ferner kann die Fahrzeugumgebungserkennungseinrichtung eine Kennungsverfolgereinheit enthalten, die mit einer Speichereinheit, die Daten zuvor detektierter Objekte speichern kann, kommunikationstechnisch verbunden ist. Die Kennungsverfolgereinheit kann konfiguriert sein, für jedes der detektierten Objekte zu bestimmen, ob das Objekt ein neu detektiertes Objekt oder ein zuvor detektiertes Objekt ist, und die Objektprädiktion kann konfiguriert sein, von der Kennungsverfolgereinheit Informationen darüber zu empfangen, ob das detektierte Objekt ein neu detektiertes Objekt oder ein verfolgtes zuvor detektiertes Objekt ist.Further, the vehicle surroundings recognizer may include an identifier tracker unit communicatively connected to a storage unit capable of storing data of previously detected objects. The identifier tracker unit may be configured to determine, for each of the detected objects, whether the object is a newly detected object or a previously detected object, and the object prediction may be configured to receive information from the identifier tracker unit as to whether the detected object is a newly detected object object or a tracked previously detected object.
Wenn die Kennungsverfolgereinheit eingesetzt wird, kann die Verarbeitungszeit wesentlich verringert werden, weil zuvor bestimmte Parameter/Daten aus dem Speicher gelesen werden können, anstatt sie durch das trainierte Modell neu zu bestimmen, oder das Trainingsmodell mindestens einen definierten Startpunkt zur Bestimmung besitzt, was den Rechenaufwand verringert.If the identifier tracker unit is used, the processing time can be significantly reduced because previously determined parameters/data can be read from memory instead of being re-determined by the trained model, or the training model has at least one defined starting point for determination, which reduces the computational effort reduced.
Ferner kann die Fahrzeugumgebungserkennungseinrichtung (teilweise) ein Computerprogrammprodukt sein, das computerlesbare Anweisungen umfasst, die in einem Computersystem, das einen oder mehrere Computer enthält, ausführbar sind, wobei die Einheiten Hardware- und/oder Software-Einheiten sind. Die Computer können im Trägerfahrzeug angeordnet (im Trägerfahrzeug installiert) sein und/oder sich entfernt vom Trägerfahrzeug befinden, wie z. B. an vernetzten entfernten Orten vorgesehen sein. Falls die Fahrzeugumgebungserkennungseinrichtung ein Computerprogramm sein soll, können die oben erläuterten Einheiten Software-Module/-Einheiten sein, die in einem Speicherraum gespeichert sind, der für den einen oder die mehreren Computer zugänglich ist. Die Fahrzeugumgebungserkennungseinrichtung kann außerdem eine Kombination von Hardware und Software sein und einige Einheiten können entweder Software- oder Hardware-Einheiten sein.Furthermore, the vehicle environment detection device (in part) a computer pro A program product comprising computer-readable instructions executable in a computer system including one or more computers, the units being hardware and/or software units. The computers may be located in the host vehicle (installed in the host vehicle) and/or remote from the host vehicle, e.g. B. be provided at networked remote locations. If the vehicle environment recognition device is to be a computer program, the entities discussed above may be software modules/entities stored in a memory space accessible to the one or more computers. The vehicle environment recognizer may also be a combination of hardware and software, and some units may be either software or hardware units.
Ferner können die Einheiten über Hardware- und/oder Software-Signalkommunikationskanäle kommunikationstechnisch verbunden sein und über ein oder mehrere Netze kommunikationstechnisch verbunden sein, wobei die Einheiten entweder in einer einzelnen Hardware angeordnet sind oder über verschiedene Hardware-Vorrichtungen, die Recheneinheiten/Hardware im Trägerfahrzeug enthalten, verteilt sein.Furthermore, the units may be communicatively linked via hardware and/or software signaling communication channels and communicatively linked via one or more networks, with the units being arranged either in a single piece of hardware or via different hardware devices containing computing units/hardware in the host vehicle , be distributed.
Die Einheiten, die oben diskutiert werden, können Teil einer einzelnen Einheit sein oder jede Einheit kann eine getrennte Einheit sein. Die Fahrzeugumgebungserkennungseinrichtung kann selbst Teil einer Monokamera, die den optischen Sensor enthält und in einem Trägerfahrzeug installiert ist, sein, wobei die Kamera/die Fahrzeugumgebungserkennungseinrichtung mit der Steuereinheit des Trägerfahrzeugs wie z. B. ihrem zentralen Steuercomputer oder dergleichen kommunikationstechnisch verbunden ist.The entities discussed above may be part of a single entity, or each entity may be a separate entity. The vehicle surroundings detection device can itself be part of a mono camera that contains the optical sensor and is installed in a host vehicle, the camera/vehicle surroundings detection device being connected to the control unit of the host vehicle, e.g. B. its central control computer or the like is connected by communication technology.
Eine bevorzugte Architektur kann die Rechenaufgaben mit hohem Aufwand wie z. B. die Detektion von Objekten, die Bestimmung von Parametern eines detektierten Objekts und die Vorhersageverarbeitung zu netzbasierten (entfernten) Rechenbetriebsmitteln verteilen, während die trägerfahrzeugbasierten Einheiten Rechenaufgaben mit geringerem Aufwand durchführen können. Dies ermöglicht eine schnelle und zuverlässige Verarbeitung der Eingangsdaten. Wenn allerdings die Zuverlässigkeit im Hinblick auf das Vermeiden von Unterbrechungen mobiler Datenübertragung erhöht werden soll, können die oben erläuterten Einheiten ihre Verarbeitung soweit technisch möglich vollständig/überwiegend in der Recheneinheit im Trägerfahrzeug durchführen. Die netzbasierten Betriebsmittel können dann Unterstützungsdaten wie z. B. Kartendaten von einem Karten-Server, Positionsinformationen, zuvor gespeicherte Fahrdaten oder dergleichen bereitstellen. Daher kann die Architektur an das beabsichtigte Szenario flexibel angepasst werden, was einen weiteren technischen Vorteil schafft.A preferred architecture can handle the high-effort computational tasks such as B. Distribute the detection of objects, the determination of parameters of a detected object and the prediction processing to network-based (remote) computing resources, while the host vehicle-based units can perform computing tasks with less effort. This enables fast and reliable processing of the input data. If, however, the reliability is to be increased with regard to avoiding interruptions in mobile data transmission, the units explained above can, as far as technically possible, carry out their processing completely/mainly in the computing unit in the carrier vehicle. The network-based resources can then support data such. B. provide map data from a map server, position information, previously stored driving data or the like. Therefore, the architecture can be flexibly adapted to the intended scenario, which creates another technical advantage.
Ferner wird ein Computerprogramm offenbart, das in einer oder mehreren Recheneinheiten wie z. B. der einen oder den mehreren Recheneinheiten des Trägerfahrzeugs und/oder entfernt angeordneten Recheneinheiten, die mit dem Trägerfahrzeug über ein Netz verbunden sind, installiert werden kann.Furthermore, a computer program is disclosed, in one or more computing units such. B. the one or more computing units of the host vehicle and / or remotely located computing units that are connected to the host vehicle via a network.
Ferner wird ein System offenbart, das einen optischen Sensor wie z. B. eine (Mono-)Kamera und die Fahrzeugumgebungserkennungseinrichtung mindestens eines der oben beschriebenen Aspekte enthalten kann. Das System kann außerdem entfernte Recheneinheiten, das Trägerfahrzeug mit einer Steuereinrichtung, Speichereinheiten und ein oder mehrere Netze, die entfernt angeordnete Recheneinheiten und/oder Speichereinheiten und das Trägerfahrzeug kommunikationstechnisch verbinden, enthalten.Furthermore, a system is disclosed that an optical sensor such. B. a (mono) camera and the vehicle environment detection device can contain at least one of the aspects described above. The system may also include remote computing devices, the host vehicle having a controller, storage devices, and one or more networks communicatively connecting remote computing devices and/or storage devices and the host vehicle.
Die hier offenbarte Vorrichtung und das hier offenbarte System und das hier offenbarte Computerprogrammprodukt ermöglichen, eine weniger komplexe Architektur insbesondere im Hinblick auf die Sensor-Hardware des Trägerfahrzeugs zu verwenden, die bevorzugt lediglich auf eine Einzelsensorquelle für die Eingabe von Daten über die Umgebung des Fahrzeugs (außer allgemeinen Informationen wie z. B. Kartendaten oder dergleichen, die von Recheneinheiten, die sich im Netz befinden, bereitgestellt werden) zurückgreifen, während die Ausgabeinformationen äußerst zuverlässig und genau sind und selbst Informationen in der (nahen) Zukunft über detektierte Objekte in der Umgebung des Fahrzeugs bereitstellen können. Darüber hinaus ist ein technischer Vorteil, dass die offenbarte Vorrichtung, das offenbarte System und das offenbarte Computerprogrammprodukt keine Kenntnis der intrinsischen Parameter der Kamera (wie z. B. die Brennweite usw.) erfordern, was den Lösungsversuch auf eine beliebige (vorhandene) Monokularkamera anwendbar macht, ungeachtet der Zwischenraumspezifikation der Kamera. Die Integration in vorhandene Fahrzeuge oder Kameras kann einfach durchgeführt werden.The device disclosed here and the system disclosed here and the computer program product disclosed here make it possible to use a less complex architecture, in particular with regard to the sensor hardware of the host vehicle, which preferably only relies on a single sensor source for the input of data about the environment of the vehicle ( except general information such as map data or the like provided by computing units located in the network) while the output information is extremely reliable and accurate and even information in the (near) future about detected objects in the environment of the vehicle can provide. Furthermore, a technical advantage is that the disclosed apparatus, system and computer program product do not require knowledge of the camera's intrinsic parameters (such as focal length, etc.), making the attempted solution applicable to any (existing) monocular camera makes, regardless of the camera's gap specification. The integration into existing vehicles or cameras can be carried out easily.
Figurenlistecharacter list
-
1 zeigt schematisch ein Beispiel eines Systems der vorliegenden Offenbarung.1 FIG. 12 schematically shows an example of a system of the present disclosure. -
2a zeigt schematisch eine Beispielkonfiguration einer Fahrzeugumgebungserkennungseinrichtung gemäß der vorliegenden Offenbarung. 12 schematically shows an example configuration of a vehicle surroundings recognition device according to the present disclosure.2a -
2b zeigt schematisch eine Beispielkonfiguration einer Steuereinrichtung eines Trägerfahrzeugs gemäß der vorliegenden Offenbarung.2 12 schematically shows an example configuration of a controller of a host vehicle according to the present disclosure.B -
3 zeigt ein Beispiel eines Modelltrainingsverarbeitungsablaufs gemäß der vorliegenden Offenbarung.3 12 shows an example of a model training processing flow, in accordance with the present disclosure. -
4 zeigt ein Beispiel für einen Fahrzeugumgebungserkennungsverarbeitungsablauf gemäß der vorliegenden Offenbarung.4 12 shows an example of a vehicle environment recognition processing flow according to the present disclosure. -
5 zeigt ein Beispiel der Auswirkung der Ausgleichsverarbeitung der vorliegenden Offenbarung.5 Figure 12 shows an example of the effect of the leveling processing of the present disclosure. -
6 zeigt ein Beispiel für einen Fahrzeugumgebungserkennungsverarbeitungsablauf gemäß der vorliegenden Offenbarung.6 12 shows an example of a vehicle environment recognition processing flow according to the present disclosure. -
7 zeigt schematisch die Verarbeitung eines Bilds, das durch einen optischen Sensor gemäß der vorliegenden Offenbarung aufgenommen wurde.7 FIG. 12 schematically shows the processing of an image captured by an optical sensor according to the present disclosure. -
8a und8b zeigen schematisch die Erzeugung eines Belegungsgitters (OCG) oder einer Belegungsgitterkarte gemäß der vorliegenden Offenbarung.8a and8b
Genaue Beschreibung beispielhafter AusführungsformenDetailed description of exemplary embodiments
Im Folgenden werden bevorzugte Aspekte und Beispiele unter Bezugnahme auf die begleitenden Figuren genauer beschrieben. Dieselben oder ähnliche Merkmale in verschiedenen Zeichnungen und Beispielen werden durch ähnliche Bezugszeichen bezeichnet. Es versteht sich, dass sich die genaue Beschreibung unten auf verschiedene bevorzugte Aspekte bezieht und bevorzugte Beispiele nicht dazu bestimmt sind, den Umfang der vorliegenden Offenbarung zu beschränken.Preferred aspects and examples are described in more detail below with reference to the accompanying figures. The same or similar features in different drawings and examples are denoted by similar reference numbers. It should be understood that the detailed description below refers to various preferred aspects and preferred examples are not intended to limit the scope of the present disclosure.
Die Recheneinheit 3 ist mit einem oder mehreren Netzen 6, die durch die schematische Wolke in
Die Fahrzeugumgebungserkennungseinrichtung 10 kann ihre eigene Recheneinheit (die nicht dargestellt ist) enthalten und kann ihre eigene Speichereinheit (die nicht dargestellt ist) besitzen, wenn die Fahrzeugumgebungserkennungseinrichtung 10 eine getrennte Hardware-Einheit ist. Dasselbe gilt für die Steuereinrichtung 4. Ferner kann die Steuereinrichtung 4 außerdem mit der Fahrzeugumgebungserkennungseinrichtung 10 zusammengeführt werden, wie zuvor beschrieben wurde.The
Die Steuereinrichtung 4 enthält eine oder mehrere Untereinheiten wie z. B. eine Trägerfahrzeugsteuereinheit 41, eine Sensordatenverarbeitungseinheit 42, eine Bremssteuereinheit 43, eine Kraftmaschinensteuereinheit 44 und dergleichen. Darüber hinaus können eine oder mehrere Bewegungsplanerzeugungs- und Bewegungsplanbereitstellungseinheiten 45 in der zuvor beschriebenen Steuereinrichtung 4 oder in einer Recheneinheit 8a, 8b, die entfernt vom Trägerfahrzeug 1 angeordnet ist, vorgesehen sein.The
Außerdem kann die Steuereinrichtung 4 eine Trägerfahrzeugfahrparametereinheit 46 enthalten, die Daten von Sensoren (die nicht dargestellt sind) des Trägerfahrzeugs 1 oder weiteren nicht dargestellten Quellen wie z. B. GPS-Signaldaten oder dergleichen empfängt.In addition, the
Die Trägerfahrzeugsteuereinheit 41 kann z. B. konfiguriert sein, ein autonomes Fahren des Trägerfahrzeugs 1 durchzuführen, und kann eine Eingabe empfangen oder Steueranweisungen zu weiteren Untereinheiten wie z. B. der Sensordatenverarbeitungseinheit 42, die Trägerfahrzeugfahrparametereinheit 46 empfangen kann, liefern und kann fahrrelevante Daten zur Trägerfahrzeugsteuereinheit 41 liefern. Ferner kann die Trägerfahrzeugsteuereinheit 41 die Bremssteuereinheit 43 und die Kraftmaschinensteuereinheit 44, die die Bremsen bzw. die eine oder die mehreren Kraftmaschinen des Trägerfahrzeugs 1 steuern können, steuern. Eine Bewegungsplan-Erzeugungs-/Ausgabe-Einheit 45 kann in das Trägerfahrzeug 1 integriert sein oder kann in die eine oder die mehreren entfernten Recheneinheiten 8a, 8b integriert sein und kann ein autonomes Fahren durch Setzen der Route, der das autonom gefahrene/gesteuerte Trägerfahrzeug 1 folgen soll, unterstützen. Die Route kann zur Trägerfahrzeugsteuereinheit 41 geliefert werden. Das Trägerfahrzeug 1 oder seine Recheneinheit 3 oder seine Steuereinrichtung 4 kann ferner Informationen wie z. B. Kartendaten von einem Karten-Server entfernt über das Netz 6 empfangen, wie z. B. durch das Bezugszeichen 8a oder 8b gezeigt ist. Es kann auch eine beliebige Art zuvor gespeicherter Daten von der entfernt angeordneten Speichereinheit 7 empfangen.The host
Die Detektionseinheit 11 sowie die Vorhersageeinheit 12 kann ein oder mehrere AI- und/oder ML-Modelle (die nicht dargestellt sind), die gemäß dem schematischen Ablaufplan nach
Der optischer Sensor 2 liefert (Schritt S1) die Bilder als eine Folge von Bildrahmen, wobei mehrere Bildrahmen als eine Folge eingegeben werden. Die Folge kann als eine Baugruppe/Anordnung zeitlich geordneter Bilder (die in
Der Begrenzungsrahmen B kann als ein rechteckiger Bereich/Rahmen betrachtet werden, der um das detektierte Objekt O1, O2 angeordnet ist, derart, dass das detektierte Objekt O1, O2 präzise in den Rahmen B, der bevorzugt ein zweidimensionaler Rahmen ist, der im Bildrahmen angeordnet ist, passt. Die Begrenzungsrahmenkoordinaten können die Koordinaten der oberen linken und der unteren rechten Ecke sein, die die rechteckige Form des Rahmens B vollständig definieren. Darüber hinaus können die Objektinformationsdaten den Typ des Objekts, bevorzugt die Orientierung des Objekts in Bezug auf das Koordinatensystem des optischen Sensors des Trägerfahrzeugs 1, eine Entfernung vom Objekt zum optischen Sensor oder zum Ursprung des Koordinatensystems des Trägerfahrzeugs, die Abmessung oder die Größe des detektierten Objekts und seine Geschwindigkeit enthalten.The bounding box B can be viewed as a rectangular area/box placed around the detected object O1, O2 such that the detected object O1, O2 is precisely within the box B, which is preferably a two-dimensional box placed in the image frame is, fits. The bounding box coordinates may be the upper left and lower right corner coordinates that completely define the rectangular shape of the box B . In addition, the object information data can include the type of object, preferably the orientation of the object in relation to the coordinate system of the optical sensor of the
In einer bevorzugten Alternative/Änderung kann außerdem eine Kennungsverfolgereinheit 17 in der Fahrzeugumgebungserkennungseinrichtung 10 enthalten sein, zu der die Informationen über das detektierte Objekt 01, 02 gesendet werden können, um Informationen darüber zu empfangen, ob das detektierte Objekt O1, O2 bereits vorab detektiert worden ist oder ob es neu detektiert wird. Dies wird unten genauer beschrieben.In a preferred alternative/modification, an
Das Prädiktormodell 12 verwendet außerdem ein trainiertes Modell aus einem neuronalen Netz (das nicht dargestellt ist) und wendet eine Zeitreihenanalyse auf die Informationen jedes detektierten Objekts O1, O2 an, um zukünftige Objektinformationsdaten herzuleiten/abzuleiten. Die zukünftigen Objektinformationsdaten können die Begrenzungsrahmenkoordinaten, die eine oder die mehreren Orientierungen, die Entfernung, die eine oder die mehreren Abmessungen und/oder die Geschwindigkeit jedes detektierten Objekts in einem zukünftigen Zeitintervall, das sich von einer aktuellen Zeit t (oder t + Dt) zu einer zukünftigen Zeit t + k erstreckt, enthalten. Die Anzahl von Werten für sämtliche zukünftigen Objektinformationsdaten kann vordefiniert, z. B. in der Speichereinheit 7 gespeichert sein oder kann in Übereinstimmung mit der Anzahl kürzerer Zeitintervalle zwischen der Zeit t + Dt und der Zeit t + k sein.The
Mit der Detektion und der Prädiktion, die durchgeführt werden, empfängt die Trägerfahrzeugausgleichseinheit 13 Daten (Schritt S3) von der Trägerfahrzeugfahrparametereinheit 46 sowie einer Verarbeitungszeitverzögerungsbestimmungseinheit 16, um die Position des Trägerfahrzeugs 1 in Bezug auf die Zeit, die zwischen der aktuellen Zeit t, zu der das letzte Bild des Zeitintervalls zwischen t - n und t aufgenommen wurde (oder die Verarbeitung begonnen hat), und dem Abschließen der Detektions- und Prädiktionsverarbeitung sowie der entsprechenden Kommunikationsvorzögerungen vergangen ist (Latenz), zu korrigieren. Die Verarbeitungszeitverzögerungsbestimmungseinheit 16 kann diese Zeit, die als „Dt“ bezeichnet wird, messen, sie kann die Zeit auf der Grundlage vorhergehender Fälle schätzen oder sie kann die Zeit berechnen, wenn entsprechende Parameterdaten verfügbar sind. Die Trägerfahrzeugfahrparametereinheit 46 liefert darüber hinaus die Ist-Lineargeschwindigkeit und das Gieren des Trägerfahrzeugs 1 zur Zeit t, auf deren Grundlage z. B. durch Extrapolation die neue Position des Trägerfahrzeugs 1 zur Zeit t + Dt ausgeglichen/korrigiert/bestimmt werden kann.With the detection and the prediction being performed, the host
Der Ausgleich weist selbstverständlich eine Wirkung auf die Entfernungen, die durch die Detektoreinheit und die Prädiktoreinheit 11, 12 während ihrer entsprechenden Verarbeitung detektiert werden, auf. Daher werden bevorzugt die Werte auch ausgeglichen. In dieser Hinsicht soll wiederholt werden, dass die Entfernungen zwischen dem Trägerfahrzeug 1 und einem beliebigen detektierten Objekt 01, 02 durch ein getrenntes AI-/ML-Modell, d. h. getrennt vom Detektormodell oder Prädiktormodell bestimmt werden können. Das eine oder die mehreren getrennten Modelle (die nicht dargestellt sind) können Untereinheiten des Detektormodells/Prädiktormodells sein; die Modelle können Teil der Vorrichtung 10, die durch
Nachdem der Trägerfahrzeugausgleich ausgeführt worden ist und mit den Daten von der Detektionseinheit und der Prädiktionseinheit 11, 12 können Bilder, die in einer Folge von Bildrahmen zwischen der Zeit t (oder der Zeit t + tD) und t + k vorgesehen sind, durch die Ausgabeeinheit 14 oder die OCG-Erzeugungseinheit 15 erzeugt werden (Schritt S4), wobei die Ausgabeeinheit 14 und die OCG-Erzeugungseinheit 15 eine einzelne Einheit sein können (was vom Aufbau, der in
Die Wirkung des Trägerfahrzeugausgleichs wird darüber hinaus durch
Darüber hinaus ist ein Beispielfluss von Daten-/Kommunikationsmustern zwischen den verschiedenen Einheiten, der beim optischen Sensor 2 startet und Bilder zum Objektdetektormodell in der Detektionseinheit 11 und zu einem Latenzschätzer, der in der Verarbeitungszeitverzögerungsbestimmungseinheit 16 enthalten ist, liefert, durch
Mit anderen Worten empfängt die Verarbeitungszeitverzögerungsbestimmungseinheit 16 Informationen von den aktuellen Bildern zur Zeit t und dem Vorhersagemodell und liefert eine Schätzung über die Verzögerungszeit/Latenz zur Trägerfahrzeugausgleichseinheit 13, die darüber hinaus mindestens Informationen über die Lineargeschwindigkeit und die Gierrate des Trägerfahrzeugs 1 zur aktuellen Zeit t empfängt. Die Ausgabe der Trägerfahrzeugausgleichseinheit 13 und der Objektvorhersagemodelleinheit 12 enthält dann zukünftige Objektinformationsdaten in einem Zeitintervall zwischen der Zeit t + Dt und der zukünftigen Zeit t + k. Auf dieser Grundlage kann, wie oben beschrieben ist, eine Folge von Bildrahmen im zukünftigen Zeitintervall zwischen t (t + Dt) und t + k, die bevorzugt Belegungsgitterkarten sind, wie unten weiter erläutert wird, erzeugt werden.In other words, the processing time
Ein Beispiel für die Belegungserzeugung ist durch
Ferner sind in
Auf der Grundlage der oben beschriebenen Informationen, d. h. einschließlich des Bildrahmens, des kartesischen Koordinatensystems und der Positionen des einen oder der mehreren Objekte O1, O2 kann ein Belegungsgitter (OCG) erzeugt werden. Speziell wird ein belegter Bereich eines OCG auf der Grundlage der (zukünftigen) Objektinformationsdaten, insbesondere der Orientierung, der Abmessung, der Entfernung zum Trägerfahrzeug 1 und des Begrenzungsrahmens B berechnet. Unter Verwendung des Standorts des detektierten Objekts, seiner Orientierung und seiner Abmessung kann der von diesem Objekt O1, O2 in der Belegungsgitterkarte belegte Bereich bereitgestellt werden. In
In
Die OCG-Folge für das Zeitintervall zwischen der Zeit t (t + Dt) und der Zeit t + k kann derart zu einer Anzeigevorrichtung im Trägerfahrzeug 1 ausgegeben werden, dass der Fahrer des Trägerfahrzeugs 1 die Informationen zum Anpassen der Fahrroute oder dergleichen verwenden kann. Zusätzlich oder alternativ kann die Ausgabe zu einer Steuereinheit des (halb)autonomen Trägerfahrzeugs 1 derart geliefert werden, dass die Steuereinheit die Fahrtroute des Trägerfahrzeugs 1 auf der Grundlage der Informationen von der einen oder den mehreren OCG-Folgen automatisch steuern kann.The OCG sequence for the time interval between time t (t+Dt) and time t+k can be output to a display device in the
Zusammenfassend werden eine Fahrzeugumgebungserkennungseinrichtung 10 und ein System 100 sowie ein in Beziehung stehendes Computerprogrammprodukt beschrieben, die eine erhöhte Zuverlässigkeit und Sicherheit bereitstellen, weil unter anderem Objektinformationen in der Zukunft vorhergesagt werden können. Diese Informationen können verwendet werden, um Kollisionen während der Navigation mit dem Trägerfahrzeug 1 oder dann, wenn das Trägerfahrzeug 1 ein autonomes Fahrzeug ist, zu vermeiden. Ferner kann die Genauigkeit der Ausgangsdaten unter anderem aufgrund des Trägerfahrzeugpositionsausgleichs verbessert werden.In summary, a vehicle
Eine genaue Belegungsgitterkarte kann mit mehr Objektinformationen, die vom Modell ausgegeben werden, versehen werden und eine Folge von Belegungsgitterkarten kann erzeugt werden, wobei die belegten Bereiche der detektierten Objekte statisch oder dynamisch repräsentiert werden. Das System kann lediglich eine Monokamera oder dergleichen statt mehrerer Sensorquellen, wie im Stand der Technik beschrieben ist, verwenden.An accurate occupancy grid map can be annotated with more object information output from the model, and a series of occupancy grid maps can be generated, with the occupied areas of the detected objects being represented statically or dynamically. The system can use only a mono camera or the like instead of multiple sensor sources as described in the prior art.
Es sollte festgehalten werden, dass z. B.
Wie durch Fachleute begrüßt werden wird, kann die vorliegende Offenbarung, die hier oben und in den begleitenden Figuren beschrieben ist, als ein Verfahren (z. B. ein computerimplementierter Prozess oder ein beliebiger weiterer Prozess), eine Vorrichtung (die eine Einrichtung, eine Maschine, ein System, ein Computerprogrammprodukt und/oder eine beliebige weitere Vorrichtung enthält) oder eine Kombination des Vorhergehenden verkörpert sein.As will be appreciated by those skilled in the art, the present disclosure described hereinabove and in the accompanying figures may be embodied as a method (e.g., a computer-implemented process, or any other process), an apparatus (which is a device, a machine , a system, a computer program product, and/or any other device) or a combination of the foregoing.
Aspekte/Beispiele der vorliegenden Offenbarung können vollständig eine Software (die Firmware, residente Software, Mikrocode usw. enthält) oder eine Kombination von Software- und Hardware-Aspekten, die als ein „System“ bezeichnet werden kann, sein. Darüber hinaus kann die vorliegende Offenbarung die Form eines Computerprogrammprodukts in einem computerlesbaren Medium, das computerausführbaren Programmcode enthält, der im Medium verkörpert ist, annehmen.Aspects/examples of the present disclosure may be entirely software (including firmware, resident software, microcode, etc.) or a combination of software and hardware aspects that may be referred to as a "system". Furthermore, the present disclosure may take the form of a computer program product on a computer readable medium, including computer-executable program code embodied in the medium.
Es sollte festgehalten werden, dass Pfeile in Zeichnungen verwendet werden können, um eine Kommunikation, eine Übertragung oder eine weitere Aktivität, die zwei oder mehr Einheiten einbezieht, zu repräsentieren. Doppelseitige Pfeile geben im Allgemeinen an, dass in beide Richtungen eine Aktivität auftreten kann (z. B. eine Anweisung/Anforderung in einer Richtung mit einer entsprechenden Antwort zurück in die andere Richtung oder Peer-to-Peer-Kommunikationen, die durch eine der beiden Einheiten initiiert werden), obwohl in einigen Situationen nicht notwendigerweise eine Aktivität in beide Richtungen auftreten muss.It should be noted that arrows may be used in drawings to represent communication, transmission, or other activity involving two or more entities. Double-headed arrows generally indicate that activity can occur in either direction (e.g., an instruction/requirement in one direction with a corresponding response back in the other direction, or peer-to-peer communications initiated by either entity), although in some situations activity in both directions need not necessarily occur.
Einseitige Pfeile geben im Allgemeinen eine Aktivität ausschließlich oder überwiegend in eine Richtung an, obwohl festgehalten werden sollte, dass in bestimmten Situationen eine derartige gerichtete Aktivität tatsächlich Aktivitäten in beide Richtungen umfassen kann (z. B. eine Nachricht von einem Sender zu einem Empfänger und eine Bestätigung zurück vom Empfänger zum Sender oder ein Aufbau einer Verbindung vor einer Übertragung und eine Beendigung der Verbindung nach der Übertragung). Somit ist der Typ eines Pfeils, der in einer bestimmten Zeichnung verwendet wird, um eine bestimmte Aktivität zu repräsentieren, beispielhaft und sollte nicht als einschränkend betrachtet werden.Unidirectional arrows generally indicate activity exclusively or predominantly in one direction, although it should be noted that in certain situations such directional activity may actually involve activity in both directions (e.g., a message from a sender to a receiver and a confirmation back from the receiver to the sender or establishing a connection before transmission and terminating the connection after transmission). Thus, the type of arrow used in a particular drawing to represent a particular activity is exemplary and should not be considered limiting.
Die vorliegende Offenbarung kann unter Bezugnahme auf Ablaufplandarstellungen und/oder Blockdiagramme von Verfahren und Vorrichtungen und unter Bezugnahme auf eine Anzahl von Beispielansichten einer graphischen Anwenderschnittstelle, die durch die Verfahren und/oder die Vorrichtungen erzeugt wird, beschrieben werden. Es versteht sich, dass jeder Block der Ablaufplandarstellungen und/oder Blockdiagramme und/oder Kombinationen von Blöcken in den Ablaufplandarstellungen und/oder Blockdiagrammen sowie die graphische Anwenderschnittstelle durch computerausführbaren Programmcode implementiert werden können.The present disclosure may be described with reference to flowchart illustrations and/or block diagrams of methods and devices, and with reference to a number of example views of a graphical user interface generated by the methods and/or devices. It will be understood that each block of the flowchart illustrations and/or block diagrams, and/or combinations of blocks in the flowchart illustrations and/or block diagrams, as well as the graphical user interface, can be implemented by computer-executable program code.
Der computerausführbare Programmcode kann zu einem Prozessor eines allgemein verwendbaren Computers, eines Computers für einen speziellen Zweck oder einer weiteren programmierbaren Datenverarbeitungsvorrichtung geliefert werden, um eine bestimmte Maschine derart zu erstellen, dass der Programmcode, der über den Prozessor des Computers oder eine weitere programmierbare Datenverarbeitungsvorrichtung ausgeführt wird, Mittel zum Implementieren der Funktionen/Vorgänge/Ausgaben, die im Ablaufplan, in einem oder mehreren Blockdiagrammblöcken, in Figuren und/oder einer geschriebenen Beschreibung festgelegt sind, erstellt.The computer-executable program code may be delivered to a processor of a general purpose computer, a special purpose computer, or another programmable computing device to create a particular machine such that the program code executed by the processor of the computer or other programmable computing device creates means for implementing the functions/acts/outputs specified in the flowchart, one or more block diagram blocks, figures and/or a written description.
Der computerausführbare Programmcode kann außerdem in einem computerlesbaren Speicher gespeichert sein, der einen Computer oder eine weitere programmierbare Datenverarbeitungsvorrichtung anweisen kann, in einer bestimmten Weise zu arbeiten, derart, dass der Programmcode, der im computerlesbaren Speicher gespeichert ist, einen Herstellungsgegenstand erstellt, der Anweisungsmittel enthält, die die Funktion/den Vorgang/die Ausgabe, die im Ablaufplan, in einem oder mehreren Blockdiagrammblöcken, in Figuren und/oder einer geschriebenen Beschreibung festgelegt sind, implementieren.The computer-executable program code may also be stored on a computer-readable memory that can instruct a computer or other programmable computing device to operate in a particular manner such that the program code stored in the computer-readable memory creates an article of manufacture that includes instruction means that implement the function/act/output specified in the flowchart, one or more block diagram blocks, figures, and/or a written description.
Der computerausführbare Programmcode kann außerdem in einen Computer oder eine weitere Datenverarbeitungsvorrichtung geladen werden, um zu verursachen, dass eine Reihe von Operationsschritten im Computer oder in der weiteren programmierbaren Vorrichtung durchgeführt wird, um einen computerimplementierten Prozess derart zu erstellen, dass der Programmcode, der im Computer oder in der weiteren programmierbaren Vorrichtung ausgeführt wird, Schritte zum Implementieren der Funktionen/Vorgänge/Ausgaben, die im Ablaufplan, in dem einen oder den mehreren Blockdiagrammblöcken, in den Figuren und/oder in der geschriebenen Beschreibung festgelegt sind, bereitstellt. Alternativ können computerprogrammimplementierte Schritte oder Vorgänge mit bediener- oder menschenimplementierten Schritten oder Vorgängen kombiniert werden, um eine Ausführungsform der Offenbarung auszuführen.The computer-executable program code may also be loaded into a computer or other data processing device to cause a series of operational steps to be performed in the computer or other programmable device to create a computer-implemented process such that the program code running on the computer or executed in the further programmable device provides steps for implementing the functions/acts/outputs specified in the flowchart, block diagram one or more blocks, figures and/or written description. Alternatively, computer program implemented steps or acts may be combined with operator or human implemented steps or acts to carry out an embodiment of the disclosure.
Es sollte festgehalten werden, dass Begriffe wie z. B. „Server“ und „Prozessor“ hier verwendet werden können, um Einrichtungen zu beschreiben, die in bestimmten Aspekten der vorliegenden Offenbarung verwendet werden können, und nicht ausgelegt werden sollten, die vorliegende Offenbarung zu einem bestimmten Einrichtungstyp zu beschränken, sofern es der Kontext nicht anders erfordert. Somit kann eine Einrichtung ohne Einschränkung eine Brücke, einen Router, einen Brücke-Router (Brouter), einen Switch, einen Knoten, einen Server, einen Computer, eine Vorrichtung oder weitere Typen einer Einrichtung enthalten. Derartige Einrichtungen enthalten typischerweise eine oder mehrere Netzschnittstellen zum Kommunizieren über ein Kommunikationsnetz und einen Prozessor (z. B. ein Mikroprozessor mit einem Speicher und weitere Peripheriegeräte und/oder anwendungsspezifische Hardware), der entsprechend konfiguriert ist, um Einrichtungsfunktionen durchzuführen.It should be noted that terms such as For example, "server" and "processor" may be used herein to describe devices that may be used in certain aspects of the present disclosure and should not be construed to limit the present disclosure to any particular type of device unless the context permits not otherwise required. Thus, a device may include, without limitation, a bridge, router, bridge-router (brouter), switch, node, server, computer, device, or other types of device. Such devices typically include one or more network interfaces for communicating over a communications network and a processor (e.g., a microprocessor with memory and other peripherals and/or application-specific hardware) appropriately configured to perform device functions.
Kommunikationsnetze können im Allgemeinen öffentliche und/oder private Netze enthalten; können lokale Netze, Großraumnetze, Metropolregionsnetze, Speichernetze und/oder weitere Typen von Netzen enthalten und können Kommunikationstechniken einsetzen, die analoge Technologien, digitale Technologien, optische Technologien, Drahtlostechnologien (z. B. Bluetooth), Netztechnologien und Internettechnologien enthalten, jedoch nicht darauf beschränkt sind.Communications networks may generally include public and/or private networks; may include local area networks, metropolitan area networks, metropolitan area networks, storage networks, and/or other types of networks and may employ communications technologies that include, but are not limited to, analog technologies, digital technologies, optical technologies, wireless technologies (e.g., Bluetooth), network technologies, and internet technologies are.
Es sollte außerdem festgehalten werden, dass Einrichtungen Kommunikationsprotokolle und Nachrichten (z. B. Nachrichten, die durch die Einrichtung erstellt, gesendet, empfangen, gespeichert und/oder verarbeitet werden) verwenden können und derartige Nachrichten durch ein Kommunikationsnetz oder ein Kommunikationsmedium übermittelt werden können.It should also be noted that facilities use communication protocols and Messages (e.g., messages created, sent, received, stored, and/or processed by the device) and such messages can be transmitted through a communications network or medium.
Sofern es der Kontext nicht anders erfordert, sollte die vorliegende Offenbarung nicht auf einen bestimmten Kommunikationsnachrichtentyp, ein bestimmtes Kommunikationsnachrichtenformat oder ein bestimmtes Kommunikationsprotokoll eingeschränkt ausgelegt werden. Somit kann eine Kommunikationsnachricht im Allgemeinen ohne Beschränkung einen Rahmen, ein Paket, ein Datagramm, ein Anwenderdatagramm, eine Zelle oder einen weiteren Typ einer Kommunikationsnachricht enthalten.Unless the context otherwise requires, the present disclosure should not be construed as limited to any particular communication message type, communication message format, or communication protocol. Thus, in general, without limitation, a communication message may include a frame, a packet, a datagram, a user datagram, a cell, or any other type of communication message.
Sofern es der Kontext nicht anders erfordert, sind Bezüge auf bestimmte Kommunikationsprotokolle beispielhaft und es versteht sich, dass Alternativen, wie jeweils anwendbar ist, Variationen derartiger Kommunikationsprotokolle (z. B. Änderungen oder Erweiterungen des Protokolls, die von Zeit zu Zeit gemacht werden können) oder weitere Protokolle, die entweder bekannt sind oder in der Zukunft entwickelt werden, einsetzen können.Unless the context otherwise requires, references to particular communication protocols are exemplary, and it is understood that alternatives, as appropriate, include variations on such communication protocols (e.g., modifications or enhancements to the protocol that may be made from time to time). or other protocols that are either known or may be developed in the future.
Es sollte außerdem festgehalten werden, dass Logikabläufe hier beschrieben werden können, um verschiedene Aspekte der Offenbarung zu zeigen, und nicht ausgelegt werden sollten, die vorliegende Offenbarung auf einen bestimmten Logikablauf oder eine bestimmte Logikimplementierung einzuschränken. Die beschriebene Logik kann in verschiedene Logikblöcke (z. B. Programme, Module, Funktionen oder Unterroutinen) unterteilt werden, ohne die Gesamtergebnisse zu ändern oder auf andere Weise vom wahren Umfang der Offenbarung abzuweichen.It should also be noted that logic flows may be described herein to show various aspects of the disclosure and should not be construed to limit the present disclosure to any particular logic flow or logic implementation. The logic described may be divided into different logic blocks (e.g., programs, modules, functions, or subroutines) without changing the overall results or otherwise departing from the true scope of the disclosure.
Häufig können Logikelemente hinzugefügt, geändert, ausgelassen, in einer verschiedenen Reihenfolge durchgeführt oder unter Verwendung verschiedener Logikkonstrukte (z. B. Logikgatter, Schleifengrundelemente, bedingte Logik und weitere Logikkonstrukte) implementiert werden, ohne die Gesamtergebnisse zu ändern oder auf andere Weise vom Umfang der Offenbarung abzuweichen.Often, logic elements can be added, changed, omitted, performed in a different order, or implemented using different logic constructs (e.g., logic gates, loop primitives, conditional logic, and other logic constructs) without changing the overall results or otherwise departing from the scope of the disclosure to deviate
Die vorliegende Offenbarung kann in vielen verschiedenen Formen verkörpert werden, die eine Graphikverarbeitungseinheit sowie eine Computerprogrammlogik zur Verwendung mit einem Prozessor (z. B. ein Mikroprozessor, ein Mikrocontroller, ein digitaler Signalprozessor oder ein allgemein verwendbarer Computer), eine programmierbare Logik zur Verwendung mit einer programmierbaren Logikeinrichtung (z. B. eine feldprogrammierbare Gate-Anordnung (FPGA) oder eine weitere PLD), diskrete Komponenten, eine integrierte Schaltungsanordnung (z. B. eine anwendungsspezifische integrierte Schaltung (ASIC)) oder beliebige weitere Mittel einschließlich einer beliebigen Kombination davon enthalten, jedoch nicht darauf beschränkt sind. Eine Computerprogrammlogik, die einen Teil der oder die gesamte beschriebene Funktionalität implementiert, ist typischerweise als ein Satz von Computerprogrammanweisungen implementiert, der in eine computerausführbare Form umgesetzt wird, als solcher in einem computerlesbaren Medium gespeichert wird und durch einen Mikroprozessor unter der Steuerung eines Betriebssystems ausgeführt wird. Eine hardwarebasierte Logik, die einen Teil der oder die gesamte beschriebene Funktionalität implementiert, kann unter Verwendung einer oder mehrerer geeignet konfigurierter FPGAs implementiert werden.The present disclosure may be embodied in many different forms, including a graphics processing unit, computer program logic for use with a processor (e.g., a microprocessor, microcontroller, digital signal processor, or general purpose computer), programmable logic for use with a programmable logic device (e.g., a field programmable gate array (FPGA) or another PLD), discrete components, integrated circuitry (e.g., an application specific integrated circuit (ASIC)), or any other means, including any combination thereof , but not limited to. Computer program logic that implements some or all of the described functionality is typically implemented as a set of computer program instructions, converted into computer-executable form, stored as such on a computer-readable medium, and executed by a microprocessor under the control of an operating system . Hardware-based logic that implements some or all of the functionality described may be implemented using one or more suitably configured FPGAs.
Eine Computerprogrammlogik, die die gesamte oder einen Teil der Funktionalität, die zuvor hier beschrieben wurde, implementiert, kann in verschiedenen Formen verkörpert werden, die eine Quellcodeform, eine computerausführbare Form und verschiedene Zwischenformen (z. B. Formen, die durch einen Assembler, einen Kompilierer, einen Linker oder einen Locator erzeugt werden) enthalten, jedoch nicht darauf beschränkt sind.Computer program logic that implements all or part of the functionality previously described herein may be embodied in various forms, including source code form, computer-executable form, and various intermediate forms (e.g., forms implemented by an assembler, a compiler, linker, or locator) include, but are not limited to.
Quellcode kann eine Reihe von Computerprogrammanweisungen enthalten, die in einer beliebigen von verschiedenen Programmiersprachen (z. B. ein Objektcode, eine Assemblersprache oder eine Hochsprache wie z. B. Fortran, Python, C, C++, JAVA, JavaScript oder HTML) zur Verwendung mit verschiedenen Betriebssystemen oder Betriebsumgebungen implementiert sind. Der Quellcode kann verschiedene Datenstrukturen und Kommunikationsnachrichten definieren und verwenden. Der Quellcode kann in einer computerausführbaren Form (z. B. durch einen Interpreter) vorliegen oder der Quellcode kann (z. B. über einen Translator, einen Assembler oder einen Kompilierer) in eine computerausführbare Form umgewandelt werden.Source code may include a set of computer program instructions written in any of a variety of programming languages (e.g., an object code, an assembly language, or a high-level language such as Fortran, Python, C, C++, JAVA, JavaScript, or HTML) for use with different operating systems or operating environments are implemented. The source code can define and use different data structures and communication messages. The source code may be in computer-executable form (e.g., by an interpreter), or the source code may be converted (e.g., by a translator, an assembler, or a compiler) into a computer-executable form.
Computerausführbarer Programmcode zum Ausführen von Operationen von Ausführungsformen der vorliegenden Ausführungsform kann in einer objektorientierten, skriptbasierten oder nicht skriptbasierten Programmiersprache wie z. B. Java, Perl, Smalltalk, C++ oder dergleichen geschrieben sein. Allerdings kann der Computerprogrammcode zum Ausführen von Operationen von Aspekten der vorliegenden Offenbarung außerdem in herkömmlichen prozeduralen Programmiersprachen wie z. B. die „C“-Programmiersprache oder ähnliche Programmiersprachen geschrieben sein.Computer-executable program code for performing operations of embodiments of the present embodiment may be defined in an object-oriented, scripted or non-scripted programming language such as. B. Java, Perl, Smalltalk, C ++ or the like. However, computer program code for performing operations of aspects of the present disclosure may also be written in conventional procedural programming languages such as. B. the "C" programming language or similar programming languages can be written.
Eine Computerprogrammlogik, die die gesamte oder einen Teil der Funktionalität, die zuvor hier beschrieben wurde, implementiert, kann zu verschiedenen Zeiten in einem einzelnen Prozessor (z. B. zeitlich überlappend) ausgeführt werden oder kann zur gleichen Zeit oder zu verschiedenen Zeiten auf mehreren Prozessoren ausgeführt werden und kann unter einem einzelnen Betriebssystem-Prozess/Thread oder unter verschiedenen Betriebssystem-Prozessen/Threads laufen.Computer program logic that implements all or part of the functionality previously described herein may be executed at different times on a single processor (e.g., temporally overlapping), or may be executed on multiple processors at the same time or at different times Executed and can run under a single operating system process/thread or under different operating system processes/threads.
Somit bezieht sich der Begriff „Computerprozess“ im Allgemeinen auf die Ausführung eines Satzes Computerprogrammanweisungen, ungeachtet dessen, ob verschiedene Computerprozesse in denselben oder verschiedenen Prozessoren ausgeführt werden, und ungeachtet dessen, ob verschiedene Computerprozesse unter demselben Betriebssystem-Prozess/-Thread oder verschiedenen Betriebssystem-Prozessen/-Threads laufen.Thus, the term "computer process" generally refers to the execution of a set of computer program instructions, regardless of whether different computer processes execute on the same or different processors, and regardless of whether different computer processes execute under the same operating system process/thread or different operating system processes/threads are running.
Das Computerprogramm kann in einer beliebigen Form festgehalten sein (z. B. Quellcodeform, computerausführbare Form oder eine Zwischenform), entweder permanent oder transitorisch in einem materiellen Speichermedium wie z. B. einer Halbleiterspeichereinrichtung (z. B. ein RAM, ein ROM, ein PROM, ein EEPROM oder ein flash-programmierbarerer RAM), einer magnetischen Speichereinrichtung (z. B. eine Diskette oder eine Festplatte), einer optischen Speichereinrichtung (z. B. eine CD-ROM), einer PC-Karte (z. B. eine PCMCIA-Karte) oder einer weiteren Speichereinrichtung.The computer program may be embodied in any form (e.g., source code form, computer-executable form, or an intermediate form), either permanent or transient on a tangible storage medium such as a computer drive. a semiconductor memory device (e.g. RAM, ROM, PROM, EEPROM or flash-programmable RAM), a magnetic memory device (e.g. floppy disk or hard disk), an optical memory device (e.g .a CD-ROM), a PC card (e.g. a PCMCIA card) or other storage device.
Das Computerprogramm kann in einer beliebigen Form in einem Signal festgehalten sein, das unter Verwendung einer beliebigen von verschiedenen Kommunikationstechniken, die analoge Technologien, digitale Technologien, optische Technologien, Drahtlostechnologien (z. B. Bluetooth), Netztechnologien und Internettechnologien enthalten, jedoch nicht darauf beschränkt sind, zu einem Computer gesendet werden kann.The computer program may be embodied in any form in a signal transmitted using any of a variety of communication technologies, including but not limited to analog technologies, digital technologies, optical technologies, wireless technologies (e.g., Bluetooth), network technologies, and Internet technologies are, can be sent to a computer.
Das Computerprogramm kann in einer beliebigen Form als ein entnehmbares Speichermedium mit begleitender gedruckter oder elektronischer Dokumentation (z. B. eingeschrumpfte Software) verteilt werden, in einem Computersystem (z. B. in einem System-ROM oder einer Festplatte) vorgeladen sein oder von einem Server oder einer elektronischen Pinnwand über das Kommunikationssystem (z. B. das Internet oder das weltweite Netz) verteilt werden.The computer program may be distributed in any form as a removable storage medium with accompanying printed or electronic documentation (e.g., shrink-wrapped software), preloaded into or from a computer system (e.g., in a system ROM or hard disk). Server or an electronic bulletin board over the communication system (z. B. the Internet or the global network) are distributed.
Hardware-Logik (die programmierbare Logik zur Verwendung mit einer programmierbaren Logikeinrichtung enthält), die die gesamte oder einen Teil der Funktionalität, die hier zuvor beschrieben wurde, implementiert, kann unter Verwendung traditioneller manueller Verfahren entworfen werden oder kann elektronisch unter Verwendung verschiedener Werkzeuge wie z. B. computergestützten Entwurfs (CAD), einer Hardware-Beschreibungssprache (z. B. VHDL oder AHDL) oder einer PLD-Programmiersprache (z. B. PALASM, ABEL oder CUPL) entworfen, aufgenommen, simuliert oder dokumentiert werden.Hardware logic (including programmable logic for use with a programmable logic device) that implements all or part of the functionality previously described herein can be designed using traditional manual methods or can be designed electronically using various tools such as . B. computer aided design (CAD), a hardware description language (e.g. VHDL or AHDL) or a PLD programming language (e.g. PALASM, ABEL or CUPL) can be designed, recorded, simulated or documented.
Ein beliebiges geeignetes computerlesbares Medium kann verwendet werden. Das computerlesbare Medium kann z. B. ein Elektronik-, Magnet-, Optik-, Elektromagnet-, Infrarot- oder Halbleiter-System, eine entsprechende Vorrichtung, eine entsprechende Einrichtung oder ein entsprechendes Medium sein, ohne jedoch darauf beschränkt zu sein.Any suitable computer-readable medium can be used. The computer-readable medium can e.g. B. but not limited to an electronic, magnetic, optical, electromagnetic, infrared, or semiconductor system, apparatus, device, or medium.
Spezifischere Beispiele des computerlesbaren Mediums enthalten eine elektrische Verbindung, die einen oder mehrere Drähte besitzt, oder ein weiteres materielles Speichermedium wie z. B. eine tragbare Computerdiskette, eine Festplatte, einen Schreib-/Lese-Speicher (RAM), einen schreibgeschützten Speicher (ROM), einen löschbaren programmierbaren schreibgeschützten Speicher (EPROM oder Flash-Speicher), einen kompakten Datenträger mit schreibgeschütztem Speicher (CD-ROM) oder eine weitere optische oder magnetische Speichereinrichtung, sind jedoch nicht darauf beschränkt.More specific examples of the computer-readable medium include an electrical connection having one or more wires, or another tangible storage medium such as a memory card. a portable computer floppy disk, a hard disk, random access memory (RAM), read-only memory (ROM), erasable programmable read-only memory (EPROM or flash memory), compact disk read-only memory (CD-ROM). ) or other optical or magnetic storage device, but not limited thereto.
Eine programmierbare Logik kann entweder permanent oder transitorisch in einem materiellen Speichermedium wie z. B. einer Halbleiterspeichereinrichtung (z. B. ein RAM, ein ROM, ein PROM, ein EEPROM oder ein programmierbarer Flash-RAM), einer Magnetspeichereinrichtung (z. B. eine Diskette oder eine Festplatte), einer optischen Speichereinrichtung (z. B. eine CD-ROM) oder einer weiteren Speichereinrichtung festgehalten sein.Programmable logic can be either permanent or transient in a tangible storage medium such as a memory card. a semiconductor memory device (e.g. RAM, ROM, PROM, EEPROM or programmable flash RAM), a magnetic memory device (e.g. floppy disk or hard disk), an optical memory device (e.g. a CD-ROM) or another storage device.
Die programmierbare Logik kann in einem Signal festgehalten sein, das unter Verwendung einer beliebigen von verschiedenen Kommunikationstechniken, die analoge Technologien, digitale Technologien, optische Technologien, Drahtlostechnologien (z. B. Bluetooth), Netztechnologien und Internettechnologien enthalten, jedoch nicht darauf beschränkt sind, zu einem Computer gesendet werden kann.The programmable logic may be embodied in a signal communicated using any of a variety of communications technologies, including but not limited to analog technologies, digital technologies, optical technologies, wireless technologies (e.g., Bluetooth), network technologies, and internet technologies can be sent to a computer.
Die programmierbare Logik kann als ein entnehmbares Speichermedium mit begleitender gedruckter oder elektronischer Dokumentation (z. B. eingeschrumpfte Software) verteilt werden, in einem Computersystem (z. B. in einem System-ROM oder einer Festplatte) vorgeladen sein oder von einem Server oder einer elektronischen Pinnwand über das Kommunikationssystem (z. B. das Internet oder das weltweite Netz) verteilt werden. Selbstverständlich können einige Ausführungsformen der Offenbarung als eine Kombination sowohl von Software (z. B. ein Computerprogrammprodukt) als auch Hardware implementiert werden. Nochmals weitere Aspekte der vorliegenden Offenbarung sind vollständig als Hardware oder vollständig als Software implementiert.The programmable logic may be distributed as a removable storage medium with accompanying printed or electronic documentation (e.g., shrink-wrapped software), preloaded into a computer system (e.g., in a system ROM or hard drive), or downloaded from a server or a electronic bulletin board via the communication system (e.g. the Internet or the worldwide network). Of course, some embodiments of the disclosure may be implemented as a combination of both software (e.g., a computer program product) and hardware. Still other aspects of the present disclosure are implemented entirely in hardware or entirely in software.
Während bestimmte beispielhafte Aspekte in den begleitenden Zeichnungen beschrieben und gezeigt worden sind, versteht sich, dass derartige Ausführungsformen lediglich die breite Offenbarung veranschaulichend und sie nicht einschränkend sind und dass die Aspekte der vorliegenden Offenbarung nicht auf die spezifischen Konstruktionen und Anordnungen, die gezeigt und beschrieben werden, beschränkt sind, da verschiedene weitere Änderungen, Kombinationen, Auslassungen, Änderungen und Ersetzungen zusätzlich zu denen, die in den oben beschriebenen Absätzen dargelegt sind, möglich sind.While certain exemplary aspects have been described and shown in the accompanying drawings, it is to be understood that such embodiments are merely illustrative of the broad disclosure and are not limiting, and that aspects of the present disclosure are not limited to the specific constructions and arrangements shown and described , are limited as various other modifications, combinations, omissions, changes and substitutions are possible in addition to those set forth in the paragraphs described above.
Fachleute werden begrüßen, dass verschiedene Anpassungen, Änderungen und/oder Kombinationen der gerade beschriebenen Aspekte und Beispiele konfiguriert werden können. Deshalb versteht sich, dass im Umfang der beigefügten Ansprüche die Offenbarung anders als hier speziell beschrieben praktiziert werden kann. Zum Beispiel können, sofern es nicht ausdrücklich anders angegeben ist, die Schritte von Prozessen, die hier beschrieben werden, in Reihenfolgen durchgeführt werden, die von denen, die hier beschrieben werden, verschieden sind, und ein oder mehrere Schritte können kombiniert, geteilt oder gleichzeitig durchgeführt werden. Fachleute werden außerdem begrüßen, dass, im Hinblick auf die Offenbarung verschiedene Aspekte oder Beispiele der Offenbarung, die hier beschrieben ist, kombiniert werden können, um weitere Aspekte oder Beispiele der Offenbarung zu bilden.Those skilled in the art will appreciate that various adaptations, modifications, and/or combinations of the aspects and examples just described can be configured. Therefore, it is to be understood that within the scope of the appended claims, the disclosure may be practiced otherwise than as specifically described herein. For example, unless expressly stated otherwise, the steps of processes described herein may be performed in different orders than those described herein, and one or more steps may be combined, divided, or concurrent be performed. Those skilled in the art will also appreciate that, given the disclosure, various aspects or examples of the disclosure described herein can be combined to form further aspects or examples of the disclosure.
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- US 2019/0317519 A1 [0004]US 2019/0317519 A1 [0004]
- WO 2019/177562 A1 [0005]WO 2019/177562 A1 [0005]
Claims (14)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020210188.4A DE102020210188A1 (en) | 2020-08-12 | 2020-08-12 | VEHICLE ENVIRONMENT RECOGNITION DEVICE |
PCT/JP2021/028524 WO2022034815A1 (en) | 2020-08-12 | 2021-08-02 | Vehicle surroundings recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020210188.4A DE102020210188A1 (en) | 2020-08-12 | 2020-08-12 | VEHICLE ENVIRONMENT RECOGNITION DEVICE |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020210188A1 true DE102020210188A1 (en) | 2022-02-17 |
Family
ID=80000638
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020210188.4A Pending DE102020210188A1 (en) | 2020-08-12 | 2020-08-12 | VEHICLE ENVIRONMENT RECOGNITION DEVICE |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102020210188A1 (en) |
WO (1) | WO2022034815A1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019177562A1 (en) | 2018-03-15 | 2019-09-19 | Harman International Industries, Incorporated | Vehicle system and method for detecting objects and object distance |
US20190317519A1 (en) | 2018-04-17 | 2019-10-17 | Baidu Usa Llc | Method for transforming 2d bounding boxes of objects into 3d positions for autonomous driving vehicles (advs) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018173860A (en) * | 2017-03-31 | 2018-11-08 | アイシン・エィ・ダブリュ株式会社 | Travel support system and computer program |
JP7050827B2 (en) * | 2018-02-19 | 2022-04-08 | 三菱電機株式会社 | Driving support device and video display method |
-
2020
- 2020-08-12 DE DE102020210188.4A patent/DE102020210188A1/en active Pending
-
2021
- 2021-08-02 WO PCT/JP2021/028524 patent/WO2022034815A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019177562A1 (en) | 2018-03-15 | 2019-09-19 | Harman International Industries, Incorporated | Vehicle system and method for detecting objects and object distance |
US20190317519A1 (en) | 2018-04-17 | 2019-10-17 | Baidu Usa Llc | Method for transforming 2d bounding boxes of objects into 3d positions for autonomous driving vehicles (advs) |
Also Published As
Publication number | Publication date |
---|---|
WO2022034815A1 (en) | 2022-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102019120880A1 (en) | END-TO-END-DEEP-GENERATIVE MODEL FOR SIMULTANEOUS LOCALIZATION AND IMAGE | |
DE102020110458A1 (en) | VEHICLE PATH FORECAST | |
DE102019133536A1 (en) | Method and apparatus for enabling sequential bottom view image projection synthesis and complicated scene reconstruction at map anomaly hotspots | |
DE102019113856A1 (en) | SYSTEMS, METHODS AND CONTROLS FOR AN AUTONOMOUS VEHICLE THAT IMPLEMENT AUTONOMOUS DRIVING AGENTS AND GUIDANCE LEARNERS TO CREATE AND IMPROVE GUIDELINES BASED ON THE COLLECTIVE DRIVING EXPERIENCES OF THE AUTONOMOUS DRIVING AGENTS | |
DE102019115874A1 (en) | SYSTEMS AND METHODS FOR IMPROVED DISTANCE ESTIMATION BY A MONOCAMERA USING RADAR AND MOTION DATA | |
DE102019115455A1 (en) | FOCUS-BASED MARKING OF SENSOR DATA | |
DE102017126877A1 (en) | Automated copilot control for autonomous vehicles | |
DE102018120845A1 (en) | Method and device for monitoring an autonomous vehicle | |
DE102019110430A1 (en) | SIDE CONDITIONS OF SIMULTANEOUS POSITION DETERMINATION AND CARD PROCESSING IN GENERATIVE ADVERSARIAL NETWORKS FOR MONOCULAR DEPTH ESTIMATION | |
DE102016224604A1 (en) | System and method for verifying map data for a vehicle | |
DE102018101465A1 (en) | TRAINING AN AUTOMATIC AMPEL RECOGNITION MODULE USING SIMULATED PICTURES | |
DE102019101938A1 (en) | Creation of cognitive maps for vehicles | |
DE102016107705A1 (en) | Reactive path planning for autonomous driving | |
EP2594446B1 (en) | Apparatus and method for operating a vehicle | |
DE102019119162A1 (en) | POSEN ESTIMATE | |
DE102020113848A1 (en) | ECCENTRICITY FUSION | |
DE102017206847A1 (en) | Method for automatically creating and updating a data set for an autonomous vehicle | |
DE112018005907T5 (en) | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS, PROGRAM AND MOVABLE BODY | |
DE112015007054B4 (en) | TRAVEL SUPPORT DEVICE, TRAVEL SUPPORT SYSTEM, TRAVEL SUPPORT PROCEDURE AND TRAVEL SUPPORT PROGRAM | |
CN111209956A (en) | Sensor data fusion method, and vehicle environment map generation method and system | |
DE102020102725A1 (en) | METHOD AND DEVICE FOR A CONTEXT-DEPENDENT HIGH-RESOLUTION MAP FROM THE CROWD SOURCE | |
DE112021005708T5 (en) | Methods and systems for tracking a lane over time | |
EP4088224A1 (en) | Method for combining a plurality of data sets for generating a current lane model of a road and device for data processing | |
DE112022001546T5 (en) | Systems and methods for generating object recognition labels using foveal image magnification for autonomous driving | |
DE102021114724A1 (en) | IMPROVED VEHICLE OPERATION |