DE102020123808A1 - Method and system for acquiring environmental data to ensure environmental recognition - Google Patents

Method and system for acquiring environmental data to ensure environmental recognition Download PDF

Info

Publication number
DE102020123808A1
DE102020123808A1 DE102020123808.8A DE102020123808A DE102020123808A1 DE 102020123808 A1 DE102020123808 A1 DE 102020123808A1 DE 102020123808 A DE102020123808 A DE 102020123808A DE 102020123808 A1 DE102020123808 A1 DE 102020123808A1
Authority
DE
Germany
Prior art keywords
vehicle
data
environment
environment data
vehicles
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020123808.8A
Other languages
German (de)
Inventor
Andre Roskopf
Egon Ye
Philip SPIEGEL
Matthias Althoff
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Technische Universitaet Muenchen
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG, Technische Universitaet Muenchen filed Critical Bayerische Motoren Werke AG
Priority to DE102020123808.8A priority Critical patent/DE102020123808A1/en
Publication of DE102020123808A1 publication Critical patent/DE102020123808A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9316Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9322Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93272Sensor installation details in the back of the vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Acoustics & Sound (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Offenbarung betrifft ein Verfahren zum Erfassen von Umgebungsdaten zur Absicherung einer Umfelderkennung. Das Verfahren umfasst ein Bereitstellen eines ersten Fahrzeugs, an dem eine erste Sensoranordnung vorhanden ist, und eines zweiten Fahrzeugs, an dem eine zweite Sensoranordnung vorhanden ist; ein Erfassen, durch die erste Sensoranordnung des ersten Fahrzeugs, von ersten Umfelddaten; ein Erfassen, durch die zweiten Sensoranordnung des zweiten Fahrzeugs, von zweiten Umfelddaten, wobei die ersten Umfelddaten und die zweiten Umfelddaten zeitlich synchronisiert sind; und ein Fusionieren der ersten Umfelddaten und der zweiten Umfelddaten durch eine zentrale Einheit zur Absicherung einer Umfelderkennung.The present disclosure relates to a method for capturing environmental data to ensure environmental recognition. The method includes providing a first vehicle having a first sensor assembly and a second vehicle having a second sensor assembly; a detection, by the first sensor arrangement of the first vehicle, of first surroundings data; a detection, by the second sensor arrangement of the second vehicle, of second environment data, the first environment data and the second environment data being synchronized in time; and a merging of the first environment data and the second environment data by a central unit for safeguarding an environment detection.

Description

Die vorliegende Offenbarung betrifft ein Verfahren zum Erfassen vo Umgebungsdaten zur Absicherung einer Umfelderkennung, ein Speichermedium zum Ausführen des Verfahrens, und ein System zum Erfassen von Umgebungsdaten zur Absicherung einer Umfelderkennung. Die vorliegende Offenbarung betrifft insbesondere ein dynamisches Sensornetzwerk zur Sichtbereichserweiterung für die Absicherung der Umfelderkennung.The present disclosure relates to a method for capturing environmental data to validate environmental recognition, a storage medium for executing the method, and a system for capturing environmental data to validate environmental recognition. The present disclosure relates in particular to a dynamic sensor network for expanding the field of vision for safeguarding the environment detection.

Stand der TechnikState of the art

Die Entwicklung von Fahrassistenzfunktionen beispielsweise zum (teil-)autonom Fahren gewinnt stetig an Bedeutung. Um eine möglichst präzise Umgebungswahrnehmung für Fahrerassistenzsysteme zu ermöglichen können Sensormessungen von diversen Sensortypen, wie z.B. Kameras, LiDAR und Radaren verwendet werden. Jeder Sensortyp unterliegt anderen physikalischen Messprinzipien. Das Fahrzeugumfeld besteht in der Realität aus sehr vielen unterschiedlichen Objekten/Subjekten wie verschiedenen Fahrzeugtypen, Menschen und Tieren, statischen Objekten wie Mülltonnen, Verkehrsleitsystemen, natürlichen Objekten und Terrain. Da die Wahrnehmung all dieser Objekte/Subjekte jeweils auch abhängig von dem verwendeten Messprinzip ist, ist es schwierig, eine präzise Umgebungswahrnehmung sicherzustellen.The development of driver assistance functions, for example for (partially) autonomous driving, is becoming increasingly important. In order to enable driver assistance systems to perceive the environment as precisely as possible, sensor measurements from various sensor types such as cameras, LiDAR and radars can be used. Each sensor type is subject to different physical measurement principles. In reality, the vehicle environment consists of many different objects/subjects such as different vehicle types, people and animals, static objects such as garbage cans, traffic control systems, natural objects and terrain. Since the perception of all these objects/subjects also depends on the measuring principle used, it is difficult to ensure a precise perception of the surroundings.

Zur Absicherung der Umfelderkennung im Fahrzeug wird eine möglichst genaue und zuverlässige Abbildung (Ground Truth) der Fahrzeugumgebung für den Abgleich benötigt. Ein Ansatz zur Erzeugung der Ground Truth basiert auf der Offline-Prozessierung aufgezeichneter Sensordaten. Dabei wurde beobachtet, dass die Detektionsqualität weiterhin maßgeblich durch die mit der Entfernung abfallenden Sensorauflösung (z.B. Lidar) bestimmt wird. Für eine weitere Verbesserung der Ground Truth müsste auch von entfernteren Objekten eine höhere Dichte an Sensordetektionen vorliegen. Ein möglicher Ansatz hierfür ist der Einsatz hochauflösender Sensoren. Diese sind jedoch teuer und können zudem nicht das Problem in Bezug auf verdeckte Objekte lösen. Zudem ist eine Umrüstung eines Dachaufbaus für jedes abzusichernde Fahrzeug nicht wünschenswert.In order to secure the recognition of the environment in the vehicle, a mapping (ground truth) of the vehicle environment that is as accurate and reliable as possible is required for the comparison. One approach to generating ground truth is based on offline processing of recorded sensor data. It was observed that the detection quality is still largely determined by the sensor resolution (e.g. lidar), which decreases with distance. For a further improvement in the ground truth, there would also have to be a higher density of sensor detections from more distant objects. One possible approach for this is the use of high-resolution sensors. However, these are expensive and cannot solve the problem related to occluded objects. In addition, retrofitting a roof structure for each vehicle to be protected is not desirable.

Offenbarung der ErfindungDisclosure of Invention

Es ist eine Aufgabe der vorliegenden Offenbarung, ein Verfahren zum Erfassen von Umgebungsdaten zur Absicherung einer Umfelderkennung, ein Speichermedium zum Ausführen des Verfahrens, und ein System zum Erfassen von Umgebungsdaten zur Absicherung einer Umfelderkennung anzugeben, die eine verbesserte Absicherung der Umfelderkennung, insbesondere für automatisiert fahrende Fahrzeuge, ermöglichen.It is an object of the present disclosure to specify a method for acquiring environment data to validate environment recognition, a storage medium for executing the method, and a system for acquiring environment data to validate environment recognition, which improves validation of environment recognition, in particular for automated drivers vehicles.

Diese Aufgabe wird durch den Gegenstand der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.This object is solved by the subject matter of the independent claims. Advantageous configurations are specified in the dependent claims.

Gemäß einem unabhängigen Aspekt der vorliegenden Offenbarung ist Verfahren zum Erfassen von Umgebungsdaten zur Absicherung einer Umfelderkennung angegeben. Das Verfahren umfasst ein Bereitstellen eines ersten Fahrzeugs, an dem eine erste Sensoranordnung vorhanden ist, und eines zweiten Fahrzeugs, an dem eine zweite Sensoranordnung vorhanden ist; ein Erfassen, durch die erste Sensoranordnung des ersten Fahrzeugs, von ersten Umfelddaten; ein Erfassen, durch die zweite Sensoranordnung des zweiten Fahrzeugs, von zweiten Umfelddaten, wobei die ersten Umfelddaten und die zweiten Umfelddaten zeitlich synchronisiert sind; und ein Fusionieren der ersten Umfelddaten und der zweiten Umfelddaten durch eine zentrale Einheit zur Erzeugung einer zuverlässigen Referenz für die Absicherung einer Umfelderkennung.According to an independent aspect of the present disclosure, a method for capturing environmental data for safeguarding environmental recognition is specified. The method includes providing a first vehicle having a first sensor assembly and a second vehicle having a second sensor assembly; a detection, by the first sensor arrangement of the first vehicle, of first surroundings data; a detection, by the second sensor arrangement of the second vehicle, of second environment data, the first environment data and the second environment data being synchronized in time; and a merging of the first environment data and the second environment data by a central unit to generate a reliable reference for safeguarding an environment detection.

Erfindungsgemäß werden die Umfelddaten eines Fahrzeugs durch Umfelddaten eines anderen Fahrzeugs ergänzt, so dass eine verbesserte Umfeldwahrnehmung z.B. während Testfahrten mit Testfahrzeugen erfolgen kann. Zum Beispiel kann ein Objekt für ein Fahrzeug verdeckt aber für das andere Fahrzeug sichtbar bzw. erfassbar sein. Durch die Verwendung zusätzlicher Fahrzeuge zur Erweiterung des Sichtbereichs eines einzelnen Fahrzeugs wird also eine umfassendere Wahrnehmung einer Verkehrssituation ermöglicht. Die aufgezeichneten Daten werden z.B. offline ohne Online-Kommunikation auf Rohdatenebene fusioniert und für die digitale Abbildung der Umgebung (z.B. Objektdaten, Fahrstreifeninformationen etc.) zur Verfügung gestellt.According to the invention, the surroundings data of a vehicle are supplemented by surroundings data from another vehicle, so that an improved perception of the surroundings can take place, e.g. during test drives with test vehicles. For example, an object may be obscured from one vehicle but visible or detectable to the other vehicle. A more comprehensive perception of a traffic situation is thus made possible by the use of additional vehicles to extend the field of vision of an individual vehicle. The recorded data is e.g. merged offline without online communication at raw data level and made available for the digital mapping of the environment (e.g. object data, lane information, etc.).

Insbesondere kann aufgrund des erweiterten Sensorsichtbereichs eine genauere und zuverlässigere Rekonstruktion der Umgebung durchgeführt werden. Die auf diese Weise gewonnene „Ground Truth“ erlaubt durch einen Abgleich eine einfachere Identifikation von Schwachstellen in Online-Funktionen, wodurch eine verlässlichere Absicherung der Umfelderkennung in (teil-)autonomen Fahrzeugen durchgeführt werden kann.In particular, due to the extended sensor field of view, a more accurate and reliable reconstruction of the environment can be carried out. The “ground truth” obtained in this way allows weak points in online functions to be identified more easily by means of a comparison, which means that the environment recognition in (partially) autonomous vehicles can be more reliably safeguarded.

Der Begriff Fahrzeug umfasst PKW, LKW, Busse, Wohnmobile, Krafträder, etc., die der Beförderung von Personen, Gütern, etc. dienen. Insbesondere umfasst der Begriff Kraftfahrzeuge zur Personenbeförderung. Das erste Fahrzeug und das zweite Fahrzeug (sowie das wenigstens eine weitere Fahrzeug) können insbesondere Testfahrzeuge sein, die bei der Entwicklung von Fahrassistenzsystemen zum automatisierten Fahren eingesetzt werden.The term vehicle includes cars, trucks, buses, mobile homes, motorcycles, etc., which are used to transport people, goods, etc. In particular, the term includes motor vehicles for passenger transport. The first vehicle and the second vehicle (and the at least one additional Vehicle) can in particular be test vehicles that are used in the development of driver assistance systems for automated driving.

Vorzugsweise sind das erste Fahrzeug und das zweite Fahrzeug dedizierte Referenzfahrzeuge. Insbesondere können zur Absicherung unterschiedlicher Fahrzeugderivate dedizierte Referenzfahrzeuge, jeweils ausgestattet mit verbesserter Referenzsensorik, zur Verfügung gestellt werden. Dies bietet eine hohe Flexibilität für die Absicherung, indem der Sichtbereich von Fahrzeugen, in denen nur ein Serien-Sensorsetup verbaut ist, direkt mithilfe eines dedizierten Referenzfahrzeugs erweitert werden kann. Zur Bereitstellung einer umfassenden Datengrundlage können zudem mehrere Referenzfahrzeuge im Umfeld des abzusichernden Fahrzeugs mit eingebunden werden, die eine größere Abdeckung erzielen.Preferably, the first vehicle and the second vehicle are dedicated reference vehicles. In particular, dedicated reference vehicles, each equipped with improved reference sensors, can be made available to validate different vehicle derivatives. This offers a high degree of flexibility for validation, as the field of view of vehicles in which only one series sensor setup is installed can be expanded directly using a dedicated reference vehicle. In order to provide a comprehensive data base, several reference vehicles in the vicinity of the vehicle to be secured can also be integrated, which achieve greater coverage.

Vorzugsweise werden die ersten Umfelddaten und die zweiten Umfelddaten während einer Kolonnenfahrt des ersten Fahrzeugs und des zweiten Fahrzeugs erfasst. Zum Beispiel kann das erste Fahrzeug ein Referenzfahrzeug sein, das eine Testfahrt zum Sammeln von Umfelddaten, die für eine Absicherung der Umfelderkennung verwendet werden, unternimmt. Das zweite Fahrzeug kann ein Folgefahrzeug sein, das dem Referenzfahrzeug folgt und dessen Umfelderkennung bzw. dessen Sichtbereich erweitert. Alternativ kann das zweite Fahrzeug ein vorausfahrendes Fahrzeug sein, das vor dem Referenzfahrzeug fährt und dessen Umfelderkennung bzw. dessen Sichtbereich erweitert.The first environment data and the second environment data are preferably recorded while the first vehicle and the second vehicle are driving in a convoy. For example, the first vehicle can be a reference vehicle that undertakes a test drive to collect environment data that is used to validate the environment detection. The second vehicle can be a following vehicle that follows the reference vehicle and expands its environment recognition or its field of vision. Alternatively, the second vehicle can be a vehicle driving ahead, which drives in front of the reference vehicle and expands its environment recognition or its field of vision.

Die vorliegende Offenbarung ist jedoch nicht auf das erste Fahrzeug und das zweite Fahrzeug beschränkt, und es können mehr als zwei Fahrzeuge mit entsprechenden Sensoranordnungen am erfindungsgemäßen Verfahren beteiligt sein. Damit ist das Verfahren skalierbar. Je mehr Fahrzeuge beteiligt sind, desto genauer wird die Umfelderkennung. Beispielweise kann ein Referenzfahrzeug vorgesehen sein, dem eines oder mehrere Folgefahrzeuge folgen und/oder vorausfahren, um den Sichtbereich des Referenzfahrzeugs zu erweitern.However, the present disclosure is not limited to the first vehicle and the second vehicle, and more than two vehicles with corresponding sensor arrangements can be involved in the method according to the invention. This makes the process scalable. The more vehicles involved, the more accurate the environment detection becomes. For example, a reference vehicle can be provided which is followed and/or preceded by one or more following vehicles in order to extend the field of view of the reference vehicle.

Insbesondere kann wenigstens ein weiteres Fahrzeug, an dem eine weitere Sensoranordnung vorhanden ist, bereitgestellt sein. Die weitere Sensoranordnung kann weitere Umfelddaten erfassen, die mit den ersten Umfelddaten des ersten Fahrzeugs und den zweiten Umfelddaten des zweiten Fahrzeugs fusioniert werden. Die Beschreibungen des vorliegenden Dokuments gelten dabei gleichermaßen für die Verwendung eines einzelnen zusätzlichen Fahrzeugs oder mehrerer zusätzlicher Fahrzeuge zur Sichtbereichserweiterung.In particular, at least one additional vehicle, on which an additional sensor arrangement is present, can be provided. The further sensor arrangement can record further surroundings data, which are merged with the first surroundings data of the first vehicle and the second surroundings data of the second vehicle. The descriptions in this document apply equally to the use of a single additional vehicle or multiple additional vehicles to extend the field of vision.

Vorzugsweise umfasst das Verfahren weiter ein Bestimmen einer Relativposition zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug, wobei das Fusionieren der ersten Umfelddaten und der zweiten Umfelddaten ein Ausrichten der ersten Umfelddaten und der zweiten Umfelddaten zueinander basierend auf der Relativposition umfasst. Insbesondere sollten die Relativpositionen der zusätzlichen Fahrzeuge zum betrachteten Fahrzeug bekannt sein, um die Rohdaten der Sensoren der einzelnen Fahrzeuge offline zueinander ausrichten zu können. Zur zuverlässigen Bestimmung dieser Positionen können unterschiedliche Methoden verwendet werden, die im Folgenden erläutert werden. Dabei können die Methoden jeweils einzeln oder in Kombination zum Einsatz kommen.The method preferably also includes determining a relative position between the first vehicle and the second vehicle, the merging of the first environment data and the second environment data including aligning the first environment data and the second environment data with one another based on the relative position. In particular, the relative positions of the additional vehicles to the vehicle under consideration should be known in order to be able to align the raw data from the sensors of the individual vehicles with one another offline. Various methods can be used to reliably determine these positions, which are explained below. The methods can be used individually or in combination.

In einer ersten beispielhaften Methode erfolgt das Bestimmen der Relativposition zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug basierend auf einer absoluten Lokalisierung des ersten Fahrzeugs und des zweiten Fahrzeugs, insbesondere unter Verwendung von Odometrie und/oder DGPS („Differential Global Positioning System“).In a first exemplary method, the relative position between the first vehicle and the second vehicle is determined based on an absolute localization of the first vehicle and the second vehicle, in particular using odometry and/or DGPS (“Differential Global Positioning System”).

In einer zweiten beispielhaften Methode erfolgt das Bestimmen der Relativposition zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug basierend auf einer gegenseitigen Lokalisierung des ersten Fahrzeugs und des zweiten Fahrzeugs unter Verwendung einer Umgebungssensorik der jeweiligen Fahrzeuge.In a second exemplary method, the relative position between the first vehicle and the second vehicle is determined based on a mutual localization of the first vehicle and the second vehicle using an environment sensor system of the respective vehicles.

In einer dritten beispielhaften Methode erfolgt das Bestimmen der Relativposition zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug basierend auf einer Registrierung von Umgebungsrohdaten, die von den Fahrzeugen stammen, basierend auf einer statischen Umgebung der Fahrzeuge.In a third exemplary method, the relative position between the first vehicle and the second vehicle is determined based on a registration of raw environmental data that originate from the vehicles, based on a static environment of the vehicles.

In einer vierten beispielhaften Methode erfolgt das Bestimmen der Relativposition zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug basierend auf einer Lokalisierung der Fahrzeuge jeweils über eine Registrierung von Umgebungsrohdaten gegen eine Umgebungskarte.In a fourth exemplary method, the relative position between the first vehicle and the second vehicle is determined based on a localization of the vehicles, in each case by registering raw data of the surroundings against a map of the surroundings.

Vorzugsweise werden die Umgebungsdaten auf ein körperfestes Koordinatensystem des ersten Fahrzeugs abgebildet. Insbesondere können die Rohsensordaten aller Fahrzeuge auf das körperfeste Koordinatensystem eines einzelnen abzusichernden Fahrzeugs abgebildet werden. Die nachfolgende Prozessierung erzeugt die Ground Truth speziell für das eine Fahrzeug.The environmental data are preferably mapped onto a body-fixed coordinate system of the first vehicle. In particular, the raw sensor data of all vehicles can be mapped to the physical coordinate system of an individual vehicle to be secured. The subsequent processing generates the ground truth specifically for one vehicle.

Vorzugsweise werden die Umgebungsdaten auf ein nichtdrehendes globales Koordinatensystem abgebildet. Dies erlaubt die Erzeugung einer Ground Truth, die weniger anfällig gegenüber der Eigenbewegungsschätzung eines einzelnen Fahrzeugs ist und gleichzeitig allen beteiligten Fahrzeugen äquivalent zur Verfügung steht. Dadurch können mehrere Fahrzeuge gleichzeitig abgesichert werden, wodurch wiederum eine abzusichernde Kilometerleistung bei gleichbleibendem Prozessierungsaufwand erhöht werden kann. The environmental data are preferably mapped onto a non-rotating global coordinate system. This allows for the generation of a ground truth that is less vulnerable to its own path estimation of an individual vehicle and at the same time is available to all vehicles involved. As a result, several vehicles can be protected at the same time, which in turn can increase the mileage to be protected while the processing effort remains the same.

Vorzugsweise umfassen das erste Fahrzeug und das zweite Fahrzeug jeweils eine Umgebungssensorik (d.h. die erste Sensoranordnung und die zweite Sensoranordnung), die eingerichtet ist, um die Umfelddaten zu erfassen. Vorzugsweise umfasst die Umgebungssensorik wenigstens ein LiDAR-System und/oder wenigstens ein Radar-System und/oder wenigstens eine Kamera und/oder wenigstens ein Ultraschall-System und/oder wenigstens einen Laserscanner. Die Umgebungssensorik kann die Umfelddaten (auch als „Umgebungsdaten“ bezeichnet) bereitstellen, die einen Umgebungsbereich des Fahrzeugs abbilden.Preferably, the first vehicle and the second vehicle each include an environment sensor system (i.e. the first sensor arrangement and the second sensor arrangement), which is set up to record the environment data. The environmental sensor system preferably includes at least one LiDAR system and/or at least one radar system and/or at least one camera and/or at least one ultrasound system and/or at least one laser scanner. The environment sensor system can provide the environment data (also referred to as “environment data”), which depict an area surrounding the vehicle.

Vorzugsweise ist die erste Sensoranordnung auf einem Dach des ersten Fahrzeugs angeordnet oder montiert. Ergänzend oder alternativ ist die zweite Sensoranordnung auf einem Dach des zweiten Fahrzeugs angeordnet oder montiert.The first sensor arrangement is preferably arranged or mounted on a roof of the first vehicle. In addition or as an alternative, the second sensor arrangement is arranged or mounted on a roof of the second vehicle.

Gemäß einem weiteren unabhängigen Aspekt der vorliegenden Offenbarung ist ein Software (SW) Programm angegeben. Das SW Programm kann eingerichtet werden, um auf einem oder mehreren Prozessoren ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren zum Erfassen von Umgebungsdaten zur Absicherung einer Umfelderkennung auszuführen.According to another independent aspect of the present disclosure, a software (SW) program is provided. The SW program can be set up to be executed on one or more processors, and thereby to execute the method described in this document for capturing environment data for safeguarding environment recognition.

Gemäß einem weiteren unabhängigen Aspekt der vorliegenden Offenbarung ist ein Speichermedium angegeben. Das Speichermedium kann ein SW Programm umfassen, welches eingerichtet ist, um auf einem oder mehreren Prozessoren ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren zum Erfassen von Umgebungsdaten zur Absicherung einer Umfelderkennung auszuführen.According to another independent aspect of the present disclosure, a storage medium is provided. The storage medium can include a SW program which is set up to be executed on one or more processors and to thereby execute the method described in this document for capturing environmental data in order to safeguard environmental recognition.

Gemäß einem weiteren unabhängigen Aspekt der vorliegenden Offenbarung ist eine Software mit Programmcode zur Durchführung des Verfahrens zum Erfassen von Umgebungsdaten zur Absicherung einer Umfelderkennung auszuführen, wenn die Software auf einer oder mehreren softwaregesteuerten Einrichtungen abläuft.According to a further independent aspect of the present disclosure, software with program code for carrying out the method for capturing data of the surroundings for safeguarding a recognition of the surroundings is to be executed when the software runs on one or more software-controlled devices.

Gemäß einem weiteren unabhängigen Aspekt der vorliegenden Offenbarung ist ein System zum Erfassen von Umgebungsdaten zur Absicherung einer Umfelderkennung angegeben. Das System umfasst wenigstens eine Prozessoreinheit, die eingerichtet ist, um das Verfahren zum Erfassen von Umgebungsdaten zur Absicherung einer Umfelderkennung auszuführen.According to a further independent aspect of the present disclosure, a system for capturing environmental data for safeguarding environmental recognition is specified. The system comprises at least one processor unit that is set up to carry out the method for acquiring data about the surroundings in order to ensure recognition of the surroundings.

Die zentrale Einheit, die die ersten Umfelddaten und die zweiten Umfelddaten erhält, um die Rohdatenfusion durchführt, kann zum Beispiel ein Server und/oder Backend eines Fahrzeugherstellers sein.The central unit that receives the first environment data and the second environment data in order to perform the raw data fusion can be a server and/or backend of a vehicle manufacturer, for example.

Die wenigstens eine Prozessoreinheit bzw. der Prozessor ist ein programmierbares Rechenwerk, also eine Maschine oder eine elektronische Schaltung, die gemäß übergebenen Befehlen andere Elemente steuert und dabei einen Algorithmus (Prozess) vorantreibt.The at least one processor unit or the processor is a programmable arithmetic unit, ie a machine or an electronic circuit that controls other elements according to the commands that have been passed and thereby advances an algorithm (process).

Das erste Fahrzeug und das zweite Fahrzeug (sowie das wenigstens eine weitere Fahrzeug) können insbesondere Testfahrzeuge sein, die bei der Entwicklung von Fahrassistenzsystemen zum automatisierten Fahren eingesetzt werden.The first vehicle and the second vehicle (and the at least one other vehicle) can in particular be test vehicles that are used in the development of driver assistance systems for automated driving.

Unter dem Begriff „automatisiertes Fahren“ kann im Rahmen des Dokuments ein Fahren mit automatisierter Längs- oder Querführung oder ein autonomes Fahren mit automatisierter Längs- und Querführung verstanden werden. Bei dem automatisierten Fahren kann es sich beispielsweise um ein zeitlich längeres Fahren auf der Autobahn oder um ein zeitlich begrenztes Fahren im Rahmen des Einparkens oder Rangierens handeln. Der Begriff „automatisiertes Fahren“ umfasst ein automatisiertes Fahren mit einem beliebigen Automatisierungsgrad. Beispielhafte Automatisierungsgrade sind ein assistiertes, teilautomatisiertes, hochautomatisiertes oder vollautomatisiertes Fahren. Diese Automatisierungsgrade wurden von der Bundesanstalt für Straßenwesen (BASt) definiert (siehe BASt-Publikation „Forschung kompakt“, Ausgabe 11/2012).In the context of the document, the term "automated driving" can be understood as driving with automated longitudinal or lateral guidance or autonomous driving with automated longitudinal and lateral guidance. Automated driving can be, for example, driving on the freeway for a longer period of time or driving for a limited time as part of parking or manoeuvring. The term "automated driving" includes automated driving with any degree of automation. Exemplary degrees of automation are assisted, partially automated, highly automated or fully automated driving. These degrees of automation were defined by the Federal Highway Research Institute (BASt) (see BASt publication "Research compact", issue 11/2012).

Beim assistierten Fahren führt der Fahrer dauerhaft die Längs- oder Querführung aus, während das System die jeweils andere Funktion in gewissen Grenzen übernimmt. Beim teilautomatisierten Fahren (TAF) übernimmt das System die Längs- und Querführung für einen gewissen Zeitraum und/oder in spezifischen Situationen, wobei der Fahrer das System wie beim assistierten Fahren dauerhaft überwachen muss. Beim hochautomatisierten Fahren (HAF) übernimmt das System die Längs- und Querführung für einen gewissen Zeitraum, ohne dass der Fahrer das System dauerhaft überwachen muss; der Fahrer muss aber in einer gewissen Zeit in der Lage sein, die Fahrzeugführung zu übernehmen. Beim vollautomatisierten Fahren (VAF) kann das System für einen spezifischen Anwendungsfall das Fahren in allen Situationen automatisch bewältigen; für diesen Anwendungsfall ist kein Fahrer mehr erforderlich.With assisted driving, the driver constantly performs longitudinal or lateral guidance, while the system takes over the other function within certain limits. With semi-automated driving (TAF), the system takes over longitudinal and lateral guidance for a certain period of time and/or in specific situations, whereby the driver has to constantly monitor the system, as with assisted driving. With highly automated driving (HAD), the system takes over longitudinal and lateral guidance for a certain period of time without the driver having to constantly monitor the system; however, the driver must be able to take control of the vehicle within a certain period of time. With fully automated driving (VAF), the system can automatically handle driving in all situations for a specific application; a driver is no longer required for this application.

Die vorstehend genannten vier Automatisierungsgrade entsprechen den SAE-Level 1 bis 4 der Norm SAE J3016 (SAE - Society of Automotive Engineering). Beispielsweise entspricht das hochautomatisierte Fahren (HAF) Level 3 der Norm SAE J3016. Ferner ist in der SAE J3016 noch der SAE-Level 5 als höchster Automatisierungsgrad vorgesehen, der in der Definition der BASt nicht enthalten ist. Der SAE-Level 5 entspricht einem fahrerlosen Fahren, bei dem das System während der ganzen Fahrt alle Situationen wie ein menschlicher Fahrer automatisch bewältigen kann; ein Fahrer ist generell nicht mehr erforderlich.The four levels of automation mentioned above correspond to SAE levels 1 to 4 of the SAE J3016 standard (SAE - Society of Automotive Engineering). For example, highly automated driving (HAF) corresponds to level 3 of the SAE J3016 standard. Furthermore, SAE J3016 also provides SAE Level 5 as the highest degree of automation, which is not included in the BASt definition. SAE Level 5 corresponds to driverless driving, in which the system can automatically handle all situations like a human driver throughout the journey; a driver is generally no longer required.

Ein automatisiert fahrendes Fahrzeug lenkt und/oder bremst und/oder beschleunigt selbstständig basierend auf einer Fahrstrategie. Die Fahrstrategie kann basierend auf Umfelddaten der Umfeldsensorik, Straßenzustand, Verkehrslage, Wetterlage, etc. bestimmt werden. Die Umsetzung der bestimmten Fahrstrategie erfolgt durch den Antrieb, die Lenkung und/oder die Bremsen.An automated vehicle steers and/or brakes and/or accelerates independently based on a driving strategy. The driving strategy can be determined based on environmental data from the environmental sensors, road conditions, traffic conditions, weather conditions, etc. The specific driving strategy is implemented by the drive, the steering and/or the brakes.

Figurenlistecharacter list

Ausführungsbeispiele der Offenbarung sind in den Figuren dargestellt und werden im Folgenden näher beschrieben. Es zeigen:

  • 1 ein Flussdiagram eines Verfahrens zum Erfassen von Umgebungsdaten zur Absicherung einer Umfelderkennung gemäß Ausführungsformen der vorliegenden Offenbarung,
  • 2A und 2B eine Erweiterung eines Sichtfelds eines Fahrzeugs durch wenigstens ein anderes Fahrzeug gemäß Ausführungsformen der vorliegenden Offenbarung,
  • 3A bis C Methoden zur Lokalisierung von Fahrzeugen gemäß Ausführungsformen der vorliegenden Offenbarung,
  • 4A ein Abbilden der Rohsensordaten aller Fahrzeuge auf das körperfeste Koordinatensystem eines einzelnen abzusichernden Fahrzeugs,
  • 4B ein Abbilden der Rohsensordaten aller Fahrzeuge auf ein nichtdrehendes globales Koordinatensystem, und
  • 5 einen Ablauf eines Verfahrens zum Erfassen von Umgebungsdaten zur Absicherung einer Umfelderkennung gemäß weiteren Ausführungsformen der vorliegenden Offenbarung.
Exemplary embodiments of the disclosure are shown in the figures and are described in more detail below. Show it:
  • 1 a flowchart of a method for capturing environment data to ensure environment detection according to embodiments of the present disclosure,
  • 2A and 2 B an extension of a field of view of a vehicle by at least one other vehicle according to embodiments of the present disclosure,
  • 3A until C Methods for locating vehicles according to embodiments of the present disclosure,
  • 4A a mapping of the raw sensor data of all vehicles to the body-fixed coordinate system of an individual vehicle to be secured,
  • 4B mapping all vehicles' raw sensor data to a non-rotating global coordinate system, and
  • 5 a sequence of a method for acquiring environmental data for safeguarding an environment detection according to further embodiments of the present disclosure.

Ausführungsformen der OffenbarungEmbodiments of the Disclosure

Im Folgenden werden, sofern nicht anders vermerkt, für gleiche und gleichwirkende Elemente gleiche Bezugszeichen verwendet.Unless otherwise noted, the same reference symbols are used below for the same elements and those with the same effect.

Aktuell gibt es keine allgemeingültige Vorgehensweise zur Absicherung der Umfelderkennung für das Autonome Fahren. Ein potenzieller Ansatz liegt im Abgleich der fahrzeugeigenen mit einer offline prozessierten Umfelderkennung. Der Vorteil der Offline-Prozessierung liegt hierbei in der Berücksichtigung von Zukunftsinformationen für die Zustandsschätzung. Zur weiteren Entkopplung der Ground Truth von der fahrzeugeigenen Umfelderkennung sowie zur Gewinnung besserer Sensordaten kann ein Dachaufbau mit Referenzsensoren verwendet werden. Einschränkend gilt dabei, dass zur Absicherung unterschiedlicher Derivate der Dachaufbau unter Umrüstaufwand auf einzelne Fahrzeuge umgebaut werden muss.There is currently no generally applicable procedure for securing environment detection for autonomous driving. A potential approach lies in the comparison of the vehicle's own environment detection with an offline-processed environment detection. The advantage of offline processing lies in the consideration of future information for the state estimation. A roof structure with reference sensors can be used to further decouple the ground truth from the vehicle's own environment detection and to obtain better sensor data. The limitation here is that in order to protect different derivatives, the roof structure has to be converted to individual vehicles, which involves conversion work.

Für die Erzeugung der Ground Truth werden aktuell nur die Sensordaten eines einzelnen Fahrzeugs ausgewertet. Die angestrebte Verwendung mehrerer Fahrzeuge zur Bereitstellung der Sensordaten fällt in den Bereich von Car2X-Ansätzen, welche einem Fahrzeug die Kommunikation online mit anderen Verkehrsteilnehmern ermöglichen. Dabei können Informationen in Bezug auf eine Umgebung zwischen Fahrzeugen ausgetauscht werden. Allerdings beschränkt sich der Inhalt nur auf high-level Informationen wie z.B. Objektdaten. Eine Übertragung von Rohsensordaten ist aufgrund der hohen Datenmenge und der begrenzten Übertragungsbandbreite nicht möglich. Eine Datenfusion basierend auf Rohdaten ermöglicht allerdings eine wesentlich bessere Ausnutzung der Sensordaten für die Umfelderkennung.To generate the ground truth, only the sensor data of a single vehicle is currently evaluated. The intended use of several vehicles to provide the sensor data falls within the scope of Car2X approaches, which enable a vehicle to communicate online with other road users. Information relating to an environment can be exchanged between vehicles. However, the content is limited to high-level information such as object data. A transmission of raw sensor data is not possible due to the high amount of data and the limited transmission bandwidth. However, a data fusion based on raw data enables a much better utilization of the sensor data for environment recognition.

Erfindungsgemäß werden die Umfelddaten eines Fahrzeugs durch Umfelddaten eines anderen Fahrzeugs ergänzt, so dass eine verbesserte Umfeldwahrnehmung z.B. während Testfahrten mit Testfahrzeugen erfolgen kann. Zum Beispiel kann ein Objekt für ein Fahrzeug verdeckt aber für das andere Fahrzeug sichtbar bzw. erfassbar sein. Durch die Verwendung zusätzlicher Fahrzeuge zur Erweiterung des Sichtbereichs eines einzelnen Fahrzeugs wird also eine umfassendere Wahrnehmung einer Verkehrssituation ermöglicht. Die aufgezeichneten Daten werden z.B. offline ohne Online-Kommunikation auf Rohdatenebene fusioniert und für die digitale Abbildung der Umgebung (z.B. Objektdaten, Fahrstreifeninformationen etc.) zur Verfügung gestellt.According to the invention, the surroundings data of a vehicle are supplemented by surroundings data from another vehicle, so that an improved perception of the surroundings can take place, e.g. during test drives with test vehicles. For example, an object may be obscured from one vehicle but visible or detectable to the other vehicle. A more comprehensive perception of a traffic situation is thus made possible by the use of additional vehicles to extend the field of vision of an individual vehicle. The recorded data is e.g. merged offline without online communication at raw data level and made available for the digital mapping of the environment (e.g. object data, lane information, etc.).

1 zeigt schematisch ein Flussdiagramm eines beispielhaften Verfahrens 100 zum Erfassen von Umgebungsdaten zur Absicherung einer Umfelderkennung gemäß Ausführungsformen der vorliegenden Offenbarung. 1 FIG. 12 schematically shows a flowchart of an exemplary method 100 for acquiring environmental data to validate environmental recognition according to embodiments of the present disclosure.

Das Verfahren 100 kann durch eine entsprechende Software implementiert werden, die durch einen oder mehrere Prozessoren (z.B. eine CPU) ausführbar ist.The method 100 can be implemented by appropriate software that is provided by one or more processors (e.g. a CPU) can be executed.

Das Verfahren 100 umfasst im Block 110 ein Bereitstellen eines ersten Fahrzeugs, an dem eine erste Sensoranordnung vorhanden ist, und eines zweiten Fahrzeugs, an dem eine zweite Sensoranordnung vorhanden ist; im Block 120 ein Erfassen, durch die erste Sensoranordnung des ersten Fahrzeugs, von ersten Umfelddaten; im Block 130 ein Erfassen, durch die zweite Sensoranordnung des zweiten Fahrzeugs, von zweiten Umfelddaten, wobei die ersten Umfelddaten und die zweiten Umfelddaten zeitlich synchronisiert sind; und im Block 140 ein Fusionieren der ersten Umfelddaten und der zweiten Umfelddaten durch eine zentrale Einheit zur Absicherung einer Umfelderkennung.In block 110, the method 100 includes providing a first vehicle on which a first sensor arrangement is present and a second vehicle on which a second sensor arrangement is present; in block 120, first surroundings data are detected by the first sensor arrangement of the first vehicle; in block 130, the second sensor arrangement of the second vehicle detects second surroundings data, the first surroundings data and the second surroundings data being synchronized in time; and in block 140 a merging of the first surroundings data and the second surroundings data by a central unit for safeguarding a recognition of the surroundings.

Diese Sichtfelderweiterung ist in den 2A und 2B graphisch dargestellt. Das erste Fahrzeug 10 dient dabei als Referenzfahrzeug, dessen Sichtfeld durch wenigstens ein weiteres Fahrzeug 20 erweitert werden soll. In diesem Beispiel ist dargestellt, dass das erste Fahrzeug 10 ein Objekt 30 in seinem Umgebungsbereich erfasst (dargestellt durch den Erfassungskegel A). Das Objekt 30 ist dabei teilweise verdeckt. Das zweite Fahrzeug 20 fährt vor dem ersten Fahrzeug und kann ebenfalls das Objekt 30 in seinem Umgebungsbereich erfassen (dargestellt durch den Erfassungskegel B). Durch die Fusion der Umgebungsdaten des ersten Fahrzeugs 10 und des zweiten Fahrzeugs 20 kann somit ein Sichtfeld des ersten Fahrzeugs 10 durch das zweite Fahrzeug 20 erweitert werden.This field of view expansion is in the 2A and 2 B represented graphically. The first vehicle 10 serves as a reference vehicle whose field of vision is to be expanded by at least one additional vehicle 20 . In this example it is shown that the first vehicle 10 detects an object 30 in its surrounding area (represented by the detection cone A). The object 30 is partially covered. The second vehicle 20 drives in front of the first vehicle and can also detect the object 30 in its surrounding area (represented by the detection cone B). The merging of the data surrounding the first vehicle 10 and the second vehicle 20 can thus expand a field of view of the first vehicle 10 by the second vehicle 20 .

Um ein Fusionieren der ersten Umfelddaten und der zweiten Umfelddaten durch die zentrale Einheit zur Absicherung einer Umfelderkennung zu ermöglichen, werden die Sensordaten der zusätzlichen Fahrzeuge, die den Sichtbereich z.B. des ersten Fahrzeugs 10 erweitern, zeitlich zum betrachteten Fahrzeug synchronisiert. Dies erfolgt beispielsweise über einen GPS-Zeitstempel, den jedes Fahrzeug über die eingebaute DGPS-Mess-Sensorik aufzeichnet. Die Synchronisation der unterschiedlichen Sensordaten innerhalb eines Fahrzeugs kann dabei über den Ankunftszeitstempel im jeweiligen Datenlogger durchgeführt werden.In order to enable the first environment data and the second environment data to be merged by the central unit to ensure environment detection, the sensor data from the additional vehicles that expand the field of vision, for example of the first vehicle 10, are synchronized in terms of time with the vehicle under consideration. This is done, for example, using a GPS time stamp that each vehicle records using the built-in DGPS measurement sensors. The synchronization of the different sensor data within a vehicle can be carried out using the arrival time stamp in the respective data logger.

Um die Rohdaten der Sensoren der einzelnen Fahrzeuge offline zueinander ausrichten zu können, sollten die Relativpositionen der zusätzlichen Fahrzeuge zum betrachteten Fahrzeug bekannt sein. Zur zuverlässigen Bestimmung dieser Positionen können unterschiedliche Methoden verwendet werden, wie sie in den 3A, 3B und 3C gezeigt sind. Dabei können die Methoden jeweils einzeln oder in Kombination zum Einsatz kommen.In order to be able to align the raw data from the sensors of the individual vehicles with one another offline, the relative positions of the additional vehicles to the vehicle under consideration should be known. Different methods can be used to reliably determine these positions, as described in 3A , 3B and 3C are shown. The methods can be used individually or in combination.

In einer ersten beispielhaften Methode (3A) erfolgt das Bestimmen der Relativposition zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug basierend auf einer absoluten Lokalisierung des ersten Fahrzeugs und des zweiten Fahrzeugs, insbesondere unter Verwendung von Odometrie und/oder DGPS. Das Bestimmen der Relativposition zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug erfolgt vorzugsweise unabhängig von einer direkten Sichtbedingung.In a first exemplary method ( 3A) the relative position between the first vehicle and the second vehicle is determined based on an absolute localization of the first vehicle and the second vehicle, in particular using odometry and/or DGPS. The relative position between the first vehicle and the second vehicle is preferably determined independently of a direct visual condition.

In einer zweiten beispielhaften Methode (3B) erfolgt das Bestimmen der Relativposition zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug basierend auf einer gegenseitigen Lokalisierung des ersten Fahrzeugs und des zweiten Fahrzeugs unter Verwendung einer Umgebungssensorik der jeweiligen Fahrzeuge. Zum Beispiel erfolgt eine gegenseitige Lokalisierung der beteiligten Fahrzeuge mithilfe ihrer Lidarsensoren und hinterlegter CAD-Modelle über die Registrierung von Punktwolken (unabhängig der Qualität eines vorhandenen DGPS-Signals).In a second exemplary method ( 3B) the relative position between the first vehicle and the second vehicle is determined based on a mutual localization of the first vehicle and the second vehicle using an environment sensor system of the respective vehicles. For example, the vehicles involved are mutually localized using their lidar sensors and stored CAD models by registering point clouds (regardless of the quality of an existing DGPS signal).

In einer dritten beispielhaften Methode (3C) erfolgt das Bestimmen der Relativposition zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug basierend auf einer Registrierung von Umgebungsrohdaten, die von den Fahrzeugen stammen, basierend auf einer statischen Umgebung der Fahrzeuge. Beispielsweise erfolgt eine Registrierung der von unterschiedlichen Fahrzeugen stammenden Lidar-Punktwolken untereinander mithilfe der statischen Umgebung.In a third exemplary method ( 3C ) the relative position between the first vehicle and the second vehicle is determined based on a registration of raw environmental data originating from the vehicles, based on a static environment of the vehicles. For example, the lidar point clouds originating from different vehicles are registered with one another using the static environment.

In einer vierten beispielhaften Methode (3C) erfolgt das Bestimmen der Relativposition zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug basierend auf einer Lokalisierung der Fahrzeuge jeweils über eine Registrierung von Umgebungsrohdaten gegen eine Umgebungskarte. Zum Beispiel erfolgt eine Lokalisierung der Fahrzeuge jeweils über die Registrierung der Lidar-Punktwolken gegen eine hochgenaue Offline-Karte der Umgebung.In a fourth exemplary method ( 3C ) the relative position between the first vehicle and the second vehicle is determined based on a localization of the vehicles, in each case by registering raw data from the surroundings against a map of the surroundings. For example, the vehicles are localized by registering the lidar point clouds against a highly accurate offline map of the area.

Die Rohsensordaten aller Fahrzeuge können in einigen Ausführunformen auf das körperfeste Koordinatensystem eines einzelnen abzusichernden Fahrzeugs abgebildet werden, wie es im Beispiel der 4A gezeigt ist. Die nachfolgende Prozessierung erzeugt die Ground Truth speziell für das eine Fahrzeug.In some embodiments, the raw sensor data of all vehicles can be mapped onto the body-fixed coordinate system of an individual vehicle to be protected, as is shown in the example in FIG 4A is shown. The subsequent processing generates the ground truth specifically for one vehicle.

Die Daten können ebenso auf ein nichtdrehendes globales Koordinatensystem abgebildet werden, wie es in 4B gezeigt ist. Dies erlaubt die Generierung einer Ground Truth, die weniger anfällig gegenüber der Eigenbewegungsschätzung eines einzelnen Fahrzeugs ist und gleichzeitig allen beteiligten Fahrzeugen äquivalent zur Verfügung steht. Dadurch können mehrere Fahrzeuge gleichzeitig abgesichert werden und die abzusichernde Kilometerleistung bei gleichbleibendem Prozessierungsaufwand erhöht werden.The data can also be mapped to a non-rotating global coordinate system as shown in 4B is shown. This allows the generation of a ground truth that is less sensitive to the self-motion estimation of a single vehicle while contributing to all equivalent vehicles is available. As a result, several vehicles can be protected at the same time and the mileage to be protected can be increased with the same processing effort.

Zur Absicherung unterschiedlicher Fahrzeugderivate können dedizierte Referenzfahrzeugen, jeweils ausgestattet mit verbesserter Referenzsensorik, zur Verfügung gestellt werden. Dies bietet eine hohe Flexibilität für die Absicherung, indem der Sichtbereich von Fahrzeugen, in denen nur ein Serien-Sensorsetup verbaut ist, direkt mithilfe eines dedizierten Referenzfahrzeugs erweitert werden kann. Zur Bereitstellung einer umfassenden Datengrundlage können zudem mehrere Referenzfahrzeuge im Umfeld des abzusichernden Fahrzeugs mit eingebunden werden, die eine größere Abdeckung erzielen.Dedicated reference vehicles, each equipped with improved reference sensors, can be made available to validate different vehicle derivatives. This offers a high degree of flexibility for validation, as the field of view of vehicles in which only one series sensor setup is installed can be expanded directly using a dedicated reference vehicle. In order to provide a comprehensive data base, several reference vehicles in the vicinity of the vehicle to be secured can also be integrated, which achieve greater coverage.

5 zeigt einen Ablauf eines Verfahrens zum Erfassen von Umgebungsdaten zur Absicherung einer Umfelderkennung gemäß weiteren Ausführungsformen der vorliegenden Offenbarung. 5 FIG. 1 shows a sequence of a method for capturing environment data for safeguarding an environment detection according to further embodiments of the present disclosure.

Erfindungsgemäß werden die Umfelddaten eines Fahrzeugs durch Umfelddaten eines anderen Fahrzeugs ergänzt, so dass eine verbesserte Umfeldwahrnehmung z.B. während Testfahrten mit Testfahrzeugen erfolgen kann. Zum Beispiel kann ein Objekt für ein Fahrzeug verdeckt aber für das andere Fahrzeug sichtbar bzw. erfassbar sein. Durch die Verwendung zusätzlicher Fahrzeuge zur Erweiterung des Sichtbereichs eines einzelnen Fahrzeugs wird also eine umfassendere Wahrnehmung einer Verkehrssituation ermöglicht. Die aufgezeichneten Daten werden z.B. offline ohne Online-Kommunikation auf Rohdatenebene fusioniert und für die digitale Abbildung der Umgebung (z.B. Objektdaten, Fahrstreifeninformationen etc.) zur Verfügung gestellt.According to the invention, the surroundings data of a vehicle are supplemented by surroundings data from another vehicle, so that an improved perception of the surroundings can take place, e.g. during test drives with test vehicles. For example, an object may be obscured from one vehicle but visible or detectable to the other vehicle. A more comprehensive perception of a traffic situation is thus made possible by the use of additional vehicles to extend the field of vision of an individual vehicle. The recorded data is e.g. merged offline without online communication at raw data level and made available for the digital mapping of the environment (e.g. object data, lane information, etc.).

Obwohl die Erfindung im Detail durch bevorzugte Ausführungsbeispiele näher illustriert und erläutert wurde, so ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt und andere Variationen können von Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen. Es ist daher klar, dass eine Vielzahl von Variationsmöglichkeiten existiert. Es ist ebenfalls klar, dass beispielhaft genannte Ausführungsformen wirklich nur Beispiele darstellen, die nicht in irgendeiner Weise als Begrenzung etwa des Schutzbereichs, der Anwendungsmöglichkeiten oder der Konfiguration der Erfindung aufzufassen sind. Vielmehr versetzen die vorhergehende Beschreibung und die Figurenbeschreibung den Fachmann in die Lage, die beispielhaften Ausführungsformen konkret umzusetzen, wobei der Fachmann in Kenntnis des offenbarten Erfindungsgedankens vielfältige Änderungen beispielsweise hinsichtlich der Funktion oder der Anordnung einzelner, in einer beispielhaften Ausführungsform genannter Elemente vornehmen kann, ohne den Schutzbereich zu verlassen, der durch die Ansprüche und deren rechtliche Entsprechungen, wie etwa weitergehenden Erläuterungen in der Beschreibung, definiert wird.Although the invention has been illustrated and explained in more detail by means of preferred exemplary embodiments, the invention is not restricted by the disclosed examples and other variations can be derived therefrom by a person skilled in the art without departing from the protective scope of the invention. It is therefore clear that a large number of possible variations exist. It is also understood that the embodiments given as examples are really only examples and should not be construed as limiting in any way the scope, applications or configuration of the invention. Rather, the preceding description and the description of the figures enable the person skilled in the art to concretely implement the exemplary embodiments, whereby the person skilled in the art, knowing the disclosed inventive concept, can make a variety of changes, for example with regard to the function or the arrangement of individual elements mentioned in an exemplary embodiment, without having to Leaving the scope of protection defined by the claims and their legal equivalents, such as further explanations in the description.

Claims (10)

Verfahren (100) zum Erfassen von Umgebungsdaten zur Absicherung einer Umfelderkennung, umfassend: Bereitstellen (110) eines ersten Fahrzeugs, an dem eine erste Sensoranordnung vorhanden ist, und eines zweiten Fahrzeugs, an dem eine zweite Sensoranordnung vorhanden ist, Erfassen (120), durch die erste Sensoranordnung des ersten Fahrzeugs, von ersten Umfelddaten, Erfassen (130), durch die zweite Sensoranordnung des zweiten Fahrzeugs, von zweiten Umfelddaten, wobei die ersten Umfelddaten und die zweiten Umfelddaten zeitlich synchronisiert sind; und Fusionieren (140) der ersten Umfelddaten und der zweiten Umfelddaten durch eine zentrale Einheit zur Absicherung einer Umfelderkennung.Method (100) for capturing environment data to ensure environment detection, comprising: Providing (110) a first vehicle on which a first sensor arrangement is present and a second vehicle on which a second sensor arrangement is present, Acquisition (120), by the first sensor arrangement of the first vehicle, of first environment data, Detection (130), by the second sensor arrangement of the second vehicle, of second environment data, the first environment data and the second environment data being synchronized in time; and Merging (140) the first environment data and the second environment data by a central unit to secure an environment detection. Das Verfahren (100) nach Anspruch 1, wobei die ersten Umfelddaten und die zweiten Umfelddaten während einer Kolonnenfahrt des ersten Fahrzeugs und des zweiten Fahrzeugs erfasst werden.The method (100) after claim 1 , wherein the first environment data and the second environment data are recorded while the first vehicle and the second vehicle are driving in a convoy. Das Verfahren (100) nach Anspruch 1 oder 2, weiter umfassend: Bestimmen einer Relativposition zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug, wobei das Fusionieren (140) der ersten Umfelddaten und der zweiten Umfelddaten ein Ausrichten der ersten Umfelddaten und der zweiten Umfelddaten zueinander basierend auf der Relativposition umfasst.The method (100) after claim 1 or 2 , further comprising: determining a relative position between the first vehicle and the second vehicle, wherein the merging (140) of the first environment data and the second environment data comprises aligning the first environment data and the second environment data to each other based on the relative position. Das Verfahren (100) nach Anspruch 3, wobei das Bestimmen einer Relativposition zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug basierend auf wenigstens einem der folgenden Aspekte erfolgt: - einer absoluten Lokalisierung des ersten Fahrzeugs und des zweiten Fahrzeugs, insbesondere unter Verwendung von Odometrie und/oder DGPS; und/oder - einer gegenseitigen Lokalisierung des ersten Fahrzeugs und des zweiten Fahrzeugs unter Verwendung einer Umgebungssensorik der jeweiligen Fahrzeuge; und/oder - einer Registrierung von Umgebungsrohdaten, die von den Fahrzeugen stammen, basierend auf einer statischen Umgebung der Fahrzeuge; und/oder - einer Lokalisierung der Fahrzeuge jeweils über eine Registrierung von Umgebungsrohdaten gegen eine Umgebungskarte.The method (100) after claim 3 , wherein the determination of a relative position between the first vehicle and the second vehicle is based on at least one of the following aspects: - an absolute localization of the first vehicle and the second vehicle, in particular using odometry and/or DGPS; and/or mutual localization of the first vehicle and the second vehicle using an environment sensor system of the respective vehicles; and/or - a registration of raw environmental data originating from the vehicles, based on a static environment of the vehicles; and/or - a localization of the vehicles via a registration of raw environmental data against an environmental map. Das Verfahren (100) nach Anspruch 4, wobei die Umgebungsdaten auf ein körperfestes Koordinatensystem des ersten Fahrzeugs abgebildet werden.The method (100) after claim 4 , wherein the environmental data are mapped onto a body-fixed coordinate system of the first vehicle. Das Verfahren (100) nach Anspruch 4, wobei die Umgebungsdaten auf ein nichtdrehendes globales Koordinatensystem abgebildet werden.The method (100) after claim 4 , where the environment data is mapped to a non-rotating global coordinate system. Das Verfahren (100) nach einem der Ansprüche 1 bis 6, wobei die erste Sensoranordnung auf einem Dach des ersten Fahrzeugs angeordnet ist, und/oder wobei die zweite Sensoranordnung auf einem Dach des zweiten Fahrzeugs angeordnet ist.The method (100) according to one of Claims 1 until 6 , wherein the first sensor arrangement is arranged on a roof of the first vehicle, and/or wherein the second sensor arrangement is arranged on a roof of the second vehicle. Das Verfahren (100) nach einem der Ansprüche 1 bis 7, wobei das erste Fahrzeug und das zweite Fahrzeug dedizierte Referenzfahrzeuge sind.The method (100) according to one of Claims 1 until 7 , wherein the first vehicle and the second vehicle are dedicated reference vehicles. Speichermedium, umfassend ein Software-Programm, das eingerichtet ist, um auf einem oder mehreren Prozessoren ausgeführt zu werden, und um dadurch das Verfahren (100) gemäß einem der Ansprüche 1 bis 8 auszuführen.A storage medium comprising a software program arranged to be executed on one or more processors, and thereby performing the method (100) according to any one of Claims 1 until 8th to execute. System zum Erfassen von Umgebungsdaten zur Absicherung einer Umfelderkennung, umfassend wenigstens eine Prozessoreinheit, die eingerichtet ist, um das Verfahren (100) nach einem der Ansprüche 1 bis 8 auszuführen.System for capturing environmental data to secure an environment detection, comprising at least one processor unit that is set up to the method (100) according to one of Claims 1 until 8th to execute.
DE102020123808.8A 2020-09-11 2020-09-11 Method and system for acquiring environmental data to ensure environmental recognition Pending DE102020123808A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020123808.8A DE102020123808A1 (en) 2020-09-11 2020-09-11 Method and system for acquiring environmental data to ensure environmental recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020123808.8A DE102020123808A1 (en) 2020-09-11 2020-09-11 Method and system for acquiring environmental data to ensure environmental recognition

Publications (1)

Publication Number Publication Date
DE102020123808A1 true DE102020123808A1 (en) 2022-03-17

Family

ID=80351393

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020123808.8A Pending DE102020123808A1 (en) 2020-09-11 2020-09-11 Method and system for acquiring environmental data to ensure environmental recognition

Country Status (1)

Country Link
DE (1) DE102020123808A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017114179A1 (en) 2016-07-01 2018-01-04 Samsung Electronics Co., Ltd. Device and method for a vehicle platform
DE102017203838A1 (en) 2017-03-08 2018-09-13 Audi Ag Method and system for environment detection
DE102018213694A1 (en) 2017-08-25 2019-02-28 Honda Motor Co., Ltd. System and method for synchronized vehicle sensor data acquisition processing using vehicle communication
DE102020112009A1 (en) 2019-05-03 2020-11-05 Ford Global Technologies, Llc SYNCHRONIZATION OF SENSOR SYSTEMS
DE102019207302A1 (en) 2019-05-20 2020-11-26 Robert Bosch Gmbh Method for operating a sensor device of a vehicle
DE102019208498A1 (en) 2019-06-12 2020-12-17 Robert Bosch Gmbh Method for optimizing an environment model

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017114179A1 (en) 2016-07-01 2018-01-04 Samsung Electronics Co., Ltd. Device and method for a vehicle platform
DE102017203838A1 (en) 2017-03-08 2018-09-13 Audi Ag Method and system for environment detection
DE102018213694A1 (en) 2017-08-25 2019-02-28 Honda Motor Co., Ltd. System and method for synchronized vehicle sensor data acquisition processing using vehicle communication
DE102020112009A1 (en) 2019-05-03 2020-11-05 Ford Global Technologies, Llc SYNCHRONIZATION OF SENSOR SYSTEMS
DE102019207302A1 (en) 2019-05-20 2020-11-26 Robert Bosch Gmbh Method for operating a sensor device of a vehicle
DE102019208498A1 (en) 2019-06-12 2020-12-17 Robert Bosch Gmbh Method for optimizing an environment model

Similar Documents

Publication Publication Date Title
DE102019125707A1 (en) Method and device for computer-assisted or autonomous driving traffic sign recognition
DE102019100034A1 (en) AUTONOMOUS STEERING CONTROL
DE102016223422A1 (en) Method for automatically determining extrinsic parameters of a camera of a vehicle
WO2018141447A1 (en) Method for localising a more highly automated, e.g. highly automated vehicle (hav) in a digital localisation map
DE102014106506A1 (en) Method for carrying out a diagnosis of a camera system of a motor vehicle, camera system and motor vehicle
EP2416115A1 (en) Method and device for determining a distance between a vehicle and a neighbouring vehicle
DE102020211970A1 (en) Method for controlling a vehicle
WO2017178232A1 (en) Method for operating a driver assistance system of a motor vehicle, computing device, driver assistance system, and motor vehicle
WO2017186385A1 (en) Method and device for a motor vehicle for comparing surrounding area map data with surrounding area sensor data in order to ascertain the passability of a road object
DE102017201664A1 (en) Method for locating a higher automated vehicle in a digital map
WO2018059735A1 (en) Method for the self-location of a vehicle
EP3739511A1 (en) Method for embedding local sensor data in a map
DE102017201796A1 (en) Control device for determining a self-motion of a motor vehicle and motor vehicle and method for providing the control device
DE102012018471A1 (en) Method for detecting e.g. lane markings of lane edge for motor car, involves performing classification in image region of individual images, which are detected by cameras, and in another image region of disparity images
DE102020123808A1 (en) Method and system for acquiring environmental data to ensure environmental recognition
DE102022002710A1 (en) Method and device for traffic sign recognition
EP2737282B1 (en) Method and apparatus for determining current vehicle-specific orientation data for a vehicle
DE102020111471A1 (en) Method and system for image recognition for an automated vehicle
DE102019211006B4 (en) Evaluation of sensor data from a vehicle
WO2017162245A1 (en) Device and method for assessing characteristic motion for a motor vehicle
WO2021018815A1 (en) Method and device for locating a vehicle in a surrounding area
DE102019120440A1 (en) Method and system for the automated creation of object markings for use in a driver assistance system of a vehicle
EP3996976A1 (en) Method and assistance system for using a digital map in a vehicle
DE102020200876A1 (en) Method for processing sensor data from a sensor system of a vehicle
WO2020233957A1 (en) Method for validating the up-to-dateness of a map

Legal Events

Date Code Title Description
R081 Change of applicant/patentee

Owner name: BAYERISCHE MOTOREN WERKE AKTIENGESELLSCHAFT, DE

Free format text: FORMER OWNER: BAYERISCHE MOTOREN WERKE AKTIENGESELLSCHAFT, 80809 MUENCHEN, DE

R082 Change of representative
R163 Identified publications notified
R081 Change of applicant/patentee

Owner name: BAYERISCHE MOTOREN WERKE AKTIENGESELLSCHAFT, DE

Free format text: FORMER OWNERS: BAYERISCHE MOTOREN WERKE AKTIENGESELLSCHAFT, 80809 MUENCHEN, DE; TECHNISCHE UNIVERSITAET MUENCHEN, 80333 MUENCHEN, DE