DE102019008093A1 - Method for merging sensor data from a large number of detection devices using a sparse occupancy grid, as well as a driver assistance system - Google Patents

Method for merging sensor data from a large number of detection devices using a sparse occupancy grid, as well as a driver assistance system Download PDF

Info

Publication number
DE102019008093A1
DE102019008093A1 DE102019008093.9A DE102019008093A DE102019008093A1 DE 102019008093 A1 DE102019008093 A1 DE 102019008093A1 DE 102019008093 A DE102019008093 A DE 102019008093A DE 102019008093 A1 DE102019008093 A1 DE 102019008093A1
Authority
DE
Germany
Prior art keywords
sensor data
occupancy grid
driver assistance
motor vehicle
assistance system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102019008093.9A
Other languages
German (de)
Inventor
Otto Loehlein
Heiko Schiemenz
Thomas Glau
Gerrit Scheike
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102019008093.9A priority Critical patent/DE102019008093A1/en
Publication of DE102019008093A1 publication Critical patent/DE102019008093A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences

Abstract

Die Erfindung betrifft ein Verfahren zum Fusionieren (16) von einer Vielzahl von Sensordaten (18) einer Vielzahl von Erfassungseinrichtungen (20) mittels einer elektronischen Recheneinrichtung (22) eines Fahrerassistenzsystems (12) eines Kraftfahrzeugs (10), bei welchem mittels der Vielzahl von Erfassungseinrichtungen (20) eine Umgebung (24) des Kraftfahrzeugs (10) erfasst wird und die jeweils mittels der jeweiligen Erfassungseinrichtung (20) erfassten Sensordaten (18) an die elektronische Recheneinrichtung (22) übertragen werden und die übertragenen Sensordaten (18) mittels der elektronischen Recheneinrichtung (22) auf Basis zumindest eines Belegungsgitters einer jeweiligen Erfassungseinrichtung (20) fusioniert werden, wobei die Vielzahl von Sensordaten (18) zur Fusionierung (16) in ein jeweiliges spärliches Belegungsgitter (14) eingeordnet wird und innerhalb des jeweiligen spärlichen Belegungsgitters (14) eine Objektabbildung (26) zumindest eines in der Umgebung (24) des Kraftfahrzeugs (10) erfassten Objekts durchgeführt wird, wobei zusammengehörige Sensordaten (18) des zumindest einen Objekts der Vielzahl von Erfassungseinrichtungen (20) miteinander verbunden werden. Ferner betrifft die Erfindung ein Fahrerassistenzsystem (12).The invention relates to a method for merging (16) a large number of sensor data (18) from a large number of detection devices (20) by means of an electronic computing device (22) of a driver assistance system (12) of a motor vehicle (10), in which by means of the large number of detection devices (20) an environment (24) of the motor vehicle (10) is recorded and the sensor data (18) recorded by the respective recording device (20) are transmitted to the electronic computing device (22) and the transmitted sensor data (18) by means of the electronic computing device (22) are fused on the basis of at least one occupancy grid of a respective detection device (20), the plurality of sensor data (18) for merging (16) being classified in a respective sparse occupancy grid (14) and one within the respective sparse occupancy grid (14) Object image (26) of at least one in the environment (24) of the motor vehicle gs (10) detected object is carried out, associated sensor data (18) of the at least one object of the plurality of detection devices (20) being connected to one another. The invention also relates to a driver assistance system (12).

Description

Die Erfindung betrifft ein Verfahren zum Fusionieren von einer Vielzahl von Sensordaten einer Vielzahl von Erfassungseinrichtungen mittels einer elektronischen Recheneinrichtung eines Fahrerassistenzsystems eines Kraftfahrzeugs gemäß dem Oberbegriff von Patentanspruch 1. Ferner betrifft die Erfindung ein Fahrerassistenzsystem.The invention relates to a method for merging a large number of sensor data from a large number of detection devices by means of an electronic computing device of a driver assistance system of a motor vehicle according to the preamble of claim 1. The invention also relates to a driver assistance system.

Eine grundlegende Aufgabe der Sensorfusion im Zusammenhang mit der Umfelderfassung von Kraftfahrzeugen ist es, entsprechende Messgrößen beziehungsweise Sensordaten der verschiedenen eingesetzten Sensoren, welche insbesondere auch als Erfassungseinrichtung bezeichnet werden können, zusammenzuführen und in einer gemeinsamen abgestimmten Repräsentation des Umfelds anzuzeigen, wo sich im Erfassungsbereich der Erfassungseinrichtungen entsprechende Objekte befinden. Beim Einsatz von Erfassungseinrichtungen insbesondere für Fahrerassistenzsysteme im Kraftfahrzeugbau werden zumeist mehrere Erfassungseinrichtungen auf Basis unterschiedlicher physikalischer Prinzipien, beispielsweise eine Kamera, ein Radar beziehungsweise ein Lidar, eingesetzt, um eine hinreichende Genauigkeit bezüglich der Position und Größe von erkannten Objekten in der Umgebung des Kraftfahrzeugs zu erzielen. Hierbei werden insbesondere supplementäre beziehungsweise komplementäre Sensorkombinationen bevorzugt.A fundamental task of sensor fusion in connection with the detection of the surroundings of motor vehicles is to bring together corresponding measured variables or sensor data from the various sensors used, which can in particular also be referred to as detection devices, and to indicate in a joint, coordinated representation of the surroundings where the detection devices are in the detection area corresponding objects are located. When using detection devices, in particular for driver assistance systems in motor vehicle construction, usually several detection devices based on different physical principles, for example a camera, radar or lidar, are used in order to achieve sufficient accuracy with regard to the position and size of detected objects in the vicinity of the motor vehicle . In particular, supplementary or complementary sensor combinations are preferred here.

Fahrerassistenzsysteme stellen an die Detektionsraten von Objekten sehr hohe Anforderungen, da nur über sehr hohe Detektionsraten ein unfallfreies Fahren realisiert werden kann. Eine niedrige Detektionsrate führt dazu, dass Objekte in der Umgebung des Kraftfahrzeugs nicht erkannt und somit notwendige Reaktionen auf diese Objekte, zum Beispiel ein Warnen beziehungsweise Bremsen oder Ausweichen, nicht durchgeführt werden kann. Um diese Situationen zu vermeiden, werden zum einen eine sehr hohe Detektionsrate von der Erfassungseinrichtung gefordert und zum anderen die Messungen mehrerer Erfassungseinrichtungen einer Sensorfusion zusammengeführt. Aus dem Stand der Technik sind hierzu insbesondere zwei Ansätze bekannt, wobei ein Ansatz gridbasiert und der andere Ansatz objektbasiert ist.Driver assistance systems place very high demands on the detection rates of objects, since accident-free driving can only be achieved with very high detection rates. A low detection rate means that objects in the vicinity of the motor vehicle are not recognized and the necessary reactions to these objects, for example warning or braking or evasive action, cannot be carried out. In order to avoid these situations, on the one hand, a very high detection rate is required of the detection device and, on the other hand, the measurements of several detection devices of a sensor fusion are combined. Two approaches in particular are known for this from the prior art, one approach being grid-based and the other approach being object-based.

Aus der DE 10 2015 201 747 A1 ist ein Sensorsystem für ein Fahrzeug bekannt, mit einer Vielzahl von Sensoreinrichtungen, welche ausgebildet sind, Rohdaten zu einer Umgebung des Fahrzeugs zu erfassen und für jeden Erfassungszeitpunkt zumindest ein Belegungsgitter aus den erfassten Rohdaten zu berechnen und auszugeben, und mit einer Steuereinrichtung, welche dazu ausgebildet ist, basierend auf den einzelnen Belegungsgittern der Sensoreinrichtung ein fusioniertes Belegungsgitter zu berechnen und die für unterschiedliche Erfassungszeitpunkte berechneten fusionierten Belegungsgitter zeitlich zu akkumulieren und ein akkumuliertes Belegungsgitter auszugeben.From the DE 10 2015 201 747 A1 A sensor system for a vehicle is known, with a multiplicity of sensor devices which are designed to capture raw data on the surroundings of the vehicle and to calculate and output at least one occupancy grid from the captured raw data for each capture time, and with a control device designed to do so is to calculate a merged occupancy grid based on the individual occupancy grids of the sensor device and to accumulate the merged occupancy grids calculated for different detection times over time and output an accumulated occupancy grid.

Aufgabe der vorliegenden Erfindung ist es, ein Verfahren sowie ein Fahrerassistenzsystem zu schaffen, mittels welchem aufwandsreduziert eine Fusionierung von Sensordaten von einer Vielzahl von Erfassungseinrichtungen realisiert werden kann.The object of the present invention is to create a method and a driver assistance system by means of which a merger of sensor data from a large number of detection devices can be implemented with reduced effort.

Diese Aufgabe wird durch ein Verfahren sowie durch ein Fahrerassistenzsystem gemäß den unabhängigen Patentansprüchen gelöst. Vorteilhafte Ausgestaltungsformen sind in den Unteransprüchen angegeben.This object is achieved by a method and by a driver assistance system according to the independent claims. Advantageous embodiments are specified in the subclaims.

Ein Aspekt der Erfindung betrifft ein Verfahren zum Fusionieren von einer Vielzahl von Sensordaten einer Vielzahl von Erfassungseinrichtungen mittels einer elektronischen Recheneinrichtung eines Fahrerassistenzsystems eines Kraftfahrzeugs, bei welchem mittels der Vielzahl von Erfassungseinrichtungen eine Umgebung des Kraftfahrzeugs erfasst wird und die jeweils mit der jeweiligen Erfassungseinrichtung erfassten Sensordaten an die elektronische Recheneinrichtung übertragen werden und die übertragenen Sensordaten mittels der elektronischen Recheneinrichtung auf Basis zumindest eines Belegungsgitters einer jeweiligen Erfassungseinrichtung fusioniert werden.One aspect of the invention relates to a method for merging a large number of sensor data from a large number of acquisition devices by means of an electronic computing device of a driver assistance system of a motor vehicle, in which an environment of the motor vehicle is acquired by means of the plurality of acquisition devices and the sensor data acquired with the respective acquisition device are displayed the electronic computing device are transmitted and the transmitted sensor data are merged by means of the electronic computing device on the basis of at least one occupancy grid of a respective detection device.

Es ist vorgesehen, dass die Vielzahl von Sensordaten zur Fusionierung in ein jeweiliges spärliches Belegungsgitter eingeordnet wird und innerhalb des jeweiligen spärlichen Belegungsgitters eine Objektabbildung zumindest eines in der Umgebung des Kraftfahrzeugs erfassten Objekts durchgeführt wird, wobei zusammengehörige Sensordaten des zumindest einen Objekts der Vielzahl von Erfassungseinrichtungen miteinander verbunden werden.It is provided that the plurality of sensor data for merging is classified in a respective sparse occupancy grid and an object mapping of at least one object detected in the surroundings of the motor vehicle is carried out within the respective sparse occupancy grid, with related sensor data of the at least one object of the plurality of detection devices with one another get connected.

Dadurch ist es insbesondere ermöglicht, dass die Fahrerassistenzsysteme beziehungsweise das Fahrerassistenzsystem dazu benutzt werden kann, kontinuierlich während der Fahrt eine statische Umgebung zu erfassen und der Verarbeitungskette zur Verfügung zu stellen. Falls statische Objekte in der Fahrspur liegen, kann eine entsprechende Systemreaktion stattfinden. Dies kann das Anzeigen einer Warnung, das Abschalten einer Fahrfunktion, das unterstützte beziehungsweise automatische Bremsen oder das unterstützte beziehungsweise automatische Ausweichen beinhalten. Insbesondere kann das Verfahren dazu verwendet werden, Objekte im Umfeld von autonomen Fahrfunktionen zu erkennen. Durch die effiziente Repräsentation der Sensormessdaten als Polylinien und die rechenzeitsparende Fusion im spärlichen Belegungsfeld, was dem spärlichen Belegungsgitter entspricht, lässt sich das Fusionssystem kostensparend umsetzen. Das erfindungsgemäße Verfahren ist nicht auf statische Objekte beschränkt, es lässt sich auch auf dynamische Objekte anwenden.This makes it possible, in particular, that the driver assistance systems or the driver assistance system can be used to continuously record a static environment while driving and make it available to the processing chain. If there are static objects in the lane, a corresponding system reaction can take place. This can include displaying a warning, switching off a driving function, assisted or automatic braking or assisted or automatic evasive action. In particular, the method can be used to recognize objects in the vicinity of autonomous driving functions. This can be done through the efficient representation of the sensor measurement data as polylines and the computational time-saving fusion in the sparse occupancy field, which corresponds to the sparse occupancy grid Implement cost-saving fusion system. The method according to the invention is not restricted to static objects; it can also be applied to dynamic objects.

Mit anderen Worten ist erfindungsgemäß ein Verfahren zur Erfassung einer Fahrzeugumgebung mittels Sensorfusion und unter Verwendung von Belegungsgittern vorgeschlagen. Erfindungsgemäß werden spärliche Belegungsfelder angewendet, wobei die Auflösung von Belegungsgittern automatisch an das Auflösungsvermögen eines jeweiligen Sensors angepasst ist. Messdaten werden zunächst auf das Belegungsgitter abgebildet und darin fusioniert. Anschließend findet innerhalb des jeweiligen Belegungsgitters eine Objektbildung statt, wobei zusammengehörige Einträge miteinander verbunden werden.In other words, the invention proposes a method for detecting a vehicle environment by means of sensor fusion and using occupancy grids. According to the invention, sparse occupancy fields are used, the resolution of occupancy grids being automatically adapted to the resolution of a respective sensor. Measurement data are first mapped onto the occupancy grid and merged therein. An object is then created within the respective occupancy grid, with related entries being linked to one another.

Gemäß einer vorteilhaften Ausgestaltungsform wird eine Auflösung eines jeweiligen spärlichen Belegungsgitters in Abhängigkeit des Auflösungsvermögens der jeweiligen Erfassungseinrichtung automatisch angepasst.According to an advantageous embodiment, a resolution of a respective sparse occupancy grid is automatically adapted as a function of the resolution capacity of the respective detection device.

Ebenfalls vorteilhaft ist, wenn die Sensordaten einer jeweiligen Erfassungseinrichtung als zumindest eine Polylinie innerhalb des spärlichen Belegungsgitters repräsentiert werden. It is also advantageous if the sensor data of a respective detection device are represented as at least one polyline within the sparse occupancy grid.

Weiterhin vorteilhaft ist, wenn in Abhängigkeit von einer Erfassungsart der Erfassungseinrichtung eine Form des spärlichen Belegungsgitters angepasst wird.It is also advantageous if a shape of the sparse occupancy grid is adapted as a function of a detection type of the detection device.

In einer weiteren vorteilhaften Ausgestaltungsform wird bei einer Fusionierung der Sensordaten eine Eigengeschwindigkeit des Kraftfahrzeugs berücksichtigt.In a further advantageous embodiment, when the sensor data are merged, the vehicle's own speed is taken into account.

Ein weiterer Aspekt der Erfindung betrifft ein Fahrerassistenzsystem für ein Kraftfahrzeug mit einer Vielzahl von Erfassungseinrichtungen und mit einer elektronischen Recheneinrichtung, wobei das Fahrerassistenzsystem zum Durchführen eines Verfahrens nach dem vorhergehenden Aspekt ausgebildet ist. Insbesondere wird das Verfahren mittels des Fahrerassistenzsystems durchgeführt.A further aspect of the invention relates to a driver assistance system for a motor vehicle with a plurality of detection devices and with an electronic computing device, the driver assistance system being designed to carry out a method according to the preceding aspect. In particular, the method is carried out by means of the driver assistance system.

Ein nochmals weiterer Aspekt der Erfindung betrifft ein Kraftfahrzeug mit einem Fahrerassistenzsystem. Das Kraftfahrzeug ist insbesondere als Personenkraftwagen ausgebildet. Insbesondere kann das Kraftfahrzeug ferner als zumindest teilweise autonomes Kraftfahrzeug, insbesondere als vollautonomes Kraftfahrzeug, ausgebildet sein.Yet another aspect of the invention relates to a motor vehicle with a driver assistance system. The motor vehicle is designed in particular as a passenger vehicle. In particular, the motor vehicle can also be designed as an at least partially autonomous motor vehicle, in particular as a fully autonomous motor vehicle.

Vorteilhafte Ausgestaltungsformen des Verfahrens sind als vorteilhafte Ausgestaltungsformen des Fahrerassistenzsystems sowie des Kraftfahrzeugs anzusehen. Das Kraftfahrzeug sowie das Fahrerassistenzsystem weisen dazu gegenständliche Merkmale auf, welche eine Durchführung des Verfahrens oder eine vorteilhafte Ausgestaltungsform davon ermöglichen.Advantageous embodiments of the method are to be regarded as advantageous embodiments of the driver assistance system and of the motor vehicle. For this purpose, the motor vehicle and the driver assistance system have objective features which enable the method or an advantageous embodiment thereof to be carried out.

Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele sowie anhand der Zeichnungen. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.Further advantages, features and details of the invention emerge from the following description of preferred exemplary embodiments and with reference to the drawings. The features and combinations of features mentioned above in the description as well as the features and combinations of features mentioned below in the description of the figures and / or shown alone in the figures can be used not only in the respectively specified combination, but also in other combinations or on their own, without the scope of the Invention to leave.

Dabei zeigen:

  • 1 eine schematische Ansicht von spärlichen Belegungsgittern; und
  • 2 eine schematische Ansicht einer Ausführungsform einer elektronischen Recheneinrichtung eines Fahrerassistenzsystems.
Show:
  • 1 a schematic view of sparse occupancy grids; and
  • 2 a schematic view of an embodiment of an electronic computing device of a driver assistance system.

In den Fig. sind gleiche oder funktionsgleiche Elemente mit den gleichen Bezugszeichen versehen.Identical or functionally identical elements are provided with the same reference symbols in the figures.

1 zeigt in einer schematischen Draufsicht eine Ausführungsform eines Kraftfahrzeugs 10 mit einem Fahrerassistenzsystem 12. Insbesondere zeigt die 1 unterschiedliche spärliche Belegungsgitter 14. 1 shows an embodiment of a motor vehicle in a schematic plan view 10 with a driver assistance system 12 . In particular, the 1 different sparse occupancy grids 14th .

Insbesondere zeigt die 1 ein Verfahren zum Fusionieren 16 (2) von Sensordaten 18 (2) von einer Vielzahl von Erfassungseinrichtungen 20 (2) mittels einer elektronischen Recheneinrichtung 22 (2) des Fahrerassistenzsystems 12 des Kraftfahrzeugs 10, bei welchem mittels der Vielzahl von Erfassungseinrichtungen 20 eine Umgebung 24 des Kraftfahrzeugs 10 erfasst wird und die jeweils mit der jeweiligen Erfassungseinrichtung 20 erfassten Sensordaten 18 an die elektronische Recheneinrichtung 22 übertragen werden und die übertragenen Sensordaten 18 mittels der elektronischen Recheneinrichtung 22 auf Basis zumindest eines Belegungsgitters der jeweiligen Erfassungseinrichtung 20 fusioniert werden.In particular, the 1 a method of merging 16 ( 2 ) of sensor data 18th ( 2 ) from a variety of detection devices 20th ( 2 ) by means of an electronic computing device 22nd ( 2 ) of the driver assistance system 12 of the motor vehicle 10 , in which by means of the plurality of detection devices 20th an environment 24 of the motor vehicle 10 is detected and each with the respective detection device 20th captured sensor data 18th to the electronic computing device 22nd and the transmitted sensor data 18th by means of the electronic computing device 22nd based on at least one occupancy grid of the respective detection device 20th to be merged.

Es ist vorgesehen, dass die Vielzahl von Sensordaten 18 zur Fusionierung 16 in das jeweilige spärliche Belegungsgitter 14 eingeordnet wird und innerhalb des jeweiligen spärlichen Belegungsgitters 14 eine Objektabbildung 26 (2) zumindest eines in der Umgebung 24 des Kraftfahrzeugs 10 erfassten Objekts durchgeführt wird, wobei zusammengehörige Sensordaten 18 des zumindest einen Objekts der Vielzahl von Erfassungseinrichtungen 20 miteinander verbunden werden.It is provided that the multitude of sensor data 18th for merging 16 in the respective sparse allocation grid 14th is classified and within the respective sparse occupancy grid 14th an object image 26th ( 2 ) at least one in the area 24 of the motor vehicle 10 detected object is carried out, with related sensor data 18th of at least one object of Variety of detection devices 20th be connected to each other.

Insbesondere kann vorgesehen sein, dass eine Auflösung eines jeweiligen spärlichen Belegungsgitters 14 in Abhängigkeit eines Auflösungsvermögens der jeweiligen Erfassungseinrichtung 20 automatisch angepasst wird.In particular, it can be provided that a respective sparse occupancy grid is resolved 14th depending on the resolution of the respective detection device 20th automatically adjusted.

Ferner kann vorgesehen sein, dass die Sensordaten 18 einer jeweiligen Erfassungseinrichtung 20 als zumindest eine Polylinie innerhalb des spärlichen Belegungsgitters 14 repräsentiert werden.It can also be provided that the sensor data 18th a respective detection device 20th as at least one polyline within the sparse occupancy grid 14th be represented.

Des Weiteren kann vorgesehen sein, dass in Abhängigkeit von einer Erfassungsart der Erfassungseinrichtung 20 eine Form des spärlichen Belegungsgitters 14 angepasst wird. Dies ist insbesondere auf Basis der unterschiedlichen Belegungsgitter 14 in der 1 dargestellt.Furthermore, it can be provided that depending on a type of detection of the detection device 20th a form of the sparse occupancy grid 14th is adjusted. This is particularly due to the different occupancy grids 14th in the 1 shown.

Ebenfalls kann vorgesehen sein, dass bei der Fusionierung 16 der Sensordaten 18 eine Eigengeschwindigkeit des Kraftfahrzeugs 10 berücksichtigt wird.It can also be provided that during the merger 16 the sensor data 18th an airspeed of the motor vehicle 10 is taken into account.

Insbesondere zeigt die 1 somit, dass zum Fusionieren 16 der Sensordaten 18 erfindungsgemäß die einzelnen Detektionen zunächst in das spärliche Belegungsgitter 14 eingeordnet werden. Als spärliches Belegungsgitter 14 können beliebige Aufteilungen der Umgebung 24 in Segmente dienen, bei denen in jedem Segment eine begrenzte Anzahl von Hypothesen zugelassen wird. Diese spärlichen Belegungsgitter 14 sind insbesondere in der 1 dargestellt.In particular, the 1 thus that to merging 16 the sensor data 18th according to the invention, the individual detections initially in the sparse occupancy grid 14th be classified. As a sparse occupancy grid 14th can be any division of the environment 24 serve in segments in which a limited number of hypotheses are allowed in each segment. These sparse occupancy grids 14th are particularly in the 1 shown.

Als besonders vorteilhaft erweist sich ein Belegungsgitter 14 dann, wenn es die Eigenschaften der Sensorabbildung widerspiegelt. Für Strahlsensoren, das heißt für Sensoren, die an einem Fixpunkt verbaut sind und die Umgebung 24 strahlförmig abbilden, sind diese spärlichen Belegungsgitter 14 ebenfalls strahlförmig ausgebildet, wie beispielsweise in der 1 bei den rechten Belegungsgittern 14 dargestellt ist. Dadurch ist das Auflösungsvermögen des spärlichen Belegungsgitters 14 automatisch an das der Erfassungseinrichtungen 20 angepasst. Auf diese Weise vermeidet man einen unnötigen Speicher- und Rechenbedarf. In den beiden linken spärlichen Belegungsgittern 14 der 1 wird hingegen die Auflösung für den gesamten Erfassungsbereich durch die maximal erforderliche Auflösung an einem Ort im Erfassungsbereich bestimmt.An occupancy grid has proven to be particularly advantageous 14th if it reflects the properties of the sensor image. For beam sensors, i.e. for sensors that are installed at a fixed point and the environment 24 These are sparse occupancy grids 14th also formed like a jet, for example in the 1 at the right allocation grids 14th is shown. This is the resolving power of the sparse occupancy grid 14th automatically to that of the recording devices 20th customized. In this way you avoid unnecessary memory and computing requirements. In the two sparse occupancy grids on the left 14th of the 1 on the other hand, the resolution for the entire detection area is determined by the maximum required resolution at one location in the detection area.

Als besonders vorteilhaft hinsichtlich des Rechenzeitbedarfs ist ein spärliches Belegungsgitter 14 auch dann, wenn sich die Zugehörigkeit einer Sensormessung zu einem Segment des Belegungsfeldes effizient berechnen lässt. Das ist beispielsweise in den drei linken spärlichen Belegungsgittern 14 der 1 der Fall. Nachteilig hinsichtlich der Recheneffizienz ist es, wenn das Belegungsfeld Bereiche aufweist, deren Auflösung für die funktionale Weiterverwendung nicht benötigt wird. Dies ist beispielsweise im dritten Beispiel der 1 der Fall. Direkt vor dem Kraftfahrzeug 10 ist die laterale Auflösung sehr hoch. Als besonders vorteilhaft erweist es sich daher, einen Ursprung 28 des spärlichen Belegungsfeldes 14 hinter das Kraftfahrzeug 10 zu legen. Dadurch ist die Zugehörigkeit zu einem Segment einfach und schnell zu berechnen und die Segmentauflösung ist sowohl an das sensorische Auflösungsvermögen als auch an das in Fahrerassistenzfunktionen notwendige funktionale Auflösungsvermögen angepasst.A sparse allocation grid is particularly advantageous with regard to the computing time required 14th even if the affiliation of a sensor measurement to a segment of the occupancy field can be calculated efficiently. This is, for example, in the three sparse occupancy grids on the left 14th of the 1 the case. It is disadvantageous in terms of computing efficiency if the occupancy field has areas whose resolution is not required for further functional use. For example, in the third example, this is the 1 the case. Right in front of the vehicle 10 the lateral resolution is very high. It therefore proves to be particularly advantageous to have an origin 28 the sparse occupancy field 14th behind the motor vehicle 10 to lay. As a result, the association with a segment can be calculated quickly and easily, and the segment resolution is adapted to both the sensory resolution and the functional resolution required in driver assistance functions.

2 zeigt in einer schematischen Ansicht eine Ausführungsform der elektronischen Recheneinrichtung 22 des Fahrerassistenzsystems 12. Insbesondere besteht das vorgestellte Verfahren somit aus drei Schritten. Insbesondere findet in einem ersten Schritt eine auf das spärliche Belegungsgitter 14 statt. Hierzu kann eine Detektion auf den Fusionszeitpunkt, eine Vorauswahl von Objekten, eine Abtastung, eine Eintragung in das Belegungsgitter 14 sowie eine Anreicherung mit Sensoreigenschaften, beispielsweise Qualität, Genauigkeit, Klassen oder Verbindungen, durchgeführt werden. Im zweiten Schritt erfolgt die Fusionierung 16. Hierzu kann sowohl die Fusionierung 16 als auch ein Tracking als auch eine Klassifikation realisiert werden. Im weiteren Schritt erfolgt die Objektabbildung 26, wobei dies insbesondere durch Verbinden zusammengehöriger Einträge in dem spärlichen Belegungsgitter 14 realisiert wird. 2 shows in a schematic view an embodiment of the electronic computing device 22nd of the driver assistance system 12 . In particular, the method presented thus consists of three steps. In particular, in a first step a on the sparse occupancy grid 14th instead of. For this purpose, a detection of the time of the fusion, a preselection of objects, a scanning, an entry in the occupancy grid 14th and enrichment with sensor properties, for example quality, accuracy, classes or connections, can be carried out. The second step is the merger 16 . Both the merger 16 as well as tracking and classification can be implemented. The object is mapped in the next step 26th this in particular by connecting related entries in the sparse occupancy grid 14th is realized.

Voraussetzung für die Fusionierung 16 der Sensordaten ist, dass alle Sensormessdaten gleichartig repräsentiert werden, bevor der eigentliche Fusionsschritt durchgeführt werden kann. Als besonders vorteilhaft erweist sich die Repräsentation von Objekten am Eingang des hier beschriebenen Verfahrens als Polylinien, das heißt Folgen von Punktkoordinaten, die verbunden sind. Sie beschreiben die für die Erfassungseinrichtung 20 sichtbare äußere Kontur eines Objekts. Modellbasierte Repräsentation, wie Boxen, Stabobjekte oder Drei-Punkt-Objekte würden zu Problemen bei der Erfüllung von Genauigkeitsanforderungen des Fahrerassistenzsystems 12 führen.Requirement for the merger 16 the sensor data is that all sensor measurement data are represented in the same way before the actual fusion step can be carried out. The representation of objects at the entrance of the method described here as polylines, that is to say sequences of point coordinates that are connected, proves to be particularly advantageous. They describe those for the acquisition device 20th visible outer contour of an object. Model-based representations such as boxes, rod objects or three-point objects would cause problems in meeting the accuracy requirements of the driver assistance system 12 to lead.

Für die Abbildung der Objekte in dem spärlichen Belegungsgitter 14 werden die Objekte der Erfassungseinrichtung 20 zunächst so abgetastet, dass für jedes Segment, das die Polylinienrepräsentation schneidet, ein Abtastpunkt vorliegt. In gleicher Weise werden die bereits im Belegungsfeld vorhandenen und verfolgten Objekte behandelt. Es ist dabei darauf zu achten, dass sowohl Sensormessdaten als auch die bereits im Belegungsfeld repräsentierten Objekte auf den gleichen Zeitpunkt prädiziert beziehungsweise durch Retrodiktion in die Vergangenheit projiziert wurden.For the mapping of the objects in the sparse occupancy grid 14th become the objects of the detection device 20th initially sampled so that there is a sampling point for each segment that intersects the polyline representation. The objects that are already present and tracked in the occupancy field are treated in the same way. It must be ensured that both sensor measurement data and the objects already represented in the occupancy field were predicted to the same point in time or projected into the past by retrodiction.

Weitere Verarbeitungsschritte bei der Abbildung auf das Belegungsfeld, können beispielsweise eine Vorauswahl der Sensorobjekte sein, die für die Fahrerassistenzfunktion entweder auf Grund der Klassenzugehörigkeit oder der Lage relevant sind. Zusätzlich können Klassifikationsergebnisse, Genauigkeiten, Qualitätsmaße und Verbindungsinformationen, die eine Rekonstruktion der ehemals verbundenen Punkte ermöglicht, an die Abtastpunkte von der Objektbeschreibung an die Punktbeschreibung „vererbt“ werden.Further processing steps in the mapping onto the occupancy field can be, for example, a preselection of the sensor objects that are relevant for the driver assistance function either on the basis of their class or location. In addition, classification results, accuracies, quality measures and connection information, which enables a reconstruction of the previously connected points, can be "inherited" at the sampling points from the object description to the point description.

Die eigentliche Fusionierung 16 beginnt, wie in Fusionsverfahren üblich, mit dem Assoziationsschritt. Hier wird entschieden ob Abtastpunkte fusioniert werden. Die Assoziationsreichweite ist hier einerseits durch die Aufteilung der Feldsegmente gegeben andererseits durch die Messunsicherheit innerhalb eines Feldsegments. Als vorteilhaft erweist es sich, insbesondere an den Objektenden auch eine Assoziation mit Punkten in benachbarten Feldsegmenten zuzulassen. Im Gegensatz zu Verfahren mit vollständigen Belegungsfeldern, bei dem die Positionsunsicherheit durch „Verschmieren“ auf benachbarte Feldelemente realisiert wird, ist das vorgeschlagene Verfahren in der Lage, wie beim Objekttracking ohne Belegungsfelder, die Objekte mit Hilfe von Filtern, zum Beispiel einem Kalmanfilter, zu verfolgen und eine verbesserten Schätzwert für die Objektposition beziehungsweise für den Objektabtastpunkt abzugeben.The actual merger 16 begins, as is usual in fusion processes, with the association step. Here it is decided whether sampling points are merged. The association range is given here on the one hand by the division of the field segments and on the other hand by the measurement uncertainty within a field segment. It has proven to be advantageous to allow an association with points in adjacent field segments, in particular at the object ends. In contrast to methods with complete occupancy fields, in which the position uncertainty is implemented by "smearing" onto neighboring field elements, the proposed method is able to track the objects with the help of filters, for example a Kalman filter, as in object tracking without occupancy fields and to output an improved estimated value for the object position or for the object scanning point.

Abschließend können in der Objektbildung zusammengehörige Punkte wieder verbunden werden und als einzelne Objekte der weiteren Verarbeitungskette des Fahrerassistenzsystems 12 zur Verfügung gestellt werden. Als besonders vorteilhaft erweist sich bei der Objektgenerierung, wenn die weitervererbten Objekteigenschaften und die ehemaligen Sensor- und Fusionsobjektverbindungen berücksichtigt werden. Die Verbindungen aus dem letzten Verarbeitungszyklus können so im aktuellen Verarbeitungszyklus für die Entscheidungsfindung, ob Punkte wieder verbunden werden, genutzt werden.Finally, points that belong together can be connected again in the object formation and as individual objects in the further processing chain of the driver assistance system 12 to provide. In object generation, it has proven to be particularly advantageous if the inherited object properties and the former sensor and fusion object connections are taken into account. The connections from the last processing cycle can thus be used in the current processing cycle to decide whether points should be connected again.

Das Einsparpotential gegenüber einer Fusionierung 16 mit vollständigem Belegungsfeld, liegt in der Beschränkung auf eine begrenzte Anzahl von Hypothesen pro Feldsegment. Die Anzahl der Hypothesen, die benötigt wird, hängt von der Häufigkeit von fälschlich gemessenen Hindernissen (Falsch-Positiv-Messung) der Erfassungseinrichtungen 20 ab. In der Regel wird für das Fahrerassistenzsystem 12 lediglich das erste im Fahrkorridor gelegen Hindernis benötigt. Da dieses aber auch eine Falsch-Positiv-Messung sein kann, müssen so viele Hypothesen möglich sein, dass mit ausreichender Sicherheit auch das erste reale Hindernis erfasst wird, das im Gegensatz zu den Falsch-Positv-Messungen, dann in den folgenden Messungen bestätigt wird. Generiert man beim Sensor-Update mehr als die begrenzte Anzahl Abtast- beziehungsweise Fusionspunkte, wird beim vorgestellten Verfahren eine Strategie integriert, die entscheidet welche Hypothesen „überleben“:

  • Insbesondere wird geprüft, ob ein Sensorpunkt mit einem bestehenden Fusionspunkt fusioniert werden kann. Falls ja, wird das Update durchgeführt, falls nein wird geprüft ob noch eine Hypothese in dem Feldsegment frei ist. Falls ja wird dieses belegt, falls nein wird eine Hypothese gelöscht und mit einer neuen belegt. In die Entscheidung welche gelöscht wird, kann die Existenzwahrscheinlichkeit und das Risiko,
  • beispielsweisenäherliegende Hindernisse sind gefährlicher als entfernte, berücksichtigt werden.
The savings potential compared to a merger 16 with a complete occupancy field is the restriction to a limited number of hypotheses per field segment. The number of hypotheses that is required depends on the frequency of incorrectly measured obstacles (false-positive measurement) of the detection devices 20th from. Usually it is used for the driver assistance system 12 only the first obstacle in the corridor is required. However, since this can also be a false-positive measurement, so many hypotheses must be possible that the first real obstacle is detected with sufficient certainty, which, in contrast to the false-positive measurements, is then confirmed in the following measurements . If more than the limited number of sampling or fusion points is generated during the sensor update, a strategy is integrated in the presented method that decides which hypotheses "survive":
  • In particular, it is checked whether a sensor point can be fused with an existing fusion point. If so, the update is carried out; if not, it is checked whether a hypothesis is still free in the field segment. If yes, this is proven, if not, a hypothesis is deleted and a new one is assigned. In the decision which is deleted, the probability of existence and the risk,
  • For example, obstacles lying closer are more dangerous than distant obstacles are taken into account.

Insgesamt zeigt die Erfindung eine Fusion von Sensordaten zur Fahrzeugumfelderfassung mit spärlichen Belegungsfeldern, insbesondere spärlichen Belegungsgittern 14.Overall, the invention shows a fusion of sensor data for vehicle environment detection with sparse occupancy fields, in particular sparse occupancy grids 14th .

BezugszeichenlisteList of reference symbols

1010
KraftfahrzeugMotor vehicle
1212
FahrerassistenzsystemDriver assistance system
1414th
spärliches Belegungsgittersparse occupancy grid
1616
Fusionfusion
1818th
SensordatenSensor data
2020th
ErfassungseinrichtungDetection device
2222nd
elektronische Recheneinrichtungelectronic computing device
2424
UmgebungSurroundings
2626th
ObjektabbildungObject illustration
2828
Ursprungorigin
3030th
AbbildungIllustration

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • DE 102015201747 A1 [0004]DE 102015201747 A1 [0004]

Claims (6)

Verfahren zum Fusionieren (16) von einer Vielzahl von Sensordaten (18) einer Vielzahl von Erfassungseinrichtungen (20) mittels einer elektronischen Recheneinrichtung (22) eines Fahrerassistenzsystems (12) eines Kraftfahrzeugs (10), bei welchem mittels der Vielzahl von Erfassungseinrichtungen (20) eine Umgebung (24) des Kraftfahrzeugs (10) erfasst wird und die jeweils mittels der jeweiligen Erfassungseinrichtung (20) erfassten Sensordaten (18) an die elektronische Recheneinrichtung (22) übertragen werden und die übertragenen Sensordaten (18) mittels der elektronischen Recheneinrichtung (22) auf Basis zumindest eines Belegungsgitters einer jeweiligen Erfassungseinrichtung (20) fusioniert werden, dadurch gekennzeichnet, dass die Vielzahl von Sensordaten (18) zur Fusionierung (16) in ein jeweiliges spärliches Belegungsgitter (14) eingeordnet wird und innerhalb des jeweiligen spärlichen Belegungsgitters (14) eine Objektabbildung (26) zumindest eines in der Umgebung (24) des Kraftfahrzeugs (10) erfassten Objekts durchgeführt wird, wobei zusammengehörige Sensordaten (18) des zumindest einen Objekts der Vielzahl von Erfassungseinrichtungen (20) miteinander verbunden werden.A method for merging (16) a large number of sensor data (18) from a large number of detection devices (20) by means of an electronic computing device (22) of a driver assistance system (12) of a motor vehicle (10), in which, by means of the large number of detection devices (20), a Environment (24) of the motor vehicle (10) is recorded and the sensor data (18) recorded by the respective recording device (20) are transmitted to the electronic computing device (22) and the transmitted sensor data (18) are transmitted by means of the electronic computing device (22) The basis of at least one occupancy grid of a respective detection device (20) are fused, characterized in that the large number of sensor data (18) for merging (16) is classified in a respective sparse occupancy grid (14) and an object image is displayed within the respective sparse occupancy grid (14) (26) at least one in the surroundings (24) of the motor vehicle (10) detected object is carried out, associated sensor data (18) of the at least one object of the plurality of detection devices (20) being connected to one another. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass eine Auflösung eines jeweiligen spärlichen Belegungsgitters (14) in Abhängigkeit eines Auflösungsvermögens der jeweiligen Erfassungseinrichtung (20) automatisch angepasst wird.Procedure according to Claim 1 , characterized in that a resolution of a respective sparse occupancy grid (14) is automatically adapted as a function of a resolution capability of the respective detection device (20). Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Sensordaten (18) einer jeweiligen Erfassungseinrichtung (20) als zumindest eine Polylinie innerhalb des spärlichen Belegungsgitters (14) repräsentiert werden.Procedure according to Claim 1 or 2 , characterized in that the sensor data (18) of a respective detection device (20) are represented as at least one polyline within the sparse occupancy grid (14). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in Abhängigkeit von einer Erfassungsart der Erfassungseinrichtung (20) eine Form des spärlichen Belegungsgitters (14) angepasst wird.Method according to one of the preceding claims, characterized in that a shape of the sparse occupancy grid (14) is adapted as a function of a detection type of the detection device (20). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei der Fusionierung (16) der Sensordaten (18) eine Eigengeschwindigkeit des Kraftfahrzeugs (10) berücksichtigt wird.Method according to one of the preceding claims, characterized in that the merging (16) of the sensor data (18) takes into account the speed of the motor vehicle (10). Fahrerassistenzsystem (12) für ein Kraftfahrzeug (10) mit einer Vielzahl von Erfassungseinrichtungen (20) und mit einer elektronischen Recheneinrichtung (22), wobei das Fahrerassistenzsystem (12) zum Durchführen eines Verfahrens nach einem der Ansprüche 1 bis 5 ausgebildet ist.Driver assistance system (12) for a motor vehicle (10) with a plurality of detection devices (20) and with an electronic computing device (22), the driver assistance system (12) for performing a method according to one of the Claims 1 to 5 is trained.
DE102019008093.9A 2019-11-21 2019-11-21 Method for merging sensor data from a large number of detection devices using a sparse occupancy grid, as well as a driver assistance system Withdrawn DE102019008093A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019008093.9A DE102019008093A1 (en) 2019-11-21 2019-11-21 Method for merging sensor data from a large number of detection devices using a sparse occupancy grid, as well as a driver assistance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019008093.9A DE102019008093A1 (en) 2019-11-21 2019-11-21 Method for merging sensor data from a large number of detection devices using a sparse occupancy grid, as well as a driver assistance system

Publications (1)

Publication Number Publication Date
DE102019008093A1 true DE102019008093A1 (en) 2020-08-27

Family

ID=72138723

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019008093.9A Withdrawn DE102019008093A1 (en) 2019-11-21 2019-11-21 Method for merging sensor data from a large number of detection devices using a sparse occupancy grid, as well as a driver assistance system

Country Status (1)

Country Link
DE (1) DE102019008093A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021005053A1 (en) 2021-10-08 2021-12-16 Daimler Ag Method for merging a large number of sensor data by means of an electronic computing device, as well as a driver assistance system
DE102022000644A1 (en) 2022-02-22 2022-06-15 Mercedes-Benz Group AG Method for operating an assistance system for a motor vehicle, and assistance system
DE102022001265A1 (en) 2022-04-12 2022-06-30 Mercedes-Benz Group AG Process, electronic computing system and computer program for assigning fused object representations from two different fusion processes
DE102022002620A1 (en) 2022-07-18 2023-10-19 Mercedes-Benz Group AG Method for fusing sensor data and vehicle
DE102022002498B3 (en) 2022-07-08 2023-10-26 Mercedes-Benz Group AG Method for fusing sensor data

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021005053A1 (en) 2021-10-08 2021-12-16 Daimler Ag Method for merging a large number of sensor data by means of an electronic computing device, as well as a driver assistance system
DE102022000644A1 (en) 2022-02-22 2022-06-15 Mercedes-Benz Group AG Method for operating an assistance system for a motor vehicle, and assistance system
DE102022001265A1 (en) 2022-04-12 2022-06-30 Mercedes-Benz Group AG Process, electronic computing system and computer program for assigning fused object representations from two different fusion processes
DE102022002498B3 (en) 2022-07-08 2023-10-26 Mercedes-Benz Group AG Method for fusing sensor data
DE102022002620A1 (en) 2022-07-18 2023-10-19 Mercedes-Benz Group AG Method for fusing sensor data and vehicle

Similar Documents

Publication Publication Date Title
DE102019008093A1 (en) Method for merging sensor data from a large number of detection devices using a sparse occupancy grid, as well as a driver assistance system
EP2951804B1 (en) Creating a model for the surroundings of a vehicle
DE102018216110A1 (en) Method and device for providing an environment image of an environment of a mobile device and motor vehicle with such a device
DE102012213344A1 (en) Method for driver assistance on board of motor vehicle, particularly for traffic sign recognition, involves determining direction change of motor vehicle, selecting camera image as function of direction change, and determining traffic sign
DE102010011629A1 (en) Method for environmental representation of vehicle, involves recording and storing environment data in hierarchical data structures, which are identified in environmental objects
DE102014212866A1 (en) Method for determining a parking space from a number of measuring points
DE102016012345A1 (en) Method for recognizing objects
DE102020200169B3 (en) Method for merging several data sets for the generation of a current lane model of a roadway and device for data processing
DE102018122374A1 (en) Method for determining a free space surrounding a motor vehicle, computer program product, free space determination device and motor vehicle
DE102017206344A1 (en) Driver assistance system for a vehicle
DE102016220450A1 (en) Apparatus, means of transport and method for estimating a collision probability between a means of locomotion and an environment object
DE102018005969A1 (en) Method for operating a driver assistance system with two detection devices
DE102016011849A1 (en) Method for self-localization of a vehicle
DE102021005053A1 (en) Method for merging a large number of sensor data by means of an electronic computing device, as well as a driver assistance system
DE102019218078B4 (en) Determination of a situation in the environment of a motor vehicle
DE102017205782A1 (en) Control device and method
DE102021207609A1 (en) Procedure for marking a movement path
WO2021104805A1 (en) Method for operating a surroundings sensing device with grid-based evaluation and with fusion, and surroundings sensing device
DE102020211331A1 (en) Allocation of traffic lights to associated lanes
DE102016222215A1 (en) Motor vehicle with a driver assistance system, which has a camera
DE102019007205A1 (en) Method for the detection of a vehicle trailer using lidar
DE102018010042A1 (en) Method for recognizing at least one object located in an environment of a motor vehicle
DE102006051091B4 (en) Method for object recognition in vehicles by means of close-range detection
DE102019005825A1 (en) Method for generating training data for an electronic computing device external to the motor vehicle, and driver assistance system
DE102019001610A1 (en) Method for operating a motor vehicle

Legal Events

Date Code Title Description
R230 Request for early publication
R081 Change of applicant/patentee

Owner name: DAIMLER AG, DE

Free format text: FORMER OWNER: DAIMLER AG, 70327 STUTTGART, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee