WO2023247550A1 - Method and network for sensor data fusion - Google Patents

Method and network for sensor data fusion Download PDF

Info

Publication number
WO2023247550A1
WO2023247550A1 PCT/EP2023/066657 EP2023066657W WO2023247550A1 WO 2023247550 A1 WO2023247550 A1 WO 2023247550A1 EP 2023066657 W EP2023066657 W EP 2023066657W WO 2023247550 A1 WO2023247550 A1 WO 2023247550A1
Authority
WO
WIPO (PCT)
Prior art keywords
features
fusion
kinematics
identifiers
kinematic
Prior art date
Application number
PCT/EP2023/066657
Other languages
German (de)
French (fr)
Inventor
Evren Divrikli
Federico Ignacio Sanchez Pinzon
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Publication of WO2023247550A1 publication Critical patent/WO2023247550A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Arrangements For Transmission Of Measured Signals (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a method for sensor data fusion, wherein object lists (108) containing features of captured objects (106) are read in from at least two sensors (102), kinematic features (112) and additional features (114) of the captured objects (106) are each extracted from the object lists (108), and a common identifier (116) is allocated to each of the kinematic features (112) and additional features (114) captured together in terms of time, wherein the kinematic features (112) captured by the various sensors (102) for an object (106) are combined using a kinematic fusion to form a fusion object (120), wherein the allocated identifiers (116) of the kinematic features (112) are obtained during the kinematic fusion, wherein the additional features (114) with the corresponding identifiers (116) are added to the fusion object (120) using the identifiers (116) of the kinematic features (112) which have been combined to form the fusion object (120).

Description

Beschreibung Description
Verfahren und Netzwerk zur Sensordatenfusion Method and network for sensor data fusion
Gebiet der Erfindung Field of invention
Die Erfindung betrifft ein Verfahren zur Sensordatenfusion, ein entsprechendes Netzwerk, sowie ein entsprechendes Computerprogrammprodukt. The invention relates to a method for sensor data fusion, a corresponding network, and a corresponding computer program product.
Stand der Technik State of the art
Durch eine Sensordatenfusion werden Daten von unterschiedlichen Sensoren zusammengeführt. Für die Sensordatenfusion werden in den unterschiedlichen Daten abgebildete Objekte verfolgt und assoziiert. Dazu werden insbesondere zum ähnlichen Zeitpunkt am ähnlichen Ort befindliche Objekte mit ähnlicher Kinematik assoziiert. Sensor data fusion brings together data from different sensors. For sensor data fusion, objects depicted in the different data are tracked and associated. For this purpose, objects located in a similar place at a similar time are associated with similar kinematics.
Offenbarung der Erfindung Disclosure of the invention
Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren zur Sensordatenfusion, ein entsprechendes Netzwerk, sowie ein entsprechendes Computerprogrammprodukt gemäß den unabhängigen Ansprüchen vorgestellt. Vorteilhafte Weiterbildungen und Verbesserungen des hier vorgestellten Ansatzes ergeben sich aus der Beschreibung und sind in den abhängigen Ansprüchen beschrieben. Against this background, the approach presented here presents a method for sensor data fusion, a corresponding network, and a corresponding computer program product according to the independent claims. Advantageous developments and improvements to the approach presented here result from the description and are described in the dependent claims.
Vorteile der Erfindung Advantages of the invention
Bei dem hier vorgestellten Ansatz werden von unterschiedlichen Sensoren erfasste Objekte anhand ihrer Kinematik assoziiert und zusammengeführt. Zusätzlich werden andere, für die kinematische Assoziation nicht verwendete Merkmale zwischengespeichert und nach der Assoziation zu den zusammengeführten Objekten hinzugefügt. In the approach presented here, objects detected by different sensors are associated and brought together based on their kinematics. In addition, others not used for kinematic association are used Features cached and added to the merged objects after association.
Durch den hier vorgestellten Ansatz können Merkmale, die für die kinematische Assoziation nicht verwendet werden, für nachfolgende Schritte weitergegeben werden. Diese Merkmale können so nicht mehr verloren gehen. The approach presented here allows features that are not used for kinematic association to be passed on to subsequent steps. These features can no longer be lost.
Es wird ein Verfahren zur Sensordatenfusion vorgeschlagen, wobei von zumindest zwei Sensoren Objektlisten mit Merkmalen erfasster Objekte eingelesen werden, aus den Objektlisten jeweils Kinematikmerkmale und Zusatzmerkmale der erfassten Objekte extrahiert werden und zeitlich zusammen erfassten Kinematikmerkmalen und Zusatzmerkmalen jeweils eine gemeinsame Kennung zugewiesen wird, wobei die von den verschiedenen Sensoren zu einem Objekt erfassten Kinematikmerkmale unter Verwendung einer Kinematikfusion zu einem Fusionsobjekt zusammengeführt werden, wobei bei der Kinematikfusion die zugewiesenen Kennungen der Kinematikmerkmale erhalten werden, wobei unter Verwendung der Kennungen der zu dem Fusionsobjekt zusammengeführten Kinematikmerkmale die Zusatzmerkmale mit den entsprechenden Kennungen zu dem Fusionsobjekt hinzugefügt werden. A method for sensor data fusion is proposed, in which object lists with features of detected objects are read in by at least two sensors, kinematic features and additional features of the detected objects are extracted from the object lists, and a common identifier is assigned to kinematic features and additional features recorded together at the same time, whereby the of The kinematics features detected by the various sensors to form an object are merged into a fusion object using a kinematics fusion, the assigned identifiers of the kinematics features being obtained during the kinematics fusion, wherein using the identifiers of the kinematics features merged to form the fusion object, the additional features with the corresponding identifiers for the fusion object to be added.
Ideen zu Ausführungsformen der vorliegenden Erfindung können unter anderem als auf den nachfolgend beschriebenen Gedanken und Erkenntnissen beruhend angesehen werden. Ideas for embodiments of the present invention may be considered based on, among other things, the ideas and findings described below.
Ausgestaltungen des hierin beschriebenen Sensordatenfusionsverfahrens und des zu dessen Implementierung eingesetzten Netzwerks können beispielsweise dazu eingesetzt werden, einem Fahrzeug zu ermöglichen, mithilfe einer Mehrzahl von Sensoren empfangene Sensordaten in einer vorteilhaften Weise auszuwerten, um letztendlich eine Information über eine Umgebung des Fahrzeugs zu erzeugen. Die erzeugte Information kann beispielsweise dazu genutzt werden, um das Fahrzeug oder einzelne seiner Funktionalitäten zu steuern und/oder um einen Fahrer des Fahrzeugs beim Steuern desselben zu unterstützen. Das Netzwerk kann hierbei Teil einer Wahrnehmungssensorik sein oder mit dieser kommunizieren. Insbesondere kann das Netzwerk in einem Fahrzeugassistenzsystem eingesetzt sein. Embodiments of the sensor data fusion method described herein and the network used to implement it can, for example, be used to enable a vehicle to evaluate sensor data received using a plurality of sensors in an advantageous manner in order to ultimately generate information about the vehicle's surroundings. The information generated can be used, for example, to control the vehicle or individual functions thereof and/or to support a driver of the vehicle in controlling the vehicle. The network can be part of a perception sensor system or communicate with it. In particular, the network can be used in a vehicle assistance system.
Ein Sensor kann Objekte in einem Erfassungsbereich erfassen, die Objekte und Merkmale der Objekte erkennen und die Merkmale der erkannten Objekte als Objektliste ausgeben. Eine Objektliste kann unterschiedliche Merkmale enthalten. Von unterschiedlichen Sensoren können unterschiedliche Objektlisten bereitgestellt werden. Die Sensoren können zumindest anteilig überlappende Erfassungsbereiche aufweisen. Somit kann ein und dasselbe Objekt von mehreren Sensoren erfasst werden, von mehreren Sensoren Merkmale des Objekts erkannt werden und die Merkmale in mehreren Objektlisten abgebildet werden. A sensor can detect objects in a detection area, detect the objects and features of the objects, and describe the features of the detected objects as Output object list. An object list can contain different characteristics. Different object lists can be provided by different sensors. The sensors can have at least partially overlapping detection areas. This means that one and the same object can be detected by multiple sensors, features of the object can be recognized by multiple sensors, and the features can be mapped in multiple object lists.
Eine Sensordatenfusion kann die in mehreren Objektlisten abgebildeten Merkmale zusammenführen. Dazu kann eine Kinematik beziehungsweise Bewegung des Objekts beobachtet werden. Die Kinematik kann durch Kinematikmerkmale des Objekts in der Objektliste abgebildet sein. Kinematikmerkmale können beispielsweise eine Geschwindigkeit des Objekts, eine Beschleunigung des Objekts, eine Position des Objekts und/oder eine Ausrichtung des Objekts abbilden. Wenn dasselbe Objekt von mehreren Sensoren erfasst wird, wird auch dieselbe Kinematik des Objekts erfasst und die Kinematikmerkmale aus unterschiedlichen Objektlisten bilden dieselbe Kinematik ab. Diese Kinematikmerkmale können durch eine Kinematikfusion zusammengeführt werden. Sensor data fusion can combine the features represented in multiple object lists. For this purpose, the kinematics or movement of the object can be observed. The kinematics can be represented by kinematics features of the object in the object list. Kinematic features can, for example, represent a speed of the object, an acceleration of the object, a position of the object and/or an orientation of the object. If the same object is detected by multiple sensors, the same kinematics of the object are also detected and the kinematics features from different object lists represent the same kinematics. These kinematics features can be brought together through kinematics fusion.
Zusatzmerkmale können Informationen zu dem Objekt abbilden, die keinen Bezug zur Kinematik des Objekts aufweisen. Die Zusatzmerkmale können beispielsweise eine Farbe des Objekts, eine Größe des Objekts, eine Masse des Objekts, ein Material des Objekts und/oder einen Typ beziehungsweise eine Klasse des Objekts abbilden. Additional features can represent information about the object that has no relation to the kinematics of the object. The additional features can, for example, represent a color of the object, a size of the object, a mass of the object, a material of the object and/or a type or class of the object.
Eine Kennung kann beispielsweise einen Erfassungszeitpunkt des Merkmals repräsentieren. Die Kennung kann eindeutig sein. Die Kennung kann den erfassenden Sensor kennzeichnen. Die Kennung kann die zusammen erfassten Merkmale eindeutig identifizieren. An identifier can, for example, represent a detection time of the feature. The identifier can be unique. The identifier can identify the detecting sensor. The identifier can uniquely identify the features recorded together.
Ein Fusionsobjekt kann ein durch zumindest zwei Sensoren erfasstes Objekt sein. Das Fusionsobjekt kann von den unterschiedlichen Sensoren erfasste Merkmale aufweisen. A fusion object can be an object detected by at least two sensors. The fusion object can have features detected by the different sensors.
Die Zusatzmerkmale mit ihren Kennungen können in einem Merkmalspuffer gespeichert werden. Die Zusatzmerkmale können zwischengespeichert werden, während die Kinematikfusion ausgeführt wird. Der Merkmalspuffer kann beispielsweise ein Ringpufferspeicher sein. Die Zusatzmerkmale können nach der Kinematikfunktion aus dem Merkmalspuffer ausgelesen werden. Dabei können die Zusatzmerkmale pro Sensor in einem eigenen Merkmalspuffer gespeichert werden. Ebenso können die Zusatzmerkmale von mehreren Objektlisten gemeinsam gespeichert werden. Die Kennungen können eine chronologische Reihenfolge der Zusatzmerkmale der verschiedenen Sensoren definieren. The additional features with their identifiers can be stored in a feature buffer. The additional features can be cached while the kinematics fusion is running. The feature buffer can for example, be a ring buffer memory. The additional features can be read from the feature buffer after the kinematics function. The additional features can be saved for each sensor in its own feature buffer. The additional features of several object lists can also be saved together. The identifiers can define a chronological order of the additional features of the various sensors.
Die Kinematikmerkmale mit ihren Kennungen können in einem Kinematikpuffer gespeichert werden. Der Kinematikpuffer kann beispielsweise ein Ringpufferspeicher sein. Die Kinematikmerkmale können pro Sensor in einem eigenen Kinematikpuffer gespeichert werden. Ebenso können die Kinematikmerkmale von mehreren Objektlisten gemeinsam gespeichert werden. Die Kennungen können eine chronologische Reihenfolge der Kinematikmerkmale definieren. Die Kinematikmerkmale der verschiedenen Sensoren können bei der Kinematikfusion unter Verwendung der chronologischen Reihenfolge zu dem Fusionsobjekt zusammengeführt werden. Zeitverzögert eingelesene Kinematikmerkmale können unter Verwendung der Kennungen in die chronologische Reihenfolge eingereiht werden. Wenn Kinematikmerkmale beispielsweise aufgrund von Signallaufzeiten und/oder vorgelagerter Verarbeitungsschritte zeitverzögert eingelesen werden, kann die Kinematikfusion erneut durchlaufen werden. The kinematics features with their identifiers can be saved in a kinematics buffer. The kinematics buffer can be, for example, a ring buffer memory. The kinematics features can be saved in a separate kinematics buffer for each sensor. The kinematics features of several object lists can also be saved together. The identifiers can define a chronological order of the kinematic features. The kinematics features of the different sensors can be merged into the fusion object using the chronological order during kinematics fusion. Kinematic features read with a time delay can be arranged in chronological order using the identifiers. If kinematics features are read with a time delay, for example due to signal transit times and/or previous processing steps, the kinematics fusion can be run through again.
Die Zusatzmerkmale im Merkmalspuffer können nach einer vordefinierten Speicherdauer gelöscht werden. Wenn die Zusatzmerkmale innerhalb der Speicherdauer nicht ausgelesen werden, können die Zusatzmerkmale gelöscht werden. Die Zusatzmerkmale können schnell veralten. Ebenso können in der Kinematikfusion nicht verwendete Kinematikmerkmale nach einer vordefinierten Speicherdauer gelöscht werden. Die Kinematikmerkmale können schnell veralten. The additional features in the feature buffer can be deleted after a predefined storage period. If the additional features are not read within the storage period, the additional features can be deleted. The additional features can quickly become outdated. Likewise, kinematics features not used in kinematics fusion can be deleted after a predefined storage period. The kinematics features can quickly become outdated.
Das Fusionsobjekt kann unter Verwendung der hinzugefügten Zusatzmerkmale plausibilisiert werden. Insbesondere können Zusatzmerkmale von unterschiedlichen Sensoren zum Plausibilisieren verwendet werden. The fusion object can be checked for plausibility using the additional features added. In particular, additional features of different sensors can be used to check plausibility.
Beispielsweise kann das Fusionsobjekt mit einer verringerten Zuverlässigkeit bewertet werden, wenn beim Plausibilisieren eine Inkonsistenz der Zusatzmerkmale erkannt wird. Eine Inkonsistenz kann beispielsweise erkannt werden, wenn ein Sensor ein erstes Zusatzmerkmal erkennt, der andere Sensor aber ein widersprüchliches anderes Zusatzmerkmal erkennt, also beispielsweise der erste Sensor einen ersten Objekttyp erkennt, der andere Sensor aber einen anderen Objekttyp erkennt. Ebenso kann eine Inkonsistenz erkannt werden, wenn sich zumindest ein Zusatzmerkmal im Verlauf der betrachteten Kinematik verändert, also wenn beispielsweise eine Farbe des Objekts plötzlich verändert erkannt wird. For example, the fusion object can be rated with reduced reliability if an inconsistency in the additional features is detected during the plausibility check. An inconsistency can be detected, for example, when one sensor detects a first additional feature while the other sensor detects it but detects a contradictory other additional feature, for example the first sensor detects a first object type, but the other sensor detects a different object type. Likewise, an inconsistency can be recognized if at least one additional feature changes in the course of the kinematics under consideration, for example if a color of the object is suddenly recognized as having changed.
Kinematikmerkmale, deren Zusatzmerkmale eine Inkonsistenz aufweisen, können verworfen werden. Diese Kinematikmerkmale können möglicherweise zu einem anderen Objekt gehören. Die Kinematikfusion kann ohne die verworfenen Kinematikmerkmale erneut durchgeführt werden. Eine weitere Kinematikfusion kann unter Verwendung der verworfenen Kinematikmerkmale durchgeführt werden, um das andere Objekt als weiteres Fusionsobjekt zu erkennen. Kinematic features whose additional features show an inconsistency can be discarded. These kinematic features may potentially belong to another object. Kinematics fusion can be performed again without the discarded kinematics features. Another kinematics fusion can be performed using the discarded kinematics features to recognize the other object as another fusion object.
Das Verfahren ist vorzugsweise computerimplementiert und kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein. The method is preferably computer-implemented and can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a control device.
Der hier vorgestellte Ansatz schafft ferner ein Netzwerk, das dazu ausgebildet ist, um die Schritte einer Variante des hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. The approach presented here also creates a network that is designed to carry out, control or implement the steps of a variant of the method presented here in appropriate facilities.
Das Netzwerk kann ein elektrisches Gerät mit zumindest einer Recheneinheit zum Verarbeiten von Signalen oder Daten, zumindest einer Speichereinheit zum Speichern von Signalen oder Daten, und zumindest einer Schnittstelle und/oder einer Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten, die in ein Kommunikationsprotokoll eingebettet sind, sein. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein sogenannter System-ASIC oder ein Mikrocontroller zum Verarbeiten von Sensorsignalen und Ausgeben von Datensignalen in Abhängigkeit von den Sensorsignalen sein. Die Speichereinheit kann beispielsweise ein Flash-Speicher, ein EPROM oder eine magnetische Speichereinheit sein. Die Schnittstelle kann als Sensorschnittstelle zum Einlesen der Sensorsignale von einem Sensor und/oder als Aktorschnittstelle zum Ausgeben der Datensignale und/oder Steuersignale an einen Aktor ausgebildet sein. Die Kommunikationsschnittstelle kann dazu ausgebildet sein, die Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben. Die Schnittstellen können auch Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind. Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird. The network can be an electrical device with at least one computing unit for processing signals or data, at least one storage unit for storing signals or data, and at least one interface and/or a communication interface for reading in or outputting data that is embedded in a communication protocol, be. The computing unit can be, for example, a signal processor, a so-called system ASIC or a microcontroller for processing sensor signals and outputting data signals depending on the sensor signals. The storage unit can be, for example, a flash memory, an EPROM or a magnetic storage unit. The interface can be designed as a sensor interface for reading in the sensor signals from a sensor and/or as an actuator interface for outputting the data signals and/or control signals to an actuator. The communication interface can be designed to read or output the data wirelessly and/or by wire. The interfaces can also be software modules that are present, for example, on a microcontroller alongside other software modules. Also advantageous is a computer program product or computer program with program code, which can be stored on a machine-readable carrier or storage medium such as a semiconductor memory, a hard drive memory or an optical memory and for carrying out, implementing and / or controlling the steps of the method according to one of the embodiments described above is used, particularly if the program product or program is executed on a computer or device.
Es wird darauf hingewiesen, dass einige der möglichen Merkmale und Vorteile der Erfindung hierin mit Bezug auf unterschiedliche Ausführungsformen beschrieben sind. Ein Fachmann erkennt, dass die Merkmale des Steuergeräts und des Verfahrens in geeigneter Weise kombiniert, angepasst oder ausgetauscht werden können, um zu weiteren Ausführungsformen der Erfindung zu gelangen. It should be noted that some of the possible features and advantages of the invention are described herein with reference to various embodiments. A person skilled in the art will recognize that the features of the control device and the method can be suitably combined, adapted or exchanged to arrive at further embodiments of the invention.
Kurze Beschreibung der Zeichnung Short description of the drawing
Nachfolgend werden Ausführungsformen der Erfindung unter Bezugnahme auf die beigefügte Zeichnung beschrieben, wobei weder die Zeichnung noch die Beschreibung als die Erfindung einschränkend auszulegen sind. Embodiments of the invention are described below with reference to the accompanying drawing, whereby neither the drawing nor the description are to be construed as limiting the invention.
Fig. 1 zeigt eine Darstellung eines Netzwerks zur Sensordatenfusion gemäß einem Ausführungsbeispiel. 1 shows a representation of a network for sensor data fusion according to an exemplary embodiment.
Die Figur ist lediglich schematisch und nicht maßstabsgetreu. Gleiche Bezugszeichen bezeichnen gleiche oder gleichwirkende Merkmale. The figure is only schematic and not to scale. The same reference numerals denote the same or identical features.
Ausführungsformen der Erfindung Embodiments of the invention
Fig. 1 zeigt eine Darstellung eines Netzwerks 100 zur Sensordatenfusion gemäß einem Ausführungsbeispiel. Die zu fusionierenden Sensordaten werden von zumindest zwei Sensoren 102 bereitgestellt. Hier werden beispielsweise von zwei Sensoren 102 Sensordaten bereitgestellt. Die Sensoren 102 können gleichartig oder unterschiedlich sein. Beispielsweise kann ein Sensor 102 ein Radarsensor sein, während der andere Sensor 102 eine Kamera ist. Die Sensoren 102 erfassen je einen Erfassungsbereich 104. Die Erfassungsbereiche 104 von zumindest zwei der Sensoren 102 überlappen sich zumindest anteilig. Die Sensoren 102 erfassen Objekte 106 innerhalb der Erfassungsbereiche 104 und bilden Merkmale der Objekte 106 in Objektlisten 108 ab. Die zu fusionierenden Sensordaten liegen damit hier in Form der Objektlisten 108 vor. Die Sensordaten können auch als Vorstufe der Objektlisten 108 vorliegen, beispielsweise als Punktwolken. Dann ist eine zwischengeschaltete Objekterkennung erforderlich. 1 shows a representation of a network 100 for sensor data fusion according to an exemplary embodiment. The sensor data to be merged is provided by at least two sensors 102. Here, for example, two sensors 102 provide sensor data. The sensors 102 can be similar or different. For example, one sensor 102 may be a radar sensor while the other sensor 102 is a camera. The sensors 102 each detect a detection area 104. The detection areas 104 of at least two of the sensors 102 overlap at least partially. The sensors 102 detect objects 106 within the detection areas 104 and map features of the objects 106 in object lists 108. The sensor data to be merged is therefore available here in the form of object lists 108. The sensor data can also be present as a preliminary stage of the object lists 108, for example as point clouds. Then an intermediate object recognition is required.
Wenn ein Objekt von mehreren Sensoren 102 erfasst wird, werden Merkmale des Objekts 106 in den Objektlisten 108 aller erfassenden Sensoren 102 abgebildet. Da das Objekt 106 jeweils aus einer Perspektive des erfassenden Sensors 102 erfasst wird, unterscheiden sich die in den Objektlisten 108 abgebildeten Merkmale zumindest geringfügig. Ebenfalls können unterschiedliche Sensoren 102 aufgrund ihrer unterschiedlichen Sensortechnik unterschiedliche Merkmale des gleichen Objekts 106 erfassen. If an object is detected by multiple sensors 102, features of the object 106 are mapped in the object lists 108 of all detecting sensors 102. Since the object 106 is detected from a perspective of the detecting sensor 102, the features depicted in the object lists 108 differ at least slightly. Different sensors 102 can also detect different features of the same object 106 due to their different sensor technology.
Das Netzwerk 100 liest die Objektlisten 108 von den Sensoren 102 ein. In einer Extraktionseinrichtung 110 des Netzwerks 100 werden Kinematikmerkmale 112 der erfassten Objekte 106 und Zusatzmerkmale 114 der erfassten Objekte 106 aus den Objektlisten extrahiert. The network 100 reads the object lists 108 from the sensors 102. In an extraction device 110 of the network 100, kinematic features 112 of the detected objects 106 and additional features 114 of the detected objects 106 are extracted from the object lists.
Die Kinematikmerkmale 112 bilden kinematische Eigenschaften der Objekte 106, wie beispielsweise eine Geschwindigkeit, eine Beschleunigung und/oder eine Position des jeweiligen Objekts 106 ab. Die kinematischen Eigenschaften werden bei einer anschließenden Kinematikfusion verwendet. The kinematic features 112 represent kinematic properties of the objects 106, such as a speed, an acceleration and/or a position of the respective object 106. The kinematic properties are used in a subsequent kinematics fusion.
Die Zusatzmerkmale 114 bilden Eigenschaften der Objekte 106 ab, die bei der Kinematikfusion nicht verwendet werden, wie beispielsweise eine Farbe, eine Größe, eine Masse, ein Material und/oder einen Typ des jeweiligen Objekts 106. The additional features 114 represent properties of the objects 106 that are not used in kinematics fusion, such as a color, a size, a mass, a material and/or a type of the respective object 106.
Bei der Extraktion in der Extraktionseinrichtung 110 werden den Kinematikmerkmalen 112 und den Zusatzmerkmalen 114 Kennungen 116 zugeordnet. Die Kennungen 116 sind dabei jeweils für zeitgleich erfasste Merkmale gleich. Die Kennungen 116 kennzeichnen damit zusammengehörige Kinematikmerkmale 112 und Zusatzmerkmale 114. Die Kinematikmerkmale 112 aus den unterschiedlichen Objektlisten 108 werden in einer Fusionseinrichtung 118 des Netzwerks 100 durch Kinematikfusion fusioniert. Dabei werden die Kinematikmerkmale 112 eines von mehreren Sensoren 102 erfassten Objekts 106 zu einem Fusionsobjekt 120 zusammengeführt. Die Kennungen 116 der jeweils fusionierten Kinematikmerkmale 112 bleiben erhalten und werden dem Fusionsobjekt 120 zugeordnet. During the extraction in the extraction device 110, the kinematics features 112 and the additional features 114 are assigned identifiers 116. The identifiers 116 are the same for features recorded at the same time. The identifiers 116 identify associated kinematics features 112 and additional features 114. The kinematics features 112 from the different object lists 108 are fused in a fusion device 118 of the network 100 by kinematics fusion. The kinematic features 112 of an object 106 detected by several sensors 102 are combined to form a fusion object 120. The identifiers 116 of the fused kinematics features 112 are retained and are assigned to the fusion object 120.
Nach der Kinematikfusion werden dem zumindest einen Fusionsobjekt 120 in einer Zusammenführungseinrichtung 122 des Netzwerks 100 die Zusatzmerkmale 114 mit den entsprechenden Kennungen 116 hinzugefügt. After the kinematics fusion, the additional features 114 with the corresponding identifiers 116 are added to the at least one fusion object 120 in a merging device 122 of the network 100.
In einem Ausführungsbeispiel werden die Kinematikmerkmale 112 und Zusatzmerkmale 114 mit ihren Kennungen 116 in Ringpuffern 124 des Netzwerks 100 zwischengespeichert. In den Ringpuffern 124 werden die Kinematikmerkmale 112 und Zusatzmerkmale 114 chronologisch gespeichert. Speicherplätze der Ringpuffer 124 werden dabei nacheinander verwendet. Beim Speichern wird so jeweils der Speicherplatz mit dem ältesten Inhalt überschrieben. Wenn die Sensordaten eines oder mehrerer der Sensoren 102 mit einem Zeitversatz eingelesen werden, kann der Zeitversatz durch die Zwischenspeicherung kompensiert werden. Wenn Sensordaten mit dem Zeitversatz eingelesen werden, kann die Kinematikfusion mit den nachträglich extrahierten Kinematikmerkmalen 112 wiederholt werden. So können für die Kinematikfusion jeweils zeitgleich erfasste Kinematikmerkmale 112 verwendet werden und eine Genauigkeit der Kinematikfusion erhöht werden. Die Zusatzmerkmale 114 verbleiben zumindest so lange im Ringpuffer 124, bis sie dem passenden Fusionsobjekt 120 zugeordnet werden können. In one exemplary embodiment, the kinematic features 112 and additional features 114 with their identifiers 116 are cached in ring buffers 124 of the network 100. The kinematic features 112 and additional features 114 are stored chronologically in the ring buffers 124. Memory locations of the ring buffers 124 are used one after the other. When saving, the storage space with the oldest content is overwritten. If the sensor data of one or more of the sensors 102 are read in with a time offset, the time offset can be compensated for by buffering. If sensor data is read in with the time offset, the kinematics fusion can be repeated with the subsequently extracted kinematics features 112. In this way, kinematic features 112 that are recorded at the same time can be used for the kinematics fusion and the accuracy of the kinematics fusion can be increased. The additional features 114 remain in the ring buffer 124 at least until they can be assigned to the appropriate fusion object 120.
In einem Ausführungsbeispiel werden die Kinematikmerkmale 112 und Zusatzmerkmale 114 pro Sensor 102 in eigenen Ringpuffern 124 zwischengespeichert. So kann eine Vermischung der Merkmale bei zufällig gleichlautenden Kennungen 116 verhindert werden. In one exemplary embodiment, the kinematic features 112 and additional features 114 are temporarily stored for each sensor 102 in their own ring buffers 124. In this way, a mixing of the features can be prevented if identifiers 116 happen to have the same name.
In einem Ausführungsbeispiel wird das Fusionsobjekt 120 unter Verwendung der Zusatzmerkmale 114 in einer Plausibilisierungseinrichtung 126 des Netzwerks 100 plausibilisiert. Die Plausibilisierungseinrichtung 126 ordnet dem Fusionsobjekt 120 einen Zuverlässigkeitswert 128 zu. Beispielsweise kann bei einem Fusionsobjekt 120 eine Inkonsistenz erkannt werden, wenn sich ein Zusatzmerkmal 114 plötzlich ändert. Dem Fusionsobjekt 120 kann bei einer Inkonsistenz ein verringerter Zuverlässigkeitswert 128 zugewiesen werden. Der Zuverlässigkeitswert 128 kann bei nachfolgenden Verarbeitungsschritten berücksichtigt werden. In one exemplary embodiment, the fusion object 120 is checked for plausibility using the additional features 114 in a plausibility check device 126 of the network 100. The plausibility check device 126 assigns a reliability value 128 to the fusion object 120. For example, at an inconsistency can be detected in a fusion object 120 if an additional feature 114 suddenly changes. The fusion object 120 can be assigned a reduced reliability value 128 in the event of an inconsistency. The reliability value 128 can be taken into account in subsequent processing steps.
Eine Inkonsistenz kann beispielsweise erkannt werden, wenn sich der Typ des Fusionsobjekts 120, die Farbe des Fusionsobjekts 120, die Größe des Fusionsobjekts 120, die Masse des Fusionsobjekts 120 und/oder das Material des Fusionsobjekts 120 plötzlich ändert. For example, an inconsistency may be detected when the type of fusion object 120, the color of the fusion object 120, the size of the fusion object 120, the mass of the fusion object 120, and/or the material of the fusion object 120 suddenly changes.
In einem Ausführungsbeispiel werden die Kinematikmerkmale 112 aus den Sensordaten des Sensors 102, der das veränderte Zusatzmerkmal 114 erfasst hat, aus der Kinematikfusion ausgeschlossen und die Kinematikfusion unter Verwendung der verbleibenden Kinematikmerkmale 112 wiederholt, um ein verbessertes Fusionsobjekt 120 zu erhalten. In one embodiment, the kinematics features 112 from the sensor data of the sensor 102 that detected the changed additional feature 114 are excluded from the kinematics fusion and the kinematics fusion is repeated using the remaining kinematics features 112 to obtain an improved fusion object 120.
Nachfolgend werden mögliche Ausgestaltungen der Erfindung nochmals zusammengefasst bzw. mit einer geringfügig anderen Wortwahl dargestellt. Possible embodiments of the invention are summarized again below or presented with a slightly different choice of words.
Es wird eine Fusionsverbesserung vorgestellt. A fusion improvement is presented.
Ein computergesteuertes Auto benötigt ein Wahrnehmungssystem. Da es viele verschiedene Parameter gibt, die von den Sensoren erfasst werden müssen, und auch für eine bessere Leistung in Präzision und Zuverlässigkeit, ist es üblich, alle Sensoren in eine sogenannte "Fusion" einzubeziehen, die versucht, die Eingaben aller Sensoren abzugleichen und ein konsolidiertes Bild der Umgebung auszugeben. A computer-controlled car requires a perception system. Since there are many different parameters that need to be captured by the sensors, and also for better performance in precision and reliability, it is common to include all sensors in a so-called "fusion" which attempts to match the inputs from all sensors and one to output a consolidated image of the environment.
Die Fusion bezieht sich dabei insbesondere auf eine Objektfusion, im Gegensatz zu anderen Arten, die möglich sind. Fusion refers in particular to object fusion, in contrast to other types that are possible.
Typische Implementierungen solcher Fusionssysteme beinhalten einen Assoziationsalgorithmus, der versucht, Übereinstimmungen zwischen bereits verfolgten Objekten und neuen eingehenden Objekten herzustellen. Die Assoziation basiert auf einer Art "Entfernungsmessung", die einen Wert der Ähnlichkeit zwischen den bereits verfolgten Objekten und den neu eingehenden Objekten zuweist. Dieses Matching erfolgt typischerweise auf der Grundlage kinematischer Merkmale der Objekte basierend auf Position, Geschwindigkeit, Beschleunigung usw. Selten hängt dieses Matching von anderen Merkmalen der Objekte, wie z.B. Farbe ab, da nur die Kamera die Farbe bestimmen kann. Typical implementations of such fusion systems include an association algorithm that attempts to establish matches between already tracked objects and new incoming objects. The association is based on a type of "distance measurement" that assigns a value to the similarity between the already tracked objects and the newly incoming objects. This matching is typically done on the basis kinematic features of the objects based on position, speed, acceleration, etc. This matching rarely depends on other features of the objects, such as color, as only the camera can determine the color.
Einige Fusionsimplementierungen verwenden einen Ringpuffer für die eingehenden Messungen, um mit Messinformationen außerhalb der Reihenfolge umgehen zu können, die beispielsweise von einer Quelle, wie einer Kameraeinheit am Straßenrand stammen, die aufgrund von Verarbeitungs- und Kommunikationsverzögerungen alte Informationen senden kann. Some fusion implementations use a ring buffer for the incoming measurements to handle out-of-order measurement information, for example from a source such as a roadside camera unit that may send old information due to processing and communication delays.
Wertvolle verfügbare Informationen, wie die Farbe des Fahrzeugs (von der Kamera), die Metallmasse (vom Radar) und andere, gehen typischerweise während dieses Fusionsprozesses verloren und/oder werden für den Assoziationsprozess nicht berücksichtigt. Auch bei der Betrachtung können nur die verfolgten Informationen berücksichtigt werden, bei denen es sich um eine fusionierte Information aller Eingaben bis zu diesem Zeitpunkt handelt. Valuable available information, such as the color of the vehicle (from the camera), the metal mass (from the radar), and others, is typically lost during this fusion process and/or not taken into account for the association process. Also, only the tracked information, which is a merged information of all inputs up to that point, can be taken into account when viewing.
Hier wird eine Fusion vorgestellt, bei der zumindest ein erster Ringpuffer verwendet wird, um mit Informationen außerhalb der Reihenfolge umzugehen, zusätzlich wird ein zweiter Ringpuffer verwendet, der alle aus jeder Messung verfügbaren Informationen enthält. Insbesondere werden alle Informationen, die nicht im Assoziations-/Fusionsprozess verwendet werden, in dem zweiten Ringpuffer parallel zum ersten Ringpuffer gespeichert, der die für die Algorithmen relevanten Informationen enthält. Insbesondere werden für jedes verfolgte Objekt dabei nicht nur die relevanten Tracking-Informationen verfolgt, sondern auch eine Liste von Verweisen auf die Originaldaten in den Ringpuffern. A fusion is presented here in which at least a first ring buffer is used to deal with out-of-order information, additionally a second ring buffer is used that contains all the information available from each measurement. In particular, all information that is not used in the association/fusion process is stored in the second ring buffer in parallel to the first ring buffer, which contains the information relevant to the algorithms. In particular, for each tracked object, not only the relevant tracking information is tracked, but also a list of references to the original data in the ring buffers.
Die Verfügbarkeit dieser Informationen ermöglicht es, die Ausgabe der Fusion mit allen gesammelten Daten, die bei der Fusion keine Rolle spielen, zu verbessern und/oder anzureichern. Darüber hinaus können diese verfügbaren Informationen für eine bessere Fusion genutzt werden. Wenn beispielsweise festgestellt wird, dass ein verfolgtes Objekt ein Produkt von Messungen ist, bei denen sich beispielsweise die Farbe von einer Messung zur anderen Messung ändert, können abweichende Messungen eliminiert werden (z. B. mit einem Algorithmus der RANSAC-Familie). The availability of this information makes it possible to improve and/or enrich the output of the merger with all collected data that does not play a role in the merger. Furthermore, this available information can be used for better fusion. For example, if a tracked object is determined to be a product of measurements where, for example, the color changes from one measurement to another measurement, deviant measurements can be eliminated (e.g. using an algorithm in the RANSAC family).
Die eingehenden Messungen werden in relevante Informationen für Assoziations-/Fusions-/Tracking- Algorithmen und "zusätzliche Informationen aufgeteilt. Beide Informationen werden in Ringpuffern gespeichert, die für jeden Sensor unabhängig sind. The incoming measurements are converted into relevant information for association/fusion/tracking algorithms and "additional information divided up. Both information is stored in ring buffers that are independent for each sensor.
Der Assoziations-/Fusionspfad entspricht dem eines hochmodernen Fusionssystems. Der einzige Unterschied besteht darin, dass zu jedem verfolgten Objekt eine Liste von Zeigern/Verweisen auf die ursprünglichen eingehenden Informationen gespeichert wird. Jedes Mal, wenn Messinformationen verwendet werden, um das verfolgte Objekt zu aktualisieren, wird der Liste ein Zeiger hinzugefügt. The association/fusion path corresponds to that of a state-of-the-art fusion system. The only difference is that for each tracked object a list of pointers/references to the original incoming information is stored. Each time measurement information is used to update the tracked object, a pointer is added to the list.
Am Ende der Fusionsalgorithmen wird die Liste der Originalinformationen gescannt, und alle "nicht für die Algorithmen relevanten" Informationen werden der Ausgabe hinzugefügt. Dabei werden Plausibilitätsprüfungen durchgeführt, um sicherzustellen, dass die für das Objekt verwendeten Informationen konsistent sind. Wenn z.B. das Objekt einmal als Fahrrad und einmal als LKW in der Historie erkannt wurde, können die Informationen als "weniger zuverlässig" eingestuft werden, indem beispielsweise die Varianz erhöht oder die Konfidenzbewertung verringert wird. Ausreißer können unter Verwendung von RANSAC oder anderen ähnlichen Algorithmen herausgefiltert werden. At the end of the fusion algorithms, the list of original information is scanned and all "not relevant to the algorithms" information is added to the output. Plausibility checks are carried out to ensure that the information used for the object is consistent. For example, if the object has been recognized once as a bicycle and once as a truck in history, the information can be classified as "less reliable" by, for example, increasing the variance or decreasing the confidence rating. Outliers can be filtered out using RANSAC or other similar algorithms.
Abschließend ist darauf hinzuweisen, dass Begriffe wie „aufweisend“, „umfassend“, etc. keine anderen Elemente oder Schritte ausschließen und Begriffe wie „eine“ oder „ein“ keine Vielzahl ausschließen. Bezugszeichen in den Ansprüchen sind nicht als Einschränkung anzusehen. Finally, it should be noted that terms such as "comprising", "comprising", etc. do not exclude other elements or steps, and terms such as "a" or "an" do not exclude a plurality. Reference symbols in the claims are not to be viewed as a limitation.

Claims

Ansprüche Expectations
1. Verfahren zur Sensordatenfusion, wobei von zumindest zwei Sensoren (102) Objektlisten (108) mit Merkmalen erfasster Objekte (106) eingelesen werden, aus den Objektlisten (108) jeweils Kinematikmerkmale (112) und Zusatzmerkmale (114) der erfassten Objekte (106) extrahiert werden und zeitlich zusammen erfassten Kinematikmerkmalen (112) und Zusatzmerkmalen (114) jeweils eine gemeinsame Kennung (116) zugewiesen wird, wobei die von den verschiedenen Sensoren (102) zu einem Objekt (106) erfassten Kinematikmerkmale (112) unter Verwendung einer Kinematikfusion zu einem Fusionsobjekt (120) zusammengeführt werden, wobei bei der Kinematikfusion die zugewiesenen Kennungen (116) der Kinematikmerkmale (112) erhalten werden, wobei unter Verwendung der Kennungen (116) der zu dem Fusionsobjekt (120) zusammengeführten Kinematikmerkmale (112) die Zusatzmerkmale (114) mit den entsprechenden Kennungen (116) zu dem Fusionsobjekt (120) hinzugefügt werden. 1. Method for sensor data fusion, wherein object lists (108) with features of detected objects (106) are read in from at least two sensors (102), from the object lists (108) each kinematics features (112) and additional features (114) of the detected objects (106) are extracted and a common identifier (116) is assigned to kinematic features (112) and additional features (114) recorded together in time, the kinematic features (112) recorded by the various sensors (102) for an object (106) using kinematic fusion a fusion object (120), the assigned identifiers (116) of the kinematics features (112) being obtained during the kinematics fusion, the additional features (114) being obtained using the identifiers (116) of the kinematics features (112) merged to form the fusion object (120). ) can be added to the fusion object (120) with the corresponding identifiers (116).
2. Verfahren gemäß Anspruch 1, bei dem die Zusatzmerkmale (114) mit ihren Kennungen (116) in einem Merkmalspuffer gespeichert werden. 2. Method according to claim 1, in which the additional features (114) are stored with their identifiers (116) in a feature buffer.
3. Verfahren gemäß Anspruch 2, bei dem die Zusatzmerkmale (114) im Merkmalspuffer nach einer vordefinierten Speicherdauer gelöscht werden. 3. The method according to claim 2, in which the additional features (114) in the feature buffer are deleted after a predefined storage period.
4. Verfahren gemäß einem der vorhergehenden Ansprüche, bei dem das Fusionsobjekt (120) unter Verwendung der hinzugefügten Zusatzmerkmale (114) plausibilisiert wird. 4. Method according to one of the preceding claims, in which the fusion object (120) is checked for plausibility using the added additional features (114).
5. Verfahren gemäß Anspruch 4, bei dem das Fusionsobjekt (120) mit einer verringerten Zuverlässigkeit bewertet wird, wenn beim Plausibilisieren eine Inkonsistenz der Zusatzmerkmale (114) erkannt wird. 5. The method according to claim 4, in which the fusion object (120) is rated with reduced reliability if an inconsistency in the additional features (114) is detected during plausibility checking.
6. Verfahren gemäß einem der Ansprüche 4 bis 5, bei dem Kinematikmerkmale (112) verworfen werden, deren Zusatzmerkmale (114) eine Inkonsistenz aufweisen. 6. Method according to one of claims 4 to 5, in which kinematic features (112) are discarded whose additional features (114) have an inconsistency.
7. Verfahren gemäß einem der vorhergehenden Ansprüche, bei dem die Kinematikmerkmale (112) mit ihren Kennungen (116) in einem Kinematikpuffer gespeichert werden, wobei die Kennungen (116) eine chronologische Reihenfolge der Kinematikmerkmale (116) definieren, wobei die Kinematikmerkmale (112) der verschiedenen Sensoren (102) bei der Kinematikfusion unter Verwendung der chronologischen Reihenfolge zu dem Fusionsobjekt (120) zusammengeführt werden. 7. Method according to one of the preceding claims, in which the kinematics features (112) are stored with their identifiers (116) in a kinematics buffer, the identifiers (116) defining a chronological order of the kinematics features (116), the kinematics features (112) the various sensors (102) are merged into the fusion object (120) during the kinematics fusion using the chronological order.
8. Verfahren gemäß Anspruch 7, bei dem zeitverzögert eingelesene Kinematikmerkmale (112) unter Verwendung der Kennungen (116) in die chronologische Reihenfolge eingereiht werden. 8. The method according to claim 7, in which kinematic features (112) read with a time delay are arranged in the chronological order using the identifiers (116).
9. Netzwerk (100) zur Sensordatenfusion, wobei das Netzwerk (100) dazu konfiguriert ist, das Verfahren gemäß einem der vorhergehenden Ansprüche in entsprechenden Einrichtungen auszuführen, umzusetzen und/oder anzusteuern. 9. Network (100) for sensor data fusion, wherein the network (100) is configured to execute, implement and / or control the method according to one of the preceding claims in corresponding devices.
10. Computerprogrammprodukt, das dazu eingerichtet ist, einen Prozessor bei Ausführung des Computerprogrammprodukts dazu anzuleiten, das Verfahren gemäß einem der Ansprüche 1 bis 8 auszuführen, umzusetzen und/oder anzusteuern. 10. Computer program product which is designed to instruct a processor when executing the computer program product to execute, implement and/or control the method according to one of claims 1 to 8.
11. Maschinenlesbares Speichermedium, auf dem das11. Machine-readable storage medium on which the
Computerprogrammprodukt gemäß Anspruch 10 gespeichert ist. Computer program product is stored according to claim 10.
PCT/EP2023/066657 2022-06-23 2023-06-20 Method and network for sensor data fusion WO2023247550A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022206345.7 2022-06-23
DE102022206345.7A DE102022206345A1 (en) 2022-06-23 2022-06-23 Method and network for sensor data fusion

Publications (1)

Publication Number Publication Date
WO2023247550A1 true WO2023247550A1 (en) 2023-12-28

Family

ID=87003040

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/066657 WO2023247550A1 (en) 2022-06-23 2023-06-20 Method and network for sensor data fusion

Country Status (2)

Country Link
DE (1) DE102022206345A1 (en)
WO (1) WO2023247550A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015139864A1 (en) * 2014-03-20 2015-09-24 Robert Bosch Gmbh Method and device for operating a vehicle
US20180068206A1 (en) * 2016-09-08 2018-03-08 Mentor Graphics Corporation Object recognition and classification using multiple sensor modalities
US20180143646A1 (en) * 2016-11-23 2018-05-24 Electronics And Telecommunications Research Institute Object recognition device, autonomous driving system including the same, and object recognition method using the object recognition device
WO2021092702A1 (en) * 2019-11-13 2021-05-20 Youval Nehmadi Autonomous vehicle environmental perception software architecture
DE102020117340A1 (en) * 2020-07-01 2022-01-05 Zf Cv Systems Europe Bv A method for capturing the surroundings with at least two independent imaging sensors for capturing the surroundings, a device for carrying out the method, a vehicle and a correspondingly designed computer program
US20220180117A1 (en) * 2020-12-04 2022-06-09 Toyota Research Institute, Inc. System and method for tracking detected objects

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015139864A1 (en) * 2014-03-20 2015-09-24 Robert Bosch Gmbh Method and device for operating a vehicle
US20180068206A1 (en) * 2016-09-08 2018-03-08 Mentor Graphics Corporation Object recognition and classification using multiple sensor modalities
US20180143646A1 (en) * 2016-11-23 2018-05-24 Electronics And Telecommunications Research Institute Object recognition device, autonomous driving system including the same, and object recognition method using the object recognition device
WO2021092702A1 (en) * 2019-11-13 2021-05-20 Youval Nehmadi Autonomous vehicle environmental perception software architecture
DE102020117340A1 (en) * 2020-07-01 2022-01-05 Zf Cv Systems Europe Bv A method for capturing the surroundings with at least two independent imaging sensors for capturing the surroundings, a device for carrying out the method, a vehicle and a correspondingly designed computer program
US20220180117A1 (en) * 2020-12-04 2022-06-09 Toyota Research Institute, Inc. System and method for tracking detected objects

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HABERJAHN MATHIAS ET AL: "Multi level fusion of competitive sensors for automotive environment perception", PROCEEDINGS OF THE 16TH INTERNATIONAL CONFERENCE ON INFORMATION FUSION, ISIF ( INTL SOCIETY OF INFORMATION FUSI, 9 July 2013 (2013-07-09), pages 397 - 403, XP032512430, ISBN: 978-605-86311-1-3, [retrieved on 20131018] *
MURESAN MIRCEA PAUL ET AL: "Stabilization and Validation of 3D Object Position Using Multimodal Sensor Fusion and Semantic Segmentation", SENSORS, vol. 20, no. 4, 18 February 2020 (2020-02-18), pages 1110, XP055982375, DOI: 10.3390/s20041110 *
STEINHARDT NICO: "Eine Architektur zur Schätzung kinematischer Fahrzeuggrößen mit integrierter Qualitätsbewertung durch Sensordatenfusion", DISSERTATION AN DER TECHNISCHEN UNIVERSITÄT DARMSTADT, 8 July 2014 (2014-07-08), pages 1 - 208, XP093079878, Retrieved from the Internet <URL:https://tuprints.ulb.tu-darmstadt.de/4204/1/2014_Steinhardt_Dissertation.pdf> [retrieved on 20230907] *

Also Published As

Publication number Publication date
DE102022206345A1 (en) 2023-12-28

Similar Documents

Publication Publication Date Title
EP1531343B1 (en) Method for tracking objects
DE102016223422A1 (en) Method for automatically determining extrinsic parameters of a camera of a vehicle
DE102012013492A1 (en) Method for determining travelling position of vehicle e.g. car in lane, involves comparing determined arrangement and sequence of image features with stored arrangement and sequence of comparison features respectively
DE102012107886A1 (en) Method for the electronic detection of traffic signs
DE102016205433A1 (en) Method, device, card management device and system for pinpoint localization of a motor vehicle in an environment
WO2018202552A1 (en) Method and device for classifying objects in the environment of a motor vehicle
DE102015008879A1 (en) Method for self-localization of a vehicle
DE102018004057A1 (en) Method and system for determining the offset of a steering wheel angle sensor
DE102020210515A1 (en) Method for checking detected changes for an environment model of a digital environment map
DE102018222169A1 (en) On-board visual determination of kinematic parameters of a rail vehicle
DE102018005969A1 (en) Method for operating a driver assistance system with two detection devices
DE102013210725A1 (en) Method and device for detecting traffic signs
DE102016009117A1 (en) Method for locating a vehicle
WO2023247550A1 (en) Method and network for sensor data fusion
WO2011020713A1 (en) Method and control device for determining movement information of an object
DE102014206227A1 (en) Stereo Camera System
DE102017214729A1 (en) Method and device for determining a highly accurate position and for operating an automated vehicle
DE102012020778B4 (en) Method of tagging a sequence of images taken in time sequence with integrated quality control
DE102016211420A1 (en) A method for providing location information for locating a vehicle at a location and method for providing at least one information for locating a vehicle by another vehicle
DE102018202571A1 (en) Method and device for processing data from two vehicle sensors for an autonomous vehicle
DE102020200875A1 (en) Method for providing sensor data by a sensor system of a vehicle
DE102019127322A1 (en) Method for detecting objects in a vehicle environment, device for data processing, computer program product and computer-readable data carrier
DE102019005825A1 (en) Method for generating training data for an electronic computing device external to the motor vehicle, and driver assistance system
DE102018122092A1 (en) Method for determining at least one position parameter of an object in an environment of a motor vehicle, computer program product, driver assistance system and motor vehicle
DE112018003503T5 (en) SYSTEMS AND METHODS FOR TESTING AN AUTOMATIC PERCEPTION SYSTEM

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23734936

Country of ref document: EP

Kind code of ref document: A1