DE102018220018A1 - Method for object detection using a vehicle sensor system - Google Patents

Method for object detection using a vehicle sensor system Download PDF

Info

Publication number
DE102018220018A1
DE102018220018A1 DE102018220018.1A DE102018220018A DE102018220018A1 DE 102018220018 A1 DE102018220018 A1 DE 102018220018A1 DE 102018220018 A DE102018220018 A DE 102018220018A DE 102018220018 A1 DE102018220018 A1 DE 102018220018A1
Authority
DE
Germany
Prior art keywords
vehicles
information
data
objects
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018220018.1A
Other languages
German (de)
Inventor
Udo Schulz
Elmar Staudacher
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102018220018.1A priority Critical patent/DE102018220018A1/en
Priority to PCT/EP2019/081979 priority patent/WO2020104551A1/en
Publication of DE102018220018A1 publication Critical patent/DE102018220018A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096733Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
    • G08G1/09675Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where a selection from the received information takes place in the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096791Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is another vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/46Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]

Abstract

Bei einem Verfahren zur Objekterkennung mittels Sensorsystemen von Fahrzeugen (11, 12) ist eine Mehrzahl von Fahrzeugen (11, 12) miteinander vernetzt. Jedes Fahrzeug (11, 12) verfügt über ein Sensorsystem (111, 112; 1111, 1112) zur Detektion von Objekten (13). Die durch die einzelnen Fahrzeuge (11, 12) bei der Detektion von Objekten erfassten Daten und/oder Informationen werden miteinander fusioniert und plausibilisiert.In a method for object detection using sensor systems of vehicles (11, 12), a plurality of vehicles (11, 12) are networked with one another. Each vehicle (11, 12) has a sensor system (111, 112; 1111, 1112) for the detection of objects (13). The data and / or information recorded by the individual vehicles (11, 12) when objects are detected are merged with one another and checked for plausibility.

Description

Die vorliegende Erfindung betrifft ein Verfahren zur Objekterkennung mittels Sensorsystemen von Fahrzeugen, wobei mehrere Fahrzeuge miteinander vernetzt sind und wobei jedes der Fahrzeuge über ein Sensorsystem zur Detektion von Objekten verfügt. Weiterhin betrifft die Erfindung ein Computerprogramm zur Durchführung des Verfahrens, ein maschinenlesbares Speichermedium, auf dem das Computerprogramm gespeichert ist, sowie ein elektronisches Steuergerät zur Durchführung des Verfahrens.The present invention relates to a method for object detection by means of sensor systems of vehicles, several vehicles being networked with one another and each of the vehicles having a sensor system for detecting objects. Furthermore, the invention relates to a computer program for performing the method, a machine-readable storage medium on which the computer program is stored, and an electronic control device for performing the method.

Stand der TechnikState of the art

Mit dem Begriff Objekterkennung wird allgemein ein Verfahren beschrieben, das mittels optischer, akustischer oder anderer physikalischer Verfahren ein Objekt erkennen kann. Insbesondere die Erkennung von Objekten mittels Kamerasystemen wird bereits vielfach angewendet. Vor allem im Automotive-Bereich werden verschiedene kamerabasierte Systeme mit Funktionen zur Erkennung von Objekten eingesetzt. Beispielsweise können so Verkehrsschilder oder die Fahrspur automatisch erkannt werden. Besondere Bedeutung kommt der Erkennung von Fußgängern zu. Eine Objekterkennung kann für vielfältige Funktionen genutzt werden und ist insbesondere für verschiedene Assistenzfunktionen bis hin zum automatisierten Fahren erforderlich.The term object recognition generally describes a method which can recognize an object by means of optical, acoustic or other physical methods. In particular, the detection of objects by means of camera systems is already widely used. Especially in the automotive sector, various camera-based systems with functions for the detection of objects are used. For example, traffic signs or the lane can be recognized automatically. The detection of pedestrians is of particular importance. Object detection can be used for a wide range of functions and is required in particular for various assistance functions up to automated driving.

Im Allgemeinen basieren Objekterkennungsverfahren auf einer bestimmten Charakteristik eines Objekttyps, beispielsweise einer Person, die auf der Basis eines Trainingsdatensatzes ausgewertet wird. Der Trainingsdatensatz beinhaltet dabei unterschiedliche Ausprägungen eines einzelnen Objekttyps, wobei in einer Entwicklungs- und/oder Applikationsphase des Verfahrens in einem Trainingsschritt aus mehreren Trainingsbildern charakteristische Merkmale erzeugt werden. Aus einer Sammlung von solchen charakteristischen Merkmalen kann eine Gesamtbeschreibung des Objekttyps erstellt werden. Für die Erkennung eines bestimmten Objekttyps (wie zum Beispiel Fahrzeug, Motorrad oder Fußgänger) wird für den jeweiligen Typ eine Vielzahl von Bildbeispielen benötigt, die unterschiedliche Ausprägungen des jeweiligen Objektes bei verschiedenen Umweltbedingungen darstellen. Weiterhin wird eine Vielzahl von Gegenbeispielen benötigt, damit über das maschinelle Lernen charakteristische, bildbasierte Eigenschaften des jeweiligen Objektes ermittelt werden können.In general, object recognition methods are based on a specific characteristic of an object type, for example a person, which is evaluated on the basis of a training data record. The training data record contains different forms of an individual object type, with characteristic features being generated in a training step from several training images in a development and / or application phase of the method. An overall description of the object type can be created from a collection of such characteristic features. To recognize a certain type of object (such as a vehicle, motorcycle or pedestrian), a large number of image examples are required for the respective type, which represent different forms of the respective object under different environmental conditions. Furthermore, a large number of counterexamples are required so that characteristic, image-based properties of the respective object can be determined via machine learning.

Um im Betrieb einen konkreten Merkmalsvektor eindeutig einem Objekttyp zuordnen zu können, ist es in der Regel erforderlich, einen Klassifikator zu trainieren. Dabei werden für die eigentliche Objekterkennung Merkmalszahlen eingesetzt, die das jeweilige Objekt beschreiben. Die Merkmalszahlen können mittels des Klassifikators über viele verschachtelte und automatisch generierte Gewichte in eine Zahl umgerechnet werden, die die Wahrscheinlichkeit für das zu klassifizierende Objekt im aktuellen Suchfenster angibt. Die eintrainierten Objektbeispiele resultieren dann in der Regel in einer starren Struktur der Vorverarbeitung und Objektdetektion auf Basis von festen Filtermasken und Gewichten.In order to be able to clearly assign a specific feature vector to an object type in operation, it is generally necessary to train a classifier. Characteristic numbers that describe the respective object are used for the actual object recognition. Using the classifier, the feature numbers can be converted into a number using many nested and automatically generated weights, which indicates the probability of the object to be classified in the current search window. The trained object examples usually result in a rigid structure of preprocessing and object detection based on fixed filter masks and weights.

Die deutsche Offenlegungsschrift DE 10 2016 003 969 A1 beschreibt ein Verfahren zur Erfassung von Eigenschaften einer Umgebung, wobei mehrere Kraftfahrzeuge über jeweilige Sensoreinrichtungen Beobachtungsdaten der Umgebung erfassen. Eine stationäre Servervorrichtung sendet in Abhängigkeit von einem Mindestanforderungskriterium Abfragenachrichten an die Kraftfahrzeuge, woraufhin die Kraftfahrzeuge diejenigen erfassten Beobachtungsdaten an die Servervorrichtung aussenden, welche das Mindestanforderungskriterium erfüllen.The German publication DE 10 2016 003 969 A1 describes a method for recording properties of an environment, wherein a plurality of motor vehicles acquire observation data of the environment via respective sensor devices. A stationary server device sends query messages to the motor vehicles as a function of a minimum requirement criterion, whereupon the motor vehicles send those acquired observation data to the server device that meet the minimum requirement criterion.

Offenbarung der ErfindungDisclosure of the invention

Vorteile der ErfindungAdvantages of the invention

Die Erfindung stellt ein Verfahren zur Objekterkennung mittels Sensorsystemen von Fahrzeugen bereit, wobei das Verfahren von einer Mehrzahl von Fahrzeugen ausgeht, die miteinander vernetzt sind. Jedes der Fahrzeuge verfügt über wenigstens ein Sensorsystem zur Detektion von Objekten. Kern der Erfindung ist, dass die durch die einzelnen Fahrzeuge bei der Detektion von Objekten erfassten Daten und/oder Informationen miteinander fusioniert und plausibilisiert werden. Bei den Informationen, die auf der Basis der Detektion der Objekte erfasst und/oder ermittelt werden, handelt es sich insbesondere um eine Objekterkennung und/oder um eine Objektklassifikation im eingangs beschriebenen Sinne. Die Objekterkennung selbst und/oder die Objektklassifikation können dabei entweder im Fahrzeug selbst oder auch außerhalb der Fahrzeuge an zentraler Stelle erfolgen. Somit können die Objekterkennungen, die auf den in den einzelnen Fahrzeugen erfassten Daten beruhen, miteinander abgeglichen und gegebenenfalls korrigiert werden. Dieses Verfahren löst das Problem, dass eine Objekterkennung und insbesondere eine Objektklassifikation unterschiedlich trainiert und damit zu unterschiedlichen Ergebnissen führen können. So kann eine Objekterkennung beispielsweise in Bezug auf eine Personenerkennung derart ausgelegt sein, dass vorrangig alle Personen erkannt werden, auch wenn die Erkennung unsicher ist. Dies ist jedoch mit dem Nachteil verbunden, dass beispielsweise auch Geisterobjekte beziehungsweise Geisterpersonen, die also nicht tatsächlich vorhanden sind, erkannt werden. Diese falsch positiven Ergebnisse führen beispielsweise bei Assistenzfunktionen oder bei einem automatisierten Fahren zu unnötigen Abbremsungen, was insbesondere auf Schnellstraßen zu vermeidbaren Unfällen führen kann. Eine gewissermaßen entgegengesetzte Auslegung der Objekterkennung kann sein, dass vorrangig nur Personen erkannt werden, wenn die Erkennung sehr sicher ist. Dies ist mit dem Nachteil verbunden, dass beispielsweise Personen in schlechten Lichtverhältnissen oder Posen oder unter ungewöhnlichen Umständen nicht erkannt werden. Im schlimmsten Fall führt ein solches falsch negatives Ergebnis dazu, dass automatische Bremssysteme nicht aktiviert werden und Personen zu Schaden kommen können.The invention provides a method for object detection by means of sensor systems of vehicles, the method starting from a plurality of vehicles that are networked with one another. Each of the vehicles has at least one sensor system for the detection of objects. The essence of the invention is that the data and / or information captured by the individual vehicles in the detection of objects are fused together and checked for plausibility. The information that is acquired and / or ascertained on the basis of the detection of the objects is, in particular, an object recognition and / or an object classification in the sense described at the beginning. The object recognition itself and / or the object classification can take place either in the vehicle itself or outside of the vehicles at a central point. The object detections, which are based on the data recorded in the individual vehicles, can thus be compared with one another and, if necessary, corrected. This method solves the problem that object recognition and in particular object classification are trained differently and can therefore lead to different results. For example, an object recognition can be designed in relation to a person recognition in such a way that all people are primarily recognized, even if the recognition is uncertain. However, this has the disadvantage that, for example, ghost objects or ghost persons that are not actually present are also recognized. These false positive results lead to unnecessary braking, for example in the case of assistance functions or automated driving, which in particular can lead to avoidable accidents on expressways. A somewhat opposite interpretation of object detection can be that people are primarily recognized only if the detection is very reliable. This has the disadvantage that, for example, people in poor lighting conditions or poses or under unusual circumstances are not recognized. In the worst case, such a false negative result means that automatic braking systems are not activated and people can be injured.

Mit dem Begriff „Objekterkennung“ ist hierbei gemeint, dass Sensordaten, die ein Fahrzeug über sein Sensorsystem erhält, im Hinblick auf eine Erkennung von Objekten bearbeitet und ausgewertet werden. Diese Objekterkennung kann beispielsweise eine Extraktion von charakteristischen Daten umfassen, die beispielsweise anhand eines Klassifikators ausgewertet werden. Die Objekterkennung kann aber auch beinhalten, dass Daten des Sensorsystems des Fahrzeugs lediglich weitergeleitet werden, beispielsweise an eine Cloud oder einen lokalen Provider, um an anderer Stelle weiter im Sinne der eigentlichen Objekterkennung ausgewertet zu werden.The term “object detection” here means that sensor data that a vehicle receives via its sensor system are processed and evaluated with a view to detecting objects. This object recognition can include, for example, an extraction of characteristic data, which are evaluated, for example, using a classifier. The object detection can also include, however, that data from the sensor system of the vehicle is only forwarded, for example to a cloud or a local provider, in order to be further evaluated elsewhere in the sense of the actual object detection.

Das erfindungsgemäße Verfahren löst das Problem von falsch positiven oder falsch negativen Ergebnissen einer Objekterkennung dadurch, dass die individuellen Objekterkennungen bzw. individuell erfassten Daten bei einer Detektion von Objekten durch einzelne Fahrzeuge miteinander gewissermaßen abgeglichen werden, indem die Daten und/oder Informationen zur Objekterkennung fusioniert und plausibilisiert werden. Die Vorteile des Verfahrens kommen insbesondere dann zum Tragen, wenn für die Objekterkennung eine Klassifizierung vorgesehen ist, die durch das erfindungsgemäße Verfahren derart verbessert werden kann, dass weniger falsch positive und weniger falsch negative Ergebnisse generiert werden. Mit besonderem Vorteil wird das erfindungsgemäße Verfahren im Zusammenhang mit einer Objekterkennung bei bewegten oder unbewegten Objekten eingesetzt, vorzugsweise bei einer Objekterkennung von bewegten Objekten wie beispielsweise Personen, Tieren oder anderen Fahrzeugen. Besonders vorteilhaft ist die Verwendung des Verfahrens für eine Objekterkennung von Personen und gegebenenfalls Tieren, wobei die Möglichkeiten des erfindungsgemäßen Verfahrens nicht auf eine solche Objekterkennung beschränkt sind.The method according to the invention solves the problem of false positive or false negative results of an object recognition in that the individual object recognizations or individually recorded data are compared to one another to a certain extent when objects are detected by individual vehicles, by the data and / or information for object recognition being merged and be checked for plausibility. The advantages of the method come into play in particular if a classification is provided for object recognition, which can be improved by the method according to the invention in such a way that fewer false positive and less false negative results are generated. The method according to the invention is used with particular advantage in connection with object detection in the case of moving or stationary objects, preferably in the case of object detection of moving objects such as people, animals or other vehicles. The use of the method for object recognition of people and possibly animals is particularly advantageous, the possibilities of the method according to the invention not being limited to such object recognition.

Mit besonderem Vorteil wird für das erfindungsgemäße Verfahren eine semantische Karte verwendet, wobei die plausibilisierten Daten und/oder Informationen, insbesondere die auf der Basis der Objekterkennung erkannten Objekte, in der semantischen Karte hinterlegt werden.
Unter einer semantischen Karte kann im Rahmen der vorliegenden Erfindung eine metrische Karte verstanden werden, die neben geometrischen und/oder topographischen Informationen zu 2D-Messpunkten und/oder 3D-Messpunkten zusätzlich semantische Bezeichnungen der jeweiligen Messpunkte enthält. Das heißt, mit anderen Worten, unter einer semantischen Karte kann eine metrische bzw. geometrische und/oder topographische Karte verstanden werden, die zusätzliche Informationen in Form von Bezeichnungen bzw. Beschriftungen von Punkten in der Karte aufweist. Vorzugsweise werden auch die Fahrzeuge selbst in der semantischen Karte lokalisiert. Somit kann ein bestimmtes Objekt an einem bestimmten Ort in der Umgebung und damit auch in der semantischen Karte von den Sensorsystemen unterschiedlicher Fahrzeuge und damit auch aus verschiedenen Perspektiven mit damit einhergehenden möglicherweise unterschiedlichen Lichtverhältnissen klassifiziert werden. Durch eine Fusion und Plausibilisierung der Daten und/oder Informationen zu gleichen örtlichen Objekte wird die Erkennungs- und/oder Klassifizierungsgenauigkeit der Objekte erhöht. Die Lokalisierung der Fahrzeuge selbst in der semantischen Karte kann anhand von an sich bekannten Methoden erfolgen, beispielsweise durch Kreuzpeilung bekannter Landmarken oder Template-Matching oder Scan-Matching von aktuellen Sensormessungen, beispielsweise per Ultraschall oder Radar oder Lidar. Die Lokalisierung der Objekte kann beispielsweise unter Verwendung von Stereokameras auf den Fahrzeugen erfolgen, wobei mittels der Disparität die Entfernung der Objekte bestimmt werden kann, sodass in Relation zur Lokalisierung der Fahrzeuge die Position in der semantischen Karte bestimmt werden kann. Hierbei kann es zweckmäßig sein, wenn zusätzliche Korrekturservice verwendet werden, um die Positionsgenauigkeit der lokalisierten Objekte zu verbessern.
A semantic map is used with particular advantage for the method according to the invention, the plausibility-checked data and / or information, in particular the objects recognized on the basis of the object recognition, being stored in the semantic map.
In the context of the present invention, a semantic map can be understood to mean a metric map which, in addition to geometric and / or topographical information relating to 2D measuring points and / or 3D measuring points, additionally contains semantic names of the respective measuring points. In other words, a semantic map can be understood to mean a metric or geometric and / or topographic map that has additional information in the form of names or inscriptions of points on the map. The vehicles themselves are preferably also located in the semantic map. Thus, a certain object at a certain location in the environment and thus also in the semantic map can be classified by the sensor systems of different vehicles and thus also from different perspectives with possibly different lighting conditions. The recognition and / or classification accuracy of the objects is increased by a fusion and plausibility check of the data and / or information on the same local objects. The vehicles themselves can be located in the semantic map using methods known per se, for example by cross-bearing known landmarks or template matching or scan matching of current sensor measurements, for example by ultrasound or radar or lidar. The objects can be localized, for example, using stereo cameras on the vehicles, the distance of the objects being determined by means of the disparity, so that the position in the semantic map can be determined in relation to the location of the vehicles. In this case, it can be expedient if additional correction services are used in order to improve the positional accuracy of the localized objects.

Weiterhin ist es bevorzugt, dass die semantische Karte georeferenziert wird. Auch hierfür können an sich bekannte Methoden verwendet werden, beispielsweise mittels GNSS (globales Navigations-Satellitensystem) oder RTK (Real Time Kinematik). Die Kartenerstellung selbst kann insbesondere mittels der Umgebungssensoren der Fahrzeuge oder gegebenenfalls der Infrastruktur erstellt werden, indem ein dreidimensionales Umgebungsmodell bzw. eine dreidimensionale Umgebungskarte erstellt wird. Hierbei können mittels Verfahren des maschinellen Sehens oder Mustererkennung und Ähnlichem beispielsweise ortsfeste (zum Beispiel Gebäude, Straßen/Wege, Baugruben, Lichtmasten, Verkehrsschilder, Bäume, Baumaterial etc.) und nicht ortsfeste (zum Beispiel stehende Maschinen, stehende Fahrzeuge, stehende Personen etc.) beziehungsweise bewegliche Objekte (laufende Personen, fahrende Fahrzeuge, arbeitende Maschinen etc.) erkannt und klassifiziert werden. Diese erkannten Objekte werden in einer semantischen Karte erfasst, die gegebenenfalls auch noch georeferenziert wird. Die Fahrzeuge selbst können sich eigenständig oder assistiert in dieser semantischen Karte lokalisieren und gegebenenfalls auch navigieren. Alternativ zu einer Erstellung eines Umgebungsmodells beziehungsweise einer Umgebungskarte auf der Basis von Sensordaten des Fahrzeugs kann alternativ oder gegebenenfalls zusätzlich auch eine GNSSbasierte Karte verwendet werden.It is further preferred that the semantic map is georeferenced. Methods known per se can also be used for this, for example using GNSS (global navigation satellite system) or RTK (Real Time Kinematics). The map creation itself can be created in particular by means of the environmental sensors of the vehicles or possibly the infrastructure by creating a three-dimensional environment model or a three-dimensional environment map. Here, by means of machine vision or pattern recognition and the like, for example, stationary (e.g. buildings, streets / paths, construction pits, light poles, traffic signs, trees, building materials etc.) and non-stationary (e.g. stationary machines, standing vehicles, standing people etc. ) or moving objects (running people, moving vehicles, working machines etc.) can be recognized and classified. These recognized objects are recorded in a semantic map, which may also be georeferenced. The Vehicles themselves can locate themselves or assist themselves in this semantic map and, if necessary, also navigate. As an alternative to creating an environmental model or an environmental map on the basis of sensor data of the vehicle, a GNSS-based map can alternatively or optionally also be used.

Voraussetzung für das beschriebene Verfahren ist, dass die einzelnen Fahrzeuge direkt (vehicle to vehicle - V2V) und/oder über eine Verkehrsinfrastruktur (V2X) vernetzt sind. Optional kann vorgesehen sein, dass auch andere Verkehrsteilnehmer, wie beispielsweise Zweiräder (Motorräder, Fahrräder oder anderes) und gegebenenfalls Fußgänger mit entsprechenden mobilen Geräten ebenfalls mit den Fahrzeugen vernetzt sind. Wichtig ist, dass die Fahrzeuge über Sensorsysteme verfügen, wobei auf den hiermit generierten Daten die Objekterkennung und gegebenenfalls die Klassifizierung basiert. Als Sensorsysteme können beispielsweise Kamerasysteme, insbesondere Monokameras, oder in besonders bevorzugter Weise Stereokamerasysteme, und entsprechende Algorithmen der Bildverarbeitung und gegebenenfalls maschinelles Sehen vorgesehen sein. Derartige Kamerasysteme werden bereits vielfach für eine Objekterkennung insbesondere im Automotive-Bereich eingesetzt. So kann die Objekterkennung beispielsweise auf der Basis von Daten einer Frontkamera eines Kraftfahrzeugs erfolgen. Alternativ oder zusätzlich kann die Objekterkennung beispielsweise auch durch Einsatz von Radar, Lidar oder Ultraschall erfolgen. Darüber hinaus ist es möglich, dass die Fahrzeuge über Systeme verfügen, die eine Interpretation von Verhalten von Objekten und/oder eine Vorhersage von Verhalten von Objekten ermöglichen. Die Systeme können beispielsweise so ausgestaltet sein, dass Gesten und Intentionen von Personen interpretiert und deren Verhalten prädiziert werden kann. Dies kann ebenfalls auf der Basis von Kamerasystemen, Algorithmen der Bildverarbeitung und maschinellem Sehen erfolgen.The prerequisite for the described method is that the individual vehicles are directly (vehicle to vehicle - V2V) and / or networked via a traffic infrastructure (V2X). It can optionally be provided that other road users, such as two-wheelers (motorcycles, bicycles or other) and possibly pedestrians with corresponding mobile devices, are also networked with the vehicles. It is important that the vehicles have sensor systems, whereby the object recognition and, if necessary, the classification are based on the data generated thereby. Camera systems, in particular mono cameras, or, in a particularly preferred manner, stereo camera systems, and corresponding algorithms for image processing and, if appropriate, machine vision, can be provided as sensor systems. Such camera systems are already widely used for object detection, particularly in the automotive sector. For example, the object can be recognized on the basis of data from a front camera of a motor vehicle. Alternatively or additionally, the object can also be detected, for example, by using radar, lidar or ultrasound. In addition, it is possible for the vehicles to have systems which enable an interpretation of the behavior of objects and / or a prediction of the behavior of objects. The systems can, for example, be designed so that gestures and intentions of people can be interpreted and their behavior can be predicted. This can also be done on the basis of camera systems, image processing algorithms and machine vision.

Die Fusion der Daten und/oder Informationen zur Objekterkennung kann insbesondere durch eine räumliche Fusion von extrahierten Merkmalen der Objekterkennung erfolgen. Anschließend kann dann mit diesen fusionierten Merkmalen insbesondere ein trainierter Klassifikator ausgeführt werden, sodass das Ergebnis des Klassifikators ein plausibilisiertes Ergebnis der Objekterkennung darstellt. Die Fusion der Daten und/oder Informationen und deren weitere Verarbeitung können dabei lokal in den einzelnen Fahrzeugen oder an zentraler Stelle erfolgen.The data and / or information for object recognition can be merged in particular by a spatial fusion of extracted features of object recognition. Then, in particular, a trained classifier can then be carried out with these merged features, so that the result of the classifier represents a plausibility-checked result of the object recognition. The data and / or information can be merged and processed further locally in the individual vehicles or at a central location.

In einer bevorzugten Ausführungsform des Verfahrens erfolgt die Plausibilisierung der Daten und/oder Informationen anhand von statistischen Methoden. Wenn beispielsweise zwei oder mehr Fahrzeuge ein Objekt erkannt und als Person klassifiziert haben, wohingegen ein drittes Fahrzeug an dem entsprechenden Ort der semantischen Karte zu diesem Zeitpunkt keine Person erkannt hat, kann das dritte Fahrzeug seine Objekterkennung entsprechend korrigieren und gegebenenfalls reagieren. Wenn andersherum beispielsweise nur ein Fahrzeug eine Person erkannt hat und die anderen beiden nicht, handelt es sich mit hoher Wahrscheinlichkeit nicht um eine Person. Die Plausibilisierung der Objekterkennung kann dabei gewissermaßen anhand von Mittelwerten bei Berücksichtigung der Objekterkennung durch mehrere Fahrzeuge erfolgen.
Das heißt, mit anderen Worten das Plausibilisieren der durch die einzelnen Fahrzeuge bei der Detektion von Objekten erfassten Daten und/oder Informationen erfolgt durch Vergleichen der von verschiedenen Fahrzeugen erfassten Daten und/oder Informationen, um konsistente Daten und/oder Informationen und von den konsistenten Daten und/oder Informationen abweichende Daten und/oder Informationen zu ermitteln.
In a preferred embodiment of the method, the plausibility check of the data and / or information takes place using statistical methods. If, for example, two or more vehicles have recognized an object and classified it as a person, whereas a third vehicle at the corresponding location on the semantic map has not recognized any person at this time, the third vehicle can correct its object recognition accordingly and react if necessary. Conversely, if, for example, only one vehicle recognized a person and the other two did not, it is most likely not a person. The plausibility check of the object detection can take place to a certain extent on the basis of mean values taking into account the object detection by several vehicles.
In other words, the plausibility check of the data and / or information recorded by the individual vehicles in the detection of objects is carried out by comparing the data and / or information recorded by different vehicles in order to obtain consistent data and / or information and of the consistent data and / or to determine information deviating data and / or information.

Wenn die Objekterkennung anhand eines Klassifikators erfolgt, kann es mit Vorteil vorgesehen sein, dass der Klassifikator auf der Basis der Fusionierung und Plausibilisierung der verschiedenen Objekterkennungen bzw. Daten einzelner Fahrzeuge nachtrainiert wird. Hierdurch findet gewissermaßen ein Online-Lernen beziehungsweise ein Online-Nachtrainieren des Klassifikators statt.If the object recognition takes place on the basis of a classifier, it can advantageously be provided that the classifier is retrained on the basis of the fusion and plausibility check of the various object recognizations or data of individual vehicles. As a result, online learning or online retraining of the classifier takes place to a certain extent.

Die Fusion und/oder Plausibilisierung der Daten und/oder Informationen zur Objekterkennung kann auf verschiedene Weise erfolgen. Beispielsweise kann dies in einer Cloud oder in einer Basisstation eines Providers erfolgen. Weiterhin ist es möglich, dass die Fusion und/oder Plausibilisierung der Daten und/oder Informationen in den einzelnen Fahrzeugen erfolgt, wobei hierfür in den einzelnen Fahrzeugen ein verhältnismäßig großer Rechenaufwand erforderlich ist.The data and / or information for object recognition can be merged and / or checked for plausibility in various ways. For example, this can be done in a cloud or in a base station of a provider. Furthermore, it is possible for the data and / or information to be merged and / or checked for plausibility in the individual vehicles, a relatively large computing effort being required for this in the individual vehicles.

Wenn ein Klassifikator (Objektklassifikator) in der beschriebenen Weise nachtrainiert wird, kann dieser nachtrainierte Klassifikator beispielsweise über eine Cloud oder den Service-Provider allen Fahrzeugen zur Verfügung gestellt werden, wenn in den einzelnen Fahrzeugen jeweils ein Klassifikator vorgesehen ist. Alternativ kann beispielsweise auch die Bildinformation mit dem Label „Das ist eine Person“ aus der Objekterkennung des einzelnen Fahrzeugs beispielsweise in die Cloud oder an den Service-Provider gesendet werden, wobei erst beispielsweise in der Cloud oder beim Service-Provider der Klassifikator trainiert wird. Auf diese Weise kann fortlaufend der Klassifikator verbessert werden und immer mehr automatisch gelabelte Bilddaten bereitgestellt werden.If a classifier (object classifier) is retrained in the manner described, this retrained classifier can be made available to all vehicles, for example via a cloud or the service provider, if a classifier is provided in each of the vehicles. Alternatively, for example, the image information with the label “This is a person” can be sent from the object recognition of the individual vehicle, for example, to the cloud or to the service provider, the classifier being trained, for example, in the cloud or at the service provider. In this way, the classifier can be continuously improved and more and more automatically labeled image data can be made available.

Die Erfindung umfasst weiterhin ein Computerprogramm, welches zur Durchführung der Schritte des beschriebenen Verfahrens eingerichtet ist. Weiterhin umfasst die Erfindung ein maschinenlesbares Speichermedium, auf welchem ein solches Computerprogramm gespeichert ist. Schließlich umfasst die Erfindung ein elektronisches Steuergerät, das dazu eingerichtet ist, Daten und/oder Informationen von einer Mehrzahl von miteinander vernetzten Fahrzeugen zu empfangen, wobei die Daten und/oder Informationen bei der Detektion von Objekten mittels Sensorsystemen der Fahrzeuge erfasst werden; und die empfangenen Daten und/oder Informationen miteinander zu fusionieren und zu plausibilisieren, um die fusionierten und plausibilisierten Daten und/oder Informationen den Fahrzeugen bereitzustellen. Hierbei kann es sich insbesondere um ein Kraftfahrzeug-Steuergerät handeln, das beispielsweise im Rahmen von Fahrerassistenzsystemen oder im Rahmen von autonomem Fahren zum Einsatz kommt. The invention further comprises a computer program which is set up to carry out the steps of the described method. Furthermore, the invention comprises a machine-readable storage medium on which such a computer program is stored. Finally, the invention comprises an electronic control device which is set up to receive data and / or information from a plurality of vehicles which are networked with one another, the data and / or information being detected when objects are detected by means of sensor systems of the vehicles; and to merge the received data and / or information with one another and to plausibility check in order to provide the merged and plausibility check data and / or information to the vehicles. This can be, in particular, a motor vehicle control unit that is used, for example, in the context of driver assistance systems or in the context of autonomous driving.

Weitere Merkmale und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen in Verbindung mit der Zeichnung. Hierbei können die einzelnen Merkmale jeweils für sich oder in Kombination miteinander verwirklicht sein.Further features and advantages of the invention result from the following description of exemplary embodiments in conjunction with the drawing. The individual features can be implemented individually or in combination with one another.

In der Zeichnung zeigt:

  • 1 Skizze einer Verkehrssituation zur Illustrierung einer Ausgestaltung des erfindungsgemäßen Verfahrens.
The drawing shows:
  • 1 Sketch of a traffic situation to illustrate an embodiment of the method according to the invention.

Beschreibung von AusführungsbeispielenDescription of exemplary embodiments

1 illustriert eine Verkehrssituation, bei der das erfindungsgemäße Verfahren zum Einsatz kommt. Dargestellt ist eine Straße 10, auf der ein erstes Fahrzeug 11 und ein zweites Fahrzeug 12 in entgegengesetzter Richtung unterwegs sind, wobei die Fahrzeuge sich aufeinander zu bewegen. In dem Straßenabschnitt zwischen den Fahrzeugen 11 und 12 überquert eine Person 13 die Straße. Die Fahrzeuge 11 und 12 sind jeweils mit einem Sensorsystem ausgestattet, das zur Objekterkennung eingerichtet ist. Als Sensorsysteme können beispielsweise Frontkameras vorgesehen sein, wobei die dreieckigen Felder 111 und 112 jeweils das Sichtfeld der Frontkameras der Fahrzeuge 11 beziehungsweise 12 repräsentieren. Alternativ oder gegebenenfalls zusätzlich können beispielsweise radarbasierte oder ultraschallbasierte Sensorsysteme vorgesehen sein, wobei die rechteckigen Felder 1111 und 1112 jeweils das Sichtfeld eines Radars oder Ultraschalls für das Fahrzeug 11 beziehungsweise 12 repräsentieren. Das zweite Fahrzeug 12 kann unter den angenommenen Umgebungsbedingungen und Lichtverhältnissen die Person 13 mittels der Frontkamera oder eines anderen Sensorsystems erkennen und als Person klassifizieren. Daraufhin kann für das Fahrzeug 12 ein entsprechender Eintrag in einer semantischen Karte vorgenommen werden. In diesem angenommenen Beispiel ist für das erste Fahrzeug 11 die Sicht beispielsweise durch aufsteigende Nebelschwaden erschwert, sodass keine entsprechende Merkmalsextraktion möglich ist und keine eindeutige Objekterkennung durchgeführt werden kann. Ohne weitere Maßnahmen würden in diesem Fall Fahrerassistenzsysteme, wie beispielsweise eine Notbremsung, nicht ausgelöst werden. Das erfindungsgemäße Verfahren sieht zur Lösung dieses Problems vor, dass Fahrzeug 11 durch Zugriff auf die semantische Karte, in die durch Fahrzeug 12 eine entsprechende Eintragung vorgenommen wurde, auf die Information über die vorhandene Person zugreifen kann. Somit hat Fahrzeug 11 eine sichere Erkenntnis von dem Vorhandensein der querenden Person 13, sodass gegebenenfalls entsprechende Fahrerassistenzsysteme reagieren können und beispielsweise eine Notbremsung eingeleitet werden kann. 1 illustrates a traffic situation in which the method according to the invention is used. A street is shown 10th on which a first vehicle 11 and a second vehicle 12 are traveling in the opposite direction, with the vehicles moving towards each other. In the road section between the vehicles 11 and 12 crosses a person 13 the street. The vehicles 11 and 12 are each equipped with a sensor system that is set up for object detection. For example, front cameras can be provided as sensor systems, the triangular fields 111 and 112 the field of vision of the front cameras of the vehicles 11 respectively 12 represent. Alternatively or optionally in addition, for example radar-based or ultrasound-based sensor systems can be provided, the rectangular fields 1111 and 1112 the field of view of a radar or ultrasound for the vehicle 11 respectively 12 represent. The second vehicle 12 the person can under the assumed environmental and lighting conditions 13 recognize using the front camera or another sensor system and classify it as a person. Thereupon, for the vehicle 12 a corresponding entry can be made in a semantic map. In this example adopted is for the first vehicle 11 the view is hampered, for example, by rising clouds of fog, so that no corresponding feature extraction is possible and no clear object detection can be carried out. In this case, driver assistance systems, such as emergency braking, would not be triggered without further measures. To solve this problem, the method according to the invention provides that the vehicle 11 by accessing the semantic map into which by vehicle 12 a corresponding entry has been made, which can access information about the existing person. So vehicle has 11 a sure knowledge of the presence of the crossing person 13 , so that appropriate driver assistance systems can react and, for example, emergency braking can be initiated.

Andere Situationen, die dazu führen können, dass die Objekterkennung eines Fahrzeugs nicht richtig durchgeführt werden kann, können beispielsweise aufgrund eines tiefliegenden Sonnenstandes eintreten, sodass eine Frontkamera mit Gegenlicht konfrontiert ist, was eine Merkmalsextraktion erschwert und zu einem falsch negativen Ergebnis bei einer Objekterkennung führen kann. Ein ungünstiger Sonnenstand kann beispielsweise auch einen Schattenwurf verursachen, der bei einer Objekterkennung fälschlicherweise als Person erkannt wird (falsch positiv).Other situations that can lead to the object detection of a vehicle not being able to be carried out correctly can occur, for example, due to a low position of the sun, so that a front camera is faced with backlighting, which makes feature extraction difficult and can lead to a false negative result in the case of object detection . An unfavorable position of the sun can, for example, also cause a shadow to be cast, which is incorrectly recognized as a person when an object is recognized (false positive).

Besonders vorteilhaft ist es, wenn die Objekterkennungen, die auf den Daten der einzelnen Fahrzeuge beruhen, fortlaufend in die semantische Karte eingetragen werden, sodass entsprechende Informationen ständig miteinander fusioniert und plausibilisiert werden können. Wenn beispielsweise mehrere Fahrzeuge Fußgänger beim Vorbeifahren bereits klassifiziert haben, so sind die jeweiligen Personen aus verschiedenen Perspektiven, unter verschiedenen Lichtverhältnissen und in möglicherweise unterschiedlichen Posen etc. erkannt worden. Gemäß dieser Ausführungsform des Verfahrens liegen alle diese Informationen permanent aktualisiert und lokalisiert in der semantischen Karte vor und werden in dieser Karte fusioniert und plausibilisiert. Andere Fahrzeuge können auf diese Informationen zugreifen, sodass Objekterkennungen mit falschen Ergebnissen weitgehend vermieden bzw. korrigiert werden können. Die Fusion bzw. Plausibilisierung der Objekterkennung in der semantischen Karte kann beispielsweise derart erfolgen, dass alle beteiligten Fahrzeuge ihre Objektinformationen und deren Ort in die Cloud senden. Hier findet dann die Fusionierung beziehungsweise die Plausibilisierung statt, auf deren Ergebnis alle beteiligten Fahrzeuge umgehend zurückgreifen können. Alternativ können die Objektinformationen und deren Ort, die von den einzelnen Fahrzeugen erfasst werden, an die nächstgelegene Basisstation des Providers gesendet werden. Diese Vorgehensweise ist mit der Cloud-Lösung vergleichbar, wobei hier im Allgemeinen geringere Latenzzeiten als bei der Cloud-Lösung zu erwarten sind. Als weitere Möglichkeit kann in jedem Fahrzeug die gleiche semantische Karte vorgesehen sein, die zum Beispiel bei Befahren eines bestimmten globalen Gebietes von dem jeweiligen Fahrzeug vorab aus einer Cloud geladen wird. Hierbei werden alle Objektinformationen und deren Orte zwischen den einzelnen Fahrzeugen ausgetauscht. Die Fusion beziehungsweise Plausibilisierung der Objekterkennung kann bei dieser Lösung in jedem Fahrzeug selbst stattfinden. Dies hat den Vorteil, dass hierdurch deutlich geringere Latenzzeiten als bei den anderen beschriebenen Varianten möglich sind.It is particularly advantageous if the object identifications, which are based on the data of the individual vehicles, are continuously entered into the semantic map, so that corresponding information can be continuously merged and checked for plausibility. If, for example, several vehicles have already classified pedestrians as they drive past, the respective people have been recognized from different perspectives, under different lighting conditions and in possibly different poses, etc. According to this embodiment of the method, all of this information is permanently updated and localized in the semantic map and is merged and checked for plausibility in this map. Other vehicles can access this information so that object recognition with incorrect results can be largely avoided or corrected. The fusion or plausibility check of the object recognition in the semantic map can, for example, take place in such a way that all vehicles involved send their object information and their location to the cloud. This is where the merger or plausibility check takes place, the result of which all the vehicles involved can access immediately. Alternatively, the Object information and its location, which are recorded by the individual vehicles, are sent to the closest base station of the provider. This procedure is comparable to the cloud solution, although generally lower latency times can be expected than with the cloud solution. As a further possibility, the same semantic map can be provided in each vehicle, which is loaded by the respective vehicle in advance from a cloud, for example, when driving into a certain global area. Here, all object information and their locations are exchanged between the individual vehicles. With this solution, the fusion or plausibility check of object detection can take place in every vehicle itself. This has the advantage that it enables significantly lower latency times than the other variants described.

Ein weiterer Vorteil der fortlaufenden Eintragung in die semantische Karte ist darüber hinaus, dass hierdurch auch eine Objektverfolgung besser möglich ist, sodass beispielsweise eine Person beim Tracken nicht verloren gehen kann. Dies kann weiterhin zur Plausibilisierung eines erkannten oder nicht erkannten beziehungsweise klassifizierten Objektes herangezogen werden.Another advantage of the continuous entry in the semantic map is that it also makes object tracking easier, so that, for example, a person cannot be lost during tracking. This can also be used to check the plausibility of a recognized or not recognized or classified object.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant has been generated automatically and is only included for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • DE 102016003969 A1 [0005]DE 102016003969 A1 [0005]

Claims (14)

Verfahren zur Objekterkennung mittels Sensorsystemen von Fahrzeugen (11, 12), wobei eine Mehrzahl von Fahrzeugen (11, 12) miteinander vernetzt ist und wobei jedes der Fahrzeuge (11, 12) über ein Sensorsystem (111, 112; 1111, 1112) zur Detektion von Objekten (13) verfügt, dadurch gekennzeichnet, dass die durch die einzelnen Fahrzeuge (11, 12) bei der Detektion von Objekten erfassten Daten und/oder Informationen zur Objekterkennung miteinander fusioniert und plausibilisiert werden.Method for object detection using sensor systems of vehicles (11, 12), a plurality of vehicles (11, 12) being networked with one another and each of the vehicles (11, 12) using a sensor system (111, 112; 1111, 1112) for detection of objects (13), characterized in that the data and / or information acquired by the individual vehicles (11, 12) for the detection of objects are merged with one another and checked for plausibility. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die bei der Detektion von Objekten (13) erfassten Informationen eine Objekterkennung und/oder Objektklassifizierung umfassen.Procedure according to Claim 1 , characterized in that the information recorded during the detection of objects (13) comprises object detection and / or object classification. Verfahren nach Anspruch 1 oder Anspruch 2, dadurch gekennzeichnet, dass die Objekte (13) bewegte Objekte sind.Procedure according to Claim 1 or Claim 2 , characterized in that the objects (13) are moving objects. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die plausibilisierten Daten und/oder Informationen in einer semantischen Karte hinterlegt werden.Method according to one of the preceding claims, characterized in that the plausibility-checked data and / or information are stored in a semantic map. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Fahrzeuge (11, 12) selbst in der semantischen Karte lokalisiert werden.Procedure according to Claim 4 , characterized in that the vehicles (11, 12) themselves are localized in the semantic map. Verfahren nach Anspruch 4 oder Anspruch 5, dadurch gekennzeichnet, dass die semantische Karte georeferenziert wird.Procedure according to Claim 4 or Claim 5 , characterized in that the semantic map is georeferenced. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei der Detektion von Objekten (13) Algorithmen zur Bildverarbeitung und/oder maschinelles Sehen und/oder Interpretation von Verhalten von Objekten und/oder Vorhersage von Verhalten von Objekten vorgesehen sind.Method according to one of the preceding claims, characterized in that algorithms for image processing and / or machine vision and / or interpretation of behavior of objects and / or prediction of behavior of objects are provided in the detection of objects (13). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Fusion von Daten und/oder Informationen durch räumliche Fusion von extrahierten Merkmalen bei einer Objekterkennung und gegebenenfalls Ausführung eines trainierten Klassifikators erfolgt.Method according to one of the preceding claims, characterized in that the fusion of data and / or information takes place by spatial fusion of extracted features in the case of object recognition and, if appropriate, execution of a trained classifier. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Plausibilisierung von Daten und/oder Informationen anhand von statistischen Methoden erfolgt.Method according to one of the preceding claims, characterized in that the plausibility check of data and / or information is carried out using statistical methods. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zur Objekterkennung ein Klassifikator ausgeführt wird, wobei der Klassifikator nachtrainiert wird.Method according to one of the preceding claims, characterized in that a classifier is carried out for object recognition, the classifier being retrained. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass - die Fusion und/oder Plausibilisierung der Daten und/oder Informationen zur Objekterkennung in einer Cloud erfolgt oder - dass die Fusion und/oder Plausibilisierung der Daten und/oder Informationen zur Objekterkennung in einer Basisstation eines Providers erfolgt oder - dass die Fusion und/oder Plausibilisierung der Daten und/oder Informationen zur Objekterkennung in den einzelnen Fahrzeugen erfolgt.Method according to one of the preceding claims, characterized in that - the fusion and / or plausibility check of the data and / or information for object recognition takes place in a cloud or - that the fusion and / or plausibility check for the data and / or information for object recognition takes place in a base station a provider or - that the merger and / or plausibility check of the data and / or information for object detection takes place in the individual vehicles. Computerprogramm, welches eingerichtet ist, die Schritte eines Verfahrens gemäß einem der Ansprüche 1 bis 11 durchzuführen.Computer program which is set up the steps of a method according to one of the Claims 1 to 11 perform. Maschinenlesbares Speichermedium, auf welchem ein Computerprogramm nach Anspruch 12 gespeichert ist.Machine-readable storage medium on which a computer program Claim 12 is saved. Elektronisches Steuergerät, das dazu eingerichtet ist, - Daten und/oder Informationen von einer Mehrzahl von miteinander vernetzten Fahrzeugen (11, 12) zu empfangen, wobei die Daten und/oder Informationen bei der Detektion von Objekten (13) mittels Sensorsystemen (111, 112; 1111, 1112) der Fahrzeuge (11, 12) erfasst werden; und - die empfangenen Daten und/oder Informationen miteinander zu fusionieren und zu plausibilisieren, um die fusionierten und plausibilisierten Daten und/oder Informationen den Fahrzeugen (11, 12) bereitzustellen.Electronic control device that is set up to - to receive data and / or information from a plurality of vehicles (11, 12) networked with one another, the data and / or information when detecting objects (13) by means of sensor systems (111, 112; 1111, 1112) of the vehicles ( 11, 12) are detected; and - merge the received data and / or information with one another and plausibility check in order to provide the merged and plausibility check data and / or information to the vehicles (11, 12).
DE102018220018.1A 2018-11-22 2018-11-22 Method for object detection using a vehicle sensor system Pending DE102018220018A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102018220018.1A DE102018220018A1 (en) 2018-11-22 2018-11-22 Method for object detection using a vehicle sensor system
PCT/EP2019/081979 WO2020104551A1 (en) 2018-11-22 2019-11-20 Object recognition using the sensor system of vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018220018.1A DE102018220018A1 (en) 2018-11-22 2018-11-22 Method for object detection using a vehicle sensor system

Publications (1)

Publication Number Publication Date
DE102018220018A1 true DE102018220018A1 (en) 2020-05-28

Family

ID=68835150

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018220018.1A Pending DE102018220018A1 (en) 2018-11-22 2018-11-22 Method for object detection using a vehicle sensor system

Country Status (2)

Country Link
DE (1) DE102018220018A1 (en)
WO (1) WO2020104551A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021118457A1 (en) 2021-07-16 2023-01-19 Bayerische Motoren Werke Aktiengesellschaft Method for monitoring an area surrounding a vehicle, assistance system for a vehicle, data exchange device and system for implementing a method for monitoring an area surrounding a vehicle

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019215099B4 (en) * 2019-10-01 2022-09-29 Audi Ag Method for providing a current local environmental status map for a motor vehicle and motor vehicle for carrying out such a method
CN114882717A (en) * 2022-03-16 2022-08-09 仓擎智能科技(上海)有限公司 Object detection system and method based on vehicle-road cooperation

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016003969A1 (en) 2016-04-01 2017-10-05 Audi Ag Method for acquiring environmental data by means of several motor vehicles

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2896594A1 (en) * 2006-01-24 2007-07-27 Renault Sas Movable and fixed elements e.g. pedestrian, perception method, involves introducing information related to elements of one series in perception system for fusion of images of environment established by vehicles
JP6290009B2 (en) * 2014-06-06 2018-03-07 日立オートモティブシステムズ株式会社 Obstacle information management device
US9830814B2 (en) * 2015-07-20 2017-11-28 Dura Operating, Llc System and method for transmitting detected object attributes over a dedicated short range communication system
US9922565B2 (en) * 2015-07-20 2018-03-20 Dura Operating Llc Sensor fusion of camera and V2V data for vehicles
EP3339897A1 (en) * 2016-12-20 2018-06-27 Nxp B.V. Selective sensor data network

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016003969A1 (en) 2016-04-01 2017-10-05 Audi Ag Method for acquiring environmental data by means of several motor vehicles

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021118457A1 (en) 2021-07-16 2023-01-19 Bayerische Motoren Werke Aktiengesellschaft Method for monitoring an area surrounding a vehicle, assistance system for a vehicle, data exchange device and system for implementing a method for monitoring an area surrounding a vehicle
WO2023285076A1 (en) 2021-07-16 2023-01-19 Bayerische Motoren Werke Aktiengesellschaft Method for monitoring a region surrounding a vehicle, assistance system for a vehicle, data exchange device, and system for carrying out a method for monitoring a region surrounding a vehicle

Also Published As

Publication number Publication date
WO2020104551A1 (en) 2020-05-28

Similar Documents

Publication Publication Date Title
DE102012207620B4 (en) System and method for light signal detection
DE102018101125A1 (en) Recurrent deep neuronal convolution network for the detection of objects
DE102017105903A1 (en) Pedestrian detection and motion prediction with camera pointing backwards
DE102019112002A1 (en) SYSTEMS AND METHOD FOR THE AUTOMATIC DETECTION OF PENDING FEATURES
DE102011117585B4 (en) Systems and methods for tracking objects
DE112018007287T5 (en) VEHICLE SYSTEM AND METHOD FOR DETECTING OBJECTS AND OBJECT DISTANCE
DE102011078615B4 (en) OBJECT DETECTION DEVICE AND OBJECT DETECTION PROGRAM
DE112016007376T5 (en) Device for determining peripheral information and method for determining peripheral information
DE102015209943A1 (en) Evacuation travel assistance device.
DE102014223363A1 (en) Method and device for localizing a motor vehicle in a fixed reference card
DE102016112492A9 (en) Minimization of incorrect sensor data associations for autonomous vehicles
WO2020104551A1 (en) Object recognition using the sensor system of vehicles
DE102013221497A1 (en) Device and method for detecting a lane or lane
EP2033165B1 (en) Method for picking up a traffic space
DE112018004953T5 (en) INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS, PROGRAM AND MOVING BODY
DE102018214510A1 (en) Parking ticket generation on the street
DE102018205879A1 (en) Method, apparatus and computer readable storage medium with instructions for processing sensor data
DE102018111935A1 (en) Image processing system, image processing method, information processing apparatus and recording medium
DE102019208176A1 (en) VEHICLE DRIVING ASSISTANCE SYSTEM
DE102021002798A1 (en) Process for camera-based environment detection
DE102018215753A1 (en) Device and method for determining a trajectory of a vehicle
DE102018211368A1 (en) A method of describing an environment of a vehicle through the topology of the busy road
DE102021003567A1 (en) Process for the recognition of object relationships and attributions from sensor data
DE102018220114A1 (en) Device and method for detecting a sensor blockage of an environmental sensor
DE102015216979A1 (en) Method for operating a driver assistance system of a vehicle, control unit and vehicle

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000