DE102018220018A1 - Method for object detection using a vehicle sensor system - Google Patents
Method for object detection using a vehicle sensor system Download PDFInfo
- Publication number
- DE102018220018A1 DE102018220018A1 DE102018220018.1A DE102018220018A DE102018220018A1 DE 102018220018 A1 DE102018220018 A1 DE 102018220018A1 DE 102018220018 A DE102018220018 A DE 102018220018A DE 102018220018 A1 DE102018220018 A1 DE 102018220018A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicles
- information
- data
- objects
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
- H04W4/44—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/95—Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/161—Decentralised systems, e.g. inter-vehicle communication
- G08G1/163—Decentralised systems, e.g. inter-vehicle communication involving continuous checking
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/38—Services specially adapted for particular environments, situations or purposes for collecting sensor information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096733—Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
- G08G1/09675—Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where a selection from the received information takes place in the vehicle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096766—Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
- G08G1/096791—Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is another vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
- H04W4/46—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]
Abstract
Bei einem Verfahren zur Objekterkennung mittels Sensorsystemen von Fahrzeugen (11, 12) ist eine Mehrzahl von Fahrzeugen (11, 12) miteinander vernetzt. Jedes Fahrzeug (11, 12) verfügt über ein Sensorsystem (111, 112; 1111, 1112) zur Detektion von Objekten (13). Die durch die einzelnen Fahrzeuge (11, 12) bei der Detektion von Objekten erfassten Daten und/oder Informationen werden miteinander fusioniert und plausibilisiert.In a method for object detection using sensor systems of vehicles (11, 12), a plurality of vehicles (11, 12) are networked with one another. Each vehicle (11, 12) has a sensor system (111, 112; 1111, 1112) for the detection of objects (13). The data and / or information recorded by the individual vehicles (11, 12) when objects are detected are merged with one another and checked for plausibility.
Description
Die vorliegende Erfindung betrifft ein Verfahren zur Objekterkennung mittels Sensorsystemen von Fahrzeugen, wobei mehrere Fahrzeuge miteinander vernetzt sind und wobei jedes der Fahrzeuge über ein Sensorsystem zur Detektion von Objekten verfügt. Weiterhin betrifft die Erfindung ein Computerprogramm zur Durchführung des Verfahrens, ein maschinenlesbares Speichermedium, auf dem das Computerprogramm gespeichert ist, sowie ein elektronisches Steuergerät zur Durchführung des Verfahrens.The present invention relates to a method for object detection by means of sensor systems of vehicles, several vehicles being networked with one another and each of the vehicles having a sensor system for detecting objects. Furthermore, the invention relates to a computer program for performing the method, a machine-readable storage medium on which the computer program is stored, and an electronic control device for performing the method.
Stand der TechnikState of the art
Mit dem Begriff Objekterkennung wird allgemein ein Verfahren beschrieben, das mittels optischer, akustischer oder anderer physikalischer Verfahren ein Objekt erkennen kann. Insbesondere die Erkennung von Objekten mittels Kamerasystemen wird bereits vielfach angewendet. Vor allem im Automotive-Bereich werden verschiedene kamerabasierte Systeme mit Funktionen zur Erkennung von Objekten eingesetzt. Beispielsweise können so Verkehrsschilder oder die Fahrspur automatisch erkannt werden. Besondere Bedeutung kommt der Erkennung von Fußgängern zu. Eine Objekterkennung kann für vielfältige Funktionen genutzt werden und ist insbesondere für verschiedene Assistenzfunktionen bis hin zum automatisierten Fahren erforderlich.The term object recognition generally describes a method which can recognize an object by means of optical, acoustic or other physical methods. In particular, the detection of objects by means of camera systems is already widely used. Especially in the automotive sector, various camera-based systems with functions for the detection of objects are used. For example, traffic signs or the lane can be recognized automatically. The detection of pedestrians is of particular importance. Object detection can be used for a wide range of functions and is required in particular for various assistance functions up to automated driving.
Im Allgemeinen basieren Objekterkennungsverfahren auf einer bestimmten Charakteristik eines Objekttyps, beispielsweise einer Person, die auf der Basis eines Trainingsdatensatzes ausgewertet wird. Der Trainingsdatensatz beinhaltet dabei unterschiedliche Ausprägungen eines einzelnen Objekttyps, wobei in einer Entwicklungs- und/oder Applikationsphase des Verfahrens in einem Trainingsschritt aus mehreren Trainingsbildern charakteristische Merkmale erzeugt werden. Aus einer Sammlung von solchen charakteristischen Merkmalen kann eine Gesamtbeschreibung des Objekttyps erstellt werden. Für die Erkennung eines bestimmten Objekttyps (wie zum Beispiel Fahrzeug, Motorrad oder Fußgänger) wird für den jeweiligen Typ eine Vielzahl von Bildbeispielen benötigt, die unterschiedliche Ausprägungen des jeweiligen Objektes bei verschiedenen Umweltbedingungen darstellen. Weiterhin wird eine Vielzahl von Gegenbeispielen benötigt, damit über das maschinelle Lernen charakteristische, bildbasierte Eigenschaften des jeweiligen Objektes ermittelt werden können.In general, object recognition methods are based on a specific characteristic of an object type, for example a person, which is evaluated on the basis of a training data record. The training data record contains different forms of an individual object type, with characteristic features being generated in a training step from several training images in a development and / or application phase of the method. An overall description of the object type can be created from a collection of such characteristic features. To recognize a certain type of object (such as a vehicle, motorcycle or pedestrian), a large number of image examples are required for the respective type, which represent different forms of the respective object under different environmental conditions. Furthermore, a large number of counterexamples are required so that characteristic, image-based properties of the respective object can be determined via machine learning.
Um im Betrieb einen konkreten Merkmalsvektor eindeutig einem Objekttyp zuordnen zu können, ist es in der Regel erforderlich, einen Klassifikator zu trainieren. Dabei werden für die eigentliche Objekterkennung Merkmalszahlen eingesetzt, die das jeweilige Objekt beschreiben. Die Merkmalszahlen können mittels des Klassifikators über viele verschachtelte und automatisch generierte Gewichte in eine Zahl umgerechnet werden, die die Wahrscheinlichkeit für das zu klassifizierende Objekt im aktuellen Suchfenster angibt. Die eintrainierten Objektbeispiele resultieren dann in der Regel in einer starren Struktur der Vorverarbeitung und Objektdetektion auf Basis von festen Filtermasken und Gewichten.In order to be able to clearly assign a specific feature vector to an object type in operation, it is generally necessary to train a classifier. Characteristic numbers that describe the respective object are used for the actual object recognition. Using the classifier, the feature numbers can be converted into a number using many nested and automatically generated weights, which indicates the probability of the object to be classified in the current search window. The trained object examples usually result in a rigid structure of preprocessing and object detection based on fixed filter masks and weights.
Die deutsche Offenlegungsschrift
Offenbarung der ErfindungDisclosure of the invention
Vorteile der ErfindungAdvantages of the invention
Die Erfindung stellt ein Verfahren zur Objekterkennung mittels Sensorsystemen von Fahrzeugen bereit, wobei das Verfahren von einer Mehrzahl von Fahrzeugen ausgeht, die miteinander vernetzt sind. Jedes der Fahrzeuge verfügt über wenigstens ein Sensorsystem zur Detektion von Objekten. Kern der Erfindung ist, dass die durch die einzelnen Fahrzeuge bei der Detektion von Objekten erfassten Daten und/oder Informationen miteinander fusioniert und plausibilisiert werden. Bei den Informationen, die auf der Basis der Detektion der Objekte erfasst und/oder ermittelt werden, handelt es sich insbesondere um eine Objekterkennung und/oder um eine Objektklassifikation im eingangs beschriebenen Sinne. Die Objekterkennung selbst und/oder die Objektklassifikation können dabei entweder im Fahrzeug selbst oder auch außerhalb der Fahrzeuge an zentraler Stelle erfolgen. Somit können die Objekterkennungen, die auf den in den einzelnen Fahrzeugen erfassten Daten beruhen, miteinander abgeglichen und gegebenenfalls korrigiert werden. Dieses Verfahren löst das Problem, dass eine Objekterkennung und insbesondere eine Objektklassifikation unterschiedlich trainiert und damit zu unterschiedlichen Ergebnissen führen können. So kann eine Objekterkennung beispielsweise in Bezug auf eine Personenerkennung derart ausgelegt sein, dass vorrangig alle Personen erkannt werden, auch wenn die Erkennung unsicher ist. Dies ist jedoch mit dem Nachteil verbunden, dass beispielsweise auch Geisterobjekte beziehungsweise Geisterpersonen, die also nicht tatsächlich vorhanden sind, erkannt werden. Diese falsch positiven Ergebnisse führen beispielsweise bei Assistenzfunktionen oder bei einem automatisierten Fahren zu unnötigen Abbremsungen, was insbesondere auf Schnellstraßen zu vermeidbaren Unfällen führen kann. Eine gewissermaßen entgegengesetzte Auslegung der Objekterkennung kann sein, dass vorrangig nur Personen erkannt werden, wenn die Erkennung sehr sicher ist. Dies ist mit dem Nachteil verbunden, dass beispielsweise Personen in schlechten Lichtverhältnissen oder Posen oder unter ungewöhnlichen Umständen nicht erkannt werden. Im schlimmsten Fall führt ein solches falsch negatives Ergebnis dazu, dass automatische Bremssysteme nicht aktiviert werden und Personen zu Schaden kommen können.The invention provides a method for object detection by means of sensor systems of vehicles, the method starting from a plurality of vehicles that are networked with one another. Each of the vehicles has at least one sensor system for the detection of objects. The essence of the invention is that the data and / or information captured by the individual vehicles in the detection of objects are fused together and checked for plausibility. The information that is acquired and / or ascertained on the basis of the detection of the objects is, in particular, an object recognition and / or an object classification in the sense described at the beginning. The object recognition itself and / or the object classification can take place either in the vehicle itself or outside of the vehicles at a central point. The object detections, which are based on the data recorded in the individual vehicles, can thus be compared with one another and, if necessary, corrected. This method solves the problem that object recognition and in particular object classification are trained differently and can therefore lead to different results. For example, an object recognition can be designed in relation to a person recognition in such a way that all people are primarily recognized, even if the recognition is uncertain. However, this has the disadvantage that, for example, ghost objects or ghost persons that are not actually present are also recognized. These false positive results lead to unnecessary braking, for example in the case of assistance functions or automated driving, which in particular can lead to avoidable accidents on expressways. A somewhat opposite interpretation of object detection can be that people are primarily recognized only if the detection is very reliable. This has the disadvantage that, for example, people in poor lighting conditions or poses or under unusual circumstances are not recognized. In the worst case, such a false negative result means that automatic braking systems are not activated and people can be injured.
Mit dem Begriff „Objekterkennung“ ist hierbei gemeint, dass Sensordaten, die ein Fahrzeug über sein Sensorsystem erhält, im Hinblick auf eine Erkennung von Objekten bearbeitet und ausgewertet werden. Diese Objekterkennung kann beispielsweise eine Extraktion von charakteristischen Daten umfassen, die beispielsweise anhand eines Klassifikators ausgewertet werden. Die Objekterkennung kann aber auch beinhalten, dass Daten des Sensorsystems des Fahrzeugs lediglich weitergeleitet werden, beispielsweise an eine Cloud oder einen lokalen Provider, um an anderer Stelle weiter im Sinne der eigentlichen Objekterkennung ausgewertet zu werden.The term “object detection” here means that sensor data that a vehicle receives via its sensor system are processed and evaluated with a view to detecting objects. This object recognition can include, for example, an extraction of characteristic data, which are evaluated, for example, using a classifier. The object detection can also include, however, that data from the sensor system of the vehicle is only forwarded, for example to a cloud or a local provider, in order to be further evaluated elsewhere in the sense of the actual object detection.
Das erfindungsgemäße Verfahren löst das Problem von falsch positiven oder falsch negativen Ergebnissen einer Objekterkennung dadurch, dass die individuellen Objekterkennungen bzw. individuell erfassten Daten bei einer Detektion von Objekten durch einzelne Fahrzeuge miteinander gewissermaßen abgeglichen werden, indem die Daten und/oder Informationen zur Objekterkennung fusioniert und plausibilisiert werden. Die Vorteile des Verfahrens kommen insbesondere dann zum Tragen, wenn für die Objekterkennung eine Klassifizierung vorgesehen ist, die durch das erfindungsgemäße Verfahren derart verbessert werden kann, dass weniger falsch positive und weniger falsch negative Ergebnisse generiert werden. Mit besonderem Vorteil wird das erfindungsgemäße Verfahren im Zusammenhang mit einer Objekterkennung bei bewegten oder unbewegten Objekten eingesetzt, vorzugsweise bei einer Objekterkennung von bewegten Objekten wie beispielsweise Personen, Tieren oder anderen Fahrzeugen. Besonders vorteilhaft ist die Verwendung des Verfahrens für eine Objekterkennung von Personen und gegebenenfalls Tieren, wobei die Möglichkeiten des erfindungsgemäßen Verfahrens nicht auf eine solche Objekterkennung beschränkt sind.The method according to the invention solves the problem of false positive or false negative results of an object recognition in that the individual object recognizations or individually recorded data are compared to one another to a certain extent when objects are detected by individual vehicles, by the data and / or information for object recognition being merged and be checked for plausibility. The advantages of the method come into play in particular if a classification is provided for object recognition, which can be improved by the method according to the invention in such a way that fewer false positive and less false negative results are generated. The method according to the invention is used with particular advantage in connection with object detection in the case of moving or stationary objects, preferably in the case of object detection of moving objects such as people, animals or other vehicles. The use of the method for object recognition of people and possibly animals is particularly advantageous, the possibilities of the method according to the invention not being limited to such object recognition.
Mit besonderem Vorteil wird für das erfindungsgemäße Verfahren eine semantische Karte verwendet, wobei die plausibilisierten Daten und/oder Informationen, insbesondere die auf der Basis der Objekterkennung erkannten Objekte, in der semantischen Karte hinterlegt werden.
Unter einer semantischen Karte kann im Rahmen der vorliegenden Erfindung eine metrische Karte verstanden werden, die neben geometrischen und/oder topographischen Informationen zu 2D-Messpunkten und/oder 3D-Messpunkten zusätzlich semantische Bezeichnungen der jeweiligen Messpunkte enthält. Das heißt, mit anderen Worten, unter einer semantischen Karte kann eine metrische bzw. geometrische und/oder topographische Karte verstanden werden, die zusätzliche Informationen in Form von Bezeichnungen bzw. Beschriftungen von Punkten in der Karte aufweist. Vorzugsweise werden auch die Fahrzeuge selbst in der semantischen Karte lokalisiert. Somit kann ein bestimmtes Objekt an einem bestimmten Ort in der Umgebung und damit auch in der semantischen Karte von den Sensorsystemen unterschiedlicher Fahrzeuge und damit auch aus verschiedenen Perspektiven mit damit einhergehenden möglicherweise unterschiedlichen Lichtverhältnissen klassifiziert werden. Durch eine Fusion und Plausibilisierung der Daten und/oder Informationen zu gleichen örtlichen Objekte wird die Erkennungs- und/oder Klassifizierungsgenauigkeit der Objekte erhöht. Die Lokalisierung der Fahrzeuge selbst in der semantischen Karte kann anhand von an sich bekannten Methoden erfolgen, beispielsweise durch Kreuzpeilung bekannter Landmarken oder Template-Matching oder Scan-Matching von aktuellen Sensormessungen, beispielsweise per Ultraschall oder Radar oder Lidar. Die Lokalisierung der Objekte kann beispielsweise unter Verwendung von Stereokameras auf den Fahrzeugen erfolgen, wobei mittels der Disparität die Entfernung der Objekte bestimmt werden kann, sodass in Relation zur Lokalisierung der Fahrzeuge die Position in der semantischen Karte bestimmt werden kann. Hierbei kann es zweckmäßig sein, wenn zusätzliche Korrekturservice verwendet werden, um die Positionsgenauigkeit der lokalisierten Objekte zu verbessern.A semantic map is used with particular advantage for the method according to the invention, the plausibility-checked data and / or information, in particular the objects recognized on the basis of the object recognition, being stored in the semantic map.
In the context of the present invention, a semantic map can be understood to mean a metric map which, in addition to geometric and / or topographical information relating to 2D measuring points and / or 3D measuring points, additionally contains semantic names of the respective measuring points. In other words, a semantic map can be understood to mean a metric or geometric and / or topographic map that has additional information in the form of names or inscriptions of points on the map. The vehicles themselves are preferably also located in the semantic map. Thus, a certain object at a certain location in the environment and thus also in the semantic map can be classified by the sensor systems of different vehicles and thus also from different perspectives with possibly different lighting conditions. The recognition and / or classification accuracy of the objects is increased by a fusion and plausibility check of the data and / or information on the same local objects. The vehicles themselves can be located in the semantic map using methods known per se, for example by cross-bearing known landmarks or template matching or scan matching of current sensor measurements, for example by ultrasound or radar or lidar. The objects can be localized, for example, using stereo cameras on the vehicles, the distance of the objects being determined by means of the disparity, so that the position in the semantic map can be determined in relation to the location of the vehicles. In this case, it can be expedient if additional correction services are used in order to improve the positional accuracy of the localized objects.
Weiterhin ist es bevorzugt, dass die semantische Karte georeferenziert wird. Auch hierfür können an sich bekannte Methoden verwendet werden, beispielsweise mittels GNSS (globales Navigations-Satellitensystem) oder RTK (Real Time Kinematik). Die Kartenerstellung selbst kann insbesondere mittels der Umgebungssensoren der Fahrzeuge oder gegebenenfalls der Infrastruktur erstellt werden, indem ein dreidimensionales Umgebungsmodell bzw. eine dreidimensionale Umgebungskarte erstellt wird. Hierbei können mittels Verfahren des maschinellen Sehens oder Mustererkennung und Ähnlichem beispielsweise ortsfeste (zum Beispiel Gebäude, Straßen/Wege, Baugruben, Lichtmasten, Verkehrsschilder, Bäume, Baumaterial etc.) und nicht ortsfeste (zum Beispiel stehende Maschinen, stehende Fahrzeuge, stehende Personen etc.) beziehungsweise bewegliche Objekte (laufende Personen, fahrende Fahrzeuge, arbeitende Maschinen etc.) erkannt und klassifiziert werden. Diese erkannten Objekte werden in einer semantischen Karte erfasst, die gegebenenfalls auch noch georeferenziert wird. Die Fahrzeuge selbst können sich eigenständig oder assistiert in dieser semantischen Karte lokalisieren und gegebenenfalls auch navigieren. Alternativ zu einer Erstellung eines Umgebungsmodells beziehungsweise einer Umgebungskarte auf der Basis von Sensordaten des Fahrzeugs kann alternativ oder gegebenenfalls zusätzlich auch eine GNSSbasierte Karte verwendet werden.It is further preferred that the semantic map is georeferenced. Methods known per se can also be used for this, for example using GNSS (global navigation satellite system) or RTK (Real Time Kinematics). The map creation itself can be created in particular by means of the environmental sensors of the vehicles or possibly the infrastructure by creating a three-dimensional environment model or a three-dimensional environment map. Here, by means of machine vision or pattern recognition and the like, for example, stationary (e.g. buildings, streets / paths, construction pits, light poles, traffic signs, trees, building materials etc.) and non-stationary (e.g. stationary machines, standing vehicles, standing people etc. ) or moving objects (running people, moving vehicles, working machines etc.) can be recognized and classified. These recognized objects are recorded in a semantic map, which may also be georeferenced. The Vehicles themselves can locate themselves or assist themselves in this semantic map and, if necessary, also navigate. As an alternative to creating an environmental model or an environmental map on the basis of sensor data of the vehicle, a GNSS-based map can alternatively or optionally also be used.
Voraussetzung für das beschriebene Verfahren ist, dass die einzelnen Fahrzeuge direkt (vehicle to vehicle - V2V) und/oder über eine Verkehrsinfrastruktur (V2X) vernetzt sind. Optional kann vorgesehen sein, dass auch andere Verkehrsteilnehmer, wie beispielsweise Zweiräder (Motorräder, Fahrräder oder anderes) und gegebenenfalls Fußgänger mit entsprechenden mobilen Geräten ebenfalls mit den Fahrzeugen vernetzt sind. Wichtig ist, dass die Fahrzeuge über Sensorsysteme verfügen, wobei auf den hiermit generierten Daten die Objekterkennung und gegebenenfalls die Klassifizierung basiert. Als Sensorsysteme können beispielsweise Kamerasysteme, insbesondere Monokameras, oder in besonders bevorzugter Weise Stereokamerasysteme, und entsprechende Algorithmen der Bildverarbeitung und gegebenenfalls maschinelles Sehen vorgesehen sein. Derartige Kamerasysteme werden bereits vielfach für eine Objekterkennung insbesondere im Automotive-Bereich eingesetzt. So kann die Objekterkennung beispielsweise auf der Basis von Daten einer Frontkamera eines Kraftfahrzeugs erfolgen. Alternativ oder zusätzlich kann die Objekterkennung beispielsweise auch durch Einsatz von Radar, Lidar oder Ultraschall erfolgen. Darüber hinaus ist es möglich, dass die Fahrzeuge über Systeme verfügen, die eine Interpretation von Verhalten von Objekten und/oder eine Vorhersage von Verhalten von Objekten ermöglichen. Die Systeme können beispielsweise so ausgestaltet sein, dass Gesten und Intentionen von Personen interpretiert und deren Verhalten prädiziert werden kann. Dies kann ebenfalls auf der Basis von Kamerasystemen, Algorithmen der Bildverarbeitung und maschinellem Sehen erfolgen.The prerequisite for the described method is that the individual vehicles are directly (vehicle to vehicle - V2V) and / or networked via a traffic infrastructure (V2X). It can optionally be provided that other road users, such as two-wheelers (motorcycles, bicycles or other) and possibly pedestrians with corresponding mobile devices, are also networked with the vehicles. It is important that the vehicles have sensor systems, whereby the object recognition and, if necessary, the classification are based on the data generated thereby. Camera systems, in particular mono cameras, or, in a particularly preferred manner, stereo camera systems, and corresponding algorithms for image processing and, if appropriate, machine vision, can be provided as sensor systems. Such camera systems are already widely used for object detection, particularly in the automotive sector. For example, the object can be recognized on the basis of data from a front camera of a motor vehicle. Alternatively or additionally, the object can also be detected, for example, by using radar, lidar or ultrasound. In addition, it is possible for the vehicles to have systems which enable an interpretation of the behavior of objects and / or a prediction of the behavior of objects. The systems can, for example, be designed so that gestures and intentions of people can be interpreted and their behavior can be predicted. This can also be done on the basis of camera systems, image processing algorithms and machine vision.
Die Fusion der Daten und/oder Informationen zur Objekterkennung kann insbesondere durch eine räumliche Fusion von extrahierten Merkmalen der Objekterkennung erfolgen. Anschließend kann dann mit diesen fusionierten Merkmalen insbesondere ein trainierter Klassifikator ausgeführt werden, sodass das Ergebnis des Klassifikators ein plausibilisiertes Ergebnis der Objekterkennung darstellt. Die Fusion der Daten und/oder Informationen und deren weitere Verarbeitung können dabei lokal in den einzelnen Fahrzeugen oder an zentraler Stelle erfolgen.The data and / or information for object recognition can be merged in particular by a spatial fusion of extracted features of object recognition. Then, in particular, a trained classifier can then be carried out with these merged features, so that the result of the classifier represents a plausibility-checked result of the object recognition. The data and / or information can be merged and processed further locally in the individual vehicles or at a central location.
In einer bevorzugten Ausführungsform des Verfahrens erfolgt die Plausibilisierung der Daten und/oder Informationen anhand von statistischen Methoden. Wenn beispielsweise zwei oder mehr Fahrzeuge ein Objekt erkannt und als Person klassifiziert haben, wohingegen ein drittes Fahrzeug an dem entsprechenden Ort der semantischen Karte zu diesem Zeitpunkt keine Person erkannt hat, kann das dritte Fahrzeug seine Objekterkennung entsprechend korrigieren und gegebenenfalls reagieren. Wenn andersherum beispielsweise nur ein Fahrzeug eine Person erkannt hat und die anderen beiden nicht, handelt es sich mit hoher Wahrscheinlichkeit nicht um eine Person. Die Plausibilisierung der Objekterkennung kann dabei gewissermaßen anhand von Mittelwerten bei Berücksichtigung der Objekterkennung durch mehrere Fahrzeuge erfolgen.
Das heißt, mit anderen Worten das Plausibilisieren der durch die einzelnen Fahrzeuge bei der Detektion von Objekten erfassten Daten und/oder Informationen erfolgt durch Vergleichen der von verschiedenen Fahrzeugen erfassten Daten und/oder Informationen, um konsistente Daten und/oder Informationen und von den konsistenten Daten und/oder Informationen abweichende Daten und/oder Informationen zu ermitteln.In a preferred embodiment of the method, the plausibility check of the data and / or information takes place using statistical methods. If, for example, two or more vehicles have recognized an object and classified it as a person, whereas a third vehicle at the corresponding location on the semantic map has not recognized any person at this time, the third vehicle can correct its object recognition accordingly and react if necessary. Conversely, if, for example, only one vehicle recognized a person and the other two did not, it is most likely not a person. The plausibility check of the object detection can take place to a certain extent on the basis of mean values taking into account the object detection by several vehicles.
In other words, the plausibility check of the data and / or information recorded by the individual vehicles in the detection of objects is carried out by comparing the data and / or information recorded by different vehicles in order to obtain consistent data and / or information and of the consistent data and / or to determine information deviating data and / or information.
Wenn die Objekterkennung anhand eines Klassifikators erfolgt, kann es mit Vorteil vorgesehen sein, dass der Klassifikator auf der Basis der Fusionierung und Plausibilisierung der verschiedenen Objekterkennungen bzw. Daten einzelner Fahrzeuge nachtrainiert wird. Hierdurch findet gewissermaßen ein Online-Lernen beziehungsweise ein Online-Nachtrainieren des Klassifikators statt.If the object recognition takes place on the basis of a classifier, it can advantageously be provided that the classifier is retrained on the basis of the fusion and plausibility check of the various object recognizations or data of individual vehicles. As a result, online learning or online retraining of the classifier takes place to a certain extent.
Die Fusion und/oder Plausibilisierung der Daten und/oder Informationen zur Objekterkennung kann auf verschiedene Weise erfolgen. Beispielsweise kann dies in einer Cloud oder in einer Basisstation eines Providers erfolgen. Weiterhin ist es möglich, dass die Fusion und/oder Plausibilisierung der Daten und/oder Informationen in den einzelnen Fahrzeugen erfolgt, wobei hierfür in den einzelnen Fahrzeugen ein verhältnismäßig großer Rechenaufwand erforderlich ist.The data and / or information for object recognition can be merged and / or checked for plausibility in various ways. For example, this can be done in a cloud or in a base station of a provider. Furthermore, it is possible for the data and / or information to be merged and / or checked for plausibility in the individual vehicles, a relatively large computing effort being required for this in the individual vehicles.
Wenn ein Klassifikator (Objektklassifikator) in der beschriebenen Weise nachtrainiert wird, kann dieser nachtrainierte Klassifikator beispielsweise über eine Cloud oder den Service-Provider allen Fahrzeugen zur Verfügung gestellt werden, wenn in den einzelnen Fahrzeugen jeweils ein Klassifikator vorgesehen ist. Alternativ kann beispielsweise auch die Bildinformation mit dem Label „Das ist eine Person“ aus der Objekterkennung des einzelnen Fahrzeugs beispielsweise in die Cloud oder an den Service-Provider gesendet werden, wobei erst beispielsweise in der Cloud oder beim Service-Provider der Klassifikator trainiert wird. Auf diese Weise kann fortlaufend der Klassifikator verbessert werden und immer mehr automatisch gelabelte Bilddaten bereitgestellt werden.If a classifier (object classifier) is retrained in the manner described, this retrained classifier can be made available to all vehicles, for example via a cloud or the service provider, if a classifier is provided in each of the vehicles. Alternatively, for example, the image information with the label “This is a person” can be sent from the object recognition of the individual vehicle, for example, to the cloud or to the service provider, the classifier being trained, for example, in the cloud or at the service provider. In this way, the classifier can be continuously improved and more and more automatically labeled image data can be made available.
Die Erfindung umfasst weiterhin ein Computerprogramm, welches zur Durchführung der Schritte des beschriebenen Verfahrens eingerichtet ist. Weiterhin umfasst die Erfindung ein maschinenlesbares Speichermedium, auf welchem ein solches Computerprogramm gespeichert ist. Schließlich umfasst die Erfindung ein elektronisches Steuergerät, das dazu eingerichtet ist, Daten und/oder Informationen von einer Mehrzahl von miteinander vernetzten Fahrzeugen zu empfangen, wobei die Daten und/oder Informationen bei der Detektion von Objekten mittels Sensorsystemen der Fahrzeuge erfasst werden; und die empfangenen Daten und/oder Informationen miteinander zu fusionieren und zu plausibilisieren, um die fusionierten und plausibilisierten Daten und/oder Informationen den Fahrzeugen bereitzustellen. Hierbei kann es sich insbesondere um ein Kraftfahrzeug-Steuergerät handeln, das beispielsweise im Rahmen von Fahrerassistenzsystemen oder im Rahmen von autonomem Fahren zum Einsatz kommt. The invention further comprises a computer program which is set up to carry out the steps of the described method. Furthermore, the invention comprises a machine-readable storage medium on which such a computer program is stored. Finally, the invention comprises an electronic control device which is set up to receive data and / or information from a plurality of vehicles which are networked with one another, the data and / or information being detected when objects are detected by means of sensor systems of the vehicles; and to merge the received data and / or information with one another and to plausibility check in order to provide the merged and plausibility check data and / or information to the vehicles. This can be, in particular, a motor vehicle control unit that is used, for example, in the context of driver assistance systems or in the context of autonomous driving.
Weitere Merkmale und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen in Verbindung mit der Zeichnung. Hierbei können die einzelnen Merkmale jeweils für sich oder in Kombination miteinander verwirklicht sein.Further features and advantages of the invention result from the following description of exemplary embodiments in conjunction with the drawing. The individual features can be implemented individually or in combination with one another.
In der Zeichnung zeigt:
-
1 Skizze einer Verkehrssituation zur Illustrierung einer Ausgestaltung des erfindungsgemäßen Verfahrens.
-
1 Sketch of a traffic situation to illustrate an embodiment of the method according to the invention.
Beschreibung von AusführungsbeispielenDescription of exemplary embodiments
Andere Situationen, die dazu führen können, dass die Objekterkennung eines Fahrzeugs nicht richtig durchgeführt werden kann, können beispielsweise aufgrund eines tiefliegenden Sonnenstandes eintreten, sodass eine Frontkamera mit Gegenlicht konfrontiert ist, was eine Merkmalsextraktion erschwert und zu einem falsch negativen Ergebnis bei einer Objekterkennung führen kann. Ein ungünstiger Sonnenstand kann beispielsweise auch einen Schattenwurf verursachen, der bei einer Objekterkennung fälschlicherweise als Person erkannt wird (falsch positiv).Other situations that can lead to the object detection of a vehicle not being able to be carried out correctly can occur, for example, due to a low position of the sun, so that a front camera is faced with backlighting, which makes feature extraction difficult and can lead to a false negative result in the case of object detection . An unfavorable position of the sun can, for example, also cause a shadow to be cast, which is incorrectly recognized as a person when an object is recognized (false positive).
Besonders vorteilhaft ist es, wenn die Objekterkennungen, die auf den Daten der einzelnen Fahrzeuge beruhen, fortlaufend in die semantische Karte eingetragen werden, sodass entsprechende Informationen ständig miteinander fusioniert und plausibilisiert werden können. Wenn beispielsweise mehrere Fahrzeuge Fußgänger beim Vorbeifahren bereits klassifiziert haben, so sind die jeweiligen Personen aus verschiedenen Perspektiven, unter verschiedenen Lichtverhältnissen und in möglicherweise unterschiedlichen Posen etc. erkannt worden. Gemäß dieser Ausführungsform des Verfahrens liegen alle diese Informationen permanent aktualisiert und lokalisiert in der semantischen Karte vor und werden in dieser Karte fusioniert und plausibilisiert. Andere Fahrzeuge können auf diese Informationen zugreifen, sodass Objekterkennungen mit falschen Ergebnissen weitgehend vermieden bzw. korrigiert werden können. Die Fusion bzw. Plausibilisierung der Objekterkennung in der semantischen Karte kann beispielsweise derart erfolgen, dass alle beteiligten Fahrzeuge ihre Objektinformationen und deren Ort in die Cloud senden. Hier findet dann die Fusionierung beziehungsweise die Plausibilisierung statt, auf deren Ergebnis alle beteiligten Fahrzeuge umgehend zurückgreifen können. Alternativ können die Objektinformationen und deren Ort, die von den einzelnen Fahrzeugen erfasst werden, an die nächstgelegene Basisstation des Providers gesendet werden. Diese Vorgehensweise ist mit der Cloud-Lösung vergleichbar, wobei hier im Allgemeinen geringere Latenzzeiten als bei der Cloud-Lösung zu erwarten sind. Als weitere Möglichkeit kann in jedem Fahrzeug die gleiche semantische Karte vorgesehen sein, die zum Beispiel bei Befahren eines bestimmten globalen Gebietes von dem jeweiligen Fahrzeug vorab aus einer Cloud geladen wird. Hierbei werden alle Objektinformationen und deren Orte zwischen den einzelnen Fahrzeugen ausgetauscht. Die Fusion beziehungsweise Plausibilisierung der Objekterkennung kann bei dieser Lösung in jedem Fahrzeug selbst stattfinden. Dies hat den Vorteil, dass hierdurch deutlich geringere Latenzzeiten als bei den anderen beschriebenen Varianten möglich sind.It is particularly advantageous if the object identifications, which are based on the data of the individual vehicles, are continuously entered into the semantic map, so that corresponding information can be continuously merged and checked for plausibility. If, for example, several vehicles have already classified pedestrians as they drive past, the respective people have been recognized from different perspectives, under different lighting conditions and in possibly different poses, etc. According to this embodiment of the method, all of this information is permanently updated and localized in the semantic map and is merged and checked for plausibility in this map. Other vehicles can access this information so that object recognition with incorrect results can be largely avoided or corrected. The fusion or plausibility check of the object recognition in the semantic map can, for example, take place in such a way that all vehicles involved send their object information and their location to the cloud. This is where the merger or plausibility check takes place, the result of which all the vehicles involved can access immediately. Alternatively, the Object information and its location, which are recorded by the individual vehicles, are sent to the closest base station of the provider. This procedure is comparable to the cloud solution, although generally lower latency times can be expected than with the cloud solution. As a further possibility, the same semantic map can be provided in each vehicle, which is loaded by the respective vehicle in advance from a cloud, for example, when driving into a certain global area. Here, all object information and their locations are exchanged between the individual vehicles. With this solution, the fusion or plausibility check of object detection can take place in every vehicle itself. This has the advantage that it enables significantly lower latency times than the other variants described.
Ein weiterer Vorteil der fortlaufenden Eintragung in die semantische Karte ist darüber hinaus, dass hierdurch auch eine Objektverfolgung besser möglich ist, sodass beispielsweise eine Person beim Tracken nicht verloren gehen kann. Dies kann weiterhin zur Plausibilisierung eines erkannten oder nicht erkannten beziehungsweise klassifizierten Objektes herangezogen werden.Another advantage of the continuous entry in the semantic map is that it also makes object tracking easier, so that, for example, a person cannot be lost during tracking. This can also be used to check the plausibility of a recognized or not recognized or classified object.
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant has been generated automatically and is only included for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- DE 102016003969 A1 [0005]DE 102016003969 A1 [0005]
Claims (14)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018220018.1A DE102018220018A1 (en) | 2018-11-22 | 2018-11-22 | Method for object detection using a vehicle sensor system |
PCT/EP2019/081979 WO2020104551A1 (en) | 2018-11-22 | 2019-11-20 | Object recognition using the sensor system of vehicles |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018220018.1A DE102018220018A1 (en) | 2018-11-22 | 2018-11-22 | Method for object detection using a vehicle sensor system |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102018220018A1 true DE102018220018A1 (en) | 2020-05-28 |
Family
ID=68835150
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018220018.1A Pending DE102018220018A1 (en) | 2018-11-22 | 2018-11-22 | Method for object detection using a vehicle sensor system |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102018220018A1 (en) |
WO (1) | WO2020104551A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021118457A1 (en) | 2021-07-16 | 2023-01-19 | Bayerische Motoren Werke Aktiengesellschaft | Method for monitoring an area surrounding a vehicle, assistance system for a vehicle, data exchange device and system for implementing a method for monitoring an area surrounding a vehicle |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019215099B4 (en) * | 2019-10-01 | 2022-09-29 | Audi Ag | Method for providing a current local environmental status map for a motor vehicle and motor vehicle for carrying out such a method |
CN114882717A (en) * | 2022-03-16 | 2022-08-09 | 仓擎智能科技(上海)有限公司 | Object detection system and method based on vehicle-road cooperation |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016003969A1 (en) | 2016-04-01 | 2017-10-05 | Audi Ag | Method for acquiring environmental data by means of several motor vehicles |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2896594A1 (en) * | 2006-01-24 | 2007-07-27 | Renault Sas | Movable and fixed elements e.g. pedestrian, perception method, involves introducing information related to elements of one series in perception system for fusion of images of environment established by vehicles |
JP6290009B2 (en) * | 2014-06-06 | 2018-03-07 | 日立オートモティブシステムズ株式会社 | Obstacle information management device |
US9830814B2 (en) * | 2015-07-20 | 2017-11-28 | Dura Operating, Llc | System and method for transmitting detected object attributes over a dedicated short range communication system |
US9922565B2 (en) * | 2015-07-20 | 2018-03-20 | Dura Operating Llc | Sensor fusion of camera and V2V data for vehicles |
EP3339897A1 (en) * | 2016-12-20 | 2018-06-27 | Nxp B.V. | Selective sensor data network |
-
2018
- 2018-11-22 DE DE102018220018.1A patent/DE102018220018A1/en active Pending
-
2019
- 2019-11-20 WO PCT/EP2019/081979 patent/WO2020104551A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016003969A1 (en) | 2016-04-01 | 2017-10-05 | Audi Ag | Method for acquiring environmental data by means of several motor vehicles |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021118457A1 (en) | 2021-07-16 | 2023-01-19 | Bayerische Motoren Werke Aktiengesellschaft | Method for monitoring an area surrounding a vehicle, assistance system for a vehicle, data exchange device and system for implementing a method for monitoring an area surrounding a vehicle |
WO2023285076A1 (en) | 2021-07-16 | 2023-01-19 | Bayerische Motoren Werke Aktiengesellschaft | Method for monitoring a region surrounding a vehicle, assistance system for a vehicle, data exchange device, and system for carrying out a method for monitoring a region surrounding a vehicle |
Also Published As
Publication number | Publication date |
---|---|
WO2020104551A1 (en) | 2020-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102012207620B4 (en) | System and method for light signal detection | |
DE102018101125A1 (en) | Recurrent deep neuronal convolution network for the detection of objects | |
DE102017105903A1 (en) | Pedestrian detection and motion prediction with camera pointing backwards | |
DE102019112002A1 (en) | SYSTEMS AND METHOD FOR THE AUTOMATIC DETECTION OF PENDING FEATURES | |
DE102011117585B4 (en) | Systems and methods for tracking objects | |
DE112018007287T5 (en) | VEHICLE SYSTEM AND METHOD FOR DETECTING OBJECTS AND OBJECT DISTANCE | |
DE102011078615B4 (en) | OBJECT DETECTION DEVICE AND OBJECT DETECTION PROGRAM | |
DE112016007376T5 (en) | Device for determining peripheral information and method for determining peripheral information | |
DE102015209943A1 (en) | Evacuation travel assistance device. | |
DE102014223363A1 (en) | Method and device for localizing a motor vehicle in a fixed reference card | |
DE102016112492A9 (en) | Minimization of incorrect sensor data associations for autonomous vehicles | |
WO2020104551A1 (en) | Object recognition using the sensor system of vehicles | |
DE102013221497A1 (en) | Device and method for detecting a lane or lane | |
EP2033165B1 (en) | Method for picking up a traffic space | |
DE112018004953T5 (en) | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS, PROGRAM AND MOVING BODY | |
DE102018214510A1 (en) | Parking ticket generation on the street | |
DE102018205879A1 (en) | Method, apparatus and computer readable storage medium with instructions for processing sensor data | |
DE102018111935A1 (en) | Image processing system, image processing method, information processing apparatus and recording medium | |
DE102019208176A1 (en) | VEHICLE DRIVING ASSISTANCE SYSTEM | |
DE102021002798A1 (en) | Process for camera-based environment detection | |
DE102018215753A1 (en) | Device and method for determining a trajectory of a vehicle | |
DE102018211368A1 (en) | A method of describing an environment of a vehicle through the topology of the busy road | |
DE102021003567A1 (en) | Process for the recognition of object relationships and attributions from sensor data | |
DE102018220114A1 (en) | Device and method for detecting a sensor blockage of an environmental sensor | |
DE102015216979A1 (en) | Method for operating a driver assistance system of a vehicle, control unit and vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |