DE102017207442A1 - Method and device for classifying objects in the environment of a motor vehicle - Google Patents
Method and device for classifying objects in the environment of a motor vehicle Download PDFInfo
- Publication number
- DE102017207442A1 DE102017207442A1 DE102017207442.6A DE102017207442A DE102017207442A1 DE 102017207442 A1 DE102017207442 A1 DE 102017207442A1 DE 102017207442 A DE102017207442 A DE 102017207442A DE 102017207442 A1 DE102017207442 A1 DE 102017207442A1
- Authority
- DE
- Germany
- Prior art keywords
- radar
- signal section
- class
- environment
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/28—Details of pulse systems
- G01S7/285—Receivers
- G01S7/292—Extracting wanted echo-signals
- G01S7/2923—Extracting wanted echo-signals based on data belonging to a number of consecutive radar periods
- G01S7/2927—Extracting wanted echo-signals based on data belonging to a number of consecutive radar periods by deriving and controlling a threshold value
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4004—Means for monitoring or calibrating of parts of a radar system
- G01S7/4021—Means for monitoring or calibrating of parts of a radar system of receivers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/411—Identification of targets based on measurements of radar reflectivity
- G01S7/412—Identification of targets based on measurements of radar reflectivity based on a comparison between measured values and known or stored values
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/87—Combinations of radar systems, e.g. primary radar and secondary radar
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Electromagnetism (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeuges, umfassend die folgenden Verfahrensschritte: Erfassen eines Umfeldes des Kraftfahrzeuges mittels mindestens eines Radarsensors (2), wobei von Objekten in dem Umfeld hervorgerufene Radarechos (6) eines Radarimpulses erfasst werden; Auswerten eines von dem Radarsensor (2) auf Grundlage der erfassten Radarechos (6) bereitgestellten Radarsignals (7) mittels einer Radarauswertungseinrichtung (3), wobei ein mit einem Objekt korrespondierender Signalabschnitt (8) im Radarsignal (7) identifiziert wird, und wobei ein mit dem Objekt korrespondierender Abstand (9), eine Geschwindigkeit (10) und/oder ein Azimutwinkel (11) bestimmt werden; Klassifizieren des Signalabschnitts (8) mittels einer Klassifizierungseinrichtung (4), wobei der Signalabschnitt (8) mittels eines Deep Neural Networks (12) durch Zuordnen mindestens einer Objektklasse (13) zu dem Signalabschnitt (8) klassifiziert wird, und wobei mittels des Deep Neural Networks (12) für jede dem Signalabschnitt (8) zugeordnete Objektklasse (13) ein Klassenwahrscheinlichkeitsmaß (14) ermittelt wird; Ausgeben der mindestens einen zugeordneten Objektklasse (13) und der jeweils zugehörigen Klassenwahrscheinlichkeitsmaße (14) mittels einer Ausgabeeinrichtung (5). Ferner betrifft die Erfindung eine zugehörige Vorrichtung (1). The invention relates to a method for classifying objects in the environment of a motor vehicle, comprising the following method steps: detecting an environment of the motor vehicle by means of at least one radar sensor (2), wherein radar returns (6) of a radar pulse caused by objects in the surroundings are detected; Evaluating a radar signal (7) provided by the radar sensor (2) on the basis of the detected radar echoes (6) by means of a radar evaluation device (3), wherein a signal section (8) corresponding to an object is identified in the radar signal (7), and wherein a the distance (9) corresponding to the object, a speed (10) and / or an azimuth angle (11) are determined; Classifying the signal section (8) by means of a classification device (4), the signal section (8) being classified by means of a deep neural network (12) by assigning at least one object class (13) to the signal section (8), and by means of the deep neural Networks (12) for each of the signal section (8) associated with the object class (13) a class probability measure (14) is determined; Outputting the at least one associated object class (13) and the respectively associated class probability measures (14) by means of an output device (5). Furthermore, the invention relates to an associated device (1).
Description
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeuges.The invention relates to a method and a device for classifying objects in the environment of a motor vehicle.
Moderne Kraftfahrzeuge sind mit einer Vielzahl von Sensorsystemen zur Umfelderfassung ausgerüstet. Radarsensoren sind hierbei beispielsweise in der Lage, einen Abstand, eine Geschwindigkeit und einen Azimutwinkel von Objekten im Umfeld des Kraftfahrzeugs zu bestimmen. Derartige Radarsensoren bilden bereits die Grundlage für diverse Fahrerassistenzsysteme und können auch in Kombination mit weiteren Sensoren eingesetzt werden.Modern motor vehicles are equipped with a variety of sensor systems for environment detection. For example, radar sensors are capable of determining a distance, a speed and an azimuth angle of objects in the surroundings of the motor vehicle. Such radar sensors already form the basis for various driver assistance systems and can also be used in combination with other sensors.
Ferner sind Verfahren zur Bildauswertung auf Grundlage von Künstlichen Neuronalen Netzen bekannt. Ein solches Verfahren ist beispielsweise in der
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeuges zu schaffen, bei denen das Klassifizieren der Objekte verbessert ist.The invention has for its object to provide a method and apparatus for classifying objects in the environment of a motor vehicle, in which the classification of the objects is improved.
Die Aufgabe wird durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 und eine Vorrichtung mit den Merkmalen des Patentanspruchs 7 gelöst. Vorteilhafte Ausführungsformen ergeben sich aus den Unteransprüchen.The object is achieved by a method having the features of patent claim 1 and a device having the features of
Insbesondere wird ein Verfahren zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeuges zur Verfügung gestellt, umfassend die folgenden Verfahrensschritte: Erfassen eines Umfeldes des Kraftfahrzeuges mittels mindestens eines Radarsensors, wobei von Objekten in dem Umfeld hervorgerufene Radarechos eines Radarimpulses erfasst werden; Auswerten eines von dem Radarsensor auf Grundlage der erfassten Radarechos bereitgestellten Radarsignals mittels einer Radarauswertungseinrichtung, wobei ein mit einem Objekt korrespondierender Signalabschnitt im Radarsignal identifiziert wird, und wobei ein mit dem Objekt korrespondierender Abstand, eine Geschwindigkeit und/oder ein Azimutwinkel bestimmt werden; Klassifizieren des Signalabschnitts mittels einer Klassifizierungseinrichtung, wobei der Signalabschnitt mittels eines Deep Neural Networks durch Zuordnen mindestens einer Objektklasse zu dem Signalabschnitt klassifiziert wird, und wobei mittels des Deep Neural Networks für jede dem Signalabschnitt zugeordnete Objektklasse ein Klassenwahrscheinlichkeitsmaß ermittelt wird; Ausgeben der mindestens einen zugeordneten Objektklasse und der jeweils zugehörigen Klassenwahrscheinlichkeitsmaße mittels einer Ausgabeeinrichtung.In particular, a method is provided for classifying objects in the vicinity of a motor vehicle, comprising the following method steps: detecting an environment of the motor vehicle by means of at least one radar sensor, whereby radar returns of a radar pulse caused by objects in the surroundings are detected; Evaluating a radar signal provided by the radar sensor on the basis of the detected radar returns by means of a radar evaluation device, wherein a signal section corresponding to an object is identified in the radar signal, and wherein a distance corresponding to the object, a speed and / or an azimuth angle are determined; Classifying the signal section by means of a classifier, wherein the signal section is classified by means of a deep neural network by assigning at least one object class to the signal section, and wherein a class probability measure is determined by means of the deep neural network for each object class associated with the signal section; Outputting the at least one associated object class and the respectively associated class probability measures by means of an output device.
Ferner wird eine Vorrichtung zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeugs geschaffen, umfassend mindestens einen Radarsensor zum Erfassen eines Umfeldes des Kraftfahrzeugs, wobei der Radarsensor von Objekten in dem Umfeld hervorgerufene Radarechos eines Radarimpulses erfasst, eine Radarauswertungseinrichtung zum Auswerten eines von dem Radarsensor auf Grundlage der erfassten Radarechos bereitgestellten Radarsignals, wobei die Radarauswertungseinrichtung derart ausgebildet ist, einen mit einem Objekt korrespondierenden Signalabschnitt im Radarsignal zu identifizieren, und ein mit dem Objekt korrespondierenden Abstand, eine Geschwindigkeit und/oder einen Azimutwinkel zu bestimmen; eine Klassifizierungseinrichtung, wobei die Klassifizierungseinrichtung derart ausgebildet ist, den Signalabschnitt mittels eines Deep Neural Networks durch Zuordnen mindestens einer Objektklasse zu dem Signalabschnitt zu klassifizieren, und mittels des Deep Neural Networks für jede dem Signalabschnitt zugeordnete Objektklasse ein Klassenwahrscheinlichkeitsmaß zu ermitteln; und eine Ausgabeeinrichtung, welche derart ausgebildet ist, die mindestens eine zugeordnete Objektklasse und die jeweils zugehörigen Klassenwahrscheinlichkeitsmaße auszugeben.Furthermore, an apparatus for classifying objects in the vicinity of a motor vehicle is provided, comprising at least one radar sensor for detecting an environment of the motor vehicle, wherein the radar sensor detects radar returns of a radar pulse caused by objects in the surroundings, radar evaluation device for evaluating one of the radar sensor based on the detected radar echoes radar signal provided, wherein the radar evaluation means is adapted to identify a signal portion corresponding to an object in the radar signal, and to determine a distance corresponding to the object, a speed and / or an azimuth angle; a classifier, wherein the classifier is arranged to classify the signal portion by means of a deep neural network by assigning at least one class of object to the signal portion, and to determine a class likelihood measure for each class of object associated with the signal portion by the deep neural network; and an output device configured to output the at least one associated object class and the respective associated class probability measures.
Die Grundidee der Erfindung ist, Objekte im Umfeld eines Kraftfahrzeugs mittels eines Radarsensors zu erfassen und ein von dem Radarsensor bereitgestelltes Radarsignal detailliert auszuwerten. Eine Radarauswertungseinrichtung bestimmt hierzu aus dem Radarsignal einen mit dem Objekt korrespondierenden Abstand, eine Geschwindigkeit und/oder einen Azimutwinkel, wobei der Abstand, die Geschwindigkeit und/oder der Azimutwinkel jeweils relativ zu dem Radarsensor bzw. dem Kraftfahrzeug bestimmt werden. Zusätzlich identifiziert die Radarauswertungseinrichtung einen mit dem Objekt korrespondierenden Signalabschnitt in dem Radarsignal. Dieser Signalabschnitt wird einer Klassifizierungseinrichtung zugeführt, welche mittels eines Deep Neural Networks eine Klassifizierung nach verschiedenen Objektklassen vornimmt. Das Deep Neural Network liefert ferner zu jeder einem Signalabschnitt bzw. dem korrespondierenden Objekt zugeordneten Objektklasse ein Klassenwahrscheinlichkeitsmaß. Einem Objekt wird somit mindestens eine Objektklasse mit einem zugehörigen Klassenwahrscheinlichkeitsmaß zugeordnet.The basic idea of the invention is to detect objects in the vicinity of a motor vehicle by means of a radar sensor and to evaluate in detail a radar signal provided by the radar sensor. For this purpose, a radar evaluation device determines from the radar signal a distance corresponding to the object, a speed and / or an azimuth angle, wherein the distance, the speed and / or the azimuth angle are respectively determined relative to the radar sensor or the motor vehicle. In addition, the radar evaluation device identifies a signal section corresponding to the object in the radar signal. This signal section is fed to a classification device, which uses a deep neural network to classify different object classes. The Deep Neural Network also provides a class likelihood measure for each object class associated with a signal portion and the corresponding object, respectively. An object is thus assigned at least one object class with an associated class probability measure.
Das Klassenwahrscheinlichkeitsmaß bildet hierbei einen Konfidenzwert bzw. ein Konfidenzintervall, welches ein Maß für eine Plausibilität bzw. eine Zuverlässigkeit der jeweiligen Zuordnung einer Objektklasse zu einem Objekt ist.The class probability measure here forms a confidence value or a confidence interval, which is a measure of a plausibility or reliability of the respective assignment of an object class to an object.
Ein Signalabschnitt kann hierbei als Radarsignatur eines zugehörigen Objektes aufgefasst werden. Hierbei entspricht eine solche Radarsignatur dem zeitlichen Verlauf des von dem Objekt hervorgerufenen Radarechos des Radarimpulses. Alternativ kann die Radarsignatur aus dem Radarleistungsspektrum entnommen werden. Eine solche Radarsignatur setzt sich hierbei aus sämtlichen von dem Objekt an einzelnen Radarechozentren zurückgeworfenen Radarechos zusammen. Je nach Größe, Form, Oberflächenbeschaffenheit und/oder Oberflächenbeschaffenheit des Objektes ergeben sich hierdurch jeweils für verschiedene Objekte charakteristische Radarsignaturen. So unterscheiden sich beispielsweise die Radarsignaturen von Fußgängern deutlich von denen eines Kraftfahrzeugs oder eines Lastwagens. Diese Unterschiede werden mittels des Deep Neural Networks erkannt und zum Klassifizieren ausgewertet. A signal section can be understood here as a radar signature of an associated object. In this case, such a radar signature corresponds to the time profile of the radar echo of the radar pulse caused by the object. Alternatively, the radar signature can be taken from the radar power spectrum. Such a radar signature is composed here of all the radar echoes thrown back by the object at individual radar echo centers. Depending on the size, shape, surface texture and / or surface condition of the object, this results in characteristic radar signatures for different objects. For example, the radar signatures of pedestrians differ significantly from those of a motor vehicle or a lorry. These differences are recognized by the Deep Neural Network and evaluated for classification.
Das Klassenwahrscheinlichkeitsmaß gibt im einfachsten Fall an, mit welcher Wahrscheinlichkeit ein erfasstes Objekt zu einer bestimmten Objektklasse gehört. Da eine Zuordnung einer Objektklasse in der Regel nicht eindeutig sein wird, erhält man mittels des Verfahrens und der Vorrichtung zu einem erfassten Objekt eine Menge bestehend aus Objektklassen und jeweils zugehörigen Wahrscheinlichkeitswerten. So kann einem erfassten Objekt beispielsweise mit 90 % Wahrscheinlichkeit die Objektklasse „Kraftfahrzeug“ und mit jeweils 5 % Wahrscheinlichkeit die Objektklassen „Baum“ und „Lastwagen“ zugeordnet sein.In the simplest case, the class probability measure indicates with which probability a detected object belongs to a certain object class. Since an assignment of an object class will generally not be unambiguous, the method and the apparatus for a detected object will yield a set consisting of object classes and respective associated probability values. Thus, for example, the object class "motor vehicle" can be assigned to a detected object with 90% probability, and the object classes "tree" and "truck" can each be assigned with 5% probability.
Anders ausgedrückt liefert das Deep Neural Network in diesem Fall zu jedem Signalabschnitt die Wahrscheinlichkeiten pi, dass dieser Signalabschnitt von einer bestimmten Objektklasse i von Objekt verursacht wurde:
- Objektklasse 1:
- p1,
- Objektklasse 2:
- p2,
- ...
- ...
- Objektklasse n
- pn,
- Object class 1:
- p 1 ,
- Object class 2:
- p 2 ,
- ...
- ...
- Object class n
- p n,
Der Vorteil des Verfahrens und der Vorrichtung ist, dass mittels eines Radarsensors nicht nur Informationen über den Abstand, die Geschwindigkeit und/oder den Azimutwinkel eines Objektes im Umfeld des Kraftfahrzeugs gewonnen werden können, sondern auch Aussagen darüber getroffen werden, um was für ein Objekt (z. B. Fahrzeug, Radfahrer, Fußgänger, Baum, etc.) es sich handelt. Dies ermöglicht vielfältige Anwendungsmöglichkeiten, beispielsweise indem man sich diese Information zusätzlich in Fahrerassistenzsystemen zunutze macht. So kann ein Einparkassistent beispielsweise erkennen, ob es sich bei einem Objekt im Umfeld des Kraftfahrzeugs um ein anderes Kraftfahrzeug, einen Bordstein oder einen Poller handelt, und sich diese Information beim automatischen Einparken zunutze machen.The advantage of the method and the device is that not only information about the distance, the speed and / or the azimuth angle of an object in the environment of the motor vehicle can be obtained by means of a radar sensor, but also statements about what kind of object ( eg vehicle, cyclist, pedestrian, tree, etc.). This allows a variety of applications, for example, by making this information in addition in driver assistance systems advantage. For example, a parking assistant can detect whether an object in the vicinity of the motor vehicle is another motor vehicle, a curb or a bollard, and make use of this information during automatic parking.
Nach Durchführen des Verfahrens stellt die Ausgabeeinrichtung somit für jedes im Umfeld erfasste Objekt eine Zuordnung zu mindestens einer Objektklasse sowie ein Abstand, eine Geschwindigkeit und/oder eine Azimutwinkel bereit.After performing the method, the output device thus provides an assignment to at least one object class as well as a distance, a speed and / or an azimuth angle for each object detected in the surroundings.
In einer Ausführungsform ist vorgesehen, dass ein Objekt im Umfeld mehrmals erfasst, entsprechend ausgewertet und klassifiziert wird und Ergebnisse dieser Klassifizierungen auf Grundlage der zugehörigen Klassenwahrscheinlichkeitsmaße zusammengefasst werden. Dies ermöglicht das mehrmalige Erfassen eines Objektes, beispielsweise aus unterschiedlichen Abständen, Perspektiven und/oder Erfassungswinkeln. In jedem einzelnen erfassten Radarecho des Objektes wird dann der mit dem Objekt korrespondierende Signalabschnitt identifiziert und diesem vom Deep Neural Network mindestens eine Objektklasse zugeordnet. Die nach jedem einzelnen Erfassen jeweils bestimmten Klassenwahrscheinlichkeitsmaße für die verschiedenen Objektklassen werden anschließend zusammengefasst, das heißt beispielsweise aufsummiert und renormiert. Dies hat den Vorteil, dass Objekte mehrmals erfasst werden können und auf diese Weise ein genaueres Abbild des Umfelds bereitgestellt wird.In one embodiment, it is provided that an object is detected several times in the environment, evaluated and classified accordingly and results of these classifications are summarized on the basis of the associated class probability measures. This allows the multiple detection of an object, for example, from different distances, perspectives and / or detection angles. In each individual detected radar echo of the object, the signal section corresponding to the object is identified and assigned to it by the Deep Neural Network at least one object class. The class likelihood measures for the different object classes, which are determined after each individual acquisition, are then summarized, that is, for example, summed up and renormalized. This has the advantage that objects can be captured more than once and in this way a more accurate image of the environment is provided.
In der Vorrichtung ist entsprechend vorgesehen, dass der mindestens eine Radarsensor, die Radarauswertungseinrichtung und die Klassifizierungseinrichtung derart ausgebildet sind, ein Objekt im Umfeld mehrmals zu erfassen, auszuwerten und zu klassifizieren, und Ergebnisse dieser Klassifizierungen auf Grundlage der zugehörigen Klassenwahrscheinlichkeitsmaße zusammenzufassen.In the device, it is correspondingly provided that the at least one radar sensor, the radar evaluation device and the classification device are designed to detect, evaluate and classify an object in the environment several times, and to combine results of these classifications on the basis of the associated class probability measures.
Bei einigen Ausführungsformen ist ferner vorgesehen, dass nach dem Zusammenfassen der einzelnen Ergebnisse eine Entscheidung darüber getroffen wird, welche der Objektklassen aus dem zusammengefassten Ergebnis einem Objekt zugeordnet wird. Anders ausgedrückt wird nach dem Zusammenfassen der Ergebnisse beispielsweise durch eine Maximalwerterkennung innerhalb der verschiedenen Klassenwahrscheinlichkeitsmaße der Objektklassen entschieden, welche Objektklasse endgültig ausgewählt bzw. eindeutig einem Objekt zugeordnet wird. Ist das Klassenwahrscheinlichkeitsmaß beispielsweise eine einfache Wahrscheinlichkeit, mit der die einzelnen Objektklassen jeweils vorliegen, so kann diejenige Objektklasse mit der höchsten Wahrscheinlichkeit als einzige und endgültige Objektklasse, die diesem Objekt zugeordnet wird, ausgewählt werden.In some embodiments, it is further provided that, after summarizing the individual results, a decision is made as to which of the object classes from the combined result is assigned to an object. In other words, after summarizing the results, it is decided, for example by maximum value recognition within the various class probability measures of the object classes, which object class is finally selected or uniquely assigned to an object. For example, if the class probability measure is a simple probability with which the individual object classes are present, then that object class with the highest Probability as the only and final object class associated with that object.
In einer Weiterbildung ist ferner vorgesehen, dass das Klassenwahrscheinlichkeitsmaß ein Evidenzwert ist und das Zusammenfassen mittels des Dempster-Shafer-Verfahrens durchgeführt wird. Eine Evidenz ist ein zweidimensionales Wahrscheinlichkeitsmaß: Es setzt sich zusammen aus dem Grad des Dafürhaltens bzw. dem Grad des Vertrauens darin, dass die Aussage einer Quelle zutrifft (engl.: „degree of belief“), und der Plausibilität des Ereignisses bzw. aus einem Wahrscheinlichkeitsbereich mit einer unteren und oberen Grenze. In dieser Ausführungsform liefert das Deep Neural Network zu einem Signalabschnitt dann zu jeder der Objektklassen einen zugehörigen Evidenzwert. Mittels des Dempster-Shafer-Verfahrens lassen sich mehrmals erfasste Objekte sehr viel besser klassifizieren, indem die einzelnen Messungen zu einer Gesamtaussage zusammengefasst werden.In a further development, it is further provided that the class probability measure is an evidence value and the summarization is carried out by means of the Dempster-Shafer method. Evidence is a two-dimensional measure of probability: it is composed of the degree of belief or the degree of confidence in the fact that the statement of a source applies (English: "degree of belief"), and the plausibility of the event or from a Probability range with a lower and upper limit. In this embodiment, the deep neural network then provides an associated evidence value for a signal portion to each of the object classes. By means of the Dempster-Shafer method, it is possible to classify objects that have been detected several times much better by combining the individual measurements into one overall statement.
In einer weiteren Ausführungsform ist vorgesehen, dass das Deep Neural Network mittels Trainingsdaten eines kamerabasierten Referenzsystems trainiert wird. Hierzu werden von dem kamerabasierten Referenzsystem erfasste Abbildungen des Umfelds von dem Referenzsystem klassifiziert und die Objekten im Umfeld zugeordneten Objektklassen als Referenzklassen („ground truth“) angenommen. Diese Referenzklassen werden dann als Trainingsdaten beim Trainieren des Deep Neural Networks auf das Auswerten des vom Radarsensor bereitgestellten Radarsignals bzw. des Signalabschnitts verwendet. Es kann hierbei vorgesehen sein, dass Kameradaten vorher manuell ausgewertet werden, so dass die Referenzklassen manuell den entsprechenden Objekten zugeordnet werden.In a further embodiment, it is provided that the deep neural network is trained by means of training data of a camera-based reference system. For this purpose, images of the surroundings captured by the camera-based reference system are classified by the reference system, and the objects in the vicinity of associated object classes are assumed to be reference classes ("ground truth"). These reference classes are then used as training data in training the deep neural network to evaluate the radar signal provided by the radar sensor or the signal section. It may be provided here that camera data are previously evaluated manually, so that the reference classes are assigned manually to the corresponding objects.
Es kann hierbei vorgesehen sein, Kameradaten zu verwenden, die während einer Fahrt in einem unbekannten Umfeld erfasst wurden. Alternativ kann aber auch vorgesehen sein, dass Kameradaten verwendet werden, welche in einem Umfeld mit bekannten Objekten erfasst wurden.It may be provided here to use camera data captured during a journey in an unknown environment. Alternatively, however, it can also be provided that camera data is used which has been acquired in an environment with known objects.
Die entsprechende Ausführungsform der Vorrichtung sieht demgemäß ein kamerabasiertes Referenzsystem vor, wobei das Deep Neural Network derart ausgebildet ist, mittels vom kamerabasierten Referenzsystems bereitgestellten Trainingsdaten trainiert zu werden.The corresponding embodiment of the device accordingly provides a camera-based reference system, wherein the deep neural network is adapted to be trained by means of training data provided by the camera-based reference system.
In einer weiteren Ausführungsform ist vorgesehen, dass der mit dem Objekt korrespondierende Signalabschnitt mittels einer Schwellwerterkennung ermittelt wird. Hierzu ist vorgesehen, dass Signalanteile in dem Radarsignal, welche unterhalb eines bestimmten Schwellwertes liegen, nicht berücksichtigt werden. Auf diese Weise lassen sich Rauschanteile in dem Radarsignal vollständig unterdrücken oder zumindest deutlich vermindern. Die Folge ist, dass eine Erfolgsquote bei der Zuordnung einer Objektklasse zu einem Objekt mittels des Deep Neural Networks deutlich verbessert werden kann.In a further embodiment, it is provided that the signal section corresponding to the object is determined by means of a threshold value detection. For this purpose, it is provided that signal components in the radar signal which are below a certain threshold value are not taken into account. In this way, noise components in the radar signal can be completely suppressed or at least significantly reduced. The consequence is that a success rate in the assignment of an object class to an object can be significantly improved by means of the Deep Neural Network.
Die Vorrichtung sieht in dieser Ausführungsform entsprechend vor, dass die Radarauswertungseinrichtung derart ausgebildet ist, den mit dem Objekt korrespondierenden Signalabschnitt mittels einer Schwellwerterkennung zu ermitteln.In this embodiment, the device accordingly provides that the radar evaluation device is designed to determine the signal portion corresponding to the object by means of a threshold value detection.
In einer Weiterbildung ist ferner vorgesehen, dass die Schwellwerterkennung mittels des Ordered-Statistics Constant-False-Alarm-Rate-Verfahrens (OS-CFAR) durchgeführt wird.In a further development, it is further provided that the threshold value detection is carried out by means of the ordered-constant-false-alarm-rate method (OS-CFAR).
Die Klassifizierungseinrichtung und das Deep Neural Network können beispielsweise mittels einer Graphics Processing Unit (GPU bzw. GPGPU) umgesetzt werden.The classifier and the Deep Neural Network can be implemented, for example, by means of a Graphics Processing Unit (GPU or GPGPU).
Die Vorrichtung kann beispielsweise in einem Kraftfahrzeug ausgebildet sein. Auf diese Weise kann das Klassifizieren direkt in dem Kraftfahrzeug selber durchgeführt werden und steht während einer Fahrt durch ein Umfeld zur Verfügung.The device may be formed for example in a motor vehicle. In this way, the classification can be carried out directly in the motor vehicle itself and is available while driving through an environment.
Nachfolgend wird die Erfindung anhand bevorzugter Ausführungsbeispiele unter Bezugnahme auf die Figuren näher erläutert. Hierbei zeigen:
-
1 eine schematische Darstellung einer Ausführungsform der Vorrichtung zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeugs; -
2 eine schematische Darstellung einer weiteren Ausführungsform der Vorrichtung zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeugs; -
3 eine schematische Darstellung von verschiedenen Radarechozentren an einem Heck eines Kraftfahrtzeugs zur Verdeutlichung der Entstehung eines Radarechos; -
4a eine schematische Radarsignatur eines Fußgängers; -
4b eine schematische Radarsignatur eines Kraftfahrzeugs; -
4c eine schematische Radarsignatur eines Lastkraftwagens; -
5 eine schematische Darstellung zur Erläuterung der Schwellwerterkennung.
-
1 a schematic representation of an embodiment of the device for classifying objects in the environment of a motor vehicle; -
2 a schematic representation of another embodiment of the device for classifying objects in the environment of a motor vehicle; -
3 a schematic representation of different radar echo centers at a rear of a motor vehicle to illustrate the formation of a radar echo; -
4a a schematic radar signature of a pedestrian; -
4b a schematic radar signature of a motor vehicle; -
4c a schematic radar signature of a truck; -
5 a schematic representation for explaining the threshold detection.
In
Es kann in einigen Ausführungsformen vorgesehen sein, dass ein Objekt im Umfeld mehrmals erfasst, entsprechend ausgewertet und klassifiziert wird und Ergebnisse dieser Klassifizierungen auf Grundlage der zugehörigen Klassenwahrscheinlichkeitsmaße
Die Vorrichtung kann beispielsweise in einem Kraftfahrzeug ausgebildet sein. Auf diese Weise kann das Klassifizieren direkt in dem Kraftfahrzeug selber durchgeführt werden und steht während einer Fahrt durch ein Umfeld zur Verfügung.The device may be formed for example in a motor vehicle. In this way, the classification can be carried out directly in the motor vehicle itself and is available while driving through an environment.
In weiterbildenden Ausführungsformen kann ferner vorgesehen sein, dass das Klassenwahrscheinlichkeitsmaß ein Evidenzwert ist und das Zusammenfassen mittels des Dempster-Shafer-Verfahrens durchgeführt wird.In further embodiments, it may further be provided that the class probability measure is an evidence value and the summarization is carried out by means of the Dempster-Shafer method.
In
In
Je nach Größe, Form, Oberflächenbeschaffenheit und/oder Material eines Objektes, an dem ein Radarecho entsteht, unterscheidet sich eine Radarsignatur des entsprechenden Objektes. In den
In
In einer Ausführungsform wird die Schwellwerterkennung mittels des Ordered-Statistics Constant-False-Alarm-Rate-(OS-CFAR)-Verfahrens durchgeführt.In one embodiment, threshold detection is performed using the Ordered-Statistics Constant-False-Alarm-Rate (OS-CFAR) method.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- 11
- Vorrichtungcontraption
- 22
- Radarsensorradar sensor
- 33
- RadarauswertungseinrichtungRadar evaluation device
- 44
- Klassifizierungseinrichtungclassifier
- 55
- Ausgabeeinrichtungoutput device
- 66
- Radarechoradar echo
- 77
- Radarsignalradar signal
- 88th
- Signalabschnittsignal section
- 99
- Abstanddistance
- 1010
- Geschwindigkeitspeed
- 1111
- Azimutwinkelazimuth angle
- 1212
- Deep Neural NetworkDeep Neural Network
- 1313
- Objektklasseobject class
- 1414
- KlassenwahrscheinlichkeitsmaßKlassenwahrscheinlichkeitsmaß
- 1515
- kamerabasiertes ReferenzsystemCamera-based reference system
- 1616
- Kameracamera
- 1717
- ReferenzklassifizierungseinrichtungReference classifier
- 1818
- AbbildungIllustration
- 1919
- Referenzklassereference class
- 2020
- Trainingsdatentraining data
- 3030
- HeckRear
- 3131
- RadarechozentrumRadar echo center
- 3232
- Radarsignaturradar signature
- 3333
- Schwellwertthreshold
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- EP 1674883 A2 [0003]EP 1674883 A2 [0003]
Claims (10)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017207442.6A DE102017207442A1 (en) | 2017-05-03 | 2017-05-03 | Method and device for classifying objects in the environment of a motor vehicle |
PCT/EP2018/060788 WO2018202552A1 (en) | 2017-05-03 | 2018-04-26 | Method and device for classifying objects in the environment of a motor vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017207442.6A DE102017207442A1 (en) | 2017-05-03 | 2017-05-03 | Method and device for classifying objects in the environment of a motor vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102017207442A1 true DE102017207442A1 (en) | 2018-11-08 |
Family
ID=62091875
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102017207442.6A Pending DE102017207442A1 (en) | 2017-05-03 | 2017-05-03 | Method and device for classifying objects in the environment of a motor vehicle |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102017207442A1 (en) |
WO (1) | WO2018202552A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020113160A3 (en) * | 2018-11-30 | 2020-07-30 | Qualcomm Incorporated | Radar deep learning |
DE102019213803A1 (en) * | 2019-09-11 | 2021-03-11 | Zf Friedrichshafen Ag | Adjusting a classification of objects |
CN113227832A (en) * | 2018-12-20 | 2021-08-06 | 罗伯特·博世有限公司 | Determining the orientation of an object by means of radar or by using electromagnetic interrogation radiation |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3800581A1 (en) | 2019-10-03 | 2021-04-07 | Axis AB | A method and apparatus for generating an object classification for an object |
CN112288897B (en) * | 2020-09-30 | 2022-08-30 | 深圳市金溢科技股份有限公司 | Vehicle-mounted unit positioning method based on deep learning and road side unit |
US20220308200A1 (en) * | 2021-03-24 | 2022-09-29 | Sony Group Corporation | Radar data determination circuitry and radar data determination method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19518993A1 (en) * | 1995-05-29 | 1996-12-05 | Sel Alcatel Ag | Device and method for automatic detection or classification of objects |
DE19649618A1 (en) * | 1996-11-29 | 1998-06-04 | Alsthom Cge Alcatel | Method and device for automatic classification of objects |
EP1674883A2 (en) * | 2004-12-27 | 2006-06-28 | Hitachi, Ltd. | Apparatus and method for detecting vehicle |
US20160140438A1 (en) * | 2014-11-13 | 2016-05-19 | Nec Laboratories America, Inc. | Hyper-class Augmented and Regularized Deep Learning for Fine-grained Image Classification |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5499030A (en) * | 1994-03-18 | 1996-03-12 | The United States Of America As Represented By The Secretary Of The Air Force | Expert system constant false alarm rate (CFAR) processor |
US5963653A (en) * | 1997-06-19 | 1999-10-05 | Raytheon Company | Hierarchical information fusion object recognition system and method |
US9594159B2 (en) * | 2013-07-15 | 2017-03-14 | Texas Instruments Incorporated | 2-D object detection in radar applications |
JP6548376B2 (en) * | 2014-10-06 | 2019-07-24 | 日本電産株式会社 | Radar system, radar signal processing device, vehicle travel control device and method, and computer program |
-
2017
- 2017-05-03 DE DE102017207442.6A patent/DE102017207442A1/en active Pending
-
2018
- 2018-04-26 WO PCT/EP2018/060788 patent/WO2018202552A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19518993A1 (en) * | 1995-05-29 | 1996-12-05 | Sel Alcatel Ag | Device and method for automatic detection or classification of objects |
DE19649618A1 (en) * | 1996-11-29 | 1998-06-04 | Alsthom Cge Alcatel | Method and device for automatic classification of objects |
EP1674883A2 (en) * | 2004-12-27 | 2006-06-28 | Hitachi, Ltd. | Apparatus and method for detecting vehicle |
US20160140438A1 (en) * | 2014-11-13 | 2016-05-19 | Nec Laboratories America, Inc. | Hyper-class Augmented and Regularized Deep Learning for Fine-grained Image Classification |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020113160A3 (en) * | 2018-11-30 | 2020-07-30 | Qualcomm Incorporated | Radar deep learning |
CN113167860A (en) * | 2018-11-30 | 2021-07-23 | 高通股份有限公司 | Radar deep learning |
US11927668B2 (en) | 2018-11-30 | 2024-03-12 | Qualcomm Incorporated | Radar deep learning |
CN113227832A (en) * | 2018-12-20 | 2021-08-06 | 罗伯特·博世有限公司 | Determining the orientation of an object by means of radar or by using electromagnetic interrogation radiation |
DE102019213803A1 (en) * | 2019-09-11 | 2021-03-11 | Zf Friedrichshafen Ag | Adjusting a classification of objects |
Also Published As
Publication number | Publication date |
---|---|
WO2018202552A1 (en) | 2018-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102017207442A1 (en) | Method and device for classifying objects in the environment of a motor vehicle | |
DE102017203838A1 (en) | Method and system for environment detection | |
DE102015109832A1 (en) | Object classification for vehicle radar systems | |
DE102013200409A1 (en) | A method and apparatus for monitoring an environment of a vehicle and method for performing emergency braking | |
DE102013201545A1 (en) | Create an environment model for a vehicle | |
DE102014106506A1 (en) | Method for carrying out a diagnosis of a camera system of a motor vehicle, camera system and motor vehicle | |
DE102016205433A1 (en) | Method, device, card management device and system for pinpoint localization of a motor vehicle in an environment | |
DE102014201158A1 (en) | Method and device for checking a relevant object detected by an object recognition | |
DE102019200141A1 (en) | Method for capturing partial areas of an object | |
DE102016220479A1 (en) | Method and device for generating an emergency call for a vehicle | |
WO2018095491A1 (en) | Device and method for checking a functionality of a sensor | |
DE102019218069A1 (en) | Device and method for recognizing and classifying an opponent in an accident | |
DE102018222800A1 (en) | Locating and / or classifying objects from radar data with improved reliability at different distances | |
DE102018005969A1 (en) | Method for operating a driver assistance system with two detection devices | |
DE102015223412A1 (en) | A method for providing an accident record, method for detecting a traffic accident in the environment of a vehicle and method for responding to a traffic accident in the environment of a vehicle | |
DE102019218349A1 (en) | Method for classifying at least one ultrasonic echo from echo signals | |
DE102019001041A1 (en) | Method and device for recognizing at least one manipulated traffic sign with a laser scanner | |
DE102019201892A1 (en) | Method for detecting movement of an object | |
DE102022117277A1 (en) | METHOD FOR TRAINING A NEURONAL NETWORK | |
DE102014224792A1 (en) | A method of detecting vehicle damage and a related device | |
DE102018202903A1 (en) | Method for evaluating measurement data of a radar measurement system using a neural network | |
DE102016119592A1 (en) | Method for detecting objects in an environmental region of a motor vehicle taking into account sensor data in the infrared wavelength range, object recognition device, driver assistance system and motor vehicle | |
DE102020206237A1 (en) | Procedure for assisting a driver in an overtaking maneuver, as well as vehicle | |
DE102020001309A1 (en) | Method for operating an electronic computing device for a motor vehicle, as well as an electronic computing device | |
DE102019218127A1 (en) | Method and device for the optimal provision of AI systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G01S0013880000 Ipc: G01S0007410000 |
|
R163 | Identified publications notified | ||
R081 | Change of applicant/patentee |
Owner name: VOLKSWAGEN AKTIENGESELLSCHAFT, DE Free format text: FORMER OWNERS: SCANIA CV AB, SOEDERTAELJE, SE; VOLKSWAGEN AG, 38440 WOLFSBURG, DE |
|
R082 | Change of representative |
Representative=s name: PATENTANWAELTE BRESSEL UND PARTNER MBB, DE |
|
R082 | Change of representative | ||
R012 | Request for examination validly filed |