DE102017207442A1 - Method and device for classifying objects in the environment of a motor vehicle - Google Patents

Method and device for classifying objects in the environment of a motor vehicle Download PDF

Info

Publication number
DE102017207442A1
DE102017207442A1 DE102017207442.6A DE102017207442A DE102017207442A1 DE 102017207442 A1 DE102017207442 A1 DE 102017207442A1 DE 102017207442 A DE102017207442 A DE 102017207442A DE 102017207442 A1 DE102017207442 A1 DE 102017207442A1
Authority
DE
Germany
Prior art keywords
radar
signal section
class
environment
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017207442.6A
Other languages
German (de)
Inventor
Marc-Michael Meinecke
Michael Heuer
Mikael Johansson
Volker Schomerus
Tom Nyström
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Scania CV AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG, Scania CV AB filed Critical Volkswagen AG
Priority to DE102017207442.6A priority Critical patent/DE102017207442A1/en
Priority to PCT/EP2018/060788 priority patent/WO2018202552A1/en
Publication of DE102017207442A1 publication Critical patent/DE102017207442A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/28Details of pulse systems
    • G01S7/285Receivers
    • G01S7/292Extracting wanted echo-signals
    • G01S7/2923Extracting wanted echo-signals based on data belonging to a number of consecutive radar periods
    • G01S7/2927Extracting wanted echo-signals based on data belonging to a number of consecutive radar periods by deriving and controlling a threshold value
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4021Means for monitoring or calibrating of parts of a radar system of receivers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • G01S7/412Identification of targets based on measurements of radar reflectivity based on a comparison between measured values and known or stored values
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Electromagnetism (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeuges, umfassend die folgenden Verfahrensschritte: Erfassen eines Umfeldes des Kraftfahrzeuges mittels mindestens eines Radarsensors (2), wobei von Objekten in dem Umfeld hervorgerufene Radarechos (6) eines Radarimpulses erfasst werden; Auswerten eines von dem Radarsensor (2) auf Grundlage der erfassten Radarechos (6) bereitgestellten Radarsignals (7) mittels einer Radarauswertungseinrichtung (3), wobei ein mit einem Objekt korrespondierender Signalabschnitt (8) im Radarsignal (7) identifiziert wird, und wobei ein mit dem Objekt korrespondierender Abstand (9), eine Geschwindigkeit (10) und/oder ein Azimutwinkel (11) bestimmt werden; Klassifizieren des Signalabschnitts (8) mittels einer Klassifizierungseinrichtung (4), wobei der Signalabschnitt (8) mittels eines Deep Neural Networks (12) durch Zuordnen mindestens einer Objektklasse (13) zu dem Signalabschnitt (8) klassifiziert wird, und wobei mittels des Deep Neural Networks (12) für jede dem Signalabschnitt (8) zugeordnete Objektklasse (13) ein Klassenwahrscheinlichkeitsmaß (14) ermittelt wird; Ausgeben der mindestens einen zugeordneten Objektklasse (13) und der jeweils zugehörigen Klassenwahrscheinlichkeitsmaße (14) mittels einer Ausgabeeinrichtung (5). Ferner betrifft die Erfindung eine zugehörige Vorrichtung (1).

Figure DE102017207442A1_0000
The invention relates to a method for classifying objects in the environment of a motor vehicle, comprising the following method steps: detecting an environment of the motor vehicle by means of at least one radar sensor (2), wherein radar returns (6) of a radar pulse caused by objects in the surroundings are detected; Evaluating a radar signal (7) provided by the radar sensor (2) on the basis of the detected radar echoes (6) by means of a radar evaluation device (3), wherein a signal section (8) corresponding to an object is identified in the radar signal (7), and wherein a the distance (9) corresponding to the object, a speed (10) and / or an azimuth angle (11) are determined; Classifying the signal section (8) by means of a classification device (4), the signal section (8) being classified by means of a deep neural network (12) by assigning at least one object class (13) to the signal section (8), and by means of the deep neural Networks (12) for each of the signal section (8) associated with the object class (13) a class probability measure (14) is determined; Outputting the at least one associated object class (13) and the respectively associated class probability measures (14) by means of an output device (5). Furthermore, the invention relates to an associated device (1).
Figure DE102017207442A1_0000

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeuges.The invention relates to a method and a device for classifying objects in the environment of a motor vehicle.

Moderne Kraftfahrzeuge sind mit einer Vielzahl von Sensorsystemen zur Umfelderfassung ausgerüstet. Radarsensoren sind hierbei beispielsweise in der Lage, einen Abstand, eine Geschwindigkeit und einen Azimutwinkel von Objekten im Umfeld des Kraftfahrzeugs zu bestimmen. Derartige Radarsensoren bilden bereits die Grundlage für diverse Fahrerassistenzsysteme und können auch in Kombination mit weiteren Sensoren eingesetzt werden.Modern motor vehicles are equipped with a variety of sensor systems for environment detection. For example, radar sensors are capable of determining a distance, a speed and an azimuth angle of objects in the surroundings of the motor vehicle. Such radar sensors already form the basis for various driver assistance systems and can also be used in combination with other sensors.

Ferner sind Verfahren zur Bildauswertung auf Grundlage von Künstlichen Neuronalen Netzen bekannt. Ein solches Verfahren ist beispielsweise in der EP 1 674 883 A2 beschrieben. Eine besondere Klasse von Optimierungsmethoden Künstlicher Neuronaler Netze bilden Deep Neural Networks. Diese Deep Neural Networks ermöglichen auf Grund einer umfangreichen inneren Struktur einen stabileren Lernerfolg.Furthermore, methods for image analysis based on artificial neural networks are known. Such a method is for example in the EP 1 674 883 A2 described. A special class of artificial neural network optimization methods are Deep Neural Networks. These deep neural networks provide a more stable learning experience due to an extensive internal structure.

Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeuges zu schaffen, bei denen das Klassifizieren der Objekte verbessert ist.The invention has for its object to provide a method and apparatus for classifying objects in the environment of a motor vehicle, in which the classification of the objects is improved.

Die Aufgabe wird durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 und eine Vorrichtung mit den Merkmalen des Patentanspruchs 7 gelöst. Vorteilhafte Ausführungsformen ergeben sich aus den Unteransprüchen.The object is achieved by a method having the features of patent claim 1 and a device having the features of patent claim 7. Advantageous embodiments will be apparent from the dependent claims.

Insbesondere wird ein Verfahren zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeuges zur Verfügung gestellt, umfassend die folgenden Verfahrensschritte: Erfassen eines Umfeldes des Kraftfahrzeuges mittels mindestens eines Radarsensors, wobei von Objekten in dem Umfeld hervorgerufene Radarechos eines Radarimpulses erfasst werden; Auswerten eines von dem Radarsensor auf Grundlage der erfassten Radarechos bereitgestellten Radarsignals mittels einer Radarauswertungseinrichtung, wobei ein mit einem Objekt korrespondierender Signalabschnitt im Radarsignal identifiziert wird, und wobei ein mit dem Objekt korrespondierender Abstand, eine Geschwindigkeit und/oder ein Azimutwinkel bestimmt werden; Klassifizieren des Signalabschnitts mittels einer Klassifizierungseinrichtung, wobei der Signalabschnitt mittels eines Deep Neural Networks durch Zuordnen mindestens einer Objektklasse zu dem Signalabschnitt klassifiziert wird, und wobei mittels des Deep Neural Networks für jede dem Signalabschnitt zugeordnete Objektklasse ein Klassenwahrscheinlichkeitsmaß ermittelt wird; Ausgeben der mindestens einen zugeordneten Objektklasse und der jeweils zugehörigen Klassenwahrscheinlichkeitsmaße mittels einer Ausgabeeinrichtung.In particular, a method is provided for classifying objects in the vicinity of a motor vehicle, comprising the following method steps: detecting an environment of the motor vehicle by means of at least one radar sensor, whereby radar returns of a radar pulse caused by objects in the surroundings are detected; Evaluating a radar signal provided by the radar sensor on the basis of the detected radar returns by means of a radar evaluation device, wherein a signal section corresponding to an object is identified in the radar signal, and wherein a distance corresponding to the object, a speed and / or an azimuth angle are determined; Classifying the signal section by means of a classifier, wherein the signal section is classified by means of a deep neural network by assigning at least one object class to the signal section, and wherein a class probability measure is determined by means of the deep neural network for each object class associated with the signal section; Outputting the at least one associated object class and the respectively associated class probability measures by means of an output device.

Ferner wird eine Vorrichtung zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeugs geschaffen, umfassend mindestens einen Radarsensor zum Erfassen eines Umfeldes des Kraftfahrzeugs, wobei der Radarsensor von Objekten in dem Umfeld hervorgerufene Radarechos eines Radarimpulses erfasst, eine Radarauswertungseinrichtung zum Auswerten eines von dem Radarsensor auf Grundlage der erfassten Radarechos bereitgestellten Radarsignals, wobei die Radarauswertungseinrichtung derart ausgebildet ist, einen mit einem Objekt korrespondierenden Signalabschnitt im Radarsignal zu identifizieren, und ein mit dem Objekt korrespondierenden Abstand, eine Geschwindigkeit und/oder einen Azimutwinkel zu bestimmen; eine Klassifizierungseinrichtung, wobei die Klassifizierungseinrichtung derart ausgebildet ist, den Signalabschnitt mittels eines Deep Neural Networks durch Zuordnen mindestens einer Objektklasse zu dem Signalabschnitt zu klassifizieren, und mittels des Deep Neural Networks für jede dem Signalabschnitt zugeordnete Objektklasse ein Klassenwahrscheinlichkeitsmaß zu ermitteln; und eine Ausgabeeinrichtung, welche derart ausgebildet ist, die mindestens eine zugeordnete Objektklasse und die jeweils zugehörigen Klassenwahrscheinlichkeitsmaße auszugeben.Furthermore, an apparatus for classifying objects in the vicinity of a motor vehicle is provided, comprising at least one radar sensor for detecting an environment of the motor vehicle, wherein the radar sensor detects radar returns of a radar pulse caused by objects in the surroundings, radar evaluation device for evaluating one of the radar sensor based on the detected radar echoes radar signal provided, wherein the radar evaluation means is adapted to identify a signal portion corresponding to an object in the radar signal, and to determine a distance corresponding to the object, a speed and / or an azimuth angle; a classifier, wherein the classifier is arranged to classify the signal portion by means of a deep neural network by assigning at least one class of object to the signal portion, and to determine a class likelihood measure for each class of object associated with the signal portion by the deep neural network; and an output device configured to output the at least one associated object class and the respective associated class probability measures.

Die Grundidee der Erfindung ist, Objekte im Umfeld eines Kraftfahrzeugs mittels eines Radarsensors zu erfassen und ein von dem Radarsensor bereitgestelltes Radarsignal detailliert auszuwerten. Eine Radarauswertungseinrichtung bestimmt hierzu aus dem Radarsignal einen mit dem Objekt korrespondierenden Abstand, eine Geschwindigkeit und/oder einen Azimutwinkel, wobei der Abstand, die Geschwindigkeit und/oder der Azimutwinkel jeweils relativ zu dem Radarsensor bzw. dem Kraftfahrzeug bestimmt werden. Zusätzlich identifiziert die Radarauswertungseinrichtung einen mit dem Objekt korrespondierenden Signalabschnitt in dem Radarsignal. Dieser Signalabschnitt wird einer Klassifizierungseinrichtung zugeführt, welche mittels eines Deep Neural Networks eine Klassifizierung nach verschiedenen Objektklassen vornimmt. Das Deep Neural Network liefert ferner zu jeder einem Signalabschnitt bzw. dem korrespondierenden Objekt zugeordneten Objektklasse ein Klassenwahrscheinlichkeitsmaß. Einem Objekt wird somit mindestens eine Objektklasse mit einem zugehörigen Klassenwahrscheinlichkeitsmaß zugeordnet.The basic idea of the invention is to detect objects in the vicinity of a motor vehicle by means of a radar sensor and to evaluate in detail a radar signal provided by the radar sensor. For this purpose, a radar evaluation device determines from the radar signal a distance corresponding to the object, a speed and / or an azimuth angle, wherein the distance, the speed and / or the azimuth angle are respectively determined relative to the radar sensor or the motor vehicle. In addition, the radar evaluation device identifies a signal section corresponding to the object in the radar signal. This signal section is fed to a classification device, which uses a deep neural network to classify different object classes. The Deep Neural Network also provides a class likelihood measure for each object class associated with a signal portion and the corresponding object, respectively. An object is thus assigned at least one object class with an associated class probability measure.

Das Klassenwahrscheinlichkeitsmaß bildet hierbei einen Konfidenzwert bzw. ein Konfidenzintervall, welches ein Maß für eine Plausibilität bzw. eine Zuverlässigkeit der jeweiligen Zuordnung einer Objektklasse zu einem Objekt ist.The class probability measure here forms a confidence value or a confidence interval, which is a measure of a plausibility or reliability of the respective assignment of an object class to an object.

Ein Signalabschnitt kann hierbei als Radarsignatur eines zugehörigen Objektes aufgefasst werden. Hierbei entspricht eine solche Radarsignatur dem zeitlichen Verlauf des von dem Objekt hervorgerufenen Radarechos des Radarimpulses. Alternativ kann die Radarsignatur aus dem Radarleistungsspektrum entnommen werden. Eine solche Radarsignatur setzt sich hierbei aus sämtlichen von dem Objekt an einzelnen Radarechozentren zurückgeworfenen Radarechos zusammen. Je nach Größe, Form, Oberflächenbeschaffenheit und/oder Oberflächenbeschaffenheit des Objektes ergeben sich hierdurch jeweils für verschiedene Objekte charakteristische Radarsignaturen. So unterscheiden sich beispielsweise die Radarsignaturen von Fußgängern deutlich von denen eines Kraftfahrzeugs oder eines Lastwagens. Diese Unterschiede werden mittels des Deep Neural Networks erkannt und zum Klassifizieren ausgewertet. A signal section can be understood here as a radar signature of an associated object. In this case, such a radar signature corresponds to the time profile of the radar echo of the radar pulse caused by the object. Alternatively, the radar signature can be taken from the radar power spectrum. Such a radar signature is composed here of all the radar echoes thrown back by the object at individual radar echo centers. Depending on the size, shape, surface texture and / or surface condition of the object, this results in characteristic radar signatures for different objects. For example, the radar signatures of pedestrians differ significantly from those of a motor vehicle or a lorry. These differences are recognized by the Deep Neural Network and evaluated for classification.

Das Klassenwahrscheinlichkeitsmaß gibt im einfachsten Fall an, mit welcher Wahrscheinlichkeit ein erfasstes Objekt zu einer bestimmten Objektklasse gehört. Da eine Zuordnung einer Objektklasse in der Regel nicht eindeutig sein wird, erhält man mittels des Verfahrens und der Vorrichtung zu einem erfassten Objekt eine Menge bestehend aus Objektklassen und jeweils zugehörigen Wahrscheinlichkeitswerten. So kann einem erfassten Objekt beispielsweise mit 90 % Wahrscheinlichkeit die Objektklasse „Kraftfahrzeug“ und mit jeweils 5 % Wahrscheinlichkeit die Objektklassen „Baum“ und „Lastwagen“ zugeordnet sein.In the simplest case, the class probability measure indicates with which probability a detected object belongs to a certain object class. Since an assignment of an object class will generally not be unambiguous, the method and the apparatus for a detected object will yield a set consisting of object classes and respective associated probability values. Thus, for example, the object class "motor vehicle" can be assigned to a detected object with 90% probability, and the object classes "tree" and "truck" can each be assigned with 5% probability.

Anders ausgedrückt liefert das Deep Neural Network in diesem Fall zu jedem Signalabschnitt die Wahrscheinlichkeiten pi, dass dieser Signalabschnitt von einer bestimmten Objektklasse i von Objekt verursacht wurde:

Objektklasse 1:
p1,
Objektklasse 2:
p2,
...
...
Objektklasse n
pn,
mit p 1 + p 2 + + p n = 1.
Figure DE102017207442A1_0001
In other words, in this case, the deep neural network provides to each signal portion the probabilities p i that this signal portion was caused by a particular object class i of object:
Object class 1:
p 1 ,
Object class 2:
p 2 ,
...
...
Object class n
p n,
With p 1 + p 2 + ... + p n = 1.
Figure DE102017207442A1_0001

Der Vorteil des Verfahrens und der Vorrichtung ist, dass mittels eines Radarsensors nicht nur Informationen über den Abstand, die Geschwindigkeit und/oder den Azimutwinkel eines Objektes im Umfeld des Kraftfahrzeugs gewonnen werden können, sondern auch Aussagen darüber getroffen werden, um was für ein Objekt (z. B. Fahrzeug, Radfahrer, Fußgänger, Baum, etc.) es sich handelt. Dies ermöglicht vielfältige Anwendungsmöglichkeiten, beispielsweise indem man sich diese Information zusätzlich in Fahrerassistenzsystemen zunutze macht. So kann ein Einparkassistent beispielsweise erkennen, ob es sich bei einem Objekt im Umfeld des Kraftfahrzeugs um ein anderes Kraftfahrzeug, einen Bordstein oder einen Poller handelt, und sich diese Information beim automatischen Einparken zunutze machen.The advantage of the method and the device is that not only information about the distance, the speed and / or the azimuth angle of an object in the environment of the motor vehicle can be obtained by means of a radar sensor, but also statements about what kind of object ( eg vehicle, cyclist, pedestrian, tree, etc.). This allows a variety of applications, for example, by making this information in addition in driver assistance systems advantage. For example, a parking assistant can detect whether an object in the vicinity of the motor vehicle is another motor vehicle, a curb or a bollard, and make use of this information during automatic parking.

Nach Durchführen des Verfahrens stellt die Ausgabeeinrichtung somit für jedes im Umfeld erfasste Objekt eine Zuordnung zu mindestens einer Objektklasse sowie ein Abstand, eine Geschwindigkeit und/oder eine Azimutwinkel bereit.After performing the method, the output device thus provides an assignment to at least one object class as well as a distance, a speed and / or an azimuth angle for each object detected in the surroundings.

In einer Ausführungsform ist vorgesehen, dass ein Objekt im Umfeld mehrmals erfasst, entsprechend ausgewertet und klassifiziert wird und Ergebnisse dieser Klassifizierungen auf Grundlage der zugehörigen Klassenwahrscheinlichkeitsmaße zusammengefasst werden. Dies ermöglicht das mehrmalige Erfassen eines Objektes, beispielsweise aus unterschiedlichen Abständen, Perspektiven und/oder Erfassungswinkeln. In jedem einzelnen erfassten Radarecho des Objektes wird dann der mit dem Objekt korrespondierende Signalabschnitt identifiziert und diesem vom Deep Neural Network mindestens eine Objektklasse zugeordnet. Die nach jedem einzelnen Erfassen jeweils bestimmten Klassenwahrscheinlichkeitsmaße für die verschiedenen Objektklassen werden anschließend zusammengefasst, das heißt beispielsweise aufsummiert und renormiert. Dies hat den Vorteil, dass Objekte mehrmals erfasst werden können und auf diese Weise ein genaueres Abbild des Umfelds bereitgestellt wird.In one embodiment, it is provided that an object is detected several times in the environment, evaluated and classified accordingly and results of these classifications are summarized on the basis of the associated class probability measures. This allows the multiple detection of an object, for example, from different distances, perspectives and / or detection angles. In each individual detected radar echo of the object, the signal section corresponding to the object is identified and assigned to it by the Deep Neural Network at least one object class. The class likelihood measures for the different object classes, which are determined after each individual acquisition, are then summarized, that is, for example, summed up and renormalized. This has the advantage that objects can be captured more than once and in this way a more accurate image of the environment is provided.

In der Vorrichtung ist entsprechend vorgesehen, dass der mindestens eine Radarsensor, die Radarauswertungseinrichtung und die Klassifizierungseinrichtung derart ausgebildet sind, ein Objekt im Umfeld mehrmals zu erfassen, auszuwerten und zu klassifizieren, und Ergebnisse dieser Klassifizierungen auf Grundlage der zugehörigen Klassenwahrscheinlichkeitsmaße zusammenzufassen.In the device, it is correspondingly provided that the at least one radar sensor, the radar evaluation device and the classification device are designed to detect, evaluate and classify an object in the environment several times, and to combine results of these classifications on the basis of the associated class probability measures.

Bei einigen Ausführungsformen ist ferner vorgesehen, dass nach dem Zusammenfassen der einzelnen Ergebnisse eine Entscheidung darüber getroffen wird, welche der Objektklassen aus dem zusammengefassten Ergebnis einem Objekt zugeordnet wird. Anders ausgedrückt wird nach dem Zusammenfassen der Ergebnisse beispielsweise durch eine Maximalwerterkennung innerhalb der verschiedenen Klassenwahrscheinlichkeitsmaße der Objektklassen entschieden, welche Objektklasse endgültig ausgewählt bzw. eindeutig einem Objekt zugeordnet wird. Ist das Klassenwahrscheinlichkeitsmaß beispielsweise eine einfache Wahrscheinlichkeit, mit der die einzelnen Objektklassen jeweils vorliegen, so kann diejenige Objektklasse mit der höchsten Wahrscheinlichkeit als einzige und endgültige Objektklasse, die diesem Objekt zugeordnet wird, ausgewählt werden.In some embodiments, it is further provided that, after summarizing the individual results, a decision is made as to which of the object classes from the combined result is assigned to an object. In other words, after summarizing the results, it is decided, for example by maximum value recognition within the various class probability measures of the object classes, which object class is finally selected or uniquely assigned to an object. For example, if the class probability measure is a simple probability with which the individual object classes are present, then that object class with the highest Probability as the only and final object class associated with that object.

In einer Weiterbildung ist ferner vorgesehen, dass das Klassenwahrscheinlichkeitsmaß ein Evidenzwert ist und das Zusammenfassen mittels des Dempster-Shafer-Verfahrens durchgeführt wird. Eine Evidenz ist ein zweidimensionales Wahrscheinlichkeitsmaß: Es setzt sich zusammen aus dem Grad des Dafürhaltens bzw. dem Grad des Vertrauens darin, dass die Aussage einer Quelle zutrifft (engl.: „degree of belief“), und der Plausibilität des Ereignisses bzw. aus einem Wahrscheinlichkeitsbereich mit einer unteren und oberen Grenze. In dieser Ausführungsform liefert das Deep Neural Network zu einem Signalabschnitt dann zu jeder der Objektklassen einen zugehörigen Evidenzwert. Mittels des Dempster-Shafer-Verfahrens lassen sich mehrmals erfasste Objekte sehr viel besser klassifizieren, indem die einzelnen Messungen zu einer Gesamtaussage zusammengefasst werden.In a further development, it is further provided that the class probability measure is an evidence value and the summarization is carried out by means of the Dempster-Shafer method. Evidence is a two-dimensional measure of probability: it is composed of the degree of belief or the degree of confidence in the fact that the statement of a source applies (English: "degree of belief"), and the plausibility of the event or from a Probability range with a lower and upper limit. In this embodiment, the deep neural network then provides an associated evidence value for a signal portion to each of the object classes. By means of the Dempster-Shafer method, it is possible to classify objects that have been detected several times much better by combining the individual measurements into one overall statement.

In einer weiteren Ausführungsform ist vorgesehen, dass das Deep Neural Network mittels Trainingsdaten eines kamerabasierten Referenzsystems trainiert wird. Hierzu werden von dem kamerabasierten Referenzsystem erfasste Abbildungen des Umfelds von dem Referenzsystem klassifiziert und die Objekten im Umfeld zugeordneten Objektklassen als Referenzklassen („ground truth“) angenommen. Diese Referenzklassen werden dann als Trainingsdaten beim Trainieren des Deep Neural Networks auf das Auswerten des vom Radarsensor bereitgestellten Radarsignals bzw. des Signalabschnitts verwendet. Es kann hierbei vorgesehen sein, dass Kameradaten vorher manuell ausgewertet werden, so dass die Referenzklassen manuell den entsprechenden Objekten zugeordnet werden.In a further embodiment, it is provided that the deep neural network is trained by means of training data of a camera-based reference system. For this purpose, images of the surroundings captured by the camera-based reference system are classified by the reference system, and the objects in the vicinity of associated object classes are assumed to be reference classes ("ground truth"). These reference classes are then used as training data in training the deep neural network to evaluate the radar signal provided by the radar sensor or the signal section. It may be provided here that camera data are previously evaluated manually, so that the reference classes are assigned manually to the corresponding objects.

Es kann hierbei vorgesehen sein, Kameradaten zu verwenden, die während einer Fahrt in einem unbekannten Umfeld erfasst wurden. Alternativ kann aber auch vorgesehen sein, dass Kameradaten verwendet werden, welche in einem Umfeld mit bekannten Objekten erfasst wurden.It may be provided here to use camera data captured during a journey in an unknown environment. Alternatively, however, it can also be provided that camera data is used which has been acquired in an environment with known objects.

Die entsprechende Ausführungsform der Vorrichtung sieht demgemäß ein kamerabasiertes Referenzsystem vor, wobei das Deep Neural Network derart ausgebildet ist, mittels vom kamerabasierten Referenzsystems bereitgestellten Trainingsdaten trainiert zu werden.The corresponding embodiment of the device accordingly provides a camera-based reference system, wherein the deep neural network is adapted to be trained by means of training data provided by the camera-based reference system.

In einer weiteren Ausführungsform ist vorgesehen, dass der mit dem Objekt korrespondierende Signalabschnitt mittels einer Schwellwerterkennung ermittelt wird. Hierzu ist vorgesehen, dass Signalanteile in dem Radarsignal, welche unterhalb eines bestimmten Schwellwertes liegen, nicht berücksichtigt werden. Auf diese Weise lassen sich Rauschanteile in dem Radarsignal vollständig unterdrücken oder zumindest deutlich vermindern. Die Folge ist, dass eine Erfolgsquote bei der Zuordnung einer Objektklasse zu einem Objekt mittels des Deep Neural Networks deutlich verbessert werden kann.In a further embodiment, it is provided that the signal section corresponding to the object is determined by means of a threshold value detection. For this purpose, it is provided that signal components in the radar signal which are below a certain threshold value are not taken into account. In this way, noise components in the radar signal can be completely suppressed or at least significantly reduced. The consequence is that a success rate in the assignment of an object class to an object can be significantly improved by means of the Deep Neural Network.

Die Vorrichtung sieht in dieser Ausführungsform entsprechend vor, dass die Radarauswertungseinrichtung derart ausgebildet ist, den mit dem Objekt korrespondierenden Signalabschnitt mittels einer Schwellwerterkennung zu ermitteln.In this embodiment, the device accordingly provides that the radar evaluation device is designed to determine the signal portion corresponding to the object by means of a threshold value detection.

In einer Weiterbildung ist ferner vorgesehen, dass die Schwellwerterkennung mittels des Ordered-Statistics Constant-False-Alarm-Rate-Verfahrens (OS-CFAR) durchgeführt wird.In a further development, it is further provided that the threshold value detection is carried out by means of the ordered-constant-false-alarm-rate method (OS-CFAR).

Die Klassifizierungseinrichtung und das Deep Neural Network können beispielsweise mittels einer Graphics Processing Unit (GPU bzw. GPGPU) umgesetzt werden.The classifier and the Deep Neural Network can be implemented, for example, by means of a Graphics Processing Unit (GPU or GPGPU).

Die Vorrichtung kann beispielsweise in einem Kraftfahrzeug ausgebildet sein. Auf diese Weise kann das Klassifizieren direkt in dem Kraftfahrzeug selber durchgeführt werden und steht während einer Fahrt durch ein Umfeld zur Verfügung.The device may be formed for example in a motor vehicle. In this way, the classification can be carried out directly in the motor vehicle itself and is available while driving through an environment.

Nachfolgend wird die Erfindung anhand bevorzugter Ausführungsbeispiele unter Bezugnahme auf die Figuren näher erläutert. Hierbei zeigen:

  • 1 eine schematische Darstellung einer Ausführungsform der Vorrichtung zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeugs;
  • 2 eine schematische Darstellung einer weiteren Ausführungsform der Vorrichtung zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeugs;
  • 3 eine schematische Darstellung von verschiedenen Radarechozentren an einem Heck eines Kraftfahrtzeugs zur Verdeutlichung der Entstehung eines Radarechos;
  • 4a eine schematische Radarsignatur eines Fußgängers;
  • 4b eine schematische Radarsignatur eines Kraftfahrzeugs;
  • 4c eine schematische Radarsignatur eines Lastkraftwagens;
  • 5 eine schematische Darstellung zur Erläuterung der Schwellwerterkennung.
The invention will be explained in more detail with reference to preferred embodiments with reference to the figures. Hereby show:
  • 1 a schematic representation of an embodiment of the device for classifying objects in the environment of a motor vehicle;
  • 2 a schematic representation of another embodiment of the device for classifying objects in the environment of a motor vehicle;
  • 3 a schematic representation of different radar echo centers at a rear of a motor vehicle to illustrate the formation of a radar echo;
  • 4a a schematic radar signature of a pedestrian;
  • 4b a schematic radar signature of a motor vehicle;
  • 4c a schematic radar signature of a truck;
  • 5 a schematic representation for explaining the threshold detection.

In 1 ist eine schematische Darstellung einer Ausführungsform der Vorrichtung 1 zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeugs gezeigt. Die Vorrichtung 1 umfasst einen Radarsensor 2, eine Radarauswertungseinrichtung 3, eine Klassifizierungseinrichtung 4 und eine Ausgabeeinrichtung 5. Der Radarsensor 2 erfasst das Umfeld des Kraftfahrzeugs, in dem dieser von Objekten in diesem Umfeld hervorgerufene Radarechos 6 eines Radarimpulses erfasst. Der Radarsensor 2 stellt auf Grundlage der erfassten Radarechos 6 ein Radarsignal 7 zur Verfügung und führt dieses der Radarauswertungseinrichtung 3 zu. Die Radarauswertungseinrichtung 3 ist derart ausgebildet, ein mit einem Objekt korrespondierenden Signalabschnitt 8 im Radarsignal 7 zu identifizieren und ein mit dem Objekt korrespondierenden Abstand 9, eine Geschwindigkeit 10 und/oder einen Azimutwinkel 11 zu bestimmen. Der von der Radarauswertungseinrichtung 3 in dem Radarsignal 7 identifizierte Signalabschnitt 8 wird der Klassifizierungseinrichtung 4 zugeführt. Die Klassifizierungseinrichtung 4 ist derart ausgebildet, den Signalabschnitt 8 mittels eines Deep Neural Networks 12 durch Zuordnen mindestens einer Objektklasse 13 zu dem Signalabschnitt 8 zu klassifizieren, und mittels des Deep Neural Networks 12 für jede dem Signalabschnitt 8 zugeordnete Objektklasse 13 ein Klassenwahrscheinlichkeitsmaß 14 zu ermitteln. Die Ausgabeeinrichtung 5 gibt die zugeordnete Objektklasse 13 bzw. die zugeordneten Objektklassen 13 und die zugehörigen Klassenwahrscheinlichkeitsmaße 14 aus. Ferner gibt die Ausgabeeinrichtung 5 auch den Abstand 9, die Geschwindigkeit 10 und/oder den Azimutwinkel 11 aus. Die Ausgabeeinrichtung 5 kann die vorgenannten Werte beispielsweise als Datentelegramm in digitaler Form oder als analoge Spannungswerte ausgeben.In 1 is a schematic representation of an embodiment of the device 1 for classifying objects in the environment of a motor vehicle. The device 1 includes a radar sensor 2 , a radar evaluation device 3 , a classification device 4 and a output device 5 , The radar sensor 2 captures the environment of the motor vehicle in which this radar echo caused by objects in this environment 6 a radar pulse detected. The radar sensor 2 based on the recorded radar echoes 6 a radar signal 7 available and leads this the Radarauswertungseinrichtung 3 to. The radar evaluation device 3 is formed such a signal portion corresponding to an object 8th in the radar signal 7 to identify and a distance corresponding to the object 9 , a speed 10 and / or an azimuth angle 11 to determine. The one of the radar evaluation device 3 in the radar signal 7 identified signal section 8th becomes the classifier 4 fed. The classifier 4 is formed, the signal portion 8th using a Deep Neural Network 12 by assigning at least one object class 13 to the signal section 8th to classify, and through the Deep Neural Network 12 for each the signal section 8th assigned object class 13 a class probability measure 14 to investigate. The output device 5 gives the associated object class 13 or the associated object classes 13 and the associated class likelihood measures 14 out. Furthermore, the output device gives 5 also the distance 9 , the speed 10 and / or the azimuth angle 11 out. The output device 5 can output the aforementioned values, for example, as a data telegram in digital form or as analog voltage values.

Es kann in einigen Ausführungsformen vorgesehen sein, dass ein Objekt im Umfeld mehrmals erfasst, entsprechend ausgewertet und klassifiziert wird und Ergebnisse dieser Klassifizierungen auf Grundlage der zugehörigen Klassenwahrscheinlichkeitsmaße 14 zusammengefasst werden. Hierzu weist die Vorrichtung 1 beispielsweise zusätzlich eine Mittelungseinrichtung auf (nicht gezeigt), welche das Zusammenfassen der einzelnen Ergebnisse durchführt. Ferner kann das Zusammenfassen auch mittels der Ausgabeeinrichtung 5 durchgeführt werden, welches hierzu beispielsweise ein entsprechend ausgebildetes Mittelungsmodul (nicht gezeigt) aufweist.It may be provided in some embodiments that an object in the environment is detected several times, evaluated and classified accordingly and results of these classifications based on the associated class probability measures 14 be summarized. For this purpose, the device 1 For example, in addition, an averaging device (not shown), which performs the summarizing of the individual results. Furthermore, the summarizing can also be done by means of the output device 5 be carried out, which has for this purpose, for example, a suitably trained averaging module (not shown).

Die Vorrichtung kann beispielsweise in einem Kraftfahrzeug ausgebildet sein. Auf diese Weise kann das Klassifizieren direkt in dem Kraftfahrzeug selber durchgeführt werden und steht während einer Fahrt durch ein Umfeld zur Verfügung.The device may be formed for example in a motor vehicle. In this way, the classification can be carried out directly in the motor vehicle itself and is available while driving through an environment.

In weiterbildenden Ausführungsformen kann ferner vorgesehen sein, dass das Klassenwahrscheinlichkeitsmaß ein Evidenzwert ist und das Zusammenfassen mittels des Dempster-Shafer-Verfahrens durchgeführt wird.In further embodiments, it may further be provided that the class probability measure is an evidence value and the summarization is carried out by means of the Dempster-Shafer method.

In 2 ist eine schematische Darstellung einer weiteren Ausführungsform der Vorrichtung 1 zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeugs gezeigt. Die Vorrichtung 1 entspricht im Wesentlichen der Ausführungsform, welche in 1 gezeigt ist. Gleiche Bezugszeichen bezeichnen hierbei gleiche Merkmale. Zusätzlich weist die in 2 gezeigte Ausführungsform ein kamerabasiertes Referenzsystem 15 auf, wobei das kamerabasierte Referenzsystem 15 eine Kamera 16 und eine Referenzklassifizierungseinrichtung 17 aufweist. Die Kamera 16 erfasst des Umfeldes des Kraftfahrzeugs und führt die erfassten der Referenzklassifizierungseinrichtung 17 zu. Die Referenzklassifizierungseinrichtung 17 erkennt in diesen Objekte und ordnet diesen Objekten Referenzklassen 19 zu. Diese Referenzklassen 19 bilden anschließend Trainingsdaten 20, um das Deep Neural Network 12 der Klassifizierungseinrichtung 4 zu trainieren. Die von dem Referenzsystem 15 klassifizierten und den Objekten im Umfeld zugeordneten Referenzklassen 19 werden hierbei als Referenz („ground truth“) angenommen. Es kann hierbei vorgesehen sein, dass die vorher manuell ausgewertet werden, sodass eine Zuordnung der Referenzklassen 19 zu den entsprechenden Objekten in den manuell erfolgt ist.In 2 is a schematic representation of another embodiment of the device 1 for classifying objects in the environment of a motor vehicle. The device 1 corresponds substantially to the embodiment which in 1 is shown. The same reference numerals denote the same features. In addition, the in 2 embodiment shown a camera-based reference system 15 on, using the camera-based reference system 15 a camera 16 and a reference classifier 17 having. The camera 16 detected the environment of the motor vehicle and leads the recorded the reference classifier 17 to. The reference classifier 17 recognize in these Objects and assigns reference objects to these objects 19 to. These reference classes 19 then form training data 20 to the Deep Neural Network 12 the classifier 4 to train. The of the reference system 15 classified and assigned to the objects in the environment reference classes 19 are hereby accepted as a reference ("ground truth"). It can be provided here that the previously evaluated manually, so that an assignment of the reference classes 19 to the corresponding objects in the done manually.

In 3 ist eine schematische Darstellung der hervorgerufenen Signalstärke von verschiedenen Radarechozentren 31 an einem Heck 30 eines Kraftfahrzeugs zur Verdeutlichung der Entstehung eines Radarechos gezeigt. Das von dem Heck 30 zurückgeworfene Radarecho eines an dem Heck 30 reflektierten Radarimpulses setzt sich dann zusammen aus einer Überlagerung der einzelnen Radarechozentren 31. Aus dem von einem Radarsensor erfassten überlagerten Radarecho wird anschließend das Radarsignal gebildet.In 3 is a schematic representation of the evoked signal strength of different radar echo centers 31 at a stern 30 of a motor vehicle to illustrate the emergence of a radar echo shown. That from the stern 30 thrown back radar echo one at the stern 30 reflected radar pulse is then composed of a superposition of the individual radar echo centers 31 , From the superimposed radar echo detected by a radar sensor, the radar signal is subsequently formed.

Je nach Größe, Form, Oberflächenbeschaffenheit und/oder Material eines Objektes, an dem ein Radarecho entsteht, unterscheidet sich eine Radarsignatur des entsprechenden Objektes. In den 4a bis 4c sind drei verschiedene Radarsignaturen 32 von unterschiedlichen Objekten gezeigt, wobei jeweils der Signalverlauf des von einem Radarsensor erfassten Radarechos dieser Objekte über der Zeitachse dargestellt ist. In der 4a ist die Radarsignatur 32 eines Fußgängers gezeigt. In der 4b ist die Radarsignatur 32 eines Kraftfahrzeugs zu sehen und in der 4c ist die Radarsignatur 32 eines Lastkraftwagens abgebildet. Man erkennt, dass sich die verschiedenen Radartsignaturen 32 deutlich voneinander unterscheiden. Diesen Unterschied macht man sich im beschriebenen Verfahren und in der beschriebenen Vorrichtung beim Zuordnen von Objektklassen zu den Objekten mittels des Deep Neural Networks zunutze.Depending on the size, shape, surface texture and / or material of an object on which a radar echo is generated, a radar signature of the corresponding object differs. In the 4a to 4c are three different radar signatures 32 shown by different objects, in each case the waveform of the detected by a radar sensor Radar echo of these objects is shown over the time axis. In the 4a is the radar signature 32 a pedestrian shown. In the 4b is the radar signature 32 to see a motor vehicle and in the 4c is the radar signature 32 of a truck. It can be seen that the different radar signatures 32 clearly different from each other. This difference is made use of in the described method and in the device described when assigning object classes to the objects by means of the deep neural network.

In 5 ist eine schematische Darstellung zur Erläuterung der in einigen Ausführungsformen verwendeten Schwellwerterkennung gezeigt. Hierbei wird ein Radarsignal 7 über eine Schwellwerterkennung ausgewertet, wobei ein bestimmter Schwellwert 33 vorgegeben ist. Signalanteile, welche unterhalb des Schwellwertes 33 liegen, werden vernachlässigt. Signalanteile oberhalb des Schwellwertes 33 werden ausgeschnitten und der ausgeschnittene Zeitabschnitt wird als Signalabschnitt 8 dem Deep Neural Network als Eingangsvektor zugeführt. Auf diese Weise kann ein Rauschanteil in dem Radarsignal 7 vor dem Klassifizieren unterdrückt oder zumindest minimiert werden.In 5 FIG. 4 is a schematic diagram for explaining, in some embodiments. FIG used threshold detection. This is a radar signal 7 evaluated via a threshold detection, with a certain threshold 33 is predetermined. Signal components which are below the threshold value 33 are neglected. Signal components above the threshold value 33 are cut out and the cut-out period becomes a signal section 8th supplied to the Deep Neural Network as an input vector. In this way, a noise component in the radar signal 7 be suppressed or at least minimized prior to classifying.

In einer Ausführungsform wird die Schwellwerterkennung mittels des Ordered-Statistics Constant-False-Alarm-Rate-(OS-CFAR)-Verfahrens durchgeführt.In one embodiment, threshold detection is performed using the Ordered-Statistics Constant-False-Alarm-Rate (OS-CFAR) method.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
Vorrichtungcontraption
22
Radarsensorradar sensor
33
RadarauswertungseinrichtungRadar evaluation device
44
Klassifizierungseinrichtungclassifier
55
Ausgabeeinrichtungoutput device
66
Radarechoradar echo
77
Radarsignalradar signal
88th
Signalabschnittsignal section
99
Abstanddistance
1010
Geschwindigkeitspeed
1111
Azimutwinkelazimuth angle
1212
Deep Neural NetworkDeep Neural Network
1313
Objektklasseobject class
1414
KlassenwahrscheinlichkeitsmaßKlassenwahrscheinlichkeitsmaß
1515
kamerabasiertes ReferenzsystemCamera-based reference system
1616
Kameracamera
1717
ReferenzklassifizierungseinrichtungReference classifier
1818
AbbildungIllustration
1919
Referenzklassereference class
2020
Trainingsdatentraining data
3030
HeckRear
3131
RadarechozentrumRadar echo center
3232
Radarsignaturradar signature
3333
Schwellwertthreshold

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • EP 1674883 A2 [0003]EP 1674883 A2 [0003]

Claims (10)

Verfahren zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeuges, umfassend die folgenden Verfahrensschritte: Erfassen eines Umfeldes des Kraftfahrzeuges mittels mindestens eines Radarsensors (2), wobei von Objekten in dem Umfeld hervorgerufene Radarechos (6) eines Radarimpulses erfasst werden; Auswerten eines von dem Radarsensor (2) auf Grundlage der erfassten Radarechos (6) bereitgestellten Radarsignals (7) mittels einer Radarauswertungseinrichtung (3), wobei ein mit einem Objekt korrespondierender Signalabschnitt (8) im Radarsignal (7) identifiziert wird, und wobei ein mit dem Objekt korrespondierender Abstand (9), eine Geschwindigkeit (10) und/oder ein Azimutwinkel (11) bestimmt werden; Klassifizieren des Signalabschnitts (8) mittels einer Klassifizierungseinrichtung (4), wobei der Signalabschnitt (8) mittels eines Deep Neural Networks (12) durch Zuordnen mindestens einer Objektklasse (13) zu dem Signalabschnitt (8) klassifiziert wird, und wobei mittels des Deep Neural Networks (12) für jede dem Signalabschnitt (8) zugeordnete Objektklasse (13) ein Klassenwahrscheinlichkeitsmaß (14) ermittelt wird; Ausgeben der mindestens einen zugeordneten Objektklasse (13) und der jeweils zugehörigen Klassenwahrscheinlichkeitsmaße (14) mittels einer Ausgabeeinrichtung (5).Method for classifying objects in the environment of a motor vehicle, comprising the following method steps: Detecting an environment of the motor vehicle by means of at least one radar sensor (2), wherein radar returns (6) of a radar pulse caused by objects in the environment are detected; Evaluating a radar signal (7) provided by the radar sensor (2) on the basis of the detected radar echoes (6) by means of a radar evaluation device (3), wherein a signal section (8) corresponding to an object is identified in the radar signal (7), and wherein a the distance (9) corresponding to the object, a speed (10) and / or an azimuth angle (11) are determined; Classifying the signal section (8) by means of a classification device (4), the signal section (8) being classified by means of a deep neural network (12) by assigning at least one object class (13) to the signal section (8), and by means of the deep neural Networks (12) for each of the signal section (8) associated with the object class (13) a class probability measure (14) is determined; Outputting the at least one associated object class (13) and the respectively associated class probability measures (14) by means of an output device (5). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass ein Objekt im Umfeld mehrmals erfasst, ausgewertet und klassifiziert wird und Ergebnisse dieser Klassifizierungen auf Grundlage der zugehörigen Klassenwahrscheinlichkeitsmaße (14) zusammengefasst werden.Method according to Claim 1 , characterized in that an object is detected, evaluated and classified several times in the environment and results of these classifications are summarized on the basis of the associated class probability measures (14). Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass das Klassenwahrscheinlichkeitsmaß (14) ein Evidenzwert ist und das Zusammenfassen mittels des Dempster-Shafer-Verfahrens durchgeführt wird.Method according to Claim 2 , characterized in that the class probability measure (14) is an evidence value and the summarization is performed by means of the Dempster-Shafer method. Verfahren nach einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass das Deep Neural Network (12) mittels Trainingsdaten (20) eines kamerabasierten Referenzsystems (15) trainiert wird.Method according to one of the preceding claims, characterized in that the deep neural network (12) is trained by means of training data (20) of a camera-based reference system (15). Verfahren nach einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass der mit dem Objekt korrespondierende Signalabschnitt (8) mittels einer Schwellwerterkennung ermittelt wird.Method according to one of the preceding claims, characterized in that the signal section (8) corresponding to the object is determined by means of a threshold value detection. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Schwellwerterkennung mittels des Ordered-Statistics Constant-False-Alarm-Rate-Verfahrens durchgeführt wird.Method according to Claim 5 , characterized in that the threshold detection is performed by means of the Ordered-Statistics Constant-False-Alarm-Rate-method. Vorrichtung (1) zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeugs, umfassend: mindestens einen Radarsensor (2) zum Erfassen eines Umfeldes des Kraftfahrzeugs, wobei der Radarsensor (2) von Objekten in dem Umfeld hervorgerufene Radarechos (6) eines Radarimpulses erfasst, eine Radarauswertungseinrichtung (3) zum Auswerten eines von dem Radarsensor (2) auf Grundlage der erfassten Radarechos (6) bereitgestellten Radarsignals (7), wobei die Radarauswertungseinrichtung (3) derart ausgebildet ist, einen mit einem Objekt korrespondierenden Signalabschnitt (8) im Radarsignal (7) zu identifizieren, und ein mit dem Objekt korrespondierenden Abstand (9), eine Geschwindigkeit (10) und/oder einen Azimutwinkel (11) zu bestimmen; eine Klassifizierungseinrichtung (4), wobei die Klassifizierungseinrichtung (4) derart ausgebildet ist, den Signalabschnitt (8) mittels eines Deep Neural Networks (12) durch Zuordnen mindestens einer Objektklasse (13) zu dem Signalabschnitt (8) zu klassifizieren, und mittels des Deep Neural Networks (12) für jede dem Signalabschnitt (8) zugeordnete Objektklasse (13) einen Klassenwahrscheinlichkeitsmaß (14) zu ermitteln; eine Ausgabeeinrichtung (5), welche derart ausgebildet ist, die mindestens eine zugeordnete Objektklasse (13) und die jeweils zugehörigen Klassenwahrscheinlichkeitsmaße (14) auszugeben.Device (1) for classifying objects in the environment of a motor vehicle, comprising: at least one radar sensor (2) for detecting an environment of the motor vehicle, wherein the radar sensor (2) detects radar returns (6) of a radar pulse caused by objects in the surroundings, a radar evaluation device (3) for evaluating a radar signal (7) provided by the radar sensor (2) on the basis of the detected radar returns (6), wherein the radar evaluation device (3) is designed such that it has a signal section (8) in the radar signal corresponding to an object ( 7), and to determine a distance (9) corresponding to the object, a speed (10) and / or an azimuth angle (11); a classification device (4), wherein the classification device (4) is designed to classify the signal section (8) by means of a deep neural network (12) by assigning at least one object class (13) to the signal section (8), and by means of the deep Neural networks (12) for each object class (13) associated with the signal section (8) to determine a class probability measure (14); an output device (5) which is designed to output the at least one associated object class (13) and the respectively associated class probability measures (14). Vorrichtung (1) nach Anspruch 7, dadurch gekennzeichnet, dass der mindestens eine Radarsensor (2), die Radarauswertungseinrichtung (3) und die Klassifizierungseinrichtung (4) derart ausgebildet sind, ein Objekt im Umfeld mehrmals zu erfassen, auszuwerten und zu klassifizieren, und Ergebnisse dieser Klassifizierungen auf Grundlage der zugehörigen Klassenwahrscheinlichkeitsmaße (14) zusammenzufassen.Device (1) according to Claim 7 , characterized in that the at least one radar sensor (2), the radar evaluation device (3) and the classification device (4) are designed to detect, evaluate and classify an object in the environment several times, and results of these classifications on the basis of the associated class probability measures (14) to summarize. Vorrichtung (1) nach einem der Ansprüche 7 bis 8, gekennzeichnet durch ein kamerabasiertes Referenzsystem (15), wobei das Deep Neural Network (12) derart ausgebildet ist, mittels vom kamerabasierten Referenzsystems (15) bereitgestellten Trainingsdaten (20) trainiert zu werden.Device (1) according to one of Claims 7 to 8th characterized by a camera-based reference system (15), wherein the deep neural network (12) is adapted to be trained by means of training data (20) provided by the camera-based reference system (15). Vorrichtung (1) nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, dass die Radarauswertungseinrichtung (3) derart ausgebildet ist, den mit dem Objekt korrespondierenden Signalabschnitt (8) mittels einer Schwellwerterkennung zu ermitteln.Device (1) according to one of Claims 7 to 9 , characterized in that the radar evaluation device (3) is designed in such a way to determine the signal section (8) corresponding to the object by means of a threshold value recognition.
DE102017207442.6A 2017-05-03 2017-05-03 Method and device for classifying objects in the environment of a motor vehicle Pending DE102017207442A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102017207442.6A DE102017207442A1 (en) 2017-05-03 2017-05-03 Method and device for classifying objects in the environment of a motor vehicle
PCT/EP2018/060788 WO2018202552A1 (en) 2017-05-03 2018-04-26 Method and device for classifying objects in the environment of a motor vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017207442.6A DE102017207442A1 (en) 2017-05-03 2017-05-03 Method and device for classifying objects in the environment of a motor vehicle

Publications (1)

Publication Number Publication Date
DE102017207442A1 true DE102017207442A1 (en) 2018-11-08

Family

ID=62091875

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017207442.6A Pending DE102017207442A1 (en) 2017-05-03 2017-05-03 Method and device for classifying objects in the environment of a motor vehicle

Country Status (2)

Country Link
DE (1) DE102017207442A1 (en)
WO (1) WO2018202552A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020113160A3 (en) * 2018-11-30 2020-07-30 Qualcomm Incorporated Radar deep learning
DE102019213803A1 (en) * 2019-09-11 2021-03-11 Zf Friedrichshafen Ag Adjusting a classification of objects
CN113227832A (en) * 2018-12-20 2021-08-06 罗伯特·博世有限公司 Determining the orientation of an object by means of radar or by using electromagnetic interrogation radiation

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3800581A1 (en) 2019-10-03 2021-04-07 Axis AB A method and apparatus for generating an object classification for an object
CN112288897B (en) * 2020-09-30 2022-08-30 深圳市金溢科技股份有限公司 Vehicle-mounted unit positioning method based on deep learning and road side unit
US20220308200A1 (en) * 2021-03-24 2022-09-29 Sony Group Corporation Radar data determination circuitry and radar data determination method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19518993A1 (en) * 1995-05-29 1996-12-05 Sel Alcatel Ag Device and method for automatic detection or classification of objects
DE19649618A1 (en) * 1996-11-29 1998-06-04 Alsthom Cge Alcatel Method and device for automatic classification of objects
EP1674883A2 (en) * 2004-12-27 2006-06-28 Hitachi, Ltd. Apparatus and method for detecting vehicle
US20160140438A1 (en) * 2014-11-13 2016-05-19 Nec Laboratories America, Inc. Hyper-class Augmented and Regularized Deep Learning for Fine-grained Image Classification

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5499030A (en) * 1994-03-18 1996-03-12 The United States Of America As Represented By The Secretary Of The Air Force Expert system constant false alarm rate (CFAR) processor
US5963653A (en) * 1997-06-19 1999-10-05 Raytheon Company Hierarchical information fusion object recognition system and method
US9594159B2 (en) * 2013-07-15 2017-03-14 Texas Instruments Incorporated 2-D object detection in radar applications
JP6548376B2 (en) * 2014-10-06 2019-07-24 日本電産株式会社 Radar system, radar signal processing device, vehicle travel control device and method, and computer program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19518993A1 (en) * 1995-05-29 1996-12-05 Sel Alcatel Ag Device and method for automatic detection or classification of objects
DE19649618A1 (en) * 1996-11-29 1998-06-04 Alsthom Cge Alcatel Method and device for automatic classification of objects
EP1674883A2 (en) * 2004-12-27 2006-06-28 Hitachi, Ltd. Apparatus and method for detecting vehicle
US20160140438A1 (en) * 2014-11-13 2016-05-19 Nec Laboratories America, Inc. Hyper-class Augmented and Regularized Deep Learning for Fine-grained Image Classification

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020113160A3 (en) * 2018-11-30 2020-07-30 Qualcomm Incorporated Radar deep learning
CN113167860A (en) * 2018-11-30 2021-07-23 高通股份有限公司 Radar deep learning
US11927668B2 (en) 2018-11-30 2024-03-12 Qualcomm Incorporated Radar deep learning
CN113227832A (en) * 2018-12-20 2021-08-06 罗伯特·博世有限公司 Determining the orientation of an object by means of radar or by using electromagnetic interrogation radiation
DE102019213803A1 (en) * 2019-09-11 2021-03-11 Zf Friedrichshafen Ag Adjusting a classification of objects

Also Published As

Publication number Publication date
WO2018202552A1 (en) 2018-11-08

Similar Documents

Publication Publication Date Title
DE102017207442A1 (en) Method and device for classifying objects in the environment of a motor vehicle
DE102017203838A1 (en) Method and system for environment detection
DE102015109832A1 (en) Object classification for vehicle radar systems
DE102013200409A1 (en) A method and apparatus for monitoring an environment of a vehicle and method for performing emergency braking
DE102013201545A1 (en) Create an environment model for a vehicle
DE102014106506A1 (en) Method for carrying out a diagnosis of a camera system of a motor vehicle, camera system and motor vehicle
DE102016205433A1 (en) Method, device, card management device and system for pinpoint localization of a motor vehicle in an environment
DE102014201158A1 (en) Method and device for checking a relevant object detected by an object recognition
DE102019200141A1 (en) Method for capturing partial areas of an object
DE102016220479A1 (en) Method and device for generating an emergency call for a vehicle
WO2018095491A1 (en) Device and method for checking a functionality of a sensor
DE102019218069A1 (en) Device and method for recognizing and classifying an opponent in an accident
DE102018222800A1 (en) Locating and / or classifying objects from radar data with improved reliability at different distances
DE102018005969A1 (en) Method for operating a driver assistance system with two detection devices
DE102015223412A1 (en) A method for providing an accident record, method for detecting a traffic accident in the environment of a vehicle and method for responding to a traffic accident in the environment of a vehicle
DE102019218349A1 (en) Method for classifying at least one ultrasonic echo from echo signals
DE102019001041A1 (en) Method and device for recognizing at least one manipulated traffic sign with a laser scanner
DE102019201892A1 (en) Method for detecting movement of an object
DE102022117277A1 (en) METHOD FOR TRAINING A NEURONAL NETWORK
DE102014224792A1 (en) A method of detecting vehicle damage and a related device
DE102018202903A1 (en) Method for evaluating measurement data of a radar measurement system using a neural network
DE102016119592A1 (en) Method for detecting objects in an environmental region of a motor vehicle taking into account sensor data in the infrared wavelength range, object recognition device, driver assistance system and motor vehicle
DE102020206237A1 (en) Procedure for assisting a driver in an overtaking maneuver, as well as vehicle
DE102020001309A1 (en) Method for operating an electronic computing device for a motor vehicle, as well as an electronic computing device
DE102019218127A1 (en) Method and device for the optimal provision of AI systems

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01S0013880000

Ipc: G01S0007410000

R163 Identified publications notified
R081 Change of applicant/patentee

Owner name: VOLKSWAGEN AKTIENGESELLSCHAFT, DE

Free format text: FORMER OWNERS: SCANIA CV AB, SOEDERTAELJE, SE; VOLKSWAGEN AG, 38440 WOLFSBURG, DE

R082 Change of representative

Representative=s name: PATENTANWAELTE BRESSEL UND PARTNER MBB, DE

R082 Change of representative
R012 Request for examination validly filed