WO2018202552A1 - Method and device for classifying objects in the environment of a motor vehicle - Google Patents

Method and device for classifying objects in the environment of a motor vehicle Download PDF

Info

Publication number
WO2018202552A1
WO2018202552A1 PCT/EP2018/060788 EP2018060788W WO2018202552A1 WO 2018202552 A1 WO2018202552 A1 WO 2018202552A1 EP 2018060788 W EP2018060788 W EP 2018060788W WO 2018202552 A1 WO2018202552 A1 WO 2018202552A1
Authority
WO
WIPO (PCT)
Prior art keywords
radar
signal
class
environment
motor vehicle
Prior art date
Application number
PCT/EP2018/060788
Other languages
German (de)
French (fr)
Inventor
Marc-Michael Meinecke
Michael Heuer
Mikael Johansson
Volker Schomerus
Tom NYSTRÖM
Original Assignee
Volkswagen Ag
Scania Cv Ab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen Ag, Scania Cv Ab filed Critical Volkswagen Ag
Publication of WO2018202552A1 publication Critical patent/WO2018202552A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/28Details of pulse systems
    • G01S7/285Receivers
    • G01S7/292Extracting wanted echo-signals
    • G01S7/2923Extracting wanted echo-signals based on data belonging to a number of consecutive radar periods
    • G01S7/2927Extracting wanted echo-signals based on data belonging to a number of consecutive radar periods by deriving and controlling a threshold value
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4021Means for monitoring or calibrating of parts of a radar system of receivers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • G01S7/412Identification of targets based on measurements of radar reflectivity based on a comparison between measured values and known or stored values
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar

Definitions

  • the invention relates to a method and a device for classifying objects in the environment of a motor vehicle.
  • Modern motor vehicles are equipped with a variety of sensor systems for environment detection.
  • radar sensors are capable of determining a distance, a speed and an azimuth angle of objects in the surroundings of the motor vehicle.
  • Such radar sensors already form the basis for diverse
  • Driver assistance systems can also be used in combination with other sensors.
  • the invention has for its object to provide a method and an apparatus for
  • Motor vehicle provided, comprising the following method steps: detecting an environment of the motor vehicle by means of at least one radar sensor, being detected by objects in the environment caused radar echoes of a radar pulse; Evaluating one of the radar sensor based on the detected radar returns
  • radar signal by means of a radar evaluation device, one with a Object corresponding signal portion is identified in the radar signal, and wherein a distance corresponding to the object, a speed and / or an azimuth angle are determined;
  • Classifying the signal section by means of a classification device, wherein the signal section is classified by means of a deep neural network by assigning at least one object class to the signal section, and by means of the deep neural network for each of the signal section associated object class
  • Class probability measure is determined; Outputting the at least one associated object class and the respectively associated class probability measures by means of an output device.
  • an apparatus for classifying objects in the vicinity of a motor vehicle comprising at least one radar sensor for detecting an environment of the motor vehicle, wherein the radar sensor caused by objects in the environment
  • Radar echoes detected radar pulse a radar evaluation device for evaluating a provided by the radar sensor based on the detected radar echoes
  • the radar evaluation means is adapted to identify a signal portion corresponding to an object in the radar signal, and to determine a distance corresponding to the object, a speed and / or an azimuth angle; a classifier, wherein the classifier is adapted to classify the signal portion by means of a deep neural network by assigning at least one class of objects to the signal portion, and by means of the deep neural network for each class of the object associated with the signal portion
  • To determine class likelihood measure and an output device configured to output the at least one associated object class and the respective associated class probability measures.
  • the basic idea of the invention is objects in the environment of a motor vehicle by means of a
  • a radar evaluation device determines from the radar signal a distance, a speed and / or a distance corresponding to the object
  • the radar evaluation device identifies a signal section corresponding to the object in the radar signal. This signal section is fed to a classification device which, by means of a deep neural network, classifies according to various
  • the Deep Neural Network also provides a signal section to each or the corresponding object associated object class
  • An object is thus assigned at least one object class with an associated class probability measure.
  • the class probability measure here forms a confidence value or a
  • Confidence interval which is a measure of a plausibility or a reliability of the respective assignment of an object class to an object.
  • a signal section can be understood here as a radar signature of an associated object.
  • a radar signature corresponds to the time profile of the radar echo of the radar pulse caused by the object.
  • the radar signature can be taken from the radar power spectrum.
  • Such a radar signature consists of all of the object reflected by individual radar echo centers
  • the surface finish of the object thus results in radar signatures characteristic of different objects. For example, the differences between
  • Radar signatures of pedestrians clearly from those of a motor vehicle or a
  • the class probability measure indicates with which probability a detected object belongs to a certain object class. Since an assignment of an object class will generally not be unambiguous, the method and the apparatus for a detected object will yield a set consisting of object classes and respective associated probability values. For example, with 90% probability, a detected object can have the object class "motor vehicle" and with 5% each
  • the Deep Neural Network provides for each signal portion the probabilities p ,, that this signal portion was caused by a particular object class i of object:
  • the advantage of the method and the device is that by means of a radar sensor not only information about the distance, the speed and / or the azimuth angle of a
  • Object in the environment of the motor vehicle can be obtained, but also statements are made about what an object (eg, vehicle, cyclist, pedestrian, tree, etc.) is concerned. This allows a variety of applications, for example, by making this information in addition in driver assistance systems advantage.
  • a parking assistant can detect whether an object in the vicinity of the motor vehicle is another motor vehicle, a curb or a bollard, and make use of this information during automatic parking.
  • the output device After performing the method, the output device thus provides an assignment to at least one object class as well as a distance, a speed and / or an azimuth angle for each object detected in the surroundings.
  • an object is detected several times in the environment, evaluated and classified accordingly and results of these classifications are summarized on the basis of the associated class probability measures.
  • This allows the multiple detection of an object, for example, from different distances, perspectives and / or detection angles.
  • the signal section corresponding to the object is identified and assigned to it by the Deep Neural Network at least one object class.
  • the class likelihood measures for the different object classes, which are determined after each individual acquisition, are then summarized, that is, for example, summed up and renormalized. This has the advantage that objects can be captured more than once and in this way a more accurate image of the environment is provided.
  • the at least one radar sensor, the radar evaluation device and the classification device are designed to detect, evaluate and classify an object in the environment several times, and to combine results of these classifications on the basis of the associated class probability measures.
  • a decision is made as to which of the object classes from the combined result is assigned to an object.
  • it is decided, for example by maximum value recognition within the various class probability measures of the object classes, which object class is finally selected or uniquely assigned to an object. For example, if the class probability measure is a simple probability with which the individual object classes are present, the object class with the highest probability can be selected as the only and final object class that is assigned to this object.
  • the class probability measure is an evidence value and the summarization by means of the Dempster-Shafer method
  • Evidence is a two-dimensional measure of probability: It is composed of the degree of belief or the degree of trust that the statement of a source applies (English: "degree of belief"), and the plausibility of the event or from a
  • the Deep Neural Network provides an associated Evidence value to a signal portion then to each of the object classes
  • the deep neural network is trained by means of training data of a camera-based reference system. For this purpose, images of the surroundings captured by the camera-based reference system are classified by the reference system and the objects assigned to surrounding objects are assumed to be reference classes ("ground truth") . These reference classes are then used as training data when training the deep neural network to evaluate the radar sensor provided It may be provided here that camera data are previously evaluated manually, so that the reference classes are assigned manually to the corresponding objects.
  • camera data captured during a journey in an unknown environment.
  • camera data is used which has been acquired in an environment with known objects.
  • the corresponding embodiment of the device accordingly provides a camera-based reference system, wherein the deep neural network is adapted to be trained by means of training data provided by the camera-based reference system.
  • the signal section corresponding to the object is determined by means of a threshold value detection.
  • a threshold value detection it is provided that signal components in the radar signal which are below a certain threshold value are not taken into account. In this way, noise components in the radar signal can be completely suppressed or at least significantly reduced. The consequence is that one
  • Success rate in assigning an object class to an object can be significantly improved by means of the Deep Neural Network.
  • Radar evaluation device is designed such that to determine the signal portion corresponding to the object by means of a threshold value detection.
  • the threshold value detection is carried out by means of the ordered-constant-false-alarm-rate method (OS-CFAR).
  • the classifier and the Deep Neural Network can be implemented, for example, by means of a Graphics Processing Unit (GPU or GPGPU).
  • GPU Graphics Processing Unit
  • the device may be formed for example in a motor vehicle.
  • the classification can be carried out directly in the motor vehicle itself and is available while driving through an environment.
  • Fig. 1 is a schematic representation of an embodiment of the device for
  • Fig. 2 is a schematic representation of another embodiment of the device for
  • FIG. 3 is a schematic representation of various radar echo centers at a rear of a motor vehicle to illustrate the formation of a radar echo;
  • 4a shows a schematic radar signature of a pedestrian
  • 4b shows a schematic radar signature of a motor vehicle
  • 4c shows a schematic radar signature of a truck
  • Fig. 5 is a schematic representation for explaining the threshold detection.
  • FIG. 1 shows a schematic illustration of an embodiment of the device 1 for classifying objects in the environment of a motor vehicle.
  • the device 1 comprises a radar sensor 2, a radar evaluation device 3, a classification device 4 and an output device 5.
  • the radar sensor 2 detects the surroundings of the motor vehicle in which this radar echo 6 of a radar pulse caused by objects in this environment detects.
  • the radar sensor 2 provides a radar signal 7 on the basis of the detected radar echoes 6 and supplies this to the radar evaluation device 3.
  • the radar sensor 2 provides a radar signal 7 on the basis of the detected radar echoes 6 and supplies this to the radar evaluation device 3.
  • Radar evaluation device 3 is designed such, one with an object
  • the signal section 8 identified by the radar evaluation device 3 in the radar signal 7 is fed to the classifier 4.
  • Classifier 4 is designed to classify the signal section 8 by means of a deep neural network 12 by assigning at least one object class 13 to the signal section 8, and to determine a class probability measure 14 by means of the deep neural network 12 for each object class 13 assigned to the signal section 8.
  • Output device 5 gives the associated object class 13 or the associated
  • the output device 5 also outputs the distance 9, the speed 10 and / or the
  • the output device 5 can output the abovementioned values, for example, as a data telegram in digital form or as analog voltage values.
  • an object in the environment is detected several times, evaluated and classified accordingly and results of this
  • Classifications based on the associated class likelihood measures 14 be summarized.
  • the device for example, in addition to an averaging device (not shown), which summarize the individual
  • Output device 5 are performed, which for this purpose, for example, a suitably trained averaging module (not shown).
  • the device may be formed for example in a motor vehicle.
  • the classification can be carried out directly in the motor vehicle itself and is available while driving through an environment.
  • Class Probability measure is an Evidence value and the summarization is performed by means of the Dempster-Shafer method.
  • FIG. 2 shows a schematic representation of a further embodiment of the device 1 for classifying objects in the environment of a motor vehicle.
  • the device 1 substantially corresponds to the embodiment shown in FIG. Same
  • FIG. 2 comprises a camera-based reference system 15, wherein the camera-based reference system 15 comprises a camera 16 and a reference classifier 17.
  • the camera 16 captures images 18 of the surroundings of the motor vehicle and supplies the acquired images 18 to the reference classification device 17.
  • Reference classification device 17 recognizes 18 objects in these figures and assigns reference objects 19 to these objects. These reference classes 19 then form training data 20 to train the deep neural network 12 of the classifier 4.
  • the reference classes 19 classified by the reference system 15 and assigned to the objects in the environment are hereby assumed to be "ground truth.” It can be provided here that the images 18 are previously evaluated manually, so that an assignment of the reference classes 19 to the corresponding Objects in Figures 18 is done manually.
  • Fig. 3 is a schematic representation of the evoked signal strength of
  • FIGS. 4 a to 4 c show three different radar signatures 32 of different objects, wherein in each case the signal profile of the radar echo of these objects detected by a radar sensor is shown over the time axis.
  • Fig. 4a is the
  • FIG. 4b shows the radar signature 32 of a motor vehicle
  • FIG. 4c shows the radar signature 32 of a lorry. It can be seen that the different radar signatures 32 are clear
  • FIG. 5 is a schematic diagram for explaining the threshold detection used in some embodiments.
  • Threshold detection evaluated, with a certain threshold 33 is specified. Signal components which are below the threshold value 33 are neglected.
  • Signal portions above the threshold 33 are cut out, and the cut-out period is supplied as a signal section 8 to the deep neural network as an input vector. In this way, a noise component in the radar signal 7 can be suppressed or at least minimized before classification.
  • threshold detection is performed using the Ordered-Statistics Constant-False-Alarm-Rate (OS-CFAR) method.
  • OS-CFAR Ordered-Statistics Constant-False-Alarm-Rate

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Electromagnetism (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

The invention relates to a method for classifying objects in the environment of a motor vehicle, comprising the following method steps: sensing an environment of the motor vehicle by means of at least one radar sensor (2), radar echos (6) of a radar pulse that are caused by object in the environment being sensed; evaluating a radar signal (7) provided by the radar sensor (2) on the basis of the sensed radar echos (6) by means of a radar evaluation apparatus (3), a signal section (8) corresponding to an object being identified in the radar signal (7), and a distance (9), a speed (10) and/or an azimuth angle (11) corresponding to the object being determined; classifying the signal section (8) by means of a classifying apparatus (4), the signal section (8) being classified by means of a deep neural network (12) by assigning at least one object class (13) to the signal section (8), and a class probability measure (14) being determined by means of the deep neural network (12) for each object class (13) assigned to the signal section (8); outputting the at least one assigned object class (13) and the associated class probability measures (14) by means of an outputting apparatus (5). The invention further relates to an associated device (1).

Description

Beschreibung  description
Verfahren und Vorrichtung zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeuges Method and device for classifying objects in the environment of a motor vehicle
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeuges. The invention relates to a method and a device for classifying objects in the environment of a motor vehicle.
Moderne Kraftfahrzeuge sind mit einer Vielzahl von Sensorsystemen zur Umfelderfassung ausgerüstet. Radarsensoren sind hierbei beispielsweise in der Lage, einen Abstand, eine Geschwindigkeit und einen Azimutwinkel von Objekten im Umfeld des Kraftfahrzeugs zu bestimmen. Derartige Radarsensoren bilden bereits die Grundlage für diverse Modern motor vehicles are equipped with a variety of sensor systems for environment detection. For example, radar sensors are capable of determining a distance, a speed and an azimuth angle of objects in the surroundings of the motor vehicle. Such radar sensors already form the basis for diverse
Fahrerassistenzsysteme und können auch in Kombination mit weiteren Sensoren eingesetzt werden. Driver assistance systems and can also be used in combination with other sensors.
Ferner sind Verfahren zur Bildauswertung auf Grundlage von Künstlichen Neuronalen Netzen bekannt. Ein solches Verfahren ist beispielsweise in der EP 1 674 883 A2 beschrieben. Eine besondere Klasse von Optimierungsmethoden Künstlicher Neuronaler Netze bilden Deep Neural Networks. Diese Deep Neural Networks ermöglichen auf Grund einer umfangreichen inneren Struktur einen stabileren Lernerfolg. Furthermore, methods for image analysis based on artificial neural networks are known. Such a process is described for example in EP 1 674 883 A2. A special class of artificial neural network optimization methods are Deep Neural Networks. These deep neural networks provide a more stable learning experience due to an extensive internal structure.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zum The invention has for its object to provide a method and an apparatus for
Klassifizieren von Objekten im Umfeld eines Kraftfahrzeuges zu schaffen, bei denen das Klassifizieren der Objekte verbessert ist. To classify objects in the environment of a motor vehicle, in which the classification of the objects is improved.
Die Aufgabe wird durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 und eine Vorrichtung mit den Merkmalen des Patentanspruchs 7 gelöst. Vorteilhafte Ausführungsformen ergeben sich aus den Unteransprüchen. The object is achieved by a method having the features of patent claim 1 and a device having the features of patent claim 7. Advantageous embodiments will be apparent from the dependent claims.
Insbesondere wird ein Verfahren zum Klassifizieren von Objekten im Umfeld eines In particular, a method for classifying objects in the environment of a
Kraftfahrzeuges zur Verfügung gestellt, umfassend die folgenden Verfahrensschritte: Erfassen eines Umfeldes des Kraftfahrzeuges mittels mindestens eines Radarsensors, wobei von Objekten in dem Umfeld hervorgerufene Radarechos eines Radarimpulses erfasst werden; Auswerten eines von dem Radarsensor auf Grundlage der erfassten Radarechos Motor vehicle provided, comprising the following method steps: detecting an environment of the motor vehicle by means of at least one radar sensor, being detected by objects in the environment caused radar echoes of a radar pulse; Evaluating one of the radar sensor based on the detected radar returns
bereitgestellten Radarsignals mittels einer Radarauswertungseinrichtung, wobei ein mit einem Objekt korrespondierender Signalabschnitt im Radarsignal identifiziert wird, und wobei ein mit dem Objekt korrespondierender Abstand, eine Geschwindigkeit und/oder ein Azimutwinkel bestimmt werden; Klassifizieren des Signalabschnitts mittels einer Klassifizierungseinrichtung, wobei der Signalabschnitt mittels eines Deep Neural Networks durch Zuordnen mindestens einer Objektklasse zu dem Signalabschnitt klassifiziert wird, und wobei mittels des Deep Neural Networks für jede dem Signalabschnitt zugeordnete Objektklasse ein provided radar signal by means of a radar evaluation device, one with a Object corresponding signal portion is identified in the radar signal, and wherein a distance corresponding to the object, a speed and / or an azimuth angle are determined; Classifying the signal section by means of a classification device, wherein the signal section is classified by means of a deep neural network by assigning at least one object class to the signal section, and by means of the deep neural network for each of the signal section associated object class
Klassenwahrscheinlichkeitsmaß ermittelt wird; Ausgeben der mindestens einen zugeordneten Objektklasse und der jeweils zugehörigen Klassenwahrscheinlichkeitsmaße mittels einer Ausgabeeinrichtung. Class probability measure is determined; Outputting the at least one associated object class and the respectively associated class probability measures by means of an output device.
Ferner wird eine Vorrichtung zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeugs geschaffen, umfassend mindestens einen Radarsensor zum Erfassen eines Umfeldes des Kraftfahrzeugs, wobei der Radarsensor von Objekten in dem Umfeld hervorgerufene Furthermore, an apparatus for classifying objects in the vicinity of a motor vehicle is provided, comprising at least one radar sensor for detecting an environment of the motor vehicle, wherein the radar sensor caused by objects in the environment
Radarechos eines Radarimpulses erfasst, eine Radarauswertungseinrichtung zum Auswerten eines von dem Radarsensor auf Grundlage der erfassten Radarechos bereitgestellten Radar echoes detected radar pulse, a radar evaluation device for evaluating a provided by the radar sensor based on the detected radar echoes
Radarsignals, wobei die Radarauswertungseinrichtung derart ausgebildet ist, einen mit einem Objekt korrespondierenden Signalabschnitt im Radarsignal zu identifizieren, und ein mit dem Objekt korrespondierenden Abstand, eine Geschwindigkeit und/oder einen Azimutwinkel zu bestimmen; eine Klassifizierungseinrichtung, wobei die Klassifizierungseinrichtung derart ausgebildet ist, den Signalabschnitt mittels eines Deep Neural Networks durch Zuordnen mindestens einer Objektklasse zu dem Signalabschnitt zu klassifizieren, und mittels des Deep Neural Networks für jede dem Signalabschnitt zugeordnete Objektklasse ein Radar signal, wherein the radar evaluation means is adapted to identify a signal portion corresponding to an object in the radar signal, and to determine a distance corresponding to the object, a speed and / or an azimuth angle; a classifier, wherein the classifier is adapted to classify the signal portion by means of a deep neural network by assigning at least one class of objects to the signal portion, and by means of the deep neural network for each class of the object associated with the signal portion
Klassenwahrscheinlichkeitsmaß zu ermitteln; und eine Ausgabeeinrichtung, welche derart ausgebildet ist, die mindestens eine zugeordnete Objektklasse und die jeweils zugehörigen Klassenwahrscheinlichkeitsmaße auszugeben. To determine class likelihood measure; and an output device configured to output the at least one associated object class and the respective associated class probability measures.
Die Grundidee der Erfindung ist, Objekte im Umfeld eines Kraftfahrzeugs mittels eines The basic idea of the invention is objects in the environment of a motor vehicle by means of a
Radarsensors zu erfassen und ein von dem Radarsensor bereitgestelltes Radarsignal detailliert auszuwerten. Eine Radarauswertungseinrichtung bestimmt hierzu aus dem Radarsignal einen mit dem Objekt korrespondierenden Abstand, eine Geschwindigkeit und/oder einen To detect radar sensor and to evaluate a radar signal provided by the radar sensor in detail. For this purpose, a radar evaluation device determines from the radar signal a distance, a speed and / or a distance corresponding to the object
Azimutwinkel, wobei der Abstand, die Geschwindigkeit und/oder der Azimutwinkel jeweils relativ zu dem Radarsensor bzw. dem Kraftfahrzeug bestimmt werden. Zusätzlich identifiziert die Radarauswertungseinrichtung einen mit dem Objekt korrespondierenden Signalabschnitt in dem Radarsignal. Dieser Signalabschnitt wird einer Klassifizierungseinrichtung zugeführt, welche mittels eines Deep Neural Networks eine Klassifizierung nach verschiedenen Azimutwinkel, wherein the distance, the speed and / or the azimuth angle are respectively determined relative to the radar sensor or the motor vehicle. In addition, the radar evaluation device identifies a signal section corresponding to the object in the radar signal. This signal section is fed to a classification device which, by means of a deep neural network, classifies according to various
Objektklassen vornimmt. Das Deep Neural Network liefert ferner zu jeder einem Signalabschnitt bzw. dem korrespondierenden Objekt zugeordneten Objektklasse ein Makes object classes. The Deep Neural Network also provides a signal section to each or the corresponding object associated object class
Klassenwahrscheinlichkeitsmaß. Einem Objekt wird somit mindestens eine Objektklasse mit einem zugehörigen Klassenwahrscheinlichkeitsmaß zugeordnet. Klassenwahrscheinlichkeitsmaß. An object is thus assigned at least one object class with an associated class probability measure.
Das Klassenwahrscheinlichkeitsmaß bildet hierbei einen Konfidenzwert bzw. ein The class probability measure here forms a confidence value or a
Konfidenzintervall, welches ein Maß für eine Plausibilität bzw. eine Zuverlässigkeit der jeweiligen Zuordnung einer Objektklasse zu einem Objekt ist. Confidence interval, which is a measure of a plausibility or a reliability of the respective assignment of an object class to an object.
Ein Signalabschnitt kann hierbei als Radarsignatur eines zugehörigen Objektes aufgefasst werden. Hierbei entspricht eine solche Radarsignatur dem zeitlichen Verlauf des von dem Objekt hervorgerufenen Radarechos des Radarimpulses. Alternativ kann die Radarsignatur aus dem Radarleistungsspektrum entnommen werden. Eine solche Radarsignatur setzt sich hierbei aus sämtlichen von dem Objekt an einzelnen Radarechozentren zurückgeworfenen A signal section can be understood here as a radar signature of an associated object. In this case, such a radar signature corresponds to the time profile of the radar echo of the radar pulse caused by the object. Alternatively, the radar signature can be taken from the radar power spectrum. Such a radar signature consists of all of the object reflected by individual radar echo centers
Radarechos zusammen. Je nach Größe, Form, Oberflächenbeschaffenheit und/oder Radar echoes together. Depending on size, shape, surface finish and / or
Oberflächenbeschaffenheit des Objektes ergeben sich hierdurch jeweils für verschiedene Objekte charakteristische Radarsignaturen. So unterscheiden sich beispielsweise die The surface finish of the object thus results in radar signatures characteristic of different objects. For example, the differences between
Radarsignaturen von Fußgängern deutlich von denen eines Kraftfahrzeugs oder eines Radar signatures of pedestrians clearly from those of a motor vehicle or a
Lastwagens. Diese Unterschiede werden mittels des Deep Neural Networks erkannt und zum Klassifizieren ausgewertet. Truck. These differences are recognized by the Deep Neural Network and evaluated for classification.
Das Klassenwahrscheinlichkeitsmaß gibt im einfachsten Fall an, mit welcher Wahrscheinlichkeit ein erfasstes Objekt zu einer bestimmten Objektklasse gehört. Da eine Zuordnung einer Objektklasse in der Regel nicht eindeutig sein wird, erhält man mittels des Verfahrens und der Vorrichtung zu einem erfassten Objekt eine Menge bestehend aus Objektklassen und jeweils zugehörigen Wahrscheinlichkeitswerten. So kann einem erfassten Objekt beispielsweise mit 90 % Wahrscheinlichkeit die Objektklasse„Kraftfahrzeug" und mit jeweils 5 % In the simplest case, the class probability measure indicates with which probability a detected object belongs to a certain object class. Since an assignment of an object class will generally not be unambiguous, the method and the apparatus for a detected object will yield a set consisting of object classes and respective associated probability values. For example, with 90% probability, a detected object can have the object class "motor vehicle" and with 5% each
Wahrscheinlichkeit die Objektklassen„Baum" und„Lastwagen" zugeordnet sein. Probability associated with the object classes "tree" and "truck".
Anders ausgedrückt liefert das Deep Neural Network in diesem Fall zu jedem Signalabschnitt die Wahrscheinlichkeiten p,, dass dieser Signalabschnitt von einer bestimmten Objektklasse i von Objekt verursacht wurde: In other words, in this case, the Deep Neural Network provides for each signal portion the probabilities p ,, that this signal portion was caused by a particular object class i of object:
Objektklasse 1 Object class 1
Objektklasse 2  Object class 2
Objektklasse n pn,
Figure imgf000006_0001
Object class np n ,
Figure imgf000006_0001
Der Vorteil des Verfahrens und der Vorrichtung ist, dass mittels eines Radarsensors nicht nur Informationen über den Abstand, die Geschwindigkeit und/oder den Azimutwinkel eines The advantage of the method and the device is that by means of a radar sensor not only information about the distance, the speed and / or the azimuth angle of a
Objektes im Umfeld des Kraftfahrzeugs gewonnen werden können, sondern auch Aussagen darüber getroffen werden, um was für ein Objekt (z. B. Fahrzeug, Radfahrer, Fußgänger, Baum, etc.) es sich handelt. Dies ermöglicht vielfältige Anwendungsmöglichkeiten, beispielsweise indem man sich diese Information zusätzlich in Fahrerassistenzsystemen zunutze macht. So kann ein Einparkassistent beispielsweise erkennen, ob es sich bei einem Objekt im Umfeld des Kraftfahrzeugs um ein anderes Kraftfahrzeug, einen Bordstein oder einen Poller handelt, und sich diese Information beim automatischen Einparken zunutze machen. Object in the environment of the motor vehicle can be obtained, but also statements are made about what an object (eg, vehicle, cyclist, pedestrian, tree, etc.) is concerned. This allows a variety of applications, for example, by making this information in addition in driver assistance systems advantage. For example, a parking assistant can detect whether an object in the vicinity of the motor vehicle is another motor vehicle, a curb or a bollard, and make use of this information during automatic parking.
Nach Durchführen des Verfahrens stellt die Ausgabeeinrichtung somit für jedes im Umfeld erfasste Objekt eine Zuordnung zu mindestens einer Objektklasse sowie ein Abstand, eine Geschwindigkeit und/oder eine Azimutwinkel bereit. After performing the method, the output device thus provides an assignment to at least one object class as well as a distance, a speed and / or an azimuth angle for each object detected in the surroundings.
In einer Ausführungsform ist vorgesehen, dass ein Objekt im Umfeld mehrmals erfasst, entsprechend ausgewertet und klassifiziert wird und Ergebnisse dieser Klassifizierungen auf Grundlage der zugehörigen Klassenwahrscheinlichkeitsmaße zusammengefasst werden. Dies ermöglicht das mehrmalige Erfassen eines Objektes, beispielsweise aus unterschiedlichen Abständen, Perspektiven und/oder Erfassungswinkeln. In jedem einzelnen erfassten Radarecho des Objektes wird dann der mit dem Objekt korrespondierende Signalabschnitt identifiziert und diesem vom Deep Neural Network mindestens eine Objektklasse zugeordnet. Die nach jedem einzelnen Erfassen jeweils bestimmten Klassenwahrscheinlichkeitsmaße für die verschiedenen Objektklassen werden anschließend zusammengefasst, das heißt beispielsweise aufsummiert und renormiert. Dies hat den Vorteil, dass Objekte mehrmals erfasst werden können und auf diese Weise ein genaueres Abbild des Umfelds bereitgestellt wird. In one embodiment, it is provided that an object is detected several times in the environment, evaluated and classified accordingly and results of these classifications are summarized on the basis of the associated class probability measures. This allows the multiple detection of an object, for example, from different distances, perspectives and / or detection angles. In each individual detected radar echo of the object, the signal section corresponding to the object is identified and assigned to it by the Deep Neural Network at least one object class. The class likelihood measures for the different object classes, which are determined after each individual acquisition, are then summarized, that is, for example, summed up and renormalized. This has the advantage that objects can be captured more than once and in this way a more accurate image of the environment is provided.
In der Vorrichtung ist entsprechend vorgesehen, dass der mindestens eine Radarsensor, die Radarauswertungseinrichtung und die Klassifizierungseinrichtung derart ausgebildet sind, ein Objekt im Umfeld mehrmals zu erfassen, auszuwerten und zu klassifizieren, und Ergebnisse dieser Klassifizierungen auf Grundlage der zugehörigen Klassenwahrscheinlichkeitsmaße zusammenzufassen. Bei einigen Ausführungsformen ist ferner vorgesehen, dass nach dem Zusammenfassen der einzelnen Ergebnisse eine Entscheidung darüber getroffen wird, welche der Objektklassen aus dem zusammengefassten Ergebnis einem Objekt zugeordnet wird. Anders ausgedrückt wird nach dem Zusammenfassen der Ergebnisse beispielsweise durch eine Maximalwerterkennung innerhalb der verschiedenen Klassenwahrscheinlichkeitsmaße der Objektklassen entschieden, welche Objektklasse endgültig ausgewählt bzw. eindeutig einem Objekt zugeordnet wird. Ist das Klassenwahrscheinlichkeitsmaß beispielsweise eine einfache Wahrscheinlichkeit, mit der die einzelnen Objektklassen jeweils vorliegen, so kann diejenige Objektklasse mit der höchsten Wahrscheinlichkeit als einzige und endgültige Objektklasse, die diesem Objekt zugeordnet wird, ausgewählt werden. In the device, it is correspondingly provided that the at least one radar sensor, the radar evaluation device and the classification device are designed to detect, evaluate and classify an object in the environment several times, and to combine results of these classifications on the basis of the associated class probability measures. In some embodiments, it is further provided that, after summarizing the individual results, a decision is made as to which of the object classes from the combined result is assigned to an object. In other words, after summarizing the results, it is decided, for example by maximum value recognition within the various class probability measures of the object classes, which object class is finally selected or uniquely assigned to an object. For example, if the class probability measure is a simple probability with which the individual object classes are present, the object class with the highest probability can be selected as the only and final object class that is assigned to this object.
In einer Weiterbildung ist ferner vorgesehen, dass das Klassenwahrscheinlichkeitsmaß ein Evidenzwert ist und das Zusammenfassen mittels des Dempster-Shafer-Verfahrens In a further development, it is further provided that the class probability measure is an evidence value and the summarization by means of the Dempster-Shafer method
durchgeführt wird. Eine Evidenz ist ein zweidimensionales Wahrscheinlichkeitsmaß: Es setzt sich zusammen aus dem Grad des Dafürhaltens bzw. dem Grad des Vertrauens darin, dass die Aussage einer Quelle zutrifft (engl.:„degree of belief"), und der Plausibilität des Ereignisses bzw. aus einem Wahrscheinlichkeitsbereich mit einer unteren und oberen Grenze. In dieser Ausführungsform liefert das Deep Neural Network zu einem Signalabschnitt dann zu jeder der Objektklassen einen zugehörigen Evidenzwert. Mittels des Dempster-Shafer-Verfahrens lassen sich mehrmals erfasste Objekte sehr viel besser klassifizieren, indem die einzelnen Messungen zu einer Gesamtaussage zusammengefasst werden. is carried out. Evidence is a two-dimensional measure of probability: It is composed of the degree of belief or the degree of trust that the statement of a source applies (English: "degree of belief"), and the plausibility of the event or from a In this embodiment, the Deep Neural Network provides an associated Evidence value to a signal portion then to each of the object classes By means of the Dempster-Shafer method, multiple-detected objects can be classified much better by adding the individual measurements summarized in an overall statement.
In einer weiteren Ausführungsform ist vorgesehen, dass das Deep Neural Network mittels Trainingsdaten eines kamerabasierten Referenzsystems trainiert wird. Hierzu werden von dem kamerabasierten Referenzsystem erfasste Abbildungen des Umfelds von dem Referenzsystem klassifiziert und die Objekten im Umfeld zugeordneten Objektklassen als Referenzklassen („ground truth") angenommen. Diese Referenzklassen werden dann als Trainingsdaten beim Trainieren des Deep Neural Networks auf das Auswerten des vom Radarsensor bereitgestellten Radarsignals bzw. des Signalabschnitts verwendet. Es kann hierbei vorgesehen sein, dass Kameradaten vorher manuell ausgewertet werden, so dass die Referenzklassen manuell den entsprechenden Objekten zugeordnet werden. In a further embodiment, it is provided that the deep neural network is trained by means of training data of a camera-based reference system. For this purpose, images of the surroundings captured by the camera-based reference system are classified by the reference system and the objects assigned to surrounding objects are assumed to be reference classes ("ground truth") .These reference classes are then used as training data when training the deep neural network to evaluate the radar sensor provided It may be provided here that camera data are previously evaluated manually, so that the reference classes are assigned manually to the corresponding objects.
Es kann hierbei vorgesehen sein, Kameradaten zu verwenden, die während einer Fahrt in einem unbekannten Umfeld erfasst wurden. Alternativ kann aber auch vorgesehen sein, dass Kameradaten verwendet werden, welche in einem Umfeld mit bekannten Objekten erfasst wurden. Die entsprechende Ausführungsform der Vorrichtung sieht demgemäß ein kamerabasiertes Referenzsystem vor, wobei das Deep Neural Network derart ausgebildet ist, mittels vom kamerabasierten Referenzsystems bereitgestellten Trainingsdaten trainiert zu werden. It may be provided here to use camera data captured during a journey in an unknown environment. Alternatively, however, it can also be provided that camera data is used which has been acquired in an environment with known objects. The corresponding embodiment of the device accordingly provides a camera-based reference system, wherein the deep neural network is adapted to be trained by means of training data provided by the camera-based reference system.
In einer weiteren Ausführungsform ist vorgesehen, dass der mit dem Objekt korrespondierende Signalabschnitt mittels einer Schwellwerterkennung ermittelt wird. Hierzu ist vorgesehen, dass Signalanteile in dem Radarsignal, welche unterhalb eines bestimmten Schwellwertes liegen, nicht berücksichtigt werden. Auf diese Weise lassen sich Rauschanteile in dem Radarsignal vollständig unterdrücken oder zumindest deutlich vermindern. Die Folge ist, dass eine In a further embodiment, it is provided that the signal section corresponding to the object is determined by means of a threshold value detection. For this purpose, it is provided that signal components in the radar signal which are below a certain threshold value are not taken into account. In this way, noise components in the radar signal can be completely suppressed or at least significantly reduced. The consequence is that one
Erfolgsquote bei der Zuordnung einer Objektklasse zu einem Objekt mittels des Deep Neural Networks deutlich verbessert werden kann. Success rate in assigning an object class to an object can be significantly improved by means of the Deep Neural Network.
Die Vorrichtung sieht in dieser Ausführungsform entsprechend vor, dass die The device according to this embodiment provides that the
Radarauswertungseinrichtung derart ausgebildet ist, den mit dem Objekt korrespondierenden Signalabschnitt mittels einer Schwellwerterkennung zu ermitteln. Radar evaluation device is designed such that to determine the signal portion corresponding to the object by means of a threshold value detection.
In einer Weiterbildung ist ferner vorgesehen, dass die Schwellwerterkennung mittels des Ordered-Statistics Constant-False-Alarm-Rate-Verfahrens (OS-CFAR) durchgeführt wird. In a further development, it is further provided that the threshold value detection is carried out by means of the ordered-constant-false-alarm-rate method (OS-CFAR).
Die Klassifizierungseinrichtung und das Deep Neural Network können beispielsweise mittels einer Graphics Processing Unit (GPU bzw. GPGPU) umgesetzt werden. The classifier and the Deep Neural Network can be implemented, for example, by means of a Graphics Processing Unit (GPU or GPGPU).
Die Vorrichtung kann beispielsweise in einem Kraftfahrzeug ausgebildet sein. Auf diese Weise kann das Klassifizieren direkt in dem Kraftfahrzeug selber durchgeführt werden und steht während einer Fahrt durch ein Umfeld zur Verfügung. The device may be formed for example in a motor vehicle. In this way, the classification can be carried out directly in the motor vehicle itself and is available while driving through an environment.
Nachfolgend wird die Erfindung anhand bevorzugter Ausführungsbeispiele unter Bezugnahme auf die Figuren näher erläutert. Hierbei zeigen: The invention will be explained in more detail with reference to preferred embodiments with reference to the figures. Hereby show:
Fig. 1 eine schematische Darstellung einer Ausführungsform der Vorrichtung zum Fig. 1 is a schematic representation of an embodiment of the device for
Klassifizieren von Objekten im Umfeld eines Kraftfahrzeugs;  Classifying objects in the environment of a motor vehicle;
Fig. 2 eine schematische Darstellung einer weiteren Ausführungsform der Vorrichtung zum Fig. 2 is a schematic representation of another embodiment of the device for
Klassifizieren von Objekten im Umfeld eines Kraftfahrzeugs; Fig. 3 eine schematische Darstellung von verschiedenen Radarechozentren an einem Heck eines Kraftfahrtzeugs zur Verdeutlichung der Entstehung eines Radarechos; Classifying objects in the environment of a motor vehicle; Fig. 3 is a schematic representation of various radar echo centers at a rear of a motor vehicle to illustrate the formation of a radar echo;
Fig. 4a eine schematische Radarsignatur eines Fußgängers; 4a shows a schematic radar signature of a pedestrian;
Fig. 4b eine schematische Radarsignatur eines Kraftfahrzeugs; 4b shows a schematic radar signature of a motor vehicle;
Fig. 4c eine schematische Radarsignatur eines Lastkraftwagens; 4c shows a schematic radar signature of a truck;
Fig. 5 eine schematische Darstellung zur Erläuterung der Schwellwerterkennung. Fig. 5 is a schematic representation for explaining the threshold detection.
In Fig. 1 ist eine schematische Darstellung einer Ausführungsform der Vorrichtung 1 zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeugs gezeigt. Die Vorrichtung 1 umfasst einen Radarsensor 2, eine Radarauswertungseinrichtung 3, eine Klassifizierungseinrichtung 4 und eine Ausgabeeinrichtung 5. Der Radarsensor 2 erfasst das Umfeld des Kraftfahrzeugs, in dem dieser von Objekten in diesem Umfeld hervorgerufene Radarechos 6 eines Radarimpulses erfasst. Der Radarsensor 2 stellt auf Grundlage der erfassten Radarechos 6 ein Radarsignal 7 zur Verfügung und führt dieses der Radarauswertungseinrichtung 3 zu. Die FIG. 1 shows a schematic illustration of an embodiment of the device 1 for classifying objects in the environment of a motor vehicle. The device 1 comprises a radar sensor 2, a radar evaluation device 3, a classification device 4 and an output device 5. The radar sensor 2 detects the surroundings of the motor vehicle in which this radar echo 6 of a radar pulse caused by objects in this environment detects. The radar sensor 2 provides a radar signal 7 on the basis of the detected radar echoes 6 and supplies this to the radar evaluation device 3. The
Radarauswertungseinrichtung 3 ist derart ausgebildet, ein mit einem Objekt Radar evaluation device 3 is designed such, one with an object
korrespondierenden Signalabschnitt 8 im Radarsignal 7 zu identifizieren und ein mit dem Objekt korrespondierenden Abstand 9, eine Geschwindigkeit 10 und/oder einen Azimutwinkel 1 1 zu bestimmen. Der von der Radarauswertungseinrichtung 3 in dem Radarsignal 7 identifizierte Signalabschnitt 8 wird der Klassifizierungseinrichtung 4 zugeführt. Die identify corresponding signal section 8 in the radar signal 7 and to determine a distance 9 corresponding to the object, a speed 10 and / or an azimuth angle 1 1. The signal section 8 identified by the radar evaluation device 3 in the radar signal 7 is fed to the classifier 4. The
Klassifizierungseinrichtung 4 ist derart ausgebildet, den Signalabschnitt 8 mittels eines Deep Neural Networks 12 durch Zuordnen mindestens einer Objektklasse 13 zu dem Signalabschnitt 8 zu klassifizieren, und mittels des Deep Neural Networks 12 für jede dem Signalabschnitt 8 zugeordnete Objektklasse 13 ein Klassenwahrscheinlichkeitsmaß 14 zu ermitteln. Die Classifier 4 is designed to classify the signal section 8 by means of a deep neural network 12 by assigning at least one object class 13 to the signal section 8, and to determine a class probability measure 14 by means of the deep neural network 12 for each object class 13 assigned to the signal section 8. The
Ausgabeeinrichtung 5 gibt die zugeordnete Objektklasse 13 bzw. die zugeordneten Output device 5 gives the associated object class 13 or the associated
Objektklassen 13 und die zugehörigen Klassenwahrscheinlichkeitsmaße 14 aus. Ferner gibt die Ausgabeeinrichtung 5 auch den Abstand 9, die Geschwindigkeit 10 und/oder den Object classes 13 and the associated class probability measures 14. Furthermore, the output device 5 also outputs the distance 9, the speed 10 and / or the
Azimutwinkel 1 1 aus. Die Ausgabeeinrichtung 5 kann die vorgenannten Werte beispielsweise als Datentelegramm in digitaler Form oder als analoge Spannungswerte ausgeben. Azimuth angle 1 1 off. The output device 5 can output the abovementioned values, for example, as a data telegram in digital form or as analog voltage values.
Es kann in einigen Ausführungsformen vorgesehen sein, dass ein Objekt im Umfeld mehrmals erfasst, entsprechend ausgewertet und klassifiziert wird und Ergebnisse dieser It may be provided in some embodiments that an object in the environment is detected several times, evaluated and classified accordingly and results of this
Klassifizierungen auf Grundlage der zugehörigen Klassenwahrscheinlichkeitsmaße 14 zusammengefasst werden. Hierzu weist die Vorrichtung 1 beispielsweise zusätzlich eine Mittelungseinrichtung auf (nicht gezeigt), welche das Zusammenfassen der einzelnen Classifications based on the associated class likelihood measures 14 be summarized. For this purpose, the device 1, for example, in addition to an averaging device (not shown), which summarize the individual
Ergebnisse durchführt. Ferner kann das Zusammenfassen auch mittels der Performs results. Furthermore, the summarizing also by means of
Ausgabeeinrichtung 5 durchgeführt werden, welches hierzu beispielsweise ein entsprechend ausgebildetes Mittelungsmodul (nicht gezeigt) aufweist. Output device 5 are performed, which for this purpose, for example, a suitably trained averaging module (not shown).
Die Vorrichtung kann beispielsweise in einem Kraftfahrzeug ausgebildet sein. Auf diese Weise kann das Klassifizieren direkt in dem Kraftfahrzeug selber durchgeführt werden und steht während einer Fahrt durch ein Umfeld zur Verfügung. The device may be formed for example in a motor vehicle. In this way, the classification can be carried out directly in the motor vehicle itself and is available while driving through an environment.
In weiterbildenden Ausführungsformen kann ferner vorgesehen sein, dass das In further embodiments, it may further be provided that the
Klassenwahrscheinlichkeitsmaß ein Evidenzwert ist und das Zusammenfassen mittels des Dempster-Shafer-Verfahrens durchgeführt wird. Class Probability measure is an Evidence value and the summarization is performed by means of the Dempster-Shafer method.
In Fig. 2 ist eine schematische Darstellung einer weiteren Ausführungsform der Vorrichtung 1 zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeugs gezeigt. Die Vorrichtung 1 entspricht im Wesentlichen der Ausführungsform, welche in Fig. 1 gezeigt ist. Gleiche FIG. 2 shows a schematic representation of a further embodiment of the device 1 for classifying objects in the environment of a motor vehicle. The device 1 substantially corresponds to the embodiment shown in FIG. Same
Bezugszeichen bezeichnen hierbei gleiche Merkmale. Zusätzlich weist die in Fig. 2 gezeigte Ausführungsform ein kamerabasiertes Referenzsystem 15 auf, wobei das kamerabasierte Referenzsystem 15 eine Kamera 16 und eine Referenzklassifizierungseinrichtung 17 aufweist. Die Kamera 16 erfasst Abbildungen 18 des Umfeldes des Kraftfahrzeugs und führt die erfassten Abbildungen 18 der Referenzklassifizierungseinrichtung 17 zu. Die Reference numerals denote the same features. In addition, the embodiment shown in FIG. 2 comprises a camera-based reference system 15, wherein the camera-based reference system 15 comprises a camera 16 and a reference classifier 17. The camera 16 captures images 18 of the surroundings of the motor vehicle and supplies the acquired images 18 to the reference classification device 17. The
Referenzklassifizierungseinrichtung 17 erkennt in diesen Abbildungen 18 Objekte und ordnet diesen Objekten Referenzklassen 19 zu. Diese Referenzklassen 19 bilden anschließend Trainingsdaten 20, um das Deep Neural Network 12 der Klassifizierungseinrichtung 4 zu trainieren. Die von dem Referenzsystem 15 klassifizierten und den Objekten im Umfeld zugeordneten Referenzklassen 19 werden hierbei als Referenz („ground truth") angenommen. Es kann hierbei vorgesehen sein, dass die Abbildungen 18 vorher manuell ausgewertet werden, sodass eine Zuordnung der Referenzklassen 19 zu den entsprechenden Objekten in den Abbildungen 18 manuell erfolgt ist.  Reference classification device 17 recognizes 18 objects in these figures and assigns reference objects 19 to these objects. These reference classes 19 then form training data 20 to train the deep neural network 12 of the classifier 4. The reference classes 19 classified by the reference system 15 and assigned to the objects in the environment are hereby assumed to be "ground truth." It can be provided here that the images 18 are previously evaluated manually, so that an assignment of the reference classes 19 to the corresponding Objects in Figures 18 is done manually.
In Fig. 3 ist eine schematische Darstellung der hervorgerufenen Signalstärke von In Fig. 3 is a schematic representation of the evoked signal strength of
verschiedenen Radarechozentren 31 an einem Heck 30 eines Kraftfahrzeugs zur various Radarechozentren 31 at a rear 30 of a motor vehicle for
Verdeutlichung der Entstehung eines Radarechos gezeigt. Das von dem Heck 30 Clarification of the emergence of a radar echo shown. That from the stern 30
zurückgeworfene Radarecho eines an dem Heck 30 reflektierten Radarimpulses setzt sich dann zusammen aus einer Überlagerung der einzelnen Radarechozentren 31 . Aus dem von einem Radarsensor erfassten überlagerten Radarecho wird anschließend das Radarsignal gebildet. thrown back radar echo of a radar pulse reflected at the rear 30 then sits down together from a superposition of the individual radar echo centers 31. From the superimposed radar echo detected by a radar sensor, the radar signal is subsequently formed.
Je nach Größe, Form, Oberflächenbeschaffenheit und/oder Material eines Objektes, an dem ein Radarecho entsteht, unterscheidet sich eine Radarsignatur des entsprechenden Objektes. In den Figuren 4a bis 4c sind drei verschiedene Radarsignaturen 32 von unterschiedlichen Objekten gezeigt, wobei jeweils der Signalverlauf des von einem Radarsensor erfassten Radarechos dieser Objekte über der Zeitachse dargestellt ist. In der Fig. 4a ist die Depending on the size, shape, surface texture and / or material of an object on which a radar echo is generated, a radar signature of the corresponding object differs. FIGS. 4 a to 4 c show three different radar signatures 32 of different objects, wherein in each case the signal profile of the radar echo of these objects detected by a radar sensor is shown over the time axis. In Fig. 4a is the
Radarsignatur 32 eines Fußgängers gezeigt. In der Fig. 4b ist die Radarsignatur 32 eines Kraftfahrzeugs zu sehen und in der Fig. 4c ist die Radarsignatur 32 eines Lastkraftwagens abgebildet. Man erkennt, dass sich die verschiedenen Radartsignaturen 32 deutlich Radar signature 32 of a pedestrian shown. FIG. 4b shows the radar signature 32 of a motor vehicle, and FIG. 4c shows the radar signature 32 of a lorry. It can be seen that the different radar signatures 32 are clear
voneinander unterscheiden. Diesen Unterschied macht man sich im beschriebenen Verfahren und in der beschriebenen Vorrichtung beim Zuordnen von Objektklassen zu den Objekten mittels des Deep Neural Networks zunutze. differ from each other. This difference is made use of in the described method and in the device described when assigning object classes to the objects by means of the deep neural network.
In Fig. 5 ist eine schematische Darstellung zur Erläuterung der in einigen Ausführungsformen verwendeten Schwellwerterkennung gezeigt. Hierbei wird ein Radarsignal 7 über eine FIG. 5 is a schematic diagram for explaining the threshold detection used in some embodiments. In this case, a radar signal 7 via a
Schwellwerterkennung ausgewertet, wobei ein bestimmter Schwellwert 33 vorgegeben ist. Signalanteile, welche unterhalb des Schwellwertes 33 liegen, werden vernachlässigt. Threshold detection evaluated, with a certain threshold 33 is specified. Signal components which are below the threshold value 33 are neglected.
Signalanteile oberhalb des Schwellwertes 33 werden ausgeschnitten und der ausgeschnittene Zeitabschnitt wird als Signalabschnitt 8 dem Deep Neural Network als Eingangsvektor zugeführt. Auf diese Weise kann ein Rauschanteil in dem Radarsignal 7 vor dem Klassifizieren unterdrückt oder zumindest minimiert werden. Signal portions above the threshold 33 are cut out, and the cut-out period is supplied as a signal section 8 to the deep neural network as an input vector. In this way, a noise component in the radar signal 7 can be suppressed or at least minimized before classification.
In einer Ausführungsform wird die Schwellwerterkennung mittels des Ordered-Statistics Constant-False-Alarm-Rate-(OS-CFAR)-Verfahrens durchgeführt. In one embodiment, threshold detection is performed using the Ordered-Statistics Constant-False-Alarm-Rate (OS-CFAR) method.
Bezugszeichenliste LIST OF REFERENCE NUMBERS
Vorrichtung contraption
Radarsensor radar sensor
Radarauswertungseinrichtung Radar evaluation device
Klassifizierungseinrichtung classifier
Ausgabeeinrichtung output device
Radarecho radar echo
Radarsignal radar signal
Signalabschnitt signal section
Abstand distance
Geschwindigkeit speed
Azimutwinkel azimuth angle
Deep Neural Network Deep Neural Network
Objektklasse object class
Klassenwahrscheinlichkeitsmaß Klassenwahrscheinlichkeitsmaß
kamerabasiertes Referenzsystem Camera-based reference system
Kamera camera
Referenzklassifizierungseinrichtung Reference classifier
Abbildung Illustration
Referenzklasse reference class
Trainingsdaten training data
Heck Rear
Radarechozentrum Radar echo center
Radarsignatur radar signature
Schwellwert threshold

Claims

Patentansprüche claims
Verfahren zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeuges, umfassend die folgenden Verfahrensschritte: Method for classifying objects in the environment of a motor vehicle, comprising the following method steps:
Erfassen eines Umfeldes des Kraftfahrzeuges mittels mindestens eines Radarsensors (2), wobei von Objekten in dem Umfeld hervorgerufene Radarechos (6) eines Radarimpulses erfasst werden;  Detecting an environment of the motor vehicle by means of at least one radar sensor (2), wherein radar returns (6) of a radar pulse caused by objects in the environment are detected;
Auswerten eines von dem Radarsensor  Evaluate one of the radar sensor
(2) auf Grundlage der erfassten Radarechos (6) bereitgestellten Radarsignals (7) mittels einer Radarauswertungseinrichtung (2) radar signal (7) provided on the basis of the detected radar echoes (6) by means of a radar evaluation device
(3), wobei ein mit einem Objekt korrespondierender Signalabschnitt (8) im Radarsignal (7) identifiziert wird, und wobei ein mit dem Objekt korrespondierender Abstand (9), eine (3), wherein a signal portion (8) corresponding to an object is identified in the radar signal (7), and wherein a distance (9) corresponding to the object, a
Geschwindigkeit (10) und/oder ein Azimutwinkel (1 1 ) bestimmt werden; Speed (10) and / or an azimuth angle (1 1) can be determined;
Klassifizieren des Signalabschnitts (8) mittels einer Klassifizierungseinrichtung Classifying the signal section (8) by means of a classification device
(4), wobei der Signalabschnitt (8) mittels eines Deep Neural Networks (12) durch Zuordnen mindestens einer Objektklasse (13) zu dem Signalabschnitt (8) klassifiziert wird, und wobei mittels des Deep Neural Networks (12) für jede dem Signalabschnitt (8) (4), wherein the signal portion (8) is classified by means of a deep neural network (12) by assigning at least one object class (13) to the signal portion (8), and by means of the deep neural network (12) for each the signal portion (12). 8th)
zugeordnete Objektklasse (13) ein Klassenwahrscheinlichkeitsmaß (14) ermittelt wird; Ausgeben der mindestens einen zugeordneten Objektklasse (13) und der jeweils zugehörigen Klassenwahrscheinlichkeitsmaße (14) mittels einer Ausgabeeinrichtung (5). assigned object class (13) a class probability measure (14) is determined; Outputting the at least one associated object class (13) and the respectively associated class probability measures (14) by means of an output device (5).
Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass ein Objekt im Umfeld mehrmals erfasst, ausgewertet und klassifiziert wird und Ergebnisse dieser A method according to claim 1, characterized in that an object is detected, evaluated and classified several times in the environment and results of this
Klassifizierungen auf Grundlage der zugehörigen Klassenwahrscheinlichkeitsmaße (14) zusammengefasst werden. Classifications based on the associated class likelihood measures (14).
Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass das A method according to claim 2, characterized in that the
Klassenwahrscheinlichkeitsmaß (14) ein Evidenzwert ist und das Zusammenfassen mittels des Dempster-Shafer-Verfahrens durchgeführt wird. Class Probability Measure (14) is an Evidence Value and summarization is performed by the Dempster-Shafer method.
Verfahren nach einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass das Deep Neural Network (12) mittels Trainingsdaten (20) eines kamerabasierten Method according to one of the preceding claims, characterized in that the deep neural network (12) by means of training data (20) of a camera-based
Referenzsystems (15) trainiert wird. Reference system (15) is trained.
5. Verfahren nach einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass der mit dem Objekt korrespondierende Signalabschnitt (8) mittels einer Schwellwerterkennung ermittelt wird. 5. The method according to any one of the preceding claims, characterized in that the corresponding signal with the object portion (8) is determined by means of a threshold detection.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Schwellwerterkennung mittels des Ordered-Statistics Constant-False-Alarm-Rate-Verfahrens durchgeführt wird. 6. The method according to claim 5, characterized in that the threshold detection is performed by means of the Ordered-Statistics Constant-False-Alarm-Rate-method.
7. Vorrichtung (1 ) zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeugs, 7. Device (1) for classifying objects in the environment of a motor vehicle,
umfassend:  full:
mindestens einen Radarsensor (2) zum Erfassen eines Umfeldes des Kraftfahrzeugs, wobei der Radarsensor (2) von Objekten in dem Umfeld hervorgerufene Radarechos (6) eines Radarimpulses erfasst,  at least one radar sensor (2) for detecting an environment of the motor vehicle, wherein the radar sensor (2) detects radar returns (6) of a radar pulse caused by objects in the surroundings,
eine Radarauswertungseinrichtung (3) zum Auswerten eines von dem Radarsensor (2) auf Grundlage der erfassten Radarechos (6) bereitgestellten Radarsignals (7), wobei die Radarauswertungseinrichtung (3) derart ausgebildet ist, einen mit einem Objekt korrespondierenden Signalabschnitt (8) im Radarsignal (7) zu identifizieren, und ein mit dem Objekt korrespondierenden Abstand (9), eine Geschwindigkeit (10) und/oder einen Azimutwinkel (1 1 ) zu bestimmen;  a radar evaluation device (3) for evaluating a radar signal (7) provided by the radar sensor (2) on the basis of the detected radar returns (6), wherein the radar evaluation device (3) is designed such that it has a signal section (8) in the radar signal corresponding to an object ( 7), and to determine a distance (9) corresponding to the object, a speed (10) and / or an azimuth angle (1 1);
eine Klassifizierungseinrichtung (4), wobei die Klassifizierungseinrichtung (4) derart ausgebildet ist, den Signalabschnitt (8) mittels eines Deep Neural Networks (12) durch Zuordnen mindestens einer Objektklasse (13) zu dem Signalabschnitt (8) zu  a classification device (4), wherein the classification device (4) is designed to assign the signal section (8) by means of a deep neural network (12) by assigning at least one object class (13) to the signal section (8)
klassifizieren, und mittels des Deep Neural Networks (12) für jede dem Signalabschnitt (8) zugeordnete Objektklasse (13) einen Klassenwahrscheinlichkeitsmaß (14) zu ermitteln; eine Ausgabeeinrichtung (5), welche derart ausgebildet ist, die mindestens eine zugeordnete Objektklasse (13) und die jeweils zugehörigen  classify and determine a class probability measure (14) for each object class (13) associated with the signal section (8) by means of the deep neural network (12); an output device (5) which is designed such that the at least one associated object class (13) and the respective associated
Klassenwahrscheinlichkeitsmaße (14) auszugeben.  To output class likelihood measures (14).
8. Vorrichtung (1 ) nach Anspruch 7, dadurch gekennzeichnet, dass der mindestens eine Radarsensor (2), die Radarauswertungseinrichtung (3) und die 8. Device (1) according to claim 7, characterized in that the at least one radar sensor (2), the radar evaluation device (3) and the
Klassifizierungseinrichtung (4) derart ausgebildet sind, ein Objekt im Umfeld mehrmals zu erfassen, auszuwerten und zu klassifizieren, und Ergebnisse dieser Klassifizierungen auf Grundlage der zugehörigen Klassenwahrscheinlichkeitsmaße (14) zusammenzufassen.  Classifying means (4) are adapted to multiple times to capture, evaluate and classify an object in the environment, and summarize results of these classifications based on the associated class probability measures (14).
9. Vorrichtung (1 ) nach einem der Ansprüche 7 bis 8, gekennzeichnet durch ein 9. Device (1) according to one of claims 7 to 8, characterized by a
kamerabasiertes Referenzsystem (15), wobei das Deep Neural Network (12) derart ausgebildet ist, mittels vom kamerabasierten Referenzsystems (15) bereitgestellten Trainingsdaten (20) trainiert zu werden. camera-based reference system (15), the Deep Neural Network (12) being such is designed to be trained by means of training data (20) provided by the camera-based reference system (15).
10. Vorrichtung (1 ) nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, dass die Radarauswertungseinrichtung (3) derart ausgebildet ist, den mit dem Objekt 10. Device (1) according to one of claims 7 to 9, characterized in that the radar evaluation device (3) is designed in such a way, with the object
korrespondierenden Signalabschnitt (8) mittels einer Schwellwerterkennung zu ermitteln.  corresponding signal section (8) to be determined by means of a threshold detection.
PCT/EP2018/060788 2017-05-03 2018-04-26 Method and device for classifying objects in the environment of a motor vehicle WO2018202552A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102017207442.6A DE102017207442A1 (en) 2017-05-03 2017-05-03 Method and device for classifying objects in the environment of a motor vehicle
DE102017207442.6 2017-05-03

Publications (1)

Publication Number Publication Date
WO2018202552A1 true WO2018202552A1 (en) 2018-11-08

Family

ID=62091875

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2018/060788 WO2018202552A1 (en) 2017-05-03 2018-04-26 Method and device for classifying objects in the environment of a motor vehicle

Country Status (2)

Country Link
DE (1) DE102017207442A1 (en)
WO (1) WO2018202552A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112288897A (en) * 2020-09-30 2021-01-29 深圳市金溢科技股份有限公司 Vehicle-mounted unit positioning method based on deep learning and road side unit
US11455503B2 (en) 2019-10-03 2022-09-27 Axis Ab Method and sensor apparatus for generating an object classification for an object
EP4063896A1 (en) * 2021-03-24 2022-09-28 Sony Group Corporation Radar data determination circuitry and radar data determination method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11927668B2 (en) 2018-11-30 2024-03-12 Qualcomm Incorporated Radar deep learning
DE102018222672A1 (en) * 2018-12-20 2020-06-25 Robert Bosch Gmbh Determination of the orientation of objects with radar and other electromagnetic interrogation radiation
DE102019213803A1 (en) * 2019-09-11 2021-03-11 Zf Friedrichshafen Ag Adjusting a classification of objects

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5499030A (en) * 1994-03-18 1996-03-12 The United States Of America As Represented By The Secretary Of The Air Force Expert system constant false alarm rate (CFAR) processor
US5963653A (en) * 1997-06-19 1999-10-05 Raytheon Company Hierarchical information fusion object recognition system and method
EP1674883A2 (en) 2004-12-27 2006-06-28 Hitachi, Ltd. Apparatus and method for detecting vehicle
US20160097853A1 (en) * 2014-10-06 2016-04-07 Nidec Elesys Corporation Neural network-based radar system
US20160245911A1 (en) * 2013-07-15 2016-08-25 Texas Instruments Incorporated 2-D Object Detection in Radar Applications

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19518993A1 (en) * 1995-05-29 1996-12-05 Sel Alcatel Ag Device and method for automatic detection or classification of objects
DE19649618A1 (en) * 1996-11-29 1998-06-04 Alsthom Cge Alcatel Method and device for automatic classification of objects
US20160140438A1 (en) * 2014-11-13 2016-05-19 Nec Laboratories America, Inc. Hyper-class Augmented and Regularized Deep Learning for Fine-grained Image Classification

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5499030A (en) * 1994-03-18 1996-03-12 The United States Of America As Represented By The Secretary Of The Air Force Expert system constant false alarm rate (CFAR) processor
US5963653A (en) * 1997-06-19 1999-10-05 Raytheon Company Hierarchical information fusion object recognition system and method
EP1674883A2 (en) 2004-12-27 2006-06-28 Hitachi, Ltd. Apparatus and method for detecting vehicle
US20160245911A1 (en) * 2013-07-15 2016-08-25 Texas Instruments Incorporated 2-D Object Detection in Radar Applications
US20160097853A1 (en) * 2014-10-06 2016-04-07 Nidec Elesys Corporation Neural network-based radar system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HERMANN ROHLING: "Radar CFAR Thresholding in Clutter and Multiple Target Situations", IEEE TRANSACTIONS ON AEROSPACE AND ELECTRONIC SYSTEMS, IEEE SERVICE CENTER, PISCATAWAY, NJ, US, vol. AES-10, no. 4, 1 July 1983 (1983-07-01), pages 608 - 621, XP011167069, ISSN: 0018-9251 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11455503B2 (en) 2019-10-03 2022-09-27 Axis Ab Method and sensor apparatus for generating an object classification for an object
CN112288897A (en) * 2020-09-30 2021-01-29 深圳市金溢科技股份有限公司 Vehicle-mounted unit positioning method based on deep learning and road side unit
EP4063896A1 (en) * 2021-03-24 2022-09-28 Sony Group Corporation Radar data determination circuitry and radar data determination method

Also Published As

Publication number Publication date
DE102017207442A1 (en) 2018-11-08

Similar Documents

Publication Publication Date Title
WO2018202552A1 (en) Method and device for classifying objects in the environment of a motor vehicle
DE10025678B4 (en) Camera-based precrash detection system
DE112012001318B4 (en) Redundant object detection for driver assistance systems
EP1330132B1 (en) Method and apparatus for occlusion detection in image sensor systems
DE102017203838A1 (en) Method and system for environment detection
DE102015109832A1 (en) Object classification for vehicle radar systems
DE102012216386A1 (en) Method for operating a driver assistance system of a vehicle
WO2014108561A1 (en) Method and device for monitoring the surroundings of a vehicle and method for carrying out emergency braking
DE102014106506A1 (en) Method for carrying out a diagnosis of a camera system of a motor vehicle, camera system and motor vehicle
DE102014201158A1 (en) Method and device for checking a relevant object detected by an object recognition
WO2017102150A1 (en) Method for evaluating a hazardous situation which is sensed by at least one sensor of a vehicle, method for controlling reproduction of a hazard warning and method for reproducing a hazard warning
DE102019200849A1 (en) Method for detecting movement of an object
DE102017219056A1 (en) Method and apparatus for detecting at least one obscured object in traffic for a vehicle using a passive vehicle sensor
DE102019200141A1 (en) Method for capturing partial areas of an object
DE102018005969A1 (en) Method for operating a driver assistance system with two detection devices
DE102019218349A1 (en) Method for classifying at least one ultrasonic echo from echo signals
DE102013021840A1 (en) Method for generating an environment model of a motor vehicle, driver assistance system and motor vehicle
DE102019218069A1 (en) Device and method for recognizing and classifying an opponent in an accident
DE102018222800A1 (en) Locating and / or classifying objects from radar data with improved reliability at different distances
DE10344299B4 (en) Classification of the objects located in an environment of a motor vehicle
DE102014209015A1 (en) Method and device for distance control for a vehicle
DE102016119592A1 (en) Method for detecting objects in an environmental region of a motor vehicle taking into account sensor data in the infrared wavelength range, object recognition device, driver assistance system and motor vehicle
DE102020208544A1 (en) Hybrid evaluation of radar data for the classification of objects
DE102009013326A1 (en) Vehicle controlling method, involves producing image of object, determining object data and surrounding data from image of object, and classifying object using object data and surrounding data
DE102019218127A1 (en) Method and device for the optimal provision of AI systems

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18721346

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18721346

Country of ref document: EP

Kind code of ref document: A1