DE102018002521A1 - Method for recognizing persons - Google Patents

Method for recognizing persons Download PDF

Info

Publication number
DE102018002521A1
DE102018002521A1 DE102018002521.8A DE102018002521A DE102018002521A1 DE 102018002521 A1 DE102018002521 A1 DE 102018002521A1 DE 102018002521 A DE102018002521 A DE 102018002521A DE 102018002521 A1 DE102018002521 A1 DE 102018002521A1
Authority
DE
Germany
Prior art keywords
persons
radar
spatiotemporal
reflections
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102018002521.8A
Other languages
German (de)
Inventor
Markus Hahn
Ole Schumann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102018002521.8A priority Critical patent/DE102018002521A1/en
Publication of DE102018002521A1 publication Critical patent/DE102018002521A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/28Details of pulse systems
    • G01S7/285Receivers
    • G01S7/295Means for transforming co-ordinates or for evaluating data, e.g. using computers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • G01S7/412Identification of targets based on measurements of radar reflectivity based on a comparison between measured values and known or stored values
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93272Sensor installation details in the back of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Erkennen von Personen (P1 bis Pn) anhand von mittels zumindest eines Radarsensors (2 bis 5) erfasster Sensordaten (D), wobei eine Umgebung mittels zumindest eines Radarsensors (2 bis 5) erfasst wird. Erfindungsgemäß werden die mittels des Radarsensors (2 bis 5) erfassten Sensordaten (D) in ein raum-zeitliches Koordinatensystem (K) transformiert. In dem Koordinatensystem (K) werden eine raum-zeitliche Identifizierung von Personen (P1 bis Pn) durchgeführt und den Personen (P1 bis Pn) werden zugehörige Radarreflexionen (R1 bis Rx) zugeordnet und die Radarreflexionen (R1 bis Rx) segmentiert. Es werden raum-zeitliche Merkmale (M1 bis Mz) extrahiert und anhand der extrahierten Merkmale (M1 bis Mz) werden als Personeneigenschaften (E) zumindest biometrische Merkmale und ein Bewegungszustand von Personen (P1 bis Pn) bestimmt.

Figure DE102018002521A1_0000
The invention relates to a method for detecting persons (P1 to Pn) on the basis of sensor data (D) detected by means of at least one radar sensor (2 to 5), an environment being detected by means of at least one radar sensor (2 to 5). According to the invention, the sensor data (D) acquired by means of the radar sensor (2 to 5) are transformed into a spatio-temporal coordinate system (K). In the coordinate system (K), a spatiotemporal identification of persons (P1 to Pn) are performed and the persons (P1 to Pn) are assigned associated radar reflections (R1 to Rx) and the radar reflections (R1 to Rx) are segmented. Spatiotemporal features (M1 to Mz) are extracted, and based on the extracted features (M1 to Mz), at least biometric features and a state of movement of persons (P1 to Pn) are determined as person characteristics (E).
Figure DE102018002521A1_0000

Description

Die Erfindung betrifft ein Verfahren zum Erkennen von Personen anhand von mittels zumindest eines Radarsensors erfasster Sensordaten gemäß dem Oberbegriff des Anspruchs 1.The invention relates to a method for detecting persons on the basis of sensor data acquired by means of at least one radar sensor according to the preamble of claim 1.

Aus der DE 10 2016 215 102 A1 ist ein Verfahren zum Erkennung eines Fußgängers bekannt. Das Verfahren umfasst die Schritte:

  • - Aussenden und Empfangen einer Radarwelle;
  • - Ermitteln einer Relativgeschwindigkeit vom Körper und mindestens einer Extremität des Fußgängers aus der empfangenen Radarwelle;
  • - Ermitteln einer Ausdehnung vom Körper und mindestens einer Extremität des Fußgängers aus der empfangenen Radarwelle;
  • - Erkennen des Fußgängers aus den ermittelten Relativgeschwindigkeiten und den Ausdehnungen.
From the DE 10 2016 215 102 A1 For example, a method for recognizing a pedestrian is known. The method comprises the steps:
  • Sending and receiving a radar wave;
  • Determining a relative speed of the body and at least one extremity of the pedestrian from the received radar wave;
  • Determining an extent of the body and at least one extremity of the pedestrian from the received radar wave;
  • - Detecting the pedestrian from the determined relative speeds and expansions.

Weiterhin ist aus der DE 44 04 775 C1 ein Verfahren zum Betrieb eines einer automatischen Erkennung von in Klassen eingeteilten Objekten dienenden, aus einer Reihenschaltung eines Segmentierers, eines Merkmalsextraktors und eines Klassifikators gebildeten hybriden neuronalen Netzwerks bekannt. Eingangsbilder des Verfahrens werden dabei mittels eines Radarsensors erzeugt.Furthermore, from the DE 44 04 775 C1 discloses a method of operating a hybrid neural network formed of a series connection of a segmenter, a feature extractor, and a classifier for automatic recognition of classed objects. Input images of the method are generated by means of a radar sensor.

Der Erfindung liegt die Aufgabe zu Grunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zum Erkennen von Personen anhand von mittels zumindest eines Radarsensors erfasster Sensordaten anzugeben.The object of the invention is to provide a method for recognizing persons that is improved over the prior art by means of sensor data acquired by means of at least one radar sensor.

Die Aufgabe wird erfindungsgemäß mit einem Verfahren gelöst, welches die im Anspruch 1 angegebenen Merkmale aufweist.The object is achieved by a method having the features specified in claim 1.

Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous embodiments of the invention are the subject of the dependent claims.

In dem Verfahren zum Erkennen von Personen anhand von mittels zumindest eines Radarsensors erfasster Sensordaten wird eine Umgebung mittels zumindest eines Radarsensors erfasst.In the method for detecting persons based on sensor data acquired by means of at least one radar sensor, an environment is detected by means of at least one radar sensor.

Erfindungsgemäß werden die mittels des Radarsensors erfassten Sensordaten in ein raum-zeitliches Koordinatensystem transformiert. In dem Koordinatensystem wird eine raum-zeitliche Identifizierung von Personen durchgeführt und den Personen werden zugehörige Radarreflexionen zugeordnet und die Radarreflexionen werden segmentiert. Weiterhin werden raum-zeitliche Merkmale extrahiert und anhand der extrahierten Merkmale werden als Personeneigenschaften zumindest biometrische Merkmale und ein Bewegungszustand von Personen bestimmt.According to the invention, the sensor data detected by means of the radar sensor are transformed into a space-time coordinate system. In the coordinate system, a spatio-temporal identification of persons is carried out and the persons are associated with associated radar reflections and the radar reflections are segmented. Furthermore, spatio-temporal features are extracted, and based on the extracted features, at least biometric features and a state of motion of persons are determined as personal characteristics.

Das Verfahren ermöglicht eine besonders robuste Erkennung von Personen, beispielsweise Fußgänger. Aufgrund der Kenntnis biometrischer Eigenschaften der Personen ist eine verbesserte Abschätzung eines Bewegungszustands möglich. Es können auch weitere Merkmale zu einer Erkennung oder Wiedererkennung einzelner Personen zur Verfügung gestellt werden und weiteren Objekte und Subjekte, die eine Person mit sich führt oder die sich in der Nähe einer Zielperson befinden, detektiert werden.The method allows a particularly robust detection of persons, for example pedestrians. Due to the knowledge of biometric characteristics of the persons an improved estimation of a state of motion is possible. Other features may also be provided for recognizing or recognizing individual persons and detecting other objects and subjects that a person carries with him or who are in the vicinity of a target person.

Dabei sind eine Bestimmung einer Größe einer Person, eine Unterscheidung zwischen Kindern und Erwachsenen, eine Unterscheidung, inwieweit eine erkannte Person für eine aktuelle Fahraufgabe eine Fahrzeugs gefährlich werden kann, sowie eine Klassifikation von der Person mitgeführter Gegenstände, wie beispielsweise einer Gehhilfe oder eines Einkaufswagens, möglich.A determination of a person's size, a distinction between children and adults, a distinction as to how far a recognized person for a current driving task a vehicle can be dangerous, as well as a classification of the person carried along items, such as a walker or a shopping cart, possible.

Des Weiteren ermöglicht das Verfahren eine Verbesserung von Klassifikationsalgorithmen sowie eine Detektion von Subjekten und Objekten, eine Wiedererkennung von Subjekten, eine Unterstützung anderer Sensoren bei Klassifikationsaufgaben und eine Bewegungsprädiktion, eine Bestimmung einer Intention eines Subjekts.Furthermore, the method enables an improvement of classification algorithms as well as a detection of subjects and objects, a recognition of subjects, a support of other sensors in classification tasks and a motion prediction, a determination of an intention of a subject.

Auch ist eine besonders robuste Klassifikation von Fußgängern mittels neuer expressiver Merkmale, eine Erkennung von Kindern und somit ein Zuverfügungstellen semantischer Informationen für Assistenzsysteme eines Fahrzeugs möglich.Also, a particularly robust classification of pedestrians by means of new expressive features, a recognition of children and thus a supply of semantic information for assistance systems of a vehicle is possible.

Ferner ermöglicht das Verfahren eine Unterstützung in der Erkennung und Wiedererkennung von bestimmten Personen durch biometrische Eigenschaften, wie beispielsweise einer Gangart, eine Erkennung eines Fahrzeugeigentümers bereits aus großer Entfernung. Beispielsweise können nach einer Wiedererkennung von Personen Komfortfunktionen eines Fahrzeugs, beispielsweise eine automatische Einstellung einer Sitzposition, ein Starten eines Infotainment Systems, eine Ansteuerung einer Heizung, Belüftung und/oder einer Fahrzeugbeleuchtung, aktiviert werden, das Fahrzeug kann geöffnet werden und/oder ein Kofferraum kann geöffnet werden, z. B. nach zusätzlicher Detektion eines Einkaufswagens.Further, the method allows assistance in the recognition and recognition of particular persons by biometric characteristics, such as a gait, recognition of a vehicle owner already from a great distance. For example, after recognition of persons, comfort functions of a vehicle, for example automatic setting of a seat position, starting of an infotainment system, activation of a heating, ventilation and / or vehicle lighting, can be activated, the vehicle can be opened and / or a trunk can be be opened, z. B. for additional detection of a shopping cart.

Weiterhin ist das Verfahren als Unterstützung für Kamerasysteme geeignet, da ein unabhängiger und komplementärer Sensor, d. h. der zumindest eine Radarsensor, verwendet wird. Aufgrund der Verwendung des Radarsensors ist weiterhin eine hohe Robustheit durch Wetterunabhängigkeit gegeben.Furthermore, the method is suitable as a support for camera systems, since an independent and complementary sensor, i. H. the at least one radar sensor is used. Due to the use of the radar sensor is still given a high level of robustness by weather independence.

Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert. Embodiments of the invention are explained in more detail below with reference to drawings.

Dabei zeigen:

  • 1A bis 1C schematisch einen Verfahrensablauf zum Erkennen von Personen und
  • 2 schematisch räumliche Positionen gemessener Radarreflexionen eines Fußgängers.
Showing:
  • 1A to 1C schematically a procedure for recognizing persons and
  • 2 schematically spatial positions of measured radar reflections of a pedestrian.

Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.Corresponding parts are provided in all figures with the same reference numerals.

In den 1A bis 1C ist ein Ablauf eines möglichen Ausführungsbeispiels eines Verfahrens zum Erkennen von Personen P1 bis Pn in einer Umgebung eines Fahrzeugs 1 dargestellt.In the 1A to 1C is a flow of a possible embodiment of a method for recognizing persons P1 to Pn in an environment of a vehicle 1 shown.

Das Fahrzeug 1 umfasst eine Mehrzahl von Radarsensoren 2 bis 5, mittels welchen die Umgebung des Fahrzeugs 1 erfasst wird. Mittels derartigen hochauflösenden Radarsensoren 2 bis 5 können dabei Geschwindigkeiten, Positionen und Radarquerschnitte, auch als RCS-Wert (englisch: radar cross section) bezeichnet, von Objekten O1 bis Om, umfassend auch Subjekte, gemessen werden.The vehicle 1 includes a plurality of radar sensors 2 to 5 , by means of which the environment of the vehicle 1 is detected. By means of such high-resolution radar sensors 2 to 5 speeds, positions and radar cross sections, also known as RCS value (radar cross section) of objects O1 to Om , including subjects, are measured.

Zur Erkennung von Objekten O1 bis Om, insbesondere Personen P1 bis Pn, wird in einem ersten Verfahrensschritt S1 (1A oben) die Umgebung des Fahrzeugs 1 mittels der Radarsensoren 2 bis 5 erfasst.For recognizing objects O1 to Om , especially people P1 to Pn , in a first method step S1 ( 1A above) the environment of the vehicle 1 by means of radar sensors 2 to 5 detected.

Anschließend erfolgt in einem zweiten Verfahrensschritt S2 (1A unten) eine Transformation aller im ersten Verfahrensschritt S1 erfassten Sensordaten D in ein raum-zeitliches Koordinatensystem K mit Raumkoordinaten x, y und einer Zeitkoordinate t.Subsequently, in a second method step S2 ( 1A below) a transformation of all sensor data acquired in the first method step S1 D in a spatio-temporal coordinate system K with space coordinates x . y and a time coordinate t ,

In einem dritten Verfahrensschritt S3 (1B) wird eine raum-zeitliche Identifizierung aller relevanten Objekte O1 bis Om, insbesondere von Personen P1 bis Pn, wie beispielsweise Fußgängern oder Gruppen von Fußgängern, in einer erfassten Szene durchgeführt und es erfolgt eine Zuordnung und Segmentierung von zu den Objekten O1 bis Om gehörigen Radarreflexionen R1 bis Rx.In a third method step S3 ( 1B ) becomes a spatiotemporal identification of all relevant objects O1 to Om , in particular of persons P1 to Pn , such as pedestrians or groups of pedestrians, performed in a captured scene and there is an association and segmentation of the objects O1 to Om associated radar reflections R1 to Rx ,

Die untere Abbildung in 1B zeigt dabei ein Blick aus dem Fahrzeug 1 in die Umgebung mit den Objekten O1 bis Om, wobei das Objekt O1 eine Person P1, insbesondere ein Fußgänger, das Objekt O2 eine Gruppe von Personen Pn-1, Pn, insbesondere Fußgängern, und das Objekt Om ein Fahrzeug 1 ist.The lower picture in 1B shows a view from the vehicle 1 into the environment with the objects O1 to Om , wherein the object O1 is a person P1, in particular a pedestrian, the object O2 is a group of persons Pn- 1 , Pn, especially pedestrians, and the object Om a vehicle 1 is.

Die mittlere Abbildung in 1B zeigt das Fahrzeug 1 in einer Draufsicht und alle mittels der Radarsensoren 2 bis 5 in der Umgebung erfassten Radarreflexionen R1 bis Rx als Punktewolke W sowie die Zuordnung dieser zu den Objekten O1 bis Om.The middle picture in 1B shows the vehicle 1 in a plan view and all by means of the radar sensors 2 to 5 radar reflections detected in the environment R1 to Rx as a point cloud W as well as the assignment of these to the objects O1 to Om ,

Die raum-zeitliche Identifizierung aller relevanten Objekte O1 bis Om erfolgt dabei in einer ersten Ausgestaltung durch Generierung von hochdimensionalen Merkmalsvektoren und/oder Wahrscheinlichkeitsvektoren zu jeder gemessenen Radarreflexion R1 bis Rx. Der Wahrscheinlichkeitsvektor zu jeder einzelnen Radarreflexion R1 bis Rx kann beispielsweise die Wahrscheinlichkeit angeben, dass die gemessene Radarreflexion R1 bis Rx zu einer Objektklasse, wie beispielsweise Fußgänger, Radfahrer, Fahrzeug u. a., gehört. Die Generierung der Merkmalsvektoren und/oder Wahrscheinlichkeitsvektoren erfolgt im dargestellten Ausführungsbeispiel gemäß der oberen Abbildung in 1B mittels tiefen neuronalen Netzen N, beispielsweise rekurrenten Netzen N. Alternativ oder zusätzlich können auch andere Ansätze des maschinellen Lernens verwendet werden.The spatio-temporal identification of all relevant objects O1 to Om takes place in a first embodiment by generating high-dimensional feature vectors and / or probability vectors for each measured radar reflection R1 to Rx , The probability vector for each individual radar reflection R1 to Rx For example, you can specify the probability that the measured radar reflection R1 to Rx to an object class, such as pedestrians, cyclists, vehicle, etc., belongs. The generation of the feature vectors and / or probability vectors takes place in the illustrated embodiment according to the upper illustration in FIG 1B using deep neural networks N for example, recurrent networks N , Alternatively or additionally, other approaches to machine learning may be used.

Anschließend erfolgt basierend auf den zuvor generierten Merkmalsvektoren und/oder Wahrscheinlichkeitsvektoren die Gruppierung der Radarreflexionen R1 bis Rx zu Objekten O1 bis Om. Dadurch wird eine semantische Segmentierung der gesamten raum-zeitlichen Punktewolke W oder Teilen derselben erreicht. Die Segmentierung und/oder Gruppierung kann dabei mittels so genannten unsupervised, semisupervised oder supervised Algorithmen, beispielsweise so genannten Clustering-Algorithmen, erfolgen.Subsequently, the grouping of the radar reflections takes place based on the previously generated feature vectors and / or probability vectors R1 to Rx to objects O1 to Om , This results in a semantic segmentation of the entire space-time point cloud W or parts thereof. The segmentation and / or grouping can take place by means of so-called unsupervised, semi-supervised or supervised algorithms, for example so-called clustering algorithms.

Anschließend wird gemäß einer möglichen Ausgestaltung noch ein Verfeinerungsschritt durchgeführt, welcher die erzeugte Segmentierung verbessert. Dieser Schritt wird beispielsweise mittels tiefer neuronaler Netze N, beispielsweise rekurrenten Netzen N, alternativ oder zusätzlich auch mittels anderen Ansätzen des maschinellen Lernens oder klassischen Algorithmen umgesetzt.Subsequently, according to a possible embodiment, a refinement step is performed which improves the generated segmentation. This step is done, for example, by means of deep neural networks N for example, recurrent networks N , alternatively or additionally implemented by other approaches of machine learning or classical algorithms.

Die raum-zeitliche Identifizierung aller relevanten Objekte O1 bis Om erfolgt in einer zweiten Ausgestaltung dadurch, dass zunächst ein Gruppieren der Radarreflexionen R1 bis Rx zu Objektvorschlägen, insbesondere mittels der so genannten unsupervised, semisupervised oder supervised Algorithmen, beispielsweise so genannten Clustering-Algorithmen, erfolgt und anschließend die Generierung von Merkmalsvektoren und/oder Wahrscheinlichkeitsvektoren aus den gruppierten Reflexionen R1 bis Rx mittels tiefer neuronaler Netze N, beispielsweise rekurrenten Netzen N, alternativ oder zusätzlich auch mittels anderen Ansätzen des maschinellen Lernens erfolgt. Auch hierbei wird eine semantische Segmentierung der gesamten raum-zeitlichen Punktewolke W oder Teilen derselben erreicht. Insbesondere werden dabei Objektvorschläge einer Objektklasse zugeordnet.The spatio-temporal identification of all relevant objects O1 to Om takes place in a second embodiment in that initially a grouping of the radar reflections R1 to Rx to object proposals, in particular by means of the so-called unsupervised, semi-supervised or supervised algorithms, for example, so-called clustering algorithms, and then the generation of feature vectors and / or probability vectors from the grouped reflections R1 to Rx using deep neural networks N for example, recurrent networks N , alternatively or additionally also by means of other approaches of machine learning. Here, too, a semantic segmentation of the entire spatiotemporal point cloud W or parts thereof. In particular, object proposals are assigned to an object class.

Anschließend wird gemäß einer möglichen Ausgestaltung noch ein Verfeinerungsschritt durchgeführt, welcher die erzeugte Segmentierung verbessert. Dieser Schritt wird beispielsweise mittels tiefer neuronaler Netze N, beispielsweise rekurrenten Netzen N, alternativ oder zusätzlich auch mittels anderen Ansätzen des maschinellen Lernens oder klassischen Algorithmen umgesetzt.Subsequently, according to a possible embodiment, a refinement step is performed which improves the generated segmentation. This step is done, for example, by means of deep neural networks N for example, recurrent networks N , alternatively or additionally implemented by other approaches of machine learning or classical algorithms.

In einem vierten Verfahrensschritt S4 (1C obere Abbildung) erfolgt eine Extraktion relevanter raum-zeitlicher Merkmale M1 bis Mz für alle im dritten Verfahrensschritt S3 prädizierten Objekte O1 bis Om.In a fourth method step S4 ( 1C top figure), an extraction of relevant spatiotemporal features takes place M1 to Mz for all objects predicted in the third method step S3 O1 to Om ,

Solche raum-zeitlichen Merkmale M1 bis Mz sind beispielsweise

  • - RCS-Werte,
  • - Histogramme,
  • - Statistische Kenngrößen von Abständen, Winkeln, RCS-Werten und Geschwindigkeiten, wie beispielsweise ein Mittelwert und eine Standardabweichung,
  • - Eigenwerte und Eigenvektoren von Kovarianzmatrizen, wie beispielsweise eine räumliche Kovarianz,
  • - Merkmale von Faltungsoperationen,
  • - Form und Größe von einhüllenden Kurven,
  • - Anzahl von gemessenen Radarreflexionen R1 bis Rx,
  • - raum-zeitliche Korrelationen von Abstand, Winkel, RCS-Werten und Geschwindigkeiten,
  • - Abstand zwischen minimalem und maximalem Wert, beispielsweise RCS-Werten, Winkeln, Geschwindigkeiten, Abständen.
Such space-time characteristics M1 to Mz are for example
  • - RCS values,
  • - histograms,
  • Statistical characteristics of distances, angles, RCS values and speeds, such as an average and a standard deviation,
  • Eigenvalues and eigenvectors of covariance matrices, such as a spatial covariance,
  • Features of convolution operations,
  • - shape and size of enveloping curves,
  • - Number of radar reflections measured R1 to Rx .
  • - spatio-temporal correlations of distance, angle, RCS values and velocities,
  • - Distance between minimum and maximum value, for example RCS values, angles, speeds, distances.

Die Extraktion der relevanten raum-zeitlichen Merkmale M1 bis Mz erfolgt dabei anhand von Expertenwissen oder über das Lernen von Merkmalen M1 bis Mz durch einen verwendeten Algorithmus, beispielsweise durch tiefe neuronale Netze N.The extraction of the relevant spatiotemporal features M1 to Mz takes place on the basis of expert knowledge or about the learning of characteristics M1 to Mz by a used algorithm, for example by deep neural networks N ,

Unter der Extraktion von Merkmalen M1 bis Mz anhand von Expertenwissen wird vorliegend verstanden, dass erfahrene Wissenschaftler durch ihre Erfahrung und Experimente festlegen, welche Merkmale M1 bis Mz für eine Unterscheidung in der jeweiligen Aufgabe wichtig sind. Beispielsweise können für eine Klassifikation eines Objektvorschlags statistische Größen, wie z. B. ein mittlerer Abstand aller gemessenen Radarreflexionen R1 bis Rx des jeweiligen Objekts O1 bis Om, eine Standardabweichung eigenbewegungskompensierter Dopplergeschwindigkeiten oder höhere Momente von Messgrößen verwendet werden. Der Wissenschaftler hat vorab bestimmt, welche Größen für die Aufgabe wichtig sind.Under the extraction of features M1 to Mz In the present case, it is understood by expert knowledge that experienced scientists determine by their experience and experiments which features M1 to Mz important for a distinction in the respective task. For example, for a classification of an object proposal statistical variables such. B. a mean distance of all measured radar reflections R1 to Rx of the respective object O1 to Om , a standard deviation of self-motion compensated Doppler velocities or higher moments of measured quantities can be used. The scientist has determined in advance which quantities are important for the task.

In einem fünften Verfahrensschritt S5 (1C untere Abbildung) erfolgt anhand der im vierten Verfahrensschritt S4 extrahierten Merkmale M1 bis Mz eine Bestimmung von Personeneigenschaften E von erfassten Personen P1 bis Pn, wobei die Personeneigenschaften E zumindest biometrische Merkmale und einen Bewegungszustand der Personen P1 bis Pn umfassen.In a fifth method step S5 ( 1C lower figure) takes place on the basis of the features extracted in the fourth method step S4 M1 to Mz a determination of personal characteristics e of registered persons P1 to Pn , where the personal characteristics e at least biometric features and a state of movement of the persons P1 to Pn include.

Die biometrischen Merkmale umfassen beispielsweise

  • - eine Schrittweite,
  • - eine Körpergröße,
  • - eine Gangart,
  • - einen Altersbereich (Kind vs. Erwachsener),
  • - eine Bekleidung.
The biometric features include, for example
  • a step size,
  • - a height,
  • - a gait,
  • - one age range (child vs. adult),
  • - a clothing.

Der Bewegungszustand wird beispielsweise anhand eines Bewegungsmusters und/oder einer mittleren Geh-Geschwindigkeit ermittelt.The state of motion is determined, for example, on the basis of a movement pattern and / or an average walking speed.

Des Weiteren können als Personeneigenschaften E auch mitgeführte Gegenstände und/oder Subjekte, wie beispielsweise Taschen, Gepäck, zusätzliche Objekte wie Einkaufs- und Kinderwagen, Kinder und Tiere, erfasst werden.Furthermore, as a person properties e also entrained objects and / or subjects, such as bags, luggage, additional objects such as shopping and strollers, children and animals are recorded.

Das Verfahren ermöglicht eine Verwendung der gewonnenen Informationen für Klassifikation- oder Trackingapplikationen. Auch lassen sich aus den gemessen Sensordaten D noch weitere Informationen, insbesondere die Personeneigenschaften E, extrahieren, die eine genauere Beschreibung von Personen P1 bis Pn, beispielsweise von Fußgängern, ermöglichen. Diese Informationen können in Assistenzsystemen des Fahrzeugs 1 verwendet werden, um zum Beispiel eine genauere Prädiktion der Bewegung der Personen P1 bis Pn zu ermöglichen. Auch ist es möglich, durch eine robuste Klassifikation der Gangart als biometrische Personeneigenschaft E einen Eigentümer des Fahrzeugs 1 zu erkennen oder die Gangart als zusätzliches Merkmal M1 bis Mz für eine biometrische Erkennung zu verwenden. Auch kann eine Bewegungsintention einer Person P1 bis Pn, insbesondere eines Fußgängers, bestimmt und/oder nach der (Wieder-)Erkennung einer Person P1 bis Pn verschiedene Aktionen ausgelöst werden.The method allows use of the obtained information for classification or tracking applications. Also, can be measured from the sensor data D even more information, especially the personal characteristics e to extract a more accurate description of persons P1 to Pn for example, by pedestrians. This information can be found in vehicle assistance systems 1 used, for example, a more accurate prediction of the movement of persons P1 to Pn to enable. Also, it is possible by a robust classification of gait as a biometric personality property e an owner of the vehicle 1 to recognize or the gait as an additional feature M1 to Mz to use for biometric recognition. Also may be a movement intention of a person P1 to Pn , in particular a pedestrian, determined and / or after the (re) recognition of a person P1 to Pn different actions are triggered.

2 zeigt räumliche Positionen gemessener Radarreflexionen R1 bis Rx einer als Fußgänger ausgebildeten Person P1 bis Pn mit einer zugehörigen, insbesondere farblich kodierten Geschwindigkeit v der jeweiligen Radarreflexion R1 bis Rx. 2 shows spatial positions of measured radar reflections R1 to Rx a person trained as a pedestrian P1 to Pn with a associated, in particular color coded speed v the respective radar reflection R1 to Rx ,

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
Fahrzeugvehicle
2 bis 52 to 5
Radarsensor radar sensor
DD
Sensordatensensor data
Ee
Personeneigenschaftpersonal property
KK
Koordinatensystemcoordinate system
M1 bis MzM1 to Mz
Merkmalfeature
NN
Netznetwork
O1 bis OmO1 to Om
Objektobject
P1 bis PnP1 to Pn
Personperson
R1 bis RxR1 to Rx
Radarreflexionradar reflectivity
S1 bis S5S1 to S5
Verfahrensschrittstep
tt
Zeitkoordinatetime coordinate
vv
Geschwindigkeitspeed
WW
Punktewolkepoint cloud
x, yx, y
Raumkoordinatespatial coordinate

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102016215102 A1 [0002]DE 102016215102 A1 [0002]
  • DE 4404775 C1 [0003]DE 4404775 C1 [0003]

Claims (3)

Verfahren zum Erkennen von Personen (P1 bis Pn) anhand von mittels zumindest eines Radarsensors (2 bis 5) erfasster Sensordaten (D), wobei eine Umgebung mittels zumindest eines Radarsensors (2 bis 5) erfasst wird, dadurch gekennzeichnet, dass - die mittels des Radarsensors (2 bis 5) erfassten Sensordaten (D) in ein raum-zeitliches Koordinatensystem (K) transformiert werden, - in dem Koordinatensystem (K) eine raum-zeitliche Identifizierung von Personen (P1 bis Pn) durchgeführt und den Personen (P1 bis Pn) zugehörige Radarreflexionen (R1 bis Rx) zugeordnet und die Radarreflexionen (R1 bis Rx) segmentiert werden, - raum-zeitliche Merkmale (M1 bis Mz) extrahiert werden und - anhand der extrahierten Merkmale (M1 bis Mz) als Personeneigenschaften (E) zumindest biometrische Merkmale und ein Bewegungszustand von Personen (P1 bis Pn) bestimmt werden.Method for detecting persons (P1 to Pn) on the basis of sensor data (D) detected by at least one radar sensor (2 to 5), wherein an environment is detected by at least one radar sensor (2 to 5), characterized in that - by means of Radar sensor (2 to 5) detected sensor data (D) are transformed into a spatiotemporal coordinate system (K), - in the coordinate system (K) a spatiotemporal identification of persons (P1 to Pn) performed and the persons (P1 to Pn associated radar reflections (R1 to Rx) are assigned and the radar reflections (R1 to Rx) are segmented, - spatiotemporal features (M1 to Mz) are extracted and - based on the extracted features (M1 to Mz) as person characteristics (E) at least biometric Characteristics and a state of movement of persons (P1 to Pn) are determined. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass bei der raum-zeitlichen Identifizierung von Personen (P1 bis Pn) - hochdimensionale Merkmalsvektoren und/oder Wahrscheinlichkeitsvektoren zu jeder gemessenen Radarreflexion (R1 bis Rx) generiert werden und - anschließend in der Segmentierung die Radarreflexionen (R1 bis Rx) anhand der Merkmalsvektoren und/oder Wahrscheinlichkeitsvektoren zu Personen (P1 bis Pn) gruppiert werden.Method according to Claim 1 , characterized in that in the spatiotemporal identification of persons (P1 to Pn) - high-dimensional feature vectors and / or probability vectors for each measured radar reflection (R1 to Rx) are generated and - then in the segmentation of the radar reflections (R1 to Rx) based the feature vectors and / or probability vectors are grouped into persons (P1 to Pn). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass bei der raum-zeitlichen Identifizierung von Personen (P1 bis Pn) - die Radarreflexionen (R1 bis Rx) mittels zumindest eines unsupervised, semisupervised oder supervised Algorithmus zu Objektvorschlägen gruppiert werden und - anschließend Merkmalsvektoren und/oder Wahrscheinlichkeitsvektoren aus den gruppierten Radarreflexionen (R1 bis Rx) mittels tiefer neuronaler Netze (N) oder mittels Ansätzen des maschinellen Lernens erzeugt werden.Method according to Claim 1 , characterized in that in the space-time identification of persons (P1 to Pn) - the radar reflections (R1 to Rx) are grouped by means of at least one unsupervised, semisupervised or supervised algorithm to object proposals and - then feature vectors and / or probability vectors from the grouped Radar reflections (R1 to Rx) are generated by means of deep neural networks (N) or by means of machine learning approaches.
DE102018002521.8A 2018-03-27 2018-03-27 Method for recognizing persons Withdrawn DE102018002521A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018002521.8A DE102018002521A1 (en) 2018-03-27 2018-03-27 Method for recognizing persons

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018002521.8A DE102018002521A1 (en) 2018-03-27 2018-03-27 Method for recognizing persons

Publications (1)

Publication Number Publication Date
DE102018002521A1 true DE102018002521A1 (en) 2018-09-13

Family

ID=63258929

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018002521.8A Withdrawn DE102018002521A1 (en) 2018-03-27 2018-03-27 Method for recognizing persons

Country Status (1)

Country Link
DE (1) DE102018002521A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111199555A (en) * 2019-12-13 2020-05-26 意诺科技有限公司 Millimeter wave radar target identification method
EP3828758A1 (en) 2019-11-29 2021-06-02 Volkswagen Ag Object classification method, object classification circuit, motor vehicle
EP4220217A1 (en) * 2022-01-26 2023-08-02 Robert Bosch GmbH Method and device for segmenting radar data, and driver assistance system
EP4246183A1 (en) * 2022-03-18 2023-09-20 Robert Bosch GmbH Method and device for segmenting radar data

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3828758A1 (en) 2019-11-29 2021-06-02 Volkswagen Ag Object classification method, object classification circuit, motor vehicle
DE102019218613B4 (en) 2019-11-29 2021-11-11 Volkswagen Aktiengesellschaft Object classification method, object classification circuit, motor vehicle
CN111199555A (en) * 2019-12-13 2020-05-26 意诺科技有限公司 Millimeter wave radar target identification method
CN111199555B (en) * 2019-12-13 2023-10-13 意诺科技有限公司 Millimeter wave radar target identification method
EP4220217A1 (en) * 2022-01-26 2023-08-02 Robert Bosch GmbH Method and device for segmenting radar data, and driver assistance system
EP4246183A1 (en) * 2022-03-18 2023-09-20 Robert Bosch GmbH Method and device for segmenting radar data

Similar Documents

Publication Publication Date Title
EP3682367B1 (en) Gesture control for communication with an autonomous vehicle on the basis of a simple 2d camera
DE102018119239B4 (en) USER RECOGNITION SYSTEM AND METHOD FOR AUTONOMOUS VEHICLES
DE102018002521A1 (en) Method for recognizing persons
DE102018116111B4 (en) A unified deep convolutional neural network for free space estimation, object recognition estimation, and object pose estimation
DE102017220307B4 (en) Device and method for recognizing traffic signs
DE102014210820B4 (en) Method for detecting large and passenger vehicles from fixed cameras
Navalpakkam et al. A goal oriented attention guidance model
EP2189955B1 (en) Sensor network system, transfer protocol, method for recognising an object and computer program
DE102017217056A1 (en) Method and device for operating a driver assistance system and driver assistance system and motor vehicle
DE19831413C2 (en) Image processing methods and devices for recognizing objects in traffic
DE102018123112A1 (en) Image processing device and program
WO2018215031A1 (en) Method for detecting objects in an image of a camera
DE102018133441A1 (en) Method and system for determining landmarks in the surroundings of a vehicle
EP3657386A1 (en) Method and system for supporting an automated moving vehicle
DE112017007724T5 (en) System and method for tracking objects in a temporal sequence of digital images
DE102019125094A1 (en) Method for monitoring the underbody of a vehicle
DE102012000459A1 (en) Method for detecting object e.g. vehicle in surrounding area, involves transforming segments with classification surfaces into two-dimensional representation of environment, and searching and classifying segments in representation
DE102022120332A1 (en) 3D OBJECT RECOGNITION PROCESS USING THE SYNERGY OF HETEROGENE SENSORS FOR AUTONOMOUS DRIVING
DE102020117555A1 (en) METHOD AND DEVICE FOR INTRIBUTOR CLASSIFICATION
DE102020200499A1 (en) Method for generating labeled data, in particular for training a neural network, using unlabeled, partitioned samples
DE102021003567A1 (en) Process for the recognition of object relationships and attributions from sensor data
EP2359308B1 (en) Device for creating and/or processing an object signature, monitoring device, method and computer program
DE102019204187A1 (en) Classification and temporal recognition of tactical driving maneuvers by road users
DE102019214217B4 (en) Computer-implemented method for machine learning of a weather, control unit for automated driving functions, monitoring system for a vehicle and method and computer program product for determining a weather
DE102014007994A1 (en) Method for detecting light signals from road users

Legal Events

Date Code Title Description
R230 Request for early publication
R081 Change of applicant/patentee

Owner name: DAIMLER AG, DE

Free format text: FORMER OWNER: DAIMLER AG, 70327 STUTTGART, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee