DE102022209561A1 - System for detecting the pedestrian intention ahead of a pedestrian in an environment, vehicle and traffic monitoring system - Google Patents

System for detecting the pedestrian intention ahead of a pedestrian in an environment, vehicle and traffic monitoring system Download PDF

Info

Publication number
DE102022209561A1
DE102022209561A1 DE102022209561.8A DE102022209561A DE102022209561A1 DE 102022209561 A1 DE102022209561 A1 DE 102022209561A1 DE 102022209561 A DE102022209561 A DE 102022209561A DE 102022209561 A1 DE102022209561 A1 DE 102022209561A1
Authority
DE
Germany
Prior art keywords
pedestrian
designed
posture
vehicle
skeleton model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022209561.8A
Other languages
German (de)
Inventor
Roland Amann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102022209561.8A priority Critical patent/DE102022209561A1/en
Priority to PCT/EP2023/075082 priority patent/WO2024056698A1/en
Publication of DE102022209561A1 publication Critical patent/DE102022209561A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein System (1) zur Erkennung der vorausliegenden Fußgängerintension eines Fußgängers in einem Umfeld des Systems (1) umfassendein Sensorsystem (3) zum Erfassen von 3D-Umfelddaten von Objekten in dem Umfeld als Einzelaufnahme,und einem Extraktionsmodul (4), welches zum Extrahieren von Fußgängern aus den 3D-Umfelddaten als 3D-Objektdaten ausgebildet ist,wobei eine Verarbeitungseinheit (5) vorgesehen ist, welche dazu ausgebildet ist, eine Simulation eines jeweiligen Fußgängers als Skelettmodell aus den 3D-Objektdaten zu generieren,sowie eine Bestimmungseinheit (14) vorgesehen ist, welche dazu ausgebildet ist,zumindest die Körperhaltung eines jeweiligen Fußgängers aus dem Skelettmodell zu bestimmen,und ein Verhaltensschätzer (6) vorgesehen ist, welcher dazu ausgebildet ist, anhand der Körperhaltung eine vorausliegende Fußgängerintension zu bestimmen.The invention relates to a system (1) for detecting the pedestrian intention of a pedestrian ahead in an environment of the system (1), comprising a sensor system (3) for recording 3D environmental data of objects in the environment as a single image, and an extraction module (4), which for extracting pedestrians from the 3D environmental data as 3D object data, a processing unit (5) being provided which is designed to generate a simulation of a respective pedestrian as a skeleton model from the 3D object data, and a determination unit (14 ) is provided, which is designed to determine at least the posture of a respective pedestrian from the skeleton model, and a behavior estimator (6) is provided, which is designed to determine a pedestrian intention ahead based on the posture.

Description

Die Erfindung betrifft ein System zur Erkennung der vorausliegenden Fußgängerintension eines Fußgängers in einem Umfeld des Systems umfassend ein Sensorsystem zum Erfassen von 3D-Umfelddaten von Objekten in dem Umfeld als Einzelaufnahme, und ein Extraktionsmodul, welches zum Extrahieren von Fußgängern aus den 3D-Umfelddaten als 3D-Objektdaten ausgebildet ist. Ferner betrifft die Erfindung ein Fahrzeug und ein Verkehrsüberwachungssystem mit einem solchen System sowie ein Verfahren.The invention relates to a system for detecting the pedestrian intention of a pedestrian ahead in an environment of the system, comprising a sensor system for acquiring 3D environmental data of objects in the environment as a single image, and an extraction module which is used to extract pedestrians from the 3D environmental data as 3D -Object data is formed. The invention further relates to a vehicle and a traffic monitoring system with such a system and a method.

Die Vermeidung von Zusammenstößen zwischen Fahrzeugen und Fußgängern ist eine wichtige Voraussetzung für automatisierte Fahrerassistenzsysteme (ADAS) und zukünftige selbstfahrende Fahrzeuge. Dazu werden in der Regel entsprechende Sensoren vorgesehen, mit denen der Verkehrsteilnehmer messtechnisch erfasst wird.Avoiding collisions between vehicles and pedestrians is an important requirement for automated driver assistance systems (ADAS) and future self-driving vehicles. For this purpose, appropriate sensors are usually provided with which the road user is measured.

Autonomes Fahren hat jedoch die Herausforderung, dass es verlässlich und konstant vorhersagen muss, wie sich die Straßenverkehrssituationen in den nächsten 1 bis 2 Sekunden entwickeln. Insbesondere bei der Vorhersage von Fußgängerintensionen stellt sich diese Aufgabe als nicht trivial dar.However, autonomous driving has the challenge of reliably and constantly predicting how road traffic situations will develop in the next 1 to 2 seconds. This task is particularly non-trivial when it comes to predicting pedestrian intentions.

Viele bisherige Studien und Lösungsansätze zu dieser Problematik nehmen Vergangenheitsdaten, wie Geschwindigkeit und Trajektorie eines Fußgängers anhand von einer Sequenz von Bildern über die letzten Sekunden auf, um eine Prädiktion über die nahe Zukunft vorherzusagen. Wertet man die Simulationswerte mit den Echtdaten aus, so kommen diese Ansätze auf eine Verlässlichkeit von ca. 70-80%. Dies erfordert jedoch eine Sequenz von Bildern und benötigt eine entsprechend lange Auswertung.Many previous studies and approaches to solving this problem record past data, such as the speed and trajectory of a pedestrian, based on a sequence of images over the last few seconds in order to predict the near future. If you evaluate the simulation values with the real data, these approaches achieve a reliability of around 70-80%. However, this requires a sequence of images and requires a correspondingly long evaluation.

Für eine Verwendung in einem System eines autonom betreibbaren Fahrzeugs ist jedoch eine sehr viel höhere Verlässlichkeit der Vorhersage in Verbindung mit einer schnellen Auswertung notwendig.However, for use in a system of an autonomously operated vehicle, a much higher reliability of the prediction in conjunction with rapid evaluation is necessary.

Die DE 10 2013 203239A1 offenbart ein gridbasiertes Verfahren und eine Vorrichtung zur Vorhersage der Position eines Objekts im Umfeld eines Fahrzeugs, umfassend: Bereitstellen eines ersten Rasters, umfassend Zellen, die jeweils einen Abschnitt des Umfelds repräsentieren; Bestimmen der Wahrscheinlichkeit für jede Zelle des ersten Rasters, dass sich das Objekt oder ein Teil davon in dem Abschnitt des Umfelds befindet, der durch die jeweilige Zelle repräsentiert wird; Bereitstellen eines zweiten Rasters, umfassend Zellen, die jeweils einen Abschnitt des Umfelds repräsentieren; Bestimmen der Wahrscheinlichkeit für jede Zelle des zweiten Rasters, dass sich das Objekt oder ein Teil davon zu einem vorbestimmten Zeitpunkt in der Zukunft in dem Abschnitt des Umfelds befinden wird, der durch die jeweilige Zelle repräsentiert wird.The DE 10 2013 203239A1 discloses a grid-based method and apparatus for predicting the position of an object in the environment of a vehicle, comprising: providing a first grid comprising cells each representing a portion of the environment; determining the probability for each cell of the first grid that the object or a portion thereof is located in the portion of the environment represented by the respective cell; providing a second grid comprising cells each representing a portion of the environment; Determining the probability for each cell of the second grid that the object or a portion thereof will be in the portion of the environment represented by the respective cell at a predetermined time in the future.

Es ist eine Aufgabe der Erfindung ein verbessertes und schnelleres System zur Erkennung der vorausliegenden Fußgängerintension eines Fußgängers anzugeben. Eine weitere Aufgabe ist es ein Fahrzeug und ein Verkehrsüberwachungssystem mit einem solchen System sowie ein Verfahren anzugeben.It is an object of the invention to provide an improved and faster system for recognizing the pedestrian intention of a pedestrian ahead. Another task is to specify a vehicle and a traffic monitoring system with such a system as well as a method.

Die Aufgabe wird gelöst durch ein System mit den Merkmalen des Anspruchs 1 sowie ein Fahrzeug mit den Merkmalen des Anspruchs 10 und ein Verkehrsüberwachungssystem mit den Merkmalen des Anspruchs 13 und ein Verfahren mit den Merkmalen des Anspruchs 15.The task is solved by a system with the features of claim 1 and a vehicle with the features of claim 10 and a traffic monitoring system with the features of claim 13 and a method with the features of claim 15.

In den Unteransprüchen sind weitere vorteilhafte Maßnahmen aufgelistet, die geeignet miteinander kombiniert werden können, um weitere Vorteile zu erzielen.The subclaims list further advantageous measures that can be suitably combined with one another to achieve further advantages.

Die Aufgabe wird gelöst durch ein System zur Erkennung der vorausliegenden Fußgängerintension eines Fußgängers in einem Umfeld des Systems umfassend ein Sensorsystem zum Erfassen von 3D-Umfelddaten von Objekten in dem Umfeld als Einzelaufnahme,
und ferner umfassend ein Extraktionsmodul, welches zum Extrahieren von Fußgängern aus den 3D-Umfelddaten als 3D-Objektdaten ausgebildet ist,
wobei eine Verarbeitungseinheit vorgesehen ist, welche dazu ausgebildet ist, eine Simulation eines jeweiligen Fußgängers als Skelettmodell aus den 3D-Objektdaten zu generieren,
sowie eine Bestimmungseinheit vorgesehen ist, welche dazu ausgebildet ist, zumindest die Körperhaltung eines jeweiligen Fußgängers aus dem Skelettmodell zu bestimmen,
und ein Verhaltensschätzer vorgesehen ist, welcher dazu ausgebildet ist, anhand der Körperhaltung eine vorausliegende Fußgängerintension zu bestimmen.
The task is solved by a system for detecting the pedestrian intention of a pedestrian ahead in an environment of the system comprising a sensor system for recording 3D environmental data of objects in the environment as a single recording,
and further comprising an extraction module which is designed to extract pedestrians from the 3D environmental data as 3D object data,
wherein a processing unit is provided which is designed to generate a simulation of a respective pedestrian as a skeleton model from the 3D object data,
and a determination unit is provided which is designed to determine at least the posture of a respective pedestrian from the skeleton model,
and a behavior estimator is provided, which is designed to determine a pedestrian intention ahead based on body posture.

Dabei kann ein solches Sensorsystem beispielsweise in einem autonomen oder hoch-assistierten Fahrzeug mindestens zwei Monokameras und ein Radar umfassen, welche die Bilddaten und die notwendigen Tiefen als 3D-Objektdaten als Einzelbild bereitstellen.Such a sensor system, for example in an autonomous or highly assisted vehicle, can include at least two mono cameras and a radar, which provide the image data and the necessary depths as 3D object data as a single image.

Eine Einzelaufnahme ist ein Einzelbild beispielsweise eine einzelne Gesamtaufnahme der vorhandenen Sensoren von dem Umfeld; wobei im Gegensatz dazu die Sequenz von Aufnahmen steht.A single image is a single image, for example a single overall image of the environment from the existing sensors; In contrast to this is the sequence of recordings.

Durch die 3D-Objektdaten kann eine Simulation des Fußgängers als Skelettmodell generiert werden. Anhand dieser bestimmt die Bestimmungseinheit die Körperhaltung aus dem Skelettmodell.The 3D object data can be used to generate a simulation of the pedestrian as a skeleton model the. The determination unit uses this to determine the posture from the skeleton model.

Ferner wird mittels des Verhaltensschätzers, anhand der Körperhaltung eine vorausliegende Fußgängerintension, beispielsweise geradeaus gehen, stehen bleiben, abbiegen, generiert.Furthermore, using the behavior estimator, a pedestrian intention ahead, for example going straight, stopping, turning, is generated based on the body posture.

Dabei kann es sich bei dem Skelettmodell insbesondere nicht um ein genaues anatomisches Modell handeln, sondern eher um ein schematisches Skelettmodell handeln.In particular, the skeletal model may not be a precise anatomical model, but rather a schematic skeletal model.

Durch die Bestimmung lediglich eines Skelettmodells anhand eines Einzelbildes ist eine schnelle Auswertung der 3D-Objektdaten möglich. Erfindungsgemäß kann nun aus der Körperhaltung als empirischer biomechanischer Wert mit sehr hoher Wahrscheinlichkeit vorhergesagt werden, welche Bewegungen ein Fußgänger in naher Zukunft ausführt. So ist beispielsweise aus der Biomechanik bekannt, dass bei gewissen Körperhaltungen, beispielsweise einem bestimmten Winkel des Überkörpers oder bestimmten Positionen des Beines eine Vorwärtsbewegung unvermeidbar ist und somit eineindeutig bestimmt werden kann. Durch die aktuelle Körperhaltung aller Fußgänger in der Umgebung können nun die vorausliegenden Bewegungen / vorausliegenden Intentionen der Fußgänger verlässlich mit der notwendigen Schnelligkeit erkannt werden. Dies ist beispielsweise wichtig, wenn das System in einem autonom fahrenden Fahrzeug, insbesondere einem Fahrzeug ab Autonomielevel vier, zum Einsatz kommt.By determining just one skeleton model based on a single image, a quick evaluation of the 3D object data is possible. According to the invention, the body posture can now be used as an empirical biomechanical value to predict with a very high degree of probability which movements a pedestrian will perform in the near future. For example, it is known from biomechanics that with certain postures, for example a certain angle of the upper body or certain positions of the leg, a forward movement is unavoidable and can therefore be clearly determined. Thanks to the current posture of all pedestrians in the area, the movements/intentions of the pedestrians ahead can now be reliably recognized with the necessary speed. This is important, for example, if the system is used in an autonomous vehicle, especially a vehicle with autonomy level four or higher.

Durch das erfindungsgemäße System ist eine Aufnahme einer Bewegungssequenz eines Fußgängers zur Bestimmung der Fußgängerintension nicht notwendig. Insbesondere kann das System bei vorhandenen Sensorsystem auch nachgerüstet werden, d.h. dass das Extraktionsmodul, die Verarbeitungseinheit, die Bestimmungseinheit und der Verhaltensschätzer als Softwaremodul ausgebildet sein können, welche leicht nachzurüsten sind.Due to the system according to the invention, it is not necessary to record a movement sequence of a pedestrian to determine the pedestrian intention. In particular, the system can also be retrofitted with existing sensor systems, i.e. the extraction module, the processing unit, the determination unit and the behavior estimator can be designed as a software module, which can be easily retrofitted.

In weiterer Ausgestaltung kann das Skelettmodell mittels eines neuronalen Netzes aus den 3D-Objektdaten generiert werden, beispielsweise eines Convolutional Neural Network, welches häufig zur Bildverarbeitung eingesetzt wird.In a further embodiment, the skeleton model can be generated from the 3D object data using a neural network, for example a convolutional neural network, which is often used for image processing.

In weiterer Ausbildung ist der Verhaltensschätzer als ein künstliches maschinelles Lernverfahren ausgebildet, welches dazu ausgebildet ist, anhand der erkannten Körperhaltung eine Fußgängerintension eines jeweiligen Fußgängers zu ermitteln. Dabei kann ein solches künstliches maschinelles Lernverfahren beispielsweise ein künstliches neuronales Netz sein, welches mit entsprechenden Trainingsdaten antrainiert wurde. Diese sind beispielsweise mittels Simulation leicht zu erstellen. In weiterer Ausbildung kann ein solches neuronales Netz während beispielsweise der Fahrt weiter trainiert werden und damit ständig verbessert werden.In further training, the behavior estimator is designed as an artificial machine learning method, which is designed to determine a pedestrian intention of a respective pedestrian based on the recognized posture. Such an artificial machine learning method can be, for example, an artificial neural network that has been trained with appropriate training data. These are easy to create, for example, using simulation. In further training, such a neural network can be further trained while driving, for example, and thus constantly improved.

In weiterer Ausbildung umfasst der Verhaltensschätzer ferner eine Speichereinheit, in der zu verschiedenen Referenzkörperhaltungen verschiedene Referenzfußgängerintensionen gespeichert sind, wobei die Referenzfußgängerintensionen zumindest beabsichtigte Fußgängerpositionswechsel umfassen, und wobei der Verhaltensschätzer eine Auswerteeinheit umfasst, welche dazu ausgebildet ist, die Körperhaltung des Fußgängers mit der Referenzkörperhaltung abzugleichen zur Bestimmung vorausliegender Fußgängerintensionen.In a further embodiment, the behavior estimator further comprises a storage unit in which different reference pedestrian intentions are stored for different reference postures, wherein the reference pedestrian intentions include at least intended pedestrian position changes, and wherein the behavior estimator comprises an evaluation unit which is designed to compare the posture of the pedestrian with the reference posture Determination of pedestrian intentions ahead.

Dadurch ist ein schneller Abgleich beispielsweise durch einen einfachen Soll/Ist Vergleich mit der erkannten Körperhaltung mit einer Referenzkörperhaltung möglich. Insbesondere können das maschinelle Lernverfahren und ein solcher Verhaltensschätzer mit einer Speichereinheit und einer Auswerteeinheit auch zusammenwirken, so dass beispielsweise nicht gespeicherte Referenzkörperhaltungen anhand des beispielsweise neuronalen Netzes erkannt werden, oder dass Körperhaltungen anhand des neuronalen Netzes zu einer gespeicherten Referenzkörperhaltung zugeordnet werden, bei beispielsweise unscharfer Erfassung.This makes a quick comparison possible, for example through a simple target/actual comparison with the recognized posture with a reference posture. In particular, the machine learning method and such a behavior estimator can also interact with a storage unit and an evaluation unit, so that, for example, non-stored reference postures are recognized using the neural network, for example, or that postures are assigned to a stored reference posture using the neural network, for example with blurred detection .

In weiterer Ausbildung umfasst die Referenzkörperhaltung zumindest eine Handy-Haltung oder das maschinelle Lernverfahren ist dazu ausgebildet, anhand der erkannten Körperhaltung eine solche Handy-Haltung zu identifizieren. Eine solche Handy-Haltung umfasst meistens einen gebeugten Rücken/geneigten Kopf und einen erhobenen Unterarm. Dabei ist mit Handy-Haltung eine Haltung gemeint, mit der der Fußgänger beim Gehen oder Stehen auf das Display eines mobilen Endgerätes schaut.In a further embodiment, the reference posture includes at least a cell phone posture or the machine learning method is designed to identify such a cell phone posture based on the recognized posture. Such a cell phone posture usually involves a bent back/tilted head and a raised forearm. Cell phone posture refers to a posture in which the pedestrian looks at the display of a mobile device while walking or standing.

In weiterer Ausbildung ist das System dazu ausgebildet, bei Bestimmung einer Handy-Haltung dem entsprechenden Fußgänger eine verminderte Aufmerksamkeit zuzuordnen. Insbesondere kann ein Fahrzeug bzw. ein Fahrerassistenzsystem oder Perzeptionssystem eines zumindest teilweise autonom betreibbaren Fahrzeugs entsprechend auf die verminderte Aufmerksamkeit reagieren, beispielsweise die Fahrgeschwindigkeit reduzieren / (Not)Bremsmanöver vorbereiten oder mittels Warnton auf sich aufmerksam machen.In further development, the system is designed to assign reduced attention to the corresponding pedestrian when determining the cell phone posture. In particular, a vehicle or a driver assistance system or perception system of a vehicle that can be operated at least partially autonomously can react accordingly to the reduced level of attention, for example reducing the driving speed / preparing (emergency) braking maneuvers or drawing attention to itself using a warning tone.

In weiterer Ausbildung ist das System dazu ausgebildet, verschiedene erkannte Skelettmodellgrößen einem unterschiedlichen Alter der Fußgänger zuzuordnen. Dabei können solche Skelettmodellgrößen durch die Verarbeitungseinheit bei Generierung der Skelettmodelle aus den 3D- Objektdaten automatisch mitgeliefert werden. Insbesondere kann ein Schwellenwert festgelegt werden, beispielsweise eine geringe Größe bis 1,20m, anhand dessen dem Fußgänger der Status „Kind“ zugeordnet wird.
So kann beispielsweise ein autonomes Fahrzeug mit einem solchen integrierten System bei Rücklieferung eines solchen Status „Kind“ entsprechend reagieren, beispielsweise die Geschwindigkeit herabsenken, Bremsvorbereitungen treffen etc.
In further training, the system is designed to assign different recognized skeleton model sizes to different pedestrian ages. Such skeleton model sizes can be generated by the processing unit the skeleton models from the 3D object data are automatically supplied. In particular, a threshold value can be set, for example a small height of up to 1.20 m, based on which the pedestrian is assigned the status “child”.
For example, an autonomous vehicle with such an integrated system can react accordingly when such a “child” status is returned, for example reducing the speed, making preparations for braking, etc.

In weiterer Ausbildung umfasst das Skelettmodell zumindest verschiedene Skelettmodellmerkmale, wobei als Skelettmodellmerkmale zumindest die Beine, die Arme, der Rumpf und der Kopf und der Hals schematisch umfasst sind, und wobei der Verhaltensschätzer dazu ausgebildet ist, die Körperhaltung eines jeweiligen Fußgängers anhand der Skelettmodellmerkmale zu bestimmen. Dabei können solche Skelettmodellmerkmale herangezogen werden, um eine schnelle Körperhaltung zu identifizieren; auf eine genaue anatomische Darstellung wie Hände oder eine genaue Darstellung aller Körperelemente etc. kann beispielsweise verzichtet werden, was wiederum zur Schnelligkeit des Systems beiträgt.In a further embodiment, the skeleton model comprises at least various skeleton model features, wherein at least the legs, the arms, the torso and the head and the neck are schematically included as skeleton model features, and wherein the behavior estimator is designed to determine the posture of a respective pedestrian based on the skeleton model features . Such skeletal model features can be used to identify fast posture; For example, a precise anatomical representation such as hands or a precise representation of all body elements etc. can be dispensed with, which in turn contributes to the speed of the system.

Insbesondere kann ein dem System zugewandtes oder abgewandtes Gesicht erfasst werden. Anhand eines solchen zugewandten Gesichtes kann beispielsweise, wenn das System in einem Fahrzeug integriert ist, erkannt werden, ob der Fußgänger das Fahrzeug realisiert / wahrgenommen hat. Diese Information kann beispielsweise bei einem autonom fahrenden Fahrzeug zur Generierung der Trajektorie herangezogen werden, beispielsweise hinsichtlich der Geschwindigkeit an Bushaltestellen/S-Bahn-Stationen, an welchen Fußgänger öfters unaufmerksam die Straße überqueren, um beispielsweise den Bus noch zu erreichen.In particular, a face facing or facing away from the system can be detected. Based on such a facing face, for example, if the system is integrated in a vehicle, it can be recognized whether the pedestrian has recognized/perceived the vehicle. This information can be used, for example, in an autonomously driving vehicle to generate the trajectory, for example with regard to the speed at bus stops/S-Bahn stations, where pedestrians often cross the street inattentively in order to reach the bus, for example.

In einer weiteren Ausgestaltung ist die Verarbeitungseinheit dazu ausgebildet, eine Skelettmodellerkennung durchzuführen, die robust gegenüber Messfehlern/Messungenauigkeiten, beispielsweise in Form eines unscharfen Bildes ist. Zu den Messfehlern können Rauschen in den Messdaten, sowie Ausreißer zählen. Dazu können spezielle Filter wie ein Reduktionsfilter oder Medianfilter, welche in Echtzeit arbeiten oder Verarbeitungsalgorithmen wie Faltungen verwendet werden, welche in Echtzeit arbeiten. Solche Messfehler können aufgrund von Ungenauigkeiten bei der Aufnahme beispielsweise mit der Entfernung zum Sensorsystem zunehmen. Dadurch kann eine Simulation des Fußgängers als Skelettmodell aus den 3D-Objektdaten zuverlässig auch aus unscharfen 3D-Umfelddaten und 3D-Objektdaten generiert werden.
In einer weiteren Ausbildung ist das Sensorsystem zum Erfassen einer Sequenz von 3D-Umfelddaten von Objekten in dem Umfeld als Sequenz von Einzelaufnahmen ausgebildet, und wobei das Extraktionsmodul zum Extrahieren eines jeweiligen Fußgängers als eine Sequenz der entsprechenden 3D-Objektdaten aus den 3D-Umfelddaten ausgebildet ist, und wobei die Verarbeitungseinheit dazu ausgebildet ist, eine Sequenz von Skelettmodellen aus der Sequenz der 3D-Objektdaten zu generieren und wobei die Bestimmungseinheit dazu ausgebildet ist, eine Sequenz von Körperhaltungen aus der Sequenz von Skelettmodellen zu bestimmen, und wobei der Verhaltensschätzer dazu ausgebildet ist, anhand der Sequenz von Körperhaltungen eine vorausliegende Fußgängerintension zu bestimmen.
In a further embodiment, the processing unit is designed to carry out skeleton model recognition that is robust to measurement errors/measurement inaccuracies, for example in the form of a blurred image. The measurement errors can include noise in the measurement data and outliers. For this purpose, special filters such as a reduction filter or median filter, which work in real time, or processing algorithms such as convolutions, which work in real time, can be used. Such measurement errors can increase with distance to the sensor system due to inaccuracies in recording, for example. This means that a simulation of the pedestrian as a skeleton model can be reliably generated from the 3D object data, even from blurred 3D environmental data and 3D object data.
In a further embodiment, the sensor system is designed to capture a sequence of 3D environmental data of objects in the environment as a sequence of individual images, and the extraction module is designed to extract a respective pedestrian as a sequence of the corresponding 3D object data from the 3D environmental data , and wherein the processing unit is designed to generate a sequence of skeleton models from the sequence of 3D object data and wherein the determination unit is designed to determine a sequence of postures from the sequence of skeleton models, and wherein the behavior estimator is designed to do so to determine a pedestrian intention ahead based on the sequence of body postures.

Dadurch kann beispielsweise die Genauigkeit der Vorhersage weiter erhöht werden, beispielsweise hinsichtlich einer Vorhersage auf längeren Zeitraum.This allows, for example, the accuracy of the prediction to be further increased, for example with regard to a prediction over a longer period of time.

Weiterhin wird die Aufgabe gelöst durch ein Fahrzeug mit einem wie oben beschriebenen System, wobei das Fahrzeug als autonom oder teilautonom betreibbares Fahrzeug ausgebildet ist. Insbesondere weist das Fahrzeug ein Autonomielevel gleich oder höher vier auf. Dabei kann das System für ein gesamthaften Perzeptionsrahmen eines AD (Automated Driving)-Systems fungieren und anderen Modulen Input für die optimale Fahrstrategie des autonom oder teilautonom betreibbaren Fahrzeugs liefern.Furthermore, the object is achieved by a vehicle with a system as described above, the vehicle being designed as a vehicle that can be operated autonomously or semi-autonomously. In particular, the vehicle has an autonomy level equal to or higher than four. The system can act as an overall perception framework of an AD (Automated Driving) system and provide input to other modules for the optimal driving strategy of the vehicle that can be operated autonomously or semi-autonomously.

Die Integration eines solchen Systems in die Perzeption und Fahrfunktion eines autonom betriebenen Fahrzeugs ermöglicht neben der reinen biomechanischen Auswertung der Intension des Fußgängers auch eine Interaktion des Fußgängers mit dem Fahrzeug. Somit kann das autonom betriebene Fahrzeug in Situationen, wo auch ein menschlicher Fahrer eine Interaktion braucht, die erkannte Körperhaltung des Fußgängers nutzen, um ein sicheres Fahrmanöver auszuüben. Beispielhaft sind Situationen eines stehenden Fußgängers an einem Zebrastreifen/Bushaltestellen/S-Bahn-Stationen. Hier könnte anhand des im Fahrzeug integrierten Systems zum einen durch Erkennung des abgewandten Gesichtes, beispielsweise davon ausgegangen werden, dass das Fahrzeug nicht wahrgenommen wurde oder zum anderen bei Erkennung der Handy-Haltung eine sichere Fahrstrategie generiert werden.
In weiterer Ausbildung kann das Fahrzeug ein Fahrerassistenzsystem und/oder ein Assisted Driving -System aufweisen, welches dazu ausgebildet ist, durch das System erkannte Fußgängerintensionen hinsichtlich einer möglichen Kollision mit dem Fahrzeug zu bewerten.
The integration of such a system into the perception and driving function of an autonomously operated vehicle enables, in addition to the pure biomechanical evaluation of the pedestrian's intention, the pedestrian to interact with the vehicle. This means that in situations where a human driver also needs interaction, the autonomously operated vehicle can use the detected posture of the pedestrian to carry out a safe driving maneuver. Examples include situations of a standing pedestrian at a zebra crossing/bus stop/S-Bahn station. Here, using the system integrated in the vehicle, it could be assumed, for example, that the vehicle was not noticed by detecting the facing away, or a safe driving strategy could be generated by detecting the position of the cell phone.
In further training, the vehicle can have a driver assistance system and/or an assisted driving system, which is designed to evaluate pedestrian intentions recognized by the system with regard to a possible collision with the vehicle.

Insbesondere kann das Fahrerassistenzsystem und/ oder das Assisted Driving-System dazu ausgebildet sein, bei einer erkannten Kollisionsgefahr einen Warnton auszugeben und/oder kollisionsvermeidende Maßnahmen wie beispielsweise eine Bremsung oder ein Ausweichmanöver einzuleiten. Daher erhöht ein solches System in einem autonom/teilautonom betriebenen Fahrzeug insbesondere die Sicherheit für Fußgänger als auch Fahrer / andere Verkehrsteilnehmer.In particular, the driver assistance system and/or the assisted driving system can be designed to respond to a detected collision drive to emit a warning tone and/or initiate collision-avoidance measures such as braking or evasive maneuvers. Therefore, such a system in an autonomously/semi-autonomously operated vehicle increases safety for pedestrians as well as drivers/other road users in particular.

Ferner wird die Aufgabe gelöst durch ein Verkehrsüberwachungssystem zur Verkehrsüberwachung in einem vorgegebenen Verkehrsbereich mit einem wie oben beschriebenen System, wobei das Verkehrsüberwachungssystem zur Detektion von Fahrzeugen in dem Verkehrsbereich ausgebildet ist, und wobei das Verkehrsüberwachungssystem ferner dazu ausgebildet ist, durch das System erkannte Fußgängerintensionen hinsichtlich einer möglichen Kollision mit einem der detektierten Fahrzeuge zu bewerten.Furthermore, the object is achieved by a traffic monitoring system for traffic monitoring in a predetermined traffic area with a system as described above, wherein the traffic monitoring system is designed to detect vehicles in the traffic area, and wherein the traffic monitoring system is further designed to detect pedestrian intentions recognized by the system with regard to a to evaluate a possible collision with one of the detected vehicles.

Straßen mit dicht parkenden Fahrzeugen in Wohnsiedlungen oder unübersichtliche Kreuzungen stellen heute schon hohe Risiken für Fußgänger dar. Spielende Kinder können immer wieder unerwartet zwischen den parkenden Autos auf die Straße springen oder plötzlich eine Straße überqueren.Streets with densely parked vehicles in residential areas or confusing intersections already pose a high risk for pedestrians. Children playing can often unexpectedly jump onto the street between parked cars or suddenly cross a street.

Durch ein solches bereitgestelltes System, beispielsweise in Ampeln/Laternenmasten kann beispielsweise das Verkehrsüberwachungssystem Maßnahmen bei einer erkannten Kollisionsgefahr durchführen, beispielsweise einen Warnton ausgeben/Lichtzeichen geben etc. oder ein V2X-Signal aussenden.With such a system provided, for example in traffic lights/lampposts, the traffic monitoring system can, for example, carry out measures when a risk of collision is detected, for example emit a warning tone/give light signals etc. or send out a V2X signal.

Ferner kann das Verkehrsüberwachungssystem dazu ausgebildet sein, Signale von Verkehrsleitsystemen im vorgegebenen Verkehrsbereich, beispielsweise Ampeln bei der Bewertung einer durch das System erkannten Fußgängerintension hinsichtlich einer möglichen Kollision mit einem der detektierten Fahrzeuge zu berücksichtigen. So kann beispielsweise gerade beim Umschalten von Grün auf Rot bei einer Fußgängerampel, eine als Fußgängerintention erkannte Bewegung nach vorne, beispielsweise ein „Loslaufen“ als Gefahr, erkannt werden.Furthermore, the traffic monitoring system can be designed to take into account signals from traffic control systems in the specified traffic area, for example traffic lights, when evaluating a pedestrian intention recognized by the system with regard to a possible collision with one of the detected vehicles. For example, when switching from green to red at a pedestrian traffic light, a movement forward that is recognized as a pedestrian intention, for example “running off”, can be recognized as a danger.

Ferner kann diese Information einem abbiegenden Fahrzeug, beispielsweise einem LKW als Information übermittelt werden, so dass Fußgänger an gefährlichen Verkehrspunkten besser geschützt werden.Furthermore, this information can be transmitted as information to a turning vehicle, for example a truck, so that pedestrians are better protected at dangerous traffic points.

Ferner wird die Aufgabe gelöst durch ein Verfahren zur Erkennung der vorausliegenden Fußgängerintension eines Fußgängers in einem Umfeld umfassend der Schritte:

  • - Erfassen von 3D-Umfelddaten von Objekten in dem Umfeld als Einzelaufnahme durch ein Sensorsystem,
  • - Extrahieren von Fußgängern aus den 3D-Umfelddaten als 3D-Objektdaten durch ein Extraktionsmodul,
  • - Generieren einer Simulation eines jeweiligen Fußgängers als Skelettmodell aus den 3D-Objektdaten durch eine Verarbeitungseinheit,
  • - Bestimmen zumindest der Körperhaltung eines jeweiligen Fußgängers aus dem Skelettmodell,
  • - Bestimmen einer vorausliegenden Fußgängerintension anhand der Körperhaltung durch einen Verhaltensschätzer.
Furthermore, the task is solved by a method for recognizing the pedestrian intention of a pedestrian ahead in an environment comprising the steps:
  • - Capturing 3D environmental data from objects in the environment as a single image using a sensor system,
  • - Extracting pedestrians from the 3D environmental data as 3D object data through an extraction module,
  • - Generating a simulation of a respective pedestrian as a skeleton model from the 3D object data by a processing unit,
  • - determining at least the posture of a respective pedestrian from the skeleton model,
  • - Determining a pedestrian's intention ahead based on body posture using a behavior estimator.

Dabei können die Vorteile und vorteilhafte Ausgestaltungen des Systems auch auf das Verfahren übertragen werden. Insbesondere ist das Verfahren dazu ausgebildet, auf dem erfindungsgemäßen System ausgeführt zu werden.The advantages and advantageous configurations of the system can also be transferred to the method. In particular, the method is designed to be carried out on the system according to the invention.

Weitere Eigenschaften und Vorteile der vorliegenden Erfindung ergeben sich aus der nachfolgenden Beschreibung unter Bezugnahme auf die beiliegenden Figuren. Darin zeigen schematisch:

  • 1: ein erfindungsgemäßes Fahrzeug mit einem erfindungsgemäßen System,
  • 2: eine Handy-Haltung,
  • 3: verschiedene Skelettmodellgrößen und deren Zuordnung,
  • 4: ein erfindungsgemäßes Verkehrsüberwachungssystem,
Further properties and advantages of the present invention emerge from the following description with reference to the accompanying figures. It shows schematically:
  • 1 : a vehicle according to the invention with a system according to the invention,
  • 2 : a cell phone stance,
  • 3 : different skeleton model sizes and their assignment,
  • 4 : a traffic monitoring system according to the invention,

1 zeigt ein erfindungsgemäßes Fahrzeug 2 mit einem erfindungsgemäßen System 1. 1 shows a vehicle 2 according to the invention with a system 1 according to the invention.

Das System 1 weist ein Sensorsystem 3 auf, welches dazu ausgebildet ist, Tiefeninformationen und 3D/Informationen aufzunehmen. Beispielsweise kann das Sensorsystem 3 zwei Monokameras und ein Radar umfassen, welche in autonomen oder hoch-assistierten Fahrzeugen 2 zur Aufnahme von Tiefen/3D-Informationen bereits verbaut sind.The system 1 has a sensor system 3, which is designed to record depth information and 3D/information. For example, the sensor system 3 can include two mono cameras and a radar, which are already installed in autonomous or highly assisted vehicles 2 for recording depth/3D information.

Das Sensorsystem 3 erfasst dabei 3D-Umfelddaten von Objekten in einem Umfeld des Fahrzeugs 2 als Einzelaufnahme. Solche Objekte können Fahrzeuge/ Fußgänger/ Häuser etc. sein.The sensor system 3 captures 3D environmental data of objects in an environment of the vehicle 2 as a single recording. Such objects can be vehicles/pedestrians/houses etc.

Ferner ist ein Extraktionsmodul 4 vorhanden, welches zum Extrahieren von Fußgängern aus den 3D-Umfelddaten als 3D-Objektdaten ausgebildet ist. Hierfür kann das Extraktionsmodul 4 als Softwaremodul ausgebildet sein, welches auf einem entsprechenden Rechner ausgeführt wird.There is also an extraction module 4, which is designed to extract pedestrians from the 3D environmental data as 3D object data. For this purpose, the extraction module 4 can be designed as a software module that is executed on a corresponding computer.

Ferner ist eine Verarbeitungseinheit 5 vorgesehen, welche dazu ausgebildet ist, eine Simulation des Fußgängers als Skelettmodell aus den 3D-Objektdaten zu generieren. Insbesondere kann die Verarbeitungseinheit 5 als Softwaremodul ausgebildet sein.Furthermore, a processing unit 5 is provided, which is designed to generate a simulation of the pedestrian as a skeleton model from the 3D Generate object data. In particular, the processing unit 5 can be designed as a software module.

Ferner kann die Verarbeitungseinheit 5 dazu ausgebildet sein, eine Skelettmodellerkennung durchzuführen, die robust gegenüber Messfehlern/Messungenauigkeiten ist. Zu den Messfehlern können Rauschen/Unschärfe in den Messdaten, sowie Ausreißer zählen. Dazu kann die Verarbeitungseinheit 5 spezielle Filter wie einen Reduktionsfilter oder einen Medianfilter, welche in Echtzeit arbeiten oder Verarbeitungsalgorithmen, wie Faltungen, welche in Echtzeit arbeiten, verwenden. Solche Messfehler/Unschärfe können aufgrund von Ungenauigkeiten bei der Aufnahme beispielsweise mit der Entfernung zum Sensorsystem 3 zunehmen. Durch solche Filter/Verarbeitungsalgorithmen kann eine Simulation eines jeweiligen Fußgängers als Skelettmodell aus den 3D-Objektdaten auch aus verrauschten Daten zuverlässig generiert werden.Furthermore, the processing unit 5 can be designed to carry out skeleton model recognition that is robust against measurement errors/measurement inaccuracies. The measurement errors can include noise/blur in the measurement data as well as outliers. For this purpose, the processing unit 5 can use special filters such as a reduction filter or a median filter, which work in real time, or processing algorithms such as convolutions, which work in real time. Such measurement errors/blur can increase, for example, with the distance to the sensor system 3 due to inaccuracies during recording. Using such filters/processing algorithms, a simulation of a respective pedestrian can be reliably generated as a skeleton model from the 3D object data, even from noisy data.

Dabei kann das Skelettmodell sehr schematisch sein, beispielsweise lediglich aus einfachen Skelettmodellmerkmalen bestehen, wie Rumpf, Arme, Beine, Kopf und Nacken aus denen eine Körperhaltung verlässlich erkennbar ist. Eine genaue anatomische Darstellung wie Hände etc. ist nicht erforderlich. Auch Gesichtszüge wie beispielsweise die Augen müssen nicht als Skelettmodell simuliert werden. So genügt es zu erkennen, ob der Fußgänger das Gesicht zum Fahrzeug 2 hingewandt oder abgewandt hat.The skeleton model can be very schematic, for example consisting only of simple skeleton model features such as torso, arms, legs, head and neck from which a posture can be reliably recognized. An exact anatomical representation such as hands etc. is not required. Even facial features such as the eyes do not have to be simulated as a skeleton model. It is therefore sufficient to recognize whether the pedestrian has turned his face towards the vehicle 2 or away.

Ferner ist eine Bestimmungseinheit 14 vorhanden. Diese extrahiert die Körperhaltung aus dem Skelettmodell. Insbesondere kann die Bestimmungseinheit 14 als Softwaremodul ausgebildet sein, welche beispielsweise mittels eines Extraktionsalgorithmus die Körperhaltung aus dem Skelettmodell erkennt.Furthermore, a determination unit 14 is present. This extracts the posture from the skeleton model. In particular, the determination unit 14 can be designed as a software module which, for example, recognizes the posture from the skeleton model using an extraction algorithm.

Durch eine einzige Einzelaufnahme und das Skelettmodell ist eine Bestimmung der aktuellen Körperhaltung des einzelnen Fußgängers in Echtzeit möglich.Using a single individual image and the skeleton model, it is possible to determine the current posture of the individual pedestrian in real time.

Anhand der aktuellen Körperhaltung kann nun mittels eines Verhaltensschätzers 6 eine vorausliegende Fußgängerintension bestimmt werden.Based on the current posture, a pedestrian intention ahead can now be determined using a behavior estimator 6.

Dazu kann der Verhaltensschätzer 6 als ein künstliches maschinelles Lernverfahren ausgebildet sein. Insbesondere kann dieses ein künstliches neuronales Netz, bevorzugt ein Deep Neuronales Netz oder CNN Netz sein, welches vorab trainiert wurde, anhand der Körperhaltung eine vorausliegende Fußgängerintension zu bestimmen.For this purpose, the behavior estimator 6 can be designed as an artificial machine learning method. In particular, this can be an artificial neural network, preferably a deep neural network or CNN network, which has been trained in advance to determine a pedestrian intention ahead based on body posture.

Das eingesetzte künstliche neuronale Netz kann anhand der empirischen biomechanischen Werte „Körperhaltung“ mit sehr hohen Wahrscheinlichkeiten vorhersagen, welche Intention ein Fußgänger in naher Zukunft hat. So ist beispielsweise bekannt, dass bei gewissen Körperhaltungen, beispielsweise einem bestimmten Winkel des Überkörpers eine Vorwärtsbewegung unvermeidbar ist so dass eineindeutig die unmittelbar vorausliegende Intention in Echtzeit bestimmt werden kann.The artificial neural network used can use the empirical biomechanical values of “posture” to predict with very high probabilities what intentions a pedestrian will have in the near future. For example, it is known that with certain postures, for example a certain angle of the upper body, a forward movement is unavoidable so that the immediate intention can be clearly determined in real time.

Ferner kann ein solches neuronales Netz, on-bord, also im Betrieb ständig weiter verbessert werden, beispielsweise anhand einer späteren Überprüfung, ob die vorausgesagte Fußgängerintension eingetroffen ist, so dass immer bessere Fußgängerintensionen vorhergesagt werden können.Furthermore, such a neural network can be continuously improved on-board, i.e. during operation, for example by checking later whether the predicted pedestrian intention has occurred, so that ever better pedestrian intentions can be predicted.

Auch kann zusätzlich oder alternativ der Verhaltensschätzer 6 ferner eine Speichereinheit umfassen, in der zu verschiedenen Referenzkörperhaltungen verschiedene Referenzfußgängerintensionen gespeichert sind. Dabei können die Referenzfußgängerintensionen beabsichtigte Fußgängerpositionswechsel, wie Vorwärtsbewegungen, umfassen.Additionally or alternatively, the behavior estimator 6 can also include a storage unit in which different reference pedestrian intentions for different reference postures are stored. The reference pedestrian intentions can include intended pedestrian position changes, such as forward movements.

Ferner kann der Verhaltensschätzer 6 eine Auswerteeinheit zum Abgleich der erkannten aktuellen Körperhaltung des Fußgängers mit der Referenzkörperhaltung zur Bestimmung vorausliegender Fußgängerintensionen aufweisen. Dieser Abgleich kann beispielsweise ein einfacher Soll-Ist-Vergleich sein. Dadurch kann schnell eine Fußgängerintension erkannt werden. Dabei kann eine solche Speichereinheit und eine Auswerteeinheit auch mit einem neuronalen Netz zusammenwirken, beispielsweise zur Validierung oder Ergänzung.Furthermore, the behavior estimator 6 can have an evaluation unit for comparing the detected current posture of the pedestrian with the reference posture in order to determine pedestrian intentions ahead. This comparison can, for example, be a simple target/actual comparison. This means that a pedestrian intention can be quickly recognized. Such a storage unit and an evaluation unit can also interact with a neural network, for example for validation or supplementation.

Dabei kann die Referenzkörperhaltung zumindest eine Handy-Haltung 9 umfassen und/oder das maschinelle Lernverfahren dazu ausgebildet sein, anhand der erkannten Körperhaltung eine solche Handy-Haltung 9 zu identifizieren.The reference posture can include at least one cell phone posture 9 and/or the machine learning method can be designed to identify such a cell phone posture 9 based on the recognized posture.

2 zeigt eine solche Handy-Haltung 9. Eine solche Handy-Haltung 9 umfasst einen gebeugten Rücken 10 und einen zum Teil stark geneigten Kopf 11 und einen erhobenen Unterarm 12. Dabei ist mit Handy-Haltung 9 eine Haltung umfasst, mit der beim Gehen/oder Stehen auf ein Display eines mobilen Endgerätes geschaut wird. 2 shows such a cell phone posture 9. Such a cell phone posture 9 includes a bent back 10 and a partially strongly inclined head 11 and a raised forearm 12. The cell phone posture 9 includes a posture with which when walking/or Standing and looking at a display of a mobile device.

Das System 1 kann dabei ausgebildet sein, einen solchen identifizierten Fußgänger eine verminderte Aufmerksamkeit zuzuordnen. Basierend auf dieser Erkenntnis kann nun beispielsweise das autonom /teilautonom betreibbare Fahrzeug 2 seine Fahrstrategie anpassen, wie Geschwindigkeit reduzieren, Bremsvorbereitungen treffen, um eine mögliche Kollision unter Berücksichtigung der erkannten verminderten Aufmerksamkeit zu verhindern. Ist beispielsweise eine Kollisionsgefahr zu hoch, können weitere Maßnahmen getroffen werden, beispielsweise ein Warnsignal vom System 1 oder Fahrzeug 2 ausgegeben werden.The system 1 can be designed to assign reduced attention to such an identified pedestrian. Based on this knowledge, the autonomous/semi-autonomously operable vehicle 2 can now, for example, adapt its driving strategy, such as reducing speed and making braking preparations, in order to avoid a possible collision, taking into account the detected collision to prevent reduced attention. For example, if the risk of collision is too high, further measures can be taken, for example a warning signal can be issued by system 1 or vehicle 2.

Ferner kann das System 1 dazu ausgebildet sein, verschiedene Skelettmodellgrößen einem unterschiedlichen Alter der Fußgänger zuzuordnen. So können beispielsweise Skelettmodellgrößen unter 1 m oder 1,20 m Kindern zugeordnet werden, welchen ebenfalls eine verminderte Aufmerksamkeit zugeordnet werden kann.Furthermore, the system 1 can be designed to assign different skeleton model sizes to different ages of the pedestrians. For example, skeletal model sizes less than 1 m or 1.20 m can be assigned to children, who can also be assigned reduced attention.

3 zeigt eine solche Zuordnung. Diese zeigt ein Kind K, links im Bild, und eine erwachsene Frau F mit einer typischen Vorwärtsbewegung. Ferner können aus dem Skelettmodell beispielsweise noch typische Körperhaltungen mit Rollator erkannt werden, welche auf eine langsame Fortbewegung eines älteren Menschen M hindeuten, was insbesondere für Fahrzeuge 2 bei Kreuzungen mit Ampeln von Interesse ist, da beispielsweise die Kreuzung nicht rechtzeitig bei Grün von älteren Menschen M mit Rollator überquert werden kann. 3 shows such an assignment. This shows a child K, on the left of the picture, and an adult woman F with a typical forward movement. Furthermore, typical postures with a walker can be recognized from the skeleton model, for example, which indicate the slow movement of an elderly person M, which is of particular interest for vehicles 2 at intersections with traffic lights, since, for example, the intersection cannot be reached in time when the green light is turned on by elderly people M can be crossed with a walker.

Insbesondere an dicht befahrenen Straßen/Kreuzungen kann das System 1 alle Informationen auch über beispielsweise eine V2V-Verbindung an andere Fahrzeuge übermitteln und so effizient zur Verkehrssicherheit beitragen.Particularly on busy streets/intersections, the system 1 can also transmit all information to other vehicles via a V2V connection, for example, and thus contribute efficiently to traffic safety.

Auch kann anhand der erkannten Körperhaltung bestimmt werden, ob das Gesicht des Fußgängers dem Fahrzeug 2 zugewandt ist oder abgewandt ist. Gerade an Übergängen weist ein zugewandtes Gesicht auf ein Registrieren des Fahrzeugs 2 hin, während ein abgewandtes Gesicht oder eine Handy-Haltung 9 eher für ein Nicht-Registrieren des Fahrzeugs 2 sprechen.Based on the recognized posture, it can also be determined whether the pedestrian's face is facing the vehicle 2 or facing away. Especially at transitions, a facing face indicates that the vehicle 2 is registered, while an averted face or a cell phone posture 9 indicates that the vehicle 2 is not registered.

Insbesondere kann das System 1 in einem gesamthaften Perzeptionsrahmen eines AD-Systems 7 (1) in dem Fahrzeug 2 integriert sein und anderen Modulen des Fahrzeugs 2 Input für eine optimale Fahrstrategie liefern.In particular, the system 1 can be integrated into an overall perception frame of an AD system 7 ( 1 ) be integrated in the vehicle 2 and provide other modules of the vehicle 2 with input for an optimal driving strategy.

Ferner kann das Assisted Driving -System 7 (1) anhand der durch das System 1 erkannten Fußgängerintensionen, diese hinsichtlich einer möglichen Kollision mit dem Fahrzeug 2 bewerten und bei Kollisionsgefahr einen Warnton ausgeben und/oder das Fahrzeug 2 dazu veranlassen, kollisionsvermeidende Maßnahmen wie Bremsvorbereitungen einleiten, zu treffen.Furthermore, the Assisted Driving system 7 ( 1 ) based on the pedestrian intentions recognized by the system 1, evaluate them with regard to a possible collision with the vehicle 2 and, if there is a risk of collision, issue a warning tone and / or cause the vehicle 2 to take collision-avoiding measures such as braking preparations.

Durch ein solches System 1 kann dauerhaft eine bessere höhere Verlässlichkeit der Vorhersage der Fußgängerintensionen getroffen werden. Dadurch kann die Sicherheit eines autonom oder teilautonom betriebenen Fahrzeugs 2 wesentlich erhöht werden, gerade im Stadtverkehr beispielsweise vor Kreuzungen, Zebrastreifen, Schulen etc.With such a system 1, a better, higher reliability of the prediction of pedestrian intentions can be achieved in the long term. As a result, the safety of an autonomously or semi-autonomously operated vehicle 2 can be significantly increased, especially in city traffic, for example in front of intersections, zebra crossings, schools, etc.

4 zeigt ein Verkehrsüberwachungssystem 8 zur Verkehrsüberwachung in einem vorgegebenen Verkehrsbereich mit einem erfindungsgemäßen System 1, wobei das Verkehrsüberwachungssystem 8 an einem Ampelmasten 13 angeordnet ist. Dabei ist das Verkehrsüberwachungssystem 8 zur Detektion von Fahrzeugen in dem Verkehrsbereich ausgebildet, beispielsweise einer Kreuzung. Dabei kann ein solches Verkehrsüberwachungssystem 8 beispielsweise an stark befahrenen oder unübersichtlichen Kreuzungen angeordnet sein. 4 shows a traffic monitoring system 8 for traffic monitoring in a predetermined traffic area with a system 1 according to the invention, the traffic monitoring system 8 being arranged on a traffic light pole 13. The traffic monitoring system 8 is designed to detect vehicles in the traffic area, for example an intersection. Such a traffic monitoring system 8 can be arranged, for example, at busy or confusing intersections.

Dabei kann ein solches Verkehrsüberwachungssystem 8 dazu ausgebildet sein, die durch das System 1 erkannten Fußgängerintensionen hinsichtlich einer möglichen Kollision mit einem der detektierten Fahrzeuge zu bewerten. Droht eine solche Kollision, können beispielsweise geeignete Maßnahmen durchgeführt werden; so kann beispielsweise das Verkehrsüberwachungssystem 8 mittels V2X-Kommunikation eine Kollisionswarnung an das autonom oder teilautonom betriebene Fahrzeug 2 übermitteln, welches zur Kollisionsverhinderung dementsprechende Maßnahmen ergreifen kann.Such a traffic monitoring system 8 can be designed to evaluate the pedestrian intentions recognized by the system 1 with regard to a possible collision with one of the detected vehicles. If such a collision is imminent, suitable measures can be taken, for example; For example, the traffic monitoring system 8 can use V2X communication to transmit a collision warning to the autonomously or semi-autonomously operated vehicle 2, which can take appropriate measures to prevent a collision.

Ferner kann das Verkehrsüberwachungssystem 8 dazu ausgebildet sein, Signale von Verkehrsleitsystemen, beispielsweise Ampeln, im vorgegebenen Verkehrsbereich bei der Bewertung einer durch das System 1 erkannten Fußgängerintension hinsichtlich einer möglichen Kollision mit einem der detektierten Fahrzeuge zu berücksichtigen. So kann beispielsweise verhindert werden, dass Kinder unerwartet bei Rot auf die Kreuzung laufen. Auch kann das Verkehrsüberwachungssystem 8 die Fußgängerintension an abbiegende Fahrzeuge übermitteln.Furthermore, the traffic monitoring system 8 can be designed to take into account signals from traffic control systems, for example traffic lights, in the specified traffic area when evaluating a pedestrian intention recognized by the system 1 with regard to a possible collision with one of the detected vehicles. This can, for example, prevent children from unexpectedly running into the intersection when the light is red. The traffic monitoring system 8 can also transmit the pedestrian intention to turning vehicles.

BezugszeichenlisteReference symbol list

11
Systemsystem
22
Fahrzeugvehicle
33
SensorsystemSensor system
44
ExtraktionsmodulExtraction module
55
VerarbeitungseinheitProcessing unit
66
VerhaltensschätzerBehavior estimator
77
AD-SystemAD system
88th
VerkehrsüberwachungssystemTraffic monitoring system
99
Handy-Haltungcell phone posture
1010
gebeugter Rückenhunched back
1111
geneigter Kopftilted head
1212
erhobener Unterarmraised forearm
1313
AmpelmastenTraffic light poles
1414
BestimmungseinheitDetermination unit

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102013203239 A1 [0006]DE 102013203239 A1 [0006]

Claims (15)

System (1) zur Erkennung der vorausliegenden Fußgängerintension eines Fußgängers in einem Umfeld des Systems (1) umfassend ein Sensorsystem (3) zum Erfassen von 3D-Umfelddaten von Objekten in dem Umfeld als Einzelaufnahme, und einem Extraktionsmodul (4), welches zum Extrahieren von Fußgängern aus den 3D-Umfelddaten als 3D-Objektdaten ausgebildet ist, dadurch gekennzeichnet, dass eine Verarbeitungseinheit (5) vorgesehen ist, welche dazu ausgebildet ist, eine Simulation eines jeweiligen Fußgängers als Skelettmodell aus den 3D-Objektdaten zu generieren, sowie eine Bestimmungseinheit (14) vorgesehen ist, welche dazu ausgebildet ist, zumindest die Körperhaltung eines jeweiligen Fußgängers aus dem Skelettmodell zu bestimmen, und ein Verhaltensschätzer (6) vorgesehen ist, welcher dazu ausgebildet ist, anhand der Körperhaltung eine vorausliegende Fußgängerintension zu bestimmen.System (1) for detecting the pedestrian intention of a pedestrian ahead in an environment of the system (1), comprising a sensor system (3) for acquiring 3D environmental data of objects in the environment as a single image, and an extraction module (4) which is used to extract Pedestrians from the 3D environmental data are designed as 3D object data, characterized in that a processing unit (5) is provided, which is designed to generate a simulation of a respective pedestrian as a skeleton model from the 3D object data, and a determination unit (14 ) is provided, which is designed to determine at least the posture of a respective pedestrian from the skeleton model, and a behavior estimator (6) is provided, which is designed to determine a pedestrian intention ahead based on the posture. System (1) nach Anspruch 1, dadurch gekennzeichnet, dass der Verhaltensschätzer (6) als ein künstliches maschinelles Lernverfahren ausgebildet ist, welches dazu ausgebildet ist, anhand der erkannten Körperhaltung eine Fußgängerintension eines jeweiligen Fußgängers zu ermitteln.System (1) after Claim 1 , characterized in that the behavior estimator (6) is designed as an artificial machine learning method, which is designed to determine a pedestrian intention of a respective pedestrian based on the recognized posture. System (1) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Verhaltensschätzer (6) ferner eine Speichereinheit umfasst, in der zu verschiedenen Referenzkörperhaltungen verschiedene Referenzfußgängerintensionen gespeichert sind, wobei die Referenzfußgängerintensionen zumindest beabsichtigte Fußgängerpositionswechsel umfassen, wobei der Verhaltensschätzer (6) ferner eine Auswerteeinheit umfasst, welche dazu ausgebildet ist, die Körperhaltung des Fußgängers mit der Referenzkörperhaltung abzugleichen, zur Bestimmung vorausliegender Fußgängerintensionen.System (1) after Claim 1 or 2 , characterized in that the behavior estimator (6) further comprises a storage unit in which different reference pedestrian intentions are stored for different reference postures, the reference pedestrian intentions comprising at least intended pedestrian position changes, the behavior estimator (6) further comprising an evaluation unit which is designed to do so Compare the pedestrian's posture with the reference posture to determine pedestrian intentions ahead. System (1) nach einem der vorhergehenden Ansprüche 2 oder 3, dadurch gekennzeichnet, dass die Referenzkörperhaltung zumindest eine Handy-Haltung (9) umfasst und/oder das maschinelle Lernverfahren dazu ausgebildet ist, anhand der erkannten Körperhaltung eine solche Handy-Haltung (9) zu identifizieren.System (1) according to one of the preceding Claims 2 or 3 , characterized in that the reference posture comprises at least one cell phone posture (9) and/or the machine learning method is designed to identify such a cell phone posture (9) based on the recognized posture. System (1) nach Anspruch 4, dadurch gekennzeichnet, dass das System (1) dazu ausgebildet ist, bei Bestimmung einer Handy-Haltung (9) dem entsprechenden Fußgänger eine verminderte Aufmerksamkeit zuzuordnen.System (1) after Claim 4 , characterized in that the system (1) is designed to assign reduced attention to the corresponding pedestrian when determining a cell phone posture (9). System (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das System (1) dazu ausgebildet ist, verschiedene Skelettmodellgrößen einem unterschiedlichen Alter der Fußgänger zuzuordnen.System (1) according to one of the preceding claims, characterized in that the system (1) is designed to assign different skeleton model sizes to different ages of the pedestrians. System (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Skelettmodell zumindest verschiedene Skelettmodellmerkmale umfasst, wobei als Skelettmodellmerkmale zumindest die Beine, die Arme, der Rumpf und der Kopf und der Hals umfasst sind, und wobei der Verhaltensschätzer (6) dazu ausgebildet ist, die Körperhaltung eines jeweiligen Fußgängers anhand der Skelettmodellmerkmale zu bestimmen.System (1) according to one of the preceding claims, characterized in that the skeleton model comprises at least various skeleton model features, wherein at least the legs, the arms, the torso and the head and the neck are included as skeleton model features, and wherein the behavior estimator (6) is included is designed to determine the posture of a respective pedestrian based on the skeletal model features. System (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinheit (5) dazu ausgebildet ist, eine Skelettmodellerkennung durchzuführen, die robust gegenüber Messfehlern/Messungenauigkeiten ist.System (1) according to one of the preceding claims, characterized in that the processing unit (5) is designed to carry out skeleton model recognition which is robust against measurement errors/measurement inaccuracies. System (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Sensorsystem (3) zum Erfassen einer Sequenz von 3D-Umfelddaten von Objekten in dem Umfeld als Sequenz von Einzelaufnahmen ausgebildet ist, und wobei das Extraktionsmodul (4) zum Extrahieren eines jeweiligen Fußgängers als eine Sequenz der entsprechenden 3D-Objektdaten aus den 3D-Umfelddaten ausgebildet ist, und wobei die Verarbeitungseinheit (5) dazu ausgebildet ist, eine Sequenz von Skelettmodellen aus der Sequenz der 3D-Objektdaten zu generieren, und wobei die Bestimmungseinheit (14) dazu ausgebildet ist, eine Sequenz von Körperhaltungen aus der Sequenz von Skelettmodellen zu bestimmen, und wobei der Verhaltensschätzer (6) dazu ausgebildet ist, anhand der Sequenz von Körperhaltungen eine vorausliegende Fußgängerintension zu bestimmen. Die in 1 dargestellten Module können teilweise auch in anderen Modulen integriert werden.System (1) according to one of the preceding claims, characterized in that the sensor system (3) is designed to record a sequence of 3D environmental data of objects in the environment as a sequence of individual images, and wherein the extraction module (4) is designed to extract a respective one Pedestrian is designed as a sequence of the corresponding 3D object data from the 3D environmental data, and wherein the processing unit (5) is designed to generate a sequence of skeleton models from the sequence of the 3D object data, and wherein the determination unit (14) does so is designed to determine a sequence of postures from the sequence of skeleton models, and wherein the behavior estimator (6) is designed to determine a pedestrian intention ahead based on the sequence of postures. In the 1 Some of the modules shown can also be integrated into other modules. Fahrzeug (2) mit einem System (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Fahrzeug (2) als autonom oder teilautonom betreibbares Fahrzeug (2) ausgebildet ist.Vehicle (2) with a system (1) according to one of the preceding claims, characterized in that the vehicle (2) is designed as a vehicle (2) that can be operated autonomously or semi-autonomously. Fahrzeug (2) nach Anspruch 10, dadurch gekennzeichnet, dass das Fahrzeug (2) ein Fahrerassistenzsystem und/oder ein Assisted Driving(AD)-System (7) aufweist, welches dazu ausgebildet ist, durch das System (1) erkannte Fußgängerintensionen hinsichtlich einer möglichen Kollision mit dem Fahrzeug (2) zu bewerten.vehicle (2). Claim 10 , characterized in that the vehicle (2) has a driver assistance system and / or an assisted driving (AD) system (7), which is designed to detect pedestrian intentions recognized by the system (1) regarding a possible collision with the vehicle (2 ) to rate. Fahrzeug (2) nach Anspruch 11, dadurch gekennzeichnet, dass das Fahrerassistenzsystem und/oder das Assisted Driving-System (7) dazu ausgebildet ist, bei einer erkannten Kollisionsgefahr einen Warnton auszugeben und/oder kollisionsvermeidende Maßnahmen einzuleiten.vehicle (2). Claim 11 , characterized in that the driver assistance system and/or the assisted driving system (7) is designed to respond to a detected risk of collision to issue a warning tone and/or initiate collision-avoidance measures. Verkehrsüberwachungssystem (8) zur Verkehrsüberwachung in einem vorgegebenen Verkehrsbereich mit einem System (1) nach einem der vorhergehenden Ansprüche 1 bis 9, dadurch gekennzeichnet, dass das Verkehrsüberwachungssystem (8) zur Detektion von Fahrzeugen (2) in dem Verkehrsbereich ausgebildet ist, und wobei das Verkehrsüberwachungssystem (8) ferner dazu ausgebildet ist, durch das System (1) erkannte Fußgängerintensionen hinsichtlich einer möglichen Kollision mit einem der detektierten Fahrzeuge zu bewerten.Traffic monitoring system (8) for traffic monitoring in a predetermined traffic area with a system (1) according to one of the preceding Claims 1 until 9 , characterized in that the traffic monitoring system (8) is designed to detect vehicles (2) in the traffic area, and wherein the traffic monitoring system (8) is further designed to detect pedestrian intentions recognized by the system (1) regarding a possible collision with one of the to evaluate detected vehicles. Verkehrsüberwachungssystem (8) nach Anspruch 13, dadurch gekennzeichnet, dass das Verkehrsüberwachungssystem (8) dazu ausgebildet ist, Signale von Verkehrsleitsystemen im vorgegebenen Verkehrsbereich bei der Bewertung einer durch das System (1) erkannten Fußgängerintension hinsichtlich einer möglichen Kollision mit einem der detektierten Fahrzeuge zu berücksichtigen.Traffic monitoring system (8). Claim 13 , characterized in that the traffic monitoring system (8) is designed to take into account signals from traffic control systems in the specified traffic area when evaluating a pedestrian intention recognized by the system (1) with regard to a possible collision with one of the detected vehicles. Verfahren zur Erkennung der vorausliegenden Fußgängerintension eines Fußgängers in einem Umfeld gekennzeichnet durch die Schritte: - Erfassen von 3D-Umfelddaten von Objekten in dem Umfeld als Einzelaufnahme durch ein Sensorsystem (3), - Extrahieren von Fußgängern aus den 3D-Umfelddaten als 3D-Objektdaten durch ein Extraktionsmodul (4), - Generieren einer Simulation eines jeweiligen Fußgängers als Skelettmodell aus den 3D-Objektdaten durch eine Verarbeitungseinheit (5), - Bestimmen zumindest der Körperhaltung eines jeweiligen Fußgängers aus dem Skelettmodell, - Bestimmen einer vorausliegenden Fußgängerintension anhand der Körperhaltung durch einen Verhaltensschätzer (6).Method for detecting the pedestrian intention of a pedestrian ahead in an environment characterized by the steps: - Acquiring 3D environmental data of objects in the environment as a single image by a sensor system (3), - Extracting pedestrians from the 3D environmental data as 3D object data an extraction module (4), - generating a simulation of a respective pedestrian as a skeleton model from the 3D object data by a processing unit (5), - determining at least the posture of a respective pedestrian from the skeleton model, - determining a pedestrian intention ahead based on the posture using a behavior estimator (6).
DE102022209561.8A 2022-09-13 2022-09-13 System for detecting the pedestrian intention ahead of a pedestrian in an environment, vehicle and traffic monitoring system Pending DE102022209561A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102022209561.8A DE102022209561A1 (en) 2022-09-13 2022-09-13 System for detecting the pedestrian intention ahead of a pedestrian in an environment, vehicle and traffic monitoring system
PCT/EP2023/075082 WO2024056698A1 (en) 2022-09-13 2023-09-13 System for detecting the future walking intention of a pedestrian in an environment, vehicle and traffic monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022209561.8A DE102022209561A1 (en) 2022-09-13 2022-09-13 System for detecting the pedestrian intention ahead of a pedestrian in an environment, vehicle and traffic monitoring system

Publications (1)

Publication Number Publication Date
DE102022209561A1 true DE102022209561A1 (en) 2024-03-14

Family

ID=88060609

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022209561.8A Pending DE102022209561A1 (en) 2022-09-13 2022-09-13 System for detecting the pedestrian intention ahead of a pedestrian in an environment, vehicle and traffic monitoring system

Country Status (2)

Country Link
DE (1) DE102022209561A1 (en)
WO (1) WO2024056698A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013203239A1 (en) 2013-02-27 2014-08-28 Bayerische Motoren Werke Aktiengesellschaft Grid-based prediction of the position of an object
DE102014207802B3 (en) 2014-04-25 2015-10-29 Bayerische Motoren Werke Aktiengesellschaft Method and system for proactively detecting an action of a road user
DE102016212700A1 (en) 2016-07-13 2018-01-18 Robert Bosch Gmbh Method and system for controlling a vehicle
DE102018212655A1 (en) 2018-07-30 2020-01-30 Conti Temic Microelectronic Gmbh Detection of the intention to move a pedestrian from camera images
WO2021121490A1 (en) 2019-12-18 2021-06-24 Conti Temic Microelectronic Gmbh Method for detecting road users
DE102020203942A1 (en) 2020-03-26 2021-09-30 Zf Friedrichshafen Ag Process for the proactive avoidance of a collision between a vehicle and another road user through intuitive hazard detection

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017216000A1 (en) * 2017-09-11 2019-03-14 Conti Temic Microelectronic Gmbh Gesture control for communication with an autonomous vehicle based on a simple 2D camera
WO2020107020A1 (en) * 2018-11-23 2020-05-28 Volvo Car Corporation Lidar-based multi-person pose estimation
KR20210046414A (en) * 2019-10-18 2021-04-28 엘지전자 주식회사 Vehicle control method considering the behavior of adjacent pedestrians

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013203239A1 (en) 2013-02-27 2014-08-28 Bayerische Motoren Werke Aktiengesellschaft Grid-based prediction of the position of an object
DE102014207802B3 (en) 2014-04-25 2015-10-29 Bayerische Motoren Werke Aktiengesellschaft Method and system for proactively detecting an action of a road user
DE102016212700A1 (en) 2016-07-13 2018-01-18 Robert Bosch Gmbh Method and system for controlling a vehicle
DE102018212655A1 (en) 2018-07-30 2020-01-30 Conti Temic Microelectronic Gmbh Detection of the intention to move a pedestrian from camera images
WO2021121490A1 (en) 2019-12-18 2021-06-24 Conti Temic Microelectronic Gmbh Method for detecting road users
DE102020203942A1 (en) 2020-03-26 2021-09-30 Zf Friedrichshafen Ag Process for the proactive avoidance of a collision between a vehicle and another road user through intuitive hazard detection

Also Published As

Publication number Publication date
WO2024056698A1 (en) 2024-03-21

Similar Documents

Publication Publication Date Title
DE102014008578B4 (en) Method for determining position data for use in the operation of a vehicle system of a motor vehicle and position data acquisition and distribution system
DE102016211182A1 (en) A method, apparatus and system for performing automated driving of a vehicle along a trajectory provided from a map
DE102015224192B4 (en) Detection of an open area
DE102017203036B4 (en) Method for operating a vehicle and driver assistance system
DE102013019141A1 (en) Driving mode change in the driver assistance system
DE112016007376T5 (en) Device for determining peripheral information and method for determining peripheral information
DE112017006567T5 (en) AUTONOMOUS VEHICLE WITH DRIVER TRAINING
DE102014201159A1 (en) Method and device for classifying a behavior of a pedestrian when crossing a roadway of a vehicle and personal protection system of a vehicle
DE102013217623A1 (en) Einparkassistentensystem
DE102011112577A1 (en) Method and device for an assistance system in a vehicle for carrying out an autonomous or semi-autonomous driving maneuver
WO2015144410A1 (en) Device for predicting driving state transitions
DE102018005526A1 (en) Driver state recognition device, driver state recognition system and driver state recognition method
DE102018128195A1 (en) Driving recommendation device and driving recommendation method
DE112013004890B4 (en) Car navigation system
DE102011121484A1 (en) Operating system for a vehicle and method for assisting a driver when operating a vehicle
WO2020002479A1 (en) Driver assistance system, vehicle, method for operating the driver assistance system, computer program, and computer-readable storage medium
DE102016210760A1 (en) Method for interaction between a vehicle and road users
EP2689991A2 (en) Device and method for assisting a driver when parking
DE102016208774A1 (en) Driver assistance device and driver assistance method
DE102012000813A1 (en) Method for monitoring of environment of motor car to recognize pedestrian in environment, involves adjusting current parameter set and current processing schema for classifier according to determined current driving condition
DE102016220450A1 (en) Apparatus, means of transport and method for estimating a collision probability between a means of locomotion and an environment object
DE102016002232A1 (en) Method for operating a motor vehicle
DE102018211726A1 (en) Method for automatic machine training of an electronic vehicle guidance system, and motor vehicle
DE102015006569A1 (en) Method for image-based recognition of the road type
DE102022209561A1 (en) System for detecting the pedestrian intention ahead of a pedestrian in an environment, vehicle and traffic monitoring system

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication