DE102022209561A1 - System for detecting the pedestrian intention ahead of a pedestrian in an environment, vehicle and traffic monitoring system - Google Patents
System for detecting the pedestrian intention ahead of a pedestrian in an environment, vehicle and traffic monitoring system Download PDFInfo
- Publication number
- DE102022209561A1 DE102022209561A1 DE102022209561.8A DE102022209561A DE102022209561A1 DE 102022209561 A1 DE102022209561 A1 DE 102022209561A1 DE 102022209561 A DE102022209561 A DE 102022209561A DE 102022209561 A1 DE102022209561 A1 DE 102022209561A1
- Authority
- DE
- Germany
- Prior art keywords
- pedestrian
- designed
- posture
- vehicle
- skeleton model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012544 monitoring process Methods 0.000 title claims description 27
- 238000012545 processing Methods 0.000 claims abstract description 20
- 230000007613 environmental effect Effects 0.000 claims abstract description 19
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 238000004088 simulation Methods 0.000 claims abstract description 12
- 230000036544 posture Effects 0.000 claims description 70
- 230000006399 behavior Effects 0.000 claims description 22
- 238000005259 measurement Methods 0.000 claims description 12
- 238000011156 evaluation Methods 0.000 claims description 9
- 238000010801 machine learning Methods 0.000 claims description 8
- 238000000034 method Methods 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 description 10
- 238000012549 training Methods 0.000 description 5
- 230000008447 perception Effects 0.000 description 4
- 210000000245 forearm Anatomy 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 241000283070 Equus zebra Species 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000009469 supplementation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein System (1) zur Erkennung der vorausliegenden Fußgängerintension eines Fußgängers in einem Umfeld des Systems (1) umfassendein Sensorsystem (3) zum Erfassen von 3D-Umfelddaten von Objekten in dem Umfeld als Einzelaufnahme,und einem Extraktionsmodul (4), welches zum Extrahieren von Fußgängern aus den 3D-Umfelddaten als 3D-Objektdaten ausgebildet ist,wobei eine Verarbeitungseinheit (5) vorgesehen ist, welche dazu ausgebildet ist, eine Simulation eines jeweiligen Fußgängers als Skelettmodell aus den 3D-Objektdaten zu generieren,sowie eine Bestimmungseinheit (14) vorgesehen ist, welche dazu ausgebildet ist,zumindest die Körperhaltung eines jeweiligen Fußgängers aus dem Skelettmodell zu bestimmen,und ein Verhaltensschätzer (6) vorgesehen ist, welcher dazu ausgebildet ist, anhand der Körperhaltung eine vorausliegende Fußgängerintension zu bestimmen.The invention relates to a system (1) for detecting the pedestrian intention of a pedestrian ahead in an environment of the system (1), comprising a sensor system (3) for recording 3D environmental data of objects in the environment as a single image, and an extraction module (4), which for extracting pedestrians from the 3D environmental data as 3D object data, a processing unit (5) being provided which is designed to generate a simulation of a respective pedestrian as a skeleton model from the 3D object data, and a determination unit (14 ) is provided, which is designed to determine at least the posture of a respective pedestrian from the skeleton model, and a behavior estimator (6) is provided, which is designed to determine a pedestrian intention ahead based on the posture.
Description
Die Erfindung betrifft ein System zur Erkennung der vorausliegenden Fußgängerintension eines Fußgängers in einem Umfeld des Systems umfassend ein Sensorsystem zum Erfassen von 3D-Umfelddaten von Objekten in dem Umfeld als Einzelaufnahme, und ein Extraktionsmodul, welches zum Extrahieren von Fußgängern aus den 3D-Umfelddaten als 3D-Objektdaten ausgebildet ist. Ferner betrifft die Erfindung ein Fahrzeug und ein Verkehrsüberwachungssystem mit einem solchen System sowie ein Verfahren.The invention relates to a system for detecting the pedestrian intention of a pedestrian ahead in an environment of the system, comprising a sensor system for acquiring 3D environmental data of objects in the environment as a single image, and an extraction module which is used to extract pedestrians from the 3D environmental data as 3D -Object data is formed. The invention further relates to a vehicle and a traffic monitoring system with such a system and a method.
Die Vermeidung von Zusammenstößen zwischen Fahrzeugen und Fußgängern ist eine wichtige Voraussetzung für automatisierte Fahrerassistenzsysteme (ADAS) und zukünftige selbstfahrende Fahrzeuge. Dazu werden in der Regel entsprechende Sensoren vorgesehen, mit denen der Verkehrsteilnehmer messtechnisch erfasst wird.Avoiding collisions between vehicles and pedestrians is an important requirement for automated driver assistance systems (ADAS) and future self-driving vehicles. For this purpose, appropriate sensors are usually provided with which the road user is measured.
Autonomes Fahren hat jedoch die Herausforderung, dass es verlässlich und konstant vorhersagen muss, wie sich die Straßenverkehrssituationen in den nächsten 1 bis 2 Sekunden entwickeln. Insbesondere bei der Vorhersage von Fußgängerintensionen stellt sich diese Aufgabe als nicht trivial dar.However, autonomous driving has the challenge of reliably and constantly predicting how road traffic situations will develop in the next 1 to 2 seconds. This task is particularly non-trivial when it comes to predicting pedestrian intentions.
Viele bisherige Studien und Lösungsansätze zu dieser Problematik nehmen Vergangenheitsdaten, wie Geschwindigkeit und Trajektorie eines Fußgängers anhand von einer Sequenz von Bildern über die letzten Sekunden auf, um eine Prädiktion über die nahe Zukunft vorherzusagen. Wertet man die Simulationswerte mit den Echtdaten aus, so kommen diese Ansätze auf eine Verlässlichkeit von ca. 70-80%. Dies erfordert jedoch eine Sequenz von Bildern und benötigt eine entsprechend lange Auswertung.Many previous studies and approaches to solving this problem record past data, such as the speed and trajectory of a pedestrian, based on a sequence of images over the last few seconds in order to predict the near future. If you evaluate the simulation values with the real data, these approaches achieve a reliability of around 70-80%. However, this requires a sequence of images and requires a correspondingly long evaluation.
Für eine Verwendung in einem System eines autonom betreibbaren Fahrzeugs ist jedoch eine sehr viel höhere Verlässlichkeit der Vorhersage in Verbindung mit einer schnellen Auswertung notwendig.However, for use in a system of an autonomously operated vehicle, a much higher reliability of the prediction in conjunction with rapid evaluation is necessary.
Die
Es ist eine Aufgabe der Erfindung ein verbessertes und schnelleres System zur Erkennung der vorausliegenden Fußgängerintension eines Fußgängers anzugeben. Eine weitere Aufgabe ist es ein Fahrzeug und ein Verkehrsüberwachungssystem mit einem solchen System sowie ein Verfahren anzugeben.It is an object of the invention to provide an improved and faster system for recognizing the pedestrian intention of a pedestrian ahead. Another task is to specify a vehicle and a traffic monitoring system with such a system as well as a method.
Die Aufgabe wird gelöst durch ein System mit den Merkmalen des Anspruchs 1 sowie ein Fahrzeug mit den Merkmalen des Anspruchs 10 und ein Verkehrsüberwachungssystem mit den Merkmalen des Anspruchs 13 und ein Verfahren mit den Merkmalen des Anspruchs 15.The task is solved by a system with the features of
In den Unteransprüchen sind weitere vorteilhafte Maßnahmen aufgelistet, die geeignet miteinander kombiniert werden können, um weitere Vorteile zu erzielen.The subclaims list further advantageous measures that can be suitably combined with one another to achieve further advantages.
Die Aufgabe wird gelöst durch ein System zur Erkennung der vorausliegenden Fußgängerintension eines Fußgängers in einem Umfeld des Systems umfassend ein Sensorsystem zum Erfassen von 3D-Umfelddaten von Objekten in dem Umfeld als Einzelaufnahme,
und ferner umfassend ein Extraktionsmodul, welches zum Extrahieren von Fußgängern aus den 3D-Umfelddaten als 3D-Objektdaten ausgebildet ist,
wobei eine Verarbeitungseinheit vorgesehen ist, welche dazu ausgebildet ist, eine Simulation eines jeweiligen Fußgängers als Skelettmodell aus den 3D-Objektdaten zu generieren,
sowie eine Bestimmungseinheit vorgesehen ist, welche dazu ausgebildet ist, zumindest die Körperhaltung eines jeweiligen Fußgängers aus dem Skelettmodell zu bestimmen,
und ein Verhaltensschätzer vorgesehen ist, welcher dazu ausgebildet ist, anhand der Körperhaltung eine vorausliegende Fußgängerintension zu bestimmen.The task is solved by a system for detecting the pedestrian intention of a pedestrian ahead in an environment of the system comprising a sensor system for recording 3D environmental data of objects in the environment as a single recording,
and further comprising an extraction module which is designed to extract pedestrians from the 3D environmental data as 3D object data,
wherein a processing unit is provided which is designed to generate a simulation of a respective pedestrian as a skeleton model from the 3D object data,
and a determination unit is provided which is designed to determine at least the posture of a respective pedestrian from the skeleton model,
and a behavior estimator is provided, which is designed to determine a pedestrian intention ahead based on body posture.
Dabei kann ein solches Sensorsystem beispielsweise in einem autonomen oder hoch-assistierten Fahrzeug mindestens zwei Monokameras und ein Radar umfassen, welche die Bilddaten und die notwendigen Tiefen als 3D-Objektdaten als Einzelbild bereitstellen.Such a sensor system, for example in an autonomous or highly assisted vehicle, can include at least two mono cameras and a radar, which provide the image data and the necessary depths as 3D object data as a single image.
Eine Einzelaufnahme ist ein Einzelbild beispielsweise eine einzelne Gesamtaufnahme der vorhandenen Sensoren von dem Umfeld; wobei im Gegensatz dazu die Sequenz von Aufnahmen steht.A single image is a single image, for example a single overall image of the environment from the existing sensors; In contrast to this is the sequence of recordings.
Durch die 3D-Objektdaten kann eine Simulation des Fußgängers als Skelettmodell generiert werden. Anhand dieser bestimmt die Bestimmungseinheit die Körperhaltung aus dem Skelettmodell.The 3D object data can be used to generate a simulation of the pedestrian as a skeleton model the. The determination unit uses this to determine the posture from the skeleton model.
Ferner wird mittels des Verhaltensschätzers, anhand der Körperhaltung eine vorausliegende Fußgängerintension, beispielsweise geradeaus gehen, stehen bleiben, abbiegen, generiert.Furthermore, using the behavior estimator, a pedestrian intention ahead, for example going straight, stopping, turning, is generated based on the body posture.
Dabei kann es sich bei dem Skelettmodell insbesondere nicht um ein genaues anatomisches Modell handeln, sondern eher um ein schematisches Skelettmodell handeln.In particular, the skeletal model may not be a precise anatomical model, but rather a schematic skeletal model.
Durch die Bestimmung lediglich eines Skelettmodells anhand eines Einzelbildes ist eine schnelle Auswertung der 3D-Objektdaten möglich. Erfindungsgemäß kann nun aus der Körperhaltung als empirischer biomechanischer Wert mit sehr hoher Wahrscheinlichkeit vorhergesagt werden, welche Bewegungen ein Fußgänger in naher Zukunft ausführt. So ist beispielsweise aus der Biomechanik bekannt, dass bei gewissen Körperhaltungen, beispielsweise einem bestimmten Winkel des Überkörpers oder bestimmten Positionen des Beines eine Vorwärtsbewegung unvermeidbar ist und somit eineindeutig bestimmt werden kann. Durch die aktuelle Körperhaltung aller Fußgänger in der Umgebung können nun die vorausliegenden Bewegungen / vorausliegenden Intentionen der Fußgänger verlässlich mit der notwendigen Schnelligkeit erkannt werden. Dies ist beispielsweise wichtig, wenn das System in einem autonom fahrenden Fahrzeug, insbesondere einem Fahrzeug ab Autonomielevel vier, zum Einsatz kommt.By determining just one skeleton model based on a single image, a quick evaluation of the 3D object data is possible. According to the invention, the body posture can now be used as an empirical biomechanical value to predict with a very high degree of probability which movements a pedestrian will perform in the near future. For example, it is known from biomechanics that with certain postures, for example a certain angle of the upper body or certain positions of the leg, a forward movement is unavoidable and can therefore be clearly determined. Thanks to the current posture of all pedestrians in the area, the movements/intentions of the pedestrians ahead can now be reliably recognized with the necessary speed. This is important, for example, if the system is used in an autonomous vehicle, especially a vehicle with autonomy level four or higher.
Durch das erfindungsgemäße System ist eine Aufnahme einer Bewegungssequenz eines Fußgängers zur Bestimmung der Fußgängerintension nicht notwendig. Insbesondere kann das System bei vorhandenen Sensorsystem auch nachgerüstet werden, d.h. dass das Extraktionsmodul, die Verarbeitungseinheit, die Bestimmungseinheit und der Verhaltensschätzer als Softwaremodul ausgebildet sein können, welche leicht nachzurüsten sind.Due to the system according to the invention, it is not necessary to record a movement sequence of a pedestrian to determine the pedestrian intention. In particular, the system can also be retrofitted with existing sensor systems, i.e. the extraction module, the processing unit, the determination unit and the behavior estimator can be designed as a software module, which can be easily retrofitted.
In weiterer Ausgestaltung kann das Skelettmodell mittels eines neuronalen Netzes aus den 3D-Objektdaten generiert werden, beispielsweise eines Convolutional Neural Network, welches häufig zur Bildverarbeitung eingesetzt wird.In a further embodiment, the skeleton model can be generated from the 3D object data using a neural network, for example a convolutional neural network, which is often used for image processing.
In weiterer Ausbildung ist der Verhaltensschätzer als ein künstliches maschinelles Lernverfahren ausgebildet, welches dazu ausgebildet ist, anhand der erkannten Körperhaltung eine Fußgängerintension eines jeweiligen Fußgängers zu ermitteln. Dabei kann ein solches künstliches maschinelles Lernverfahren beispielsweise ein künstliches neuronales Netz sein, welches mit entsprechenden Trainingsdaten antrainiert wurde. Diese sind beispielsweise mittels Simulation leicht zu erstellen. In weiterer Ausbildung kann ein solches neuronales Netz während beispielsweise der Fahrt weiter trainiert werden und damit ständig verbessert werden.In further training, the behavior estimator is designed as an artificial machine learning method, which is designed to determine a pedestrian intention of a respective pedestrian based on the recognized posture. Such an artificial machine learning method can be, for example, an artificial neural network that has been trained with appropriate training data. These are easy to create, for example, using simulation. In further training, such a neural network can be further trained while driving, for example, and thus constantly improved.
In weiterer Ausbildung umfasst der Verhaltensschätzer ferner eine Speichereinheit, in der zu verschiedenen Referenzkörperhaltungen verschiedene Referenzfußgängerintensionen gespeichert sind, wobei die Referenzfußgängerintensionen zumindest beabsichtigte Fußgängerpositionswechsel umfassen, und wobei der Verhaltensschätzer eine Auswerteeinheit umfasst, welche dazu ausgebildet ist, die Körperhaltung des Fußgängers mit der Referenzkörperhaltung abzugleichen zur Bestimmung vorausliegender Fußgängerintensionen.In a further embodiment, the behavior estimator further comprises a storage unit in which different reference pedestrian intentions are stored for different reference postures, wherein the reference pedestrian intentions include at least intended pedestrian position changes, and wherein the behavior estimator comprises an evaluation unit which is designed to compare the posture of the pedestrian with the reference posture Determination of pedestrian intentions ahead.
Dadurch ist ein schneller Abgleich beispielsweise durch einen einfachen Soll/Ist Vergleich mit der erkannten Körperhaltung mit einer Referenzkörperhaltung möglich. Insbesondere können das maschinelle Lernverfahren und ein solcher Verhaltensschätzer mit einer Speichereinheit und einer Auswerteeinheit auch zusammenwirken, so dass beispielsweise nicht gespeicherte Referenzkörperhaltungen anhand des beispielsweise neuronalen Netzes erkannt werden, oder dass Körperhaltungen anhand des neuronalen Netzes zu einer gespeicherten Referenzkörperhaltung zugeordnet werden, bei beispielsweise unscharfer Erfassung.This makes a quick comparison possible, for example through a simple target/actual comparison with the recognized posture with a reference posture. In particular, the machine learning method and such a behavior estimator can also interact with a storage unit and an evaluation unit, so that, for example, non-stored reference postures are recognized using the neural network, for example, or that postures are assigned to a stored reference posture using the neural network, for example with blurred detection .
In weiterer Ausbildung umfasst die Referenzkörperhaltung zumindest eine Handy-Haltung oder das maschinelle Lernverfahren ist dazu ausgebildet, anhand der erkannten Körperhaltung eine solche Handy-Haltung zu identifizieren. Eine solche Handy-Haltung umfasst meistens einen gebeugten Rücken/geneigten Kopf und einen erhobenen Unterarm. Dabei ist mit Handy-Haltung eine Haltung gemeint, mit der der Fußgänger beim Gehen oder Stehen auf das Display eines mobilen Endgerätes schaut.In a further embodiment, the reference posture includes at least a cell phone posture or the machine learning method is designed to identify such a cell phone posture based on the recognized posture. Such a cell phone posture usually involves a bent back/tilted head and a raised forearm. Cell phone posture refers to a posture in which the pedestrian looks at the display of a mobile device while walking or standing.
In weiterer Ausbildung ist das System dazu ausgebildet, bei Bestimmung einer Handy-Haltung dem entsprechenden Fußgänger eine verminderte Aufmerksamkeit zuzuordnen. Insbesondere kann ein Fahrzeug bzw. ein Fahrerassistenzsystem oder Perzeptionssystem eines zumindest teilweise autonom betreibbaren Fahrzeugs entsprechend auf die verminderte Aufmerksamkeit reagieren, beispielsweise die Fahrgeschwindigkeit reduzieren / (Not)Bremsmanöver vorbereiten oder mittels Warnton auf sich aufmerksam machen.In further development, the system is designed to assign reduced attention to the corresponding pedestrian when determining the cell phone posture. In particular, a vehicle or a driver assistance system or perception system of a vehicle that can be operated at least partially autonomously can react accordingly to the reduced level of attention, for example reducing the driving speed / preparing (emergency) braking maneuvers or drawing attention to itself using a warning tone.
In weiterer Ausbildung ist das System dazu ausgebildet, verschiedene erkannte Skelettmodellgrößen einem unterschiedlichen Alter der Fußgänger zuzuordnen. Dabei können solche Skelettmodellgrößen durch die Verarbeitungseinheit bei Generierung der Skelettmodelle aus den 3D- Objektdaten automatisch mitgeliefert werden. Insbesondere kann ein Schwellenwert festgelegt werden, beispielsweise eine geringe Größe bis 1,20m, anhand dessen dem Fußgänger der Status „Kind“ zugeordnet wird.
So kann beispielsweise ein autonomes Fahrzeug mit einem solchen integrierten System bei Rücklieferung eines solchen Status „Kind“ entsprechend reagieren, beispielsweise die Geschwindigkeit herabsenken, Bremsvorbereitungen treffen etc.In further training, the system is designed to assign different recognized skeleton model sizes to different pedestrian ages. Such skeleton model sizes can be generated by the processing unit the skeleton models from the 3D object data are automatically supplied. In particular, a threshold value can be set, for example a small height of up to 1.20 m, based on which the pedestrian is assigned the status “child”.
For example, an autonomous vehicle with such an integrated system can react accordingly when such a “child” status is returned, for example reducing the speed, making preparations for braking, etc.
In weiterer Ausbildung umfasst das Skelettmodell zumindest verschiedene Skelettmodellmerkmale, wobei als Skelettmodellmerkmale zumindest die Beine, die Arme, der Rumpf und der Kopf und der Hals schematisch umfasst sind, und wobei der Verhaltensschätzer dazu ausgebildet ist, die Körperhaltung eines jeweiligen Fußgängers anhand der Skelettmodellmerkmale zu bestimmen. Dabei können solche Skelettmodellmerkmale herangezogen werden, um eine schnelle Körperhaltung zu identifizieren; auf eine genaue anatomische Darstellung wie Hände oder eine genaue Darstellung aller Körperelemente etc. kann beispielsweise verzichtet werden, was wiederum zur Schnelligkeit des Systems beiträgt.In a further embodiment, the skeleton model comprises at least various skeleton model features, wherein at least the legs, the arms, the torso and the head and the neck are schematically included as skeleton model features, and wherein the behavior estimator is designed to determine the posture of a respective pedestrian based on the skeleton model features . Such skeletal model features can be used to identify fast posture; For example, a precise anatomical representation such as hands or a precise representation of all body elements etc. can be dispensed with, which in turn contributes to the speed of the system.
Insbesondere kann ein dem System zugewandtes oder abgewandtes Gesicht erfasst werden. Anhand eines solchen zugewandten Gesichtes kann beispielsweise, wenn das System in einem Fahrzeug integriert ist, erkannt werden, ob der Fußgänger das Fahrzeug realisiert / wahrgenommen hat. Diese Information kann beispielsweise bei einem autonom fahrenden Fahrzeug zur Generierung der Trajektorie herangezogen werden, beispielsweise hinsichtlich der Geschwindigkeit an Bushaltestellen/S-Bahn-Stationen, an welchen Fußgänger öfters unaufmerksam die Straße überqueren, um beispielsweise den Bus noch zu erreichen.In particular, a face facing or facing away from the system can be detected. Based on such a facing face, for example, if the system is integrated in a vehicle, it can be recognized whether the pedestrian has recognized/perceived the vehicle. This information can be used, for example, in an autonomously driving vehicle to generate the trajectory, for example with regard to the speed at bus stops/S-Bahn stations, where pedestrians often cross the street inattentively in order to reach the bus, for example.
In einer weiteren Ausgestaltung ist die Verarbeitungseinheit dazu ausgebildet, eine Skelettmodellerkennung durchzuführen, die robust gegenüber Messfehlern/Messungenauigkeiten, beispielsweise in Form eines unscharfen Bildes ist. Zu den Messfehlern können Rauschen in den Messdaten, sowie Ausreißer zählen. Dazu können spezielle Filter wie ein Reduktionsfilter oder Medianfilter, welche in Echtzeit arbeiten oder Verarbeitungsalgorithmen wie Faltungen verwendet werden, welche in Echtzeit arbeiten. Solche Messfehler können aufgrund von Ungenauigkeiten bei der Aufnahme beispielsweise mit der Entfernung zum Sensorsystem zunehmen. Dadurch kann eine Simulation des Fußgängers als Skelettmodell aus den 3D-Objektdaten zuverlässig auch aus unscharfen 3D-Umfelddaten und 3D-Objektdaten generiert werden.
In einer weiteren Ausbildung ist das Sensorsystem zum Erfassen einer Sequenz von 3D-Umfelddaten von Objekten in dem Umfeld als Sequenz von Einzelaufnahmen ausgebildet, und wobei das Extraktionsmodul zum Extrahieren eines jeweiligen Fußgängers als eine Sequenz der entsprechenden 3D-Objektdaten aus den 3D-Umfelddaten ausgebildet ist, und wobei die Verarbeitungseinheit dazu ausgebildet ist, eine Sequenz von Skelettmodellen aus der Sequenz der 3D-Objektdaten zu generieren und wobei die Bestimmungseinheit dazu ausgebildet ist, eine Sequenz von Körperhaltungen aus der Sequenz von Skelettmodellen zu bestimmen, und wobei der Verhaltensschätzer dazu ausgebildet ist, anhand der Sequenz von Körperhaltungen eine vorausliegende Fußgängerintension zu bestimmen.In a further embodiment, the processing unit is designed to carry out skeleton model recognition that is robust to measurement errors/measurement inaccuracies, for example in the form of a blurred image. The measurement errors can include noise in the measurement data and outliers. For this purpose, special filters such as a reduction filter or median filter, which work in real time, or processing algorithms such as convolutions, which work in real time, can be used. Such measurement errors can increase with distance to the sensor system due to inaccuracies in recording, for example. This means that a simulation of the pedestrian as a skeleton model can be reliably generated from the 3D object data, even from blurred 3D environmental data and 3D object data.
In a further embodiment, the sensor system is designed to capture a sequence of 3D environmental data of objects in the environment as a sequence of individual images, and the extraction module is designed to extract a respective pedestrian as a sequence of the corresponding 3D object data from the 3D environmental data , and wherein the processing unit is designed to generate a sequence of skeleton models from the sequence of 3D object data and wherein the determination unit is designed to determine a sequence of postures from the sequence of skeleton models, and wherein the behavior estimator is designed to do so to determine a pedestrian intention ahead based on the sequence of body postures.
Dadurch kann beispielsweise die Genauigkeit der Vorhersage weiter erhöht werden, beispielsweise hinsichtlich einer Vorhersage auf längeren Zeitraum.This allows, for example, the accuracy of the prediction to be further increased, for example with regard to a prediction over a longer period of time.
Weiterhin wird die Aufgabe gelöst durch ein Fahrzeug mit einem wie oben beschriebenen System, wobei das Fahrzeug als autonom oder teilautonom betreibbares Fahrzeug ausgebildet ist. Insbesondere weist das Fahrzeug ein Autonomielevel gleich oder höher vier auf. Dabei kann das System für ein gesamthaften Perzeptionsrahmen eines AD (Automated Driving)-Systems fungieren und anderen Modulen Input für die optimale Fahrstrategie des autonom oder teilautonom betreibbaren Fahrzeugs liefern.Furthermore, the object is achieved by a vehicle with a system as described above, the vehicle being designed as a vehicle that can be operated autonomously or semi-autonomously. In particular, the vehicle has an autonomy level equal to or higher than four. The system can act as an overall perception framework of an AD (Automated Driving) system and provide input to other modules for the optimal driving strategy of the vehicle that can be operated autonomously or semi-autonomously.
Die Integration eines solchen Systems in die Perzeption und Fahrfunktion eines autonom betriebenen Fahrzeugs ermöglicht neben der reinen biomechanischen Auswertung der Intension des Fußgängers auch eine Interaktion des Fußgängers mit dem Fahrzeug. Somit kann das autonom betriebene Fahrzeug in Situationen, wo auch ein menschlicher Fahrer eine Interaktion braucht, die erkannte Körperhaltung des Fußgängers nutzen, um ein sicheres Fahrmanöver auszuüben. Beispielhaft sind Situationen eines stehenden Fußgängers an einem Zebrastreifen/Bushaltestellen/S-Bahn-Stationen. Hier könnte anhand des im Fahrzeug integrierten Systems zum einen durch Erkennung des abgewandten Gesichtes, beispielsweise davon ausgegangen werden, dass das Fahrzeug nicht wahrgenommen wurde oder zum anderen bei Erkennung der Handy-Haltung eine sichere Fahrstrategie generiert werden.
In weiterer Ausbildung kann das Fahrzeug ein Fahrerassistenzsystem und/oder ein Assisted Driving -System aufweisen, welches dazu ausgebildet ist, durch das System erkannte Fußgängerintensionen hinsichtlich einer möglichen Kollision mit dem Fahrzeug zu bewerten.The integration of such a system into the perception and driving function of an autonomously operated vehicle enables, in addition to the pure biomechanical evaluation of the pedestrian's intention, the pedestrian to interact with the vehicle. This means that in situations where a human driver also needs interaction, the autonomously operated vehicle can use the detected posture of the pedestrian to carry out a safe driving maneuver. Examples include situations of a standing pedestrian at a zebra crossing/bus stop/S-Bahn station. Here, using the system integrated in the vehicle, it could be assumed, for example, that the vehicle was not noticed by detecting the facing away, or a safe driving strategy could be generated by detecting the position of the cell phone.
In further training, the vehicle can have a driver assistance system and/or an assisted driving system, which is designed to evaluate pedestrian intentions recognized by the system with regard to a possible collision with the vehicle.
Insbesondere kann das Fahrerassistenzsystem und/ oder das Assisted Driving-System dazu ausgebildet sein, bei einer erkannten Kollisionsgefahr einen Warnton auszugeben und/oder kollisionsvermeidende Maßnahmen wie beispielsweise eine Bremsung oder ein Ausweichmanöver einzuleiten. Daher erhöht ein solches System in einem autonom/teilautonom betriebenen Fahrzeug insbesondere die Sicherheit für Fußgänger als auch Fahrer / andere Verkehrsteilnehmer.In particular, the driver assistance system and/or the assisted driving system can be designed to respond to a detected collision drive to emit a warning tone and/or initiate collision-avoidance measures such as braking or evasive maneuvers. Therefore, such a system in an autonomously/semi-autonomously operated vehicle increases safety for pedestrians as well as drivers/other road users in particular.
Ferner wird die Aufgabe gelöst durch ein Verkehrsüberwachungssystem zur Verkehrsüberwachung in einem vorgegebenen Verkehrsbereich mit einem wie oben beschriebenen System, wobei das Verkehrsüberwachungssystem zur Detektion von Fahrzeugen in dem Verkehrsbereich ausgebildet ist, und wobei das Verkehrsüberwachungssystem ferner dazu ausgebildet ist, durch das System erkannte Fußgängerintensionen hinsichtlich einer möglichen Kollision mit einem der detektierten Fahrzeuge zu bewerten.Furthermore, the object is achieved by a traffic monitoring system for traffic monitoring in a predetermined traffic area with a system as described above, wherein the traffic monitoring system is designed to detect vehicles in the traffic area, and wherein the traffic monitoring system is further designed to detect pedestrian intentions recognized by the system with regard to a to evaluate a possible collision with one of the detected vehicles.
Straßen mit dicht parkenden Fahrzeugen in Wohnsiedlungen oder unübersichtliche Kreuzungen stellen heute schon hohe Risiken für Fußgänger dar. Spielende Kinder können immer wieder unerwartet zwischen den parkenden Autos auf die Straße springen oder plötzlich eine Straße überqueren.Streets with densely parked vehicles in residential areas or confusing intersections already pose a high risk for pedestrians. Children playing can often unexpectedly jump onto the street between parked cars or suddenly cross a street.
Durch ein solches bereitgestelltes System, beispielsweise in Ampeln/Laternenmasten kann beispielsweise das Verkehrsüberwachungssystem Maßnahmen bei einer erkannten Kollisionsgefahr durchführen, beispielsweise einen Warnton ausgeben/Lichtzeichen geben etc. oder ein V2X-Signal aussenden.With such a system provided, for example in traffic lights/lampposts, the traffic monitoring system can, for example, carry out measures when a risk of collision is detected, for example emit a warning tone/give light signals etc. or send out a V2X signal.
Ferner kann das Verkehrsüberwachungssystem dazu ausgebildet sein, Signale von Verkehrsleitsystemen im vorgegebenen Verkehrsbereich, beispielsweise Ampeln bei der Bewertung einer durch das System erkannten Fußgängerintension hinsichtlich einer möglichen Kollision mit einem der detektierten Fahrzeuge zu berücksichtigen. So kann beispielsweise gerade beim Umschalten von Grün auf Rot bei einer Fußgängerampel, eine als Fußgängerintention erkannte Bewegung nach vorne, beispielsweise ein „Loslaufen“ als Gefahr, erkannt werden.Furthermore, the traffic monitoring system can be designed to take into account signals from traffic control systems in the specified traffic area, for example traffic lights, when evaluating a pedestrian intention recognized by the system with regard to a possible collision with one of the detected vehicles. For example, when switching from green to red at a pedestrian traffic light, a movement forward that is recognized as a pedestrian intention, for example “running off”, can be recognized as a danger.
Ferner kann diese Information einem abbiegenden Fahrzeug, beispielsweise einem LKW als Information übermittelt werden, so dass Fußgänger an gefährlichen Verkehrspunkten besser geschützt werden.Furthermore, this information can be transmitted as information to a turning vehicle, for example a truck, so that pedestrians are better protected at dangerous traffic points.
Ferner wird die Aufgabe gelöst durch ein Verfahren zur Erkennung der vorausliegenden Fußgängerintension eines Fußgängers in einem Umfeld umfassend der Schritte:
- - Erfassen von 3D-Umfelddaten von Objekten in dem Umfeld als Einzelaufnahme durch ein Sensorsystem,
- - Extrahieren von Fußgängern aus den 3D-Umfelddaten als 3D-Objektdaten durch ein Extraktionsmodul,
- - Generieren einer Simulation eines jeweiligen Fußgängers als Skelettmodell aus den 3D-Objektdaten durch eine Verarbeitungseinheit,
- - Bestimmen zumindest der Körperhaltung eines jeweiligen Fußgängers aus dem Skelettmodell,
- - Bestimmen einer vorausliegenden Fußgängerintension anhand der Körperhaltung durch einen Verhaltensschätzer.
- - Capturing 3D environmental data from objects in the environment as a single image using a sensor system,
- - Extracting pedestrians from the 3D environmental data as 3D object data through an extraction module,
- - Generating a simulation of a respective pedestrian as a skeleton model from the 3D object data by a processing unit,
- - determining at least the posture of a respective pedestrian from the skeleton model,
- - Determining a pedestrian's intention ahead based on body posture using a behavior estimator.
Dabei können die Vorteile und vorteilhafte Ausgestaltungen des Systems auch auf das Verfahren übertragen werden. Insbesondere ist das Verfahren dazu ausgebildet, auf dem erfindungsgemäßen System ausgeführt zu werden.The advantages and advantageous configurations of the system can also be transferred to the method. In particular, the method is designed to be carried out on the system according to the invention.
Weitere Eigenschaften und Vorteile der vorliegenden Erfindung ergeben sich aus der nachfolgenden Beschreibung unter Bezugnahme auf die beiliegenden Figuren. Darin zeigen schematisch:
-
1 : ein erfindungsgemäßes Fahrzeug mit einem erfindungsgemäßen System, -
2 : eine Handy-Haltung, -
3 : verschiedene Skelettmodellgrößen und deren Zuordnung, -
4 : ein erfindungsgemäßes Verkehrsüberwachungssystem,
-
1 : a vehicle according to the invention with a system according to the invention, -
2 : a cell phone stance, -
3 : different skeleton model sizes and their assignment, -
4 : a traffic monitoring system according to the invention,
Das System 1 weist ein Sensorsystem 3 auf, welches dazu ausgebildet ist, Tiefeninformationen und 3D/Informationen aufzunehmen. Beispielsweise kann das Sensorsystem 3 zwei Monokameras und ein Radar umfassen, welche in autonomen oder hoch-assistierten Fahrzeugen 2 zur Aufnahme von Tiefen/3D-Informationen bereits verbaut sind.The
Das Sensorsystem 3 erfasst dabei 3D-Umfelddaten von Objekten in einem Umfeld des Fahrzeugs 2 als Einzelaufnahme. Solche Objekte können Fahrzeuge/ Fußgänger/ Häuser etc. sein.The sensor system 3 captures 3D environmental data of objects in an environment of the
Ferner ist ein Extraktionsmodul 4 vorhanden, welches zum Extrahieren von Fußgängern aus den 3D-Umfelddaten als 3D-Objektdaten ausgebildet ist. Hierfür kann das Extraktionsmodul 4 als Softwaremodul ausgebildet sein, welches auf einem entsprechenden Rechner ausgeführt wird.There is also an extraction module 4, which is designed to extract pedestrians from the 3D environmental data as 3D object data. For this purpose, the extraction module 4 can be designed as a software module that is executed on a corresponding computer.
Ferner ist eine Verarbeitungseinheit 5 vorgesehen, welche dazu ausgebildet ist, eine Simulation des Fußgängers als Skelettmodell aus den 3D-Objektdaten zu generieren. Insbesondere kann die Verarbeitungseinheit 5 als Softwaremodul ausgebildet sein.Furthermore, a processing unit 5 is provided, which is designed to generate a simulation of the pedestrian as a skeleton model from the 3D Generate object data. In particular, the processing unit 5 can be designed as a software module.
Ferner kann die Verarbeitungseinheit 5 dazu ausgebildet sein, eine Skelettmodellerkennung durchzuführen, die robust gegenüber Messfehlern/Messungenauigkeiten ist. Zu den Messfehlern können Rauschen/Unschärfe in den Messdaten, sowie Ausreißer zählen. Dazu kann die Verarbeitungseinheit 5 spezielle Filter wie einen Reduktionsfilter oder einen Medianfilter, welche in Echtzeit arbeiten oder Verarbeitungsalgorithmen, wie Faltungen, welche in Echtzeit arbeiten, verwenden. Solche Messfehler/Unschärfe können aufgrund von Ungenauigkeiten bei der Aufnahme beispielsweise mit der Entfernung zum Sensorsystem 3 zunehmen. Durch solche Filter/Verarbeitungsalgorithmen kann eine Simulation eines jeweiligen Fußgängers als Skelettmodell aus den 3D-Objektdaten auch aus verrauschten Daten zuverlässig generiert werden.Furthermore, the processing unit 5 can be designed to carry out skeleton model recognition that is robust against measurement errors/measurement inaccuracies. The measurement errors can include noise/blur in the measurement data as well as outliers. For this purpose, the processing unit 5 can use special filters such as a reduction filter or a median filter, which work in real time, or processing algorithms such as convolutions, which work in real time. Such measurement errors/blur can increase, for example, with the distance to the sensor system 3 due to inaccuracies during recording. Using such filters/processing algorithms, a simulation of a respective pedestrian can be reliably generated as a skeleton model from the 3D object data, even from noisy data.
Dabei kann das Skelettmodell sehr schematisch sein, beispielsweise lediglich aus einfachen Skelettmodellmerkmalen bestehen, wie Rumpf, Arme, Beine, Kopf und Nacken aus denen eine Körperhaltung verlässlich erkennbar ist. Eine genaue anatomische Darstellung wie Hände etc. ist nicht erforderlich. Auch Gesichtszüge wie beispielsweise die Augen müssen nicht als Skelettmodell simuliert werden. So genügt es zu erkennen, ob der Fußgänger das Gesicht zum Fahrzeug 2 hingewandt oder abgewandt hat.The skeleton model can be very schematic, for example consisting only of simple skeleton model features such as torso, arms, legs, head and neck from which a posture can be reliably recognized. An exact anatomical representation such as hands etc. is not required. Even facial features such as the eyes do not have to be simulated as a skeleton model. It is therefore sufficient to recognize whether the pedestrian has turned his face towards the
Ferner ist eine Bestimmungseinheit 14 vorhanden. Diese extrahiert die Körperhaltung aus dem Skelettmodell. Insbesondere kann die Bestimmungseinheit 14 als Softwaremodul ausgebildet sein, welche beispielsweise mittels eines Extraktionsalgorithmus die Körperhaltung aus dem Skelettmodell erkennt.Furthermore, a
Durch eine einzige Einzelaufnahme und das Skelettmodell ist eine Bestimmung der aktuellen Körperhaltung des einzelnen Fußgängers in Echtzeit möglich.Using a single individual image and the skeleton model, it is possible to determine the current posture of the individual pedestrian in real time.
Anhand der aktuellen Körperhaltung kann nun mittels eines Verhaltensschätzers 6 eine vorausliegende Fußgängerintension bestimmt werden.Based on the current posture, a pedestrian intention ahead can now be determined using a
Dazu kann der Verhaltensschätzer 6 als ein künstliches maschinelles Lernverfahren ausgebildet sein. Insbesondere kann dieses ein künstliches neuronales Netz, bevorzugt ein Deep Neuronales Netz oder CNN Netz sein, welches vorab trainiert wurde, anhand der Körperhaltung eine vorausliegende Fußgängerintension zu bestimmen.For this purpose, the
Das eingesetzte künstliche neuronale Netz kann anhand der empirischen biomechanischen Werte „Körperhaltung“ mit sehr hohen Wahrscheinlichkeiten vorhersagen, welche Intention ein Fußgänger in naher Zukunft hat. So ist beispielsweise bekannt, dass bei gewissen Körperhaltungen, beispielsweise einem bestimmten Winkel des Überkörpers eine Vorwärtsbewegung unvermeidbar ist so dass eineindeutig die unmittelbar vorausliegende Intention in Echtzeit bestimmt werden kann.The artificial neural network used can use the empirical biomechanical values of “posture” to predict with very high probabilities what intentions a pedestrian will have in the near future. For example, it is known that with certain postures, for example a certain angle of the upper body, a forward movement is unavoidable so that the immediate intention can be clearly determined in real time.
Ferner kann ein solches neuronales Netz, on-bord, also im Betrieb ständig weiter verbessert werden, beispielsweise anhand einer späteren Überprüfung, ob die vorausgesagte Fußgängerintension eingetroffen ist, so dass immer bessere Fußgängerintensionen vorhergesagt werden können.Furthermore, such a neural network can be continuously improved on-board, i.e. during operation, for example by checking later whether the predicted pedestrian intention has occurred, so that ever better pedestrian intentions can be predicted.
Auch kann zusätzlich oder alternativ der Verhaltensschätzer 6 ferner eine Speichereinheit umfassen, in der zu verschiedenen Referenzkörperhaltungen verschiedene Referenzfußgängerintensionen gespeichert sind. Dabei können die Referenzfußgängerintensionen beabsichtigte Fußgängerpositionswechsel, wie Vorwärtsbewegungen, umfassen.Additionally or alternatively, the
Ferner kann der Verhaltensschätzer 6 eine Auswerteeinheit zum Abgleich der erkannten aktuellen Körperhaltung des Fußgängers mit der Referenzkörperhaltung zur Bestimmung vorausliegender Fußgängerintensionen aufweisen. Dieser Abgleich kann beispielsweise ein einfacher Soll-Ist-Vergleich sein. Dadurch kann schnell eine Fußgängerintension erkannt werden. Dabei kann eine solche Speichereinheit und eine Auswerteeinheit auch mit einem neuronalen Netz zusammenwirken, beispielsweise zur Validierung oder Ergänzung.Furthermore, the
Dabei kann die Referenzkörperhaltung zumindest eine Handy-Haltung 9 umfassen und/oder das maschinelle Lernverfahren dazu ausgebildet sein, anhand der erkannten Körperhaltung eine solche Handy-Haltung 9 zu identifizieren.The reference posture can include at least one
Das System 1 kann dabei ausgebildet sein, einen solchen identifizierten Fußgänger eine verminderte Aufmerksamkeit zuzuordnen. Basierend auf dieser Erkenntnis kann nun beispielsweise das autonom /teilautonom betreibbare Fahrzeug 2 seine Fahrstrategie anpassen, wie Geschwindigkeit reduzieren, Bremsvorbereitungen treffen, um eine mögliche Kollision unter Berücksichtigung der erkannten verminderten Aufmerksamkeit zu verhindern. Ist beispielsweise eine Kollisionsgefahr zu hoch, können weitere Maßnahmen getroffen werden, beispielsweise ein Warnsignal vom System 1 oder Fahrzeug 2 ausgegeben werden.The
Ferner kann das System 1 dazu ausgebildet sein, verschiedene Skelettmodellgrößen einem unterschiedlichen Alter der Fußgänger zuzuordnen. So können beispielsweise Skelettmodellgrößen unter 1 m oder 1,20 m Kindern zugeordnet werden, welchen ebenfalls eine verminderte Aufmerksamkeit zugeordnet werden kann.Furthermore, the
Insbesondere an dicht befahrenen Straßen/Kreuzungen kann das System 1 alle Informationen auch über beispielsweise eine V2V-Verbindung an andere Fahrzeuge übermitteln und so effizient zur Verkehrssicherheit beitragen.Particularly on busy streets/intersections, the
Auch kann anhand der erkannten Körperhaltung bestimmt werden, ob das Gesicht des Fußgängers dem Fahrzeug 2 zugewandt ist oder abgewandt ist. Gerade an Übergängen weist ein zugewandtes Gesicht auf ein Registrieren des Fahrzeugs 2 hin, während ein abgewandtes Gesicht oder eine Handy-Haltung 9 eher für ein Nicht-Registrieren des Fahrzeugs 2 sprechen.Based on the recognized posture, it can also be determined whether the pedestrian's face is facing the
Insbesondere kann das System 1 in einem gesamthaften Perzeptionsrahmen eines AD-Systems 7 (
Ferner kann das Assisted Driving -System 7 (
Durch ein solches System 1 kann dauerhaft eine bessere höhere Verlässlichkeit der Vorhersage der Fußgängerintensionen getroffen werden. Dadurch kann die Sicherheit eines autonom oder teilautonom betriebenen Fahrzeugs 2 wesentlich erhöht werden, gerade im Stadtverkehr beispielsweise vor Kreuzungen, Zebrastreifen, Schulen etc.With such a
Dabei kann ein solches Verkehrsüberwachungssystem 8 dazu ausgebildet sein, die durch das System 1 erkannten Fußgängerintensionen hinsichtlich einer möglichen Kollision mit einem der detektierten Fahrzeuge zu bewerten. Droht eine solche Kollision, können beispielsweise geeignete Maßnahmen durchgeführt werden; so kann beispielsweise das Verkehrsüberwachungssystem 8 mittels V2X-Kommunikation eine Kollisionswarnung an das autonom oder teilautonom betriebene Fahrzeug 2 übermitteln, welches zur Kollisionsverhinderung dementsprechende Maßnahmen ergreifen kann.Such a
Ferner kann das Verkehrsüberwachungssystem 8 dazu ausgebildet sein, Signale von Verkehrsleitsystemen, beispielsweise Ampeln, im vorgegebenen Verkehrsbereich bei der Bewertung einer durch das System 1 erkannten Fußgängerintension hinsichtlich einer möglichen Kollision mit einem der detektierten Fahrzeuge zu berücksichtigen. So kann beispielsweise verhindert werden, dass Kinder unerwartet bei Rot auf die Kreuzung laufen. Auch kann das Verkehrsüberwachungssystem 8 die Fußgängerintension an abbiegende Fahrzeuge übermitteln.Furthermore, the
BezugszeichenlisteReference symbol list
- 11
- Systemsystem
- 22
- Fahrzeugvehicle
- 33
- SensorsystemSensor system
- 44
- ExtraktionsmodulExtraction module
- 55
- VerarbeitungseinheitProcessing unit
- 66
- VerhaltensschätzerBehavior estimator
- 77
- AD-SystemAD system
- 88th
- VerkehrsüberwachungssystemTraffic monitoring system
- 99
- Handy-Haltungcell phone posture
- 1010
- gebeugter Rückenhunched back
- 1111
- geneigter Kopftilted head
- 1212
- erhobener Unterarmraised forearm
- 1313
- AmpelmastenTraffic light poles
- 1414
- BestimmungseinheitDetermination unit
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- DE 102013203239 A1 [0006]DE 102013203239 A1 [0006]
Claims (15)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022209561.8A DE102022209561A1 (en) | 2022-09-13 | 2022-09-13 | System for detecting the pedestrian intention ahead of a pedestrian in an environment, vehicle and traffic monitoring system |
PCT/EP2023/075082 WO2024056698A1 (en) | 2022-09-13 | 2023-09-13 | System for detecting the future walking intention of a pedestrian in an environment, vehicle and traffic monitoring system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022209561.8A DE102022209561A1 (en) | 2022-09-13 | 2022-09-13 | System for detecting the pedestrian intention ahead of a pedestrian in an environment, vehicle and traffic monitoring system |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102022209561A1 true DE102022209561A1 (en) | 2024-03-14 |
Family
ID=88060609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102022209561.8A Pending DE102022209561A1 (en) | 2022-09-13 | 2022-09-13 | System for detecting the pedestrian intention ahead of a pedestrian in an environment, vehicle and traffic monitoring system |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102022209561A1 (en) |
WO (1) | WO2024056698A1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013203239A1 (en) | 2013-02-27 | 2014-08-28 | Bayerische Motoren Werke Aktiengesellschaft | Grid-based prediction of the position of an object |
DE102014207802B3 (en) | 2014-04-25 | 2015-10-29 | Bayerische Motoren Werke Aktiengesellschaft | Method and system for proactively detecting an action of a road user |
DE102016212700A1 (en) | 2016-07-13 | 2018-01-18 | Robert Bosch Gmbh | Method and system for controlling a vehicle |
DE102018212655A1 (en) | 2018-07-30 | 2020-01-30 | Conti Temic Microelectronic Gmbh | Detection of the intention to move a pedestrian from camera images |
WO2021121490A1 (en) | 2019-12-18 | 2021-06-24 | Conti Temic Microelectronic Gmbh | Method for detecting road users |
DE102020203942A1 (en) | 2020-03-26 | 2021-09-30 | Zf Friedrichshafen Ag | Process for the proactive avoidance of a collision between a vehicle and another road user through intuitive hazard detection |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017216000A1 (en) * | 2017-09-11 | 2019-03-14 | Conti Temic Microelectronic Gmbh | Gesture control for communication with an autonomous vehicle based on a simple 2D camera |
WO2020107020A1 (en) * | 2018-11-23 | 2020-05-28 | Volvo Car Corporation | Lidar-based multi-person pose estimation |
KR20210046414A (en) * | 2019-10-18 | 2021-04-28 | 엘지전자 주식회사 | Vehicle control method considering the behavior of adjacent pedestrians |
-
2022
- 2022-09-13 DE DE102022209561.8A patent/DE102022209561A1/en active Pending
-
2023
- 2023-09-13 WO PCT/EP2023/075082 patent/WO2024056698A1/en active Search and Examination
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013203239A1 (en) | 2013-02-27 | 2014-08-28 | Bayerische Motoren Werke Aktiengesellschaft | Grid-based prediction of the position of an object |
DE102014207802B3 (en) | 2014-04-25 | 2015-10-29 | Bayerische Motoren Werke Aktiengesellschaft | Method and system for proactively detecting an action of a road user |
DE102016212700A1 (en) | 2016-07-13 | 2018-01-18 | Robert Bosch Gmbh | Method and system for controlling a vehicle |
DE102018212655A1 (en) | 2018-07-30 | 2020-01-30 | Conti Temic Microelectronic Gmbh | Detection of the intention to move a pedestrian from camera images |
WO2021121490A1 (en) | 2019-12-18 | 2021-06-24 | Conti Temic Microelectronic Gmbh | Method for detecting road users |
DE102020203942A1 (en) | 2020-03-26 | 2021-09-30 | Zf Friedrichshafen Ag | Process for the proactive avoidance of a collision between a vehicle and another road user through intuitive hazard detection |
Also Published As
Publication number | Publication date |
---|---|
WO2024056698A1 (en) | 2024-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102014008578B4 (en) | Method for determining position data for use in the operation of a vehicle system of a motor vehicle and position data acquisition and distribution system | |
DE102016211182A1 (en) | A method, apparatus and system for performing automated driving of a vehicle along a trajectory provided from a map | |
DE102015224192B4 (en) | Detection of an open area | |
DE102017203036B4 (en) | Method for operating a vehicle and driver assistance system | |
DE102013019141A1 (en) | Driving mode change in the driver assistance system | |
DE112016007376T5 (en) | Device for determining peripheral information and method for determining peripheral information | |
DE112017006567T5 (en) | AUTONOMOUS VEHICLE WITH DRIVER TRAINING | |
DE102014201159A1 (en) | Method and device for classifying a behavior of a pedestrian when crossing a roadway of a vehicle and personal protection system of a vehicle | |
DE102013217623A1 (en) | Einparkassistentensystem | |
DE102011112577A1 (en) | Method and device for an assistance system in a vehicle for carrying out an autonomous or semi-autonomous driving maneuver | |
WO2015144410A1 (en) | Device for predicting driving state transitions | |
DE102018005526A1 (en) | Driver state recognition device, driver state recognition system and driver state recognition method | |
DE102018128195A1 (en) | Driving recommendation device and driving recommendation method | |
DE112013004890B4 (en) | Car navigation system | |
DE102011121484A1 (en) | Operating system for a vehicle and method for assisting a driver when operating a vehicle | |
WO2020002479A1 (en) | Driver assistance system, vehicle, method for operating the driver assistance system, computer program, and computer-readable storage medium | |
DE102016210760A1 (en) | Method for interaction between a vehicle and road users | |
EP2689991A2 (en) | Device and method for assisting a driver when parking | |
DE102016208774A1 (en) | Driver assistance device and driver assistance method | |
DE102012000813A1 (en) | Method for monitoring of environment of motor car to recognize pedestrian in environment, involves adjusting current parameter set and current processing schema for classifier according to determined current driving condition | |
DE102016220450A1 (en) | Apparatus, means of transport and method for estimating a collision probability between a means of locomotion and an environment object | |
DE102016002232A1 (en) | Method for operating a motor vehicle | |
DE102018211726A1 (en) | Method for automatic machine training of an electronic vehicle guidance system, and motor vehicle | |
DE102015006569A1 (en) | Method for image-based recognition of the road type | |
DE102022209561A1 (en) | System for detecting the pedestrian intention ahead of a pedestrian in an environment, vehicle and traffic monitoring system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication |