DE102017217056B4 - Verfahren und Einrichtung zum Betreiben eines Fahrerassistenzsystems sowie Fahrerassistenzsystem und Kraftfahrzeug - Google Patents

Verfahren und Einrichtung zum Betreiben eines Fahrerassistenzsystems sowie Fahrerassistenzsystem und Kraftfahrzeug Download PDF

Info

Publication number
DE102017217056B4
DE102017217056B4 DE102017217056.5A DE102017217056A DE102017217056B4 DE 102017217056 B4 DE102017217056 B4 DE 102017217056B4 DE 102017217056 A DE102017217056 A DE 102017217056A DE 102017217056 B4 DE102017217056 B4 DE 102017217056B4
Authority
DE
Germany
Prior art keywords
movement
living
motor vehicle
motion
living object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102017217056.5A
Other languages
English (en)
Other versions
DE102017217056A1 (de
Inventor
Christian Feist
Jörn Thielecke
Florian Particke
Lucila Patino-Studencki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Friedrich Alexander Univeritaet Erlangen Nuernberg FAU
Original Assignee
Audi AG
Friedrich Alexander Univeritaet Erlangen Nuernberg FAU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG, Friedrich Alexander Univeritaet Erlangen Nuernberg FAU filed Critical Audi AG
Priority to DE102017217056.5A priority Critical patent/DE102017217056B4/de
Priority to US16/632,610 priority patent/US20200211395A1/en
Priority to PCT/EP2018/075500 priority patent/WO2019063416A1/de
Priority to CN201880050181.5A priority patent/CN111033510B/zh
Publication of DE102017217056A1 publication Critical patent/DE102017217056A1/de
Application granted granted Critical
Publication of DE102017217056B4 publication Critical patent/DE102017217056B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00274Planning or execution of driving tasks using trajectory prediction for other traffic participants considering possible movement changes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4043Lateral speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren zum Betreiben eines Fahrerassistenzsystems (12) eines Kraftfahrzeugs (10), bei welchem eine Bewegung zumindest eines lebenden Objekts (16) in einer Umgebung (17) des Kraftfahrzeugs (10) prädiziert wird, folgende Schritte umfassend:a) Hinterlegen von Bewegungsmodellen, wobei ein jeweiliges Bewegungsmodell eine von zumindest einem weiteren Objekt (18, 20, 22) abhängige Änderung der Bewegung des lebenden Objekts (16) beschreibt, wobei das lebende Objekt (16) und das zumindest eine weitere Objekt (18, 20, 22) jeweils einer Objektklasse angehören und die Bewegungsmodelle für Kombinationen der Objektklassen hinterlegt sind, wobei das jeweilige Bewegungsmodell mittels eines jeweiligen Potentialfelds beschrieben wird.b) Empfangen von Messdaten betreffend die Umgebung (17) des Kraftfahrzeugs (10);c) Erkennen des zumindest einen lebenden Objekts (16) und des zumindest einen weiteren Objekts (18, 20, 22) in der Umgebung (17) des Kraftfahrzeugs (10) sowie Bestimmen einer Relativposition der Objekte (16, 18, 20, 22) zueinander anhand der empfangenen Messdaten;d) Identifizieren der Objektklassen der erkannten Objekte (16 bis 22);e) für das zumindest eine erfasste, lebende Objekt (16):i. Erstellen einer Bewegungsgleichung des lebenden Objekts (16) zumindest in Abhängigkeit von der jeweiligen Relativposition des lebenden Objekts (16) zu dem zumindest einem weiteren Objekt (18, 20, 22) sowie dem zumindest einen für die Kombination der in Schritt d) identifizierten Objektklassen hinterlegten Bewegungsmodell;ii. Prädiktion der Bewegung des lebenden Objekts (16) anhand der in Schritt e) i. erstellten Bewegungsgleichung; undf) Betreiben des Fahrerassistenzsystems (12) unter Einbeziehen der in Schritt e) prädizierten Bewegung des wenigsten einen lebenden Objekts.

Description

  • Die Erfindung betrifft ein Verfahren zum Betreiben eine Fahrerassistenzsystems eines Kraftfahrzeugs, bei welchem eine Bewegung zumindest eines lebenden Objekts in einer Umgebung des Kraftfahrzeugs prädiziert wird. Ferner betrifft die Erfindung eine Einrichtung zum Durchführen des Verfahrens sowie ein Fahrerassistenzsystem und ein Kraftfahrzeug.
  • Heutige Kraftfahrzeuge sind häufig mit Fahrerassistenzsystemen ausgestattet, wie beispielsweise ein Navigationssystem oder ein Tempomat. Einige dieser Fahrerassistenzsysteme sind darüber hinaus für den Schutz von Fahrzeuginsassen und weiteren Verkehrsteilnehmern ausgebildet. Diese können einen Fahrer des Kraftfahrzeugs in bestimmten Gefahrensituationen unterstützen. So erkennt ein Auffahrwarner meist per Kamera oder auch via Radar- oder Lidarsensor, den Abstand, in Grenzen auch die Geschwindigkeitsdifferenz, zu anderen Fahrzeugen und warnt den Fahrer, wenn die Gefahr einer Kollision erkannt wird. Ferner gibt es Fahrerassistenzsysteme, welche dazu ausgebildet sind, das Kraftfahrzeug zumindest teilautonom oder in bestimmen Fällen sogar autonom zu fahren. Dabei sind aktuell die Einsatzszenarien des autonomen Fahrens sehr begrenzt, beispielsweise auf das Einparken oder Fahrsituationen mit sehr gut definierten Rahmenbedingungen wie auf Autobahnen. Je autonomer ein Kraftfahrzeug werden soll, desto höher sind die Anforderungen beim Erfassung und Überwachen der Umgebung des Kraftfahrzeugs. Das Kraftfahrzeug muss, mittels Sensoreinheiten, die Umgebung möglichst genau erfassen, um Objekte in der Umgebung zu erkennen. Je genauer das Kraftfahrzeug die Umgebung „kennt“, desto besser können beispielsweise Unfälle vermieden werden.
  • Beispielsweise zeigt die DE 10 2014 215 372 A1 ein Fahrerassistenzsystem eines Kraftfahrzeugs mit einer Umfeldkamera und einer Bildaufbereitungseinheit, welche für eine Aufbereitung der Bilddaten der Umfeldkamera eingerichtet ist. Ferner umfasst das Fahrerassistenzsystem eine Bildauswerteeinheit, welche zur Auswertung der aufbereiteten Bilddaten ausgebildet ist.
  • Ferner zeigt die DE 10 2013 202 463 A1 ein Verfahren zum Ermitteln eines Bewegungsmodells eines verletzlichen Verkehrsteilnehmers, bei welchem ermittelt wird, ob sich ein verletzlicher Verkehrsteilnehmer in einer Umgebung eines Fahrzeugs befindet. Falls ermittelt wurde, dass sich ein verletzlicher Verkehrsteilnehmer in der Umgebung des Fahrzeugs befindet, wird die Position des verletzlichen Verkehrsteilnehmers ermittelt. Es werden Bewegungseinflusskenngrößen ermittelt, die repräsentativ sind für eine vorgegebene Situation und/oder eine vorgegebene Vorrichtung und/oder einen vorgegebenen signifikanten Punkt, die einen Einfluss auf eine Bewegung des detektierten verletzlichen Verkehrsteilnehmers haben können. Abhängig von den ermittelten Bewegungseinflusskenngrößen und der ermittelten Position des verletzlichen Verkehrsteilnehmers wird das Bewegungsmodell des verletzlichen Verkehrsteilnehmers ermittelt, mittels dessen eine prädizierte Position des verletzlichen Verkehrsteilnehmers ermittelbar ist.
  • Die Aufgabe der vorliegenden Erfindung besteht darin, eine Möglichkeit bereitzustellen, um die Gefahr von Unfällen weiter zu reduzieren.
  • Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindung sind durch die abhängigen Patentansprüche, die folgende Beschreibung sowie die Figuren beschrieben.
  • Die vorliegende Erfindung basiert auf der Erkenntnis, dass zwar im Stand der Technik große und/oder statische Objekte gut erkannt werden, die Erkennung und Überwachung von dynamischen Objekten, wie Fußgängern, jedoch schwierig ist. Insbesondere sind die sich daraus ergebenden positiven Folgen beim Betrieb eines Fahrerassistenzsystems noch nicht ausgeschöpft. Gelingt es also die Bewegung von Fußgängern zu prädizieren und beim Betrieb eines Fahrerassistenzsystems zu berücksichtigen, lässt sich die Gefahr von Unfällen deutlich senken.
  • Um eine Überwachung dynamischer, lebender Objekte, wie beispielweise Fußgänger, möglichst gut durchführen zu können, ist es hilfreich, wenn eine Prädiktion ihrer Bewegung getroffen, das heißt ihr zukünftiges Verhalten abgeschätzt werden kann. Für statische Überwachungskameras gibt es bereits Ansätze für die Überwachung. So wurde von Helbing für eine Simulation der Bewegungen von Fußgängern das sogenannte „Social Force Model“ entwickelt [HELBING, Dirk; MOLNAR, Peter. Social force model for pedestrian dynamics. Physical review E, 1995, 51. Jg., Nr. 5, S. 4282.]. In diesem Modell befindet sich jeder Fußgänger in einem Kraftfeld, aus dem sich durch Addition der Kräfte eine Gesamtkraft ergibt, welche auf den Fußgänger wirkt. Dieses Modell hat sich bei der Simulation von Menschenmassen bewährt, weswegen es bereits in der Vergangenheit für das Tracking von Menschenmassen verwendet wurde.
  • Gegenwärtig werden Implementierungen des „Social Force Models“ bespielweise bei der Überwachung von Fußgängern mittels statischer Überwachungskameras angewendet, nicht jedoch bei Fahrerassistenzsystemen. Beispiele hierfür in der gegenwärtigen Literatur sind: [K. Yamaguchi, A. C. Berg, L. E. Ortiz, T. L. Berg, „Who are you with and where are you going?“ in Computer Vision and Pattern Recognition (CVPR), 2011 IEEE Conference on. IEEE, 2011, pp. 1345-1352.] oder [S. Yi, H. Li, X. Wang, „Understanding pedestrian behaviors from stationary crowd groups,“ in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015, pp. 3488-3496.].
  • Die Erfindung basiert darauf, dass sich die Erkenntnisse beim Prädizieren der Bewegung von Menschenmassen auf die Bewegung einzelner Menschen anwenden lassen und damit besonders vorteilhaft beim Betrieb eines Fahrerassistenzsystems ausnutzen lassen.
  • Durch die Erfindung ist dementsprechend ein Verfahren zum Betreiben eines Fahrerassistenzsystems eines Kraftfahrzeugs bereitgestellt, mittels welchem eine Bewegung zumindest eines lebenden Objekts, insbesondere eines Fußgängers, in einer Umgebung des Kraftfahrzeugs prädiziert wird. In einem Schritt a) des Verfahrens werden Bewegungsmodelle hinterlegt, wobei ein jeweiliges Bewegungsmodell zumindest eine von einem weiteren Objekt abhängige Änderung der Bewegung des lebenden Objekts beschreibt. Das lebende Objekt und das zumindest eine weitere Objekt gehören jeweils einer Objektklasse an. Die Bewegungsmodelle sind für Kombinationen der Objektklassen hinterlegt, wobei das jeweilige Bewegungsmodell mittels eines jeweiligen Potentialfelds beschrieben wird. In einem Schritt b) des Verfahrens werden Messdaten betreffend die Umgebung des Kraftfahrzeugs empfangen. In einem Schritt c) des Verfahrens werden das zumindest eine lebende Objekt und das zumindest einen weiteren Objekt in der Umgebung des Kraftfahrzeugs erkannt sowie eine Relativposition der Objekte zueinander anhand der empfangenen Messdaten bestimmt. In einem Schritt d) des Verfahrens werden die Objektklassen der erkannten Objekte identifiziert. In einem Schritt e) des Verfahrens wird für das zumindest eine erfasste, lebende Objekt in einem ersten Teilschritt e) i. eine Bewegungsgleichung des lebenden Objekts erstellt. Dabei hängt die Bewegungsgleichung zumindest von der jeweiligen Relativposition des lebenden Objekts relativ zu dem zumindest einen weiteren Objekt sowie dem zumindest einen für die Kombination der in Schritt d) identifizierten Objektklassen des lebenden Objekts und des zumindest einen weiteren Objekts hinterlegten Bewegungsmodells ab. In einem zweiten Teilschritt e) ii. wird eine Bewegung des lebenden Objekts anhand der im ersten Teilschritt e) i. erstellten Bewegungsgleichung prädiziert. In einem Schritt f) des Verfahren wird das Fahrerassistenzsystem unter Einbeziehen der in Schritt e) prädizierten Bewegung des wenigsten einen lebenden Objekts betrieben, das heißt die Prädiktion der Bewegung nimmt Einfluss auf ein Verhalten des Fahrerassistenzsystems. So kann beispielsweise in Situationen, in welchen mittels des erfindungsgemäßen Verfahrens prädiziert wird, dass ein sich bewegender Fußgänger mit dem fahrendem Kraftfahrzeug kollidieren wird, beispielsweise eine Bremsunterstützung und/oder eine Kurskorrektur bei einem zumindest teilautonomen Fahren erfolgen.
  • Unter dem zumindest einen lebenden Objekt ist insbesondere ein Fußgänger zu verstehen, dabei kann beispielsweise unterschieden zwischen einem Kind, einer erwachsenen Person und einer greisen Person werden. Auch kann beispielsweise eine Person mit einer körperlichen Beeinträchtigung, welche die Mobilität der Person einschränkt, berücksichtigt werden. Darüber hinaus kann berücksichtigt werden, ob beispielsweise das Kind auf einem Roller und/oder der Erwachsener mit einem Fahrrad oder dergleichen unterwegs ist. Dabei sind beliebige Kombinationen möglich. Ferner kann ein lebendes Objekt ein Tier, wie beispielsweise ein Hund sein.
  • Das zumindest eine weitere Objekt kann eines der bisher genannten Objekte, also ein lebendes Objekt und/oder eine Gruppe von lebenden Objekten oder ein anderes Objekt wie beispielsweise ein Kraftfahrzeug, ein Ball, ein Roboter, ein Geldautomat und/oder eine Eingangstür sein. Insbesondere wird bei dem weiteren Objekt von einem dynamischen, also einem welches sich selbst bewegen kann ausgegangen. Jedoch kann das weitere Objekt ein semistatisches oder ein statisches Objekte sein. Jedes einzelne der genannten Objekte kann jeweils einer Objektklasse zugeordnet beziehungsweise in diese klassifiziert werden. Beispiele für Objektklassen sind: „erwachsener Fußgänger“, „Hund“ oder „Kraftfahrzeug“.
  • Die in Schritt a) hinterlegten Bewegungsmodelle enthalten zumindest Informationen, wie das lebendes Objekt auf eines der weiteren Objekte reagiert, das heißt, welchen Einfluss das jeweilige weitere Objekt auf die Bewegung des lebenden Objekts ausübt beziehungsweise ausüben kann. Im Bild des „Social Force Model“ gesprochen, welche Kraft das weitere Objekt auf das lebende Objekt ausübt. Mit anderen Worten charakterisiert das Bewegungsmodell den Einfluss eines Objekts, beispielsweise eines Hundes, auf das lebende Objekt, beispielsweise einen Fußgänger. Dazu werden jeweilige Bewegungsmodelle für Kombinationen hinterlegt, beispielsweise für die Kombination „Fußgänger-Hund“. Kurz gesagt, findet in Schritt a) ein Hinterlegen von Bewegungsmodellen für Kombinationen einer Objektklasse zumindest eines lebenden Objekts und einer Objektklasse zumindest eines weiteren Objekts satt, wobei die Bewegungsmodelle jeweils eine Bewegungsänderung des der Objektklasse des jeweiligen Bewegungsmodells zugeordneten lebenden Objekts aufgrund des der Objektklasse des jeweiligen Bewegungsmodells zugeordneten weiteren Objekts beschreiben.
  • Das jeweilige Bewegungsmodell wird mittels eines jeweiligen Potentialfelds beschrieben, welches insbesondere ein skalares Feld eines Potentials beschreibt. Mit anderen Worten wird die Einflussnahme des weiteren Objekts auf das lebende Objekt durch ein Potentialfeld beziehungsweise Potential bestimmt beziehungsweise beschrieben, welches beispielsweise attraktiven oder abstoßenden Charakter gegenüber dem lebenden Objekt aufweisen kann. Durch die Verwendung eines Potentialfelds kann das jeweilige Bewegungsmodell besonders einfach und dadurch beispielsweise leicht berechenbar in die Bewegungsgleichung eingearbeitet werden.
  • Ferner kann in dem jeweiligen Bewegungsmodell eine Information hinterlegt sein, welche beispielsweise bestimmte Grenzwerte in der Bewegung des lebenden Objekts vorgibt, wie beispielsweise eine Maximalgeschwindigkeit des lebenden Objekts und/oder eine maximal mögliche Bremsverzögerung und/oder eine freie beziehungsweise kräftefreie Bewegung des lebenden Objekts beschreibende Parameter. Dabei ist frei beziehungsweise kräftefrei hier so zu verstehen, dass keine Einflussnahme auf die Bewegung des lebenden Objekts durch ein anderes Objekt erfolgt, das heißt, es wirkt keine Kraft durch ein anderes Objekt auf das lebende Objekt. Diese zusätzlichen die Bewegung des lebenden Objekts charakterisierenden Informationen kann man zusammenfassend als eine Dynamik des lebenden Objekts bezeichnen. Diese Dynamik wird durch das zumindest eine weitere Objekt beeinflusst. Die Beeinflussung des lebenden Objekts, beispielsweise des Fußgängers, beruht auf der Kenntnis des lebenden Objekts über das jeweilige andere Objekt, und dient dem Fußgänger somit als jeweilige Informationsquelle, welche seine Dynamik beeinflusst.
  • Durch die hinterlegten Bewegungsmodelle kann die jeweilige Informationsquelle einzeln, das heißt ohne gegenseitige Einflussnahme, modelliert und parametriert werden. Durch das Verfahren findet eine Trennung der Dynamik und der Informationsquellen statt, was als eine Randbedingung des erfindungsgemäßen Verfahrens bezeichenbar ist. Dem lebenden Objekt wird eine Intention zugeschrieben, welche seine Bewegung charakterisiert beziehungsweise beeinflusst, beispielsweise ein Zielort, welchen es zu erreichen gilt. Es erfolgt eine Parametrisierung der Dynamik und der wenigsten einen weiteren Informationsquelle, das heißt der Einflussnahme des wenigstens einen weiteren Objekts durch das Bewegungsmodell, wodurch sich besonders vorteilhaft wenige Parameter ergeben. Dies ist im Schritt e) des erfindungsgemäßen Verfahrens bei dem Erstellen der Bewegungsgleichung vorteilhaft, weil das Verfahren dadurch beispielsweise besonders leicht skalierbar ist.
  • In dem Schritt b) des erfindungsgemäßen Verfahrens werden Messdaten, welche die Umgebung des Kraftfahrzeugs betreffen, empfangen. Dies kann beziehungsweise können beispielsweise ein Bild beziehungsweise mehrere, insbesondere zeitlich aufeinander folgende, Bilder wenigsten einer Kamera sein.
  • In Schritt c) werden, beispielsweise durch wenigstens einen geeigneten Algorithmus, Objekte in den Messdaten, beispielsweise auf wenigstens einem Bild, erkannt. Dabei wird beim Erkennen das Objekt, insbesondere das zumindest eine lebende Objekt und eine Position des Objekts in der Umgebung des Kraftfahrzeugs erfasst. Damit im Schritt e) eine Bewegungsgleichung erstellt werden kann, welche eine Änderung der Bewegung des lebenden Objekts aufgrund zumindest eines weiteren Objekts berücksichtigt, soll zumindest ein weiteres Objekt erkannt werden. Bei der Erkennung dieses weiteren Objekts wird dessen Position erfasst. Um mittels der Bewegungsgleichung im Schritt e) besonders vorteilhaft eine Einflussnahme auf die Bewegung des lebenden Objekts durch das weitere Objekt beschreiben zu können, wird aus den erkannten Positionen eine Relativposition der Objekte zueinander bestimmt.
  • Das Identifizieren der Objektklassen der erkannten Objekte findet in Schritt d) statt. Dazu wird beispielsweise, mittels einem geeigneten, als Klassifikator ausgebildeten Algorithmus, ein Abgleich der erkannten Objekte beziehungsweise von Merkmalen der erkannten Objekte mit den charakterisierenden Merkmalen einer Objektklasse durchgeführt.
  • Im Schritt e) wird für das zumindest eine erfasste lebende Objekt, dessen Bewegung überwacht werden soll, in einem ersten Teilschritt die Bewegungsgleichung erstellt. Dies erfolgt in Abhängigkeit von der jeweiligen Relativposition des lebenden Objekts zu dem zumindest einen weiteren Objekt und der für die Kombination der Objektklassen der Objekte hinterlegten Bewegungsmodelle.
  • In einem zweiten Teilschritt des Schritts e) wird die Bewegung des lebenden Objekts anhand der erstellten Bewegungsgleichung prädiziert, das heißt es wird eine, insbesondere dynamische, Bewegungsrichtung gegebenenfalls mit einer Geschwindigkeit und/oder Beschleunigung ausgegeben.
  • Angemerkt sei an dieser Stelle, dass das jeweilige Bewegungsmodell beispielsweise aus Erfahrungswerten von vorhergehenden Beobachtungen entwickelt wurde und keine allgemeine Gültigkeit haben muss. So ist es in der Realität möglich, dass Fußgänger vereinzelt von einem Hund angezogen werden, obwohl das Bewegungsmodell vorhersagt, dass Fußgänger generell Abstand von einem Hund halten. Daher kann das jeweilige Bewegungsmodell zusätzlich eine Wahrscheinlichkeit für das Auftreten der Reaktion des lebenden Objekts auf das weitere Objekt enthalten. Mittels dieser Wahrscheinlichkeit kann ein jeweiliger Gewichtungsfaktor in der Bewegungsgleichung berücksichtigt werden, sodass die auf die Bewegung einwirkenden jeweiligen Bewegungsmodelle in Abhängigkeit ihres statistischen Auftretens erfasst werden.
  • Im Schritt f) des Verfahrens wird das Fahrerassistenzsystem unter Einbeziehung der in dem Schritt e) prädizierten Bewegung des wenigstens einen lebenden Objekts betrieben. Dadurch kann das Fahrerassistenzsystem beispielsweise besonders sicher betrieben und Kollisionen des Kraftfahrzeugs mit den erkannten Objekten vermieden werden. Mittels des erfindungsgemäßen Verfahrens ist die Bewegungsgleichung und damit die Prädiktion der Bewegung des lebenden Objekts, insbesondere eines Fußgängers, besonders vorteilhaft möglich und das Fahrerassistenzsystem besonders vorteilhaft betreibbar.
  • Somit liefert das erfindungsgemäße Verfahren den Vorteil, dass für das lebende Objekt eine eigene Dynamik, welche durch die verschiedenen Informationsquellen beeinflusst wird, berücksichtigt wird. Das Verfahren ist besonders effizient und skalierbar, da beispielsweise die jeweilige Informationsquelle einzeln modelliert und parametriert wird. Insbesondere im Gegensatz zum Stand der Technik werden durch die Inbezugnahme der Informationsquellen zu einer Intention, das heißt einer gewünschten Bewegungsrichtung des lebenden Objekts, die Anzahl der Parameter minimiert und verständlich dargestellt. Des Weiteren wird die Dynamik unabhängig von jeweiligen anderen Informationsquellen berechnet, wodurch das Verfahren, insbesondere hinsichtlich der zu verwendenden Informationsquellen beziehungsweise Bewegungsmodelle, skalierbar ist. Durch eine geschickte Wahl der Bewegungsmodelle folgt eine besonders gute Parametrisierungsmöglichkeit, welche insbesondere zu einem verbesserten Gesamtergebnis bei der Prädiktion der Bewegung des lebenden Objekts führt. Ein weiterer Vorteil des Verfahrens ist, dass eine Prädiktion der Bewegung des lebenden Objekts bereits mit einem einzigen Satz Messdaten, welche die Umgebung des Kraftfahrzeugs charakterisieren, beispielsweise einem Bild zu einem ersten Zeitpunkt, möglich ist.
  • In vorteilhafter Ausgestaltung des erfindungsgemäßen Verfahrens wird die Bewegungsgleichung in Schritt e) zusätzlich in Abhängigkeit von einer jeweiligen Objektorientierung bestimmt, wobei diese dazu in Schritt c) mit bestimmt wird. Unter der Objektorientierung ist eine Orientierung des Objekts im Raum beziehungsweise eine räumliche Ausrichtung des Objekts in der Umgebung zu verstehen. Anhand der Objektorientierung des lebenden Objekts ist seine Intention durch das Verfahren besonders gut abschätzbar. Durch Einbeziehen der Objektorientierung kann die Bewegungsgleichung derart verändert werden, sodass eine besonders gute Prädiktion der Bewegung des lebenden Objekts möglich ist. Wird beispielsweise im Schritt c) erkannt, dass das lebende Objekt, beispielsweise der Fußgänger, in eine Richtung schaut, in welcher das weitere Objekt, beispielsweise der Hund, nicht sichtbar ist, nimmt der Hund keinen Einfluss auf die Bewegung des Fußgängers. Mit anderen Worten fehlt es dem Fußgänger dabei an einer Informationsquelle, welche Einfluss auf seine Dynamik nehmen könnte. Das zumindest eine erkannte weitere Objekt, welches sich in einem dem lebenden Objekt zugeordneten Sichtbereich beziehungsweise Blickfeld befindet, dient als Informationsquelle, aufgrund welcher das lebende Objekt seine Dynamik ändern kann. Die für die dem lebenden Objekt bekannten Objekte hinterlegten jeweiligen Bewegungsmodelle werden in die Bewegungsgleichung mit aufgenommen. Bewegungsmodelle von dem lebenden Objekt nicht bekannten Objekten können verworfen werden. Darüber hinaus kann die Objektorientierung des weiteren Objekts ebenso eine Rolle bei der Bestimmung der Bewegungsgleichung spielen.
  • In vorteilhafter Ausgestaltung des erfindungsgemäßen Verfahrens wird die Bewegungsgleichung in Schritt e) zusätzlich in Abhängigkeit von einer jeweiligen Bewegungsrichtung und/oder Geschwindigkeit und/oder Beschleunigung des lebenden Objekts und/oder des wenigstens einen weiteren Objekts erstellt. Dazu werden aus den Messdaten zu einem ersten Zeitpunkt ermittelte, jeweilige Positionen der erkannten Objekte mit aus Messdaten zu zumindest einem weiteren Zeitpunkt ermittelten, jeweiligen Positionen verglichen, wodurch eine jeweilige Bewegungsrichtung und/oder eine jeweilige Geschwindigkeit und/oder eine jeweilige Beschleunigung des jeweiligen Objekts bestimmbar wird. Zusätzlich zur jeweiligen Position kann dabei die jeweilige bestimmte Objektorientierung herangezogen werden, wodurch die Ermittlung der jeweiligen Bewegungsrichtung und/oder Geschwindigkeit und/oder Beschleunigung verbessert werden kann. Durch die Einbeziehung der ermittelten Bewegungsrichtungen und/oder Geschwindigkeiten und/oder Beschleunigungen aufgrund von Messdaten von zumindest zwei unterschiedlichen Zeitpunkten ist eine Verfeinerung der Bewegungsgleichung möglich, wodurch die Prädiktion der Bewegung besonders genau wird.
  • In weiterer vorteilhafter Ausgestaltung wird ein jeweiliger Gradient aus dem jeweiligen Potentialfeld gebildet und die Bewegungsgleichung in Abhängigkeit von zumindest dem jeweiligen Gradienten erstellt. Mittels des jeweiligen Gradienten kann beispielsweise ein jeweiliger Beschleunigungsvektor des jeweiligen Potentialfelds ermittelt werden. Der jeweilige Beschleunigungsvektor kann besonders einfach zur Bildung der Bewegungsgleichung beziehungsweise zur Prädiktion der Bewegung verwendet werden. Je nach gewählten Bewegungsmodellen, wenn diese beispielsweise analog zu den Kräften des bekannten „Social Force Models“ gewählt werden, kann durch Verwendung von Potenzialfeldern und Gradienten das Modell zu einem Potenzialansatz verallgemeinert werden. Dazu wird für jede Informationsquelle, das heißt jedes weitere Objekt, welches insbesondere durch das lebende Objekt wahrgenommen wird, ein Potenzial berechnet. Der jeweilige Beschleunigungsvektor ist aus dem Potentialfeld beziehungsweise dem Gradienten des jeweiligen Potentialfelds ermittelbar. Dazu wird der Gradient des jeweiligen Potentialfelds an der Position des lebenden Objekts bestimmt. Die Beschleunigungsvektoren und die daraus prädizierbare Bewegung können somit als sogenannte Steuergröße bei der Überwachung, das heißt dem Tracking des lebenden Objekts, verwendet werden. Das jeweilige Potentialfeld kann beispielsweise unter Verwendung der Erkenntnisse des „Social Force Models“ definierbar beziehungsweise abschätzbar sein. Durch die den Potentialfeldern zugrundeliegenden Potentiale erfolgt eine besonders einfache Parametrisierung der Dynamik des lebenden Objekts und des zumindest einen weiteren Objekts, der Informationsquelle, relativ zu einer von dem lebenden Objekt vorhandenen Intention. Dabei ist die Intention das eigentliche Ziel des lebenden Objekts, welches es mittels seiner Bewegung erreichen will. Ferner ist durch die Verwendung von wenigstens einem Potentialfeld und dem zugehörigen Gradienten eine besonders einfache Trennung von Dynamik und Informationsquelle möglich.
  • In weiterer vorteilhafter Ausgestaltung der Erfindung ist im Schritt e) des Verfahrens ein weiterer Teilschritt durchführbar. Bei diesem weiteren Teilschritt wird die Bewegungsgleichung mit einer Karte der Umgebung des Kraftfahrzeugs abgeglichen und falls mittels der in Schritt e) i. ermittelten Bewegungsgleichung die in Schritt e) ii. prädizierte Bewegung aufgrund der Karteninformationen als nicht ausführbar erkannt wird, wird die Bewegungsgleichung und die Prädiktion der Bewegung anhand der Karteinformationen korrigiert. Mit anderen Worten findet ein Kartenabgleich statt, wobei in der Karte Informationen enthalten sein können, welche nicht mittels der Messdaten erfassbar sind beziehungsweise aus den Messdaten abgeleitet werden können. Beispielsweise können Informationen über Objekte in der Karte enthalten sein, welche außerhalb der Reichweite wenigstens einer die Messdaten erfassenden Sensoreinheit sind oder durch Objekte, welche durch ein erfasstes Objekt verdeckt werden. Solche Karteninformationen können beispielsweise Hindernisse wie Flüsse und/oder Straßensperrungen und dergleichen enthalten. Ferner können beispielsweise Informationen zu dem oben genannten Geldautomat und/oder beispielsweise Sehenswürdigkeiten, welche insbesondere attraktiv auf das lebende Objekt wirken können, enthalten sein. Dadurch kann beispielsweise die Intention des lebenden Objekts besonders gut abschätzbar sein. Diese Informationen der Karte können zusätzlich bei der Ermittlung der Bewegungsgleichung beziehungsweise bei der Prädiktion berücksichtigt werden. Durch den Abgleich der prädizierten Bewegung beziehungsweise der Bewegungsgleichung mit der Karte kann die Prädiktion besonders gute Ergebnisse liefern.
  • In weiterer vorteilhafter Ausgestaltung der Erfindung ist für den Fall, dass wenigstens zwei weitere Objekte erfasst und klassifiziert werden, eine jeweilige Änderung der jeweiligen Bewegung des jeweiligen weiteren Objekts aufgrund einer gegenseitigen Wechselwirkung zwischen den wenigstens zwei weiteren Objekten und der Bewegungsgleichung des wenigstens einen lebenden Objekts berücksichtigt. Dabei wird die Wechselwirkung aus dem jeweiligen hinterlegten Bewegungsmodell und der jeweiligen Relativposition bestimmt. Das den geringsten Abstand zum Kraftfahrzeug aufweisende lebende Objekt kann das zu überwachende sein. Befinden sich beispielsweise zwei weitere Objekte in der Umgebung, deren Abstand zum Kraftfahrzeug größer ist, kann deren wechselseitiger Einfluss auf die jeweilige Bewegung des jeweils anderen Objekts ermittelt werden. Diese für die wenigstens zwei weiteren Objekte, insbesondere zusätzlich, ermittelten Bewegungen können bei der Bestimmung der Bewegungsgleichung berücksichtigt werden. Eines der beiden Objekte kann beispielsweise ein Kind und das andere Objekt ein Erwachsener sein. Für jedes dieser Objekte kann durch das jeweilige hinterlegte Bewegungsmodell mittels des Verfahrens eine Bewegung prädiziert werden. Damit kann der Einfluss auf die Bewegungsgleichung des lebenden Objekts durch die wenigsten zwei weiteren Objekte besonders realitätsnah berücksichtig werden und eine besonders guten Prädiktion der jeweiligen Bewegung der Objekte bestimmt werden. Dadurch ergibt sich der Vorteil, dass die Präzision der Prädiktion des zumindest einen lebenden Objekts weiter erhöht werden kann. Darüber hinaus besteht dadurch die Möglichkeit, mehrere Menschen zu einer Menschengruppe zusammen zu fassen. Ist eine Objektklasse, welche das Bewegungsmodell für beziehungsweise gegenüber einer Menschengruppe beschreibt hinterlegt, kann die Änderung der Bewegung aufgrund einer Menschengruppe in der Bewegungsgleichung erfasst werden. Menschengruppen können eine andere Bewegungsänderung des Fußgängers verursachen als mehrere einzelne Personen. Kann dies berücksichtigt werde, wird die Prädiktion dadurch verbessert.
  • In weiterer vorteilhafter Ausgestaltung der Erfindung ist das zumindest eine weitere Objekt das Kraftfahrzeug selbst. Das heißt, das Kraftfahrzeug selbst wird als Einflussfaktor auf die Bewegung des lebenden Objekts berücksichtigt. Das Verfahren kennt die Objektklasse sowie Position und Bewegung des Kraftfahrzeugs. Dadurch ergibt sich ebenfalls eine verbesserte Prädiktion der Bewegung des lebenden Objekts. Dadurch kann beispielsweise ein unnötiges Bremsmanöver durch das Fahrerassistenzsystem vermieden werden, da das Kraftfahrzeug in der Regel abstoßend auf das lebende Objekt wirkt, wodurch das lebende Objekt von sich aus versucht zumindest einen Mindestabstand zu Kraftfahrzeug einzuhalten. Ohne die Einbeziehung des Kraftfahrzeugs als Objekt könnte diese Informationen nicht in die Bewegungsgleichung einfließen, wodurch das Fahrerassistenzsystem Informationen enthält, welche eine Kollision als wahrscheinlicher vorhersagen, was zu dem Bremsmanöver führen könnte.
  • Ferner umfasst die Erfindung eine Einrichtung zum Betreiben eines Fahrerassistenzsystems eines Kraftfahrzeugs, wobei die dem Fahrerassistenzsystem zugeordnete Einrichtung über wenigstens eine signalübertragende Schnittstelle mit wenigsten einer Sensoreinheit verbindbar ist. Die Einrichtung ist dazu ausgebildet, zumindest ein lebendes Objekt sowie zumindest ein weiteres Objekt in einer Umgebung des Kraftfahrzeugs und deren jeweilige Objektposition anhand von durch die mindestens eine Sensoreinheit erzeugten und an der Schnittstelle empfangenen Messdaten zu erfassen. Die Einrichtung ist dazu ausgebildet die anhand der Messdaten erfassten Objekte in Objektklassen einzuteilen, wobei für eine jeweilige Kombination einer Objektklasse des lebenden Objekts und des weiteren Objekts ein jeweiliges Bewegungsmodell in der Einrichtung hinterlegt und/oder von dieser abrufbar ist. Das jeweilige Bewegungsmodell charakterisiert eine Bewegungsänderung eines Objekts der Objektklasse des lebenden Objekts aufgrund eines Objekts der Objektklasse des weiteren Objekts, wobei das jeweilige Bewegungsmodell mittels eines jeweiligen Potentialfelds beschrieben ist. Die Einrichtung ist dazu ausgebildet, eine Bewegungsgleichung des wenigstens einen lebenden Objekts in Abhängigkeit zumindest des der Kombination der Objektklassen zugeordneten Bewegungsmodells und der Objektposition des lebenden Objekts und des wenigstens einen weiteren Objekts zu erstellen. Ferner ist die Einrichtung dazu ausgebildet, die Bewegung des wenigstens einen lebenden Objekts anhand der Bewegungsgleichung zu prädizieren und die prädizierte Bewegung des lebenden Objekts charakterisierende Daten dem Fahrerassistenzsystems an einer weiteren Schnittstelle bereitzustellen.
  • In weiterer Ausgestaltung der Erfindung sind die Messdaten wenigstens ein Bild wenigstens einer Kamera. Das heißt über die signalübertragende Schnittstelle empfängt die Einrichtung wenigstens ein Bild wenigstens einer als Kamera ausgebildeten Sensoreinheit. Vorteil davon ist, dass ein Bild leicht zu erzeugen ist und viele Informationen enthalten kann, das heißt mit einem Bild können auf einfache Weise viele Objekte erfasst werden.
  • In weiterer Ausgestaltung der Erfindung ist die Einrichtung dazu ausgebildet, bei einem Erfassen von Messdaten durch mehr als eine Sensoreinheit, die jeweiligen Messdaten der jeweiligen Sensoreinheit durch Fusion mit den jeweiligen anderen Messdaten der jeweiligen anderen Sensoreinheiten zu einem gemeinsamen Satz fusionierter Messdaten zusammenzufassen. Für die Überwachung des lebenden Objekts ist es von Vorteil alle verfügbaren Informationen des lebenden Objekts bestmöglich in vorhandenen Fusionsalgorithmen, wie z.B. Kalmanfilter oder Partikelfilter einfließen zu lassen. Durch die Fusion, beispielweise mittels Kalmanfilter, können Fehler unterschiedlicher Messdaten in dem gemeinsamen Satz fusionierter Messdaten möglichst klein gehalten werden. Gerade beispielsweise in Mehrkameraszenarien ist dies vorteilhaft, um die eindeutige Zuordnung beispielsweise von Fußgängern in Fußgängermengen zu gewährleisten.
  • Ferner umfasst die Erfindung ein Fahrerassistenzsystem, welches die erfindungsgemäße Einrichtung aufweist und/oder dazu ausgebildet ist das erfindungsgemäße Verfahren durchzuführen.
  • Darüber hinaus umfasst die Erfindung ein Kraftfahrzeug, welches die erfindungsgemäße Einrichtung und/oder das Fahrerassistenzsystem aufweist.
  • Zu der Erfindung gehören auch Weiterbildungen der erfindungsgemäßen Einrichtung, des Fahrerassistenzsystems und des Kraftfahrzeugs die Merkmale aufweisen, wie sie bereits im Zusammenhang mit den Weiterbildungen des erfindungsgemäßen Verfahrens beschrieben worden sind. Aus diesem Grund sind die entsprechenden Weiterbildungen der erfindungsgemäßen Einrichtung, dem Fahrerassistenzsystem und dem Kraftfahrzeug hier nicht noch einmal beschrieben. Ferner umfasst die Erfindung auch Weiterbildungen des erfindungsgemäßen Verfahrens, des Fahrerassistenzsystems und des Kraftfahrzeugs die Merkmale aufweisen, wie sie bereits im Zusammenhang mit den Weiterbildungen der erfindungsgemäßen Einrichtung beschrieben worden sind. Aus diesem Grund sind die entsprechenden Weiterbildungen des erfindungsgemäßen Verfahrens, dem Fahrerassistenzsystem und dem Kraftfahrzeug hier nicht noch einmal beschrieben.
  • Im Folgenden sind Ausführungsbeispiele der Erfindung beschrieben. Hierzu zeigt:
    • 1 schematische Draufsicht auf ein Kraftfahrzeug mit einem Fahrerassistenzsystem und einer erfindungsgemäßen Einrichtung, welche das erfindungsgemäße Verfahren durchführen kann, in einer Umgebung des Kraftfahrzeugs, in welcher sich zumindest ein lebendes Objekt sowie weitere Objekte befinden; und
    • 2 schematisches Diagramm eines Zusammenwirkens einzelner Komponenten des Verfahrens bei einer Überwachung des lebenden Objekts.
  • Bei den im Folgenden erläuterten Ausführungsbeispielen handelt es sich um bevorzugte Ausführungsformen der Erfindung. Bei den Ausführungsbeispielen stellen die beschriebenen Komponenten der Ausführungsformen jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind. Des Weiteren sind die beschriebenen Ausführungsformen auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.
  • In den Figuren sind funktionsgleiche Elemente jeweils mit denselben Bezugszeichen versehen.
  • 1 zeigt eine schematische Draufsicht auf ein Kraftfahrzeug 10 mit einem Fahrerassistenzsystem 12 und einer Einrichtung 14. Die Einrichtung 14 ist dazu ausgebildet ein Verfahren durchzuführen, mittels welchem das Fahrerassistenzsystem 12 des Kraftfahrzeugs 10 betrieben werden kann. Bei dem Verfahren wird eine Bewegung zumindest eines lebenden Objekts 16 in einer Umgebung 17 des Kraftfahrzeugs 10 prädiziert. Durch die Prädiktion lässt sich das Fahrerassistenzsystem besonders vorteilhaft betreiben, da beispielsweise eine Kollision mit dem lebenden Objekt 16 vermeidbar ist. Dafür ist die Einrichtung 14 so ausgebildet, dass das zumindest eine lebende Objekt 16 sowie zumindest ein weiteres Objekt 18, 20, 22 in der Umgebung 17 des Kraftfahrzeugs 10 und deren jeweilige Objektposition anhand von Messdaten erfasst werden können. Die durch wenigstens eine Sensoreinheit 24 bereitgestellten Messdaten sind von der Einrichtung 14 an einer Schnittstelle 26 empfangbar.
  • In einem Schritt a) des Verfahrens erfolgt ein hinterlegen von Bewegungsmodellen, wobei ein jeweiliges Bewegungsmodell eine von zumindest einem weiteren Objekt 18, 20, 22 abhängige Änderung der Bewegung des lebenden Objekts 16 beschreibt, wobei das lebende Objekt 16 und das zumindest eine weitere Objekt 18, 20, 22 jeweils einer Objektklasse angehören und die Bewegungsmodelle für Kombinationen der Objektklassen hinterlegt sind, wobei das jeweilige Bewegungsmodell mittels eines jeweiligen Potentialfelds beschrieben wird.
  • Für eine Durchführung des Schritts a) ist die Einrichtung 14 derart ausgebildet, dass sie beispielsweise eine Speichereinrichtung aufweist, auf welcher die Bewegungsmodelle der Objektklassen beziehungsweise der Kombination der Objektklassen hinterlegt sind und/oder die Einrichtung kann über eine weitere Schnittstelle die hinterlegten Bewegungsmodelle abrufen. In einem Schritt b) des Verfahrens werden Messdaten betreffend die Umgebung 17 des Kraftfahrzeugs 10 empfangen, dazu weist die Einrichtung 14 die Schnittstelle 26 auf. In einem Schritt c) des Verfahrens erfolgt ein Erkennen des zumindest einen lebenden Objekts 16 und des zumindest einen weiteren Objekts 18, 20, 22 in der Umgebung 17 des Kraftfahrzeugs 10 sowie ein bestimmen einer Relativposition wenigstens des zumindest einen lebenden Objekts zu dem zumindest einen weiteren Objekt 18, 20, 22 anhand der über die Schnittstelle 26 empfangenen Messdaten. Zusätzlich sind die Relativpositionen der weiteren Objekte 18, 20, 22 untereinander sowie eine jeweilige Objektorientierung der Objekte 16 bis 22 ebenfalls mittels des Verfahrens erfassbar beziehungsweis bestimmbar. In einem weiteren Schritt d) des Verfahrens werden die Objektklassen der erkannten Objekte 16, 18, 20, 22 identifiziert.
  • In einem Schritt e), welcher in wenigstens zwei Teilschritte unterteilt ist, erfolgt für das erfasste, lebende Objekt 16 in dem ersten Teilschritt ein Erstellen einer Bewegungsgleichung zumindest in Abhängigkeit von der jeweiligen Relativposition des lebenden Objekts 16 zu dem zumindest einem weiteren Objekt 18, 20, 22. Darüber hinaus ist die Bewegungsgleichung abhängig von dem für die Kombination der in Schritt d) identifizierten Objektklassen des lebenden Objekts 16 und des zumindest einen weiteren Objekts 18, 20, 22 jeweils hinterlegten Bewegungsmodell. Ferner können die jeweiligen Orientierungen der Objekte 16 bis 22 als zusätzliche Abhängigkeit in die Bewegungsgleichung einfließen. Im zweiten Teilschritt des Schritts e) erfolgt eine Prädiktion der Bewegung des lebenden Objekts 16 anhand der erstellten Bewegungsgleichung.
  • Im in 1 gezeigten Beispiel ist das weitere Objekte 18 ein Hund, das Objekt 20 ein Fahrradfahrer und das Objekt 22 eine Menschengruppe. Im Beispiel gehört der Hund der Objektklasse „Hund“ und der Fahrradfahrer der Objektklasse „Fahrradfahrer“ an. Die einzelnen Personen der Menschengruppe können als eine Gesamtheit der Objektklasse „Menschengruppe“ zugeordnet werden. Die Menschen könnten aber auch einzeln als jeweils ein Objekt einer Objektklasse „Fußgänger“, welcher auch das lebende Objekt 16 angehört, zugeordnet werden. Auch könnte sich ihr Zustand zwischen zwei zu jeweils einem unterschiedlichen Zeitpunkt aufgenommen Messdaten ändern, falls sich die Menschengruppe beispielsweise auflöst.
  • Im Schritt f) wird das Fahrerassistenzsystem 12 unter Einbeziehung der in Schritt e) prädizierten Bewegung des wenigstens einen lebenden Objekts 16, dem Fußgänger betrieben, sodass beispielsweise eine Kollision mit dem Fußgänger, aufgrund der im Verfahren prädizierten Bewegung, durch das Fahrerassistenzsystem 12 verhindert werden kann.
  • Die Sensoreinheit 24 der gezeigten Ausführungsform ist als eine Kamera ausgebildet. Es können mehrere Sensoreinheiten 24 verwendet werden, um beispielweise einen größeren Ausschnitt der Umgebung 17 zu erfassen und/oder bei widrigen Sichtverhältnissen möglichst viele Informationen über die Objekte in den Messdaten zu erfassen, beispielsweise durch die Verwendung von mehreren Kameras, welche jeweils in unterschiedlichen Lichtspektren Messdaten aufzeichnen. Bei der Verwendung mehrerer Sensoreinheiten können die Messdaten fusionierte werden, beispielsweise mittels Kalmanfilter, um beispielsweise Fehler in den Messdaten gering zu halten.
  • Damit die einzelnen Schritte a) bis f) des Verfahrens von der Einrichtung 14 durchgeführt werden können, weist diese beispielsweise eine elektronische Recheneinrichtung auf, auf welcher eine Auswertesoftware für die über die Schnittstelle 26 empfangenen Messdaten ausführbar ist, sodass die Objekte 16 bis 22 in den Messdaten erfasst werden und darüber hinaus deren Position und deren Objektorientierung im Raum beziehungsweise der Umgebung 17 des Fahrzeugs ermittelt werden. Zusätzlich ist mittels der elektronischen Recheneinrichtung beispielsweise ein Klassifikator ausführbar, welcher das Ermitteln beziehungsweise Klassifizieren der Objekte 16 bis 22 in die Objektklassen übernimmt. Darüber hinaus kann die Einrichtung 14 eine weitere Schnittstelle 28 aufweisen, welche Informationen über die prädizierte Bewegung dem Fahrerassistenzsystem 12 bereitstellen kann, sodass dieses beispielsweise besonders verkehrssicher betreibbar ist.
  • Das lebende Objekt 16, der Fußgänger, ist derart orientiert, dass seine Blickrichtung, welche mit der Objektorientierung gleichgesetzt werden kann, auf einen rechten Bürgersteig 30 der Umgebung 17 gerichtet ist. Die Objektorientierung ist durch die Blickrichtung 32 dargestellt. Durch diese Objektorientierung erfasst das lebende Objekt 16, der Fußgänger, alle in der Umgebung befindlichen weiteren Objekte 18 bis 22, den Hund, den Fahrradfahrer und die Menschengruppe. Das heißt, ein jeweiliges dieser Objekte 18 bis 22 bildet eine Informationsquelle für den Fußgänger, das lebende Objekt 16, durch welche er sich in seiner Bewegung beeinflussen lässt beziehungsweise ablenkbar ist. Falls die Sensoreinheit 24 diesen Zustand der Umgebung 17 in den Messdaten erfasst, fließt jeweils ein Bewegungsmodell, für die Kombination „Fußgänger-Hund“, „Fußgänger-Fahrradfahrer“ und „Fußgänger-Menschengruppe“ in die Bewegungsgleichung ein.
  • So kann beispielsweise das Bewegungsmodell „Fußgänger-Hund“ die Reaktion eines Fußgängers auf einen Hund beschreiben, beispielsweise wirkt der Hund abstoßend auf einen Fußgänger. Mit anderen Worten wirkt auf den Fußgänger eine durch den Hund vermittelte abstoßende Kraft, insbesondere wenn beispielsweise ein Potentialfeldansatz auf Grundlage einer Variante des „Social Force Models“ für die Bewegungsmodelle angenommen wird. Der Hund nimmt beispielsweise derart Einfluss auf die Bewegung des Fußgängers, dass dieser eine gewissen Mindestabstand zu dem Hund einhalten wird. Befindet sich der Hund also zumindest in der Nähe einer Route, entlang welcher sich der Fußgänger bewegt, wird dieser seine Route korrigieren und beispielsweise einen Bogen mit zumindest dem Mindestabstand um den Hund machen, bevor er wieder der ursprünglichen Route zu seinem Ziel folgt. Dieser Mindestabstand könnte unterschritten werden, beispielsweise falls der Fußgänger mit großer Geschwindigkeit unterwegs ist und/oder den Hund nicht rechtzeitig bemerkt. Das jeweilige Bewegungsmodell ist vorteilhafterweise so ausgebildet, dass solche Situationen mit berücksichtigt werden können. Soll ein Hund als lebendes Objekt überwacht werden und der Einfluss eines Objekts der Objektklasse „Fußgänger“ auf den Hund in die Bewegungsgleichung mit einfließen, sollte ein „Hund-Fußgänger“ Bewegungsmodell hinterlegt sein.
  • Das jeweilige Bewegungsmodelle wird durch ein jeweiliges Potentialfelds beschrieben. Aus dem jeweiligen Potentialfeld wird beispielsweise ein jeweiliger Gradient des Potentialfelds an der Position des Fußgängers bestimmt, wozu die Relativpositionen verwendet werden können. Das heißt, im gezeigten Beispiel die Relativpositionen zu dem lebenden Objekt 16: „Fußgänger zu Hund“, „Fußgänger zu Fahrradfahrer“ und „Fußgänger zu Menschengruppen“. Aus dem jeweiligen Gradienten kann ein jeweiliger Beschleunigungsvektor, welcher einen jeweiligen Teil der Bewegungsänderung des lebenden Objekts 16 charakterisiert, ermittelt werden. Der jeweilige Bescheinigungsvektor wird in der Bewegungsgleichung für die Prädiktion der Bewegung verwendet. Aufgrund des Verfahrens ist eine intuitive Parametrisierung eines Potentialfeldansatzes zur Verbesserung der Überwachung der Bewegung von lebenden Objekten, insbesondere Fußgängern, möglich.
  • Es gilt, je besser die hinterlegten Bewegungsmodelle und/oder die Messdaten, desto besser die Prädiktion der Bewegung des lebenden Objekts 16. Die Bewegungsmodelle können beispielsweise aus dem bekannten „Social Force Model“ oder aus einem ähnlichen Modell zur Beschreibung von Fußgängerbewegungen abgeleitet werden. Die Bewegungsmodelle können Feinheiten berücksichtigen, wie beispielweise, dass ein Kind in der Nähe zumindest eines Erwachsenen von diesen angezogen wird, da es sich dabei häufig um zumindest einen Elternteil des Kindes handelt.
  • Um die Prädiktion der Bewegung zu verbessern ist es von Vorteil, dass Messdaten von unterscheidbaren, aufeinanderfolgenden Zeitpunkten ausgewertet werden und anhand dieser Messdaten das Verfahren zu jedem dieser Zeitpunkte wiederholt wird. Je nach Abstand der Zeitpunkte ist eine quasi-kontinuierliche Überwachung des Fußgängers, ein sogenanntes Fußgängertracking, möglich. Um bei solch einem kontinuierlichen Fußgängertracking die Genauigkeit der Prädiktion zu verbessern, kann, mittels des Verfahrens anhand einer Auswertung der Messdaten, eine jeweilige Position des jeweiligen erkannten Objekts kontrolliert werden. Darüber hinaus können beispielsweise durch eine Differenzbildung zeitlich aufeinanderfolgender Messdaten Bewegungen der jeweiligen Objekte bestimmt werden. Woraus eine jeweilige Geschwindigkeit und/oder Beschleunigung und/oder Bewegungsrichtung des jeweiligen Objekts bestimmbar ist, welche in die Bewegungsgleichung einfließen können. So kann beispielsweise zu einem ersten Zeitpunkt der Hund ruhen und dadurch wenig Einfluss auf die Bewegung des Fußgängers, dem lebenden Objekt 16, nehmen. Setzt sich der Hund jedoch Richtung Fußgänger in Bewegung wird dessen Einfluss größer, dies kann von dem Verfahren berücksichtigt werden.
  • Vorteilhafterweise wird eine Karte der Umgebung, welche beispielsweise ebenfalls in der Vorrichtung 14 hinterlegt sein kann, mit der ermittelten Bewegungsgleichung abgeglichen. So kann für den Fall, dass auf der Karte beispielsweise Hindernisse und/oder Objekte von Interesse für den Fußgänger, wie beispielsweise ein Geldautomat erkannt werden, dies in die Prädiktion der Bewegung mittels der Bewegungsgleichung einfließen. So kann im Beispiel die Bewegung des Fußgängers unabhängig von der Kenntnis seines tatsächlichen Ziels, dem rechten Bürgersteig 30, bestimmt werden. Jedoch ist unter Zuhilfenahme von Karteninformationen deutlich, dass der Fußgänger, das lebende Objekt 16, die Straßen überqueren will, was aus der Blickrichtung 32 ableitbar ist. Somit kann eine Intention des Fußgängers, das heißt das von ihm erreichbare Ziel, besser bestimmt werden.
  • Vorteilhafterweise, insbesondere bei einer wie der in 1 gezeigten Situation, wenn der für das lebenden Objekts 16 prädizierte Weg die Fahrtrichtung 34 des Kraftfahrzeugs 10 kreuzt, wird das Kraftfahrzeug 10 selbst als weiteres Objekt in das Verfahren mit aufgenommen.
  • Die Menschengruppe, das weitere Objekt 22, ist ein Beispiel dafür, dass, wenn wenigstens zwei weitere Objekte erfasst und klassifiziert werden, eine jeweilige Änderung der jeweiligen Bewegung des jeweiligen weiteren Objekts, aufgrund einer gegenseitigen Wechselwirkung zwischen den wenigstens zwei weiteren Objekten, hier den gezeigten vier Fußgängern die die Menschengrupp bilden, ermittelt und in der Bewegungsgleichung des wenigstens einen lebenden Objekts 16 berücksichtigt wird. Dabei wird die Wechselwirkung aus dem jeweiligen hinterlegten Bewegungsmodelle und von der jeweiligen Relativposition bestimmt. Das heißt, mehrere nahe beieinander seiende Fußgänger, wie in der Menschengruppe, können eine gemeinsame Dynamik in ihrer Bewegung entwickeln und sind dadurch vorteilhafterweise nicht mehr als sich frei bewegende einzelne Objekte zu betrachten. In dem ihre gegenseitige Wechselwirkung berücksichtigt wird, verbessert sich somit die Bewegungsgleichung des lebenden Objekts 16. Bei dem gezeigten Verfahren können folgende, sogenannte Rahmenbedingungen eingehalten werden: eine Trennung von Dynamik und Informationsquellen; eine Parametrierung der Dynamik und der Informationsquellen relativ zu der Intention des lebenden Objekts; Verwendung der Erkenntnisse des „Social Force Model“ bei der Definition der einzelnen Potentialfelder. Dadurch können sich beispielsweise besonders wenige dafür intuitive Parameter ergeben.
  • 2 zeigt ein schematisches Diagramm eines Zusammenwirkens einzelner Komponenten des Verfahrens für die Überwachung des lebenden Objekts 16. Dabei erfolgt die Überwachung, das sogenannte Tracking 36, beispielsweise auf Grundlage von Karteninformationen 38, einer Intention 40 des lebenden Objekts 16 sowie den, insbesondere dynamischen, weiteren Objekten, beispielsweise den Objekten 18, 20 und 22, welche in dem Block 42 zusammengefasst sind. Dabei können dynamische Objekte Fußgänger, Hunde, Fahrradfahrer und/oder Kraftfahrzeuge sein. Des Weiteren könnten statt der dynamischen Objekte semistatische Objekte, wie beispielsweise mobile Ampeln und/oder statische Objekte wie eine Telefonzelle oder Ähnliches im Verfahren berücksichtigt werden. Aus der Intention 40 des lebenden Objekts 16 ist dessen Bewegung ableitbar, diese weist eine Dynamik 44 auf. Beispielsweise kann die Dynamik eines Fußgängers dessen maximal erreichbare Geschwindigkeit und/oder ein Abbremsen und/oder seine Geschwindigkeit bei Richtungswechseln beschreiben. Diese Informationen sind vorteilhafterweise in dem jeweiligen Bewegungsmodelle hinterlegt, welches einen Einfluss auf die Änderung der Bewegung des lebenden Objekts 16 aufgrund eines weiteren Objekts aus Block 42 beschreibt, enthalten. Um die Bewegungsgleichung des Fußgängers möglichst einfach bestimmen zu können, erfolgt jeweils eine Parametrisierung beispielsweise der Karteninformationen 38 und/oder der im Block 42 zusammen gefassten weiteren Objekte. Die Parametrisierung ist durch die Pfeile 44 angedeutet, und soll deren mögliche, jeweilige Unabhängigkeit der jeweiligen Parameter darstellen. Ferner können die Karteninformationen 38 sowie die Objekte des Blocks 42 jeweils eine eigene Dynamik 46 aufweisen. Solch eine Dynamik 46 können im Fall der Karteninformationen 38 beispielsweise Echtzeitinformationen der Verkehrslage sein, wodurch beispielsweise Straßensperrungen berücksichtigt werden können.
  • Insgesamt zeigen die Beispiele, wie durch die Erfindung ein Verfahren und/oder eine Einrichtung 14 und/oder ein Fahrerassistenzsystem 12 und/oder ein Kraftfahrzeug 10 bereitgestellt wird, mittels jeweils welchem beziehungsweise welcher eine Bewegung zumindest eines lebenden Objekts 16 in besonders vorteilhafter Weise prädiziert und dadurch insbesondere das Fahrerassistenzsystem 12 unter Einbeziehung dieser Prädiktion besonders vorteilhaft betrieben werden kann.

Claims (12)

  1. Verfahren zum Betreiben eines Fahrerassistenzsystems (12) eines Kraftfahrzeugs (10), bei welchem eine Bewegung zumindest eines lebenden Objekts (16) in einer Umgebung (17) des Kraftfahrzeugs (10) prädiziert wird, folgende Schritte umfassend: a) Hinterlegen von Bewegungsmodellen, wobei ein jeweiliges Bewegungsmodell eine von zumindest einem weiteren Objekt (18, 20, 22) abhängige Änderung der Bewegung des lebenden Objekts (16) beschreibt, wobei das lebende Objekt (16) und das zumindest eine weitere Objekt (18, 20, 22) jeweils einer Objektklasse angehören und die Bewegungsmodelle für Kombinationen der Objektklassen hinterlegt sind, wobei das jeweilige Bewegungsmodell mittels eines jeweiligen Potentialfelds beschrieben wird. b) Empfangen von Messdaten betreffend die Umgebung (17) des Kraftfahrzeugs (10); c) Erkennen des zumindest einen lebenden Objekts (16) und des zumindest einen weiteren Objekts (18, 20, 22) in der Umgebung (17) des Kraftfahrzeugs (10) sowie Bestimmen einer Relativposition der Objekte (16, 18, 20, 22) zueinander anhand der empfangenen Messdaten; d) Identifizieren der Objektklassen der erkannten Objekte (16 bis 22); e) für das zumindest eine erfasste, lebende Objekt (16): i. Erstellen einer Bewegungsgleichung des lebenden Objekts (16) zumindest in Abhängigkeit von der jeweiligen Relativposition des lebenden Objekts (16) zu dem zumindest einem weiteren Objekt (18, 20, 22) sowie dem zumindest einen für die Kombination der in Schritt d) identifizierten Objektklassen hinterlegten Bewegungsmodell; ii. Prädiktion der Bewegung des lebenden Objekts (16) anhand der in Schritt e) i. erstellten Bewegungsgleichung; und f) Betreiben des Fahrerassistenzsystems (12) unter Einbeziehen der in Schritt e) prädizierten Bewegung des wenigsten einen lebenden Objekts.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Bewegungsgleichung in Schritt e) zusätzlich in Abhängigkeit von einer jeweiligen Objektorientierung bestimmt wird, wobei diese dazu in Schritt c) mit bestimmt wird.
  3. Verfahren nach Anspruch 1 oder 2; dadurch gekennzeichnet, dass die Bewegungsgleichung in Schritt e) zusätzlich in Abhängigkeit von einer jeweiligen Bewegungsrichtung und/oder Geschwindigkeit und/oder Beschleunigung des lebenden Objekts (16) und/oder des wenigstens einen weiteren Objekts (18, 20, 22) erstellt wird, wobei die aus Messdaten zu einem ersten Zeitpunkt ermittelten Positionen der erkannten Objekte (16 bis 22) mit aus Messdaten zu zumindest einem weiteren Zeitpunkt ermittelten Positionen verglichen werden, wodurch eine jeweilige Bewegungsrichtung und/oder eine jeweilige Geschwindigkeit und/oder eine jeweilige Beschleunigung des jeweiligen Objekts (16 bis 22) bestimmt wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein jeweiliger Gradient aus dem jeweiligen Potentialfeld gebildet wird und die Bewegungsgleichung in Abhängigkeit von zumindest dem jeweiligen Gradienten erstellt wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren in Schritt e) einen weiteren Teilschritt umfasst, bei welchem die Bewegungsgleichung mit einer Karte der Umgebung (17) des Kraftfahrzeugs (10) abgeglichen und falls mittels der in Schritt e) i. ermittelten Bewegungsgleichung die in Schritt e) ii prädizierte Bewegung aufgrund der Karteninformation als nicht ausführbar erkannt wird, die Bewegungsgleichung und die Prädiktion der Bewegung anhand von Informationen der Karte korrigiert wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für den Fall, dass wenigstens zwei weitere Objekte (18, 20, 22) erfasst und klassifiziert werden, eine jeweilige Änderung der jeweiligen Bewegung des jeweiligen weiteren Objekts (18, 20, 22) aufgrund einer gegenseitigen Wechselwirkung zwischen den wenigstens zwei weiteren Objekten (18, 20, 22) ermittelt und in der Bewegungsgleichung des wenigstens einen lebenden Objekts (16) berücksichtigt wird, wobei die Wechselwirkung aus dem jeweiligen hinterlegten Bewegungsmodell und der jeweiligen Relativposition bestimmt wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das zumindest eine weitere Objekt das Kraftfahrzeug (10) selbst ist.
  8. Einrichtung (14) zum Betreiben eines Fahrerassistenzsystems (12) eines Kraftfahrzeugs (10), wobei die dem Fahrerassistenzsystem (12) zugeordnete Einrichtung (14) über wenigstens eine signalübertragende Schnittstelle (26) mit wenigsten einer Sensoreinheit (24) verbindbar ist, dadurch gekennzeichnet, dass die Einrichtung (14) dazu ausgebildet ist: - zumindest ein lebendes Objekt (16) sowie zumindest ein weiteres Objekt (18, 20, 22) in einer Umgebung (17) des Kraftfahrzeugs (10) und deren jeweilige Objektposition anhand von durch die mindestens eine Sensoreinheit (24) erzeugten und an der Schnittstelle (26) empfangenen Messdaten zu erfassen; - die anhand der Messdaten erfassten Objekte (16 bis 22) in Objektklassen einzuteilen, wobei für eine jeweilige Kombination einer Objektklasse des lebenden Objekts (16) und des weiteren Objekts (18, 20, 22) ein jeweiliges Bewegungsmodell in der Einrichtung (14) hinterlegt und/oder von dieser abrufbar ist, wobei das jeweilige Bewegungsmodell eine Bewegungsänderung eines Objekts der Objektklasse des lebenden Objekts (16) aufgrund eines Objekts der Objektklasse des weiteren Objekts (18, 20, 22) charakterisiert und das jeweilige Bewegungsmodell mittels eines jeweiligen Potentialfelds beschrieben ist; - eine Bewegungsgleichung des wenigstens einen lebenden Objekts (16) in Abhängigkeit zumindest des der Kombination der Objektklassen zugeordneten Bewegungsmodells, der Objektposition des lebenden Objekts (16) und des wenigstens einen weiteren Objekts (18, 20, 22) zu erstellen; - die Bewegung des wenigstens eine lebenden Objekts (16) anhand der Bewegungsgleichung zu prädizieren und die prädizierte Bewegung des lebenden Objekts (16) charakterisierende Daten dem Fahrerassistenzsystems (12) an einer weiteren Schnittstelle (28) bereitzustellen.
  9. Einrichtung (14) nach Anspruch 8, dadurch gekennzeichnet, dass die Messdaten wenigstens ein Bild wenigstens einer Kamera sind.
  10. Einrichtung (14) nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass die Einrichtung (14) dazu ausgebildet ist, bei einem Erfassen von Messdaten durch mehr als eine Sensoreinheit (24), die jeweiligen Messdaten der jeweiligen Sensoreinheit (24) durch Fusion mit den jeweiligen anderen Messdaten der jeweiligen anderen Sensoreinheiten (24) zu einem gemeinsamen Satz fusionierter Messdaten zusammenzufassen.
  11. Fahrerassistenzsystem (12) aufweisend eine Einrichtung (14) nach Anspruch 8 bis 10 und/oder dazu ausgebildet, ein Verfahren nach einem der Ansprüche 1 bis 7 durchzuführen.
  12. Kraftfahrzeug (10) aufweisend eine Einrichtung (14) nach Anspruch 8 bis 10 und/oder ein Fahrerassistenzsystem (12) nach Anspruch 11.
DE102017217056.5A 2017-09-26 2017-09-26 Verfahren und Einrichtung zum Betreiben eines Fahrerassistenzsystems sowie Fahrerassistenzsystem und Kraftfahrzeug Active DE102017217056B4 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102017217056.5A DE102017217056B4 (de) 2017-09-26 2017-09-26 Verfahren und Einrichtung zum Betreiben eines Fahrerassistenzsystems sowie Fahrerassistenzsystem und Kraftfahrzeug
US16/632,610 US20200211395A1 (en) 2017-09-26 2018-09-20 Method and Device for Operating a Driver Assistance System, and Driver Assistance System and Motor Vehicle
PCT/EP2018/075500 WO2019063416A1 (de) 2017-09-26 2018-09-20 Verfahren und einrichtung zum betreiben eines fahrerassistenzsystems sowie fahrerassistenzsystem und kraftfahrzeug
CN201880050181.5A CN111033510B (zh) 2017-09-26 2018-09-20 用于运行驾驶员辅助系统的方法和装置以及驾驶员辅助系统和机动车

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017217056.5A DE102017217056B4 (de) 2017-09-26 2017-09-26 Verfahren und Einrichtung zum Betreiben eines Fahrerassistenzsystems sowie Fahrerassistenzsystem und Kraftfahrzeug

Publications (2)

Publication Number Publication Date
DE102017217056A1 DE102017217056A1 (de) 2019-03-28
DE102017217056B4 true DE102017217056B4 (de) 2023-10-12

Family

ID=63685967

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017217056.5A Active DE102017217056B4 (de) 2017-09-26 2017-09-26 Verfahren und Einrichtung zum Betreiben eines Fahrerassistenzsystems sowie Fahrerassistenzsystem und Kraftfahrzeug

Country Status (4)

Country Link
US (1) US20200211395A1 (de)
CN (1) CN111033510B (de)
DE (1) DE102017217056B4 (de)
WO (1) WO2019063416A1 (de)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112018007484T5 (de) * 2018-04-16 2021-02-25 Mitsubishi Electric Corporation Hindernis-Detektionsvorrichtung, automatische Bremsvorrichtung unter Verwendung einer Hindernis-Detektionsvorrichtung, Hindernis-Detektionsverfahren und automatisches Bremsverfahren unter Verwendung eines Hindernis-Detektionsverfahrens
DE102018214635A1 (de) * 2018-08-29 2020-03-05 Robert Bosch Gmbh Verfahren zur Vorhersage zumindest eines zukünftigen Geschwindigkeitsvektors und/oder einer zukünftigen Pose eines Fußgängers
US11667301B2 (en) * 2018-12-10 2023-06-06 Perceptive Automata, Inc. Symbolic modeling and simulation of non-stationary traffic objects for testing and development of autonomous vehicle systems
GB202114202D0 (en) 2019-05-07 2021-11-17 Motional Ad Llc Systems and methods for planning and updating a vehicle's trajectory
DE112020002666T5 (de) * 2019-06-06 2022-05-12 Mobileye Vision Technologies Ltd. Systeme und verfahren für die fahrzeugnavigation
CN112242069B (zh) 2019-07-17 2021-10-01 华为技术有限公司 一种确定车速的方法和装置
DE102019213222B4 (de) * 2019-09-02 2022-09-29 Volkswagen Aktiengesellschaft Verfahren zum Vorhersagen einer zukünftigen Fahr-Situation eines am Straßenverkehr teilnehmenden Fremd-Objektes, Vorrichtung, Fahrzeug
DE102019215141B4 (de) * 2019-10-01 2023-10-12 Volkswagen Aktiengesellschaft Verfahren zum Prognostizieren einer zukünftigen Verkehrssituation in einer Umgebung eines Kraftfahrzeugs durch Bestimmen mehrerer in sich konsistenter Gesamtszenarios für unterschiedliche Verkehrsteilnehmer; Kraftfahrzeug
DE102019127176A1 (de) * 2019-10-09 2021-04-15 Ford Global Technologies, Llc Steuern eines autonomen Fahrzeugs
US11756418B2 (en) * 2019-10-18 2023-09-12 Honda Motor Co., Ltd. Device, method, and storage medium
US11912271B2 (en) 2019-11-07 2024-02-27 Motional Ad Llc Trajectory prediction from precomputed or dynamically generated bank of trajectories
DE102019218455A1 (de) * 2019-11-28 2021-06-02 Volkswagen Aktiengesellschaft Verfahren zum Betreiben einer Fahrassistenzvorrichtung eines Fahrzeugs, Fahrassistenzvorrichtung und Fahrzeug, aufweisend zumindest eine Fahrassistenzvorrichtung
EP4077083A1 (de) * 2019-12-18 2022-10-26 Volvo Truck Corporation Verfahren zur erzeugung eines positiven entscheidungssignals für ein fahrzeug
CN112562314B (zh) * 2020-11-02 2022-06-24 福瑞泰克智能系统有限公司 基于深度融合的路端感知方法、装置、路端设备和系统
CN112581756B (zh) * 2020-11-16 2021-12-24 东南大学 一种基于混合交通的行车风险评估方法
CN113131981B (zh) * 2021-03-23 2022-08-26 湖南大学 一种混合波束成形方法、装置及存储介质
DE102021208191A1 (de) 2021-07-29 2023-02-02 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum zumindest teilautomatisierten Führen eines Kraftfahrzeugs
CN113306552B (zh) * 2021-07-31 2021-10-01 西华大学 混合道路拥堵状态下无人驾驶汽车的超低速蠕行方法
DE102021213304A1 (de) 2021-11-25 2023-05-25 Psa Automobiles Sa Soziale-Kräfte-Modelle zur Trajektorien-Prädiktion anderer Verkehrsteilnehmer
DE102021213538A1 (de) 2021-11-30 2023-06-01 Psa Automobiles Sa Simulation zur Validierung einer automatisierenden Fahrfunktion für ein Fahrzeug
CN114590248B (zh) * 2022-02-23 2023-08-25 阿波罗智能技术(北京)有限公司 行驶策略的确定方法、装置、电子设备和自动驾驶车辆

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10325762A1 (de) 2003-06-05 2004-12-23 Daimlerchrysler Ag Bildverarbeitungssystem für ein Fahrzeug
JP2009175814A (ja) 2008-01-22 2009-08-06 Alpine Electronics Inc 車両運転支援装置
DE102013202463A1 (de) 2013-02-15 2014-08-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Ermitteln eines Bewegungsmodells
DE102013206023A1 (de) 2013-04-05 2014-10-09 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zum Verbessern der Verkehrssicherheit von Kindern und Jugendlichen
DE102013017626A1 (de) 2013-10-23 2015-04-23 Audi Ag Verfahren zur Warnung weiterer Verkehrsteilnehmer vor Fußgängern durch ein Kraftfahrzeug und Kraftfahrzeug
DE102014215372A1 (de) 2014-08-05 2016-02-11 Conti Temic Microelectronic Gmbh Fahrerassistenzsystem
DE102015015021A1 (de) 2015-11-20 2016-05-25 Daimler Ag Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs
DE102015206335A1 (de) 2015-04-09 2016-10-13 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Warnen eines Verkehrsteilnehmers

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080065328A1 (en) * 2006-09-08 2008-03-13 Andreas Eidehall Method and system for collision avoidance
JP4967015B2 (ja) * 2007-04-02 2012-07-04 パナソニック株式会社 安全運転支援装置
DE102013013867A1 (de) * 2013-08-20 2015-03-12 Audi Ag Kraftfahrzeug und Verfahren zur Steuerung eines Kraftfahrzeugs

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10325762A1 (de) 2003-06-05 2004-12-23 Daimlerchrysler Ag Bildverarbeitungssystem für ein Fahrzeug
JP2009175814A (ja) 2008-01-22 2009-08-06 Alpine Electronics Inc 車両運転支援装置
DE102013202463A1 (de) 2013-02-15 2014-08-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Ermitteln eines Bewegungsmodells
DE102013206023A1 (de) 2013-04-05 2014-10-09 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zum Verbessern der Verkehrssicherheit von Kindern und Jugendlichen
DE102013017626A1 (de) 2013-10-23 2015-04-23 Audi Ag Verfahren zur Warnung weiterer Verkehrsteilnehmer vor Fußgängern durch ein Kraftfahrzeug und Kraftfahrzeug
DE102014215372A1 (de) 2014-08-05 2016-02-11 Conti Temic Microelectronic Gmbh Fahrerassistenzsystem
DE102015206335A1 (de) 2015-04-09 2016-10-13 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Warnen eines Verkehrsteilnehmers
DE102015015021A1 (de) 2015-11-20 2016-05-25 Daimler Ag Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HELBING, Dirk ; MOLNÁR, Péter: Social force model for pedestrian dynamics. In: Physical Review E. 1995, Vol. 51, No. 5, S. 4282-4286. - ISSN 1063-651X (P), 1095-3787 (E). DOI: 10.1103/PhysRevE.51.4282. URL: https://www.tib.eu/de/suchen/download/?tx_tibsearch_search%5Bdocid%5D=aps%3Adoi~10.1103%252FPhysRevE.51.4282&cHash=73bfaf56f56442d6654235629f422c12#download-mark [abgerufen am 2018-03-06]
YAMAGUCHI, Kota [et al.]: Who are you with and where are you going? In: 2011 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 20-25 June 2011, Colorado Springs, CO, USA. 2011, S. 1345-1352. - ISSN 1063-6919 (P). DOI: 10.1109/CVPR.2011.5995468. URL: http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=5995468 [abgerufen am 2018-03-06]
YI, Shuai ; LI, Hongsheng ; WANG, Xiaogang: Understanding pedestrian behaviors from stationary crowd groups. In: 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 7-12 June 2015, Boston, MA, USA. 2015, S. 3488-3496. - ISSN 1063-6919 (P). DOI: 10.1109/CVPR.2015.7298971. URL: http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7298971 [abgerufen am 2018-03-06]

Also Published As

Publication number Publication date
US20200211395A1 (en) 2020-07-02
WO2019063416A1 (de) 2019-04-04
DE102017217056A1 (de) 2019-03-28
CN111033510B (zh) 2024-02-13
CN111033510A (zh) 2020-04-17

Similar Documents

Publication Publication Date Title
DE102017217056B4 (de) Verfahren und Einrichtung zum Betreiben eines Fahrerassistenzsystems sowie Fahrerassistenzsystem und Kraftfahrzeug
EP3155603B1 (de) Verfahren zur ermittlung von positionsdaten zur nutzung beim betrieb eines fahrzeugsystems eines kraftfahrzeugs und positionsdatenermittlungs- und -verteilungssystem
DE102009006113B4 (de) Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten
DE602005003926T2 (de) System und verfahren zum erkennen eines vorbeikommenden fahrzeugs aus dynamischem hintergrund unter verwendung robuster informationsfusion
DE112008001804B4 (de) Verfahren zum Bestimmen eines wahrscheinlichen Bewegungs-Aufenthaltsbereichs eines Lebewesens
DE102013005362A1 (de) Verfahren zur Analyse einer Verkehrssituation
DE10325762A1 (de) Bildverarbeitungssystem für ein Fahrzeug
EP1897032A1 (de) Verfahren und bildauswertungseinheit zur szenenanalyse
DE102014215057A1 (de) Bestimmung einer Kollisionswahrscheinlichkeit auf Basis einer Kopforientierung eines Fußgängers
DE102019209736A1 (de) Verfahren zur Bewertung möglicher Trajektorien
EP3818466B1 (de) Schnelle erkennung gefährlicher oder gefährdeter objekte im umfeld eines fahrzeugs
DE102019122536A1 (de) Exzentrizitätskarten
DE102017111468A1 (de) Fahrzeugsystem und Verfahren zum Bestimmen, ob ein Fahrzeuginsasse ein fahrzeugexternes Objekt wahrgenommen hat
DE102018121008A1 (de) Kreuzverkehrserfassung unter verwendung von kameras
DE102016201299A1 (de) Umgebungserkennungssystem
DE102016119729A1 (de) Steuern eines Personenbeförderungsfahrzeugs mit Rundumsichtkamerasystem
DE102016220450A1 (de) Vorrichtung, Fortbewegungsmittel und Verfahren zur Abschätzung einer Kollisionswahrscheinlichkeit zwischen einem Fortbewegungsmittel und einem Umgebungsobjekt
EP3844664A1 (de) VERFAHREN ZUR VORHERSAGE ZUMINDEST EINES ZUKÜNFTIGEN GESCHWINDIGKEITSVEKTORS UND/ODER EINER ZUKÜNFTIGEN POSE EINES FUßGÄNGERS
DE102018213378B4 (de) Fahrassistenzsystem für ein Fahrzeug, Fahrzeug mit demselben und Fahrassistenzverfahren für ein Fahrzeug
DE102019204187A1 (de) Klassifizierung und temporale Erkennung taktischer Fahrmanöver von Verkehrsteilnehmern
DE102022000849A1 (de) Verfahren zur Erzeugung einer Umgebungsrepräsentation für ein Fahrzeug
DE102020200876B4 (de) Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs
DE102004047122A1 (de) Verfahren zum Überwachen eines Fahrzeugs
WO2021047827A1 (de) Verfahren zur kollisionsvermeidung im strassenverkehr auf basis einer adaptiven festlegung von aufenthaltsbereichen
DE10346573B4 (de) Umfelderfassung mit Kompensation der Eigenbewegung für sicherheitskritische Anwendungen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division