DE102009033853A1 - Verfahren zum Betrieb eines Fahrerassistenzsystems und Vorrichtung zur Durchführung des Verfahrens - Google Patents

Verfahren zum Betrieb eines Fahrerassistenzsystems und Vorrichtung zur Durchführung des Verfahrens Download PDF

Info

Publication number
DE102009033853A1
DE102009033853A1 DE102009033853A DE102009033853A DE102009033853A1 DE 102009033853 A1 DE102009033853 A1 DE 102009033853A1 DE 102009033853 A DE102009033853 A DE 102009033853A DE 102009033853 A DE102009033853 A DE 102009033853A DE 102009033853 A1 DE102009033853 A1 DE 102009033853A1
Authority
DE
Germany
Prior art keywords
sensor data
sensors
reliability
sensor
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102009033853A
Other languages
English (en)
Inventor
Björn Dipl.-Ing. Barrois (FH)
Niklas Dipl.-Ing. Beuter
Markus Dipl.-Inform. Hahn
Christoph Dipl.-Inform. Hermes
Ulrich Dr.-Ing. Kreßel
Lars Dr. Krüger
Franz Prof. Dr. Kummert
Rainer Prof. Dr.-Ing. Ott
Gerhard Prof. Dr. Sagerer
Christian Dr. rer. nat. Wöhler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102009033853A priority Critical patent/DE102009033853A1/de
Publication of DE102009033853A1 publication Critical patent/DE102009033853A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/04Monitoring the functioning of the control system
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Abstract

Die Erfindung betrifft ein Verfahren zum Betrieb eines Fahrerassistenzsystems mit einer Mehrzahl von Sensoren (R, K) und eine Vorrichtung zur Durchführung des Verfahrens. Erfindungsgemäß wird anhand von Sensordaten der Sensoren (R, K) eine Komplexität einer von den Sensoren (R, K) erfassten Verkehrssituation bestimmt und in Abhängigkeit von der bestimmten Komplexität der Verkehrssituation und/oder in Abhängigkeit von den Sensordaten zumindest eines Sensors (R, K) für jeden Sensor (R, K) eine Zuverlässigkeit für dessen Sensordaten ermittelt.

Description

  • Die Erfindung betrifft ein Verfahren zum Betrieb eines Fahrerassistenzsystems nach den Merkmalen des Oberbegriffs des Anspruchs 1 sowie eine Vorrichtung zur Durchführung des Verfahrens nach den Merkmalen des Oberbegriffs des Anspruchs 5.
  • Aus dem Stand der Technik sind, wie in der DE 103 24 897 A1 beschrieben, ein Verfahren und eine Vorrichtung zur Objektbestimmung in Fahrerassistenzsystemen für Kraftfahrzeuge bekannt. Im Verfahren zur Objektbestimmung in einem Fahrerassistenzsystem für Kraftfahrzeuge wird durch Auswertung einer Videobildfolge und durch MAP-Schätzung einer Bayesschen Wahrscheinlichkeitsfunktion eine Ergebnisgröße bestimmt, die den Zustand des Objekts beschreibt. Dazu werden durch die Bildauswertung, wahlweise in Kombination mit der Auswertung von Objektdaten aus anderen Quellen, mindestens zwei von einander unabhängige Messwerte für die Ergebnisgröße bestimmt. Jedem Messwert wird ein Gütefaktor zugeordnet, der die Verlässlichkeit des Messwertes beschreibt. Die Wahrscheinlichkeitsverteilung jedes Messwertes wird durch eine Gauß-Verteilung modelliert, mit einer vom Gütefaktor abhängigen Streuung. Als Bayessche Wahrscheinlichkeitsfunktion für die MAP-Schätzung wird das Produkt der Gauß-Verteilung gebildet.
  • In der DE 10 2006 045 115 A1 werden ein System und ein Verfahren zur Zielverfolgung unter Verwendung von Sensorfusion beschrieben. Ein Zielverfolgungs- und Sensorfusionssystem wird für die Verwendung mit einem Fahrzeug angepasst und zum Beobachten eines Zustands mindestens eines Objekts während eines Zyklus ausgebildet. Das System weist mehrere Sensoren und einen neuartigen Controller auf, der kommunikativ mit den Sensoren gekoppelt ist und zu einer genaueren Schätzung des Zustands auf der Grundlage einer Sensorfusion ausgebildet ist. Bei einer bevorzugten Ausführungsform wird eine Kalman-Filterung verwendet, um eine fusionierte Schätzung des Objektortes zu produzieren. Der bevorzugte Controller ist ferner ausgebildet, um jede neue Sensorbeobachtung mit einem Track in einer Trackliste abzugleichen und den Track während eines nachfolgenden Zyklus aus der Trackliste zu entfernen, wenn eine übereinstimmende Beobachtung nicht bestimmt wird.
  • Aus der DE 601 07 692 T2 ist ein System zur Erfassung von nahe liegenden Objekten bekannt. Ein Nahobjekt-Detektierungssystem enthält eine Mehrzahl von Sensorsystemen. Jedes Sensorsystem ist dazu ausgebildet, eine Detektierungsabdeckung in einer vorbestimmten Abdeckungszone zu schaffen. Jedes Sensorsystem weist Mittel zum Aussenden eines Signals in die jeweilige Abdeckungszone hinein, Mittel zum Empfang einer Reflexion des ausgesendeten Signals von einem Zielobjekt in der jeweiligen Abdeckungszone und Mittel zum Verfolgen eines solchen Zielobjektes auf. Das Detektierungssystem enthält Mittel zur Verteilung von Information zwischen jedem der Mehrzahl von Sensorsystemen. Diese Mittel umfassen Verarbeitungseinrichtungen, welche mit den Sensorsystemen gekoppelt sind, um Zielobjekt-Verfolgungsdaten in globalen Koordinaten zu bilden und diese Zielobjekt-Verfolgungsdaten als Vorabinformation an ausgewählte der Sensorsysteme zu liefern.
  • Der Erfindung liegt die Aufgabe zugrunde, ein verbessertes Verfahren zum Betrieb eines Fahrerassistenzsystems und eine Vorrichtung zur Durchführung des Verfahrens anzugeben.
  • Die Aufgabe wird erfindungsgemäß durch ein Verfahren zum Betrieb eines Fahrerassistenzsystems mit den Merkmalen des Anspruchs 1 gelöst. Hinsichtlich der Vorrichtung zur Durchführung des Verfahrens wird die Aufgabe durch die im Anspruch 5 angegebenen Merkmale gelöst.
  • Bevorzugte Ausgestaltungen und Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen angegeben.
  • In einem Verfahren zum Betrieb eines Fahrerassistenzsystems mit einer Mehrzahl von Sensoren wird erfindungsgemäß anhand von Sensordaten der Sensoren eine Komplexität einer von den Sensoren erfassten Verkehrssituation bestimmt und in Abhängigkeit von der bestimmten Komplexität der Verkehrssituation und/oder in Abhängigkeit von den Sensordaten zumindest eines Sensors für jeden Sensor eine Zuverlässigkeit für dessen Sensordaten ermittelt.
  • Durch die erfindungsgemäße Lösung wird eine Ermittlung der Zuverlässigkeit von erfassten Sensordaten und eine Ermittlung einer Zuverlässigkeit fusionierter Sensordaten ermöglicht, welche Grundlage für Funktionen des Fahrerassistenzsystems sind. Auf diese Weise werden in Verkehrssituationen, welche eine hohe Komplexität aufweisen, wie beispielsweise im Verkehr in einer Innenstadt mit einer Vielzahl von den Sensoren zu erfassender Objekte, Fehlfunktionen des Fahrerassistenzsystems aufgrund falscher, ungenauer oder fehlinterpretierter Sensordaten vermieden und beispielsweise bei einer als gering bewerteten Zuverlässigkeit der Sensordaten Funktionen des Fahrerassistenzsystems deaktiviert, welche bei einer von den Sensoren falsch erfassten Situation unnötig ausgelöst werden würden, zum Beispiel ein automatischer Notbremsvorgang. Dadurch sind Gefährdungen sowohl eines mit dem Fahrerassistenzsystem ausgerüsteten Fahrzeugs und dessen Insassen als auch anderer Verkehrsteilnehmer vermeidbar.
  • Eine komplexe Verkehrssituation liegt beispielsweise vor, wenn eine Vielzahl von Objekten von den Sensoren zu erfassen sind, wenn zu erfassende Objekte beispielsweise teilverdeckt sind oder wegen zu geringer Auflösung der Sensoren zu einem Objekt verschmelzen und daher nicht von allen Sensoren eindeutig zu identifizieren sind oder wenn zu erfassende Objekte derart positioniert oder ausgerichtet sind, dass sie von zumindest einzelnen Sensoren nicht eindeutig zu erfassen sind.
  • Daher ist das Verfahren insbesondere zu einer Objektdetektion von verdeckten Objekten oder von mehreren Objekten, welche zu einem Objekt verschmolzen sind, verwendbar, wobei die Sensordaten der Sensoren anhand ihrer ermittelten Zuverlässigkeiten unterschiedlich gewichtet fusioniert werden, um eine Verkehrssituation trotz unzuverlässiger Sensordaten zumindest eines Sensors korrekt zu beurteilen und dadurch Gefährdungen sowohl des mit dem Fahrerassistenzsystem ausgerüsteten Fahrzeugs und dessen Insassen als auch anderer Verkehrsteilnehmer zu vermeiden.
  • Ausführungsbeispiele der Erfindung werden anhand einer Zeichnung näher erläutert.
  • Dabei zeigt:
  • 1 eine schematische Darstellung eines Fahrzeugs in einer komplexen Verkehrssituation.
  • 1 zeigt eine schematische Darstellung eines Fahrzeugs F in einer beispielhaften komplexen Verkehrssituation. Die komplexe Verkehrssituation wird im hier dargestellten Beispiel durch ein erstes Objekt O1 und ein zweites Objekt O2 gebildet, wobei das zweite Objekt O2 von dem ersten Objekt O1 teilverdeckt ist. In dem Fahrzeug F ist ein Fahrerassistenzsystem installiert, welches im hier dargestellten Ausführungsbeispiel einen ersten Sensor R und einen zweiten Sensor K zur Überwachung eines Verkehrsraums vor dem Fahrzeug F umfasst. Im hier dargestellten Ausführungsbeispiel ist der erste Sensor R als Radarsensor und der zweite Sensor K als Stereokamerasystem ausgebildet. Es sind jedoch, alternativ oder zusätzlich, auch andere Sensoren R, K, beispielsweise Odometriesensoren, Lidarsensoren und/oder Navigationssensoren verwendbar.
  • Des Weiteren umfasst das Fahrerassistenzsystem eine Verarbeitungseinheit V zur Verarbeitung von durch die Sensoren R, K bereitgestellten Sensordaten. Derartige Sensordaten sind beispielsweise für ein jedes von den Sensoren R, K erfasste Objekt O1, O2 eine Entfernung, eine zeitliche Entfernungsänderung und ein Azimutwinkel sowie Formen und Abmessungen der erfassten Objekte O1, O2, um diese beispielsweise als Fahrzeug, Fußgänger oder Radfahrer identifizieren und deren Bewegung anhand vorgegebener Bewegungsmodelle verfolgen zu können. Aufgrund dessen ist das Fahrerassistenzsystem in der Lage, eine Situationsanalyse durchzuführen und gegebenenfalls in Funktionen des Fahrzeugs F einzugreifen, beispielsweise in ein Antriebssystem und/oder in ein Bremssystem, um zum Beispiel eine Kollision mit einem anderen Verkehrsteilnehmer zu verhindern.
  • Eine derartige Erfassung bewegter Objekte O1, O2 mittels Sensoren R, K sowie deren Identifizierung und dreidimensionale Lagebestimmung kann beispielsweise nach dem in Schmidt, J., Wähler, C, Krüger, L, Gövert, T., Hermes, C, 2007. 3D Scene Segmentation and Object Tracking in Multiocular Image Sequences. Proc. Int. Conf. an Computer Vision Systems (ICVS), Bielefeld, Germany beschriebenen Verfahren erfolgen. Eine Prädiktion einer Bewegung von erfassten Objekten O1, O2 auf Basis gelernter und wiedererkannter Bewegungsmuster kann beispielsweise mittels des Verfahrens erfolgen, welches in Hahn, M., Krüger, L., Wähler, C, 2008. 3D Action Recognition and Long-term Prediction of Human Motion. In: A. Gasteratos, M. Vincze, J. Tsotsos (eds.). Proc. Int. Conf. an Computer Vision Systems, Santorini, Greece. Lecture Notes in Computer Science 5008, pp. 23–32, Springer-Verlag Berlin Heidelberg beschrieben wird.
  • Die Sensoren R, K bzw. von diesen Sensoren R, K gelieferte Sensordaten weisen abhängig von einer Komplexität einer erfassten Verkehrssituation jeweils unterschiedliche Zuverlässigkeiten auf. In 1 ist eine komplexe Verkehrssituation vor dem Fahrzeug F dargestellt. Derartige komplexe, von den Sensoren R, K zu erfassende Verkehrssituationen treten besonders häufig beispielsweise im Verkehr in einer Innenstadt auf, beispielsweise mit einer Vielzahl von den Sensoren R, K zu erfassender Objekte O1, O2, wobei einzelne Objekte zum Beispiel teilverdeckt sind oder wegen einer zu geringen Auflösung der Sensoren R, K zu einem Objekt verschmelzen und daher von einigen Sensoren R, K nicht eindeutig zu erfassen und zu identifizieren sind, wie im hier dargestellten Beispiel das zweite Objekt O2.
  • In 1 ist als zweites Objekt O2 ein Radfahrer dargestellt, welcher dicht neben dem ersten Objekt O1, einem Fahrzeug, positioniert ist, wobei der Radfahrer von dem Fahrzeug teilweise verdeckt wird. Mittels des als Radarsensor ausgebildeten ersten Sensors R ist der Radfahrer daher nicht zu erfassen. Mittels des als Stereokamerasystem ausgebildeten zweiten Sensors K ist der Radfahrer zu erfassen und als solcher zu identifizieren. Bei einer Fusion der Sensordaten in der Verarbeitungseinheit V, wobei die Sensordaten beider Sensoren R, K gleich gewichtet werden, könnte dies im Fahrerassistenzsystem zu einer Fehlbeurteilung dieser Verkehrssituation und in Folge dessen beispielsweise zu einer Gefährdung des Radfahrers führen.
  • Das Verfahren umfasst eine Komplexitätsbestimmungskomponente und eine Objektverfolgungskomponente. Mittels der Komplexitätsbestimmungskomponente wird eine sensorische Komplexität einer von den Sensoren R, K erfassten Verkehrssituation bewertet. Mittels der Objektverfolgungskomponente werden innerhalb eines Messzyklus für jedes von den Sensoren R, K erfasste Objekt O1, O2 mehrere Bewegungshypothesen über einen Zeitverlauf aufrechterhalten. Beide Komponenten werden innerhalb des Messzyklus abwechselnd ausgeführt. Mittels der ermittelten Positionen, Orientierung, Bewegung und/oder Geschwindigkeiten erfasster Objekte O1, O2 ist die Komplexität der vorausliegenden Verkehrssituation bestimmbar und für einen aktuellen Messzyklus oder für einen anschließenden Messzyklus verwendbar, um eine Zuverlässigkeit der Sensordaten zu bestimmen und eine Fusion der Sensordaten entsprechend deren Zuverlässigkeit durchzuführen sowie eine Zuverlässigkeit der fusionierten Sensordaten zu bestimmen. Bei einer geringen Zuverlässigkeit der fusionierten Sensordaten werden beispielsweise kritische Funktionen des Fahrerassistenzsystems deaktiviert, welche bei einer von den Sensoren R, K falsch erfassten Situation unnötig ausgelöst werden würden, zum Beispiel ein automatischer Notbremsvorgang. Dadurch sind Gefährdungen sowohl des mit dem Fahrerassistenzsystem ausgerüsteten Fahrzeugs F und dessen Insassen als auch anderer Verkehrsteilnehmer vermeidbar.
  • Mittels des Verfahrens wird zunächst die Komplexität der erfassten Verkehrssituation bestimmt und anhand dieser Komplexität die Zuverlässigkeit der erfassten Sensordaten ermittelt. Die Komplexität der erfassten Verkehrssituation wird beispielsweise anhand einer Anzahl, Verteilung und Ausrichtung der von den Sensoren R, K erfassten Objekte O1, O2 und/oder anhand der Abweichung der von den Sensoren R, K gelieferten Sensordaten bestimmt, d. h. beispielsweise anhand einer Konsistenz von Ergebnissen einer Objektdetektion der einzelnen Sensoren R, K. Im hier dargestellten Beispiel erfasst der als Radarsensors ausgebildete erste Sensor R nur das erste Objekt O1, das Fahrzeug, und liefert daher auch nur für dieses erste Objekt O1 Sensordaten, da der Radarsensor das zweite Objekt O2, den von dem Fahrzeug teilweise verdeckten Radfahrer nicht identifizieren kann. Der als Stereokamerasystem ausgebildete zweite Sensor K liefert Sensordaten sowohl für das erste Objekt O1 als auch für das zweite Objekt O2, da mittels des Stereokamerasystems sowohl das Fahrzeug als auch der Radfahrer erfasst und identifiziert werden. Die Ergebnisse der Objektdetektion der einzelnen Sensoren R, K sind demzufolge nicht konsistent. In Folge dessen werden die erfassten Sensordaten des als Stereokamerasystem ausgebildeten zweiten Sensors K bei der Sensordatenfusion höher gewichtet als die erfassten Sensordaten des als Radarsensor ausgebildeten ersten Sensors R.
  • Eine Integration der Zuverlässigkeiten der Sensordaten der einzelnen Sensoren R, K, welche fusioniert werden, kann beispielsweise als gewichtete Summe, Bayes-Netz oder neuronales Netz erfolgen, so dass eine Zuverlässigkeit der fusionierten Sensordaten ermittelbar ist. Die Fusion der Sensordaten erfolgt entsprechend ihrer Zuverlässigkeit und/oder entsprechend der ermittelten Komplexität der messtechnisch erfassten Verkehrssituation. In der hier dargestellten Verkehrssituation können die erfassten Sensordaten des als Radarssensor ausgebildeten ersten Sensors R beispielsweise sogar gänzlich ignoriert werden, so dass diese in die fusionierten Sensordaten nicht einbezogen werden. Im hier dargestellten Ausführungsbeispiel, in welchem das Fahrzeug F lediglich mit einem Radarsensor und einem Stereokamerasystem ausgerüstet ist, würden dann vom Fahrerassistenzsystem lediglich die Sensordaten des als Stereokamerasystem ausgebildeten zweiten Sensors K zu Beurteilung der Verkehrssituation herangezogen.
  • Die Komplexitätsbestimmungskomponente nutzt zur Bestimmung der Komplexität der erfassten Verkehrssituation auch a priori bekannte Zuverlässigkeiten der Sensoren R, K, zum Beispiel Ungenauigkeiten bei einer Entfernungsbestimmung und Positionsbestimmung eines erfassten Objekts O1, O2 mittels einer Disparität des Stereokamerasystems oder Abweichungen bei der Entfernungsbestimmung und Positionsbestimmung des erfassten Objekts O1, O2 mittels des Radarsensors. Beispielsweise sind mittels des Stereokamerasystems laterale Bewegungen erfasster Objekte O1, O2, d. h. eine Position und insbesondere eine Positionsänderung dieser Objekte O1, O2 sicher erfassbar, Entfernungen zu den erfassten Objekten O1, O2 sind dagegen mittels der Sensordaten des Stereokamerasystems nur ungenau ermittelbar. Mittels des Radarsensors sind insbesondere derartige Entfernungen ermittelbar, aber laterale Bewegungen nur sehr ungenau erfassbar.
  • Allerdings ist eine Entfernung zu einem erfassten Objekt O1, O2 mittels des Radarsensors nur dann sicher ermittelbar, wenn eine eindeutige Erfassung des Objekts O1, O2 mittels des Radarsensors möglich ist. Eine Verkehrssituation wird daher nicht nur dann als komplex bewertet, wenn eine große Anzahl Objekte O1, O2 erfasst wurden oder die Sensordaten der einzelnen Sensoren R, K in Bezug auf die Anzahl erfasster Objekte O1, O2 nicht konsistent sind. Ebenso wird beispielsweise eine, hier nicht dargestellte Verkehrssituation als komplex bewertet, wenn beispielsweise ein erfasstes Objekt O1, O2 ein Fahrzeug ist, welches seitlich vor dem mit der erfindungsgemäßen Lösung ausgerüsteten Fahrzeug F oder in einem schrägen Winkel vor dem Fahrzeug F erfasst wird. In einer derartigen Situation sind beispielsweise mittels des als Radarsensor ausgebildeten ersten Sensors R zum Abstand des Objektes O1, O2 ermittelte Sensordaten nicht als ausreichend zuverlässig zu bewerten, da nicht sicher ist, auf welchen Punkt des Objektes O1, O2 die Radarstrahlen gerichtet sind, d. h. von welchem Punkt sie reflektiert werden. Diese können in dieser Situation sowohl von einem Punkt am Heck des Objektes O1, O2 als auch von einer vorderen Seitenfläche des Objektes O1, O2 reflektiert werden, wodurch der Abstand nicht sicher bestimmt werden kann.
  • Eine derartige Messungenauigkeit des Radarsensors ist a priori bekannt, so dass, wenn mittels der Sensordaten des Stereokamerasystems ein erfasstes Objekt O1, O2 als ein Fahrzeug in schräger Ansicht oder Seitenansicht identifiziert wird, die Verkehrssituation als derart komplex bewertet wird, dass bei einer Fusion der Sensordaten die Sensordaten des Radarsensors, zumindest bezüglich des Abstands zum erfassten Objekt O1, O2 mit einer niedrigen Zuverlässigkeit bewertet werden und daher in die fusionierten Sensordaten nicht oder nur gering gewichtet einfließen. Ähnlich wird verfahren, wenn mittels des Stereokamerasystems in einer erfassten Punktewolke ein Fahrzeug eindeutig identifiziert und dessen Position bestimmt wurde, mittels des Radarsensors allerdings eine abweichende Position für dieses Fahrzeugs bestimmt wurde. Da ein Offset zwischen der mittels Radarsensor und mittels des Stereokamerasystems ermittelten Position des erfassten Objektes O1, O2 im Mittel ungleich Null ist, kann auf eine ungenaue Messung des Radarsensors geschlossen werden, beispielsweise, wie bereits beschrieben, weil die Radarstrahlen von einem abweichenden Punkt am Fahrzeug reflektiert werden.
  • Eine Bewegung der beiden erfassten Objekte O1, O2 wird im Folgenden mittels der Objektverfolgungskomponente anhand der fusionierten Sensordaten verfolgt, so dass beispielsweise bei einer zu schnellen Annäherung an den Radfahrer vom Fahrerassistenzsystem Gegenmaßnahmen eingeleitet werden können, zum Beispiel ein automatischer Notbremsvorgang. Dies wäre nur anhand der Sensordaten des Radarsensors oder anhand gleich gewichtet fusionierter Sensordaten nicht oder erst zu einem späteren Zeitpunkt möglich, zu dem der Radfahrer auch vom Radarsensor eindeutig erfassbar und identifizierbar wäre. Zu diesem späteren Zeitpunkt bestünde dann die Gefahr, dass vom Fahrerassistenzsystem keine ausreichenden Gegenmaßnahmen mehr eingeleitet werden könnten.
  • Wird auf diese Weise ermittelt, dass aufgrund der Komplexität der erfassten Verkehrssituation von keinem der Sensoren R, K hinreichend zuverlässige Sensordaten zur Beurteilung der Verkehrssituation ermittelbar sind, d. h. dass eine ermittelte Zuverlässigkeit der fusionierten Sensordaten zu gering ist, können beispielsweise auch Funktionen des Fahrerassistenzsystems deaktiviert werden, welche bei einer von den Sensoren R, K falsch erfassten Situation unnötig ausgelöst werden würden, zum Beispiel ein automatischer Notbremsvorgang. Dadurch sind Gefährdungen sowohl des mit dem Fahrerassistenzsystem ausgerüsteten Fahrzeugs F und dessen Insassen als auch anderer Verkehrsteilnehmer vermeidbar.
  • Zur Objektverfolgung der von den Sensoren R, K erfassten Objekte O1, O2 werden beispielsweise Kalmanfilter und/oder Partikelfilter verwendet. Mittels dieser Filter werden Korrelationseigenschaften jedes erfassten Objekts O1, O2 entlang einer Zeitachse untersucht, wobei prinzipiell beliebige Annahmen über die Objektbewegung getroffen werden können, beispielsweise die einer gleichmäßigen Bewegung.
  • Schlägt eine Objektdetektion im Verlauf des Messzyklus bei einem einmal erfassten Objekt O1, O2 fehl, so wird das Objekt O1, O2 noch eine kurze Zeit entlang einer bisher erfassten und mittels Bewegungsmodellen des Objektes O1, O2 ermittelten weiteren Bewegungsbahn verfolgt. Die Bewegungsbahn ist dabei beispielsweise mittels des Ackermann-Modells, mittels eines einfachen kinematischen Bewegungsmodells oder mittels gelernter Bewegungsmodelle zum Beispiel für Fahrzeuge, Radfahrer oder Fußgänger ermittelbar, wobei das Bewegungsmodell entsprechend der jeweiligen Komplexität der erfassten Verkehrssituation ausgewählt wird. So wird beispielsweise bei einer komplexen Verkehrssituation mit sehr vielen erfassten Objekten O1, O2 das Ackermann-Modell zu einer relativ groben Vorhersage der Bewegungsbahnen der Objekte O1, O2 genutzt, um die Objekte O1, O2 mit den Sensoren R, K weiterhin verfolgen zu können.
  • Zur Objektverfolgung erfasster Objekte O1, O2 wird eine interne Repräsentation des erfassten Objektes O1, O2 an eine Zuverlässigkeit zur Objektbildung verwendeter Sensordaten angepasst. So wird beispielsweise das als Fahrzeug ausgebildete erste Objekt O1, welches im Nahbereich des mit der erfindungsgemäßen Lösung ausgestatteten Fahrzeugs F mittels des Stereokamerasystems erfasst wurde, als Quader dargestellt, da es aus einer erfassten Punktewolke eindeutig identifizierbar ist. Dadurch sind genaue Abmessungen des Fahrzeugs sowie eine Position ermittelbar.
  • Ist das Fahrzeug einmal erfasst und wird konstant weiter verfolgt, so wird es beispielsweise in einer größeren Entfernung mit zunehmend unzuverlässigeren Sensordaten als Ellipsoid dargestellt und bei weiter zunehmender Entfernung als Punkt. Auf diese Weise ist eine Bewegung des ersten Objektes O1 weiter verfolgbar und das erste Objekt O1, da es einmal identifiziert wurde, weiter als das erfasste Fahrzeug identifizierbar, auch wenn beispielsweise eine Entfernungsmessung oder eine Entfernungsänderungsmessung zunehmend ungenau wird. Dazu werden beispielsweise Verarbeitungsparameter zur Verarbeitung der erfassten Sensordaten je nach aktueller oder über den Messzyklus akkumulierter Zuverlässigkeit geändert, so dass das erste Objekt O1 auch anhand nur noch weniger erfasster Punkte identifizierbar und verfolgbar ist.
  • Des Weiteren können, zusätzlich zu aus einem Eingangsbild des Stereokamerasystems extrahierter Sensordaten Merkmale aus diesem Eingangsbild, wie zum Beispiel so genannte Histograms of oriented gradients in allgemein bekannter Weise zur Objektverfolgung verwendet werden. Auch diese Informationen können zur Beurteilung der Komplexität der erfassten Verkehrssituation verwendet werden, wenn beispielsweise anhand des Eingangsbildes anhand markanter Formen eines erfassten Objektes O1 festgestellt wird, dass es sich um ein Fahrzeug in Seitenansicht handelt und daher, wie bereits erwähnt, eine Entfernungsermittlung mittels Sensordaten des Radarsensors nicht zuverlässig ist.
  • F
    Fahrzeug
    V
    Verarbeitungseinheit
    R, K
    Sensoren
    O1, O2
    Objekte
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - DE 10324897 A1 [0002]
    • - DE 102006045115 A1 [0003]
    • - DE 60107692 T2 [0004]
  • Zitierte Nicht-Patentliteratur
    • - Schmidt, J., Wähler, C, Krüger, L, Gövert, T., Hermes, C, 2007. 3D Scene Segmentation and Object Tracking in Multiocular Image Sequences. Proc. Int. Conf. an Computer Vision Systems (ICVS), Bielefeld, Germany [0017]
    • - Hahn, M., Krüger, L., Wähler, C, 2008. 3D Action Recognition and Long-term Prediction of Human Motion. In: A. Gasteratos, M. Vincze, J. Tsotsos (eds.). Proc. Int. Conf. an Computer Vision Systems, Santorini, Greece. Lecture Notes in Computer Science 5008, pp. 23–32, Springer-Verlag Berlin Heidelberg [0017]

Claims (7)

  1. Verfahren zum Betrieb eines Fahrerassistenzsystems mit einer Mehrzahl von Sensoren (R, K), dadurch gekennzeichnet, dass anhand von Sensordaten der Sensoren (R, K) eine Komplexität einer von den Sensoren (R, K) erfassten Verkehrssituation bestimmt wird und in Abhängigkeit von der bestimmten Komplexität der Verkehrssituation und/oder in Abhängigkeit von den Sensordaten zumindest eines Sensors (R, K) für jeden Sensor (R, K) eine Zuverlässigkeit für dessen Sensordaten ermittelt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Sensordaten der Sensoren (R, K) in Abhängigkeit ihrer ermittelten Zuverlässigkeiten fusioniert werden.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass eine Zuverlässigkeit der fusionierten Sensordaten ermittelt wird.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass bei einer zu geringen Zuverlässigkeit der fusionierten Sensordaten Funktionen des Fahrerassistenzsystems deaktiviert werden.
  5. Vorrichtung zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 4 umfassend eine Mehrzahl von Sensoren (R, K) sowie eine Verarbeitungseinheit (V).
  6. Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, dass die Sensoren (R, K) als Radarsensoren, Odometriesensoren, Lidarsensoren, Navigationssensoren und/oder als Stereokamerasystem ausgebildet sind.
  7. Verwendung des Verfahrens nach einem der Ansprüche 1 bis 4 zu einer Objektdetektion von verdeckten Objekten (O2) oder von mehreren Objekten (O1, O2), welche zu einem Objekt verschmolzen sind, wobei die Sensordaten der Sensoren (R, K) anhand ihrer ermittelten Zuverlässigkeiten unterschiedlich gewichtet fusioniert werden.
DE102009033853A 2009-07-16 2009-07-16 Verfahren zum Betrieb eines Fahrerassistenzsystems und Vorrichtung zur Durchführung des Verfahrens Withdrawn DE102009033853A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102009033853A DE102009033853A1 (de) 2009-07-16 2009-07-16 Verfahren zum Betrieb eines Fahrerassistenzsystems und Vorrichtung zur Durchführung des Verfahrens

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009033853A DE102009033853A1 (de) 2009-07-16 2009-07-16 Verfahren zum Betrieb eines Fahrerassistenzsystems und Vorrichtung zur Durchführung des Verfahrens

Publications (1)

Publication Number Publication Date
DE102009033853A1 true DE102009033853A1 (de) 2010-05-12

Family

ID=42096577

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009033853A Withdrawn DE102009033853A1 (de) 2009-07-16 2009-07-16 Verfahren zum Betrieb eines Fahrerassistenzsystems und Vorrichtung zur Durchführung des Verfahrens

Country Status (1)

Country Link
DE (1) DE102009033853A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012215343A1 (de) * 2012-08-29 2014-05-28 Continental Automotive Gmbh Verfahren zum Durchführen einer Sicherheitsfunktion eines Fahrzeugs und System zum Durchführen des Verfahrens
DE102012023746A1 (de) * 2012-12-04 2014-06-05 Connaught Electronics Ltd. Verfahren zum Verfolgen eines Zielobjekts in einem Umgebungsbereich eines Kraftfahrzeugs durch Fusion von Bilddaten mit anderen Sensordaten, Fahrerassistenzeinrichtung und Kraftfahrzeug
GB2539548A (en) * 2015-04-23 2016-12-21 Ford Global Tech Llc Traffic complexity estimation
DE102018118666A1 (de) * 2018-08-01 2020-02-06 Carl Zeiss Ag Sensorfusion mit wechselseitiger Korrespondenzanalyse von Sensordaten
DE102015209857B4 (de) 2014-05-30 2022-12-22 Hl Klemove Corp. Autonomes Notbremssystem und Verfahren zum Erkennen von Fußgängern in diesem
DE102022211052A1 (de) 2022-10-19 2024-04-25 Robert Bosch Gesellschaft mit beschränkter Haftung Verarbeitung von Messdaten aus einer Multi-Sensor-Anordnung mit Plausibilitätsprüfung

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10324897A1 (de) 2003-05-30 2004-12-23 Robert Bosch Gmbh Verfahren und Vorrichtung zur Opjektbestimmung in Fahrerassistenzsystemen für Kraftfahrzeuge
DE60107692T2 (de) 2000-08-16 2005-12-15 Raytheon Company, Waltham System zur erfassung von naheliegenden objekten
DE102006045115A1 (de) 2005-09-26 2007-04-05 GM Global Technology Operations, Inc., Detroit System und Verfahren zur Zielverfolgung unter Verwendung von Sensorfusion

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60107692T2 (de) 2000-08-16 2005-12-15 Raytheon Company, Waltham System zur erfassung von naheliegenden objekten
DE10324897A1 (de) 2003-05-30 2004-12-23 Robert Bosch Gmbh Verfahren und Vorrichtung zur Opjektbestimmung in Fahrerassistenzsystemen für Kraftfahrzeuge
DE102006045115A1 (de) 2005-09-26 2007-04-05 GM Global Technology Operations, Inc., Detroit System und Verfahren zur Zielverfolgung unter Verwendung von Sensorfusion

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Hahn, M., Krüger, L., Wähler, C, 2008. 3D Action Recognition and Long-term Prediction of Human Motion. In: A. Gasteratos, M. Vincze, J. Tsotsos (eds.). Proc. Int. Conf. an Computer Vision Systems, Santorini, Greece. Lecture Notes in Computer Science 5008, pp. 23-32, Springer-Verlag Berlin Heidelberg
Schmidt, J., Wähler, C, Krüger, L, Gövert, T., Hermes, C, 2007. 3D Scene Segmentation and Object Tracking in Multiocular Image Sequences. Proc. Int. Conf. an Computer Vision Systems (ICVS), Bielefeld, Germany

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012215343A1 (de) * 2012-08-29 2014-05-28 Continental Automotive Gmbh Verfahren zum Durchführen einer Sicherheitsfunktion eines Fahrzeugs und System zum Durchführen des Verfahrens
US9566966B2 (en) 2012-08-29 2017-02-14 Continental Automotive Gmbh Method for carrying out a safety function of a vehicle and system for carrying out the method
DE102012023746A1 (de) * 2012-12-04 2014-06-05 Connaught Electronics Ltd. Verfahren zum Verfolgen eines Zielobjekts in einem Umgebungsbereich eines Kraftfahrzeugs durch Fusion von Bilddaten mit anderen Sensordaten, Fahrerassistenzeinrichtung und Kraftfahrzeug
DE102015209857B4 (de) 2014-05-30 2022-12-22 Hl Klemove Corp. Autonomes Notbremssystem und Verfahren zum Erkennen von Fußgängern in diesem
GB2539548A (en) * 2015-04-23 2016-12-21 Ford Global Tech Llc Traffic complexity estimation
US9821812B2 (en) 2015-04-23 2017-11-21 Ford Global Technologies, Llc Traffic complexity estimation
DE102018118666A1 (de) * 2018-08-01 2020-02-06 Carl Zeiss Ag Sensorfusion mit wechselseitiger Korrespondenzanalyse von Sensordaten
DE102022211052A1 (de) 2022-10-19 2024-04-25 Robert Bosch Gesellschaft mit beschränkter Haftung Verarbeitung von Messdaten aus einer Multi-Sensor-Anordnung mit Plausibilitätsprüfung

Similar Documents

Publication Publication Date Title
EP2793045B1 (de) Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs
EP2285632B1 (de) Fahrerassistenzsystem
DE102008013366B4 (de) Verfahren zur Bereitstellung von Information für Fahrerassistenzsysteme
DE102017209772A1 (de) Objekterkennungsverarbeitungsvorrichtung, Objekterkennungsverarbeitungsverfahren und autonomes Fahrsystem
WO2016059087A1 (de) Verfahren zum erfassen zumindest eines objekts in einem umgebungsbereich eines kraftfahrzeugs, fahrerassistenzsystem sowie kraftfahrzeug
DE102009006335A1 (de) Verfahren zur Unterstützung des Fahrers eines Kraftfahrzeugs
DE102009033853A1 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems und Vorrichtung zur Durchführung des Verfahrens
DE102018104243B3 (de) Verfahren und System zur Erkennung von für ein Fahrzeug geeigneten Parklücken
EP2200881A1 (de) Verfahren zur schätzung der relativbewegung von video-objekten und fahrerassistenzsystem für kraftfahrzeuge
DE102017117593A1 (de) Fahrzeugfahrassistenzvorrichtung
DE102015107392A1 (de) Verfahren zum Erfassen eines Objekts in einer Umgebung eines Kraftfahrzeugs anhand von fusionierten Sensordaten, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102020211970A1 (de) Verfahren zum Steuern eines Fahrzeugs
DE102014116014A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102016001772A1 (de) Verfahren zur Bewegungs- und Verhaltensprognose in einer Fahrzeugumgebung befindlicher Objekte
DE102011105074A1 (de) Verfahren und Vorrichtung zur Bestimmung einer Sichtweite für ein Fahrzeug
DE102015202230A1 (de) Fusionierte Eigenbewegungsberechnung für ein Fahrzeug
DE102011078746A1 (de) Abstands- und Typenbestimmung von Flugzeugen während des Andockens an das Gate
DE102009022277A1 (de) Vorrichtung zur Erfassung von Objekten
DE102015214425A1 (de) Verfahren zum Erkennen eines Verlaufs von Schienen
DE102012220191A1 (de) Verfahren zur Unterstützung eines Fahrers bei der Querführung eines Fahrzeugs
EP1185883A1 (de) Modellgestützte fahrspurzuordnung für fahrzeuge
WO2006094585A1 (de) Verfahren zum schätzen des verlaufs einer fahrspur
DE102009007412A1 (de) Verfahren zur Verfolgung wenigstens eines Objekts
DE102012018471A1 (de) Verfahren zur Erkennung einer Begrenzung eines Fahrbahnrandes für ein Fahrzeug
WO2019211293A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems eines egofahrzeugs mit wenigstens einem umfeldsensor zum erfassen eines umfelds des egofahrzeugs, computer-lesbares medium, system, und fahrzeug

Legal Events

Date Code Title Description
OAV Publication of unexamined application with consent of applicant
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20150203