DE102008061301A1 - Fahrerassistenz mit fusionierten Sensordaten - Google Patents

Fahrerassistenz mit fusionierten Sensordaten Download PDF

Info

Publication number
DE102008061301A1
DE102008061301A1 DE102008061301A DE102008061301A DE102008061301A1 DE 102008061301 A1 DE102008061301 A1 DE 102008061301A1 DE 102008061301 A DE102008061301 A DE 102008061301A DE 102008061301 A DE102008061301 A DE 102008061301A DE 102008061301 A1 DE102008061301 A1 DE 102008061301A1
Authority
DE
Germany
Prior art keywords
driver assistance
assistance system
vehicle
validation
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102008061301A
Other languages
English (en)
Other versions
DE102008061301B4 (de
Inventor
Matthias Strauss
Ulrich STÄHLIN
Maxim Rochester Hills Arbitmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Autonomous Mobility Germany GmbH
Original Assignee
Continental Teves AG and Co OHG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Teves AG and Co OHG filed Critical Continental Teves AG and Co OHG
Priority to DE102008061301.0A priority Critical patent/DE102008061301B4/de
Priority to PCT/EP2008/067358 priority patent/WO2009074661A1/de
Publication of DE102008061301A1 publication Critical patent/DE102008061301A1/de
Application granted granted Critical
Publication of DE102008061301B4 publication Critical patent/DE102008061301B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle

Abstract

Gemäß einem Ausführungsbeispiel der Erfindung erfolgt die Durchführung eines Fahreingriffs in Abhängigkeit von einer Validierung von Objektdaten. Hierfür werden Radarsensordaten mit optischen Sensordaten ergänzt und eine Validierung der Radarsensordaten durchgeführt. Auf diese Weise kann die Fahrschlauchprädiktion verbessert und es können Einscher- und Ausschervorgänge sicher erkannt werden. Auch können Fußgänger identifiziert werden, die sich zwischen stehenden Fahrzeugen bewegen.

Description

  • Gebiet der Erfindung
  • Die Erfindung betrifft die Assistenz- und Sicherheitstechnik für Fahrzeuge. Insbesondere betrifft die Erfindung ein Fahrerassistenzsystem für ein Fahrzeug, ein Fahrzeug mit einem Fahrerassistenzsystem, ein Verfahren zur Durchführung eines Fahreingriffs eines Fahrerassistenzsystems in einem Fahrzeug, ein Programmelement und ein computerlesbares Medium.
  • Technologischer Hintergrund
  • Aus der Südwest Presse, "Auto der Zukunft denkt mit", 04.06.1996, geht ein Fahrzeug hervor, das einen Autopiloten aufweist. Dieser ermittelt mit Hilfe einer im Fahrzeug angeordneten Videokamera und Bildverarbeitungsalgorithmen Informationen über Abstände zu Objekten auf der Fahrbahn und der Spur des Fahrzeugs. Ferner können auch von der Videokamera aufgezeichnete Verkehrszeichen erkannt werden. Es hat sich als nachteilig herausgestellt, dass die Bildverarbeitung häufig nicht zuverlässig ist. Überdies sind hohe Investitionen erforderlich.
  • Moderne Kraftfahrzeuge werden zunehmend mit den Fahrer unterstützenden Funktionen und Diensten ausgestattet. Die den Fahrer unterstützenden Funktionen, wie zum Beispiel ABS, ESP, ACC und automatischer Notruf erbringen dabei angeforderte Dienstleistungen mit einem jeweils vordefinierten Ablauf. Die Dienste dagegen stellen auf Anforderung eine Dienstleistung bereit, wobei in der Regel offen bleibt, wie die Dienstleistung erbracht wird. So ist zum Beispiel beim Dienstangebot Navigation völlig offen, auf welchem Weg das Ziel erreicht wird, wenn die Dienstanforderung gestellt ist, das Fahrzeug zu einem ausgewählten Zielort zu führen. Die erwähnten Funktionen und Dienste sind bisher überwiegend fahrerbezogen, da sie den Fahrer des einzelnen Fahrzeugs bei der Beherrschung der Fahrzeugdynamik, bei dem Herbeiholen von Hilfeleistungen und bei der Zielfindung unterstützen. Dienste dagegen, die den Fahrer aufgrund von Flottenbelangen unterstützen, sind so gut wie unbekannt. Wenige Beispiele sind ARI, RDS-TMC und TEGARON, mit denen im Wesentlichen Verkehrshinweise bereitgestellt werden. Die für die Realisierung der oben genannten Funktionen und Dienste notwendigen technischen Einrichtungen sind in der Regel nur für die spezielle Funktion oder den Dienst ausgelegt und daher nicht mehrfach benutzbar.
  • Aus DE 39 41 402 A1 ist ein Verfahren zum Erkennen und Abwenden einer Kollisionsgefahr zwischen einem im Verkehr sich vorausbewegenden Fahrzeug und einem sich nachbewegenden Fahrzeug bekannt, bei dem jedes Fahrzeug dauernd mindestens ein die Information über seinen Bewegungszustand hinsichtlich Momentangeschwindigkeit und/oder Momentanbeschleunigung aufweisendes Signal in den entgegengesetzt zur jeweiligen Fahrtrichtung liegenden rückwärtigen Halbraum aussendet, bei dem weiter das von jedem Fahrzeug beim Eintritt in den Sendebereich des Fahrzeugs empfangene Signal einem im Hinblick auf das Vorliegen einer Kollisionsgefahr ausgewerteten Vergleich mit dem Signal unterzogen wird, und beim dem das Signal und/oder ein infolge des bewerteten Vergleichs Kollisionsgefahr signalisierendes Vergleichssignal eine den Fahrzeugführer und/oder andere nachfolgende Verkehrsteilnehmerinformierende Signalisierungsvorrichtung und/oder eine den Bewegungszustand des Fahrzeugs im Sinne einer Kollisionsvermeidung ändernde Fahrzeugvorrichtung beaufschlagt.
  • Aus DE 298 03 684 U1 ist weiter ein Sicherheitssystem für Kraftfahrzeuge im Straßenverkehr bekannt, mit mindestens einem Fahrzeugsender in einem ersten Fahrzeug mit einem Sendemittel zur Ausstrahlung zumindest eines bestimmten Sicherheitssignals, mit einem Auslösungsmittel zur Bestimmung, ob ein sicherheitsrelevantes Ereignis im Fahrzeug vorliegt, wobei der Träger des Signals, den das Sendemittel aussendet, eine elektromagnetische Welle im nicht-sichtbaren Bereich darstellt, und mit zumindest einem Informationsempfänger in einem zweiten Fahrzeug mit einem Empfangsteil zum Empfang von sicherheitsrelevanten Informationen, die von einem Fahrzeugsender ausgesendet werden, und zumindest einer Warneinrichtung im Fahrzeug, bei dem das Auslösungsmittel zumindest mit den folgenden Systemen im Fahrzeug verbunden ist: Bremsdetektor, Ein-/Ausschalter der Warnblinkanlage und dabei so eingerichtet ist, dass es an das Sendemittel Informationen zumindest über den Grund der Auslösung überträgt und wobei das Sendemittel des Fahrzeugsenders diese Informationen mit aussendet, und die Warneinrichtung zumindest zwei unterschiedliche Darstellungen für verschiedene Warn- oder Notsituationen aufweist.
  • Zusammenfassung der Erfindung
  • Es ist eine Aufgabe der Erfindung, eine verbesserte Fahrerassistenz für Fahrzeuge anzugeben.
  • Es sind ein Fahrerassistenzsystem, ein Fahrzeug mit einem Fahrerassistenzsystem, ein Verfahren zur Durchführung eines Fahreingriffs eines Fahrerassistenzsystems in einem Fahrzeug, ein Programmelement und ein computerlesbares Medium gemäß den Merkmalen der unabhängigen Ansprüche angegeben. Weiterbildungen der Erfindung ergeben sich aus den Unteransprüchen.
  • Die beschriebenen Ausführungsbeispiele betreffen gleichermaßen das Fahrerassistenzsystem, das Fahrzeug, das Verfahren, das Programmelement und das computerlesbare Medium. In anderen Worten lassen sich die im Folgenden im Hinblick z. B. auf das Fahrerassistenzsystem genannten Merkmale auch in dem Verfahren, dem Programmelement oder dem computerlesbaren Medium implementieren, und umgekehrt.
  • Gemäß einem Ausführungsbeispiel der Erfindung ist ein Fahrerassistenzsystem für ein Fahrzeug angegeben, welches einen Radarsensor und einen optischen Sensor sowie eine Steuereinheit aufweist. Der Radarsensor ist zur Erfassung eines Objekts im Umfeld des Fahrzeugs und zur Weiterleitung der entsprechenden Objektdaten an die Steuereinheit ausgeführt. Der optische Sensor ist zur Erfassung von optischen Daten hinsichtlich des Objekts ausgeführt, wobei die Steuereinheit zur Validierung der Objektdaten auf Basis der optischen Daten ausgeführt ist. Weiterhin ist das Fahrerassistenzsystem zur Durchführung eines Fahreingriffs in Abhängigkeit von der Validierung der Objektdaten ausgeführt.
  • In anderen Worten werden sowohl die Messdaten des Radarsensors und des optischen Sensors zur Steuerung des Fahrerassistenzsystems verwendet. Mit Hilfe der Radarsensordaten können beispielsweise die relative Position des Objekts zum Fahrzeug sowie seine Geschwindigkeit bestimmt werden. Mit Hilfe der optischen Sensordaten kann überprüft werden, um was für ein Objekt es sich handelt. Auf diese Weise kann beispielsweise bestimmt werden, ob es sich um ein Fahrzeug oder ein Fußgänger handelt.
  • In Abhängigkeit von dem erzielten Endergebnis (Positionsbestimmung, Geschwindigkeitsbestimmung und Validierung) wird dann das Fahrerassistenzsystem angesteuert.
  • Natürlich können auch mehrere optische Sensoren und mehrere Radarsensoren vorgesehen sein. Auch kann anstelle oder zusätzlich zum Radarsensor ein Lidarsensor vorgesehen sein. Zusätzlich kann ein Ultraschallsensor vorgesehen sein.
  • Die mittels des Radarsensors (und/oder der anderen Sensoren) erfassten und detektierten Objekte werden also durch den visuellen Sensor validiert und durch diese Validierung wird das Fahrerassistenzsystem angesteuert.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist es vorgesehen, dass die Messdaten des Radarsensors und die Messdaten des optischen Sensors miteinander fusioniert werden. Diese Datenfusion kann innerhalbe der Steuereinheit oder in einem vorgeschalteten Fusionsmodul erfolgen. In diesem Fall handelt es sich also um ein einstufiges Verfahren (siehe auch 3). Hierfür wird beispielsweise ein Kalman-Filter verwendet. Es ist nicht erforderlich, dass eine nachträgliche Validierung der Radarsensordaten auf Basis der optischen Daten stattfindet.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung erfolgt eine Abschätzung eines Kollisionsrisikos des Fahrzeugs mit dem Objekt auf Basis der Validierung und der Objektdaten sowie weiterer vorgegebener Parameter. Weiterhin erfolgt die Durchführung einer Bremsung des Fahrzeugs bis zum Stillstand des Fahrzeugs, wenn das Kollisionsrisiko ungleich Null ist oder zumindest einen vorbestimmten Schwellwert übersteigt.
  • In anderen Worten erfolgt die Ansteuerung einer Fahrerassistenzeinheit derart, dass durch die Validierung nach Maßgabe der vorgegebenen Parameter des Fahrerassistenzsystems bei Kollisionsgefahr das Fahrzeug bis zum völligen Stillstand abgebremst wird.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung umfasst die Validierung der Objektdaten eine Klassifikation des Objekts. Beispielsweise kann festgestellt werden, ob es sich um einen Fußgänger, ein Fahrrad oder ein Kraftfahrzeug handelt. Auch ist es möglich zu unterscheiden, ob es sich um einen Lastkraftwagen oder einen Personenkraftwagen handelt. Auch Motorräder können klassifiziert bzw. identifiziert werden.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist der optische Sensor zum Detektieren von Licht im sichtbaren Spektralbereich ausgeführt. Beispielsweise handelt es sich um einen Videosensor, z. B. in Form einer Mono-Videokamera oder einer Stereo-Videokamera.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung handelt es sich bei dem Objekt um ein benachbartes, beispielsweise vorausfahrendes Fahrzeug, wobei das Fahrerassistenzsystem zur Ermittlung eines Fahrschlauchs des benachbarten Fahrzeugs auf Basis der Validierung ausgeführt ist.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist das Fahrerassistenzsystem zur Geschwindigkeitsregelung des Fahrzeugs auf Basis der Validierung und der Objektdaten ausgeführt.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist das Fahrerassistenzsystem zur Beschleunigung des Fahrzeugs auf Basis der Validierung und der Objektdaten ausgeführt.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist das Fahrerassistenzsystem weiterhin digitale Kartendaten auf, die in einem entsprechenden Speicher gespeichert sind. Die Validierung erfolgt in diesem Ausführungsbeispiel auch auf Basis von Daten aus der entsprechenden digitalen Karte.
  • Wird hierfür die Position des Fahrzeugs benötigt, kann diese beispielsweise von einem Satellitennavigationsgerät (GPS-Gerät) geliefert werden. Es sei darauf hingewiesen, dass im Kontext der vorliegenden Erfindung GPS stellvertretend für sämtliche Globale Navigationssatellitensysteme (GNSS) steht, wie z. B. GPS, Galileo, GLONASS (Russland), Compass (China), IRNSS (Indien), ...
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist ein Fahrzeug mit einem oben beschriebenen Fahrerassistenzsystem angegeben.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist ein Verfahren zur Durchführung eines Fahreingriffs eines Fahrerassistenzsystems in einem Fahrzeug angegeben, bei dem ein Objekt im Umfeld des Fahrzeugs durch einen ersten Sensor erfasst wird und entsprechende Objektdaten erzeugt werden. Weiterhin werden optische Daten über das Objekt durch einen zweiten Sensor erfasst bzw. erzeugt. In einem nächsten Schritt erfolgt eine Validierung der Objektdaten auf Basis der optischen Daten sowie die Durchführung eines Fahreingriffs in Abhängigkeit von der Validierung der Objektdaten.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist ein Programmelement angegeben, das, wenn es auf einem Prozessor eines Fahrerassistenzsystems ausgeführt wird, das Fahrerassistenzsystem anleitet, die oben angegebenen Verfahrensschritte durchzuführen.
  • Dabei kann das Programmelement z. B. Teil einer Software sein, die auf einem Prozessor des Fahrerassistenzsystems gespeichert ist. Der Prozessor kann dabei ebenso Gegenstand der Erfindung sein. Weiterhin umfasst dieses Ausführungsbeispiel der Erfindung ein Programmelement, welches schon von Anfang an die Erfindung verwendet, sowie auch ein Programmelement, welches durch eine Aktualisierung (Update) ein bestehendes Programm zur Verwendung der Erfindung veranlasst.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist ein computerlesbares Medium angegeben, auf dem ein Programmelement gespeichert ist, das, wenn es auf einem Prozessor eines Fahrerassistenzsystems ausgeführt wird, das Fahrerassistenzsystem anleitet, die oben beschriebenen Verfahrensschritte durchzuführen.
  • Ein Aspekt der Erfindung ist darin zu sehen, dass ein dynamisches Fahrgeschwindigkeitsregelsystem, auch Abstandsregeltempomat (Adaptive Cruise Control, ACC) genannt, oder auch ein sog. Full Speed Range ACC (FSRA) oder aber auch ein sog. Stop and Go ACC um eine autonome Bremsfunktion ergänzt wird. Diese autonome Bremsfunktion nutzt die Validierungsdaten, die auf den Bildern des optischen Sensors basieren (sog. Target Validated Braking).
  • Entscheidend ist hierbei die Zusammenführung von ACC und dem Target Validated Braking. Unter dem Begriff Target Validated Braking ist zu verstehen, dass das Fahrzeug mittels der im Fahrzeug befindlichen Sensorik abhängig von den im Umfeld befindlichen Objekten eine Abbremsung vornimmt.
  • Zu diesem Zweck wird eine zusätzliche Kamera im Fahrzeug eingesetzt und mittels dieser werden Fahrzeuge, die sich in der Umgebung befinden, von anderen Radarzielen unterschieden. Auch können Fußgänger identifiziert werden. Hierdurch ist es möglich, automatisch stehende Fahrzeuge durch die Kamera zu validieren und eine entsprechende Bremsung automatisch einzuleiten. Ein Radarsensor kann im Gegensatz hierzu nur stehende Objekte zuverlässig erkennen, wenn sich diese vorher bewegt haben.
  • Weiterhin werden auch kleinste Änderungen am Aussehen des vorausfahrenden Fahrzeugs erkannt. Somit können Hindernisse, die sich beispielsweise während des Stillstandes des vorausfahrenden Fahrzeugs zwischen das eigene und das vorausfahrende Fahrzeug bewegt haben, als Abbruchkriterium gewertet werden. Dies ist besonders vorteilhaft für Fußgänger als zu erkennende Objekte.
  • Ein Vorteil der Erfindung ist die Möglichkeit, mit einem bestehenden und bekannten ACC-System automatische Bremsmanöver durchzuführen. Insbesondere kann auch der Anfahrtsvorgang wesentlich vereinfacht werden. Da die Kamera das Objekt erkennt, kann das Fahrzeug immer wieder autonom angefahren werden, falls das Objekt einmal (beispielsweise durch den Fahrer) bestätigt worden ist oder aus der vorherigen Situation bekannt ist. Damit muss der Fahrer nicht mehr jedes Mal vor dem Anfahren eine Bestätigung durchführen. Durch die verhältnismäßig einfache Bedienung und die universelle Einsatzmöglichkeit wird der Fahrkomfort gesteigert und der Fahrer entlastet.
  • Mit dem Radarsensor können Abstand und Geschwindigkeit des Objekts gut erfasst werden. Mit dem optischen Sensor, beispielsweise in Form eines Videosensors, lassen sich die Querablage (also der seitliche Abstand von der Mittelachse des Fahrzeugs) und der Objekttyp ermitteln sowie die Fahrspur erkennen. Durch eine Fusion der zwei oder mehr Sensordatensätze wird die Qualität der ACC-Regelung verbessert. So ist es möglich, den Fahrschlauch des eigenen oder des vorausfahrenden Fahrzeugs über die Fahrspur besser vorherzusagen und damit Einscher- und Ausschervorgänge sicherer zu erkennen. Als Reaktion können die Geschwindigkeit und der Abstand früher angepasst werden. Auf diese Weise ist es möglich, das Verhalten vom ACC dem eines menschlichen Fahrers stärker anzugleichen.
  • Erkannt werden können alle Hindernisse einer relevanten Größe, die eine Radarsignatur aufweisen. Dies gilt insbesondere für Hindernisse ab einer Größe von etwa 200 mm × 200 mm. Das erfindungsgemäße Fahrerassistenzsystem und insbesondere die spezielle Ausführung als FSRA kann somit all solche Objekte detektieren, die die gewünschte Radarsignatur aufweisen, also auch Fußgänger. Abhängig von der Leistungsfähigkeit des Radars kann zusätzlich eine Fusion mit Ultraschallsensoren erfolgen.
  • Parallel dazu können die Objekte (also beispielsweise die vorausfahrenden Fahrzeuge) mit dem optischen Sensor (also der Kamera) klassifiziert werden. Dadurch ist es ähnlich zu FSRA mit Target Validated Braking möglich, in einem Stau autonom ohne Fahrerbestätigung anzufahren. Hindernisse, die sich zwischen die Fahrzeuge begeben, werden dann aber schon von den fusionierten Sensoren (bzw. einer nachgeschalteten Auswerte- oder Steuereinheit) erkannt.
  • Ein weiterer Vorteil der Erfindung ist die Verbesserung der Fahrschlauchprädiktion von ACC und die sichere Erkennung von Einscher- und Ausschervorgängen.
  • Im Folgenden werden mit Verweis auf die Figuren Ausführungsbeispiele der Erfindung beschrieben.
  • Kurze Beschreibung der Figuren
  • 1 zeigt eine Darstellung eines Fahrerassistenzsystems gemäß einem Ausführungsbeispiel der Erfindung.
  • 2 zeigt ein Fahrzeug gemäß einem Ausführungsbeispiel der Erfindung.
  • 3 zeigt ein Flussdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel der Erfindung.
  • Detaillierte Beschreibung von Ausführungsbeispielen
  • Die Darstellungen in den Figuren sind schematisch und nicht maßstäblich.
  • In der folgenden Figurenbeschreibung werden für die gleichen oder ähnlichen Elemente die gleichen Bezugsziffern verwendet.
  • 1 zeigt ein Fahrerassistenzsystem 100 gemäß einem Ausführungsbeispiel der Erfindung. Das Fahrerassistenzsystem 100 weist eine zentrale Steuereinheit 103 auf. An die Steuereinheit 103 sind ein Radarsensor 101, ein Lidarsensor 104, ein Ultraschallsensor 105 sowie ein optischer Sensor 102 angeschlossen, wobei nicht alle der Sensoren vorhanden sein müssen. Mit diesen Sensoren kann das Umfeld des Fahrzeugs überwacht werden. Die einzelnen Sensordaten bzw. Sensordatensätze können in einem Fusionsmodul 109, das Teil der Steuereinheit ist oder der Steuereinheit vorgeschaltet ist, miteinander fusioniert werden.
  • Da jeder der Sensoren teilweise unterschiedliche Messgrößen detektiert (der Radarsensor detektiert z. B. die Geschwindigkeit und den relativen Abstand des Objekt und die Kamera detektiert dessen Form), führt die Fusion der Sensordaten zu einem umfassenden Ergebnis, welches eine sehr präzise Identifikation von Objekttypen und Objektbewegungen sowie den entsprechenden Objektabständen zum Fahrzeug zulässt. Das Fusionsergebnis kann dann einem Abstandsregeltempomat ACC 108 zugeführt werden, der dann einen entsprechenden Fahreingriff vornimmt.
  • Weiterhin können zur Situationsanalyse die Daten aus einer digitalen Karte hinzugezogen werden. Hierfür sind der Satellitennavigationsempfänger 107 zum Empfang von Positionierungssignalen von beispielsweise Galileo-Satelliten oder GPS-Satelliten sowie die Navigationseinheit 106 vorgesehen. Der Satellitennavigationsempfänger 107 ist mit der Steuereinheit 103 verbunden. Auch ist die Navigationseinheit 107 mit der Steuereinheit 103 verbunden. Weiterhin besteht eine direkte Verbindung zwischen der Navigationseinheit 106 und dem Satellitennavigationsempfänger 107. Somit können die GPS-Signale direkt an die Steuereinheit 103 übermittelt werden.
  • Unter dem Begriff „digitale Karten" sind auch Karten für fortschrittliche Fahrerassistenzsysteme (ADAS, Advanced Driver Assistance Systems) zu verstehen, ohne dass eine Navigation stattfindet.
  • An dieser Stelle sei weiterhin darauf hingewiesen, dass die Datenübertragung zwischen den einzelnen Komponenten sowohl kabelgebunden als auch kabellos erfolgen kann.
  • 2 zeigt ein Fahrzeug 201 mit einem Fahrerassistenzsystem 100 gemäß einem Ausführungsbeispiel der Erfindung. Dem Fahrzeug 201 fährt ein benachbartes Fahrzeug 202 voraus. Durch das Fahrerassistenzsystem 100 ist das Fahrzeug 201 in der Lage, autonome Bremseingriffe durchzuführen, bis hin zur Vollbremsung. Insbesondere können auch stehende Fahrzeuge identifiziert werden. Auch können Fußgänger identifiziert werden, die sich beispielsweise in einem Stau zwischen die einzelnen Fahrzeuge schieben. Auf diese Weise kann ein Stop and Go Betrieb vollautomatisch durchgeführt werden.
  • 3 zeigt ein Flussdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel der Erfindung. In Schritt 301 wird ein Objekt im Umfeld des Fahrzeugs durch einen ersten Sensor (beispielsweise einen Radarsensor) erfasst und es werden entsprechende Objektdaten erzeugt. In Schritt 302, der gleichzeitig mit Schritt 301 oder auch davor oder danach stattfinden kann, werden optische Daten von dem Objekt erfasst (beispielsweise mit Hilfe einer Kamera). Die optischen Daten und die Objektdaten werden an eine Steuereinheit übergeben und in Schritt 303 ausgewertet. Hierbei erfolgt die Bestimmung der relativen Position des Objekts zum eigenen Fahrzeug, eine Bestimmung der Bewegungsrichtung und der Geschwindigkeit des Objekts sowie eine Identifikation der Art des Objekts (Validierung). Außerdem kann ein Fahrschlauch des Objekts mit hoher Genauigkeit prognostiziert werden.
  • In Schritt 304 erfolgt dann ein autonomer Fahreingriff durch eine ACC-Einheit auf Basis der Berechnungen.
  • Ergänzend sei darauf hingewiesen, dass „umfassend" und „aufweisend" keine anderen Elemente oder Schritte ausschließt und „eine" oder „ein" keine Vielzahl ausschließt. Ferner sei darauf hingewiesen, dass Merkmale oder Schritte, die mit Verweis auf eines der obigen Ausführungsbeispiele beschrieben worden sind, auch in Kombination mit anderen Merkmalen oder Schritten anderer oben beschriebener Ausführungsbeispiele verwendet werden können. Bezugszeichen in den Ansprüchen sind nicht als Einschränkungen anzusehen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - DE 3941402 A1 [0004]
    • - DE 29803684 U1 [0005]

Claims (12)

  1. Fahrerassistenzsystem für ein Fahrzeug, das Fahrerassistenzsystem aufweisend: einen Radarsensor (101); einen optischen Sensor (102); eine Steuereinheit (103); wobei der Radarsensor (101) zur Erfassung eines Objekts im Umfeld des Fahrzeugs und zur Weiterleitung entsprechender Objektdaten an die Steuereinheit (103) ausgeführt ist; wobei der optische Sensor (102) zur Erfassung von optischen Daten über das Objekt ausgeführt ist; wobei die Steuereinheit (103) zur Validierung der Objektdaten auf Basis der optischen Daten ausgeführt ist; und wobei das Fahrerassistenzsystem zur Durchführung eines Fahreingriffs in Abhängigkeit von der Validierung der Objektdaten ausgeführt ist.
  2. Fahrerassistenzsystem nach Anspruch 1, ausgeführt zur: Abschätzung eines Kollisionsrisikos des Fahrzeugs auf Basis der Validierung und der Objektdaten sowie weiterer vorgegebener Parameter; und Durchführung einer Bremsung des Fahrzeugs bis zum Stillstand, wenn das Kollisionsrisiko einen vorbestimmten Schwellwert übersteigt.
  3. Fahrerassistenzsystem nach Anspruch 1 oder 2, wobei die Validierung eine Klassifikation des Objekts umfasst.
  4. Fahrerassistenzsystem nach einem der vorhergehenden Ansprüche, wobei der optische Sensor (102) zum Detektieren von Licht im sichtbaren Bereich ausgeführt ist.
  5. Fahrerassistenzsystem nach einem der vorhergehenden Ansprüche, wobei es sich bei dem Objekt um ein benachbartes Fahrzeug handelt; wobei das Fahrerassistenzsystem zur Ermittlung eines Fahrschlauches des benachbarten Fahrzeugs auf Basis der Validierung ausgeführt ist.
  6. Fahrerassistenzsystem nach einem der vorhergehenden Ansprüche, wobei das Fahrerassistenzsystem zur Geschwindigkeitsregelung des Fahrzeugs auf Basis der Validierung und der Objektdaten ausgeführt ist.
  7. Fahrerassistenzsystem nach einem der vorhergehenden Ansprüche, wobei das Fahrerassistenzsystem zur Beschleunigung des Fahrzeugs auf Basis der Validierung und der Objektdaten ausgeführt ist.
  8. Fahrerassistenzsystem nach einem der vorhergehenden Ansprüche, weiterhin aufweisend: eine digitale Karte; wobei die Validierung auch auf Basis von Daten aus der digitalen Karte erfolgt.
  9. Fahrzeug mit einem Fahrerassistenzsystem nach einem der Ansprüche 1 bis 8.
  10. Verfahren zur Durchführung eines Fahreingriffs eines Fahrerassistenzsystems in einem Fahrzeug, das Verfahren aufweisend die Schritte: Erfassen eines Objekts im Umfeld des Fahrzeugs durch einen ersten Sensor (101, 104, 105) und Erzeugen entsprechender Objektdaten; Erfassen von optischen Daten über das Objekt durch einen zweiten Sensor (102); Validierung der Objektdaten auf Basis der optischen Daten; Durchführen eines Fahreingriffs in Abhängigkeit von der Validierung der Objektdaten.
  11. Programmelement, das, wenn es auf einem Prozessor eines Fahrerassistenzsystems ausgeführt wird, das Fahrerassistenzsystem anleitet, die folgenden Schritte durchzuführen: Erfassen eines Objekts im Umfeld des Fahrzeugs durch einen ersten Sensor (101, 104, 105) und Erzeugen entsprechender Objektdaten; Erfassen von optischen Daten über das Objekt durch einen zweiten Sensor (102); Validierung der Objektdaten auf Basis der optischen Daten; Durchführen eines Fahreingriffs in Abhängigkeit von der Validierung der Objektdaten.
  12. Computerlesbares Medium, auf dem ein Programmelement gespeichert ist, das, wenn es auf einem Prozessor eines Fahrerassistenzsystems ausgeführt wird, das Fahrerassistenzsystem anleitet, die folgenden Schritte durchzuführen: Erfassen eines Objekts im Umfeld des Fahrzeugs durch einen ersten Sensor (101, 104, 105) und Erzeugen entsprechender Objektdaten; Erfassen von optischen Daten über das Objekt durch einen zweiten Sensor (102); Validierung der Objektdaten auf Basis der optischen Daten; Durchführen eines Fahreingriffs in Abhängigkeit von der Validierung der Objektdaten.
DE102008061301.0A 2007-12-11 2008-12-11 Fahrerassistenz mit fusionierten Sensordaten Active DE102008061301B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102008061301.0A DE102008061301B4 (de) 2007-12-11 2008-12-11 Fahrerassistenz mit fusionierten Sensordaten
PCT/EP2008/067358 WO2009074661A1 (de) 2007-12-11 2008-12-11 Fahrerassistenz mit funsionierten sensordaten

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102007059833.7 2007-12-11
DE102007059833 2007-12-11
DE102008061301.0A DE102008061301B4 (de) 2007-12-11 2008-12-11 Fahrerassistenz mit fusionierten Sensordaten

Publications (2)

Publication Number Publication Date
DE102008061301A1 true DE102008061301A1 (de) 2009-06-18
DE102008061301B4 DE102008061301B4 (de) 2023-03-16

Family

ID=40680303

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008061301.0A Active DE102008061301B4 (de) 2007-12-11 2008-12-11 Fahrerassistenz mit fusionierten Sensordaten

Country Status (2)

Country Link
DE (1) DE102008061301B4 (de)
WO (1) WO2009074661A1 (de)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010006828A1 (de) 2010-02-03 2011-08-04 Volkswagen AG, 38440 Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
DE102010003375A1 (de) * 2010-03-29 2011-09-29 Bayerische Motoren Werke Aktiengesellschaft Umfeldbewertungssystem in einem Fahrzeug mit Sensormitteln zur Erfassung von Objekten im Umfeld des Fahrzeuges
WO2011161177A1 (de) 2010-06-23 2011-12-29 Continental Teves Ag & Co. Ohg Verfahren und system zur informationsvalidierung
DE102011108865A1 (de) 2011-07-28 2012-01-12 Daimler Ag Verfahren und eine Vorrichtung zum Betrieb eines Fahrerassistenzsystems eines Fahrzeuges
DE102012219106A1 (de) 2011-11-21 2013-05-23 Continental Teves Ag & Co. Ohg SIGNALGEBER, SYSTEM UND VERFAHREN ZUR HERVORHEBUNG VON OBJEKTEN IM STRAßENVERKEHR SOWIE VERWENDUNG DES SYSTEMS UND VERWENDUNG DES SIGNALGEBERS
DE102012001554A1 (de) * 2012-01-26 2013-08-01 Connaught Electronics Ltd. Verfahren zum Betreiben einer Fahrerassistenzeinrichtung eines Kraftfahrzeugs,Fahrerassistenzeinrichtung und Kraftfahrzeug
WO2013113421A1 (de) 2012-02-03 2013-08-08 Continental Teves Ag & Co. Ohg SIGNALGEBER, SYSTEM UND VERFAHREN ZUR HERVORHEBUNG VON OBJEKTEN IM STRAßENVERKEHR SOWIE VERWENDUNG DES SYSTEMS UND VERWENDUNG DES SIGNALGEBERS
DE102012210608A1 (de) * 2012-06-22 2013-12-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erzeugen eines Steuerparameters für ein Abstandsassistenzsystem eines Fahrzeugs
DE102012211391A1 (de) 2012-07-02 2014-01-02 Continental Teves Ag & Co. Ohg Verfahren und System zur Informationsnutzung
DE102013206915A1 (de) 2013-04-17 2014-10-23 Continental Teves Ag & Co. Ohg Vorrichtung, System und Verfahren zur Identifizierung belebter Verkehrsobjekte sowie Verwendung des Systems
WO2014139930A3 (en) * 2013-03-11 2014-10-30 Jaguar Land Rover Limited Emergency braking system for a vehicle
DE102013220526A1 (de) 2013-10-11 2015-04-16 Bayerische Motoren Werke Aktiengesellschaft Ausfallsicherere Sensorarchitektur für Fahrerassistenzsysteme
US9862272B2 (en) 2011-05-25 2018-01-09 Audi Ag Method for operating a longitudinal driver assistance system of a motor vehicle and motor vehicle
US9873429B1 (en) 2016-07-08 2018-01-23 Volkswagen Ag Turned-wheel detection for yielding during low-speed lane changes
EP2594446A3 (de) * 2011-11-15 2018-05-09 Robert Bosch Gmbh Vorrichtung und Verfahren zum Betreiben eines Fahrzeugs
DE102012221766B4 (de) 2012-11-28 2018-08-30 Robert Bosch Gmbh Integration eines optischen Sensors und eines Ultraschallsensors
US10266132B2 (en) 2015-08-08 2019-04-23 Audi Ag Method for operating driver assistance systems in a motor vehicle, and motor vehicle
DE102017220269A1 (de) 2017-11-14 2019-05-16 Continental Automotive Gmbh Fahrerassistenzsystem, fahrzeug und verfahren zum nachverfolgen von objekten
DE102019217212B3 (de) * 2019-11-07 2021-05-12 Zf Friedrichshafen Ag Verfahren und Steuereinrichtung zur Überwachung eines Fahrzeugzwischenbereichs
DE102021206981A1 (de) 2021-07-02 2023-01-05 Siemens Mobility GmbH Verfahren zum Prüfen der Zuverlässigkeit einer KI-basierten Objekt-Detektion
DE102021211255A1 (de) 2021-10-06 2023-04-06 Zf Friedrichshafen Ag Computerimplementiertes Verfahren, Hardwaremodul und Computerprogramm zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsys-tems zur Objekterkennung während einer Fahrt des Fahrsystems und automatisiert betreibbares Fahrsystem
DE102022204546A1 (de) 2022-05-10 2023-11-16 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren für eine Verarbeitung von Sensordaten für ein Fahrassistenzsystem eines Fahrzeuges

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3941402A1 (de) 1989-12-15 1991-06-20 Asea Brown Boveri Verfahren zum erkennen und abwenden einer kollisionsgefahr zwischen sich hintereinander herbewegenden fahrzeugen, insbesondere kraftfahrzeugen, sowie abstandswarnsysteme zur durchfuehrung der verfahren
DE29803684U1 (de) 1998-03-03 1998-05-14 Hertel Juergen Sicherheitssystem für Kraftfahrzeuge im Straßenverkehr

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0717347A (ja) 1993-07-07 1995-01-20 Mazda Motor Corp 自動車の障害物検知装置
DE10238936A1 (de) 2002-08-24 2004-03-04 Robert Bosch Gmbh Vorrichtung und Verfahren zur Steuerung wenigstens einer Systemkomponente eines informationstechnischen Systems
JP4116643B2 (ja) * 2003-07-25 2008-07-09 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 車両周囲の少なくとも1つの物体を分類する装置
DE102004036825A1 (de) * 2004-03-19 2005-10-06 Daimlerchrysler Ag Vorausschauendes Fahrerassistenzsystem
DE102004016981A1 (de) * 2004-04-07 2005-10-27 Robert Bosch Gmbh Verfahren und Vorrichtung zur Warnung des Fahrers eines Kraftfahrzeuges
DE102005009146A1 (de) 2005-03-01 2006-09-21 Robert Bosch Gmbh Fahrerassistenzsystem mit mehreren Assistenzfunktionen

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3941402A1 (de) 1989-12-15 1991-06-20 Asea Brown Boveri Verfahren zum erkennen und abwenden einer kollisionsgefahr zwischen sich hintereinander herbewegenden fahrzeugen, insbesondere kraftfahrzeugen, sowie abstandswarnsysteme zur durchfuehrung der verfahren
DE29803684U1 (de) 1998-03-03 1998-05-14 Hertel Juergen Sicherheitssystem für Kraftfahrzeuge im Straßenverkehr

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010006828A1 (de) 2010-02-03 2011-08-04 Volkswagen AG, 38440 Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
DE102010006828B4 (de) 2010-02-03 2021-07-08 Volkswagen Ag Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
DE102010003375A1 (de) * 2010-03-29 2011-09-29 Bayerische Motoren Werke Aktiengesellschaft Umfeldbewertungssystem in einem Fahrzeug mit Sensormitteln zur Erfassung von Objekten im Umfeld des Fahrzeuges
DE102010003375B4 (de) 2010-03-29 2021-07-22 Bayerische Motoren Werke Aktiengesellschaft Umfeldbewertungssystem in einem Fahrzeug mit Sensormitteln zur Erfassung von Objekten im Umfeld des Fahrzeuges
DE102011077998A1 (de) 2010-06-23 2012-01-05 Continental Teves Ag & Co. Ohg Verfahren und System zur Informationsvalidierung
US9393958B2 (en) 2010-06-23 2016-07-19 Continental Teves Ag & Co. Ohg Method and system for validating information
WO2011161177A1 (de) 2010-06-23 2011-12-29 Continental Teves Ag & Co. Ohg Verfahren und system zur informationsvalidierung
US9862272B2 (en) 2011-05-25 2018-01-09 Audi Ag Method for operating a longitudinal driver assistance system of a motor vehicle and motor vehicle
DE102011108865A1 (de) 2011-07-28 2012-01-12 Daimler Ag Verfahren und eine Vorrichtung zum Betrieb eines Fahrerassistenzsystems eines Fahrzeuges
EP2594446A3 (de) * 2011-11-15 2018-05-09 Robert Bosch Gmbh Vorrichtung und Verfahren zum Betreiben eines Fahrzeugs
DE102012219106A1 (de) 2011-11-21 2013-05-23 Continental Teves Ag & Co. Ohg SIGNALGEBER, SYSTEM UND VERFAHREN ZUR HERVORHEBUNG VON OBJEKTEN IM STRAßENVERKEHR SOWIE VERWENDUNG DES SYSTEMS UND VERWENDUNG DES SIGNALGEBERS
DE102012001554A1 (de) * 2012-01-26 2013-08-01 Connaught Electronics Ltd. Verfahren zum Betreiben einer Fahrerassistenzeinrichtung eines Kraftfahrzeugs,Fahrerassistenzeinrichtung und Kraftfahrzeug
WO2013113421A1 (de) 2012-02-03 2013-08-08 Continental Teves Ag & Co. Ohg SIGNALGEBER, SYSTEM UND VERFAHREN ZUR HERVORHEBUNG VON OBJEKTEN IM STRAßENVERKEHR SOWIE VERWENDUNG DES SYSTEMS UND VERWENDUNG DES SIGNALGEBERS
DE102012210608A1 (de) * 2012-06-22 2013-12-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erzeugen eines Steuerparameters für ein Abstandsassistenzsystem eines Fahrzeugs
US9260113B2 (en) 2012-06-22 2016-02-16 Robert Bosch Gmbh Method and device for generating a control parameter for a distance control system of a vehicle
EP2676857A3 (de) * 2012-06-22 2018-04-25 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erzeugen eines Steuerparameters für ein Abstandsassistenzsystem eines Fahrzeugs
DE102012211391A1 (de) 2012-07-02 2014-01-02 Continental Teves Ag & Co. Ohg Verfahren und System zur Informationsnutzung
US9669838B2 (en) 2012-07-02 2017-06-06 Continental Teves Ag & Co. Ohg Method and system for information use
WO2014006034A1 (de) 2012-07-02 2014-01-09 Continental Teves Ag & Co. Ohg Verfahren und system zur informationsnutzung
US20150166071A1 (en) * 2012-07-02 2015-06-18 Continental Teves Ag & Co. Ohg Method and system for information use
DE102012221766B4 (de) 2012-11-28 2018-08-30 Robert Bosch Gmbh Integration eines optischen Sensors und eines Ultraschallsensors
US9682689B2 (en) 2013-03-11 2017-06-20 Jaguar Land Rover Limited Emergency braking system for a vehicle
WO2014139930A3 (en) * 2013-03-11 2014-10-30 Jaguar Land Rover Limited Emergency braking system for a vehicle
DE102013206915A1 (de) 2013-04-17 2014-10-23 Continental Teves Ag & Co. Ohg Vorrichtung, System und Verfahren zur Identifizierung belebter Verkehrsobjekte sowie Verwendung des Systems
DE102013220526A1 (de) 2013-10-11 2015-04-16 Bayerische Motoren Werke Aktiengesellschaft Ausfallsicherere Sensorarchitektur für Fahrerassistenzsysteme
US10266132B2 (en) 2015-08-08 2019-04-23 Audi Ag Method for operating driver assistance systems in a motor vehicle, and motor vehicle
US9873429B1 (en) 2016-07-08 2018-01-23 Volkswagen Ag Turned-wheel detection for yielding during low-speed lane changes
DE102017220269A1 (de) 2017-11-14 2019-05-16 Continental Automotive Gmbh Fahrerassistenzsystem, fahrzeug und verfahren zum nachverfolgen von objekten
DE102019217212B3 (de) * 2019-11-07 2021-05-12 Zf Friedrichshafen Ag Verfahren und Steuereinrichtung zur Überwachung eines Fahrzeugzwischenbereichs
DE102021206981A1 (de) 2021-07-02 2023-01-05 Siemens Mobility GmbH Verfahren zum Prüfen der Zuverlässigkeit einer KI-basierten Objekt-Detektion
DE102021211255A1 (de) 2021-10-06 2023-04-06 Zf Friedrichshafen Ag Computerimplementiertes Verfahren, Hardwaremodul und Computerprogramm zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsys-tems zur Objekterkennung während einer Fahrt des Fahrsystems und automatisiert betreibbares Fahrsystem
DE102022204546A1 (de) 2022-05-10 2023-11-16 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren für eine Verarbeitung von Sensordaten für ein Fahrassistenzsystem eines Fahrzeuges

Also Published As

Publication number Publication date
DE102008061301B4 (de) 2023-03-16
WO2009074661A1 (de) 2009-06-18

Similar Documents

Publication Publication Date Title
DE102008061301B4 (de) Fahrerassistenz mit fusionierten Sensordaten
DE102008036131B4 (de) Verfahren und Vorrichtung zur Erkennung der Verkehrssituation in einer Fahrzeugumgebung
DE102010038097B4 (de) Fahrzeugfahrunterstützungs-Steuervorrichtung
DE102008061303A1 (de) Fahrzeugsteuerung unter Verwendung von Fahrzeug-zu-Fahrzeug-Kommunikation
DE102016207308A1 (de) Fahrtsteuervorrichtung
DE102017100323A1 (de) Steuerung für die Fahrt eines Fahrzeugs
EP2054869A1 (de) Verfahren und vorrichtung zur fahrerassistenz durch erzeugung von spurinformationen zur unterstützung oder zum ersatz von spurinformationen einer videobasierten spurinformationseinrichtung
DE102016109146A1 (de) Fahrzeugfahrt-Steuerungsvorrichtung
DE102016003438A1 (de) Fahrassistenzsystem eines Fahrzeugs und Verfahren zur Steuerung desselben
EP2188798A1 (de) Verkehrsleitsystem
DE102008035992A1 (de) Ampelphasenassistent unterstützt durch Umfeldsensoren
WO2015197353A2 (de) Verfahren zur erstellung eines umfeldmodells eines fahrzeugs
DE102011014083A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems und Fahrerassistenzsystem
DE102016117350A1 (de) Fahrunterstützungsvorrichtung
DE102016223579A1 (de) Verfahren zum Ermitteln von Daten einer Verkehrssituation
DE102010049721A1 (de) Verfahren und Vorrichtung zur Anzeige einer Kritikalität
DE102018219674A1 (de) Fahrsteuereinrichtung und Verfahren für Fahrzeug
DE102010052128A1 (de) Verfahren zum Betreiben eines Kraftfahrzeugs und Kraftfahrzeug
DE112015004042B4 (de) Objekterkennungsvorrichtung
DE102017100633A1 (de) Präventions-sicherheitsvorrichtung für die kursänderung eines kleinfahrzeugs
DE102013021835A1 (de) Verfahren zum Warnen vor einer Gefahrenstelle
DE102019116380A1 (de) Vorrichtung und Verfahren zum Steuern eines Fahrens eines Fahrzeugs
DE102017202984A1 (de) Vorrichtung für autonomes fahren
EP3569465A1 (de) Verfahren und system zur bereitstellung einer automatisierungsfunktion für ein fahrzeug
DE102020207928A1 (de) Vorrichtung zur unterstützung des fahrens eines fahrzeugs und verfahren dafür

Legal Events

Date Code Title Description
OR8 Request for search as to paragraph 43 lit. 1 sentence 1 patent law
R012 Request for examination validly filed
R084 Declaration of willingness to licence
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE

Free format text: FORMER OWNER: CONTINENTAL TEVES AG & CO. OHG, 60488 FRANKFURT, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final