DE102008061301A1 - Fahrerassistenz mit fusionierten Sensordaten - Google Patents
Fahrerassistenz mit fusionierten Sensordaten Download PDFInfo
- Publication number
- DE102008061301A1 DE102008061301A1 DE102008061301A DE102008061301A DE102008061301A1 DE 102008061301 A1 DE102008061301 A1 DE 102008061301A1 DE 102008061301 A DE102008061301 A DE 102008061301A DE 102008061301 A DE102008061301 A DE 102008061301A DE 102008061301 A1 DE102008061301 A1 DE 102008061301A1
- Authority
- DE
- Germany
- Prior art keywords
- driver assistance
- assistance system
- vehicle
- validation
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003287 optical effect Effects 0.000 claims abstract description 30
- 238000010200 validation analysis Methods 0.000 claims abstract description 30
- 238000000034 method Methods 0.000 claims description 14
- 230000001133 acceleration Effects 0.000 claims description 2
- 230000001419 dependent effect Effects 0.000 abstract description 2
- 230000004927 fusion Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 238000011144 upstream manufacturing Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 1
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/161—Decentralised systems, e.g. inter-vehicle communication
- G08G1/163—Decentralised systems, e.g. inter-vehicle communication involving continuous checking
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/14—Adaptive cruise control
- B60W30/16—Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
Abstract
Gemäß einem Ausführungsbeispiel der Erfindung erfolgt die Durchführung eines Fahreingriffs in Abhängigkeit von einer Validierung von Objektdaten. Hierfür werden Radarsensordaten mit optischen Sensordaten ergänzt und eine Validierung der Radarsensordaten durchgeführt. Auf diese Weise kann die Fahrschlauchprädiktion verbessert und es können Einscher- und Ausschervorgänge sicher erkannt werden. Auch können Fußgänger identifiziert werden, die sich zwischen stehenden Fahrzeugen bewegen.
Description
- Gebiet der Erfindung
- Die Erfindung betrifft die Assistenz- und Sicherheitstechnik für Fahrzeuge. Insbesondere betrifft die Erfindung ein Fahrerassistenzsystem für ein Fahrzeug, ein Fahrzeug mit einem Fahrerassistenzsystem, ein Verfahren zur Durchführung eines Fahreingriffs eines Fahrerassistenzsystems in einem Fahrzeug, ein Programmelement und ein computerlesbares Medium.
- Technologischer Hintergrund
- Aus der Südwest Presse, "Auto der Zukunft denkt mit", 04.06.1996, geht ein Fahrzeug hervor, das einen Autopiloten aufweist. Dieser ermittelt mit Hilfe einer im Fahrzeug angeordneten Videokamera und Bildverarbeitungsalgorithmen Informationen über Abstände zu Objekten auf der Fahrbahn und der Spur des Fahrzeugs. Ferner können auch von der Videokamera aufgezeichnete Verkehrszeichen erkannt werden. Es hat sich als nachteilig herausgestellt, dass die Bildverarbeitung häufig nicht zuverlässig ist. Überdies sind hohe Investitionen erforderlich.
- Moderne Kraftfahrzeuge werden zunehmend mit den Fahrer unterstützenden Funktionen und Diensten ausgestattet. Die den Fahrer unterstützenden Funktionen, wie zum Beispiel ABS, ESP, ACC und automatischer Notruf erbringen dabei angeforderte Dienstleistungen mit einem jeweils vordefinierten Ablauf. Die Dienste dagegen stellen auf Anforderung eine Dienstleistung bereit, wobei in der Regel offen bleibt, wie die Dienstleistung erbracht wird. So ist zum Beispiel beim Dienstangebot Navigation völlig offen, auf welchem Weg das Ziel erreicht wird, wenn die Dienstanforderung gestellt ist, das Fahrzeug zu einem ausgewählten Zielort zu führen. Die erwähnten Funktionen und Dienste sind bisher überwiegend fahrerbezogen, da sie den Fahrer des einzelnen Fahrzeugs bei der Beherrschung der Fahrzeugdynamik, bei dem Herbeiholen von Hilfeleistungen und bei der Zielfindung unterstützen. Dienste dagegen, die den Fahrer aufgrund von Flottenbelangen unterstützen, sind so gut wie unbekannt. Wenige Beispiele sind ARI, RDS-TMC und TEGARON, mit denen im Wesentlichen Verkehrshinweise bereitgestellt werden. Die für die Realisierung der oben genannten Funktionen und Dienste notwendigen technischen Einrichtungen sind in der Regel nur für die spezielle Funktion oder den Dienst ausgelegt und daher nicht mehrfach benutzbar.
- Aus
DE 39 41 402 A1 ist ein Verfahren zum Erkennen und Abwenden einer Kollisionsgefahr zwischen einem im Verkehr sich vorausbewegenden Fahrzeug und einem sich nachbewegenden Fahrzeug bekannt, bei dem jedes Fahrzeug dauernd mindestens ein die Information über seinen Bewegungszustand hinsichtlich Momentangeschwindigkeit und/oder Momentanbeschleunigung aufweisendes Signal in den entgegengesetzt zur jeweiligen Fahrtrichtung liegenden rückwärtigen Halbraum aussendet, bei dem weiter das von jedem Fahrzeug beim Eintritt in den Sendebereich des Fahrzeugs empfangene Signal einem im Hinblick auf das Vorliegen einer Kollisionsgefahr ausgewerteten Vergleich mit dem Signal unterzogen wird, und beim dem das Signal und/oder ein infolge des bewerteten Vergleichs Kollisionsgefahr signalisierendes Vergleichssignal eine den Fahrzeugführer und/oder andere nachfolgende Verkehrsteilnehmerinformierende Signalisierungsvorrichtung und/oder eine den Bewegungszustand des Fahrzeugs im Sinne einer Kollisionsvermeidung ändernde Fahrzeugvorrichtung beaufschlagt. - Aus
DE 298 03 684 U1 ist weiter ein Sicherheitssystem für Kraftfahrzeuge im Straßenverkehr bekannt, mit mindestens einem Fahrzeugsender in einem ersten Fahrzeug mit einem Sendemittel zur Ausstrahlung zumindest eines bestimmten Sicherheitssignals, mit einem Auslösungsmittel zur Bestimmung, ob ein sicherheitsrelevantes Ereignis im Fahrzeug vorliegt, wobei der Träger des Signals, den das Sendemittel aussendet, eine elektromagnetische Welle im nicht-sichtbaren Bereich darstellt, und mit zumindest einem Informationsempfänger in einem zweiten Fahrzeug mit einem Empfangsteil zum Empfang von sicherheitsrelevanten Informationen, die von einem Fahrzeugsender ausgesendet werden, und zumindest einer Warneinrichtung im Fahrzeug, bei dem das Auslösungsmittel zumindest mit den folgenden Systemen im Fahrzeug verbunden ist: Bremsdetektor, Ein-/Ausschalter der Warnblinkanlage und dabei so eingerichtet ist, dass es an das Sendemittel Informationen zumindest über den Grund der Auslösung überträgt und wobei das Sendemittel des Fahrzeugsenders diese Informationen mit aussendet, und die Warneinrichtung zumindest zwei unterschiedliche Darstellungen für verschiedene Warn- oder Notsituationen aufweist. - Zusammenfassung der Erfindung
- Es ist eine Aufgabe der Erfindung, eine verbesserte Fahrerassistenz für Fahrzeuge anzugeben.
- Es sind ein Fahrerassistenzsystem, ein Fahrzeug mit einem Fahrerassistenzsystem, ein Verfahren zur Durchführung eines Fahreingriffs eines Fahrerassistenzsystems in einem Fahrzeug, ein Programmelement und ein computerlesbares Medium gemäß den Merkmalen der unabhängigen Ansprüche angegeben. Weiterbildungen der Erfindung ergeben sich aus den Unteransprüchen.
- Die beschriebenen Ausführungsbeispiele betreffen gleichermaßen das Fahrerassistenzsystem, das Fahrzeug, das Verfahren, das Programmelement und das computerlesbare Medium. In anderen Worten lassen sich die im Folgenden im Hinblick z. B. auf das Fahrerassistenzsystem genannten Merkmale auch in dem Verfahren, dem Programmelement oder dem computerlesbaren Medium implementieren, und umgekehrt.
- Gemäß einem Ausführungsbeispiel der Erfindung ist ein Fahrerassistenzsystem für ein Fahrzeug angegeben, welches einen Radarsensor und einen optischen Sensor sowie eine Steuereinheit aufweist. Der Radarsensor ist zur Erfassung eines Objekts im Umfeld des Fahrzeugs und zur Weiterleitung der entsprechenden Objektdaten an die Steuereinheit ausgeführt. Der optische Sensor ist zur Erfassung von optischen Daten hinsichtlich des Objekts ausgeführt, wobei die Steuereinheit zur Validierung der Objektdaten auf Basis der optischen Daten ausgeführt ist. Weiterhin ist das Fahrerassistenzsystem zur Durchführung eines Fahreingriffs in Abhängigkeit von der Validierung der Objektdaten ausgeführt.
- In anderen Worten werden sowohl die Messdaten des Radarsensors und des optischen Sensors zur Steuerung des Fahrerassistenzsystems verwendet. Mit Hilfe der Radarsensordaten können beispielsweise die relative Position des Objekts zum Fahrzeug sowie seine Geschwindigkeit bestimmt werden. Mit Hilfe der optischen Sensordaten kann überprüft werden, um was für ein Objekt es sich handelt. Auf diese Weise kann beispielsweise bestimmt werden, ob es sich um ein Fahrzeug oder ein Fußgänger handelt.
- In Abhängigkeit von dem erzielten Endergebnis (Positionsbestimmung, Geschwindigkeitsbestimmung und Validierung) wird dann das Fahrerassistenzsystem angesteuert.
- Natürlich können auch mehrere optische Sensoren und mehrere Radarsensoren vorgesehen sein. Auch kann anstelle oder zusätzlich zum Radarsensor ein Lidarsensor vorgesehen sein. Zusätzlich kann ein Ultraschallsensor vorgesehen sein.
- Die mittels des Radarsensors (und/oder der anderen Sensoren) erfassten und detektierten Objekte werden also durch den visuellen Sensor validiert und durch diese Validierung wird das Fahrerassistenzsystem angesteuert.
- Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist es vorgesehen, dass die Messdaten des Radarsensors und die Messdaten des optischen Sensors miteinander fusioniert werden. Diese Datenfusion kann innerhalbe der Steuereinheit oder in einem vorgeschalteten Fusionsmodul erfolgen. In diesem Fall handelt es sich also um ein einstufiges Verfahren (siehe auch
3 ). Hierfür wird beispielsweise ein Kalman-Filter verwendet. Es ist nicht erforderlich, dass eine nachträgliche Validierung der Radarsensordaten auf Basis der optischen Daten stattfindet. - Gemäß einem weiteren Ausführungsbeispiel der Erfindung erfolgt eine Abschätzung eines Kollisionsrisikos des Fahrzeugs mit dem Objekt auf Basis der Validierung und der Objektdaten sowie weiterer vorgegebener Parameter. Weiterhin erfolgt die Durchführung einer Bremsung des Fahrzeugs bis zum Stillstand des Fahrzeugs, wenn das Kollisionsrisiko ungleich Null ist oder zumindest einen vorbestimmten Schwellwert übersteigt.
- In anderen Worten erfolgt die Ansteuerung einer Fahrerassistenzeinheit derart, dass durch die Validierung nach Maßgabe der vorgegebenen Parameter des Fahrerassistenzsystems bei Kollisionsgefahr das Fahrzeug bis zum völligen Stillstand abgebremst wird.
- Gemäß einem weiteren Ausführungsbeispiel der Erfindung umfasst die Validierung der Objektdaten eine Klassifikation des Objekts. Beispielsweise kann festgestellt werden, ob es sich um einen Fußgänger, ein Fahrrad oder ein Kraftfahrzeug handelt. Auch ist es möglich zu unterscheiden, ob es sich um einen Lastkraftwagen oder einen Personenkraftwagen handelt. Auch Motorräder können klassifiziert bzw. identifiziert werden.
- Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist der optische Sensor zum Detektieren von Licht im sichtbaren Spektralbereich ausgeführt. Beispielsweise handelt es sich um einen Videosensor, z. B. in Form einer Mono-Videokamera oder einer Stereo-Videokamera.
- Gemäß einem weiteren Ausführungsbeispiel der Erfindung handelt es sich bei dem Objekt um ein benachbartes, beispielsweise vorausfahrendes Fahrzeug, wobei das Fahrerassistenzsystem zur Ermittlung eines Fahrschlauchs des benachbarten Fahrzeugs auf Basis der Validierung ausgeführt ist.
- Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist das Fahrerassistenzsystem zur Geschwindigkeitsregelung des Fahrzeugs auf Basis der Validierung und der Objektdaten ausgeführt.
- Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist das Fahrerassistenzsystem zur Beschleunigung des Fahrzeugs auf Basis der Validierung und der Objektdaten ausgeführt.
- Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist das Fahrerassistenzsystem weiterhin digitale Kartendaten auf, die in einem entsprechenden Speicher gespeichert sind. Die Validierung erfolgt in diesem Ausführungsbeispiel auch auf Basis von Daten aus der entsprechenden digitalen Karte.
- Wird hierfür die Position des Fahrzeugs benötigt, kann diese beispielsweise von einem Satellitennavigationsgerät (GPS-Gerät) geliefert werden. Es sei darauf hingewiesen, dass im Kontext der vorliegenden Erfindung GPS stellvertretend für sämtliche Globale Navigationssatellitensysteme (GNSS) steht, wie z. B. GPS, Galileo, GLONASS (Russland), Compass (China), IRNSS (Indien), ...
- Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist ein Fahrzeug mit einem oben beschriebenen Fahrerassistenzsystem angegeben.
- Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist ein Verfahren zur Durchführung eines Fahreingriffs eines Fahrerassistenzsystems in einem Fahrzeug angegeben, bei dem ein Objekt im Umfeld des Fahrzeugs durch einen ersten Sensor erfasst wird und entsprechende Objektdaten erzeugt werden. Weiterhin werden optische Daten über das Objekt durch einen zweiten Sensor erfasst bzw. erzeugt. In einem nächsten Schritt erfolgt eine Validierung der Objektdaten auf Basis der optischen Daten sowie die Durchführung eines Fahreingriffs in Abhängigkeit von der Validierung der Objektdaten.
- Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist ein Programmelement angegeben, das, wenn es auf einem Prozessor eines Fahrerassistenzsystems ausgeführt wird, das Fahrerassistenzsystem anleitet, die oben angegebenen Verfahrensschritte durchzuführen.
- Dabei kann das Programmelement z. B. Teil einer Software sein, die auf einem Prozessor des Fahrerassistenzsystems gespeichert ist. Der Prozessor kann dabei ebenso Gegenstand der Erfindung sein. Weiterhin umfasst dieses Ausführungsbeispiel der Erfindung ein Programmelement, welches schon von Anfang an die Erfindung verwendet, sowie auch ein Programmelement, welches durch eine Aktualisierung (Update) ein bestehendes Programm zur Verwendung der Erfindung veranlasst.
- Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist ein computerlesbares Medium angegeben, auf dem ein Programmelement gespeichert ist, das, wenn es auf einem Prozessor eines Fahrerassistenzsystems ausgeführt wird, das Fahrerassistenzsystem anleitet, die oben beschriebenen Verfahrensschritte durchzuführen.
- Ein Aspekt der Erfindung ist darin zu sehen, dass ein dynamisches Fahrgeschwindigkeitsregelsystem, auch Abstandsregeltempomat (Adaptive Cruise Control, ACC) genannt, oder auch ein sog. Full Speed Range ACC (FSRA) oder aber auch ein sog. Stop and Go ACC um eine autonome Bremsfunktion ergänzt wird. Diese autonome Bremsfunktion nutzt die Validierungsdaten, die auf den Bildern des optischen Sensors basieren (sog. Target Validated Braking).
- Entscheidend ist hierbei die Zusammenführung von ACC und dem Target Validated Braking. Unter dem Begriff Target Validated Braking ist zu verstehen, dass das Fahrzeug mittels der im Fahrzeug befindlichen Sensorik abhängig von den im Umfeld befindlichen Objekten eine Abbremsung vornimmt.
- Zu diesem Zweck wird eine zusätzliche Kamera im Fahrzeug eingesetzt und mittels dieser werden Fahrzeuge, die sich in der Umgebung befinden, von anderen Radarzielen unterschieden. Auch können Fußgänger identifiziert werden. Hierdurch ist es möglich, automatisch stehende Fahrzeuge durch die Kamera zu validieren und eine entsprechende Bremsung automatisch einzuleiten. Ein Radarsensor kann im Gegensatz hierzu nur stehende Objekte zuverlässig erkennen, wenn sich diese vorher bewegt haben.
- Weiterhin werden auch kleinste Änderungen am Aussehen des vorausfahrenden Fahrzeugs erkannt. Somit können Hindernisse, die sich beispielsweise während des Stillstandes des vorausfahrenden Fahrzeugs zwischen das eigene und das vorausfahrende Fahrzeug bewegt haben, als Abbruchkriterium gewertet werden. Dies ist besonders vorteilhaft für Fußgänger als zu erkennende Objekte.
- Ein Vorteil der Erfindung ist die Möglichkeit, mit einem bestehenden und bekannten ACC-System automatische Bremsmanöver durchzuführen. Insbesondere kann auch der Anfahrtsvorgang wesentlich vereinfacht werden. Da die Kamera das Objekt erkennt, kann das Fahrzeug immer wieder autonom angefahren werden, falls das Objekt einmal (beispielsweise durch den Fahrer) bestätigt worden ist oder aus der vorherigen Situation bekannt ist. Damit muss der Fahrer nicht mehr jedes Mal vor dem Anfahren eine Bestätigung durchführen. Durch die verhältnismäßig einfache Bedienung und die universelle Einsatzmöglichkeit wird der Fahrkomfort gesteigert und der Fahrer entlastet.
- Mit dem Radarsensor können Abstand und Geschwindigkeit des Objekts gut erfasst werden. Mit dem optischen Sensor, beispielsweise in Form eines Videosensors, lassen sich die Querablage (also der seitliche Abstand von der Mittelachse des Fahrzeugs) und der Objekttyp ermitteln sowie die Fahrspur erkennen. Durch eine Fusion der zwei oder mehr Sensordatensätze wird die Qualität der ACC-Regelung verbessert. So ist es möglich, den Fahrschlauch des eigenen oder des vorausfahrenden Fahrzeugs über die Fahrspur besser vorherzusagen und damit Einscher- und Ausschervorgänge sicherer zu erkennen. Als Reaktion können die Geschwindigkeit und der Abstand früher angepasst werden. Auf diese Weise ist es möglich, das Verhalten vom ACC dem eines menschlichen Fahrers stärker anzugleichen.
- Erkannt werden können alle Hindernisse einer relevanten Größe, die eine Radarsignatur aufweisen. Dies gilt insbesondere für Hindernisse ab einer Größe von etwa 200 mm × 200 mm. Das erfindungsgemäße Fahrerassistenzsystem und insbesondere die spezielle Ausführung als FSRA kann somit all solche Objekte detektieren, die die gewünschte Radarsignatur aufweisen, also auch Fußgänger. Abhängig von der Leistungsfähigkeit des Radars kann zusätzlich eine Fusion mit Ultraschallsensoren erfolgen.
- Parallel dazu können die Objekte (also beispielsweise die vorausfahrenden Fahrzeuge) mit dem optischen Sensor (also der Kamera) klassifiziert werden. Dadurch ist es ähnlich zu FSRA mit Target Validated Braking möglich, in einem Stau autonom ohne Fahrerbestätigung anzufahren. Hindernisse, die sich zwischen die Fahrzeuge begeben, werden dann aber schon von den fusionierten Sensoren (bzw. einer nachgeschalteten Auswerte- oder Steuereinheit) erkannt.
- Ein weiterer Vorteil der Erfindung ist die Verbesserung der Fahrschlauchprädiktion von ACC und die sichere Erkennung von Einscher- und Ausschervorgängen.
- Im Folgenden werden mit Verweis auf die Figuren Ausführungsbeispiele der Erfindung beschrieben.
- Kurze Beschreibung der Figuren
-
1 zeigt eine Darstellung eines Fahrerassistenzsystems gemäß einem Ausführungsbeispiel der Erfindung. -
2 zeigt ein Fahrzeug gemäß einem Ausführungsbeispiel der Erfindung. -
3 zeigt ein Flussdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel der Erfindung. - Detaillierte Beschreibung von Ausführungsbeispielen
- Die Darstellungen in den Figuren sind schematisch und nicht maßstäblich.
- In der folgenden Figurenbeschreibung werden für die gleichen oder ähnlichen Elemente die gleichen Bezugsziffern verwendet.
-
1 zeigt ein Fahrerassistenzsystem100 gemäß einem Ausführungsbeispiel der Erfindung. Das Fahrerassistenzsystem100 weist eine zentrale Steuereinheit103 auf. An die Steuereinheit103 sind ein Radarsensor101 , ein Lidarsensor104 , ein Ultraschallsensor105 sowie ein optischer Sensor102 angeschlossen, wobei nicht alle der Sensoren vorhanden sein müssen. Mit diesen Sensoren kann das Umfeld des Fahrzeugs überwacht werden. Die einzelnen Sensordaten bzw. Sensordatensätze können in einem Fusionsmodul109 , das Teil der Steuereinheit ist oder der Steuereinheit vorgeschaltet ist, miteinander fusioniert werden. - Da jeder der Sensoren teilweise unterschiedliche Messgrößen detektiert (der Radarsensor detektiert z. B. die Geschwindigkeit und den relativen Abstand des Objekt und die Kamera detektiert dessen Form), führt die Fusion der Sensordaten zu einem umfassenden Ergebnis, welches eine sehr präzise Identifikation von Objekttypen und Objektbewegungen sowie den entsprechenden Objektabständen zum Fahrzeug zulässt. Das Fusionsergebnis kann dann einem Abstandsregeltempomat ACC
108 zugeführt werden, der dann einen entsprechenden Fahreingriff vornimmt. - Weiterhin können zur Situationsanalyse die Daten aus einer digitalen Karte hinzugezogen werden. Hierfür sind der Satellitennavigationsempfänger
107 zum Empfang von Positionierungssignalen von beispielsweise Galileo-Satelliten oder GPS-Satelliten sowie die Navigationseinheit106 vorgesehen. Der Satellitennavigationsempfänger107 ist mit der Steuereinheit103 verbunden. Auch ist die Navigationseinheit107 mit der Steuereinheit103 verbunden. Weiterhin besteht eine direkte Verbindung zwischen der Navigationseinheit106 und dem Satellitennavigationsempfänger107 . Somit können die GPS-Signale direkt an die Steuereinheit103 übermittelt werden. - Unter dem Begriff „digitale Karten" sind auch Karten für fortschrittliche Fahrerassistenzsysteme (ADAS, Advanced Driver Assistance Systems) zu verstehen, ohne dass eine Navigation stattfindet.
- An dieser Stelle sei weiterhin darauf hingewiesen, dass die Datenübertragung zwischen den einzelnen Komponenten sowohl kabelgebunden als auch kabellos erfolgen kann.
-
2 zeigt ein Fahrzeug201 mit einem Fahrerassistenzsystem100 gemäß einem Ausführungsbeispiel der Erfindung. Dem Fahrzeug201 fährt ein benachbartes Fahrzeug202 voraus. Durch das Fahrerassistenzsystem100 ist das Fahrzeug201 in der Lage, autonome Bremseingriffe durchzuführen, bis hin zur Vollbremsung. Insbesondere können auch stehende Fahrzeuge identifiziert werden. Auch können Fußgänger identifiziert werden, die sich beispielsweise in einem Stau zwischen die einzelnen Fahrzeuge schieben. Auf diese Weise kann ein Stop and Go Betrieb vollautomatisch durchgeführt werden. -
3 zeigt ein Flussdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel der Erfindung. In Schritt301 wird ein Objekt im Umfeld des Fahrzeugs durch einen ersten Sensor (beispielsweise einen Radarsensor) erfasst und es werden entsprechende Objektdaten erzeugt. In Schritt302 , der gleichzeitig mit Schritt301 oder auch davor oder danach stattfinden kann, werden optische Daten von dem Objekt erfasst (beispielsweise mit Hilfe einer Kamera). Die optischen Daten und die Objektdaten werden an eine Steuereinheit übergeben und in Schritt303 ausgewertet. Hierbei erfolgt die Bestimmung der relativen Position des Objekts zum eigenen Fahrzeug, eine Bestimmung der Bewegungsrichtung und der Geschwindigkeit des Objekts sowie eine Identifikation der Art des Objekts (Validierung). Außerdem kann ein Fahrschlauch des Objekts mit hoher Genauigkeit prognostiziert werden. - In Schritt
304 erfolgt dann ein autonomer Fahreingriff durch eine ACC-Einheit auf Basis der Berechnungen. - Ergänzend sei darauf hingewiesen, dass „umfassend" und „aufweisend" keine anderen Elemente oder Schritte ausschließt und „eine" oder „ein" keine Vielzahl ausschließt. Ferner sei darauf hingewiesen, dass Merkmale oder Schritte, die mit Verweis auf eines der obigen Ausführungsbeispiele beschrieben worden sind, auch in Kombination mit anderen Merkmalen oder Schritten anderer oben beschriebener Ausführungsbeispiele verwendet werden können. Bezugszeichen in den Ansprüchen sind nicht als Einschränkungen anzusehen.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- - DE 3941402 A1 [0004]
- - DE 29803684 U1 [0005]
Claims (12)
- Fahrerassistenzsystem für ein Fahrzeug, das Fahrerassistenzsystem aufweisend: einen Radarsensor (
101 ); einen optischen Sensor (102 ); eine Steuereinheit (103 ); wobei der Radarsensor (101 ) zur Erfassung eines Objekts im Umfeld des Fahrzeugs und zur Weiterleitung entsprechender Objektdaten an die Steuereinheit (103 ) ausgeführt ist; wobei der optische Sensor (102 ) zur Erfassung von optischen Daten über das Objekt ausgeführt ist; wobei die Steuereinheit (103 ) zur Validierung der Objektdaten auf Basis der optischen Daten ausgeführt ist; und wobei das Fahrerassistenzsystem zur Durchführung eines Fahreingriffs in Abhängigkeit von der Validierung der Objektdaten ausgeführt ist. - Fahrerassistenzsystem nach Anspruch 1, ausgeführt zur: Abschätzung eines Kollisionsrisikos des Fahrzeugs auf Basis der Validierung und der Objektdaten sowie weiterer vorgegebener Parameter; und Durchführung einer Bremsung des Fahrzeugs bis zum Stillstand, wenn das Kollisionsrisiko einen vorbestimmten Schwellwert übersteigt.
- Fahrerassistenzsystem nach Anspruch 1 oder 2, wobei die Validierung eine Klassifikation des Objekts umfasst.
- Fahrerassistenzsystem nach einem der vorhergehenden Ansprüche, wobei der optische Sensor (
102 ) zum Detektieren von Licht im sichtbaren Bereich ausgeführt ist. - Fahrerassistenzsystem nach einem der vorhergehenden Ansprüche, wobei es sich bei dem Objekt um ein benachbartes Fahrzeug handelt; wobei das Fahrerassistenzsystem zur Ermittlung eines Fahrschlauches des benachbarten Fahrzeugs auf Basis der Validierung ausgeführt ist.
- Fahrerassistenzsystem nach einem der vorhergehenden Ansprüche, wobei das Fahrerassistenzsystem zur Geschwindigkeitsregelung des Fahrzeugs auf Basis der Validierung und der Objektdaten ausgeführt ist.
- Fahrerassistenzsystem nach einem der vorhergehenden Ansprüche, wobei das Fahrerassistenzsystem zur Beschleunigung des Fahrzeugs auf Basis der Validierung und der Objektdaten ausgeführt ist.
- Fahrerassistenzsystem nach einem der vorhergehenden Ansprüche, weiterhin aufweisend: eine digitale Karte; wobei die Validierung auch auf Basis von Daten aus der digitalen Karte erfolgt.
- Fahrzeug mit einem Fahrerassistenzsystem nach einem der Ansprüche 1 bis 8.
- Verfahren zur Durchführung eines Fahreingriffs eines Fahrerassistenzsystems in einem Fahrzeug, das Verfahren aufweisend die Schritte: Erfassen eines Objekts im Umfeld des Fahrzeugs durch einen ersten Sensor (
101 ,104 ,105 ) und Erzeugen entsprechender Objektdaten; Erfassen von optischen Daten über das Objekt durch einen zweiten Sensor (102 ); Validierung der Objektdaten auf Basis der optischen Daten; Durchführen eines Fahreingriffs in Abhängigkeit von der Validierung der Objektdaten. - Programmelement, das, wenn es auf einem Prozessor eines Fahrerassistenzsystems ausgeführt wird, das Fahrerassistenzsystem anleitet, die folgenden Schritte durchzuführen: Erfassen eines Objekts im Umfeld des Fahrzeugs durch einen ersten Sensor (
101 ,104 ,105 ) und Erzeugen entsprechender Objektdaten; Erfassen von optischen Daten über das Objekt durch einen zweiten Sensor (102 ); Validierung der Objektdaten auf Basis der optischen Daten; Durchführen eines Fahreingriffs in Abhängigkeit von der Validierung der Objektdaten. - Computerlesbares Medium, auf dem ein Programmelement gespeichert ist, das, wenn es auf einem Prozessor eines Fahrerassistenzsystems ausgeführt wird, das Fahrerassistenzsystem anleitet, die folgenden Schritte durchzuführen: Erfassen eines Objekts im Umfeld des Fahrzeugs durch einen ersten Sensor (
101 ,104 ,105 ) und Erzeugen entsprechender Objektdaten; Erfassen von optischen Daten über das Objekt durch einen zweiten Sensor (102 ); Validierung der Objektdaten auf Basis der optischen Daten; Durchführen eines Fahreingriffs in Abhängigkeit von der Validierung der Objektdaten.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102008061301.0A DE102008061301B4 (de) | 2007-12-11 | 2008-12-11 | Fahrerassistenz mit fusionierten Sensordaten |
PCT/EP2008/067358 WO2009074661A1 (de) | 2007-12-11 | 2008-12-11 | Fahrerassistenz mit funsionierten sensordaten |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102007059833.7 | 2007-12-11 | ||
DE102007059833 | 2007-12-11 | ||
DE102008061301.0A DE102008061301B4 (de) | 2007-12-11 | 2008-12-11 | Fahrerassistenz mit fusionierten Sensordaten |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102008061301A1 true DE102008061301A1 (de) | 2009-06-18 |
DE102008061301B4 DE102008061301B4 (de) | 2023-03-16 |
Family
ID=40680303
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102008061301.0A Active DE102008061301B4 (de) | 2007-12-11 | 2008-12-11 | Fahrerassistenz mit fusionierten Sensordaten |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102008061301B4 (de) |
WO (1) | WO2009074661A1 (de) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010006828A1 (de) | 2010-02-03 | 2011-08-04 | Volkswagen AG, 38440 | Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug |
DE102010003375A1 (de) * | 2010-03-29 | 2011-09-29 | Bayerische Motoren Werke Aktiengesellschaft | Umfeldbewertungssystem in einem Fahrzeug mit Sensormitteln zur Erfassung von Objekten im Umfeld des Fahrzeuges |
WO2011161177A1 (de) | 2010-06-23 | 2011-12-29 | Continental Teves Ag & Co. Ohg | Verfahren und system zur informationsvalidierung |
DE102011108865A1 (de) | 2011-07-28 | 2012-01-12 | Daimler Ag | Verfahren und eine Vorrichtung zum Betrieb eines Fahrerassistenzsystems eines Fahrzeuges |
DE102012219106A1 (de) | 2011-11-21 | 2013-05-23 | Continental Teves Ag & Co. Ohg | SIGNALGEBER, SYSTEM UND VERFAHREN ZUR HERVORHEBUNG VON OBJEKTEN IM STRAßENVERKEHR SOWIE VERWENDUNG DES SYSTEMS UND VERWENDUNG DES SIGNALGEBERS |
DE102012001554A1 (de) * | 2012-01-26 | 2013-08-01 | Connaught Electronics Ltd. | Verfahren zum Betreiben einer Fahrerassistenzeinrichtung eines Kraftfahrzeugs,Fahrerassistenzeinrichtung und Kraftfahrzeug |
WO2013113421A1 (de) | 2012-02-03 | 2013-08-08 | Continental Teves Ag & Co. Ohg | SIGNALGEBER, SYSTEM UND VERFAHREN ZUR HERVORHEBUNG VON OBJEKTEN IM STRAßENVERKEHR SOWIE VERWENDUNG DES SYSTEMS UND VERWENDUNG DES SIGNALGEBERS |
DE102012210608A1 (de) * | 2012-06-22 | 2013-12-24 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Erzeugen eines Steuerparameters für ein Abstandsassistenzsystem eines Fahrzeugs |
DE102012211391A1 (de) | 2012-07-02 | 2014-01-02 | Continental Teves Ag & Co. Ohg | Verfahren und System zur Informationsnutzung |
DE102013206915A1 (de) | 2013-04-17 | 2014-10-23 | Continental Teves Ag & Co. Ohg | Vorrichtung, System und Verfahren zur Identifizierung belebter Verkehrsobjekte sowie Verwendung des Systems |
WO2014139930A3 (en) * | 2013-03-11 | 2014-10-30 | Jaguar Land Rover Limited | Emergency braking system for a vehicle |
DE102013220526A1 (de) | 2013-10-11 | 2015-04-16 | Bayerische Motoren Werke Aktiengesellschaft | Ausfallsicherere Sensorarchitektur für Fahrerassistenzsysteme |
US9862272B2 (en) | 2011-05-25 | 2018-01-09 | Audi Ag | Method for operating a longitudinal driver assistance system of a motor vehicle and motor vehicle |
US9873429B1 (en) | 2016-07-08 | 2018-01-23 | Volkswagen Ag | Turned-wheel detection for yielding during low-speed lane changes |
EP2594446A3 (de) * | 2011-11-15 | 2018-05-09 | Robert Bosch Gmbh | Vorrichtung und Verfahren zum Betreiben eines Fahrzeugs |
DE102012221766B4 (de) | 2012-11-28 | 2018-08-30 | Robert Bosch Gmbh | Integration eines optischen Sensors und eines Ultraschallsensors |
US10266132B2 (en) | 2015-08-08 | 2019-04-23 | Audi Ag | Method for operating driver assistance systems in a motor vehicle, and motor vehicle |
DE102017220269A1 (de) | 2017-11-14 | 2019-05-16 | Continental Automotive Gmbh | Fahrerassistenzsystem, fahrzeug und verfahren zum nachverfolgen von objekten |
DE102019217212B3 (de) * | 2019-11-07 | 2021-05-12 | Zf Friedrichshafen Ag | Verfahren und Steuereinrichtung zur Überwachung eines Fahrzeugzwischenbereichs |
DE102021206981A1 (de) | 2021-07-02 | 2023-01-05 | Siemens Mobility GmbH | Verfahren zum Prüfen der Zuverlässigkeit einer KI-basierten Objekt-Detektion |
DE102021211255A1 (de) | 2021-10-06 | 2023-04-06 | Zf Friedrichshafen Ag | Computerimplementiertes Verfahren, Hardwaremodul und Computerprogramm zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsys-tems zur Objekterkennung während einer Fahrt des Fahrsystems und automatisiert betreibbares Fahrsystem |
DE102022204546A1 (de) | 2022-05-10 | 2023-11-16 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren für eine Verarbeitung von Sensordaten für ein Fahrassistenzsystem eines Fahrzeuges |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3941402A1 (de) | 1989-12-15 | 1991-06-20 | Asea Brown Boveri | Verfahren zum erkennen und abwenden einer kollisionsgefahr zwischen sich hintereinander herbewegenden fahrzeugen, insbesondere kraftfahrzeugen, sowie abstandswarnsysteme zur durchfuehrung der verfahren |
DE29803684U1 (de) | 1998-03-03 | 1998-05-14 | Hertel Juergen | Sicherheitssystem für Kraftfahrzeuge im Straßenverkehr |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0717347A (ja) | 1993-07-07 | 1995-01-20 | Mazda Motor Corp | 自動車の障害物検知装置 |
DE10238936A1 (de) | 2002-08-24 | 2004-03-04 | Robert Bosch Gmbh | Vorrichtung und Verfahren zur Steuerung wenigstens einer Systemkomponente eines informationstechnischen Systems |
JP4116643B2 (ja) * | 2003-07-25 | 2008-07-09 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | 車両周囲の少なくとも1つの物体を分類する装置 |
DE102004036825A1 (de) * | 2004-03-19 | 2005-10-06 | Daimlerchrysler Ag | Vorausschauendes Fahrerassistenzsystem |
DE102004016981A1 (de) * | 2004-04-07 | 2005-10-27 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Warnung des Fahrers eines Kraftfahrzeuges |
DE102005009146A1 (de) | 2005-03-01 | 2006-09-21 | Robert Bosch Gmbh | Fahrerassistenzsystem mit mehreren Assistenzfunktionen |
-
2008
- 2008-12-11 WO PCT/EP2008/067358 patent/WO2009074661A1/de active Application Filing
- 2008-12-11 DE DE102008061301.0A patent/DE102008061301B4/de active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3941402A1 (de) | 1989-12-15 | 1991-06-20 | Asea Brown Boveri | Verfahren zum erkennen und abwenden einer kollisionsgefahr zwischen sich hintereinander herbewegenden fahrzeugen, insbesondere kraftfahrzeugen, sowie abstandswarnsysteme zur durchfuehrung der verfahren |
DE29803684U1 (de) | 1998-03-03 | 1998-05-14 | Hertel Juergen | Sicherheitssystem für Kraftfahrzeuge im Straßenverkehr |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010006828A1 (de) | 2010-02-03 | 2011-08-04 | Volkswagen AG, 38440 | Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug |
DE102010006828B4 (de) | 2010-02-03 | 2021-07-08 | Volkswagen Ag | Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug |
DE102010003375A1 (de) * | 2010-03-29 | 2011-09-29 | Bayerische Motoren Werke Aktiengesellschaft | Umfeldbewertungssystem in einem Fahrzeug mit Sensormitteln zur Erfassung von Objekten im Umfeld des Fahrzeuges |
DE102010003375B4 (de) | 2010-03-29 | 2021-07-22 | Bayerische Motoren Werke Aktiengesellschaft | Umfeldbewertungssystem in einem Fahrzeug mit Sensormitteln zur Erfassung von Objekten im Umfeld des Fahrzeuges |
DE102011077998A1 (de) | 2010-06-23 | 2012-01-05 | Continental Teves Ag & Co. Ohg | Verfahren und System zur Informationsvalidierung |
US9393958B2 (en) | 2010-06-23 | 2016-07-19 | Continental Teves Ag & Co. Ohg | Method and system for validating information |
WO2011161177A1 (de) | 2010-06-23 | 2011-12-29 | Continental Teves Ag & Co. Ohg | Verfahren und system zur informationsvalidierung |
US9862272B2 (en) | 2011-05-25 | 2018-01-09 | Audi Ag | Method for operating a longitudinal driver assistance system of a motor vehicle and motor vehicle |
DE102011108865A1 (de) | 2011-07-28 | 2012-01-12 | Daimler Ag | Verfahren und eine Vorrichtung zum Betrieb eines Fahrerassistenzsystems eines Fahrzeuges |
EP2594446A3 (de) * | 2011-11-15 | 2018-05-09 | Robert Bosch Gmbh | Vorrichtung und Verfahren zum Betreiben eines Fahrzeugs |
DE102012219106A1 (de) | 2011-11-21 | 2013-05-23 | Continental Teves Ag & Co. Ohg | SIGNALGEBER, SYSTEM UND VERFAHREN ZUR HERVORHEBUNG VON OBJEKTEN IM STRAßENVERKEHR SOWIE VERWENDUNG DES SYSTEMS UND VERWENDUNG DES SIGNALGEBERS |
DE102012001554A1 (de) * | 2012-01-26 | 2013-08-01 | Connaught Electronics Ltd. | Verfahren zum Betreiben einer Fahrerassistenzeinrichtung eines Kraftfahrzeugs,Fahrerassistenzeinrichtung und Kraftfahrzeug |
WO2013113421A1 (de) | 2012-02-03 | 2013-08-08 | Continental Teves Ag & Co. Ohg | SIGNALGEBER, SYSTEM UND VERFAHREN ZUR HERVORHEBUNG VON OBJEKTEN IM STRAßENVERKEHR SOWIE VERWENDUNG DES SYSTEMS UND VERWENDUNG DES SIGNALGEBERS |
DE102012210608A1 (de) * | 2012-06-22 | 2013-12-24 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Erzeugen eines Steuerparameters für ein Abstandsassistenzsystem eines Fahrzeugs |
US9260113B2 (en) | 2012-06-22 | 2016-02-16 | Robert Bosch Gmbh | Method and device for generating a control parameter for a distance control system of a vehicle |
EP2676857A3 (de) * | 2012-06-22 | 2018-04-25 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Erzeugen eines Steuerparameters für ein Abstandsassistenzsystem eines Fahrzeugs |
DE102012211391A1 (de) | 2012-07-02 | 2014-01-02 | Continental Teves Ag & Co. Ohg | Verfahren und System zur Informationsnutzung |
US9669838B2 (en) | 2012-07-02 | 2017-06-06 | Continental Teves Ag & Co. Ohg | Method and system for information use |
WO2014006034A1 (de) | 2012-07-02 | 2014-01-09 | Continental Teves Ag & Co. Ohg | Verfahren und system zur informationsnutzung |
US20150166071A1 (en) * | 2012-07-02 | 2015-06-18 | Continental Teves Ag & Co. Ohg | Method and system for information use |
DE102012221766B4 (de) | 2012-11-28 | 2018-08-30 | Robert Bosch Gmbh | Integration eines optischen Sensors und eines Ultraschallsensors |
US9682689B2 (en) | 2013-03-11 | 2017-06-20 | Jaguar Land Rover Limited | Emergency braking system for a vehicle |
WO2014139930A3 (en) * | 2013-03-11 | 2014-10-30 | Jaguar Land Rover Limited | Emergency braking system for a vehicle |
DE102013206915A1 (de) | 2013-04-17 | 2014-10-23 | Continental Teves Ag & Co. Ohg | Vorrichtung, System und Verfahren zur Identifizierung belebter Verkehrsobjekte sowie Verwendung des Systems |
DE102013220526A1 (de) | 2013-10-11 | 2015-04-16 | Bayerische Motoren Werke Aktiengesellschaft | Ausfallsicherere Sensorarchitektur für Fahrerassistenzsysteme |
US10266132B2 (en) | 2015-08-08 | 2019-04-23 | Audi Ag | Method for operating driver assistance systems in a motor vehicle, and motor vehicle |
US9873429B1 (en) | 2016-07-08 | 2018-01-23 | Volkswagen Ag | Turned-wheel detection for yielding during low-speed lane changes |
DE102017220269A1 (de) | 2017-11-14 | 2019-05-16 | Continental Automotive Gmbh | Fahrerassistenzsystem, fahrzeug und verfahren zum nachverfolgen von objekten |
DE102019217212B3 (de) * | 2019-11-07 | 2021-05-12 | Zf Friedrichshafen Ag | Verfahren und Steuereinrichtung zur Überwachung eines Fahrzeugzwischenbereichs |
DE102021206981A1 (de) | 2021-07-02 | 2023-01-05 | Siemens Mobility GmbH | Verfahren zum Prüfen der Zuverlässigkeit einer KI-basierten Objekt-Detektion |
DE102021211255A1 (de) | 2021-10-06 | 2023-04-06 | Zf Friedrichshafen Ag | Computerimplementiertes Verfahren, Hardwaremodul und Computerprogramm zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsys-tems zur Objekterkennung während einer Fahrt des Fahrsystems und automatisiert betreibbares Fahrsystem |
DE102022204546A1 (de) | 2022-05-10 | 2023-11-16 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren für eine Verarbeitung von Sensordaten für ein Fahrassistenzsystem eines Fahrzeuges |
Also Published As
Publication number | Publication date |
---|---|
DE102008061301B4 (de) | 2023-03-16 |
WO2009074661A1 (de) | 2009-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102008061301B4 (de) | Fahrerassistenz mit fusionierten Sensordaten | |
DE102008036131B4 (de) | Verfahren und Vorrichtung zur Erkennung der Verkehrssituation in einer Fahrzeugumgebung | |
DE102010038097B4 (de) | Fahrzeugfahrunterstützungs-Steuervorrichtung | |
DE102008061303A1 (de) | Fahrzeugsteuerung unter Verwendung von Fahrzeug-zu-Fahrzeug-Kommunikation | |
DE102016207308A1 (de) | Fahrtsteuervorrichtung | |
DE102017100323A1 (de) | Steuerung für die Fahrt eines Fahrzeugs | |
EP2054869A1 (de) | Verfahren und vorrichtung zur fahrerassistenz durch erzeugung von spurinformationen zur unterstützung oder zum ersatz von spurinformationen einer videobasierten spurinformationseinrichtung | |
DE102016109146A1 (de) | Fahrzeugfahrt-Steuerungsvorrichtung | |
DE102016003438A1 (de) | Fahrassistenzsystem eines Fahrzeugs und Verfahren zur Steuerung desselben | |
EP2188798A1 (de) | Verkehrsleitsystem | |
DE102008035992A1 (de) | Ampelphasenassistent unterstützt durch Umfeldsensoren | |
WO2015197353A2 (de) | Verfahren zur erstellung eines umfeldmodells eines fahrzeugs | |
DE102011014083A1 (de) | Verfahren zum Betreiben eines Fahrerassistenzsystems und Fahrerassistenzsystem | |
DE102016117350A1 (de) | Fahrunterstützungsvorrichtung | |
DE102016223579A1 (de) | Verfahren zum Ermitteln von Daten einer Verkehrssituation | |
DE102010049721A1 (de) | Verfahren und Vorrichtung zur Anzeige einer Kritikalität | |
DE102018219674A1 (de) | Fahrsteuereinrichtung und Verfahren für Fahrzeug | |
DE102010052128A1 (de) | Verfahren zum Betreiben eines Kraftfahrzeugs und Kraftfahrzeug | |
DE112015004042B4 (de) | Objekterkennungsvorrichtung | |
DE102017100633A1 (de) | Präventions-sicherheitsvorrichtung für die kursänderung eines kleinfahrzeugs | |
DE102013021835A1 (de) | Verfahren zum Warnen vor einer Gefahrenstelle | |
DE102019116380A1 (de) | Vorrichtung und Verfahren zum Steuern eines Fahrens eines Fahrzeugs | |
DE102017202984A1 (de) | Vorrichtung für autonomes fahren | |
EP3569465A1 (de) | Verfahren und system zur bereitstellung einer automatisierungsfunktion für ein fahrzeug | |
DE102020207928A1 (de) | Vorrichtung zur unterstützung des fahrens eines fahrzeugs und verfahren dafür |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OR8 | Request for search as to paragraph 43 lit. 1 sentence 1 patent law | ||
R012 | Request for examination validly filed | ||
R084 | Declaration of willingness to licence | ||
R016 | Response to examination communication | ||
R081 | Change of applicant/patentee |
Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE Free format text: FORMER OWNER: CONTINENTAL TEVES AG & CO. OHG, 60488 FRANKFURT, DE |
|
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |