DE102006008981A1 - Assistenzsystem zur Unterstützung eines Fahrers - Google Patents
Assistenzsystem zur Unterstützung eines Fahrers Download PDFInfo
- Publication number
- DE102006008981A1 DE102006008981A1 DE102006008981A DE102006008981A DE102006008981A1 DE 102006008981 A1 DE102006008981 A1 DE 102006008981A1 DE 102006008981 A DE102006008981 A DE 102006008981A DE 102006008981 A DE102006008981 A DE 102006008981A DE 102006008981 A1 DE102006008981 A1 DE 102006008981A1
- Authority
- DE
- Germany
- Prior art keywords
- assistance system
- driver
- display
- traffic
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 11
- 230000000007 visual effect Effects 0.000 claims abstract description 17
- 238000011156 evaluation Methods 0.000 claims abstract description 4
- 238000004040 coloring Methods 0.000 claims description 7
- 230000005236 sound signal Effects 0.000 claims description 4
- 239000003086 colorant Substances 0.000 claims description 3
- 230000004438 eyesight Effects 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 2
- 230000001419 dependent effect Effects 0.000 claims description 2
- 230000003993 interaction Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 21
- 238000011161 development Methods 0.000 description 4
- 230000018109 developmental process Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000004297 night vision Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 206010016256 fatigue Diseases 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012913 prioritisation Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000005316 response function Methods 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000003867 tiredness Effects 0.000 description 1
- 208000016255 tiredness Diseases 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D15/00—Steering not otherwise provided for
- B62D15/02—Steering position indicators ; Steering position determination; Steering aids
- B62D15/029—Steering assistants using warnings or proposing actions to the driver without influencing the steering system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/10—Path keeping
- B60W30/12—Lane keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/04—Traffic conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W50/16—Tactile feedback to the driver, e.g. vibration or force feedback to the driver on the steering wheel or the accelerator pedal
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Assistenzsystem zur Unterstützung eines Fahrers eines Kraftfahrzeuges mit mehreren, verkehrsrelevante visuelle Daten liefernden Außensicht- und Innensichtsensoren (Videoquellen), einer den Außensicht- und Innensichtsensoren nachgeschalteten Objekterkennungseinheit, einer Auswertelogik zum Auswerten der Ausgangsgröße der Objekterkennungseinheit sowie mit Ausgabekanälen, deren Ausgangssignale mittels einer Mensch-Maschine-Schnittstelle den Fahrer informieren. Um ein autonomes System vorzuschlagen, das entsprechend der erkannten Objekte eigenständig entscheidet, ob und wie der Fahrer informiert wird bzw. autonom in die Fahrdynamik eingreift, um z. B. eine Kollision zu vermeiden, sieht die Erfindung vor, dass eine Entscheidungseinheit (3) vorgesehen ist, die beim Erkennen eines verkehrsrelevanten Objektes oder einer verkehrsrelevanten Situation durch die Außensicht- (11, 12) und Innensichtsensoren (15, 16) die visuellen Daten mit den den Fahrer informierenden Ausgangssignalen der Ausgabekanäle im Sinne der Steuerung oder Beeinflussung der Mensch-Maschine-Schnittstelle (4) verknüpft.
Description
- Die Erfindung bezieht sich auf ein Assistenzsystem zur Unterstützung eines Fahrers eines Kraftfahrzeuges mit mehreren, verkehrsrelevante visuelle Daten liefernden Außen- und Innensensoren (Videoquellen), einer den Außen- und Innensensoren nachgeschalteten Objekterkennungseinheit, einer Auswertelogik zum Auswerten der Ausgangsgröße der Objekterkennungseinheit sowie mit Ausgabekanälen, deren Ausgangssignale mittels einer Mensch-Maschine-Schnittstelle den Fahrer informieren.
- Derartige Assistenzsysteme gehören zu den jüngsten Entwicklungen in der Automobilindustrie. Eingeschränkte Sichtverhältnisse und Lichtraumprofile, Blendeffekte, schlecht oder gar nicht erkennbare Personen, Tiere und überraschende Hindernisse auf der Fahrbahn zählen zu den häufigsten Unfallquellen. Solche Systeme, die zunehmend an Bedeutung gewinnen, unterstützen den Fahrer in einem Grenzbereich der menschlichen Wahrnehmung und helfen damit, die Unfallgefahr zu senken. Zwei sog". Night-Vision-Systeme der vorhin genannten Art sind im in der Automobiltechnischen Zeitung 11/2005, Jahrgang 107 veröffentlichten Fachartikel "Integration" von Night-Vision und Head-up-Display" beschrieben. Dieser Veröffentlichung sind jedoch keine zufrieden stellenden Konzepte entnehmbar, die beschreiben, welche Aktionen wie durchzuführen sind bzw. wie der Fahrer informiert wird, wenn sich in seinem Beobachtungsbereich fahrkritische Situationen ergeben. Dies muss der Fahrer selbst leisten, indem er das angebotene Videobild oder das erkannte (gezeigte) Verkehrszeichen betrachtet und interpretiert.
- Es ist daher Aufgabe der vorliegenden Erfindung, ein autonomes System der eingangs genannten Gattung vorzuschlagen, das entsprechend der erkannten Objekte eigenständig entscheidet, ob und wie der Fahrer informiert wird bzw. autonom in die Fahrdynamik eingreift, um z. B. eine Kollision zu vermeiden.
- Diese Aufgabe wird erfindungsgemäß dadurch gelöst, dass eine Entscheidungseinheit vorgesehen ist, die beim Erkennen eines verkehrsrelevanten Objektes oder einer verkehrsrelevanten Situation durch die Außen- und Innensensoren die visuellen Daten mit den den Fahrer informierenden Ausgangssignalen der Ausgabekanäle im Sinne der Steuerung oder Beeinflussung der Mensch-Maschine-Schnittstelle verknüpft. Die Objekterkennung gewinnt ihre Daten aus einem Sensorsystem zur Außensicht des Fahrzeugs. Dies können im Einzelnen sein:
- 1. Infrarot-Nachtsichtkameras oder -sensoren
- 2. Tageslichtkameras
- 3. Ultraschall- und Radarsysteme
- 4. Lidar (Laser-Radar)
- 5. Andere, insbesondere bildgebende Sensoren.
- Zur Konkretisierung des Erfindungsgedankens ist vorgesehen, dass die Entscheidungseinheit beim Erkennen eines verkehrsrelevanten Objektes oder einer verkehrsrelevanten Situation durch die Außen- und Innensensoren an der Mensch-Maschine-Schnittstelle ein visuelles, akustisches oder haptisches Ereignis erzeugt.
- Eine vorteilhafte Weiterbildung des Erfindungsgegenstandes sieht vor, dass das visuelle Ereignis durch eine Videodarstellung gebildet ist, in der erkannte Objekte durch Einfärbung hervorgehoben werden, deren Art vom Gefährdungspotential der erkannten Objekte abhängig ist. Die Videodarstellung bildet eine Grundlage für die visuelle Ausgabe.
- Das Gefährdungspotential ergibt sich bei einer weiteren Ausführung der Erfindung aus der absoluten Entfernung des erkannten Objektes vom Fahrzeug und der Entfernung des erkannten Objektes von der vorhergesagten Fahrlinie.
- Dabei ist es besonders sinnvoll, wenn das Gefährdungspotential durch Abstufung der Helligkeit der Einfärbung oder durch unterschiedliche Farben dargestellt wird.
- Für die visuelle Ausgabe werden drei vorteilhafte Varianten vorgeschlagen:
Bei der ersten Variante wird die Videodarstellung auf einem Head-Up-Display permanent gezeigt. Erkannte Objekte werden, wie bereits erwähnt wurde, durch Einfärbung hervorgehoben. Zusätzlich zur Außensichtdarstellung werden auf dem Head-Up-Display graphische Informationen, beispielsweise Verkehrszeichen, ACC-Funktionen, aktuelle Fahrzeuggeschwindigkeit oder Wegleitinstruktionen eines Navigationssystems, dargestellt. - Die zweite Variante besteht darin, dass die Videodarstellung auf einem zentralen Informationsdisplay z. B. einem Kombiinstrument und/oder einem Mittelkonsolen-Display permanent gezeigt wird. Erkannte Objekte werden auch bei dieser Ausführungsvariante durch Einfärbung hervorgehoben, wobei zusätzlich zur Einfärbung bei den erkannten Objekten auf dem zentralen Informationsdisplay eine Warnmeldung (durch Symbol und Text) ausgegeben wird. Um die Aufmerksamkeit des Fahrers auf die auf dem zentralen Informationsdisplay sichtbare Gefahrenquelle zu lenken, wird zusätzlich auf dem Head-Up-Display eine Warnmeldung ausgegeben.
- Die dritte Variante besteht schließlich darin, dass die Videodarstellung auf einem zentralen Informationsdisplay temporär gezeigt wird. Dabei wird die Aktivierung des Außensichtsystems durch eine Kontrollleuchte im Kombiinstrument des Fahrzeugs angezeigt. Außerdem wird sowohl auf dem zentralen Informationsdisplay als auch zusätzlich auf dem Head-up-Display eine Warnmeldung ausgegeben.
- Eine erhebliche Erhöhung der Verkehrssicherheit wird bei einer anderen vorteilhaften Ausgestaltung der Erfindung dadurch erreicht, dass ein virtueller Straßenverlauf dargestellt wird, der dem realen Straßenverlauf entspricht. Der virtuelle Straßenverlauf wird graphisch gezeichnet und perspektivisch dargestellt. Die Straßenverlaufsinformation wird aus den Daten des Infrarotsystems, einer nachgeschalteten Fahrspurerkennung und/oder Kartendaten der Fahrzeugnavigation erhalten.
- Eine vorteilhafte Weiterbildung des Erfindungsgegenstandes sieht vor, dass sich auf der Fahrbahn befindende, potentielle Hindernisse und/oder Gefahrenobjekte dargestellt werden. Ein Datenverarbeitungssystem erkennt hierbei aus den Kameradaten z. B. Fußgänger, Radfahrer, Tiere usw. Die Größe der dargestellten Hindernisse und/oder Gefahrenobjekte variiert mit deren Entfernung vom Fahrzeug. Die Darstellung der Hindernisse und/oder Gefahrenobjekte variiert vorzugsweise durch eine Gewichtung in Abhängigkeit von der Kollisionswahrscheinlichkeit. Dabei ist es besonders sinnvoll, wenn zwischen relevanten und nicht relevanten Hindernissen unterschieden wird. Durch die genannten Maßnahmen wird eine Verbesserung der Qualität der visuellen Darstellung, insbesondere auf dem Head-up-Display, erreicht. Eine graphische Darstellung auf dem Head-up-Display verbessert die Ablesbarkeit aufgrund der Kontrastverhältnisse zum Bildhintergrund. Gleichzeitig wird die psychische Belastung des Fahrers reduziert. Die Gefahrenobjekte können durch farbliche Anpassung klassifiziert werden. Die Zuordnung der Farben kann wie folgt erfolgen:
Grün: Keine Gefahr Gelb: Erhöhte Vorsicht Rot: Kollision möglich - In Abhängigkeit von der Dringlichkeit der intendierten Fahrerreaktion (ermittelt durch die Entscheidungseinheit) werden vorhin erwähnte akustische Ereignisse erzeugt, die vorzugsweise durch Tonsignale oder Sprachmeldungen gebildet sind. Dabei ist es besonders vorteilhaft, wenn in der Entscheidungseinheit die bevorzugte Amplitude oder Frequenz der Tonsignale oder der Sprachmeldungen durch den Fahrer einstellbar ist.
- Das oben erwähnte haptische Ereignis wird von der Entscheidungseinheit so gewählt, dass es eine angemessene Reaktion des Fahrers einleitet. Das haptische Ereignis kann eine Vibration im Fahrersitz, eine Vibration des Lenkrads oder eine Vibration des Fahr- oder Bremspedals sein. Auch in diesem Fall ist es besonders vorteilhaft, wenn in der Entscheidungseinheit die bevorzugte Amplitude oder Frequenz der Vibration durch den Fahrer einstellbar ist.
- Eine weitere Ausgestaltung der Erfindung besteht darin, dass der Entscheidungseinheit Informationen über den Zustand des Fahrzeugs, den Zustand der Fahrers (z. B. die Belastung, die Müdigkeit...), das Fahrerverhalten und/oder Informationen über Präferenzen des Fahrers wie Anzeigeort, Funktionsinhalte, Erscheinungsbild u. dgl. zugeführt werden. Außerdem können der Entscheidungseinheit Informationen über die Fahrzeuggeschwindigkeit, Navigationsdaten (Ort u. Uhrzeit) sowie Informationen über die Verkehrsinformation (Verkehrsfunk) u. dgl. zugeführt werden.
- Die Erfindung wird in der nachfolgenden Beschreibung eines Ausführungsbeispiels unter Bezugnahme auf die beiliegende Zeichnung näher erläutert. In der Zeichnung zeigen:
-
1 eine vereinfachte schematische Darstellung einer Ausführung des erfindungsgemäßen Assistenzsystems;
und -
2 den Funktionsablauf der Verarbeitung eines Videosignals im erfindungsgemäßen Assistenzsystem. - Das in
1 vereinfacht dargestellte erfindungsgemäße Assistenzsystem ist typischerweise modular aufgebaut und besteht im Wesentlichen aus einem ersten bzw. Situationserfassungs-Modul1 , einem zweiten bzw. Situationsanalyse-Modul2 , einem dritten Entscheidungsmodul bzw. einer Entscheidungseinheit3 sowie einem vierten bzw. Mensch-Maschine- Schnittstellen-Modul4 . Mit dem Bezugszeichen5 wird im dargestellten Beispiel der Fahrer bezeichnet, während das Bezugszeichen6 das lediglich schematisch angedeutete Kraftfahrzeug trägt. Zur Vernetzung der Module dient ein im Fahrzeug vorhandenes, nicht näher bezeichnetes Netzwerk bzw. Bussystem (CAN-Bus). Das erste Modul1 umfasst Außensensoren11 , beispielsweise Radarsensoren, die Abstände zum voraus fahrenden Fahrzeug erfassen, sowie Videoquellen12 , beispielsweise eine Videokamera, die als Spurerkenner dient. Die Ausgangssignale der genannten Komponenten werden einem Objekterkennungsblock13 zugeführt, in dem die Objekte mittels Softwarealgorithmen erkannt werden und dessen Ausgangsgröße in einem Auswertelogikblock14 dahin gehend ausgewertet wird, ob ein relevantes Objekt oder eine relevante Situation erkannt oder nicht erkannt wird. Als Beispiele der relevanten Objekte können Fußgänger im Gefahrenbereich, eine Geschwindigkeitsbegrenzung oder der Beginn einer Baustelle genannt werden. Die die Objekte betreffende Information wird als erste Eingangsgröße der Entscheidungseinheit3 zur Verfügung gestellt. - Weiterhin umfasst das Situationserfassungs-Modul
1 Innensensoren15 sowie -videoquellen16 , deren Signale in einem Bildverarbeitungsblock17 mittels geeigneter Softwarealgorithmen zu Informationen verarbeitet werden, die beispielsweise den Grad der Fahrerbelastung darstellen und die einem zweiten Auswertelogikblock18 zugeführt werden, dessen Ausgangsgröße als Eingangsgröße dem zweiten bzw. Situationsanalyse-Modul2 zur Verfügung gestellt wird. Als Beispiel einer relevanten Situation kann die Fahrermüdigkeit genannt werden. Das Situationsanalyse-Modul2 enthält einen Kriteriendatensatz, der Zustandsdaten21 sowohl des Fahrzeugs als auch des Fahrers sowie Personalisierbarkeitsdaten22 , die Präferenzen des Fahrers für einen Anzeigeort, Funktionsinhalte, Erscheinungsbild usw. beinhaltet. Die Ausgangsgröße des Situationsanalyse-Moduls2 wird als zweite Eingangsgröße der Entscheidungseinheit3 zugeführt, deren Ausgabekanäle das vierte bzw. das Mensch-Maschine-Schnittstellen-Modul5 steuern oder flexibel beeinflussen. Zu diesem Zweck wirkt sie mit visuellen (41 ), akustischen (42 ) oder haptischen Ausgabezielen43 zusammen, die in der nachfolgenden Beschreibung mit An bezeichnet werden. Als Beispiele der visuellen Ausgabeziele41 können ein Head-up-Display (HUD)411 , ein Kombiinstrument412 oder ein Mittelkonsolen-Display413 genannt werden. Als eigenständige Ausgabeziele können fest zugeordnete Anzeigeflächen auf dem Head-up-Display (HUD) als HUD1, HUD2 zusätzlich erweitert werden. Die Entscheidungseinheit3 erledigt mit dem Zugriff auf die Ausgabeziele auch die Priorisierung einer Fahrsituation f(x), der Fahrzeugfunktionen und Komponenten. Die Ausgabeziele sind als mathematisch abbildbare Funktion der Fahrzeugfunktionen und Komponenten aufzufassen und werden als Wichtungsfunktion bzw. Entscheidungstensor W(Ax) dargestellt
mit:
A1 = f(O1, O2, ..On; F1, F2, ...Fn; D1, D2, ...Dn) = W(A1)
A2 = f(O1, O2, ..On; F1, F2, ...Fn; D1, D2, ...Dn) = W(A2)
A3 = f(O1, O2, ..On; F1, F2, ...Fn; D1, D2, ...Dn) = W(A3)
A4 = f(O1, O2, ..On; F1, F2, ...Fn; D1, D2, ...Dn) = W(A4)
A5 = f(O1, O2, ..On; F1, F2, ...Fn; D1, D2, ...Dn) = W(A5)
A6 = f(O1, O2, ..On; F1, F2, ...Fn; D1, D2, ...Dn) = W(A6)
bis
An = f(O1, O2, ..On; F1, F2, ...Fn; D1, D2, ...Dn) = W(An) - Dabei werden mit On Objekte der Außensicht, z. B. Fußgänger, Tier, entgegenkommendes Fahrzeug, Fahrzeug im toten Winkel ..., mit Fn durch intrinsische Daten definierte Fahrzeugzustände, z. B. Navigation, Außentemperatur, Verkehrsinformationen ... und mit Dn Zustände des Fahrers, z. B. Fahrergesichtserkennung, Müdigkeit, Puls, Art der Lenkradumfassung (Position und Kraft)... bezeichnet.
- Dazu kommt die Personalisierung Pn von Fahrzeugfunktionen und Komponenten durch den Fahrer auf die einzelnen Ausgabeziele. Auf die Fahrerzustandsdaten hat der Fahrer durch Personalisierung keinen Einfluss. Jedes Pn stellt also eine Personalisierung eines Ausgabeziels mit den vom Fahrzeug zur Verfügung gestellten Funktionen und Komponenten wie folgt dar:
P1 = f(O1, O2, ..On; F1, F2, ...Fn)
P2 = f(O1, O2, ..On; F1, F2, ...Fn)
P3 = f(O1, O2, ..On; F1, F2, ...Fn)
P4 = f(O1, O2, ..On; F1, F2, ...Fn)
P5 = f(O1, O2, ..On; F1, F2, ...Fn)
P6 = f(O1, O2, ..On; F1, F2, ...Fn)
bis
Pn = f(O1, O2, ..On; F1, F2, ...Fn) - Die Fahrerdaten, die die Entscheidungseinheit durch "Messen" erfährt, dienen dazu, eine Lernkurve vom System ermitteln zu lassen, wie gut der Fahrer auf die gewählten Ausgabeziele in welcher Situation f(x) reagiert. Das führt zu einem implizierten Priorisierungsverhalten der Fahrzeugfunktionen und Komponenten in der Ausgabezielmatrix W(An). Dabei gilt:
OD1 = f(D1, D2, ...,Dn) O1 = W(Fx)·OD1 OD2 = f(D1, D2, ...,Dn) O2 = W(Fx)·OD2 bis ODn = f(D1, D2, ...,Dn) On = W(Fx)·ODn FD1 = f(D1, D2, ...,Dn) f1 = W(Fx)·FD1 FD2 = f(D1, D2, ...,Dn F2 = W(Fx)·FD2 bis FDn = f(D1, D2, ...,Dn) Fn = W(Fx)·FDn - Dazu werden die Fahrerdaten D1 bis Dn durch ihr Zeitverhalten von der Entscheidungseinheit
3 ausgewertet und gewichtet. Eine zusätzliche Berücksichtigung des Zeitverhaltens der einzelnen Funktionen und Komponenten muss nicht erfolgen, da dafür jeweils eine eigenständige Fahrzeugfunktion bzw. Komponente angelegt werden kann, z. B. O1 – Fußgänger in unkritischer Entfernung; O2 – Fußgänger in kritischer Entfernung; O3 – Fußgänger in gefährlichem Bereich. Die Fahrerdaten, die in W(Fx) eingehen, berücksichtigen einen typischen, dem System unbekannten Fahrer. Durch eine Speicherung der Datensätze kann das System anhand der Wichtungsmatrizen und der zugehörigen Antwortfunktion des Fahrerzustands (Speicherung des Zeitverlaufs), aufgrund des Verlaufs der kritischen von vorher festgelegten Funktionen und Komponenten aufnehmen, wie das Reaktionsverhalten des Fahrers für eine derartige Situation ist. Aus der W(Fx) wird durch eine Zuordnung zu einem bestimmten Fahrer N, der z. B. durch eine Fahrergesichtserkennung identifiziert wurde, ein W(FN) mit N = 1, 2, 3, ... gespeichert. Eine Entscheidung für das zukünftige Verhalten der Entscheidungseinheit kann z. B. mit Hilfe von Fuzzy Logik erfolgen. Dafür werden die aufgenommenen Datensätze jeder Fahrsituation mit Hilfe von unscharfen Mengen ausgewertet. Als Strategie für das Festlegen eines besseren Ausgabeverhaltens gilt eine Optimierung auf eine schnellere Antwortzeit des Fahrers in Verbindung mit der Entwicklung festgelegter kritischer Parameter der Fahrzeugfunktionen und Daten. In erster Näherung sollten sowohl die Antwortzeit als auch das Zeitverhalten der kritischen Parameter gleichwertig gewichtet werden. - Als Variante kann eine Entscheidungseinheit ohne Personalisierung oder ohne ein selbst optimierendes Logikkonzept umgesetzt werden.
- In Abhängigkeit von der Dringlichkeit der intendierten Fahrerreaktion (ermittelt durch die Entscheidungseinheit
3 ) werden die vorhin genannten akustischen Ausgabeziele42 , beispielsweise Warntonsignale421 oder Sprachmeldungen422 ausgegeben. In den im Situationsanalyse-Modul2 abgelegten Kriteriendatensatz können durch den Fahrer5 die generellen Präferenzen der akustischen Signale42 bzw.421 /422 , z. B. die vom Fahrer bevorzugte Amplitude, Frequenz usw. eingehen. - Als haptische Ausgabeziele
43 können z. B. Vibrationsmeldungen im Lenkrad431 , im Gas- oder Bremspedal432 , im Fahrersitz433 , u. U. in der Kopfstütze434 verwendet werden. Die haptischen Ausgabeziele43 werden von der Entscheidungseinheit3 so gewählt, dass sie eine angemessene Reaktion des Fahrers einleiten. Sowohl die Amplitude als auch die Frequenz der haptischen Rückmeldungen sind vom Fahrer einstellbar. - Wie bereits erwähnt wurde, wird eine erhebliche Verbesserung der visuellen Darstellung dadurch erreicht, dass ein virtueller Straßenverlauf dargestellt wird, der dem realen Straßenverlauf entspricht und der graphisch gezeichnet und perspektivisch dargestellt wird. Wie in
2 dargestellt ist, wird ein Videosignal einer Kamera bzw. Infrarotkamera25 einer nachgeschalteten Fahrspurerkennung26 sowie einer Objekt-, Verkehrszeichen- und Hinderniserkennung27 zur weiteren Verarbeitung zugeführt. Aus den Daten der Fahrspurerkennung26 und den Kartendaten einer Fahrzeugnavigation28 wird im Funktionsblock29 der Straßenverlauf berechnet. Die Berechnung graphischer Daten und das Zeichnen der virtuellen Ansicht erfolgt im Funktionsblock30 , dem außer den Kartendaten der Fahrzeugnavigation28 die Daten der Objekt-, Verkehrszeichen- und Hinderniserkennung27 sowie weitere Informationen, z. B. über die Fahrgeschwindigkeit oder ACC-Informationen (s. Funktionsblock31 ) zur Verfügung gestellt werden. Dabei kann der Benutzer mittels eines weiteren Funktionsblocks32 zur Nutzereingabe/Konfiguration eine Auswahl von allen darstellbaren Funktionen treffen und somit dieses Anzeigesystem seinen Be dürfnissen anpassen. Die derart gebildete virtuelle Straßenverlaufsinformation wird schließlich auf dem Head-up411 , dem Kombiinstrument412 und/oder dem Mittelkonsolen-Display413 ausgegeben. -
- 1
- Situationserfassungs-Modul
- 2
- Situationsanalyse-Modul
- 3
- Entscheidungseinheit
- 4
- Mensch-Maschine-Schnittstellen-Modul
- 5
- Fahrer
- 6
- Kraftfahrzeug
- 11
- Außensensoren
- 12
- Videoquellen
- 13
- Objekterkennungsblock
- 14
- Auswertelogikblock
- 15
- Innensensoren
- 16
- Innensichtvideoquellen
- 17
- Bildverarbeitungsblock
- 18
- Auswertelogikblock
- 21
- Zustandsdaten
- 22
- Personalisierbarkeitsdaten
- 25
- Kamera
- 26
- Fahrspurerkennung
- 27
- Objekt-, Verkehrszeichen- und Hinderniserkennung
- 28
- Fahrzeugnavigation
- 29
- Funktionsblock
- 30
- Funktionsblock
- 31
- Funktionsblock
- 32
- Funktionsblock
- 41
- visuelle Ausgabeziele
- 42
- akustische Ausgabeziele
- 43
- haptische Ausgabeziele
- 411
- Head-Up-Display (HUD)
- 412
- Kombiinstrument
- 413
- Mittelkonsolendisplay
- 421
- Warntonsignale
- 422
- Sprachmeldungen
- 431
- Lenkrad
- 432
- Gas- oder Bremspedal
- 433
- Fahrersitz
- 434
- Kopfstütze
Claims (27)
- Assistenzsystem zur Unterstützung eines Fahrers eines Kraftfahrzeuges mit mehreren, verkehrsrelevante visuelle Daten liefernden Außensicht- und Innensichtsensoren (Videoquellen), einer den Außen- und Innensensoren nachgeschalteten Objekterkennungseinheit, einer Auswertelogik zum Auswerten der Ausgangsgröße der Objekterkennungseinheit sowie mit Ausgabekanälen, deren Ausgangssignale mittels einer Mensch-Maschine-Schnittstelle den Fahrer informieren, dadurch gekennzeichnet, dass eine Entscheidungseinheit (
3 ) vorgesehen ist, die beim Erkennen eines verkehrsrelevanten Objektes oder einer verkehrsrelevanten Situation durch die Außen- (11 ,12 ) und Innensensoren (15 ,16 ) die visuellen Daten mit den den Fahrer informierenden Ausgangssignalen der Ausgabekanäle im Sinne der Steuerung oder Beeinflussung der Mensch-Maschine-Schnittstelle (4 ) verknüpft. - Assistenzsystem nach Anspruch 1, dadurch gekennzeichnet, dass die Entscheidungseinheit (
3 ) beim Erkennen eines verkehrsrelevanten Objektes oder einer verkehrsrelevanten Situation durch die Außen- (11 ,12 ) und Innensensoren (15 ,16 ) an der Mensch-Maschine-Schnittstelle (4 ) ein visuelles (41 ), akustisches (42 ) oder haptisches Ereignis (43 ) erzeugt. - Assistenzsystem nach Anspruch 2, dadurch gekennzeichnet, dass das visuelle Ereignis (
41 ) durch eine Videodarstellung gebildet ist, in der erkannte Objekte durch Einfärbung hervorgehoben werden, deren Art vom Gefährdungspotential der erkannten Objekte abhängig ist. - Assistenzsystem nach Anspruch 3, dadurch gekennzeichnet, dass das Gefährdungspotential sich aus der absoluten Entfernung des erkannten Objektes vom Fahrzeug und der Entfernung des erkannten Objektes von der vorhergesagten Fahrlinie ergibt.
- Assistenzsystem nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass das Gefährdungspotential durch Abstufung der Helligkeit der Einfärbung oder durch unterschiedliche Farben dargestellt wird.
- Assistenzsystem nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass die Videodarstellung auf einem Head-Up-Display (
411 ), einem Kombiinstrument (412 ) und/oder einem Mittelkonsolen-Display (413 ) permanent gezeigt wird. - Assistenzsystem nach Anspruch 6, dadurch gekennzeichnet, dass auf dem Head-Up-Display (
411 ), dem Kombiinstrument (412 ) und/oder dem Mittelkonsolen-Display (413 ) zusätzlich graphische Informationen, beispielsweise Verkehrszeichen, ACC-Funktionen, aktuelle Fahrzeuggeschwindigkeit oder Wegleitinstruktionen eines Navigationssystems, dargestellt werden. - Assistenzsystem nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass die Videodarstellung auf einem zentralen Informationsdisplay permanent gezeigt wird.
- Assistenzsystem nach Anspruch 8, dadurch gekennzeichnet, dass auf dem zentralen Informationsdisplay eine Warnmeldung ausgegeben wird.
- Assistenzsystem nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass zusätzlich auf dem Head-Up-Display (
411 ), dem Kombiinstrument (412 ) und/oder dem Mittelkonsolen-Display (413 ) eine Warnmeldung ausgegeben wird. - Assistenzsystem nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass die Videodarstellung auf einem zentralen Informationsdisplay temporär gezeigt wird.
- Assistenzsystem nach Anspruch 11, dadurch gekennzeichnet, dass die Aktivierung des Außensichtsystems (
11 ,12 ) durch eine Kontrollleuchte im Kombinationsinstrument angezeigt wird. - Assistenzsystem nach Anspruch 11, dadurch gekennzeichnet, dass auf dem zentralen Informationsdisplay eine Warnmeldung ausgegeben wird.
- Assistenzsystem nach einem der Ansprüche 11 bis 13, dadurch gekennzeichnet, dass eine zusätzliche Warnmeldung auf dem Head-Up-Display (
411 ), dem Kombiinstrument (412 ) und/oder dem Mittelkonsolen-Display (413 ) ausgegeben wird. - Assistenzsystem nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, dass ein virtueller Straßenverlauf (
33 ) dargestellt wird, der dem realen Straßenverlauf entspricht. - Assistenzsystem nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass sich auf der Fahr bahn befindende, potentielle Hindernisse und/oder Gefahrenobjekte dargestellt werden.
- Assistenzsystem nach Anspruch 11, dadurch gekennzeichnet, dass die Größe der dargestellten Hindernisse und/oder Gefahrenobjekte mit der Entfernung vom Fahrzeug variiert.
- Assistenzsystem nach Anspruch 11 oder 12, dadurch gekennzeichnet, dass die Darstellung der Hindernisse und/oder Gefahrenobjekte durch eine Gewichtung in Abhängigkeit von der Kollisionswahrscheinlichkeit variiert.
- Assistenzsystem nach Anspruch 13, dadurch gekennzeichnet, dass zwischen relevanten und nicht relevanten Hindernissen unterschieden wird.
- Assistenzsystem nach einem der Ansprüche 11 bis 14, dadurch gekennzeichnet, dass die Gefahrenobjekte durch farbliche Anpassung klassifiziert werden.
- Assistenzsystem nach Anspruch 2, dadurch gekennzeichnet, dass das akustische Ereignis (
42 ) durch Tonsignale (421 ) oder Sprachmeldungen (422 ) gebildet ist. - Assistenzsystem nach Anspruch 16, dadurch gekennzeichnet, dass in der Entscheidungseinheit (
3 ) die bevorzugte Amplitude oder Frequenz der Tonsignale (421 ) oder der Sprachmeldungen (422 ) durch den Fahrer einstellbar ist. - Assistenzsystem nach Anspruch 2, dadurch gekennzeichnet, dass das haptische Ereignis (
43 ) durch eine Vibration im Fahrersitz (433 ), eine Vibration des Lenkrads (431 ) oder eine Vibration des Fahr- oder Bremspedals (432 ) gebildet ist. - Assistenzsystem nach Anspruch 18, dadurch gekennzeichnet, dass in der Entscheidungseinheit (
3 ) die bevorzugte Amplitude oder Frequenz der Vibration durch den Fahrer einstellbar ist. - Assistenzsystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Entscheidungseinheit (
3 ) Informationen über den Zustand des Fahrzeugs, das Fahrerverhalten und/oder Informationen über Präferenzen des Fahrers wie Anzeigeort, Funktionsinhalte, Erscheinungsbild u. dgl. zugeführt werden. - Assistenzsystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Entscheidungseinheit (
3 ) Informationen über die Fahrzeuggeschwindigkeit, Navigationsdaten (Ort u. Uhrzeit) sowie Informationen über die Verkehrsinformation (Verkehrsfunk) u. dgl. zugeführt werden. - Assistenzsystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass aufgrund einer autarken intrinsischen Lernfähigkeit des Assistenzsystems die Interaktion der Mensch-Maschine-Schnittstelle und einhergehend die Informations- und Warnstrategie des Assistenzsystems an den Fahrer situativ optimiert und angepasst ist und wird.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102006008981A DE102006008981A1 (de) | 2006-02-23 | 2006-02-23 | Assistenzsystem zur Unterstützung eines Fahrers |
US12/224,262 US20090051516A1 (en) | 2006-02-23 | 2007-02-16 | Assistance System for Assisting a Driver |
EP07726412A EP1989094A1 (de) | 2006-02-23 | 2007-02-16 | Assistenzsystem zur unterstützung eines fahrers |
KR1020087021038A KR20080108984A (ko) | 2006-02-23 | 2007-02-16 | 운전자를 지원하기 위한 지원 시스템 |
PCT/EP2007/051524 WO2007096308A1 (de) | 2006-02-23 | 2007-02-16 | Assistenzsystem zur unterstützung eines fahrers |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102006008981A DE102006008981A1 (de) | 2006-02-23 | 2006-02-23 | Assistenzsystem zur Unterstützung eines Fahrers |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102006008981A1 true DE102006008981A1 (de) | 2007-08-30 |
Family
ID=37963961
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102006008981A Ceased DE102006008981A1 (de) | 2006-02-23 | 2006-02-23 | Assistenzsystem zur Unterstützung eines Fahrers |
Country Status (5)
Country | Link |
---|---|
US (1) | US20090051516A1 (de) |
EP (1) | EP1989094A1 (de) |
KR (1) | KR20080108984A (de) |
DE (1) | DE102006008981A1 (de) |
WO (1) | WO2007096308A1 (de) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010054064A1 (de) * | 2010-12-10 | 2012-06-14 | GM Global Technology Operations LLC | Kraftfahrzeug mit einem Fahrassistenzsystem |
US8451108B2 (en) | 2007-10-12 | 2013-05-28 | Mitsubishi Electric Corporation | On-vehicle information providing device |
US9378644B2 (en) | 2013-03-15 | 2016-06-28 | Honda Motor Co., Ltd. | System and method for warning a driver of a potential rear end collision |
US9393870B2 (en) | 2013-03-15 | 2016-07-19 | Honda Motor Co., Ltd. | Volumetric heads-up display with dynamic focal plane |
US9400385B2 (en) | 2013-03-15 | 2016-07-26 | Honda Motor Co., Ltd. | Volumetric heads-up display with dynamic focal plane |
DE102015225135A1 (de) * | 2015-12-14 | 2017-06-14 | Continental Automotive Gmbh | System und Verfahren zur Anpassung einer akustischen Ausgabe eines Navigationssystems |
DE102016216986A1 (de) | 2015-12-23 | 2017-06-29 | Robert Bosch Gmbh | Verfahren zum Unterstützen eines Fahrers |
US9747898B2 (en) | 2013-03-15 | 2017-08-29 | Honda Motor Co., Ltd. | Interpretation of ambiguous vehicle instructions |
EP3232289A1 (de) * | 2016-04-15 | 2017-10-18 | Panasonic Intellectual Property Corporation of America | Informationsdarstellungssteuerungsvorrichtung, autonomes fahrzeug und fahrhilfesystem für ein autonomes fahrzeug |
DE102017211931A1 (de) * | 2017-07-12 | 2019-01-17 | Volkswagen Aktiengesellschaft | Verfahren zum Anpassen zumindest eines Betriebsparameters eines Kraftfahrzeugs, System zum Anpassen zumindest eines Betriebsparameters eines Kraftfahrzeugs und Kraftfahrzeug |
US10215583B2 (en) | 2013-03-15 | 2019-02-26 | Honda Motor Co., Ltd. | Multi-level navigation monitoring and control |
US10339711B2 (en) | 2013-03-15 | 2019-07-02 | Honda Motor Co., Ltd. | System and method for providing augmented reality based directions based on verbal and gestural cues |
CN113570894A (zh) * | 2015-03-24 | 2021-10-29 | 日本先锋公司 | 自动驾驶辅助装置、控制方法及存储介质 |
DE102021103494A1 (de) | 2021-02-15 | 2022-08-18 | Bayerische Motoren Werke Aktiengesellschaft | Fahrerassistenzsystem und Fahrerassistenzverfahren für ein Fahrzeug |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7096852B2 (en) * | 2003-10-30 | 2006-08-29 | Immersion Corporation | Haptic throttle devices and methods |
DE102005039103A1 (de) * | 2005-08-18 | 2007-03-01 | Robert Bosch Gmbh | Verfahren für die Erfassung eines Verkehrsraums |
TWI334517B (en) * | 2007-08-30 | 2010-12-11 | Ind Tech Res Inst | Method for predicting lane line and lane departure warning system using the same |
US8947219B2 (en) | 2011-04-22 | 2015-02-03 | Honda Motors Co., Ltd. | Warning system with heads up display |
DE102012213466A1 (de) * | 2012-07-31 | 2014-02-06 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Überwachen eines Fahrzeuginsassens |
US10347127B2 (en) * | 2013-02-21 | 2019-07-09 | Waymo Llc | Driving mode adjustment |
US9050980B2 (en) | 2013-02-25 | 2015-06-09 | Honda Motor Co., Ltd. | Real time risk assessment for advanced driver assist system |
US9342986B2 (en) | 2013-02-25 | 2016-05-17 | Honda Motor Co., Ltd. | Vehicle state prediction in real time risk assessments |
US9582024B2 (en) | 2013-04-05 | 2017-02-28 | Cts Corporation | Active vibratory pedal assembly |
DE102013207223A1 (de) * | 2013-04-22 | 2014-10-23 | Ford Global Technologies, Llc | Verfahren zur Erkennung von nicht motorisierten Verkehrsteilnehmern |
DE102013013867A1 (de) * | 2013-08-20 | 2015-03-12 | Audi Ag | Kraftfahrzeug und Verfahren zur Steuerung eines Kraftfahrzeugs |
DE102014219575A1 (de) * | 2013-09-30 | 2015-07-23 | Honda Motor Co., Ltd. | Verbesserte 3-Dimensionale (3-D) Navigation |
DE102014117830A1 (de) * | 2014-12-04 | 2016-06-09 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Bestimmen eines fahrerspezifischen Totwinkelfeldes für ein Fahrerassistenzsystem, Fahrerassistenzsystem sowie Kraftfahrzeug |
US10493986B2 (en) * | 2015-01-26 | 2019-12-03 | Trw Automotive U.S. Llc | Vehicle driver assist system |
JP6269606B2 (ja) * | 2015-07-21 | 2018-01-31 | トヨタ自動車株式会社 | 車両制御装置 |
EP3133455B1 (de) * | 2015-08-17 | 2021-04-14 | Honda Research Institute Europe GmbH | Vorrichtung zum autonomen oder teilweise autonomen fahren eines fahrzeugs mit einem kommunikationsmodul zum erhalt zusätzlicher daten von einem fahrzeugfahrer und entsprechendes verfahren |
EP3139340B1 (de) | 2015-09-02 | 2019-08-28 | SMR Patents S.à.r.l. | System und verfahren zur verbesserung der sichtbarkeit |
US11648876B2 (en) | 2015-09-02 | 2023-05-16 | SMR Patents S.à.r.l. | System and method for visibility enhancement |
ES2646412B1 (es) * | 2016-06-09 | 2018-09-18 | Universidad De Valladolid | Sistema de asistencia al conductor y métodos de adquisición y procesado de datos asociados |
US10220784B2 (en) * | 2016-11-29 | 2019-03-05 | Ford Global Technologies, Llc | Luminescent windshield display |
KR102400555B1 (ko) | 2017-09-04 | 2022-05-20 | 삼성전자주식회사 | 주행 차량을 제어하는 방법 및 장치 |
US11365976B2 (en) * | 2018-03-02 | 2022-06-21 | Nvidia Corporation | Semantic label based filtering of objects in an image generated from high definition map data |
JP7119653B2 (ja) * | 2018-07-02 | 2022-08-17 | 株式会社デンソー | 車両制御装置 |
MX2019001712A (es) * | 2019-02-11 | 2020-08-12 | Inst Tecnologico Y De Estudios Superiores De Occidente A C | Sistema y metodo basado en la correlación de información visual interior y exterior en un vehículo para mejorar la seguridad en conducción manual o semi-automática. |
US10726642B1 (en) | 2019-03-29 | 2020-07-28 | Toyota Motor North America, Inc. | Vehicle data sharing with interested parties |
US10535207B1 (en) | 2019-03-29 | 2020-01-14 | Toyota Motor North America, Inc. | Vehicle data sharing with interested parties |
US10896555B2 (en) | 2019-03-29 | 2021-01-19 | Toyota Motor North America, Inc. | Vehicle data sharing with interested parties |
US11529918B2 (en) | 2019-09-02 | 2022-12-20 | Toyota Motor North America, Inc. | Adjustment of environment of transports |
US11254316B2 (en) * | 2020-01-24 | 2022-02-22 | Ford Global Technologies, Llc | Driver distraction detection |
KR20210142479A (ko) | 2020-05-18 | 2021-11-25 | 현대모비스 주식회사 | 차량용 헤드업 디스플레이 장치 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19911648A1 (de) * | 1999-03-16 | 2000-09-21 | Volkswagen Ag | Verfahren zur Anzeige von Objekten |
DE10045980A1 (de) * | 1999-09-16 | 2001-03-29 | Saab Automobile | Verfahren und Vorrichtung zur Präsentation eines Bildes |
DE69711819T2 (de) * | 1996-12-04 | 2002-11-07 | Fiat Ricerche | Fahrzeug- Anzeigegerät |
DE10039795C2 (de) * | 2000-08-16 | 2003-03-27 | Bosch Gmbh Robert | Verfahren zur Warnung eines Fahrers eines Fahrzeugs |
DE10161262A1 (de) * | 2000-06-23 | 2003-07-10 | Daimler Chrysler Ag | Aufmerksamkeitsteurung für Bediener einer technischen Einrichtung, basierend auf Infrarot-Bilddaten |
DE10339647A1 (de) * | 2003-08-28 | 2005-03-24 | Robert Bosch Gmbh | Vorrichtung zur Fahrerwarnung |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5465079A (en) * | 1992-08-14 | 1995-11-07 | Vorad Safety Systems, Inc. | Method and apparatus for determining driver fitness in real time |
US5642093A (en) * | 1995-01-27 | 1997-06-24 | Fuji Jukogyo Kabushiki Kaisha | Warning system for vehicle |
JP3942122B2 (ja) * | 1997-12-26 | 2007-07-11 | 高砂香料工業株式会社 | ルテニウムメタセシス触媒およびそれを用いたメタセ シス反応によるオレフィン反応生成物を製造する方法 |
JPH11259798A (ja) * | 1998-03-10 | 1999-09-24 | Nissan Motor Co Ltd | 車両用表示装置 |
AU2001243285A1 (en) * | 2000-03-02 | 2001-09-12 | Donnelly Corporation | Video mirror systems incorporating an accessory module |
JP2002083285A (ja) * | 2000-07-07 | 2002-03-22 | Matsushita Electric Ind Co Ltd | 画像合成装置および画像合成方法 |
US6925425B2 (en) * | 2000-10-14 | 2005-08-02 | Motorola, Inc. | Method and apparatus for vehicle operator performance assessment and improvement |
JP2002212544A (ja) * | 2001-01-12 | 2002-07-31 | Mitsui Mining & Smelting Co Ltd | 酸化セリウム系研摩材の製造方法及びその方法により得られた酸化セリウム系研摩材 |
US6873911B2 (en) * | 2002-02-01 | 2005-03-29 | Nissan Motor Co., Ltd. | Method and system for vehicle operator assistance improvement |
JP2004051007A (ja) * | 2002-07-22 | 2004-02-19 | Denso Corp | 表示装置 |
US6853919B2 (en) * | 2003-02-04 | 2005-02-08 | General Motors Corporation | Method for reducing repeat false alarm indications in vehicle impact detection systems |
WO2004083889A1 (ja) * | 2003-03-20 | 2004-09-30 | Matsushita Electric Industrial Co. Ltd. | 障害物検知装置 |
DE10317044A1 (de) * | 2003-04-11 | 2004-10-21 | Daimlerchrysler Ag | Freiraumüberwachung bei Kraftfahrzeugen |
US7206697B2 (en) * | 2003-10-14 | 2007-04-17 | Delphi Technologies, Inc. | Driver adaptive collision warning system |
US7356408B2 (en) * | 2003-10-17 | 2008-04-08 | Fuji Jukogyo Kabushiki Kaisha | Information display apparatus and information display method |
US7225070B2 (en) * | 2004-01-22 | 2007-05-29 | Shih-Hsiung Li | Parking guidance system for large vehicles |
-
2006
- 2006-02-23 DE DE102006008981A patent/DE102006008981A1/de not_active Ceased
-
2007
- 2007-02-16 EP EP07726412A patent/EP1989094A1/de not_active Withdrawn
- 2007-02-16 WO PCT/EP2007/051524 patent/WO2007096308A1/de active Application Filing
- 2007-02-16 KR KR1020087021038A patent/KR20080108984A/ko not_active Application Discontinuation
- 2007-02-16 US US12/224,262 patent/US20090051516A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69711819T2 (de) * | 1996-12-04 | 2002-11-07 | Fiat Ricerche | Fahrzeug- Anzeigegerät |
DE19911648A1 (de) * | 1999-03-16 | 2000-09-21 | Volkswagen Ag | Verfahren zur Anzeige von Objekten |
DE10045980A1 (de) * | 1999-09-16 | 2001-03-29 | Saab Automobile | Verfahren und Vorrichtung zur Präsentation eines Bildes |
DE10161262A1 (de) * | 2000-06-23 | 2003-07-10 | Daimler Chrysler Ag | Aufmerksamkeitsteurung für Bediener einer technischen Einrichtung, basierend auf Infrarot-Bilddaten |
DE10039795C2 (de) * | 2000-08-16 | 2003-03-27 | Bosch Gmbh Robert | Verfahren zur Warnung eines Fahrers eines Fahrzeugs |
DE10339647A1 (de) * | 2003-08-28 | 2005-03-24 | Robert Bosch Gmbh | Vorrichtung zur Fahrerwarnung |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8451108B2 (en) | 2007-10-12 | 2013-05-28 | Mitsubishi Electric Corporation | On-vehicle information providing device |
DE112008002030B4 (de) * | 2007-10-12 | 2013-07-04 | Mitsubishi Electric Corp. | Informationsbereitstellende Vorrichtung in Fahrzeug |
DE102010054064A1 (de) * | 2010-12-10 | 2012-06-14 | GM Global Technology Operations LLC | Kraftfahrzeug mit einem Fahrassistenzsystem |
US10215583B2 (en) | 2013-03-15 | 2019-02-26 | Honda Motor Co., Ltd. | Multi-level navigation monitoring and control |
US9378644B2 (en) | 2013-03-15 | 2016-06-28 | Honda Motor Co., Ltd. | System and method for warning a driver of a potential rear end collision |
US9400385B2 (en) | 2013-03-15 | 2016-07-26 | Honda Motor Co., Ltd. | Volumetric heads-up display with dynamic focal plane |
US9452712B1 (en) | 2013-03-15 | 2016-09-27 | Honda Motor Co., Ltd. | System and method for warning a driver of a potential rear end collision |
US9393870B2 (en) | 2013-03-15 | 2016-07-19 | Honda Motor Co., Ltd. | Volumetric heads-up display with dynamic focal plane |
US9747898B2 (en) | 2013-03-15 | 2017-08-29 | Honda Motor Co., Ltd. | Interpretation of ambiguous vehicle instructions |
US10339711B2 (en) | 2013-03-15 | 2019-07-02 | Honda Motor Co., Ltd. | System and method for providing augmented reality based directions based on verbal and gestural cues |
CN113570894B (zh) * | 2015-03-24 | 2023-09-01 | 日本先锋公司 | 自动驾驶辅助装置、控制方法及存储介质 |
CN113570894A (zh) * | 2015-03-24 | 2021-10-29 | 日本先锋公司 | 自动驾驶辅助装置、控制方法及存储介质 |
DE102015225135A1 (de) * | 2015-12-14 | 2017-06-14 | Continental Automotive Gmbh | System und Verfahren zur Anpassung einer akustischen Ausgabe eines Navigationssystems |
DE102015225135B4 (de) | 2015-12-14 | 2022-12-22 | Continental Automotive Technologies GmbH | System und Verfahren zur Anpassung einer akustischen Ausgabe eines Navigationssystems |
DE102016216986A1 (de) | 2015-12-23 | 2017-06-29 | Robert Bosch Gmbh | Verfahren zum Unterstützen eines Fahrers |
EP3232289A1 (de) * | 2016-04-15 | 2017-10-18 | Panasonic Intellectual Property Corporation of America | Informationsdarstellungssteuerungsvorrichtung, autonomes fahrzeug und fahrhilfesystem für ein autonomes fahrzeug |
DE102017211931A1 (de) * | 2017-07-12 | 2019-01-17 | Volkswagen Aktiengesellschaft | Verfahren zum Anpassen zumindest eines Betriebsparameters eines Kraftfahrzeugs, System zum Anpassen zumindest eines Betriebsparameters eines Kraftfahrzeugs und Kraftfahrzeug |
DE102017211931B4 (de) | 2017-07-12 | 2022-12-29 | Volkswagen Aktiengesellschaft | Verfahren zum Anpassen zumindest eines Betriebsparameters eines Kraftfahrzeugs, System zum Anpassen zumindest eines Betriebsparameters eines Kraftfahrzeugs und Kraftfahrzeug |
DE102021103494A1 (de) | 2021-02-15 | 2022-08-18 | Bayerische Motoren Werke Aktiengesellschaft | Fahrerassistenzsystem und Fahrerassistenzverfahren für ein Fahrzeug |
Also Published As
Publication number | Publication date |
---|---|
WO2007096308A1 (de) | 2007-08-30 |
US20090051516A1 (en) | 2009-02-26 |
EP1989094A1 (de) | 2008-11-12 |
KR20080108984A (ko) | 2008-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102006008981A1 (de) | Assistenzsystem zur Unterstützung eines Fahrers | |
DE10131720B4 (de) | Head-Up Display System und Verfahren | |
DE102017221191B4 (de) | Verfahren zur Anzeige des Verlaufs einer Sicherheitszone vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm | |
EP1920268B1 (de) | Verfahren für die erfassung eines verkehrsraums | |
DE102011083770A1 (de) | Verfahren zur rechnergestützten Verarbeitung des Nahfeldes eines Fahrzeugs | |
DE102013000131B4 (de) | Feedbacksystem für ein Kraftfahrzeug und Verfahren zum Bereitstellen eines Feedbacks | |
EP3425442B1 (de) | Verfahren und vorrichtung zum anreichern eines sichtfeldes eines fahrers eines fahrzeuges mit zusatzinformationen, vorrichtung zur verwendung in einem beobachter-fahrzeug sowie kraftfahrzeug | |
DE102008042521A1 (de) | Verfahren für eine Anzeige einer visuellen Warndarstellung | |
DE102011114888A1 (de) | Verfahren zum Betreiben eines Fahrerassistenzsystems eines Kraftfahrzeugs und Fahrerassistenzsystem für ein Kraftfahrzeug | |
DE102015101964A1 (de) | Systeme und Verfahren zum Anzeigen eines Freiraums für eine Fahrzeugtür | |
EP2345021A2 (de) | Verfahren zur anzeige eines warnhinweises in einem fahrzeug | |
DE102018213230A1 (de) | Verfahren und Steuervorrichtung zum Warnen eines Fahrers eines Kraftfahrzeugs sowie Kraftfahrzeug mit einer derartigen Steuervorrichtung | |
DE102012008660A1 (de) | Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs | |
WO2018206213A1 (de) | Verfahren und vorrichtung zur ortsaufgelösten detektion von einem fahrzeugexternen objekt mithilfe eines in einem fahrzeug verbauten sensors | |
DE112017007631T5 (de) | Anzeigesystem und Anzeigeverfahren | |
DE102013005404A1 (de) | Verfahren zur Unterstützung eines Fahrers eines Fahrzeuges | |
DE102019201407A1 (de) | Verfahren und Vorrichtung zum Steuern der Aufmerksamkeit eines Fahrers | |
DE102015210780A1 (de) | Verfahren und Steuereinheit zur Kommunikation zwischen einem autonomen Fahrzeug und einem Insassen | |
DE102008012898A1 (de) | Verfahren und Steuergerät zur Ausgabe von Informationen für das Verlassen eines Automobils | |
EP2098431B1 (de) | Kraftfahrzeug mit Fahrerassistenzsystemen | |
EP1898381B1 (de) | Vorrichtung und Verfahren zur Fahrerinformation | |
DE102006030278A1 (de) | Generierung einer Fahrsituation | |
DE102007020124A1 (de) | Vorrichtung und Verfahren zur Bedienung von Funktionen eines Fahrzeugs | |
DE102013012751B4 (de) | Kraftfahrzeug mit einem Fahrerassistenzsystem und Verfahren zum Betrieb eines Fahrerassistenzsystems eines Kraftfahrzeugs | |
DE102008010832B4 (de) | Verfahren und Vorrichtung zur Ausgabe von Warn- und/oder Informationssignalen für ein Fahrzeug |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8127 | New person/name/address of the applicant |
Owner name: CONTINENTAL AUTOMOTIVE GMBH, 30165 HANNOVER, DE |
|
8131 | Rejection |