DE102006008981A1 - Assistenzsystem zur Unterstützung eines Fahrers - Google Patents

Assistenzsystem zur Unterstützung eines Fahrers Download PDF

Info

Publication number
DE102006008981A1
DE102006008981A1 DE102006008981A DE102006008981A DE102006008981A1 DE 102006008981 A1 DE102006008981 A1 DE 102006008981A1 DE 102006008981 A DE102006008981 A DE 102006008981A DE 102006008981 A DE102006008981 A DE 102006008981A DE 102006008981 A1 DE102006008981 A1 DE 102006008981A1
Authority
DE
Germany
Prior art keywords
assistance system
driver
display
traffic
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102006008981A
Other languages
English (en)
Inventor
Heinz-Bernhard Dr. Abel
Hubert Adamietz
Jens Arras
Hans-Peter Kreipe
Bettina Leuchtenberg
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Automotive GmbH
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102006008981A priority Critical patent/DE102006008981A1/de
Priority to US12/224,262 priority patent/US20090051516A1/en
Priority to EP07726412A priority patent/EP1989094A1/de
Priority to KR1020087021038A priority patent/KR20080108984A/ko
Priority to PCT/EP2007/051524 priority patent/WO2007096308A1/de
Publication of DE102006008981A1 publication Critical patent/DE102006008981A1/de
Ceased legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/029Steering assistants using warnings or proposing actions to the driver without influencing the steering system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W50/16Tactile feedback to the driver, e.g. vibration or force feedback to the driver on the steering wheel or the accelerator pedal

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Assistenzsystem zur Unterstützung eines Fahrers eines Kraftfahrzeuges mit mehreren, verkehrsrelevante visuelle Daten liefernden Außensicht- und Innensichtsensoren (Videoquellen), einer den Außensicht- und Innensichtsensoren nachgeschalteten Objekterkennungseinheit, einer Auswertelogik zum Auswerten der Ausgangsgröße der Objekterkennungseinheit sowie mit Ausgabekanälen, deren Ausgangssignale mittels einer Mensch-Maschine-Schnittstelle den Fahrer informieren. Um ein autonomes System vorzuschlagen, das entsprechend der erkannten Objekte eigenständig entscheidet, ob und wie der Fahrer informiert wird bzw. autonom in die Fahrdynamik eingreift, um z. B. eine Kollision zu vermeiden, sieht die Erfindung vor, dass eine Entscheidungseinheit (3) vorgesehen ist, die beim Erkennen eines verkehrsrelevanten Objektes oder einer verkehrsrelevanten Situation durch die Außensicht- (11, 12) und Innensichtsensoren (15, 16) die visuellen Daten mit den den Fahrer informierenden Ausgangssignalen der Ausgabekanäle im Sinne der Steuerung oder Beeinflussung der Mensch-Maschine-Schnittstelle (4) verknüpft.

Description

  • Die Erfindung bezieht sich auf ein Assistenzsystem zur Unterstützung eines Fahrers eines Kraftfahrzeuges mit mehreren, verkehrsrelevante visuelle Daten liefernden Außen- und Innensensoren (Videoquellen), einer den Außen- und Innensensoren nachgeschalteten Objekterkennungseinheit, einer Auswertelogik zum Auswerten der Ausgangsgröße der Objekterkennungseinheit sowie mit Ausgabekanälen, deren Ausgangssignale mittels einer Mensch-Maschine-Schnittstelle den Fahrer informieren.
  • Derartige Assistenzsysteme gehören zu den jüngsten Entwicklungen in der Automobilindustrie. Eingeschränkte Sichtverhältnisse und Lichtraumprofile, Blendeffekte, schlecht oder gar nicht erkennbare Personen, Tiere und überraschende Hindernisse auf der Fahrbahn zählen zu den häufigsten Unfallquellen. Solche Systeme, die zunehmend an Bedeutung gewinnen, unterstützen den Fahrer in einem Grenzbereich der menschlichen Wahrnehmung und helfen damit, die Unfallgefahr zu senken. Zwei sog". Night-Vision-Systeme der vorhin genannten Art sind im in der Automobiltechnischen Zeitung 11/2005, Jahrgang 107 veröffentlichten Fachartikel "Integration" von Night-Vision und Head-up-Display" beschrieben. Dieser Veröffentlichung sind jedoch keine zufrieden stellenden Konzepte entnehmbar, die beschreiben, welche Aktionen wie durchzuführen sind bzw. wie der Fahrer informiert wird, wenn sich in seinem Beobachtungsbereich fahrkritische Situationen ergeben. Dies muss der Fahrer selbst leisten, indem er das angebotene Videobild oder das erkannte (gezeigte) Verkehrszeichen betrachtet und interpretiert.
  • Es ist daher Aufgabe der vorliegenden Erfindung, ein autonomes System der eingangs genannten Gattung vorzuschlagen, das entsprechend der erkannten Objekte eigenständig entscheidet, ob und wie der Fahrer informiert wird bzw. autonom in die Fahrdynamik eingreift, um z. B. eine Kollision zu vermeiden.
  • Diese Aufgabe wird erfindungsgemäß dadurch gelöst, dass eine Entscheidungseinheit vorgesehen ist, die beim Erkennen eines verkehrsrelevanten Objektes oder einer verkehrsrelevanten Situation durch die Außen- und Innensensoren die visuellen Daten mit den den Fahrer informierenden Ausgangssignalen der Ausgabekanäle im Sinne der Steuerung oder Beeinflussung der Mensch-Maschine-Schnittstelle verknüpft. Die Objekterkennung gewinnt ihre Daten aus einem Sensorsystem zur Außensicht des Fahrzeugs. Dies können im Einzelnen sein:
    • 1. Infrarot-Nachtsichtkameras oder -sensoren
    • 2. Tageslichtkameras
    • 3. Ultraschall- und Radarsysteme
    • 4. Lidar (Laser-Radar)
    • 5. Andere, insbesondere bildgebende Sensoren.
  • Zur Konkretisierung des Erfindungsgedankens ist vorgesehen, dass die Entscheidungseinheit beim Erkennen eines verkehrsrelevanten Objektes oder einer verkehrsrelevanten Situation durch die Außen- und Innensensoren an der Mensch-Maschine-Schnittstelle ein visuelles, akustisches oder haptisches Ereignis erzeugt.
  • Eine vorteilhafte Weiterbildung des Erfindungsgegenstandes sieht vor, dass das visuelle Ereignis durch eine Videodarstellung gebildet ist, in der erkannte Objekte durch Einfärbung hervorgehoben werden, deren Art vom Gefährdungspotential der erkannten Objekte abhängig ist. Die Videodarstellung bildet eine Grundlage für die visuelle Ausgabe.
  • Das Gefährdungspotential ergibt sich bei einer weiteren Ausführung der Erfindung aus der absoluten Entfernung des erkannten Objektes vom Fahrzeug und der Entfernung des erkannten Objektes von der vorhergesagten Fahrlinie.
  • Dabei ist es besonders sinnvoll, wenn das Gefährdungspotential durch Abstufung der Helligkeit der Einfärbung oder durch unterschiedliche Farben dargestellt wird.
  • Für die visuelle Ausgabe werden drei vorteilhafte Varianten vorgeschlagen:
    Bei der ersten Variante wird die Videodarstellung auf einem Head-Up-Display permanent gezeigt. Erkannte Objekte werden, wie bereits erwähnt wurde, durch Einfärbung hervorgehoben. Zusätzlich zur Außensichtdarstellung werden auf dem Head-Up-Display graphische Informationen, beispielsweise Verkehrszeichen, ACC-Funktionen, aktuelle Fahrzeuggeschwindigkeit oder Wegleitinstruktionen eines Navigationssystems, dargestellt.
  • Die zweite Variante besteht darin, dass die Videodarstellung auf einem zentralen Informationsdisplay z. B. einem Kombiinstrument und/oder einem Mittelkonsolen-Display permanent gezeigt wird. Erkannte Objekte werden auch bei dieser Ausführungsvariante durch Einfärbung hervorgehoben, wobei zusätzlich zur Einfärbung bei den erkannten Objekten auf dem zentralen Informationsdisplay eine Warnmeldung (durch Symbol und Text) ausgegeben wird. Um die Aufmerksamkeit des Fahrers auf die auf dem zentralen Informationsdisplay sichtbare Gefahrenquelle zu lenken, wird zusätzlich auf dem Head-Up-Display eine Warnmeldung ausgegeben.
  • Die dritte Variante besteht schließlich darin, dass die Videodarstellung auf einem zentralen Informationsdisplay temporär gezeigt wird. Dabei wird die Aktivierung des Außensichtsystems durch eine Kontrollleuchte im Kombiinstrument des Fahrzeugs angezeigt. Außerdem wird sowohl auf dem zentralen Informationsdisplay als auch zusätzlich auf dem Head-up-Display eine Warnmeldung ausgegeben.
  • Eine erhebliche Erhöhung der Verkehrssicherheit wird bei einer anderen vorteilhaften Ausgestaltung der Erfindung dadurch erreicht, dass ein virtueller Straßenverlauf dargestellt wird, der dem realen Straßenverlauf entspricht. Der virtuelle Straßenverlauf wird graphisch gezeichnet und perspektivisch dargestellt. Die Straßenverlaufsinformation wird aus den Daten des Infrarotsystems, einer nachgeschalteten Fahrspurerkennung und/oder Kartendaten der Fahrzeugnavigation erhalten.
  • Eine vorteilhafte Weiterbildung des Erfindungsgegenstandes sieht vor, dass sich auf der Fahrbahn befindende, potentielle Hindernisse und/oder Gefahrenobjekte dargestellt werden. Ein Datenverarbeitungssystem erkennt hierbei aus den Kameradaten z. B. Fußgänger, Radfahrer, Tiere usw. Die Größe der dargestellten Hindernisse und/oder Gefahrenobjekte variiert mit deren Entfernung vom Fahrzeug. Die Darstellung der Hindernisse und/oder Gefahrenobjekte variiert vorzugsweise durch eine Gewichtung in Abhängigkeit von der Kollisionswahrscheinlichkeit. Dabei ist es besonders sinnvoll, wenn zwischen relevanten und nicht relevanten Hindernissen unterschieden wird. Durch die genannten Maßnahmen wird eine Verbesserung der Qualität der visuellen Darstellung, insbesondere auf dem Head-up-Display, erreicht. Eine graphische Darstellung auf dem Head-up-Display verbessert die Ablesbarkeit aufgrund der Kontrastverhältnisse zum Bildhintergrund. Gleichzeitig wird die psychische Belastung des Fahrers reduziert. Die Gefahrenobjekte können durch farbliche Anpassung klassifiziert werden. Die Zuordnung der Farben kann wie folgt erfolgen:
    Grün: Keine Gefahr
    Gelb: Erhöhte Vorsicht
    Rot: Kollision möglich
  • In Abhängigkeit von der Dringlichkeit der intendierten Fahrerreaktion (ermittelt durch die Entscheidungseinheit) werden vorhin erwähnte akustische Ereignisse erzeugt, die vorzugsweise durch Tonsignale oder Sprachmeldungen gebildet sind. Dabei ist es besonders vorteilhaft, wenn in der Entscheidungseinheit die bevorzugte Amplitude oder Frequenz der Tonsignale oder der Sprachmeldungen durch den Fahrer einstellbar ist.
  • Das oben erwähnte haptische Ereignis wird von der Entscheidungseinheit so gewählt, dass es eine angemessene Reaktion des Fahrers einleitet. Das haptische Ereignis kann eine Vibration im Fahrersitz, eine Vibration des Lenkrads oder eine Vibration des Fahr- oder Bremspedals sein. Auch in diesem Fall ist es besonders vorteilhaft, wenn in der Entscheidungseinheit die bevorzugte Amplitude oder Frequenz der Vibration durch den Fahrer einstellbar ist.
  • Eine weitere Ausgestaltung der Erfindung besteht darin, dass der Entscheidungseinheit Informationen über den Zustand des Fahrzeugs, den Zustand der Fahrers (z. B. die Belastung, die Müdigkeit...), das Fahrerverhalten und/oder Informationen über Präferenzen des Fahrers wie Anzeigeort, Funktionsinhalte, Erscheinungsbild u. dgl. zugeführt werden. Außerdem können der Entscheidungseinheit Informationen über die Fahrzeuggeschwindigkeit, Navigationsdaten (Ort u. Uhrzeit) sowie Informationen über die Verkehrsinformation (Verkehrsfunk) u. dgl. zugeführt werden.
  • Die Erfindung wird in der nachfolgenden Beschreibung eines Ausführungsbeispiels unter Bezugnahme auf die beiliegende Zeichnung näher erläutert. In der Zeichnung zeigen:
  • 1 eine vereinfachte schematische Darstellung einer Ausführung des erfindungsgemäßen Assistenzsystems;
    und
  • 2 den Funktionsablauf der Verarbeitung eines Videosignals im erfindungsgemäßen Assistenzsystem.
  • Das in 1 vereinfacht dargestellte erfindungsgemäße Assistenzsystem ist typischerweise modular aufgebaut und besteht im Wesentlichen aus einem ersten bzw. Situationserfassungs-Modul 1, einem zweiten bzw. Situationsanalyse-Modul 2, einem dritten Entscheidungsmodul bzw. einer Entscheidungseinheit 3 sowie einem vierten bzw. Mensch-Maschine- Schnittstellen-Modul 4. Mit dem Bezugszeichen 5 wird im dargestellten Beispiel der Fahrer bezeichnet, während das Bezugszeichen 6 das lediglich schematisch angedeutete Kraftfahrzeug trägt. Zur Vernetzung der Module dient ein im Fahrzeug vorhandenes, nicht näher bezeichnetes Netzwerk bzw. Bussystem (CAN-Bus). Das erste Modul 1 umfasst Außensensoren 11, beispielsweise Radarsensoren, die Abstände zum voraus fahrenden Fahrzeug erfassen, sowie Videoquellen 12, beispielsweise eine Videokamera, die als Spurerkenner dient. Die Ausgangssignale der genannten Komponenten werden einem Objekterkennungsblock 13 zugeführt, in dem die Objekte mittels Softwarealgorithmen erkannt werden und dessen Ausgangsgröße in einem Auswertelogikblock 14 dahin gehend ausgewertet wird, ob ein relevantes Objekt oder eine relevante Situation erkannt oder nicht erkannt wird. Als Beispiele der relevanten Objekte können Fußgänger im Gefahrenbereich, eine Geschwindigkeitsbegrenzung oder der Beginn einer Baustelle genannt werden. Die die Objekte betreffende Information wird als erste Eingangsgröße der Entscheidungseinheit 3 zur Verfügung gestellt.
  • Weiterhin umfasst das Situationserfassungs-Modul 1 Innensensoren 15 sowie -videoquellen 16, deren Signale in einem Bildverarbeitungsblock 17 mittels geeigneter Softwarealgorithmen zu Informationen verarbeitet werden, die beispielsweise den Grad der Fahrerbelastung darstellen und die einem zweiten Auswertelogikblock 18 zugeführt werden, dessen Ausgangsgröße als Eingangsgröße dem zweiten bzw. Situationsanalyse-Modul 2 zur Verfügung gestellt wird. Als Beispiel einer relevanten Situation kann die Fahrermüdigkeit genannt werden. Das Situationsanalyse-Modul 2 enthält einen Kriteriendatensatz, der Zustandsdaten 21 sowohl des Fahrzeugs als auch des Fahrers sowie Personalisierbarkeitsdaten 22, die Präferenzen des Fahrers für einen Anzeigeort, Funktionsinhalte, Erscheinungsbild usw. beinhaltet. Die Ausgangsgröße des Situationsanalyse-Moduls 2 wird als zweite Eingangsgröße der Entscheidungseinheit 3 zugeführt, deren Ausgabekanäle das vierte bzw. das Mensch-Maschine-Schnittstellen-Modul 5 steuern oder flexibel beeinflussen. Zu diesem Zweck wirkt sie mit visuellen (41), akustischen (42) oder haptischen Ausgabezielen 43 zusammen, die in der nachfolgenden Beschreibung mit An bezeichnet werden. Als Beispiele der visuellen Ausgabeziele 41 können ein Head-up-Display (HUD) 411, ein Kombiinstrument 412 oder ein Mittelkonsolen-Display 413 genannt werden. Als eigenständige Ausgabeziele können fest zugeordnete Anzeigeflächen auf dem Head-up-Display (HUD) als HUD1, HUD2 zusätzlich erweitert werden. Die Entscheidungseinheit 3 erledigt mit dem Zugriff auf die Ausgabeziele auch die Priorisierung einer Fahrsituation f(x), der Fahrzeugfunktionen und Komponenten. Die Ausgabeziele sind als mathematisch abbildbare Funktion der Fahrzeugfunktionen und Komponenten aufzufassen und werden als Wichtungsfunktion bzw. Entscheidungstensor W(Ax) dargestellt
    mit:
    A1 = f(O1, O2, ..On; F1, F2, ...Fn; D1, D2, ...Dn) = W(A1)
    A2 = f(O1, O2, ..On; F1, F2, ...Fn; D1, D2, ...Dn) = W(A2)
    A3 = f(O1, O2, ..On; F1, F2, ...Fn; D1, D2, ...Dn) = W(A3)
    A4 = f(O1, O2, ..On; F1, F2, ...Fn; D1, D2, ...Dn) = W(A4)
    A5 = f(O1, O2, ..On; F1, F2, ...Fn; D1, D2, ...Dn) = W(A5)
    A6 = f(O1, O2, ..On; F1, F2, ...Fn; D1, D2, ...Dn) = W(A6)
    bis
    An = f(O1, O2, ..On; F1, F2, ...Fn; D1, D2, ...Dn) = W(An)
  • Dabei werden mit On Objekte der Außensicht, z. B. Fußgänger, Tier, entgegenkommendes Fahrzeug, Fahrzeug im toten Winkel ..., mit Fn durch intrinsische Daten definierte Fahrzeugzustände, z. B. Navigation, Außentemperatur, Verkehrsinformationen ... und mit Dn Zustände des Fahrers, z. B. Fahrergesichtserkennung, Müdigkeit, Puls, Art der Lenkradumfassung (Position und Kraft)... bezeichnet.
  • Dazu kommt die Personalisierung Pn von Fahrzeugfunktionen und Komponenten durch den Fahrer auf die einzelnen Ausgabeziele. Auf die Fahrerzustandsdaten hat der Fahrer durch Personalisierung keinen Einfluss. Jedes Pn stellt also eine Personalisierung eines Ausgabeziels mit den vom Fahrzeug zur Verfügung gestellten Funktionen und Komponenten wie folgt dar:
    P1 = f(O1, O2, ..On; F1, F2, ...Fn)
    P2 = f(O1, O2, ..On; F1, F2, ...Fn)
    P3 = f(O1, O2, ..On; F1, F2, ...Fn)
    P4 = f(O1, O2, ..On; F1, F2, ...Fn)
    P5 = f(O1, O2, ..On; F1, F2, ...Fn)
    P6 = f(O1, O2, ..On; F1, F2, ...Fn)
    bis
    Pn = f(O1, O2, ..On; F1, F2, ...Fn)
  • Die Fahrerdaten, die die Entscheidungseinheit durch "Messen" erfährt, dienen dazu, eine Lernkurve vom System ermitteln zu lassen, wie gut der Fahrer auf die gewählten Ausgabeziele in welcher Situation f(x) reagiert. Das führt zu einem implizierten Priorisierungsverhalten der Fahrzeugfunktionen und Komponenten in der Ausgabezielmatrix W(An). Dabei gilt:
    OD1 = f(D1, D2, ...,Dn) O1 = W(Fx)·OD1
    OD2 = f(D1, D2, ...,Dn) O2 = W(Fx)·OD2
    bis
    ODn = f(D1, D2, ...,Dn) On = W(Fx)·ODn
    und
    FD1 = f(D1, D2, ...,Dn) f1 = W(Fx)·FD1
    FD2 = f(D1, D2, ...,Dn F2 = W(Fx)·FD2
    bis
    FDn = f(D1, D2, ...,Dn) Fn = W(Fx)·FDn
  • Dazu werden die Fahrerdaten D1 bis Dn durch ihr Zeitverhalten von der Entscheidungseinheit 3 ausgewertet und gewichtet. Eine zusätzliche Berücksichtigung des Zeitverhaltens der einzelnen Funktionen und Komponenten muss nicht erfolgen, da dafür jeweils eine eigenständige Fahrzeugfunktion bzw. Komponente angelegt werden kann, z. B. O1 – Fußgänger in unkritischer Entfernung; O2 – Fußgänger in kritischer Entfernung; O3 – Fußgänger in gefährlichem Bereich. Die Fahrerdaten, die in W(Fx) eingehen, berücksichtigen einen typischen, dem System unbekannten Fahrer. Durch eine Speicherung der Datensätze kann das System anhand der Wichtungsmatrizen und der zugehörigen Antwortfunktion des Fahrerzustands (Speicherung des Zeitverlaufs), aufgrund des Verlaufs der kritischen von vorher festgelegten Funktionen und Komponenten aufnehmen, wie das Reaktionsverhalten des Fahrers für eine derartige Situation ist. Aus der W(Fx) wird durch eine Zuordnung zu einem bestimmten Fahrer N, der z. B. durch eine Fahrergesichtserkennung identifiziert wurde, ein W(FN) mit N = 1, 2, 3, ... gespeichert. Eine Entscheidung für das zukünftige Verhalten der Entscheidungseinheit kann z. B. mit Hilfe von Fuzzy Logik erfolgen. Dafür werden die aufgenommenen Datensätze jeder Fahrsituation mit Hilfe von unscharfen Mengen ausgewertet. Als Strategie für das Festlegen eines besseren Ausgabeverhaltens gilt eine Optimierung auf eine schnellere Antwortzeit des Fahrers in Verbindung mit der Entwicklung festgelegter kritischer Parameter der Fahrzeugfunktionen und Daten. In erster Näherung sollten sowohl die Antwortzeit als auch das Zeitverhalten der kritischen Parameter gleichwertig gewichtet werden.
  • Als Variante kann eine Entscheidungseinheit ohne Personalisierung oder ohne ein selbst optimierendes Logikkonzept umgesetzt werden.
  • In Abhängigkeit von der Dringlichkeit der intendierten Fahrerreaktion (ermittelt durch die Entscheidungseinheit 3) werden die vorhin genannten akustischen Ausgabeziele 42, beispielsweise Warntonsignale 421 oder Sprachmeldungen 422 ausgegeben. In den im Situationsanalyse-Modul 2 abgelegten Kriteriendatensatz können durch den Fahrer 5 die generellen Präferenzen der akustischen Signale 42 bzw. 421/422, z. B. die vom Fahrer bevorzugte Amplitude, Frequenz usw. eingehen.
  • Als haptische Ausgabeziele 43 können z. B. Vibrationsmeldungen im Lenkrad 431, im Gas- oder Bremspedal 432, im Fahrersitz 433, u. U. in der Kopfstütze 434 verwendet werden. Die haptischen Ausgabeziele 43 werden von der Entscheidungseinheit 3 so gewählt, dass sie eine angemessene Reaktion des Fahrers einleiten. Sowohl die Amplitude als auch die Frequenz der haptischen Rückmeldungen sind vom Fahrer einstellbar.
  • Wie bereits erwähnt wurde, wird eine erhebliche Verbesserung der visuellen Darstellung dadurch erreicht, dass ein virtueller Straßenverlauf dargestellt wird, der dem realen Straßenverlauf entspricht und der graphisch gezeichnet und perspektivisch dargestellt wird. Wie in 2 dargestellt ist, wird ein Videosignal einer Kamera bzw. Infrarotkamera 25 einer nachgeschalteten Fahrspurerkennung 26 sowie einer Objekt-, Verkehrszeichen- und Hinderniserkennung 27 zur weiteren Verarbeitung zugeführt. Aus den Daten der Fahrspurerkennung 26 und den Kartendaten einer Fahrzeugnavigation 28 wird im Funktionsblock 29 der Straßenverlauf berechnet. Die Berechnung graphischer Daten und das Zeichnen der virtuellen Ansicht erfolgt im Funktionsblock 30, dem außer den Kartendaten der Fahrzeugnavigation 28 die Daten der Objekt-, Verkehrszeichen- und Hinderniserkennung 27 sowie weitere Informationen, z. B. über die Fahrgeschwindigkeit oder ACC-Informationen (s. Funktionsblock 31) zur Verfügung gestellt werden. Dabei kann der Benutzer mittels eines weiteren Funktionsblocks 32 zur Nutzereingabe/Konfiguration eine Auswahl von allen darstellbaren Funktionen treffen und somit dieses Anzeigesystem seinen Be dürfnissen anpassen. Die derart gebildete virtuelle Straßenverlaufsinformation wird schließlich auf dem Head-up 411, dem Kombiinstrument 412 und/oder dem Mittelkonsolen-Display 413 ausgegeben.
  • 1
    Situationserfassungs-Modul
    2
    Situationsanalyse-Modul
    3
    Entscheidungseinheit
    4
    Mensch-Maschine-Schnittstellen-Modul
    5
    Fahrer
    6
    Kraftfahrzeug
    11
    Außensensoren
    12
    Videoquellen
    13
    Objekterkennungsblock
    14
    Auswertelogikblock
    15
    Innensensoren
    16
    Innensichtvideoquellen
    17
    Bildverarbeitungsblock
    18
    Auswertelogikblock
    21
    Zustandsdaten
    22
    Personalisierbarkeitsdaten
    25
    Kamera
    26
    Fahrspurerkennung
    27
    Objekt-, Verkehrszeichen- und Hinderniserkennung
    28
    Fahrzeugnavigation
    29
    Funktionsblock
    30
    Funktionsblock
    31
    Funktionsblock
    32
    Funktionsblock
    41
    visuelle Ausgabeziele
    42
    akustische Ausgabeziele
    43
    haptische Ausgabeziele
    411
    Head-Up-Display (HUD)
    412
    Kombiinstrument
    413
    Mittelkonsolendisplay
    421
    Warntonsignale
    422
    Sprachmeldungen
    431
    Lenkrad
    432
    Gas- oder Bremspedal
    433
    Fahrersitz
    434
    Kopfstütze

Claims (27)

  1. Assistenzsystem zur Unterstützung eines Fahrers eines Kraftfahrzeuges mit mehreren, verkehrsrelevante visuelle Daten liefernden Außensicht- und Innensichtsensoren (Videoquellen), einer den Außen- und Innensensoren nachgeschalteten Objekterkennungseinheit, einer Auswertelogik zum Auswerten der Ausgangsgröße der Objekterkennungseinheit sowie mit Ausgabekanälen, deren Ausgangssignale mittels einer Mensch-Maschine-Schnittstelle den Fahrer informieren, dadurch gekennzeichnet, dass eine Entscheidungseinheit (3) vorgesehen ist, die beim Erkennen eines verkehrsrelevanten Objektes oder einer verkehrsrelevanten Situation durch die Außen- (11, 12) und Innensensoren (15, 16) die visuellen Daten mit den den Fahrer informierenden Ausgangssignalen der Ausgabekanäle im Sinne der Steuerung oder Beeinflussung der Mensch-Maschine-Schnittstelle (4) verknüpft.
  2. Assistenzsystem nach Anspruch 1, dadurch gekennzeichnet, dass die Entscheidungseinheit (3) beim Erkennen eines verkehrsrelevanten Objektes oder einer verkehrsrelevanten Situation durch die Außen- (11, 12) und Innensensoren (15, 16) an der Mensch-Maschine-Schnittstelle (4) ein visuelles (41), akustisches (42) oder haptisches Ereignis (43) erzeugt.
  3. Assistenzsystem nach Anspruch 2, dadurch gekennzeichnet, dass das visuelle Ereignis (41) durch eine Videodarstellung gebildet ist, in der erkannte Objekte durch Einfärbung hervorgehoben werden, deren Art vom Gefährdungspotential der erkannten Objekte abhängig ist.
  4. Assistenzsystem nach Anspruch 3, dadurch gekennzeichnet, dass das Gefährdungspotential sich aus der absoluten Entfernung des erkannten Objektes vom Fahrzeug und der Entfernung des erkannten Objektes von der vorhergesagten Fahrlinie ergibt.
  5. Assistenzsystem nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass das Gefährdungspotential durch Abstufung der Helligkeit der Einfärbung oder durch unterschiedliche Farben dargestellt wird.
  6. Assistenzsystem nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass die Videodarstellung auf einem Head-Up-Display (411), einem Kombiinstrument (412) und/oder einem Mittelkonsolen-Display (413) permanent gezeigt wird.
  7. Assistenzsystem nach Anspruch 6, dadurch gekennzeichnet, dass auf dem Head-Up-Display (411), dem Kombiinstrument (412) und/oder dem Mittelkonsolen-Display (413) zusätzlich graphische Informationen, beispielsweise Verkehrszeichen, ACC-Funktionen, aktuelle Fahrzeuggeschwindigkeit oder Wegleitinstruktionen eines Navigationssystems, dargestellt werden.
  8. Assistenzsystem nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass die Videodarstellung auf einem zentralen Informationsdisplay permanent gezeigt wird.
  9. Assistenzsystem nach Anspruch 8, dadurch gekennzeichnet, dass auf dem zentralen Informationsdisplay eine Warnmeldung ausgegeben wird.
  10. Assistenzsystem nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass zusätzlich auf dem Head-Up-Display (411), dem Kombiinstrument (412) und/oder dem Mittelkonsolen-Display (413) eine Warnmeldung ausgegeben wird.
  11. Assistenzsystem nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass die Videodarstellung auf einem zentralen Informationsdisplay temporär gezeigt wird.
  12. Assistenzsystem nach Anspruch 11, dadurch gekennzeichnet, dass die Aktivierung des Außensichtsystems (11, 12) durch eine Kontrollleuchte im Kombinationsinstrument angezeigt wird.
  13. Assistenzsystem nach Anspruch 11, dadurch gekennzeichnet, dass auf dem zentralen Informationsdisplay eine Warnmeldung ausgegeben wird.
  14. Assistenzsystem nach einem der Ansprüche 11 bis 13, dadurch gekennzeichnet, dass eine zusätzliche Warnmeldung auf dem Head-Up-Display (411), dem Kombiinstrument (412) und/oder dem Mittelkonsolen-Display (413) ausgegeben wird.
  15. Assistenzsystem nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, dass ein virtueller Straßenverlauf (33) dargestellt wird, der dem realen Straßenverlauf entspricht.
  16. Assistenzsystem nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass sich auf der Fahr bahn befindende, potentielle Hindernisse und/oder Gefahrenobjekte dargestellt werden.
  17. Assistenzsystem nach Anspruch 11, dadurch gekennzeichnet, dass die Größe der dargestellten Hindernisse und/oder Gefahrenobjekte mit der Entfernung vom Fahrzeug variiert.
  18. Assistenzsystem nach Anspruch 11 oder 12, dadurch gekennzeichnet, dass die Darstellung der Hindernisse und/oder Gefahrenobjekte durch eine Gewichtung in Abhängigkeit von der Kollisionswahrscheinlichkeit variiert.
  19. Assistenzsystem nach Anspruch 13, dadurch gekennzeichnet, dass zwischen relevanten und nicht relevanten Hindernissen unterschieden wird.
  20. Assistenzsystem nach einem der Ansprüche 11 bis 14, dadurch gekennzeichnet, dass die Gefahrenobjekte durch farbliche Anpassung klassifiziert werden.
  21. Assistenzsystem nach Anspruch 2, dadurch gekennzeichnet, dass das akustische Ereignis (42) durch Tonsignale (421) oder Sprachmeldungen (422) gebildet ist.
  22. Assistenzsystem nach Anspruch 16, dadurch gekennzeichnet, dass in der Entscheidungseinheit (3) die bevorzugte Amplitude oder Frequenz der Tonsignale (421) oder der Sprachmeldungen (422) durch den Fahrer einstellbar ist.
  23. Assistenzsystem nach Anspruch 2, dadurch gekennzeichnet, dass das haptische Ereignis (43) durch eine Vibration im Fahrersitz (433), eine Vibration des Lenkrads (431) oder eine Vibration des Fahr- oder Bremspedals (432) gebildet ist.
  24. Assistenzsystem nach Anspruch 18, dadurch gekennzeichnet, dass in der Entscheidungseinheit (3) die bevorzugte Amplitude oder Frequenz der Vibration durch den Fahrer einstellbar ist.
  25. Assistenzsystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Entscheidungseinheit (3) Informationen über den Zustand des Fahrzeugs, das Fahrerverhalten und/oder Informationen über Präferenzen des Fahrers wie Anzeigeort, Funktionsinhalte, Erscheinungsbild u. dgl. zugeführt werden.
  26. Assistenzsystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Entscheidungseinheit (3) Informationen über die Fahrzeuggeschwindigkeit, Navigationsdaten (Ort u. Uhrzeit) sowie Informationen über die Verkehrsinformation (Verkehrsfunk) u. dgl. zugeführt werden.
  27. Assistenzsystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass aufgrund einer autarken intrinsischen Lernfähigkeit des Assistenzsystems die Interaktion der Mensch-Maschine-Schnittstelle und einhergehend die Informations- und Warnstrategie des Assistenzsystems an den Fahrer situativ optimiert und angepasst ist und wird.
DE102006008981A 2006-02-23 2006-02-23 Assistenzsystem zur Unterstützung eines Fahrers Ceased DE102006008981A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102006008981A DE102006008981A1 (de) 2006-02-23 2006-02-23 Assistenzsystem zur Unterstützung eines Fahrers
US12/224,262 US20090051516A1 (en) 2006-02-23 2007-02-16 Assistance System for Assisting a Driver
EP07726412A EP1989094A1 (de) 2006-02-23 2007-02-16 Assistenzsystem zur unterstützung eines fahrers
KR1020087021038A KR20080108984A (ko) 2006-02-23 2007-02-16 운전자를 지원하기 위한 지원 시스템
PCT/EP2007/051524 WO2007096308A1 (de) 2006-02-23 2007-02-16 Assistenzsystem zur unterstützung eines fahrers

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102006008981A DE102006008981A1 (de) 2006-02-23 2006-02-23 Assistenzsystem zur Unterstützung eines Fahrers

Publications (1)

Publication Number Publication Date
DE102006008981A1 true DE102006008981A1 (de) 2007-08-30

Family

ID=37963961

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006008981A Ceased DE102006008981A1 (de) 2006-02-23 2006-02-23 Assistenzsystem zur Unterstützung eines Fahrers

Country Status (5)

Country Link
US (1) US20090051516A1 (de)
EP (1) EP1989094A1 (de)
KR (1) KR20080108984A (de)
DE (1) DE102006008981A1 (de)
WO (1) WO2007096308A1 (de)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010054064A1 (de) * 2010-12-10 2012-06-14 GM Global Technology Operations LLC Kraftfahrzeug mit einem Fahrassistenzsystem
US8451108B2 (en) 2007-10-12 2013-05-28 Mitsubishi Electric Corporation On-vehicle information providing device
US9378644B2 (en) 2013-03-15 2016-06-28 Honda Motor Co., Ltd. System and method for warning a driver of a potential rear end collision
US9393870B2 (en) 2013-03-15 2016-07-19 Honda Motor Co., Ltd. Volumetric heads-up display with dynamic focal plane
US9400385B2 (en) 2013-03-15 2016-07-26 Honda Motor Co., Ltd. Volumetric heads-up display with dynamic focal plane
DE102015225135A1 (de) * 2015-12-14 2017-06-14 Continental Automotive Gmbh System und Verfahren zur Anpassung einer akustischen Ausgabe eines Navigationssystems
DE102016216986A1 (de) 2015-12-23 2017-06-29 Robert Bosch Gmbh Verfahren zum Unterstützen eines Fahrers
US9747898B2 (en) 2013-03-15 2017-08-29 Honda Motor Co., Ltd. Interpretation of ambiguous vehicle instructions
EP3232289A1 (de) * 2016-04-15 2017-10-18 Panasonic Intellectual Property Corporation of America Informationsdarstellungssteuerungsvorrichtung, autonomes fahrzeug und fahrhilfesystem für ein autonomes fahrzeug
DE102017211931A1 (de) * 2017-07-12 2019-01-17 Volkswagen Aktiengesellschaft Verfahren zum Anpassen zumindest eines Betriebsparameters eines Kraftfahrzeugs, System zum Anpassen zumindest eines Betriebsparameters eines Kraftfahrzeugs und Kraftfahrzeug
US10215583B2 (en) 2013-03-15 2019-02-26 Honda Motor Co., Ltd. Multi-level navigation monitoring and control
US10339711B2 (en) 2013-03-15 2019-07-02 Honda Motor Co., Ltd. System and method for providing augmented reality based directions based on verbal and gestural cues
CN113570894A (zh) * 2015-03-24 2021-10-29 日本先锋公司 自动驾驶辅助装置、控制方法及存储介质
DE102021103494A1 (de) 2021-02-15 2022-08-18 Bayerische Motoren Werke Aktiengesellschaft Fahrerassistenzsystem und Fahrerassistenzverfahren für ein Fahrzeug

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7096852B2 (en) * 2003-10-30 2006-08-29 Immersion Corporation Haptic throttle devices and methods
DE102005039103A1 (de) * 2005-08-18 2007-03-01 Robert Bosch Gmbh Verfahren für die Erfassung eines Verkehrsraums
TWI334517B (en) * 2007-08-30 2010-12-11 Ind Tech Res Inst Method for predicting lane line and lane departure warning system using the same
US8947219B2 (en) 2011-04-22 2015-02-03 Honda Motors Co., Ltd. Warning system with heads up display
DE102012213466A1 (de) * 2012-07-31 2014-02-06 Robert Bosch Gmbh Verfahren und Vorrichtung zum Überwachen eines Fahrzeuginsassens
US10347127B2 (en) * 2013-02-21 2019-07-09 Waymo Llc Driving mode adjustment
US9050980B2 (en) 2013-02-25 2015-06-09 Honda Motor Co., Ltd. Real time risk assessment for advanced driver assist system
US9342986B2 (en) 2013-02-25 2016-05-17 Honda Motor Co., Ltd. Vehicle state prediction in real time risk assessments
US9582024B2 (en) 2013-04-05 2017-02-28 Cts Corporation Active vibratory pedal assembly
DE102013207223A1 (de) * 2013-04-22 2014-10-23 Ford Global Technologies, Llc Verfahren zur Erkennung von nicht motorisierten Verkehrsteilnehmern
DE102013013867A1 (de) * 2013-08-20 2015-03-12 Audi Ag Kraftfahrzeug und Verfahren zur Steuerung eines Kraftfahrzeugs
DE102014219575A1 (de) * 2013-09-30 2015-07-23 Honda Motor Co., Ltd. Verbesserte 3-Dimensionale (3-D) Navigation
DE102014117830A1 (de) * 2014-12-04 2016-06-09 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bestimmen eines fahrerspezifischen Totwinkelfeldes für ein Fahrerassistenzsystem, Fahrerassistenzsystem sowie Kraftfahrzeug
US10493986B2 (en) * 2015-01-26 2019-12-03 Trw Automotive U.S. Llc Vehicle driver assist system
JP6269606B2 (ja) * 2015-07-21 2018-01-31 トヨタ自動車株式会社 車両制御装置
EP3133455B1 (de) * 2015-08-17 2021-04-14 Honda Research Institute Europe GmbH Vorrichtung zum autonomen oder teilweise autonomen fahren eines fahrzeugs mit einem kommunikationsmodul zum erhalt zusätzlicher daten von einem fahrzeugfahrer und entsprechendes verfahren
EP3139340B1 (de) 2015-09-02 2019-08-28 SMR Patents S.à.r.l. System und verfahren zur verbesserung der sichtbarkeit
US11648876B2 (en) 2015-09-02 2023-05-16 SMR Patents S.à.r.l. System and method for visibility enhancement
ES2646412B1 (es) * 2016-06-09 2018-09-18 Universidad De Valladolid Sistema de asistencia al conductor y métodos de adquisición y procesado de datos asociados
US10220784B2 (en) * 2016-11-29 2019-03-05 Ford Global Technologies, Llc Luminescent windshield display
KR102400555B1 (ko) 2017-09-04 2022-05-20 삼성전자주식회사 주행 차량을 제어하는 방법 및 장치
US11365976B2 (en) * 2018-03-02 2022-06-21 Nvidia Corporation Semantic label based filtering of objects in an image generated from high definition map data
JP7119653B2 (ja) * 2018-07-02 2022-08-17 株式会社デンソー 車両制御装置
MX2019001712A (es) * 2019-02-11 2020-08-12 Inst Tecnologico Y De Estudios Superiores De Occidente A C Sistema y metodo basado en la correlación de información visual interior y exterior en un vehículo para mejorar la seguridad en conducción manual o semi-automática.
US10726642B1 (en) 2019-03-29 2020-07-28 Toyota Motor North America, Inc. Vehicle data sharing with interested parties
US10535207B1 (en) 2019-03-29 2020-01-14 Toyota Motor North America, Inc. Vehicle data sharing with interested parties
US10896555B2 (en) 2019-03-29 2021-01-19 Toyota Motor North America, Inc. Vehicle data sharing with interested parties
US11529918B2 (en) 2019-09-02 2022-12-20 Toyota Motor North America, Inc. Adjustment of environment of transports
US11254316B2 (en) * 2020-01-24 2022-02-22 Ford Global Technologies, Llc Driver distraction detection
KR20210142479A (ko) 2020-05-18 2021-11-25 현대모비스 주식회사 차량용 헤드업 디스플레이 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19911648A1 (de) * 1999-03-16 2000-09-21 Volkswagen Ag Verfahren zur Anzeige von Objekten
DE10045980A1 (de) * 1999-09-16 2001-03-29 Saab Automobile Verfahren und Vorrichtung zur Präsentation eines Bildes
DE69711819T2 (de) * 1996-12-04 2002-11-07 Fiat Ricerche Fahrzeug- Anzeigegerät
DE10039795C2 (de) * 2000-08-16 2003-03-27 Bosch Gmbh Robert Verfahren zur Warnung eines Fahrers eines Fahrzeugs
DE10161262A1 (de) * 2000-06-23 2003-07-10 Daimler Chrysler Ag Aufmerksamkeitsteurung für Bediener einer technischen Einrichtung, basierend auf Infrarot-Bilddaten
DE10339647A1 (de) * 2003-08-28 2005-03-24 Robert Bosch Gmbh Vorrichtung zur Fahrerwarnung

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5465079A (en) * 1992-08-14 1995-11-07 Vorad Safety Systems, Inc. Method and apparatus for determining driver fitness in real time
US5642093A (en) * 1995-01-27 1997-06-24 Fuji Jukogyo Kabushiki Kaisha Warning system for vehicle
JP3942122B2 (ja) * 1997-12-26 2007-07-11 高砂香料工業株式会社 ルテニウムメタセシス触媒およびそれを用いたメタセ シス反応によるオレフィン反応生成物を製造する方法
JPH11259798A (ja) * 1998-03-10 1999-09-24 Nissan Motor Co Ltd 車両用表示装置
AU2001243285A1 (en) * 2000-03-02 2001-09-12 Donnelly Corporation Video mirror systems incorporating an accessory module
JP2002083285A (ja) * 2000-07-07 2002-03-22 Matsushita Electric Ind Co Ltd 画像合成装置および画像合成方法
US6925425B2 (en) * 2000-10-14 2005-08-02 Motorola, Inc. Method and apparatus for vehicle operator performance assessment and improvement
JP2002212544A (ja) * 2001-01-12 2002-07-31 Mitsui Mining & Smelting Co Ltd 酸化セリウム系研摩材の製造方法及びその方法により得られた酸化セリウム系研摩材
US6873911B2 (en) * 2002-02-01 2005-03-29 Nissan Motor Co., Ltd. Method and system for vehicle operator assistance improvement
JP2004051007A (ja) * 2002-07-22 2004-02-19 Denso Corp 表示装置
US6853919B2 (en) * 2003-02-04 2005-02-08 General Motors Corporation Method for reducing repeat false alarm indications in vehicle impact detection systems
WO2004083889A1 (ja) * 2003-03-20 2004-09-30 Matsushita Electric Industrial Co. Ltd. 障害物検知装置
DE10317044A1 (de) * 2003-04-11 2004-10-21 Daimlerchrysler Ag Freiraumüberwachung bei Kraftfahrzeugen
US7206697B2 (en) * 2003-10-14 2007-04-17 Delphi Technologies, Inc. Driver adaptive collision warning system
US7356408B2 (en) * 2003-10-17 2008-04-08 Fuji Jukogyo Kabushiki Kaisha Information display apparatus and information display method
US7225070B2 (en) * 2004-01-22 2007-05-29 Shih-Hsiung Li Parking guidance system for large vehicles

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69711819T2 (de) * 1996-12-04 2002-11-07 Fiat Ricerche Fahrzeug- Anzeigegerät
DE19911648A1 (de) * 1999-03-16 2000-09-21 Volkswagen Ag Verfahren zur Anzeige von Objekten
DE10045980A1 (de) * 1999-09-16 2001-03-29 Saab Automobile Verfahren und Vorrichtung zur Präsentation eines Bildes
DE10161262A1 (de) * 2000-06-23 2003-07-10 Daimler Chrysler Ag Aufmerksamkeitsteurung für Bediener einer technischen Einrichtung, basierend auf Infrarot-Bilddaten
DE10039795C2 (de) * 2000-08-16 2003-03-27 Bosch Gmbh Robert Verfahren zur Warnung eines Fahrers eines Fahrzeugs
DE10339647A1 (de) * 2003-08-28 2005-03-24 Robert Bosch Gmbh Vorrichtung zur Fahrerwarnung

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8451108B2 (en) 2007-10-12 2013-05-28 Mitsubishi Electric Corporation On-vehicle information providing device
DE112008002030B4 (de) * 2007-10-12 2013-07-04 Mitsubishi Electric Corp. Informationsbereitstellende Vorrichtung in Fahrzeug
DE102010054064A1 (de) * 2010-12-10 2012-06-14 GM Global Technology Operations LLC Kraftfahrzeug mit einem Fahrassistenzsystem
US10215583B2 (en) 2013-03-15 2019-02-26 Honda Motor Co., Ltd. Multi-level navigation monitoring and control
US9378644B2 (en) 2013-03-15 2016-06-28 Honda Motor Co., Ltd. System and method for warning a driver of a potential rear end collision
US9400385B2 (en) 2013-03-15 2016-07-26 Honda Motor Co., Ltd. Volumetric heads-up display with dynamic focal plane
US9452712B1 (en) 2013-03-15 2016-09-27 Honda Motor Co., Ltd. System and method for warning a driver of a potential rear end collision
US9393870B2 (en) 2013-03-15 2016-07-19 Honda Motor Co., Ltd. Volumetric heads-up display with dynamic focal plane
US9747898B2 (en) 2013-03-15 2017-08-29 Honda Motor Co., Ltd. Interpretation of ambiguous vehicle instructions
US10339711B2 (en) 2013-03-15 2019-07-02 Honda Motor Co., Ltd. System and method for providing augmented reality based directions based on verbal and gestural cues
CN113570894B (zh) * 2015-03-24 2023-09-01 日本先锋公司 自动驾驶辅助装置、控制方法及存储介质
CN113570894A (zh) * 2015-03-24 2021-10-29 日本先锋公司 自动驾驶辅助装置、控制方法及存储介质
DE102015225135A1 (de) * 2015-12-14 2017-06-14 Continental Automotive Gmbh System und Verfahren zur Anpassung einer akustischen Ausgabe eines Navigationssystems
DE102015225135B4 (de) 2015-12-14 2022-12-22 Continental Automotive Technologies GmbH System und Verfahren zur Anpassung einer akustischen Ausgabe eines Navigationssystems
DE102016216986A1 (de) 2015-12-23 2017-06-29 Robert Bosch Gmbh Verfahren zum Unterstützen eines Fahrers
EP3232289A1 (de) * 2016-04-15 2017-10-18 Panasonic Intellectual Property Corporation of America Informationsdarstellungssteuerungsvorrichtung, autonomes fahrzeug und fahrhilfesystem für ein autonomes fahrzeug
DE102017211931A1 (de) * 2017-07-12 2019-01-17 Volkswagen Aktiengesellschaft Verfahren zum Anpassen zumindest eines Betriebsparameters eines Kraftfahrzeugs, System zum Anpassen zumindest eines Betriebsparameters eines Kraftfahrzeugs und Kraftfahrzeug
DE102017211931B4 (de) 2017-07-12 2022-12-29 Volkswagen Aktiengesellschaft Verfahren zum Anpassen zumindest eines Betriebsparameters eines Kraftfahrzeugs, System zum Anpassen zumindest eines Betriebsparameters eines Kraftfahrzeugs und Kraftfahrzeug
DE102021103494A1 (de) 2021-02-15 2022-08-18 Bayerische Motoren Werke Aktiengesellschaft Fahrerassistenzsystem und Fahrerassistenzverfahren für ein Fahrzeug

Also Published As

Publication number Publication date
WO2007096308A1 (de) 2007-08-30
US20090051516A1 (en) 2009-02-26
EP1989094A1 (de) 2008-11-12
KR20080108984A (ko) 2008-12-16

Similar Documents

Publication Publication Date Title
DE102006008981A1 (de) Assistenzsystem zur Unterstützung eines Fahrers
DE10131720B4 (de) Head-Up Display System und Verfahren
DE102017221191B4 (de) Verfahren zur Anzeige des Verlaufs einer Sicherheitszone vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
EP1920268B1 (de) Verfahren für die erfassung eines verkehrsraums
DE102011083770A1 (de) Verfahren zur rechnergestützten Verarbeitung des Nahfeldes eines Fahrzeugs
DE102013000131B4 (de) Feedbacksystem für ein Kraftfahrzeug und Verfahren zum Bereitstellen eines Feedbacks
EP3425442B1 (de) Verfahren und vorrichtung zum anreichern eines sichtfeldes eines fahrers eines fahrzeuges mit zusatzinformationen, vorrichtung zur verwendung in einem beobachter-fahrzeug sowie kraftfahrzeug
DE102008042521A1 (de) Verfahren für eine Anzeige einer visuellen Warndarstellung
DE102011114888A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems eines Kraftfahrzeugs und Fahrerassistenzsystem für ein Kraftfahrzeug
DE102015101964A1 (de) Systeme und Verfahren zum Anzeigen eines Freiraums für eine Fahrzeugtür
EP2345021A2 (de) Verfahren zur anzeige eines warnhinweises in einem fahrzeug
DE102018213230A1 (de) Verfahren und Steuervorrichtung zum Warnen eines Fahrers eines Kraftfahrzeugs sowie Kraftfahrzeug mit einer derartigen Steuervorrichtung
DE102012008660A1 (de) Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs
WO2018206213A1 (de) Verfahren und vorrichtung zur ortsaufgelösten detektion von einem fahrzeugexternen objekt mithilfe eines in einem fahrzeug verbauten sensors
DE112017007631T5 (de) Anzeigesystem und Anzeigeverfahren
DE102013005404A1 (de) Verfahren zur Unterstützung eines Fahrers eines Fahrzeuges
DE102019201407A1 (de) Verfahren und Vorrichtung zum Steuern der Aufmerksamkeit eines Fahrers
DE102015210780A1 (de) Verfahren und Steuereinheit zur Kommunikation zwischen einem autonomen Fahrzeug und einem Insassen
DE102008012898A1 (de) Verfahren und Steuergerät zur Ausgabe von Informationen für das Verlassen eines Automobils
EP2098431B1 (de) Kraftfahrzeug mit Fahrerassistenzsystemen
EP1898381B1 (de) Vorrichtung und Verfahren zur Fahrerinformation
DE102006030278A1 (de) Generierung einer Fahrsituation
DE102007020124A1 (de) Vorrichtung und Verfahren zur Bedienung von Funktionen eines Fahrzeugs
DE102013012751B4 (de) Kraftfahrzeug mit einem Fahrerassistenzsystem und Verfahren zum Betrieb eines Fahrerassistenzsystems eines Kraftfahrzeugs
DE102008010832B4 (de) Verfahren und Vorrichtung zur Ausgabe von Warn- und/oder Informationssignalen für ein Fahrzeug

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: CONTINENTAL AUTOMOTIVE GMBH, 30165 HANNOVER, DE

8131 Rejection