DE102018009150A1 - Fahrassistenzvorrichtung, verfahren des assistierens und computerprogrammprodukt - Google Patents

Fahrassistenzvorrichtung, verfahren des assistierens und computerprogrammprodukt Download PDF

Info

Publication number
DE102018009150A1
DE102018009150A1 DE102018009150.4A DE102018009150A DE102018009150A1 DE 102018009150 A1 DE102018009150 A1 DE 102018009150A1 DE 102018009150 A DE102018009150 A DE 102018009150A DE 102018009150 A1 DE102018009150 A1 DE 102018009150A1
Authority
DE
Germany
Prior art keywords
information
time
driver
processor
subsequent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102018009150.4A
Other languages
English (en)
Other versions
DE102018009150B4 (de
Inventor
Yuka Minegishi
Keiichi Tomii
Yasutaka Kajiwara
Takahiro Tochioka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Publication of DE102018009150A1 publication Critical patent/DE102018009150A1/de
Application granted granted Critical
Publication of DE102018009150B4 publication Critical patent/DE102018009150B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle for navigation systems

Abstract

Es wird eine Fahrassistenzvorrichtung bereitgestellt, die Folgendes umfasst: einen Prozessor, der ausgestaltet ist, ein Ableitungsmodul auszuführen, um abzuleiten, dass ein Zeitpunkt einer Sichtlinienbewegung und/oder eines Blinzelns, die nahe einem vorhergesagten Zeitpunkt von einer Kamera detektiert werden, ein Zeitpunkt einer Erkennungshandlung eines Fahrers für ein nachfolgendes Fahrtsegment aus einer Vielzahl von Fahrtsegmenten ist, die eine Fahrtstrecke eines Fahrzeugs bilden; ein Informationsbereitstellungsmodul, um assistierende Informationen für das nachfolgende Fahrtsegment vor dem Zeitpunkt der Erkennungshandlung, der von dem Ableitungsmodul abgeleitet wurde, dem Fahrer bereitzustellen, und ein Bereitstellungszeitpunktänderungsmodul, um einen Bereitstellungszeitpunkt der assistierenden Informationen gemäß einem Umfang der assistierenden Informationen zu ändern.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft eine Fahrassistenzvorrichtung, ein Verfahren des Assistierens und ein Computerprogrammprodukt.
  • ALLGEMEINER STAND DER TECHNIK
  • Ein Fahrer eines Fahrzeugs erkennt typischerweise verschiedene Situationen in einer anstehenden Fahrszene (z. B. Geradeausfahren, Durchfahren einer Kurve, Rechtsabbiegen, Linksabbiegen, eine Kreuzung usw.) gemäß einer Änderung in der Straßensituation, beurteilt basierend auf dem Erkennen, welche Art von Fahrbetrieb ausgeführt werden sollte, und führt einen Fahrbetrieb basierend auf dem Beurteilungsergebnis aus. Das Erkennen, das Beurteilen und der Fahrbetrieb werden während der Fahrt häufig ausgeführt.
  • Das Beurteilen basierend auf der Erkennungshandlung und dem Erkennen für die anstehende Fahrszene verwendet eine maßgeblich große Menge von Fahrressourcen des Fahrers (d. h. Vergrößern einer Fahrbelastung). JP2013-250633A offenbart eine Vorrichtung, die, wenn eine Fahrszene geändert wird, Informationen gemäß einer Fahrszene nach der Änderung bereitstellt.
  • Es kann wünschenswert sein, dem Fahrer assistierende Informationen für die anstehende Fahrszene im Vorlauf bereitzustellen, wenn die Menge an Fahrressourcen, die zu einem Zeitpunkt der Erkennungshandlung verwendet werden, vermindert wird. Wenn jedoch der Bereitstellungszeitpunkt der assistierenden Informationen für die anstehende Fahrszene nicht geeignet ist, kann es ein Problem verursachen, zum Beispiel, dass der Fahrer die assistierenden Informationen nicht vollständig verstehen kann, und daher ist eine Art von Maßnahmen erwünscht.
  • ZUSAMMENFASSUNG DER OFFENBARUNG
  • Die vorliegende Offenbarung wird im Hinblick auf die obigen Situationen gemacht, und eine Aufgabe davon ist es, eine Fahrassistenzvorrichtung bereitzustellen, die in der Lage ist, assistierende Informationen für ein nachfolgendes Fahrtsegment zu einem geeigneten Zeitpunkt bereitzustellen.
  • Gemäß einem Gesichtspunkt der vorliegenden Offenbarung wird eine Fahrassistenzvorrichtung bereitgestellt. Die Fahrassistenzvorrichtung umfasst einen Prozessor. Der Prozessor ist ausgestaltet abzuleiten, dass ein Zeitpunkt einer Sichtlinienbewegung und/oder eines Blinzelns, die von einer Kamera detektiert werden, ein Zeitpunkt einer Erkennungshandlung eines Fahrers für ein nachfolgendes Fahrtsegment aus einer Vielzahl von Fahrtsegmenten ist, die eine Fahrtstrecke eines Fahrzeugs bilden. Der Prozessor ist überdies ausgestaltet, dem Fahrer assistierende Informationen für das nachfolgende Fahrtsegment vor dem abgeleiteten Zeitpunkt der Erkennungshandlung bereitzustellen. Der Prozessor ist überdies ausgestaltet, einen Bereitstellungszeitpunkt der assistierenden Informationen gemäß eines Umfangs der assistierenden Informationen zu ändern.
  • Insbesondere ist der Prozessor ausgestaltet abzuleiten, dass ein Zeitpunkt einer Sichtlinienbewegung und/oder eines Blinzelns, die von der Kamera nahe einem vorhergesagten Zeitpunkt detektiert werden, der Zeitpunkt der Erkennungshandlung ist.
  • Überdies ist der Prozessor insbesondere ausgestaltet, basierend auf Routeninformationen den Zeitpunkt vorherzusagen, an dem der Fahrer die Erkennungshandlung ausführt.
  • Überdies ist der Prozessor insbesondere ausgestaltet, den Bereitstellungszeitpunkt gemäß einer Vergrößerung des Umfangs der assistierenden Informationen auf früher zu verschieben.
  • Überdies ist der Prozessor insbesondere ausgestaltet, eine Verschiebung des Bereitstellungszeitpunkts auf früher zu begrenzen, indem eine Vergrößerung des Umfangs der assistierenden Informationen, die bereitgestellt werden sollen, ausgesetzt wird.
  • Überdies umfassen die assistierenden Informationen insbesondere Navigationsinformationen für das nachfolgende Fahrtsegment, einen Gefahrengrad in einer Verkehrsumgebung und/oder andere Informationen. Überdies ist der Prozessor insbesondere ausgestaltet, das Bereitstellen der anderen Informationen vor den Navigationsinformationen für das nachfolgende Fahrtsegment und/oder den Gefahrengrad in der Verkehrsumgebung auszusetzen.
  • Überdies ist der Prozessor insbesondere ausgestaltet, den abgeleiteten Zeitpunkt der Erkennungshandlung zu speichern.
  • Überdies ist der Prozessor insbesondere ausgestaltet, dem Fahrer assistierende Informationen für das nachfolgende Fahrtsegment vor dem gespeicherten Zeitpunkt der Erkennungshandlung bereitzustellen.
  • Überdies wird insbesondere ein Verfahren bereitgestellt, um einem Fahrer zu assistieren. Das Verfahren umfasst: Ableiten, dass ein Zeitpunkt einer Sichtlinienbewegung und/oder eines Blinzelns, die von einer Kamera detektiert werden, ein Zeitpunkt einer Erkennungshandlung des Fahrers für ein nachfolgendes Fahrtsegment aus einer Vielzahl von Fahrtsegmenten ist, die eine Fahrtstrecke eines Fahrzeugs bilden; Bereitstellen von assistierenden Informationen an den Fahrer für das nachfolgende Fahrtsegment vor dem abgeleiteten Zeitpunkt der Erkennungshandlung; und Ändern eines Bereitstellungszeitpunkts der assistierenden Informationen gemäß einem Umfang der assistierenden Informationen.
  • Überdies wird insbesondere ein Computerprogrammprodukt bereitgestellt. Das Computerprogrammprodukt umfasst computerlesbare Anweisungen, die, wenn sie auf einem geeigneten System geladen und ausgeführt werden, das obige Verfahren ausführen.
  • Überdies umfassen die computerlesbaren Anweisungen insbesondere: ein Ableitungsmodul, das ausgestaltet ist, abzuleiten, dass der Zeitpunkt der Sichtlinienbewegung und/oder des Blinzelns, die von der Kamera detektiert werden, der Zeitpunkt einer Erkennungshandlung des Fahrers für das nachfolgende Fahrtsegment aus der Vielzahl von Fahrtsegmenten ist; ein Informationsbereitstellungsmodul, das ausgestaltet ist, die assistierenden Informationen für das nachfolgende Fahrtsegment vor dem abgeleiteten Zeitpunkt der Erkennungshandlung, der von dem Ableitungsmodul abgeleitet wurde, an den Fahrer bereitzustellen; und ein Bereitstellungszeitpunktänderungsmodul, das ausgestaltet ist, den Bereitstellungszeitpunkt der assistierenden Informationen gemäß dem Umfang der assistierenden Informationen zu ändern.
  • Gemäß einem Gesichtspunkt der vorliegenden Offenbarung wird eine Fahrassistenzvorrichtung bereitgestellt, die Folgendes umfasst: einen Prozessor, der ausgestaltet ist, ein Ableitungsmodul auszuführen, um abzuleiten, dass ein Zeitpunkt einer Sichtlinienbewegung und/oder eines Blinzelns, die nahe einem vorhergesagten Zeitpunkt von einer Kamera detektiert werden, ein Zeitpunkt einer Erkennungshandlung eines Fahrers für ein nachfolgendes Fahrtsegment aus einer Vielzahl von Fahrtsegmenten ist, die eine Fahrtstrecke eines Fahrzeugs bilden, ein Informationsbereitstellungsmodul, um assistierende Informationen für das nachfolgende Fahrtsegment vor dem Zeitpunkt der Erkennungshandlung, der von dem Ableitungsmodul abgeleitet wurde, an den Fahrer bereitzustellen, und ein Bereitstellungszeitpunktänderungsmodul, um einen Bereitstellungszeitpunkt der assistierenden Informationen gemäß einem Umfang der assistierenden Informationen zu ändern.
  • Gemäß dieser Ausgestaltung kann eine Belastung des Fahrers für das Erkennen des nachfolgenden Fahrtsegments vermindert werden, indem die assistierenden Informationen für das nachfolgende Fahrtsegment im Vorlauf bereitgestellt werden, bevor in das nachfolgende Fahrtsegment eingefahren wird. Überdies können die assistierenden Informationen an den Fahrer zu einem geeigneten Zeitpunkt bereitgestellt werden, wodurch die Situation, in der der Bereitstellungszeitpunkt der assistierenden Informationen zu spät oder zu früh ist, vermieden wird, indem der Bereitstellungszeitpunkt der assistierenden Informationen gemäß dem Umfang der assistierenden Informationen geändert wird. Die Formulierung „ein Zeitpunkt nahe einem vorhergesagten Zeitpunkt“ in der vorliegenden Offenbarung kann als bezogen auf einen Zeitpunkt verstanden werden, der in einen vorbestimmten oder vorbestimmbaren Zeitbereich vor und/oder nach dem vorhergesagten Zeitpunkt fällt. Der vorhergesagte Zeitpunkt kann in dem vorbestimmten oder vorbestimmbaren Zeitbereich umfasst sein oder nicht.
  • Das Informationsbereitstellungsmodul kann den Bereitstellungszeitpunkt gemäß einer Vergrößerung des Umfangs der assistierenden Informationen auf früher verschieben.
  • In diesem Fall kann der Fahrer die assistierenden Informationen, die früher bereitgestellt werden, verstehen, sogar wenn der Umfang der Informationen groß ist, was typischerweise Zeit zum Verstehen erfordert.
  • Das Informationsbereitstellungsmodul kann eine Verschiebung des Bereitstellungszeitpunkts auf früher begrenzen, indem eine Vergrößerung des Umfangs der assistierenden Informationen, die bereitgestellt werden sollen, ausgesetzt wird.
  • Dies ist vorteilhaft beim Vermeiden einer Situation, in der der Fahrer sich davon belästigt fühlt, dass die assistierenden Informationen zu früh bereitgestellt werden.
  • Die assistierenden Informationen können Navigationsinformationen für das nachfolgende Fahrtsegment, einen Gefahrengrad in einer Verkehrsumgebung und andere Informationen umfassen. Das Informationsbereitstellungsmodul kann das Bereitstellen von anderen Informationen vor den Navigationsinformationen für das nachfolgende Fahrtsegment und dem Gefahrengrad in der Verkehrsumgebung aussetzen.
  • In diesem Fall können die assistierenden Informationen, in denen Routeninformationen und sicherheitsbezogene Informationen priorisiert werden, bereitgestellt werden.
  • Figurenliste
    • 1 ist eine Ansicht, die ein vereinfachtes Beispiel einer Situation darstellt, in der ein Fahrtsegment geändert wird.
    • 2 ist ein Schaubild, das eine Beziehung zwischen einem Handlungsmuster, das ein Fahrer für ein nachfolgendes Fahrtsegment ausführt, und einer Menge an verwendeten Fahrressourcen und einem Bereitstellungszeitpunkt assistierender Informationen darstellt.
    • 3 ist ein Zeitdiagramm, das eine Situation darstellt, bei der ein Zeitpunkt einer Erkennungshandlung korrigiert wird, der als eine Referenz verwendet wird.
    • 4 ist eine Ansicht, die ein Beispiel einer Karte nahe einem Fahrzeug darstellt, die auf einem Navigationsbildschirm angezeigt wird.
    • 5 ist eine Ansicht, die ein Beispiel darstellt, in dem die in 4 dargestellte Karte im Detail für das nachfolgende Fahrtsegment angezeigt wird.
    • 6 ist eine Tabelle, die Beispiele einer Vielzahl von Typen von assistierenden Informationen, die bereitzustellen sind, und Vorlaufzeiten der assistierenden Informationen darstellt.
    • 7 ist eine Tabelle, die Beispiele der assistierenden Informationen, die vermindert sind, aus der Vielzahl von Typen von assistierenden Informationen, die in 6 dargestellt sind, darstellt.
    • 8 ist eine Tabelle, die Beispiele der assistierenden Informationen, die mittels Bildschirmanzeige bereitgestellt werden, und die assistierenden Informationen, die akustisch bereitgestellt werden, darstellt.
    • 9 ist eine Ansicht, die ein Beispiel eines Steuer- bzw. Regelsystems der vorliegenden Offenbarung darstellt.
    • 10 ist eine Ansicht, die ein Beispiel eines Anbringens einer Augenkamera usw. an dem Fahrzeug darstellt.
    • 11 ist ein Flussdiagramm, das ein Beispiel einer Steuerung bzw. Regelung der vorliegenden Offenbarung darstellt.
    • 12 ist ein Flussdiagramm, das ein Beispiel der Steuerung bzw. Regelung der vorliegenden Offenbarung darstellt.
    • 13 ist ein Flussdiagramm, das ein Beispiel einer Steuerung bzw. Regelung der vorliegenden Offenbarung darstellt.
  • AUSFÜHRLICHE BESCHREIBUNG DER OFFENBARUNG
  • Zuerst wird ein Beispiel einer Situation, in der eine Fahrszene (Fahrtsegment) geändert wird, unter Verwendung von 1 beschrieben. In dieser Figur geben Quadrate den Ausgangsort als einen Startpunkt und einen Zielort an. Ein Fahrzeug (nachfolgend als „das Fahrzeug“ bezeichnet, um es von anderen Fahrzeugen zu unterscheiden) soll entlang einer Strecke fahren, die insbesondere von einer Navigationsvorrichtung von dem Ausgangsort zu dem Zielort festgelegt wird. Auf der Fahrtstrecke gibt es sieben Arten von Fahrtsegmenten, O1 bis O7. Hier entspricht „O1“ der kreisförmig umrandeten Zahl „1“ und O2, O3 usw. entsprechen den ähnlich umrandeten Zahlen). Bedeutungen der Fahrtsegmente O1 bis O7 sind kollektiv in einem unteren Teil von 1 als eine Tabelle angegeben.
  • 2 stellt eine Beziehung zwischen einer Erkennungshandlung, die ein Fahrer in Vorbereitung auf das nachfolgende Fahrtsegment ausführt, und einer Menge an Fahrressourcen, die zu dem Zeitpunkt der Fahrtsegmentänderung verwendet werden, dar, wenn die Fahrszene von dem aktuellen Fahrtsegment auf das nachfolgende Fahrtsegment geändert wird. Es ist zu beachten, dass die Fahrbelastung des Fahrers sich vergrößert, wenn sich die Menge an verwendeten Fahrressourcen vergrößert.
  • Der Fahrer führt zuerst eine Erkennungshandlung vor dem nachfolgenden Fahrtsegment aus. Diese Erkennungshandlung ist insbesondere eine Handlung, um eine Reihe von Informationen zu erkennen, beispielsweise Verkehr in dem nachfolgenden Fahrtsegment, eine Straßenstruktur (z. B. eine Straßenbreite, Komplexität einer Straßenkreuzung oder -einmündung), Wetter, Verkehrsteilnehmer (z. B. Fußgänger, Fahrräder), ein Fahrtzustand (z. B. ein Abstand zwischen Fahrzeugen von dem Fahrzeug zu einem anderen Fahrzeug) und eine Fahrzeugleistung (z. B. Bremsleistung).
  • Der Fahrer beurteilt basierend insbesondere auf dem Erkennen, wie er/sie das Fahrzeug betreiben wird, und führt dann den beurteilten Fahrbetrieb aus. Daher kann, wenn der Fahrer in der Lage ist, prompt die Situation in dem nachfolgenden Fahrtsegment zu erkennen, seine/ihre Belastung für das Erkennen maßgeblich vermindert werden, und dadurch kann der Fahrer den Fahrbetrieb mit zumutbarer Zeit ausführen. Insbesondere wird es, da die Menge an Fahrressourcen, die verwendet werden, sich in einem Bereich vergrößert, in dem das Erkennen und das Beurteilen gemacht werden, sehr wünschenswert werden, wenn dem Fahrer die assistierenden Informationen für das nachfolgende Fahrtsegment zugeführt oder bereitgestellt werden, bevor er/sie die Erkennungshandlung ausführt.
  • Der Bereitstellungszeitpunkt der assistierenden Informationen für das nachfolgende Fahrtsegment ist in dieser Ausführungsform wie folgt. Das heißt, in 2 ist ein grundlegender Bereitstellungszeitpunkt insbesondere ein Zeitpunkt vor einer gegebenen Zeit (bei dieser Ausführungsform etwa 1,5 Sekunden vorher) des Zeitpunkts (Startzeitpunkt) der Erkennungshandlung des Fahrers für das nachfolgende Fahrtsegment. Zusätzlich können die assistierenden Informationen gemäß dem Inhalt, Umfang und Bereitstellungsverfahren der bereitgestellten assistierenden Informationen früher als etwa 1,5 Sekunden vor dem, was der grundlegende Bereitstellungszeitpunkt ist, bereitgestellt werden. Bei dieser Ausführungsform ist das Bereitstellen der assistierenden Informationen jedoch nicht ausgestaltet, früher als eine gegebene Zeit (bei dieser Ausführungsform etwa 2 Sekunden) des Zeitpunkts der Erkennungshandlung ausgeführt zu werden, sodass der Fahrer die Belästigung vermeiden kann, die verursacht wird, indem ihm die assistierenden Informationen zu früh bereitgestellt werden.
  • 3 stellt einen grundlegenden Aufbau des Zeitpunkts, an dem die Erkennungshandlung ausgeführt wird, und dessen Korrektur, wenn das Fahrtsegment, wie in 1 dargestellt, geändert wird, dar. Das heißt, der Zeitpunkt, an dem der Fahrer die Erkennungshandlung ausführen wird, wird automatisch vorher basierend auf Routeninformationen vorhergesagt, und die automatisch vorhergesagten Zeitpunkte werden mittels weißer Sterne in dieser Figur angegeben.
  • Wenn der Fahrer tatsächlich die Erkennungshandlung ausführt, bewegt er/sie typischerweise seine/ihre Sichtlinie und/oder blinzelt. Daher kann abgeleitet werden, dass der Zeitpunkt der Sichtlinienbewegung und/oder des Blinzelns ein Zeitpunkt der Erkennungshandlung für das nachfolgende Fahrtsegment ist. Insbesondere kann abgeleitet werden, dass der Zeitpunkt der Sichtlinienbewegung oder des Blinzelns, die nahe dem automatisch vorhergesagten Zeitpunkt detektiert werden, der Zeitpunkt der Erkennungshandlung für das nachfolgende Fahrtsegment ist. Der abgeleitete Zeitpunkt der Erkennungshandlung kann gespeichert werden. Insbesondere kann der abgeleitete Zeitpunkt der Erkennungshandlung vorher als Daten zusammen mit Vergleichsinformationen, die eine Beziehung zwischen einem bestimmten Fahrtsegment und einem nachfolgenden Fahrtsegment anzeigen, gespeichert werden. Somit kann, wie für eine zuvor zurückgelegte Fahrtstrecke, der Zeitpunkt der Erkennungshandlung, die der Fahrer ausführt, mit ausreichender Genauigkeit abgeleitet werden. Insbesondere wird in 3, obgleich die Sichtlinienbewegung und/oder das Blinzeln in dem Fahrtsegment O2 detektiert wird, da es ein Zeitpunkt ist, der größtenteils von dem Zeitpunkt der Erkennungshandlung für das nachfolgende Fahrtsegment getrennt ist, der detektierte Zeitpunkt nicht als der Zeitpunkt der Erkennungshandlung (ein Zustand, in dem der Fahrer das Fahrtsegment O3 zusätzlich zu dem Fahrtsegment O2 mittels der Erkennungshandlung für das Fahrtsegment O2 erkennt) bestimmt.
  • Die für das nachfolgende Fahrtsegment bereitgestellten assistierenden Informationen umfassen mindestens die detaillierte Anzeige der Karte in dem nachfolgenden Fahrtsegment (an einem ersten Zeitpunkt des Fahrtsegments). Das heißt, 4 stellt Karteninformationen dar, die auf einem Anzeigebildschirm der Navigationsvorrichtung in dem aktuellen Fahrtsegment angezeigt werden. Die Karteninformationen als die assistierenden Informationen für das nachfolgende Fahrtsegment werden aus dem Zustand von 4 (detaillierte Anzeige von 5) erweitert.
  • Die assistierenden Informationen, die für das nachfolgende Fahrtsegment bereitgestellt werden, können Informationen sein, wie sie in 6 dargestellt sind, die nicht die Karteninformationen sind. Das heißt, erste assistierende Informationen sind insbesondere Ladengeschäftsinformationen um die Strecke herum (bei dieser Ausführungsform sind Ladengeschäfte auf bereitzustellende Typen begrenzt, die vorher von dem Fahrer ausgewählt werden) und in diesem Fall werden die Ladengeschäftsinformationen 0,1 Sekunden früher als der grundlegende Bereitstellungszeitpunkt bereitgestellt.
  • Zweite assistierende Informationen sind insbesondere eine Geschwindigkeitsbegrenzung, die für das nachfolgende Fahrtsegment festgelegt ist, und werden in diesem Fall 0,1 Sekunden früher als der grundlegende Bereitstellungszeitpunkt bereitgestellt. Dritte assistierende Informationen sind insbesondere Informationen zu Abschnitten, in denen häufig Unfälle auftreten, für das nachfolgende Fahrtsegment und werden in diesem Fall 0,1 Sekunden früher als der grundlegende Bereitstellungszeitpunkt bereitgestellt. Vierte assistierende Informationen sind insbesondere Informationen bezüglich (dem Vorhandensein von) auf einem Seitenstreifen geparkten Fahrzeugen in dem nachfolgenden Fahrtsegment, und sie werden in diesem Fall 0,2 Sekunden früher als der grundlegende Bereitstellungszeitpunkt bereitgestellt. Fünfte assistierende Informationen sind insbesondere Informationen bezüglich Fußgängern in dem nachfolgenden Fahrtsegment (insbesondere Fußgänger, die sich auf die Straße in dem nachfolgenden Fahrtsegment zu bewegen), und sie werden in diesem Fall 0,2 Sekunden früher als der grundlegende Bereitstellungszeitpunkt bereitgestellt.
  • Wenn eine Vielzahl von Typen assistierender Informationen aus den ersten bis fünften assistierenden Informationen bereitgestellt werden, ist ein Zeitbereich, der insbesondere erhalten wird, indem die jeweiligen Vorlaufzeiten aufsummiert werden, die Gesamtvorlaufzeit vor dem grundlegenden Bereitstellungszeitpunkt. Beispielsweise werden, wenn die Geschwindigkeitsbegrenzungsinformationen und die Fußgängerinformationen bereitgestellt werden, 0,3 Sekunden, die erhalten werden, indem 0,1 Sekunden und 0,2 Sekunden addiert werden, zu 1,5 Sekunden addiert, und somit werden die assistierenden Informationen schließlich 1,8 Sekunden früher bereitgestellt (alle assistierenden Informationen werden 1,8 Sekunden früher bereitgestellt).
  • Wenn sich der Umfang an assistierenden Informationen, die in 6 dargestellt sind, vergrößert, kann „die Gesamtzeitsumme der Vorlaufzeit des grundlegenden Bereitstellungszeitpunkts zuzüglich anderer Vorlaufzeiten“ 2 Sekunden überschreiten. In diesem Fall werden die assistierenden Informationen in einem Zustand bereitgestellt, in dem die assistierenden Informationen, die insbesondere solche, die nicht die Routeninformationen (Navigationsinformationen, z. B. die Kartenanzeige von 5) und Gefahren in einer Verkehrsumgebung (die Informationen zu Abschnitten, in denen Unfälle häufig auftreten, die Parkinformationen und die Fußgängerinformationen auf dem Seitenstreifen von 6) sind, weggelassen werden. Das heißt, mindestens eins, die Ladengeschäftsinformationen um die Strecke herum und/oder die Geschwindigkeitsbegrenzungsinformationen von 6, wird weggelassen. In 7 wird dieser Zustand dargestellt, in dem die Ladengeschäftsinformationen um die Strecke herum und die Geschwindigkeitsbegrenzungsinformationen weggelassen werden.
  • 8 stellt einen beispielhaften Aufbau dar, bei dem die assistierenden Informationen, die mittels Bildschirmanzeige und akustisch bereitgestellt werden, voneinander abgegrenzt sind. Die Arten von assistierenden Informationen sind die gleichen wie bei dem Fall von 6, bei dem die Ladengeschäftsinformationen um die Strecke herum und die Geschwindigkeitsbegrenzungsinformationen mittels Bildschirmanzeige bereitgestellt werden, und drei andere Arten von assistierenden Informationen akustisch bereitgestellt werden. Da ein Bereitstellen der assistierenden Informationen mittels akustischen Signals dem Fahrer eine intensivere Benachrichtigung als im Vergleich zu einem Bereitstellen mittels Bildschirmanzeige gibt, kann es wünschenswert sein, die assistierenden Informationen, die die Gefahr in einer Verkehrsumgebung anzeigen, akustisch bereitzustellen.
  • Es ist zu beachten, dass in dem Fall einer Bildschirmanzeige ein beliebiger Typ von Anzeigebildschirm übernommen werden kann. Beispielsweise kann ein Anzeigebildschirm für die Navigationsvorrichtung verwendet werden (die assistierenden Informationen werden zusammen mit den Karteninformationen angezeigt), es kann ein Anzeigebildschirm verwendet werden, der getrennt von dem Anzeigebildschirm für die Navigationsvorrichtung bereitgestellt ist, oder es kann ein vorderes Windschutzscheibenglas als ein Anzeigebildschirm (Blickfeldanzeige) verwendet werden, das sich vor dem Fahrer befindet.
  • 9 stellt ein Beispiel eines Steuer- bzw. Regelsystems der vorliegenden Offenbarung dar. In dieser Figur ist U eine Steuerung bzw. Regelung, die aus einem Mikrocomputer besteht, der einen Prozessor U1 und einen nicht flüchtigen Speicher U2 umfasst. Die Steuerung bzw. Regelung U ist ein Beispiel einer „Fahrassistenzvorrichtung“. Die Steuerung U nimmt Signaleingaben von einer Navigationsvorrichtung S1 (die Kartendaten, Routeninformationen und Positionsinformationen des GPS), einer Kommunikationsvorrichtung S2, die Kommunikationen zwischen Fahrzeugen und Straße-zu-Fahrzeug-Kommunikationen ausführt (Zugriff auf Informationen der Fußgänger und der auf dem Seitenstreifen geparkten Fahrzeuge, die in dem nachfolgenden Fahrtsegment vorhanden sind), und einer Augenkamera S3, die die Bewegung der Augen eines Fahrers detektiert, an. Es ist zu beachten, dass das Detektieren der Sichtlinie und/oder des Blinzelns des Fahrers insbesondere basierend auf einem oder beiden Augen des Fahrers detektiert werden kann. Überdies steuert bzw. regelt die Steuerung bzw. Regelung U einen Anzeigebildschirm S11 und einen Lautsprecher S12, um die assistierenden Informationen bereitzustellen. Die Steuerung bzw. Regelung U umfasst insbesondere ein Ableitungsmodul U3, ein Informationsbereitstellungsmodul U4 und ein Bereitstellungszeitpunktänderungsmodul U5, die in dem Speicher U2 als Software gespeichert sind und von dem Prozessor U1 ausgeführt werden, um ihre jeweiligen Funktionen auszuführen.
  • 10 stellt ein beispielhaftes Layout der Augenkamera S3 usw., die in 9 dargestellt sind, zu dem Fahrzeug dar. In dieser Abbildung ist P der Fahrer, und die Augenkamera S3, die auf die Position der Augen des Fahrers gerichtet ist, ist an einer Stelle oben vor dem Fahrer (z. B. nahe einem Rückspiegel) angeordnet. Überdies wird der Anzeigebildschirm für die Navigationsvorrichtung grundsätzlich als der Anzeigebildschirm S11 verwendet. In 10 ist ein Projektor 11 einer Blickfeldanzeige insbesondere auf einer oberen Oberfläche eines Armaturenbretts 10 angeordnet, und die Position der assistierenden Informationen, die auf einem vorderen Windschutzscheibenglas 12 von dem Projektor 11 angezeigt (projiziert) werden, ist mittels α dargestellt. Es ist zu beachten, dass es möglich sein kann, mittels Ändern der Höhe der angezeigten Position α die Sichtlinie des Fahrers P zu führen (z. B. wird die Sichtlinie des Fahrers P zu einem weiter entfernten Ort geführt, wenn die angezeigte Position α höher wird).
  • Als Nächstes wird ein Beispiel einer Steuerung bzw. Regelung zum Bereitstellen der assistierenden Informationen von der Steuerung bzw. Regelung U, insbesondere von dem Prozessor U1, beschrieben. Es ist zu beachten, dass bei dieser beispielhaften Steuerung bzw. Regelung, insbesondere von dem Prozessor U1, der Zeitpunkt der Erkennungshandlung gemäß der Strecke während der Fahrt automatisch festgelegt wird, der automatisch eingestellte Zeitpunkt der Erkennungshandlung basierend auf der Sichtlinienbewegung und/oder dem Blinzeln des Auges des Fahrers korrigiert wird und der korrigierte Zeitpunkt der Erkennungshandlung in (dem Speicher U2 von) der Steuerung bzw. Regelung U gespeichert wird. Überdies gibt Q einen Schritt in der nachfolgenden Beschreibung an.
  • Zuerst, bei Q1, liest die Steuerung bzw. Regelung U, insbesondere der Prozessor U1, die Karteninformationen und die Routeninformationen (d. h. die Strecke von dem Ausgangsort zu dem Zielort, der in 1 dargestellt ist). Bei Q2 bestimmt die Steuerung bzw. Regelung U, insbesondere der Prozessor U1, ob eine Fahrthistorie vorhanden ist. Wenn sich bei der Bestimmung von Q2 JA ergibt, d. h., wenn das Fahrzeug die gleiche Strecke in der Vergangenheit befahren hat, geht die Steuerung bzw. Regelung U, insbesondere der Prozessor U1, bei Q3 zu Q11 von 12 über, nachdem sie den Zeitpunkt der Erkennungshandlung für das nachfolgende Fahrtsegment gelesen hat, das bei der Fahrt in der Vergangenheit gespeichert wurde.
  • Wenn sich bei der Bestimmung von Q2 NEIN ergibt, d. h., wenn das Fahrzeug diese Strecke zum ersten Mal befährt, legt die Steuerung bzw. Regelung U, insbesondere der Prozessor U1, automatisch den Zeitpunkt der Erkennungshandlung basierend auf den Routeninformationen bei Q4 fest. Dann, bei Q5, startet die Steuerung bzw. Regelung U, insbesondere der Prozessor U1, eine Verarbeitung, um den Zeitpunkt der Erkennungshandlung neu zu erfassen und zu speichern, wie später beschrieben werden wird. Danach geht die Steuerung bzw. Regelung U, insbesondere der Prozessor U1, zu Q11 von 12 über.
  • Nach Q3 oder Q5 geht die Steuerung bzw. Regelung U, insbesondere der Prozessor U1, zu Q11 von 12 über. Bei Q11 bestimmt die Steuerung bzw. Regelung U, insbesondere der Prozessor U1, ob sie sich dem Zeitpunkt der Erkennungshandlung genähert hat. Wenn sich bei der Bestimmung von Q11 NEIN ergibt, wiederholt die Steuerung bzw. Regelung U, insbesondere der Prozessor U1, die Verarbeitung von Q11. Wenn sich bei der Bestimmung von Q11 JA ergibt, liest (detektiert) die Steuerung bzw. Regelung U, insbesondere der Prozessor U1, bei Q12 die bereitzustellenden assistierenden Informationen. Dann berechnet die Steuerung bzw. Regelung U, insbesondere der Prozessor U1, den Bereitstellungszeitpunkt der assistierenden Informationen bei Q13.
  • Nach Q13 bestimmt die Steuerung bzw. Regelung U, insbesondere der Prozessor U1, bei Q14, ob der bei Q13 berechnete Bereitstellungszeitpunkt etwa 2 Sekunden oder mehr vor dem Zeitpunkt der Erkennungshandlung für das nachfolgende Fahrtsegment ist. Insbesondere kann bestimmt werden, ob der Bereitstellungszeitpunkt, der bei Q13 berechnet wurde, etwa 2 Sekunden oder mehr vor dem gespeicherten Zeitpunkt der Erkennungshandlung ist. Wenn sich bei der Bestimmung von Q14 NEIN ergibt, stellt die Steuerung bzw. Regelung U, insbesondere der Prozessor U1, bei Q16 die assistierenden Informationen bereit, weil der Bereitstellungszeitpunkt nicht zu früh ist. Natürlich ist dieser Bereitstellungszeitpunkt der assistierenden Informationen bei Q16 der Zeitpunkt, der bei Q13 festgelegt wurde.
  • Andererseits löscht die Steuerung bzw. Regelung U, insbesondere der Prozessor U1, die Informationen, die nicht die sicherheitsbezogenen Informationen sind, aus den assistierenden Informationen, für die bei Q15 bestimmt wurde, dass sie bereitgestellt werden, wenn sich bei der Bestimmung von Q14 JA ergibt, und verarbeitet, sodass der Zeitpunkt vor dem Zeitpunkt der Erkennungshandlung innerhalb von 2 Sekunden wie oben beschrieben ist. Dann geht die Steuerung bzw. Regelung U, insbesondere der Prozessor U1, zu Q16 über.
  • Nach Q16 bestimmt die Steuerung bzw. Regelung U, insbesondere der Prozessor U1, ob das Fahrzeug bei Q17 nahe dem Zielort ist. Wenn sich bei der Bestimmung von Q17 NEIN ergibt, kehrt die Steuerung bzw. Regelung U, insbesondere der Prozessor U1, zu Q1 zurück. Wenn sich bei der Bestimmung von Q17 JA ergibt, beendet die Steuerung bzw. Regelung U, insbesondere der Prozessor U1, die Steuerung bzw. Regelung.
  • 13 stellt eine beispielhafte Verarbeitung von Q5 von 11 dar. Das heißt, bei Q21 wird der Zeitpunkt der Erkennungshandlung des Fahrers basierend insbesondere auf der Sichtlinienbewegung und/oder dem Blinzeln des Fahrers nahe dem Zeitpunkt der Erkennungshandlung, der automatisch gemäß der Strecke festgelegt wurde, korrigiert. Dann wird bei Q22 der korrigierte Zeitpunkt der Erkennungshandlung in (dem Speicher U2 von) der Steuerung bzw. Regelung U gespeichert. Beim Speichern werden das aktuelle Fahrtsegment und das nachfolgende Fahrtsegment so gespeichert, dass sie miteinander in Bezug gesetzt sind. Indem das Speichern wiederholt wird, ist es möglich, den Zeitpunkt der Erkennungshandlung mit ausreichender Genauigkeit automatisch festzulegen, wenn die Straßensituation ähnlich der gespeicherten Straßensituation ist, sogar wenn das Fahrzeug eine Straße zum ersten Mal befährt.
  • Obgleich eine Ausführungsform oben beschrieben wird, ist die vorliegende Offenbarung nicht auf diese Ausführungsform begrenzt und kann innerhalb des Schutzumfangs der angehängten Ansprüche variiert werden. Beispielsweise kann das Ableiten des Zeitpunkts der Erkennungshandlung basierend auf beliebigen geeigneten Informationen ausgeführt werden, die für den Fahrbetrieb relevant sind, zum Beispiel ein Fahrbetriebszustand eines Fahrbetriebsinstruments wie einem Lenkrad, einem Bremspedal und/oder einem Gaspedal und/oder ein physiologisches Phänomen, das von dem Fahrbetrieb verursacht wird, wie einer Änderung bei der Schweißabsonderung und Herzfrequenz des Fahrers. Natürlich ist der Zweck der vorliegenden Offenbarung nicht auf diese ausdrücklich beschriebenen begrenzt, sondern kann implizit ein Bereitstellen derer umfassen, die als im Wesentlichen wünschenswert oder vorteilhaft ausgedrückt sind.
  • Die vorliegende Offenbarung ist wünschenswert, um die Belastung des Fahrers zu vermindern.
  • Bezugszeichenliste
  • U:
    Steuerung bzw. Regelung
    U1:
    Prozessor
    S1:
    Navigationsvorrichtung
    S2:
    Kommunikationsvorrichtung
    S3:
    Augenkamera
    S11:
    Anzeigebildschirm
    S12:
    Lautsprecher
    P:
    Fahrer
    10:
    Armaturenbrett
    11:
    Projektor (Blickfeldanzeige)
    α:
    Projektionsposition
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2013250633 A [0003]

Claims (10)

  1. Fahrassistenzvorrichtung (U), umfassend: einen Prozessor (U1), der ausgestaltet ist: abzuleiten, dass ein Zeitpunkt einer Sichtlinienbewegung und/oder eines Blinzelns, die von einer Kamera (S3) detektiert werden, ein Zeitpunkt einer Erkennungshandlung eines Fahrers für ein nachfolgendes Fahrtsegment aus einer Vielzahl von Fahrtsegmenten ist, die eine Fahrtstrecke eines Fahrzeugs bilden; dem Fahrer assistierende Informationen für das nachfolgende Fahrtsegment vor dem abgeleiteten Zeitpunkt der Erkennungshandlung bereitzustellen; und einen Bereitstellungszeitpunkt der assistierenden Informationen gemäß einem Umfang der assistierenden Informationen zu ändern.
  2. Fahrassistenzvorrichtung (U) nach Anspruch 1, wobei der Prozessor (U1) ausgestaltet ist abzuleiten, dass ein Zeitpunkt einer Sichtlinienbewegung und/oder eines Blinzelns, die von der Kamera (S3) nahe einem vorhergesagten Zeitpunkt detektiert werden, der Zeitpunkt der Erkennungshandlung ist.
  3. Fahrassistenzvorrichtung (U) nach Anspruch 1 oder 2, wobei der Prozessor (U1) ausgestaltet ist, basierend auf Routeninformationen den Zeitpunkt vorherzusagen, an dem der Fahrer die Erkennungshandlung ausführt.
  4. Fahrassistenzvorrichtung (U) nach einem beliebigen der vorhergehenden Ansprüche, wobei der Prozessor (U1) ausgestaltet ist, den Bereitstellungszeitpunkt gemäß einer Vergrößerung des Umfangs der assistierenden Informationen auf früher zu verschieben.
  5. Fahrassistenzvorrichtung (U) nach einem beliebigen der vorhergehenden Ansprüche, wobei der Prozessor (U1) ausgestaltet ist, eine Verschiebung des Bereitstellungszeitpunkts auf früher zu begrenzen, indem eine Vergrößerung des Umfangs der assistierenden Informationen, die bereitgestellt werden sollen, ausgesetzt wird.
  6. Fahrassistenzvorrichtung (U) nach einem beliebigen der vorhergehenden Ansprüche, wobei die assistierenden Informationen Navigationsinformationen für das nachfolgende Fahrtsegment, einen Gefahrengrad in einer Verkehrsumgebung und/oder andere Informationen umfassen, und wobei insbesondere der Prozessor (U1) ausgestaltet ist, das Bereitstellen der anderen Informationen vor den Navigationsinformationen für das nachfolgende Fahrtsegment und/oder dem Gefahrengrad in der Verkehrsumgebung auszusetzen.
  7. Fahrassistenzvorrichtung (U) nach einem beliebigen der vorhergehenden Ansprüche, wobei der Prozessor (U1) ausgestaltet ist, den abgeleiteten Zeitpunkt der Erkennungshandlung zu speichern.
  8. Fahrassistenzvorrichtung (U) nach Anspruch 7, wobei der Prozessor (U1) ausgestaltet ist, dem Fahrer assistierende Informationen für das nachfolgende Fahrtsegment vor dem gespeicherten Zeitpunkt der Erkennungshandlung bereitzustellen.
  9. Assistenzverfahren für einen Fahrer, umfassend: Ableiten, dass ein Zeitpunkt einer Sichtlinienbewegung und/oder eines Blinzelns, die von einer Kamera (S3) detektiert werden, ein Zeitpunkt einer Erkennungshandlung des Fahrers für ein nachfolgendes Fahrtsegment aus einer Vielzahl von Fahrtsegmenten ist, die eine Fahrtstrecke eines Fahrzeugs bilden; Bereitstellen von assistierenden Informationen an den Fahrer für das nachfolgende Fahrtsegment vor dem abgeleiteten Zeitpunkt der Erkennungshandlung; und Ändern eines Bereitstellungszeitpunkts der assistierenden Informationen gemäß einem Umfang der assistierenden Informationen.
  10. Computerprogrammprodukt, umfassend computerlesbare Anweisungen, die, wenn sie auf einem geeigneten System geladen und ausgeführt werden, ein Verfahren nach Anspruch 9 ausführen.
DE102018009150.4A 2017-11-24 2018-11-21 Fahrassistenzvorrichtung, verfahren des assistierens und computerprogrammprodukt Active DE102018009150B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017225580A JP6583395B2 (ja) 2017-11-24 2017-11-24 運転支援装置
JP2017-225580 2017-11-24

Publications (2)

Publication Number Publication Date
DE102018009150A1 true DE102018009150A1 (de) 2019-05-29
DE102018009150B4 DE102018009150B4 (de) 2022-02-03

Family

ID=66442527

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018009150.4A Active DE102018009150B4 (de) 2017-11-24 2018-11-21 Fahrassistenzvorrichtung, verfahren des assistierens und computerprogrammprodukt

Country Status (4)

Country Link
US (1) US10676104B2 (de)
JP (1) JP6583395B2 (de)
CN (1) CN109835248B (de)
DE (1) DE102018009150B4 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10997766B1 (en) * 2019-11-06 2021-05-04 XRSpace CO., LTD. Avatar motion generating method and head mounted display system
CN113415286B (zh) * 2021-07-14 2022-09-16 重庆金康赛力斯新能源汽车设计院有限公司 路怒检测方法和设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013250633A (ja) 2012-05-30 2013-12-12 Toppan Printing Co Ltd フィルム状静電容量型タッチパネル及びその製造方法並びに画像表示装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3677965B2 (ja) * 1997-09-17 2005-08-03 日産自動車株式会社 車両用追突警報装置
JP2009128210A (ja) 2007-11-26 2009-06-11 Sanyo Electric Co Ltd ナビゲーション装置
JP2009229149A (ja) * 2008-03-20 2009-10-08 Denso Corp ウインカ忘れ警告装置およびウインカ忘れ警告装置用のプログラム
JP5233729B2 (ja) 2009-02-18 2013-07-10 トヨタ自動車株式会社 ナビゲーション装置
JP2010282436A (ja) * 2009-06-04 2010-12-16 Toyota Central R&D Labs Inc 運転状態判断装置、及びプログラム
JP5700111B2 (ja) * 2011-02-21 2015-04-15 トヨタ自動車株式会社 走行支援装置及び方法
JP5681611B2 (ja) * 2011-11-09 2015-03-11 株式会社日立製作所 ナビゲーションシステム、ナビゲーション装置、方法及びサーバ
JP5867296B2 (ja) 2012-05-30 2016-02-24 株式会社デンソー 運転シーン認識装置
DE112014001436T5 (de) * 2013-03-15 2016-01-14 Honda Motor Co., Ltd. Koordiniertes Fahrzeug-Reaktionssystem und Verfahren für Fahrerverhalten
US9751534B2 (en) * 2013-03-15 2017-09-05 Honda Motor Co., Ltd. System and method for responding to driver state
DE102014219575A1 (de) 2013-09-30 2015-07-23 Honda Motor Co., Ltd. Verbesserte 3-Dimensionale (3-D) Navigation
JP6324262B2 (ja) * 2014-08-22 2018-05-16 三菱電機株式会社 安全運転支援システム
WO2016166791A1 (ja) 2015-04-13 2016-10-20 三菱電機株式会社 運転支援装置
JP2016203820A (ja) * 2015-04-23 2016-12-08 株式会社Jvcケンウッド 表示装置、及び表示パネルの制御方法
CN106468559B (zh) * 2015-08-20 2019-10-22 高德信息技术有限公司 一种导航语音播报方法及装置
JP2017052460A (ja) * 2015-09-11 2017-03-16 クラリオン株式会社 Hudシステム、hud装置およびhud表示情報生成方法
US9925872B1 (en) * 2016-11-14 2018-03-27 Denso International America, Inc. System for monitoring driver alertness and adapting vehicle settings thereto
JP6540663B2 (ja) * 2016-11-18 2019-07-10 トヨタ自動車株式会社 車両システム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013250633A (ja) 2012-05-30 2013-12-12 Toppan Printing Co Ltd フィルム状静電容量型タッチパネル及びその製造方法並びに画像表示装置

Also Published As

Publication number Publication date
CN109835248B (zh) 2022-04-29
JP2019096106A (ja) 2019-06-20
JP6583395B2 (ja) 2019-10-02
CN109835248A (zh) 2019-06-04
US10676104B2 (en) 2020-06-09
DE102018009150B4 (de) 2022-02-03
US20190161093A1 (en) 2019-05-30

Similar Documents

Publication Publication Date Title
DE102017114049B4 (de) Systeme zum auswählen und durchführen von routen für autonome fahrzeuge
DE112016002612B4 (de) Fahrzeugsteuervorrichtung, Fahrzeugsteuerverfahren und Fahrzeugsteuerprogramm
DE102017110283A1 (de) Steuern von funktionen und ausgaben von autonomen fahrzeugen auf der grundlage einer position und aufmerksamkeit von insassen
DE112014006584B4 (de) Fahrassistenzvorrichtung und Fahrassistenzverfahren
DE102017128381B4 (de) Fahrunterstützungsvorrichtung für ein fahrzeug
DE102017107632A1 (de) Server und Informationsbereitstellungsvorrichtung
DE112012006226B4 (de) Fahrassistenzvorrichtung
DE102019117654A1 (de) Fahrspureinhaltesteuervorrichtung
WO2019170387A1 (de) Einblendung von zusatzinformationen auf einer anzeigeeinheit
DE102016121419A1 (de) Fahrunterstützungsvorrichtung
DE102018204254A1 (de) Verfahren zur Berechnung einer Einblendung von Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
DE102017202115A1 (de) Fahrzeugeigene vorrichtung, verfahren zum steuern einer fahrzeugeigenen vorrichtung und computerlesbares speichermedium
DE112009005401T5 (de) Fahrunterstützungsvorrichtung und fahrunterstützungsverfahren
DE112015000759T5 (de) Fahrunterstützungsvorrichtung
DE112017000607T5 (de) Fahrunterstützungsvorrichtung
DE102015116280B4 (de) Fahrzeuginformation-Präsentationseinrichtung
DE102018005526A1 (de) Fahrerzustandserkennungsvorrichtung, Fahrerzustandserkennungssystem und Fahrerzustandserkennungsverfahren
DE102011121763B4 (de) Verfahren zur Darstellung einer Abstandsinformation auf einer Anzeigevorrichtung eines Fahrzeugs und Anzeigevorrichtung
DE102018002900A1 (de) Halteabsicht-Bestimmungsapparat und Halteabsicht-Bestimmungsverfahren
DE102012214829A1 (de) Verfahren und Vorrichtung zum Darstellen einer Ausweichtrajektorie zur Kollisionsvermeidung für ein Fahrzeug
DE102014204137A1 (de) Informationsterminal
DE112017000609T5 (de) Überholunterstützungsvorrichtung
WO2019166222A1 (de) Verfahren zur berechnung einer ar-einblendung von zusatzinformationen für eine anzeige auf einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens sowie kraftfahrzeug und computerprogramm
DE112017007258T5 (de) Vorrichtung zur bestimmung des konzentrationsgrades, verfahren zur bestimmung des konzentrationsgrades und programm zur bestimmung des konzentrationsgrades
DE102009007349A1 (de) Fahrzeug-Fahrzeug-Kommunikationsvorrichtung zur Kommunikation mit weiteren Fahrzeugen und Verfahren zur Kommunikation zwischen Fahrzeugen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final