DE112016005784B4 - Sehwahrnehmungsassistenzsystem und Sehwahrnehmungszielobjektdetektionssystem - Google Patents

Sehwahrnehmungsassistenzsystem und Sehwahrnehmungszielobjektdetektionssystem Download PDF

Info

Publication number
DE112016005784B4
DE112016005784B4 DE112016005784.9T DE112016005784T DE112016005784B4 DE 112016005784 B4 DE112016005784 B4 DE 112016005784B4 DE 112016005784 T DE112016005784 T DE 112016005784T DE 112016005784 B4 DE112016005784 B4 DE 112016005784B4
Authority
DE
Germany
Prior art keywords
driver
visual perception
vision
visual
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112016005784.9T
Other languages
English (en)
Other versions
DE112016005784T5 (de
Inventor
Tadashi Isa
Masatoshi Yoshida
Richard Veale
Yusaku Takeda
Toshihiro Hara
Koji Iwase
Atsuhide Kishi
Kazuo Nishikawa
Takahide Nozawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Publication of DE112016005784T5 publication Critical patent/DE112016005784T5/de
Application granted granted Critical
Publication of DE112016005784B4 publication Critical patent/DE112016005784B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • B60K35/285Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver for improving awareness by directing driver's gaze direction or eye points
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • B60R2300/308Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene by overlaying the real scene, e.g. through a head-up display on the windscreen
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Hospice & Palliative Care (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

Sehwahrnehmungsassistenzsystem, umfassend:eine Umgebungslageermittlungseinheit (1) zum Ermitteln einer Umgebungslage eines bewegten Körpers, der von einem Fahrer gefahren werden soll;eine Sehwahrnehmungszielbestimmungseinheit (24) zum Bestimmen eines Sehwahrnehmungsziels, das ein Objekt ist, zu dem der Fahrer in einer von der Umgebungslageermittlungseinheit ermittelten Umgebungslage schauen sollte;eine Sichtlinienrichtungsdetektionseinheit (2) zum Detektieren einer Sichtlinienrichtung des Fahrers;eine Sehführungseinheit (25) zum Bestimmen dessen, ob ein unbeachtetes Sehwahrnehmungsziel, zu dem eine von der Sichtlinienrichtungsdetektionseinheit detektierte Sichtlinienrichtung nicht gerichtet ist, unter den von der Sehwahrnehmungszielbestimmungseinheit bestimmten Sehwahrnehmungszielen vorhanden ist, undFühren einer Sichtlinie des Fahrers hin zu dem unbeachteten Sehwahrnehmungsziel, wenn das unbeachtete Sehwahrnehmungsziel vorhanden ist; undeine Fahrerzustandsdetektionseinheit (3) zum Detektieren des Fahrerzustandes, wobeidie Sehwahrnehmungszielbestimmungseinheit (24) das Sehwahrnehmungsziel auf Grundlage von drei vorab zurechtgelegten Sehwahrnehmungsmodellen bestimmt, unddie drei Sehwahrnehmungsmodelle beinhalten: ein Salienzmodell (21) zum Bestimmen dessen, dass ein instantan optisch wahrgenommenes Objekt ein Sehwahrnehmungsziel ist, ein Überraschungsmodell (22) zum Bestimmen dessen, dass ein sich anomal verhaltendes Objekt ein Sehwahrnehmungsziel ist, und ein Norm- bzw. Referenzmodell (23) zum Bestimmen dessen, dass ein durch einen Sehvorgang eines Fahrers, der als Norm bzw. Referenz dient, optisch wahrgenommenes Objekt ein Sehwahrnehmungsziel ist,die Sehführungseinheit einen Grad der Intensität der Sehführung in Abhängigkeit von einem von der Fahrerzustandsdetektionseinheit zu detektierenden Fahrerzustand ändert,die Fahrerzustandsdetektionseinheit (3) wenigstens einen Zustand, in dem die Fahrbeanspruchung groß ist, als Fahrerzustand detektiert, unddann, wenn die Fahrerzustandsdetektionseinheit (3) detektiert, dass die Fahrbeanspruchung groß ist, die Sehführungseinheit (25) die Sehführung im Vergleich zu einem Fall, in dem die Fahrerzustandsdetektionseinheit detektiert, dass die Fahrbeanspruchung klein ist, hervorhebt, unddann, wenn mehrere unbeachtete Sehwahrnehmungsziele vorhanden sind, die Sehführungseinheit (25) die mehreren unbeachteten Sehwahrnehmungsziele in einer Anschaureihenfolge dem Rang nach ordnet und die Sehführung der mehreren unbeachteten Sehwahrnehmungsziele gemäß der Rangordnung durchführt.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft ein Sehwahrnehmungsassistenzsystem und ein Sehwahrnehmungszieldetektionssystem.
  • Hintergrund
  • Beim sicheren Fahren wird bevorzugt zu ermöglichen, dass ein Fahrer das Vorhandensein eines gefährlichen Objektes (Hindernis) in seinem Umfeld wahrnimmt, wenn er ein Kraftfahrzeug, das ein Beispiel für einen bewegten Körper ist, fährt. JP 2014 - 120 111 A offenbart eine Technik des Detektierens der Sichtlinienrichtung eines Fahrers und des Anzeigens eines Warnhinweises, wenn die Sichtlinienrichtung des Fahrers nicht hin zu einem Signal oder einem Verkehrsschild vor dem eigenen Fahrzeug gerichtet ist. JP 2012 - 234 410 A offenbart zudem eine Technik des Führens der Sichtlinie eines Fahrers hin zu einem Hindernis vor einem Fahrzeug, wenn das Hindernis von einer Kamera oder dergleichen detektiert wird. JP 2015 - 11 457 A offenbart zudem eine Technik des Bestimmens eines Objektes, das unter Objekten um ein Kraftfahrzeug herum von einem Fahrer identifiziert werden soll, und des Bestimmens dessen, ob eine Sichtlinie des Fahrers hin zu dem zu identifizierenden Objekt gerichtet ist.
  • Beim sicheren Fahren wird noch mehr bevorzugt zu ermöglichen, dass ein Fahrer ein Sehwahrnehmungsziel (Identifikationsobjekt), das optisch wahrgenommen (identifiziert) werden soll, sicher wahrnimmt. Als Voraussetzung hierfür ist jedoch notwendig, ein Sehwahrnehmungsziel, das ein Fahrer optisch wahrnehmen sollte, sicher zu erfassen. Zudem ist die Bereitstellung von Maßnahmen wichtig, die ermöglichen, dass der Fahrer ein Sehwahrnehmungsziel, das von ihm gegebenenfalls unbeachtet bleibt, wahrnimmt.
  • US 2005 / 0 209 749 A1 beschreibt eine Blickverteilung eines Fahrers, welche erfasst wird. Basierend auf der erfassten Verteilung wird ein Bild, das dem Sichtfeld eines Fahrers entspricht, aus Bildern extrahiert, die von einer Frontmonitorkamera fotografiert wurden, und akkumuliert. Eine für den Lenkvorgang notwendige erste Blickwahrscheinlichkeitsverteilung des Fahrers wird basierend auf den akkumulierten Bildern berechnet, und eine erwartete zweite Blickwahrscheinlichkeitsverteilung des Fahrers wird basierend auf visuellen Eigenschaften in den Bildern berechnet. Eine ideale Blickwahrscheinlichkeitsverteilung wird durch Aufsummieren der ersten und der zweiten Wahrscheinlichkeitsverteilung erhalten. Das Vorhandensein eines Risikos wird bestimmt, wenn die Differenz zwischen dem Blick des Fahrers und der idealen Blickwahrscheinlichkeitsverteilung einen gegebenen Schwellenwert erreicht. Eine Windschutzscheibenanzeige oder ein Lautsprecher gibt das ermittelte Ergebnis aus.
  • DE 10 2013 211 444 A1 beschreibt ein Verfahren zum Warnen eines Fahrers eines Fahrzeuges. Das Verfahren umfasst: Empfangen von Zustandsdaten von einem oder mehreren Kollisionsvermeidungssystemen, Bestimmen einer Warnbetriebsart auf Basis der Zustandsdaten, Empfangen eines Fehlerzustands, welcher einen Fehler von wenigstens einer haptischen Warneinrichtung, einer visuellen Warneinrichtung und einer akustischen Warneinrichtung anzeigt, Zurücksetzen der Warnbetriebsart zu einer Override-Betriebsart auf Basis des Fehlerzustands, und wahlweises Erzeugen eines Warnmusters wenigstens für eine haptische Warneinrichtung, eine visuelle Warneinrichtung und eine akustische Warneinrichtung, welche keinen Fehler auf Basis der Override-Betriebsart der Warnbetriebsart aufweisen.
  • DE 10 2013 209 418 A1 beschreibt ein Fahrzeugkollisionswarnsystem und -verfahren, die einen Fahrer hinsichtlich einer drohenden Kollision warnen, indem ein verbessertes Video eines bevorstehenden Straßensegments angezeigt wird, wobei das verbesserte Video ein sich auf dem Pfad befindendes Objekt umfasst, das derart hervorgehoben wird, dass es sich abhebt. Dabei empfangen das System und das Verfahren ein Video eines bevorstehenden Straßensegments von einem nach vorn gerichteten Sichtsystem, erhalten bestimmte Kollisionsdaten für ein sich auf dem Pfad befindendes Objekt und verwenden dann das Video und die Kollisionsdaten, um ein verbessertes Video für eine visuelle Anzeige bereitzustellen, die der Fahrer sieht. Das verbesserte Video kann ein sich auf dem Pfad befindendes Objekt umfassen, das gemäß den Kollisionsdaten hervorgehoben wird (z. B. hervorgehoben mit einem farbcodierten Schema, bei dem das sich auf dem Pfad befindende Objekt seine Farbe auf der Grundlage von Daten einer Zeitdauer bis zur Kollision ändert), so dass es sich von dem Rest des bevorstehenden Straßensegments abhebt.
  • Zusammenfassung der Erfindung
  • Eingedenk des Vorbeschriebenen besteht eine erste Aufgabe der vorliegenden Erfindung in der Bereitstellung eines Sehwahrnehmungsassistenzsystems, das ein sicheres Detektieren eines Sehwahrnehmungsziels, das ein Fahrer optisch wahrnehmen sollte, ermöglicht und das zudem sicher ermöglicht, dass der Fahrer das detektierte Sehwahrnehmungsziel optisch wahrnimmt.
  • Zudem besteht eine zweite Aufgabe der vorliegenden Erfindung in der Bereitstellung eines Sehwahrnehmungszieldetektionssystems, das das sichere Detektieren eines Sehwahrnehmungsziels, zu dem ein Beobachter schauen sollte, ermöglicht.
  • Ein Sehwahrnehmungsassistenzsystem entsprechend einem Aspekt der vorliegenden Erfindung beinhaltet:
    • eine Umgebungslageermittlungseinheit zum Ermitteln einer Umgebungslage eines bewegten Körpers, der von einem Fahrer gefahren werden soll;
    • eine Sehwahrnehmungszielbestimmungseinheit zum Bestimmen eines Sehwahrnehmungsziels, das ein Objekt ist, zu dem der Fahrer in einer von der Umgebungslageermittlungseinheit ermittelten Umgebungslage schauen sollte;
    • eine Sichtlinienrichtungsdetektionseinheit zum Detektieren einer Sichtlinienrichtung des Fahrers;
    • eine Sehführungseinheit zum Bestimmen dessen, ob ein unbeachtetes Sehwahrnehmungsziel, zu dem eine von der Sichtlinienrichtungsdetektionseinheit detektierte Sichtlinienrichtung nicht gerichtet ist, unter den von der Sehwahrnehmungszielbestimmungseinheit bestimmten Sehwahrnehmungszielen vorhanden ist, und Führen einer Sichtlinie des Fahrers hin zu dem unbeachteten Sehwahrnehmungsziel, wenn das unbeachtete Sehwahrnehmungsziel vorhanden ist; und eine Fahrerzustandsdetektionseinheit zum Detektieren des Fahrerzustandes,
    wobei
    • die Sehwahrnehmungszielbestimmungseinheit das Sehwahrnehmungsziel auf Grundlage von drei vorab zurechtgelegten Sehwahrnehmungsmodellen bestimmt, und
    • die drei Sehwahrnehmungsmodelle beinhalten: ein Salienzmodell zum Bestimmen dessen, dass ein instantan optisch wahrgenommenes Objekt ein Sehwahrnehmungsziel ist, ein Überraschungsmodell zum Bestimmen dessen, dass ein sich anomal verhaltendes Objekt ein Sehwahrnehmungsziel ist, und ein Referenzmodell zum Bestimmen dessen, dass ein durch einen Sehvorgang eines Fahrers, der als Referenz dient, optisch wahrgenommenes Objekt ein Sehwahrnehmungsziel ist,
    • die Sehführungseinheit einen Grad der Intensität der Sehführung in Abhängigkeit von einem von der Fahrerzustandsdetektionseinheit zu detektierenden Fahrerzustand ändert, die Fahrerzustandsdetektionseinheit wenigstens einen Zustand, in dem die Fahrbeanspruchung groß ist, als Fahrerzustand detektiert, und
    • dann, wenn die Fahrerzustandsdetektionseinheit detektiert, dass die Fahrbeanspruchung groß ist, die Sehführungseinheit die Sehführung im Vergleich zu einem Fall, in dem die Fahrerzustandsdetektionseinheit detektiert, dass die Fahrbeanspruchung klein ist, hervorhebt, und
    • dann, wenn mehrere unbeachtete Sehwahrnehmungsziele vorhanden sind, die Sehführungseinheit die mehreren unbeachteten Sehwahrnehmungsziele in einer Anschaureihenfolge dem Rang nach ordnet und die Sehführung der mehreren unbeachteten Sehwahrnehmungsziele gemäß der Rangordnung durchführt.
  • Des Weiteren beinhaltet ein Sehwahrnehmungszieldetektionssystem entsprechend der vorliegenden Offenbarung:
    • eine Umgebungslageermittlungseinheit zum Ermitteln einer Umgebungslage eines Beobachters; und
    • eine Sehwahrnehmungszielbestimmungseinheit zum Bestimmen eines Sehwahrnehmungsziels, das ein Objekt ist, zu dem der Beobachter in einer von der Umgebungslageermittlungseinheit ermittelten Umgebungslage schauen sollte, wobei die Sehwahrnehmungszielbestimmungseinheit das Sehwahrnehmungsziel auf Grundlage von drei vorab zurechtgelegten Sehwahrnehmungsmodellen bestimmt, und
    • die drei Sehwahrnehmungsmodelle beinhalten: ein Salienzmodell zum Bestimmen dessen, dass ein instantan optisch wahrgenommenes Objekt ein Sehwahrnehmungsziel ist, ein Überraschungsmodell zum Bestimmen dessen, dass ein sich anomal verhaltendes Objekt ein Sehwahrnehmungsziel ist, und ein Referenzmodell zum Bestimmen dessen, dass ein durch einen Sehvorgang eines Beobachters, der als Referenz dient, optisch wahrgenommenes Objekt ein Sehwahrnehmungsziel ist.
  • Entsprechend der vorbeschriebenen Ausgestaltung ist es möglich, die Sichtlinie des Fahrers zu dem Sehwahrnehmungsziel, das von dem Fahrer gegebenenfalls unbeachtet bleibt, zu führen. Des Weiteren ist es entsprechend der vorbeschriebenen Ausgestaltung möglich, das Sehwahrnehmungsziel, das der Beobachter optisch wahrnehmen sollte, sicher zu detektieren.
  • Figurenliste
    • 1 ist ein Blockdiagramm zur Darstellung eines Beispiels für eine Ausgestaltung eines Steuer- bzw. Regelsystems entsprechend der vorliegenden Erfindung.
    • 2 ist ein Diagramm zum Beschreiben dessen, wie ein Sehwahrnehmungsziel durch ein Salienzmodell bestimmt wird.
    • 3 ist ein Diagramm zum Beschreiben dessen, wie ein Sehwahrnehmungsziel durch ein Überraschungsmodell bestimmt wird.
    • 4 ist ein Diagramm zum Beschreiben dessen, wie ein Sehwahrnehmungsziel durch ein Referenzmodell bestimmt wird.
    • 5 ist ein Diagramm zur Darstellung einer Lage, in der ein Sehwahrnehmungsziel unbeachtet bleibt, wenn die Fahrbeanspruchung groß ist.
    • 6 ist ein Diagramm zur Darstellung einer Lage, in der ein Sehwahrnehmungsziel unbeachtet bleibt, wenn der Fahrer unkonzentriert ist.
    • 7 ist ein Flussdiagramm zur Darstellung eines Steuer- bzw. Regelbeispiels entsprechend der vorliegenden Erfindung.
  • Beschreibung von Ausführungsformen
  • 1 ist ein Blockdiagramm zur Darstellung eines Beispiels für eine Ausgestaltung eines Sehwahrnehmungsassistenzsystems entsprechend einer Ausführungsform der vorliegenden Erfindung. Das Sehwahrnehmungsassistenzsystem ist in einem Kraftfahrzeug (eigenes Fahrzeug), das ein bewegter Körper ist, montiert. Das Sehwahrnehmungsassistenzsystem beinhaltet eine Steuerung bzw. Regelung U, die von einem Mikrocomputer gebildet wird. Des Weiteren beinhaltet das Sehwahrnehmungsassistenzsystem eine Kamera (Beispiel für eine Umgebungslageermittlungseinheit), eine Augenkamera 2 (Beispiel für eine Sichtlinienrichtungsdetektionseinheit), eine Fahrerzustandsdetektionseinheit 3, eine Fahrzeugzustandsdetektionseinheit 4, eine Navigationsvorrichtung 5, eine Projektionsabbildungsvorrichtung 11, eine Head-up-Anzeige 12 und einen Lautsprecher 13.
  • Die Steuerung bzw. Regelung U empfängt Signale von Vorrichtungskomponenten, so beispielsweise von verschiedenen Arten von Sensoren, der Kamera 1, der Augenkamera 2, der Fahrerzustandsdetektionseinheit 3, der Fahrzeugzustandsdetektionseinheit 4 und der Navigationsvorrichtung 5.
  • Die Kamera 1 ist eine Kamera zum Aufnehmen einer Zone vor dem eigenen Fahrzeug. Die Umgebungslage vor dem eigenen Fahrzeug wird von der Kamera 1 ermittelt. Die Kamera 1 wird beispielsweise von einer Farbstereokamera gebildet. Hierdurch wird es möglich, den Abstand vom eigenen Fahrzeug zu einem Sehwahrnehmungsziel sowie die Farbe des Sehwahrnehmungsziels zu detektieren. Beim vorliegenden Beispiel wird der Abstand zu einem Sehwahrnehmungsziel unter Nutzung der Kamera 1 detektiert. Die vorliegende Erfindung ist jedoch nicht hierauf beschränkt. Der Abstand zu einem Sehwahrnehmungsziel kann auch unter Nutzung einer Radarvorrichtung detektiert werden.
  • Die Augenkamera 2 ist in einem Fahrzeuginnenraum des eigenen Fahrzeuges montiert und detektiert die Sichtlinienrichtung eines Fahrers. Die Augenkamera 2 kann ein Bild der Augen des Fahrers ermitteln, einen Referenzpunkt, so beispielsweise eine Ecke eines Auges oder eine innere Ecke eines Auges, extrahieren, einen Bewegungspunkt, so beispielsweise die Pupille, aus dem ermittelten Bild extrahieren und die Sichtlinienrichtung innerhalb eines tatsächlichen Raumes auf Grundlage der Position des Bewegungspunktes in Bezug auf den Referenzpunkt detektieren. Die Sichtlinienrichtung wird durch eine gerade Linie innerhalb eines dreidimensionalen Koordinatenraumes dargestellt, in dem beispielsweise das eigene Fahrzeug als Referenz gewählt ist. Zusätzlich zum Vorbeschriebenen detektiert auch die Augenkamera 2 einen Sichtlinienzustand des Fahrers (Sichtlinienbewegung, Zwinkern, Augapfelfixierung und Pupillendurchmesser).
  • Die Fahrerzustandsdetektionseinheit 3 beinhaltet beispielsweise einen Bildsensor, so beispielsweise eine CCD-Kamera und eine CMOS-Kamera, und detektiert den Gesichtsausdruck des Fahrers durch Aufnehmen eines Gesichtsbildes des Fahrers. Des Weiteren ermittelt die Fahrerzustandsdetektionseinheit 3 einen Sichtlinienzustand (Sichtlinienbewegung, Zwinkern, Augapfelfixierung und Pupillendurchmesser), der von der Augenkamera 2 detektiert wird. Des Weiteren beinhaltet die Fahrerzustandsdetektionseinheit 3 beispielsweise einen Herzfrequenzsensor, der an einem Fahrersitz vorgesehen ist, und detektiert die Herzfrequenz des Fahrers. Zudem beinhaltet die Fahrerzustandsdetektionseinheit 3 beispielsweise einen Herzfrequenzsensor oder einen Bildsensor, so beispielsweise eine CCD-Kamera und eine CMOS-Kamera, und detektiert einen Atmungszustand (Atmungsfrequenz und Atmungstiefe). Die Fahrerzustandsdetektionseinheit 3 beinhaltet beispielsweise einen Widerstandssensor und detektiert den Hautwiderstand. Des Weiteren beinhaltet die Fahrerzustandsdetektionseinheit 3 beispielsweise einen Pulswellensensor, der am Lenkrad vorgesehen ist und eine Pulswelle an der Fingerspitze detektiert. Die Fahrerzustandsdetektionseinheit 3 beinhaltet beispielsweise einen myoelektrischen Sechs-Kanal-Sensor, der am Lenkrad vorgesehen ist und ein EMG der Muskeln der oberen Extremitäten detektiert. Die Fahrerzustandsdetektionseinheit 3 beinhaltet beispielsweise einem myoelektrischen Drei-Kanal-Sensor, der am Fahrersitz vorgesehen ist und ein EMG der Muskeln der unteren Extremitäten detektiert. Zudem beinhaltet die Fahrerzustandsdetektionseinheit 3 beispielsweise ein Mikrofon und detektiert Sprachinformation. Die Sprachinformation beinhaltet beispielsweise den Sprechtonfall. Die Fahrerzustandsdetektionseinheit 3 wird beispielsweise von einem Lastsensor, der am Fahrersitz vorgesehen ist, gebildet und detektiert den Sitzdruck am Fahrersitz.
  • Die Fahrerzustandsdetektionseinheit 3 berechnet einen Kennwert des Fahrerzustandes durch Eingeben des Gesichtsausdrucks, des Sichtlinienzustandes, der Herzfrequenz, des Atmungszustandes, des Hautwiderstandes, der Fingerspitzenpulswelle, des EMG der Muskeln der oberen Extremitäten, des EMG der Muskeln der unteren Extremitäten, der Sprachinformation und des Sitzdruckes, wie vorstehend beschrieben, in einem vorbestimmten mathematischen Ausdruck zur Verwendung bei der Bewertung des Fahrerzustandes. Sodann kann die Fahrerzustandsdetektionseinheit 3 den Fahrerzustand aus dem Kennwert detektieren. Beim vorliegenden Beispiel kann der Kennwert, der den Grad der Wachheit angibt, als Kennwert für den Fahrerzustand genutzt werden. Der Kennwert nimmt beispielsweise in positiver Richtung zu, wenn der Grad der Wachheit des Fahrers zunimmt, wohingegen der Kennwert in negativer Richtung zunimmt, wenn der Grad der Unkonzentriertheit des Fahrers zunimmt. Daher kann die Fahrerzustandsdetektionseinheit 3 bestimmen, dass der Fahrer wach ist, wenn der Kennwert größer als ein vorbestimmter positiver Referenzwert ist, und bestimmen, dass der Fahrer unkonzentriert ist, wenn der Kennwert kleiner als ein vorbestimmter negativer Referenzwert ist (also in der negativen Richtung groß ist). Man beachte, dass der Gesichtsausdruck beispielsweise einen Ausdruck der Freude, einen Ausdruck des Ärgers und einen Ausdruck der Trauer umfasst und durch vorbestimmte nummerische Werte im Zusammenhang mit dem jeweiligen Ausdruck quantifiziert wird. Des Weiteren beinhaltet die Sprachinformation Freude, Ärger, Trauer und dergleichen und wird ebenfalls durch vorbestimmte nummerische Werte im Zusammenhang mit diesen Regungen quantifiziert.
  • Die Fahrzeugzustandsdetektionseinheit 4 beinhaltet beispielsweise einen Fahrzeuggeschwindigkeitssensor und detektiert die Geschwindigkeit des eigenen Fahrzeuges. Des Weiteren beinhaltet die Fahrzeugzustandsdetektionseinheit 4 beispielsweise einen Geschwindigkeitssensor zum Detektieren der Motorgeschwindigkeit und detektiert die Motorgeschwindigkeit. Des Weiteren beinhaltet die Fahrzeugzustandsdetektionseinheit 4 beispielsweise einen Lenkwinkelsensor und detektiert den Lenkwinkel der Räder. Des Weiteren beinhaltet die Fahrzeugzustandsdetektionseinheit 4 beispielsweise einen Scheibenwischerbetriebssensor zum Detektieren der Betriebslage eines Scheibenwischers und detektiert die Betriebslage des Scheibenwischers. Man beachte, dass die Betriebslage des Scheibenwischers zum Detektieren des Wetters (beispielsweise Regen- oder Schneewetter) genutzt wird. Des Weiteren beinhaltet die Fahrzeugzustandsdetektionseinheit 4 beispielsweise einen Lichtsensor zum Detektieren einer Betriebslage eines Lichtes, das im eigenen Fahrzeug montiert ist, und detektiert die Betriebslage des Lichtes. Man beachte, dass die Betriebslage des Lichtes beispielsweise zum Detektieren von Tag und Nacht genutzt wird.
  • Die Navigationsvorrichtung 5 beinhaltet einen GPS-Sensor sowie einen Prozessor zum Suchen einer Strecke zu einem Zielort. Die Navigationsvorrichtung 5 ermittelt Straßeninformation im Zusammenhang mit der Lage auf einer Straße, auf der das eigene Fahrzeug gerade fährt, und der Straßenlage vor dem eigenen Fahrzeug. Die beim vorliegenden Beispiel zu ermittelnde Straßeninformation beinhaltet beispielsweise Information im Zusammenhang mit einer Autobahn, einer geöffneten Straße, einer geraden Straße, einer kurvigen Straße, einer Kreuzung sowie den Inhalt von verschiedenen Arten von Verkehrszeichen, das Vorhandensein einer Ampel und die aktuelle Positionsinformation des eigenen Fahrzeuges.
  • Wie nachstehend noch beschrieben wird, steuert bzw. regelt die Steuerung bzw. Regelung U die Projektionsabbildungsvorrichtung 11, die Head-up-Anzeige 12 und den Lautsprecher 13, um die Sichtlinie des Fahrers hin zu einem Sehwahrnehmungsziel (einem unbeachteten Sehwahrnehmungsziel), das vom Fahrer gegebenenfalls unbeachtet geblieben ist, zu führen.
  • Die Steuerung bzw. Regelung U beinhaltet eine Sehwahrnehmungszielbestimmungseinheit 24 und eine Sehführungseinheit 25. Die Sehwahrnehmungszielbestimmungseinheit 24 bestimmt ein Sehwahrnehmungsziel, das der Fahrer optisch wahrnehmen sollte, unter Nutzung von drei Arten von Sehwahrnehmungsmodellen, nämlich einem Salienzmodell 21, einem Überraschungsmodell 22 und einem Referenzmodell 23. Das Salienzmodell 21 beinhaltet Daten zum Bestimmen dessen, ob ein Objekt Salienz (Auffälligkeit) aufweist und ob es der Fahrer als Sehwahrnehmungsziel instantan optisch wahrnehmen kann. Unter den Objekten, die ein Fahrer während des Fahrens optisch wahrnehmen sollte, sind ein Objekt, das unter Verwendung des Salienzmodells 21 zu detektieren ist, beispielsweise ein Objekt mit vergleichsweise großer Größe, ein Objekt mit vergleichsweise großer Helligkeit, ein Objekt mit vergleichsweise starkem Kontrast und ein Objekt mit außergewöhnlicher Form. Zahlreiche Daten zur Verwendung beim Detektieren eines Objektes, das instantan optisch wahrgenommen werden soll, sind in dem Salienzmodell 21 berücksichtigt.
  • Das Überraschungsmodell 22 beinhaltet Daten zum Bestimmen eines Objektes, das sich anomal verhält (Vorgänge, bei denen Vorsichtsmaßnahmen erforderlich sind), als Sehwahrnehmungsziel. Das Überraschungsmodell 22 beinhaltet beispielsweise Daten zum Bestimmen eines Objektes, so beispielsweise eines Fahrzeuges und eines Fußgängers mit anomalem Verhalten, als Sehwahrnehmungsziel. Zahlreiche Daten zur Verwendung beim Detektieren eines Objektes, so beispielsweise eines Fahrzeuges, eines Fußgängers und eines Motorrades mit anomalem Verhalten sowie Daten zur Verwendung beim Detektieren dessen, dass sich jedes Objekt anomal verhält, sind in wechselseitiger Zuordnung in dem Überraschungsmodell 22 berücksichtigt.
  • Das Referenzmodell 23 beinhaltet Daten zum Bestimmen dessen, dass ein Objekt, das durch einen Sehvorgang eines geübten Fahrers, der als Referenz dient, optisch wahrgenommen wird, ein Sehwahrnehmungsziel ist. Ein Ziel, zu dem der Fahrer schauen sollte, eine Position, zu der der Fahrer schauen sollte, eine Reihenfolge von Objekten, gemäß der der Fahrer schauen sollte, und dergleichen, sind in dem Referenzmodell 23 mit Zuordnung zu zahlreichen Fahrlagen (Kombinationen aus Fahrumgebungen, darunter Umgebungslagen, Fahrzeugzustände und dergleichen) berücksichtigt.
  • Die Sehführungseinheit 25 bestimmt, ob ein unbeachtetes Sehwahrnehmungsziel, zu dem eine von der Augenkamera 2 zu detektierende Sichtlinienrichtung nicht gerichtet ist, unter den von der Sehwahrnehmungszielbestimmungseinheit 24 bestimmten Sehwahrnehmungszielen vorhanden ist. Ist ein unbeachtetes Sehwahrnehmungsziel vorhanden, so führt die Sehführungseinheit 25 die Sichtlinie des Fahrers hin zu dem unbeachteten Sehwahrnehmungsziel. Die Sehführungseinheit 25 kann die Sichtlinie unter Nutzung der Projektionsabbildungsvorrichtung 11, der Head-up-Anzeige 12 und des Lautsprechers 13 führen.
  • Die vorgenannten drei Arten von Sehwahrnehmungsmodellen werden nunmehr nacheinander anhand eines Kraftfahrzeuges als Beispiel beschrieben. 2 zeigt eine Umgebungslage, in der der Fahrer aus einem Fahrzeuginnenraum des eigenen Fahrzeuges heraus nach vorne schaut. Ein oberer Umfangsabschnitt (oberer Rahmenabschnitt) eines Windschutzscheibenglases 31 ist durch einen vorderen Umfangsabschnitt einer Dachplatte 32 definiert, ein unterer Umfangsabschnitt (unterer Rahmenabschnitt) des Windschutzscheibenglases 31 ist durch einen vorderen Umfangsabschnitt eines Armaturenbrettes 33 definiert, ein linker Umfangsabschnitt (linker Rahmenabschnitt) des Windschutzscheibenglases 31 ist durch eine linke vordere Säule 34L definiert, und ein rechter Umfangsabschnitt (rechter Rahmenabschnitt) des Windschutzscheibenglases 31 ist durch einen rechte vordere Säule 34R definiert.
  • In 2 ist ein linker Seitenspiegel 35L auf der linken Seite der vorderen Säule 34L angeordnet, während ein rechter Seitenspiegel 35R auf der rechten Seite der vorderen Säule 34R angeordnet ist. Ein Rückspiegel 36 ist auf der oberen Seite in der Mitte des Windschutzscheibenglases 31 in Fahrzeugbreitenrichtung angeordnet. Eine Platte 37 ist auf der linken Seite des Armaturenbrettes 33 angeordnet. Ein Lenkrad 38, das vom Fahrer betätigt wird, wenn der Fahrer das eigene Fahrzeug fährt, ist auf der Vorderseite des Armaturenbrettes 38 angeordnet. Bei dem Beispiel von 2 wird ein Fahrzeug für den Linksverkehr als eigenes Fahrzeug verwendet. Dies ist jedoch lediglich ein Beispiel; es kann auch ein Fahrzeug für den Rechtsverkehr verwendet werden.
  • Als vom Fahrer durch das Windschutzscheibenglas 31 optisch wahrzunehmende Straßenlage vor dem eigenen Fahrzeug sind in 2 dargestellt: eine Fahrspur 41, entlang der der Fahrer das eigene Fahrzeug fährt, eine Gegenspur 42 und eine Mittellinie 43, die eine Grenze zwischen der Fahrspur 41 und der Gegenspur 42 angibt. Ein vorausfahrendes Fahrzeug 44 ist auf der Fahrspur 41 vorhanden, eine Ampel 45 ist vor dem vorausfahrenden Fahrzeug 44 vorhanden, und eine blinkende Tafel 46 ist entlang einer Bankette der Gegenspur 42 vorhanden.
  • Beim Salienzmodell 21 wird ein Objekt, das instantan optisch wahrgenommen werden soll, als Sehwahrnehmungsziel bestimmt. Daher werden bei dem Beispiel von 2 die Ampel 45 und die blinkende Tafel 46 als Sehwahrnehmungsziele bestimmt. Beim Salienzmodell 21 wird, wenn das Stopplicht des vorausfahrenden Fahrzeuges 44 angeht, das vorausfahrende Fahrzeug 44, bei dem das Stopplicht angeht, ebenfalls als Sehwahrnehmungsziel bestimmt.
  • Es ist sehr wahrscheinlich, dass ein Sehwahrnehmungsziel, das vom Salienzmodell 21 bestimmt wird, vom Fahrer optisch wahrgenommen wird. Sogar dann, wenn die Sichtlinienrichtung des Fahrers nicht gänzlich mit der Richtung, in der das durch das Salienzmodell 21 bestimmte Sichtlinienziel vorhanden ist, zusammenfällt, wird daher bestimmt, dass der Fahrer das Sehwahrnehmungsziel optisch wahrnimmt, wenn die Sichtlinienrichtung des Fahrers einigermaßen hin zu dem Sehwahrnehmungsziel gerichtet ist. Bei dem Beispiel von 2 wird sogar dann, wenn die Sichtlinienrichtung des Fahrers nicht gänzlich mit der Richtung zusammenfällt, in der die Ampel 45 oder die Tafel 46, die als Sehwahrnehmungsziele von dem Salienzmodell 21 bestimmt worden sind, vorhanden sind, bestimmt, dass der Fahrer die Ampel 45 oder die Tafel 46 optisch wahrnimmt, wenn die Sichtlinienrichtung des Fahrers einigermaßen hin zu der Ampel oder der Tafel 46 gerichtet ist.
  • Beim vorliegenden Beispiel bedeutet der Ausdruck „gänzlich zusammenfallen“ beispielsweise, dass das Sehwahrnehmungsziel und die Sichtlinienrichtung einander schneiden. Des Weiteren bedeutet die Aussage „die Sichtlinienrichtung des Fahrers ist einigermaßen hin zu dem Sichtlinienziel gerichtet“, dass das Sichtlinienziel innerhalb eines Sichtfeldes, das die Sichtlinienrichtung als Zentrum beinhaltet, vorhanden ist. Die Sehführungseinheit 25: kann als Sichtfeld eine im Wesentlichen konische Zone einstellen, die vorab bestimmt wird und eine Sichtlinienrichtung als Zentrum beinhaltet.
  • Weicht demgegenüber die Sichtlinienrichtung des Fahrers stark von der Ampel 45 ab und wird gefolgert, dass der Fahrer die Ampel 45 nicht optisch wahrnimmt, so wird bestimmt, dass die Ampel 45 ein unbeachtetes Sehwahrnehmungsziel ist. In diesem Fall wird beispielsweise ein Indikator α1, der durch die gestrichelte runde Linie verkörpert ist, von der Projektionsabbildungsvorrichtung 11, die innerhalb des Fahrzeuginnenraumes angeordnet ist, zu der Ampel 45 projiziert. Sodann wird der Indikator α1 an dem Windschutzscheibenglas 31 derart angezeigt, dass der Indikator α1 mit der Ampel 45 an der Position der Ampel 45 überlappt, und es wird die Sichtlinie des Fahrers zu dem Indikator α1 geführt. Man beachte, dass die Aussage „weicht stark ab“ bedeutet, dass das Sehwahrnehmungsziel beispielsweise außerhalb des Sichtfeldes vorhanden ist.
  • Wird auf gleiche Weise bestimmt, dass der Fahrer die Tafel 46 nicht optisch wahrnimmt, so wird ein Indikator α2 hin zu der Tafel 46 projiziert. Der Indikator α2 wird an dem Windschutzscheibenglas 31 derart angezeigt, dass der Indikator α2 mit der Tafel 46 an der Position der Tafel 46 überlappt.
  • Man beachte, dass der Indikator α1 oder der Indikator α2 beispielsweise unter Nutzung der Head-up-Anzeige 12, die an einer Position vor dem Fahrer angeordnet ist, angezeigt werden kann. Eine Sprachführung, so beispielsweise „Achten Sie auf die Ampel auf der linken Seite!“ oder „Achten Sie auf die Tafel auf der rechten Seite!“, kann beispielsweise von dem Lautsprecher 13 ausgegeben werden. Die in 2 dargestellten Sehwahrnehmungsziele sind lediglich Beispiele. Zahlreiche Daten zur Verwendung beim Detektieren von Sehwahrnehmungszielen, die man instantan erfassen kann, sind in dem Salienzmodell 21 vorab berücksichtigt.
  • Wie nachstehend noch beschrieben wird, kann ein Objekt, zu dem der Fahrer nicht schauen muss, bei den Sehwahrnehmungszielen herausgenommen werden. Die Tafel 46 kann beispielsweise von den Sehwahrnehmungszielen herausgenommen werden. In diesem Fall kann ein Objekt, das herausgenommen werden sollte, in dem Salienzmodell 21 selbst berücksichtigt sein. Alternativ kann ein Sehwahrnehmungsziel, das eine vorbestimmte Herausnahmebedingung erfüllt, von den Sehwahrnehmungszielen, die von dem Salienzmodell 21 bestimmt werden, herausgenommen werden. Beim vorliegenden Beispiel ist es beispielsweise möglich, als vorbestimmte Bedingung eine Bedingung einzusetzen, bei der ein von dem Salienzmodell 21 bestimmtes Sehwahrnehmungsziel vom eigenen Fahrzeug um einen vorbestimmten Abstand oder mehr entfernt ist, oder auch eine Bedingung, bei der ein Sehwahrnehmungsziel ein festes Objekt ist, das auf der Seite der Gegenspur befindlich ist.
  • Als Nächstes wird das Überraschungsmodell 22 anhand 3 beschrieben. Wie 2 zeigt auch 3 eine Umgebungslage, in der der Fahrer aus dem Fahrzeuginnenraum des eigenen Fahrzeuges nach vorne schaut. 3 zeigt eine Lage, in der sich ein vorausfahrendes Fahrzeug 51 anomal verhält, das heißt, das vorausfahrende Fahrzeug 51 bewegt sich plötzlich hin zu der Gegenspur 42. 3 zeigt des Weiteren eine Lage, in der ein Fußgänger 52 die Gegenspur 42 von der Seite der Bankette der Gegenspur 42 her überquert und hin zu der Fahrspur 41 geht. Da sich das vorausfahrende Fahrzeug 51 und der Fußgänger 52 anomal verhalten (Handlung, bei der Sicherheitsmaßnahmen erforderlich sind), wird in dem Überraschungsmodell 22 bestimmt, dass das vorausfahrende Fahrzeug 51 und der Fußgänger 52 Sehwahrnehmungsziele sind. Ist die Sichtlinienrichtung des Fahrers nicht hin zu dem vorausfahrenden Fahrzeug 51 gerichtet, so wird ein Indikator β1 hin zu dem vorausfahrenden Fahrzeug 51 projiziert. Sodann wird der Indikator β1 an dem Windschutzscheibenglas 31 derart angezeigt, dass der Indikator β1 mit dem vorausfahrenden Fahrzeug 51 an der Position des vorausfahrenden Fahrzeuges 51 überlappt. Auf gleiche Weise wird, wenn die Sichtlinienrichtung des Fahrers nicht hin zu dem Fußgänger 52 gerichtet ist, der Indikator β2 hin zu dem Fußgänger 52 projiziert. Sodann wird der Indikator β2 an dem Windschutzscheibenglas 31 derart angezeigt, dass der Indikator β2 mit dem Fußgänger 52 an der Position des Fußgängers 52 überlappt. Bei der Ausführungsform kann von der Head-up-Anzeige 12 oder dem Lautsprecher 13 ein Alarm zusammen mit der Anzeige des Indikators β1 und des Indikators β2 auf ähnliche Weise wie in dem vorstehend anhand 2 beschriebenen Fall gegeben werden. Beim vorliegenden Beispiel kann die Sehführungseinheit 25 bestimmen, dass die Sichtlinienrichtung des Fahrers hin zu einem Sehwahrnehmungsziel gerichtet ist, wenn das Sehwahrnehmungsziel beispielsweise innerhalb des Sichtfeldes des Fahrers ist.
  • Als Nächstes wird das Referenzmodell 23 anhand 4 beschrieben. 4 zeigt eine Umgebungslage, in der der Fahrer aus dem Fahrzeuginnenraum des eigenen Fahrzeuges genau wie in 2 nach vorne schaut. In 4 fährt das eigene Fahrzeug jedoch auf einer mehrspurigen Straße und insbesondere auf der Fahrspur 41 R, die die zweite Fahrspur von links ist. Die Fahrspur auf der linken Seite der Fahrspur 41 R ist die linke Fahrspur 41 L. Gegenspuren 42R und 42L sind auf der rechten Seite der Fahrspur 41 R in dieser Reihenfolge vorhanden. Die Fahrspur 41 R und die Gegenspur 42R sind durch einen Mittelstreifen 43 getrennt. Ein auf der Fahrspur 41R vorausfahrendes Fahrzeug 62, das ein Fahrzeug geringer Größe (beispielsweise ein Personenkraftfahrzeug) ist, fährt vor dem eigenen Fahrzeug, während ein Fahrzeug großer Größe (in 4 ein Tanklaster) 61 auf der linken Fahrspur 41 L fährt.
  • 4 macht deutlich, dass das eigene Fahrzeug, das vorausfahrende Fahrzeug 62 und das Fahrzeug 61 vorne auf der linken Seite stetig weiterfahren, das heißt in einem stabilen Betrieb und nicht in einer Lage sind, in der spezielle Vorsichtsmaßnahmen erforderlich wären. In dieser Lage bestimmt das Referenzmodell 23 ein Sehwahrnehmungsziel auf Grundlage eines Sehvorgangs eines geübten Fahrers, der als Referenz dient. Beim vorliegenden Beispiel wird bestimmt, dass das vorausfahrende Fahrzeug 62 und das Fahrzeug 61 vorne auf der linken Seite Sehwahrnehmungsziele sind. Eingedenk des Vorbeschriebenen projiziert die Sehführungseinheit 25 unter Nutzung der Projektionsabbildungsvorrichtung 11 einen Indikator γ1 hin zu dem Fahrzeug 61 vorne auf der linken Seite und einen Indikator γ2 zu dem vorausfahrenden Fahrzeug 62. Damit werden der Indikator γ1 und der Indikator γ2 an dem Windschutzscheibenglas 31 derart angezeigt, dass der Indikator γ1 und der Indikator γ2 mit dem Fahrzeug 61 vorne auf der Vorderseite und dem vorausfahrenden Fahrzeug 62 an Positionen des Fahrzeuges 61 vorne auf der Vorderseite und dem vorausfahrenden Fahrzeug 62 überlappen.
  • Des Weiteren werden ein linker Seitenspiegel 35L zur Verwendung beim Wahrnehmen einer Lage auf der linken Seite, ein Zwischenabschnitt eines linken Umfangsabschnittes des Windschutzscheibenglases 31 in Oben-Unten-Richtung, der wahrscheinlich ein Totwinkelbereich wird, und ein Tachometer 37 zur Verwendung beim Prüfen der Fahrzeuggeschwindigkeit und dergleichen als Sehwahrnehmungsziele bestimmt. Daher projiziert die Sehführungseinheit 25 unter Nutzung der Projektionsabbildungsvorrichtung 11 einen Indikator γ3 hin zu dem linken Seitenspiegel 35L, einen Indikator γ4 hin zu dem Zwischenabschnitt des linken Umfangsabschnittes der Windschutzscheibe 31 und einen Indikator γ5 hin zu dem Tachometer 37.
  • Das Referenzmodell 23 berücksichtigt Daten, die Objekte angeben, die durch einen Sehvorgang eines geübten Fahrers, der als Referenz dient, optisch wahrgenommen werden sollen, wie auch Daten, die Positionen der Objekte in allen möglichen (zahlreichen) Lagen angeben. Des Weiteren berücksichtigt das Referenzmodell 23 den Rhythmus, gemäß dem der Fahrer etwas optisch wahrnehmen sollte. Wird beispielsweise davon ausgegangen, dass ein geübter Fahrer wenigstens alle 10 s auf den linken Seitenspiegel 35L schaut, so werden Daten wie beispielsweise das einmal alle 10 s erfolgende Schauen auf den linken Seitenspiegel 35L als Rhythmus verwendet, gemäß dem der Fahrer etwas optisch wahrnehmen sollte.
  • In 4 werden die Indikatoren γ1 bis γ5 angezeigt, wenn die Sichtlinienrichtung des Fahrers nicht hin zu dem von dem Referenzmodell 23 bestimmten Sehwahrnehmungsziel gerichtet ist. Man beachte, dass 4 lediglich ein Beispiel zeigt. Als Sehwahrnehmungsziele können der Rückspiegel 36 und der rechte Seitenspiegel 35R als von dem Referenzmodell 23 zu bestimmende Sehwahrnehmungsziele beinhaltet sein. Des Weiteren können die Sehreihenfolge und der Sehrhythmus bei dem Referenzmodell 23 berücksichtigt werden, und es können die Sehreihenfolge und der Sehrhythmus in Abhängigkeit vom Sehwahrnehmungsziel bestimmt sein.
  • Beim vorliegenden Beispiel kann, wenn die Fahrerzustandsdetektionseinheit 3 detektiert, dass die Fahrbeanspruchung des Fahrers groß ist oder der Fahrer unkonzentriert ist, die Sehführungseinheit 25 die Sehführung hervorheben. Wie in 2 bis 4 gezeigt ist, kann, wenn die Indikatoren α1, α2, β1, β2 und γ1 bis γ5 in einer Normallage beispielsweise schwach angezeigt (projiziert) werden, die Sehführungseinheit 25 die Indikatoren α1, α2, β1, β2 und γ1 bis γ5 im Vergleich zur Normallage deutlicher anzeigen. Werden die Indikatoren α1, α2, β1, β2 und γ1 bis γ5 in der Normallage beispielsweise im dauernd eingeschalteten Zustand angezeigt, so kann die Sehführungseinheit 25 die Indikatoren α1, α2, β1, β2 und γ1 bis γ5 alternativ blinkend anzeigen. Alternativ kann, wenn die Indikatoren α1, α2, β1, β2 und γ1 bis γ5 in der Normallage beispielsweise in einer achromatischen Farbe, also beispielsweise Weiß oder Schwarz, angezeigt werden, die Sehführungseinheit 25 die Indikatoren α1, α2, β1, β2 und γ1 bis γ5 mit einer deutlich wahrnehmbaren Farbe hoher Sättigung (beispielsweise Rot oder Grün) im Vergleich zur Normallage anzeigen.
  • Zusätzlich zum Vorbeschriebenen kann die Sehführungseinheit 25 die Sehführung zusätzlich zu der Projektionsabbildungsvorrichtung 11 unter Nutzung der Head-up-Anzeige 12 und des Lautsprechers 13 hervorheben. Man beachte, dass die Fahrerzustandsdetektionseinheit 3 die Größe der Fahrbeanspruchung dadurch bestimmen kann, dass die Größe bzw. Anzahl der unbeachteten Sehwahrnehmungsziele, der Grad der Schwierigkeit der Fahrumgebung oder dergleichen hinzugefügt werden. Ist die Anzahl der unbeachteten Sehwahrnehmungsziele beispielsweise größer als ein vorbestimmter Schwellenwert, so kann die Fahrerzustandsdetektionseinheit 3 bestimmen, dass die Fahrbeanspruchung groß ist. Ist die Anzahl der unbeachteten Sehwahrnehmungsziele kleiner oder gleich dem vorbestimmten Schwellenwert, so kann die Fahrerzustandsdetektionseinheit 3 bestimmen, dass die Fahrbeanspruchung klein ist.
  • Des Weiteren kann die Fahrerzustandsdetektionseinheit 3 beispielsweise den Grad der Schwierigkeit der Fahrumgebung auf Grundlage der von der Navigationsvorrichtung 5 ermittelten Straßenlage im Umfeld des eigenen Fahrzeuges und der Anzahl von Sehwahrnehmungszielen berechnen. Ist der Grad der Schwierigkeit größer als ein vorbestimmter Schwellenwert, so kann die Fahrerzustandsdetektionseinheit 3 bestimmen, dass die Fahrbeanspruchung groß ist. Ist der Grad der Schwierigkeit kleiner oder gleich einem vorbestimmten Schwellenwert, so kann die Fahrerzustandsdetektionseinheit 3 bestimmen, dass die Fahrbeanspruchung klein ist. Der Grad der Schwierigkeit kann beispielsweise unter Nutzung einer vorbestimmten Funktion berechnet werden, bei der ein großer Wert eingegeben wird, wenn die Zahl der Sehwahrnehmungsziele zunimmt, und ein Wert in Abhängigkeit von der Art der Straßenlage ausgegeben wird. Als Wert in Abhängigkeit von der Art der Straßenlage kann beispielsweise ein Wert dahingehend verwendet werden, dass eine Kreuzung größer als eine gerade Straße ist.
  • 5 zeigt eine Lage, in der das eigene Fahrzeug V vor einer Ladenzeile (beispielsweise einem Geschäft) an der Gegenspur zu parken versucht. In 5 sind ein entgegenkommendes Fahrzeuges VB, Fußgänger H1 bis H3 und ein Motorrad B in Bewegungsrichtung des eigenen Fahrzeuges V vorhanden. Der Fahrer J des eigenen Fahrzeuges V versucht, an der Ladenzeile zu parken, und achtet dabei auf das entgegenkommende Fahrzeug VB und den Fußgänger H3 auf der Seite des entgegenkommenden Fahrzeuges VB. Da die Fahrbeanspruchung groß ist, ist die Sichtlinie des Fahrers J nicht hin zu dem Motorrad B gerichtet. Der Fahrer J bemerkt daher das Motorrad B hinter dem entgegenkommenden Fahrzeug VB nicht.
  • In diesem Fall bestimmt die Sehwahrnehmungszielbestimmungseinheit 24 das Motorrad B als Sehwahrnehmungsziel unter Verwendung der vorbeschriebenen drei Arten von Sehwahrnehmungsmodellen. Da die Sichtlinie des Fahrers J nicht hin zu dem als Sehwahrnehmungsziel bestimmten Motorrad B gerichtet ist, bestimmt die Sehführungseinheit 25 das Motorrad B als unbeachtetes Sehwahrnehmungsziel. Sodann projiziert die Sehführungseinheit 25 einen Indikator hin zu dem Motorrad B. Der Indikator ist an dem Windschutzscheibenglas 31 in einer Position angezeigt, die dem Motorrad B zugeordnet ist, und es wird die Sichtlinie des Fahrers J zu dem Motorrad B geführt.
  • Da der Fahrer im vorliegenden Fall unkonzentriert ist, kann die Sehführungseinheit 25 den Grad der Hervorhebung der Sehführung im Vergleich zu einem Fall, in dem der Fahrer in der Normallage ist, hervorheben. Die Sehführungseinheit 25 kann einen Indikator beispielsweise deutlich anzeigen, einen Indikator blinkend anzeigen oder einen Indikator mit einer Farbe hoher Sättigung im Vergleich zu einem gewöhnlichen Anzeigemuster anzeigen.
  • 6 zeigt eine Lage, in der das eigene Fahrzeug V auf einer Landstraße in einer eintönigen Landschaft, in der sich die Umgebungslage kaum ändert, fährt. Der Fahrer J ist gedanklich damit beschäftigt, ob er zum geplanten Zeitpunkt am Zielort ankommt und was er nach der Ankunft am Zielort tun wird. Daher ist der Fahrer J gegebenenfalls unkonzentriert und nimmt die Umgebungslage gegebenenfalls nicht aufmerksam wahr. 6 zeigt eine Lage, in der sich ein entgegenkommendes Fahrzeug VB2 dem eigenen Fahrzeug V stark nähert. Im vorliegenden Fall ist die Möglichkeit, dass der Fahrer J das entgegenkommende Fahrzeug VB2 übersieht, jedoch hoch, obwohl er es, wenn er wach wäre, nicht unbeachtet lassen würde. Im vorliegenden Fall kann die Sehwahrnehmungszielbestimmungseinheit 24 dasjenige, dass das entgegenkommende Fahrzeug VB2 ein Sehwahrnehmungsziel ist, unter Nutzung der drei Arten von Sehwahrnehmungsmodellen bestimmen. Die Sehführungseinheit 25 projiziert daher einen Indikator oder einen hervorgehobenen Indikator hin zu dem entgegenkommenden Fahrzeug VB2. Damit wird der Indikator an einer Position an dem Windschutzscheibenglas 31 angezeigt, die dem entgegenkommenden Fahrzeug VB2 zugeordnet ist, und der Fahrer J kann das Vorhandensein des entgegenkommenden Fahrzeuges VB2 wahrnehmen.
  • Man beachte, dass die Fahrerzustandsdetektionseinheit 3 bestimmen kann, ob das eigene Fahrzeug auf einer Landstraße in einer eintönigen Landschaft fährt, indem die aktuelle Position des Fahrzeuges und die Straßenlage, die von der Navigationsvorrichtung 5 ermittelt werden, sowie die Fahrzeuggeschwindigkeit, die von der Fahrzeugzustandsdetektionseinheit 4 detektiert wird, und dergleichen genutzt werden.
  • Als Nächstes wird ein Steuer- bzw. Regelbeispiel durch die Steuerung bzw. Regelung U anhand des in 7 dargestellten Flussdiagramms beschrieben. Bei der nachfolgenden Beschreibung bezeichnet Q einen Schritt. Zunächst detektiert bei Q1 die Fahrerzustandsdetektionseinheit 3 einen Fahrerzustand unter Verwendung eines von der Augenkamera 2 detektierten Sichtlinienzustandes, eines von dem Bildsensor detektierten Gesichtsausdruckes des Fahrers und dergleichen mehr. Des Weiteren detektiert die Fahrzeugzustandsdetektionseinheit 4 bei Q1 einen Fahrzeugzustand, und es detektiert die Navigationsvorrichtung 5 die Straßenlage und die aktuelle Position des eigenen Fahrzeuges.
  • Die Kamera 1 ermittelt bei Q2 ein Bild, das die Umgebungslage vor dem eigenen Fahrzeug angibt, durch Aufnehmen der Zone vor dem eigenen Fahrzeug.
  • Bei Q3 wendet die Sehwahrnehmungszielbestimmungseinheit 24 das Salienzmodell 21 bei dem bei Q2 ermittelten Bild an und bestimmt ein Sehwahrnehmungsziel. Bei Q4 wendet die Sehwahrnehmungszielbestimmungseinheit 24 das Überraschungsmodell 22 bei dem bei Q2 ermittelten Bild an und bestimmt ein Sehwahrnehmungsziel. Bei Q5 wendet die Sehwahrnehmungszielbestimmungseinheit 24 das Referenzmodell 23 bei dem bei Q2 ermittelten Bild an und bestimmt ein Sehwahrnehmungsziel.
  • Bei Q6 sammelt die Sehwahrnehmungszielbestimmungseinheit 24 die bei Q3 bis Q5 bestimmten Sehwahrnehmungsziele. Bei Q6 führt die Sehwahrnehmungszielbestimmungseinheit 24 zudem eine Verarbeitung zur Herausnahme eines Objektes, zu dem der Fahrer nicht schauen muss, unter den bei Q3 bis Q5 bestimmten Sehwahrnehmungszielen durch. Ein Objekt, das weit vom eigenen Fahrzeug entfernt ist, und ein festes Objekt, auf das der Fahrer nicht achten muss, werden von den Sehwahrnehmungszielen herausgenommen.
  • Bei Q7 detektiert die Augenkamera 2 die Sichtlinienrichtung des Fahrers.
  • Bei Q8 bestimmt die Sehführungseinheit 25, ob unter den bei Q6 gesammelten Sehwahrnehmungszielen ein Sehwahrnehmungsziel außerhalb des Sichtfeldes des Fahrers vorhanden ist. Ist ein Sehwahrnehmungsziel außerhalb des Sichtfeldes vorhanden, so extrahiert die Sehführungseinheit 25 das Sehwahrnehmungsziel als unbeachtetes Sehwahrnehmungsziel. Insbesondere zeichnet die Sehführungseinheit 25 die Sichtlinienrichtung des Fahrers für eine vorbestimmte abgelaufene Zeitspanne auf. Sodann kann die Sehführungseinheit 25 das Sichtfeld für jede der aufgezeichneten Sichtlinienrichtungen einstellen und unter den bei Q6 gesammelten Sehwahrnehmungszielen ein Sehwahrnehmungsziel außerhalb des eingestellten Sichtfeldes als unbeachtetes Sehwahrnehmungsziel bestimmen. Man beachte, dass sogar dann, wenn ein Sehwahrnehmungsziel nicht als Ganzes im Sichtfeld vorhanden ist, die Sehführungseinheit 25 dennoch bestimmen kann, dass der Fahrer das Sehwahrnehmungsziel erfolgreich wahrnimmt, wenn nur ein Teil des Sehwahrnehmungsziels im Sichtfeld vorhanden ist.
  • Bei Q9 kehrt, wenn kein unbeachtetes Sehwahrnehmungsziel vorhanden ist (Nein bei Q9), die Sehführungseinheit 25 zur Verarbeitung bei Q1 zurück. Ist demgegenüber ein unbeachtetes Sehwahrnehmungsziel vorhanden (Ja bei Q9), so wird die Verarbeitung bei Q10 fortgesetzt.
  • Bei Q10 bestimmt die Fahrerzustandsdetektionseinheit 3, ob der Fahrerzustand ein solcher ist, bei dem die Fahrbeanspruchung groß ist. Ist der Fahrerzustand ein solcher, bei dem die Fahrbeanspruchung groß ist (Ja bei Q10), so stellt die Sehführungseinheit 25 die Sehführung auf „Hervorhebung ist eingestellt“ (Q11).
  • Ist der Fahrerzustand demgegenüber ein solcher, bei dem die Fahrbeanspruchung nicht groß ist (Nein bei Q10), so bestimmt die Fahrerzustandsdetektionseinheit 3, ob der Fahrer unkonzentriert ist (Q12). Ist der Fahrer unkonzentriert (Ja bei Q12), so stellt die Sehführungseinheit 25 die Sehführung auf „Hervorhebung ist eingestellt“ ein (Q11).
  • Ist der Fahrer nicht unkonzentriert (Nein bei Q12), so stellt die Sehführungseinheit 25 die Sehführung auf „Hervorhebung ist nicht eingestellt“ (Q13) ein.
  • Bei Q14 bestimmt die Sehführungseinheit 25, ob mehrere unbeachtete Sehwahrnehmungsziele vorhanden sind. Ist die Anzahl der unbeachteten Sehwahrnehmungsziele gleich 1 (Nein bei Q14), so projiziert die Sehführungseinheit 25 einen Indikator (beispielsweise den Indikator α1 in 2, den Indikator β1 in 3) zur Verwendung beim Führen der Sichtlinie hin zu dem unbeachteten Sehwahrnehmungsziel (Q15). In diesem Fall zeigt die Sehführungseinheit 25 den Indikator hervorgehoben an, wenn bei Q11 „Hervorhebung ist eingestellt“ eingestellt worden ist, und zeigt den Indikator normal an, wenn bei Q13 „Hervorhebung ist nicht eingestellt“ eingestellt worden ist.
  • Sind demgegenüber mehrere unbeachtete Sehwahrnehmungsziele bei Q14 (Ja bei Q14) vorhanden, so ordnet die Sehführungseinheit 25 die mehreren unbeachteten Sehwahrnehmungsziele beim Führen einer Sichtlinie dem Rang nach (Q16). In diesem Fall kann die Sehführungseinheit 25 Objekte in absteigender Reihenfolge bezüglich des Grades der Gefahr oder des Grades der Vorsichtsmaßnahme dem Rang nach ordnen. Des Weiteren kann die Sehführungseinheit 25 Objekte in aufsteigender Reihenfolge bezüglich des Abstandes vom eigenen Fahrzeug dem Rang nach ordnen. Die Sehführungseinheit 25 kann beispielsweise jedem der unbeachteten Sehwahrnehmungsziele einen Punkt derart zuordnen, dass dessen Wert zunimmt, wenn der Grad der Gefahr zunimmt, dass dessen Wert zunimmt, wenn der Grad der Vorsichtsmaßnahme zunimmt, und dass dessen Wert zunimmt, wenn der Abstand vom eigenen Fahrzeug abnimmt, und kann des Weiteren Sehwahrnehmungsziele in absteigender Reihenfolge von dem Punkt dem Rang nach ordnen. Der Punkt in Abhängigkeit vom Grad der Gefahr oder vom Grad der Vorsichtsmaßnahme kann derart eingestellt sein, dass dessen Wert in Abhängigkeit von der Art des vorab eingestellten Objektes eingestellt wird. Der Punkt kann beispielsweise für einen Fußgänger, der eine Straße überquert, im Vergleich zu einem Fußgänger, der auf einem Gehsteig geht, höher eingestellt sein.
  • Bei Q17 zeigt die Sehführungseinheit 25 Indikatoren (beispielsweise den Indikator α1 in 2 und den Indikator β1 in 3) an mehreren unbeachteten Sehwahrnehmungszielen in der bei Q16 eingestellten Rangordnung an. Ist im vorliegenden Fall bei Q11 „Hervorhebung ist eingestellt“ eingestellt worden, so zeigt die Sehführungseinheit 25 die Indikatoren hervorgehoben an, wohingegen dann, wenn bei Q13 „Hervorhebung ist nicht eingestellt“ eingestellt worden ist, die Sehführungseinheit 25 die Indikatoren normal anzeigt. Als Anzeigemuster bei der Rangordnung kann ein Muster derart gegeben sein, dass Indikatoren für unbeachtete Sehwahrnehmungsziele in absteigender Reihenfolge der Rangordnung angezeigt werden. Ein Indikator, der einem erstrangigen unbeachteten Sehwahrnehmungsziel zugeordnet ist, kann als erstes angezeigt werden, ein Indikator, der einem zweitrangigen unbeachteten Sehwahrnehmungsziel zugeordnet ist, kann nach Verstreichen einer vorbestimmten Zeit (von beispielsweise 1 zu 5 s) angezeigt werden, woraufhin ein Indikator, der einem drittrangigen unbeachteten Sehwahrnehmungsziel zugeordnet ist, nach Verstreichen einer vorbestimmten Zeit angezeigt werden kann.
  • Sind mehrere unbeachtete Sehwahrnehmungsziele vorhanden (Ja bei Q14), so kann die Sehführungseinheit 25 die Indikatoren, die den mehreren unbeachteten Sehwahrnehmungszielen zugeordnet sind, ohne Rangordnung gleichzeitig anzeigen. Sind Q15 bis 17 beendet, so kehrt die Verarbeitung zu Q1 zurück.
  • Vorstehend ist eine Ausführungsform beschrieben worden. Die vorliegende Erfindung ist jedoch nicht auf diese Ausführungsform beschränkt. Notwendigenfalls sind Abwandlungen innerhalb des Umfangs der Ansprüche möglich. Ein Fahrzeug, das als vierrädriges Kraftfahrzeug ausgestaltet ist, ist als Beispiel für einen bewegten Körper, der von einem Fahrer gefahren wird, angeführt. Dies ist jedoch lediglich ein Beispiel. Als bewegte Körper können auch Fahrzeuge, die keine vierrädrigen Kraftfahrzeuge sind (beispielsweise Motorräder), verschiedene Baumaschinen und Bauwerkzeuge, Geräte für den Transport, so beispielsweise Gabelstapler, die häufig in Fabrikanlagen oder auf Baustellen verwendet werden, Schiffe (insbesondere kleine Schiffe) und Flugzeuge (insbesondere kleine Flugzeuge) verwendet werden. Der bewegte Körper kann zudem ein bewegter Körper (beispielsweise eine Drohne oder ein Hubschrauber) sein, der durch einen Bediener ferngesteuert wird. Der bewegte Körper und die Umgebungslage können zudem virtuell sein. Ein Fahrsimulator entspricht beispielsweise ebenfalls einem virtuellen Bewegungskörper oder einer solchen Umgebung.
  • Das vorgenannte Sehwahrnehmungsassistenzsystem wird bei einem bewegten Körper eingesetzt. Die vorliegende Erfindung ist jedoch nicht auf das Vorbesprochene beschränkt. Die vorliegende Erfindung kann auch ein Detektionssystem zum Detektieren eines Sehwahrnehmungsziels, zu dem ein Bediener auf einer Baustelle schauen sollte, betreffen. Des Weiteren kann die vorliegende Erfindung ein Detektionssystem zum Detektieren eines Sehwahrnehmungsziels, zu dem ein Beobachter bei einem Prüfprozess in einer Fabrikanlage schauen sollte, betreffen. Die vorliegende Erfindung kann jedoch auch beim Bewerten des Inneren eines Geschäftes und dergleichen eingesetzt werden.
  • Betreffen kann die vorliegende Erfindung insbesondere ein Detektionssystem zum Detektieren eines Sehwahrnehmungsziels, zu dem ein Beobachter schauen sollte, unter Einsatz der drei Sehwahrnehmungsmodelle an einem Ort, der nicht derjenige Ort ist, an dem der bewegte Körper verwendet wird. In diesem Fall können die Fahrerzustandsdetektionseinheit 3, die Fahrzeugzustandsdetektionseinheit 4 und die Navigationsvorrichtung 5 weggelassen werden.
  • Bei einem Detektionssystem kann die Sehführung durch Anzeigen einer Richtung des unbeachteten Sehwahrnehmungsziels durch die Head-up-Anzeige 12 (Beispiel für eine Anzeigeeinheit) anstelle des Anzeigens eines Indikators an der Position des unbeachteten Sehwahrnehmungsziels durchgeführt werden. Des Weiteren kann bei einem Detektionssystem die Sehführung mittels einer akustischen Führung durchgeführt werden, wenn die Richtung eines unbeachteten Sehwahrnehmungsziels durch den Lautsprecher 13 angesagt wird. Bei dem Detektionssystem entspricht der Beobachter im stationären Zustand dem Fahrer des Sehwahrnehmungsassistenzsystems.
  • Jeder Schritt oder jede Gruppe von Schritten können, wie in 7 dargestellt ist, als Funktion der Steuerung bzw. Regelung U oder als Mittel zur Wahrnehmung der Funktion betrachtet werden. Es sollte einsichtig sein, dass der Gegenstand der vorliegenden Erfindung nicht auf das explizit Vorbeschriebene beschränkt ist, sondern implizit auch all dasjenige beinhalten kann, das als im Wesentlichen bevorzugte Ausführungsform oder Vorteil aufgeführt ist.
  • Zusammenfassung der Ausführungsform
  • Es folgt eine Zusammenfassung der technischen Merkmale der Ausführungsform.
  • Ein Sehwahrnehmungsassistenzsystem entsprechend einem Aspekt der vorliegenden Erfindung beinhaltet:
    • eine Umgebungslageermittlungseinheit zum Ermitteln einer Umgebungslage eines bewegten Körpers, der von einem Fahrer gefahren werden soll;
    • eine Sehwahrnehmungszielbestimmungseinheit zum Bestimmen eines Sehwahrnehmungsziels, das ein Objekt ist, zu dem der Fahrer in einer von der Umgebungslageermittlungseinheit ermittelten Umgebungslage schauen sollte;
    • eine Sichtlinienrichtungsdetektionseinheit zum Detektieren einer Sichtlinienrichtung des Fahrers; und
    • eine Sehführungseinheit zum Bestimmen dessen, ob ein unbeachtetes Sehwahrnehmungsziel, zu dem eine von der Sichtlinienrichtungsdetektionseinheit detektierte Sichtlinienrichtung nicht gerichtet ist, unter den von der Sehwahrnehmungszielbestimmungseinheit bestimmten Sehwahrnehmungszielen vorhanden ist, und Führen einer Sichtlinie des Fahrers hin zu dem unbeachteten Sehwahrnehmungsziel, wenn das unbeachtete Sehwahrnehmungsziel vorhanden ist, wobei
    • die Sehwahrnehmungszielbestimmungseinheit das Sehwahrnehmungsziel auf Grundlage von drei vorab zurechtgelegten Sehwahrnehmungsmodellen bestimmt, und die drei Sehwahrnehmungsmodelle beinhalten: ein Salienzmodell zum Bestimmen dessen, dass ein instantan optisch wahrgenommenes Objekt ein Sehwahrnehmungsziel ist, ein Überraschungsmodell zum Bestimmen dessen, dass ein sich anomal verhaltendes Objekt ein Sehwahrnehmungsziel ist, und ein Referenzmodell zum Bestimmen dessen, dass ein durch einen Sehvorgang eines Fahrers, der als Referenz dient, optisch wahrgenommenes Objekt ein Sehwahrnehmungsziel ist.
  • Entsprechend der vorbeschriebenen Ausgestaltung ist es möglich, das Sehwahrnehmungsziel, das der Fahrer optisch wahrnehmen soll, unter Nutzung der drei Sehwahrnehmungsmodelle sicher zu bestimmen. Da bei der vorbeschriebenen Ausgestaltung zudem die Sichtlinie des Fahrers hin zu dem unbeachteten Sehwahrnehmungsziel geführt wird, ist es möglich zu verhindern, dass das Sehwahrnehmungsziel unbeachtet bleibt.
  • Bei der vorbeschriebenen Ausgestaltung gilt, dass der bewegte Körper von einem Fahrzeug gebildet sein kann, und
    die Umgebungslageermittlungseinheit von einer Kamera zum Aufnehmen einer Zone vor dem Fahrzeug gebildet sein kann.
  • Im vorliegenden Fall ist es möglich zu verhindern, dass das Sehwahrnehmungsziel unbeachtet bleibt, wenn der Fahrer das Fahrzeug fährt, wodurch ein sicheres Fahren des Fahrzeuges realisiert wird.
  • Bei der vorbeschriebenen Ausgestaltung kann die Sehführungseinheit die Sehführung durch Anzeigen eines Indikators an der Position des unbeachteten Sehwahrnehmungsziels durchführen.
  • Da der Indikator im vorliegenden Fall an der Position des unbeachteten Sehwahrnehmungsziels angezeigt wird, ist es möglich, die Sehführung sicher durchzuführen.
  • Bei der vorbeschriebenen Ausgestaltung gilt, dass das Sehwahrnehmungsassistenzsystem des Weiteren eine Fahrerzustandsdetektionseinheit zum Detektieren des Fahrerzustandes beinhaltet, wobei
    die Sehführungseinheit den Grad der Intensität der Sehführung in Abhängigkeit von einem von der Fahrerzustandsdetektionseinheit zu detektierenden Fahrerzustand ändert.
  • Im vorliegenden Fall ist es möglich, die Sehführung dadurch genauer durchzuführen, dass der Grad der Intensität der Sehführung in Abhängigkeit vom Fahrerzustand geändert wird.
  • Bei der vorbeschriebenen Ausgestaltung kann die Sehführungseinheit den Grad der Intensität der Sehführung durch Ändern des Grades der Auffälligkeit eines Indikators, der an der Position des unbeachteten Sehwahrnehmungsziels angezeigt werden soll, ändern.
  • Da der Indikator im vorliegenden Fall an der Position des unbeachteten Sehwahrnehmungsziels angezeigt wird, ist es möglich, die Sehführung sicher durchzuführen. Des Weiteren ist es möglich, die Sehführung genauer durchzuführen, indem der Grad der Intensität der Sehführung in Abhängigkeit vom Fahrerzustand geändert wird.
  • Bei der vorbeschriebenen Ausgestaltung gilt, dass die Fahrerzustandsdetektionseinheit wenigstens einen Zustand, in dem die Fahrbeanspruchung groß ist, als Fahrerzustand detektiert, und
    dann, wenn die Fahrerzustandsdetektionseinheit detektiert, dass die Fahrbeanspruchung groß ist, die Sehführungseinheit die Sehführung im Vergleich zu einem Fall, in dem die Fahrerzustandsdetektionseinheit detektiert, dass die Fahrbeanspruchung klein ist, hervorhebt.
  • Im vorliegenden Fall ist es möglich, die Sichtlinie des Fahrers sicher hin zu dem unbeachteten Sehwahrnehmungsziel zu führen, wenn die Fahrbeanspruchung groß ist, das heißt, wenn wahrscheinlich ist, dass das Sehwahrnehmungsziel unbeachtet bleibt.
  • Bei der vorbeschriebenen Ausgestaltung gilt, dass die Fahrerzustandsdetektionseinheit wenigstens einen Zustand, in dem der Fahrer unkonzentriert ist, als Fahrerzustand detektieren kann, und
    dann, wenn die Fahrerzustandsdetektionseinheit detektiert, dass der Fahrer unkonzentriert ist, die Sehführungseinheit die Sehführung im Vergleich zu einem Fall, in dem die Fahrerzustandsdetektionseinheit detektiert, dass der Fahrer nicht unkonzentriert ist, hervorheben kann.
  • Im vorliegenden Fall ist es möglich, die Sichtlinie des Fahrers sicher zu dem unbeachteten Sehwahrnehmungsziel zu führen, wenn der Fahrer unkonzentriert ist, das heißt, wenn wahrscheinlich ist, dass das Sehwahrnehmungsziel unbeachtet bleibt.
  • Bei der vorbeschriebenen Ausgestaltung gilt, dass dann, wenn mehrere unbeachtete Sehwahrnehmungsziele vorhanden sind, die Sehführungseinheit die mehreren unbeachteten Sehwahrnehmungsziele in einer Anschaureihenfolge dem Rang nach ordnet und die Sehführung der mehreren unbeachteten Sehwahrnehmungsziele durch die Rangordnung durchführt.
  • Sind im vorliegenden Fall mehrere unbeachtete Sehwahrnehmungsziele vorhanden, so ist es, da die Sehführung der unbeachteten Sehwahrnehmungsziele gemäß der Rangordnung durchgeführt wird, möglich, die Sehführung beispielsweise in absteigender Reihenfolge der Wichtigkeit in Bezug auf die Sehwahrnehmungsziele durchzuführen.
  • Ein Sehwahrnehmungszieldetektionssystem entsprechend der weiteren Offenbarung kann beinhalten:
    • eine Umgebungslageermittlungseinheit zum Ermitteln einer Umgebungslage eines Beobachters; und
    • eine Sehwahrnehmungszielbestimmungseinheit zum Bestimmen eines Sehwahrnehmungsziels, das ein Objekt ist, zu dem der Beobachter in einer von der Umgebungslageermittlungseinheit ermittelten Umgebungslage schauen sollte, wobei die Sehwahrnehmungszielbestimmungseinheit das Sehwahrnehmungsziel auf Grundlage von drei vorab zurechtgelegten Sehwahrnehmungsmodellen bestimmen kann, und
    • die drei Sehwahrnehmungsmodelle beinhalten können: ein Salienzmodell zum Bestimmen dessen, dass ein instantan optisch wahrgenommenes Objekt ein Sehwahrnehmungsziel ist, ein Überraschungsmodell zum Bestimmen dessen, dass ein sich anomal verhaltendes Objekt ein Sehwahrnehmungsziel ist, und ein Referenzmodell zum Bestimmen dessen, dass ein durch einen Sehvorgang eines Beobachters, der als Referenz dient, optisch wahrgenommenes Objekt ein Sehwahrnehmungsziel ist.
  • Entsprechend der vorbeschriebenen Ausgestaltung ist es möglich, das Sehwahrnehmungsziel, zu dem der Beobachter schauen sollte, sicher zu detektieren.
  • Bei der vorbeschriebenen Ausgestaltung kann das Sehwahrnehmungszieldetektionssystem des Weiteren eine Anzeigeeinheit zum Anzeigen eines von der Sehwahrnehmungszielbestimmungseinheit bestimmten Sehwahrnehmungsziels beinhalten.
  • Im vorliegenden Fall kann der Beobachter ein Objekt, auf das er achten sollte, das jedoch gegebenenfalls unbeachtet bleibt, leicht und eindeutig erfassen.
  • Gewerbliche Anwendbarkeit
  • Die vorliegende Erfindung ist auf dem Kraftfahrzeuggebiet oder auf dem Gebiet der Überwachung einer Baustelle und einer Fabrikanlage von Vorteil, da sie möglich macht zu verhindern, dass ein Sehwahrnehmungsziel unbeachtet bleibt.

Claims (5)

  1. Sehwahrnehmungsassistenzsystem, umfassend: eine Umgebungslageermittlungseinheit (1) zum Ermitteln einer Umgebungslage eines bewegten Körpers, der von einem Fahrer gefahren werden soll; eine Sehwahrnehmungszielbestimmungseinheit (24) zum Bestimmen eines Sehwahrnehmungsziels, das ein Objekt ist, zu dem der Fahrer in einer von der Umgebungslageermittlungseinheit ermittelten Umgebungslage schauen sollte; eine Sichtlinienrichtungsdetektionseinheit (2) zum Detektieren einer Sichtlinienrichtung des Fahrers; eine Sehführungseinheit (25) zum Bestimmen dessen, ob ein unbeachtetes Sehwahrnehmungsziel, zu dem eine von der Sichtlinienrichtungsdetektionseinheit detektierte Sichtlinienrichtung nicht gerichtet ist, unter den von der Sehwahrnehmungszielbestimmungseinheit bestimmten Sehwahrnehmungszielen vorhanden ist, und Führen einer Sichtlinie des Fahrers hin zu dem unbeachteten Sehwahrnehmungsziel, wenn das unbeachtete Sehwahrnehmungsziel vorhanden ist; und eine Fahrerzustandsdetektionseinheit (3) zum Detektieren des Fahrerzustandes, wobei die Sehwahrnehmungszielbestimmungseinheit (24) das Sehwahrnehmungsziel auf Grundlage von drei vorab zurechtgelegten Sehwahrnehmungsmodellen bestimmt, und die drei Sehwahrnehmungsmodelle beinhalten: ein Salienzmodell (21) zum Bestimmen dessen, dass ein instantan optisch wahrgenommenes Objekt ein Sehwahrnehmungsziel ist, ein Überraschungsmodell (22) zum Bestimmen dessen, dass ein sich anomal verhaltendes Objekt ein Sehwahrnehmungsziel ist, und ein Norm- bzw. Referenzmodell (23) zum Bestimmen dessen, dass ein durch einen Sehvorgang eines Fahrers, der als Norm bzw. Referenz dient, optisch wahrgenommenes Objekt ein Sehwahrnehmungsziel ist, die Sehführungseinheit einen Grad der Intensität der Sehführung in Abhängigkeit von einem von der Fahrerzustandsdetektionseinheit zu detektierenden Fahrerzustand ändert, die Fahrerzustandsdetektionseinheit (3) wenigstens einen Zustand, in dem die Fahrbeanspruchung groß ist, als Fahrerzustand detektiert, und dann, wenn die Fahrerzustandsdetektionseinheit (3) detektiert, dass die Fahrbeanspruchung groß ist, die Sehführungseinheit (25) die Sehführung im Vergleich zu einem Fall, in dem die Fahrerzustandsdetektionseinheit detektiert, dass die Fahrbeanspruchung klein ist, hervorhebt, und dann, wenn mehrere unbeachtete Sehwahrnehmungsziele vorhanden sind, die Sehführungseinheit (25) die mehreren unbeachteten Sehwahrnehmungsziele in einer Anschaureihenfolge dem Rang nach ordnet und die Sehführung der mehreren unbeachteten Sehwahrnehmungsziele gemäß der Rangordnung durchführt.
  2. Sehwahrnehmungsassistenzsystem nach Anspruch 1, wobei der bewegte Körper von einem Fahrzeug gebildet wird, und die Umgebungslageermittlungseinheit (1) von einer Kamera zum Aufnehmen einer Zone vor dem Fahrzeug gebildet wird.
  3. Sehwahrnehmungsassistenzsystem nach Anspruch 1 oder 2, wobei die Sehführungseinheit (25) eine Sehführung durch Anzeigen eines Indikators an einer Position des unbeachteten Sehwahrnehmungsziels durchführt.
  4. Sehwahrnehmungsassistenzsystem nach Anspruch 1, wobei die Sehführungseinheit (25) den Grad der Intensität der Sehführung durch Ändern eines Grades der Auffälligkeit eines an einer Position des unbeachteten Sehwahrnehmungsziels anzuzeigenden Indikators ändert.
  5. Sehwahrnehmungsassistenzsystem nach einem der Ansprüche 1 bis 4, wobei die Fahrerzustandsdetektionseinheit (3) wenigstens einen Zustand, in dem der Fahrer unkonzentriert ist, als Fahrerzustand detektiert, und dann, wenn die Fahrerzustandsdetektionseinheit detektiert, dass der Fahrer unkonzentriert ist, die Sehführungseinheit (25) die Sehführung im Vergleich zu einem Fall, in dem die Fahrerzustandsdetektionseinheit detektiert, dass der Fahrer nicht unkonzentriert ist, hervorhebt.
DE112016005784.9T 2015-12-17 2016-12-16 Sehwahrnehmungsassistenzsystem und Sehwahrnehmungszielobjektdetektionssystem Active DE112016005784B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015-246061 2015-12-17
JP2015246061A JP6563798B2 (ja) 2015-12-17 2015-12-17 視覚認知支援システムおよび視認対象物の検出システム
PCT/JP2016/087533 WO2017104794A1 (ja) 2015-12-17 2016-12-16 視覚認知支援システムおよび視認対象物の検出システム

Publications (2)

Publication Number Publication Date
DE112016005784T5 DE112016005784T5 (de) 2018-09-13
DE112016005784B4 true DE112016005784B4 (de) 2023-08-03

Family

ID=59056699

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112016005784.9T Active DE112016005784B4 (de) 2015-12-17 2016-12-16 Sehwahrnehmungsassistenzsystem und Sehwahrnehmungszielobjektdetektionssystem

Country Status (5)

Country Link
US (1) US10717447B2 (de)
JP (1) JP6563798B2 (de)
CN (1) CN108369780B (de)
DE (1) DE112016005784B4 (de)
WO (1) WO2017104794A1 (de)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018117631A1 (en) * 2016-12-21 2018-06-28 Samsung Electronics Co., Ltd. Electronic apparatus and method of operating the same
JP6401821B1 (ja) * 2017-05-23 2018-10-10 カルソニックカンセイ株式会社 運転負荷推定装置
JP6760231B2 (ja) * 2017-09-01 2020-09-23 株式会社デンソー 衝突回避支援装置
JP2019051873A (ja) * 2017-09-18 2019-04-04 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 車両の制御システム
EP3702213B1 (de) * 2017-10-26 2024-03-20 Koito Manufacturing Co., Ltd. Fahrzeugscheinwerfersystem
JP6645489B2 (ja) * 2017-11-24 2020-02-14 マツダ株式会社 運転支援装置
WO2019167285A1 (ja) * 2018-03-02 2019-09-06 三菱電機株式会社 運転支援装置及び運転支援方法
US11206375B2 (en) 2018-03-28 2021-12-21 Gal Zuckerman Analyzing past events by utilizing imagery data captured by a plurality of on-road vehicles
US10876853B2 (en) * 2018-07-06 2020-12-29 Honda Motor Co., Ltd. Information presentation device, information presentation method, and storage medium
CN109094457B (zh) * 2018-07-16 2021-09-14 武汉理工大学 一种考虑驾驶员外周视野的车辆防碰撞预警系统及方法
US11138418B2 (en) 2018-08-06 2021-10-05 Gal Zuckerman Systems and methods for tracking persons by utilizing imagery data captured by on-road vehicles
JP7165532B2 (ja) * 2018-08-07 2022-11-04 本田技研工業株式会社 表示装置、表示制御方法、およびプログラム
CN112534487B (zh) * 2018-08-09 2024-03-08 索尼半导体解决方案公司 信息处理设备、移动体、信息处理方法和程序
JP2021535519A (ja) * 2018-09-24 2021-12-16 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. 拡張現実dsrcデータ可視化
JP7263734B2 (ja) * 2018-10-29 2023-04-25 株式会社アイシン 視認対象判定装置
EP3654311B1 (de) * 2018-11-16 2023-11-15 Honda Research Institute Europe GmbH Verfahren zur unterstützung eines fahrers eines ego-fahrzeugs bei der nutzung einer lücke zwischen fahrzeugen, entsprechendes fahrerassistenzsystem und fahrzeug mit solch einem fahrerassistenzsystem
JP7234614B2 (ja) * 2018-12-10 2023-03-08 トヨタ自動車株式会社 異常検出装置、異常検出システム及び異常検出プログラム
JP7176398B2 (ja) * 2018-12-21 2022-11-22 トヨタ自動車株式会社 制御装置、車両、画像表示システム、及び画像表示方法
JP6999540B2 (ja) * 2018-12-28 2022-01-18 本田技研工業株式会社 情報処理装置及びプログラム
JP7272007B2 (ja) * 2019-02-25 2023-05-12 トヨタ自動車株式会社 車両用表示制御装置、車両用表示装置、車両用表示制御方法及び車両用表示制御プログラム
US11369058B2 (en) * 2019-03-19 2022-06-28 Deere & Company Forward-looking perception interface and control
CN110070742A (zh) * 2019-05-29 2019-07-30 浙江吉利控股集团有限公司 高速匝道限速识别方法、系统及车辆
JP7228472B2 (ja) * 2019-06-07 2023-02-24 本田技研工業株式会社 認識装置、認識方法、およびプログラム
JP2021002182A (ja) * 2019-06-21 2021-01-07 矢崎総業株式会社 車両警報システム
JP7354686B2 (ja) * 2019-08-27 2023-10-03 株式会社リコー 出力制御装置、表示制御システム、出力制御方法およびプログラム
CN112937559B (zh) * 2019-11-22 2022-12-20 荷兰移动驱动器公司 行车警示方法及车载装置
EP4120225A4 (de) * 2020-03-10 2024-07-10 Pioneer Corp Kartendatenerzeugungsvorrichtung
JP7380365B2 (ja) * 2020-03-19 2023-11-15 マツダ株式会社 状態推定装置
CN113724500B (zh) * 2020-05-25 2022-10-04 中国石油化工股份有限公司 叉车坡道违规行驶预警方法及系统
FR3113881B1 (fr) * 2020-09-09 2022-09-02 Renault Sas Procédé d’affichage sécurisé d’informations dans un véhicule.
CN112181149B (zh) * 2020-09-30 2022-12-20 山东理工大学 驾驶环境的识别方法、装置及模拟驾驶器
CN112347851B (zh) * 2020-09-30 2023-02-21 山东理工大学 多目标检测网络的构建方法、多目标检测方法及装置
CN112168190B (zh) * 2020-10-23 2021-09-21 清华大学 驾驶压力实时监测系统及方法
JPWO2022162770A1 (de) * 2021-01-27 2022-08-04
CN115195752A (zh) * 2021-03-26 2022-10-18 本田技研工业株式会社 驾驶辅助装置
WO2023286835A1 (ja) * 2021-07-14 2023-01-19 パイオニア株式会社 視線誘導装置、視線誘導方法、視線誘導プログラム及び記憶媒体
US20230084753A1 (en) * 2021-09-16 2023-03-16 Sony Group Corporation Hyper realistic drive simulation
DE102021211139B3 (de) 2021-10-04 2023-03-16 Volkswagen Aktiengesellschaft Verfahren zur Steuerung einer Anzeigeeinrichtung und Fahrzeug mit einer Anzeigeeinrichtung
JP7389782B2 (ja) * 2021-10-26 2023-11-30 本田技研工業株式会社 表示装置、及び表示装置の制御方法
US20230196790A1 (en) * 2021-12-21 2023-06-22 GM Global Technology Operations LLC Generation of artificial color images from narrow spectral band data aboard a camera-equipped vehicle
US12008681B2 (en) * 2022-04-07 2024-06-11 Gm Technology Operations Llc Systems and methods for testing vehicle systems
US11793434B1 (en) * 2022-05-18 2023-10-24 GM Global Technology Operations LLC System to perform visual recognition and vehicle adaptation

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050209749A1 (en) 2004-03-17 2005-09-22 Denso Corporation Driving assistance system
JP2012234410A (ja) 2011-05-02 2012-11-29 Mazda Motor Corp 車両用運転支援装置
DE102013209418A1 (de) 2012-05-31 2013-12-05 GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) Fahrzeugkollisionswarnsystem und -verfahren
DE102013211444A1 (de) 2012-06-22 2013-12-24 Gm Global Technology Operations, Llc Warnsysteme und -verfahren für ein Fahrzeug
JP2014120111A (ja) 2012-12-19 2014-06-30 Aisin Aw Co Ltd 走行支援システム、走行支援方法及びコンピュータプログラム
JP2015011457A (ja) 2013-06-27 2015-01-19 株式会社デンソー 車両用情報提供装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0785280B2 (ja) * 1992-08-04 1995-09-13 タカタ株式会社 神経回路網による衝突予測判定システム
EP0841648B1 (de) * 1992-09-30 2004-06-02 Hitachi, Ltd. Unterstützungssystem für den Fahrer eines Fahrzeugs und damit ausgerüstetes Fahrzeug
DE10103922A1 (de) * 2001-01-30 2002-08-01 Physoptics Opto Electronic Gmb Interaktives Datensicht- und Bediensystem
JP2003327009A (ja) * 2002-05-14 2003-11-19 Toyota Central Res & Dev Lab Inc 注意喚起装置
US9007197B2 (en) * 2002-05-20 2015-04-14 Intelligent Technologies International, Inc. Vehicular anticipatory sensor system
WO2008029802A1 (fr) * 2006-09-04 2008-03-13 Panasonic Corporation Dispositif fournissant des informations de voyage
JP2009237776A (ja) * 2008-03-26 2009-10-15 Mazda Motor Corp 車両用運転支援装置
JP4992891B2 (ja) * 2008-12-18 2012-08-08 トヨタ自動車株式会社 覚醒度判定装置
CN102039842A (zh) * 2009-10-22 2011-05-04 侯方勇 一种提示驾驶员观察目标的装置和方法
JP5745827B2 (ja) * 2010-11-29 2015-07-08 パイオニア株式会社 車両表示装置
CN102642510B (zh) * 2011-02-17 2015-08-05 香港生产力促进局 一种基于图像的车辆防撞预警方法
JP5971341B2 (ja) * 2012-08-09 2016-08-17 トヨタ自動車株式会社 物体検出装置及び運転支援装置
JP5492962B2 (ja) * 2012-09-28 2014-05-14 富士重工業株式会社 視線誘導システム
JP2014109958A (ja) * 2012-12-03 2014-06-12 Denso Corp 撮影画像表示装置、および撮影画像表示方法
US20150310313A1 (en) * 2012-12-18 2015-10-29 Mitsubishi Electric Corporation Visibility estimation device, visibility estimation method, and safe driving support system
JP2014120113A (ja) * 2012-12-19 2014-06-30 Aisin Aw Co Ltd 走行支援システム、走行支援方法及びコンピュータプログラム
JP2014154125A (ja) * 2013-02-14 2014-08-25 Aisin Aw Co Ltd 走行支援システム、走行支援方法及びコンピュータプログラム
DE202013006467U1 (de) * 2013-07-18 2014-10-22 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Fahrzeugumfeld-Überwachungssystem
JP5925163B2 (ja) * 2013-07-25 2016-05-25 三菱電機株式会社 運転支援装置
CN103770780B (zh) * 2014-01-15 2017-10-03 中国人民解放军国防科学技术大学 一种车辆主动安全系统告警屏蔽装置
CN105083291B (zh) * 2014-04-25 2018-11-09 歌乐株式会社 基于视线检测的驾驶员辅助系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050209749A1 (en) 2004-03-17 2005-09-22 Denso Corporation Driving assistance system
JP2012234410A (ja) 2011-05-02 2012-11-29 Mazda Motor Corp 車両用運転支援装置
DE102013209418A1 (de) 2012-05-31 2013-12-05 GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) Fahrzeugkollisionswarnsystem und -verfahren
DE102013211444A1 (de) 2012-06-22 2013-12-24 Gm Global Technology Operations, Llc Warnsysteme und -verfahren für ein Fahrzeug
JP2014120111A (ja) 2012-12-19 2014-06-30 Aisin Aw Co Ltd 走行支援システム、走行支援方法及びコンピュータプログラム
JP2015011457A (ja) 2013-06-27 2015-01-19 株式会社デンソー 車両用情報提供装置

Also Published As

Publication number Publication date
CN108369780A (zh) 2018-08-03
US10717447B2 (en) 2020-07-21
JP6563798B2 (ja) 2019-08-21
JP2017111649A (ja) 2017-06-22
CN108369780B (zh) 2021-03-30
US20180362053A1 (en) 2018-12-20
DE112016005784T5 (de) 2018-09-13
WO2017104794A1 (ja) 2017-06-22

Similar Documents

Publication Publication Date Title
DE112016005784B4 (de) Sehwahrnehmungsassistenzsystem und Sehwahrnehmungszielobjektdetektionssystem
DE102013110332B4 (de) Visuelles leitsystem
EP2172801B1 (de) Verfahren für eine Anzeige einer visuellen Warndarstellung
DE102007045932B4 (de) Verfahren und Vorrichtung zur Warnung eines Fahrers eines Fahrzeuges
DE10131720B4 (de) Head-Up Display System und Verfahren
DE102017221191B4 (de) Verfahren zur Anzeige des Verlaufs einer Sicherheitszone vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
EP2986225B1 (de) Verfahren zur bestimmung, ob ein insasse eines fahrzeugs relevante objekte im umfeld des fahrzeugs bemerkt
EP3425442B1 (de) Verfahren und vorrichtung zum anreichern eines sichtfeldes eines fahrers eines fahrzeuges mit zusatzinformationen, vorrichtung zur verwendung in einem beobachter-fahrzeug sowie kraftfahrzeug
DE102008038816A1 (de) Verfahren und Vorrichtung zur Unterstützung des Betriebs eines Fahrzeugs
DE102014105374B4 (de) Fahrerassistenzsystem
DE102015201456A1 (de) Verfahren und System zur Ausgabe einer Warnmeldung in einem Fahrzeug
DE102009019702A1 (de) Verfahren und Vorrichtung zur Übergabeaufforderung an den Fahrzeugführer
DE102015116280A1 (de) Fahrzeuginformation-Präsentationseinrichtung
WO2020030467A1 (de) Verfahren und steuervorrichtung zum warnen eines fahrers eines kraftfahrzeugs sowie kraftfahrzeug mit einer derartigen steuervorrichtung
DE102017212432A1 (de) Verfahren und Vorrichtung zum Betreiben eines Fahrerassistenzsystems eines Kraftfahrzeugs und Fahrerassistenzsysteme
DE102017119834A1 (de) Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs bei einem Abbiegevorgang, Fahrerassistenzsystem und Kraftfahrzeug
DE102014012723A1 (de) Anzeigesystem
DE102016225268A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102014213019A1 (de) Kontaktanaloge Anzeige von Ausweichkorridoren für Fahrzeuge
DE112019007195T5 (de) Anzeigesteuerungseinrichtung, anzeigesteuerungsverfahren und anzeigesteuerungsprogramm
DE102014214505A1 (de) Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeugs
DE102014214507A1 (de) Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeugs
DE102014214506A1 (de) Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeugs
DE102014100965B4 (de) Fahrerassistenzsystem
DE102016215519A1 (de) Verfahren und Vorrichtung zum Betreiben eines Head-up Displays, Head-up Displayeinrichtung, Kraftfahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MUELLER-BORE & PARTNER PATENTANWAELTE PARTG MB, DE

R083 Amendment of/additions to inventor(s)
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final