DE112009004768B4 - Abschätzvorrichtung für den visuellen erkennungsbereich und antriebsunterstützungsvorrichtung - Google Patents

Abschätzvorrichtung für den visuellen erkennungsbereich und antriebsunterstützungsvorrichtung Download PDF

Info

Publication number
DE112009004768B4
DE112009004768B4 DE112009004768.8T DE112009004768T DE112009004768B4 DE 112009004768 B4 DE112009004768 B4 DE 112009004768B4 DE 112009004768 T DE112009004768 T DE 112009004768T DE 112009004768 B4 DE112009004768 B4 DE 112009004768B4
Authority
DE
Germany
Prior art keywords
visual recognition
recognition area
area
driver
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112009004768.8T
Other languages
English (en)
Other versions
DE112009004768T5 (de
Inventor
Hiroki Mori
Shintaro Yoshizawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of DE112009004768T5 publication Critical patent/DE112009004768T5/de
Application granted granted Critical
Publication of DE112009004768B4 publication Critical patent/DE112009004768B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Abstract

Abschätzvorrichtung (Ma) für den visuellen Erkennungsbereich, die aufweist: eine Berechnungseinrichtung (11) für den visuellen Erkennungsbereich, die einen visuellen Erkennungsbereich (V, Va, Vb, V(T)) auf der Grundlage eines Weltkoordinatensystem, der durch einen Fahrer (D) erkannt wird, auf der Grundlage von zumindest den Augen des Fahrers (D) und einer Position eines Fahrzeugs berechnet, und eine Warngradeinstelleinrichtung (12), die einen Warngrad (w) des Fahrers (D) in Bezug auf eine Vielzahl von visuellen Erkennungsbereichen (V, Va, Vb, V(T)), die von der Vergangenheit bis zur Gegenwart für die vorbestimmte Zeit berechnet werden, für jeden der Vielzahl an visuellen Erkennungsbereichen (V, Va, Vb, V(T)) einstellt, und eine Abschätzeinrichtung (14) des visuellen Erkennungsbereiches der Zeitreihen, die einen visuellen Erkennungsbereich (V, Va, Vb, V(T)) der Zeitreihen als einen Bereich, der durch den Fahrer (D) zurzeit erkannt wird, auf der Grundlage von Historien einer Vielzahl von Erkennungsbereichen (V(T)), die von der Vergangenheit bis zur Gegenwart für eine vorbestimmte Zeit berechnet werden, abschätzt, wobei die Warngradeinstelleinrichtung (12) den Warngrad (w) kleiner einstellt, wenn die Zeit (T) des Fahrers (D), der den visuellen Erkennungsbereich (V, Va, Vb, V(T)) erkennt, älter wird.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich auf eine Abschätzvorrichtung für einen visuellen Erkennungsbereich und eine Fahr- bzw. Antriebsunterstützungsvorrichtung.
  • Hintergrund der Erfindung
  • Im Beziehung stehenden Stand der Technik wird eine Warnvorrichtung betrachtet, die einen Fahrer vor Hindernissen, die um ein Fahrzeug vorliegen, warnt. Beispielsweise werden in einer in Patentliteratur 1 offenbarten Warnvorrichtung Hindernisse um ein Fahrzeug und die Richtung der Augen eines Fahrers jeweils erfasst und es wird durch den Vergleich der Positionen der erfassten Hindernisse mit der Richtung der Augen bestimmt, ob der Fahrer die Hindernisse erkennt oder nicht. Ferner warnt die Warnvorrichtung vor Hindernissen, die als nicht durch den Fahrer erkannt bestimmt werden.
  • Zitatliste
  • Patentliteratur
    • Japanische ungeprüfte Patentanmeldungsveröffentlichung Nr. JP 2006-163 828 A
  • Zusammenfassung der Erfindung
  • Technisches Gebiet
  • Jedoch wird in der Warnvorrichtung, die in Patentliteratur 1 offenbart ist, da bestimmt wird, ob die visuelle Erkennung durch einen Fahrer vorliegt oder nicht, während ständig die Position der Hindernisse mit der Richtung der Augen des Fahrers in Korrelation gesetzt werden, beispielsweise wenn eine Vielzahl von Hindernissen um ein Fahrzeug herum vorliegen, der Durchsatz der Entscheidungsverarbeitung zu groß. Aus diesem Grunde besteht ein Problem darin, dass die Verarbeitung in Echtzeit schwierig wird. Insbesondere wird dieses Problem bei einer dynamischen Szene bemerkbar. Ferner besteht, da sich die Richtung der Augen des Fahrers ständig ändert, ebenfalls ein Problem darin, dass sich die Bestimmungsgenauigkeit verschlechtert.
  • Aus dem Patentdokument US 7 519 459 B2 wird eine Blickwahrscheinlichkeitsverteilung, die anzeigt, zu welchen Positionen ein Blick eines Fahrers gerichtet werden soll, berechnet, indem die Formen von Straßen aus Bildsignalen eines visuellen Feldes eines Fahrers in Vorwärtsrichtung des Fahrers von einer nach vorn gerichteten Überwachungskamera erhalten werden. Diese Berechnung beinhaltet das Erzeugen eines Kantenbildes und eines Beleuchtungsbildes, wobei beide Bilder aus einem visuellen Feld mit einem Blick als Zentrum berechnet werden, und beinhaltet ferner das Berechnen einer Oben-Unten-Blick-Wahrscheinlichkeitsverteilung und das Berechnen einer Unten-Oben-Blick-Wahrscheinlichkeitsverteilung. Eine Fahrerüberwachungskamera erfasst einen Blick eines Fahrers, der verwendet wird, um eine Blickverteilung des Fahrers zu berechnen. Ein Risikoausmaß wird aus einer Differenz dieser Verteilungen erhalten und eine Aufmerksamkeit des Fahrers kann zu Regionen gelenkt werden, in denen eine hohes Risikoausmaß vorlegt. Je länger ein Blick nicht zu einer bestimmten Position gelenkt wurde, desto stärker wird eine Blickbewegung zu dieser Position gefordert. Das Dokument JP 2003-099 899 A offenbart das Erfassen eines Objektes außerhalb eines Fahrzeugs aus Bildern einer CCD-Außenkamera und das Erfassen einer Sichtlinie zum Objekt sowie einer Blickzeit von einer CCD-Fahrerkamera, wobei eine Wichtung eines Risikos verringert wird, wenn eine Blickzeit lang ist oder wenn eine Sichtlinie des Fahrers zum Objekt vorliegt. Das Dokument JP 2003-080 969 A offenbart das Messen einer Frequenz einer Sichtlinienrichtung des Fahrers auf der Grundlage eines Vorhandenseins eines Fahrzeugs in einer Umgebung des Fahrzeugs, damit ein Zustand des Fahrers erfasst wird, wie z. B. eine Aufmerksamkeitsverschlechterungserfassung. Somit besteht eine Aufgabe der vorliegenden Erfindung darin, eine Abschätzvorrichtung für den visuellen Erkennungsbereich und eine Fahr- bzw. Antriebsunterstützungsvorrichtung vorzusehen, die einen Bereich, der durch einen Fahrer erkannt wird, in Echtzeit genau abschätzen kann.
  • Lösung des Problems
  • Diese Aufgabe wird durch die Gegenstände der Ansprüche 1 und 4 gelöst. Weitere Ausführungsbeispiele sind in den Unteransprüchen offenbart.
  • Eine Abschätzvorrichtung für den visuellen Erkennungsbereich der vorliegenden Erfindung, die das vorstehende Problem löst, weist eine Berechnungseinrichtung für den visuellen Erkennungsbereich, die einen visuellen Erkennungsbereich, der durch einen Fahrer erkannt wird, auf der Grundlage der Augen des Fahrers berechnet, und eine Abschätzvorrichtung für den visuellen Erkennungsbereich in Bezug auf Zeitreihen auf, die einen visuellen Erkennungsbereich in Bezug auf Zeitreihen als einen Bereich abschätzt, der zurzeit durch den Fahrer erkannt wird, und zwar auf der Grundlage der Historien einer Vielzahl von visuellen Erkennungsbereichen, die von der Vergangenheit bis zur Gegenwart für eine vorbestimmte Zeit berechnet werden.
  • Entsprechend der Abschätzvorrichtung für den visuellen Erkennungsbereich der vorliegenden Erfindung wird der visuelle Erkennungsbereich, der durch den Fahrer erkannt wird, durch die Berechnungseinrichtung für den visuellen Erkennungsbereich auf der Grundlage der Augen des Fahrers berechnet. Ferner wird der visuelle Erkennungsbereich bezüglich der Zeitreihen als ein Bereich, der zurzeit durch den Fahrer erkannt wird, durch die Abschätzeinrichtung für den visuellen Erkennungsbereich in Bezug auf Zeitreihen auf der Grundlage der Historien der Vielzahl an visuellen Erkennungsbereichen, die von der Vergangenheit bis zur Gegenwart für eine vorbestimmte Zeit berechnet wurden, abgeschätzt. Auf diese Weise ist es durch das Abschätzen des visuellen Erkennungsbereiches bezüglich der Zeitreihen ebenfalls einschließlich des vergangenen visuellen Erkennungsbereiches möglich, den Bereich genau abzuschätzen, der durch den Fahrer zurzeit erkannt wird. Ferner ist, da die Augen des Fahrers nicht mit den Hindernissen in Korrelation stehen, sondern auf einem Standardbereich basieren, die Abschätzverarbeitung in Echtzeit möglich.
  • Hier kann die Abschätzvorrichtung für den visuellen Erkennungsbereich der vorliegenden Erfindung eine Warngradeinstelleinrichtung aufweisen, die einen Warn- bzw. Gefahrengrad des Fahrers in Bezug auf eine Vielzahl von visuellen Erkennungsbereichen einstellt, die von der Vergangenheit zur Gegenwart für eine vorbestimmte Zeit berechnet wurden, und zwar für jeden der Vielzahl an visuellen Erkennungsbereichen.
  • Entsprechend der vorliegenden Erfindung werden vermittels der Warngradeinstelleinrichtung die Warngrade des Fahrers in Bezug auf die Vielzahl an visuellen Erkennungsbereichen, die von der Vergangenheit zur Gegenwart für eine vorbestimmte Zeit berechnet werden, für jeden der Vielzahl an visuellen Erkennungsbereichen eingestellt. Durch das Einstellen des Warngrades ist es möglich, die Wichtung des Warngrades in Abhängigkeit von einem Grad der Neuheit des visuellen Erkennungsbereiches oder einer Position im visuellen Erkennungsbereich vorzunehmen. Da der visuelle Erkennungsbereich in Bezug auf Zeitreihen auf der Grundlage der Historien der Vielzahl an gewichteten visuellen Erkennungsbereichen auf diese Weise abgeschätzt wird, ist es möglich, den Warnzustand des Fahrers im visuellen Erkennungsbereich bezüglich der Zeitreihen genau abzuschätzen.
  • Ferner kann bei der Abschätzvorrichtung für den visuellen Erkennungsbereich der vorliegenden Erfindung die Warngradeinstelleinrichtung den Warngrad kleiner einstellen, wenn die Zeit des Fahrers, der den visuellen Erkennungsbereich erkennt, älter wird.
  • Gewöhnlich wird die Betrachtung angestellt, dass der Warngrad des momentanen Fahrers im visuellen Erkennungsbereich in dem Umfang reduziert wird, in dem der visuelle Erkennungsbereich im vergangenen visuellen Erkennungsbereich ist. Entsprechend der vorliegenden Erfindung wird vermittels der Warngradeinstelleinrichtung der Warngrad kleiner eingestellt, wenn die Zeit des Fahrers, der den visuellen Erkennungsbereich erkennt, älter wird. Durch das Reflektieren einer Verringerung des Warngrades des Fahrers entsprechend dem Verstreichen der Zeit im visuellen Erkennungsbereich auf diese Weise ist es möglich, den Warnzustand des Fahrers im visuellen Erkennungsbereich bezüglich der Zeitreihen genauer abzuschätzen.
  • Ferner kann in der Abschätzvorrichtung für den visuellen Erkennungsbereich der vorliegenden Erfindung die Berechnungseinrichtung für den visuellen Erkennungsbereich eine Berechnungseinrichtung für den visuellen Erkennungsbereich, die einen grundsätzlichen visuellen Erkennungsbereich berechnet, der auf der Grundlage der Richtung der Augen des Fahrers eingestellt wird, und eine Totbereichausschlusseinrichtung einschließen, die einen Totbereich des Fahrers, der durch ein Hindernis erzeugt wird, das im grundlegenden visuellen Erkennungsbereich vorliegt, abschätzt und den visuellen Erkennungsbereich berechnet, indem der Totbereich aus dem grundlegenden visuellen Erkennungsbereich ausgeschlossen wird.
  • Entsprechend der vorliegenden Erfindung wird vermittels der Berechnungseinrichtung für den grundlegenden visuellen Erkennungsbereich der grundlegende visuelle Erkennungsbereich, der auf der Grundlage der Richtung der Augen eines Fahrers eingestellt werden soll, berechnet. Ferner wird der Totbereich des Fahrers, der durch das Hindernis, das im grundlegenden visuellen Erkennungsbereich vorliegt, erzeugt wird, aus dem grundlegenden visuellen Erkennungsbereich vermittels der Totbereichausschlusseinrichtung ausgeschossen, wodurch der visuelle Erkennungsbereich berechnet wird. Durch das Einstellen des Bereiches mit der Ausnahme des Totbereichs als den visuellen Erkennungsbereich auf diese Weise wird der Totbereich, der durch den Fahrer zurzeit nicht erkannt werden kann, nicht in den visuellen Erkennungsbereich eingeschlossen. Somit ist es möglich, eine fehlerhafte Abschätzung zu verhindern, bei der der Totbereich als der visuelle Erkennungsbereich bestimmt wird.
  • Ferner kann die Berechnungseinrichtung für den visuellen Erkennungsbereich in der Abschätzvorrichtung für den visuellen Erkennungsbereich der vorliegenden Erfindung eine Berechnungseinrichtung für den grundlegenden visuellen Erkennungsbereich, die den grundlegenden visuellen Erkennungsbereich berechnet, der auf der Grundlage der Richtung der Augen des Fahrers eingestellt werden soll, und eine Spiegelbereichsadditionseinrichtung bzw. -hinzufügeeinrichtung aufweisen, die einen Spiegelbereich, der durch den Fahrer über einen Spiegel erkennbar ist, wenn der Spiegel in Richtung der Augen des Fahrers vorliegt, abschätzt und den visuellen Erkennungsbereich berechnet, indem der Spiegelbereich zum grundlegenden visuellen Erkennungsbereich addiert wird.
  • Entsprechend der vorliegenden Erfindung wird der grundlegende visuelle Erkennungsbereich, der auf der Grundlage der Richtung der Augen des Fahrers eingestellt werden soll, vermittels der Berechnungseinrichtung für den grundlegenden visuellen Erkennungsbereich berechnet. Ferner wird, wenn in Richtung der Augen des Fahrers der Spiegel vorliegt, der Spiegelbereich, der durch einen Fahrer über den Spiegel erkennbar ist, zum grundlegenden visuellen Erkennungsbereich vermittels der Spiegelbereichsadditionseinrichtung addiert, wodurch der visuelle Erkennungsbereich berechnet wird. Durch das Einstellen des Bereiches, zu dem der Spiegelbereich addiert wurde, als den visuellen Erkennungsbereich in dieser Weise wird ein Bereich, der durch den Fahrer über den Spiegel indirekt erkennbar ist, in den visuellen Erkennungsbereich eingeschlossen. Somit ist es möglich, den visuellen Erkennungsbereich durch ein indirektes visuelles Erkennen sowie durch ein direktes visuelles Erkennen abzuschätzen.
  • Ferner weist eine Antriebsunterstützungsvorrichtung der vorliegenden Erfindung die vorstehende Abschätzvorrichtung für den visuellen Erkennungsbereich auf und weist diese eine Beobachtungspunktextraktionseinrichtung, die einen Beobachtungspunkt, der durch den Fahrer beobachtet werden muss, aus einer Fahrumgebung extrahiert, und eine Gefahren- bzw. Warnzustandsbestimmungseinrichtung auf, die einen Gefahren- bzw. Warnzustand des Fahrers in Bezug auf den Beobachtungspunkt in Abhängigkeit davon bestimmt, ob sich der Beobachtungspunkt innerhalb eines visuellen Erkennungsbereiches bezüglich von Zeitreihen befindet oder nicht.
  • Entsprechend der Fahr- bzw. Antriebsunterstützungsvorrichtung der vorliegenden Erfindung wird der Beobachtungspunkt, der durch den Fahrer beobachtet werden muss, durch die Beobachtungspunktextraktionseinrichtung aus einer Fahrumgebung extrahiert. Ferner wird in Abhängigkeit davon, ob sich der Beobachtungspunkt innerhalb des visuellen Erkennungsbereiches bezüglich von Zeitreihen befindet oder nicht, der Warnzustand des Fahrers bezüglich des Beobachtungspunktes durch die Warnzustandsbestimmungseinrichtung bestimmt. Auf diese Weise besteht, da der Warnzustand des Fahrers durch den Vergleich des visuellen Erkennungsbereiches bezüglich der Zeitreihen mit dem Beobachtungspunkt bestimmt wird, keine Notwendigkeit, um die Augen des Fahrers mit dem Beobachtungspunkt zu korrelieren. Somit ist es möglich zu verhindern, dass der Durchsatz zu groß wird, wodurch eine Bestimmungsverarbeitung in Echtzeit möglich ist.
  • Vorteilhafte Wirkungen der Erfindung
  • Entsprechend der vorliegenden Erfindung ist es möglich, einen Bereich, der durch einen Fahrer erkannt wird, in Echtzeit genau abzuschätzen.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist ein Blockschaltbild bezüglich der Konfiguration einer Abschätzvorrichtung des visuellen Erkennungsbereiches und einer Antriebsunterstützungsvorrichtung entsprechend einem Ausführungsbeispiel der vorliegenden Erfindung.
  • 2 ist ein Blockschaltbild bezüglich einer Konfiguration eines Berechnungsabschnitts für den visuellen Erkennungsbereich in 1.
  • 3 ist eine erläuternde Darstellung einer Antriebsunterstützung durch eine Antriebsunterstützungsvorrichtung.
  • 4 ist ein Fließbild, das eine Verarbeitungsabfolge durch die Antriebsunterstützungsvorrichtung zeigt.
  • 5 ist ein Fließbild, das einen Teil der Verarbeitungsabfolge, die in 4 gezeigt ist, zeigt.
  • 6 ist eine erläuternde Darstellung einer Berechnung des grundlegenden visuellen Erkennungsbereiches in der Verarbeitung in 5.
  • 7 ist eine erläuternde Darstellung einer Totbereichausschlusses in der Verarbeitung von 5.
  • 8 ist eine erläuternde Darstellung eines Spiegelbereichshinzufügens in der Verarbeitung von 5.
  • 9 ist ein Fließbild, das einen Teil der Verarbeitungsabfolge, die in 4 gezeigt ist, zeigt.
  • 10 ist eine erläuternde Darstellung eines Grades der Warnerneuerung in der Verarbeitung in 9.
  • Die 11A und 11B sind erläuternde Darstellungen eines Wichtungskoeffizienten, der beim Grad der Warnerneuerung verwendet wird.
  • 12 ist eine erläuternde Darstellung eines Raumverzeichnisses für die visuelle Erkennungszeit, das in der Verarbeitung von 4 erzeugt wird.
  • 13 ist eine erläuternde Darstellung eines Sensorerfassungsverzeichnisses, das in der Verarbeitung von 4 erzeugt wird.
  • 14 ist eine erläuternde Darstellung eines Augenzielverzeichnisses, das in der Verarbeitung von 4 erzeugt wird.
  • 15 ist eine erläuternde Darstellung eines Wahrnehmungsverzeichnisses, das in der Verarbeitung von 4 erzeugt wird.
  • 16 ist eine erläuternde Darstellung eines Verzeichnisvergleiches in der Verarbeitung von 4.
  • 17 ist eine Darstellung, die einen Zustand zeigt, in dem eine Antriebsunterstützung an einer Kreuzung ausgeführt wird.
  • 18 ist eine Darstellung, die einen Zustand zeigt, nachdem eine vorbestimmte Zeit von dem Zustand von 17 verstrichen ist.
  • Beschreibung der Ausführungsbeispiele
  • Nachfolgend wird ein bevorzugtes Ausführungsbeispiel der vorliegenden Erfindung unter Bezugnahme auf die Zeichnungen beschrieben. In der folgenden Beschreibung beziehen sich die Ausdrücke wie „Position” und „Bereich” auf eine Position und einen Bereich, die durch dreidimensionale Koordinaten auf der Grundlage eines Weltkoordinatensystems in einem Fall gezeigt sind, wo diese nicht spezifisch beschrieben sind.
  • 1 ist ein Blockschaltbild der Konfiguration einer Abschätzvorrichtung für den visuellen Erkennungsbereich und einer Antriebsunterstützungsvorrichtung entsprechend dem Ausführungsbeispiel der vorliegenden Erfindung. Eine Antriebsunterstützungsvorrichtung M, die in 1 gezeigt ist, ist eine Vorrichtung, die an einem Bezugsfahrzeug montiert ist und die die Antriebs- bzw. Fahrunterstützung in Bezug auf einen Fahrer des Bezugsfahrzeuges in einer Fahrtumgebung des Bezugsfahrzeuges ausführt. Ferner ist eine Abschätzvorrichtung Ma für den visuellen Erkennungsbereich, die einen Teil der Antriebsunterstützungsvorrichtung M darstellt, eine Vorrichtung, die einen durch einen Fahrer erkannten Bereich abschätzt.
  • Die Antriebsunterstützungsvorrichtung M weist eine Abschätz-ECU (elektronische Steuereinheit) 1 für den visuellen Erkennungsbereich, eine Antriebsunterstützungs-ECU 2, ein Millimeterwellenradar 3, eine Kamera 4, einen Fahrzeuggeschwindigkeitssensor 5, ein Navigationssystem 6, einen Lautsprecher 7 und eine Anzeige 8 auf. Von diesen bilden die Abschätz-ECU 1 für den visuellen Erkennungsbereich, der Millimeterwellenradar 3, die Kamera 4, der Fahrzeuggeschwindigkeitssensor 5 und das Navigationssystem 6 die Abschätzvorrichtung Ma für den visuellen Erkennungsbereich. In der folgenden Beschreibung werden der Millimeterwellenradar 3, die Kamera 4, der Fahrzeuggeschwindigkeitssensor 5 und das Navigationssystem 6 allgemein ebenfalls als „Sensoren” bezeichnet.
  • Als Erstes werden die jeweiligen Komponenten der Abschätzvorrichtung Ma für den visuellen Erkennungsbereich beschrieben. Die Abschätz-ECU 1 für den visuellen Erkennungsbereich wird durch einen Computer gebildet, der eine CPU (zentrale Verarbeitungseinheit), einen ROM (Nur-Lese-Speicher), einen RAM (Direktzugriffsspeicher) und Ähnliches aufweist. Die Abschätz-ECU 1 für den visuellen Erkennungsbereich führt eine vorbestimmte Verarbeitung auf der Grundlage eines Bildsignals, eines Positionssignals oder von Ähnlichem, das von den Sensoren ausgegeben werden soll, aus und erzeugt ein Raumverzeichnis für die visuelle Erkennungszeit. Das Raumverzeichnis für die visuelle Erkennungszeit ist ein Verzeichnis, das einen visuellen Erkennungsbereich bezüglich von Zeitreihen als ein Bereich abschätzt, der durch einen Fahrer zurzeit erkannt wird.
  • Die Abschätz-ECU 1 für den visuellen Erkennungsbereich weist einen Berechnungsabschnitt 11 für den visuellen Erkennungsbereich, einen Warngradeinstellabschnitt 12, einen Aufnahmeabschnitt 13 für den visuellen Erkennungsbereich und einen Erzeugungsabschnitt 14 für das Raumverzeichnis der visuellen Erkennungszeit auf.
  • Der Berechnungsabschnitt 11 für den visuellen Erkennungsbereich ist ein Abschnitt, der einen visuellen Erkennungsbereich, der durch einen Fahrer in einer bestimmten Zeit erkannt wird, auf der Grundlage eines Bildsignals oder eines Positionssignals, die von den Sensoren ausgegeben werden, berechnet. Die Berechnung des visuellen Erkennungsbereiches durch den Berechnungsabschnitt 11 für den visuellen Erkennungsbereich wird für jede vorbestimmte Zeit ausgeführt. Obwohl der Berechnungsabschnitt 11 für den visuellen Erkennungsbereich in 2 gezeigte Komponenten aufweist, werden die Komponenten später beschrieben. Der Berechnungsabschnitt 11 für den visuellen Erkennungsbereich entspricht der Berechnungseinrichtung für den visuellen Erkennungsbereich.
  • Der in 1 gezeigte Warngradeinstellabschnitt 12 ist ein Abschnitt, der einen Warngrad eines Fahrers für jeden der Vielzahl an visuellen Erkennungsbereichen, die für jede vorbestimmte Zeit durch den Berechnungsabschnitt 11 des visuellen Erkennungsbereiches berechnet werden, einstellt. Der Warngrad zeigt einen Warngrad eines Fahrers im visuellen Erkennungsbereich. Der Warngradeinstellabschnitt 12 setzt den Warngrad in Verbindung mit jeder Koordinate in jedem visuellen Erkennungsbereich. Ferner speichert der Warngradeinstellabschnitt 12 die Wichtungskoeffizienten, die beim Erneuern des Warngrades verwendet werden. Die Wichtungskoeffizienten sind numerische Werte, die gleich 0 oder größer als 0 und gleich 1 oder kleiner als 1 sind. Der Warngradeinstellabschnitt 12 erneuert den Warngrad, indem die Wichtungskoeffizienten für den Warngrad in Bezug auf den visuellen Erkennungsbereich, der von der Vergangenheit zur Gegenwart für eine vorbestimmte Zeit berechnet wurde, jedes Mal multipliziert werden, wenn der visuelle Erkennungsbereich neu berechnet wird. Der Warngradeinstellabschnitt 12 erneuert den Warngrad, so dass der Warngrad kleiner eingestellt wird, wenn die Zeit des Fahrers, der den visuellen Erkennungsbereich erkennt, älter wird. Der Warngradeinstellabschnitt 12 entspricht der Warngradeinstelleinrichtung.
  • Der Aufnahmeabschnitt 13 für den visuellen Erkennungsbereich ist ein Abschnitt, der aufeinanderfolgend die visuellen Erkennungsbereiche aufzeichnet, die für jede vorbestimmte Zeit durch den Berechnungsabschnitt 11 für den visuellen Erkennungsbereich berechnet wurden, und die Warngrade, die für jeden visuellen Erkennungsbereich durch den Warngradeinstellabschnitt 12 eingestellt oder erneuert werden. Im Aufnahmeabschnitt 13 für den visuellen Erkennungsbereich wird ein vorbestimmter Schwellwert gespeichert, der einen Entscheidungsstandard dahingehend wird, ob die Koordinaten innerhalb des visuellen Erkennungsbereiches mit dem erneuerten Warngrad aufgezeichnet werden oder nicht. Der Aufnahmeabschnitt 13 für den visuellen Erkennungsbereich entscheidet, ob der visuelle Erkennungsbereich innerhalb einer vorbestimmten Zeit erneuert wird oder nicht. Ferner entscheidet der Aufnahmeabschnitt 13 für den visuellen Erkennungsbereich, ob der Warngrad, der durch den Warngradeinstellabschnitt 12 zusammen mit der Erneuerung des visuellen Erkennungsbereiches erneuert wird, niedriger als der Schwellwert ist oder nicht. Ferner nimmt der Aufnahmeabschnitt 13 für den visuellen Erkennungsbereich die Koordinaten innerhalb des visuellen Erkennungsbereiches unverändert auf oder entfernt dieser diese in Abhängigkeit vom Entscheidungsergebnis.
  • Der Erzeugungsabschnitt 14 für das Raumverzeichnis der visuellen Erkennungszeit ist ein Abschnitt, der ein Raumverzeichnis der visuellen Erkennungszeit auf der Grundlage des visuellen Erkennungsbereiches, der durch den Berechnungsabschnitt 11 des visuellen Erkennungsbereiches berechnet wurde, der jeweiligen vergangenen visuellen Erkennungsbereiche, die durch den Aufnahmeabschnitt 13 des visuellen Erkennungsbereiches aufgenommen wurden, und des Warngrades erzeugt. Der Aufnahmeabschnitt 13 für den visuellen Erkennungsbereich erzeugt das Raumverzeichnis der visuellen Erkennungszeit durch das Zusammensetzen des visuellen Erkennungsbereiches und des Warngrades. Ferner erzeugt, wenn der visuelle Erkennungsbereich erneut berechnet wird und der Warngrad erneuert wird, der Aufnahmeabschnitt 13 für den visuellen Erkennungsbereich ein Raumverzeichnis der visuellen Erkennungszeit auf der Grundlage des visuellen Erkennungsbereiches und des Warngrades nach der Erneuerung. Der Erzeugungsabschnitt 14 für das Raumverzeichnis der visuellen Erkennungszeit gibt das Raumverzeichnis der visuellen Erkennungszeit zur Antriebsunterstützungs-ECU 2 aus. Der Erzeugungsabschnitt 14 des Raumverzeichnisses für die visuelle Erkennungszeit entspricht der Abschätzeinrichtung des visuellen Erkennungsbereiches bezüglich der Zeitreihen.
  • Der Millimeterwellenradar 3 erfasst ein Hindernis, das um ein Bezugsfahrzeug herum vorliegt. Der Millimeterwellenradar 3 scannt die Millimeterwelle in einem vorbestimmten Bereich der Vorderseite, der linken und rechten Seiten und hinter dem Bezugsfahrzeug und nimmt die reflektierten Wellen davon auf, wodurch der Abstand vom Bezugsfahrzeug zum Hindernis, die Richtung des Hindernisses auf der Grundlage des Bezugsfahrzeuges und die Relativgeschwindigkeit des Hindernisses in Bezug auf das Bezugsfahrzeug, erfasst werden. Die Erfassung des Hindernisses durch den Millimeterwellenradar 3 wird für jede vorbestimmte Zeit ausgeführt. Der Millimeterwellenradar 3 erzeugt Hinderniserfassungssignale, die den erfassten Abstand, die erfasste Richtung und die erfasste Relativgeschwindigkeit zeigen, und gibt die erzeugten Hinderniserfassungssignale zur Abschätz-ECU 1 für den visuellen Erkennungsbereich aus. Ferner gibt der Millimeterwellenradar 3 ebenfalls die erzeugten Hinderniserfassungssignale zur Antriebsunterstützungs-ECU 2 aus.
  • Die Kamera 4 bildet einen Fahrer des Bezugsfahrzeuges ab. Die Kamera 4 ist vorn im Fahrzeuginneren befestigt und bildet ein Gesicht eines Fahrers, insbesondere den Bereich einschließlich beider Augen, ab. Das Abbilden eines Fahrers durch die Kamera 4 wird für jede vorbestimmte Zeit ausgeführt. Die Kamera 4 erzeugt das Bildsignal, das das abgebildete Bild zeigt, und gibt das erzeugte Bildsignal zur Abschätz-ECU 1 für den visuellen Erkennungsbereich aus.
  • Die Fahrzeuggeschwindigkeitssensoren 5 erfassen die Fahrzeuggeschwindigkeit des Bezugsfahrzeuges. Die Fahrzeuggeschwindigkeitssensoren 5 sind jeweils in den vier Rädern des Bezugsfahrzeuges vorgesehen, um die Drehzahlen der jeweiligen Fahrzeugräder zu erfassen. Ferner erfassen die Fahrzeuggeschwindigkeitssensoren 5 die Fahrzeuggeschwindigkeit des Fahrzeuges auf der Grundlage der Drehzahlen der jeweiligen Fahrzeugräder, erzeugen diese die Fahrzeuggeschwindigkeitssignale, die die Erfassungsfahrzeuggeschwindigkeiten zeigen, und geben diese die erzeugten Fahrzeuggeschwindigkeitssignale zur Abschätz-ECU 1 für den visuellen Erkennungsbereich aus.
  • Das Navigationssystem 6 weist eine Verzeichnis- bzw. Kartendatenbank, einen GPS(Global Positioning System)-Empfänger, Eingabe- und Ausgabevorrichtungen oder Ähnliches auf. Das Navigationssystem 6 erfasst die Positionen des Bezugsfahrzeuges vermittels der Verzeichnisdatenbank oder des GPS-Empfängers. Das Erfassen der Position durch das Navigationssystem 6 wird für jeden visuellen Erkennungsbereich für eine vorbestimmte Zeit ausgeführt. Beim Erfassen der Position des Bezugsfahrzeuges erzeugt das Navigationssystem 6 das Positionssignal, das die Position des erfassten Bezugsfahrzeuges zeigt, und gibt dieses das Signal zur ECU 1 aus. Ferner gibt das Navigationssystem 6 ebenfalls das erzeugte Positionssignal zur Antriebsunterstützungs-ECU 2 aus.
  • Als Nächstes wird jede Komponente, die sich im Berechnungsabschnitt 11 für den visuellen Erkennungsbereich befindet, beschrieben. Wie es in 2 gezeigt ist, weist der Berechnungsabschnitt 11 für den visuellen Erkennungsbereich einen Berechnungsabschnitt 15 für den grundlegenden visuellen Erkennungsbereich, einen Totbereichausschlussabschnitt 16, einen Spiegelbereichshinzufügeabschnitt 17 und einen Bestimmungsabschnitt 18 für den visuellen Erkennungsbereich auf.
  • Der Berechnungsabschnitt 15 für den grundlegenden visuellen Erkennungsbereich ist ein Abschnitt, der einen grundlegenden visuellen Erkennungsbereich berechnet, der auf der Grundlage der Richtung der Augen eines Fahrers eingestellt werden soll. Der Berechnungsabschnitt 15 für den grundlegenden visuellen Erkennungsbereich erlangt ein Bildsignal, das von der Kamera 4 ausgegeben werden soll, ein Fahrzeuggeschwindigkeitssignal, das vom Fahrzeuggeschwindigkeitssensor 5 ausgegeben werden soll, und ein Positionssignal, das vom Navigationssystem 6 ausgegeben werden soll, und speichert die Signale in der Reihenfolge. Ferner berechnet der Berechnungsabschnitt 15 für den grundlegenden visuellen Erkennungsbereich die Richtung der Augen eines Fahrers, indem die Bildverarbeitung an dem erforderlichen Bildsignal ausgeführt wird. Ferner entscheidet der Berechnungsabschnitt 15 für den grundlegenden visuellen Erkennungsbereich, ob das Bildsignal von der Kamera 4 und das Positionssignal vom Navigationssystem 6 innerhalb einer vorbestimmten Zeit erneuert werden. Außerdem entscheidet bei der Entscheidung, dass ein beliebiger Wert aus Position des Bezugsfahrzeuges und berechnete Richtung der Augen erneuert wird, der Berechnungsabschnitt 15 für den grundlegenden visuellen Erkennungsbereich über die Position des Bezugsfahrzeuges, die der Standard der grundlegenden Berechnung der visuellen Erkennung wird.
  • Ein effektiver Betrachtungswinkel und ein Bereich eines Fahrers in Abhängigkeit von der Fahrzeuggeschwindigkeit des Bezugsfahrzeuges werden im Berechnungsabschnitt 15 für den grundlegenden visuellen Erkennungsbereich gespeichert. Der Berechnungsabschnitt 15 für den grundlegenden visuellen Erkennungsbereich berechnet den effektiven Blick- bzw. Betrachtungswinkel und den Bereich entsprechend der Fahrzeuggeschwindigkeit, die im Fahrzeuggeschwindigkeitssignal gezeigt ist. Außerdem berechnet der Berechnungsabschnitt 15 für den grundlegenden visuellen Erkennungsbereich den grundlegenden visuellen Erkennungsbereich, indem die berechnete Richtung der Augen, der effektive Betrachtungswinkel, der Bereich und die Position des Bezugsfahrzeuges, die im Positionssignal gezeigt ist, zusammengesetzt werden. Der Berechnungsabschnitt 15 für den grundlegenden visuellen Erkennungsbereich entspricht der Berechnungseinrichtung für den grundlegenden visuellen Erkennungsbereich. Außerdem kann der Berechnungsabschnitt 15 für den grundlegenden visuellen Erkennungsbereich einen mittleren Betrachtungswinkel in Abhängigkeit von der Fahrzeuggeschwindigkeit des Bezugsfahrzeuges speichern und den grundlegenden visuellen Erkennungsbereich unter Verwendung des mittleren Betrachtungswinkels und des Bereiches berechnen.
  • Der Totbereichausschlussabschnitt 16 ist ein Abschnitt, der den Totbereich eines Fahrers abschätzt, der durch Hindernisse erzeugt wird, die im grundlegenden visuellen Erkennungsbereich vorliegen, und den Totbereich aus dem grundlegenden visuellen Erkennungsbereich ausschließt. Der Totbereichausschlussabschnitt 16 erlangt das Hinderniserfassungssignal, das vom Millimeterwellenradar 3 ausgegeben werden soll, und das Positionssignal, das vom Navigationssystem 6 ausgegeben werden soll, und speichert die Signale in der Reihenfolge. Der Totbereichausschlussabschnitt 16 entscheidet, ob das Hinderniserfassungssignal vom Millimeterwellenradar 3 innerhalb einer vorbestimmten Zeit erneuert wird oder nicht. Ferner entscheidet, wenn entschieden wird, dass das Hinderniserfassungssignal innerhalb einer vorbestimmten Zeit erneuert wird, der Totbereichausschlussabschnitt 16 darüber, ob sich die Position des Hindernisses, das im Hinderniserfassungssignal gezeigt ist, außerhalb des grundlegenden visuellen Erkennungsbereiches befindet oder nicht, der durch den Berechnungsabschnitt 15 für den grundlegenden visuellen Erkennungsbereich berechnet wird.
  • Wenn entschieden wird, dass die Position des Hindernisses mit der Ausnahme für den grundlegenden visuellen Erkennungsbereich nicht vorliegt, berechnet der Totbereichausschlussabschnitt 16 den Totbereich eines Fahrers, indem der Abstand bis zum Hindernis und die Richtung des Hindernisses, die im Hinderniserfassungssignal gezeigt ist bzw. sind, und die Position des Bezugsfahrzeuges, die im erlangten Positionssignal gezeigt ist, kombiniert werden. Außerdem berechnet der Totbereichausschlussabschnitt 16 den visuellen Erkennungsbereich des Totwinkelausschlusses, indem der Totbereich aus dem grundlegenden visuellen Erkennungsbereich ausgeschlossen wird. Der visuelle Erkennungsbereich des Totwinkelausschlusses, der somit berechnet wurde, ist ein Bereich, in dem der Totbereich, der zurzeit durch einen Fahrer nicht erkennbar ist, ausgeschlossen wird. Der Totbereichausschlussabschnitt 16 entspricht einer Totbereichausschlusseinrichtung.
  • Der Spiegelbereichshinzufügeabschnitt 17 ist ein Abschnitt, der den Spiegelbereich, der durch Fahrer über Spiegel erkennbar ist, abschätzt und fügt einen Spiegelbereich zum grundlegenden visuellen Erkennungsbereich hinzu. Hier sind die Spiegel linke und rechte Türspiegel, ein Kotflügelspiegel, ein Raumspiegel oder Ähnliches. Der Spiegelbereichshinzufügeabschnitt 17 speichert die Betrachtungsrichtungen eines Fahrers, die durch den Berechnungsabschnitt 15 für den grundlegenden visuellen Erkennungsbereich berechnet wurden, in der Reihenfolge. Ferner werden die Positionen der Spiegel auf der Grundlage des Bezugsfahrzeuges im Spiegelbereichshinzufügeabschnitt 17 gespeichert. Der Spiegelbereichshinzufügeabschnitt 17 entscheidet, ob die Spiegel in Richtung der Augen eines Fahrers vorliegen oder nicht, auf der Grundlage der Richtung von Augen eines Fahrers, die durch den Berechnungsabschnitt 15 für den grundlegenden visuellen Erkennungsbereich berechnet wurden, und der Positionen der gespeicherten Spiegel. Wenn entschieden wird, dass der Spiegel in Richtung der Augen eines Fahrers vorliegt, berechnet der Spiegelbereichshinzufügeabschnitt 17 einen Bereich, der im Spiegel als Spiegelbereich reflektiert wird, auf der Grundlage der Richtung der Augen und der Position des Spiegels.
  • Außerdem berechnet der Spiegelbereichshinzufügeabschnitt 17 einen visuellen Erkennungsbereich für das Spiegelhinzufügen, indem der Spiegelbereich zum grundlegenden visuellen Erkennungsbereich, der durch den Berechnungsabschnitt 15 für den grundlegenden visuellen Erkennungsbereich berechnet wurde, oder zu dem visuellen Erkennungsbereich des Totwinkelausschließens, der durch den Totbereichausschlussabschnitt 16 berechnet wird, hinzugefügt wird. Der visuelle Erkennungsbereich für das Spiegelhinzufügen, der somit berechnet wurde, ist ein Bereich, wo der Bereich, der durch einen Fahrer über den Spiegel indirekt erkennbar ist, eingeschlossen ist. Der Spiegelbereichshinzufügeabschnitt 17 entspricht der Spiegelbereichshinzufügeeinrichtung. Außerdem kann der Spiegelbereichshinzufügeabschnitt 17 Winkelinformationen von einer Spiegelwinkeleinstellvorrichtung erlangen und den Spiegelbereich berechnen, indem die Winkelinformationen berücksichtigt werden.
  • Der Bestimmungsabschnitt 18 für den visuellen Erkennungsbereich ist ein Abschnitt, der den visuellen Erkennungsbereich bestimmt. Der Bestimmungsabschnitt 18 für den visuellen Erkennungsbereich bestimmt den grundlegenden visuellen Erkennungsbereich, den visuellen Erkennungsbereich des Totwinkelausschließens oder den visuellen Erkennungsbereich des Spiegelhinzufügens als den visuellen Erkennungsbereich auf der Grundlage des Ergebnisses der Erneuerungsentscheidung des Hinderniserfassungssignals durch den Totbereichausschlussabschnitt 16 oder eines Entscheidungsergebnisses einer Spiegelvorhandenseinentscheidung in Richtung der Augen durch den Spiegelbereichshinzufügeabschnitt 17. Der visuelle Erkennungsbereich, der durch den Bestimmungsabschnitt 18 für den visuellen Erkennungsbereich bestimmt wurde, wird ein visueller Erkennungsbereich, der im Berechnungsabschnitt 11 für den visuellen Erkennungsbereich berechnet wurde.
  • Im Anschluss an jede Komponente der Abschätzvorrichtung Ma für den visuellen Erkennungsbereich, die vorstehend beschrieben wurde, werden andere Komponenten, die die Antriebsunterstützungsvorrichtung M bilden, beschrieben.
  • Ähnlich der Abschätz-ECU 1 für den visuellen Erkennungsbereich wird die Antriebsunterstützungs-ECU 2 durch einen Computer gebildet, der eine CPU, einen ROM, einen RAM oder Ähnliches aufweist. Die Antriebsunterstützungs-ECU 2 steuert die Antriebsunterstützung bezüglich eines Fahrers des Bezugsfahrzeuges durch das Ausführen einer vorbestimmten Verarbeitung auf der Grundlage des Hinderniserfassungssignals, das vom Millimeterwellenradar 3 ausgegeben werden soll, des Positionssignals, das vom Navigationssystem 6 ausgegeben werden soll, und des Raumverzeichnisses für die visuelle Erkennungszeit, das von der Abschätz-ECU 1 für den visuellen Erkennungsbereich ausgegeben werden soll.
  • Die Antriebsunterstützungs-ECU 2 weist eine Wahrnehmungszielextraktions-ECU 21, einen Verzeichnisvergleichsabschnitt 22 und einen Antriebsunterstützungssteuerabschnitt 23 auf. Die Wahrnehmungszielextraktions-ECU 21 erzeugt ein Sensorerfassungsverzeichnis, ein Augenzielverzeichnis und ein Wahrnehmungszielextraktionsverzeichnis, indem eine vorbestimmte Verarbeitung auf der Grundlage des Hinderniserfassungssignals, des Positionssignals und des Raumverzeichnisses für die visuelle Erfassungszeit ausgeführt werden. Das Sensorerfassungsverzeichnis, das Augenzielverzeichnis und das Wahrnehmungszielextraktionsverzeichnis werden später beschrieben.
  • Die Wahrnehmungszielextraktions-ECU 21 weist einen Sensorerfassungsverzeichnis-Erzeugungsabschnitt 24, einen Augenzielverzeichniserzeugungsabschnitt 25 und einen Wahrnehmungszielerzeugungsabschnitt 26 auf.
  • Der Sensorerfassungsverzeichnis-Erzeugungsabschnitt 24 ist ein Abschnitt, der das Sensorerfassungsverzeichnis auf der Grundlage des Hinderniserfassungssignals, das vom Millimeterwellenradar 3 ausgegeben werden soll, und des Positionssignals, das vom Navigationssystem 6 ausgegeben werden soll, erzeugt. Der Sensorerfassungsverzeichnis-Erzeugungsabschnitt 24 erlangt das Hinderniserzeugungssignal und das Positionssignal. Der Sensorerfassungsverzeichnis-Erzeugungsabschnitt 24 berechnet die Relativgeschwindigkeit des Bezugsfahrzeuges und des Hindernisses, das im Hinderniserfassungssignal gezeigt ist, in Bezug auf jedes der Hindernisse, die durch den Millimeterwellenradar 3 erfasst werden. Ferner berechnet der Sensorerfassungsverzeichnis-Erzeugungsabschnitt 24 eine Zeit (auf die sich als TTC (Zeit bis zur Kollision) in der folgenden Beschreibung bezogen wird) zur Kollision in Bezug auf jedes Hindernis auf der Grundlage der berechneten Relativgeschwindigkeit.
  • Ferner ist ein Schwellwert von TTC im Sensorerfassungsverzeichnis-Erzeugungsabschnitt 24 gespeichert. Der Sensorerfassungsverzeichnis-Erzeugungsabschnitt 24 extrahiert das Hindernis, das eine TTC von gleich dem Schwellwert oder kleiner als den Schwellwert hat, durch den Vergleich von der TTC, die für jedes Hindernis berechnet wurde, mit dem Schwellwert. Außerdem berechnet der Sensorerfassungsverzeichnis-Erzeugungsabschnitt 24 die Position des extrahierten Hindernisses auf der Grundlage des Abstandes zum Hindernis und der Richtung des Hindernisses, die im erlangten Hinderniserfassungssignal gezeigt sind, und der Position des Bezugsfahrzeuges, die im erlangten Positionssignal gezeigt ist.
  • Ferner führt der Sensorerfassungsverzeichnis-Erzeugungsabschnitt 24 die Extraktion des Hindernisses für jede vorbestimmte Zeit aus und speichert dieser die Positionen von jedem Hindernis in Zeitreihen für jede Richtung, wo sich das extrahierte Hindernis befindet. Auf diese Weise erzeugt der Sensorerfassungsverzeichnis-Erzeugungsabschnitt 24 das Sensorerfassungsverzeichnis. Ferner erneuert der Sensorerfassungsverzeichnis-Erzeugungsabschnitt 24 das Sensorerfassungsverzeichnis in der Reihenfolge durch das Ausführen einer solchen Verarbeitung für jede vorbestimmte Zeit. Das Sensorerfassungsverzeichnis ist ein Verzeichnis, bei dem das Hindernis, das durch einen Fahrer zu beobachten ist, aus den Hindernissen extrahiert wird, die durch den Millimeterwellenradar 3 um das Bezugsfahrzeug erfasst werden.
  • Der Augenzielverzeichniserzeugungsabschnitt 25 ist ein Abschnitt, der das Augenzielverzeichnis auf der Grundlage des Raumverzeichnisses für die visuelle Erkennungszeit, das vom Aufnahmeabschnitt 13 für den visuellen Erkennungsbereich der Abschätz-ECU 1 für den visuellen Erkennungsbereich ausgegeben werden soll, und des Sensorerfassungsverzeichnisses, das durch den Sensorerfassungsverzeichnis-Erzeugungsabschnitt 24 erzeugt werden soll, erzeugt. Der Augenzielverzeichniserzeugungsabschnitt 25 erlangt das Raumverzeichnis für die visuelle Erkennungszeit, das von der Abschätz-ECU 1 für den visuellen Erkennungsbereich ausgegeben werden soll. Ferner extrahiert der Augenzielverzeichniserzeugungsabschnitt 25 das Hindernis, das sich innerhalb des visuellen Erkennungsbereiches der Zeitreihen, der im erlangten Raumverzeichnis für die visuelle Erkennungszeit gezeigt ist, angeordnet ist, aus den Hindernissen, die im Sensorerfassungsverzeichnis gespeichert sind.
  • Ferner führt der Augenzielverzeichniserzeugungsabschnitt 25 die Extraktion des Hindernisses für jede vorbestimmte Zeit aus und speichert dieser die Positionen von jedem Hindernis in Zeitreihen für jede Richtung, wo sich das extrahierte Hindernis befindet. Auf diese Weise erzeugt der Augenzielverzeichniserzeugungsabschnitt 25 das Augenzielverzeichnis. Ferner erneuert der Augenzielverzeichniserzeugungsabschnitt 25 das Augenzielverzeichnis in der Reihenfolge, indem eine solche Verarbeitung für jede vorbestimmte Zeit ausgeführt wird. Das Augenzielverzeichnis ist ein Verzeichnis, das das Hindernis, das in dem Bereich vorhanden ist, der zurzeit durch einen Fahrer erkannt wird, aus den Hindernissen zeigt, die durch einen Fahrer um ein Bezugsfahrzeug beobachtet werden müssen.
  • Der Wahrnehmungsverzeichniserzeugungsabschnitt 26 ist ein Abschnitt, der das Wahrnehmungsverzeichnis auf der Grundlage des Sensorerfassungsverzeichnisses erzeugt, das durch den Sensorerfassungsverzeichnis-Erzeugungsabschnitt 24 erzeugt wird. Der Wahrnehmungsverzeichniserzeugungsabschnitt 26 speichert die älteste Position und die neueste Position in der Erfassungszeit in Bezug auf die Hindernisse, die im Sensorerfassungsverzeichnis gespeichert sind und aufeinanderfolgend erfasst werden. Ferner berechnet der Wahrnehmungsverzeichniserzeugungsabschnitt 26 eine Vorhersageposition des Hindernisses, das im Sensorerfassungsverzeichnis zu einer vorbestimmten Zeit erfasst wird und im Sensorerfassungsverzeichnis nicht erfasst wird, das erneuert wird, nachdem eine vorbestimmte Zeit von dieser Zeit vergangen ist, und speichert der Wahrnehmungsverzeichniserzeugungsabschnitt 26 diese.
  • Ferner speichert der Wahrnehmungsverzeichniserzeugungsabschnitt 26 die Positionen und die vorhergesagten Positionen von jedem Hindernis in Zeitreihen für jede vorbestimmte Zeit und für jede Richtung, wo sich die Hindernisse befinden. Auf diese Weise erzeugt der Wahrnehmungsverzeichniserzeugungsabschnitt 26 das Wahrnehmungsverzeichnis. Ferner erneuert der Wahrnehmungsverzeichniserzeugungsabschnitt 26 das Augenzielverzeichnis in der Reihenfolge, indem eine solche Verarbeitung für jede vorbestimmte Zeit vorgenommen wird. Das Wahrnehmungszielextraktionsverzeichnis ist ein Verzeichnis, in dem das Ziel, das das Minimum ist, das dem Fahrer in der Fahrumgebung eines Bezugsfahrzeuges mitgeteilt werden muss, als ein Beobachtungspunkt extrahiert wird. Der Wahrnehmungsverzeichniserzeugungsabschnitt 26 entspricht der Beobachtungspunktextraktionseinrichtung.
  • Der Verzeichnisvergleichsabschnitt 22 ist ein Abschnitt, der die Hindernisse erfasst, die ein Antriebsunterstützungsziel sein müssen, indem das Augenzielverzeichnis, das durch den Augenzielverzeichniserzeugungsabschnitt 25 erzeugt wird, mit dem Wahrnehmungsverzeichnis, das durch den Wahrnehmungsverzeichniserzeugungsabschnitt 26 erzeugt wird, verglichen wird. Der Verzeichnisvergleichsabschnitt 22 erfasst das Hindernis, das sich nicht im Augenzielverzeichnis befindet, aus den Hindernissen, die im Wahrnehmungszielextraktionsverzeichnis gespeichert sind, als ein übersehenes Hindernis. Anders ausgedrückt erfasst der Verzeichnisvergleichsabschnitt 22 den Beobachtungspunkt, der im visuellen Erkennungsbereich der Zeitreihe nicht enthalten ist, aus den Beobachtungspunkten, die im Wahrnehmungszielextraktionsverzeichnis extrahiert sind. Der Verzeichnisvergleichsabschnitt 22 entspricht der Warnzustandsbestimmungseinrichtung, die den Warnzustand eines Fahrers in Bezug auf den Beobachtungspunkt bestimmt.
  • Der Antriebsunterstützungssteuerabschnitt 23 ist ein Abschnitt, der die Antriebsunterstützung steuert, um Informationen in Bezug auf das übersehene Hindernis vorzuschlagen, das durch den Antriebsunterstützungssteuerabschnitt 23 erfasst wurde. Der Antriebsunterstützungssteuerabschnitt 23 erzeugt das Antriebsunterstützungssignal einschließlich der Position des übersehenen Hindernisses und Ähnliches und gibt das erzeugte Antriebsunterstützungssignal zum Lautsprecher 7 und der Anzeige 8 aus.
  • Der Lautsprecher 7 ist ein Fahrzeuglautsprecher, der einen vorbestimmten Ton zu einem Fahrer auf der Grundlage des Antriebsunterstützungssignals ausgibt, das vom Antriebsunterstützungssteuerabschnitt 23 der Antriebsunterstützungs-ECU 2 ausgegeben wird. Ferner ist die Anzeige 8 eine Fahrzeuganzeige, die ein vorbestimmtes Bild einem Fahrer auf der Grundlage eines Antriebsunterstützungssignals anzeigt, das vom Antriebsunterstützungssteuerabschnitt 23 der Antriebsunterstützungs-ECU 2 ausgegeben wird. Der Lautsprecher 7 und die Anzeige 8 erlangen das Antriebsunterstützungssignal und berichten die Position des übersehenen Hindernisses und Ähnliches, die im erlangten Antriebsunterstützungssignal gezeigt ist, einem Fahrer vermittels Ton und Bild.
  • Die Beziehung zwischen jedem Verzeichnis, das durch die Konfiguration der Antriebsunterstützungsvorrichtung M und der Abschätzvorrichtung Ma des visuellen Erkennungsbereiches, die vorstehend beschrieben wurde, erzeugt wird, und der Antriebsunterstützung unter Verwendung des erzeugten Verzeichnisses ist wie es in 3 gezeigt ist. Wie es in 3 gezeigt ist, werden ein Raumverzeichnis M1 für die visuelle Erkennungszeit und ein Sensorerfassungsverzeichnis M2 auf der Grundlage von jedem Signal, das von den Sensoren ausgegeben werden soll, erzeugt. Ferner wird ein Augenzielverzeichnis M3 auf der Grundlage des Raumverzeichnisses M1 für die visuelle Erkennungszeit und des Sensorerfassungsverzeichnisses M2 erzeugt. Außerdem wird ein Beachtungsverzeichnis M4 auf der Grundlage des Sensorerfassungsverzeichnisses M2 erzeugt. Ferner wird die Antriebsunterstützung durch den Vergleich des Augenzielverzeichnisses M3 mit dem Beachtungsverzeichnis M4 ausgeführt.
  • Als Nächstes wird der Betrieb der Antriebsunterstützungsvorrichtung M und der Abschätzvorrichtung Ma für den visuellen Erkennungsbereich beschrieben. 4 ist ein Fließbild, das eine Verarbeitungsabfolge durch die Antriebsunterstützungsvorrichtung M zeigt. Die in 4 gezeigte Verarbeitung wird vom Start des Verbrennungsmotors des Bezugsfahrzeuges bis zum Stoppen von diesem wiederholt ausgeführt.
  • Als Erstes erlangen die Abschätz-ECU 1 für den visuellen Erkennungsbereich und die Antriebsunterstützungs-ECU 2 jedes Signal, das von den Sensoren (S1) ausgegeben werden soll. Hier erlangt die Abschätz-ECU 1 für den visuellen Erkennungsbereich das Hinderniserfassungssignal aus dem Millimeterwellenradar 3, dem Bildsignal von der Kamera 4, dem Fahrzeuggeschwindigkeitssignal vom Fahrzeuggeschwindigkeitssensor 5 und dem Positionssignal vom Navigationssystem 6 und speichert diese die Signale in der Reihenfolge. Ferner erlangt die Antriebsunterstützungs-ECU 2 die Hinderniserfassung aus dem Millimeterwellenradar 3 und dem Positionssignal von dem Navigationssystem 6 und speichert diese die Signale in der Reihenfolge.
  • Als Nächstes berechnet die Abschätz-ECU 1 für den visuellen Erkennungsbereich den visuellen Erkennungsbereich (S2). Die Berechnungsverarbeitung des visuellen Erkennungsbereiches in der Abschätz-ECU 1 für den visuellen Erkennungsbereich wird hauptsächlich durch den Berechnungsabschnitt 11 für den visuellen Erkennungsbereich in Abhängigkeit von dem in 5 gezeigten Fließbild ausgeführt. Als Erstes entscheidet der Berechnungsabschnitt 15 für den grundlegenden visuellen Erkennungsbereich, ob das Bildsignal und das Positionssignal innerhalb einer vorbestimmten Zeit erneuert werden oder nicht (S11). Hier führt der Berechnungsabschnitt 15 für den grundlegenden visuellen Erkennungsbereich die Entscheidung aus, indem erfasst wird, ob das Bildsignal und das Positionssignal, die innerhalb einer vorbestimmten Zeit neu gespeichert werden, vorliegen oder nicht. Der Berechnungsabschnitt 15 für den grundlegenden visuellen Erkennungsbereich wiederholt die Entscheidung, wenn entschieden wird, dass alle Bild- und Positionssignale in einer vorbestimmten Zeit nicht erneuert werden.
  • Der Berechnungsabschnitt 15 für den grundlegenden visuellen Erkennungsbereich bestimmt die Position des Bezugsfahrzeuges, wenn entschieden wird, dass zumindest eines der Signale Bildsignal und Positionssignal innerhalb einer vorbestimmten Zeit erneuert wird (S12). Ferner berechnet der Berechnungsabschnitt 15 für den grundlegenden visuellen Erkennungsbereich die Richtung der Augen eines Fahrers durch das Ausführen der Bildbearbeitung am erlangten Bildsignal. Als Nächstes berechnet der Berechnungsabschnitt 15 für den grundlegenden visuellen Erkennungsbereich den grundlegenden visuellen Erkennungsbereich (S13). Hier berechnet, wie es in 6 gezeigt ist, der Berechnungsabschnitt 15 für den grundlegenden visuellen Erkennungsbereich einen effektiven Betrachtungs- bzw. Blickwinkel ϕ und Bereiche L1 und L2 entsprechend der Fahrzeuggeschwindigkeit, die in der erlangten Fahrzeuggeschwindigkeit gezeigt ist. Außerdem berechnet der Berechnungsabschnitt 15 für den grundlegenden visuellen Erkennungsbereich einen grundlegenden visuellen Erkennungsbereich V durch das Zusammensetzen der berechneten Richtung der Augen des Fahrers D, des effektiven Blickwinkels ϕ, der Bereiche L1 und L2 und der Position des Bezugsfahrzeuges, die in Schritt S12 bestimmt wurde.
  • Als Nächstes entscheidet der Totbereichausschlussabschnitt 16, ob das Hinderniserfassungssignal innerhalb einer vorbestimmten Zeit erneuert wird oder nicht (S14). Hier führt der Totbereichausschlussabschnitt 16 die Entscheidung durch, indem erfasst wird, ob ein Hinderniserfassungssignal, das innerhalb einer vorbestimmten Zeit neu gespeichert wird, vorliegt oder nicht. Der Totbereichausschlussabschnitt 16 entscheidet, ob die Position des Hindernisses, die im Hinderniserfassungssignal gezeigt ist, außerhalb des grundlegenden visuellen Erkennungsbereiches V, der in Schritt S13 berechnet wurde, ist oder nicht, wenn entschieden wird, dass das Hinderniserfassungssignal innerhalb einer vorbestimmten Zeit erneuert wird (S15).
  • in der Entscheidung von Schritt S15 entscheidet, wie es in 7 gezeigt ist, wenn die Position des Hindernisses Z im grundlegenden visuellen Erkennungsbereich ist, der Totbereichausschlussabschnitt 16, dass die Position des Hindernisses nicht außerhalb des grundlegenden visuellen Erkennungsbereiches ist, und berechnet diese den Totbereich (S16). Hier berechnet der Totbereichausschlussabschnitt 16 den Totbereich A des Fahrers D, indem der Abstand zum Hindernis Z und die Richtung des Hindernisses, die im Hinderniserfassungssignal gezeigt ist, und die Position des Bezugsfahrzeuges X, die im erlangten Positionssignal gezeigt ist, kombiniert werden.
  • Als nächstes schließt der Totbereichausschlussabschnitt 16 den Totbereich aus dem grundlegenden visuellen Erkennungsbereich aus (S17). Hier schließt der Totbereichausschlussabschnitt 16 den Totbereich A, der in 7 gezeigt ist, aus dem grundlegenden visuellen Erkennungsbereich V, der in 6 gezeigt ist, aus. Ferner berechnet der Totbereichausschlussabschnitt 16 den visuellen Erkennungsbereich Va des Totwinkelausschlusses, indem der Totbereich A ausgeschlossen wird. Währenddessen wird, wenn in Schritt S14 entschieden wird, dass das Hinderniserfassungssignal innerhalb einer vorbestimmten Zeit nicht erneuert wird, oder wenn in Schritt S15 entschieden wird, dass die Position des Hindernisses außerhalb des grundlegenden visuellen Erkennungsbereiches ist, das Ausschließen des Totbereiches durch den Totbereichausschlussabschnitt 16 nicht ausgeführt und geht der Prozess zu Schritt S18.
  • Als Nächstes entscheidet der Spiegelbereichshinzufügeabschnitt 17, ob der Spiegel in Richtung der Augen eines Fahrers vorliegt oder nicht (S18). Hier führt der Spiegelbereichshinzufügeabschnitt 17 die Entscheidung aus, indem erfasst wird, ob die gespeicherte Position des Spiegels in Richtung der Augen eines Fahrers, die durch den Berechnungsabschnitt 15 für den grundlegenden visuellen Erkennungsbereich berechnet wurde, vorliegt oder nicht. Hier entscheidet, wie es in 8 gezeigt ist, wenn ein linker Türspiegel in Richtung der Augen des Fahrers D vorliegt, der Spiegelbereichshinzufügeabschnitt 17, dass der Spiegel in Richtung der Augen des Fahrers vorliegt, und berechnet dieser den Spiegelbereich (S19). Hier berechnet der Spiegelbereichshinzufügeabschnitt 17 den Bereich, der im Spiegel reflektiert wird, als einen Spiegelbereich B auf der Grundlage der Richtung der Augen und der Position des Spiegels.
  • Als Nächstes addiert der Spiegelbereichshinzufügeabschnitt 17 den Spiegelbereich (S20). Hier wird der Spiegelbereich B zum visuellen Erkennungsbereich Va des Totwinkelausschlusses, der in Schritt S17 berechnet wurde, oder zum grundlegenden visuellen Erkennungsbereich V, der in Schritt S13 berechnet wurde, addiert. Ferner berechnet der Spiegelbereichshinzufügeabschnitt 17 einen visuellen Erkennungsbereich Vb des Spiegelhinzufügens durch das Hinzufügen des Spiegelbereiches B. Währenddessen wird, wenn in Schritt S18 entschieden wird, dass der Spiegel in Richtung der Augen des Fahrers nicht vorliegt, das Hinzufügen des Spiegelbereiches durch den Spiegelbereichshinzufügeabschnitt 17 nicht ausgeführt und geht der Prozess zu Schritt S21.
  • Als Nächstes bestimmt der Bestimmungsabschnitt 18 für den visuellen Erkennungsbereich den visuellen Erkennungsbereich (S21). Hier bestimmt der Bestimmungsabschnitt 18 für den visuellen Erkennungsbereich den visuellen Erkennungsbereich Vb des Spiegelhinzufügens, der in Schritt S20 berechnet wurde, den visuellen Erkennungsbereich Va des Totwinkelausschlusses, der in Schritt S17 berechnet wurde, oder den grundlegenden visuellen Erkennungsbereich V, der in Schritt S13 berechnet wurde, als den visuellen Erkennungsbereich. Der in Schritt S21 bestimmte visuelle Erkennungsbereich wird ein visueller Erkennungsbereich, der in dem in 1 gezeigten Berechnungsabschnitt 11 für den visuellen Erkennungsbereiches berechnet wurde.
  • Als Nächstes stellt der Warngradeinstellabschnitt 12 den Warngrad des Fahrers auf den visuellen Erkennungsbereich, der in den Schritten S11 bis S21 berechnet wurde, ein (S22). Hier stellt der Warngradeinstellabschnitt 12 den Warngrad in Verbindung mit jeder Koordinate innerhalb des visuelles Erkennungsbereiches ein. Der Warngradeinstellabschnitt 12 stellt einen festgelegten Wert des Warngrades „a” auf den visuellen Erkennungsbereich ein. Außerdem kann in Abhängigkeit von den Positionen innerhalb des visuellen Erkennungsbereiches ein Warngrad „b” auf die Koordinate eingestellt werden, die sich innerhalb des mittleren Blickwinkels befindet, und kann ein Warngrad „c”, der niedriger als der Warngrad „b” ist, auf die Koordinate eingestellt werden, die sich im umgebenden Blickwinkel befindet. Auf diese Weise kann durch das Ändern des Warngrades in Abhängigkeit von den Positionen innerhalb des visuellen Erkennungsbereiches angenommen werden, dass der Warnzustand des Fahrers in Bezug auf den Bereich des mittleren Blickwinkels relativ höher als der Warnzustand des Fahrers in Bezug auf den Bereich des umgebenden Blickwinkels ist.
  • Wenn der visuelle Erkennungsbereich durch die Verarbeitung der Schritte S11 bis S22 berechnet wird, nimmt die Abschätz-ECU 1 für den visuellen Erkennungsbereich, wenn zum Fließbild von 4 zurückgekehrt wird, den visuellen Erkennungsbereich (S3) auf. Die Aufnahmeverarbeitung des visuellen Erkennungsbereiches in der Abschätz-ECU 1 für den visuellen Erkennungsbereich wird in Abhängigkeit von dem in 9 gezeigten Fließbild vermittels des Warngradeinstellabschnitts 12 und des Aufnahmeabschnitts 13 für den visuellen Erkennungsbereich ausgeführt. Als Erstes entscheidet der Aufnahmeabschnitt für den visuellen Erkennungsbereich (S31), ob der visuelle Erkennungsbereich innerhalb einer vorbestimmten Zeit erneuert wird oder nicht. Hier führt der Aufnahmeabschnitt 13 für den visuellen Erkennungsbereich die Entscheidung aus, indem erfasst wird, ob ein visueller Erkennungsbereich, der innerhalb einer vorbestimmten Zeit neu aufgenommen wird, vorliegt oder nicht. Der Aufnahmeabschnitt 13 für den visuellen Erkennungsbereich wiederholt die Entscheidung, wenn entschieden wird, dass der visuelle Erkennungsbereich innerhalb einer vorbestimmten Zeit nicht erneuert wird.
  • Der Aufnahmeabschnitt 13 für den visuellen Erkennungsbereich nimmt den erneuerten visuellen Erkennungsbereich und den Warngrad auf, der auf dem visuellen Erkennungsbereich eingestellt ist, wenn entschieden wird, dass der visuelle Erkennungsbereich innerhalb einer vorbestimmten Zeit erneuert wird (S32). Als Nächstes erneuert der Warngradeinstellabschnitt 12 den Warngrad (S33). Hier erneuert der Warngradeinstellabschnitt 12 den Warngrad auf die Koordinaten innerhalb der jeweiligen visuellen Erkennungsbereiche, die von der Vergangenheit bis zur Gegenwart für eine vorbestimmte Zeit berechnet werden und im Aufnahmeabschnitt 13 für den visuellen Erkennungsbereich aufgezeichnet sind.
  • Das Erneuern des Warngrades in Schritt S33 wird unter Bezugnahme auf die 10 und 11 beschrieben. In 10 zeigt ein visueller Erkennungsbereich V (t) den visuellen Erkennungsbereich und den Warngrad in einer Zeit T = t an. Ferner zeigt w (x, y, z) einen Warngrad in einer Koordinate (x, y, z) innerhalb des visuellen Erkennungsbereiches V (t) an. Hier erneuert der Warngradeinstellabschnitt 12 den Warngrad durch das Multiplizieren eines Wichtungskoeffizienten f mit dem visuellen Erkennungsbereich V (t) mit dem Warngrad w (x, y, z) = a zum Zeitpunkt T = t, um den Warngrad w (x, y, z) = a × f zu berechnen.
  • Wie es in 11 gezeigt ist, wird der Wichtungskoeffizient f, der im Warngradeinstellabschnitt 12 gespeichert ist, kleiner, wenn die Zeit des Fahrers, der den visuellen Erkennungsbereich erkennt, älter wird. Beispielsweise wird, wie es in 11A gezeigt ist, mit zunehmender Differenz von der Zeit T der Wichtungskoeffizient f kleiner. In 11A wird der Wichtungskoeffizient f im Verhältnis zur Differenz von der Zeit T verringert. Aus diesem Grund wird im visuellen Erkennungsbereich zur Zeit T = t0 im visuellen Erkennungsbereich der Wichtungskoeffizient f null. Ferner hat, wie es in 11B gezeigt ist, der Wichtungskoeffizient f eine höhere Verringerungsrate, wenn die Differenz von der Zeit T klein ist und mit zunehmender Differenz von der Zeit T wird die Verringerungsrate kleiner und kann die Verringerungsrate allmählich null werden.
  • Unter erneuter Bezugnahme auf 9 entscheidet der Aufnahmeabschnitt 13 für den visuellen Erkennungsbereich, ob der Warngrad, der durch den Warngradeinstellabschnitt 12 in Schritt S33 erneuert wird, niedriger als der Schwellwert ist oder nicht (S34). Hier nimmt der Aufnahmeabschnitt 13 für den visuellen Erkennungsbereich die Entscheidung vor, indem erfasst wird, ob der Warngrad w (x, y, z) niedriger als der Schwellwert in Bezug auf die Koordinate (x, y, z) innerhalb der jeweiligen visuellen Erkennungsbereiche ist, die von der Vergangenheit bis zur Gegenwart für eine vorbestimmte Zeit aufgezeichnet werden. Der Aufnahmeabschnitt 13 für den visuellen Erkennungsbereich entfernt die Koordinate (x, y, z), wenn entschieden wird, dass die Koordinate (x, y, z) niedriger als der Schwellwert des Warngrades ist (S35). Währenddessen nimmt der Aufnahmeabschnitt 13 für den visuellen Erkennungsbereich die Koordinate (x, y, z) wie diese ist, ohne ein Entfernen von dieser auf, wenn entschieden wird, dass die Koordinate (x, y, z) gleich dem Schwellwert des Warngrades oder größer als dieser ist.
  • Wenn der visuelle Erkennungsbereich durch die Verarbeitung der Schritte S31 bis S35 aufgenommen wird, erzeugt bei einem Zurückgehen zum Fließbild von 4 der Erzeugungsabschnitt 14 für das Raumverzeichnis der visuellen Erkennungszeit der Abschätz-ECU 1 für den visuellen Erkennungsbereich das Raumverzeichnis für die visuelle Erkennungszeit (S4). Hier erzeugt der Erzeugungsabschnitt 14 für das Raumverzeichnis der visuellen Erkennungszeit das Raumverzeichnis für die visuelle Erkennungszeit durch das Kombinieren des visuellen Erkennungsbereiches, der durch den Berechnungsabschnitt 11 für den visuellen Erkennungsbereich berechnet wurde, der jeweiligen vergangenen visuellen Erkennungsbereiche, die durch den Aufnahmeabschnitt 13 für den visuellen Erkennungsbereich aufgenommen wurden, und der Warngrade davon. Ferner gibt der Erzeugungsabschnitt 14 für das Raumverzeichnis der visuellen Erkennungszeit das erzeugte Raumverzeichnis der visuellen Erkennungszeit zur Antriebsunterstützungs-ECU 2 aus.
  • 12 ist eine erläuternde Darstellung eines Raumverzeichnisses der visuellen Erkennungszeit, das in Schritt S4 erzeugt wird. Der Erzeugungsabschnitt 14 des Raumverzeichnisses für die visuelle Erkennungszeit erzeugt das Raumverzeichnis M1 für die visuelle Erkennungszeit, indem ein visueller Erkennungsbereich V (T), der durch den Berechnungsabschnitt 11 für den visuellen Erkennungsbereich berechnet wurde, und die vergangenen visuellen Erkennungsbereiche V (T1), V (T2) und V (Ts), die durch den Aufnahmeabschnitt 13 für den visuellen Erkennungsbereich aufgezeichnet wurden, kombiniert werden. In 12 ist die Größe des Warngrades in jedem visuellen Erkennungsbereich durch die Helligkeit des Schattierens angezeigt. Wie es in 12 gezeigt ist, werden im Raumverzeichnis M1 der visuellen Erkennungszeit mit älter werdender Zeit des Fahrers, der den visuellen Erkennungsbereich erkennt, der visuelle Erkennungsbereich verringert und der Warngrad verringert. Vermittels des Raumverzeichnisses M1 der visuellen Erkennungszeit wird der visuelle Erkennungsbereich der Zeitreihen als der Bereich, der durch den Fahrer zurzeit erkannt wird, abgeschätzt.
  • Als Nächstes geht der Prozess zur Verarbeitung durch die Antriebsunterstützungs-ECU 2 und erzeugt der Erzeugungsabschnitt 24 für das Sensorerfassungsverzeichnis der Wahrnehmungsziel-Extraktions-ECU 21 das Sensorerfassungsverzeichnis (S5). Hier berechnet der Erzeugungsabschnitt 24 für das Sensorerfassungsverzeichnis die Relativgeschwindigkeit und eine TTC für jedes Hindernis, das durch den Millimeterwellenradar 3 erfasst wird, auf der Grundlage des Hinderniserfassungssignals und des Positionssignals, die von den Sensoren erlangt wurden. Ferner extrahiert der Erzeugungsabschnitt 24 für das Sensorerfassungsverzeichnis das Hindernis mit einer TTC, die gleich dem Schwellwert oder kleiner als dieser ist, indem TTC, die für jedes Hindernis berechnet wurde, mit dem Schwellwert verglichen wird.
  • Außerdem berechnet der Erzeugungsabschnitt 24 für das Sensorerfassungsverzeichnis die Position des extrahierten Hindernisses auf der Grundlage des Abstandes zum Hindernis und der Richtung des Hindernisses, die im erlangten Hinderniserfassungssignal gezeigt sind, und der Position des Bezugsfahrzeuges, die im erlangten Positionssignal gezeigt ist. Außerdem erzeugt der Erzeugungsabschnitt 24 für das Sensorerfassungsverzeichnis das Sensorerfassungsverzeichnis durch das Addieren der Position des neu berechneten Hindernisses zum Sensorerfassungsverzeichnis, das in der Vergangenheit gespeichert wurde, und durch das Speichern von diesem.
  • 13 ist eine erläuternde Darstellung eines Sensorerfassungsverzeichnisses, das im Schritt S5 erzeugt wird. Wie es in der Draufsicht von 13 gezeigt ist, versucht das Bezugsfahrzeug X an einer T-förmigen Straße nach rechts abzubiegen. Im Sensorerfassungsverzeichnis M2, das in 13 gezeigt ist, ist das Hindernis, das durch den Millimeterwellenradar 3 vor dem Bezugsfahrzeug X erfasst wird, in Zeitreihen gezeigt. Beispielsweise ist zu den Zeiten t1 bis t5 das andere Fahrzeug A1, das vor dem Bezugsfahrzeug X erfasst wird, aufeinanderfolgend gezeigt. Ferner ist zu den Zeiten t2 bis t3 und den Zeiten t4 bis t6 das andere Fahrzeug B1, das ein vor dem Bezugsfahrzeug X erfasstes Motorrad ist, gezeigt.
  • Auf diese Weise wird im Sensorerfassungsverzeichnis M2 durch das Speichern der Hindernisse mit TTC, die gleich dem Schwellwert oder niedriger als dieser ist, das Hindernis, das durch den Fahrer beobachtet werden muss, aus den Hindernissen extrahiert, die durch den Millimeterwellenradar 3 um das Bezugsfahrzeug herum erfasst werden. Außerdem werden in 13, obwohl nur das Hindernis, das vor dem Bezugsfahrzeug K erfasst wird, gezeigt ist, die Hindernisse, die an jeder linken und rechten Seiten und der hinteren Seite des Bezugsfahrzeuges X erfasst werden, ebenfalls in ähnlicher Weise im Sensorerfassungsverzeichnis M2 gespeichert.
  • Als Nächstes erzeugt der Augenzielverzeichniserzeugungsabschnitt 25 das Augenzielverzeichnis (S6). Hier erlangt der Augenzielverzeichniserzeugungsabschnitt 25 das Raumverzeichnis der visuellen Erkennungszeit, das von dem Erzeugungsabschnitt 14 für das Raumverzeichnis der visuellen Erkennungszeit der Abschätz-ECU 1 des visuellen Erkennungsbereiches ausgegeben wurde. Ferner extrahiert der Augenzielverzeichniserzeugungsabschnitt 25 das Hindernis, das sich innerhalb des visuellen Erkennungsbereiches der Zeitreihen, der im erlangten Raumverzeichnis der visuellen Erkennungszeit gezeigt ist, aus den Hindernissen des Sensorerfassungsverzeichnisses, das in Schritt S5 erzeugt wird. Außerdem erzeugt der Augenzielverzeichniserzeugungsabschnitt 25 das Augenzielverzeichnis, indem die Position des neu extrahierten Hindernisses zu dem in der Vergangenheit gespeicherten Blickzielverzeichnis addiert wird und dieses gespeichert wird.
  • 14 ist eine erläuternde Darstellung des Blickzielverzeichnisses, das in Schritt S6 erzeugt wird. In dem Augenzielverzeichnis M3 ist unter den Hindernissen, die im Sensorerfassungsverzeichnis von 13 gezeigt sind, ein Hindernis, das sich innerhalb des visuellen Erkennungsbereiches der Zeitreihen befindet, gezeigt. In dem in 14 gezeigten Augenzielverzeichnis M3 sind alle anderen Fahrzeuge A1, A2 und B1, die in dem Sensorerfassungsverzeichnis M2 gezeigte Hindernisse sind, innerhalb des visuellen Erkennungsbereiches der Zeitreihen und sind diese durch schwarze Kreise gezeigt. Die schwarzen Kreise zeigen, dass die Positionen der Hindernisse im Sensorerfassungsverzeichnis M2 gespeichert sind. Auf diese Weise wird im Augenzielverzeichnis M3 von den Hindernissen, die durch den Fahrer und das Bezugsfahrzeug X beobachtet werden müssen, das Hindernis, das sich im momentan erkannten Bereich befindet, extrahiert.
  • Als Nächstes erzeugt der Wahrnehmungsverzeichniserzeugungsabschnitt 26 das Wahrnehmungsverzeichnis (S7). Hier speichert der Wahrnehmungsverzeichniserzeugungsabschnitt 26 die älteste erfasste Position und die neueste erfasste Position in Bezug auf die Hindernisse, die in dem in Schritt S15 erzeugten Sensorerfassungsverzeichnis gespeichert sind und die aufeinanderfolgend erfasst werden. Ferner berechnet und speichert der Wahrnehmungsverzeichniserzeugungsabschnitt 26 die Vorhersageposition des Hindernisses, das im Sensorerfassungsverzeichnis zu einer bestimmten Zeit erfasst wird und im Sensorerfassungsverzeichnis nicht erfasst wird, das erneuert wird, nachdem eine vorbestimmte Zeit von dieser Zeit vergangen ist. Außerdem erzeugt der Wahrnehmungsverzeichniserzeugungsabschnitt 26 das Wahrnehmungsverzeichnis, indem die Position des neu gespeicherten Hindernisses zu dem in der Vergangenheit gespeicherten Wahrnehmungsverzeichnis addiert wird und dieses gespeichert wird.
  • 15 ist eine erläuternde Darstellung eines Wahrnehmungsverzeichnisses, das in Schritt S7 erzeugt wird. Im Wahrnehmungsverzeichnis M4 ist von dem anderen Fahrzeug A1, das aufeinanderfolgend zu den Zeiten t1 bis t5 im Sensorerfassungsverzeichnis M2 erfasst wird, nur das andere Fahrzeug A1, das zu den Zeiten t1 bis t2 als den frühesten Zeiten und zu den Zeiten t4 bis t5 als den neuesten Zeiten gezeigt ist, durch schwarze Kreise gezeigt. Ferner wird das andere Fahrzeug B1, das zu den Zeiten t2 bis t3 erfasst wird, zu den Zeiten t3 bis t4 nicht erfasst, jedoch werden die das andere Fahrzeug B1 zeigenden schwarzen Kreise zu den Zeiten t3 bis t4 hinzugefügt. Hier werden die Vorhersagepositionen, die durch den Wahrnehmungsverzeichniserzeugungsabschnitt 26 berechnet werden, in den schwarzen Kreisen des anderen Fahrzeuges B1, die zu den Zeiten t3 bis t4 gezeigt sind, gespeichert.
  • Das in dem Wahrnehmungsverzeichnis M4 hinzugefügte andere Fahrzeug B1 ist ein Motorrad, das durch den Millimeterwellenradar 3 zu den Zeiten t2 bis t3 erfasst wird, jedoch nicht zu den Zeiten t3 bis t4 erfasst wird. Wie es in der Draufsicht von 15 gezeigt ist, schätzt der Wahrnehmungsverzeichniserzeugungsabschnitt 26 ab, dass sich das andere Fahrzeug B1, das durch den Millimeterwellenradar 3 nicht erfasst wird, hinter dem anderen Fahrzeug A1 befindet. in diesem Fall befindet sich das andere Fahrzeug B1 in einer Position, die durch den Fahrer des Bezugsfahrzeuges X zu den Zeiten t3 bis t4 nicht erkennbar ist, jedoch als ein Hindernis angesehen wird, das durch den Fahrer erkannt werden muss. Auf diese Weise wird im Wahrnehmungsverzeichnis M4 das Ziel, das das Minimum ist, das zur Wahrnehmung des Fahrers in der Fahrumgebung des Bezugsfahrzeuges X gebracht werden muss, als ein visueller Erkennungspunkt extrahiert.
  • Als Nächstes führt der Verzeichnisvergleichsabschnitt 22 den Verzeichnisvergleich aus (S8). Hier vergleicht der Verzeichnisvergleichsabschnitt 22 das Augenzielverzeichnis, das in Schritt S6 erzeugt wird, mit den Wahrnehmungsverzeichnis, das in Schritt S7 erzeugt wird. Ferner bestimmt der Verzeichnisvergleichsabschnitt 22 das Hindernis, das das Antriebsunterstützungsziel wird, durch den Vergleich des Verzeichnisses. Genauer gesagt bestimmt der Verzeichnisvergleichsabschnitt 22 das Hindernis, das sich nicht im Augenzielverzeichnis befindet, aus den Hindernissen, die im Wahrnehmungszielextraktionsverzeichnis gespeichert sind, als ein übersehenes Hindernis.
  • 16 ist eine erläuternde Darstellung eines Verzeichnisvergleiches in der Verarbeitung von Schritt S8. Wie es in 16 gezeigt ist, bestimmt der Verzeichnisvergleichsabschnitt 22 das andere Fahrzeug B1, das zu den Zeiten t2 bis t3 gezeigt ist, durch den Verzeichnisvergleich als ein übersehenes Ziel. Das andere Fahrzeug B1, das somit bestimmt wird, ist ein Ziel, das das Minimum ist, das zur Wahrnehmung des Fahrers gebracht werden muss, das jedoch ein Ziel ist, das in einem visuellen Erkennungsbereich der Zeitreihen als ein Bereich nicht eingeschlossen ist, der zurzeit durch den Fahrer erkannt wird.
  • Als Nächstes führt der Antriebsunterstützungssteuerabschnitt 23 die Antriebsunterstützung durch (S9). Hier führt der Antriebsunterstützungssteuerabschnitt 23 die Antriebsunterstützung durch, um eine Information in Bezug auf das übersehene Hindernis, das durch den Antriebsunterstützungssteuerabschnitt 23 erfasst wird, dem Fahrer vorzuschlagen. Genauer gesagt erzeugt der Antriebsunterstützungssteuerabschnitt 23 das Antriebsunterstützungssignal einschließlich der Position des übersehenen Hindernisses und Ähnliches und gibt dieser das erzeugte Antriebsunterstützungssignal zum Lautsprecher 7 und zur Anzeige 8 aus. Darüber hinaus erlangen der Lautsprecher 7 und die Anzeige 8 das Antriebsunterstützungssignal von dem Antriebsunterstützungssteuerabschnitt 23 und informieren diese den Fahrer über die Position des übersehenen Hindernisses und Ähnliches, das im erlangten Antriebsunterstützungssignal gezeigt ist, vermittels von Tönen und Bildern.
  • Die Antriebsunterstützung durch die Antriebsunterstützungsvorrichtung M wird vermittels einer Reihe von vorstehend beschriebenen Prozessen ausgeführt.
  • Die 17 und 18 zeigen einen Zustand, in dem die Antriebsunterstützung durch die Antriebsunterstützungsvorrichtung M in der Kreuzung ausgeführt wird. 17 zeigt einen Zustand bei einer Zeit T = t – α und 18 zeigt einen Zustand bei einer Zeit T = t. Zusätzlich ist eine Zeit α eine positive Zahl. 17 zeigt einen visuellen Erkennungsbereich V1 der Zeitreihen und Beobachtungspunkte P1 bis P3, die Aufmerksamkeit erfordern. Zu diesem Zeitpunkt wird die Information in Bezug auf Fußgänger, die sich in einem Beobachtungspunkt P3 befinden, der nicht in dem visuellen Erkennungsbereich V1 der Zeitreihen enthalten ist, dem Fahrer vorgeschlagen.
  • Außerdem sind in 18 nach dem Verstreichen der Zeit α von dem Zustand von 17 ein visueller Erkennungsbereich V2 der Zeitreihen und Beobachtungsbereiche P4 bis P10, die eine Wahrnehmung erfordern, gezeigt. Ferner ist, da ein Totbereich A, der ein Totbereich aufgrund des anderen Fahrzeuges wird, durch den Totbereichausschlussabschnitt 16 ausgeschlossen ist, der Totbereich nicht im visuellen Erkennungsbereich V2 der Zeitreihen eingeschlossen. Zu diesem Zeitpunkt ist ein Überdeckungsbereich A1 eines Beobachtungspunktes P9 mit dem Totbereich A, der Teil des Beobachtungspunktes P9 ist, nicht im visuellen Erkennungsbereich V2 der Zeitreihen eingeschlossen. Somit wird dem Fahrer die Information in Bezug auf ein Motorrad, das in dem Bereich A1 vorliegt, vorgeschlagen.
  • Entsprechend dem in Beziehung stehenden Stand der Technik wird zum Beispiel ein Fußgänger, der sich an einem Beobachtungspunkt P6 von 18 befindet, ein Unterstützungsziel, da dieser von der Richtung der Augen des Fahrers des Bezugsfahrzeuges X abweicht. Jedoch wird der Beobachtungspunkt P6 in dem Bereich V2 eingeschlossen, der zurzeit durch den Fahrer zwischen der Zeit T = t – α und der Zeit T – t erkannt wird. Aus diesem Grund wird die Information in Bezug auf den Fußgänger dem Fahrer vorgeschlagen, wodurch sich der Fahrer unbehaglich fühlt. Ferner wird im Beziehung stehenden Stand der Technik ein in dem Bereich A1 vorliegender Motorradfahrer in der Richtung der Augen des Fahrers des Bezugsfahrzeuges X nicht erfasst und ist dieser somit kein Unterstützungsziel. Dementsprechend werden Informationen in Bezug auf das Motorrad dem Fahrer nicht vorgeschlagen. Aus diesem Grunde ist es schwierig, die Antriebsunterstützung zum Verhindern der Kollision zwischen dem Bezugsfahrzeug X und dem Motorrad auszuführen.
  • Gemäß Vorbeschreibung wird entsprechend der Abschätzvorrichtung Ma des visuellen Erkennungsbereiches in Bezug auf das vorliegende Ausführungsbeispiel der visuelle Erkennungsbereich, der durch den Fahrer erkannt wird, durch den Berechnungsabschnitt 11 des visuellen Erkennungsbereiches auf der Grundlage der Augen des Fahrers berechnet. Ferner wird der Bereich der Zeitreihen als der Bereich, der durch den Fahrer zurzeit erkannt wird, durch den Erzeugungsabschnitt 14 des Raumverzeichnisses der visuellen Erkennungszeit auf der Grundlage der Historien einer Vielzahl von visuellen Erkennungsbereichen V(T) bis V(T – 3), die von der Vergangenheit bis zur Gegenwart für eine vorbestimmte Zeit berechnet werden, abgeschätzt (siehe 12). Auf diese Weise kann ein Fahrer durch das Abschätzen des visuellen Erkennungsbereiches der Zeitreihen, der ebenfalls den vergangenen visuellen Erkennungsbereich einschließt, den zurzeit erkannten Bereich genau abschätzen. Da ferner die Augen des Fahrers nicht mit dem Hindernis korrelieren, sondern auf dem Standardbereich basieren, ist es möglich zu verhindern, dass der Durchsatz zu groß wird, wodurch die Abschätzverarbeitung in Echtzeit möglich ist.
  • Ferner wird entsprechend der Abschätzvorrichtung Ma des visuellen Erkennungsbereiches in Bezug auf das vorliegende Ausführungsbeispiel durch den Warngradeinstellabschnitt 12 ein Warngrad w des Fahrers in Bezug auf eine Vielzahl von visuellen Erkennungsbereichen V(t), die von der Vergangenheit bis zur Gegenwart für eine vorbestimmte Zeit berechnet werden, für jeden der Vielzahl an visuellen Erkennungsbereichen eingestellt. Der Warngrad w wird eingestellt, wodurch die Wichtung des Warngrades in Abhängigkeit von einem Ausmaß der Neuheit des visuellen Erkennungsbereiches oder der Position innerhalb des visuellen Erkennungsbereiches möglich ist. Da der visuelle Erkennungsbereich der Zeitreihen auf der Grundlage der Historien der Vielzahl an gewichteten visuellen Erkennungsbereichen abgeschätzt wird, ist es möglich, den Warngrad des Fahrers im visuellen Erkennungsbereich der Zeitreihen genau abzuschätzen.
  • Ferner wird gewöhnlich die Betrachtung angestellt, dass der Warngrad des momentanen Fahrers im visuellen Erkennungsbereich auf das Ausmaß verringert ist, in dem der visuelle Erkennungsbereich in dem vergangenen visuellen Erkennungsbereich ist. Entsprechend der Abschätzvorrichtung Ma des visuellen Erkennungsbereiches in Bezug auf das vorliegende Ausführungsbeispiel wird vermittels des Warngradeinstellabschnittes 12 ein Warngrad w kleiner eingestellt, wenn die Zeit des Fahrers, der den visuellen Erkennungsbereich erkennt, älter wird. Auf diese Weise ist es durch das Reflektieren einer Verringerung beim Warngrad w des Fahrers, die durch das Verstreichen der Zeit verursacht wird, beim visuellen Erkennungsbereich möglich, den Warngrad des Fahrers im visuellen Erkennungsbereich der Zeitreihen genauer abzuschätzen.
  • Ferner wird entsprechend der Abschätzvorrichtung Ma des visuellen Erkennungsbereiches in Bezug auf das vorliegende Ausführungsbeispiel der grundlegende visuelle Erkennungsbereich V, der auf der Grundlage der Richtung der Augen des Fahrers D eingestellt werden soll, durch den Berechnungsabschnitt 15 des grundlegenden visuellen Erkennungsbereiches berechnet (siehe 6). Ferner wird der Totbereich A des Fahrers D, der durch das im grundlegenden visuellen Erkennungsbereich V vorhandene Hindernis X erzeugt wird, aus dem grundlegenden visuellen Erkennungsbereich V vermittels des Totbereichausschlussabschnittes 16 ausgeschlossen, wodurch ein visueller Erkennungsbereich Va des Totwinkelausschlusses berechnet wird (siehe 7). Auf diese Weise wird durch das Einstellen des Bereiches mit der Ausnahme des Totbereiches A als dem visuellen Erkennungsbereich der Totbereich A, der durch den Fahrer D zurzeit nicht erkennbar ist, nicht in dem visuellen Erkennungsbereich eingeschlossen. Somit ist es möglich, eine fehlerhafte Abschätzung zu verhindern, bei der der Totbereich A als der visuelle Erkennungsbereich bestimmt wird.
  • Ferner wird entsprechend der Abschätzvorrichtung Ma des visuellen Erkennungsbereiches in Bezug auf das vorliegende Ausführungsbeispiel, wenn in der Richtung der Augen des Fahrers D ein Spiegel vorliegt, ein Spiegelbereich M, der durch den Fahrer D über den Spiegel erkennbar ist, zum grundlegenden visuellen Erkennungsbereich V vermittels des Spiegelbereichshinzufügeabschnittes 17 hinzugefügt, wodurch der visuelle Erkennungsbereich Vb des Spiegelhinzufügens berechnet wird (siehe 8). Auf diese Weise wird durch das Einstellen des Bereiches, dem der Spiegelbereich B hinzugefügt wurde, als den visuellen Erkennungsbereich, ein Bereich, der durch den Fahrer D über den Spiegel indirekt erkennbar ist, in den visuellen Erkennungsbereich eingeschlossen. Dementsprechend ist es möglich, den visuellen Erkennungsbereich durch eine indirekte visuelle Erkennung sowie eine direkte visuelle Erkennung abzuschätzen.
  • Ferner wird entsprechend der Antriebsunterstützungsvorrichtung M in Bezug auf das vorliegende Ausführungsbeispiel der Beobachtungspunkt, der durch den Fahrer während einer Fahrumgebung beobachtet werden muss, durch den Wahrnehmungsverzeichniserzeugungsabschnitt 26 extrahiert (siehe 15). Ferner wird in Abhängigkeit davon, ob sich der Beobachtungspunkt innerhalb des visuellen Erkennungsbereiches der Zeitreihen befindet oder nicht, der Warnzustand des Fahrers in Bezug auf den Beobachtungspunkt durch den Verzeichnisvergleichsabschnitt 22 bestimmt (siehe 16). Auf diese Weise besteht, da der Warnzustand durch den Vergleich des visuellen Erkennungsbereiches der Zeitreihen mit dem Beobachtungspunkt bestimmt wird, keine Notwendigkeit, die Augen des Fahrers mit dem Beobachtungspunkt zu korrelieren. Dementsprechend ist es möglich zu verhindern, dass der Durchsatz zu groß wird, wodurch die Bestimmungsverarbeitung in Echtzeit möglich ist.
  • Ferner ist es entsprechend der Antriebsunterstützungsvorrichtung M in Bezug auf das vorliegende Ausführungsbeispiel, da der Totbereich A aus dem grundlegenden visuellen Erkennungsbereich V vermittels der Abschätzvorrichtung Ma des visuellen Erkennungsbereiches ausgeschlossen ist, wenn eine Wahrscheinlichkeit besteht, dass ein Vorstehen oder Ähnliches von einem Gebiet, das durch das Hindernis oder Ähnliches verborgen ist, erzeugt wird, möglich, die Aufmerksamkeit des Fahrers unter Verwendung der Warnung oder Ähnlichem zu erlangen. Ferner wird beim Fahrer, da der Spiegelbereich B dem grundlegenden visuellen Erkennungsbereich V vermittels der Abschätzvorrichtung Ma des visuellen Erkennungsbereiches hinzugefügt wird, keine Aufmerksamkeit in Bezug auf das Hindernis, das durch den Spiegel bestätigt wurde, hervorgerufen, wodurch das Unbehagen des Fahrers verringert werden kann.
  • Auf diese Weise wird bei der Antriebsunterstützungsvorrichtung M und der Abschätzvorrichtung Ma des visuellen Erkennungsbereiches entsprechend dem vorliegenden Ausführungsbeispiel der durch den Fahrer wahrgenommene Bereich nach dem Berücksichtigen der Zeitänderung eine Szene berechnet und wird der Beobachtungspunkt, der beobachtet werden muss, aus dem sich konstant ändernden umgebenden Umfeld beschränkt. Darüber hinaus kann durch das Bestimmen, ob der beschränkte Punkt im berechneten Punkt eingeschlossen ist oder nicht, das übersehene Hindernis erfasst werden. Somit ist es möglich, ein übersteigertes Selbstvertrauen des Fahrers zu unterdrücken, ohne dass ein Misstrauen oder ein Unbehagen für den Fahrer hervorgerufen wird.
  • Gemäß Vorbeschreibung wurde ein bevorzugtes Ausführungsbeispiel der vorliegenden Erfindung beschrieben, jedoch ist die vorliegende Erfindung nicht auf das vorstehende Ausführungsbeispiel begrenzt. Beispielsweise kann im vorstehend genannten Ausführungsbeispiel, obwohl ein Fall beschrieben wurde, in dem ein Millimeterwellenradar zum Erfassen des Hindernisses verwendet wird, ein Laserradar oder eine Kamera verwendet werden. Ferner kann im vorstehenden Ausführungsbeispiel, obwohl ein Fall beschrieben wurde, in dem eine Kamera verwendet wird, um die Richtung der Augen des Fahrers zu berechnen, ein Sender vom Montagetyp verwendet werden, der die Bewegung der Muskeln vermittels der Messung eines Augenpotenzials um den Augapfel des Fahrers erfasst.
  • Ferner kann im vorstehend genannten Ausführungsbeispiel, obwohl beschrieben wird, dass der effektive Blickwinkel und der Bereich des Fahrers in Abhängigkeit von der Fahrzeuggeschwindigkeit des Bezugsfahrzeuges gespeichert werden, beispielsweise der Berechnungszustand des visuellen Erkennungsbereiches in Abhängigkeit von der Sicht des Fahrers oder der Umgebungshelligkeit geändert werden. Ferner kann im vorstehend genannten Ausführungsbeispiel, obwohl der Warngrad, der für den visuellen Erkennungsbereich eingestellt wird, für die Entscheidung des Aufnehmens oder des Entfernens im Aufnahmeabschnitt 13 für den visuellen Erkennungsbereich verwendet wird, der Aspekt des Informationsvorschlages für den Fahrer geändert werden, beispielsweise indem die Lautstärke des Lautsprechers 7 in Abhängigkeit vom Warngrad geändert wird.
  • Gewerbliche Anwendbarkeit
  • Entsprechend der vorliegenden Erfindung ist es möglich, einen durch einen Fahrer erkannten Bereich in Echtzeit genau abzuschätzen.
  • Bezugszeichenliste
  • 11
    Berechnungsabschnittfür den visuellen Erkennungsbereich (Berechnungseinrichtung für den visuellen Erkennungsbereich)
    12
    Warngradeinstellabschnitt (Warngradeinstelleinrichtung)
    14
    Erzeugungsabschnitt für das Raumverzeichnis der visuellen Erkennungszeit (Abschätzeinrichtung des visuellen Erkennungsbereiches der Zeitreihen)
    15
    Berechnungsabschnitt für die grundlegende visuelle Erkennung (Berechnungseinrichtung für die grundlegende visuelle Erkennung)
    16
    Totbereichausschlussabschnitt (Totbereichausschlusseinrichtung)
    17
    Spiegelbereichshinzufügeabschnitt (Spiegelbereichshinzufügeeinrichtung)
    22
    Verzeichnisvergleichsabschnitt (Beobachtungspunktextraktionseinrichtung)
    26
    Wahrnehmungsverzeichniserzeugungsabschnitt (Warnzustandsbestimmungseinrichtung)
    A
    Totbereich
    B
    Spiegelbereich
    M
    Antriebsunterstützungsvorrichtung
    Ma
    Abschätzvorrichtung für den visuellen Erkennungsbereich
    P1 bis P10
    Beobachtungspunkt
    T
    Zeit
    V
    grundlegender visueller Erkennungsbereich
    V1, V2
    visueller Erkennungsbereich der Zeitreihen
    Va
    visueller Erkennungsbereich des Totwinkelausschlusses (visueller Erkennungsbereich)
    Vb
    visueller Erkennungsbereich des Spiegelhinzufügens (visueller Erkennungsbereich)
    w
    Warngrad
    Z
    Hindernis

Claims (4)

  1. Abschätzvorrichtung (Ma) für den visuellen Erkennungsbereich, die aufweist: eine Berechnungseinrichtung (11) für den visuellen Erkennungsbereich, die einen visuellen Erkennungsbereich (V, Va, Vb, V(T)) auf der Grundlage eines Weltkoordinatensystem, der durch einen Fahrer (D) erkannt wird, auf der Grundlage von zumindest den Augen des Fahrers (D) und einer Position eines Fahrzeugs berechnet, und eine Warngradeinstelleinrichtung (12), die einen Warngrad (w) des Fahrers (D) in Bezug auf eine Vielzahl von visuellen Erkennungsbereichen (V, Va, Vb, V(T)), die von der Vergangenheit bis zur Gegenwart für die vorbestimmte Zeit berechnet werden, für jeden der Vielzahl an visuellen Erkennungsbereichen (V, Va, Vb, V(T)) einstellt, und eine Abschätzeinrichtung (14) des visuellen Erkennungsbereiches der Zeitreihen, die einen visuellen Erkennungsbereich (V, Va, Vb, V(T)) der Zeitreihen als einen Bereich, der durch den Fahrer (D) zurzeit erkannt wird, auf der Grundlage von Historien einer Vielzahl von Erkennungsbereichen (V(T)), die von der Vergangenheit bis zur Gegenwart für eine vorbestimmte Zeit berechnet werden, abschätzt, wobei die Warngradeinstelleinrichtung (12) den Warngrad (w) kleiner einstellt, wenn die Zeit (T) des Fahrers (D), der den visuellen Erkennungsbereich (V, Va, Vb, V(T)) erkennt, älter wird.
  2. Die Abschätzvorrichtung (Ma) für den visuellen Erkennungsbereich nach Anspruch 1, wobei die Berechnungseinrichtung (11) für den visuellen Erkennungsbereich aufweist eine Berechnungseinrichtung (15) für den grundlegenden visuellen Erkennungsbereich, die einen grundlegenden visuellen Erkennungsbereich (V) berechnet, der auf der Grundlage der Richtung der Augen des Fahrers (D) eingestellt wird, und eine Totbereichausschlusseinrichtung (16), die einen Totbereich (A) des Fahrers (D) abschätzt, der durch ein Hindernis (Z) erzeugt wird, das im grundlegenden visuellen Erkennungsbereich (V) vorliegt, und den visuellen Erkennungsbereich (Va) berechnet, indem der Totbereich (A) aus dem grundlegenden visuellen Erkennungsbereich (V) ausgeschlossen wird.
  3. Die Abschätzvorrichtung (Ma) für den visuellen Erkennungsbereich nach einem der Ansprüche 1 oder 2, wobei die Berechnungseinrichtung (11) für den visuellen Erkennungsbereich aufweist eine Berechnungseinrichtung (15) für den grundlegenden visuellen Erkennungsbereich, die einen grundlegenden visuellen Erkennungsbereich (V) berechnet, der auf der Grundlage der Richtung der Augen des Fahrers (D) eingestellt wird, und einen Spiegelbereichshinzufügeabschnitt (17), der einen Spiegelbereich (B) abschätzt, der durch einen Fahrer (D) über einen Spiegel erkennbar ist, wenn der Spiegel in der Richtung der Augen des Fahrers (D) vorliegt, und den visuellen Erkennungsbereich (Vb) berechnet, indem der Spiegelbereich (B) zum grundlegenden visuellen Erkennungsbereich (V) hinzugefügt wird.
  4. Eine Antriebsunterstützungsvorrichtung (M), die aufweist: die Abschätzvorrichtung (Ma) für den visuellen Erkennungsbereich nach einem der Ansprüche 1 bis 3, eine Beobachtungspunktextraktionseinrichtung (26), die einen Beobachtungspunkt, der durch den Fahrer beobachtet werden muss, aus einer Fahrumgebung extrahiert, und eine Warnzustandsbestimmungseinrichtung (22), die einen Warnzustand des Fahrers in Bezug auf den Beobachtungspunkt in Abhängigkeit davon bestimmt, ob sich der Beobachtungspunkt innerhalb des visuellen Erkennungsbereiches der Zeitreihen befindet oder nicht.
DE112009004768.8T 2009-05-12 2009-05-12 Abschätzvorrichtung für den visuellen erkennungsbereich und antriebsunterstützungsvorrichtung Active DE112009004768B4 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/058850 WO2010131331A1 (ja) 2009-05-12 2009-05-12 視認領域推定装置および運転支援装置

Publications (2)

Publication Number Publication Date
DE112009004768T5 DE112009004768T5 (de) 2012-10-11
DE112009004768B4 true DE112009004768B4 (de) 2018-01-04

Family

ID=43084721

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112009004768.8T Active DE112009004768B4 (de) 2009-05-12 2009-05-12 Abschätzvorrichtung für den visuellen erkennungsbereich und antriebsunterstützungsvorrichtung

Country Status (4)

Country Link
US (1) US8452528B2 (de)
JP (1) JP5257514B2 (de)
DE (1) DE112009004768B4 (de)
WO (1) WO2010131331A1 (de)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5853206B2 (ja) * 2011-03-31 2016-02-09 パナソニックIpマネジメント株式会社 車載用表示装置
US20130173378A1 (en) * 2012-01-03 2013-07-04 Really Epic Dog, Ltd. Systems and methods for adaptive marketing using interactive feedback
JP6136238B2 (ja) * 2012-12-19 2017-05-31 アイシン・エィ・ダブリュ株式会社 走行支援システム、走行支援方法及びコンピュータプログラム
JP2015026004A (ja) * 2013-07-29 2015-02-05 いすゞ自動車株式会社 視認行動評価装置
US10115164B1 (en) 2013-10-04 2018-10-30 State Farm Mutual Automobile Insurance Company Systems and methods to quantify and differentiate individual insurance risk based on actual driving behavior and driving environment
JP6259680B2 (ja) * 2014-03-10 2018-01-10 株式会社デンソーアイティーラボラトリ 安全確認判定装置、及び運転支援装置
US20160147299A1 (en) * 2014-11-24 2016-05-26 Hyundai Motor Company Apparatus and method for displaying image of head up display
DE102014117830A1 (de) * 2014-12-04 2016-06-09 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bestimmen eines fahrerspezifischen Totwinkelfeldes für ein Fahrerassistenzsystem, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102015117610A1 (de) * 2015-10-16 2017-04-20 Connaught Electronics Ltd. Verfahren zum Überprüfen einer Wahrnehmung eines visuellen Warnhinweises durch einen Fahrzeugnutzer, Fahrerassistenzsystem und Kraftfahrzeug
CN108475058B (zh) * 2016-02-10 2021-05-14 赫尔实验室有限公司 估计对象接触时间的系统和方法、计算机可读介质
JP6740644B2 (ja) * 2016-03-08 2020-08-19 株式会社デンソー 報知装置
WO2018008085A1 (ja) * 2016-07-05 2018-01-11 三菱電機株式会社 認知領域推定装置、認知領域推定方法および認知領域推定プログラム
CA3041649A1 (en) 2016-10-25 2018-05-03 Deep North, Inc. Point to set similarity comparison and deep feature learning for visual recognition
JP2018097398A (ja) * 2016-12-07 2018-06-21 トヨタ自動車株式会社 視線推定システム
CN113574524A (zh) * 2018-10-18 2021-10-29 自动智能科技有限公司 用于障碍物检测的方法和系统
KR20200060592A (ko) * 2018-11-21 2020-06-01 현대자동차주식회사 차량의 변속 제어 장치 및 방법
US11804045B2 (en) 2019-01-11 2023-10-31 Nec Corporation Monitoring device, monitoring method, and recording medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19734307A1 (de) * 1997-08-08 1999-02-11 Bosch Gmbh Robert Verfahren und Vorrichtung zur Überwachung und/oder Beeinflussung des Fahrzeugverhaltens eines fahrergesteuerten Kraftfahrzeugs
JP2002083400A (ja) * 2000-09-06 2002-03-22 Honda Motor Co Ltd ドライバの視線領域の適合性を判定する車載情報処理装置
JP2003080969A (ja) * 2001-09-11 2003-03-19 Nissan Motor Co Ltd 運転者状態検出装置
JP2003099899A (ja) * 2001-09-25 2003-04-04 Toyota Central Res & Dev Lab Inc 運転行動危険度演算装置
JP2006163828A (ja) 2004-12-07 2006-06-22 Nissan Motor Co Ltd 車両用警報装置、車両周囲状況の警報方法
US7519459B2 (en) * 2004-03-17 2009-04-14 Denso Corporation Driving assistance system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11205497A (ja) * 1998-01-16 1999-07-30 Fuji Xerox Co Ltd 画像処理装置および画像処理方法
ATE454849T1 (de) 2002-10-15 2010-01-15 Volvo Technology Corp Verfahren für die auswertung der kopf- und augenaktivität einer person
JP4286860B2 (ja) * 2004-05-21 2009-07-01 旭化成株式会社 動作内容判定装置
JP2007334810A (ja) * 2006-06-19 2007-12-27 Toshiba Corp 画像領域追跡装置及びその方法
JP2008262388A (ja) 2007-04-12 2008-10-30 Toyota Central R&D Labs Inc 安全確認アドバイス装置
JP5115556B2 (ja) * 2007-07-05 2013-01-09 日本電気株式会社 物体領域検出装置、物体領域検出システム、物体領域検出方法及びプログラム
JP5177515B2 (ja) * 2008-06-02 2013-04-03 アイシン精機株式会社 周辺認知支援システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19734307A1 (de) * 1997-08-08 1999-02-11 Bosch Gmbh Robert Verfahren und Vorrichtung zur Überwachung und/oder Beeinflussung des Fahrzeugverhaltens eines fahrergesteuerten Kraftfahrzeugs
JP2002083400A (ja) * 2000-09-06 2002-03-22 Honda Motor Co Ltd ドライバの視線領域の適合性を判定する車載情報処理装置
JP2003080969A (ja) * 2001-09-11 2003-03-19 Nissan Motor Co Ltd 運転者状態検出装置
JP2003099899A (ja) * 2001-09-25 2003-04-04 Toyota Central Res & Dev Lab Inc 運転行動危険度演算装置
US7519459B2 (en) * 2004-03-17 2009-04-14 Denso Corporation Driving assistance system
JP2006163828A (ja) 2004-12-07 2006-06-22 Nissan Motor Co Ltd 車両用警報装置、車両周囲状況の警報方法

Also Published As

Publication number Publication date
US20120046857A1 (en) 2012-02-23
DE112009004768T5 (de) 2012-10-11
JPWO2010131331A1 (ja) 2012-11-01
JP5257514B2 (ja) 2013-08-07
WO2010131331A1 (ja) 2010-11-18
US8452528B2 (en) 2013-05-28

Similar Documents

Publication Publication Date Title
DE112009004768B4 (de) Abschätzvorrichtung für den visuellen erkennungsbereich und antriebsunterstützungsvorrichtung
DE102017201717B4 (de) Verfahren zur Verwendung eines Rückblicksystem für ein Trägerfahrzeug sowie Rückblicksystem zur Ausführung des Verfahrens
DE102007002345B4 (de) Fahrzeugumgebungs-Überwachungsvorrichtung
DE102007002419B4 (de) Fahrzeugumgebungsüberwachungsgerät, -verfahren und -programm
DE102010020867B4 (de) Strassenform-Erkennungsvorrichtung
DE102013113619B4 (de) Probabilistische Zielauswahl und Gefahrbewertungsverfahren und Anwendung auf ein Kreuzungs-Kollisonswarnsystem
DE102012219834B4 (de) Spurverfolgungssystem
EP2805183B1 (de) Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs
DE102013223039B4 (de) Vorrichtung und Verfahren zum Bereitstellen eines AVM-Bildes
DE102014216285B4 (de) Bildsystem für Kraftfahrzeugsicherheitsanwendungen
DE102005054972A1 (de) Verfahren zur Totwinkelüberwachung bei Fahrzeugen
DE102019109505A1 (de) Datenverarbeitungsvorrichtung, überwachungssystem, wecksystem, datenverarbeitungsverfahren und datenverarbeitungsprogramm
DE112010002047T5 (de) Objekterfassungsvorrichtung
DE10030421A1 (de) Fahrzeugumgebungsüberwachungssystem
DE102007011616A1 (de) Fahrzeugumgebung-Überwachungsgerät
DE102019109375A1 (de) Verfahren und systeme zum verarbeiten von fahreraufmerksamkeitsdaten
DE112016003546T5 (de) Vorrichtung zum Darstellen von Unterstützungsbildern für einen Fahrer und Verfahren dazu
DE102012001554A1 (de) Verfahren zum Betreiben einer Fahrerassistenzeinrichtung eines Kraftfahrzeugs,Fahrerassistenzeinrichtung und Kraftfahrzeug
DE112018007485T5 (de) Straßenoberflächen-Detektionsvorrichtung, Bildanzeige-Vorrichtung unter Verwendung einer Straßenoberflächen-Detektionsvorrichtung, Hindernis-Detektionsvorrichtung unter Nutzung einer Straßenoberflächen-Detektionsvorrichtung, Straßenoberflächen-Detektionsverfahren, Bildanzeige-Verfahren unter Verwendung eines Straßenoberflächen-Detektionsverfahrens, und Hindernis-Detektionsverfahren unter Nutzung eines Straßenoberflächen-Detektionsverfahrens
EP3078015B1 (de) Verfahren und vorrichtung zum erzeugen einer warnung mittels zweier durch kameras erfasster bilder einer fahrzeugumgebung
DE102010003850A1 (de) Verfahren und Vorrichtung zur Nachführung einer Position einer Objektmarkierung
DE102021110477A1 (de) Dynamische anpassung eines bildes mit erweiterter realität
DE102007013664A1 (de) Multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger
DE102018108751B4 (de) Verfahren, System und Vorrichtung zum Erhalten von 3D-Information von Objekten
DE112016000689T5 (de) Kameraparametereinstellvorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: WINTER, BRANDL - PARTNERSCHAFT MBB, PATENTANWA, DE

Representative=s name: WINTER, BRANDL, FUERNISS, HUEBNER, ROESS, KAIS, DE

R018 Grant decision by examination section/examining division
R084 Declaration of willingness to licence
R020 Patent grant now final