DE112016006962T5 - Erkennungsregionschätzvorrichtung, Erkennungsregionschätzverfahren und Erkennungsregionschätzprogramm - Google Patents

Erkennungsregionschätzvorrichtung, Erkennungsregionschätzverfahren und Erkennungsregionschätzprogramm Download PDF

Info

Publication number
DE112016006962T5
DE112016006962T5 DE112016006962.6T DE112016006962T DE112016006962T5 DE 112016006962 T5 DE112016006962 T5 DE 112016006962T5 DE 112016006962 T DE112016006962 T DE 112016006962T DE 112016006962 T5 DE112016006962 T5 DE 112016006962T5
Authority
DE
Germany
Prior art keywords
recognition region
region
unit
mobile body
visual recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112016006962.6T
Other languages
English (en)
Other versions
DE112016006962B4 (de
Inventor
Takahisa Hirata
Takashi Hirano
Takuji Morimoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112016006962T5 publication Critical patent/DE112016006962T5/de
Application granted granted Critical
Publication of DE112016006962B4 publication Critical patent/DE112016006962B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • B60R1/06Rear-view mirror arrangements mounted on vehicle exterior
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1253Mirror assemblies combined with other articles, e.g. clocks with cameras, video cameras or video screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/202Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used displaying a blind spot scene on the vehicle part responsible for the blind spot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

Eine Erkennungsregion-Schätzvorrichtung 100 ist mit einer Visuell-Erkennungsregion-Recheneinheit 101 versehen, die eine Visuell-Erkennungsregion, welche durch einen Fahrer eines Mobilkörpers visuell erkannt wird, in einem Mobilkörper-Koordinatensystem berechnet, basierend auf dem Mobilkörper auf Basis einer Blicklinienrichtung des Fahrers, und einer Erkennungsregion-Recheneinheit 104, die eine durch den Fahrer wahrgenommene erkannte Region im Mobilkörper-Koordinatensystem auf Basis der durch die Visuell-Erkennungsregion-Recheneinheit 101 berechneten Visuell-Erkennungsregion berechnet.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung bezieht sich auf eine Erkennungsregion-Schätzvorrichtung, ein Erkennungsregion-Schätzverfahren und ein Erkennungsregion-Schätzprogramm zum Abschätzen eines Umgebungserkennungsstatus eines Fahrers in einem Mobilkörper wie etwa einem Automobil.
  • HINTERGRUND
  • In Automobilen und dergleichen schreitet mit der jüngsten Popularisierung einer Fahrassistenzfunktion die Popularisierung von Sensoren zum Überwachen der Umgebung eines Wirtsfahrzeugs, wie etwa ein Radar und eine Kamera, fort. Auch wird erwartet, dass Fortschritte und Popularisierung von automatisierten Fahrfunktionen in der nahen Zukunft Fortschritte machen und es wird erwartet, dass die Sensoren, welche die Umgebung des Wirtsfahrzeugs überwachen, weiterhin sowohl bei der Qualität als auch Quantität in der Zukunft verbessert werden.
  • Andererseits wird in einer anderen Situation als einem vollständig automatisierten Fahrzustand erwartet, dass der Fahrer und das Fahrzeug kooperieren, um ein Fahrverhalten durchzuführen. Daher wird es in der Fahrassistenzfunktion und der automatisierten Fahrfunktion gewünscht, den Umgebungserkennungsstatus des Fahrers abzuschätzen und kooperativ denselben und den Umgebungserkennungsstatus des Fahrzeugs einzusetzen.
  • Beispielsweise in einer Situation, in der ein Fahrzeug zeitweilig innerhalb einer Kreuzung stoppt und auf eine querende Person wartet, wenn die Sensoren, welche die Umgebung des Wirtsfahrzeugs überwachen, die Annäherung der kreuzenden Person an das Wirtsfahrzeug detektieren, ist es im Allgemeinen mühsam, den Fahrer vor einer solchen Situation aus dem Fahrzeug eins-zu-eins zu warnen, was wiederum die Konzentration des Fahrers unterbricht. Wenn jedoch dem Fahrer die Annäherung der querenden Person nicht bewusst ist, kann das Warnen des Fahrers und das Erwecken von Aufmerksamkeit zur Fahrsicherheit beitragen. Als anderes Beispiel, in einem Fahrzeug, in einem halbautomatisierten Fahrzustand, ist es erforderlich, dass der Fahrer in einem Zustand des Erfassens der Umgebungs-Situation ist und unmittelbar reagiert, selbst wenn die Steuerung des Fahrzeugs automatisiert wird, so dass es notwendig ist, dass das Fahrzeug das automatische Fahren stoppt, wenn bestimmt wird, dass der Fahrer daran scheitert, die Umgebung wahrzunehmen.
  • Als eine konventionelle Technologie des Abschätzens des Umgebungserkennungsstatus des Fahrers in der Mobilkarosserie gibt es beispielsweise eine in Patentliteratur 1 offenbarte Technologie. Patentliteratur 1 offenbart ein Verfahren zum Abschätzen einer visuell erkannten Region um ein Fahrzeug durch einen Fahrer herum, durch Überlagern eines Sichtfeldes, das aus einer Sichtlinienrichtung des Fahrers abgeschätzt wird, auf eine Karte.
  • ZITATELISTE
  • PATENTLITERARUR
  • Patentliteratur 1: JP 2010179713 A
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • TECHNISCHES PROBLEM
  • Eine Sichtfeldschätzvorrichtung gemäß Patentliteratur 1 projiziert das aus der Blicklinienrichtung des Fahrers abgeschätzte Sichtfeld auf ein Koordinatensystem, das auf einen Kartenraum (nachfolgend als ein Karten-Koordinatensystem bezeichnet) fixiert ist, unter Verwendung von Information eines Globalpositionierungssystems (GPS) und dergleichen. Das GPS weist Charakteristik auf, dass die Messgenauigkeit einer Wirtsfahrzeugposition beeinträchtigt ist oder die Messung unmöglich wird, wenn eine Funkwellenbedingung nicht ausgezeichnet ist, beispielsweise in einem Tunnel oder Stadtschluchten. Das Abschätzen der Genauigkeit des Umgebungserkennungsstatus des Fahrers hängt von der Robustheit der Wirtsfahrzeugpositionsmessung durch das GPS ab, so dass unter einem Umstand, bei dem eine genaue Wirtsfahrzeugposition im Karten-Koordinatensystem nicht erhalten werden kann, die Abschätzung des Umgebungserkennungsstatus des Fahrers schwierig ist.
  • Zusätzlich überwachen am Fahrzeug in Patentliteratur 1 montierte Sensoren die Umgebung in einem Koordinatensystem, das auf das Wirtsfahrzeug zentriert ist (nachfolgend als ein Wirtsfahrzeug-Koordinatensystem bezeichnet). Daher, wenn die am Fahrzeug montierten Sensoren und die Sichtfeldabschätzvorrichtung gemäß Patentliteratur 1 miteinander kooperieren, um den Umgebungserkennungsstatus des Fahrers abzuschätzen, ist es erforderlich, den Umgebungserkennungsstatus des Fahrers, der auf dem Karten-Koordinatensystem abgeschätzt wird, fixiert auf den Kartenraum, in das Wirtsfahrzeug-Koordinatensystem auf Basis einer Position und einer Stellung des Wirtsfahrzeugs im Karten-Koordinatensystem umzuwandeln. Daher treten Rechenkosten für die Koordinatenumwandlung auf.
  • Wie oben beschrieben, gibt es bei der konventionellen Technologie zum Abschätzen des Umgebungserkennungsstatus des Fahrers in dem Mobilkörper, da es für die Sichtfeldschätzvorrichtung nicht einfach ist, mit dem am Fahrzeugkörper montierten Sensoren zu kooperieren, das Problem, dass der Umgebungserkennungsstatus des Fahrers nicht effizient abgeschätzt werden kann.
  • Die vorliegende Erfindung wird erzielt, um das oben beschriebene Problem zu lösen und eine Aufgabe derselben ist es, Kooperation mit am Mobilkörper montierten Sensoren zu erleichtern.
  • PROBLEMLÖSUNG
  • Eine Erkennungsregion-Schätzvorrichtung gemäß der vorliegenden Erfindung wird mit einer Visuellerkennungsregion-Recheneinheit zum Berechnen einer Visuellerkennungsregion, die durch einen Fahrer eines Mobilkörpers visuell wahrgenommen wird, in einem Mobilkörper-Koordinatensystem, basierend auf dem Mobilkörper auf Basis einer Blicklinienrichtung des Fahrers und einer Erkennungsregion-Recheneinheit zum Berechnen einer durch den Fahrer im Mobilkörper-Koordinatensystem wahrgenommenen Erkennungsregion auf Basis der durch die Visuellerkennungsregion-Recheneinheit berechneten Visuellerkennungsregion versehen.
  • VORTEILHAFTE EFFEKTE DER ERFINDUNG
  • Gemäß der vorliegenden Erfindung, da die Visuellerkennungsregion und die Erkennungsregion im Mobilkörper-Koordinatensystem basierend auf dem Mobilkörper berechnet werden, wird eine Kooperation mit am Mobilkörper montierten Sensoren einfach. Dies ermöglicht es, den Umgebungserkennungsstatus des Fahrers effizient abzuschätzen.
  • Figurenliste
    • 1 ist ein Funktionsblockdiagramm, das ein Konfigurationsbeispiel einer Erkennungsregion-Schätzvorrichtung gemäß einer ersten Ausführungsform der vorliegenden Erfindung illustriert.
    • 2 ist eine Ansicht, die ein Mobilkörper-Koordinatensystem in der Erkennungsregion-Schätzvorrichtung gemäß der ersten Ausführungsform illustriert.
    • 3 ist ein Hardware-Konfigurationsdiagramm der Erkennungsregion-Schätzvorrichtung gemäß der ersten Ausführungsform.
    • 4 ist ein Flussdiagramm, das den Betrieb der Erkennungsregion-Schätzvorrichtung gemäß der ersten Ausführungsform illustriert.
    • 5 ist ein Flussdiagramm, das den Betrieb einer Visuellerkennungsregion-Recheneinheit in Schritt ST100 in 4 im Detail illustriert.
    • 6 ist ein Flussdiagramm, das den Betrieb der Erkennungsregion-Recheneinheit im Schritt ST200 in 4 im Detail illustriert.
    • 7 ist ein Flussdiagramm, das den Betrieb einer Fahrzustands-Bestimmungseinheit im Schritt ST300 in 4 im Detail illustriert.
    • 8A, 8B, 8C und 8D sind Ansichten zum Illustrieren einer durch die Erkennungsregion-Recheneinheit berechneten erkannten Region.
    • 9 ist ein Funktionsblockdiagramm, das ein Konfigurationsbeispiel einer Erkennungsregion-Schätzvorrichtung gemäß einer fünften Ausführungsform der vorliegenden Erfindung illustriert.
    • 10 ist ein Flussdiagramm, das den Betrieb der Erkennungsregion-Schätzvorrichtung gemäß der fünften Ausführungsform illustriert.
    • 11 ist ein Flussdiagramm, das den Betrieb einer virtuellen Lokus-Recheneinheit in Schritt ST500 in 10 im Detail illustriert.
    • 12 ist ein Funktionsblockdiagramm, das ein Konfigurationsbeispiel einer Erkennungsregion-Schätzvorrichtung gemäß einer sechsten Ausführungsform der vorliegenden Erfindung illustriert.
  • BESCHREIBUNG VON AUSFÜHRUNGSFORMEN
  • Ein Modus zum Ausführen der vorliegenden Erfindung wird nachfolgend unter Bezugnahme auf die angehängten Zeichnungen beschrieben, um die vorliegende Erfindung detaillierter zu beschreiben.
  • Erste Ausführungsform
  • 1 ist ein Funktionsblockdiagramm, das ein Konfigurationsbeispiel einer Erkennungsregion-Schätzvorrichtung 100 gemäß einer ersten Ausführungsform der vorliegenden Erfindung illustriert. Die Erkennungsregion-Schätzvorrichtung 100 wird an einem Mobilkörper zum Abschätzen einer Situation um den Mobilkörper herum, die durch einen Fahrer des Mobilkörpers erkannt wird, montiert. In der nachfolgenden Beschreibung wird ein Fahrzeug als Beispiel des Mobilkörpers genommen, aber der Mobilkörper kann eine Eisenbahn, ein Schiff, ein Luftfahrzeug und dergleichen sein.
  • Die in 1 illustrierte Erkennungsregion-Schätzvorrichtung 100 ist mit einer Visuell-Erkennungsregion-Recheneinheit 101, einer Spiegelverwaltungseinheit 102, einer Abschirmobjekt-Verwaltungseinheit 103, einer Erkennungsregion-Recheneinheit 104, einer Erkennungsregion-Aufzeichnungseinheit 105, einer Antriebszustands-Bestimmungseinheit 106, einer Fahrassistenz-Informationspräsentiereinheit 107, einer Blicklinienrichtungs-Messeinheit 111, einer Kopfpositions-Messeinheit 112, einer Bewegungsbetrag-Messeinheit 113 und einer Umgebungssituations-Überwachungseinheit 121 versehen. Es ist anzumerken, wie nachfolgend im Detail zu beschreiben ist, dass unverzichtbare Komponenten der Erkennungsregion-Schätzvorrichtung 100 die Visuell-Erkennungsregion-Recheneinheit 101 und die Erkennungsregion-Recheneinheit 104 sind, und es belanglos ist, ob die Erkennungsregion-Schätzvorrichtung 100 andere Komponenten enthält oder nicht.
  • 2 ist eine Ansicht zum Illustrieren eines Mobilkörper-Koordinatensystems, basierend auf dem Mobilkörper. Das Koordinatenachsen-Mobilkörper-Koordinatensystem wird eine Achse, deren Aufwärts-Vertikalrichtung positiv ist, als eine Z-Achse bezeichnet, wird eine Achse, die einen Frontteil des Mobilkörpers in einer Ebene orthogonal zur Z-Achse als positiv ansieht, als eine Y-Achse bezeichnet und wird eine Achse, deren rechte Richtung positiv ist, wobei die Achse orthogonal zur Y-Achse in dieser Ebene ist, als eine X-Achse bezeichnet. Auch wird Rotation um die X-Achse als Neigung bezeichnet, wird Rotation um die Y-Achse als Rollen bezeichnet, und wird Rotation um die Z-Achse als ein Gieren bezeichnet; jede Rotation ist positiv in einer Richtung von Rechtsschraubrotation in Bezug auf die Positivrichtung der Rotationsachse. Ein Ursprung O des Mobilkörper-Koordinatensystems ist ein frei ausgewählter Punkt relativ fixiert in Bezug auf den Mobilkörper.
  • Es ist anzumerken, dass in der ersten Ausführungsform, um die Beschreibung zu vereinfachen, eine Ausführungsform, die nur drei Achsen der X-Achse, Y-Achse und Gieren als Minimalkonfiguration verwendet, beschrieben wird. Es ist ersichtlich, dass eine Ausführungsform, welche eine Kombination anderer Achsen verwendet, und eine Ausführungsform, die bis zu sechs Achsen von X-Achse, Y-Achse, Z-Achse, Neigung, Rollen und Gieren verwendet, durch eine ähnliche Konfiguration zu derjenigen dieser Ausführungsform implementiert werden kann.
  • 3 ist ein Beispiel eines Hardware-Konfigurationsdiagramm einer Erkennungsregion-Schätzvorrichtung 100 gemäß der ersten Ausführungsform.
  • Die Blicklinienrichtungs-Messeinheit 111, die Kopfpositions-Messeinheit 112, die Bewegungsbetrag-Messeinheit 113 und die Umgebungssituations-Überwachungseinheit 121 in der Erkennungsregion-Schätzvorrichtung 100 sind Sensoren 3. Die Sensoren 3 sind eine Kamera, ein Beschleunigungssensor, ein Gyroskop, ein Radar oder dergleichen. Die Sensoren 3 können in der Erkennungsregion-Schätzvorrichtung 100 enthalten sein, oder es können existierende, die am Fahrzeug montiert sind, verwendet werden.
  • Die Fahrassistenz-Informationspräsentiereinheit 107 in der Erkennungsregion-Schätzvorrichtung 100 ist zumindest eine Anzeige 4 oder ein Lautsprecher 5. Die Anzeige 4 und der Lautsprecher 5 können in der Erkennungsregion-Schätzvorrichtung 100 enthalten sein, oder existierende, die am Fahrzeug montiert sind, können verwendet werden.
  • Die Spiegelverwaltungseinheit 102, die Abschirmobjekt-Verwaltungseinheit 103 und die Erkennungsregion-Aufzeichnungseinheit 105 in der Erkennungsregion-Schätzvorrichtung 100 sind ein Speicher 2.
  • Funktionen der Visuell-Erkennungsregion-Recheneinheit 101, der Erkennungsregion-Recheneinheit 104 und der Antriebszustands-Bestimmungseinheit 106 in der Erkennungsregion-Schätzvorrichtung 100 werden durch Software, Firmware oder eine Kombination von Software und Firmware implementiert. Die Software oder Firmware wird als ein Programm beschrieben und ist im Speicher 2 gespeichert. Ein Prozessor 1 implementiert die Funktionen der jeweiligen Einheiten durch Auslesen und Ausführen des im Speicher 2 gespeicherten Programms. Das heißt, dass die Erkennungsregion-Schätzvorrichtung 100 mit dem Speicher 2 zum Speichern des Programms versehen ist, das schließlich jeden in 4 illustrierten Schritt, der später zu beschreiben ist, ausführt, bei Ausführung durch den Prozessor 1. Es kann auch gesagt werden, dass das Programm einem Computer gestattet, eine Prozedur oder ein Verfahren jeder der Visuell-Erkennungsregion-Recheneinheit 101, der Erkennungsregion-Recheneinheit 104 und der Antriebszustands-Bestimmungseinheit 106 auszuführen.
  • Der Prozessor 1 wird auch als eine Zentraleinheit (CPU), eine Verarbeitungseinheit, eine Arithmetikvorrichtung, ein Mikroprozessor, ein Mikrocomputer, ein Digitalsignalprozessor (DSP) oder dergleichen bezeichnet.
  • Der Speicher 2 kann beispielsweise ein nicht-flüchtiger oder flüchtiger Halbleiterspeicher wie etwa Wahlfreizugriffsspeicher (RAM), Nurlesespeicher (ROM), ein löschbares programmierbares ROM (EPROM), ein Flash-Speicher, und ein Solid-State-Laufwerk (SSD), eine Magnetdisk wie etwa eine Festplatte und eine flexible Disk, sein oder kann eine optische Disk wie etwa eine Compact-Disk (CD) und eine Digital Versatile Disc (DVD) sein.
  • Es ist anzumerken, dass einige der Funktionen der Visuell-Erkennungsregion-Recheneinheit 101, der Erkennungsregion-Recheneinheit 104 und der Antriebszustands-Bestimmungseinheit 106 durch dedizierte Hardware implementiert werden können und einige von ihnen durch die Software oder Firmware implementiert werden können. Die dedizierte Hardware ist beispielsweise eine einzelne Schaltung, eine Composit-Schaltung, ein programmierter Prozessor, ein parallelprogrammierter Prozessor, eine applikations-spezifische Schaltung (ASIC), ein feldprogrammmierbares Gatter-Array (FPGA), eine Verarbeitungsschaltung, die durch Kombinieren von ihnen erhalten wird, oder dergleichen. Wie oben beschrieben, kann die Erkennungsregion-Schätzvorrichtung 100 die Funktionen der Visuell-Erkennungsregion-Recheneinheit 101, der Erkennungsregion-Recheneinheit 104 und der Antriebszustands-Bestimmungseinheit 106 durch die Hardware, Software, Firmware oder die Kombination derselben implementieren.
  • Als Nächstes wird die Erkennungsregion-Schätzvorrichtung 100 im Detail beschrieben.
  • Die Blicklinienrichtungs-Messeinheit 111 erhält ein Kamerabild aus einer Kamera, welche den Fahrer des Fahrzeugs, welches der Mobilkörper ist, überwacht. Dann misst die Blicklinienrichtungs-Messeinheit 111 eine Blicklinienrichtung des Fahrers in dem Mobilkörper-Koordinatensystem durch eine bekannte Technologie des Abschätzens der Blicklinienrichtung des Fahrers vom Kamerabild und dergleichen. Hier wird als die Blicklinienrichtung angenommen, dass zumindest die Blicklinienrichtung in der Gier-Richtung mit der positiven Richtung der Y-Achse in dem Mobilkörper-Koordinatensystem als dem Ursprung gemessen wird. Es ist wünschenswert, dass Information zum Unterscheiden eines visuellen Erkennungszustands, wie etwa eines Öffnungs-/Schließ-Zustands des Augenlids des Fahrers zusammen gemessen werden. Die Blicklinienrichtungs-Messeinheit 111 gibt die gemessene Information der Blicklinienrichtung an die Visuell-Erkennungsregion-Recheneinheit 101 aus.
  • Die Kopfpositions-Messeinheit 112 erhält das Kamerabild von der Kamera, die den Fahrer überwacht. Dann misst die Kopfpositions-Messeinheit 112 eine Kopfposition des Fahrers im Mobilkörper-Koordinatensystem durch eine bekannte Technologie des Abschätzens der Kopfposition des Fahrers aus dem Kamerabild und dergleichen. Hier wird angenommen, dass Positionen in den X-, Y- und Z-Achsen im Mobilkörper-Koordinatensystem als die Kopfposition gemessen werden. Es ist anzumerken, obwohl es wünschenswert ist, dass die Kopfpositions-Messeinheit 112 die Kopfposition in jedem Moment misst, es auch möglich ist, einfach einen statischen Wert zu verwenden, der aus einer Position einer Kopfstütze eines Fahrersitzes oder ein Attribut oder dergleichen des Fahrers, die vorab eingestellt sind, zu verwenden. Beispielsweise kann die Kopfpositions-Messeinheit 112 eine Standard-Kopfposition verwenden, die angenommen wird, wenn das Fahrzeug entworfen wird, oder eine aus einer Sitzoberflächenposition, einem Rückenlehnen-Ruhewinkel oder dergleichen berechnete Kopfposition. Weiterhin kann die Kopfpositions-Messeinheit 112 auch physikalische Information wie etwa Körpergewicht für jeden Fahrer vorab aufzeichnen und die Kopfposition auf Basis der physischen Information des Fahrers an Bord abschätzen. Die Kopfpositions-Messeinheit 112 gibt Information über die gemessene Kopfposition an die Visuell-Erkennungsregion-Recheneinheit 101 aus.
  • Die Bewegungsbetrag-Messeinheit 113 erhält Trägheitsinformation, wie etwa Beschleunigung oder eine Geschwindigkeit aus dem Beschleunigungssensor, einem Gyro-Sensor oder dergleichen. Die Bewegungsbetrag-Messeinheit 113 misst einen Bewegungsbetrag des Fahrzeugs pro Einheitszeit im Mobilkörper-Koordinatensystem aus der ermittelten Trägheitsinformation. Hier wird der Bewegungsbetrag zumindest insgesamt von drei Achsen der Y-Achse, Y-Achse und Gieren aus den Bewegungsbeträgen in der X-, Y- und Z-Richtung und Rotationsbeträge um die drei Achsen des Gierens, Neigens und Rollens im Mobilkörper-Koordinatensystem gemessen. Es ist anzumerken, dass die Bewegungsbetrag-Messeinheit 113 den Bewegungsbetrag des Fahrzeugs pro Einheitszeit im Mobilkörper-Koordinatensystem unter Verwendung eines Fahrzeugaußensystems wie etwa GPS anstelle des Beschleunigungssensors, des Gyrosensors oder dergleichen messen kann. Positionsinformation des Mobilkörpers, die für das Abschätzen der visuell erkannten Region und der erkannten Region notwendig ist, ist nur ein relativer Bewegungsbetrag pro Einheitszeit des Fahrzeugs. Daher, selbst wenn die durch die Bewegungsbetrag-Messeinheit 113 zu messenden Bewegungsbetrags verwendete Positionsinformation die Positionsinformation eines Karten-Koordinatensystems ist, die durch das GPS und dergleichen gemessen wird, oder die Positionsinformation des Mobilkörper-Koordinatensystems, die durch den Beschleunigungssensor und dergleichen gemessen wird, ist der Bewegungsbetrag, der ein Differenzbetrag pro Einheitszeit ist, derselbe Wert, so dass Koordinatenumwandlung eliminiert wird, und es keine Rechenkosten gibt. Jedoch sind die Beschleunigungssensoren oder dergleichen robuster als das GPS und werden bevorzugt. Die Bewegungsbetrag-Messeinheit 113 gibt Information über den gemessenen Bewegungsbetrag an die Erkennungsregion-Recheneinheit 104 aus.
  • Es ist anzumerken, dass in 1 so konfiguriert ist, dass die Blicklinienrichtungs-Messeinheit 111, die Kopfpositions-Messeinheit 112 und die Bewegungsbetrag-Messeinheit 113 der Erkennungsregion-Schätzvorrichtung 100 die Blicklinienrichtung, die Kopfposition bzw. den Bewegungsbetrag messen; jedoch ist die Konfiguration nicht darauf beschränkt. Beispielsweise kann die Erkennungsregion-Schätzvorrichtung 100 auch konfiguriert sein, die Blicklinienrichtung, die Kopfposition und den Bewegungsbetrag, der durch eine externe Vorrichtung gemessen wird, ohne Einschluss der Blicklinienrichtungs-Messeinheit 111, der Kopfpositions-Messeinheit 112 und der vorgesehenen Bewegungsbetrag-Messeinheit 113 zu erhalten.
  • Die Umgebungssituations-Überwachungseinheit 121 erhält detektierte Werte aus dem Radar, der Kamera oder dergleichen. Die Umgebungssituations-Überwachungseinheit 121 detektiert ein Hindernis, ein gefährliches Objekt und dergleichen um das Fahrzeug herum auf Basis des detektierten Werts und gibt denselben an die Visuell-Erkennungsregion-Recheneinheit 101 und die Antriebszustands-Bestimmungseinheit 106 als Information aus, die eine Situation um das Fahrzeug herum angibt. Die Umgebungssituations-Überwachungseinheit 121 kann auch Information messen, die den Visuell-Erkennungszustand beeinträchtigt, wie etwa Helligkeit oder Wetter zusammen, und gibt diese Information an die Visuell-Erkennungsregion-Recheneinheit 101 und die Antriebszustands-Bestimmungseinheit 106 zusammen mit der Information aus, welche die Situation um das Fahrzeug herum angibt.
  • Es ist anzumerken, dass in 1 so konfiguriert ist, dass die Erkennungsregion-Schätzvorrichtung 100 mit der Autonom-Fahrsteuerung 120 versehen ist, aber diese ist nicht notwendigerweise bereitgestellt.
  • Die Visuell-Erkennungsregion-Recheneinheit 101 berechnet die visuell erkannte Region im Mobilkörper-Koordinatensystem unter Verwendung der Information zur aus der Blicklinienrichtungs-Messeinheit 111 empfangenen Blicklinienrichtung. Die visuell erkannte Region ist eine Region, um das Fahrzeug herum, die abgeschätzt ist, visuell vom Fahrer wahrgenommen zu werden. Wenn die visuell erkannte Region berechnet wird, verwendet die Visuell-Erkennungsregion-Recheneinheit 101 nach Bedarf die Information zu der Kopfposition, die aus der Kopfpositions-Messeinheit 112 empfangen ist, Information zu den durch die Spiegelverwaltungseinheit 102 verwalteten Spiegeln, Information über das durch die Abschirmobjekt-Verwaltungseinheit 103 verwaltete Abschirmobjekt und die Information, die die Situation um das Fahrzeug herum angibt, die aus der Umgebungssituations-Überwachungseinheit 121 empfangen wird. Die Visuell-Erkennungsregion-Recheneinheit 101 gibt Information über die visuell erkannte Region an die Erkennungsregion-Recheneinheit 104 aus.
  • Die Spiegelverwaltungseinheit 102 verwaltet die Information über die am Fahrzeug montierten Spiegel. Hier sind die Spiegel physikalische Spiegel wie etwa Seitenspiegel und Innenspiegel und elektronische Spiegel wie etwa ein Kamera-Monitor-Bildschirm. Die Spiegelverwaltungseinheit 102 verwaltet Information, die Installationsposition, Form und dergleichen dieser Spiegel angeben, und Information zu einer projizierten Region, die durch diese Spiegel im Mobilkörper-Koordinatensystem projiziert werden. Es ist wünschenswert, dass die projizierte Region eine repräsentative visuell erkannte Region, die durch die Spiegel projiziert wird, im Mobilkörper-Koordinatensystem ist. Beispielsweise in einem Fall von den physikalischen Spiegeln wird die visuell erkannte Region, die ermittelt wird, wenn der Fahrer auf einen zentralen Bereich des in einen Standardzustand installierten physikalischen Spiegels blickt, als die projizierte Region eingestellt. Auch in einem Fall der elektronischen Spiegel wird die visuell erkannte Region, die erhalten wird, wenn ein Zentralbereich für jeden Anzeigemodus des elektronischen Spiegels angeblickt wird, als die projizierte Region eingestellt. Der Anzeigemodus des elektronischen Spiegels ist beispielsweise ein Weitwinkelmodus mit einem weiten Blickwinkel, ein Telefotomodus mit einem engen Blickwinkel und dergleichen und die auf den elektronischen Spiegel projizierte Region variiert abhängig vom Anzeigemodus. Die Spiegelverwaltungseinheit 102 gibt die Information über die Spiegel an die Visuell-Erkennungsregion-Recheneinheit 101 aus.
  • Die Abschirmobjekt-Verwaltungseinheit 103 verwaltet die Information über das am Fahrzeug montierte Abschirmobjekt. Hier blockiert das Abschirmobjekt eine Sicht des Fahrers, wie etwa eine Säule und eine Haube. Die Abschirmobjekt-Verwaltungseinheit 103 verwaltet Information, die Installationspositionen, Formen und dergleichen dieser Abschirmobjekte im Mobilkörper-Koordinatensystem angeben. Die Abschirmobjekt-Verwaltungseinheit 103 gibt die Information über das Abschirmobjekt an die Visuell-Erkennungsregion-Recheneinheit 101 aus.
  • Es ist anzumerken, dass, obwohl die Erkennungsregion-Schätzvorrichtung 100 mit der Spiegelverwaltungseinheit 102 und der Abschirmobjekt-Verwaltungseinheit 103 in 1 versehen ist, es nicht immer notwendig ist, dieselbigen bereitzustellen.
  • Die Erkennungsregion-Recheneinheit 104 berechnet eine neueste erkannte Region in dem Mobilkörper-Koordinatensystem unter Verwendung der Information über den Bewegungsbetrag, die aus der Bewegungsbetrag-Messeinheit 113 empfangen wird, der Information über die visuell erkannte Region, die aus der Visuell-Erkennungsregion-Recheneinheit 101 empfangen wird, und Information über eine vergangene erkannte Region, die in der Erkennungsregion-Aufzeichnungseinheit 105 aufgezeichnet ist. Die erkannte Region ist eine Region um das Fahrzeug herum, von der abgeschätzt wird, dass sie vom Fahrer erkannt wird. Die Erkennungsregion-Recheneinheit 104 gibt Information über die erkannte Region an die Erkennungsregion-Aufzeichnungseinheit 105 aus.
  • Die Erkennungsregion-Aufzeichnungseinheit 105 zeichnet die Information über die erkannte Region, die aus der Erkennungsregion-Recheneinheit 104 empfangen wird, auf. Auch gibt die Erkennungsregion-Aufzeichnungseinheit 105 die aufgezeichnete Information über die erkannte Region an die Erkennungsregion-Recheneinheit 104 und die Antriebszustands-Bestimmungseinheit 106 aus.
  • Die Antriebszustands-Bestimmungseinheit 106 bestimmt den Fahrzustand des Fahrzeugs unter Verwendung der Information über die erkannte Region, die in der Erkennungsregion-Aufzeichnungseinheit 105 aufgezeichnet ist, und die, die Situation um das Fahrzeug herum angebende Information, die aus der Umgebungssituations-Überwachungseinheit 121 empfangen wird. Die Antriebszustands-Bestimmungseinheit 106 gibt die Information über den Fahrzustand über die Fahrassistenz-Informationspräsentiereinheit 107 aus.
  • Die Fahrassistenz-Informationspräsentiereinheit 107 erzeugt Information, um die Aufmerksamkeit des Fahrers zu erwecken, oder Information zum Unterstützen des Fahrens des Fahrers unter Verwendung der Information des Fahrzustands, die aus der Antriebszustands-Bestimmungseinheit 106 empfangen wird, und präsentiert dieselbe. Ein Verfahren zum Präsentieren der Information ist Anzeigen auf der Anzeige 4, Audioausgabe aus dem Lautsprecher 5 oder dergleichen.
  • Es ist anzumerken, dass, obwohl die Erkennungsregion-Schätzvorrichtung 100 mit der Antriebszustands-Bestimmungseinheit 106 und der Fahrassistenz-Informationspräsentiereinheit 107 in 1 versehen ist, es nicht immer notwendig ist, dieselben bereitzustellen. Insbesondere in Fahrzeugen und dergleichen gibt es einen Fall, bei dem Funktionen der Antriebszustands-Bestimmungseinheit 106 und der Fahrassistenz-Informationspräsentiereinheit 107 durch bekannte Mittel bereitgestellt werden, wie etwa eine Fahrunterstützungsvorrichtung oder eine automatisierte Fahrvorrichtung. Daher kann die Erkennungsregion-Schätzvorrichtung 100 konfiguriert sein, die Fahrassistenzvorrichtung und dergleichen, die eine externe Vorrichtung ist, zu verwenden, ohne die Antriebszustands-Bestimmungseinheit 106 und die Fahrassistenz-Informationspräsentiereinheit 107 zu beinhalten.
  • Als Nächstes wird der Betrieb der Erkennungsregion-Schätzvorrichtung 100 beschrieben.
  • 4 ist ein Flussdiagramm, das den Betrieb der Erkennungsregion-Schätzvorrichtung 100 gemäß der ersten Ausführungsform illustriert.
  • Schritt ST100 ist ein Prozess des Berechnens der visuell erkannten Region. Im Schritt ST100 berechnet die Visuell-Erkennungsregion-Recheneinheit 101 die visuell erkannte Region. 5 ist ein Flussdiagramm, welches den Betrieb der Visuell-Erkennungsregion-Recheneinheit 101 im Schritt ST100 im Detail illustriert.
  • Schritt ST200 ist ein Prozess des Berechnens der erkannten Region. Im Schritt ST200 berechnet die Erkennungsregion-Recheneinheit 104 die erkannte Region. 6 ist ein Flussdiagramm, welches den Betrieb der Erkennungsregion-Recheneinheit 104 im Schritt ST200 im Detail illustriert.
  • Schritt ST300 ist ein Prozess des Bestimmens des Fahrzustands. Im Schritt ST300 bestimmt die Antriebszustands-Bestimmungseinheit 106 den Fahrzustand. 7 ist ein Flussdiagramm, welches den Betrieb der Antriebszustands-Bestimmungseinheit 106 im Schritt ST300 im Detail illustriert.
  • Die Erkennungsregion-Schätzvorrichtung 100 kann synchron die Prozesse in Schritten ST100, ST200 und ST300 als eine Reihe von Prozessen ausführen, oder sie asynchron in Übereinstimmung mit einer Messperiode der Sensoren 3 oder einer Ausführperiode jedes Prozesses ausführen.
  • Als Nächstes wird ein in 4 illustrierter Visuell-Erkennungsregions-Rechenprozess in Schritt ST100 im Detail unter Bezugnahme auf 5 beschrieben.
  • In Schritt ST101 detektiert die Visuell-Erkennungsregion-Recheneinheit 101 sakkadische Bewegung aus der Information der Blicklinienrichtung, die aus der Blicklinienrichtungs-Messeinheit 111 empfangen wird. Wenn die sakkadische Bewegung detektiert wird, bestimmt die Visuell-Erkennungsregion-Recheneinheit 101, dass der Fahrer nicht im visuell erkannten Zustand ist und in anderen Fällen bestimmt dies, dass der Fahrer im visuell erkannten Zustand ist. Dies ist eine Bestimmung im Hinblick auf bekannte Funde, dass der Zustand in einem visuellen Feld nicht während der sakkadischen Bewegung erkannt wird. Die sakkadische Bewegung ist ein Phänomen, das den Augapfel bei hoher Geschwindigkeit bewegt; einfach ist ein Fall, bei dem eine Differenz zwischen der Blicklinienrichtung, wenn Schritt ST100 zuvor ausgeführt wird, und der Blicklinienrichtung, wenn Schritt ST100 gleichzeitig ausgeführt wird, größer als ein voreingestellter Schwellenwert ist, als die sakkadische Bewegung bestimmt. Zusätzlich, wenn zur Bestimmung des visuell erkannten Zustands wie etwa der Öffnungs-/Schließ-Zustand des Augenlids beitragende zusätzliche Information durch die Blicklinienrichtungs-Messeinheit 111 erhalten wird, kann die Visuell-Erkennungsregion-Recheneinheit 101 den Visuellerkennungszustand unter Verwendung der zusätzlichen Information bestimmen.
  • Wenn festgestellt wird, dass der Fahrer im visuell erkannten Zustand ist (Ja im Schritt ST101), verschiebt sich die Visuell-Erkennungsregion-Recheneinheit 101 zu Schritt ST102, und wenn bestimmt wird, dass der Fahrer nicht im visuell erkannten Zustand ist („Nein“ im Schritt ST101), beendet die Visuell-Erkennungsregion-Recheneinheit 101 den Visuellerkennungs-Rechenprozess.
  • Im Schritt ST102 wandelt die Visuell-Erkennungsregion-Recheneinheit 101 die Installationsposition und Formen der Spiegel in dasselbe Koordinatensystem wie dasjenige der Blicklinienrichtung um, als ein Relativwinkel in Bezug auf die Kopfposition, unter Verwendung der Information der Installationspositionen und Formen der Spiegel, die durch die Spiegelverwaltungseinheit 102 verwaltet werden, und der Information über die Kopfposition, die aus der Kopfpositions-Messeinheit 112 empfangen werden. Wenn die aus der Blicklinienrichtungs-Messeinheit 111 empfangene Blicklinienrichtung in den Positionen und Formen der Spiegel enthalten ist, bestimmt die Visuell-Erkennungsregion-Recheneinheit 101, dass ein visuell erkanntes Objekt des Fahrers der Spiegel ist (Ja im Schritt ST102) und verschiebt sich zu ST104 und ansonsten bestimmt dies, dass das visuell erkannte Objekt nicht die Spiegel sind („Nein“ im Schritt ST02) und verschiebt sich zu Schritt ST103.
  • Im Schritt ST103 berechnet die Visuell-Erkennungsregion-Recheneinheit 101 die visuell erkannte Region in dem Mobilkörper-Koordinatensystem aus der Information über die Blicklinienrichtung, die aus der Blicklinienrichtungs-Messeinheit 111 empfangen wird, und der Information über die Kopfposition, die aus der Kopfpositions-Messeinheit 112 empfangen wird. Die Visuell-Erkennungsregion-Recheneinheit 101 stellt die visuell erkannte Region als eine fächerförmige Region ein, die sich in einer X-Achsenrichtung erstreckt, mit der Kopfposition als Spitze und der Blicklinienrichtung als einer Zentralachse. Die Visuell-Erkennungsregion-Recheneinheit 101 kann auch die visuell erkannte Region als eine dreidimensionale Region einstellen, die sich in einer elliptischen konischen Form erstreckt, mit der Kopfposition als einer Spitze und der Blicklinienrichtung als einer Zentralachse. Weiterhin stellt die Visuell-Erkennungsregion-Recheneinheit 101 wünschenswerter Weise eine Gewichtung so ein, dass ein Erkennungsgrad in Übereinstimmung mit der Nähe zur Zentralachse der visuell erkannten Region ansteigt und der Erkennungsgrad in Übereinstimmung mit der Nähe zur Spitze, welche die Kopfposition ist, ansteigt. Dies wird im Hinblick auf bekannte Funde hinsichtlich menschlicher Sichtfeld-Charakteristika konfiguriert.
  • Im Schritt ST104 ermittelt die Visuell-Erkennungsregion-Recheneinheit 101 Information über die projizierte Region der Spiegel, die festgestellt wird, die Blicklinienrichtung zu enthalten, im Schritt ST102 aus der Spiegelverwaltungseinheit 102. Dann berechnet die Visuell-Erkennungsregion-Recheneinheit 101 die visuell erkannte Region in dem Mobilkörper-Koordinatensystem auf Basis der projizierten Region, die aus der Spiegelverwaltungseinheit 102 erhalten wird. Es ist wünschenswert, dass die Visuell-Erkennungsregion-Recheneinheit 101 die Gewichtung für die visuell erkannte Region basierend auf der projizierten Region einstellt, basierend auf der menschlichen Sichtfeld-Charakteristika, Anzeigeauflösung der elektronischen Spiegel oder dergleichen, ähnlich zu jenen in Schritt ST103.
  • Im Schritt ST105 erhält die Visuell-Erkennungsregion-Recheneinheit 101 die Information über die Position und Form des Abschirmobjektes, welche durch die Abschirmobjekt-Verwaltungseinheit 103 verwaltet wird. Dann exkludiert die Visuell-Erkennungsregion-Recheneinheit 101 eine Region, wo die Blicklinie des Fahrers durch das Abschirmobjekt blockiert ist, wobei die Region eine blinde Ecke aus der visuell erkannten Region wird, die im Schritt ST103 oder ST104 berechnet wird. Zusätzlich ist es wünschenswert, dass die Visuell-Erkennungsregion-Recheneinheit 101 die, die Situation um das Fahrzeug herum angebende Information aus der Visuell-Erkennungsregion-Recheneinheit 121 empfängt und die Region ausschließt, welche die blinde Ecke durch das Hindernis, gefährliches Objekt oder dergleichen ist, aus der visuell erkannten Region.
  • Als Nächstes wird ein erkannter Regionsrechenprozess im in 4 illustrierten Schritt ST200 im Detail unter Bezugnahme auf 6 und 8A bis 8D beschrieben.
  • Im Schritt ST201 erhält die Erkennungsregion-Recheneinheit 104 die Information über die erkannte Region, die berechnet wird, wenn zuvor Schritt ST200 ausgeführt wird, aus der Erkennungsregion-Aufzeichnungseinheit 105. Es ist anzumerken, dass, weil die Information über die erkannte Region nicht in der Erkennungsregion-Aufzeichnungseinheit 105 zum Zeitpunkt der ersten Ausführung aufgezeichnet wird, die Erkennungsregion-Recheneinheit 104 eine gesamte erkannte Region auf Null initialisiert und dieselbe als die Information über die erkannte Region ansieht, die berechnet wird, wenn Schritt ST200 zuvor ausgeführt wird.
  • 8A ist eine Ansicht, welche die erkannte Region im Anfangszustand illustriert. Da die gesamte erkannte Region im Anfangszustand initialisiert wird, gibt es keine erkannte Region. 8B ist eine Ansicht, die eine erkannte Region R illustriert, die durch die Erkennungsregion-Recheneinheit 104 aus der Erkennungsregion-Aufzeichnungseinheit 105 im Schritt ST201 erhalten wird. Die in 8B illustrierte erkannte Region R basiert auf der Information über die vergangene erkannte Region, die in der Erkennungsregion-Aufzeichnungseinheit 105 aufgezeichnet ist. Es ist anzumerken, dass in 8A und 8B ein rechteckiger Rahmen in einer durchgezogenen Linie ein erkannter Regionsrechenbereich ist, welches ein Rechenziel ist, das durch die Erkennungsregion-Recheneinheit 104 gemacht wird, und eine unterbrochene Linie eine Position eines Wirtsfahrzeugs angibt. Die Position des Wirtsfahrzeugs wird aus Gründen der Beschreibung illustriert und ist nicht notwendigerweise in einem tatsächlichen Erkennungsregion-Rechenprozess.
  • Im Schritt ST202 aktualisiert die Erkennungsregion-Recheneinheit 104 die erkannte Region unter Verwendung der Information über den Bewegungsbetrag des Fahrzeugs, die aus der Bewegungsbetrag-Messeinheit 113 empfangen wird. Die Erkennungsregion-Recheneinheit 104 aktualisiert die erkannte Region durch Rotieren und Translatieren des Fahrzeugs um den Ursprung auf Basis eines Winkels und einer Distanz entsprechend dem Bewegungsbetrag in einer Periode ab dann, wenn Schritt ST200 zuvor ausgeführt wird, bis dann, wenn Schritt ST200 aktuell ausgeführt wird. Hier ist es wünschenswert, dass der Ursprung einem Messort entspricht, der durch die Bewegungsbetrag-Messeinheit 113 gemessen wird. Einfacher können auch das Zentrum, der Schwerpunkt oder dergleichen des Fahrzeugs als der Ursprung verwendet werden.
  • Formel (1) ist ein spezifisches Beispiel einer Erkennungsregion-Rechenprozedur im Schritt ST202. Hinsichtlich der in dem Mobilkörper-Koordinatensystem definierten erkannten Region R wird die erkannte Region R im vorigen Schritt zu einer erkannten Region R1 im aktuellen Schritt n+1 durch Formel (1) aktualisiert.
  • Es ist anzumerken, dass, aufgrund des elektronischen Einreichens oben an einem alphabetischen Zeichen angebrachte „∼“ als „(Tilde)“ ausgedrückt wird. R 1 ( x , y , n + 1 ) : = R ( x ˜ , y ˜ , n ) [ x ˜ y ˜ ] = [ cos θ sin θ sin θ cos θ ] × ( [ x y ] + [ d x d y ] )
    Figure DE112016006962T5_0001
    • R: Erkannte Region
    • n: Anzahl von Schritten
    • x, y: Koordinaten am Schritt n+1 im Mobilkörper-Koordinatensystem
    • θ: Rotationskomponente von Bewegungsbetrag in Periode ab Schritt n bis Schritt n+1 (Gier-Achse)
    • dx, dy: Translationskomponente von Bewegungsbetrag in Periode Ab Schritt n bis Schritt n+1 (X-Achse, Y-Achse)
  • Es ist anzumerken, dass, weil die als die erkannte Region R aufgezeichnete Region einen finiten Bereich hat, x (Tilde) und y(Tilde) nicht immer in der erkannten Region R enthalten sind. In diesem Fall ist es als Werte von x (Tilde) und y (Tilde) wünschenswert, Werte an Kreuzungen von Liniensegmenten von x (Tilde) und y (Tilde) als ein Startpunkt zum Zentrum des Fahrzeugs oder den Fahrer als einen finalen Punkt zu verwenden, und eine äußere Kante der Kantenregion R. Dies ist im Hinblick der Charakteristika der erkannten Region, dass die Werte der erkannten Region radial um das Fahrzeug oder den Fahrer global verteilt sind. Einfacher kann ein Wert eines Punktes am nächsten an der X-Achse in der erkannten Region als x (Tilde) verwendet werden und kann ein Wert eines Punktes am nächsten an der Y-Achse in der erkannten Region R als y (Tilde) verwendet werden. Dies bringt eine exzellente Approximation, wenn der Rotationsbetrag pro Einheitszeit nahe an Null ist, wie etwa, wenn eine Vorwärtsbewegungskomponente größer als eine Lateralbewegungskomponente ist oder wenn der Bewegungsbetrag pro Einheitszeit ausreichend klein ist, insbesondere in einem Fall von Fahrzeugen. Weiterhin kann, wenn die erkannte Region R ausreichend breit relativ zum Sichtfeld des Fahrers ist, Null als die Werte von x (Tilde) und y (Tilde) verwendet werden.
  • Auch, da die erkannte Region R diskret in einer Zeitdomäne aufgezeichnet wird, beziehen sich x (Tilde) und y (Tilde) nicht notwendigerweise auf Gitterpunkte, die in der erkannten Region R definiert sind. In diesem Fall ist es wünschenswert, einen gewichteten Durchschnittswert zu verwenden, der durch die Distanz von jeder Spitze einer Gitterebene einschließlich x (Tilde) und y (Tilde) gewichtet ist. Einfacher kann ein Wert eines Gitterpunktes am nächsten an x (Tilde) und y (Tilde) in der erkannten Region R verwendet werden.
  • 8C ist eine Ansicht, welche die erkannte Region R1, die im Schritt ST202 aktualisiert wird, illustriert.
  • Im Schritt ST203 aktualisiert die Erkennungsregion-Recheneinheit 104 die erkannte Region durch Multiplizieren einer Vergessensrate, basierend auf Zeit, die verstrichen ist ab dann, wenn der Schritt ST200 zuvor ausgeführt wurde, bis dann, wenn ST200 aktuell ausgeführt wird, durch die im Schritt ST202 aktualisierte erkannte Region. Die Gewichtung des Erkennungsgrades in der erkannten Region sinkt auf Basis der Vergessensrate.
  • Formel (2) ist ein spezifisches Beispiel der Erkennungsregions-Rechenprozedur im Schritt ST203. Durch Formel (2) wird die Vergessensrate der erkannten Region entsprechend einer Periode ab dem vorherigen Schritt n bis zum aktuellen Schritt n+1 in der erkannten Region R1 widergespiegelt, die im Mobilkörper-Koordinatensystem definiert ist, und wird die erkannte Region R1 als erkannte Region R2 aktualisiert. R 2 ( x , y , n + 1 ) : = R 1 ( x , y , n + 1 ) × γ t
    Figure DE112016006962T5_0002
    • R: Erkannte Region
    • n: Anzahl von Schritten
    • x, y: Koordinaten im Schritt n+1 im Mobilkörper-Koordinatensystem
    • θ: In Periode ab Schritt n bis Schritt n+1 verstrichen Zeit y: Vergessensrate pro Einheitszeit
  • Im Schritt ST204 bestimmt die Erkennungsregion-Recheneinheit 104, ob die Visuell-Erkennungsregion-Recheneinheit 101 die visuell erkannte Region im Schritt ST100 berechnet. Wenn festgestellt wird, dass die visuell erkannte Region durch die Visuell-Erkennungsregion-Recheneinheit 101 berechnet wird (Ja im Schritt ST204), verschiebt sich die Erkennungsregion-Recheneinheit 104 zu Schritt ST205 und wenn festgestellt wird, dass die visuell erkannte Region nicht berechnet wird („Nein“ im Schritt ST204), verschiebt sich diese zu Schritt ST206.
  • Im Schritt ST205 empfängt die Erkennungsregion-Recheneinheit 104 die Information zu der visuell erkannten Region aus der Visuell-Erkennungsregion-Recheneinheit 101 und aktualisiert die erkannte Region durch Hinzufügen der empfangenen visuell erkannten Region zu der im Schritt ST203 aktualisierten erkannten Region.
  • Formel (3) ist ein spezifisches Beispiel der Erkennungsregion-Rechenprozedur im Schritt ST205. Durch Formel (3) wird ein Wert im Schritt n+1 einer in dem Mobilkörper-Koordinatensystem definierten visuell erkannten Region S zu der im Mobilkörper-Koordinatensystem definierten erkannten Region R2 hinzugefügt und wird die erkannte Region R2 zur erkannten Region R aktualisiert. R ( x , y , n + 1 ) : = R 2 ( x , y , n + 1 ) + S ( x , y , n + 1 )
    Figure DE112016006962T5_0003
    • R: Erkannte Region
    • S: Visuell erkannte Region
    • n: Anzahl von Schritten
    • x, y: Koordinaten im Schritt n+1 im Mobilkörper-Koordinatensystem
  • 8D ist eine Ansicht, welche die im Schritt ST205 aktualisierte erkannte Region R illustriert. Die erkannte Region R ist eine Region, welche die erkannte Region R2 und die visuell erkannte Region S beinhaltet.
  • Im Schritt ST206 gibt die Erkennungsregion-Recheneinheit 104 die im Schritt ST203 aktualisierte erkannte Region oder die im Schritt ST205 aktualisierte erkannte Region an die Erkennungsregion-Aufzeichnungseinheit 105 zur Aufzeichnung aus.
  • Als Nächstes wird eine in 4 illustrierte Fahrzustands-Bestimmungsprozedur im Schritt ST300 im Detail unter Bezugnahme auf 7 beschrieben.
  • Im Schritt ST301 erhält die Antriebszustands-Bestimmungseinheit 106 die Information über die erkannte Region, die durch die Erkennungsregion-Recheneinheit 104 berechnet wird, im Schritt ST200, und in der Erkennungsregion-Aufzeichnungseinheit 105 aufgezeichnet, aus der Erkennungsregion-Aufzeichnungseinheit 105. Auch empfängt die Antriebszustands-Bestimmungseinheit 106 die, die Situation um das Fahrzeug herum angebende Information aus der Umgebungssituations-Überwachungseinheit 121 und bestimmt den Fahrzustand durch Vergleichen der Situation um das Fahrzeug herum mit der erkannten Region, die aus der Erkennungsregion-Aufzeichnungseinheit 105 erhalten wird.
  • Formel (4) ist ein spezifisches Beispiel der Fahrzustands-Bestimmungsprozedur im Schritt ST301. Durch Multiplizieren eines Erkennungsgrads PR im Mobilkörper-Koordinatensystem mit einem Gefahrengrad PH im Mobilkörper-Koordinatensystem durch Formel (4) wird ein rekognitiver Risikograd P im Mobilkörper-Koordinatensystem berechnet.
  • Hier ist der Erkennungsgrad PR ein Wert, der durch Normalisieren der erkannten Region R in Formel (3), die oben beschrieben ist, mit einem Wert zwischen 0 und 1 erhalten wird, wobei der Wert probabilistisch den Erkennungsgrad um das Fahrzeug des Fahrers herum ausdrückt, während ein Fall, bei dem der Fahrer gar nicht erkennt, mit Null assoziiert wird, und ein Fall, bei dem der Fahrer vollständig erkennt, mit 1 assoziiert wird.
  • Der Gefahrengrad PH ist ein Wert, der durch die Umgebungssituations-Überwachungseinheit 121 bestimmt wird. Hinsichtlich eines zum Zeitpunkt des Fahrens zu beachtenden Ziels, wie etwa einem Hindernis, was einen Fahrer oder ein anderes Fahrzeug einschließt, berechnet die Umgebungssituations-Überwachungseinheit 121 hauptsächlich Kontaktwahrscheinlichkeit und dergleichen mit dem Wirtsfahrzeug auf Basis einer Distanz, einer Relativgeschwindigkeit und dergleichen zwischen dem Ziel und dem Wirtsfahrzeug. Die Kontaktwahrscheinlichkeit oder dergleichen ist eine probabilistische Formel des Gefahrengrads PH des während des Fahrens zu beachtenden Ziels. Alternativ kann die Umgebungssituations-Überwachungseinheit 121 einen Wert berechnen, der probabilistisch einen potentionellen Gefahrengrad PH wie etwa eine blinde Ecke oder eine Region mit schlechter Sichtbarkeit aufgrund eines Hindernisses ausdrückt.
  • Der Risikograd P ist ein Produkt des Erkennungsgrads und des Gefahrengrads. Daher, wenn der Erkennungsgrad niedrig ist und der Gefahrengrad hoch ist, wird der Risikograd P ein größerer Wert. Daher ist dies eine Indikator, der angibt, dass, je größer der Risikograd P ist, desto höher die Wahrscheinlichkeit, dass ein gefährlicher Faktor an dem Punkt sich zu einem Unfall oder dergleichen entwickelt. Die Antriebszustands-Bestimmungseinheit 106 verwendet diesen Risikograd P als den Fahrzustand. R ( x , y , n + 1 ) : = ( 1 P R ( x , y , n ) ) × P H ( x , y , n )
    Figure DE112016006962T5_0004
    • P: Erkannter Risikograd um Fahrzeug herum
    • PR: Erkennungsgrad um Fahrzeug in erkannter Region
    • PH: Gefahrengrad um Fahrzeug durch Umgebungssituation
    • n: Anzahl von Schritten
    • x, y: Koordinaten im Schritt n+1 im Mobilkörper-Koordinatensystem
  • In Schritt ST302 bestimmt die Antriebszustands-Bestimmungseinheit 106, ob der Fahrzustand in einem unsicheren Zustand ist, basierend auf dem im Schritt ST301 berechneten Fahrzustand. Wenn der Risikograd P, der den Fahrzustand angibt, größer als ein vorab bestimmter Schwellenwert ist, bestimmt die Antriebszustands-Bestimmungseinheit 106, dass sie in einem unsicheren Zustand ist („Ja“ im Schritt ST302) und verschiebt sich zu Schritt ST303 und ansonsten („Nein“ im Schritt ST302) beendet die Antriebszustands-Bestimmungseinheit 106 den Antriebszustands-Bestimmungsprozess.
  • In Schritt ST303 gibt die Antriebszustands-Bestimmungseinheit 106 Information, die angibt, dass das Fahrzeug in dem unsicheren Zustand ist, an die Fahrassistenz-Informationspräsentiereinheit 107 aus. Die Fahrassistenz-Informationspräsentiereinheit 107 erzeugt Information, um die Aufmerksamkeit des Fahrers des Fahrzeugs in dem unsicheren Zustand zu erwecken und gibt denselben aus der Anzeige 4 oder dem Lautsprecher 5 aus. Zusätzlich erzeugt die Fahrassistenz-Informationspräsentiereinheit 107 die Fahrunterstützungs-Information, die ein Verfahren zum Auflösen des unsicheren Zustands und dergleichen angibt, und gibt dieselbe aus der Anzeige 4 oder dem Lautsprecher 5 aus. Wenn beispielsweise ein Mobilkörper detektiert wird, der sich von einer Region annähert, wo der Erkennungsgrad des Fahrers niedrig ist, als der unsichere Zustand, teilt die Fahrassistenz-Informationspräsentiereinheit 107 dem Fahrer das Annähern des Mobilkörpers mit und drängt den Fahrer, den Mobilkörper visuell zu erkennen. Zusätzlich gibt die Fahrassistenz-Informationspräsentiereinheit 107 eine Warnung an den sich nähernden Mobilkörper, dass die Aufmerksamkeit des Fahrers abgelenkt ist, und fordert denselben auf, zu vermeiden. Weiterhin, wenn der unsichere Zustand nicht aufgelöst wird, drängt die Fahrassistenz-Informationspräsentiereinheit 107 den Fahrer, eine Vermeidungsaktion zu ergreifen, wie etwa Verlangsamung, in Übereinstimmung mit der Situation um das Fahrzeug herum.
  • Auch wenn die am Wirtsfahrzeug montierte Erkennungsregion-Schätzvorrichtung 100 und die an einem anderen Fahrzeug montierte Erkennungsregion-Schätzvorrichtung 100 in der Lage sind, per Funk durch Mobilfahrzeug-Kommunikation oder dergleichen zu kommunizieren, ist es auch möglich, zu konfigurieren, die Information aus der Erkennungsregion-Schätzvorrichtung 100 des Wirtsfahrzeugs zu Erkennungsregion-Schätzvorrichtung 100 des anderen Fahrzeugs zu senden. Wenn beispielsweise die Erkennungsregion-Schätzvorrichtung 100 des Wirtsfahrzeugs bestimmt, dass das Wirtsfahrzeug in dem unsicheren Zustand ist, ist es auch möglich, zu konfigurieren, die Information zum Aufrufen von Aufmerksamkeit an die Erkennungsregion-Schätzvorrichtung 100 eines anderen Fahrzeugs zu senden, das den unsicheren Zustand verursacht, das heißt, das andere Fahrzeug, welches der Fahrer des Wirtsfahrzeugs wahrscheinlich nicht wahrnimmt. Die Erkennungsregion-Schätzvorrichtung 100 des anderen Fahrzeugs präsentiert die empfangene Information einem Fahrer. In einem Falle dieser Konfiguration kann der Fahrer des anderen Fahrzeugs das Wirtsfahrzeug vermeiden, und kann als Ergebnis eine Möglichkeit des Entwickelns zu einem Unfall oder dergleichen reduziert werden.
  • Wenn eine externe Vorrichtung, die Bremsen, Lenkung oder dergleichen steuert, am Fahrzeug montiert ist, ist es auch möglich, so zu konfigurieren, dass die Information zum Fahrzustand aus der Antriebszustands-Bestimmungseinheit 106 an die externe Vorrichtung ausgegeben wird und Beschleunigung/Verlangsamung, Lenken und dergleichen des Fahrzeugs durch die externe Vorrichtung gesteuert wird, und der unsichere Zustand vermieden wird.
  • Wie oben beschrieben, ist die Erkennungsregion-Schätzvorrichtung 100 gemäß der ersten Ausführungsform mit der Visuell-Erkennungsregion-Recheneinheit 101 versehen, welche die durch den Fahrer visuell wahrgenommene visuell erkannte Region im Mobilkörper-Koordinatensystem berechnet, basierend auf dem Mobilkörper, wie etwa dem Fahrzeug, auf Basis der Blicklinienrichtung des Fahrers, und der Erkennungsregion-Recheneinheit 104, welche die durch den Fahrer wahrgenommene erkannte Region im Mobilkörper-Koordinatensystem auf Basis der durch die Visuell-Erkennungsregion-Recheneinheit 101 berechneten visuell erkannten Region berechnet. Die visuell erkannte Region und die erkannte Region im Mobilkörper-Koordinatensystem werden so berechnet, dass es leicht ist, mit drei anderen Sensoren zum Überwachen der Umgebung zu kooperieren, beispielsweise der im Mobilkörper-Koordinatensystem verwalteten Umgebungssituations-Überwachungseinheit 121. Als Ergebnis kann beispielsweise die Antriebszustands-Bestimmungseinheit 106 effizient einen Umgebungserkennungsstatus des Fahrers abschätzen.
  • Zusätzlich, da die Erkennungsregion-Schätzvorrichtung 100 gemäß der ersten Ausführungsform konfiguriert ist, nur die erkannte Region im Mobilkörper-Koordinatensystem zu verwalten, wird ein Betrieb über das Karten-Koordinatensystem, wie bei einer Sichtfeld-Schätzvorrichtung gemäß Patentliteratur 1 überhaupt nicht notwendig. Daher, indem nur die Trägheitsinformation, welche durch die Sensoren 3 gemessen wird, wie etwa das Gyroskop, das robuster ist als GPS, verwendet wird, wird es möglich, die Position des Wirtsfahrzeugs zu spezifizieren und die erkannte Region abzuschätzen.
  • Die Erkennungsregion-Schätzvorrichtung 100 gemäß der ersten Ausführungsform wird auch mit der Spiegelverwaltungseinheit 102 versehen, welche die Installationspositionen und die projizierte Region, die in die Spiegel projiziert ist, im Mobilkörper-Koordinatensystem der in dem Mobilkörper installierten Spiegel aufzeichnet. Wenn die Blicklinienrichtung des Fahrers in den Installationspositionen der durch die Spiegelverwaltungseinheit 102 verwalteten Spiegel enthalten ist, macht die Visuell-Erkennungsregion-Recheneinheit 101 die projizierte Region der Spiegel zur visuell erkannten Region des Fahrers. Daher können die visuell erkannte Region und die erkannte Region genauer abgeschätzt werden.
  • Zusätzlich ist die Erkennungsregion-Schätzvorrichtung 100 gemäß der ersten Ausführungsform mit der Umgebungssituations-Überwachungseinheit 121 versehen, welche die Umgebung des Mobilkörpers überwacht und das Hindernis im Mobilkörper-Koordinatensystem detektiert. Dann ist die Visuell-Erkennungsregion-Recheneinheit 101 konfiguriert, die Blindeckenregion, welche die blinde Ecke ist, durch das durch die Umgebungssituations-Überwachungseinheit 121 detektierte Hindernis zu berechnen, und die blinde Eckenregion aus der visuell erkannten Region des Fahrers zu eliminieren. Daher können die visuell erkannte Region und die erkannte Region genauer abgeschätzt werden.
  • Zusätzlich ist die Erkennungsregion-Schätzvorrichtung 100 gemäß der ersten Ausführungsform mit der Bewegungsbetrag-Messeinheit 113 versehen, welche den Bewegungsbetrag pro Einheitszeit des Mobilkörpers im Mobilkörper-Koordinatensystem misst. Dann ist die Erkennungsregion-Recheneinheit 104 konfiguriert, die erkannte Region, die vorher zu einer Einheitszeit auf Basis des Bewegungsbetrags pro Einheitszeit, gemessen durch die Bewegungsbetrag-Messeinheit 113, berechnet wird, zu bewegen, und die erkannte Region durch Hinzufügen der durch die Visuell-Erkennungsregion-Recheneinheit 101 berechneten visuell erkannten Region zur bewegten erkannten Region zu aktualisieren.
  • In der oben beschriebenen Sichtfeld-Schätzvorrichtung gemäß Patentliteratur 1, um effizient den Umgebungserkennungsstatus des Fahrers abzuschätzen, wird der Sichtfeldbereich pro Einheitszeit durch Differenzberechnung aktualisiert. Jedoch, da sich das Fahrzeug in jedem Moment bewegt, sollte die Region, wo der Umgebungserkennungsstatus des Fahrers abgeschätzt werden sollte, sich auch in jedem Moment im Karten-Koordinatensystem ändern, und bewegt das Fahrzeug sich in einer signifikant großen Region im Vergleich zu der Region, in welcher der Umgebungserkennungsstatus des Fahrers abgeschätzt werden sollte. Daher, damit die Sichtfeld-Sichtfeld-Schätzvorrichtung die Aktualisierung des Sichtfeldbereichs, oben beschrieben, ausführt, sind Mittel des Spezifizierens der Region, in welcher der Umgebungserkennungsstatus in jedem Aktualisierungsschritt abgeschätzt werden solle, und Mittel des Verwaltens der Region und Reflektieren der Region in einem Aktualisierungsprozess notwendig; jedoch sind solche Mittel weder offenbart noch nahegelegt. Wenn ein solches Mittel nicht bereitgestellt wird, ist praktisch ein unbegrenzter Speicherbereich notwendig, unter räumlich beschränkten Bedingungen wie etwa einem Parkplatz, so dass es tatsächlich schwierig ist, die Aktualisierung des visuellen Feldbereichs auszuführen.
  • Andererseits kann die Erkennungsregion-Schätzvorrichtung 100 gemäß der ersten Ausführungsform die erkannte Region im Mobilkörper-Koordinatensystem durch die Differenzrechnung pro Einheitszeit in einem begrenzten Speicherbereich berechnen, so dass ein Effekt des Ermöglichens effizienter Abschätzung der erkannten Region im Mobilkörper-Koordinatensystem erhalten wird.
  • Die Erkennungsregion-Schätzvorrichtung 100 der ersten Ausführungsform ist mit der Umgebungssituations-Überwachungseinheit 121 versehen, welche die Umgebung des Mobilkörpers überwacht und den Gefährdungsgrad des Mobilkörpers im Mobilkörper-Koordinatensystem bestimmt, und der Antriebszustands-Bestimmungseinheit 106, welche den Fahrzustand des Mobilkörpers unter Verwendung der Gefährdungsgrads, der durch die Umgebungssituations-Überwachungseinheit 121 bestimmt ist, und der durch die Erkennungsregion-Recheneinheit 104 berechneten erkannten Region bestimmt. Da der Gefährdungsgrad und die erkannte Region im selben Mobilkörper-Koordinatensystem verwaltet werden, ist es möglich, effizient den Fahrzustand zu bestimmen.
  • Zweite Ausführungsform
  • In einer zweiten Ausführungsform wird eine Konfiguration des Verbesserns der Genauigkeit des Erkennungsregion-Rechenprozesses in der ersten Ausführungsform beschrieben. Nachfolgend wird hauptsächlich eine Differenz zwischen der ersten Ausführungsform und der zweiten Ausführungsform beschrieben. Jene nicht speziell erwähnten entsprechen jenen der ersten Ausführungsform und 1 bis 8 werden dazu verwendet.
  • Wenn die visuell erkannte Region berechnet wird, gibt es einen Bedarf, eine Gewichtung einem Erkennungsgrad zuzuweisen, auf Basis der Umgebungsbedingung um ein Fahrzeug herum. Beispielsweise, selbst wenn ein Fahrer vorwärts blickt, unterscheidet sich eine visuell erkannte Region zur Tageszeit von einer visuell erkannten Region bei Nacht.
  • Daher ist die Erkennungsregion-Schätzvorrichtung 100 gemäß der zweiten Ausführungsform konfiguriert, die visuell erkannte Region auf Basis einer Umgebungsumweltbedingung zu verändern.
  • Eine Umgebungssituations-Überwachungseinheit 121 der zweiten Ausführungsform misst auch Information, welche den Visuell-Erkennungszustand des Fahrers beeinträchtigt, wie etwa Helligkeit oder Wetter, zusätzlich zu einem Hindernis, einem gefährlichen Objekt oder dergleichen, um das Fahrzeug herum, als Information, die eine Situation um das Fahrzeug herum angibt. Die Umgebungssituations-Überwachungseinheit 121 kann messen, ob eine Ansicht des Fahrers getrübt ist, beispielsweise durch Scheinwerfer eines entgegenkommenden Fahrzeugs bei Nacht, Sonnenlicht tagsüber oder dergleichen, als die, den Visuell-Erkennungszustand des Fahrers beeinträchtigende Information. Dann gibt die Umgebungssituations-Überwachungseinheit 121 die Information zum Hindernis, dem gefährlichen Objekt oder dergleichen um das Fahrzeug herum und die den Visuell-Erkennungszustand beeinträchtigende Information, wie etwa Helligkeit oder Wetter, an eine Visuell-Erkennungsregion-Recheneinheit 101 als die Information, welche die Situation um das Fahrzeug herum angibt, aus.
  • In der zweiten Ausführungsform kann im Schritt ST101 in 5 die Visuell-Erkennungsregion-Recheneinheit 101 nicht nur den Visuell-Erkennungszustand des Fahrers auf Basis von Information einer Blicklinienrichtung bestimmen, die aus einer Blicklinienrichtungs-Messeinheit 111 empfangen wird, sondern auch den Visuell-Erkennungszustand des Fahrers auf Basis der, den Visuell-Erkennungszustand des Fahrers beeinträchtigenden Information, die aus der Umgebungssituations-Überwachungseinheit 121 empfangen wird, bestimmen. Wenn die Information, die angibt, dass die Sicht des Fahrers getrübt ist, beispielsweise durch die Scheinwerfer des entgegenkommenden Fahrzeugs bei Nacht, Sonnenlicht tagsüber oder dergleichen, aus der Umgebungssituations-Überwachungseinheit 121 empfangen wird, bestimmt wünschenswerter Weise die Visuell-Erkennungsregion-Recheneinheit 101 keinen Visuell-Erkennungszustand, selbst wenn sakkadische Bewegung nicht detektiert wird („Nein“ im Schritt ST101). Dies ist im Hinblick auf bekannte Funde hinsichtlich menschlicher Sichtfeld-Charakteristika konfiguriert.
  • In der zweiten Ausführungsform empfängt im Schritt ST103 in 5 die Visuell-Erkennungsregion-Recheneinheit 101 die Information, die den Visuell-Erkennungszustand des Fahrers beeinträchtigt, aus der Umgebungssituations-Überwachungseinheit 121 und verkürzt eine Distanz und eine Breite der Visuell-Erkennungsregion in einer Umgebung mit schlechten Sichtverhältnissen. Weiterhin ist es wünschenswert, dass die Visuell-Erkennungsregion-Recheneinheit 101 eine Gewichtung so einstellt, dass ein Erkennungsgrad einer gesamten Visuell-Erkennungsregion, in der Umgebung mit schwacher Sichtbarkeit niedriger wird. Dies ist im Hinblick auf bekannte Funde hinsichtlich menschlicher Sichtfeld-Charakteristika konfiguriert.
  • Wie oben beschrieben, ist die Erkennungsregion-Schätzvorrichtung 100 gemäß der zweiten Ausführungsform mit der Umgebungssituations-Überwachungseinheit 121 versehen, welche Umgebungen des Mobilkörpers wie etwa des Fahrzeugs überwachen, und die Information, welche Visuell-Erkennungszustand des Fahrers beeinträchtigt, misst. Dann ist die Visuell-Erkennungsregion-Recheneinheit 101 konfiguriert, die Gewichtung des Erkennungsgrades innerhalb der Visuell-Erkennungsregion auf Basis eines Messergebnisses der Umgebungssituations-Überwachungseinheit 121 zu justieren. Als Ergebnis wird ein Effekt des Ermöglichens der Berechnung der Visuell-Erkennungsregion, die angemessener die menschliche Sichtfeld-Charakteristik reflektiert, erhalten.
  • Dritte Ausführungsform
  • Da eine Visuell-Erkennungsregion ursprünglich eine dreidimensionale Verteilung aufweist, ist es wünschenswert, die Visuell-Erkennungsregion in einem dreidimensionalen Raum zu berechnen, wie in den ersten und zweiten Ausführungsformen. Andererseits ist es effizienter, eine zweidimensionale Visuell-Erkennungsregion zu berechnen, im Hinblick auf Speicherbereich und Rechenaufwand. Daher wird in einer dritten Ausführungsform eine Konfiguration des Berechnens der zweidimensionalen Visuell-Erkennungsregion äquivalent zu einer dreidimensionalen Visuell-Erkennungsregion, bei Reduktion der Last für den Speicherbereich und den Rechenumfang beschrieben.
  • Eine Differenz zwischen der ersten Ausführungsform und der dritten Ausführungsform wird unten hauptsächlich beschrieben. Jene nicht speziell erwähnten entsprechen jenen der ersten Ausführungsform und 1 und 8 werden dafür verwendet. Obwohl ein Beispiel, das durch Kombinieren der dritten Ausführungsform mit der ersten Ausführungsform erhalten wird, unten beschrieben ist, kann die dritte Ausführungsform auch mit der zweiten Ausführungsform kombiniert werden.
  • In der dritten Ausführungsform nimmt im Schritt ST103 in 5 beim Berechnen einer Visuell-Erkennungsregion aus Information einer aus einer Blicklinienrichtungs-Messeinheit 111 empfangenen Blicklinienrichtung eine Visuell-Erkennungsregion-Recheneinheit 101 an, dass eine Höhe einer Kopfposition und dergleichen eines Fahrers eine Höhe eines Augen-Niveaus des Fahrers ist und simuliert die zweidimensionale Visuell-Erkennungsregion durch Projizieren einer Blicklinienregion, die im dreidimensionalen Raum berechnet ist, auf eine zweidimensionale XY-Ebene bei dieser Höhe. Es ist anzumerken, dass die Höhe des Augen-Niveaus des Fahrers nicht auf die Höhe der Kopfposition des Fahrers beschränkt ist, sondern dass es sich auch um die Höhe eines Lenkrads, eine Höhe des Fahrzeugs, oder dergleichen handeln kann.
  • In der dritten Ausführungsform detektiert im Schritt ST103 in 5 die Visuell-Erkennungsregion-Recheneinheit 101, ob eine Blicklinie eine Straßenoberfläche schneidet, aus einer Neigung in der Information über die Blicklinienrichtung, die aus der Blicklinienrichtungs-Messeinheit 111 empfangen wird. Wenn detektiert wird, dass die Blicklinie die Straßenoberfläche schneidet, beschränkt wünschenswerter Weise die Visuell-Erkennungsregion-Recheneinheit 101 die zweidimensionale Visuell-Erkennungsregion auf eine dreieckige Region mit einer Distanz ab dem Fahrer bis zur Straßenoberfläche als einer Grenzdistanz der Visuell-Erkennungsregion.
  • Weiterhin detektiert die Visuell-Erkennungsregion-Recheneinheit 101 aus der Neigung in der Information über die aus der Blicklinienrichtungs-Messeinheit 111 empfangene Blicklinienrichtung, ob die Blicklinienrichtung in einem vorbestimmten oder größeren Winkel in Bezug auf eine horizontale Ebene aufwärts weist. Der vorbestimmte Winkel ist ein Wert zum Bestimmen, ob die Visuell-Erkennungsregion auf einer Höhe des Augen-Niveaus des Fahrers oder dergleichen ist, und wird vorab in der Visuell-Erkennungsregion-Recheneinheit 101 bestimmt. Wenn detektiert wird, dass die Blicklinienrichtung in einem vorbestimmten oder größeren Winkel in Bezug auf die horizontale Ebene aufwärts weist, ist es wünschenswert, dass die Visuell-Erkennungsregion-Recheneinheit 101 betrachtet, dass es keine Visuell-Erkennungsregion gibt.
  • Wie oben beschrieben, weist die Visuell-Erkennungsregion-Recheneinheit 101 in der Erkennungsregion-Schätzvorrichtung 100 gemäß der dritten Ausführungsform eine Konfiguration des Simulierens der Visuell-Erkennungsregion auf, wenn die Visuell-Erkennungsregion im dreidimensionalen Raum auf die zweidimensionale Ebene projiziert wird. Als Ergebnis ist es möglich, die Visuell-Erkennungsregion zu simulieren, wenn die ursprünglich im dreidimensionalen Raum verteilte Visuell-Erkennungsregion auf die zweidimensionale Ebene auf der Höhe der Augen-Niveaus des Fahrers projiziert wird. Daher wird ein Effekt, simulative Berechnung der Visuell-Erkennungsregion ähnlich zu der einer dreidimensionalen Ausführungsform zu ermöglichen, auch auf der zweidimensionalen Ebene in einer zweidimensionalen Ausführungsform erhalten.
  • Vierte Ausführungsform
  • In einer vierten Ausführungsform wird eine Konfiguration des Verbesserns der Genauigkeit des Erkennungsregion-Rechenprozesses in der ersten Ausführungsform beschrieben.
  • Nachfolgend wird hauptsächlich eine Differenz zwischen der ersten Ausführungsform und der vierten Ausführungsform beschrieben. Jene, die nicht speziell erwähnt sind, entsprechen jenen der ersten Ausführungsform und 1 bis 8 werden dafür verwendet. Obwohl ein Beispiel, das durch Kombinieren der vierten Ausführungsform und der ersten Ausführungsform erhalten wird, unten beschrieben wird, kann die vierte Ausführungsform auch mit der zweiten oder dritten Ausführungsform kombiniert werden.
  • Formel (4) in der ersten Ausführungsform behandelt die erkannte Region R als einen Modus, der als Wahrscheinlichkeit interpretierbar ist, durch Normalisieren derselben durch einen Wert zwischen 0 und 1 und Assoziieren eines Falls, bei dem ein Fahrer überhaupt nichts erkennt, mit 0, und Assoziieren eines Falls, bei dem der Fahrer vollständig wahrnimmt, mit 1. In einem solchen Fall besteht die Möglichkeit, dass probabilistische Charakteristika nicht gehalten werden können, durch Aktualisieren durch einfache Addition, wie durch Formel (3) ausgedrückt. Wenn beispielsweise der Fahrer eine gewisse Region eine ausreichende Zeit lang ansieht, sollte ein Wert eines Erkennungsgrades in einer erkannten Region R2 in dieser Region auf 1 konvergieren, aber da eine Blicklinie in dieser Region gleichzeitig verbleibt, wird auch ein Erkennungsgrad in einer Visuell-Erkennungsregion S ein Wert nahe 1. Daher, wenn einfach addiert wird, um zu aktualisieren, übersteigt der Wert des Erkennungsgrads 1 und wird eine Anforderung als die Wahrscheinlichkeit nicht erfüllt.
  • Daher weist in der vierten Ausführungsform eine Erkennungsregion-Schätzvorrichtung 100 die folgende Konfiguration auf.
  • In der vierten Ausführungsform aktualisiert im Schritt ST205 in 6 eine Erkennungsregion-Recheneinheit 104 eine erkannte Region R durch probabilistische Addition.
  • Formel (5) ist ein spezifisches Beispiel einer Erkennungsregion-Rechenprozedur im Schritt ST205 in der vierten Ausführungsform. Im Formel (5) repräsentiert PS eine Visuell-Erkennungsregion S, die durch eine Visuell-Erkennungsregion-Recheneinheit 101 berechnet wird, durch Assoziieren eines Falls, bei dem ein Fahrer überhaupt nicht erkennt, mit 0, und Assoziieren eines Falls, bei dem der Fahrer vollständig wahrnimmt, mit 1. Bei einer solchen Konfiguration wird die durch die Erkennungsregion-Recheneinheit 104 berechnete erkannte Region R zu einem Wert, der direkt als ein Erkennungsgrad PR in Formel (4) oben verwendet werden kann, weil die Charakteristik als die Wahrscheinlichkeit immer gehalten wird. R ( x , y , n + 1 ) : = R 2 ( x , y , n + 1 ) + ( 1 R 2 ( x , y , n + 1 ) ) × P S ( x , y , n + 1 )
    Figure DE112016006962T5_0005
    • P: Erkennungsgrad um Fahrzeug in erkannter Region
    • PS: Erkennungsgrad um Fahrzeug in Visuell-Erkennungsregion
    • n: Anzahl von Schritten
    • x, y: Koordinaten im Schritt n+1 im Mobilkörper-Koordinatensystem
  • Wie oben beschrieben, ist in der Erkennungsregion-Schätzvorrichtung 100 gemäß der vierten Ausführungsform die Erkennungsregion-Recheneinheit 104 konfiguriert, die einen Erkennungsgrad innerhalb der erkannten Region angebende Wahrscheinlichkeit und die einen Erkennungsgrad innerhalb der Visuell-Erkennungsregion angegebene Wahrscheinlichkeit zu addieren. Das Behandeln der Werte der erkannten Region und der Visuell-Erkennungsregion als einen Modus, der als die Wahrscheinlichkeit interpretiert werden kann, bringt einen Effekt mit sich, eine effiziente Berechnung der erkannten Region zu ermöglichen.
  • Fünfte Ausführungsform
  • In einer fünften Ausführungsform wird eine Konfiguration des Verbesserns der Genauigkeit des Erkennungsregion-Rechenprozesses in der ersten Ausführungsform beschrieben.
  • Eine Differenz zwischen der ersten Ausführungsform und der fünften Ausführungsform wird unten hauptsächlich beschrieben. Jene nicht speziell erwähnten entsprechen jenen der ersten Ausführungsform und hierfür werden 1 bis 8 verwendet. Obwohl ein durch Kombinieren der fünften Ausführungsform mit der ersten Ausführungsform erhaltenes Beispiel unten beschrieben wird, kann die fünfte Ausführungsform auch mit der zweiten, dritten oder vierten Ausführungsform kombiniert werden.
  • Wenn die Zeitauflösung in irgendeiner der Steuereinheit 11, der Hauptspeichereinheit 12 und der Hilfsspeichereinheit 13 nicht ausreichend ist, steigt eine Änderungsregion pro Einheitszeit, das heißt eine Differenz zwischen einer zuvor berechneten erkannten Region und einer aktuell berechneten erkannten Region in einem Erkennungsregion-Rechenprozess einer Erkennungsregion-Recheneinheit 104 an. Dann gibt es einen Fall, bei dem die erkannte Region in einer Zeitdomäne diskontinuierlich wird. Auch wenn Perioden der Blicklinienrichtungs-Messeinheit 111, der Kopfpositions-Messeinheit 112 und der Bewegungsbetrag-Messeinheit 113 sich voneinander unterscheiden, kann beispielsweise ein Fehler aufgrund Zeitverzögerung auftreten, wenn die visuell erkannte Region und die erkannte Region überlappen, oder kann eine Rechenperiode der erkannten Region durch eine Messeinheit mit einer längsten Messperiode beschränkt sein.
  • Auch gibt es einen Bedarf, die erkannte Region nach einer kurzen Zeit durch Simulierung der Bewegung eines Fahrzeugs vorab vorherzusagen. Beispielsweise zum Zeitpunkt eines Rechts-/Links-Abbiegens an einer Kreuzung wird erwartet, ein gefährliches Objekt und dergleichen in jeder Stufe vorab abzuschätzen und einen Fahrer über dasselbe zu warnen, durch Berechnen einer angenommenen erkannten Region während und nach der Rechts- / Links-Abbiegung.
  • Daher weist in der fünften Ausführungsform die Erkennungsregion-Schätzvorrichtung 100 die folgende Konfiguration auf.
  • 9 ist ein Funktionsblockdiagramm, das ein Konfigurationsbeispiel der Erkennungsregion-Schätzvorrichtung 100 gemäß der fünften Ausführungsform illustriert. Die Erkennungsregion-Schätzvorrichtung 100 gemäß der fünften Ausführungsform ist mit einer virtuellen Ortsrecheneinheit 151 versehen, die einen virtuellen Ort einer Blicklinienrichtung und dergleichen berechnet, die zum Berechnen der Visuell-Erkennungsregion verwendet werden.
  • 10 von Flussdiagramm, das den Betrieb der Erkennungsregion-Schätzvorrichtung 100 gemäß der fünften Ausführungsform illustriert.
  • Schritt ST500 ist ein Prozess des Berechnens des virtuellen Orts. Im Schritt ST500 berechnet die virtuelle Ortsrecheneinheit 1051 den virtuellen Ort. 11 ist ein Flussdiagramm, das den Betrieb der virtuellen Ortsrecheneinheit 151 im Schritt ST500 im Detail illustriert.
  • Prozesse in Schritten ST100, ST200 und ST300 ähneln den in 4 bis 7 der ersten Ausführungsform illustrierten Prozessen. Jedoch unterscheidet sich die Erkennungsregion-Schätzvorrichtung 100 gemäß der fünften Ausführungsform beim Ausführen der Prozesse in Schritten ST100, ST200 und ST300 am virtuellen Ort zu einer gewissen Zeit nach der im Schritt ST500 berechneten aktuellen Zeit. Die gewisse Zeit nach der aktuellen Zeit beinhaltet eine gewisse Zeit zwischen dem aktuellen Schritt ST500 und dem vorherigen Schritt ST500.
  • Als Nächstes wird ein virtueller Ortsrechenprozess im Schritt ST500, der in 10 illustriert ist, im Detail unter Bezugnahme auf 11 beschrieben.
  • Im Schritt ST101 führt eine Visuell-Erkennungsregion-Recheneinheit 101 denselben Prozess wie denjenigen von Schritt ST101 in 5 durch, bestimmt, ob der Fahrer des Fahrzeugs in einem Visuell-Erkennungszustand ist und gibt das bestimmte Ergebnis an die virtuelle Ortsrecheneinheit 151 aus. Wenn durch die Visuell-Erkennungsregion-Recheneinheit 101 bestimmt wird, dass der Fahrer im Visuell-Erkennungszustand ist (Ja im Schritt ST101), verschiebt sich die virtuelle Ortsrecheneinheit 151 zum Schritt ST501 und wenn bestimmt wird, dass der Fahrer nicht im Visuell-Erkennungszustand ist (Nein in Schritt ST101), verschiebt sich dies zu Schritt ST503.
  • Im Schritt ST501 berechnet die virtuelle Ortsrecheneinheit 151 einen geschätzten Wert der Blicklinienrichtung zu einer gewissen Zeit nach der aktuellen Zeit aus Information über die Blicklinienrichtung, die aus der Blicklinienrichtungs-Messeinheit 111 empfangen wird, und dergleichen. Die virtuelle Ortsrecheneinheit 151 schätzt die Blicklinienrichtung zu einer gewissen Zeit durch beispielsweise lineare Interpolation oder dergleichen unter Verwendung der Blicklinienrichtung ab, wenn Schritt ST500 zuvor ausgeführt wird, und der Blicklinienrichtung, wenn Schritt ST500 aktuell ausgeführt wird. Alternativ kann die virtuelle Ortsrecheneinheit 151 auch die Blicklinienrichtung bestimmen, indem angenommen wird, dass sich die Blicklinienrichtung von der aktuellen Zeit zur gewissen Zeit oder dergleichen in der Vorhersage nach einer kurzen Zeit nicht ändert. Als Ergebnis berechnet die virtuelle Ortsrecheneinheit 151 den virtuellen Ort der Blicklinienrichtung.
  • Im Schritt ST502 berechnet die virtuelle Ortsrecheneinheit 151 einen geschätzten Wert einer Kopfposition zu einer gewissen Zeit nach der aktuellen Zeit aus Information zu einer Kopfposition und dergleichen, die aus der Kopfpositions-Messeinheit 112 empfangen wird. Die virtuelle Ortsrecheneinheit 151 schätzt die Kopfposition zu einer gewissen Zeit durch beispielsweise lineare Interpolation oder dergleichen unter Verwendung der Kopfposition, wenn der Schritt ST500 zuvor ausgeführt wird, und der Kopfposition, wenn der Schritt ST500 aktuell ausgeführt wird, ab. Alternativ kann die virtuelle Ortsrecheneinheit 151 auch die Kopfposition unter der Annahme abschätzen, dass die Kopfposition sich nicht von der aktuellen Zeit zu einer gewissen Zeit oder dergleichen in der Vorhersage nach einer kurzen Zeit ändert. Als Ergebnis berechnet die virtuelle Ortsrecheneinheit 151 den virtuellen Ort der Kopfposition.
  • Im Schritt ST503 berechnet die virtuelle Ortsrecheneinheit 151 einen Schätzwert eines Bewegungsbetrags zu einer gewissen Zeit nach der aktuellen Zeit aus Information über einen Bewegungsbetrag, der aus der Bewegungsbetrag-Messeinheit 113 und dergleichen empfangen wird. Die virtuelle Ortsrecheneinheit 151 schätzt den Bewegungsbetrag zu gewissen Zeiten durch beispielsweise lineare Interpolation oder dergleichen unter Verwendung des Bewegungsbetrags, wenn der Schritt ST500 zuvor ausgeführt wird, und des Bewegungsbetrags, wenn Schritt ST500 aktuell ausgeführt wird, ab. Alternativ kann die virtuelle Ortsrecheneinheit 151 auch den Bewegungsbetrag unter der Annahme abschätzen, dass der Bewegungsbetrag sich nicht von der aktuellen Zeit zu einer gewissen Zeit ändert oder dergleichen, in der Vorhersage nach einer kurzen Zeit. In einer anspruchsvolleren Weise berechnet die virtuelle Ortsrecheneinheit 151 wünschenswerter Weise einen interpolierten Wert unter Verwendung einer glatten Kurve wie etwa einer Spline-Funktion beim Berechnen des Orts des Fahrzeugs in einem Mobilkörper-Koordinatensystem unter Verwendung des Bewegungsbetrags, wenn Schritt ST500 zuvor und aktuell unter Berücksichtigung der Kontinuität des Orts des Mobilkörpers ausgeführt wird. Auch kann in der Vorhersage nach einer kurzen Zeit die virtuelle Ortsrecheneinheit 151 eine Route abschätzen, von der erwartet wird, dass sie ein Wirtsfahrzeug nach einer kurzen Zeit passiert, unter Verwendung von Information über eine Straßenform in einer Fahrzeugfahrrichtung oder einer Führungsroute eines Navigationssystems und die Route zum Ort des Fahrzeugs zu machen. Als Ergebnis berechnet die virtuelle Ortsrecheneinheit 151 den virtuellen Ort des Bewegungsbetrags.
  • Wie oben beschrieben, ist die Erkennungsregion-Schätzvorrichtung 100 gemäß der fünften Ausführungsform mit der virtuellen Ortsrecheneinheit 151 versehen, welche die Blicklinienrichtung zu einer Zeit nach der aktuellen Zeit abschätzt. Die Visuell-Erkennungsregion-Recheneinheit 101 ist konfiguriert, die Visuell-Erkennungsregion zu einer Zeit nach der aktuellen Zeit auf Basis der Blicklinienrichtung, die durch die virtuelle Ortsrecheneinheit 151 abgeschätzt ist, zu berechnen. Als Ergebnis ist es möglich, die Messperiode der Blicklinienrichtungs-Messeinheit 111 zu interpolieren und einen Effekt des Ermöglichens der Berechnung des Schätzergebnisses einer glatten erkannten Region zu erhalten. Weiterhin wird ein Effekt des Ermöglichens der Abschätzung der erkannten Region nach einer kurzen Zeit erhalten.
  • Es ist auch möglich, so zu konfigurieren, dass die virtuelle Ortsrecheneinheit 151 den Bewegungsbetrag des Mobilkörpers zu einer Zeit nach der aktuellen Zeit abschätzt und die Erkennungsregion-Recheneinheit 104 die erkannte Region zur Zeit nach der aktuellen Zeit auf Basis des durch die virtuelle Ortsrecheneinheit 151 berechneten Bewegungsbetrags berechnet.
  • Es ist auch möglich, so zu konfigurieren, dass die virtuelle Ortsrecheneinheit 151 die Blicklinienrichtung und den Bewegungsbetrag zur Zeit nach der aktuellen Zeit abschätzt, die Visuell-Erkennungsregion-Recheneinheit 101 die Visuell-Erkennungsregion zur Zeit nach der aktuellen Zeit auf Basis der durch die virtuelle Ortsrecheneinheit 151 abgeschätzten Blicklinienrichtung berechnet und die Erkennungsregion-Recheneinheit 104 die erkannte Region zu einer Zeit nach der aktuellen Zeit auf Basis des durch die virtuelle Ortsrecheneinheit 151 berechneten Bewegungsbetrags berechnet.
  • Weiterhin kann die virtuelle Ortsrecheneinheit 151 auch konfiguriert werden, den virtuellen Ort nicht nur der Blicklinienrichtung oder des Bewegungsbetrags, sondern der Kopfposition abzuschätzen.
  • Wie oben beschrieben, ist die Erkennungsregion-Schätzvorrichtung 100 mit der virtuellen Ortsrecheneinheit 151 versehen, so dass es einen Effekt des Ermöglichens der Abschätzung der erkannten Region unabhängig von der Messperiode selbst dann gibt, wenn die Messperioden der Blicklinienrichtungs-Messeinheit 111, der Kopfpositions-Messeinheit 112 und der Bewegungsbetrag-Messeinheit 113 sich voneinander unterscheiden.
  • Sechste Ausführungsform
  • In einer sechsten Ausführungsform wird eine Konfiguration zum Verbessern der Genauigkeit des Fahrzustands-Bestimmungsprozesses in der ersten Ausführungsform beschrieben.
  • Ein Unterschied zwischen der ersten Ausführungsform und der sechsten Ausführungsform wird unten hauptsächlich beschrieben. Jene nicht speziell Erwähnten entsprechen jenen der ersten Ausführungsform und dafür werden die 1 bis 8 verwendet. Obwohl unten ein durch Kombinieren der sechsten Ausführungsform mit der ersten Ausführungsform erhaltenes Beispiel beschrieben wird, kann die sechste Ausführungsform auch mit der zweiten, dritten, vierten oder fünften Ausführungsform kombiniert werden.
  • 12 ist ein Funktionsblockdiagramm, das ein Konfigurationsbeispiel einer Erkennungsregion-Schätzvorrichtung 100 gemäß der sechsten Ausführungsform der vorliegenden Erfindung illustriert.
  • Eine Positions-/Stellungsmesseinheit 161 erhält sensordetektierte Werte aus Sensoren 3, wie etwa einem GPS oder einem Azimuth-Indikator. Die Positions-/Stellungsmesseinheit 161 misst eine Position und eine Stellung eines Fahrzeugs in einem Karten-Koordinatensystem aus den sensordetektierten Werten. Das Karten-Koordinatensystem ist ein Koordinatensystem, das auf einen Kartenraum fixiert ist und ist beispielsweise Breitengrad und Längengrad. Die Positions-/Stellungsmesseinheit 161 gibt Information über die Position und die Stellung des Fahrzeugs an eine Karteninformations-Verwaltungseinheit 162 aus.
  • Die Karteninformations-Verwaltungseinheit 162 verwaltet für das Fahren eines Mobilkörpers verwendete Karteninformation, wie etwa eine Straße oder eine Ampel. Die Karteninformations-Verwaltungseinheit 162 wandelt die Position des Fahrzeugs aus dem Karten-Koordinatensystem in ein Mobilkörper-Koordinatensystem um, unter Verwendung der Information über die Position und die Stellung des Fahrzeugs im Karten-Koordinatensystem, die aus der Positions-/Stellungsmesseinheit 161 empfangen werden. Auch extrahiert die Karteninformations-Verwaltungseinheit 162 die Karteninformation um das Fahrzeug herum, bestimmt einen potentiellen Gefährdungsgrad wie etwa eine blinde Ecke oder eine Region, wo es schwierig ist, aufgrund eines Hindernisses oder dergleichen vorauszublicken, und gibt dasselbe an die Antriebszustands-Bestimmungseinheit 106 aus. Insbesondere im Fahrzeug und dergleichen sind Funktionen der Positions-/Stellungsmesseinheit 161 und der Karteninformations-Verwaltungseinheit 162 zusammen mit bekannten Mitteln wie etwa einem Autonavigationssystem vorgesehen. Daher kann die Erkennungsregion-Schätzvorrichtung 100 konfiguriert sein, das Autonavigationssystem oder dergleichen als eine externe Vorrichtung zu verwenden, ohne Bereitstellung der Positions-/Stellungsmesseinheit 161 und der Karteninformations-Verwaltungseinheit 162.
  • Selbst wenn die Erkennungsregion-Schätzvorrichtung 100 nicht mit einer Umgebungssituations-Überwachungseinheit 121 versehen ist, wenn es das Autonavigationssystem am Fahrzeug montiert gibt, oder die Positions-/Stellungsmesseinheit 161 und die Karteninformations-Verwaltungseinheit 162 mit der ähnlichen Funktion zu derjenigen des Autonavigationssystems, wird erwartet, dass eine Fahrer-Unterstützung, basierend auf einer Straßenbedingung, durch Einsetzen der Karteninformation in der Antriebszustands-Bestimmungseinheit 106 durchgeführt wird. Auch, selbst wenn die Erkennungsregion-Schätzvorrichtung 100 mit der Umgebungssituations-Überwachungseinheit 121 versehen ist, wird erwartet, dass die Fahrassistenz mit höherer Genauigkeit unter Verwendung der Karteninformation gemeinsam durchgeführt wird. Beispielsweise zu einer Zeit von Links-/Rechts-Abbiegen an einer Kreuzung ist es erforderlich, Routine-Bestätigungsarbeit auszuführen, wie etwa die Bestätigung, ob ein folgendes Fahrzeug nicht erfasst wird, oder ob es einen Fußgänger auf einen Übergang nach der Links-/Rechts-Abbiegung oder auf einem Bürgersteig, der mit der Querung verbunden ist, gibt. Jedoch, da es so viele Hindernisse wie etwa Straßenbäume in diesen Regionen gibt, wird angenommen, ein Ereignis, das schwierig zu detektieren ist, so dass es einen Fußgänger gibt, der hinter einem anderen Fußgänger hergeht, während er ihn/sie überholt, ist es nicht immer möglich, einen Gefährdungsgrad durch die Umgebungssituations-Überwachungseinheit 121 angemessen zu bestimmen. In einem solchen Fall ist es wirksam, den Gefährdungsgrad basierend auf der Straßenbedingung zu bestimmen.
  • Daher weist in der sechsten Ausführungsform die Erkennungsregion-Schätzvorrichtung 100 die nachfolgende Konfiguration auf.
  • In der sechsten Ausführungsform ermittelt im Schritt ST301 in 7 die Karteninformations-Verwaltungseinheit 162 Information über die Position und Stellung des Fahrzeugs im Karten-Koordinatensystem aus der Positions-/Stellungsmesseinheit 161. Als Nächstes extrahiert die Karteninformations-Verwaltungseinheit 162 die Karteninformation um das Fahrzeug herum auf Basis der Position des Fahrzeugs und berechnet einen Gefährdungsgrad H im Mobilkörper-Koordinatensystem aus der extrahierten Karteninformation und der Fahrzeugstellung. Der Gefährdungsgrad H wird einfach durch Umwandeln des Gefährdungsgrads im vorab in der Karteninformations-Verwaltungseinheit 162 aufgezeichneten Karten-Koordinatensystem in das Mobilkörper-Koordinatensystem berechnet. Auf Basis einer umgebenden Straßenform, die aus der Karteninformations-Verwaltungseinheit 162 extrahiert wird, wird der Gefährdungsgrad H entsprechend der Straßenform in Übereinstimmung mit einer vorab festgelegten Regel berechnet. Weiterhin ist es wünschenswert, dass die Karteninformations-Verwaltungseinheit 162 Gewichtung durchführt, basierend auf einer Relativgeschwindigkeit zwischen einer gefährlichen Stelle und dem Fahrzeug oder einem Fahrverhalten wie etwa Links-/Rechts-Abbiegen über den berechneten Gefährdungsgrad H. Die Karteninformations-Verwaltungseinheit 162 gibt den berechneten Gefährdungsgrad H an die Antriebszustands-Bestimmungseinheit 106 aus.
  • Die Antriebszustands-Bestimmungseinheit 106 berechnet Formel (4) unter Verwendung des Gefährdungsgrades H anstelle des Gefährdungsgrades PH oder unter Verwendung des Gefährdungsgrads PH, der mit dem Gefährdungsgrad H aktualisiert ist. Als ein Verfahren zum Aktualisieren des Gefährdungsgrads PH durch den Gefährdungsgrad H berechnet beispielsweise die Antriebszustands-Bestimmungseinheit 106 einen gewichteten Durchschnittswert des Gefährdungsgrads PH und des Gefährdungsgrads H oder einen Maximalwert des Gefährdungsgrads PH und des Grads an Gefährdung H.
  • Wie oben beschrieben, ist die Erkennungsregion-Schätzvorrichtung 100 gemäß der sechsten Ausführungsform mit der Karteninformations-Verwaltungseinheit 162, die den Gefährdungsgrad des Mobilkörpers in dem Mobilkörper-Koordinatensystem unter Verwendung der Karteninformation bestimmt, und der Antriebszustands-Bestimmungseinheit 106, welche den Fahrzustand des Mobilkörpers unter Verwendung durch die Karteninformations-Verwaltungseinheit 162 bestimmten Gefährdungsgrades und einer durch die Erkennungsregion-Recheneinheit 104 berechneten erkannten Region bestimmt, versehen. Als Ergebnis wird ein Effekt erhalten, der die Fahrunterstützung basierend auf der Straßenbedingung durch Einsetzen der Karteninformation ermöglicht.
  • Es ist anzumerken, dass in der vorliegenden Erfindung Ausführungsformen frei kombiniert werden können, eine beliebige Komponente jeder Ausführungsform umgeformt sein kann oder eine beliebige Komponente jeder Ausführungsform weggelassen werden kann, ohne vom Schutzumfang der Erfindung abzuweichen.
  • INDUSTRIELLE ANWENDBARKEIT
  • Die Erkennungsregion-Schätzvorrichtung gemäß der vorliegenden Erfindung schätzt den Umgebungserkennungsstatus auf Basis der Blicklinienrichtung des Fahrers ab, so dass diese für die Verwendung im Fahrzeug oder dergleichen mit der Fahrunterstützungsfunktion oder der automatischen Fahrfunktion geeignet ist.
  • Bezugszeichenliste
  • 1: Prozessor, 2: Speicher, 3: Sensoren, 4: Anzeige, 5: Lautsprecher, 100: Erkennungsregion-Schätzvorrichtung, 101: Visuell-Erkennungsregion-Recheneinheit, 102: Spiegelverwaltungseinheit, 103: Abschirmobjekt-Verwaltungseinheit, 104: Erkennungsregion-Recheneinheit, 105: Erkennungsregion-Aufzeichnungseinheit, 106: Antriebszustands-Bestimmungseinheit, 107: Fahrassistenz-Informationspräsentiereinheit, 111: Blicklinienrichtungs-Messeinheit, 112: Kopfpositions-Messeinheit, 113: Bewegungsbetrag-Messeinheit, 121: Umgebungssituations-Überwachungseinheit, 151: virtuelle Ortsrecheneinheit, 161: Positions-/Stellungsmesseinheit, 162: Karteninformations-Verwaltungseinheit.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2010179713 A [0006]

Claims (13)

  1. Erkennungsregion-Schätzvorrichtung, umfassend: eine Visuell-Erkennungsregion-Recheneinheit, die eine Visuell-Erkennungsregion berechnet, die durch einen Fahrer eines Mobilkörpers visuell wahrgenommen wird, in einem Mobilkörper-Koordinatensystem, basierend auf dem Mobilkörper auf Basis einer Blicklinienrichtung des Fahrers; und einer Erkennungsregion-Recheneinheit zum Berechnen einer durch den Fahrer im Mobilkörper-Koordinatensystem wahrgenommenen Erkennungsregion auf Basis der durch die Visuell-Erkennungsregion-Recheneinheit berechneten Visuell-Erkennungsregion.
  2. Erkennungsregion-Schätzvorrichtung gemäß Anspruch 1, umfassend: eine Spiegelverwaltungseinheit, die eine Installationsposition im Mobilkörper-Koordinatensystem von in dem Mobilkörper installierten Spiegeln und eine auf die Spiegel projizierte, projizierte Region aufzeichnet, wobei die Visuell-Erkennungsregion-Recheneinheit die projizierte Region der Spiegel zur Visuell-Erkennungsregion des Fahrers macht, wenn die Blicklinienrichtung des Fahrers in der Installationsposition der Spiegel, die in der Spiegelverwaltungseinheit aufgezeichnet ist, enthalten ist.
  3. Erkennungsregion-Schätzvorrichtung gemäß Anspruch 1, umfassend: eine Umgebungssituations-Überwachungseinheit, die die Umgebung des Mobilkörpers und den Visuell-Erkennungszustand des Fahrers beeinflussende Messinformation überwacht, wobei die Visuell-Erkennungsregion-Recheneinheit eine Gewichtung eines Erkennungsgrads in der Visuell-Erkennungsregion auf Basis eines gemessenen Ergebnisses der Umgebungssituations-Überwachungseinheit justiert.
  4. Erkennungsregion-Schätzvorrichtung gemäß Anspruch 1, umfassend: eine Umgebungssituations-Überwachungseinheit, welche die Umgebung des Mobilkörpers in dem Mobilkörper-Koordinatensystem überwacht und ein Hindernis detektiert, wobei die Visuell-Erkennungsregion-Recheneinheit eine blinde Eckenregion, die eine blinde Ecke durch das, durch die Umgebungssituations-Überwachungseinheit detektierte Hindernis ist, berechnet und die blinde Winkelregion aus der Visuell-Erkennungsregion des Fahrers eliminiert.
  5. Erkennungsregion-Schätzvorrichtung gemäß Anspruch 1, wobei die Visuell-Erkennungsregion-Recheneinheit eine Visuell-Erkennungsregion simuliert, wenn eine Visuell-Erkennungsregion in einem dreidimensionalen Raum auf eine zweidimensionale Ebene projiziert wird.
  6. Erkennungsregion-Schätzvorrichtung gemäß Anspruch 1, umfassend: eine Bewegungsbetrag-Messeinheit, die einen Bewegungsbetrag pro Einheitszeit des Mobilkörpers im Mobilkörper-Koordinatensystem misst, wobei die Erkennungsregion-Recheneinheit die vor der einen Einheitszeit berechnete erkannte Region auf Basis des Bewegungsbetrags pro Einheitszeit, der durch die Bewegungsbetrag-Messeinheit gemessen ist, bewegt und die erkannte Region durch Hinzufügen der durch die Visuell-Erkennungsregion-Recheneinheit berechneten Visuell-Erkennungsregion zu der bewegten erkannten Region aktualisiert.
  7. Erkennungsregion-Schätzvorrichtung gemäß Anspruch 1, wobei die Erkennungsregion-Recheneinheit Wahrscheinlichkeit, die einen Erkennungsgrad innerhalb der erkannten Region angibt, und Wahrscheinlichkeit, die einen Erkennungsgrad innerhalb der Visuell-Erkennungsregion angibt, addiert.
  8. Erkennungsregion-Schätzvorrichtung gemäß Anspruch 1, umfassend: eine virtuelle Ortsrecheneinheit, die eine Blicklinienrichtung zu einer Zeit nach der aktuellen Zeit abschätzt, wobei die Visuell-Erkennungsregion-Recheneinheit eine Visuell-Erkennungsregion zur Zeit nach der aktuellen Zeit auf Basis der Blicklinienrichtung berechnet, die durch die virtuelle Ortsrecheneinheit abgeschätzt wird.
  9. Erkennungsregion-Schätzvorrichtung gemäß Anspruch 1, umfassend: eine virtuelle Ortsrecheneinheit, die einen Bewegungsbetrag des Mobilkörpers zu einer Zeit nach der aktuellen Zeit abschätzt, wobei die Erkennungsregion-Recheneinheit eine erkannte Region zur Zeit nach der aktuellen Zeit auf Basis des durch die virtuelle Ortsrecheneinheit (151) abgeschätzten Bewegungsbetrags berechnet.
  10. Erkennungsregion-Schätzvorrichtung gemäß Anspruch 1, umfassend: eine Umgebungssituations-Überwachungseinheit, welche die Umgebung des Mobilkörpers im Mobilkörper-Koordinatensystem überwacht und einen Gefährdungsgrad des Mobilkörpers bestimmt; und eine Fahrzustands-Bestimmungseinheit, die einen Fahrzustand des Mobilkörpers unter Verwendung des durch die Umgebungssituations-Überwachungseinheit bestimmten Gefährdungsgrads und der durch die Erkennungsregion-Recheneinheit berechneten erkannten Region bestimmt.
  11. Erkennungsregion-Schätzvorrichtung gemäß Anspruch 1, umfassend: eine Karteninformations-Verwaltungseinheit, die einen Gefährdungsgrad des Mobilkörpers im Mobilkörper-Koordinatensystem unter Verwendung von Karteninformation bestimmt; und eine Fahrzustands-Bestimmungseinheit, die einen Fahrzustand des Mobilkörpers unter Verwendung des durch die Karteninformations-Verwaltungseinheit bestimmten Gefährdungsgrades und der durch die Erkennungsregion-Recheneinheit berechneten erkannten Region bestimmt.
  12. Erkennungsregion-Schätzverfahren, umfassend: einen Schritt des Berechnens, durch eine Visuell-Erkennungsregion-Recheneinheit, einer Visuell-Erkennungsregion, die durch einen Fahrer eines Mobilkörpers visuell wahrgenommen wird, in einem Mobilkörper-Koordinatensystem, basierend auf dem Mobilkörper auf Basis der Blicklinienrichtung des Fahrers; und einen Schritt des Berechnens, durch die Erkennungsregion-Recheneinheit, einer durch den Fahrer wahrgenommenen erkannten Region im Mobilkörper-Koordinatensystem auf Basis der durch die Visuell-Erkennungsregion-Recheneinheit berechneten Visuell-Erkennungsregion.
  13. Erkennungsregion-Schätzprogramm, um einem Computer zu gestatten, auszuführen: eine Visuell-Erkennungsregion-Rechenprozedur des Berechnens einer Visuell-Erkennungsregion, die durch einen Fahrer eines Mobilkörpers visuell wahrgenommen wird, in einem Mobilkörper-Koordinatensystem, basierend auf dem Mobilkörper auf Basis der Blicklinienrichtung des Fahrers; und eine Erkennungsregion-Rechenprozedur des Berechnens einer durch den Fahrer wahrgenommenen erkannten Region im Mobilkörper-Koordinatensystem auf Basis der durch die Visuell-Erkennungsregion-Recheneinheit berechneten Visuell-Erkennungsregion.
DE112016006962.6T 2016-07-05 2016-07-05 Erkennungsregionschätzvorrichtung, Erkennungsregionschätzverfahren und Erkennungsregionschätzprogramm Active DE112016006962B4 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/069890 WO2018008085A1 (ja) 2016-07-05 2016-07-05 認知領域推定装置、認知領域推定方法および認知領域推定プログラム

Publications (2)

Publication Number Publication Date
DE112016006962T5 true DE112016006962T5 (de) 2019-02-28
DE112016006962B4 DE112016006962B4 (de) 2020-06-25

Family

ID=60912590

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112016006962.6T Active DE112016006962B4 (de) 2016-07-05 2016-07-05 Erkennungsregionschätzvorrichtung, Erkennungsregionschätzverfahren und Erkennungsregionschätzprogramm

Country Status (5)

Country Link
US (1) US10814788B2 (de)
JP (1) JP6425857B2 (de)
CN (1) CN109416884B (de)
DE (1) DE112016006962B4 (de)
WO (1) WO2018008085A1 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL260822B (en) * 2018-07-26 2019-12-31 Ophir Yoav Method and system for a dynamic collision awareness envelope for a vehicle
WO2020085223A1 (ja) * 2018-10-22 2020-04-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理装置、情報処理プログラム及び情報処理システム
DE102018008624A1 (de) * 2018-10-31 2020-04-30 Trw Automotive Gmbh Steuerungssystem und Steuerungsverfahren zum samplingbasierten Planen möglicher Trajektorien für Kraftfahrzeuge
CN110335306B (zh) * 2019-04-23 2022-04-15 华中科技大学 注视点预测方法及装置
JP7286021B2 (ja) * 2020-07-07 2023-06-02 三菱電機株式会社 運転支援装置および運転支援方法
CN113391699B (zh) * 2021-06-10 2022-06-21 昆明理工大学 一种基于动态眼动指标的眼势交互模型方法
JP2023034404A (ja) * 2021-08-31 2023-03-13 トヨタ自動車株式会社 歩行情報提供システム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010179713A (ja) 2009-02-03 2010-08-19 Fuji Heavy Ind Ltd 視野推定装置、視野推定方法、コンピュータプログラム及び記録媒体

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08235495A (ja) * 1995-02-24 1996-09-13 Aqueous Res:Kk 移動体用通信装置
JP3591192B2 (ja) * 1996-10-25 2004-11-17 トヨタ自動車株式会社 車両用情報提供装置
DE10325762A1 (de) * 2003-06-05 2004-12-23 Daimlerchrysler Ag Bildverarbeitungssystem für ein Fahrzeug
JP2005284473A (ja) * 2004-03-29 2005-10-13 Fuji Photo Film Co Ltd 運転支援システム、自動車、および運転支援方法
JP4359546B2 (ja) * 2004-09-06 2009-11-04 株式会社豊田中央研究所 交流モータの制御装置
WO2006087993A1 (ja) * 2005-02-15 2006-08-24 Matsushita Electric Industrial Co., Ltd. 周辺監視装置および周辺監視方法
US8085140B2 (en) * 2006-09-04 2011-12-27 Panasonic Corporation Travel information providing device
JP4420002B2 (ja) * 2006-09-14 2010-02-24 トヨタ自動車株式会社 視線先推定装置
JP4949198B2 (ja) * 2007-10-29 2012-06-06 三菱ふそうトラック・バス株式会社 車両の衝突被害軽減装置における監視対象物の検出装置
JP2009251761A (ja) * 2008-04-02 2009-10-29 Toyota Motor Corp 運転支援システム
CN102047304B (zh) * 2008-08-05 2013-04-03 松下电器产业株式会社 驾驶注意力程度判定装置、方法
JP5427421B2 (ja) * 2009-01-19 2014-02-26 富士通コンポーネント株式会社 タッチパネル
WO2010131331A1 (ja) * 2009-05-12 2010-11-18 トヨタ自動車株式会社 視認領域推定装置および運転支援装置
CN102111530B (zh) * 2009-12-24 2013-01-02 财团法人工业技术研究院 移动物体检测装置与方法
US8384534B2 (en) * 2010-01-14 2013-02-26 Toyota Motor Engineering & Manufacturing North America, Inc. Combining driver and environment sensing for vehicular safety systems
CN201622540U (zh) * 2010-04-23 2010-11-03 深圳市迅祥达科技有限公司 集成键盘型的无线鼠标
WO2011148455A1 (ja) * 2010-05-25 2011-12-01 富士通株式会社 映像処理装置、映像処理方法及び映像処理プログラム
JP5573418B2 (ja) 2010-06-29 2014-08-20 トヨタ自動車株式会社 警報装置
JP2012234409A (ja) * 2011-05-02 2012-11-29 Mazda Motor Corp 車両用運転支援装置
JP2012242179A (ja) * 2011-05-17 2012-12-10 Sony Corp 進行方位算出装置、進行方位算出方法及び進行方位算出プログラム並びにナビゲーション装置
BR112014002902B1 (pt) * 2011-08-10 2021-05-18 Toyota Jidosha Kabushiki Kaisha aparelho auxiliar de direção
US20130096820A1 (en) * 2011-10-14 2013-04-18 Continental Automotive Systems, Inc. Virtual display system for a vehicle
JP6138419B2 (ja) * 2012-04-04 2017-05-31 株式会社ナビタイムジャパン 経路情報提供システム、経路情報提供装置、経路情報提供方法、および、経路情報提供プログラム
JP5888087B2 (ja) * 2012-04-25 2016-03-16 ソニー株式会社 走行支援画像生成装置、走行支援画像生成方法、車載用カメラおよび機器操縦支援画像生成装置
CN103863210A (zh) * 2012-12-12 2014-06-18 华创车电技术中心股份有限公司 侧向视野影像显示系统
CN103885573B (zh) * 2012-12-19 2017-03-01 财团法人车辆研究测试中心 车用显示系统的自动校正方法及其系统
CN103326658B (zh) * 2013-06-18 2015-08-12 南京航空航天大学 一种内置式永磁同步电机无位置传感器控制方法
JP6080955B2 (ja) * 2013-07-05 2017-02-15 三菱電機株式会社 情報表示装置
JP6259680B2 (ja) * 2014-03-10 2018-01-10 株式会社デンソーアイティーラボラトリ 安全確認判定装置、及び運転支援装置
CN105083291B (zh) * 2014-04-25 2018-11-09 歌乐株式会社 基于视线检测的驾驶员辅助系统
CN104021676B (zh) * 2014-06-25 2016-08-03 上海交通大学 基于车辆动态视频特征的车辆定位及车速测量方法
CN104121903B (zh) * 2014-07-04 2017-06-30 沈阳航空航天大学 一种基于边界值问题的滚动航路规划方法
JP2016170688A (ja) * 2015-03-13 2016-09-23 株式会社東海理化電機製作所 運転支援装置及び運転支援システム
CN104794938B (zh) * 2015-04-17 2018-09-18 吕栋雷 一种基于车车协作通信的豪车告警系统及方法
CN105277950B (zh) * 2015-09-29 2017-09-15 大连楼兰科技股份有限公司 基于车体坐标系的激光雷达坐标转换方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010179713A (ja) 2009-02-03 2010-08-19 Fuji Heavy Ind Ltd 視野推定装置、視野推定方法、コンピュータプログラム及び記録媒体

Also Published As

Publication number Publication date
JPWO2018008085A1 (ja) 2018-09-27
CN109416884A (zh) 2019-03-01
US20190275946A1 (en) 2019-09-12
US10814788B2 (en) 2020-10-27
CN109416884B (zh) 2021-02-19
WO2018008085A1 (ja) 2018-01-11
JP6425857B2 (ja) 2018-11-21
DE112016006962B4 (de) 2020-06-25

Similar Documents

Publication Publication Date Title
DE112016006962B4 (de) Erkennungsregionschätzvorrichtung, Erkennungsregionschätzverfahren und Erkennungsregionschätzprogramm
US10604156B2 (en) System and method for adjusting a road boundary
DE102017128619B4 (de) Fahrzeugsteuersystem, damit ausgerüstetes Fahrzeug sowie Verfahren zum Steuern mindestens einer Funktion eines Fahrzeugs
DE102018129197B4 (de) Verkehrssignalerkennungsvorrichtung und System zum autonomen Fahren
DE102019131384A1 (de) Strassenbelagcharakterisierung unter verwendung von posenbeobachtungen von benachbarten fahrzeugen
DE102018107344A1 (de) Hinderniserfassungssysteme und -verfahren
DE102019127058A1 (de) Fahrzeugwegplanung
DE102018101496A1 (de) Winderfassungssysteme und verfahren
DE102017100013A1 (de) Bestimmen der fahrerabsicht an strassenverkehrskreuzungen zum vermeiden der kollision von automobilen
DE102017105661A1 (de) Fahrzeug-fahrspurgrenzposition
DE112017003916T5 (de) Head-Up-Display-Vorrichtung, Anzeigesteuerverfahren und Steuerprogramm
DE102012208974A1 (de) System und Verfahren zum sensorbasierten Aufbauen eines Umgebungsmodells
DE102016109592A1 (de) Kollisionsabschwächung und -vermeidung
DE112018004507T5 (de) Informationsverarbeitungseinrichtung, bewegungseinrichtung und verfahren und programm
DE112014000819T5 (de) Fahrzeugfahrunterstützungssystem und Fahrunterszützungsimplementierungsverfahren
DE102019126542A1 (de) Lokalisierung einer stationären kamera
CN110738081B (zh) 异常路况检测方法及装置
DE112019006171T5 (de) Anzeigesteuervorrichtung, Anzeigesteuerprogramm und nicht-transitorisches greifbares computerlesbares Speichermedium
DE102010060225A1 (de) Fahrzeuginformationsanbietevorrichtung
DE112018004691T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und bewegter körper
WO2013113500A1 (de) Fahrerassistenzsystem und verfahren zur virtuellen darstellung eines strassenverlaufs bei verdeckung und/oder schlechten sichtverhältnissen
DE102013221497A1 (de) Gerät und Verfahren für das Erkennen einer Fahrbahn bzw. Fahrspur
DE102021103149A1 (de) Verfahren und vorrichtung zur bestimmung der optimalen kreuzungsspur in einem unterstützten fahrsystem
DE112015006370T5 (de) Fahrerassistenzsystem
DE102019125166A1 (de) Sensorverschmutzungserkennung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R084 Declaration of willingness to licence