DE112014005389T5 - Blickbereichabschätzvorrichtung - Google Patents

Blickbereichabschätzvorrichtung Download PDF

Info

Publication number
DE112014005389T5
DE112014005389T5 DE112014005389.9T DE112014005389T DE112014005389T5 DE 112014005389 T5 DE112014005389 T5 DE 112014005389T5 DE 112014005389 T DE112014005389 T DE 112014005389T DE 112014005389 T5 DE112014005389 T5 DE 112014005389T5
Authority
DE
Germany
Prior art keywords
person
monitored
section
face
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112014005389.9T
Other languages
English (en)
Inventor
Takuhiro Omi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE112014005389T5 publication Critical patent/DE112014005389T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Abstract

Eine Blickbereichabschätzvorrichtung (10), welche einen Blickbereich abschätzt, der von einer zu überwachende Person visuell einzusehen ist, enthält einen Aufnahmebilderlangungsabschnitt (S110), der eine Mehrzahl von chronologisch aufgenommenen Bildern eines Gesichts der zu überwachenden Person erlangt, einen Gesichtsrichtungserkennungsabschnitt (S125), der auf der Grundlage der Mehrzahl von aufgenommenen Bildern eine Gesichtsrichtung der zu überwachenden Person und eine stationäre Periode erkennt, welche die Dauer darstellt, während der eine Gesichtsrichtungsänderung der zu überwachenden Person sich in einem Stillstandzustand oder annähernden Stillstandzustand befindet, und einen Richtungsschätzabschnitt (S15), der den Blickbereich auf der Grundlage von Parametern schätzt, welche die Gesichtsausrichtung der zu überwachenden Person und die stationäre Periode der Gesichtsrichtungsänderung beinhalten.

Description

  • QUERVERWEIS AUF ZUGEHÖRIGE ANMELDUNG
  • Diese Anmeldung basiert auf der japanischen Patentanmeldung Nr. 2013-245088 , angemeldet am 27. November 2013; auf den dortigen Offenbarungsgehalt wird vollinhaltlich Bezug genommen.
  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft eine Blickbereichabschätzvorrichtung, welche einen Blickbereich einer überwachten Person abschätzt.
  • STAND DER TECHNIK
  • Als eine Blickbereichabschätzvorrichtung gemäß obiger Darlegung schätzt eine bekannte Blickbereichabschätzvorrichtung einen Blickbereich, der von einer überwachten Person überblickt wird, indem die Positionen der Augäpfel der überwachten Person unter Verwendung einer Kamera erkannt werden (siehe Patentliteratur 1).
  • Die Blickbereichabschätzvorrichtung kann jedoch nicht in der Lage sein, die Position eines Augapfels zu erkennen, wenn eine Bildaufnahmebedingung durch eine Lichtquelle, beispielsweise Sonnenlicht oder Beleuchtungslicht oder durch ein Zubehörteil, beispielsweise einer von der überwachten Person getragenen Brille beeinflusst wird. In einem solchen Fall wird die Abschätzung des Blickbereichs schwierig.
  • DRUCKSCHRIFTLICHER STAND DER TECHNIK
  • PATENTLITERATUR
    • [Patentliteratur 1] Japanisches Patent Nr. 3785669
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Mit Blick auf die voranstehenden Schwierigkeiten ist es Aufgabe der vorliegenden Erfindung, eine Blickbereichabschätzvorrichtung zu schaffen, die den Blickbereich einer überwachten Person abschätzt und die in der Lage ist, den Blickbereich der überwachten Person besser abzuschätzen, ungeachtet von Bildaufnahmebedingungen.
  • Gemäß einem Aspekt der vorliegenden Erfindung enthält eine Blickbereichabschätzvorrichtung, welche einen Blickbereich abschätzt, der visuell von einer überwachten Person überblickt wird, einen Aufnahmebilderlangungsabschnitt, eine Gesichtsrichtungserkennung und einen Richtungsabschätzabschnitt. Der Aufnahmebilderlangungsabschnitt erlangt eine Mehrzahl von chronologisch aufgenommenen Bildern eines Gesichts einer überwachten Person. Der Gesichtsrichtungserkennungsabschnitt erkennt auf der Grundlage der aufgenommenen Bilder eine Gesichtsrichtung der überwachten Person und eine stationäre Dauer, welche eine Zeitdauer darstellt, bei der eine Gesichtsrichtungsänderung der überwachten Person sich in einem Stillstandzustand oder annähernden Stillstandzustand befindet. Der Richtungsabschätzabschnitt schätzt den Blickbereich auf der Grundlage von Parametern einschließlich der Gesichtsrichtung der überwachten Person und dem Stillstandzustand der Gesichtsrichtungsänderung.
  • Bei obiger Blickbereichabschätzvorrichtung wird ein Blickbereich auf der Grundlage der Gesichtsrichtung und einem Stillstandzustand der Gesichtsrichtung abgeschätzt, welche beide einfacher zu erkennen sind als die Augapfelposition der überwachten Person. Damit kann die Blickbereichabschätzvorrichtung zuverlässiger einen Blickbereich abschätzen, auch wenn eine Augapfelposition der überwachten Person nicht erkannt werden kann.
  • KURZE BESCHREIBUNG DER ZEICHNUNG
  • Die obigen und weitere Einzelheiten, Aspekte und Vorteile der vorliegenden Erfindung ergeben sich besser aus der folgenden detaillierten Beschreibung unter Bezugnahme auf die beigefügte Zeichnung. In der Zeichnung ist:
  • 1 ein Blockdiagramm, welches schematisch den Aufbau einer Sicherheitsbestätigungsalarmvorrichtung zeigt, bei der die vorliegende Erfindung angewendet wird;
  • 2 ein Flussdiagramm, welches einen Alarmprozess zeigt, der von einer Steuerung (CPU) bei einer Ausführungsform der vorliegenden Erfindung durchgeführt wird;
  • 3 ein Flussdiagramm, welches einen Bilderkennungsprozess darstellt, der im Alarmprozess enthalten ist;
  • 4A eine erläuternde Darstellung, die zeigt, wie Gesichtsteile einer überwachten Person erkannt werden;
  • 4B eine erläuternde Darstellung, die zeigt, wie eine Gesichtsrichtung der überwachten Person erkannt wird;
  • 5 ein Flussdiagramm, welches einen Blickbereichabschätzprozess darstellt, der im Alarmprozess enthalten ist; und
  • 6 eine erläuternde Darstellung, die ein Konzept eines Blickbereichs darstellt.
  • AUSFÜHRUNGSFORMEN ZUR DURCHFÜHRUNG DER ERFINDUNG
  • Nachfolgend werden Ausführungsformen der vorliegenden Erfindung unter Bezugnahme auf die beigefügte Zeichnung beschrieben.
  • (Konfiguration der Ausführungsform)
  • Die Blickbereichabschätzvorrichtung gemäß der vorliegenden Erfindung wird bei einer Sicherheitsbestätigungsalarmvorrichtung 1 angewendet, mit der ein Fahrzeug, beispielsweise ein Kraftfahrzeug, ausgestattet ist. Die Sicherheitsbestätigungsalarmvorrichtung 1 überwacht, ob oder ob nicht ein Fahrzeugfahrer visuell einen Bereich überprüft, der eine Sicherheitsbestätigung benötigt, beispielsweise die Spiegel auf den rechten und linken Seiten bei einer Kreuzung. Die Sicherheitsbestätigungsalarmvorrichtung 1 hat die Funktion, die visuelle Nicht-Überprüfung durch den Fahrer an einer Stelle, wo die Überprüfung nötig wäre, zu erkennen, die Aufmerksamkeit des Fahrers hierauf zu richten und dem Fahrer mitzuteilen, die Sicherheitsbestätigung durchzuführen.
  • Wie in 1 gezeigt, enthält die Sicherheitsbestätigungsalarmvorrichtung 1 eine Steuerung 10, eine Kamera 21, eine Beleuchtung 22, einen Fahrzeuggeschwindigkeitssensor 25, einen Blinker 26, eine Alarmeinheit 31, einen Sitzvibrator 32 und eine Klimaanlagenänderungseinheit 33.
  • Die Kamera 21 befindet sich vor dem Fahrersitz im Fahrzeug und ein Bildaufnahmebereich der Kamera 21 ist so gewählt, dass er das Gesicht des Fahrers enthält.
  • Die Beleuchtung 22 dient als Hilfslichtquelle für die Kamera 12 und beleuchtet das Gesicht des Fahrers mit Infrarot. Die Beleuchtung 22 kann in einem ständig eingeschalteten Zustand sein, um die Infrarotstrahlen fortlaufend abzugeben. Alternativ kann die Steuerung 10 die Zeit der Infrarotbestrahlung synchron mit einem Bildaufnahmezyklus der Kamera 21 steuern.
  • Der Fahrzeuggeschwindigkeitssensor 25 ist als ein allgemein bekannter Fahrzeuggeschwindigkeitssensor ausgelegt und erkennt eine Geschwindigkeit des Fahrzeugs, welches mit der Sicherheitsbestätigungsalarmvorrichtung 1 ausgestattet ist. Eine vom Fahrzeuggeschwindigkeitssensor 25 erkannte Fahrzeuggeschwindigkeit wird so konfiguriert, dass die Steuerung 10 die Fahrzeuggeschwindigkeit erkennen kann.
  • Der Blinker 26 ist als eine allgemein bekannte Richtungsänderungssignallampe ausgelegt und an allen rechten und linken Bereichen des Fahrzeugs befindet sich eine Mehrzahl dieser Blinker 26. Der Betriebszustand des Blinkers 26 ist so ausgelegt, dass die Steuerung 10 den Betriebszustand erkennen kann.
  • Die Alarmeinheit 31 empfängt eine Anweisung von der Steuerung 10 und weckt die Aufmerksamkeit des Fahrers hörbar oder sichtbar für Warnzwecke.
  • Der Sitzvibrator 32 ist als ein Vibrator ausgelegt, der in den Fahrersitz eingebaut ist, und arbeitet auf der Grundlage einer Anweisung, welche von der Steuerung 10 kommt.
  • Die Klimaanlagenänderungseinheit 33 erhält eine Anweisung von der Steuerung 10, um Luftdurchsatz, Gebläserichtung oder momentane Temperatur der Klimaanlage in dem Fahrzeug zu ändern.
  • Die Steuerung 10 ist als ein allgemein bekannter Computer mit CPU 11 und Speicher 12, beispielsweise einem ROM und RAM ausgelegt. Die CPU 11 führt verschiedene (noch zu beschreibende) Prozesse entsprechend einem im Speicher 12 gespeicherten Programm durch.
  • (Abläufe in der Ausführungsform)
  • Die Steuerung 10 der Sicherheitsbestimmungsalarmvorrichtung 1 mit oben beschriebenem Aufbau führt einen Alarmprozess gemäß 2 durch. Der Alarmprozess schätzt einen Blickbereich, genauer gesagt, einen festgelegten Winkelbereich bezüglich der Richtung einer Blicklinie. Der Alarmprozess bestimmt, ob oder ob nicht der Fahrer visuell einen Bereich überprüft, der eine Sicherheitsbestätigung benötigt, wenn die Sicherheitsbestätigung erfolgen soll. Der Alarmprozess erregt die Aufmerksamkeit des Fahrers, wenn der Fahrer den Bereich nicht visuell überprüft. Wenn die Sicherheitsbestätigungsalarmvorrichtung 1 eingeschaltet wird, beginnt die Steuerung 10 mit dem Alarmprozess.
  • Die Steuerung 10 führt einen Bilderkennungsprozess (S10) gemäß 2 durch. Der Bilderkennungsprozess erkennt einen Fahrerzustand auf der Grundlage des von der Kamera 21 aufgenommenen Bilds. Der Bilderkennungsprozess erlangt ein aufgenommenes Bild von der Kamera 21 (S110), wie in 3 gezeigt.
  • Die Steuerung 10 extrahiert einen Gesichtsbereich aus dem aufgenommenen Bild (S115) und extrahiert dann Gesichtsteile (S120). Wie in 4A gezeigt, führt die Steuerung 10 den Prozess zur Verarbeitung des aufgenommenen Bildes, die Erkennung eines Bereichs ähnlich zur Gesichtsform und die Erkennung eines rechteckförmigen Bereichs durch, der den Bereich ähnlich der Gesichtsform enthält, als Gesichtsbereich durch. Die Steuerung 10 erkennt einen Rand in dem Gesichtsbereich und spezifiziert einen Gesichtsteil durch Erkennung einer Form des Gesichtsteils. Der Rand ist ein Abschnitt, wo die Helligkeit benachbarter Pixel unterschiedlich ist und die Helligkeitsdifferenz größer als oder gleich einem bestimmten Referenzwert ist. Die Ausführungsform ist nicht auf das oben beschriebene Verfahren zur Spezifizierung von Gesichtsteilen beschränkt, sondern kann verschiedene allgemein bekannte Verfahren verwenden.
  • Nachfolgend schätzt die Steuerung 10 eine Kopfausrichtung (S125). Dieser Prozess schätzt eine Gesichtsrichtung gemäß 4B auf der Grundlage einer Lagebeziehung zwischen Gesichtsteilen. Die Steuerung 10 spezifiziert einen Gesichtsrichtungswinkel bezüglich einer Referenzrichtung, beispielsweise der Fahrzeugfahrtrichtung oder einer Richtung zur Vorderseite des Fahrzeugs hin.
  • Wenn eine Kopfausrichtung abgeschätzt wird, verwendet die Steuerung 10 Informationen über Kopfausrichtungen, welche in der Vergangenheit abgeschätzt wurden, um eine Winkelgeschwindigkeit einer Gesichtsrichtungsänderung und eine stationäre Periode zu berechnen, bei der die Gesichtsrichtungsänderung vollständig oder annähernd in einem Stillstandzustand ist. Ein annähernder Stillstandzustand einer Gesichtsrichtungsänderung gibt einen Zustand an, bei dem eine Winkelgeschwindigkeit in Richtung der Änderungsrichtung der Gesichtsrichtung kleiner oder gleich einem bestimmten Schwellenwert ist, von dem angenommen werden kann, dass er einen annähernden Stillstandzustand angibt. Beispielsweise kann ein Zustand als ein annähernder Stillstandzustand angenommen werden, bei dem die jüngste Winkelbeschleunigung einen negativen Wert hat und die Winkelgeschwindigkeit 0.1 rad/s oder weniger beträgt.
  • Die Steuerung 10 schätzt dann einen Augenöffnungsgrad ab (S130). Bei diesem Vorgang legt die Steuerung 10 einen Krümmungsradius einer Augenlidkurve (oberer Rand des Augapfels) unter Verwendung des Auges als Gesichtsteil fest. Wenn der Krümmungsradius zunimmt, wird angenommen, dass der Augenöffnungsgrad abnimmt.
  • Die Steuerung 10 schätzt dann eine Augapfelrichtung bezüglich des Gesichts, wenn der Augenöffnungsgrad größer oder gleich einem Schwellenwert ist (S135). Der Augenöffnungsgradschwellenwert legt einen Augenöffnungsgrad fest, der die Erkennung eines Augapfels (des Irisabschnitts) ermöglicht. Der Augenöffnungsgradschwellenwert kann auf annähernd 25% gesetzt werden. Die Sichtlinienrichtung kann auf der Grundlage der Gesichtsrichtung und der Augapfelposition bezüglich Positionen abgeschätzt werden, welche den beiden Augenwinkeln entsprechen.
  • Die Steuerung 10 verwendet den Speicher zur Abspeicherung von Schätzergebnissen von Gesichtsrichtungswinkel, Winkelgeschwindigkeit der Gesichtsrichtungsänderung, der stationären Periode und der Augapfelrichtung bezüglich des Gesichts (S140). Wenn die Entnahme der Augapfelrichtung fehlgeschlagen ist oder das Erkennungsergebnis eine niedrige Wahrscheinlichkeit (Verlässlichkeit) hat, kann die Steuerung 10 Informationen im Speicher 12 speichern, welche diese Situationen angeben. Weiterhin kann die Information, welche das Fehlschlagen der Augapfelrichtungsentnahme anzeigt, durch Setzen eines Flags verwaltet werden.
  • Wenn diese Prozesse abgeschlossen sind, beendet die Steuerung 10 den Bilderkennungsprozess. Wenn der Bilderkennungsprozess endet, führt die Steuerung 10 einen Blickbereichabschätzprozess durch (S15 in 2). Der Blickbereichabschätzprozess schätzt einen Blickbereich des Fahrers ab.
  • Die Steuerung 10 führt den Blickbereichabschätzprozess durch, um zu bestimmen, ob oder ob nicht das Gesicht des Fahrers annähernd in Richtung Fahrzeugvorderseite gerichtet ist, wie in 5 gezeigt (S210). Zur Bestimmung, ob oder ob nicht das Gesicht des Fahrers annähernd in Richtung Fahrzeugvorderseite gerichtet ist, bestimmt die Steuerung 10, ob oder ob nicht die in Gesichtsrichtung der Referenzrichtung innerhalb einer Erlaubbarkeit folgt, welche durch einen Schwellenwert (annähernd 10 Grad) angegeben ist.
  • Wenn die Gesichtsrichtung des Fahrers annähernd der Vorderseite entspricht (S210: JA), geht die Steuerung 10 mit dem Prozess zu S280, der nachfolgend noch beschrieben wird. Wenn die Gesichtsrichtung des Fahrers nicht annähernd der Vorwärtsrichtung entspricht (S210: NEIN), bestimmt die Steuerung 10, ob die Gesichtsrichtung in dem jüngsten Prozess oder in dem momentanen Prozess beibehalten wird (S215).
  • Wenn beide Bedingungen nicht erfüllt sind (S215: NEIN), beendet die Steuerung 10 das Zählen der stationären Periode und setzt die stationäre Periode zurück (S280). Die stationäre Periode stellt eine Zeitdauer dar, während der die Gesichtsrichtungsänderung in dem Stillstandzustand ist. Die Steuerung 10 setzt die Position entsprechend der Gesichtsrichtung als eine Blickposition des Fahrers und setzt einen Umgebungsbereich (innerhalb eines Bereichs von 3 Grad oder weniger) um die Gesichtsposition als Blickbereich (S280). Wenn dieser Prozess abgeschlossen ist, geht die Steuerung 10 zu dem später noch zu beschreibenden Schritt S310.
  • Wenn im Prozess bei S215 eine der Bedingungen erfüllt ist (S215: JA), beginnt die Steuerung 10 mit dem Zählen der stationären Periode oder fährt hiermit fort (S220). Dann bestimmt die Steuerung 10, ob oder ob nicht die Gesichtsrichtung sich nach dem stationären Zustand in Richtung Vorderseite (Referenzrichtung) bewegt (S225).
  • Wenn sich die Gesichtsrichtung nicht in Richtung Vorderseite bewegt (S225: NEIN), geht die Steuerung 10 zu S280. Wenn sich die Gesichtsrichtung in Richtung Vorderseite bewegt (S225: JA), erlangt die Steuerung 10 die Winkelgeschwindigkeit in der Gesichtsrichtung und der stationären Periode (S230). Die Steuerung 10 erlangt eine Fahrzeuggeschwindigkeit (S235) und die Steuerung 10 errechnet einen Gesichtsrichtungskorrekturwert (S260).
  • Die folgende mathematische Funktion kann verwendet werden, um den Gesichtsrichtungskorrekturwert zu berechnen.
  • [Gleichung 1]
    • Korrekturwert = f (k1 × (Gesichtsrichtungswinkelgeschwindigkeitswert) + k2 × (stationäre Periode Gesichtsrichtung) + k3 × (Gesichtsrichtungswinkelzone) + k4 × (Fahrzeuggeschwindigkeit) + k5 × (Fahrtdauer) + k6 × (Ermüdungswert))
  • Jeder Term ist wie folgt charakterisiert.
    • Gesichtsrichtungswinkelgeschwindigkeitswert: Korrekturwert, der mit zunehmen der Gesichtsrichtungswinkelgeschwindigkeit zunimmt.
    • Stationäre Periode Gesichtsrichtung: Korrekturwert, der mit Abnahme der stationä ren Periode zunimmt.
    • Gesichtsrichtungswinkelzone: Korrekturwert, der mit Zunahme des Abweichungs winkels von der Vorwärtsrichtung zunimmt.
    • Fahrzeuggeschwindigkeit: Korrekturwert, der einen kleinen Wert hat, wenn die Fahrzeuggeschwindigkeit gleich null ist und der mit Zunahme der Fahrzeuggeschwin digkeit zunimmt.
    • Fahrtdauer: Korrekturwert, der mit Zunahme der Fahrtdauer zunimmt.
    • Ermüdungswert: Korrekturwert, der mit Zunahme des Ermüdungswerts zunimmt.
  • Der Ermüdungswert kann auf der Grundlage eines Augenöffnungsgrades oder der Anzahl von Blinzelvorgängen (Blinzelzyklus) festgelegt werden, In der obigen Funktion werden die Koeffizienten k1 bis k6 durch einen Wert gewichtet, der sich aus experimentellen Ergebnissen ergibt. Die Koeffizienten werden im Prinzip auf positive Werte gesetzt. Jedoch können abhängig von den jeweiligen Situationen Koeffizienten auch auf negative Werte gesetzt werden.
  • Hierbei entspricht der Korrekturwert der Richtung, die sich fächerartig von der Richtung aus aufspreizt, die durch die Gesichtsrichtung festgelegt ist, wie in 6 gezeigt. Eine Zunahme des Korrekturwerts erweitert diesen fächerförmigen Bereich.
  • Die Steuerung 10 schätzt dann einen Blickbereich ab (S265). Wie in 6 gezeigt, setzt bei diesem Prozess die Steuerung 10 als eine Blickposition die Position (fächerförmiger Bereich) entsprechend einer neuen Richtung, welche durch Addition des Korrekturwerts der Gesichtsrichtung zu der spezifizierten Gesichtsrichtung erhalten worden ist. Die Steuerung 10 schätzt einen Bereich, der die Blickposition enthält, als den Blickbereich ein (der sich bis zu 3 Grad zu jeder Seite der Blickposition erstreckt).
  • Die Steuerung 10 greift dann auf den Speicher 12 zurück, um zu bestimmen, ob oder ob nicht die Augapfelrichtung erkannt worden ist (S310). Wenn die Augapfelrichtung nicht erkannt wurde (S310: NEIN), beendet die Steuerung 10 den Blickbereichabschätzprozess.
  • Wenn die Augapfelrichtung erkannt worden ist (S310: JA), setzt die Steuerung 10 den Bereich, der die Augapfelrichtung enthält, als Blickbereich (S315). Die Steuerung 10 kalibriert dann einen Korrekturkoeffizienten, der zur Korrektur des Blickbereichs verwendet wird (S320).
  • Dieser Prozess setzt als korrekten Blickbereich den Bereich entsprechend der Augapfelrichtung (den Bereich um die Augapfelrichtung herum). Der Prozess wird verwendet, um ein Rechenverfahren zur Berechnung des Korrekturwerts so zu ändern, dass ein Blickbereich, der auf der Grundlage der Gesichtsrichtung erhalten worden ist, mit einem Blickbereich übereinstimmt, der auf der Grundlage der Augapfelrichtung erhalten worden ist. Beispielsweise setzt der Prozess die Koeffizienten (k1 bis k6) zurück, die zur Berechnung des Korrekturwerts verwendet worden sind. Das Zurücksetzen der Koeffizienten wird bevorzugt durch Mittelungswichtungen durchgeführt, welche vergangene Werte verwenden oder durch Bereitstellen einer Hysterese, sodass der Korrekturwert daran gehindert wird, sich merklich zu ändern.
  • Wenn der Blickbereichabschätzprozess endet, bestimmt, zurückkehrend auf 2, die Steuerung 10, ob oder ob nicht ein Alarm zu erzeugen ist (S20). Wenn hier beispielsweise der Blinker 26 in einem Blinkbetriebszustand ist, überwacht die Steuerung 10, ob oder ob nicht ein Bereich, der einen rechten oder linken Spiegel enthält, mit dem Blickbereich des Fahrers übereinstimmt. Die Steuerung 10 bestimmt, einen Alarm zu aktivieren, wenn beide Bereich nicht mit dem Blickbereich des Fahrers übereinstimmen. Die Steuerung 10 bestimmt, keinen Alarm zu aktivieren, wenn wenigstens einer der beiden Bereiche mit dem Blickbereich des Fahrers wenigstens einmal übereingestimmt hat, nachdem der Blinker 26 mit dem Betrieb begonnen hat.
  • Beispielsweise kann die Steuerung 10 eine Information über die Einfahrt in eine Kreuzung aus einem allgemein bekannten Navigationssystem erlangen. Nach Empfang dieser Information kann die Steuerung 10 einen Alarm bereitstellen, abhängig davon, ob oder ob nicht der Fahrer nach rechts oder links hin überprüft hat. Beispielsweise kann nach Empfang der Information über die Einfahrt in eine Kreuzung die Steuerung 10 bestimmen, ob oder ob nicht innerhalb einer festgelegten Zeitdauer der Blickbereich mit einem Bereich übereinstimmt, der das rechte oder linke Seitenfenster enthält. Die Steuerung 10 kann bestimmen, den Alarm zu aktivieren, wenn keine Übereinstimmung gefunden wird. Nach Empfang der Information über die Einfahrt in eine Kreuzung kann die Steuerung 10 bestimmen, den Alarm nicht zu aktivieren, wenn der Blickbereich wenigstens einmal mit einem Bereich übereinstimmt, der das rechte oder linke Seitenfenster enthält.
  • Wenn bestimmt wird, den Alarm nicht zu aktivieren (S20: NEIN). geht die Steuerung 10 zu dem Prozess bei S30, der später beschrieben wird. Wenn bestimmt wird, einen Alarm zu aktivieren (S20: JA), erregt die Steuerung 10 die Aufmerksamkeit des Fahrers unter Verwendung einer der Hardware-Vorrichtungen, also Alarmeinheit 31, Sitzvibrator 32 oder Klimaanlagenänderungseinheit 33 (S25).
  • Der Prozess kann die Alarmtypen oder eine Kombination von Hardware zur Verwendung für den Alarm abhängig von der Alarmdauer oder der Anzahl von Alarmauftritten ändern.
  • Die Steuerung 10 berechnet Zustände (Projektor- und Steuerwerte einschließlich Kameraverstärkung und Verschlusszeit), um ein Bild für den nächsten Rahmen aufzunehmen, um ein vorteilhaft aufgenommenes Bild zu erlangen, das bei der nächsten Erkennung zu verwenden ist (S30). Die Steuerung 10 kehrt dann zu dem Prozess bei S10 zurück. Insbesondere führt die Steuerung 10 Rückkopplungen von Bildern aus der Vergangenheit durch, um einen Belichtungszustand so zu ändern, dass ein Hautteil des aufzunehmenden Gesichts einen bestimmten Pixelwert (Helligkeit) erfüllt.
  • (Effekte der Ausführungsform]
  • Die Steuerung 10 in der Sicherheitsbestätigungsalarmvorrichtung 1 ermittelt chronologisch eine Mehrzahl aufgenommener Bilder des Gesichts der zu überwachenden Person. Auf der Grundlage der aufgenommenen Bilder erkennt die Steuerung 10 die Gesichtsausrichtung der zu überwachenden Person und die stationäre Periode, während der die Gesichtsrichtung der überwachten Person vollständig oder annähernd in einem Stillstandzustand ist. Die Steuerung 10 schätzt einen Blickbereich auf der Grundlage von Parametern ab, welche die Gesichtsrichtung der überwachten Person und die stationäre Periode der Gesichtsrichtung enthalten.
  • Die Sicherheitsbestimmungsalarmvorrichtung 1 schätzt einen Blickbereich auf der Grundlage der Gesichtsrichtung und der stationären Periode der Gesichtsrichtung ab, welche einfacher zu erkennen sind als die Augapfelposition der überwachten Person. Damit kann die Sicherheitsbestimmungsalarmvorrichtung 1 einen Blickbereich besser abschätzen, auch wenn die Augapfelposition aufgrund des Einflusses von Umgebungslicht oder dergleichen nicht erkannt werden kann.
  • Die Steuerung 10 in der Sicherheitsbestätigungsalarmvorrichtung 1 bestimmt eine Richtung entsprechend dem Gesicht der überwachten Person als temporäre Richtung. Die Steuerung 10 setzt einen Korrekturwert zur Korrektur der temporären Richtung auf der Grundlage von Parametern, welche die stationäre Periode beinhalten. Die Steuerung 10 korrigiert die temporäre Richtung so, dass die Gesichtsrichtung der überwachten Person von einer bestimmten Referenzrichtung um einen größeren Betrag abweicht, als eine Zunahme des Korrekturwerts erlaubt. Die Steuerung 10 setzt einen Bereich entsprechend der korrigierten temporären Richtung als einen Blickbereich der überwachten Person.
  • Eine derartige Sicherheitsbestätigungsalarmvorrichtung 1 setzt eine temporäre Richtung entsprechend der Gesichtsrichtung des Fahrers und korrigiert die temporäre Richtung zum Festlegen eines Blickbereichs. Somit kann die Sicherheitsbestätigungsalarmvorrichtung 1 die Blickbereichposition einfach durch Ändern des Korrekturwertes fein abstimmen. Folglich kann die Sicherheitsbestätigungsalarmvorrichtung 1 den Vorgang des Abschätzens eines Blickbereichs vereinfachen.
  • Die Steuerung 10 in der Sicherheitsbestätigungsalarmvorrichtung 1 erhöht den Korrekturwert mit Abnahme der stationären Periode. Üblicherweise neigt, wenn die stationäre Periode kurz ist, eine durchschnittliche Person dazu, nur die Blicklinie nach Anhalten der Blickrichtung zu bewegen. Die Blickbereichabschätzung verwendet diese Neigung.
  • Die Steuerung 10 in der Sicherheitsbestätigungsalarmvorrichtung 1 erhöht den Korrekturwert, wenn eine Gesichtsrichtung bei einem vollständigen oder annähernden Stillstand der Gesichtsbewegung der überwachten Person von der Referenzrichtung um einen größeren Betrag abweicht.
  • Für gewöhnlich erhöht sich der Bewegungsbereich einer Sichtlinie einer durchschnittlichen Person mit einer Erhöhung des Gesichtsrichtungsbewegungsbereichs. Die Blickrichtungsabschätzung verwendet diese Neigung einer durchschnittlichen Person.
  • Die Steuerung 10 in der Sicherheitsbestätigungsalarmvorrichtung 1 erlangt eine Drehwinkelgeschwindigkeit der zu überwachenden Person. Die Steuerung 10 erhöht den Korrekturwert mit Zunahme der Drehwinkelgeschwindigkeit der Gesichtsrichtung, bis die Gesichtsrichtung der überwachten Person annähernd oder vollständig den Stillstandzustand einnimmt.
  • Für gewöhnlich neigt die Sichtlinienbewegung einer durchschnittlichen Person dazu, sich mit einer Zunahme der Drehwinkelgeschwindigkeit der Gesichtsrichtung zu erhöhen. Blickbereichabschätzung verwendet diese Neigung einer durchschnittlichen Person.
  • Zusätzlich erlangt die Steuerung 10 in der Sicherheitsbestätigungsalarmvorrichtung 1 eine Fahrgeschwindigkeit des Fahrzeugs. Wenn die überwachte Person vollständig oder annähernd die Gesichtsrichtung stoppt, erhöht die Steuerung 10 den Korrekturwert mit Zunahme der Fahrgeschwindigkeit.
  • Für gewöhnlich neigt ein Fahrer dazu, nur die Sichtlinie für eine Sicherheitsbestätigung zu erhöhen, indem die Gesichtsrichtung gegenüber der Fahrzeugfahrtrichtung nur minimal geändert wird, wenn die Fahrgeschwindigkeit zunimmt. Die Blickbereichabschätzung verwendet diese Neigung.
  • Die oben beschriebene Sicherheitsbestätigungsalarmvorrichtung 1 kann korrekt einen Blickbereich abschätzen, da die Abschätzung auf der Grundlage von Neigungen des menschlichen Handelns durchgeführt wird.
  • Weiterhin erkennt die Steuerung 10 in der Sicherheitsbestätigungsalarmvorrichtung 1 die Lage des Augapfels der überwachten Person auf der Grundlage eines aufgenommenen Bildes. Die Steuerung 10 schätzt einen Blickbereich entsprechend der Augapfelposition ab. Unter Verwendung dieses Blickbereichs korrigiert die Steuerung 10 einen Setup-Wert, der verwendet wird, einen Blickbereich abzuschätzen, der aus Gesichtsrichtung und stationärer Periode erhalten wird. Die Steuerung 10 korrigiert auch den geschätzten Blickbereich auf der Grundlage von bereits bekannten Fahrzeuginformationen oder Orten, welche häufig und visuell vom Fahrer abgeprüft werden, beispielsweise Spiegel, Anzeige, Navigationssystem und Audioinstrument.
  • Hierbei kann der Setup-Wert den oben erwähnten Korrekturwert (einschließlich der Koeffizienten zum Festlegen des Korrekturwerts) oder einen Korrekturbetrag der oben genannten Parameter verwenden. Eine derartige Sicherheitsbestätigungsalarmvorrichtung 1 kann die Beziehung zwischen Gesichtsrichtung, stationärer Periode und Blickbereich kalibrieren, wenn die Augapfelposition erkannt wird. Folglich kann diese Sicherheitsbestätigungsalarmvorrichtung 1 die Genauigkeit der Abschätzung eines Blickbereichs verbessern, wenn die Augapfelposition nicht erkannt werden kann.
  • Wenn die Augapfelposition geschätzt werden kann, setzt die Steuerung 10 in obiger Sicherheitsbestätigungsalarmvorrichtung 1 den Blickbereich, der aufgrund der Augapfelposition geschätzt wurde, als endgültigen Blickbereich. Wenn die Augapfelposition nicht geschätzt werden kann, setzt die Steuerung 10 den Blickbereich als letztendlichen Blickbereich, der auf der Grundlage von Gesichtsrichtung und stationärer Periode geschätzt worden ist.
  • Eine derartige Sicherheitsbestätigungsalarmvorrichtung 1 kann einen Blickbereich unter Verwendung einer Technik schätzen, welche abhängig von den Situationen jeweils als sehr genau angenommen werden kann.
  • Es sei festzuhalten, dass ein Flussdiagramm oder der Ablauf des Flussdiagramms bei der vorliegenden Erfindung Abschnitte (auch als Schritte bezeichnet) enthält, von denen jeder beispielsweise mit „S10” bezeichnet ist. Weiterhin kann jeder Abschnitt in mehrere Unterabschnitte unterteilt werden, wohingegen verschiedene Abschnitte auch zu einem einzelnen Abschnitt kombiniert werden können. Weiterhin kann jeder der so konfigurierten Abschnitte auch als Schaltkreis, Vorrichtung, Modul oder Mittel bezeichnet werden.
  • Jede oder irgendwelche Kombinationen von Abschnitten gemäß obiger Erläuterung können erhalten werden als (i) Softwareabschnitt in Kombination mit einer Hardware-Einheit (zum Beispiel Computer), oder (ii) Hardware-Abschnitt mit oder ohne einer Funktion einer zugehörigen Vorrichtung; weiterhin kann der Hardware-Abschnitt (zum Beispiel eine integrierte Schaltung, eine verdrahtete Logikschaltung) im Inneren eines Mikrocomputers aufgebaut sein.
  • (Andere Ausführungsformen)
  • Bei obiger Ausführungsform überwacht die Steuerung 10 eine Winkelgeschwindigkeit, wenn sich die in Gesichtsrichtung ändert, um sich von der Referenzrichtung abzuwenden. Alternativ kann die Steuerung 10 eine Winkelgeschwindigkeit überwachen, wenn die Gesichtsrichtung von einer abweichenden Position zur Referenzrichtung zurückkehrt. In diesem Fall kann die Technik zum Festlegen eines Korrekturwerts für die Gesichtsrichtung eine Winkelgeschwindigkeit der Gesichtsrichtungsrückkehr von der Abweichungsposition zur Referenzrichtung berücksichtigen.
  • Zusätzlich kann angenommen werden, dass die Technik zum Festlegen eines Korrekturwerts aus der Gesichtsrichtung eine Winkelgeschwindigkeit in Betracht zieht, um zur Referenzrichtung zurückzukehren. In diesem Fall kann die Berechnung unterschiedliche Funktionen (Terme) abhängig davon verwenden, ob die Gesichtsrichtung sich ändert, um von der Referenzrichtung abzuweichen oder sich die Gesichtsrichtung ändert, um zur Referenzrichtung zurückzukehren.
  • Die Steuerung 10 gemäß der Ausführungsform entspricht bei der vorliegenden Erfindung einer Blickbereichabschätzvorrichtung. Bei den von der Steuerung 10 gemäß der Ausführungsform durchgeführten Prozessen entspricht der bei S15 durchgeführte Prozess einem Richtungsabschätzabschnitt der vorliegenden Erfindung.
  • Der bei S110 gemäß der Ausführungsform durchgeführte Prozess entspricht einem erfindungsgemäßen Aufnahmebilderlangungsabschnitt. Der bei S125 gemäß der Ausführungsform durchgeführte Prozess entspricht erfindungsgemäß einem Gesichtsrichtungserkennungsabschnitt und einem Winkelgeschwindigkeitserlangungsabschnitt. Der bei S125 und 135 gemäß der Ausführungsform durchgeführte Prozess entspricht einem erfindungsgemäßen Augapfelschätzabschnitt.
  • Der bei S230 gemäß der Ausführungsform durchgeführte Prozess entspricht einem erfindungsgemäßen Temporärrichtung-Setup-Abschnitt.
  • Der bei S235 gemäß der Ausführungsform durchgeführte Prozess entspricht einem erfindungsgemäßen Fahrgeschwindigkeitserlangungsabschnitt. Der bei S260 gemäß der Ausführungsform durchgeführte Prozess entspricht einem erfindungsgemäßen Korrekturwert-Setup-Abschnitt. Der bei S265 gemäß der Ausführungsform durchgeführte Prozess entspricht einem erfindungsgemäßen Bereichs-Setup-Abschnitt. Der bei S310 und S315 gemäß der Ausführungsform durchgeführte Prozess entspricht einem erfindungsgemäßen Wahlabschnitt.
  • Der bei S320 gemäß der Ausführungsform durchgeführte Prozess entspricht einem erfindungsgemäßen Schätzkorrekturabschnitt.
  • Zur Lösung der Aufgabe kann die vorliegende Erfindung bei einem Blickbereichabschätzprogramm angewendet werden, welches computerlesbar ist und einen Computer dahingehend steuert, dass dieser als die oben beschriebenen Abschnitte arbeitet, welche die obige Blickbereichabschätzvorrichtung bilden.
  • Obgleich die Erfindung unter Bezugnahme auf bevorzugte Ausführungsformen hiervon beschrieben wurde, versteht sich, dass die vorliegende Erfindung nicht auf die bevorzugten Ausführungsformen und Gestaltungen beschränkt ist. Die vorliegende Erfindung soll verschiedene andere Abwandlungen und äquivalente Anordnungen mit abdecken. Obgleich die verschiedenen Kombinationen und Konfigurationen bevorzugt sind, sind auch andere Kombinationen und Konfigurationen mit mehr, weniger oder nur einem einzelnen Element ebenfalls im Rahmen und Umfang der vorliegenden Erfindung enthalten.

Claims (8)

  1. Blickbereichabschätzvorrichtung (10), welche einen Blickbereich abschätzt, der visuell von einer zu überwachenden Person beobachtet wird, aufweisend: einen Aufnahmebilderlangungsabschnitt (S110), der eine Mehrzahl von chronologisch aufgenommenen Bildern von einem Gesicht einer zu überwachenden Person erlangt; einen Gesichtsrichtungserkennungsabschnitt (S125), der auf der Grundlage der Mehrzahl von aufgenommenen Bildern eine Gesichtsrichtung der zu überwachenden Person und eine stationäre Periode erkennt, welche eine Dauer darstellt, während der eine in Gesichtsrichtungsänderung der zu überwachenden Person in einem Stillstandzustand oder annähernden Stillstandzustand ist; und einen Richtungsabschätzabschnitt (S15), der den Blickbereich auf der Grundlange von Parametern schätzt, welche die Gesichtsrichtung der zu überwachenden Person und die stationäre Periode der Gesichtsrichtungsänderung beinhalten.
  2. Blickbereichabschätzvorrichtung nach Anspruch 1, wobei der Richtungsabschätzabschnitt enthält: einen Temporärrichtung-Setup-Abschnitt (S230), der eine Richtung entsprechend der Gesichtsrichtung der zu überwachenden Person als temporäre Richtung setzt; einen Korrekturwert-Setup-Abschnitt (S260), der auf der Grundlage von Parametern einschließlich der stationären Periode einen Korrekturwert festsetzt, der zur Korrektur der temporären Richtung verwendet wird; einen Bereichs-Setup-Abschnitt (S265), der die temporäre Richtung so steuert, dass die temporäre Richtung, welche die Gesichtsrichtung der zu überwachenden Person angibt, von einer vorbestimmten Referenzrichtung um einen größeren Betrag entsprechend einer Erhöhung des Korrekturwerts abweicht und der Bereichs-Setup-Abschnitt einen Bereich entsprechend der temporären Richtung, welche korrigiert wurde, als Blickbereich setzt.
  3. Blickbereichabschätzvorrichtung nach Anspruch 2, wobei der Korrekturwert-Setup-Abschnitt den Korrekturwert bei Abnahme der stationären Periode der Gesichtsrichtungsänderung erhöht.
  4. Blickbereichabschätzvorrichtung nach Anspruch 2 oder 3, wobei der Korrekturwert-Setup-Abschnitt den Korrekturwert erhöht, wenn die Gesichtsrichtung der zu überwachenden Person von der vorbestimmten Referenzrichtung um einem größeren Betrag unter der Bedingung abweicht, dass die Gesichtsrichtungsänderung der zu überwachenden Person sich in dem Stillstandzustand oder dem annähernden Stillstandzustand befindet.
  5. Blickbereichabschätzvorrichtung nach einem der Ansprüche 2 bis 4, weiterhin aufweisend: einen Winkelgeschwindigkeitserlangungsabschnitt (S125), der eine Drehwinkelgeschwindigkeit der Gesichtsrichtungsänderung der zu überwachenden Person erlangt, wobei der Korrekturwert-Setup-Abschnitt den Korrekturwert mit zunehmender Drehwinkelgeschwindigkeit der Gesichtsrichtungsänderung der zu überwachenden Person erhöht, bis die Gesichtsrichtungsänderung der zu überwachenden Person in den Stillstandzustand oder den annähernden Stillstandzustand eintritt.
  6. Blickbereichabschätzvorrichtung nach einem der Ansprüche 2 bis 5, wobei die Blickbereichabschätzvorrichtung in einem Fahrzeug angeordnet ist und ein Fahrer des Fahrzeugs als zu überwachende Person festgelegt ist, die Blickbereichabschätzvorrichtung weiterhin einen Fahrgeschwindigkeitserlangungsabschnitt (S235) aufweist, der eine Fahrgeschwindigkeit des Fahrzeugs erlangt, und der Korrekturwert-Setup-Abschnitt den Korrekturwert mit Zunahme der Fahrgeschwindigkeit des Fahrzeug unter der Bedingung erhöht, dass die Gesichtsrichtungsänderung der zu überwachenden Person sich in dem Stillstandzustand oder dem angenäherten Stillstandzustand befindet.
  7. Blickbereichabschätzvorrichtung nach einem der Ansprüche 1 bis 6, weiterhin aufweisend: einen Augapfelschätzabschnitt (S125, S135), der auf der Grundlage der Mehrzahl von aufgenommenen Bildern eine Position eines Augapfels der zu überwachenden Person erkennt und einen Blickbereich der zu überwachenden Person auf der Grundlage der Position des Augapfels schätzt; und einen Schätzkorrekturabschnitt (S320), der einen Setup-Wert, der von dem Richtungsschätzabschnitt zum Schätzen der Blickrichtung verwendet wird, auf der Grundlage des von dem Augapfelschätzabschnitt erkannten Blickbereichs korrigiert.
  8. Blickbereichabschätzvorrichtung nach Anspruch 7, weiterhin aufweisend: einen Wahlabschnitt (S310, S315), der den auf der Grundlage des Augapfels geschätzten Blickbereich als endgültigen Blickbereich festlegt, wenn der Augapfelschätzabschnitt erfolgreich die Position des Augapfels schätzt, wobei der Wahlabschnitt den von dem Richtungsschätzabschnitt geschätzten Blickbereich als endgültigen Blickbereich festsetzt, wenn der Augapfelschätzabschnitt nicht in der Lage ist, die Position des Augapfels zu schätzen.
DE112014005389.9T 2013-11-27 2014-11-19 Blickbereichabschätzvorrichtung Pending DE112014005389T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013245088A JP6090129B2 (ja) 2013-11-27 2013-11-27 視認領域推定装置
JP2013-245088 2013-11-27
PCT/JP2014/005819 WO2015079657A1 (ja) 2013-11-27 2014-11-19 視認領域推定装置

Publications (1)

Publication Number Publication Date
DE112014005389T5 true DE112014005389T5 (de) 2016-08-11

Family

ID=53198629

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112014005389.9T Pending DE112014005389T5 (de) 2013-11-27 2014-11-19 Blickbereichabschätzvorrichtung

Country Status (5)

Country Link
US (1) US9892333B2 (de)
JP (1) JP6090129B2 (de)
CN (1) CN105765341B (de)
DE (1) DE112014005389T5 (de)
WO (1) WO2015079657A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016013806B4 (de) 2016-11-18 2018-12-20 Daimler Ag System und Verfahren zur Erkennung einer Blickrichtung eines Fahrers in einem Fahrzeug

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015214116A1 (de) * 2015-07-27 2017-02-02 Robert Bosch Gmbh Verfahren und Einrichtung zum Schätzen einer Blickrichtung eines Fahrzeuginsassen, Verfahren und Einrichtung zum Bestimmen eines für einen Fahrzeuginsassen spezifischen Kopfbewegungsverstärkungsparameters und Verfahren und Vorrichtung zum Blickrichtungsschätzen eines Fahrzeuginsassen
DE102017213679A1 (de) * 2017-08-07 2019-02-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Fahrerzustandsbewertung sowie Fahrzeug
JP7019394B2 (ja) * 2017-11-29 2022-02-15 株式会社デンソーアイティーラボラトリ 視認対象検知装置、視認対象検知方法、およびプログラム
WO2019198179A1 (ja) * 2018-04-11 2019-10-17 三菱電機株式会社 搭乗者状態判定装置、警告出力制御装置及び搭乗者状態判定方法
US20190367038A1 (en) * 2018-06-04 2019-12-05 Sharp Kabushiki Kaisha Driver monitoring device
JP7014129B2 (ja) * 2018-10-29 2022-02-01 オムロン株式会社 推定器生成装置、モニタリング装置、推定器生成方法及び推定器生成プログラム
JP7072491B2 (ja) * 2018-11-08 2022-05-20 株式会社デンソーアイティーラボラトリ 視認対象検知装置、視認対象検知方法、およびプログラム
US20220402515A1 (en) * 2019-10-15 2022-12-22 Honda Motor Co., Ltd. Vehicle inspection system and alignment method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06270712A (ja) 1993-03-16 1994-09-27 Aisin Seiki Co Ltd 脇見運転警報装置
JP3785669B2 (ja) * 1996-03-05 2006-06-14 日産自動車株式会社 視線方向計測装置
ATE454849T1 (de) * 2002-10-15 2010-01-15 Volvo Technology Corp Verfahren für die auswertung der kopf- und augenaktivität einer person
JP4797588B2 (ja) 2005-11-17 2011-10-19 アイシン精機株式会社 車両周辺表示装置
EP2042079B1 (de) * 2006-07-14 2010-10-20 Panasonic Corporation Sehachsenrichtungs-nachweisvorrichtung und sehlinienrichtungs-nachweisverfahren
JP2008094221A (ja) * 2006-10-11 2008-04-24 Denso Corp 目状態検出装置および目状態検出装置の取り付け方法
JP4762939B2 (ja) 2007-03-08 2011-08-31 トヨタ自動車株式会社 車両用監視装置
CN101674965B (zh) * 2007-05-02 2013-05-22 丰田自动车株式会社 车辆行为控制装置
JP4999653B2 (ja) * 2007-11-19 2012-08-15 アイシン精機株式会社 車両用ランプ制御システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016013806B4 (de) 2016-11-18 2018-12-20 Daimler Ag System und Verfahren zur Erkennung einer Blickrichtung eines Fahrers in einem Fahrzeug

Also Published As

Publication number Publication date
CN105765341A (zh) 2016-07-13
JP2015102498A (ja) 2015-06-04
JP6090129B2 (ja) 2017-03-08
US9892333B2 (en) 2018-02-13
US20170169302A1 (en) 2017-06-15
WO2015079657A1 (ja) 2015-06-04
CN105765341B (zh) 2018-10-09

Similar Documents

Publication Publication Date Title
DE112014005389T5 (de) Blickbereichabschätzvorrichtung
DE102019134141B4 (de) Sicherheitsgurt-Zustandsbestimmungsverfahren
EP3157426B1 (de) Vorrichtung, verfahren und computerprogramm zur detektion eines sekundenschlafs
DE102017214353B4 (de) Fahrerzustands-erfassungssystem, fahrerzustands-erfassungsverfahren und diese enthaltendes fahrzeug
DE112017007073B4 (de) Fahrzustandsbestimmungsvorrichtung, Bestimmungsvorrichtung und Fahrzustandsbestimmungsverfahren
US9526448B2 (en) State estimation device and state estimation program
DE19734307C2 (de) Verfahren und Vorrichtung zur Überwachung und/oder Beeinflussung des Fahrzeugverhaltens eines fahrergesteuerten Kraftfahrzeugs
DE112015003672T5 (de) Fahrerüberwachungsvorrichtung
US9888875B2 (en) Driver monitoring apparatus
DE102012112625A1 (de) Spiegelsteuerung und computerlesbares Speichermedium
DE102018005490A1 (de) Fahrerzustands-erkennungsapparat, fahrerzustands-erkennungssystem und fahrerzustands-erkennungsverfahren
US20180012090A1 (en) Visual learning system and method for determining a driver's state
DE102019109505A1 (de) Datenverarbeitungsvorrichtung, überwachungssystem, wecksystem, datenverarbeitungsverfahren und datenverarbeitungsprogramm
DE102018103263A1 (de) Fahrzeug-displaysystem und verfahren zur steuerung eines fahrzeug-displaysystems
DE102014100352A1 (de) Fahrerblickdetektionssystem
EP2986225A1 (de) Verfahren zur bestimmung, ob ein insasse eines fahrzeugs relevante objekte im umfeld des fahrzeugs bemerkt
DE102016215291A1 (de) Verfahren zur Klassifikation von Fahrerbewegungen
DE102019103197B4 (de) Insassenüberwachungsvorrichtung
DE102017221253A1 (de) Verfahren und Vorrichtung zum Überwachen eines Fahrerzustands
DE102012223481A1 (de) Vorrichtung und Verfahren zum Verfolgen der Position eines peripheren Fahrzeugs
DE102016108475A1 (de) Einschlaferfassungsvorrichtung
DE102015214116A1 (de) Verfahren und Einrichtung zum Schätzen einer Blickrichtung eines Fahrzeuginsassen, Verfahren und Einrichtung zum Bestimmen eines für einen Fahrzeuginsassen spezifischen Kopfbewegungsverstärkungsparameters und Verfahren und Vorrichtung zum Blickrichtungsschätzen eines Fahrzeuginsassen
DE112017004596T5 (de) Sichtlinienmessvorrichtung
DE112017007237T5 (de) Fahrerzustandsabschätzungsvorrichtung und fahrerzustandsabschätzungsverfahren
DE112017004669T5 (de) Luminanzsteuervorrichtung, Luminanzsteuersystem und Luminanzsteuerverfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01B0011260000

Ipc: A61B0003113000

R084 Declaration of willingness to licence
R016 Response to examination communication