DE112017005233T5 - Augenliderkennungsvorrichtung, Schläfrigkeitsbestimmungsvorrichtung und Augenliderkennungsverfahren - Google Patents

Augenliderkennungsvorrichtung, Schläfrigkeitsbestimmungsvorrichtung und Augenliderkennungsverfahren Download PDF

Info

Publication number
DE112017005233T5
DE112017005233T5 DE112017005233.5T DE112017005233T DE112017005233T5 DE 112017005233 T5 DE112017005233 T5 DE 112017005233T5 DE 112017005233 T DE112017005233 T DE 112017005233T DE 112017005233 T5 DE112017005233 T5 DE 112017005233T5
Authority
DE
Germany
Prior art keywords
eyelid
eye
unit
upper eyelid
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112017005233.5T
Other languages
English (en)
Other versions
DE112017005233B4 (de
Inventor
Natsuki Tahara
Yudai Nakamura
Takashi Hirano
Masanobu Osawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112017005233T5 publication Critical patent/DE112017005233T5/de
Application granted granted Critical
Publication of DE112017005233B4 publication Critical patent/DE112017005233B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1103Detecting eye twinkling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Ophthalmology & Optometry (AREA)
  • Psychology (AREA)
  • Pathology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

Eine Augenliderkennungsvorrichtung (10), die eine Gesichtsmerkmalspunkterkennungseinheit (13) zum Erkennen von äußeren und inneren Augenwinkeln als Gesichtsmerkmalspunkte aus einem aufgenommenen Bild, eine Augenregionerkennungseinheit (14) zum Erkennen einer Augenregion, die sowohl eine Oberaugenlidfläche als auch eine Augenfläche aus dem aufgenommenen Bild auf der Grundlage der Gesichtsmerkmalspunkte erkennt, und eine Oberaugenliderkennungseinheit (15) zum, für jede aus einer Vielzahl von Teilflächen, in die die Augenregion unterteilt ist, Erkennen der Grenze zwischen der Oberaugenlidfläche und der Augenfläche auf der Grundlage des Ordnungsmusters der Intensitätswerte der in der Teilfläche ausgerichteten Pixel und Verbinden der für jede der Teilflächen erkannten Grenze, um ein Oberaugenlid zu bestimmen, beinhaltet.

Description

  • Die vorliegende Offenbarung betrifft Augenliderkennungsvorrichtungen und Augenliderkennungsverfahren zum Erkennen eines Augenlids sowie Müdigkeitsbestimmungsvorrichtungen zum Bestimmen der Müdigkeit auf der Grundlage des erkannten Augenlids.
  • STAND DER TECHNIK
  • Fahrerüberwachungseinrichtungen zum Erfassen des Grades (im Folgenden „Grad der Augenöffnung“ oder „Augenöffnungsgrad“ genannt), bis zu dem ein Auge des Fahrers eines Fahrzeugs geöffnet ist, sind bekannt. Eine herkömmliche Fahrerüberwachungsvorrichtung extrahiert eine Augenregion aus einem aufgenommenen Bild des Gesichts eines Fahrers und führt sowohl Kanten- als auch Kurvenerkennung an einem Bild der Augenregion durch, wodurch Ober- und Unteraugenlider erkannt werden (z.B. siehe Patentliteratur 1).
  • ZITIERLISTE
  • PATENTLITERATUR
  • Patentliteratur 1: JP 2000-137792 A
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • TECHNISCHES PROBLEM
  • Da die herkömmliche Fahrerüberwachungsvorrichtung wie vorstehend beschrieben konfiguriert ist, besteht ein Problem darin, dass sie eine Grenze zwischen einem Make-up-Bereich und einem Nicht-Make-up-Bereich aus einem aufgenommenen Bild eines Fahrers mit viel Make-up, wie beispielsweise dickem Eyeliner oder dunklem Augenlidschatten, auf seinen oder ihren Augenlidern erkennt, um die Grenze fälschlicherweise als Oberaugenlid zu erkennen.
  • Darüber hinaus besteht in der herkömmlichen Fahrerüberwachungsvorrichtung ein weiteres Problem darin, dass sie eine Grenze zwischen einem Schattenbereich und einem Nicht-Schattenbereich aus einem aufgenommenen Bild eines Fahrers erkennt, dessen Gesicht gemeißelte Merkmale aufweist, die wahrscheinlich Schatten um seine Augen herum verursachen, um die Grenze fälschlicherweise als Oberaugenlid zu erkennen.
  • Bei fehlerhafter Erkennung eines Oberaugenlides bestimmt die Fahrerüberwachungsvorrichtung fälschlicherweise, dass die Augen eines Fahrers geöffnet sind, obwohl die Augen des Fahrers tatsächlich geschlossen sind, und kann keinen korrekten Grad der Augenöffnung berechnen, so dass ein Schläfrigkeitsbestimmungsprozess nicht ordnungsgemäß funktioniert.
  • Ausführungsformen der vorliegenden Offenbarung werden vorgenommen, um die oben genannten Probleme zu lösen. Ein Objekt der Ausführungsformen der vorliegenden Offenbarung ist es, ein Oberaugenlid einer Person mit Make-up oder einen Schatten um seine oder ihre Augen mit hoher Genauigkeit zu erkennen.
  • LÖSUNG DES PROBLEMS
  • Eine Augenliderkennungsvorrichtung gemäß der vorliegenden Offenbarung beinhaltet: eine Gesichtsmerkmalspunkterkennungseinheit zum Erkennen von äußeren und inneren Augenwinkeln als Gesichtsmerkmalspunkte aus einem aufgenommenen Bild; eine Augenregionerkennungseinheit zum Erkennen einer Augenregion, die sowohl eine obere Augenlidfläche als auch eine Augenfläche aus dem aufgenommenen Bild auf der Grundlage der Gesichtsmerkmalspunkte beinhaltet; und eine Oberaugenliderkennungseinheit zum Erkennen einer Grenze zwischen der Oberaugenlidfläche und der Augenfläche für jede aus einer Vielzahl von Teilflächen, in die die Augenregion unterteilt ist, auf der Grundlage eines Musters der Anordnung von Intensitätswerten von Pixeln, die in einer Teilfläche ausgerichtet sind, und zum Verbinden der jeweils in der Teilfläche erkannten Grenzen, um ein Oberaugenlid zu bestimmen.
  • VORTEILHAFTE AUSWIRKUNGEN DER ERFINDUNG
  • Gemäß der vorliegenden Offenbarung wird für jeden der Vielzahl von Teilflächen, in die die Augenregion unterteilt ist, die Grenze zwischen der Oberaugenlidfläche und der Augenfläche auf der Grundlage des Anordnungsmusters der Intensitätswerte der in der Teilregion ausgerichteten Pixel erkennt, und die jeweils in der Teilfläche erkannten Grenzen sind verbunden, um ein Oberaugenlid zu bestimmen, wobei ein Oberaugenlid einer Person mit Make-up oder ein Schatten um ihre Augen mit hoher Genauigkeit erkannt werden kann.
  • Figurenliste
    • 1 ist ein Blockdiagramm, das ein Konfigurationsbeispiel einer Augenliderkennungsvorrichtung gemäß Ausführungsform 1 der vorliegenden Offenbarung darstellt;
    • 2A und 2B sind Diagramme, die jeweils ein Hardware-Konfigurationsbeispiel der Augenliderkennungsvorrichtung gemäß Ausführungsform 1 der vorliegenden Offenbarung zeigen;
    • 3 ist ein Flussdiagramm, das ein Beispiel für den Betrieb der Augenliderkennungsvorrichtung gemäß Ausführungsform 1 der vorliegenden Offenbarung darstellt;
    • 4 ist ein detailliertes Flussdiagramm eines Prozesses bei Schritt ST15 von 3;
    • 5 ist ein Beispiel für ein Bild einer Augenregion, das von einer Augenregionerkennungseinheit der Augenliderkennungsvorrichtung gemäß Ausführungsform 1 der vorliegenden Offenbarung erkennt wird;
    • 6A und 6B sind Abbildungen, die zur Erläuterung eines Verfahrens zum Bestimmen eines Anordnungsmusters verwendet werden, wobei das Verfahren von einer oberen Augenliderkennungseinheit der Augenliderkennungsvorrichtung gemäß der Ausführungsform 1 der vorliegenden Offenbarung verwendet wird;
    • 7A, 7B und 7C sind Abbildungen, die zur Erläuterung eines Verfahrens zum Erkennen der Grenze zwischen einer Oberaugenlidfläche und einer Augenfläche verwendet werden, wobei das Verfahren von der Oberaugenliderkennungseinheit der Augenliderkennungsvorrichtung gemäß Ausführungsform 1 der vorliegenden Offenbarung verwendet wird;
    • 8 ist eine Abbildung, die Anordnungsmuster und die Grenze in der Augenregion von 5 zeigt;
    • 9 ist eine Abbildung, die das Oberaugenlid im Augenregion von 5 zeigt;
    • 10 ist ein Blockdiagramm, das ein Konfigurationsbeispiel einer Augenliderkennungsvorrichtung gemäß Ausführungsform 2 der vorliegenden Offenbarung darstellt;
    • 11 ist ein Flussdiagramm, das ein Beispiel für den Betrieb der Augenliderkennungsvorrichtung gemäß Ausführungsform 2 der vorliegenden Offenbarung darstellt;
    • 12A, 12B und 12C sind Ansichten, die verwendet werden, um ein Verfahren zum Erkennen eines Oberaugenlides zu erklären, das von der Augenliderkennungsvorrichtung gemäß Ausführungsform 2 der vorliegenden Offenbarung durchgeführt wird;
    • 13 ist ein Blockdiagramm, das ein Konfigurationsbeispiel einer Augenliderkennungsvorrichtung gemäß Ausführungsform 3 der vorliegenden Offenbarung darstellt;
    • 14 ist ein Flussdiagramm, das ein Beispiel für den Betrieb der Augenliderkennungsvorrichtung gemäß Ausführungsform 3 der vorliegenden Offenbarung darstellt;
    • 15 ist eine Ansicht, die verwendet wird, um ein Verfahren zum Erkennen von Ober- und Unteraugenlidern zu erklären, das von einer Ober- und Unteraugenliderkennungseinheit der Augenliderkennungsvorrichtung gemäß Ausführungsform 3 der vorliegenden Offenbarung durchgeführt wird;
    • 16A, 16B und 16C sind Abbildungen, die verwendet werden, um ein Verfahren zum Berechnen eines Grades der Augenöffnung zu erklären, das von einer Augenöffnungsgrad-Berechnungseinheit der Augenliderkennungsvorrichtung gemäß der Ausführungsform 3 der vorliegenden Offenbarung durchgeführt wird; und
    • 17 ist ein Blockdiagramm, das ein Konfigurationsbeispiel einer Schläfrigkeitsbestimmungsvorrichtung gemäß Ausführungsform 4 der vorliegenden Offenbarung darstellt.
  • BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Um die vorliegende Erfindung näher zu erläutern, werden im Folgenden Ausführungsformen für die Durchführung der vorliegenden Erfindung unter Bezugnahme auf die beigefügten Zeichnungen beschrieben.
  • Ausführungsform 1.
  • 1 ist ein Blockdiagramm, das ein Konfigurationsbeispiel einer Augenliderkennungsvorrichtung 10 gemäß Ausführungsform 1 der vorliegenden Offenbarung zeigt. Die in 1 gezeigte Augenliderkennungsvorrichtung 10 beinhaltet eine Bilderfassungseinheit 11, eine Gesichtserkennungseinheit 12, eine Gesichtsmerkmalspunkterkennungseinheit 13, eine Augenregionerkennungseinheit 14, eine Oberaugenliderkennungseinheit 15 und eine Steuereinheit 16. Darüber hinaus ist die Augenliderkennungsvorrichtung 10 mit einer Bildaufnahmeeinheit 1 verbunden. Im Folgenden wird exemplarisch ein Fall dargestellt, in dem die Augenliderkennungsvorrichtung 10 in einem Fahrzeug montiert ist, um ein Augenlid eines Fahrers zu erkennen. Die Augenliderkennungsvorrichtung 10 erkennt das Oberaugenlid eines Auges eines Fahrers, der viel Make-up auf seinen Augenlidern trägt, und das Oberaugenlid eines Auges eines Fahrers, dessen Gesicht gemeißelte Merkmale aufweist, die Schatten um seine Augen herum verursachen können, mit hoher Genauigkeit.
  • Die Bildaufnahmeeinheit 1 beinhaltet eine oder mehrere Kameras, die in einer Fahrzeugkabine montiert sind. Als Bildaufnahmeeinheit 1 kann eine Kamera mit einer Empfindlichkeit in einem Bereich des sichtbaren Lichts oder eine Kamera mit einer Empfindlichkeit in einem Bereich des unsichtbaren Lichts, wie beispielsweise eine Infrarotkamera, verwendet werden. In einem Fall, in dem die Bildaufnahmeeinheit 1 eine Infrarotkamera oder dergleichen verwendet, wird eine Beleuchtungsvorrichtung, wie beispielsweise eine Leuchtdiode (LED), die unsichtbares Licht, wie beispielsweise Infrarotlicht, aussendet, in der Fahrzeugkabine montiert, so dass unsichtbares Licht auf den Fahrer gerichtet wird. Die Bildaufnahmeeinheit 1 nimmt ein Bild des Gesichts des Fahrers unter Steuerung der Steuereinheit 16 auf und gibt das aufgenommene Bild an die Bilderfassungseinheit 11 aus.
  • Die Bilderfassungseinheit 11 erfasst das aufgenommene Bild von der Bildaufnahmeeinheit 1 und gibt das aufgenommene Bild an die Steuereinheit 16 aus.
  • Die Gesichtserkennungseinheit 12 empfängt das aufgenommene Bild, das von der Bilderfassungseinheit 11 der Bildaufnahmeeinheit 1aufgenommen wird, von der Steuereinheit 16. Die Gesichtserkennungseinheit 12 erkennt das Gesicht des Fahrers aus dem aufgenommenen Bild und gibt ein Ergebnis der Gesichtserkennung an die Steuereinheit 16 aus. Die Gesichtserkennungseinheit 12 ist beispielsweise ein Klassifikator, der mit Haar-ähnlichen Detektoren und einem typischen Algorithmus hergestellt wird, der eine Kombination aus Adaboost und Cascade ist. Anstelle der Konfiguration, in der die Augenliderkennungsvorrichtung 10 die Gesichtserkennungseinheit 12 beinhaltet, kann eine externe Vorrichtung wie die Bildaufnahmeeinheit 1 konfiguriert werden, um die Gesichtserkennungseinheit 12 aufzunehmen. In der Konfiguration, in der eine externe Vorrichtung die Gesichtserkennungseinheit 12 beinhaltet, erfasst die Bilderfassungseinheit 11 ein aufgenommenes Bild und ein Gesichtserkennungsergebnis von der Gesichtserkennungseinheit 12 der externen Vorrichtung und gibt das aufgenommene Bild und das Gesichtserkennungsergebnis an die Steuereinheit 16 aus.
  • Die Gesichtsmerkmalspunkterkennungseinheit 13 empfängt von der Steuereinheit 16 sowohl das aufgenommene Bild, das von der Bilderfassungseinheit 11 der Bildaufnahmeeinheit 1 erfasst wird, als auch das von der Gesichtserkennungseinheit 12 erkannte Gesichtserkennungsergebnis. Die Gesichtsmerkmalspunkterkennungseinheit 13 erkennt äußere und innere Augenwinkel als Gesichtsmerkmalspunkte von der Position der Fläche auf dem aufgenommenen Bild auf der Grundlage des Gesichtserkenntnisergebnisses und gibt ein Ergebnis der Gesichtsmerkmalspunkterkennung an die Steuereinheit 16 aus.
  • Die Gesichtsmerkmalspunkterkennungseinheit 13 ist ein Detektor, der beispielsweise mit einem typischen Algorithmus wie der Modellanpassung oder einem Verfahren namens Elastic Bunch Graph Matching hergestellt wird. Anstelle der Konfiguration, in der die Augenliderkennungsvorrichtung 10 die Gesichtsmerkmalspunkterkennungseinheit 13 beinhaltet, kann eine externe Vorrichtung wie die Bildaufnahmeeinheit 1 konfiguriert werden, um die Gesichtsmerkmalspunkterkennungseinheit 13 aufzunehmen. In der Konfiguration, in der eine externe Vorrichtung die Gesichtsmerkmalspunkterkennungseinheit 13 beinhaltet, erfasst die Bilderfassungseinheit 11 ein aufgenommenes Bild und ein Gesichtsmerkmalspunkterkennungsergebnis von der Gesichtsmerkmalspunkterkennungseinheit 13 der externen Vorrichtung und gibt das aufgenommene Bild und das Gesichtsmerkmalspunkterkennungsergebnis an die Steuereinheit 16 aus.
  • Die Augenregionerkennungseinheit 14 empfängt von der Steuereinheit 16 sowohl das aufgenommene Bild, das von der Bilderfassungseinheit 11 der Bildaufnahmeeinheit 1 erfasst wird, als auch das von der Gesichtsfunktionspunkterkennungseinheit 13 erkannte Ergebnis der Gesichtsfunktionspunkterkennung. Die Augenregionerkennungseinheit 14 erkennt eine Augenregion aus dem aufgenommenen Bild auf der Grundlage der Positionen der äußeren und inneren Augenwinkel im Ergebnis der Gesichtsmerkmalspunkterkennung und gibt ein Bild der Augenregion an die Steuereinheit 16 aus. Die Augenregion umfasst eine Oberaugenlidfläche und eine Augenfläche. Die Augenfläche umfasst sowohl eine Fläche des Weißen des Auges als auch eine Fläche der Iris. Da eine bekannte Technik einfach als Methode zum Erkennen einer Augenregion anhand der Positionen der äußeren und inneren Augenwinkel verwendet werden kann, entfällt eine Erläuterung der Methode.
  • Die Oberaugenliderkennungseinheit 15 empfängt das Bild der von der Augenregionerkennungseinheit 14 erkannten Augenregion von der Steuereinheit 16. Die Oberaugenliderkennungseinheit 15 unterteilt die Augenregion in eine Vielzahl von Flächen und erkennt für jede der Teilflächen eine Grenze zwischen der Oberaugenlidfläche und der Augenfläche auf der Grundlage des Anordnungsmusters der Intensitätswerte der in der Teilfläche ausgerichteten Pixel. Die Oberaugenliderkennungseinheit 15 verbindet die jeweils für eine der Teilflächen erkannten Grenzen, um eine Linie des Oberaugenlids zu bestimmen, und gibt die Linie dann an die Steuereinheit 16 aus.
  • Die Steuereinheit 16 steuert die Funktionen der Bildaufnahmeeinheit 1 und der Augenliderkennungsvorrichtung 10. Insbesondere weist die Steuereinheit 16 die Bildaufnahmeeinheit 1 an, ein Bild des Fahrers aufzunehmen. Darüber hinaus stellt die Steuereinheit 16 eine Anweisung für die Bilderfassungseinheit 11, die Gesichtserkennungseinheit 12, die Gesichtsmerkmalspunkterkennungseinheit 13, die Augenregionerkennungseinheit 14 und die Oberaugenliderkennungseinheit 15 in der Augenliderkennungsvorrichtung 10 zur Verfügung, um die Zeitabläufe ihrer Operationen zu steuern und die Übertragung von Informationen zu steuern.
  • Die und sind Abbildungen, die jeweils ein Beispiel für eine Hardwarekonfiguration der Augenliderkennungsvorrichtung 10 gemäß Ausführungsform 1 der vorliegenden Offenbarung zeigen. Die Bildaufnahmeeinheit 1 ist eine Kamera 100. Jede der Funktionen der Bilderfassungseinheit 11, der Gesichtserkennungseinheit 12, der Gesichtsmerkmalspunkterkennungseinheit 13, der Augenregionerkennungseinheit 14, der Oberaugenliderkennungseinheit 15 und der Steuereinheit 16 in der Augenliderkennungsvorrichtung 10 wird durch eine oder mehrere Verarbeitungsschaltungen implementiert. Insbesondere beinhaltet die Augenliderkennungsvorrichtung 10 eine Verarbeitungsschaltung zur Implementierung jeder der oben genannten Funktionen. Die Verarbeitungsschaltung kann eine Verarbeitungsschaltung 101 sein, die als Hardware zur ausschließlichen Verwendung vorgesehen ist, oder ein Prozessor 102, der ein in einem Speicher 103 gespeichertes Programm ausführt.
  • Wie in 2A dargestellt, ist die Verarbeitungsschaltung 101 für den Fall, dass es sich bei der Verarbeitungsschaltung um Hardware zur ausschließlichen Verwendung handelt, beispielsweise eine Einzelschaltung, eine zusammengesetzte Schaltung, ein programmierbarer Prozessor, ein parallel programmierbarer Prozessor, eine anwendungsspezifische integrierte Schaltung (engl. Application Specific Integrated Circuit, ASIC), eine feldprogrammierbare Gatteranordnung (engl. Field Programmable Gate Array, FPGA) oder eine Kombination aus diesen Schaltungen. Die Funktionen der Bilderfassungseinheit 11, der Gesichtserkennungseinheit 12, der Gesichtsmerkmalspunkterkennungseinheit 13, der Augenregionerkennungseinheit 14, der Oberaugenliderkennungseinheit 15 und der Steuereinheit 16 können durch eine Vielzahl von Verarbeitungsschaltungen 101implementiert werden oder die Funktionen der Einheiten können durch eine einzige Verarbeitungsschaltung 101 gemeinsam implementiert werden.
  • Die Kamera 100 und die Verarbeitungsschaltung 101 sind über einen Bus oder dergleichen verbunden und können den Informationsfluss zwischen ihnen durchführen.
  • Wie in 2B dargestellt, wird in dem Fall, in dem die Verarbeitungsschaltung ein Prozessor 102 ist, jede der Funktionen der Bilderfassungseinheit 11, der Gesichtserkennungseinheit 12, der Gesichtsmerkmalspunkterkennungseinheit 13, der Augenregionerkennungseinheit 14, der Oberaugenliderkennungseinheit 15 und der Steuereinheit 16 durch Software, Firmware oder eine Kombination aus Software und Firmware implementiert. Die Software oder die Firmware werden als Programm bezeichnet und das Programm wird im Speicher 103 gespeichert. Der Prozessor 102 implementiert die Funktion jeder der Einheiten durch Lesen und Ausführen eines im Speicher 103 gespeicherten Programms. Genauer gesagt beinhaltet die Augenliderkennungsvorrichtung 10 den Speicher 103 zum Speichern eines Programms, das, wenn es vom Prozessor 102 ausgeführt wird, zur Ausführung der in Flussdiagrammen, einschließlich 3, dargestellten Schritte führt, die später beschrieben werden sollen. Somit kann das Programm so verstanden werden, dass ein Computer Verfahren oder Methoden der Bilderfassungseinheit 11, der Gesichtserkennungseinheit 12, der Gesichtsmerkmalspunkterkennungseinheit 13, der Augenregionerkennungseinheit 14, der Oberaugenliderkennungseinheit 15 und der Steuereinheit 16 durchführt.
  • Hier ist der Prozessor 102 eine Zentraleinheit (engl. central processing unit, CPU), eine Verarbeitungsvorrichtung, eine arithmetische Vorrichtung, ein Mikroprozessor, ein Mikrocomputer oder dergleichen.
  • Der Speicher 103 kann ein nichtflüchtiger oder flüchtiger Halbleiterspeicher wie ein Random Access Memory (RAM), ein Read Only Memory (ROM), ein Erasable Programmable ROM (EPROM) oder ein Flash-Speicher sein, kann eine Magnetplatte wie eine Festplatte oder eine flexible Festplatte sein, oder kann eine optische Platte wie eine CD (Compact Disc) oder eine DVD (Digital Versatile Disc) sein.
  • Die Kamera 100, der Prozessor 102 und der Speicher 103 sind über einen Bus oder dergleichen verbunden und können die Übertragung von Informationen zwischen ihnen durchführen.
  • Einige der Funktionen der Bilderfassungseinheit 11, der Gesichtserkennungseinheit 12, der Gesichtsmerkmalspunkterkennungseinheit 13, der Augenregionerkennungseinheit 14, der Oberaugenliderkennungseinheit 15 und der Steuereinheit 16 können durch Hardware zur ausschließlichen Verwendung implementiert werden, und einige der Funktionen können durch Software oder Firmware implementiert werden. Auf diese Weise kann die Verarbeitungsschaltung in der Augenliderkennungsvorrichtung 10 jede der oben genannten Funktionen mit Hardware, Software, Firmware oder einer Kombination aus Hardware, Software und Firmware realisieren.
  • 3 ist ein Flussdiagramm, das ein Beispiel für den Betrieb der Augenliderkennungsvorrichtung 10 gemäß Ausführungsform 1 der vorliegenden Offenbarung darstellt. Die Augenliderkennungsvorrichtung 10 führt wiederholt die Verarbeitung des in 3 dargestellten Flussdiagramms durch. In der folgenden Erklärung entfällt eine Erläuterung der Bedienung der Steuereinheit 16.
  • Bei Schritt ST11 erfasst die Bilderfassungseinheit 11 ein aufgenommenes Bild des Fahrers des Fahrzeugs, wobei das Bild von der Bildaufnahmeeinheit 1 aufgenommen wird.
  • Bei Schritt ST12 erkennt die Gesichtserkennungseinheit 12 die Position des Gesichts aus dem aufgenommenen Bild.
  • Bei Schritt ST13 erkennt die Gesichtsmerkmalspunkterkennungseinheit 13 die Positionen der äußeren und inneren Augenwinkel aus der erkannten Gesichtsposition auf dem aufgenommenen Bild.
  • Bei Schritt ST14 erkennt die Augenregionerkennungseinheit 14 anhand der Positionen der äußeren und inneren Augenwinkel eine Augenregion mit einer Oberaugenlidfläche und einer Augenfläche aus dem aufgenommenen Bild.
  • Bei Schritt ST15 erkennt die Oberaugenliderkennungseinheit 15 ein Oberaugenlid, das die Grenze zwischen der Oberaugenlidfläche und der Augenfläche aus der Augenregion ist.
  • In dem Fall, dass eine externe Vorrichtung die Gesichtserkennungseinheit 12 und die Gesichtsmerkmalspunkterkennungseinheit 13 wie vorstehend erwähnt beinhaltet, sind die Schritte ST11 bis ST13 jedoch unnötig.
  • 4 ist ein detailliertes Flussdiagramm des Prozesses bei Schritt ST15 von 3.
  • Bei Schritt ST151 teilt die Oberaugenliderkennungseinheit 15 die Augenregion in eine Vielzahl von Teilflächen. Die Oberaugenliderkennungseinheit 15 ruft dann die Intensitätswerte aller Pixel in der Augenregion ab.
  • 5 ist ein Beispiel für ein Bild der Augenregion 201, das von der Augenregionerkennungseinheit 14 erkennt wird. In diesem Beispiel definiert die Oberaugenliderkennungseinheit 15 das oberste und am weitesten linken Pixel der Augenregion 201 als Intensitätswertabfragestartposition 202 und ruft den Intensitätswert jedes Pixels aus der Intensitätswertabfragestartposition 202 entlang einer horizontalen Richtung ab. Danach ruft die Oberaugenliderkennungseinheit 15 den Intensitätswert jedes Pixels entlang der horizontalen Richtung aus einer Intensitätswertabfragestartposition 203 am linken Ende der Reihe knapp unter der darüber abgerufenen Reihe ab. Auf diese Weise ruft die Oberaugenliderkennungseinheit 15 die Intensitätswerte aller Pixel in allen Zeilen der Augenregion 201 ab. Hier entsprechen die Pixel der Zeile in horizontaler Richtung einschließlich der Intensitätswertabfragestartposition 202 einer Teilfläche, und die Pixel der Zeile in horizontaler Richtung einschließlich der Intensitätswertabfragestartposition 203 entsprechen einer Teilfläche.
  • Obwohl die Oberaugenliderkennungseinheit 15 den Augenregion 201 entlang der horizontalen Richtung teilt, ist die Art und Weise ein nicht-einschränkendes Merkmal; die Oberaugenliderkennungseinheit kann die Augenregion entlang einer Richtung, wie beispielsweise einer vertikalen Richtung oder einer Richtung eines Kreisbogens, teilen. In dem Fall, in dem die Augenregion 201 entlang der horizontalen Richtung geteilt ist, bezieht sich jede Teilfläche auf eine horizontale Fläche, die sich von einem Pixel am rechten Ende mit einem Pixel am linken Ende der Augenregion 201 verbindet. Darüber hinaus ist beispielsweise in dem Fall, in dem die Augenregion 201 entlang der vertikalen Richtung geteilt ist, jede Teilfläche eine vertikale Fläche, die sich vom Pixel am oberen Ende der Augenregion 201 mit dem Pixel am unteren Ende der Augenregion verbindet. Darüber hinaus ist beispielsweise in dem Fall, dass die Augenregion 201 entlang einer Richtung eines nach oben konvexen Kreisbogens geteilt ist, jede Teilfläche eine Fläche, die sich in einer Richtung eines Kreisbogens erstreckt und sich von dem Pixel am rechten Ende der Augenregion 201 zu dem Pixel am linken Ende der Augenregion verbindet. Auf diese Weise ist jede der Teilfläche eine Fläche, die ein Ende der Augenregion 201 mit einem gegenüberliegenden Ende der Augenregion verbindet.
  • Bei Schritt ST152 vergleicht die Oberaugenliderkennungseinheit 15 den Intensitätswert jedes Pixels mit dem Intensitätswert eines anderen Pixels, das dem Pixel in Bezug auf die horizontale Richtung benachbart ist, um ein Ordnungsmuster der Intensitätswerte zu bestimmen. Um ein Ordnungsmuster zu bestimmen, verwendet die Oberaugenliderkennungseinheit 15 sowohl einen ersten Schwellenwert als auch einen zweiten Schwellenwert.
  • So erkennt beispielsweise die Augenliderkennungsvorrichtung 10 eine Iris aus dem aufgenommenen Bild unter Verwendung eines typischen Algorithmus wie der Hough-Transformation während der Kalibrierung und richtet erste und zweite Schwellenwerte auf der Grundlage des Intensitätswerts eines Pixels in der Iris ein. Der erste Schwellenwert ist ein Wert zum Bestimmen der Iris, und ein Pixel mit einem Intensitätswert kleiner als der erste Schwellenwert hat eine hohe Wahrscheinlichkeit, in die Iris aufgenommen zu werden. Der zweite Schwellenwert ist ein Wert zum Bestimmen des Weiß des Auges, und ein Pixel mit einem Intensitätswert gleich oder größer als der zweite Schwellenwert hat eine hohe Wahrscheinlichkeit, in das Weiß des Auges aufgenommen zu werden. Ein Pixel mit einem Intensitätswert gleich oder größer als der erste Schwellenwert und kleiner als der zweite Schwellenwert hat eine hohe Wahrscheinlichkeit, weder in die Iris noch in das Weiß des Auges aufgenommen zu werden, sondern stellt Make-up oder einen Schatten dar. Der zweite Schwellenwert ist ein Wert, der größer als der erste Schwellenwert ist.
  • Der Zeitpunkt, zu dem die Augenliderkennungsvorrichtung 10 die Kalibrierung durchführt, spielt keine Rolle. So führt beispielsweise die Augenliderkennungsvorrichtung 10 die Kalibrierung innerhalb weniger Sekunden durch, wobei der Fahrer auf dem Sitz sitzt und sein Gesicht unmittelbar nach dem Starten des Fahrzeugmotors in eine bestimmte Richtung lenkt. Durch die Durchführung der Kalibrierung zu diesem Zeitpunkt können Informationen über das Auge des Fahrers im Normalzustand erfasst werden.
  • Die 6A und 6B sind Abbildungen zur Erläuterung eines Verfahrens zum Bestimmen eines Ordnungsmusters a oder b, wobei das Verfahren von der Oberaugenliderkennungseinheit 15 verwendet wird. Das Ordnungsmuster a ist eines, in dem Pixel mit jeweils einem Intensitätswert gleich oder größer als der erste Schwellenwert und kleiner als der zweite Schwellenwert kontinuierlich angeordnet sind. Dieses Ordnungsmuster a dient zur Bestimmung der Oberaugenlidfläche in der Augenregion 201.
  • Das Ordnungsmuster b beinhaltet ein Ordnungsmuster, in dem ein Pixel mit einem Intensitätswert kleiner als der erste Schwellenwert und ein Pixel mit einem Intensitätswert gleich oder größer als der zweite Schwellenwert kontinuierlich angeordnet sind, ein Ordnungsmuster, in dem Pixel mit jeweils einem Intensitätswert kleiner als der erste Schwellenwert kontinuierlich angeordnet sind, und ein Ordnungsmuster, in dem Pixel mit jeweils einem Intensitätswert gleich oder größer als der zweite Schwellenwert kontinuierlich angeordnet sind. Mit dem Ordnungsmuster b wird die Augenfläche in der Augenregion 201 bestimmt.
  • In Bezug auf 6A haben drei kontinuierlich angeordnete Pixel auf der linken Seite Intensitätswerte von „53“, „52“ und „56“, und alle Intensitätswerte sind gleich oder größer als der erste Schwellenwert und kleiner als der zweite Schwellenwert. Daher bestimmt die Oberaugenliderkennungseinheit 15 diese drei Pixel als Pixel mit dem Ordnungsmuster a.
  • Ebenso haben drei kontinuierlich angeordnete Pixel auf der rechten Seite von 6A Intensitätswerte von „46“, „43“ und „49“, und alle Intensitätswerte sind gleich oder größer als der erste Schwellenwert und kleiner als der zweite Schwellenwert. Daher bestimmt die Oberaugenliderkennungseinheit 15 diese drei Pixel als Pixel mit dem Ordnungsmuster a.
  • In Bezug auf 6B haben drei kontinuierlich angeordnete Pixel auf der linken Seite Intensitätswerte von „254“, „2“ und „1“, und der Intensitätswert von „254“ ist gleich oder größer als der zweite Schwellenwert und die Intensitätswerte von „2“ und „1“ sind kleiner als der erste Schwellenwert. Daher bestimmt die Oberaugenliderkennungseinheit 15 diese drei Pixel als Pixel mit dem Ordnungsmuster b.
  • Drei kontinuierlich angeordnete Pixel in der Mitte von 6B haben Intensitätswerte von „0“, „1“ und „3“, und alle Intensitätswerte sind kleiner als der erste Schwellenwert. Daher bestimmt die Oberaugenliderkennungseinheit 15 diese drei Pixel als Pixel mit dem Ordnungsmuster b.
  • Drei kontinuierlich angeordnete Pixel auf der rechten Seite von 6B haben Intensitätswerte von „254“, „255“ und „253“, und alle Intensitätswerte sind gleich oder größer als der zweite Schwellenwert. Daher bestimmt die Oberaugenliderkennungseinheit 15 diese drei Pixel als Pixel mit dem Ordnungsmuster b.
  • Obwohl die Oberaugenliderkennungseinheit 15 ein Ordnungsmuster in horizontaler Richtung bestimmt, weil der Augenregion 201 entlang der horizontalen Richtung geteilt ist, kann die Oberaugenliderkennungseinheit in dem Fall, in dem der Augenregion entlang einer anderen Richtung als der horizontalen Richtung geteilt ist, ein Ordnungsmuster in Richtung der Aufteilung bestimmen. Obwohl die Oberaugenliderkennungseinheit 15 das Ordnungsmuster a oder b bestimmt, indem sie drei in horizontaler Richtung zusammenhängend angeordnete Pixel als Ziel einstellt, ist die Anzahl der Zielpixel nicht auf drei begrenzt und kann auf vier oder mehr erhöht werden.
  • Wenn bei Schritt ST153 die Oberaugenliderkennungseinheit 15 sowohl das Abrufen der Intensitätswerte als auch das Bestimmen eines Ordnungsmusters für alle Pixel in der Augenregion 201 („JA“ bei Schritt ST153) abschließt, fährt sie mit Schritt ST154 fort. Existiert dagegen ein Pixel, bei dem das Abrufen des Intensitätswertes und das Bestimmen eines Ordnungsmusters nicht abgeschlossen ist („NEIN“ bei Schritt ST153), dann kehrt die Oberaugenliderkennungseinheit 15 zu Schritt ST151 zurück.
  • Bei Schritt ST154 kann die Oberaugenliderkennungseinheit 15 für jeden der Teilflächen eine Grenze zwischen der Oberaugenlidfläche und der Augenfläche auf der Grundlage eines oder mehrerer Ordnungsmuster in einer Teilfläche erkennen. Die 7A, 7B und 7C sind Abbildungen, die verwendet werden, um ein Verfahren zum Erkennen einer Grenze zwischen der oberen Augenlidfläche und der Augenfläche zu erklären, wobei das Verfahren von der Oberaugenliderkennungseinheit 15 verwendet wird. Die Oberaugenliderkennungseinheit 15 klassifiziert jede der Teilflächen in die Teilflächen A, B und C. In der Teilfläche A existieren nur Ordnungsmuster a, wie in dargestellt. In der Teilfläche B existieren nur Ordnungsmuster b, wie in dargestellt. Die Ordnungsmuster a und b koexistieren in der Teilfläche C, wie in dargestellt. Anschließend erkennt die Oberaugenliderkennungseinheit 15 die Grenzen 204 und 205, die jeweils zwischen den Ordnungsmustern a und b in der Teilfläche C liegen. Die Grenzen 204 und 205 zwischen den Ordnungsmustern a und b liegen in der Grenze zwischen der oberen Augenlidfläche und der Augenfläche. Da es jedoch in den Teilflächen A und B keine Grenzen gibt, führt die Oberaugenliderkennungseinheit 15 den Grenzerkennungsprozess in den Teilflächen A und B nicht durch.
  • 8 ist eine Abbildung, die die Ordnungsmuster a und b und die Grenzen 231 bis 236 in der Augenregion 201 von 5 zeigt. Teilflächen 215 bis 217 aus den Teilflächen 211 bis 224, in die die Augenregion 201 in horizontaler Richtung unterteilt ist, sind Teilflächen C, in denen jeweils die Anordnungsmuster a und b nebeneinander existieren. Die Oberaugenliderkennungseinheit 15 erkennt die Grenzen 231 bis 236 aus den Teilflächen 215 bis 217.
  • Wenn bei Schritt T155 die Oberaugenliderkennungseinheit 15 die Erkennung einer Grenze für alle Teilflächen abschließt („JA“ bei Schritt ST155), dann fährt sie mit Schritt ST156 fort. Existiert dagegen eine Teilfläche, für den die Grenzerkennung nicht abgeschlossen ist („NEIN“ bei Schritt ST155), so kehrt die Oberaugenliderkennungseinheit 15 zu Schritt ST154 zurück.
  • Bei Schritt ST156 verbindet die Oberaugenliderkennungseinheit 15 die für jede Teilfläche erkannte Grenze, um ein Oberaugenlid zu bestimmen.
  • 9 ist eine Darstellung des Oberaugenlides 241 in der Augenregion 201 von 5. Die Oberaugenliderkennungseinheit 15 verbindet die aus den Teilflächen 215 bis 217 der 8 erkannten Grenzen 231 bis 236, um das Oberaugenlid 241 zu bestimmen. Zu diesem Zeitpunkt bestimmt die Oberaugenliderkennungseinheit 15 die Linie des Oberaugenlides 241, z.B. durch Kurvenanpassung, wobei sie sowohl die Positionen der Grenzen 231 bis 236 als auch die Positionen der äußeren und inneren Augenwinkel, die von der Gesichtsmerkmalspunkterkennungseinheit 13 erkannt werden, verwendet. Es ist zu beachten, dass die Fläche über der Linie des Oberaugenlides 241, d.h. die Teilfläche A in Make-up oder ein Schatten ist. Obwohl in der zuvor erläuterten konventionellen Technologie eine Linie, die durch eine Doppellinie dargestellt wird, d.h. eine obere Linie des Make-ups oder ein Schatten, fälschlicherweise als Oberaugenlid 242 erkannt wird, wird eine obere Linie des Make-ups oder ein Schatten erkannt in der Ausführungsform 1 nicht irrtümlich als Oberaugenlid erkannt.
  • Wie vorstehend erläutert, ist die Augenliderkennungsvorrichtung 10 gemäß Ausführungsform 1 so konfiguriert, dass sie Folgendes beinhaltet: die Gesichtsmerkmalspunkterkennungseinheit 13 zum Erkennen von äußeren und inneren Augenecken als Gesichtsmerkmalspunkte aus einem aufgenommenen Bild; die Augenregionerkennungseinheit 14 zum Erkennen einer Augenregion, die sowohl eine obere Augenlidfläche als auch eine Augenfläche aus dem aufgenommenen Bild auf der Grundlage der Gesichtsmerkmalspunkte beinhaltet; und die Oberaugenliderkennungseinheit 15, um für jede aus einer Vielzahl von Teilfläche, in die die Augenregion unterteilt ist, die Grenze zwischen der Oberaugenlidfläche und der Augenfläche auf der Grundlage des Ordnungsmusters der Intensitätswerte von in einem Teilfläche ausgerichteten Pixeln zu erkennen und die jeweils in der Teilfläche erkannten Grenzen zum Bestimmen eines Oberaugenlids zu verbinden. Dadurch kann ein Oberaugenlid einer geschminkten Person oder ein Schatten um seine oder ihre Augen mit hoher Genauigkeit erkannt werden.
  • Darüber hinaus ist die Oberaugenliderkennungseinheit 15 von Ausführungsform 1 so konfiguriert, dass sie für jede der Teilflächen den ersten Schwellenwert und den zweiten Schwellenwert größer als der erste Schwellenwert verwendet, um als Zugehörigkeit zum Oberaugenlidfläche ein Ordnungsmuster a zu bestimmen, in dem Pixel mit jeweils einem Intensitätswert gleich oder größer als der erste Schwellenwert und kleiner als der zweite Schwellenwert kontinuierlich angeordnet und bestimmt sind, als Zugehörigkeit zur Augenregion, ein Ordnungsmuster b, in dem ein Pixel mit einem Intensitätswert kleiner als der erste Schwellenwert und ein Pixel mit einem Intensitätswert gleich oder größer als der zweite Schwellenwert kontinuierlich angeordnet sind, in dem Pixel mit jeweils einem Intensitätswert kleiner als der erste Schwellenwert kontinuierlich angeordnet sind, oder in dem Pixel mit jeweils einem Intensitätswert gleich oder größer als der zweite Schwellenwert kontinuierlich angeordnet sind. Dadurch kann das Oberaugenlid mit hoher Genauigkeit leicht erkannt werden.
  • Ausführungsform 2.
  • Die vorstehend erläuterte Ausführungsform 1 basiert auf der Annahme, dass die Anzahl der von der Oberaugenliderkennungseinheit 15 erkannten Oberaugenlider eins ist. Es besteht jedoch die Möglichkeit, dass eine Vielzahl von Oberaugenlidlinien durch das Verfahren der Ausführungsform 1 erkannt werden, wenn ein Augenlidschatten so auf die Augenlider aufgebracht wird, dass eine Schattierung deutlich sichtbar ist, wenn eine Vielzahl von Stücken von Eyeliner aufgebracht wird oder wenn eine Vielzahl von Schatten um die Augen herum erzeugt wird. Wenn dagegen in Ausführungsform 2 eine Oberaugenliderkennungseinheit 15 eine Vielzahl von Oberaugenlidern erkennt, dann bestimmt sie als echtes Oberaugenlid ein Oberaugenlid, das den größten Intensitätsänderungswert unter der Vielzahl von Oberaugenlidern aufweist. Im Folgenden wird der Grad der Veränderung des Intensitätswertes eines Oberaugenlides als Kantenintensität bezeichnet.
  • 10 ist ein Flussdiagramm, das ein Konfigurationsbeispiel einer Augenliderkennungsvorrichtung 10 gemäß Ausführungsform 2 der vorliegenden Offenbarung zeigt. Die Augenliderkennungsvorrichtung 10 gemäß Ausführungsform 2 weist eine Konfiguration auf, bei der der Augenliderkennungsvorrichtung 10 der in 1 dargestellten Ausführungsform 1 eine Kantenintensitätserkennungseinheit 21 hinzugefügt wird. In 10 werden die gleichen Komponenten wie in 1 oder ähnliche Komponenten mit den gleichen Referenznummern bezeichnet, und eine Erläuterung der Komponenten entfällt im Folgenden.
  • Die Kantenintensitätserkennungseinheit 21 wird durch die in 2A dargestellte Verarbeitungsschaltung 101 realisiert. Alternativ wird die Kantenintensitätserkennungseinheit 21 vom Prozessor 102, dargestellt in 2B, implementiert, der ein in einem Speicher 103 gespeichertes Programm ausführt.
  • 11 ist ein Flussdiagramm, das ein Beispiel für den Betrieb der Augenliderkennungsvorrichtung 10 gemäß Ausführungsform 2 der vorliegenden Offenbarung darstellt. Da die Operationen bei den Schritten ST151 bis ST156 in 11 die gleichen sind wie bei den Schritten ST151 bis ST156 in 4, wird hier auf eine Erläuterung der Operationen verzichtet.
  • Wenn die Oberaugenliderkennungseinheit 15 bei Schritt ST21 eine Vielzahl von Oberaugenlidern erkennt („JA“ bei Schritt ST21), dann gibt sie über eine Steuereinheit 16 ein Ergebnis der Erkennung der Oberaugenlider an die Kantenintensitätserkennungseinheit 21 aus und geht zu Schritt ST22 über. Im Gegensatz dazu, wenn die Oberaugenliderkennungseinheit 15 ein einzelnes Oberaugenlid („NEIN“ bei Schritt ST21) erkennt, geht sie zu Schritt ST156 über.
  • Bei Schritt ST22 empfängt die Kantenintensitätserkennungseinheit 21 das Ergebnis der Erkennung der Oberaugenlider von der Oberaugenliderkennungseinheit 15 über die Steuereinheit 16. Die Kantenintensitätserkennungseinheit 21 erkennt die Kantenintensität für jedes der Vielzahl von Oberaugenlidern. Die Kantenintensitätserkennungseinheit 21 gibt die Erkennungsergebnisse für die Kantenintensität über die Steuereinheit 16 an die Oberaugenliderkennungseinheit 15 aus.
  • Bei Schritt ST156 nach Schritt ST22 empfängt die Oberaugenliderkennungseinheit 15 die Erkennungsergebnisse für die Kantenintensität der Kantenintensitätserkennungseinheit 21 über die Steuereinheit 16. Ein Rand eines Oberaugenlides hat eine höhere Kantenintensität als ein Rand, der entweder durch Make-up wie Augenlidschatten oder Eyeliner oder durch einen Schatten um ein Auge entsteht. Dementsprechend bestimmt die Oberaugenliderkennungseinheit 15 als echtes Oberaugenlid ein Oberaugenlid mit der höchsten Kantenintensität aus der Vielzahl der Oberaugenlider auf der Grundlage der Erkennungsergebnisse für die Kantenintensität.
  • Die 12A, 12B und 12C sind Abbildungen, die zur Erläuterung eines Verfahrens zum Erkennen eines Oberaugenlides verwendet werden, wobei das Verfahren von der Augenliderkennungsvorrichtung 10 gemäß Ausführungsform 2 der vorliegenden Offenbarung verwendet wird. In einem Beispiel eines in 12A gezeigten Bildes einer Augenregion 250 wird Augenlidschatten mit klarer Schattierung auf ein Oberaugenlid aufgebracht. Wie in dargestellt, erkennt die Oberaugenliderkennungseinheit 15 zwei Oberaugenlider 251 und 252 aus der Augenregion 250. Die Kantenintensitätserkennungseinheit 21 erkennt eine Kantenintensität auf der Grundlage der Intensitätswerte des Oberaugenlides 251 und des Intensitätswertes jedes der Pixel in einem das Oberaugenlid umgebenden Fläche. Ebenso erkennt die Kantenintensitätserkennungseinheit 21 eine Kantenintensität auf der Grundlage der Intensitätswerte des Oberaugenlides 252 und des Intensitätswertes jedes der Pixel in einer Fläche um das Oberaugenlid. Die Kantenintensität des Oberaugenlides 252 ist höher als die des Oberaugenlides 251. Daher bestimmt die Oberaugenliderkennungseinheit 15, wie in dargestellt, das Oberaugenlid 252 als das wahre Oberaugenlid.
  • Wie vorstehend erläutert, ist die Augenliderkennungsvorrichtung 10 gemäß Ausführungsform 2 konfiguriert, die Kantenintensitätserkennungseinheit 21 zum Erkennen des Grades der Intensitätsänderung jedes der Oberaugenlider als Reaktion auf die Oberaugenliderkennungseinheit 15 zum Erkennen der Oberaugenlider aufzunehmen. Die Oberaugenliderkennungseinheit 15 ist konfiguriert, als das wahre Oberaugenlid ein Oberaugenlid zu bestimmen, das den größten Grad der Intensitätsänderung aufweist, der durch die Kantenintensitätserkennungseinheit 21 zwischen einer Vielzahl von Oberaugenlidern erkannt wird. Mit dieser Konfiguration kann ein Oberaugenlid einer Person, die ein spezielles Make-up trägt, wie z.B. Augenlidschatten mit klarer Schattierung, oder eine Vielzahl von Linien von Eyeliner, oder eine Person, die eine Vielzahl von Schatten um seine oder ihre Augen herum hat, mit einem weiteren hohen Grad an Genauigkeit erkannt werden.
  • Ausführungsform 3.
  • In Ausführungsform 3 erkennt eine Augenliderkennungsvorrichtung 10 sowohl ein Unteraugenlid als auch ein Oberaugenlid. Darüber hinaus berechnet die Augenliderkennungsvorrichtung 10 einen Grad der Augenöffnung.
  • 13 ist ein Blockdiagramm, das ein Konfigurationsbeispiel der Augenliderkennungsvorrichtung 10 gemäß Ausführungsform 3 der vorliegenden Offenbarung darstellt. Die Augenliderkennungsvorrichtung 10 gemäß Ausführungsform 3 ist konfiguriert, neben der in 1 dargestellten Augenliderkennungsvorrichtung 10 der Ausführungsform 1 eine Oberaugenlid- und Unteraugenliderkennungseinheit 31 und eine Augenöffnungsgrad-Berechnungseinheit 32 aufzunehmen. In 13 werden die gleichen Komponenten wie in 1 oder ähnliche Komponenten mit den gleichen Referenznummern bezeichnet, und eine Erläuterung der Komponenten entfällt im Folgenden.
  • Die Ober- und Unteraugenliderkennungseinheit 31 und die Augenöffnungsgrad-Berechnungseinheit 32 werden durch die in 2A dargestellte Verarbeitungsschaltung 101 implementiert. Alternativ können die Ober- und Unteraugenliderkennungseinheit 31 und die Augenöffnungsgrad-Berechnungseinheit 32 vom Prozessor 102, dargestellt in 2B, implementiert werden, der ein im Speicher 103 gespeichertes Programm ausführt.
  • 14 ist ein Flussdiagramm, das ein Beispiel für den Betrieb der Augenliderkennungsvorrichtung 10 gemäß Ausführungsform 3 der vorliegenden Offenbarung darstellt. Da die Vorgänge bei den Schritten ST11 bis ST15 in 14 die gleichen sind wie bei den Schritten ST11 bis ST15 in 3, entfällt hier eine Erläuterung der Vorgänge.
  • Bei Schritt ST31 empfängt die Ober- und Unteraugenliderkennungseinheit 31 von einer Steuereinheit 16 sowohl ein Gesichtsmerkmalpunkterkennungsergebnis, das von einer Gesichtsmerkmalspunkterkennungseinheit 13 erkannt wird, als auch ein Bild einer Augenregion, das von einer Augenregionerkennungseinheit 14 erkannt wird. Die Ober- und Unteraugenliderkennungseinheit 31 erkennt ein temporäres Oberaugenlid und ein Unteraugenlid aus der Augenregion anhand der Positionen der äußeren und inneren Augenwinkel im Ergebnis der Gesichtsfunktion Punkterkennung. Die Ober- und Unteraugenliderkennungseinheit 31 gibt ein Ergebnis der Erkennung des temporären Oberaugenlids und des Unteraugenlids an die Steuereinheit 16 aus.
  • Die Ober- und Unteraugenliderkennungseinheit 31 erkennt eine Kante aus der Augenregion, z.B. mit einem typischen Bildverarbeitungsfilter wie dem Sobel-Filter oder dem Laplace-Filter. Anschließend erkennt die Ober- und Unteraugenliderkennungseinheit 31 Kurven anhand der Positionen der äußeren und inneren Augenwinkel und ein Ergebnis der Kantenerkennung. Zwei erkannte Kurven werden als die Linien eines temporären Oberaugenlides und eines Unteraugenlides betrachtet. Bei der Erkennung der Kurven wird ein typischer Algorithmus wie die Hough-Transformation verwendet.
  • Bei Schritt ST32 empfängt die Augenöffnungsgrad-Berechnungseinheit 32 von der Steuereinheit 16 das Ergebnis der Erkennung des temporären Oberaugenlids und des von der Ober- und Unteraugenliderkennungseinheit 31 erkannten Unteraugenlids. Wenn das temporäre Oberaugenlid und das Unteraugenlid übereinstimmen („JA“ bei Schritt ST32), dann fährt die Augenöffnungsgrad-Berechnungseinheit 32 mit Schritt ST33 fort. Stimmen dagegen das temporäre Oberaugenlid und das Unteraugenlid nicht überein („NEIN“ bei Schritt ST32), dann benachrichtigt die Augenöffnungsgrad-Berechnungseinheit 32 die Steuereinheit 16 davon. Als Reaktion auf den Empfang der Benachrichtigung fährt die Steuereinheit 16 mit Schritt ST15 und weiter mit Schritt ST34 fort.
  • Bei Schritt ST33 bestimmt die Augenöffnungsgrad-Berechnungseinheit 32, dass die Augen eines Fahrers geschlossen sind, weil das temporäre Oberaugenlid und das Unteraugenlid, die von der Ober- und Unteraugenliderkennungseinheit 31 erkennt werden, übereinstimmen. Die Augenöffnungsgrad-Berechnungseinheit 32 berechnet den Grad der Augenöffnung als 0%.
  • Es ist zu beachten, dass, wenn das temporäre Oberaugenlid und das Unteraugenlid übereinstimmen, nur die in gezeigte Teilfläche A in der Augenregion existiert.
  • Bei Schritt ST34 nach Schritt ST15 bestimmt die Augenöffnungsgrad-Berechnungseinheit 32, dass die Augen des Fahrers geöffnet sind und berechnet den Grad der Augenöffnung, da das temporäre Oberaugenlid und das Unteraugenlid, die von der Ober- und Unteraugenliderkennungseinheit 31 erkannt werden, nicht übereinstimmen. Zum Zeitpunkt der Berechnung des Grades der Augenöffnung verwendet die Augenöffnungsgrad-Berechnungseinheit 32 das bei Schritt ST15 erkannte Oberaugenlid, indem sie von einem Fall ausgeht, in dem das Make-up dick um die Augen des Fahrers herum aufgetragen wird, oder von einem Fall, in dem ein Schatten um die Augen des Fahrers herum entsteht.
  • 15 ist eine Illustration, die verwendet wird, um ein Verfahren zum Erkennen von Ober- und Unteraugenlidern zu erklären, das von der Ober- und Unteraugenliderkennungseinheit 31 durchgeführt wird. In einem Beispiel eines in gezeigten Bildes der Augenregion 260 sind ein echtes Oberaugenlid 263 und ein Unteraugenlid 262 zu erkennende Objekte. Über dem wahren Oberaugenlid 263 existiert jedoch ein Bereich des Make-ups oder ein Schatten. So erkennt die Ober- und Unteraugenliderkennungseinheit 31 bei der Kantenerkennung und Kurvenerkennung fälschlicherweise eine Kante des Make-up-Bereichs oder einen Schatten als temporäres Oberaugenlid 261. Dementsprechend berechnet die Augenöffnungsgrad-Berechnungseinheit 32 den Grad der Augenöffnung, indem sie anstelle des von der Ober- und Unteraugenliderkennungseinheit 31 erkannten temporären Oberaugenlides 261 das von der Oberaugenliderkennungseinheit 15 erkannte wahre Oberaugenlid 263 verwendet.
  • So verwendet beispielsweise die Augenöffnungsgrad-Berechnungseinheit 32 Informationen über die Augen des Fahrers im Normalzustand, die von der Augenliderkennungsvorrichtung 10 bei deren Kalibrierung erfasst werden, um einen Abstand in vertikaler Richtung der Augenpartie im Normalzustand zu berechnen, diesen Abstand als Referenzabstand mit einem Augenöffnungsgrad von 100% zu definieren.
  • Die Augenöffnungsgrad-Berechnungseinheit 32 erhält sowohl ein Ergebnis der Erkennung des von der Ober- und Unteraugenliderkennungseinheit 31 erkannten Unteraugenlides als auch ein Ergebnis der Erkennung des von der Oberaugenliderkennungseinheit 15 erkannten Oberaugenlides über die Steuereinheit 16. Die Augenöffnungsgrad-Berechnungseinheit 32 berechnet einen Abstand zwischen dem Unteraugenlid und dem Oberaugenlid und vergleicht den daraus berechneten Abstand mit dem Referenzabstand, um den Grad der Augenöffnung zu berechnen. Es wird angenommen, dass bei Schritt ST34 die Recheneinheit 32 den Grad der Augenöffnung im Bereich von 1% bis 100% berechnet.
  • Beachten Sie, dass, wenn der Grad der Augenöffnung zwischen 1% und 99% liegt, alle in den , und gezeigten Teilflächen A, B und C in der Augenregion vorhanden sind. Beträgt der Grad der Augenöffnung dagegen 100%, existiert nur die in gezeigte Teilfläche B in der Augenregion.
  • Die , und sind Abbildungen zur Erläuterung eines Verfahrens zur Berechnung des Grades der Augenöffnung, das von der Augenöffnungsgrad-Berechnungseinheit 32 durchgeführt wird. Wie in 16A dargestellt, wenn alle Teilflächen A, B und C, wie in den 7A, 7B und 7C dargestellt, im Augenregion 260 vorhanden sind, erkennt die Oberaugenliderkennungseinheit 15 die Grenze zwischen den Ordnungsmustern a und b in der Teilfläche B als das wahre Oberaugenlid 263. Die Augenöffnungsgrad-Berechnungseinheit 32 berechnet einen Grad der Augenöffnung sowohl aus dem Referenzabstand H als auch aus dem Abstand zwischen dem wahren Oberaugenlid 263 und dem Unteraugenlid 262. In beträgt der Grad der Augenöffnung 65%.
  • Wenn der Referenzabstand H gleich dem Abstand zwischen dem wahren Oberaugenlid 263 und dem Unteraugenlid 262 ist, wie in dargestellt, berechnet die Augenöffnungsgrad-Berechnungseinheit 32 den Grad der Augenöffnung als 100%. Anstatt den Grad der Augenöffnung als 100% für den Fall zu berechnen, dass der Referenzabstand H gleich dem Abstand zwischen dem wahren Oberaugenlid 263 und dem Unteraugenlid 262 ist, kann die Augenöffnungsgrad-Berechnungseinheit 32 den Grad der Augenöffnung als 100% berechnen, wenn nur die Teilfläche B im Augenregion 260 existiert.
  • Wenn das temporäre Oberaugenlid 261 und das Unteraugenlid 262 übereinstimmen, wie in dargestellt, berechnet die Augenöffnungsgrad-Berechnungseinheit 32 den Grad der Augenöffnung mit 0%. Anstatt den Grad der Augenöffnung als 0% für den Fall zu berechnen, dass das temporäre Oberaugenlid 261 und das Unteraugenlid 262 übereinstimmen, kann die Augenöffnungsgrad-Berechnungseinheit 32 den Grad der Augenöffnung als 0% berechnen, wenn nur die Teilfläche A in der Augenregion 260 vorhanden ist.
  • Wie vorstehend erläutert, ist die Augenliderkennungsvorrichtung 10 gemäß Ausführungsform 3 so konfiguriert, dass sie die Ober- und Unteraugenliderkennungseinheit 31 zum Erkennen eines temporären Oberaugenlids und eines Unteraugenlids aus der Augenregion auf der Grundlage der Gesichtsmerkmalspunkte beinhaltet. Die Oberaugenliderkennungseinheit 15 ist so konfiguriert, dass sie das von der Oberaugenliderkennungseinheit 15 erkannte Oberaugenlid als das wahre Oberaugenlid bestimmt, wenn das temporäre Oberaugenlid und das Unteraugenlid, die von der Ober- und Unteraugenliderkennungseinheit 31 erkannt werden, nicht übereinstimmen. Dadurch kann auch ein Oberaugenlid einer geschminkten Person oder ein Schatten um seine oder ihre Augen herum, ganz zu schweigen von einer Person, die ein normales Aussehen um ihre Augen hat, mit hoher Genauigkeit erkannt werden.
  • Darüber hinaus ist die Augenliderkennungsvorrichtung 10 gemäß Ausführungsform 3 so konfiguriert, dass sie die Augenöffnungsgrad-Berechnungseinheit 32 beinhaltet, die den Grad der Augenöffnung berechnet, indem sie sowohl das von der Oberaugenliderkennungseinheit 15 erkannte echte Oberaugenlid als auch das von der Ober- und Unteraugenliderkennungseinheit 31 erkannte untere Augenlid verwendet. Da ein Oberaugenlid einer geschminkten Person oder ein Schatten um sein oder ihre Augen mit hoher Genauigkeit erkannt werden kann, kann der Grad der Augenöffnung einer solchen Person auch mit hoher Genauigkeit berechnet werden.
  • Die Augenliderkennungsvorrichtung 10 gemäß Ausführungsform 3 kann die Kantenintensitätserkennungseinheit 21 in Ausführungsform 2 beinhalten. Mit dieser Konfiguration kann auch ein Oberaugenlid einer Person, die ein spezielles Make-up trägt, wie z.B. Augenlidschatten mit klarer Schattierung oder mehrere Linien von Eyeliner, oder eine Person mit mehreren Schatten um sein oder ihre Augen herum, ganz zu schweigen von einer Person, die ein normales Aussehen um seine oder ihre Augen hat, mit hoher Genauigkeit erkannt werden. Darüber hinaus kann der Grad der Augenöffnung einer solchen Person auch mit hoher Genauigkeit berechnet werden.
  • Ausführungsform 4.
  • In Ausführungsform 4 wird die Schläfrigkeit anhand eines Ergebnisses der Berechnung eines Grades der Augenöffnung bestimmt.
  • 17 ist ein Blockdiagramm, das ein Konfigurationsbeispiel einer Schläfrigkeitsbestimmungsvorrichtung 40 gemäß Ausführungsform 4 der vorliegenden Offenbarung darstellt. Die in 17 dargestellte Schläfrigkeitsbestimmungsvorrichtung 40 beinhaltet die Augenlidbestimmungsvorrichtung 10 gemäß Ausführungsform 3 und eine Schläfrigkeitsbestimmungseinheit 41.
  • Die Schläfrigkeitsbestimmungseinheit 41 wird durch die in 2A dargestellte Verarbeitungsschaltung 101 implementiert. Alternativ wird die die Schläfrigkeitsbestimmungseinheit 41 durch den Prozessor 102, dargestellt in 2B, implementiert, der ein in einem Speicher 103 gespeichertes Programm ausführt.
  • Die Schläfrigkeitsbestimmungseinheit 41 erhält ein Ergebnis der Berechnung eines Grades der Augenöffnung aus der Augenöffnungsgrad-Berechnungseinheit 32 der Augenliderkennungsvorrichtung 10 gemäß Ausführungsform 3. Die Schläfrigkeitsbestimmungseinheit 41 bestimmt anhand des Ergebnisses der Berechnung des Grades der Augenöffnung, ob der Fahrer schlummert oder nicht. Wenn beispielsweise ein geschlossener Augenzustand für einen vorbestimmten Zeitraum (z.B. mehrere Sekunden) anhält, bestimmt die Schläfrigkeitsbestimmungseinheit 41, dass der Fahrer schlummert.
  • Wie vorstehend erläutert, ist die Schläfrigkeitsbestimmungsvorrichtung 40 gemäß Ausführungsform 4 so konfiguriert, dass sie die Augenliderkennungseinrichtung 10 der Ausführungsform 3 und die Schläfrigkeitsbestimmungseinheit 41 zum Bestimmen eines Schläfrigkeitszustandes auf der Grundlage des von der Augenliderkennungseinrichtung 10 berechneten Öffnungsgrads der Augen beinhaltet. Da mit dieser Konfiguration ein Oberaugenlid und der Grad der Augenöffnung einer Person mit Make-up oder einem Schatten um seine oder ihre Augen mit hoher Genauigkeit erkannt werden kann, kann die Schläfrigkeit einer solchen Person mit hoher Genauigkeit bestimmt werden.
  • Obwohl in den Ausführungsformen 1 bis 4 Beispiele dargestellt sind, in denen die Bilderkennungseinheit 1, die Augenliderkennungsvorrichtung 10 und die Schläfrigkeitsbestimmungsvorrichtung 40 im Fahrzeug montiert sind, ist keine Einschränkung darauf vorgesehen; beispielsweise kann nur die Bildaufnahmeeinheit 1 im Fahrzeug und die Augenliderkennungsvorrichtung 10 und die Schläfrigkeitsbestimmungsvorrichtung 40 außerhalb des Fahrzeugs angebracht werden. Im letzteren Fall können beispielsweise die Bildaufnahmeeinheit 1 im Fahrzeug und die Augenliderkennungsvorrichtung 10 und die Schläfrigkeitsbestimmungsvorrichtung 40 außerhalb des Fahrzeugs Informationen zwischen ihnen über drahtlose Kommunikation übertragen. Die Augenliderkennungsvorrichtung 10 und die Schläfrigkeitsbestimmungsvorrichtung 40 empfangen ein von der Bildaufnahmeeinheit 1 über drahtlose Kommunikation aufgenommenes Bild, erkennen ein Oberaugenlid, berechnen einen Grad der Augenöffnung, bestimmen die Schläfrigkeit und übertragen ein Ergebnis der Bestimmung über drahtlose Kommunikation an eine fahrzeugmontierte Vorrichtung, wie beispielsweise eine Fahrerüberwachungsvorrichtung.
  • Es ist zu verstehen, dass im Rahmen der Erfindung freie Kombinationen von Ausführungsformen, Änderungen an Komponenten in den Ausführungsformen oder Auslassungen von Komponenten vorgenommen werden können.
  • Darüber hinaus ist eine Person, die Gegenstand der Augenliderkennungsvorrichtung 10 und der Schläfrigkeitsbestimmungsvorrichtung 40 ist, die in den Ausführungsformen der vorliegenden Offenbarung erläutert wird, nicht auf den Fahrer eines Fahrzeugs beschränkt; er oder sie kann Fahrer oder Pilot eines anderen beweglichen Fahrzeugs sein, einschließlich eines Eisenbahnzuges, eines Schiffes und eines Flugzeugs. Es ist zu erwarten, dass eine Fahrerüberwachungsvorrichtung in einer Vielzahl von Anwendungsfällen für Fahrer, wie beispielsweise Personen verschiedenen Geschlechts und Personen verschiedener Rassen, ordnungsgemäß funktioniert, indem sie die Augenliderkennungsvorrichtung 10 und die Schläfrigkeitsbestimmungsvorrichtung 40 zur Fahrerüberwachungsvorrichtung verwendet.
  • INDUSTRIELLE ANWENDBARKEIT
  • Da die Augenliderkennungsvorrichtung und die Schläfrigkeitsbestimmungsvorrichtung gemäß der vorliegenden Offenbarung so konfiguriert sind, dass sie ein Oberaugenlid mit hoher Genauigkeit erkennen, sind die Augenliderkennungsvorrichtung und die Schläfrigkeitsbestimmungsvorrichtung für den Einsatz in einer Fahrerüberwachungsvorrichtung geeignet, die den Zustand des Fahrers überwacht, und so weiter.
  • Bezugszeichenliste
  • 1
    Bildaufnahmeeinheit; 10 Augenliderkennungsvorrichtung;
    11
    Bildaufnahmeeinheit; 12 Gesichtserkennungseinheit;
    13
    Gesichtsmerkmalspunkterkennungseinheit;
    14
    Augenregionerkennungseinheit;
    15
    Oberaugenliderkennungseinheit; 16 Steuereinheit;
    21
    Kantenintensitätserkennungseinheit; 31 Ober- und Unteraugenliderkennungseinheit;
    32
    Augenöffnungsgrad-Berechnungseinheit;
    40
    Schläfrigkeitsbestimmungsvorrichtung;
    41
    Schläfrigkeitsbestimmungseinheit; 100 Kamera;
    101
    Verarbeitungsschaltung; 102 Prozessor; 103 Speicher;
    201, 250, 260
    Augenregion;
    202,
    203 Intensitätswertabrufstartposition;
    204, 205, 231 bis 236
    Grenze; 211 bis 224 Teilfläche;
    241, 251, 252
    Oberaugenlid; 242 falsch erkanntes Oberaugenlid;
    261
    temporäres Oberaugenlid; 262 Unteraugenlid; und
    263
    wahres Oberaugenlid.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2000137792 A [0003]

Claims (8)

  1. Eine Augenliderkennungsvorrichtung, umfassend: eine Gesichtsmerkmalspunkterkennungseinheit zum Erkennen der äußeren und inneren Augenwinkel als Gesichtsmerkmalspunkte aus einem aufgenommenen Bild; eine Augenregionerkennungseinheit zum Erkennen einer Augenregion, die sowohl eine Oberaugenlidfläche als auch eine Augenfläche aus dem aufgenommenen Bild auf der Grundlage der Gesichtsmerkmalspunkte beinhaltet; und eine Oberaugenliderkennungseinheit zum Erkennen einer Grenze zwischen der Oberaugenlidfläche und der Augenfläche für jede aus einer Vielzahl von Teilflächen, in die die Augenregion unterteilt ist, auf der Grundlage eines Musters der Anordnung von Intensitätswerten von Pixeln, die in einer Teilfläche ausgerichtet sind, und zum Verbinden der jeweils in der Teilfläche erkannten Grenzen, um ein Oberaugenlid zu bestimmen.
  2. Die Augenliderkennungsvorrichtung nach Anspruch 1, wobei jede Teilfläche eine Fläche ist, die ein Ende der Augenregion mit einem gegenüberliegenden Ende der Augenregion verbindet.
  3. Die Augenliderkennungsvorrichtung nach Anspruch 1, wobei die Oberaugenliderkennungseinheit in einer der Teilflächen einen ersten Schwellenwert und einen zweiten Schwellenwert, der größer als der erste Schwellenwert ist, verwendet, um als zur Oberaugenlidfläche gehörend ein Anordnungsmuster zu bestimmen, in dem Pixel mit jeweils einem Intensitätswert gleich oder größer als der erste Schwellenwert und kleiner als der zweite Schwellenwert kontinuierlich angeordnet sind, und als Zugehörigkeit zur Augenfläche ein Anordnungsmuster bestimmen, in dem ein Pixel mit einem Intensitätswert kleiner als der erste Schwellenwert und ein Pixel mit einem Intensitätswert gleich oder größer als der zweite Schwellenwert kontinuierlich angeordnet sind, in dem Pixel mit jeweils einem Intensitätswert kleiner als der erste Schwellenwert kontinuierlich angeordnet sind, oder in dem Pixel mit jeweils einem Intensitätswert gleich oder größer als der zweite Schwellenwert kontinuierlich angeordnet sind.
  4. Die Augenliderkennungsvorrichtung nach Anspruch 1, ferner umfassend eine Ober- und Unteraugenliderkennungseinheit zum Erkennen eines temporären Oberaugenlids und eines Unteraugenlids aus dem Augenregion auf der Grundlage der Gesichtsmerkmalspunkte, wobei die Oberaugenliderkennungseinheit bestimmt, dass, wenn das temporäre Oberaugenlid und das von der Ober- und Unteraugenliderkennungseinheit erkannte Unteraugenlid nicht übereinstimmen, das von der Oberaugenliderkennungseinheit erkannte Oberaugenlid ein echtes Oberaugenlid ist.
  5. Die Augenliderkennungsvorrichtung nach Anspruch 1, ferner umfassend eine Kantenintensitätserkennungseinheit zum Erkennen, wenn die Oberaugenliderkennungseinheit eine Vielzahl von Oberaugenlidern erkannt, eines Grades der Intensitätsänderung für jedes der Vielzahl von Oberaugenlidern, wobei die Oberaugenliderkennungseinheit bestimmt, dass ein Oberaugenlid mit einem größten Grad der Intensitätsänderung, der von der Randintensitätserkennungseinheit erkannt wird, ein echtes Oberaugenlid unter den mehreren Oberaugenlidern ist.
  6. Die Augenliderkennungsvorrichtung nach Anspruch 4, ferner umfassend eine Augenöffnungsgrad-Berechnungseinheit zum Berechnen eines Grades der Augenöffnung unter Verwendung sowohl des von der Oberaugenliderkennungseinheit erkannten wahren Oberaugenlids als auch des von der Ober- und Unteraugenliderkennungseinheit erkannten unteren Augenlids.
  7. Eine Vorrichtung zur Bestimmung der Schläfrigkeit, umfassend: die Augenliderkennungsvorrichtung nach Anspruch 6; und eine Schläfrigkeitsbestimmungseinheit zum Bestimmen eines Schläfrigkeitszustandes auf der Grundlage des von der Augenliderkennungsvorrichtung berechneten Grades der Augenöffnung.
  8. Ein Verfahren zum Erkennen von Augenlidern, umfassend: Erkennen von äußeren und inneren Augenwinkeln als Gesichtsmerkmalspunkte aus einem aufgenommenen Bild durch eine Gesichtsmerkmalspunkterkennungseinheit; Erkennen einer Augenregion, die sowohl eine Oberaugenlidfläche als auch eine Augenfläche aus dem aufgenommenen Bild auf der Grundlage der Gesichtsmerkmalspunkte umfasst, durch eine Augenregionerkennungseinheit; und Erkennen einer Grenze zwischen der Oberaugenlidfläche und der Augenfläche auf der Grundlage eines Musters der Anordnung von Intensitätswerten von Pixeln, die in einer Teilfläche ausgerichtet sind, durch eine Oberaugenliderkennungseinheit für jede aus einer Vielzahl von Teilflächen, in die die Augenregion geteilt ist, und Verbinden der jeweils in der Teilflächen erkannten Grenzen, um ein Oberaugenlid zu bestimmen.
DE112017005233.5T 2017-01-17 2017-01-17 Augenliderkennungsvorrichtung, Schläfrigkeitsbestimmungsvorrichtung und Augenliderkennungsverfahren Active DE112017005233B4 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/001361 WO2018134875A1 (ja) 2017-01-17 2017-01-17 瞼検出装置、居眠り判定装置、および瞼検出方法

Publications (2)

Publication Number Publication Date
DE112017005233T5 true DE112017005233T5 (de) 2019-07-11
DE112017005233B4 DE112017005233B4 (de) 2021-08-26

Family

ID=62907799

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017005233.5T Active DE112017005233B4 (de) 2017-01-17 2017-01-17 Augenliderkennungsvorrichtung, Schläfrigkeitsbestimmungsvorrichtung und Augenliderkennungsverfahren

Country Status (5)

Country Link
US (1) US10624538B2 (de)
JP (1) JP6482746B2 (de)
CN (1) CN110168610B (de)
DE (1) DE112017005233B4 (de)
WO (1) WO2018134875A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111557007B (zh) * 2018-07-16 2022-08-19 荣耀终端有限公司 一种检测眼睛睁闭状态的方法及电子设备
WO2020029093A1 (zh) * 2018-08-07 2020-02-13 深圳市汇顶科技股份有限公司 疲劳状态的检测方法、装置及设备
JP6906717B2 (ja) * 2018-12-12 2021-07-21 三菱電機株式会社 状態判定装置、状態判定方法、及び状態判定プログラム
JP2021019943A (ja) * 2019-07-29 2021-02-18 株式会社デンソー サッカード検出装置、サッカード検出方法、サッカード検出プログラム
JP2021159236A (ja) * 2020-03-31 2021-10-11 株式会社ニデック 前眼部撮影装置、および前眼部撮影プログラム
WO2024057356A1 (ja) * 2022-09-12 2024-03-21 三菱電機株式会社 開瞼度検出装置、開瞼度検出方法、および眠気判定システム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000137792A (ja) 1998-10-30 2000-05-16 Toyota Motor Corp 眼部検出装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5859686A (en) * 1997-05-19 1999-01-12 Northrop Grumman Corporation Eye finding and tracking system
JP4137969B2 (ja) * 2006-12-04 2008-08-20 アイシン精機株式会社 眼部検出装置、眼部検出方法及びプログラム
JP4895797B2 (ja) * 2006-12-26 2012-03-14 アイシン精機株式会社 瞼検出装置、瞼検出方法及びプログラム
JP4309927B2 (ja) * 2007-03-14 2009-08-05 株式会社豊田中央研究所 まぶた検出装置及びプログラム
JP2009219555A (ja) * 2008-03-13 2009-10-01 Toyota Motor Corp 眠気検知装置、運転支援装置、眠気検知方法
JP5262243B2 (ja) * 2008-03-31 2013-08-14 アイシン精機株式会社 眼開閉判別装置、及びプログラム
JP5078815B2 (ja) * 2008-09-12 2012-11-21 株式会社豊田中央研究所 開眼度推定装置
JP5128454B2 (ja) * 2008-12-17 2013-01-23 アイシン精機株式会社 瞼検出装置、瞼検出方法及びプログラム
JP5270415B2 (ja) * 2009-03-19 2013-08-21 トヨタ自動車株式会社 眠気判定装置及びプログラム
WO2011101990A1 (ja) * 2010-02-22 2011-08-25 トヨタ自動車株式会社 画像処理装置及び眠気判定装置
CN103493097B (zh) * 2011-04-15 2015-09-16 爱信精机株式会社 眼睑检测装置、眼睑检测方法
US9020199B2 (en) 2011-04-19 2015-04-28 Aisin Seiki Kabushiki Kaisha Eyelid detection device, eyelid detection method, and recording medium
DE112011105435B4 (de) * 2011-07-11 2022-07-07 Toyota Jidosha Kabushiki Kaisha Augenliderfassungsvorrichtung
KR101604232B1 (ko) * 2011-09-05 2016-03-17 토야마켄 졸음검출방법과 장치
JP5935849B2 (ja) * 2013-10-04 2016-06-15 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP6234762B2 (ja) * 2013-10-09 2017-11-22 アイシン精機株式会社 眼部検出装置、方法、およびプログラム
CN105701445A (zh) * 2014-12-15 2016-06-22 爱信精机株式会社 判定装置及判定方法
CN105138950B (zh) * 2015-07-03 2019-04-23 Oppo广东移动通信有限公司 一种拍照方法及用户终端
DE102015218306A1 (de) * 2015-09-23 2017-03-23 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ermitteln eines Schläfrigkeitszustands eines Fahrers

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000137792A (ja) 1998-10-30 2000-05-16 Toyota Motor Corp 眼部検出装置

Also Published As

Publication number Publication date
CN110168610B (zh) 2023-07-21
JPWO2018134875A1 (ja) 2019-03-28
WO2018134875A1 (ja) 2018-07-26
DE112017005233B4 (de) 2021-08-26
US10624538B2 (en) 2020-04-21
JP6482746B2 (ja) 2019-03-13
US20190320890A1 (en) 2019-10-24
CN110168610A (zh) 2019-08-23

Similar Documents

Publication Publication Date Title
DE112017005233B4 (de) Augenliderkennungsvorrichtung, Schläfrigkeitsbestimmungsvorrichtung und Augenliderkennungsverfahren
DE60313941T2 (de) Personendetektion durch Gesichtsdetektion und Bewegungsdetektion
DE112011105439B4 (de) Rote-Augen-Erfassungsvorrichtung
DE102019134141A1 (de) Sicherheitsgurtzustandsbestimmungssystem und verfahren
DE69937142T2 (de) Fingerabdruck-identifikations/überprüfungssystem
DE19613614C2 (de) Vorrichtung zur Bearbeitung eines Bildes eines Gesichts
DE69937530T2 (de) Verfahren zum automatischen Klassifizieren von Bildern nach Ereignissen
DE69837233T2 (de) Verfahren und Gerät zur Bestimmung der Augenposition in einem Bild
DE112011105435B4 (de) Augenliderfassungsvorrichtung
DE19634768A1 (de) Vorrichtung und Verfahren zur Erfassung eines Gesichts in einem Videobild
DE112017007246T5 (de) Bildanalysevorrichtung, bildanalyseverfahren und bildanalyseprogramm
DE112014001658T5 (de) Nachverfolgungsverarbeitungsvorrichtung und Nachverfolgungsverarbeitungssystem, das damit ausgestattet ist, und Nachverfolgungsverarbeitungsverfahren
DE19847261A1 (de) Verfahren und System zur Personenerkennung mit modellbasierter Gesichtsfindung
DE102014117102B4 (de) Spurwechselwarnsystem und Verfahren zum Steuern des Spurwechselwarnsystems
DE102014207650A1 (de) Vorrichtung und Verfahren zur Erkennung von Fußgängern
DE112017008174B4 (de) Ausdruckserkennungseinrichtung
DE102015206654A1 (de) Bildverarbeitungsvorrichtung
DE112016005939B4 (de) Fahrgasterkennungsvorrichtung, Fahrgasterkennungssystem und Fahrgasterkennungsverfahren
DE112015002583T5 (de) Vorrichtung für die Bildverarbeitung, Endoskopsystem und Verfahren für die Bildverarbeitung
WO2009019250A2 (de) Verfahren und einrichtung zur objekterkennung in einem bild
CH713061B1 (de) System und Verfahren zur berührungslosen biometrischen Authentifizierung.
DE112019006414T5 (de) Vorrichtung und Verfahren zur Detektion von Menschen
Gour et al. Blood vessel segmentation using hybrid median filtering and morphological transformation
WO2016087202A1 (de) Bildverarbeitung mittels kreuzkorrelation
DE102017222675A1 (de) Personenerkennung mittels einer Kamera

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R084 Declaration of willingness to licence
R020 Patent grant now final