DE102017203649A1 - Gesichtsbildverarbeitungsvorrichtung - Google Patents

Gesichtsbildverarbeitungsvorrichtung Download PDF

Info

Publication number
DE102017203649A1
DE102017203649A1 DE102017203649.4A DE102017203649A DE102017203649A1 DE 102017203649 A1 DE102017203649 A1 DE 102017203649A1 DE 102017203649 A DE102017203649 A DE 102017203649A DE 102017203649 A1 DE102017203649 A1 DE 102017203649A1
Authority
DE
Germany
Prior art keywords
image
section
image processing
light
polarizer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017203649.4A
Other languages
English (en)
Inventor
Keishin Aoki
Shunji Ota
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Automotive Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Automotive Electronics Co Ltd filed Critical Omron Automotive Electronics Co Ltd
Publication of DE102017203649A1 publication Critical patent/DE102017203649A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Geometry (AREA)
  • Vascular Medicine (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Eine Gesichtsbildverarbeitungsvorrichtung umfasst: einen Beleuchtungsabschnitt mit einem ersten Polarisator, der Licht in einer ersten Richtung polarisiert, und einem Lichtemitter, der durch den ersten Polarisator Infrarotlicht emittiert; einen Bilderfassungsabschnitt mit einem zweiten Polarisator, der Licht in einer zweiten Richtung polarisiert, die senkrecht zur ersten Richtung verläuft, und einer Bilderfassungseinheit, die Bilder durch den zweiten Polarisator erfasst; und einen Bildverarbeitungsabschnitt, der Augenkandidaten erfasst unter Verwendung eines ersten Bildes, welches erfasst wird, wenn der Beleuchtungsabschnitt das Infrarotlicht emittiert, und eines zweiten Bildes, welches erfasst wird, wenn der Beleuchtungsabschnitt das Infrarotlicht nicht emittiert. Der Bildverarbeitungsabschnitt ermittelt einen Kandidaten als Auge, der ein hyperbolisches oder kreuzförmiges Muster aufweist, welches im ersten Bild vorliegt, welches aber im zweiten Bild nicht vorliegt.

Description

  • QUERVERWEISE ZU VERWANDTEN ANMELDUNGEN
  • Diese Anmeldung beruht auf der Japanischen Patentanmeldung Nr. 2016-043063 , eingereicht am 7. März 2016, und nimmt deren Priorität in Anspruch. Deren gesamter Inhalt wird hierin durch Bezugnahme eingeschlossen.
  • TECHNISCHES GEBIET
  • Eine oder mehrere Ausführungsformen der vorliegenden Erfindung bezieht sich auf eine Gesichtsbildverarbeitungsvorrichtung, und insbesondere auf eine Gesichtsbildverarbeitungsvorrichtung, die die Position und den Zustand von Augen erfasst, auf der Grundlage eines Gesichtsbildes, das ein Bild eines Gesichtes einer Person ist.
  • STAND DER TECHNIK
  • Im Stand der Technik sind Verfahren bekannt, nach denen Positionen und Zustände von Augen auf der Grundlage eines Gesichtsbildes erfasst werden, welches ein Bild eines Gesichtes einer Person ist. Beispielsweise offenbart JP-A-2001-022933 eine Gesichtsbildverarbeitungsvorrichtung, die präzise Nasenlöcher und Augen mit hoher Geschwindigkeit extrahiert, unter Verwendung eines zweidimensionalen Musters, das Charakteristika von Nasenlöchern und Augen zeigt, ohne von beigefügter Information beeinflusst zu werden. Die Gesichtsbildverarbeitungsvorrichtung schätzt eine Region, in der Augenkandidaten vorliegen, aus einem Gesichtsbild unter Verwendung des zweidimensionalen Musters, und extrahiert die Augenkandidaten durch Umwandeln der Augenkandidaten in der Region in Daten, die eine Mehrzahl von Helligkeitswerten enthalten. Ebenso ermittelt die Gesichtsbildverarbeitungsvorrichtung die Augen und Positionen der Augen durch Festlegen einer zweidimensionalen Schwerpunktposition von Pixeln der Augenkandidaten auf die Position der Augen in den extrahierten Kandidaten.
  • Ferner offenbart JP-A-H06-255388 eine Fahrzustandserfassungsvorrichtung, die zuverlässig einen Fahrzustand eines Fahrers erfasst, selbst wenn sich die Helligkeit ändert entsprechend der unterschiedlichen Reiseumstände, durch Verarbeiten eines erfassten Gesichtsbildes des Fahrers. Die Fahrzustandserfassungsvorrichtung erzeugt ein Zielgesichtsmuster und ein Zielaugenmuster für den Fahrer durch Regularisieren des erfassten Bildes des Fahrers und durch korrelierendes Berechnen des regulierten Bildes unter Verwendung eines Standardmusters, in dem Regionen eines Gesichtes und von Augen im Voraus definiert sind. Die Fahrzustandserfassungsvorrichtung führt eine Korrelationsberechnung durch mit Bezug auf das regulierte Bild unter Verwendung der Zielmuster, und erfasst den Fahrzustand des Fahrers auf der Grundlage der Änderung eines Korrelationswertes. Unabhängig von der Helligkeit der Umgebung kann ein anormaler Zustand wie etwa ein Eindösen oder eine Unaufmerksamkeit des Fahrers in verlässlicher Weise erfasst werden durch Durchführen der Regularisierung und der Korrelationsberechnung.
  • Ferner offenbart JP-A-2011-086051 eine Augenpositionserkennungsvorrichtung, die in der Lage ist, flexible auf individuelle Unterschiede zu reagieren durch reduzieren von Fehlerkennungen. Die Augenpositionserkennungsvorrichtung erfasst Randbilder beispielsweise durch Erfassen von Rändern in einem Gesichtsbild, berechnet einen Grad der Übereinstimmung einer konvexen halbkreisförmigen Form, aus der obere Augenlider simuliert werden, mit Muster und einer vorbestimmten Bildregion in dem Randbild, und ermittelt eine Bildregion, in der der Grad der Übereinstimmung größer oder gleich einem Schwellenwert ist, als Ort des Augenkandidaten. Dann werden Ränder der Positionen von Kandidaten zweier Augen, die gleichzeitig nach oben und nach unten bewegt werden, als Augenblinzeln identifiziert, und die Positionen der Kandidaten dieser Augen werden als Augenpositionen festgelegt.
  • Ferner offenbart JP-A-H09-276319 eine ophtalmische Stereoskop-Mikroskop-Vorrichtung mit dem Ziel, in qualitativer Weise eine Oberflächenform von zu untersuchenden Augen zu erhalten, indem Streifenmarkierungen beobachtet werden, die sich bei Verwendung von Polarisationslicht in den zu untersuchenden Augen zeigen. Falls die zu untersuchenden Augen in der ophtalmischen Stereoskop-Mikroskop-Vorrichtung mit Licht einer Lichtquelle erfasst werden, das durch eine Polarisationsscheibe oder dergleichen gesendet wurde, die als Polarisator dient, können verschiedene Streifenmuster beobachtet werden gemäß von jeweiligen Zuständen der Hornhaut, und Hornhautformen können aus den Streifenmustern ermittelt werden.
  • KURZZUSAMMENFASSUNG
  • Eine oder mehrere Ausführungsformen der Erfindung sehen eine Gesichtsbildverarbeitungsvorrichtung vor, die in präziser Weise Positionen oder Zustände von Augen auf der Grundlage eines Gesichtsbildes erfasst.
  • Gemäß einer oder mehreren Ausführungsformen der Erfindung ist eine Gesichtsbildverarbeitungsvorrichtung vorgesehen, welche umfasst: einen Beleuchtungsabschnitt mit einem ersten Polarisator, der Licht in einer ersten Richtung polarisiert, und einem Lichtemitter, der durch den ersten Polarisator Infrarotlicht emittiert; einen Bilderfassungsabschnitt mit einem zweiten Polarisator, der Licht in einer zweiten Richtung polarisiert, die senkrecht zur ersten Richtung verläuft, und einer Bilderfassungseinheit, die Bilder durch den zweiten Polarisator erfasst; und einem Bildverarbeitungsabschnitt, der Augenkandidaten erfasst unter Verwendung eines ersten Bildes, das durch den Bilderfassungsabschnitt erfasst wird, wenn der Beleuchtungsabschnitt das Infrarotlicht emittiert, und eines zweiten Bildes, das durch den Bilderfassungsabschnitt erfasst wird, wenn der Beleuchtungsabschnitt das Infrarotlicht nicht emittiert, wobei der Bildverarbeitungsabschnitt einen Augenkandidaten mit einem hyperbolischen Muster oder einem kreuzförmigen Muster, welches in dem ersten Bild vorliegt, aber nicht in dem zweiten Bild vorliegt, als ein Auge ermittelt. Außerdem ist eine Gesichtsbildverarbeitungsvorrichtung vorgesehen umfassend: einen ersten Beleuchtungsabschnitt mit einem ersten Polarisator, der Licht in einer ersten Richtung polarisiert, und einem ersten Lichtemitter, der durch den ersten Polarisator Infrarotlicht emittiert; einen zweiten Beleuchtungsabschnitt mit einem zweiten Lichtemitter, der Infrarotlicht emittiert; einen Bilderfassungsabschnitt mit einem zweiten Polarisator, der Licht in einer zweiten Richtung polarisiert, die senkrecht zu der ersten Richtung verläuft, und einer Bilderfassungseinheit, die Bilder durch den zweiten Polarisator erfasst; und einen Bildverarbeitungsabschnitt, der ein hyperbolisches Muster oder ein kreuzförmiges Muster, welches in einem ersten Bild vorliegt, aber in einem zweiten Bild nicht vorliegt, als ein Auge ermittelt, auf der Grundlage des durch den Bilderfassungsabschnitt erfassten ersten Bildes, wenn der erste Beleuchtungsabschnitt das Infrarotlicht emittiert, und des durch den Bilderfassungsabschnitt erfassten zweiten Bildes, wenn der zweite Beleuchtungsabschnitt das Infrarotlicht emittiert.
  • Somit können Positionen oder Zustände von Augen präzise erfasst werden durch Erfassen charakteristischer Muster, die nur in den Augen im Gesichtsbild zu sehen sind.
  • Die Bildverarbeitungsabschnitt kann ein Differenzbild erzeugen, welches einer Differenz zwischen dem ersten Bild und dem zweiten Bild entspricht, und wobei der Bildverarbeitungsabschnitt das Muster auf der Grundlage des Differenzbildes erfasst.
  • Somit kann der Einfluss von externem Licht im Differenzbild kompensiert werden, und so die Position der Augen weiter präzise erfasst werden.
  • Der Lichtemitter kann vorgesehen sein, um ein Gesicht eines Fahrers mit Licht zu beleuchten von einer Vorderseite des Fahrers, der ein Fahrzeug fährt, und der Bildverarbeitungsabschnitt kann ermitteln, dass der Fahrer nach vorne sieht, falls das Muster erfasst wird.
  • Somit ist es möglich, in verlässlicher Weise zu ermitteln, ob der Fahrer in normaler Weise fährt.
  • Gemäß einer oder mehrerer Ausführungsformen der Erfindung kann eine Gesichtsbildverarbeitungsvorrichtung vorgesehen werden, die ferner präzise Positionen oder Zustände von Augen auf der Grundlage des Gesichtsbildes erfasst.
  • KURZBESCHREIBUNG DER FIGUREN
  • 1 zeigt eine Außenansicht einer Gesichtsbildverarbeitungsvorrichtung einer ersten Ausführungsform der Erfindung;
  • 2A zeigt eine erläuternde Draufsicht, und 2B zeigt eine erläuternde Seitenansicht, wenn die Gesichtsbildverarbeitungsvorrichtung der ersten Ausführungsform der Erfindung in einem Fahrzeug vorgesehen ist;
  • 3 ist ein Blockschaltbild der Gesichtsbildverarbeitungsvorrichtung der ersten Ausführungsform der Erfindung;
  • 4 ist ein Zeitablaufdiagramm des Erfassens in der Gesichtsbildverarbeitungsvorrichtung der ersten Ausführungsform der Erfindung;
  • 5 ist ein Flussdiagramm und zeigt den vollständigen Betrieb der Gesichtsbildverarbeitungsvorrichtung der ersten Ausführungsform der Erfindung;
  • 6 ist ein Flussdiagramm und zeigt ein Verfahren zum Erfassen von Mustern in der Gesichtsbildverarbeitungsvorrichtung der ersten Ausführungsform der Erfindung;
  • 7A ist ein erstes Bild und 7B ist ein zweites Bild, welche durch die Gesichtsbildverarbeitungsvorrichtung der ersten Ausführungsform der Erfindung erfasst werden;
  • 8A ist ein Differenzbild des ersten Bildes und des zweiten Bildes und 8B ist eine erläuternde Ansicht von Augenkandidaten im Differenzbild, die durch die Gesichtsbildverarbeitungsvorrichtung der ersten Ausführungsform der Erfindung erfasst werden;
  • 9 ist eine erläuternde Ansicht und zeigt die Erkennung der Augen aus dem Differenzbild von erstem Bild und zweitem Bild, die durch die Gesichtsbildverarbeitungsvorrichtung der ersten Ausführungsform der Erfindung erfasst werden;
  • 10 ist eine erläuternde Ansicht eines Verfahrens zum Erfassen der Muster in der Gesichtsbildverarbeitungsvorrichtung der ersten Ausführungsform der Erfindung (Pixel in einer Umgebung eines bestimmten Augenkandidaten werden aus allen Pixeln extrahiert);
  • 11 ist eine Außenansicht einer Gesichtsbildverarbeitungsvorrichtung einer zweiten Ausführungsform der Erfindung;
  • 12A ist eine erläuternde Ansicht in Draufsicht und 12B ist eine erläuternde Ansicht in Seitenansicht, wenn die Gesichtsbildverarbeitungsvorrichtung der zweiten Ausführungsform der Erfindung in einem Fahrzeug vorgesehen ist;
  • 13 ist ein Blockschaltbild der Gesichtsbildverarbeitungsvorrichtung der zweiten Ausführungsform der Erfindung;
  • 14 ist ein Zeitablaufdiagramm des Erfassens in der Gesichtsbildverarbeitungsvorrichtung der zweiten Ausführungsform der Erfindung; und
  • 15 ist ein Flussdiagramm und zeigt den vollständigen Betrieb in der Gesichtsbildverarbeitungsvorrichtung der zweiten Ausführungsform der Erfindung.
  • DETAILLIERTE BESCHREIBUNG
  • In Ausführungsformen der Erfindung werden zahlreiche spezifische Details beschrieben, um ein tiefgehendes Verständnis der Erfindung zu ermöglichen. Dem Fachmann erschließt sich jedoch ohne weiteres, dass die Erfindung ohne diese spezifischen Details ausgeübt werden kann. An anderer Stelle wurden wohlbekannte Merkmale nicht detailliert beschrieben, um ein Verschleiern der Erfindung zu vermeiden.
  • Nachstehend werden Ausführungsformen der Erfindung beschrieben unter Bezugnahme auf die Figuren.
  • <Erste Ausführungsform>
  • Mit Bezugnahme auf die 1 bis 3 wird eine Gesichtsbildverarbeitungsvorrichtung 100 gemäß dieser Ausführungsform beschrieben. Um einen Fahrzustand eines Fahrers DR zu erfassen durch Erfassen von Bildern eines Gesichts des Fahrers DR, der ein Fahrzeug steuert, ist vorgesehen, dass Gesichtsbildverarbeitungsvorrichtung 100 Licht zum Gesicht scheint von einer Vorderseite des Fahrers DR, und Bilder Davon erfasst. Gesichtsbildverarbeitungsvorrichtung 100 ist mit Beleuchtungsabschnitt 10 und Bilderfassungsabschnitt 20 auf einer im Wesentlichen würfelförmigen Oberfläche vorgesehen, wobei diese Oberfläche dem Fahrer DR zugewandt ist und angeordnet ist in, beispielsweise, einem Griffschaftabschnitt in einem Griff WL, einem Instrumentenfeldabschnitt, einem Rückspiegel, oder dergleichen, derart dass ein Gesicht von Fahrer DR mit Licht beleuchtet und während der Fahrt erfasst wird.
  • Gesichtsbildverarbeitungsvorrichtung 100 ist mit Bilderfassungsabschnitt 20 vorgesehen, der ein Gesichtsbild erfasst, und Beleuchtungsabschnitt 10, der eingerichtet ist mit einer Mehrzahl von Lichtemittern 12, die angeordnet sind, um eine Umgebung von Bilderfassungsabschnitt 20 einzufassen. In Beleuchtungsabschnitt 10 von Gesichtsbildverarbeitungsvorrichtung 100 wird eine Infrarotlicht emittierende Leuchtdiode als Lichtemitter 12 verwendet, und in Bilderfassungsabschnitt 20 wird eine CCD-Kamera, die fähig ist, sichtbares Licht und Infrarotlicht zu erfassen, als Bilderfassungseinheit 22 verwendet, aber Gesichtsbildverarbeitungsvorrichtung 100 ist selbstverständlich nicht darauf beschränkt. Infrarotlicht wird verwendet, weil eine Person damit sowohl in der Nacht als auch am Tage weiterhin sehen kann.
  • Beleuchtungsabschnitt 10 umfasst einen ersten Polarisator 11, welcher eine Polarisation in einer ersten Richtung zusätzlich zu Lichtemitter 12 durchführt, und Lichtemitter 12 emittiert Infrarotlicht nach Außen durch den ersten Polarisator 11 zur Zeit des Emittierens des Infrarotlichts. Der Polarisator ist eine gewöhnliche Polarisationsplatte, welche eine Polarisationsoberfläche in einer vorbestimmten Richtung unter natürlichen Lichtstrahlen enthält, und welche transmittiertes Licht polarisiert. In dieser Ausführungsform, verglichen mit einer zweiten Richtung eines zweiten Polarisators 21, welcher in dem später beschriebenen Bilderfassungsabschnitt 20 angeordnet ist, umfasst der erste Polarisator 11, welcher Polarisation in der ersten Richtung durchführt, eine Polarisationsoberfläche in einer vertikalen Richtung.
  • Zusätzlich zu Bilderfassungseinheit 22 umfasst Bilderfassungsabschnitt 20 den zweiten Polarisator 21, welcher Polarisation in der zweiten Richtung senkrecht zu der ersten Richtung durchführt, das heißt, der zweite Polarisator 21, welcher die Polarisationsoberfläche in horizontaler Richtung umfasst, und Bilderfassungseinheit 22 empfangen Licht von außen durch den zweiten Polarisator 21 zum Zeitpunkt des Empfangens von Licht und des Erfassens eines Bildes. Deshalb polarisiert und empfängt Bilderfassungseinheit 22 reflektiertes Licht von Infrarotlicht, welches polarisiert und beleuchtet ist von Lichtemitter 12, und polarisiert und empfängt das reflektierte Licht von natürlichem Licht.
  • Gesichtsbildverarbeitungsvorrichtung 100 ist ferner vorgesehen mit Speicherabschnitt 50, welcher ein Bild speichert, das von Bilderfassungsabschnitt 20 erfasst worden ist, mit Bildverarbeitungsabschnitt 30, welcher Bildverarbeitung durchführt, um Augen und dergleichen zu erfassen auf der Grundlage des in Speicherabschnitt 50 gespeicherten Bildes, mit Externausgabeabschnitt 60 zum Ausgeben eines externen Mechanismus unter Verwendung eines Ergebnisses, welches durch Bildverarbeitungsabschnitt 30 verarbeitet worden ist, und mit Steuerabschnitt 40, welcher sämtliche Abschnitte steuert. Speicherabschnitt 50 ist, beispielsweise, ein Halbleiterspeicher, und Externausgabeabschnitt 60 ist ein Mikrocomputer und Steuerabschnitt 40 ist Steuerlogik, welche durch den Mikrocomputer verarbeitet wird.
  • Wie in 4 gezeigt empfängt Steuerabschnitt 40 von Gesichtsbildverarbeitungsvorrichtung 100 ein erstes Bild durch Erfassen des Gesichtes von Fahrer DR mit Bilderfassungsabschnitt 20, und speichert das erfasste Bild in Speicherabschnitt 50, während Lichtemitter 12 von Beleuchtungsabschnitt 10 Infrarotlicht emittiert und ein Gesicht von Fahrer DR beleuchtet. Ferner, nachdem Lichtemitter 12 von Beleuchtungsabschnitt 10 gestoppt wurde, Licht zu emittieren, gestattet Steuerabschnitt 40 Bilderfassungsabschnitt 20 kontinuierlich, das Gesicht von Fahrer DR lediglich mit natürlichem Licht zu erfassen, empfängt ein zweites Bild, und speichert das Bild in Speicherabschnitt 50. Nachdem das erste Bild und das zweite Bild in Speicherabschnitt 50 gespeichert sind, verarbeitet Bildverarbeitungsabschnitt 30 zwei Bilder derart, dass sie Augen und dergleichen erfasst, durch ein später zu beschreibendes Verfahren.
  • Unter Bezugnahme auf die 5 und 6 wird nun der Betrieb von Gesichtsbildverarbeitungsvorrichtung 100 beschrieben. Ferner bedeutet S in einem Flussdiagramm ”Schritt”. Steuerabschnitt 40 von Gesichtsbildverarbeitungsvorrichtung 100 beleuchtet das Gesicht des Fahrers mit Infrarotlicht durch Anschalten von Lichtemitter 12 in S100. Steuerabschnitt 40 gestattet Bilderfassungsabschnitt 20, Bilder des Gesichtes des Fahrers zu erfassen, während Lichtemitter 12 in S102 emittiert. Steuerabschnitt 40 gestattet Speicherabschnitt 50, das von Bilderfassungsabschnitt 20 erfasste Bild als das erste Bild in S104 zu speichern.
  • Im Folgenden wird unter Bezugnahme auf 7A das erste Gesichtsbild des Fahrers beschreiben. Wie im Stand der Technik beschrieben, falls durch den Polarisator erzeugtes Polarisationslicht auf die Hornhaut eines lebenden Organismus' fällt und die durch einen senkrecht zu dieser Polarisation angeordneten Polarisationsfilter erfasste Hornhaut beobachtet wird, ist bekannt, dass aufgrund von Anisotropien der Hornhaut ein hyperbolisches oder gekreuztes Streifenmuster im Zentrum der Hornhaut beobachtet wird. Somit liegen im ersten Bild hyperbolische Muster oder in einem Winkel von in der Figur um 45° geneigte kreuzförmige Muster in der Hornhaut des Auges des Fahrers vor, wie in der Figur gezeigt. Die Neigung des hyperbolischen Musters oder des kreuzförmigen Musters wird durch die Neigung des Gesichtes (Augen) des Fahrers nicht verändert, und ist entlang einer Polarisationsrichtung konstant (erste Richtung und zweite Richtung). Selbst wenn deshalb der Fahrer sein Gesicht auf eine Seite neigt, beispielsweise während des Erfassens, wenn die erste Richtung auf die vertikale Richtung gelegt ist und die zweite Richtung auf die horizontale Richtung gelegt ist, bleibt die Neigung des hyperbolischen Musters oder des kreuzförmigen Musters konstant und ändert sich nicht. Ob das Muster die hyperbolische Form oder die kreuzförmige Form annimmt, entspricht in etwa der Änderung einer Art des Musters entsprechend eines Winkels, unter dem eine Hornhaut mit gekrümmter Oberfläche beobachtet wird, und ist kein wesentlicher Unterschied.
  • Steuerabschnitt 40 schaltet Lichtemitter 12 in S106 ab. Steuerabschnitt 40 gestattet Bilderfassungsabschnitt 20, das Gesicht des Fahrers lediglich mit natürlichem Licht zu erfassen in S108. Steuerabschnitt 40 gestattet Speicherabschnitt 50, das von Bilderfassungsabschnitt 20 erfasste Bild als zweites Bild in S110 zu speichern. 7B zeigt das zweite Bild des Gesichtes des Fahrers, aber im zweiten Bild erfolgt das Erfassen lediglich mit natürlichem Licht, und so liegen charakteristische hyperbolische Muster oder kreuzförmige Muster nicht in der Hornhaut des Fahrers vor, selbst wenn das Erfassen durch den Polarisator 21 erfolgt.
  • Falls die zwei Bilder in Speicherabschnitt 50 gespeichert werden, erzeugt Bildverarbeitungsabschnitt 30 ein Differenzbild von erstem Bild und zweitem Bild in S112. Das Differenzbild ist vorzugsweise erhalten von einem Standpunkt, dass ein exaktes Bild erhalten werden kann, welches in der Lage ist, einen Bildabschnitt zu kompensieren, welcher durch Licht erzeugt wurde, welches erstem Bild und zweitem Bild gemein ist, das bedeutet, reflektiertes Licht von natürlichem Licht, welches selbst beim Anwenden von Infrarotlicht vorliegt. Deshalb wird das Differenzbild dieses Schrittes selektiv erzeugt, und der nächste Schritt kann ausgehend von nur dem ersten Bild oder dem zweiten Bild durchgeführt werden. 8A zeigt das Differenzbild, wobei in der Figur beispielsweise ein runder Bereich von dunklen Pixeln mit vorbestimmter Größe oder mehr als Augenkandidat gesetzt wird. Bildverarbeitungsabschnitt 30 extrahiert den Bildanteil, der den Augenkandidaten entspricht, aus dem erhaltenen Differenzbild, oder dem ersten Bild oder dem zweiten Bild in S114.
  • In S116 sucht Bildverarbeitungsabschnitt 30, ob es einen Bildanteil gibt, der zum Augenkandidaten wird, und falls es einen Bildanteil gibt, der zum Augenkandidaten wird, führt der Bildverarbeitungsabschnitt ein Musterextraktionsverfahren durch wie im Flussdiagramm von 6 gezeugt, um Muster aus dem Bildanteil zu extrahieren, der der Augenkandidat in S118 wird. 8B zeigt, dass Rundungen dunkler Pixel mit einer vorbestimmten Größe oder mehr, wie etwa Augen, Nasenlöcher und ein Mund als Augenkandidaten extrahiert werden. Bezüglich jedes Bildanteils, der darunter zum Augenkandidaten wird, wird folgendermaßen ermittelt, ob der Augenkandidat wirklich ein Auge ist oder nicht.
  • In S200 berechnet Bildverarbeitungsabschnitt 30 einen Helligkeitswert A von Pixeln an einer Oberseite, die fünf Pixel vom zentralen Pixel im Bildanteil liegt, welcher der Augenkandidat ist. Wenngleich fünf Pixel in der beschriebenen Ausführungsform verwendet werden, wird die Zahl der Pixel zum Fotografieren der Hornhaut einer Person angemessen bestimmt gemäß der Pixeldichte. In S202 berechnet Bildverarbeitungsabschnitt 30 einen Helligkeitswert B eines Pixels an einer Unterseite, die fünf Pixel vom zentralen Pixel im Bildanteil liegt, welcher der Augenkandidat ist. In S204 berechnet Bildverarbeitungsabschnitt 30 einen Helligkeitswert C des Pixels an der linken Seite, die fünf Pixel vom zentralen Pixel im Bildanteil liegt, welcher der Augenkandidat ist. In S206 berechnet Bildverarbeitungsabschnitt 30 den Helligkeitswert D des Pixels an der rechten Seite, die fünf Pixel vom zentralen Pixel im Bildanteil liegt, welcher der Augenkandidat ist. Wie in 10 gezeigt sind Pixel in der Oberseite, Unterseite, rechten Seite und linken Seite, die fünf Pixel vom zentralen Pixel im Bildanteil entfernt liegen, welcher der Augenkandidat ist, das heißt, Pixel, die beabstandet zur vertikalen Richtung und zur horizontalen Richtung liegen, einheitlich dunkle Pixel. Wie oben beschrieben ist dies konstant, so lange das Erfassen durchgeführt wird durch Festlegen einer Polarisationsrichtung in die erste Richtung und die zweite Richtung.
  • In Schritt S208 berechnet Bildverarbeitungsabschnitt 30 den Helligkeitswert E eines Pixels, der um fünf Pixel in der schräg oberen rechten Seite von den Pixeln im Zentrum des Bildanteils, der der Augenkandidat ist, liegt. In Schritt S210 berechnet Bildverarbeitungsabschnitt 30 einen Helligkeitswert F des Pixels, der um fünf Pixel in der schräg oberen linken Seite von den Pixeln im Zentrum des Bildanteils, der der Augenkandidat ist, liegt. In Schritt S212 berechnet Bildverarbeitungsabschnitt 30 einen Helligkeitswert G des Pixels, der um fünf Pixel in der schräg unteren rechten Seite von den Pixeln im Zentrum des Bildanteils, der der Augenkandidat ist, liegt. In Schritt S214 berechnet Bildverarbeitungsabschnitt 30 einen Helligkeitswert H des Pixels, der um fünf Pixel in der schräg unteren linken Seite von den Pixeln im Zentrum des Bildanteils, der der Augenkandidat ist, liegt. Wie in 10 gezeigt sind die Pixel, die jeweils um fünf Pixel in der schräg oberen rechten Seite, unteren rechten Seite, oberen linken Seite, und unteren linken Seite von den Pixeln im Zentrum des Bildanteils liegen, der der Augenkandidat ist, gemeinsam helle Pixel. Ebenso sind die Pixel konstant, so lange das Erfassen durchgeführt wird durch Festlegen einer Richtung des Polarisationslichtes in die erste Richtung und die zweite Richtung.
  • In Schritt S216 berechnet Bildverarbeitungsabschnitt 30 die Abweichung I der Helligkeitswerte A, B, C, und D. In Schritt S218 berechnet Bildverarbeitungsabschnitt 30 einen Mittelwert J der Helligkeitswerte A, B, C, und D. In Schritt S220 berechnet Bildverarbeitungsabschnitt 30 eine Abweichung K der Helligkeitswerte E, F, G, und H. In Schritt S222 berechnet Bildverarbeitungsabschnitt 30 einen Mittelwert L der Helligkeitswerte E, F, G, und H.
  • In Schritt S224 prüft Bildverarbeitungsabschnitt 30, ob Abweichung I innerhalb einer vorbestimmten Schwelle liegt, oder nicht. Da die hyperbolischen Muster oder die kreuzförmigen Muster wie oben beschrieben stets in einem bestimmten Winkel gezeigt sind, wird angenommen, dass falls die Abweichung der Helligkeit eines Pixels bei 90 Grad groß ist, die hyperbolischen Muster oder die kreuzförmigen Muster nicht gezeigt werden (oder anormale Werte annehmen). In Schritt S226 prüft Bildverarbeitungsabschnitt 30 in der gleichen Weise, ob Abweichung K innerhalb einer vorbestimmten Schwelle liegt. In Schritt S228 berechnet Bildverarbeitungsabschnitt 30 eine Differenz zwischen Mittelwert J und Mittelwert K. Ebenso prüft Bildverarbeitungsabschnitt 30 in Schritt S230, ob die Differenz zwischen Mittelwert J und Mittelwert K größer oder gleichen einer vorbestimmten Schwelle ist. Falls die hyperbolischen Muster oder die kreuzförmigen Muster gezeigt werden, zeigt sich dies als Differenz zwischen einem Mittelwert von dunklen Pixeln und einem Mittelwert von hellen Pixeln, und so liegt eine Differenz vor, die größer oder gleich einer vorbestimmten Schwelle ist.
  • Falls die Abweichungen I und K innerhalb einer vorbestimmten Schwelle liegen, und falls eine Differenz zwischen Mittelwert J und Mittelwert L größer oder gleich einer vorbestimmten Schwelle ist, ermittelt Bildverarbeitungsabschnitt 30 in Schritt S232, dass das hyperbolische Muster oder das kreuzförmige Muster in dem Bildanteil vorliegt, der der Augenkandidat ist. Falls andererseits Abweichung I oder Abweichung K nicht innerhalb einer vorbestimmten Schwelle liegt, und falls die Differenz zwischen Mittelwert J und Mittelwert L nicht größer oder gleich einer vorbestimmten Schwelle ist, ermittelt Bildverarbeitungsabschnitt 30 in Schritt S234, dass das hyperbolische Muster oder das kreuzförmige Muster nicht in dem Bildanteil, der der Augenkandidat ist, vorliegt.
  • In Schritt S120 prüft Bildverarbeitungsabschnitt 30, ob das hyperbolische Muster oder das kreuzförmige Muster in dem Bildanteil vorliegt, der der Augenkandidat ist, und falls ermittelt wird, dass das Muster vorliegt, wird in Schritt S122 ein solches charakteristisches Muster außer den Augen nicht gezeigt, so dass der Bildanteil, der dem Augenkandidat entspricht, wird als Bild des Auges ermittelt. Falls das Gesichtsbild durch das Differenzbild gezeigt wird, wird in diesem Fall wie in 9 gezeigt nur das hyperbolische Muster oder das kreuzförmige Muster, welches in der Hornhaut gezeigt wird, als Differenz gezeigt. Wie oben beschrieben kann der Einfluss von externem Licht im Differenzbild kompensiert werden durch Erfassen der hyperbolischen Muster oder der kreuzförmigen Muster auf der Grundlage des Differenzbildes, so dass eine Lage der Augen präzise erfasst werden kann. Falls ermittelt wird, dass das hyperbolische Muster oder das kreuzförmige Muster nicht in dem Bildanteil vorliegt, der der Augenkandidat ist, ermittelt Bildverarbeitungsabschnitt 30 ferner in Schritt S128, dass der Augenkandidat keinen Augen entspricht.
  • Gesichtsbildverarbeitungsvorrichtung 100 ist vorgesehen zum Erfassen von Bildern einer Vorderseite des Fahrers DR. Das Vorliegen der Hornhaut wird erkannt, so dass ermittelt wird, ob Fahrer DR nach vorne sieht, und Externausgabeabschnitt 60 gibt in Schritt S124 ein Ergebnis aus, welches anzeigt, dass Fahrer DR normal fährt während er nach vorne sieht. Nach einem vorbestimmten Pausenabschnitt T1 wird dann der oben beschriebene Schritt wiederholt (S126). Wenngleich die Augenkandidaten beim Wiederholen des Schrittes als Augen erkannt werden, ermittelt Gesichtsbildverarbeitungsvorrichtung 100 ferner, dass ein Zustand vorliegt, in dem Fahrer DR nicht nach vorne sieht, beispielsweise ein Zustand, in dem der Fahrer eindöst oder unaufmerksam ist, falls die Augenkandidaten nicht in Schritt S116 erfasst werden, oder falls die Hornhautmuster nicht in Schritt S120 erfasst werden. Auf diese Weise gibt Externausgabeabschnitt 60 in Schritt S130 ein Ergebnis aus, welches angibt, dass Fahrer DR fährt und dabei nicht normal nach vorne sieht.
  • Wie oben beschrieben erfasst Gesichtsbildverarbeitungsvorrichtung 100 die Augenkandidaten unter Verwendung des ersten Bildes, welches durch Bilderfassungsabschnitt 20 erfasst wird, wenn Beleuchtungsabschnitt 10 Infrarotlicht emittiert, und des zweiten Bildes, welches durch Bilderfassungsabschnitt 20 erfasst wird, wenn Beleuchtungsabschnitt 10 kein Infrarotlicht emittiert, und bestimmt die Augenkandidaten, welche hyperbolische Muster oder kreuzförmige Muster enthalten, welche im ersten Bild vorliegen, und welche im zweiten Bild nicht vorliegen. Wie oben beschrieben kann ein Ort oder ein Zustand des Auges präzise erfasst werden durch Erfassen des charakteristischen Musters, welches lediglich im Auge des Gesichtsbildes gezeigt ist.
  • <Zweite Ausführungsform>
  • Unter Bezugnahme auf die 11 bis 13 wird eine Gesichtsbildverarbeitungsvorrichtung 100A gemäß dieser Ausführungsform beschrieben. Um Wiederholungen zu vermeiden, sind die gleichen Bezugszeichen den gleichen Komponenten zugewiesen, wie denjenigen in der oben beschriebenen ersten Ausführungsform, und die Beschreibung wird sich auf die unterschiedlichen Komponenten konzentrieren. Gesichtsbildverarbeitungsvorrichtung 100A ist vorgesehen, Licht auf ein Gesicht zu senden, von einer Vorderseite des Fahrers DR, und führt einen Schritt des Erfassens durch, um einen Fahrzustand von Fahrer DR zu erkennen durch erfassen des Gesichtes von Fahrer DR, der ein Fahrzeug fährt. Gesichtsbildverarbeitungsvorrichtung 100A ist vorgesehen mit dem ersten Beleuchtungsabschnitt 10, einem zweiten Beleuchtungsabschnitt 10', und Bilderfassungsabschnitt 20 auf einer im wesentlichen würfelförmigen Oberfläche, wobei die Oberfläche dem Fahrer DR zugewandt ist, und beispielsweise in einem Handgriffabschnitt oder dergleichen in einem Griff WL angeordnet ist. Auf diese Weise wird das Gesicht des Fahrers DR mit Licht bestrahlt und während des Fahrens erfasst. Ferner sind in der Ausführungsform zwei Beleuchtungsabschnitte vorgesehen auf beiden rechten und linken Seiten von Bilderfassungsabschnitt 20, aber die Ausführungsform ist nicht darauf beschränkt. Die zwei Beleuchtungsabschnitte sind beispielsweise ringförmig in einer Umgebung von Bilderfassungsabschnitt 20 vorgesehen in der gleichen Weise wie in der oben beschriebenen ersten Ausführungsform. Der erste Lichtemitter 12, der zum ersten Beleuchtungsabschnitt 10 gehört, und ein zweiter Lichtemitter 12', der zu dem zweiten Beleuchtungsabschnitt 10' gehört, können abwechselnd angeordnet werden.
  • Der erste Lichtemitter 12 und der zweite Lichtemitter 12' sind Leuchtdioden, die Infrarotlicht emittieren. Der erste Beleuchtungsabschnitt 10 umfasst den ersten Lichtemitter 12 und den ersten Polarisator 11, der Licht in der ersten Richtung polarisiert, und der erste Lichtemitter 12 sendet Infrarotlicht nach Außen durch den ersten Polarisator 11 während das Infrarotlicht emittiert wird. Indes umfasst der zweite Beleuchtungsabschnitt 10' lediglich den zweiten Lichtemitter 12', und der zweite Lichtemitter 12' sendet Infrarotlicht direkt nach Außen, ohne das Infrarotlicht zu polarisieren.
  • Bilderfassungsabschnitt 20 umfasst Bilderfassungseinheit 22 und den zweiten Polarisator 21, der Licht in der zweiten Richtung polarisiert, die senkrecht zur ersten Richtung verläuft. Bilderfassungseinheit 22 empfängt Licht von außen durch den zweiten Polarisator 21 während Licht empfangen und ein Bild erfasst wird. Deshalb polarisiert und empfängt Bilderfassungseinheit 22 reflektiertes Licht des Infrarotlichtes, welches polarisiert ist, und welches gesendet wird durch den ersten Lichtemitter 12. Ferner polarisiert und empfängt Bilderfassungseinheit 22 reflektiertes Licht des Infrarotlichtes, welches direkt durch den zweiten Lichtemitter 12' und natürliches Licht gesendet wird.
  • Wie in 14 gezeigt gestattet Steuerabschnitt 40A Gesichtsbildverarbeitungsvorrichtung 100A, dass der erste Lichtemitter 12 des ersten Beleuchtungsabschnitts 10 Infrarotlicht emittiert, erfasst das erste Bild durch Erfassen des Gesichtes des Fahrers DR unter Verwendung des Bilderfassungsabschnitts 20 während des Beleuchten des Gesichtes von Fahrer DR mit dem Licht, und speichert das Bild in Speicherabschnitt 50. Nachdem der erste Lichtemitter 12 des ersten Beleuchtungsabschnitts 10 gestoppt wird, Licht zu emittieren, gestattet Steuerabschnitt 40A ferner dem zweiten Lichtemitter 12' des zweiten Beleuchtungsabschnitts 10', Infrarotlicht zu emittieren, erfasst das zweite Bild durch Erfassen des Gesichtes von Fahrer DR unter Verwendung von Bilderfassungsabschnitt 20 während des Beleuchten des Gesichtes von Fahrer DR mit Licht, und speichert das Bild in Speicherabschnitt 50. Nachdem das erste Bild und das zweite Bild in Speicherabschnitt 50 gespeichert sind, verarbeitet Bildverarbeitungsabschnitt 30A die zwei Bilder, und erfasst die Augen.
  • Unter Bezugnahme auf 15 wird im Folgenden der Betrieb von Gesichtsbildverarbeitungsvorrichtung 100A beschrieben. Steuerabschnitt 40A von Gesichtsbildverarbeitungsvorrichtung 100A gestattet dem ersten Lichtemitter 12, angeschaltet zu werden, und beleuchtet das Gesicht des Fahrers mit Infrarotlicht in Schritt S300. In Schritt S302 gestattet Steuerabschnitt 40A Bilderfassungsabschnitt 20, das Gesicht des Fahrers zu erfassen, während der erste Lichtemitter 12 Licht emittiert. In Schritt S304 speichert Steuerabschnitt 40A das Bild, welches durch Bilderfassungsabschnitt 20 erfasst worden ist, in Speicherabschnitt 50 als erstes Bild. Die hyperbolischen Muster oder die kreuzförmigen Muster liegen in dem ersten Bild vor, das in Speicherabschnitt 50 gespeichert wird, in der gleichen Weise, wie beim ersten Bild gespeichert gemäß der oben beschriebenen ersten Ausführungsform.
  • In Schritt S306 schaltet Steuerabschnitt 40A den ersten Lichtemitter 12 aus. In Schritt S308 beleuchtet Steuerabschnitt 40A das Gesicht des Fahrers mit Infrarotlicht durch Anschalten des zweiten Lichtemitters 12'. In Schritt S310 gestattet Steuerabschnitt 40A Bilderfassungsabschnitt 20, das Gesicht des Fahrers zu erfassen während der zweite Lichtemitter 12' Licht emittiert. In Schritt S312 gestattet Steuerabschnitt 40A Speicherabschnitt 50, die durch Bilderfassungsabschnitt 20 erfassten Bilder in dem zweiten Bild zu speichern. in dem in Speicherabschnitt 50 gespeicherten zweiten Bild liegen die charakteristischen hyperbolischen Muster oder kreuzförmigen Muster in der Hornhaut der Augen des Fahrers nicht in der gleichen Weise vor, als im zweiten Bild der oben beschriebenen ersten Ausführungsform. In Schritt S314 schaltet Steuerabschnitt 40A den zweiten Lichtemitter 12' aus.
  • Falls die zwei Bilder in Speicherabschnitt 50 gespeichert sind, erzeugt Bildverarbeitungsabschnitt 30A in Schritt S316 ein Differenzbild von erstem Bild und zweitem Bild. In dem Differenzbild sind lediglich die in der Hornhaut gezeigten hyperbolischen Muster oder die kreuzförmigen Muster gezeigt, wie in 9 dargestellt. In Schritt S318 extrahiert Bildverarbeitungsabschnitt 30A charakteristische Muster durch ein Mustervergleichverfahren oder dergleichen. Falls Bildverarbeitungsabschnitt 30A prüft, ob das hyperbolische Muster oder das kreuzförmige Muster in dem Differenzbild vorliegen, wird in Schritt S320 ermittelt, dass ein Muster vorliegt. Da die charakteristischen Muster außer den Augen nicht gezeigt sind, wird in Schritt S322 ermittelt, dass ein Bereich, in dem das Muster vorliegt, ein Auge ist. Falls das hyperbolische Muster oder das kreuzförmige Muster nicht in dem Differenzbild vorliegen, ermittelt Bildverarbeitungsabschnitt 30A ferner in Schritt S328, dass die Augen nicht erfasst werden können.
  • Gesichtsbildverarbeitungsvorrichtung 100A ist vorgesehen, von einer Vorderseite von Fahrer DR zu erfassen. Falls es möglich ist, das Vorliegen der Hornhaut zu erfassen, wird festgestellt, dass sich Fahrer DR in einem Zustand des Nach-Vorne-Sehens befindet. Deshalb gibt Externausgabeabschnitt 60 in Schritt S324 ein Ergebnis aus, welches angibt, dass Fahrer DR fährt und dabei normal nach vorne sieht. Ebenso werden in einem vorbestimmten Pausenzeitabschnitt T1 die beschriebenen Schritte wiederholt (S326). Falls die Hornhautmuster in Schritt S320 nicht erfasst werden können, stellt Gesichtsbildverarbeitungsvorrichtung 100A einen Zustand fest, in welchem Fahrer DR nicht nach vorne sieht, beispielsweise einen Zustand, in welchem der Fahrer eindöst oder unaufmerksam ist, obwohl die Muster beim Wiederholen der Schritte vorliegen. Externausgabeabschnitt 60 gibt in Schritt S330 ein Ergebnis aus, welches anzeigt, dass Fahrer DR beim Fahren nicht normal nach vorne sieht.
  • Wie oben beschrieben erfasst Gesichtsbildverarbeitungsvorrichtung 100A die hyperbolischen Muster oder die kreuzförmigen Muster, die nicht in dem zweiten Bild vorliegen, die aber in dem ersten Bild vorliegen, als Auge, auf der Grundlage des durch Bilderfassungsabschnitt 20 erfassten ersten Bildes unter Verwendung von reflektiertem Licht des Infrarotlichtes, welches polarisiert wird während des Emittierens des Infrarotlichtes durch den ersten Beleuchtungsabschnitt 10, und des durch Bilderfassungsabschnitt 20 erfassten zweiten Bildes unter Verwendung von reflektiertem Licht von Infrarotlicht, welches nicht polarisiert ist während Infrarotlicht durch den zweiten Beleuchtungsabschnitt 10' polarisiert worden ist. Wie oben beschrieben können Orte oder Zustände von Augen präzise erfasst werden, indem charakteristische Muster erfasst werden, die sich nur in den Augen des Gesichtsbildes zeigen.
  • Die Erfindung ist darüber hinaus nicht beschränkt auf die beispielhaften Ausführungsformen, und kann ausgeführt werden mit einer Anordnung, die sich im Einklang mit den Ansprüchen befindet. Das heißt bezüglich der einen oder mehreren Ausführungsformen der Erfindung ist im Wesentlichen eine bestimmte Ausführungsform näher ausgeführt und beschrieben, es wird jedoch nicht abgewichen von einem Umfang des technischen Kerns und Gegenstandes der einen oder mehreren Ausführungsformen der Erfindung, Zahlen oder detaillierte Anordnungen. Der Fachmann kann verschiedene Modifikationen bezüglich der oben beschriebenen Ausführungsformen vornehmen.
  • Beispielsweise wird in den oben beschriebenen Ausführungsformen das Gesichtsbild des Fahrers eines Fahrzeugs erfasst, aber ein Gesichtsbild anderer Personen kann ebenso erfasst werden, wie etwa ein Gesichtsbild des Bedieners von wichtigen Einheiten.
  • Wenngleich die Erfindung beschrieben worden ist unter Bezugnahme auf eine beschränkte Zahl von Ausführungsformen, erkennt der Fachmann im Lichte dieser Offenbarung, dass andere Ausführungsformen umgesetzt werden können, die vom Wesen und Kern der hier offenbarten Erfindung nicht abweichen. Der Schutzbereich der Erfindung wird dementsprechend nur durch die beigefügten Ansprüche definiert.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2016-043063 [0001]
    • JP 2001-022933 A [0003]
    • JP 06-255388 A [0004]
    • JP 2011-086051 A [0005]
    • JP 09-276319 A [0006]

Claims (4)

  1. Gesichtsbildverarbeitungsvorrichtung umfassend: einen Beleuchtungsabschnitt mit einem ersten Polarisator, der Licht in einer ersten Richtung polarisiert, und einem Lichtemitter, der durch den ersten Polarisator Infrarotlicht emittiert; einen Bilderfassungsabschnitt mit einem zweiten Polarisator, der Licht in einer zweiten Richtung polarisiert, die senkrecht zur ersten Richtung verläuft, und einer Bilderfassungseinheit, die Bilder durch den zweiten Polarisator erfasst; und einem Bildverarbeitungsabschnitt, der Augenkandidaten erfasst unter Verwendung eines ersten Bildes, das durch den Bilderfassungsabschnitt erfasst wird, wenn der Beleuchtungsabschnitt das Infrarotlicht emittiert, und eines zweiten Bildes, das durch den Bilderfassungsabschnitt erfasst wird, wenn der Beleuchtungsabschnitt das Infrarotlicht nicht emittiert, wobei der Bildverarbeitungsabschnitt einen Augenkandidaten mit einem hyperbolischen Muster oder einem kreuzförmigen Muster, welches in dem ersten Bild vorliegt, aber nicht in dem zweiten Bild vorliegt, als ein Auge ermittelt.
  2. Gesichtsbildverarbeitungsvorrichtung umfassend: einen ersten Beleuchtungsabschnitt mit einem ersten Polarisator, der Licht in einer ersten Richtung polarisiert, und einem ersten Lichtemitter, der durch den ersten Polarisator Infrarotlicht emittiert; einen zweiten Beleuchtungsabschnitt mit einem zweiten Lichtemitter, der Infrarotlicht emittiert; einen Bilderfassungsabschnitt mit einem zweiten Polarisator, der Licht in einer zweiten Richtung polarisiert, die senkrecht zu der ersten Richtung verläuft, und einer Bilderfassungseinheit, die Bilder durch den zweiten Polarisator erfasst; und einen Bildverarbeitungsabschnitt, der ein hyperbolisches Muster oder ein kreuzförmiges Muster, welches in einem ersten Bild vorliegt, aber in einem zweiten Bild nicht vorliegt, als ein Auge ermittelt, auf der Grundlage des durch den Bilderfassungsabschnitt erfassten ersten Bildes, wenn der erste Beleuchtungsabschnitt das Infrarotlicht emittiert, und des durch den Bilderfassungsabschnitt erfassten zweiten Bildes, wenn der zweite Beleuchtungsabschnitt das Infrarotlicht emittiert.
  3. Gesichtsbildverarbeitungsvorrichtung nach Anspruch 1 oder 2, wobei der Bildverarbeitungsabschnitt ein Differenzbild erzeugt, welches einer Differenz zwischen dem ersten Bild und dem zweiten Bild entspricht, und wobei der Bildverarbeitungsabschnitt das Muster auf der Grundlage des Differenzbildes erfasst.
  4. Gesichtsbildverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 3, wobei der Lichtemitter vorgesehen ist, um ein Gesicht eines Fahrers mit Licht zu beleuchten von einer Vorderseite des Fahrers, der ein Fahrzeug fährt, und wobei der Bildverarbeitungsabschnitt ermittelt, dass der Fahrer nach vorne sieht, falls das Muster erfasst wird.
DE102017203649.4A 2016-03-07 2017-03-07 Gesichtsbildverarbeitungsvorrichtung Pending DE102017203649A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016043063A JP6651911B2 (ja) 2016-03-07 2016-03-07 顔画像処理装置
JP2016-043063 2016-03-07

Publications (1)

Publication Number Publication Date
DE102017203649A1 true DE102017203649A1 (de) 2017-09-07

Family

ID=59650889

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017203649.4A Pending DE102017203649A1 (de) 2016-03-07 2017-03-07 Gesichtsbildverarbeitungsvorrichtung

Country Status (4)

Country Link
US (1) US10223577B2 (de)
JP (1) JP6651911B2 (de)
CN (1) CN107169403B (de)
DE (1) DE102017203649A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7060790B2 (ja) * 2018-02-06 2022-04-27 ミツミ電機株式会社 カメラおよび乗員検知システム
JP6650118B2 (ja) * 2018-03-15 2020-02-19 オムロン株式会社 乗員監視装置
US10559269B2 (en) 2018-03-30 2020-02-11 Panasonic Liquid Crystal Display Co., Ltd. Viewing position adapting multi-panel electronic display device
CN109614962B (zh) * 2019-01-24 2022-11-18 深圳市梦网视讯有限公司 一种偏光光源人脸图像检测方法和系统
WO2020188689A1 (ja) * 2019-03-18 2020-09-24 三菱電機株式会社 運転者状態監視装置及び運転者状態監視方法
CN112763493A (zh) * 2019-11-05 2021-05-07 华硕电脑股份有限公司 外观取像装置及包含其的外观检测装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06255388A (ja) 1993-03-09 1994-09-13 Toyota Motor Corp 運転状態検出装置
JPH09276319A (ja) 1996-04-12 1997-10-28 Canon Inc 眼科用実体顕微鏡装置
JP2001022933A (ja) 1999-07-07 2001-01-26 Mitsubishi Electric Corp 2次元テンプレートを用いた顔画像処理装置
JP2011086051A (ja) 2009-10-14 2011-04-28 Fujitsu Ltd 眼位置認識装置
JP2016043063A (ja) 2014-08-22 2016-04-04 Kpe株式会社 遊技機

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100370473C (zh) * 2002-04-26 2008-02-20 马堃 用于人像识别的人像摄取方法
US8264490B2 (en) * 2008-01-31 2012-09-11 University Of Southern California Practical modeling and acquisition of layered facial reflectance
US7091471B2 (en) * 2004-03-15 2006-08-15 Agilent Technologies, Inc. Using eye detection for providing control and power management of electronic devices
US20110170060A1 (en) * 2010-01-08 2011-07-14 Gordon Gary B Gaze Tracking Using Polarized Light
JP2015194884A (ja) * 2014-03-31 2015-11-05 パナソニックIpマネジメント株式会社 運転者監視システム
EP3236199A4 (de) * 2014-12-15 2018-06-06 Sony Corporation Anordnung einer bilderfassungsvorrichtung, dreidimensionale formvermessungsvorrichtung und bewegungsdetektionsvorrichtung
US10306156B2 (en) * 2015-11-30 2019-05-28 Photopotech LLC Image-capture device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06255388A (ja) 1993-03-09 1994-09-13 Toyota Motor Corp 運転状態検出装置
JPH09276319A (ja) 1996-04-12 1997-10-28 Canon Inc 眼科用実体顕微鏡装置
JP2001022933A (ja) 1999-07-07 2001-01-26 Mitsubishi Electric Corp 2次元テンプレートを用いた顔画像処理装置
JP2011086051A (ja) 2009-10-14 2011-04-28 Fujitsu Ltd 眼位置認識装置
JP2016043063A (ja) 2014-08-22 2016-04-04 Kpe株式会社 遊技機

Also Published As

Publication number Publication date
JP6651911B2 (ja) 2020-02-19
CN107169403B (zh) 2021-10-22
JP2017161965A (ja) 2017-09-14
US10223577B2 (en) 2019-03-05
US20170255819A1 (en) 2017-09-07
CN107169403A (zh) 2017-09-15

Similar Documents

Publication Publication Date Title
DE102017203649A1 (de) Gesichtsbildverarbeitungsvorrichtung
DE102007056528B3 (de) Verfahren und Vorrichtung zum Auffinden und Verfolgen von Augenpaaren
DE19614975C2 (de) Gesichtsbildverarbeitungssystem
DE60220494T2 (de) Verfahren zur Iriserkennung und System unter Verwendung desselben
EP3542211A1 (de) Verfahren und vorrichtung sowie computerprogramm zum ermitteln einer repräsentation eines brillenglasrands
DE102016206010B4 (de) Systeme und Verfahren zur Klassifizierung und Angleichung von hochgradig ähnlichen oder selbstähnlichen Mustern
EP2711869A2 (de) Verfahren und Vorrichtung zur Aufnahme von Fingerabdrücken auf Basis von Fingerabdruckscannern in zuverlässig hoher Qualität
DE102011081668A1 (de) Vorrichtung und Verfahren zur Bestimmung der Form des Endes einer Schweißnaht
DE10333794A1 (de) Verfahren und Vorrichtung zur Online-Kontaktlinsenbewertung
EP3425560B1 (de) Vorrichtung und verfahren zur erfassung von biometrischen merkmalen eines gesichts einer person
WO2019002114A1 (de) Vorrichtung und verfahren zum rundum-inspizieren von behältnissen am transportband
DE102018202051A1 (de) Vorrichtung zum automatischen Prüfen von Linsen und Verfahren zum automatischen Prüfen einer Vielzahl von Linsen
CH713061B1 (de) System und Verfahren zur berührungslosen biometrischen Authentifizierung.
EP3089106A1 (de) Verfahren zur reflexionskorrektur von abbildungen und diesbezügliche vorrichtungen
EP2787485B1 (de) Verfahren und Vorrichtung zur automatischen Fehlerstellenerkennung bei biegeschlaffen Körpern
DE102019103197A1 (de) Insassenüberwachungsvorrichtung
DE102021115002A1 (de) Werkstückinspektions- und fehlererkennungssystem einschliesslich überwachung der werkstückbilder
DE102016109030A1 (de) Verfahren zum Bewerten eines Scheinwerfers
DE102013226725A1 (de) Verfahren und system für das erkennen einer handgeste, wobei selektive beleuchtung benutzt wird
DE102020117060B4 (de) Vorrichtung und Verfahren zur Umfelderfassung eines Fahrzeugs
WO2017162329A1 (de) Verfahren und vorrichtung zur ermittlung von 3d-koordinaten zumindest eines vorbestimmten punktes eines objekts
DE112020001064T5 (de) System und verfahren zur einstellbaren produktionslinienprüfung
EP3320681A1 (de) Verfahren und vorrichtung zum abtasten von oberflächen mit einer stereokamera
DE102011009261A1 (de) Verfahren und Vorrichtung zur Bestimmung der Rotationsparameter der Augen
DE102016109027A1 (de) Verfahren zur Lageüberprüfung charakteristischer Punkte in Lichtverteilungen

Legal Events

Date Code Title Description
R081 Change of applicant/patentee

Owner name: OMRON CORPORATION, JP

Free format text: FORMER OWNER: OMRON AUTOMOTIVE ELECTRONICS CO., LTD., KOMAKI-SHI, AICHI, JP

R082 Change of representative

Representative=s name: KILIAN KILIAN & PARTNER MBB PATENTANWAELTE, DE

R012 Request for examination validly filed