DE19609455A1 - Erfassung des geöffneten/geschlossenen Zustands von Augen auf der Grundlage einer Untersuchung der Beziehung zwischen Augen- und Augenbrauenbildern in Eingangs-Gesichtsbildern - Google Patents

Erfassung des geöffneten/geschlossenen Zustands von Augen auf der Grundlage einer Untersuchung der Beziehung zwischen Augen- und Augenbrauenbildern in Eingangs-Gesichtsbildern

Info

Publication number
DE19609455A1
DE19609455A1 DE19609455A DE19609455A DE19609455A1 DE 19609455 A1 DE19609455 A1 DE 19609455A1 DE 19609455 A DE19609455 A DE 19609455A DE 19609455 A DE19609455 A DE 19609455A DE 19609455 A1 DE19609455 A1 DE 19609455A1
Authority
DE
Germany
Prior art keywords
image
eye
eyebrow
face
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19609455A
Other languages
English (en)
Other versions
DE19609455C2 (de
Inventor
Tomoko Okumura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE19609455A1 publication Critical patent/DE19609455A1/de
Application granted granted Critical
Publication of DE19609455C2 publication Critical patent/DE19609455C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Description

Die vorliegende Erfindung betrifft allgemein die Bildmustererkennung, und insbesondere Gesichtsbild-Bearbeitungssysteme mit einer Erfassung und Überwachung des geöffneten oder geschlossenen Zustands zumindest eines Augenbildes, welches unter Verwendung von Gesichtsbild-Verarbeitungsverfahren herausgezogen wird. Weiterhin betrifft die vorliegende Erfindung eine Gesichtsbild-Verarbeitungsvorrichtung zur Verwendung in Sicherheitssystemen, die dazu dient, die sichere Fortsetzung angestrebter Handarbeiten dadurch sicherzustellen, daß beim Auftreten des Einschlafens oder Schlafens während der Arbeit ein Alarm ausgelöst wird.
Als eines von Bildmustererkennungsverfahren weist ein Gesichtsbild-Verarbeitungssystem einen weiten Einsatzbereich auf, beispielsweise bei einer Vorrichtung zur Erfassung des Einschlafens einer Person, beispielsweise des Fahrers eines Kraftfahrzeugs, durch Überwachung des offenen/geschlossenen Zustands seiner oder ihrer Augen (im Falle einer Fahrerin). Ein derartiges Fahrerzustandsüberwachungssystem wurde beispielsweise in der veröffentlichten, ungeprüften japanischen Patentanmeldung Nr. 6-227278 beschrieben, und ist insgesamt so wie in Fig. 33 gezeigt ausgebildet. Die Vorrichtung nach dem Stand der Technik gemäß Fig. 33 weist einen Bildeingabeabschnitt 82 auf, um ein eingegebenes Gesichtsbild eines Fahrers zu erhalten, einen Digitalisierer 83 zum Digitalisieren des von dem Gesichtseingabeabschnitt 82 erhaltenen Bilds zur Erzeugung eines binären Gesichtsbildsignals, und eine Augapfelvorhandenseinsbereichs Einstellvorrichtung 56 zur Bestimmung des exakten Ortes eines Augapfelbildbereichs in dem binären Gesichtsbild. Ein Detektor 57 für den offenen/geschlossenen Zustand des Auges ist so ausgebildet, daß er den geöffneten oder geschlossenen Zustand eines Auges innerhalb des so ermittelten Augapfelvorhandenseinsbereichs feststellt. Der Detektor 57 ist an eine Fahrzustands-Identifizierungsvorrichtung 86 angeschlossen, welche den momentanen Zustand des Fahrer s auf der Grundlage des sich ergebenden Musters des geöffneten/geschlossenen Auges feststellt, welches von dem Detektor 57 für das geschlossene/geöffnete Auge festgestellt wird. Eine Ermittlungsfehler-Identifizierungsvorrichtung 84 ist dazu vorgesehen, das Auftreten irgendeines Fehlers bei der Ermittlung des Augapfelvorhandenseinsbereichs festzustellen, auf der Grundlage der Erfassungsergebnisse des Detektors 57 für den offenen/geschlossenen Zustand. Weiterhin ist eine Rücksetzvorrichtung 85 vorgesehen, um den Augenvorhandenseinsbereich in Reaktion auf die Erfassungsfehler-Identifizierungsergebnisse zu modifizieren oder zu aktualisieren.
Der Betriebsablauf der aus dem Stand der Technik bekannten Vorrichtung wird unter Bezugnahme auf die Fig. 33 bis 36 beschrieben. Wenn ein Gesichtsbild eines betreffenden Fahrers erhalten und von dem Bildeingabeabschnitt 62 eingegeben wird, wird das sich ergebende Gesichtsbild dann dem Digitalisierer 83 zugeführt, der es zur Erzeugung eines binären Gesichtsbildsignals digitalisiert. Dieses Bildsignal wird der Augapfelvorhandenseinsbereichs-Einstellvorrichtung 56 zugeführt, welche aus dem Gesichtsbild einen Augapfelbildabschnitt heraus zieht, um den Ort dieses Augapfels zu bestimmen und einzustellen, also den dort vorhandenen Augapfelvorhandenseinsbereich. Die Ermittlung des geöffneten oder geschlossenen Zustands durch den hierfür vorgesehenen Detektor 57 wird innerhalb eines Fensters 58 (sh. Fig. 34) durchgeführt, welches aus dem Gesichtsbild herausgenommen wird, so daß es den Augapfelbildabschnitt enthält, der durch die Augapfelvorhandenseinsbereichs-Einstellvorrichtung 56 eingestellt wird. Der Detektor 57 für den geöffneten/geschlossenen Zustand kann als Feststellungsverfahren für den geöffneten/geschlossenen Zustand eine von zwei unterschiedlichen Vorgehensweisen einsetzen, wie nachstehend noch genauer erläutert wird.
Bei einer ersten Vorgehensweise zur Ermittlung des offenen/geschlossenen Zustands eines Auges wird eine Iris in dem Gesichtsbildfenster 58 von Fig. 3 festgestellt, welches den Augapfelvorhandenseinsbereich darstellt. Wie aus Fig. 35 hervorgeht, kann diese Iris dadurch festgestellt werden, daß (i) ein bestimmter Kreis 59, der durch einen vorgegebenen Punkt (x, y) als Zentrum definiert wird, innerhalb des Fensters 58 definiert wird, sowie vier schlitzförmige, rechteckige Markierungen 60, die von dem Zentrumspunkt (x, y) in vier Radialrichtungen ausgehen, (ii) jede mögliche Differenz bei der Gesamtsumme der Helligkeitswerte jeweiliger weißer Abschnitte der rechteckigen Markierungen 60 und von deren schraffierten Abschnitten berechnet wird, und (iii) als das Iriszentrum ein Punkt bestimmt wird, der eine maximale Helligkeitsdifferenz zeigt.
Die Erfassung des geöffneten/geschlossenen Zustands des Auges wird auf der Grundlage der Erfassung einer derartigen maximalen Helligkeitsdifferenz an dem so bestimmten Iriszentrum durchgeführt. Wenn zu diesem Zeitpunkt für einen vorbestimmten Zeitraum keine maximale Helligkeitsdifferenz festgestellt wird, stellt dann die Erfassungsfehler-Identifizierungsvorrichtung 84 fest, daß die Augenerfassung versagt, und ein Erfassungsfehler oder Meßfehler aufgetreten ist. Sobald ein derartiger Augenerfassungsfehler stattfindet, zwingt die Rücksetzvorrichtung 85 die Augapfelvorhandenseinsbereichs-Einstellvorrichtung 56 zu einer Rücksetzung des Augapfelvorhandenseinsbereichs.
Eine zweite Vorgehensweise zur Erfassung des offenen/geschlossenen Zustands des Auges ist folgendermaßen. Wie aus Fig. 36 hervorgeht, wird das Augenfenster 58 vertikal abgetastet, um nach irgendwelchen durchgehenden schwarzfarbigen Bildelementen (Pixeln) zu suchen, um ein Augapfelbild zu erfassen, und um hierdurch einen spezifischen Bildabschnitt aufzufinden, der aus einer Maximalanzahl 63 durchgehender schwarzer Pixel besteht. Die Berechnung dieser maximalen durchgehenden Anzahl schwarzer Pixel 63 wird wiederholt in Bezug auf mehrere Bilder durchgeführt; die sich hierbei ergebenden Maximal- und Minimalwerte werden zur Einstellung eines geeigneten Schwellenwertes verwendet. Nachdem der Schwellenwert eingestellt wurde, kann der geöffnete/geschlossene Zustand eines Auges oder mehrerer Augen dadurch festgestellt werden, daß die maximale Anzahl 63 durchgehender schwarzer Pixel mit dem Schwellenwert verglichen wird. Zu diesem Zeitpunkt kann die Erfassungsfehler-Identifizierungsvorrichtung 84 feststellen, daß während eines vorbestimmten Zeitraums die maximale Anzahl 63 durchgehender schwarzer Pixel unverändert bleibt; falls dies der Fall ist, wird daraus geschlossen, daß keine korrekte Augenerfassung erfolgt. In Reaktion auf die Bestimmung eines derartigen Augapfel-Erfassungsfehlers veranlaßt die Rücksetzvorrichtung 85 dann die Augapfelvorhandenseinsbereichs-Einstellvorrichtung 56 zur Durchführung eines Augapfelvorhandenseinsbereichs-Rücksetzvorgangs, also zur Wiederholung eines entsprechenden Augapfelvorhandenseinsbereichs-Einstellvorgangs in Bezug auf einen unterschiedlichen Gesichtsbildbereich.
Wie aus der voranstehenden Erläuterung deutlich wird, ist die Vorrichtung nach dem Stand der Technik so aufgebaut, daß sie die erforderliche Information, die zur Bestimmung verwendet wird, ob ein Fahrer einschläft oder nicht, dadurch erlangt, daß Variationen eines Irisabschnitts untersucht werden, der aus einem Augenfenster festgestellt wird, welches aus einem binären Gesichtsbild stammt. Alternativ hierzu ist die Vorrichtung nach dem Stand der Technik so ausgebildet, daß sie (i) einen möglichen Augapfelvorhandenseinsbereich erfaßt, aus welchem die Information erhältlich ist, ob ein Fahrer einschläft, durch vertikale Abtastung des Augenfensters 58 zur Suche nach einer Reihe durchgehender schwarzer Bildpunkte darin, (ii) die maximale Anzahl durchgehender schwarzer Pixel berechnet wird, und (iii) schließlich bestimmt wird, ob die Augapfelerfassung erfolgreich ist oder nicht, durch Analyse überwachter Änderungen der Anzahl durchgehender schwarzer Bildpunkte während eines vorbestimmten Zeitraums.
Ein Nachteil bei diesem Stand der Technik besteht darin, daß die Augapfelerfassung instabil ist, und darüber hinaus weniger verläßlich, aus folgenden Gründen. Bei einem erfaßten Gesichtsbild eines Fahrers können Schatten auftreten, infolge von Änderungen von Bildaufnahmelichtstrahlen, die auf das Gesicht des Fahrers auftreffen, und/oder infolge von Änderungen der Ausrichtung des Gesichts des Fahrers zum Zeitpunkt der Bildaufnahme. Wenn dies der Fall ist, kann der binäre Augapfelvorhandenseinsbereich, der aus einem digitalisierten Gesichtsbild herausgezogen wurde, instabil werden, was dazu führt, daß ein gewünschtes Augapfelbild seine Position gegenüber dem eigentlichen Ort verschiebt, oder ein Augapfelbild zu einer Ellipsenform verformt wird. Wenn die Ermittlung des geöffneten/geschlossenen Zustands eines Auges durch Erfassung eines Irisbildes in einem derartig instabilen Zustand durchgeführt wird, ist die Vorrichtung nach dem Stand der Technik unfähig, das Auftreten von Erfassungsfehlern zu unterdrücken oder auszuschalten.
Ein weiterer Nachteil des Standes der Technik besteht darin, daß ein fehlerhafter Schwellenwert möglicherweise eingestellt werden kann, abhängig von dem aktuellen binären Zustand eines eingegebenen Gesichtsbildes, wodurch die Erfassung des geöffneten/geschlossenen Zustands infolge der Tatsache versagt, daß die Vorrichtung nach dem Stand der Technik sich nur auf einen Augenabschnitt des Augapfelvorhandenseinsbereichs in dem eingegebenen Gesichtsbild konzentriert und einen Schwellenwert mit einem derartigen Augenabschnitt als Bezugsgröße festlegt.
Ein Ziel der vorliegenden Erfindung besteht daher in der Bereitstellung eines neuen und verbesserten Gesichtsbild-Bearbeitungsverfahrens.
Ein weiteres Ziel der Erfindung besteht in der Bereitstellung einer neuen und verbesserten Gesichtsbild-Verarbeitungsvorrichtung, welche den geöffneten oder geschlossenen Zustand eines Auges mit höherer Genauigkeit bestimmen kann.
Ein weiteres Ziel der Erfindung besteht in der Bereitstellung einer neuen und verbesserten Gesichtsbild- Bearbeitungsvorrichtung, welche exakt den geöffneten/geschlossenen Zustand des Auges eines Fahrers unter Verwendung bestimmter Information feststellen kann, nämlich von Änderungen von Relativpositionen eines Augenbildes und eines Augenbrauenbildes, deren Zustand sich innerhalb eines erfaßten, eingegebenen Gesichtsbildes nicht ändern.
Entsprechend den voranstehend angegebenen Zielen richtet sich die vorliegende Erfindung auf ein spezifisches Gesichtsbild-Verarbeitungssystem, welches den geöffneten oder geschlossenen Zustand zumindest eines Auges einer überwachten Person erfaßt, durch Analyse der Positionsbeziehung zwischen einem Augenbild und dessen zugeordnetem Augenbrauenbild in einem eingegebenen Gesichtsbild, statt nur den Zustand eines bloßen Irisbildes zu erfassen.
Gemäß einer Zielrichtung der vorliegenden Erfindung weist eine Gesichtsbild-Verarbeitungsvorrichtung einen Eingabeabschnitt zur Annahme eines Eingangs/Gesichtsbildes einer Person auf, eine Augenherausziehbereichs-Einstellvorrichtung zur Bestimmung eines Augenherausziehbereiches innerhalb des Eingangs-Gesichtsbilds, eine Herausziehvorrichtung zum Herausziehen aus dem Augenherausziehbereich erster und zweiter Bildkomponenten entsprechend einem Augenbrauenbild bzw. einem Augenbild, einen ersten Detektor zur Erfassung von Relativpositionen der herausgezogenen ersten und zweiten Bildkomponenten, und einen zweiten Detektor zur Erfassung des Schließungsgrades des Augenbildes durch Untersuchung von Variationen bei den erfaßten Relativpositionen.
Gemäß einer weiteren Zielrichtung der Erfindung weist eine Gesichtsbild-Bearbeitungsvorrichtung einen Gesichtsbild-Eingabeabschnitt auf, um ein Eingangs-Gesichtsbild eines überwachten Gesichts zu erhalten, eine Augenherausziehbereichs- Einstellvorrichtung zur Einstellung eines Augenherausziehbereichs innerhalb des Eingangs-Gesichtsbilds, eine Gesichtsbild-Eigenschaftsherausziehvorrichtung zum Herausziehen eines Augenbrauenbildes und eines Augenbildes aus dem Augenherausziehbereich, einen Flächendetektor zur Erfassung der Fläche des Augenbrauenbilds und der Fläche des Augenbilds, eine Flächenverhältnisberechnungsvorrichtung zur Berechnung eines Flächenverhältnisses des Augenbrauenbildes und des Augenbildes, und einen Schließgraddetektor zur Erfassung des Grades eines geöffneten oder geschlossenen Zustands eines Auges, durch Untersuchung von Variationen des Flächenverhältnisses zwischen den Flächen des Augenbrauenbildes und des Augenbildes, das von der Flächenverhältnisberechnungsvorrichtung berechnet wird.
Gemäß einer weiteren Zielrichtung der Erfindung weist eine Gesichtsbild-Verarbeitungsvorrichtung einen Gesichtsbild-Eingabeabschnitt auf, um ein Eingangs-Gesichtsbild eines überwachten Gesichts zu erhalten, eine Augenherausziehbereichs-Einstellvorrichtung zur Einstellung eines Augenherausziehbereichs innerhalb des Eingangs-Gesichtsbilds, eine Gesichtsbild-Eigenschaftsherausziehvorrichtung zum Herausziehen eines Augenbrauenbildes und eines Augenbildes aus dem Augenherausziehbereich, einen Breitenmeßabschnitt zur Messung einer Breite bestimmter Abschnitte sowohl des Augenbrauenbildes als auch des Augenbildes entlang der Länge des Gesichts, eine Breitenverhältnis-Berechnungsvorrichtung zur Berechnung eines Breitenverhältnisses zwischen der Breite des Augenbrauenbildes und der Breite des Augenbildes, und einen Detektor zur Feststellung eines geöffneten oder geschlossenen Zustands eines Auges auf der Grundlage von Variationen des Breitenverhältnisses, welches von der Breitenverhältnis-Berechnungsvorrichtung berechnet wird.
Die Erfindung wird nachstehend anhand zeichnerisch dargestellter Ausführungsbeispiele näher erläutert, aus welchen weitere Vorteile und Merkmale hervorgehen. Es zeigt:
Fig. 1 ein schematisches Blockschaltbild eines Gesichtsbild-Verarbeitungssystems gemäß der vorliegenden Erfindung;
Fig. 2 ein Blockschaltbild eines Bildverarbeitungsabschnitts der Ausführungsform gemäß Fig. 1;
Fig. 3 ein Beispiel für ein Gesichtsbild, welches von einer CCD-Überwachungskamera von Fig. 1 aufgenommen wird;
Fig. 4 eine Gesichtsbereichsschablone, die durch eine Augenherausziehbereichs-Einstellvorrichtung, die in Fig. 2 gezeigt ist, aus dem Gesichtsbild von Fig. 3 herausgenommen wird;
Fig. 5 zwei Augenherausziehbereiche, die aus dem Eingangs-Gesichtsbild herausgenommen werden und das rechte und das linke Auge eines überwachten Fahrers darstellen;
Fig. 6 eine Augenbereichsschablone, die durch einen Gesichtsbild-Eigenschaftsherausziehabschnitt von Fig. 2 erzeugt wird, um einen Augenbereich aus jeweiligen Augenherausziehbereichen von Fig. 5 herauszuziehen;
Fig. 7 ein Augenbrauenbild und ein Augenbild, die unter Verwendung der Augenbereichsschablone von Fig. 6 durch die Gesichtsbild-Eigenschaftsherausziehvorrichtung von Fig. 2 herausgezogen werden;
Fig. 8 ein schematisches Blockschaltbild eines Relativpositionsdetektors von Fig. 2;
Fig. 9 ein Modell, welches eine Entfernung zwischen beabstandeten Augenbrauen- und Augenzentrumspunkten zeigt, die von einem Augenbrauenzentrumsdetektor bzw. einem Augenzentrumsdetektor ermittelt werden, der in Fig. 8 gezeigt ist;
Fig. 10A und 10B jeweilige Bildmuster, die von einem Detektor gemäß Fig. 2 für den offenen/geschlossenen Zustand eines Auges erzeugt werden;
Fig. 11 ein schematisches Blockschaltbild einer Gesichtsbild-Verarbeitungsvorrichtung gemäß einer zweiten Ausführungsform der vorliegenden Erfindung;
Fig. 12 verschiedene Eigenschaften eines MAX/MIN-Filters, welches in einem Digitalisierer von Fig. 11 verwendet wird;
Fig. 13 schematisch ein Muster eines binären Gesichtsbilds, welches durch einen Digitalisierungsvorgang in einem in Fig. 11 gezeigten Digitalisierer erhalten wird;
Fig. 14A und 14B Signalformen wesentlicher Signale, die im Betrieb des Digitalisierers erzeugt werden;
Fig. 15A und 15B Bildmuster, die im Betrieb einer Augenheraus ziehbereichs-Einstellvorrichtung von Fig. 11 erzeugt werden;
Fig. 16 ein schematisches Blockschaltbild einer Gesichtsbild-Bearbeitungsvorrichtung gemäß einer dritten Ausführungsform der Erfindung;
Fig. 17 ein Modell mit beabstandeten Augenbrauen- und Augenbildkomponenten, die von einem Relativpositionsdetektor gemäß der dritten Ausführungsform von Fig. 16 bearbeitet werden sollen;
Fig. 18A und 18B jeweilige Kombinationen von Bildmustern, die von einem Detektor für den geöffneten/geschlossenen Zustand eines Auges gemäß der dritten Ausführungsform von Fig. 16 bearbeitet werden sollen;
Fig. 19 ein schematisches Blockschaltbild eines Relativpositionsdetektors gemäß einer vierten Ausführungsform der Erfindung;
Fig. 20A und 20B Gesichtshistogrammprofile in Querrichtung, die von einem Augenbrauenbild-Blockbearbeitungsabschnitt von Fig. 19 erzeugt werden;
Fig. 21A und 21B Gesichtshistogrammuster in Längsrichtung, die von dem Augenbrauenbild-Blockbearbeitungsabschnitt erzeugt werden;
Fig. 22 ein Bildmuster, welches eine Blockbearbeitung durch den Augenbrauenbildblockprozessor erfährt;
Fig. 23 ein Modell beabstandeter Augenbrauen- und Augenbildkomponenten, die von einem Relativpositionsdetektor bei der vierten Ausführungsform bearbeitet werden sollen;
Fig. 24A und 24B jeweilige Kombinationen von Bildmustern, die von einem Detektor für den geöffneten/geschlossenen Zustand des Auges bei der vierten Ausführungsform bearbeitet werden sollen;
Fig. 25 eine Kombination von Augenbrauen- und Augenbildkomponenten, die von einem Relativpositionsdetektor gemäß einer fünften Ausführungsform der Erfindung bearbeitet werden sollen;
Fig. 26 eine Kombination von Augenbrauen- und Augenbildkomponenten, die von einem Relativpositionsdetektor gemäß einer sechsten Ausführungsform der Erfindung bearbeitet werden sollen;
Fig. 27 ein schematisches Blockschaltbild einer Gesichtsbild-Bearbeitungsvorrichtung gemäß einer siebten Ausführungsform der Erfindung;
Fig. 28 eine Kombination von Augenbrauen- und Augenbildkomponenten, die von einem Relativpositionsdetektor gemäß der siebten Ausführungsform bearbeitet werden sollen;
Fig. 29A und 29B jeweilige Kombinationen von Augenbrauen- und Augenbildkomponenten, die von einem Detektor für den geöffneten/geschlossenen Zustand des Auges gemäß der siebten Ausführungsform bearbeitet werden sollen;
Fig. 30 ein Blockschaltbild eines Relativpositionsdetektors gemäß einer achten Ausführungsform der Erfindung;
Fig. 31 eine Kombination von Augenbrauen- und Augenbildkomponenten, die von einem Relativpositionsdetektor gemäß der achten Ausführungsform der Erfindung bearbeitet werden sollen;
Fig. 32A und 32B jeweilige Kombinationen von Augenbrauen- und Augenbildkomponenten, die von einem Detektor für den geöffneten/geschlossenen Zustand des Auges bei der achten Ausführungsform bearbeitet werden sollen;
Fig. 33 ein Blockschaltbild einer Gesichtsbild-Bearbeitungsvorrichtung nach dem Stand der Technik;
Fig. 34 ein Fenster entsprechend einem Augapfelvorhandenseinsbereich, der aus einem Eingangs-Gesichtsbild bei der Vorrichtung nach dem Stand der Technik herausgezogen wurde;
Fig. 35 ein Modell, welches zur Erläuterung des Betriebsablaufs eines Detektors für den geöffneten/geschlossenen Zustand eines Auges beim Stand der Technik verwendet wird; und
Fig. 36 ein Augapfelvorhandenseinsbereichsfenster, welches von dem Detektor für den geöffneten/geschlossenen Zustand eines Auges nach dem Stand der Technik vertikal abgetastet wird.
In Fig. 1 ist eine Gesichtsbild-Bearbeitungsvorrichtung gemäß der Erfindung gezeigt, welche vorzugsweise bei momentan verfügbaren Fahrzeugsicherheitssystemen verwendet werden kann, welche den geöffneten oder geschlossenen Zustand der Augen einer Person überwachen, beispielsweise des Fahrers eines Kraftfahrzeugs, und dadurch Sicherheit zur Verfügung stellen, daß beim Auftreten eines Einschlafens oder eines Halbschlafs beim Fahren ein Alarm übertragen wird. Der Gesichtsbildprozessor weist eine CCD-Monitorkamera 1 zum Erfassen oder "Photographieren" des Gesichts des Fahrers zur Erzeugung eines Gesichtsbilddatensignals auf. Ein Bildspeicher 2 ist einer CCD-Kamera 1 zum Speichern der Gesichtsbilddaten angeschlossen, die von der CCD-Kamera 1 stammen. Eine Bildbearbeitungseinheit 3 ist an den Bildspeicher 2 zur Durchführung von Bildbearbeitungsvorgängen auf der Grundlage der in dem Bildspeicher 2 gespeicherten Daten angeschlossen.
Die Ausbildung des Gesichtsbildprozessors 3 von Fig. 1 ist in Fig. 2 dargestellt. Der Bildprozessor 3 weist einen Gesichtsbildeingabeabschnitt 4 auf. Die Bilddaten, welche das Gesicht des Fahrers repräsentieren, wie es von der CCD-Kamera 1 aufgenommen wurde, und dann in dem Bildspeicher 2 gespeichert werden (die Bilddaten werden nachstehend als das "Gesichtsbild" bezeichnet), werden von dem Gesichtsbildeingabeabschnitt 4 an einen Augenherausziehbereichs-Einstellabschnitt 5 geschickt. Die Augenherausziehbereichs-Einstellvorrichtung 5 bestimmt einen geeigneten Teil des Eingangs-Gesichtsbilds als Augenherausziehbereich, welcher dazu verwendet wird, hieraus eine Augenbildkomponente herauszuziehen. Ein Gesichtsbild-Eigenschaftsherausziehabschnitt 6 ist an einen Ausgang der Augenherausziehbereichs-Einstellvorrichtung 5 angeschlossen, um aus dem Augenherausziehbereich bestimmte Arten charakteristischer Bildkomponenten herauszuziehen, welche eine Augenbraue bzw. ein Auge des überwachten Fahrers darstellen. Die Herausziehvorrichtung 6 ist an ihrem Ausgang an einen Relativpositions-Erfassungsabschnitt 7 angeschlossen, der so arbeitet, daß er Relativpositionen der auf diese Weise herausgezogenen Augenbrauen- und Augenbilder erfaßt. Die Ergebnisse dieser Erfassung werden dann einem Detektorabschnitt 8 einer Endstufe zugeführt, der so arbeitet, daß er das aktuelle Ausmaß des Schließzustandes zumindest eines Auges des Fahrers dadurch feststellt, daß er Variationen der erfaßten Relativpositionen untersucht, und hierdurch den geöffneten oder geschlossenen Zustand des Auges bestimmt; in dieser Hinsicht wird der Abschnitt 8 nachstehend als "Detektor für den geöffneten/geschlossenen Zustand des Auges" bezeichnet. Der Gesichtsbildprozessor gemäß einer bevorzugten Ausführungsform der Erfindung ist so ausgebildet, daß er ein ausgewähltes Schablonenanpassungskorrelationsverfahren dazu verwendet, aus dem Eingangs-Gesichtsbild einige Herausziehgegenstände herauszuziehen, einschließlich des Augenherausziehbereiches, des Augenbrauenbildes und des Augenbildes, und zwar auf eine Art und Weise, die nachstehend noch genauer erläutert wird.
Der Betriebsablauf des Gesichtsbildprozessors unter Verwendung von Schablonen über Einstimmungsverfahren wird nunmehr unter Bezugnahme auf die Fig. 4 bis 7 beschrieben. Der Gesichtsbild-Eingabeabschnitt 4 nimmt ein Gesichtsbild 9 eines Fahrers auf, wie es von der CCD-Kamera 1 erfaßt wird, und in dem Speicher von Fig. 1 gespeichert ist. Die Augenherausziehbereichs-Einstellvorrichtung 5 bestimmt dann innerhalb des Gesichtsbildes 9 eine rechteckige Gesichtsbildschablone 10, die in Fig. 4 gezeigt ist, welche im wesentlichen dem Gesichtsbildabschnitt entspricht. Dann zieht die Gesichtsbild-Eigenschaftsherausziehvorrichtung 6 aus der Gesichtsbildschablone 10 zwei kleine rechteckige Bildabschnitte 12a, 12b heraus, die im wesentlichen dem rechten bzw. linken Auge des Fahrers entsprechen, und aus welchen die Gesichtsbilder herausgezogen werden sollen. Eine in Fig. 6 gezeigte Augenbereichsschablone 13 wird dazu verwendet, einen Augenbereich aus jedem der Herausziehbereiche 12a, 12b für das rechte bzw. linke Auge herauszuziehen, um hierdurch ein Augenbrauenbild 15 und ein Augenbild 16 zur Verfügung zu stellen, die unter Verwendung der Augenbereichsschablone 13 herausgezogen werden, wie in Fig. 7 gezeigt ist.
Die Augenherauszieh-Einstellvorrichtung 5 führt eine Korrelationsarithmetikverarbeitung für die Gesichtsbereichsschablone 10 und das Gesichtsbild 9 durch, während vorher die Gesichtsbereichsschablone 10 eingestellt wird, welche den Gesichtsbereich festlegt. Wenn während einer derartigen Korrelationsbearbeitung eine bestimmte Position aufgefunden wird, bei welcher das Korrelationsarithmetik- Bearbeitungsergebnis S ein Minimum wird, wird diese Position dann als der Gesichtsbereich 11 von Fig. 5 genommen. Es wird darauf hingewiesen, daß das Korrelationsverarbeitungsergebnis S folgendermaßen dargestellt werden kann:
S = | N-T |
wobei N die Helligkeit des Gesichtsbildes 9 ist, und T die Helligkeit der Gesichtsbereichsschablone 10. In dem so festgelegten Gesichtsbereich 11 wird dessen oberer linker Abschnitt entlang der Länge des Gesichts des Fahrers als der Herausziehbereich 12a für das linke Auge festgelegt, wogegen dessen oberer rechter Abschnitt als der Herausziehbereich 12b für das rechte Auge festgelegt wird. Ein entsprechender Schablonenanpassungsvorgang wird in Bezug auf diese Augenherausziehbereiche 12a, 12b durchgeführt, um hierdurch das Augenbrauenbild 15 und das Augenbild 16 herauszuziehen, die in Fig. 7 gezeigt sind.
In Bezug auf das Herausziehen der Augenbrauen- und Augenbilder 15, 16 erzeugt die Gesichtsbild- Eigenschaftsherausziehvorrichtung 6 von Fig. 2 vorher die Augenbereichsschablone 13, welche einen Augenbereich festlegt, der das Bild eines Auges und das Bild einer Augenbraue enthält, und führt dann eine geeignete Korrelationsarithmetikbearbeitung für die Augenbereichsschablone 13 und den Augenherausziehbereich 12a entsprechend der voranstehend angegebenen Gleichung (1) durch. Falls sich eine bestimmte Position findet, bei welcher das Korrelationsbearbeitungsergebnis S ein Minimum ist, wird diese Position dann als ein Augenbereich 14 ausgewählt. Innerhalb dieses Augenbereichs wird eine weitere Korrelationsbearbeitung unter Verwendung der Augenbereichsschablone 13 durchgeführt, um das Vorhandensein einer Augenbraue und eines zugehörigen Auges festzustellen, wodurch wie in Fig. 7 gezeigt das Augenbrauenbild und das Augenbild 15 bzw. 16 hieraus herausgezogen werden.
Daraufhin erfaßt der Relativpositionsdetektor 7 die Relativpositionen des Augenbrauenbildes 15 und des Augenbildes 16, die auf diese Weise herausgezogen wurden. Wie aus Fig. 8 hervorgeht, weist der Relativpositionsdetektor 7 eine Augenbrauenzentrums-Erfassungseinheit 71 auf, um die Koordinaten eines Zentrumspunktes oder "Schwerpunktes" des Augenbrauenbildes 15 in der Mitte zwischen den gegenüberliegenden Kanten entlang der Breite des Gesichts zu berechnen. Eine Augenzentrumserfassungseinheit 72 ist an den Detektor 71 angeschlossen, um den Schwerpunkt des Augenbildes 16 in der Mitte entlang der Länge des Gesichts zu berechnen. Eine Entfernungsmeßeinheit 73 ist an den Detektor 72 dazu angeschlossen, die aktuelle Entfernung zwischen dem Augenbrauenzentrum und dem Augenzentrum zu messen, die wie voranstehend geschildert erfaßt wurden.
Wie aus Fig. 9 hervorgeht, berechnen der Augenbrauenzentrumsdetektor 71 und der Augenzentrumsdetektor 72 die Positionen zweier Zentren oder "Schwerpunkte" 17, 18, die entlang der Länge des Gesichts voneinander beabstandet sind, in Bezug auf das Augenbrauenbild 15 bzw. das Augenbild 16. Es wird darauf hingewiesen, daß ein Schwerpunkt (X, Y) unter Verwendung der nachstehend angegebenen Gleichungen (2) und (3) erhalten werden kann:
X = Xt/Gesamt (2)
Y = Yt/Gesamt (3)
wobei Xt die Gesamtsumme der x-Koordinatenwerte sämtlicher Pixel xi des Bildes ist, "Gesamt" die Gesamtanzahl an Pixeln (Xi, Yj) ist, und Yj die Gesamtsumme der y-Koordinatenwerte sämtlicher Pixel yj ist. Es wird darauf hingewiesen, daß der Zentrumswert X als der Schwerpunkt entlang der Länge des Gesichts verwendet wird.
Dann mißt die Entfernungsmeßeinheit 73 eine aktuelle Entfernung 19 zwischen den Schwerpunkten 17, 18 in der Längsrichtung des Gesichts. Der Detektor 8 für das geschlossene/geöffnete Auge von Fig. 2 erfaßt den Schließzustand des Auges auf der Grundlage der gemessenen Entfernung zwischen den Schwerpunkten 17, 18, um ein Erfassungssignal zu erzeugen, welches anzeigt, in welchem Ausmaß das Auge geschlossen ist, was wiederum angibt, ob der Fahrer beim Fahren schlummert oder nicht. Im einzelnen ist, wenn wie in Fig. 10A gezeigt das Auge des Fahrers geöffnet ist, infolge der Tatsache, daß er sich nicht schläfrig fühlt, die sich ergebende Entfernung zwischen den Schwerpunkten 17, 18 kleiner als ein vorbestimmter Schwellenwert 20; wenn im Gegensatz hierzu das Auge des Fahrers infolge des Auftretens eines Einschlafvorgangs geschlossen ist, wird die sich ergebende Entfernung zwischen den Schwerpunkten 17, 18 größer als der Schwellenwert 20.
Daher kann der Detektor 8 für das geöffnete/geschlossene Auge exakt den aktuellen geöffneten oder geschlossenen Zustand der Augen des Fahrers feststellen, und zwar durch Vergleichen der gemessenen Entfernung 20 zwischen den Schwerpunkten 17, 18 mit einer Bezugsentfernung des Schwellenwertes 20. Bei dieser Ausführungsform werden spezifisch der Augenbrauenbildschwerpunkt und der Augenbildschwerpunkt als die Bezugspunkte zur Erfassung von Variationen der Positionsbeziehung zwischen den Augenbrauen- und Augenbildern verwendet. Dies kann die Vorgänge zur Erfassung des offenen/geschlossenen Zustands des Auges beschleunigen, während die zugehörigen erforderlichen Algorithmen erheblich vereinfacht werden.
Ein Gesichtsbildprozessor von Fig. 11 gemäß einer zweiten Ausführungsform der Erfindung ist ähnlich wie in Fig. 2, wobei die Augenherausziehbereichs-Einstellvorrichtung von Fig. 2 durch einen Digitalisierabschnitt 21 ersetzt ist. Während die erste Ausführungsform das Ausmaß des Schließens des Auges unter Verwendung der Augenbrauen- und Augenbilder feststellt, die durch Schablonenanpassungsverfahren aus einem Eingangs-Gesichtsbild herausgezogen wurden, ist die zweite Ausführungsform so ausgebildet, daß Augenbrauen- und Augenbilder in Form binärer Daten aus einem digitalisierten Gesichtsbild herausgezogen werden, unter Verwendung eines Filtervorgangs, und dazu verwendet werden, die Erfassung des Schließzustandes des Auges zu erzielen.
Wie aus Fig. 11 hervorgeht, ist der Digitalisierer zwischen den Gesichtsbild-Eingangsabschnitt 4 und die Augenherausziehbereichs-Einstellvorrichtung 5 geschaltet. Ein Eingangs-Gesichtsbild, welches durch den Gesichtsbildeingabeabschnitt 4 erlangt wird, wird an den Digitalisierer 21 geschickt, der auf eine Art und Weise Filteroperationen durchführt, wie nachstehend noch genauer erläutert wird, wodurch ein binäres Gesichtsbilddatenausgangssignal erhalten wird. Das binäre Gesichtsbild erfährt dann an der Augenherausziehbereichs-Einstellvorrichtung 5 einen Augenherausziehbereichs-Definitionsvorgang, um hierdurch einen Augenherausziehbereich zu bestimmen, der aus dem binären Gesichtsbild herausgezogen wurde. Der sich ergebende Augenherausziehbereich wird der Gesichtsbild-Eigenschaftsherausziehvorrichtung 6 zugeführt, welche aus dem Bereich ein Augenbrauenbild und ein Augenbild herauszieht. Diese Bilder werden dann an den Relativpositionsdetektor 7 geliefert, die die Relativpositionen der herausgezogenen Augenbrauen- und Augenbilder erfaßt, um deren Positionsbeziehung zu untersuchen. In Reaktion auf den Empfang der Ergebnisse der Untersuchung stellt der Detektor 8 für den geöffneten/geschlossenen Zustand des Auges den geöffneten bzw. geschlossenen Zustand des Auges durch Untersuchung von Änderungen der Positionsbeziehung zwischen den Augenbrauen- und Augenbildern fest.
Die zweite Ausführungsform arbeitet folgendermaßen. Verschiedene Eigenschaften von MAX/MIN-Filterschaltungen zur Verwendung in dem Digitalisierer 21 von Fig. 11 sind in Fig. 12 durch Teile (a) bis (d) bezeichnet. Der Digitalisierer 21 empfängt und digitalisiert ein Eingangs-Gesichtsbild von dem Gesichtsbild-Eingabeabschnitt 4 zur Erzeugung eines entsprechenden binären Datensignals, welches das Gesichtsbild 22 anzeigt, wie in Fig. 13 dargestellt ist.
Nach Empfang eines Bildsignals 24, welches einen Teil des Eingangs-Gesichtsbildes darstellt, führt der Digitalisierer 21 eine MAX-Filteroperation mit dem Signal durch, um ein MAX-gefiltertes Bildsignal 25 zu erzeugen, und führt dann eine MIN-Filterung in Bezug auf das MAX-gefilterte Bildsignal 25 durch, um ein MIN-gefiltertes Bildsignal 26 zu erzeugen, wobei die beiden Signale 25, 26 im Abschnitt (a) von Fig. 12 gezeigt sind. Fig. 12 zeigt auch einen Teil (b), nämlich ein Feld von Pixeln 27 bis 29 entsprechend formatierten Pixeln, die durch Formatierung von Helligkeitswerten der Bildsignale 24 bis 26 erhalten werden. Es wird darauf hingewiesen, daß ein quadratischer Rahmen, der einen Helligkeitswert umgibt, einen einzelnen Pixel repräsentiert, und daß bei den Helligkeitswerten nur zur Vereinfachung angenommen wird, daß sie einen Bereich von 0 bis 20 aufweisen.
Zuerst wird mit dem Eingangs-Gesichtsbild eine MAX-Filterung durch ein MAX-Filter durchgeführt, welches eine festgelegte Länge aufweist (nachstehend als die "Filtergröße" bezeichnet), wenn die Pixelnummer gleich a ist, und den Helligkeitswert eines Zentrumspixels des Bildes in den maximalen Helligkeitswert umwandelt. Es wird angenommen, daß die Pixelnummer a gleich 5 ist. Wenn ein Pixelfeld 27 eine MAX-Filterung in seinen schraffierten Abschnitten erfährt, die im Teil (b) von Fig. 12 gezeigt sind, wird der Helligkeitswert eines Pixels 27a, der im Zentrum eines derartigen Filterraums liegt, dann von 8 auf 10 umgewandelt, infolge der Tatsache, daß der maximale Helligkeitswert gleich 10 ist.
Ein ähnlicher MAX-Filtervorgang wird wiederholt, während das Eingangsbild dazu veranlaßt wird, aufeinander folgend in der Position nach rechts um jeweils einen Pixel als Einheit verschoben zu werden. Hierdurch kann das im Teil (b) von Fig. 12 gezeigte Pixelfeld 27 in ein Pixelfeld 28 umgewandelt werden. Nach der Beendigung der MAX-Filterung wird dann mit dem sich ergebenden MAX-gefilterten Bild eine MIN-Filterung durchgeführt. Das MIN-Filter weist die gleiche Filtergröße auf wie das MAX-Filter, und wandelt die Helligkeit eines Filter-Zentrumspixels in den minimalen Helligkeitswert um, der in dem Filterraum aufgefunden wird.
Infolge der Durchführung einer derartigen MIN-Filterung in Bezug auf die schraffierten Abschnitte des Pixelfeldes 28, die im Teil (b) von Fig. 12 gezeigt sind, nach Beendigung der MAX-Filterung, wird der Helligkeitswert eines Pixels 28b, der sich im Zentrum des Filterraums befindet, von 12 in 10 umgewandelt, infolge der Tatsache, daß der minimale Helligkeitswert in diesem Falle 10 beträgt.
Die MIN-Filterung wird wiederholt, während das Eingangsbild dazu veranlaßt wird, aufeinanderfolgend seine Position nach rechts in Intervallen von jeweils der Größe eines Pixels zu verschieben, was dazu führt, daß das Pixelfeld 28 in ein aktualisiertes Pixelfeld 29 umgewandelt wird, welches im Teil (b) von Fig. 12 gezeigt ist. Das sich ergebende MIN/MAX-gefilterte Bild wird dann so bearbeitet, daß von ihm das Eingangsbild subtrahiert wird, wodurch ein Bereich niedriger Helligkeit herausgezogen wird, der eine geringere Breite als die Größe des Filters aufweist. Im einzelnen wird bei dem dargestellten Beispiel der Helligkeitswert des Pixelfeldes 27 von dem Helligkeitswert des Pixelfeldes 29 subrahiert, welches im Teil (b) von Fig. 12 gezeigt ist, um ein neues Pixelfeld zu erzeugen, das im Teil (d) von Fig. 12 dargestellt ist, und welches dann in ein elektrisches Bildsignal umgewandelt wird, wie im Teil (d) von Fig. 12 gezeigt ist.
Während der voranstehend geschilderten Filteroperationen sind sowohl das MAX-Filter als auch das MIN-Filter so ausgebildet, daß sie ihre Umwandlungen im Zentrum eines ursprünglich gefilterten Bildes beginnen, und die Umwandlungen im Zentrum endgültiger gefilterter Bilder beenden. Dies führt dazu, daß die MAX-gefilterten Bilddaten einem Feld von Pixeln 28c bis 28d entsprechen, und daß die MIN-gefilterten Bilddaten einem Feld von Pixeln 29e bis 29f entsprechen, die im Teil (b) in Fig. 12 gezeigt sind. Im Ergebnis wird das Bild, das schließlich durch die MAX/MIN-Filteroperationen erhalten wird, mit kleineren Abmessungen versehen als in der Filterstartposition und der Filterendposition, und zwar um eine Länge entsprechend "a-1" Pixeln.
Der Digitalisierer 21 von Fig. 11 arbeitet folgendermaßen. Bei der vorliegenden Ausführungsform wird die Filterung nacheinander in Bezug auf jede von mehreren parallelen Abtastzeilen 30 entlang der Länge des Gesichts durchgeführt, wie in Fig. 13 dargestellt ist. Dies führt dazu, wie aus Fig. 14A hervorgeht, daß ein Bildsignal 31 nach der Beendigung der MAX/MIN-Filteroperationen mit dem Eingangs-Gesichtsbild erhalten wird, wobei die Filterlängen den Breiten von Augenbrauen und Augen entsprechen. In diesem Fall werden darüber hinaus einige zusätzliche Bildkomponenten ebenfalls herausgezogen, welche eine Nase und die Lippen eines Mundes darstellen, die eine geringere Breite aufweisen als die Augenbrauen und Augen. Aus einer Betrachtung des Impulsmusters von Fig. 14A geht hervor, daß infolge der Tatsache, daß die charakteristischen Punkte 31a der Augenbrauen- und Augenbilder eine größere Helligkeitsdifferenz aufweisen als die anderen, die umgebenden Punkte, ihre Helligkeitswerte erhöht sind, nachdem die Subtraktionsbearbeitung durchgeführt wurde.
Im Gegensatz hierzu bleiben bei Schatten oder Bildern der Kleidung eines überwachten Fahrers die Helligkeitsunterschiede kleiner als die anderen, wie aus einer Pulskomponente 31b in Fig. 14A hervorgeht. Unter Berücksichtigung dieser Tatsachen wird ein Schwellenwertpegel 32 auf einen festen Schwellenwert eingestellt, wie in Fig. 14A gezeigt ist, so daß die Impulskomponenten 31a, 31b des Bildsignals 31 dadurch in binäre Form umgewandelt werden können, daß der Schwellenwertpegel 32 so genutzt wird, daß jene (31a) Impulse, die größer sind oder ein "höheres" Potential aufweisen als der Schwellenwertpegel 32, in entsprechende Impulse mit fester Höhe umgewandelt werden, und jene (31b), die kleiner oder "niedriger" sind, sowie der Schwellenwertpegel 32 vernachlässigt werden, wodurch ein binäres Impulssignal erzeugt wird, das in Fig. 14B dargestellt ist. Das gefilterte Gesichtsbild ist in Fig. 13 gezeigt. Es wird darauf hingewiesen, daß schwarz gefärbte Abschnitte in dieser und den folgenden Figuren, auf die nachstehend noch Bezug genommen wird, binäre Bildabschnitte oder Komponenten bezeichnen sollen, die eine größere Helligkeitsdifferenz aufweisen als der Schwellenwertpegel 32. Anders ausgedrückt weisen schwarze Bereiche einen Logikwert "1" oder "High" auf, wogegen der weiße Hintergrund einen Logikwert von "0" oder "Low" aufweist.
Nachdem der Digitalisierungsvorgang beendet ist, wird dann ein Augenherausziehbereich von der Augenherauszieh-Einstellvorrichtung 5 von Fig. 11 herausgezogen, auf die nachstehend geschilderte Art und Weise. Zuerst berechnet die Augenherauszieh-Einstellvorrichtung 5 die Position eines Bezugspunktes 33 (sh. Fig. 15A) für den gesamten Bereich des sich ergebenden binären Bildes 22 von Fig. 13. Der Bezugspunkt 33 ist ein bestimmter Punkt, der typisch für sämtliche schwarzen binären Bildabschnitte ist; in diesem Sinn kann der Bezugspunkt 33 alternativ hierzu als "Schwerpunkt" bezeichnet werden. Der Schwerpunkt 33 kann dadurch aufgefunden werden, daß Berechnungen ähnlich jenen wie in den Gleichungen (2) und (3) durchgeführt werden, die weiter voranstehend angegeben wurde, mit Ausnahme der Tatsache, daß "xi" und yj" in diesem Fall dazu verwendet werden, schwarze Bildbereiche in dem binären Bild 22 festzulegen.
Nachdem die Berechnung des Schwerpunkts 33 beendet ist, wird dann ein Teilbereich 34 auf der Grundlage des Schwerpunkts 33 festgelegt. Dieser Bereich 33 kann möglicherweise ein Gesichtsbild enthalten; in dieser Beziehung wird er nachstehend als der "Gesichtsbereich" bezeichnet. Der Gesichtsbereich 34 ist so definiert, daß er einen rechteckigen Rahmen aufweist, der einige oder sämtliche der Eigenschaften eines Gesichts (zumindest die Augen) enthält. Dies wird dadurch durchgeführt, daß die Tatsache berücksichtigt wird, daß der Gesichtsbereich 34 zumindest teilweise den Hauptabschnitt des Eingangs-Gesichtsbilds mit erhöhter Wahrscheinlichkeit enthalten kann, und daß der Schwerpunkt eines menschlichen Gesichts gewöhnlich zwischen der Nase und den Augen im Zentrum des Gesichts liegt. Ein Schwerpunkt 35 in Bezug auf den Gesichtsbereich 34 kann durch ähnliche Berechnungen aufgefunden werden, wie sie in den voranstehend angegebenen Gleichungen (2) und (3) angegeben sind. Der Schwerpunkt 35 wird zur Festlegung eines Augenherausziehbereiches verwendet, wie nachstehend unter Bezugnahme auf Fig. 15B geschildert wird. Es wird angenommen, daß der Schwerpunkt 35 des Gesichtsbereiches 34 in der Nähe der Nase liegt. Der Gesichtsbereich 34 wird in Hälften unterteilt, wobei der Schwerpunkt 35 das Zentrum der Unterteilung darstellt, wobei eine der Hälften (also der linke Teil der um 90° gedrehten Gesichtsdarstellung von Fig. 15A) höchstwahrscheinlich Augenbilder enthält, und die andere Hälfte (also der rechte Teil der Darstellung in Fig. 15A) die Nasen- und Mundbilder enthalten kann. Der linke Halbbereich wird, wie in Fig. 15B gezeigt, als ein Augenherausziehbereich 36 bestimmt. Dieser Bereich 36 wird dann durch eine Linie unterteilt, die durch die beiden Schwerpunkte 33, 35 hindurchgeht, und zwar in ein Paar benachbarter Abschnitte 36a und 36b; ein Abschnitt 36b dient als Augenherausziehbereich für das rechte Auge, wogegen der andere Bereich 36a als Augenherausziehbereich für das linke Auge dient.
Die Gesichtsbild-Eigenschaftsherausziehvorrichtung 6 von Fig. 11 zieht verschiedene Eigenschaften aus dem binären Gesichtsbild heraus, durch (i) Erkennung eines von zwei schwarzen Bereichen, der an der Oberseite entlang der Länge des Gesichts innerhalb jedes der Augenherausziehbereiche 36a, 36b liegt, als ein Augenbrauenbild 15, und durch (ii) Interpretation des anderen Bereiches an der unteren Seite als Augenbild 16. Die folgenden Operationen des Relativpositionsdetektors 7 und des Detektors 8 für den geöffneten/geschlossenen Zustand des Auges, nämlich das Auffinden von "Schwerpunkten" für die Augenbrauen- und Augenbilder, und die Festlegung des Augenschließungsgrades auf der Grundlage von Variationen der Entfernung zwischen diesen, sind ähnlich wie bei der ersten Ausführungsform.
Bei der zweiten Ausführungsform lassen sich ähnliche Vorteile wie bei der ersten Ausführungsform in Bezug auf eine Erfassung des geöffneten/geschlossenen Zustands des Auges mit hoher Geschwindigkeit durch eine vereinfachte Vorgehensweise erzielen. Darüber hinaus kann die zweite Ausführungsform eine erhöhte Genauigkeit für die Feststellung zur Verfügung stellen, infolge der Tatsache, daß die Erfassung des geöffneten/geschlossenen Zustands des Auges unter Einsatz einer genauen Untersuchung der aktuellen Variationen der Form binärer Augenbilder ohne Graustufenabschnitte durchgeführt wird.
Ein gemeinsames Merkmal der ersten und zweiten Ausführungsform besteht darin, daß der Relativpositionsdetektor dazu ausgebildet ist, eine Entfernung zwischen den Zentren oder "Schwerpunkten" der Augenbrauen- und Augenbilder festzustellen, und daß der Detektor für den geöffneten/geschlossenen Zustand des Auges dazu vorgesehen ist, den geöffneten oder geschlossenen Zustand der Augen des Fahrers zu ermitteln. Der Betriebsablauf dieses Detektors ist folgendermaßen: Wenn die festgestellte Entfernung größer ist als der Schwellenwert, der einen festen Wert aufweist, so stellt der Detektor für den geöffneten/geschlossenen Zustand des Auges fest, daß die Augen zumindest teilweise geschlossen sind; wenn die erfaßte Entfernung kleiner als der Schwellenwertpegel ist, so bestimmt der Detektor, daß die Augen geöffnet sind.
Ein Gesichtsbildprozessor gemäß einer dritten Ausführungsform der Erfindung ist in Fig. 16 gezeigt. Dieser Prozessor weist einen Augenbrauenzentrumserfassungsabschnitt 71 auf, zur Erfassung eines Zentrums oder "Schwerpunkts" 17 eines Augenbrauenbildes 15, einen Augenrepräsentations- Positionserfassungsabschnitt 74 zur Erfassung des Maximalwertes im oberen Zentrum eines Augenbildes 16 entlang der Länge eines menschlichen Gesichts, und zur Festlegung der Position zumindest eines repräsentativen Punktes (der repräsentativen Position des Auges) entlang der Gesichtslänge, sowie einen Entfernungsmeßabschnitt 73 zur Messung der aktuellen Entfernung zwischen den repräsentativen Positionen des Augenbrauenzentrums und des Auges.
Die dritte Ausführungsform arbeitet folgendermaßen. Da der Betriebsablauf des Augenschwerpunktdetektors 71 ähnlich ist wie bei der ersten Ausführungsform, erfolgt zur Vereinfachung insoweit keine erneute Beschreibung. Die nachstehende Beschreibung beginnt mit der Operation des Augenrepräsentationspositionsdetektors 74.
Wie in Fig. 17 gezeigt, erfaßt dieser Detektor 74 (i) einen Maximalwert 73a in der oberen Zentrumsposition des Augenbildes 16, welches von der Gesichtsbild-Eigenschaftsherausziehvorrichtung 6 herausgezogen wird, und (ii) ein Paar von Augenrepräsentationspositionen 37b, 37c des Augenbildes 16, welche zwei gegenüberliegenden Kanten (beiden Seitenkanten) eines Auges entsprechen, und entlang der Breite eines menschlichen Gesichts beabstandet sind. Die Festlegung dieser charakteristischen Punkte 37a bis 73c kann durch das folgende Verfahren erfolgen. Zuerst wird die Anzahl einer Reihe durchgehender schwarzer Pixel in einem Augenbild gezählt, um ein entsprechendes Histogramm zur Verfügung zu stellen. Dann wird ein Spitzenwert in dem Histogramm aufgefunden, um diesen Spitzenwert als momentanen Maximalwert festzustellen. Dann wird nach Minimalwerten gesucht, die auf der rechten und linken Seite des Spitzenwertes in dem Histogramm auftreten, und diese werden als die Augenrepräsentationspositionen 37a, 37b gewählt. Während einer derartigen Operation werden darüber hinaus erforderliche Koordinatenwerte einschließlich des Augenbrauenschwerpunkts, des Maximalwertes 37a, und der Augenrepräsentationspositionen 37b, 37c berechnet. Sind die Augen des Fahrers geschlossen, weil dieser eingenickt ist, so liegt der Koordinatenwert des Maximums 37a in der Mitte oder beinahe im Zentrum zwischen den Koordinatenwerten der Augenrepräsentationspositionen 37b, 37c.
Sobald die jeweiligen Positionen ermittelt sind, erfaßt dann der Entfernungsmeßabschnitt 73 (i) eine Entfernung 38a zwischen dem Augenbrauenschwerpunkt 17 und dem Maximalwert 37a sowie (ii) Entfernungen 38b, 38c zwischen dem Schwerpunkt 17 und jeweiligen Augenrepräsentationspositionen 37b, 37c durch Untersuchung jeweiliger, auf diese Weise erhaltener Koordinatenwerte, wie in den Fig. 18A und 18B gezeigt ist. Daraufhin stellt der Detektor 8 für den Öffnungs/Schließzustand des Auges den aktuellen Schließungsgrad der Augen fest, auf der Grundlage von Variationen der Entfernungswerte 38a bis 38c, die wie voranstehend geschildert ermittelt wurden, auf ähnliche Weise wie bei den vorherigen Ausführungsformen. Wie aus Fig. 18A hervorgeht ist dann, wenn die Augen des Fahrers offen sind, die sich ergebende "mittlere" Entfernung 38a kürzer als die verbleibenden "Kantenabstände" 38b, 38c, wobei dazwischen eine wachsende Differenz beobachtet wird. Wenn andererseits wie in Fig. 18B gezeigt die Augen geschlossen sind, so zeigt die mittlere Entfernung 38a nicht länger eine signifikante Differenz, im Vergleich zu den Kantenentfernungen 38b und 38c.
Mit der dritten Ausführungsform ist es möglich, die Geschwindigkeit der Erfasssungsverarbeitung zu erhöhen, infolge der Ausführung der Erfassung des geöffneten/geschlossenen Zustands des Auges unter Verwendung der binären Bilddaten. Darüber hinaus kann auch die Genauigkeit der Erfassung des geöffneten/geschlossenen Zustands der Augen wesentlich erhöht werden, infolge der Tatsache, daß diese Erfassung auf der Grundlage der tatsächlich gemessenen Änderungen der Form des Auges durchgeführt wird.
Ein Gesichtsbildprozessor gemäß einer vierten Ausführungsform der Erfindung weist einen in Fig. 16 dargestellten Relativpositionsdetektor auf. Während die erste bis dritte Ausführungsform die vollständig herausgezogenen Augenbrauen- und Augenbilder als Objekte für die Erfassung des geöffneten/geschlossenen Zustandes des Auges verwenden, ist die vierte Ausführungsform so ausgebildet, daß (i) das Augenbrauenbild, welches sich nicht infolge einer Öffnungs/Schließbewegung eines Auges ändert, aus einem binären Gesichtsbild unter Verwendung eines Blockrahmens mit fester Fläche herausgezogen wird, und dann (ii) der geöffnete/geschlossene Zustand des Auges dadurch erfaßt wird, daß Variationen der Entfernung zwischen einem derartigen Block- bearbeiteten Augenbrauenbild und dem Augenbild untersucht werden. Wie aus Fig. 19 hervorgeht, weist der Relativpositionsdetektor einen Augenbrauenbild-Blockbearbeitungsabschnitt 75 auf, um ein Augenbrauenbild 15 in eine Gruppe von Blockabschnitten umzuwandeln, einen Augenbrauenbezugspositionseinstellabschnitt 76 zur Festlegung einer Bezugsposition der Augenbrauenblöcke entlang der Länge eines menschlichen Gesichts, und einen Entfernungsmeßabschnitt 73 ähnlich wie bei der vorherigen Ausführungsform.
Der Betriebsablauf dieser Ausführungsform wird unter Bezugnahme auf die Fig. 20A bis 20B, 21A bis 21B sowie 22 beschrieben. Die Blockumwandlungsbearbeitung wird entweder für einige ausgewählte schwarze Pixel innerhalb eines vorbestimmten Bereiches eines binären Gesichtsbilds durchgeführt, oder für bestimmte Pixel, welche Schwellenwerte aufweisen, die größer als ein vorbestimmter Wert sind, innerhalb eines bestimmten Bereiches eines nicht binären Bildes. Die Beschreibung erfolgt in Bezug auf die erstgenannte Alternative, da die zweite Alternative ähnlich durchgeführt werden kann.
Zuerst wird die Anzahl von Pixeln in einem Feld schwarzer Pixel entlang der Breite eines menschlichen Gesichts innerhalb des vorbestimmten Bereiches des binären Gesichtsbildes gezählt. Die Zählung der Anzahl schwarzer Pixel wird in Bezug auf die Richtung der x-Koordinate durchgeführt. Der sich ergebende x-Koordinatenzählwert wird dazu verwendet, ein in Fig. 20A dargestelltes Histogramm in Querrichtung des Gesichts zur Verfügung zu stellen, in welchem die Vertikalachse die Anzahl schwarzer Pixel und die Horizontalachse die x-Koordinatenwerte angibt. Dann erfolgt, wie in Fig. 20B gezeigt, eine Suche nach irgendwelchen Spitzenwerten, bei welchen Extremmalpunkte der Anzahl schwarzer Pixel größer werden als ein Wert 40a in dem Histogramm. Für jeden Spitzenwert wird eine Startposition 40ci und eine Endposition 40di eingestellt, die jeweils eine Anzahl schwarzer Pixel aufweisen, der größer als ein Wert 40e, sowie eine Entfernung, die kleiner als ein Wert 40b ist, um einen begrenzten Bereich entlang der x-Koordinatenachse festzulegen. Anders ausgedrückt wird jeder Spitzenwert des Verteilungsprofils für die Anzahl schwarzer Pixel in Fig. 20B weggeschnitten", durch eine Linie, die parallel zur x-Koordinatenachse verläuft und zwei spezifische Punkte der Anzahl schwarzer Pixel verbindet, die gleich dem Wert 40e ist, wobei dieser Punkt dem Startpunkt 40ci bzw. dem Endpunkt 40di entspricht.
Dann werden, wie in Fig. 21 gezeigt, mehrere streifenförmige Bereiche 40ai festgelegt, welche jeweiligen Spitzenwerten entsprechen, und die jeweils eine spezifische Breite aufweisen, die durch die Start- und Endpositionen 40ci bzw. 40di festgelegt ist. Für jeden Streifen 40ai wird die Anzahl schwarzer Pixel gezählt, die in Richtung der y-Koordinatenachse ausgerichtet sind, wodurch ein Histogramm gemäß Fig. 21A in Längsrichtung des Gesichts zur Verfügung gestellt wird. Dann wird aus jedem Streifen zumindest ein Abschnitt herausgezogen, der von seinem benachbarten Block um eine Entfernung beabstandet ist, die größer als ein Wert 41c ist, und eine größere Anzahl schwarzer Pixel als einen Wert 41b enthält. Jeder herausgezogene Abschnitt wird als ein Einheitsblock 42i verwendet. Schließlich legt der Augenbrauenblockprozessor 75 in dem binären Gesichtsbild ein Paar von Augenbildblöcken 43 fest, die in Fig. 22 gezeigt sind, durch Wiederholung der Blockumwandlungsprozedur in y-Richtung, die für das Augenbrauenbild 15 durchgeführt wurde. Zu diesem Zeitpunkt werden auch der Maximalwert 37a und Augenrepräsentationspositionen 37b, 37c eines Augenbildes im wesentlichen ebenso wie bei den vorherigen Ausführungsformen erhalten, mit Ausnahme der Tatsache, daß ihre Koordinaten unter Verwendung der Maximalwertposition der Augenbrauenblöcke 43 als Bezugsposition festgelegt werden.
Wie aus Fig. 23 hervorgeht, nimmt die Augenbrauenbezugspositions-Einstellvorrichtung 76 von Fig. 19 die Maximalwertposition der Augenbrauenblöcke 43 entlang der Länge des Gesichts als Bezugsposition 44. Der Entfernungsmeßabschnitt 73 führt dann die erforderlichen Messungen auf der Grundlage jeweiliger Werte 45a, 45b und 45c durch, die jeweils Entfernungen von den Augenrepräsentationspositionen 37a, 37b bzw. 37c angeben, die von dem Augenrepräsentationspositionsdetektor 74 festgestellt werden.
Auch bei der vorliegenden Ausführungsform wird der Detektor 8 für den geöffneten/geschlossenen Zustand des Auges verwendet, der den geöffneten oder geschlossenen Zustand der Augen auf der Grundlage der Beziehung zwischen den Entfernungen 45a bis 45c im vorliegenden Fall ermittelt. Wie aus den Fig. 24A und 24B hervorgeht, zeigt dann, wenn eine Person ihre Augen öffnet, die Entfernung 45a eine extreme Differenz gegenüber den übrigen Entfernungen 45b, 45c in einem entsprechenden, blockgewandelten Bild; wenn dagegen die Person ihre Augen schließt, unterscheidet die sich ergebende Entfernung 45a geringfügig von den übrigen Entfernungen 45b, 45c, so daß keine extreme Differenz zwischen der Entfernung 45a und den anderen Entfernungen 45b, 45c vorhanden ist. Daher wird es mit dieser Ausführungsform möglich, eine Erfassung des geöffneten oder geschlossenen Zustands der Augen mit höherer Genauigkeit durchzuführen, selbst wenn sich die Form der Augenbrauenbilder bei möglicherweise auftretenden Änderungen der Gesichtsbildaufnahmezustände ändert.
Nunmehr wird eine fünfte Ausführungsform der Erfindung beschrieben, die ähnlich der vierten Ausführungsform ist, mit Ausnahme der Tatsache, daß die vierte Ausführungsform die Maximalwertposition von Augenbrauenblöcken 43 entlang der Länge eines menschlichen Gesichts als Bezugsposition verwendet, wogegen die fünfte Ausführungsform die Bezugsposition unter Verwendung einer Minimalwertposition bestimmt. In diesem Fall erkennt, wie in Fig. 25 gezeigt ist, die Augenbrauenbezugspositions-Einstellvorrichtung 76 von Fig. 19 die Minimalwertposition eines Augenbrauenbildblockes 43 als Bezugsposition 46. Hierbei werden der Maximalwert 37a und die Koordinatenwerte der Augenrepräsentationspositionen 37b, 37c eines Augenbildes auf im wesentlichen dieselbe Weise wie bei der vierten Ausführungsform erhalten, mit der Ausnahme, daß ihre Koordinaten durch die Minimalwertposition des Augenbrauenblocks 43 als Bezugsposition festgelegt werden. Auf der Grundlage der jeweiligen Koordinatenwerte mißt dann der Entfernungsmeßabschnitt 73 jeweilige Entfernungen 47a, 47b, 47c zwischen der Bezugsposition 46 und den Augenrepräsentationspositionen 37a, 37b, 37c (vgl. Fig. 23), die von dem Augenrepräsentationspositionsdetektor 74 festgestellt werden.
Der Detektor 8 für den geöffneten/geschlossenen Zustand des Auges erfaßt den geöffneten oder geschlossenen Zustand von Augen auf der Grundlage der Beziehungen zwischen den so erhaltenen Entfernungen 47a bis 47c. Wie unter Bezugnahme auf die in den Fig. 24A und 24B gezeigten Lehren festgestellt werden kann, zeigt dann, wenn die Augen einer Person geöffnet sind, die Entfernung 47a eine extreme Differenz gegenüber den übrigen Entfernungen 47b, 47c in einem entsprechenden, blockgewandelten Bild; wenn die Person die Augen schließt, so gibt es im wesentlichen keine extreme Differenz zwischen der Entfernung 45a und den anderen Entfernungen 47b, 47c. Daher ist es auch bei der vorliegenden Ausführungsform möglich, eine Erfassung des geöffneten oder geschlossenen Zustands der Augen mit höherer Genauigkeit durchzuführen, selbst wenn die Augenbrauenbilder eine unterschiedliche Form bei möglichen Änderungen der Gesichtsfeldaufnahmebedingungen zeigen.
Die fünfte Ausführungsform kann so abgeändert werden, daß die Bezugsposition ein Punkt in der Mitte oder im Zentrum von Augenbrauenbildblöcken 43 entlang der Gesichtslänge ist, statt die Minimalwertposition der Blöcke wie bei der fünften Ausführungsform. Eine derartige Anordnung wird nachstehend als eine sechste Ausführungsform der Erfindung beschrieben. Wie aus Fig. 26 hervorgeht, nimmt die Augenbrauenbezugspositions- Einstellvorrichtung 76 (sh. Fig. 19) als Bezugsposition 48 einen Punkt in der Mitte eines Augenbrauenbildblockes 43 entlang der Länge des Gesichts. Hierbei werden der Maximalwert 37a und die Koordinatenwerte von Augenrepräsentationspositionen 37b, 37c eines Augenbildes ebenfalls im wesentlichen auf dieselbe Weise wie bei der fünften Ausführungsform erhalten, abgesehen von der Tatsache, daß ihre Koordinaten so festgelegt werden, daß die Zentrumsposition des Augenbrauenblocks 43 die Bezugsposition darstellt. Der Entfernungsmeßabschnitt 73 mißt dann auf der Grundlage der jeweiligen Koordinatenwerte jeweilige Entfernungen 49a, 49b, 49c zwischen der Bezugsposition 46 und den Augenrepräsentationspositionen 37a, 37b, 37c (sh. Fig. 23), die von dem Augenrepräsentationspositionsdetektor 74 festgestellt werden.
Der Detektor 8 für den geöffneten/geschlossenen Zustand des Auges erfaßt den geöffneten oder geschlossenen Zustand der Augen auf der Grundlage der Beziehung zwischen den so erhaltenen Entfernungen 49a bis 49c. Wie unter Berücksichtigung der Lehren der Fig. 24A und 24B festgestellt werden kann, zeigt dann, wenn die Augen einer Person geöffnet sind, die Entfernung 49a eine extreme Differenz in Bezug auf die übrigen Entfernungen 49b, 49c; wenn andererseits die Person die Augen schließt, so gibt es keine extreme Differenz zwischen der Entfernung 49a und den anderen Entfernungen 49b, 49c. Daher kann auch diese Ausführungsform eine exakte Erfassung des geöffneten/geschlossenen Zustands der Augen durchführen, selbst wenn sich die Form der Augenbrauenbilder bei möglichen Änderungen der Gesichtsbildaufnahmebedingungen ändert.
Ein Gesichtsbildprozessor gemäß einer siebten Ausführungsform der Erfindung ist in Fig. 27 gezeigt. Während die zweite bis sechste Ausführungsform den geöffneten/geschlossenen Zustand der Augen dadurch ermitteln, daß die relative Positionsbeziehung zwischen einem Augenbrauenbildblock und dem zugehörigen Augenbild untersucht wird, ist die siebte Ausführungsform so ausgebildet, daß auch mit dem Augenbild zusammen mit dem Augenbrauenblock eine Blockbearbeitung durchgeführt wird, wodurch der geöffnete/geschlossene Zustand der Augen dadurch ermittelt werden kann, daß Variationen ihres Flächenverhältnisses untersucht werden. Die in Fig. 27 gezeigte Anordnung ist ähnlich der Anordnung von Fig. 2, wobei der Relativpositionsdetektor 7 durch eine Reihenschaltung eines Augenbrauenbildblock-Bearbeitungsabschnitts 75, eines Augenbild-Berechnungsabschnitts 77, eines Flächenerfassungsabschnitts 78 und eines Flächenverhältnisberechnungsabschnitts 79 ersetzt ist. Der Augenbrauenbildblockprozessor 75 und der Augenbildblockprozessor 77 führen eine Blockumwandlungsbearbeitung für ein Augenbrauenbild bzw. ein Augenbild durch, im wesentlichen auf dieselbe Weise wie voranstehend geschildert, wodurch ein Augenbrauenbildblock 43 und ein zugehöriger, entsprechender Augenbildblock 50 zur Verfügung gestellt werden, wie in Fig. 28 gezeigt ist.
Dann stellt der Flächendetektor 78 die exakte Fläche jedes Blocks auf der Grundlage der Koordinatenwerte jeweiliger "blockförmiger" Bildabschnitte fest. Die festgestellte Fläche ("51a" in Fig. 28) des Augenbrauenblocks 43 bleibt im wesentlichen konstant, unabhängig von dem geöffneten oder geschlossenen Zustand eines Auges, wogegen die Fläche ("51b" in Fig. 28) des Augenblocks 50 sich ändern kann, abhängig von dem geöffneten/geschlossenen Zustand des Auges. Die Flächenverhältnisberechnungsvorrichtung 79 berechnet dann das Flächenverhältnis der Blöcke 43 und 51. Der Detektor 8 für den geöffneten/geschlossenen Zustand des Auges erfaßt den geöffneten/geschlossenen Zustand des Auges durch Untersuchung von Änderungen des Flächenverhältnisses.
Die vorliegende Ausführungsform arbeitet folgendermaßen. Der Augenbildblockprozessor 77 wandelt das Augenbild 16 (vgl. Fig. 7) in ein entsprechendes Bildblockmuster um, im wesentlichen auf dieselbe Weise wie bei dem Augenbrauenbildblockprozessor 75, wodurch der sich ergebende Block ein Augenblock 50 wird. Der Flächendetektor 78 berechnet die Fläche jedes der Augenbrauen- und Augenblöcke 43 bzw. 50, wie durch "51a" bzw. "51b" in Fig. 28 dargestellt.
Dann berechnet die Flächenverhältnisberechnungsvorrichtung 79 das Verhältnis der Augenfläche 51b zur Augenbrauenfläche 51a. Auf der Grundlage von Änderungen dieses Flächenverhältnisses ermittelt dann der Detektor 8 für den geöffneten/geschlossenen Zustand des Auges den geöffneten oder geschlossenen Zustand eines betreffenden Auges. Wie aus den Fig. 29A und 29B hervorgeht, ist das Flächenverhältnis kleiner, wenn das Auge geschlossen ist, als wenn es geöffnet ist. Daher ist es bei dieser Ausführungsform möglich, eine exakte Erfassung des geöffneten oder geschlossenen Zustands der Augen selbst dann durchzuführen, wenn sich die Form der Augenbrauen- und Augenbilder bei möglichen Änderungen der Gesichtsbildaufnahmebedingungen ändert.
Ein Gesichtsbildprozessor gemäß einer achten Ausführungsform der Erfindung ist in Fig. 30 gezeigt. Während die siebte Ausführungsform den geöffneten/geschlossenen Zustand von Augen durch Untersuchung von Variationen des Flächenverhältnisses der Augenbrauen- und Augenbildblöcke feststellt, ist die achte Ausführungsform so ausgebildet, daß diese Erfassung auf der Grundlage von Variationen des Verhältnisses der Breite des Augenbrauenblocks entlang der Länge des Gesichts und der Breite des Augenblocks durchgeführt wird.
Die achte Ausführungsform, die in Fig. 30 gezeigt ist, ist ähnlich jener von Fig. 27, wobei der Flächendetektor 78 und die Flächenverhältnisberechnungsvorrichtung 79 durch einen Blockbreitenmeßabschnitt 80 und einen Breitenverhältnisberechnungsabschnitt 81 ersetzt sind. Der Abschnitt 80 wird dazu verwendet, die Breite jedes der Augenbrauenblöcke 43 und der Augenblöcke 50 entlang der Länge des Gesichtes zu messen. Der Abschnitt 81 dient zur Berechnung des Verhältnisses der Breiten der Augenbrauen- und Augenblöcke 43 bzw. 50.
Die vorliegende Ausführungsform arbeitet wie folgt. Nach Empfang des Augenbrauenblocks 43 und des Augenblocks 50, die wie in Fig. 31 erfaßt wurden, mißt der Blockbreitenmeßabschnitt 80 die Breiten 53, 54 jeweiliger Blöcke entlang der Länge des Gesichts auf der Grundlage von deren Koordinatenwerten. Die Breitenverhältnisberechnungsvorrichtung 81 berechnet dann das Verhältnis der Augenbreite 54 zur Augenbrauenbreite 53.
Der Detektor 8 für den geöffneten/geschlossenen Zustand des Auges erfaßt den geöffneten oder geschlossenen Zustand von Augen auf der Grundlage von Änderungen des Breitenverhältnisses. Aus den Fig. 32A und 32B wird deutlich, daß das Breitenverhältnis kleiner ist, wenn das Auge geschlossen ist, als wenn dieses geöffnet ist. Dies führt dazu, daß auch diese Ausführungsform eine exakte Erfassung des geöffneten/geschlossenen Zustands der Augen durchführen kann, selbst wenn sich die Form der Augenbrauenbilder bei möglichen Änderungen der Gesichtsbildaufnahmebedingungen ändert.
Wie voranstehend geschildert kann durch die vorliegende Erfindung die Erfassung des geöffneten/geschlossenen Zustands der Augen einer Person erfolgreich sowohl in Bezug auf die Genauigkeit als auch die Verläßlichkeit verbessert werden, infolge der Tatsache, daß diese Erfassung auf der Erfassung der Positionsbeziehung zumindest eines Augenbrauenbildes und eines zugehörigen, entsprechenden Augenbildes beruht, wobei das Augenbrauenbild natürlicherweise im Zustand unverändert bleiben kann, und seine Position einfach feststellbar ist, sobald das zugeordnete Augenbild erfaßt wurde.
Zwar wurde die Erfindung im einzelnen unter Bezugnahme auf ihre bevorzugten Ausführungsformen gezeigt und beschrieben, jedoch wird Fachleuten auf diesem Gebiet deutlich werden, daß sich die voranstehenden und weitere Änderungen der Form und Einzelheiten vornehmen lassen, ohne vom Wesen und Umfang der Erfindung abzuweichen.

Claims (11)

1. Gesichtsbild-Verarbeitungssystem mit:
einer Eingabevorrichtung, um ein Eingangsbild zu erhalten, welches ein Gesicht einer Person darstellt;
einer Augenheraus ziehbereichs-Einstellvorrichtung zur Bestimmung eines Augenherausziehbereiches innerhalb des Eingangs-Gesichtsbilds;
einer Herausziehvorrichtung zum Herausziehen erster und zweiter Bildabschnitte aus dem Augenherausziehbereich, wobei die ersten und zweiten Bildabschnitte einem Augenbrauenbild bzw. einem Augenbild entsprechen;
einer ersten Detektorvorrichtung zur Erfassung von Relativpositionen der herausgezogenen ersten und zweiten Bildabschnitte; und
einer zweiten Detektorvorrichtung zur Erfassung eines geöffneten oder geschlossenen Zustands des Augenbilds durch Untersuchung von Variationen der erfaßten Relativpositionen.
2. System nach Anspruch 1, dadurch gekennzeichnet, daß die erste Detektorvorrichtung Variationen der Relativpositionen des Augenbrauenbildes und des Augenbildes auf der Grundlage von Änderungen der Entfernung zwischen diesen Bildern feststellt.
3. System nach Anspruch 1, dadurch gekennzeichnet, daß die erste Detektorvorrichtung aufweist:
eine Bezugspositions-Einstellvorrichtung zur Einstellung einer Bezugsposition des Augenbrauenbildes entlang der Länge des Gesichts;
eine Augeneigenschaftspositionsdetektorvorrichtung zur Erfassung eines Maximalwertes eines Punktes in der Mitte des Augenbildes entlang der Länge des Gesichts und einer Position zumindest eines repräsentativen Punktes des Augenbildes entlang der Länge des Gesichts; und
eine Entfernungsmeßvorrichtung zur Messung einer Entfernung zwischen der Bezugsposition und dem repräsentativen Punkt.
4. System nach Anspruch 1, dadurch gekennzeichnet, daß die erste Detektorvorrichtung aufweist:
eine Schwerpunktdetektorvorrichtung zur Erfassung jeweiliger Zentren des Augenbrauenbildes und des Augenbildes entlang der Breite des Gesichts; und
eine Entfernungsmeßvorrichtung zur Messung einer Entfernung zwischen den Zentren des Augenbrauenbildes und des Augenbildes, die auf die voranstehend geschilderte Weise erfaßt wurden.
5. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Augenherausziehbereichs-Einstellvorrichtung aufweist:
eine Digitalisierungsvorrichtung zum Digitalisieren des Eingangs-Gesichtsbildes zur Bereitstellung eines entsprechenden binären Bildes, und zur Bestimmung eines Augenherausziehbereiches innerhalb des binären Bildes.
6. Gesichtsbild-Bearbeitungssystem mit:
einer Gesichtsbild-Eingabevorrichtung zur Bereitstellung eines Eingangs-Gesichtsbildes eines überwachten Gesichts;
einer Augenheraus ziehbereichs-Einstellvorrichtung zur Einstellung eines Augenherausziehbereiches innerhalb eines Eingangs-Gesichtsbilds;
einer Gesichtsbild-Eigenschaftsherausziehvorrichtung zum Herausziehen erster und zweiter Bildabschnitte entsprechend einem Augenbrauenbild und einem Augenbild aus dem Augenherausziehbereich;
einer Flächendetektorvorrichtung zur Erfassung von Flächen des herausgezogenen Augenbrauenbilds und des herausgezogenen Augenbilds;
einer Flächenverhältnisberechnungsvorrichtung zur Verwendung der genannten Flächen zur Berechnung eines Flächenverhältnisses zwischen dem Augenbrauenbild und dem Augenbild; und
einer Detektorvorrichtung zur Erfassung des Ausmaßes eines geöffneten oder geschlossenen Zustands eines Auges auf der Grundlage von Änderungen des Flächenverhältnisses, welches von der Flächenverhältnisberechnungsvorrichtung berechnet wird.
7. Vorrichtung nach Anspruch 6, gekennzeichnet durch:
eine Vorrichtung zur Umwandlung sowohl des Augenbrauenbildes als auch des Augenbildes in entsprechende Blockabschnitte, die jeweils einen Rahmen mit einer festgelegten Fläche aufweisen, und zur Bereitstellung von Augenbrauen-Bildblöcken und Augen-Bildblöcken; und
wobei die Flächendetektorvorrichtung die Fläche jedes der Augenbrauen-Bildblöcke und der Augen-Bildblöcke feststellt.
8. Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, daß die Augenherausziehbereichs-Einstellvorrichtung aufweist:
eine Digitalisierungsvorrichtung zum Digitalisieren des Eingangs-Gesichtsbildes zur Bereitstellung eines entsprechenden binären Bildes, und zur Bestimmung eines Augenherausziehbereiches innerhalb des binären Bildes.
9. Gesichtsbild-Bearbeitungsvorrichtung mit:
einer Gesichtsbild-Eingabevorrichtung zur Bereitstellung eines Eingangs-Gesichtsbildes eines überwachten Gesichts;
einer Augenherausziehbereichs-Einstellvorrichtung zur Einstellung eines Augenherausziehbereiches innerhalb des Eingangs-Gesichtsbilds;
einer Gesichtsbild-Eigenschaftsherausziehvorrichtung zum Herausziehen eines Augenbrauenbildes und eines Augenbildes aus dem Augenherausziehbereich;
einer Meßvorrichtung zur Messung einer Breite bestimmter Abschnitte sowohl des Augenbrauen- als auch Augenbildes entlang der Länge des Gesichts;
einer Berechnungsvorrichtung zur Berechnung eines Breitenverhältnisses zwischen der Breite des Augenbrauenbildes und der Breite des Augenbildes; und
einer Detektorvorrichtung zur Erfassung eines geöffneten oder geschlossenen Zustands eines Auges auf der Grundlage von Änderungen des Breitenverhältnisses, welches von der Berechnungsvorrichtung berechnet wird.
10. Vorrichtung nach Anspruch 9, gekennzeichnet durch:
eine Vorrichtung zur Umwandlung sowohl des Augenbrauenbildes als auch des Augenbildes in entsprechende Blockabschnitte, die jeweils einen Rahmen mit fester Fläche aufweisen, und zur Bereitstellung von Augenbrauen-Bildblöcken und Augen-Bildblöcken; und
eine Breitenmeßvorrichtung zur Messung der Breite sowohl der Augenbrauen-Bildblöcke als auch der Augen-Bildblöcke entlang der Länge des Gesichts.
11. Vorrichtung nach Anspruch 9, dadurch gekennzeichnet, daß die Augenherausziehbereichs-Einstellvorrichtung aufweist:
eine Digitalisierungsvorrichtung zum Digitalisieren des Eingangs-Gesichtsbildes zur Bereitstellung eines entsprechenden binären Bildes, und zur Festlegung eines Augenherausziehbereiches innerhalb des binären Bildes.
DE19609455A 1995-07-28 1996-03-11 Gesichtsbild-Verarbeitungssystem Expired - Fee Related DE19609455C2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19366195A JP3350296B2 (ja) 1995-07-28 1995-07-28 顔画像処理装置

Publications (2)

Publication Number Publication Date
DE19609455A1 true DE19609455A1 (de) 1997-01-30
DE19609455C2 DE19609455C2 (de) 2000-06-08

Family

ID=16311675

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19609455A Expired - Fee Related DE19609455C2 (de) 1995-07-28 1996-03-11 Gesichtsbild-Verarbeitungssystem

Country Status (3)

Country Link
US (1) US5878156A (de)
JP (1) JP3350296B2 (de)
DE (1) DE19609455C2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112270808A (zh) * 2020-10-23 2021-01-26 湖南行必达网联科技有限公司 一种防疲劳驾驶方法、装置及车辆

Families Citing this family (107)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10960A (ja) * 1996-06-12 1998-01-06 Yazaki Corp 運転者監視装置
US6184926B1 (en) * 1996-11-26 2001-02-06 Ncr Corporation System and method for detecting a human face in uncontrolled environments
US5892837A (en) * 1997-08-29 1999-04-06 Eastman Kodak Company Computer program product for locating objects in an image
US6252976B1 (en) * 1997-08-29 2001-06-26 Eastman Kodak Company Computer program product for redeye detection
KR100295850B1 (ko) * 1997-12-17 2001-11-22 이계안 졸음운전경보시스템의졸음운전판단방법
FR2773521B1 (fr) * 1998-01-15 2000-03-31 Carlus Magnus Limited Procede et dispositif pour surveiller en continu l'etat de vigilance du conducteur d'un vehicule automobile, afin de detecter et prevenir une tendance eventuelle a l'endormissement de celui-ci
DE19803158C1 (de) * 1998-01-28 1999-05-06 Daimler Chrysler Ag Vorrichtung zur Vigilanzzustandsbestimmung
JP3453085B2 (ja) * 1998-07-23 2003-10-06 ジーイー横河メディカルシステム株式会社 X線ct装置
US6060989A (en) * 1998-10-19 2000-05-09 Lucent Technologies Inc. System and method for preventing automobile accidents
US6163277A (en) * 1998-10-22 2000-12-19 Lucent Technologies Inc. System and method for speed limit enforcement
JP3600755B2 (ja) * 1999-05-13 2004-12-15 三菱電機株式会社 顔画像処理装置
JP3969894B2 (ja) * 1999-05-24 2007-09-05 三菱電機株式会社 顔画像処理装置
JP3695990B2 (ja) * 1999-05-25 2005-09-14 三菱電機株式会社 顔画像処理装置
JP2000350123A (ja) * 1999-06-04 2000-12-15 Fuji Photo Film Co Ltd 画像選択装置、カメラ、画像選択方法及び記録媒体
US6130617A (en) * 1999-06-09 2000-10-10 Hyundai Motor Company Driver's eye detection method of drowsy driving warning system
JP2001010368A (ja) * 1999-06-17 2001-01-16 Hyundai Motor Co Ltd 居眠り運転警報システムの居眠り運転判断方法
TW445434B (en) * 1999-08-04 2001-07-11 Cyberlink Corp System and method for automatically extracting facial features
US6167333A (en) * 1999-08-19 2000-12-26 Lucent Technologies Inc. Highway information system
US6310542B1 (en) 1999-08-19 2001-10-30 Lucent Technologies Inc. Cognitive system for a vehicle and its occupants
US7076088B2 (en) * 1999-09-03 2006-07-11 Honeywell International Inc. Near-infrared disguise detection
EP1085366B1 (de) * 1999-09-14 2004-09-15 Kabushiki Kaisha Toshiba Vorrichtung und Verfahren zur Portrait Photographie
US6898300B1 (en) * 1999-10-29 2005-05-24 Fuji Photo Film Co., Ltd. Image processing method and apparatus
JP2001307076A (ja) * 2000-04-24 2001-11-02 Niles Parts Co Ltd 眼の状態検出装置、居眠り検出装置
AUPQ896000A0 (en) * 2000-07-24 2000-08-17 Seeing Machines Pty Ltd Facial image processing system
JP4469476B2 (ja) * 2000-08-09 2010-05-26 パナソニック株式会社 眼位置検出方法および眼位置検出装置
US6711279B1 (en) * 2000-11-17 2004-03-23 Honeywell International Inc. Object detection
US7200246B2 (en) * 2000-11-17 2007-04-03 Honeywell International Inc. Object detection
US6792134B2 (en) * 2000-12-19 2004-09-14 Eastman Kodak Company Multi-mode digital image processing method for detecting eyes
US7176440B2 (en) * 2001-01-19 2007-02-13 Honeywell International Inc. Method and apparatus for detecting objects using structured light patterns
US6841780B2 (en) * 2001-01-19 2005-01-11 Honeywell International Inc. Method and apparatus for detecting objects
DE50111391D1 (de) * 2001-01-29 2006-12-14 Benq Mobile Gmbh & Co Ohg Personenerkennung mit handyunterstützung
JP3486613B2 (ja) * 2001-03-06 2004-01-13 キヤノン株式会社 画像処理装置およびその方法並びにプログラム、記憶媒体
US7027621B1 (en) * 2001-03-15 2006-04-11 Mikos, Ltd. Method and apparatus for operator condition monitoring and assessment
US7027619B2 (en) * 2001-09-13 2006-04-11 Honeywell International Inc. Near-infrared method and system for use in face detection
US7058209B2 (en) * 2001-09-20 2006-06-06 Eastman Kodak Company Method and computer program product for locating facial features
US7239726B2 (en) * 2001-12-12 2007-07-03 Sony Corporation System and method for effectively extracting facial feature information
JP2004013319A (ja) * 2002-06-04 2004-01-15 Earth Beat Inc 画像中の物体認識方法
HK1053239A2 (en) * 2002-10-09 2003-09-26 Titanium Tech Ltd Apparatus and method for recognizing images
ATE412223T1 (de) * 2002-10-24 2008-11-15 L 1 Identity Solutions Ag Prüfung von bildaufnahmen von personen
US7202792B2 (en) * 2002-11-11 2007-04-10 Delphi Technologies, Inc. Drowsiness detection system and method
CA2509644A1 (en) * 2002-12-11 2004-06-24 Nielsen Media Research, Inc. Detecting a composition of an audience
US7203338B2 (en) * 2002-12-11 2007-04-10 Nielsen Media Research, Inc. Methods and apparatus to count people appearing in an image
KR100464040B1 (ko) * 2002-12-16 2005-01-03 엘지전자 주식회사 얼굴 움직임을 이용한 이동 통신 단말기의 제어 방법
JP2004254298A (ja) * 2003-01-30 2004-09-09 Ricoh Co Ltd 画像処理装置、プログラム及び記憶媒体
JP2004304765A (ja) * 2003-03-20 2004-10-28 Fuji Photo Film Co Ltd 画像記録装置および方法並びにプログラム
JP2004348674A (ja) * 2003-05-26 2004-12-09 Noritsu Koki Co Ltd 領域検出方法及びその装置
JP3673834B2 (ja) * 2003-08-18 2005-07-20 国立大学法人山口大学 眼球運動を用いた視線入力コミュニケーション方法
US7331671B2 (en) * 2004-03-29 2008-02-19 Delphi Technologies, Inc. Eye tracking method based on correlation and detected eye movement
JP4177779B2 (ja) * 2004-03-31 2008-11-05 富士フイルム株式会社 画像表示制御装置および方法ならびに画像表示制御装置を制御するプログラム
US20080080744A1 (en) * 2004-09-17 2008-04-03 Mitsubishi Electric Corporation Face Identification Apparatus and Face Identification Method
KR100590572B1 (ko) * 2004-12-15 2006-06-19 삼성전자주식회사 눈 위치 검출 방법 및 장치
JP2006254229A (ja) * 2005-03-11 2006-09-21 Fuji Photo Film Co Ltd 撮像装置、撮像方法及び撮像プログラム
JP2006260397A (ja) * 2005-03-18 2006-09-28 Konica Minolta Holdings Inc 開眼度推定装置
US7676063B2 (en) * 2005-03-22 2010-03-09 Microsoft Corp. System and method for eye-tracking and blink detection
US7301465B2 (en) * 2005-03-24 2007-11-27 Tengshe Vishwas V Drowsy driving alarm system
US7650034B2 (en) * 2005-12-14 2010-01-19 Delphi Technologies, Inc. Method of locating a human eye in a video image
JP4127296B2 (ja) * 2006-06-09 2008-07-30 ソニー株式会社 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
US7742621B2 (en) * 2006-06-13 2010-06-22 Delphi Technologies, Inc. Dynamic eye tracking system
US7620216B2 (en) * 2006-06-14 2009-11-17 Delphi Technologies, Inc. Method of tracking a human eye in a video image
FR2905586B1 (fr) * 2006-09-28 2009-04-17 Siemens Vdo Automotive Sas "procede de localisation des pupilles"
US8102417B2 (en) * 2006-10-25 2012-01-24 Delphi Technologies, Inc. Eye closure recognition system and method
US20080166052A1 (en) * 2007-01-10 2008-07-10 Toshinobu Hatano Face condition determining device and imaging device
US8045766B2 (en) * 2007-02-16 2011-10-25 Denso Corporation Device, program, and method for determining sleepiness
JP4259585B2 (ja) * 2007-03-08 2009-04-30 株式会社デンソー 眠気判定装置,プログラムおよび眠気判定方法
JP4375420B2 (ja) * 2007-03-26 2009-12-02 株式会社デンソー 眠気警報装置、及びプログラム
JP4898532B2 (ja) * 2007-04-13 2012-03-14 富士フイルム株式会社 画像処理装置および撮影システム並びに瞬き状態検出方法、瞬き状態検出プログラムおよびそのプログラムが記録された記録媒体
JP4985117B2 (ja) * 2007-06-06 2012-07-25 株式会社ニコン 画像処理プログラム、および画像処理装置
US8031970B2 (en) * 2007-08-27 2011-10-04 Arcsoft, Inc. Method of restoring closed-eye portrait photo
US9036871B2 (en) 2007-09-01 2015-05-19 Eyelock, Inc. Mobility identity platform
WO2009029757A1 (en) 2007-09-01 2009-03-05 Global Rainmakers, Inc. System and method for iris data acquisition for biometric identification
US9117119B2 (en) 2007-09-01 2015-08-25 Eyelock, Inc. Mobile identity platform
CN100463000C (zh) * 2007-09-27 2009-02-18 上海交通大学 基于级联分类和哈夫圆变换的人眼状态检测方法
JP5055166B2 (ja) 2008-02-29 2012-10-24 キヤノン株式会社 眼の開閉度判定装置、方法及びプログラム、撮像装置
US8570176B2 (en) * 2008-05-28 2013-10-29 7352867 Canada Inc. Method and device for the detection of microsleep events
US8411963B2 (en) 2008-08-08 2013-04-02 The Nielsen Company (U.S.), Llc Methods and apparatus to count persons in a monitored environment
JP5276381B2 (ja) * 2008-08-27 2013-08-28 安川情報システム株式会社 眼部領域検出装置、眼部領域検出方法および眼部領域検出プログラム
KR101480564B1 (ko) 2008-10-21 2015-01-12 삼성전자주식회사 안면 인식을 이용한 알람 제어 장치 및 방법
JP4788786B2 (ja) * 2009-02-09 2011-10-05 株式会社デンソー 眠気検出装置,プログラムおよび眠気検出方法
JP5270415B2 (ja) * 2009-03-19 2013-08-21 トヨタ自動車株式会社 眠気判定装置及びプログラム
KR101032726B1 (ko) * 2009-09-01 2011-05-06 엘지이노텍 주식회사 눈 상태 검출방법
FR2958431B1 (fr) * 2010-03-30 2012-08-17 Solystic Dispositif de traitement d'objets avec un systeme pour surveiller en temps reel la qualite des images des objets
JP5641813B2 (ja) 2010-08-17 2014-12-17 キヤノン株式会社 撮像装置及び撮像方法、画像処理装置及び画像処理方法
JP2012068948A (ja) * 2010-09-24 2012-04-05 Renesas Electronics Corp 顔属性推定装置およびその方法
JP5627511B2 (ja) * 2011-03-03 2014-11-19 アイシン精機株式会社 状態推定装置、状態推定方法及びプログラム
US9380978B2 (en) 2011-06-29 2016-07-05 Bruce Reiner Method and apparatus for real-time measurement and analysis of occupational stress and fatigue and performance outcome predictions
US8620088B2 (en) 2011-08-31 2013-12-31 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
WO2013035704A1 (ja) * 2011-09-05 2013-03-14 富山県 居眠り検出方法と装置
JP5418579B2 (ja) * 2011-12-06 2014-02-19 株式会社デンソー 開閉眼検出装置
US9075453B2 (en) * 2011-12-29 2015-07-07 Khalifa University of Science, Technology & Research (KUSTAR) Human eye controlled computer mouse interface
AU2014208275A1 (en) * 2013-08-02 2015-02-19 Vermeer Manufacturing Company Remote Control System
US10614328B2 (en) 2014-12-30 2020-04-07 Joyson Safety Acquisition LLC Occupant monitoring systems and methods
US10532659B2 (en) 2014-12-30 2020-01-14 Joyson Safety Systems Acquisition Llc Occupant monitoring systems and methods
US9533687B2 (en) 2014-12-30 2017-01-03 Tk Holdings Inc. Occupant monitoring systems and methods
USD751437S1 (en) 2014-12-30 2016-03-15 Tk Holdings Inc. Vehicle occupant monitor
TWI536279B (zh) * 2015-04-22 2016-06-01 緯創資通股份有限公司 人眼偵測方法及系統
US10007845B2 (en) 2015-07-06 2018-06-26 Pixart Imaging Inc. Eye state detecting method and eye state detecting system
US9984282B2 (en) * 2015-12-10 2018-05-29 Perfect Corp. Systems and methods for distinguishing facial features for cosmetic application
US11144756B2 (en) 2016-04-07 2021-10-12 Seeing Machines Limited Method and system of distinguishing between a glance event and an eye closure event
TWI647666B (zh) * 2017-08-28 2019-01-11 緯創資通股份有限公司 瞌睡偵測裝置及其瞌睡偵測方法
US11430264B2 (en) * 2018-07-16 2022-08-30 Honor Device Co., Ltd. Eye open or closed state detection method and electronic device
CN110585592B (zh) * 2019-07-31 2022-11-22 济南瞳星智能科技有限公司 一种个性化电子针灸装置及其生成方法与生成装置
US11711638B2 (en) 2020-06-29 2023-07-25 The Nielsen Company (Us), Llc Audience monitoring systems and related methods
CN112036311A (zh) * 2020-08-31 2020-12-04 北京字节跳动网络技术有限公司 基于眼部状态检测的图像处理方法、装置及存储介质
KR102501112B1 (ko) * 2021-04-09 2023-02-16 티맵모빌리티 주식회사 졸음운전 감지장치 및 졸음운전 감지장치의 동작 방법
US11860704B2 (en) 2021-08-16 2024-01-02 The Nielsen Company (Us), Llc Methods and apparatus to determine user presence
US11758223B2 (en) 2021-12-23 2023-09-12 The Nielsen Company (Us), Llc Apparatus, systems, and methods for user presence detection for audience monitoring
CN116386120B (zh) * 2023-05-24 2023-08-18 杭州企智互联科技有限公司 一种用于智慧校园宿舍的无感监控管理系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4441332A1 (de) * 1993-11-11 1995-05-18 Mitsubishi Electric Corp Fahrer-Fotografiervorrichtung
DE19509689A1 (de) * 1994-03-10 1995-09-14 Mitsubishi Electric Corp Körperzustands-Erfassungsapparat
DE19603287A1 (de) * 1995-07-06 1997-01-09 Mitsubishi Electric Corp Gesichtsbildaufnahmevorrichtung

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4975969A (en) * 1987-10-22 1990-12-04 Peter Tal Method and apparatus for uniquely identifying individuals by particular physical characteristics and security system utilizing the same
JP2522859B2 (ja) * 1990-12-14 1996-08-07 日産自動車株式会社 眼位置検出装置
JPH0546743A (ja) * 1991-08-09 1993-02-26 Matsushita Electric Ind Co Ltd 個人識別装置
JP2936943B2 (ja) * 1993-02-03 1999-08-23 日産自動車株式会社 運転者の状態検出装置
US5482048A (en) * 1993-06-30 1996-01-09 University Of Pittsburgh System and method for measuring and quantitating facial movements
JPH07101265A (ja) * 1993-10-01 1995-04-18 Toyota Motor Corp 運転状態検出装置
US5481622A (en) * 1994-03-01 1996-01-02 Rensselaer Polytechnic Institute Eye tracking apparatus and method employing grayscale threshold values
JP2937030B2 (ja) * 1994-09-14 1999-08-23 三菱電機株式会社 画像処理装置及び人物状態判定装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4441332A1 (de) * 1993-11-11 1995-05-18 Mitsubishi Electric Corp Fahrer-Fotografiervorrichtung
DE19509689A1 (de) * 1994-03-10 1995-09-14 Mitsubishi Electric Corp Körperzustands-Erfassungsapparat
DE19603287A1 (de) * 1995-07-06 1997-01-09 Mitsubishi Electric Corp Gesichtsbildaufnahmevorrichtung

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112270808A (zh) * 2020-10-23 2021-01-26 湖南行必达网联科技有限公司 一种防疲劳驾驶方法、装置及车辆

Also Published As

Publication number Publication date
JPH0944685A (ja) 1997-02-14
JP3350296B2 (ja) 2002-11-25
DE19609455C2 (de) 2000-06-08
US5878156A (en) 1999-03-02

Similar Documents

Publication Publication Date Title
DE19609455C2 (de) Gesichtsbild-Verarbeitungssystem
DE2831582C2 (de) Verfahren zur Identifizierung einer Person und Vorrichtung zur Durchführung des Verfahrens
DE19614975C2 (de) Gesichtsbildverarbeitungssystem
DE60313941T2 (de) Personendetektion durch Gesichtsdetektion und Bewegungsdetektion
DE60123378T2 (de) Digitales Bildverarbeitungsverfahren mit verschiedenen Arbeitsweisen zum Erkennen von Augen
EP1062640B1 (de) Verfahren zum verifizieren der authentizität eines im rahmen einer personenerkennung aufgenommenen bildes
DE60307583T2 (de) Auswertung der Schärfe eines Bildes der Iris eines Auges
DE69906403T2 (de) Verfahren und Gerät zum Detektieren eines gesichtsähnlichen Gebiets
DE69922752T2 (de) Verfahren zum Detektieren eines menschlichen Gesichtes
DE602005001627T2 (de) Vorrichtung zur Extraktion von Fussgängern
EP2584493B1 (de) Verfahren zur Unterscheidung zwischen einem realen Gesicht und einer zweidimensionalen Abbildung des Gesichts in einem biometrischen Erfassungsprozess
DE69730811T2 (de) Anlage zur Bilderkennung
DE60217589T2 (de) Vorrichtung und Verfahren zur Detektion von weissen Linien
DE102005000646A1 (de) Vorrichtung, Verfahren und Programm zum Erfassen von sich bewegenden Objekten
DE112009000949T5 (de) Detektion eines freien Fahrpfads für ein Fahrzeug
EP1997070A2 (de) Raum-zeitliches verfahren und vorrichtung zur korrespondenzbestimmung, vorzugsweise zur dreidimensionalen rekonstruktion einer szene
DE102007050568A1 (de) Verfahren und Einrichtung zur Objekterkennung in einem Bild
EP3245943A1 (de) Verfahren zur berührungslosen ermittlung und aufbereitung von schlafbewegungsdaten
CH713061B1 (de) System und Verfahren zur berührungslosen biometrischen Authentifizierung.
EP1180258B1 (de) Mustererkennung mittels prüfung zusätzlicher merkmale nach teilverarbeitung
DE19883010B4 (de) Verfahren und Vorrichtung zum Erkennen eines sich bewegenden Objekts in einer Abfolge von Farbvollbildern
EP1143373A1 (de) Verfahren zur störanteilsfreien Bilderfassung mittels eines elektronischen Sensors
DE19754909A1 (de) Verfahren und Vorrichtung zur Erfassung und Bearbeitung von Abbildungen biologischen Gewebes
WO2019063255A1 (de) Verfahren zur erkennung eines blattrandes, verfahren zur gezielten behandlung von pflanzen mit einem blattbehandlungsmittel und verwendung eines eventbasierten bildsensors zur erkennung eines blattrandes
DE60312301T2 (de) Bildverarbeitungsvorrichtung und -methode zur Erkennung der Umrisse eines bewegten Objektes

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20121002