DE112008002646T5 - Fahrzeuginterne Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Programm - Google Patents

Fahrzeuginterne Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Programm Download PDF

Info

Publication number
DE112008002646T5
DE112008002646T5 DE112008002646T DE112008002646T DE112008002646T5 DE 112008002646 T5 DE112008002646 T5 DE 112008002646T5 DE 112008002646 T DE112008002646 T DE 112008002646T DE 112008002646 T DE112008002646 T DE 112008002646T DE 112008002646 T5 DE112008002646 T5 DE 112008002646T5
Authority
DE
Germany
Prior art keywords
brightness
face
camera
image
face area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112008002646T
Other languages
English (en)
Inventor
Tadashi Asano
Akira Fujimoto
Yukihiro Matsuura
Yukihiko Yoshinaga
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Publication of DE112008002646T5 publication Critical patent/DE112008002646T5/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • B60K28/066Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver actuating a signalling device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1103Detecting eye twinkling

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Hospice & Palliative Care (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Input (AREA)
  • Emergency Alarm Devices (AREA)
  • Traffic Control Systems (AREA)

Abstract

Fahrzeuginterne Bildverarbeitungsvorrichtung, mit:
einer Gesichtsbildempfangseinrichtung zum Empfangen eines aufgenommenen Bildes mit einem Gesicht eines Fahrers von einer Kamera;
einer Gesichtsbereichserkennungseinrichtung zum Analysieren des Bildes, das durch die Gesichtsbildempfangseinrichtung empfangen wird, und Erkennen eines Bereichs eines Gesichts, der in dem Bild enthalten ist;
einer Helligkeitsbestimmungseinrichtung zum Bestimmen einer Helligkeit des Gesichtsbereichs, der durch die Gesichtsbereichserkennungseinrichtung erkannt wird;
einer Kamerasteuerungseinrichtung zum Steuern der Kamera, um eine Helligkeit eines Gesichtsbereichs auf einen vorbestimmten Grad einzustellen, basierend auf der Helligkeit des Gesichtsbereichs, die durch die Helligkeitsbestimmungseinrichtung beschafft wird; und
einer Zustandsbestimmungseinrichtung zum Bestimmen eines Zustands eines Fahrers unter Verwendung eines Bildes eines Gesichtsbereichs, wobei die Helligkeit des Gesichtsbereichs, der durch die Gesichtsbereichserkennungseinrichtung erkannt wird, einen vorbestimmten Grad aufweist.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich auf eine fahrzeuginterne Bildverarbeitungsvorrichtung, die mit einer Kamera verbunden ist, die Bilder eines Gesichts eines Fahrers in einem Fahrzeug aufnimmt, ein Bildverarbeitungsverfahren und ein Programm.
  • Stand der Technik
  • Es werden Verarbeitungen zum Lesen der Richtung eines Gesichts und des Zustandes der Augen von einem Gesichtsbild eines Fahrers, um zu bestimmen, ob der Fahrer während der Fahrt seinen Blick von der Straße weg richtet oder einschläft, und des Warnens des Fahrers, wenn dies nötig ist, ausgeführt.
  • Zum Beispiel offenbart Patentliteratur 1 eine Technologie zum Bestimmen einer Gesichtsrichtung und des Grads an Sicherheit von einem Gesichtsbild, um eine unaufmerksame Fahrweise eines Fahrers oder Ähnliches zu bestimmen. Ein Einsatz solch einer Technologie ermöglicht es, eine unaufmerksame Fahrweise eines Fahrers mit einem hohen Grad an Sicherheit zu bestimmen und angemessenem Warnen durchzuführen.
    • Patentliteratur 1: Japanische Patentanmeldung KOKAI, Veröffentlichungs-Nr.: 2007-072628 .
  • Offenbarung der Erfindung
  • Aufgabe der Erfindung
  • Eine Helligkeit einer Umgebung oder Ähnliches zum Aufnehmen eines Bildes eines Fahrers verändert sich kontinuierlich, während sich ein Fahrzeug bewegt. Dementsprechend kann ein Gesichtsbild zu dunkel werden oder ein Haloeffekt kann auftreten, sodass eine Analyse von diesem schwierig wird, was ein ungenaues Lesen von Gesichtszuständen (zum Beispiel einer Gesichtsrichtung, der Richtung von Augen, dem Öffnungs-/Schließzustand von Augen) ergibt. Wenn solche Bedingungen anhalten, kann ein angemessenes Warnen schwierig werden.
  • Die vorliegende Erfindung wurde angesichts der vorstehenden Umstände vorgenommen und es ist eine Aufgabe der vorliegenden Erfindung, einen Gesichtszustand unabhängig von einer Änderung der Helligkeit der Umgebung angemessen zu bestimmen.
  • Es ist eine weitere Aufgabe der vorliegenden Erfindung eine fahrzeuginterne Bildverarbeitungsvorrichtung und Ähnliches bereitzustellen, die ein Bild eines Gesichts aufnehmen kann, von dem ein Gesichtszustand korrekt gelesen werden kann, auch wenn sich die Helligkeit der Umgebung ändert.
  • Des Weiteren ist es eine weitere Aufgabe der vorliegenden Erfindung, eine Beschaffung eines Bildes eines Gesichts zu ermöglichen, das für eine Analyse geeignet ist, unabhängig von einer Änderung der Helligkeit der Umgebung.
  • Zusammenfassung der Erfindung
  • Um die vorstehenden Aufgaben zu erreichen, umfasst eine fahrzeuginterne Bildverarbeitungsvorrichtung gemäß dem ersten Aspekt der Erfindung:
    eine Gesichtsbildempfangseinrichtung zum Empfangen eines aufgenommenen Bildes mit einem Gesicht eines Fahrers von einer Kamera;
    eine Gesichtsbereichserkennungseinrichtung zum Analysieren des Bildes, das durch die Gesichtsbildempfangseinrichtung empfangen wird, und Erkennen eines Bereichs eines Gesichts, der in dem Bild enthalten ist;
    eine Helligkeitsbestimmungseinrichtung zum Bestimmen einer Helligkeit des Gesichtsbereichs, der durch die Gesichtsbereichserkennungseinrichtung erkannt wird;
    eine Kamerasteuerungseinrichtung zum Steuern der Kamera, um eine Helligkeit eines Gesichtsbereichs auf einen vorbestimmten Grad einzustellen, basierend auf der Helligkeit des Gesichtsbereichs, die durch die Helligkeitsbestimmungseinrichtung beschafft wird; und
    eine Zustandsbestimmungseinrichtung zum Bestimmen eines Zustands eines Fahrers unter Verwendung eines Bildes eines Gesichtsbereichs, wobei die Helligkeit des Gesichtsbereichs, der durch die Gesichtsbereichserkennungseinrichtung erkannt wird, einen vorbestimmten Grad aufweist.
  • Vorzugsweise umfasst die fahrzeuginterne Bildverarbeitungsvorrichtung eine Warneinrichtung zum Ausgeben einer Warnung basierend auf einem Zustand, der durch die Zustandsbestimmungseinrichtung bestimmt wird.
  • Die Helligkeitsbestimmungseinrichtung kann eine Einrichtung aufweisen, um zu einem Gesichtsbereich, der durch die Gesichtsbereicherkennungseinrichtung erkannt wird, eine größere Gewichtung hinzuzufügen als zu anderen Bereichen, und um einen gewichteten Mittelwert der Helligkeit eines Bildes zu beschaffen.
  • Die Kamera kann periodisch ein Bild eines Fahrers aufnehmen und das aufgenommene Bild der Gesichtsbildempfangseinrichtung bereitstellen, und die Kamerasteuerungseinrichtung kann eine Belichtungsmenge der Kamera gemäß der durch die Helligkeitsbestimmungseinrichtung bestimmten Helligkeit steuern.
  • Die Kamerasteuerungseinrichtung kann eine Belichtungszeit der Kamera verkürzen oder einen Durchmesser einer Fotoblende der Kamera verringern, wenn die durch die Helligkeitsbestimmungseinrichtung bestimmte Helligkeit größer als ein erster Referenzwert ist, und kann die Belichtungszeit der Kamera verlängern oder den Durchmesser der Fotoblende der Kamera vergrößern, wenn die durch die Helligkeitsbestimmungseinrichtung bestimmte Helligkeit kleiner als ein zweiter Referenzwert ist, welcher kleiner als der erste Referenzwert ist.
  • Die Warneinrichtung kann zumindest eine Gesichtsrichtung, die Richtung von Augen, oder den Öffnungs-/Schließzustand von Augen eines Fahrers unter Verwendung eines Bildes eines Gesichtsbereichs, der durch die Gesichtsbereichserkennungseinrichtung erkannt wird, bestimmen und kann basierend auf einem Bestimmungsergebnis eine Warnung erzeugen.
  • Um die vorstehenden Aufgaben zu erreichen, umfasst ein Bildverarbeitungsverfahren gemäß dem zweiten Aspekt der Erfindung:
    einen Gesichtsbildempfangsschritt zum Empfangen eines aufgenommenen Bildes mit einem Gesicht eines Fahrers von einer Kamera;
    einen Gesichtsbereicherkennungsschritt zum Analysieren des empfangenen Bildes, und zum Erfassen eines Bereichs eines Gesichts, der in dem Bild enthalten ist;
    einen Helligkeitsbestimmungsschritt zum Bestimmen einer Helligkeit des Bereichs des erkannten Gesichts;
    einen Kamerasteuerungsschritt zum Steuern der Kamera, um die Helligkeit eines Gesichtsbereichs eines Bildes basierend auf der bestimmten Helligkeit auf einen vorbestimmten Grad einzustellen; und
    einen Zustandsbestimmungsschritt zum Bestimmen eines Zustands eines Fahrers unter Verwendung eines Bereichs eines Gesichts, wobei die erkannte Helligkeit des Gesichtsbereichs einen vorbestimmten Grad aufweist.
  • Der Helligkeitsbestimmungsschritt kann durch Hinzufügen einer größeren Gewichtung zu einem Gesichtsbereich, der in dem Gesichtsbereicherkennungsschritt erkannt wird, als zu anderen Bereichen und durch Beschaffen eines gewichteten Mittelwerts der Helligkeit eines Bildes ausgeführt werden.
  • Der Gesichtsbildempfangsschritt kann ein aufgenommenes Bild empfangen, das periodisch von der Kamera aufgenommen wird, und der Kamerasteuerungsschritt kann eine Belichtungsmenge der Kamera gemäß der in dem Helligkeitsbestimmungsschritt bestimmten Helligkeit steuern.
  • Der Kamerasteuerungsschritt kann eine Belichtungszeit der Kamera verkürzen oder einen Durchmesser der Fotoblende der Kamera verringern, wenn die in dem Helligkeitsbestimmungsschritt bestimmte Helligkeit größer als ein erster Referenzwert ist, oder kann die Belichtungszeit der Kamera verlängern oder den Durchmesser der Fotoblende der Kamera vergrößern, wenn die bestimmte Helligkeit kleiner als ein zweiter Referenzwert ist, der kleiner als der erste Referenzwert ist.
  • Um die vorstehenden Aufgaben zu erreichen, steuert ein Programm gemäß dem dritten Aspekt der vorliegenden Erfindung einen Computer, um zu arbeiten als:
    eine Gesichtsbildempfangseinrichtung zum Empfangen eines aufgenommenen Bildes mit einem Gesicht eines Fahrers von einer Kamera;
    eine Gesichtsbereichserkennungseinrichtung zum Analysieren des Bildes, das durch die Gesichtsbildempfangseinrichtung empfangen wird, und zum Erkennen eines Bereichs eines Gesichts, der in dem Bild enthalten ist:
    eine Helligkeitsbestimmungseinrichtung zum Bestimmen einer Helligkeit des Gesichtsbereichs, der durch die Gesichtsbereichserkennungseinrichtung erkannt wird;
    eine Kamerasteuerungseinrichtung zum Steuern der Kamera, um eine Helligkeit eines Gesichtsbereichs auf einen vorbestimmten Grad einzustellen, basierend auf der Helligkeit des Gesichtsbereichs, der durch die Helligkeitsbestimmungseinrichtung beschafft wird; und
    eine Zustandbestimmungseinrichtung zum Bestimmen eines Zustands eines Fahrers unter Verwendung eines Bildes eines Gesichtsbereiches, wobei die Helligkeit des Gesichtsbereichs, der durch die Gesichtsbereichserkennungseinrichtung erkannt wird, einen vorbestimmten Grad aufweist.
  • Die Helligkeitsbestimmungseinrichtung des Programms kann eine Einrichtung aufweisen, um zu einem Gesichtsbereich, der durch die Gesichtsbereichserkennungseinrichtung erkannt wird, eine größere Gewichtung hinzuzufügen als zu anderen Bereichen und um einen gewichteten Mittelwert der Helligkeit eines Bildes zu beschaffen.
  • Die Gesichtsbildempfangseinrichtung des Programms kann ein aufgenommenes Bild empfangen, das periodisch durch die Kamera aufgenommen wird, und die Kamerasteuerungseinrichtung des Programms kann eine Belichtungsmenge der Kamera gemäß der durch die Helligkeitsbestimmungseinrichtung bestimmten Helligkeit steuern.
  • Die Kamerasteuerungseinrichtung des Programms kann eine Belichtungszeit der Kamera verkürzen oder einen Durchmesser einer Fotoblende der Kamera verringern, wenn die durch die Helligkeitsbestimmungseinrichtung bestimmte Helligkeit größer als ein erster Referenzwert ist, und die Belichtungszeit der Kamera verlängern oder den Durchmesser der Fotoblende der Kamera vergrößern, wenn die durch die Helligkeitsbestimmungseinrichtung bestimmte Helligkeit kleiner als ein zweiter Referenzwert ist, der kleiner als der erste Referenzwert ist.
  • Effekt der Erfindung
  • Gemäß der vorliegenden Erfindung ist es möglich, die Helligkeit eines Gesichtsbereichs eines Gesichtsbildes unabhängig von einer Änderung der Umgebung bei einem geeigneten Wert beizubehalten. Folglich wird es möglich, einen Gesichtszustand eines Fahrers durch Analysieren des Gesichtsbereichs des Bildes unabhängig von der Änderung der Umgebung zu bestimmen.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist ein Blockdiagramm eines fahrzeuginternen Bildverarbeitungssystems gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 2 ist ein Blockdiagramm, das eine Struktur einer Kamera und die einer ECU zeigt, die in 1 gezeigt sind;
  • 3A ist eine Ansicht, die den Operator eines Sobel-Filters zum Erkennen einer vertikalen Kante zeigt;
  • 3B ist eine Ansicht, die den Operator eines Sobel-Filters zum Erkennen einer horizontalen Kante zeigt;
  • 3C ist eine Ansicht von Daten, bei denen ein Schattierungsunterschied in eine vertikale Richtung verstärkt wird;
  • 3D ist eine Ansicht von Daten, bei denen ein Schattierungsunterschied in eine horizontale Richtung verstärkt wird;
  • 3E ist eine Ansicht, die Daten des Bereichs einer optimalen Helligkeit und die eines Belichtungszustands zeigt;
  • 4 ist ein Ablaufdiagramm zum Erklären einer Belichtungssteuerungsverarbeitung;
  • 5 ist ein Ablaufdiagramm zum Erklären einer Gesichtspositionsbestimmungsverarbeitung in dem Ablaufdiagramm von 4;
  • 6 ist ein Ablaufdiagramm zum Erklären einer Primärverarbeitung in dem Ablaufdiagramm von 5;
  • 7 ist ein Ablaufdiagramm zum Erklären einer Verarbeitung zum Erkennen beider Enden des Gesichts in dem Ablaufdiagramm von 5;
  • 8 ist ein Ablaufdiagramm zum Erklären einer Verarbeitung zum Erkennen einer oberen und unteren Position des Gesichts in dem Ablaufdiagramm von 5;
  • 9 ist ein Ablaufdiagramm zum Erklären einer Belichtungszeitkorrekturverarbeitung in dem Ablaufdiagramm von 4; und
  • 10 ist ein Ablaufdiagramm zum Erklären einer Fahrerwarnverarbeitung.
  • 10
    Kamera
    11
    Bildaufnahmeeinheit
    12
    CCD-Steuerung
    13
    IF-Einheit
    20
    ECU
    21
    IF-Einheit (Gesichtsbildempfangseinrichtung)
    22
    Bildspeicher
    23
    ROM
    24
    RAM
    25
    Anzeigesteuerungseinheit
    26
    CPU (Gesichtsbereichserkennungseinrichtung, Helligkeitsbestimmungseinrichtung, Kamerasteuerungseinrichtung und Warneinrichtung)
    27
    Lautsprecher (Warneinrichtung)
    30
    Anzeigevorrichtung
    100
    fahrzeuginternes Bildverarbeitungssystem
    111
    CCD
    112
    Fotoblende
  • Beschreibung von Ausführungsbeispielen
  • Eine Erklärung eines fahrzeuginternen Bildverarbeitungssystems 100 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung wird vorgenommen. Das fahrzeuginterne Bildverarbeitungssystem 100 nimmt ein Bild eines Fahrers auf, bestimmt einen Zustand des Fahrers von dem aufgenommen Bild und warnt den Fahrer, wenn dies erforderlich ist.
  • Das fahrzeuginterne Bildverarbeitungssystem 100 umfasst, wie in 1 gezeigt, eine Kamera 10, die ein Bild eines Fahrers aufnimmt und ein Bild erzeugt, eine ECU („engine control unit”, Maschinensteuerungseinheit) 20, die mit der Kamera 10 verbunden ist und eine Anzeigevorrichtung 30, die mit der ECU 20 verbunden ist.
  • Die Kamera 10 umfasst, wie in 2 gezeigt, eine Bildaufnahmeeinheit 11, eine CCD-Steuerung 12 und IF-Einheit 13.
  • Die Bildaufnahmeeinheit 11 umfasst eine CCD („Charge Coupled Device”, Ladungskoppelelement) 111 und eine Fotoblende 112 und wird durch die CCD-Steuerung 12 gesteuert, um periodisch ein Bild eines Gesichts eines Fahrers aufzunehmen.
  • Es sei angemerkt, dass ein Bild eines Gesichts, das durch die Bildaufnahmeeinheit 11 aufgenommen wird, nicht nur das Gesicht des Fahrers, sondern auch den Hintergrund von diesem umfasst.
  • Die CCD-Steuerung 12 umfasst eine CPU (”Central Processing Unit”, zentrale Verarbeitungseinheit), einen ROM (”Read Only Memory”, Festwertspeicher), einen RAM (”Random Access Memory”, Schreib-Lese-Speicher) und Ähnliches, verwendet den RAM als einen Arbeitsbereich und steuert die Operation der Bildaufnahmeeinheit 11 durch den Ablauf eines Steuerungsprogramms, das in dem ROM gespeichert ist. Zum Beispiel steuert die CCD-Steuerung 12 eine Bildaufnahme durch die CCD 111 in der Bildaufnahmeeinheit 11, ein Starten/Beenden einer Belichtung, ein Übertragen eines aufgenommenen Bildes und Ähnliches. Außerdem steuert die CCD-Steuerung 12 den Durchmesser der Blendenöffnung der Fotoblende 112 (Öffnung: Blendenöffnungswert).
  • Die IF-Einheit 13 ist eine Schnittstelle, die mit der ECU 20 kommuniziert.
  • Die ECU 20 ist eine elektronische Steuerungseinheit, die, anders als zum Steuern des ganzen Fahrzeugs, eine Funktion zum Erkennen der Position eines Gesichts (Gesichtsbereichs) von einem Bild, das von der Kamera 10 empfangen wird, zum Berechnen einer Belichtungszeit, um zu bewirken, dass ein Bild eine optimale Helligkeit in dem erkannten Gesichtsbereichs aufweist, und zum Anweisen der Belichtungszeit an die CCD-Steuerung 12, und eine Funktion zum Erkennen einer gefährlichen Fahrweise, wie etwa eine unaufmerksame Fahrweise und eine schlaftrunkene Fahrweise des Fahrers durch Analysieren des Gesichtsbilds und zum Warnens des Fahrers aufweist.
  • Die ECU 20 umfasst eine IF-Einheit 21, einen Bildspeicher 22, einen ROM 23, einen RAM 24, eine Anzeigesteuerungseinheit 25, eine CPU 26 und einen Lautsprecher 27.
  • Die IF-Einheit 21 ist eine Schnittstelle, die mit der Kamera 10 kommuniziert.
  • Der ROM 23 speichert ein Steuerungsprogramm zum Steuern der Operation der CPU 26, und festgelegte Daten.
  • Ein Beispiel der festgelegten Daten, die in dem ROM 23 gespeichert sind, werden mit Bezug auf 3A bis 3E beschrieben.
  • Der ROM 23 speichert, wie in 3A und 3B gezeigt ist, jeweils Operatoren von Sobel-Filtern zum Erkennen einer vertikalen Kante und einer horizontalen Kante. Der Sobel-Filter zum Erkennen einer vertikalen Kante und der Sobel-Filter zum Erkennen einer horizontalen Kante, die in 3A und 3B gezeigt sind, sind die Operatoren zum Verstärken eines Schattierungsunterschieds in eine vertikale Richtung und eines Schattierungsunterschieds in eine horizontale Richtung, wie in 3C und 3D gezeigt ist.
  • Außerdem, wie in 3E gezeigt, speichert der ROM 23 Informationen (einen optimalen Helligkeitsbereich), die den Bereich einer Helligkeit angeben, der zum Bestimmen einer Gesichtsrichtung und des Zustands der Augen von einem Gesichtsbild am besten geeignet ist.
  • Des Weiteren, wie in 3E gezeigt, speichert der ROM 23 eine voreingestellte Belichtungszeit (eine Anfangsbelichtungszeit (TINI)) der Kamera 10 und einen Korrekturbetrag der Belichtungszeit (Belichtungskorrekturbetrag (Δt)).
  • Der RAM 24 dient als ein Arbeitsbereich für die CPU 26.
  • Außerdem speichert der RAM 24 eine Bildaufnahmezeit (eine Belichtungszeit Te) der Kamera 10. Die Belichtungszeit Te wird der Kamera 10 durch die CPU 26 mitgeteilt und die Kamera 10 nimmt ein Bild bei der Belichtungszeit Te auf. Es sei angemerkt, dass in einem Anfangszustand die anfängliche Belichtungszeit TINI als die Belichtungszeit Te eingestellt ist.
  • Des Weiteren zeichnet der RAM 24 Koordinaten (x-Koordinate, y-Koordinate) von beiden Enden eines Gesichts und eine obere und untere Position von diesem, die von dem Gesichtsbild erkannt werden, auf. Es wird ermöglicht, den Gesichtsbereich aus dem Gesichtsbild mit diesen Positionskoordinaten zu spezifizieren.
  • Die Anzeigesteuerungseinheit 25 steuert die Anzeigevorrichtung 30 gemäß der Steuerung CPU 26.
  • Die CPU 26 steuert die Operation der ECU 20 durch Auslesen und Ausführen des Steuerungsprogramms aus dem ROM 23. Außerdem erkennt die CPU 26 einen Gesichtsbereich durch Analysieren eines Gesichtsbildes, das durch die Kamera 10 aufgenommen wird, und führt eine Verarbeitung (Belichtungssteuerungsverarbeitung) zum Steuern der Belichtungszeit der Kamera 10 aus, um zu bewirken, dass ein Bild eine Helligkeit aufweist, die zum Bestimmen einer Gesichtsrichtung und des Zustands der Augen in dem Gesichtsbereich am besten geeignet ist.
  • Der Lautsprecher 27 gibt eine Warnung an den Fahrer, der eine gefährliche Fahrweise ausführt, gemäß der Steuerung der CPU 26 aus.
  • Die Anzeigevorrichtung 30 umfasst eine LCD (”Liquid Crystal Display”, Flüssigkristallanzeige) eine CRT (”Cathod Ray Tube”, Kathodenstrahlröhre) oder Ähnliches und zeigt ein Navigationsbild, ein Bild zur Warnung und Ähnliches an.
  • Als Nächstes folgt eine Beschreibung der Operation des vorstehenden fahrzeuginternen Bildverarbeitungssystems 100.
  • Wenn die Operation des fahrzeuginternen Bildverarbeitungssystems 100 beginnt, wenn der Benutzer das System bedient, startet die CCD-Steuerung 12 die Steuerung der Bildaufnahmeeinheit 11.
  • Genauer steuert die CCD-Steurung 12 den Beginn/das Ende einer Belichtung der CCD 111 in der Bildaufnahmeeinheit 11 und ein Übertragen eines aufgenommenen Bildes durch die CCD 111 in der Bildaufnahmeeinheit 11, um die CCD 111 zu veranlassen ein Bild zu jedem vorbestimmten Zeitpunkt (zum Beispiel, 1/30 Sekunden) bei einer Belichtungszeit Te, die von der ECU 20 mitgeteilt wird, aufzunehmen.
  • Die CCD 111 führt eine lithographische Belichtung für eine angewiesene Belichtungszeit Te gemäß der Steuerung der CCD-Steuerung 12 durch und nimmt ein Bild mit einem Bereich des Gesichts eines Fahrers auf. Die CCD 111 überträgt das aufgenommene Gesichtsbild an die ECU 20 durch die IF-Einheit 13.
  • Die CPU 26 der ECU 20 startet die in 4 gezeigte Belichtungssteuerungsverarbeitung jedes Mal, wenn ein Gesichtsbild, das durch die Kamera 10 aufgenommen wird, durch die F-Einheit 21 empfangen wird.
  • Als erstes führt die CPU 26 eine Gesichtspositionsbestimmungsverarbeitung zum Bestimmen einer Gesichtsposition von dem empfangenen Gesichtsbild aus (Schritt S1).
  • Wie in 5 gezeigt ist, umfasst die Gesichtspositionsbestimmungsverarbeitung eine Primärverarbeitung (Schritt S11), eine Verarbeitung zum Erkennen beider Enden des Gesichts (Schritt S12) und eine Verarbeitung zum Erkennen einer oberen und unteren Position des Gesichts (Schritt S13).
  • Die Primärverarbeitung (Schritt S11) umfasst, wie in 6 gezeigt, eine Erfassungsverarbeitung (Schritt S111), eine Koordinatenumwandlungsverarbeitung (Schritt S112) und eine Sobel-Filter-Verarbeitung (Schritt S113).
  • Die Erfassungsverarbeitung (Schritt S111) dient zum Speichern eines Gesichtsbilds eines Rahmens, der durch die IF-Einheit 21 empfangen wird, in dem Bildspeicher 22.
  • Die Koordinatenumwandlungsverarbeitung (Schritt S112) dient zum Reduzieren der Anzahl von Pixeln bzw. Bildelementen des Gesichtsbilds auf ein verarbeitbares Niveau.
  • Die Sobel-Filter-Verarbeitung (Schritt S113) dient zum Verarbeiten des Gesichtsbildes, das einer Koordinatenumwandlung unterzogen wurde, unter Verwendung des Sobel-Filters zum Erkennen einer vertikalen Kante (3A), der in dem ROM 23 gespeichert ist, um die vertikale Kante in dem Gesichtsbild zu verstärken, und zum Verarbeiten des Gesichtsbildes, das der Koordinatenumwandlung unterzogen wurde, unter Verwendung des Sobel-Filters zum Erkennen einer horizontalen Kante (3B), um die horizontale Kante in dem Gesichtsbild zu verstärken.
  • Wieder Bezug nehmend auf 5 dient die Verarbeitung zum Erkennen beider Enden Gesichts (Schritt S12) zum Spezifizieren von Linien, die beide Ende des Gesichts bilden, für das verarbeitete Gesichtsbild, das durch den Operator zum Erkennen der vertikalen Kante verarbeitet wird, und eine beliebige herkömmliche Technik kann für diese Verarbeitung angewendet werden.
  • Wie in 7 gezeigt, führt die CPU 26 zum Beispiel als Erstes eine Verarbeitung zum Erzeugen eines Histogramms zum Erkennen beiden Enden des Gesichts aus (Schritt S121). Die Histogrammerzeugungsverarbeitung dient zum Erzeugen eines Histogramms durch Projizieren von Werten von einzelnen Bildelementen des verarbeiteten Gesichtsbilds in vertikaler Richtung.
  • Als Nächstes extrahiert die CPU 26 eine vorbestimmte Anzahl von Histogrammen mit einem hohen Spitzenwert und sortiert diese (Schritt S122) und extrahiert den linken und rechten Endpunkt des Gesichts basierend auf den Werten des Histogramms (Schritt S123).
  • Als Nächstes bestimmt die CPU 26, ob zwei Endpunkte (linkes und rechtes Ende) extrahiert sind oder nicht (Schritt S124). Wenn beide Endpunkte extrahiert sind (Schritt S124; JA), setzt die CPU 26 die zwei extrahierten Punkte als linkes und rechtes Ende (x-Koordinaten) und zeichnet diese Koordinaten in dem RAM 24 auf (Schritt S126).
  • Im Gegensatz dazu, wenn zwei Endpunkte nicht extrahiert sind (Schritt S124; NEIN), extrahiert die CPU 26 eine Kombination von zwei Punkten, wobei eine Distanz zwischen diesen eine wahrscheinliche Entfernung entsprechend der Breite eines menschlichen Gesichts darstellt (Schritt S125). Die CPU 26 setzt die extrahierte Kombination von zwei Punkten als linkes und rechtes Ende (x-Koordinaten) des Gesichts und zeichnet solche Koordinaten in dem RAM 24 auf (Schritt S126).
  • Wider Bezug nehmend auf 5 dient die Verarbeitung zum Erkennen einer oberen und unteren Position des Gesichts im nächsten Schritt S13 zum Ausführen der gleichen Verarbeitung wie der vorhergehenden Verarbeitung bezüglich der horizontalen Kante und zum Erkennen der ungefähren Position von Augenbrauen (oberes Ende) und der eines Mundes (unteres Ende) in dem Gesicht. Die Verarbeitung zum Erkennen einer oberen und unteren Position des Gesichts (Schritt S13) umfasst zum Beispiel, wie in 8 gezeigt, eine Histogrammerzeugungsverarbeitung (Schritt S131), eine Verarbeitung zum Erkennen von Unter-Augen-Kandidaten (Schritt S132) und eine Verarbeitung zum Berechnen/Aufzeichnen der oberen und unteren Position des Gesichts (Schritt S131).
  • Die Histogrammerzeugungsverarbeitung (Schritt S131) dient zum Erzeugen eines Histogramms durch Projizieren von Werten von einzelnen Bildelementen des Gesichtsbildes, das durch den Sobel-Filter verarbeitet wird, zum Erfassen einer horizontalen Kante in der horizontalen Richtung.
  • Die Verarbeitung zum Erkennen von Unter-Augen-Kandidaten (Schritt S132) dient zum Auswählen von Kandidaten von Histogrammwerten entsprechend Augen, Augenbrauen, einem Mund und Ähnlichem, basierend auf den Histogrammwerten.
  • Die Verarbeitung zum Berechnen/Aufzeichnen der oberen und unteren Position des Gesichts (Schritt S133) dient zum Erkennen einer oberen und unteren Endposition (y-Koordinaten) des Gesichts von den ausgewählten Kandidaten und zum Aufzeichnen solcher Kandidaten in dem RAM 24. Es sei angemerkt, dass die obere Endposition (y-Koordinate) des Gesichts zum Beispiel als eine Position (y-Koordinate) erkannt werden kann, die drei Bildelemente höher ist als die erfassten Augenbrauen, und die untere Endposition als eine Position (y-Koordinate) erfasst werden kann, die drei Bildelemente niedriger ist, als der erkannte Mund.
  • Wider Bezug nehmend auf 4, nach Vervollständigung der Gesichtspositionsbestimmungsverarbeitung (Schritt S1), führt die CPU 26 die Belichtungszeitkorrekturverarbeitung (Schritt S2) aus.
  • 9 zeigt die Belichtungszeitkorrekturverarbeitung (Schritt S2) im Detail.
  • Als Erstes liest die CPU 26 ein Bild eines Gesichts, das in dem Bildspeicher 22 gespeichert ist, aus (Schritt S21).
  • Als Nächstes berechnet die CPU 26 eine mittlere Helligkeit des ausgelesenen Gesichtsbilds (Schritt S22).
  • Genauer berechnet die CPU 26 den Mittelwert der Helligkeit von Bildelementen eines Gesichtsbereichs, der durch die Koordinaten beider Enden des Gesichts und die der oberen und unteren Positionen von diesem (x-Koordinaten, y-Koordinaten), die in der Gesichtspositionsbestimmungsverarbeitung (Schritt S1) aufgezeichnet werden, spezifiziert werden kann, aus den Bildelementen, die das Gesichtsbild konfigurieren. Es sei angemerkt, dass die CPU 26 eine Gewichtung W1 zu dem Bild des Gesichtsbereichs und eine Gewichtung W2 (< W1) zu Bildelementen anderer Bereiche hinzufügen kann, und die Helligkeit des gesamten Gesichtsbilds berechnen kann. Außerdem kann der Gesichtsbereich in eine Vielzahl von Abschnitten geteilt werden und die Gewichtung W1 kann von aufgeteiltem Bereich zu aufgeteiltem Bereich eingestellt werden.
  • Als Nächstes vergleicht die CPU 26 eine berechnete mittlere Helligkeit mit dem optimalen Helligkeitsbereich, der in dem ROM 23 aufgezeichnet ist, und bestimmt, ob der Gesichtsbereich (präziser gesagt, das Bild des Gesichtsbereichs) eine geeignete Helligkeit aufweist, um eine Gesichtsrichtung und den Zustand von Augen zu bestimmen (Schritt S23).
  • Wenn bestimmt ist, dass die mittlere Helligkeit innerhalb des optimalen Helligkeitsbereichs liegt (Schritt S23; optimal), ist die Helligkeit des Gesichtsbildes am besten geeignet, um die Gesichtsrichtung und den Zustand von Augen zu bestimmen und es ist nicht nötig, die Belichtungszeit zu korrigieren, so dass die CPU 26 die Verarbeitung bei Schritt S26 fortsetzt.
  • Wenn bestimmt ist, dass die mittlere Helligkeit kleiner als der optimale Helligkeitsbereich ist (Schritt S23; zu dunkel), ist das Gesichtsbild zu dunkel, um eine Bestimmung der Gesichtsrichtung und des Zustands der Augen vorzunehmen, so dass die Analyse schwierig werden kann. Dementsprechend fügt die CPU 26 den Belichtungskorrekturbetrag Δt, der in dem ROM 23 gespeichert ist, zu der Belichtungszeit Te der Kamera 10 hinzu, und speichert eine solche Belichtungszeit in dem RAM 24 als neue Belichtungszeit Te (Schritt S24). Als Nächstes setzt die CPU 26 die Verarbeitung bei Schritt S26 fort.
  • Wenn bestimmt ist, dass die mittlere Helligkeit größer als der optimale Helligkeitsbereich ist (Schritt S23; zu hell) ist das Gesichtsbild zu hell, um eine Bestimmung der Gesichtsrichtung und des Zustands der Augen vorzunehmen, so dass die Analyse ebenfalls schwierig werden kann. Dementsprechend subtrahiert die CPU 26 den Belichtungskorrekturbetrag Δt, der in dem ROM 23 gespeichert ist, von der Belichtungszeit Te der Kamera 10 und speichert eine solche Belichtungszeit in dem RAM 24 als neue Belichtungszeit Te (Schritt S25). Als Nächstes setzt die CPU 24 die Verarbeitung bei Schritt S26 fort.
  • In dem Schritt S26 liest die CPU 26 Informationen, die die Belichtungszeit Te angeben, aus dem RAM 24 aus, und überträgt die ausgelesene Belichtungszeit über die IF-Einheit 21 an die CCD-Steuerung 12 in der Kamera 10 (Schritt S26). Dementsprechend ist die Belichtungszeitkorrekturverarbeitung (Schritt S2) vollständig und die in 4 gezeigte Belichtungssteuerungsverarbeitung ist ebenso vollständig.
  • Die CCD-Steuerung 12 in der Kamera 10 empfängt eine Belichtungszeit Te, die durch die Belichtungssteuerungsverarbeitung angemessen korrigiert wurde, von der ECU 20 über die IF-Einheit 13 und steuert die Bildaufnahmeeinheit 11, um ein Bild bei der empfangenen Belichtungszeit Te aufzunehmen. Ein Bild, das durch die Bildaufnahmeeinheit 11 aufgenommen wird, wird an die ECU 20 übertragen und die Belichtungssteuerungsverarbeitung wird wiederholt.
  • Die ECU 20 bestimmt periodisch eine Gesichtsrichtung, die Richtung von Augen eines Fahrers und den Öffnungs-/Schließzustands von Augen aus einem Gesichtsbild des Fahrers, das in dem Bildspeicher 22 gespeichert wird, führt eine Fahrerwarnverarbeitung aus, durch Bestimmen, ob der Fahrer eine gefährliche Fahrweise ausführt, wie etwa eine unaufmerksames Fahrweise oder eine schlaftrunkene Fahrweise, und warnt den Fahrer.
  • Ein Beispiel der Fahrerwarnverarbeitung ist in 10 gezeigt.
  • Als Erstes liest die CPU 26 der ECU 20 ein Bild eines Gesichtsbereichs aus, das durch beide Enden des Gesichts und eine obere und untere Position von diesem definiert ist, die alle in Schritten S126 und S133 aus Gesichtsbildern eines Fahrers, die in dem Bildspeicher 22 gespeichert sind, spezifiziert werden (Schritt S31). Das Bild des Gesichtsbereichs weist durch die vorstehende Belichtungszeitkorrekturverarbeitung (Schritt S2) eine geeignete Helligkeit für eine Analyse auf.
  • Als Nächstes bestimmt die CPU 26 durch Analysieren des Gesichtsbereichs, ob der Fahrer eine gefährliche Fahrweise, wie etwa eine unaufmerksame Fahrweise oder eine schlaftrunkene Fahrweise durchführt, (Schritt S32).
  • Das Verfahren zum Bestimmen, ob eine gefährliche Fahrweise ausgeführt wird oder nicht, ist frei wählbar, und eine beliebige herkömmliche Technik kann für diese Verarbeitung angewendet werden.
  • Zum Beispiel wird eine Mittelposition eines Gesichts durch Analysieren des Bildes des Gesichtsbereichs erhalten und aus der Position wird eine Gesichtsrichtung bestimmt, und es ist möglich, zu bestimmen, dass der Fahrer eine unaufmerksame Fahrweise durchführt, wenn ein Unterschied zwischen der Gesichtsrichtung und der Frontrichtung eines Fahrzeugs größer oder gleich einem vorbestimmten Wert ist, und dieser Zustand für eine bestimmte Periode oder länger anhält.
  • Außerdem werden zum Beispiel Augen eines Fahrers durch Analysieren des Bildes des Gesichtsbereichs überprüft und aus dem Bild der Augen wird die Richtung der Augen erkannt, und es ist möglich, zu bestimmen, dass der Fahrer eine unaufmerksame Fahrweise durchführt, wenn ein Unterschied zwischen der Richtung der Augen und der Frontrichtung des Fahrzeugs größer oder gleich einem vorbestimmten Wert ist, und der Zustand für eine vorbestimmte Periode oder länger anhält.
  • Des Weiteren wird der Öffnungs-/Schließzustand der Augen aus dem Bild der Augen eines Fahrers erkannt, und es ist möglich, zu bestimmen, dass der Fahrer eine schlaftrunkene Fahrweise durchführt, wenn der Schließzustand der Augen für eine vorbestimmte Periode oder länger erfasst wird.
  • Wenn bestimmt ist, dass ein Fahrer keine gefährliche Fahrweise durchführt (Schritt S32; NEIN) ist es nicht notwendig, den Fahrer zu warnen und die Fahrerwarnverarbeitung ist vollständig.
  • Wenn bestimmt wird, dass der Fahrer eine gefährliche Fahrweise durchführt (Schritt S32; JA) erzeugt die CPU 26 einen Warnton aus dem Lautsprecher 27 (Schritt S33), um den Fahrer zu warnen und die Fahrerwarnverarbeitung ist vollständig.
  • Wie vorstehend beschrieben, gemäß dem Ausführungsbeispiel, erkennt die ECU 20 jedes Mal, wenn die Kamera 10 ein aufgenommenes Gesichtsbild an die ECU 20 überträgt, einen Gesichtsbereich aus dem übertragenden Gesichtsbild, korrigiert eine Belichtungszeit, um eine Helligkeit zu erhalten, die zum Bestimmen einer Gesichtsrichtung und des Zustands von Augen in dem erkannten Gesichtsbereich am besten geeignet ist, teilt die korrigierte Belichtungszeit der Kamera 10 mit und die Kamera 10 nimmt ein Bild des Gesicht eines Fahrers bei der mitgeteilten Belichtungszeit auf.
  • Folglich ist es möglich, ein Gesichtsbild mit einer geeigneten Helligkeit zu erhalten, auch wenn sich die Helligkeit einer Umgebung ändert. Außerdem ist es möglich, eine Gesichtsrichtung und dem Zustand von Augen durch Analysieren des Gesichtsbildes mit der geeinigten Helligkeit genau zu bestimmen, und genau zu bestimmen, ob die Fahrweise des Fahrers gefährlich ist. Somit wird eine geeignete Warnung gegen eine gefährliche Fahrweise verwirklicht, auch wenn die Helligkeit der Umgebung sich ändert.
  • Es sei angemerkt, dass die vorliegende Erfindung nicht auf das vorstehende Ausführungsbeispiel beschränkt ist und auf verschiedene Arten geändert und modifiziert werden kann.
  • Zum Beispiel, obwohl die Belichtungszeit der Kamera 10 addiert/subtrahiert wird, wenn die mittlere Helligkeit des Gesichtsbereichs des Gesichtsbildes nicht innerhalb des optimalen Helligkeitsbereichs liegt (Schritte S24, S25), ist es in dem vorstehenden Ausführungsbeispiel möglich, den Durchmesser der Blendenöffnung (Öffnung) der Fotoblende 112 der Kamera 10 zu ändern. Das heißt es ist möglich, den Durchmesser der Blendenöffnung (Öffnung) der Fotoblende 112 derart zu steuern, dass diese um ΔΦ verringert wird, wenn die mittlere Helligkeit des Gesichtsbereichs eines Gesichtsbildes größer ist als der optimale Helligkeitsbereich, und den Durchmesser der Blendenöffnung (Öffnung) der Fotoblende 112 derart zu steuern, dass diese um ΔΦ vergrößert wird, wenn die mittlere Helligkeit des Gesichtsbereichs kleiner als der optimale Helligkeitsbereich ist. Ein Einsatz solcher Konfigurationen ermöglicht eine Steuerung der lithographischen Belichtung der Kamera 10, um eine geeignete Helligkeit zu erreichen, wenn die mittlere Helligkeit des Gesichtsbildes außerhalb des optimalen Helligkeitsbereichs liegt, und der gleiche Effekt wie der des vorherstehenden Ausführungsbeispieles kann erhalten werden.
  • Außerdem ist es möglich, die Belichtungszeit der CCD 111 in der Kamera 10 und den Durchmesser der Blendenöffnung (Öffnung) der Fotoblende 112 in kombinierter Weise zu korrigieren.
  • Des weiteren, obwohl die Belichtungszeit oder die Öffnung der Fotoblende 112 mit einer bestimmte Zeit (Δt) oder ΔΦ addiert/subtrahiert wird, wenn die mittlere Helligkeit des Gesichtsbereichs außerhalb des optimalen Helligkeitsbereichs liegt (Schritte S24, S25), ist in dem vorherstehenden Ausführungsbeispiel ein Verfahren zum korrigieren eines Betrags einer Belichtung der CCD 111 selbst frei wählbar.
  • Zum Beispiel, obwohl ein bestimmter Betrag Δt oder ΔΦ korrigiert wird, wenn die mittlere Helligkeit des Gesichtsbilds außerhalb des optimalen Helligkeitsbereichs liegt, ist es in dem vorhergehenden Ausführungsbeispiel möglich, ein Verfahren zum Korrigieren eines variablen Betrags anzuwenden. Zum Beispiel ist es möglich, eine Belichtungszeit oder den Durchmesser der Blendenöffnung der Fotoblende durch einen Wert zu korrigieren, der durch eine Formel a·b, a·e + b·∫edt, a·e + b·∫edt + c·de/dt (a, b, und c sind jeweils eine konstante Zahl) und Ähnliches, basierend auf einer Abweichung e zwischen einer mittleren Helligkeit und einer optimalen Helligkeit (einem Mittelwert, einem oberen Grenzwert oder einem unteren Grenzwert von diesem) gemäß einer PID-Steuerung zu erhalten.
  • Obwohl ein Teil von Augenbrauen bis zum Mund und der von einem linken Ende zu einem rechten Ende in dem Gesichtsbild als ein Gesichtsbereich genommen werden und der Zustand des Fahrers unter Verwendung des Bildes des Gesichtsbereichs bestimmt wird, ist es in dem vorstehend Ausführungsbeispiel möglich, andere Bereiche des Gesichtsbildes zum Bestimmen des Zustands des Fahrers zu verwenden. Zum Beispiel kann ein Bereich einer Stirn bis zu einem Mund eines Gesichts als ein Gesichtsbereich verwendet werden. In diesem Fall wird der Belichtungsbetrag der Bildaufnahmeeinheit 11 korrigiert, um eine Helligkeit des Bereichs von der Stirn bis zu dem Mund zu einer Helligkeit zu machen, die für die Analyse des Bildes geeignet ist.
  • Außerdem ist es möglich, nur das Bild der Augen zum Bestimmen des Zustands des Fahrers zu verwenden. In diesem Fall wird der Belichtungsbetrag der Bildaufnahmeeinheit 11 korrigiert, um eine Helligkeit um die Augen in einem Gesichtsbild zu einer Helligkeit zu machen, die für die Analyse geeignet ist.
  • Des Weiteren ist es möglich, das gesamte Gesichtsbild als ein Analyseobjekt zu setzen, um den Zustand des Fahrers zu bestimmen.
  • Außerdem, obwohl die vorliegende Erfindung für einen Fall des Aufnehmens eines Bildes eines Fahrers angewendet wird, ist die vorliegende Erfindung in den vorstehenden Ausführungsbeispiel nicht auf diesen Fall beschränkt, und ist weit anwendbar auf eine Verarbeitung des Aufnehmens eins Bildes von Menschen, Tieren, Spielzeugen, Robotern und Ähnlichem in einer beliebigen Szene.
  • Des Weiteren kann ein Programm, das einen Computer steuert, um die vorstehende Verarbeitung auszuführen, auf einem beliebigen Aufzeichnungsmedium oder einem ROM durch ein Netzwerk gespeichert werden.
  • Es ist zu verstehen, dass das offenbarte Ausführungsbeispiel lediglich zur Veranschaulichung dient und nicht zur Beschränkung. Der Umfang der vorliegenden Erfindung ist nicht durch die vorstehende Beschreibung sondern durch die beigefügten Ansprüche angegeben und es ist beabsichtigt, dass Äquivalente und alle Änderungen innerhalb des Umfangs der Erfindung enthalten sind.
  • Diese Anmeldung basiert auf der japanischen Patentanmeldung Nr. 2007-291069 , eingereicht am 8. November 2007. Die Beschreibung, Ansprüche und gesamten Zeichnungen der japanischen Patentanmeldung Nr. 2007-291069 sind als Ganzes in diese Beschreibung durch Bezugnahme aufgenommen.
  • Jedes Mal, wenn eine Kamera ein aufgenommenes Gesichtsbild an eine ECU überträgt, erkennt die ECU einen Gesichtsbereich aus dem übertragenen Gesichtsbild und korrigiert eine Belichtungszeit, um eine Helligkeit zu erhalten, die zum Bestimmen einer Gesichtsrichtung und des Zustandes von Augen in dem erkannten Gesichtsbereich am besten geeignet ist. Die korrigierte Belichtungszeit wird der Kamera mitgeteilt und die Kamera nimmt ein Bild des Gesichts des Fahrers mit der mitgeteilten Belichtungszeit auf. Dementsprechend analysiert die ECU ein Gesichtsbild, das periodisch mit der am besten geeigneten Helligkeit aufgenommen wird, unbeachtet einer Änderung einer Umgebung, und bestimmt, ob ein Fahrer eine gefährliche Fahrweise durchführt oder nicht.
  • Gewerbliche Anwendbarkeit
  • Die vorliegende Erfindung ist nützlich als eine fahrzeuginterne Bildverarbeitungsvorrichtung, die mit einer Kamera verbunden ist, die ein Bild des Gesichts eines Fahrers in einem Fahrzeug aufnimmt. Insbesondere ist die vorliegende Erfindung nützlich als die fahrzeuginterne Bildverarbeitungsvorrichtung, die mit der Kamera verbunden ist, die in einem Zustand verwendet wird, in dem sich eine Bildaufnahmeumgebung ändert.
  • ZUSAMMENFASSUNG
  • Jedes Mal, wenn eine Kamera ein aufgenommenes Gesichtsbild an eine ECU überträgt, erkennt die ECU einen Gesichtsbereich aus dem übertragenen Gesichtsbild und korrigiert eine Belichtungszeit, um eine Helligkeit zu erhalten, die zum Bestimmen einer Gesichtsrichtung und des Zustandes von Augen in dem erkannten Gesichtsbereich am besten geeignet ist. Die korrigierte Belichtungszeit wird der Kamera mitgeteilt und die Kamera nimmt ein Bild des Gesichts des Fahrers mit der mitgeteilten Belichtungszeit auf. Dementsprechend analysiert die ECU ein Gesichtsbild, das periodisch mit der am besten geeigneten Helligkeit aufgenommen wird, unbeachtet einer Änderung einer Umgebung, und bestimmt, ob ein Fahrer eine gefährliche Fahrweise durchführt oder nicht.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - JP 2007-072628 [0003]
    • - JP 2007-291069 [0113, 0113]

Claims (14)

  1. Fahrzeuginterne Bildverarbeitungsvorrichtung, mit: einer Gesichtsbildempfangseinrichtung zum Empfangen eines aufgenommenen Bildes mit einem Gesicht eines Fahrers von einer Kamera; einer Gesichtsbereichserkennungseinrichtung zum Analysieren des Bildes, das durch die Gesichtsbildempfangseinrichtung empfangen wird, und Erkennen eines Bereichs eines Gesichts, der in dem Bild enthalten ist; einer Helligkeitsbestimmungseinrichtung zum Bestimmen einer Helligkeit des Gesichtsbereichs, der durch die Gesichtsbereichserkennungseinrichtung erkannt wird; einer Kamerasteuerungseinrichtung zum Steuern der Kamera, um eine Helligkeit eines Gesichtsbereichs auf einen vorbestimmten Grad einzustellen, basierend auf der Helligkeit des Gesichtsbereichs, die durch die Helligkeitsbestimmungseinrichtung beschafft wird; und einer Zustandsbestimmungseinrichtung zum Bestimmen eines Zustands eines Fahrers unter Verwendung eines Bildes eines Gesichtsbereichs, wobei die Helligkeit des Gesichtsbereichs, der durch die Gesichtsbereichserkennungseinrichtung erkannt wird, einen vorbestimmten Grad aufweist.
  2. Fahrzeuginterne Bildverarbeitungsvorrichtung gemäß Anspruch 1, weiterhin mit einer Warneinrichtung zum Ausgeben einer Warnung basierend auf einem Zustand, der durch die Zustandsbestimmungseinrichtung bestimmt wird.
  3. Fahrzeuginterne Bildverarbeitungsvorrichtung gemäß Anspruch 1 oder 2, wobei die Helligkeitsbestimmungseinrichtung eine Einrichtung aufweist, um zu einem Gesichtsbereich, der durch die Gesichtsbereicherkennungseinrichtung erkannt wird, eine größere Gewichtung hinzuzufügen als zu anderen Bereichen, und um einen gewichteten Mittelwert der Helligkeit eines Bildes zu beschaffen.
  4. Fahrzeuginterne Bildverarbeitungsvorrichtung gemäß einem der Ansprüche 1 bis 3, wobei die Kamera periodisch ein Bild eines Fahrers aufnimmt und das aufgenommene Bild der Gesichtsbildempfangseinrichtung bereitstellt, und die Kamerasteuerungseinrichtung eine Belichtungsmenge der Kamera gemäß der durch die Helligkeitsbestimmungseinrichtung bestimmten Helligkeit steuert.
  5. Fahrzeuginterne Bildverarbeitungsvorrichtung gemäß einem der Ansprüche 1 bis 4, wobei die Kamerasteuerungseinrichtung eine Belichtungszeit der Kamera verkürzt oder einen Durchmesser einer Fotoblende der Kamera verringert, wenn die durch die Helligkeitsbestimmungseinrichtung bestimmte Helligkeit größer als ein erster Referenzwert ist, und die Belichtungszeit der Kamera verlängert oder den Durchmesser der Fotoblende der Kamera vergrößert, wenn die durch die Helligkeitsbestimmungseinrichtung bestimmte Helligkeit kleiner als ein zweiter Referenzwert ist, welcher kleiner als der erste Referenzwert ist.
  6. Fahrzeuginterne Bildverarbeitungsvorrichtung gemäß einem der Ansprüche 2 bis 5, wobei die Warneinrichtung zumindest eine Gesichtsrichtung, eine Richtung von Augen, oder einen Öffnungs-/Schließzustand von Augen eines Fahrers unter Verwendung eines Bildes eines Gesichtsbereichs, der durch die Gesichtsbereichserkennungseinrichtung erkannt wird, bestimmt und basierend auf einem Bestimmungsergebnis eine Warnung erzeugt.
  7. Bildverarbeitungsverfahren, mit: einem Gesichtsbildempfangsschritt zum Empfangen eines aufgenommenen Bildes mit einem Gesicht eines Fahrers von einer Kamera; einem Gesichtsbereicherkennungsschritt zum Analysieren des empfangenen Bildes und zum Erfassen eines Bereichs eines Gesichts, der in dem Bild enthalten ist; einem Helligkeitsbestimmungsschritt zum Bestimmen einer Helligkeit des Bereichs des erkannten Gesichts; einem Kamerasteuerungsschritt zum Steuern der Kamera, um die Helligkeit eines Gesichtsbereichs eines Bildes basierend auf der bestimmten Helligkeit auf einen vorbestimmten Grad einzustellen; und einem Zustandsbestimmungsschritt zum Bestimmen eines Zustands eines Fahrers unter Verwendung eines Bereichs eines Gesichts, wobei die erkannte Helligkeit des Gesichtsbereichs einen vorbestimmten Grad aufweist.
  8. Bildverarbeitungsverfahren gemäß Anspruch 7, wobei der Helligkeitsbestimmungsschritt durch Hinzufügen einer größeren Gewichtung zu einem Gesichtsbereich, der in dem Gesichtsbereicherkennungsschritt erkannt wird, als zu anderen Bereichen und durch Beschaffen eines gewichteten Mittelwerts der Helligkeit eines Bildes ausgeführt wird.
  9. Bildverarbeitungsverfahren gemäß Anspruch 7 oder 8, wobei der Gesichtsbildempfangsschritt ein aufgenommenes Bild empfängt, das periodisch von der Kamera aufgenommen wird, und der Kamerasteuerungsschritt eine Belichtungsmenge der Kamera gemäß der in dem Helligkeitsbestimmungsschritt bestimmten Helligkeit steuert.
  10. Bildverarbeitungsverfahren gemäß einem der Ansprüche 7 bis 9, wobei der Kamerasteuerungsschritt eine Belichtungszeit der Kamera verkürzt oder einen Durchmesser der Fotoblende der Kamera verringert, wenn die in dem Helligkeitsbestimmungsschritt bestimmte Helligkeit größer als ein erster Referenzwert ist, oder die Belichtungszeit der Kamera verlängert oder den Durchmesser der Fotoblende der Kamera vergrößert, wenn die bestimmte Helligkeit kleiner als ein zweiter Referenzwert ist, der kleiner als der erste Referenzwert ist.
  11. Programm, das einen Computer steuert, um zu arbeiten als: eine Gesichtsbildempfangseinrichtung zum Empfangen eines aufgenommenen Bildes mit einem Gesicht eines Fahrers von einer Kamera; eine Gesichtsbereichserkennungseinrichtung zum Analysieren des Bildes, das durch die Gesichtsbildempfangseinrichtung empfangen wird, und zum Erkennen eines Bereichs eines Gesichts, der in dem Bild enthalten ist; eine Helligkeitsbestimmungseinrichtung zum Bestimmen einer Helligkeit des Gesichtsbereichs, der durch die Gesichtsbereichserkennungseinrichtung erkannt wird; eine Kamerasteuerungseinrichtung zum Steuern der Kamera, um eine Helligkeit eines Gesichtsbereichs auf einen vorbestimmten Grad einzustellen, basierend auf der Helligkeit des Gesichtsbereichs, der durch die Helligkeitsbestimmungseinrichtung beschafft wird; und eine Zustandbestimmungseinrichtung zum Bestimmen eines Zustands eines Fahrers unter Verwendung eines Bildes eines Gesichtsbereiches, wobei die Helligkeit des Gesichtsbereichs, der durch die Gesichtsbereichserkennungseinrichtung erkannt wird, einen vorbestimmten Grad aufweist.
  12. Programm gemäß Anspruch 11, wobei die Helligkeitsbestimmungseinrichtung des Programms eine Einrichtung aufweist, um zu einem Gesichtsbereich, der durch die Gesichtsbereichserkennungseinrichtung erkannt wird, eine größere Gewichtung hinzuzufügen als zu anderen Bereichen und um einen gewichteten Mittelwert der Helligkeit eines Bildes zu beschaffen.
  13. Programm gemäß Anspruch 11 oder 12, wobei die Gesichtsbildempfangseinrichtung des Programms ein aufgenommenes Bild empfängt, das periodisch durch die Kamera aufgenommen wird, und die Kamerasteuerungseinrichtung des Programms eine Belichtungsmenge der Kamera gemäß der durch die Helligkeitsbestimmungseinrichtung bestimmten Helligkeit steuert.
  14. Programm gemäß einem der Ansprüche 11 bis 13, wobei die Kamerasteuerungseinrichtung des Programms eine Belichtungszeit der Kamera verkürzt oder einen Durchmesser einer Fotoblende der Kamera verringert, wenn die durch die Helligkeitsbestimmungseinrichtung bestimmte Helligkeit größer als ein erster Referenzwert ist, und die Belichtungszeit der Kamera verlängert oder den Durchmesser der Fotoblende der Kamera vergrößert, wenn die durch die Helligkeitsbestimmungseinrichtung bestimmte Helligkeit kleiner als ein zweiter Referenzwert ist, der kleiner als der erste Referenzwert ist.
DE112008002646T 2007-11-08 2008-11-06 Fahrzeuginterne Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Programm Withdrawn DE112008002646T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007-291069 2007-11-08
JP2007291069A JP2009116742A (ja) 2007-11-08 2007-11-08 車載用画像処理装置、画像処理方法、および、プログラム
PCT/JP2008/070197 WO2009060892A1 (ja) 2007-11-08 2008-11-06 車載用画像処理装置、画像処理方法、および、プログラム

Publications (1)

Publication Number Publication Date
DE112008002646T5 true DE112008002646T5 (de) 2010-07-29

Family

ID=40625779

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112008002646T Withdrawn DE112008002646T5 (de) 2007-11-08 2008-11-06 Fahrzeuginterne Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Programm

Country Status (4)

Country Link
US (1) US20100253495A1 (de)
JP (1) JP2009116742A (de)
DE (1) DE112008002646T5 (de)
WO (1) WO2009060892A1 (de)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2688764A4 (de) * 2011-03-25 2014-11-12 Tk Holdings Inc System und verfahren zur bestimmung der wachsamkeit eines fahrers
JP5800288B2 (ja) * 2012-10-30 2015-10-28 株式会社デンソー 車両用画像処理装置
US10115164B1 (en) * 2013-10-04 2018-10-30 State Farm Mutual Automobile Insurance Company Systems and methods to quantify and differentiate individual insurance risk based on actual driving behavior and driving environment
CN106157926A (zh) * 2015-03-23 2016-11-23 中兴通讯股份有限公司 一种调节显示屏亮度的方法及装置
FR3044504A1 (fr) * 2015-12-01 2017-06-02 Valeo Comfort & Driving Assistance Dispositif de capture d'image et dispositif de surveillance d'un conducteur utilisant un tel dispositif de capture d'image
JP6631561B2 (ja) * 2017-03-06 2020-01-15 株式会社デンソー 方向検出装置及び操作制御装置
CN109618109B (zh) * 2019-01-09 2021-02-09 深圳英飞拓智能技术有限公司 一种摄像机成像的曝光调节方法及调节系统
WO2021001943A1 (ja) * 2019-07-02 2021-01-07 三菱電機株式会社 車載用画像処理装置、および、車載用画像処理方法
JP7183420B2 (ja) * 2019-07-02 2022-12-05 三菱電機株式会社 車載用画像処理装置、および、車載用画像処理方法
US11570404B2 (en) 2020-05-12 2023-01-31 True Meeting Inc. Predicting behavior changes of a participant of a 3D video conference
US11575856B2 (en) 2020-05-12 2023-02-07 True Meeting Inc. Virtual 3D communications using models and texture maps of participants
US11805157B2 (en) 2020-05-12 2023-10-31 True Meeting Inc. Sharing content during a virtual 3D video conference
US11870939B2 (en) 2020-05-12 2024-01-09 True Meeting Inc. Audio quality improvement related to a participant of a virtual three dimensional (3D) video conference
US11790535B2 (en) 2020-05-12 2023-10-17 True Meeting Inc. Foreground and background segmentation related to a virtual three-dimensional (3D) video conference
WO2022027432A1 (zh) * 2020-08-06 2022-02-10 深圳市锐明技术股份有限公司 拍摄方法、拍摄装置及终端设备
US11765332B2 (en) 2021-03-02 2023-09-19 True Meeting Inc. Virtual 3D communications with participant viewpoint adjustment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072628A (ja) 2005-09-05 2007-03-22 Aisin Seiki Co Ltd 顔向き判別装置
JP2007291069A (ja) 2006-03-31 2007-11-08 Daiichi Sankyo Healthcare Co Ltd 抗酸化剤および/または消炎鎮痛剤組成物

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3293308B2 (ja) * 1994-03-10 2002-06-17 三菱電機株式会社 人物状態検出装置
JP3452685B2 (ja) * 1995-05-10 2003-09-29 三菱電機株式会社 顔画像の処理装置
JP3316725B2 (ja) * 1995-07-06 2002-08-19 三菱電機株式会社 顔画像撮像装置
JPH1035320A (ja) * 1996-07-24 1998-02-10 Hitachi Ltd 車両状況認識方法、車載用画像処理装置および記憶媒体
DE19803158C1 (de) * 1998-01-28 1999-05-06 Daimler Chrysler Ag Vorrichtung zur Vigilanzzustandsbestimmung
US7202792B2 (en) * 2002-11-11 2007-04-10 Delphi Technologies, Inc. Drowsiness detection system and method
JP4572583B2 (ja) * 2004-05-31 2010-11-04 パナソニック電工株式会社 撮像装置
JP4530961B2 (ja) * 2005-06-30 2010-08-25 オリンパスイメージング株式会社 電子的ぶれ補正装置
JP4788394B2 (ja) * 2006-02-24 2011-10-05 セイコーエプソン株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP4677940B2 (ja) * 2006-03-27 2011-04-27 トヨタ自動車株式会社 眠気検出装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072628A (ja) 2005-09-05 2007-03-22 Aisin Seiki Co Ltd 顔向き判別装置
JP2007291069A (ja) 2006-03-31 2007-11-08 Daiichi Sankyo Healthcare Co Ltd 抗酸化剤および/または消炎鎮痛剤組成物

Also Published As

Publication number Publication date
US20100253495A1 (en) 2010-10-07
JP2009116742A (ja) 2009-05-28
WO2009060892A1 (ja) 2009-05-14

Similar Documents

Publication Publication Date Title
DE112008002646T5 (de) Fahrzeuginterne Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Programm
DE102017111203B4 (de) Videoverarbeitungsvorrichtung, videoverarbeitungsverfahren und programm
DE19614975C2 (de) Gesichtsbildverarbeitungssystem
DE112012000950B4 (de) Ermitteln des Abstands zwischen verschiedenen Punkten an einem abgebildeten Gegenstand
DE602005002802T2 (de) Anordnung, Verfahren und Programm zur Bestimmung der Zentralposition eines Gesichts
DE102007055912A1 (de) Augenliderfassungsvorrichtung, Augenliderfassungsverfahren und zugehöriges Programm
DE112008002645T5 (de) Gesichtsbildaufnahmeverfahren und Programm für dieses
DE112009000949T5 (de) Detektion eines freien Fahrpfads für ein Fahrzeug
WO2015117905A1 (de) 3d-bildanalysator zur blickrichtungsbestimmung
DE60217589T2 (de) Vorrichtung und Verfahren zur Detektion von weissen Linien
DE102010001520A1 (de) Durch einen Flugzeugsensor unterstütztes Iriserfassungssystem und -Verfahren
DE102007055715A1 (de) Vorrichtung, Verfahren und Programm zur Augenerfassung
DE102013209415A1 (de) Dynamische Hinweisüberlagerung mit Bildbeschneidung
DE112008002819T5 (de) Autofokus-Bildsystem
DE29521937U1 (de) Prüfsystem für bewegtes Material
DE102013210478A1 (de) Geometrische vorkorrektur zur automatischen nummernschilderkennung
DE112015006032B4 (de) Vorrichtung und Verfahren zur Bilderfassung eines Objekts, das sich in einem Abbildungsfeld-Winkelbereich befindet, Programm und Aufzeichnungsmedium
DE102014117102B4 (de) Spurwechselwarnsystem und Verfahren zum Steuern des Spurwechselwarnsystems
DE102018101035A1 (de) Bildstabilisierungsvorrichtung und steuerverfahren dafür, bildaufnahmevorrichtung und speichermedium
DE112013004103T5 (de) Verfahren und Vorrichtung zum Erzeugen einer Disparitätskarte
DE102016006242B4 (de) Anzeigevorrichtung des kopfgetragenen Typs, Steuerverfahren für Anzeigevorrichtung des kopfgetragenen Typs, Bildverarbeitungssystem und Speichermedium
DE112020005223T5 (de) Objektverfolgungseinrichtung und Objektverfolgungsverfahren
DE112019002743T5 (de) Bildverarbeitungssystem, Bildgebungsvorrichtung, Bildverarbeitungsvorrichtung, elektronisches Gerät, Verfahren zur Steuerung des Systems, der Vorrichtung und des Geräts, und die Verfahren speicherndes Speichermedium
EP3844943B1 (de) Verfahren zur anzeige eines modells einer umgebung, steuergerät und fahrzeug
AT515595A2 (de) Verfahren zur optischen Erkennung von Zeichen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20130601