DE102019209200A1 - Verfahren und Vorrichtung zum Bestimmen eines Mittelpunkts und einer Augenöffnung eines Auges eines Insassen eines Fahrzeugs - Google Patents

Verfahren und Vorrichtung zum Bestimmen eines Mittelpunkts und einer Augenöffnung eines Auges eines Insassen eines Fahrzeugs Download PDF

Info

Publication number
DE102019209200A1
DE102019209200A1 DE102019209200.4A DE102019209200A DE102019209200A1 DE 102019209200 A1 DE102019209200 A1 DE 102019209200A1 DE 102019209200 A DE102019209200 A DE 102019209200A DE 102019209200 A1 DE102019209200 A1 DE 102019209200A1
Authority
DE
Germany
Prior art keywords
eye
camera
coordinates
eyelid
corner
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019209200.4A
Other languages
English (en)
Inventor
Florian Maier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102019209200.4A priority Critical patent/DE102019209200A1/de
Publication of DE102019209200A1 publication Critical patent/DE102019209200A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft Verfahren zum Bestimmen einer Augenöffnung eines Auges eines Insassen eines Fahrzeugs (100). Das Verfahren umfasst ein Ermitteln von ersten Augenlied-Pixelkoordinaten (170) und zweiten Augenlied-Pixelkoordinaten (172) unter Verwendung eines Kamerabildsignals (152), das ein von der Kamera (106) erfasstes Kamerabild zumindest eines Abschnitts eines Gesichts des Insassen repräsentiert, sowie ein Ermitteln von Augenmittelpunkt-Kamerakoordinaten unter Verwendung der Referenz-Augenmittelpunkt-Kamerakoordinaten (150) und einer Transformationsvorschrift. Die Augenlied-Pixelkoordinaten (170, 172) werden auf eine Kugel (702) projiziert, um Augenlied-Kamerakoordinaten (174, 176) zu erhalten. Die Augenöffnung des Auges wird unter Verwendung der Augenlied-Kamerakoordinaten (174, 176) ermittelt.

Description

  • Stand der Technik
  • Die Erfindung geht von einer Vorrichtung oder einem Verfahren nach Gattung der unabhängigen Ansprüche aus. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm.
  • Im Kontext moderner Fahrassistenzsysteme, die beispielsweise auf der Autobahn die Steuerung des Fahrzeugs zeitweise komplett übernehmen wird eine Überwachung des Fahrers immer wichtiger. Diese ist nötig, da die angebotenen Fahrassistenzsysteme lediglich zur Erhöhung des Komforts dienen und keine Funktion zum automatisierten Fahren darstellen, weshalb der Fahrer jederzeit in der Lage sein muss, den umgehenden Verkehr und sein Fahrzeug fortlaufend zu überwachen.
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren zum Bestimmen eines Mittelpunkts und ein Verfahren zum Bestimmen einer Augenöffnung eines Auges eines Insassen eines Fahrzeugs, weiterhin eine Vorrichtung, die diese Verfahren verwendet, sowie schließlich ein entsprechendes Computerprogramm gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der im unabhängigen Anspruch angegebenen Vorrichtung möglich.
  • Vorteilhafterweise kann ein kugelförmiges Model des Auges eines Insassen eines Fahrzeugs verwendet werden, um eine Position eines Mittelpunktes des Auges in einem Kamerakoordinatensystem einer das Auge erfassenden Kamera zu bestimmen. Die Kenntnis des Mittelpunkts des Auges ermöglicht es unter Verwendung des kugelförmigen Modells wiederum, eine Augenöffnung des Auges sicher zu bestimmen. Zusätzlich oder alternativ kann der Mittelpunkt verwendet werden, um die Blickrichtung des Insassen zu bestimmen. Beispielsweise kann die Blickrichtung durch einen Vektor von dem Mittelpunkt des Auges zu dem Pupillenmittelpunkt der Pupille des Auges bestimmt werden.
  • Ein Verfahren zum Bestimmen eines Mittelpunkts eines Auges eines Insassen eines Fahrzeugs umfasst die folgenden Schritte:
    • Ermitteln von Referenz-Pupillen-Pixelkoordinaten und Referenz-Augenwinkel-Pixelkoordinaten unter Verwendung eines Referenzbildsignals, das ein von einer Kamera erfasstes Referenzbild zumindest eines Abschnitts eines Gesichts des eine Referenzkopfpose aufweisenden Insassen repräsentiert, wobei die Referenz-Pupillen-Pixelkoordinaten eine Position eines Mittelpunkts einer Pupille eines Auges des Insassen in dem Referenzbild und die Referenz-Augenwinkel-Pixelkoordinaten eine Position eines Augenwinkels des Auges des Insassen in dem Referenzbild repräsentieren;
    • Ermitteln von homogen Referenz-Pupillen-Koordinaten in einem Kamerakoordinatensystem der Kamera unter Verwendung der Referenz-Pupillen-Pixelkoordinaten und von homogenen Referenz-Augenwinkel-Koordinaten in dem Kamerakoordinatensystem der Kamera unter Verwendung der Referenz-Augenwinkel-Pixelkoordinaten;
    • Ermitteln von Referenz-Augenwinkel-Kamerakoordinaten unter Verwendung der homogenen Referenz-Augenwinkel-Koordinaten und einer dem Augenwinkel zugeordneten Tiefeninformation, wobei die Referenz-Augenwinkel-Kamerakoordinaten eine Position des Augenwinkels in dem Kamerakoordinatensystem repräsentieren; und
    • Ermitteln von der Referenzkopfpose zugeordneten Referenz-Augenmittelpunkt-Kamerakoordinaten als Schnittpunkt eines aus den homogen Referenz-Pupillen-Koordinaten und den homogenen Referenz-Augenwinkel-Koordinaten gebildeten Referenzvektors und einer Referenzkugel, wobei ein Mittelpunkt der Referenzkugel durch die Referenz-Augenwinkel-Kamerakoordinaten und ein Durchmesser der Referenzkugel durch einen mittleren Augendurchmesser eines menschlichen Auges definiert sind.
  • Das Verfahren kann im Zusammenhang mit einem Fahrerbeobachtungssystem eines Fahrzeugs eingesetzt werden. Alternativ kann das Verfahren für außerhalb von Fahrzeugen eingesetzte Beobachtungssystem eingesetzt werden, beispielsweise in Fabriken. Unter der Referenzkopfpose kann eine vorbestimmte Stellung des Kopfes des Insassen verstanden werden. Bei der Kamera kann es sich um eine in einem Fahrzeug angeordnete Bilderfassungseinrichtung, beispielsweise um eine Stereokamera handeln. Unter dem Mittelpunkt des Auges sowie dem Augenmittelpunkt kann ein Mittelpunkt eines Augapfels des Auges verstanden werden. Der Kamera kann das Kamerakoordinatensystem zugeordnet sein. Unter Pixelkoordinaten können sich auf eine Bildebene des Referenzbilds beziehende Koordinaten verstanden werden. Unter homogenen Koordinaten können aus der projektiven Geometrie bekannte homogene Koordinaten verstanden werden. Die homogenen Koordinaten können aus den Pixelkoordinaten unter Verwendung einer geeigneten Transformationsvorschrift ermittelt werden. Gemäß einer Ausführungsform können homogene Koordinaten, die in dem Kamerakoordinatensystem den Mittelpunkt der Pupille definieren zumindest angenähert den homogenen Koordinaten entsprechen, die den Augenmittelpunkt definieren. Somit können die homogen Referenz-Pupillen-Koordinaten mit homogenen Referenz-Augenmittelpunkt-Koordinaten gleichgesetzt werden. Die Tiefeninformation kann in dem Referenzbildsignal enthalten sein oder aus dem Referenzbildsignal ermittelt werden, beispielsweise durch eine Tiefenbildauswertung. Der mittlere Augendurchmesser kann einen vorbestimmten Wert repräsentieren.
  • Das Verfahren kann einen Schritt des Erfassens des Referenzbilds unter Verwendung der Kamera und einem Schritt des Bereitstellens des Referenzbildsignals umfassen. Vorteilhafterweise kann dazu eine Kamera verwendet werden, die Teil eines Fahrerbeobachtungssystems des Fahrzeugs ist. Somit kann auf eine zusätzliche Kamera verzichtet werden. Das Referenzbildsignal kann von der Kamera erfasste Rohdaten oder bereits ausgewertete Daten umfassen.
  • Das Erfassen des Referenzbilds kann zu einem Zeitpunkt durchgeführt werden, bei dem der Insasse mit dem Auge direkt in ein Objektiv der Kamera blickt. Dieser Zustand kann die Referenzkopfpose definieren. Dieser Zustand kann automatisiert unter Verwendung einer geeigneten Bildauswertung erkannt werden. Auf diese Weise können die Referenz-Augenmittelpunkt-Kamerakoordinaten automatisiert ermittelt werden, sobald der Insasse gegebenenfalls auch zufällig, direkt in die Kamera blickt.
  • Das Verfahren kann einen Schritt des Ermittelns der dem Augenwinkel zugeordneten Tiefeninformation unter Verwendung des Referenzbildsignals umfassen. Dazu kann beispielsweise eine Disparitätsmessung durchgeführt werden.
  • Vorteilhafterweise können die einmal ermittelten Referenz-Augenmittelpunkt-Kamerakoordinaten im Folgenden verwendet werden, um den Augenmittelpunkt des Auges in weiteren Bildern zu ermitteln, die von derselben Kamera aufgenommen wurden. Dabei können die weiteren Bilder zu Zeitpunkten aufgenommen worden sein, zwischen denen der Insasse seinen Kopf bewegt hat, sodass die weiteren Bilder den Kopf in unterschiedlichen Kopfposen zeigen können, die sich auch von der Referenzkopfpose unterscheiden können. Der jeweilige Augenmittelpunkt kann vorteilhaft verwendet werden, um in den weiteren Bildern zu erkennen, ob das Auge geöffnet oder geschlossen ist.
  • Ein entsprechendes Verfahren zum Bestimmen einer Augenöffnung eines Auges eines Insassen eines Fahrzeugs umfasst die folgenden Schritte:
    • Einlesen von Referenz-Augenmittelpunkt-Kamerakoordinaten, die nach einem genannten Verfahren zum Bestimmen eines Mittelpunkts eines Auges eines Insassen eines Fahrzeugs bestimmte Koordinaten repräsentieren;
    • Ermitteln von ersten Augenlied-Pixelkoordinaten und zweite Augenlied-Pixelkoordinaten unter Verwendung eines Kamerabildsignals, das ein von der Kamera erfasstes Kamerabild zumindest eines Abschnitts eines Gesichts des eine Kopfpose aufweisenden Insassen repräsentiert, wobei die ersten Augenlied-Pixelkoordinaten eine Position eines Punkts eines oberen Augenlids des Auges des Insassen in dem Kamerabild und die zweiten Augenlied-Pixelkoordinaten eine Position eines Punkts eines unteren Augenlids des Auges des Insassen in dem Kamerabild repräsentieren;
    • Ermitteln von der Kopfpose zugeordneten Augenmittelpunkt-Kamerakoordinaten unter Verwendung der Referenz-Augenmittelpunkt-Kamerakoordinaten und einer die Referenzkopfpose in die Kopfpose überführenden Transformationsvorschrift;
    • Projizieren der ersten Augenlied-Pixelkoordinaten auf eine Kugel, um erste Augenlied-Kamerakoordinaten zu erhalten, und der zweiten Augenlied-Pixelkoordinaten auf die Kugel, um zweite Augenlied-Kamerakoordinaten zu erhalten, wobei ein Mittelpunkt der Kugel durch die Augenmittelpunkt-Kamerakoordinaten und ein Durchmesser der Kugel durch den mittleren Augendurchmesser des menschlichen Auges definiert sind;
    • Ermitteln eines die Augenöffnung des Auges repräsentierenden Augenöffnungssignals unter Verwendung der ersten Augenlied-Kamerakoordinaten und der zweiten Augenlied-Kamerakoordinaten.
  • Die Augenöffnung kann beispielsweise anzeigen, ob das Auge vollständig geöffnet, teilweise geöffnet oder geschlossen ist. Dazu können die vorab ermittelten Referenz-Augenmittelpunkt-Kamerakoordinaten verwendet werden, die in auf das Kamerakoordinatensystem bezogenen Kamerakoordinaten die Position des Augenmittelpunkts definiert, wenn der Kopf von dem Insassen in der Referenzkopfpose gehalten wird. Die von dem Kamerabild abgebildete Kopfpose des Insassen kann sich von der Referenzkopfpose unterscheiden, sodass sich auch die Position des Augenmittelpunkts in der Kopfpose von der Position des Augenmittelpunkts in der Referenzkopfpose unterscheiden kann. Es kann zumindest ein Punkt des oberen Augenlids und ein Punkt des unteren Augenlids vorbestimmt sein. Vorteilhafterweise können mehrere dem oberen Augenlid und mehrere dem unteren Augenlied zugeordnete Punkte vorbestimmt sein und es können entsprechende Pixelkoordinaten dieser Punkte ermittelt werden. Die die Referenzkopfpose in die Kopfpose überführenden Transformationsvorschrift kann beispielsweise eine Bewegung, beispielsweise eine Drehung und/oder Verschiebung, des aus den homogen Referenz-Pupillen-Koordinaten und den homogenen Referenz-Augenwinkel-Koordinaten gebildeten Referenzvektors definieren, durch den der Referenzvektor in einen Vektor überführt werden kann, der durch auf das Kamerabild bezogene homogene Pupillen- und Augenwinkel-Koordinaten gebildet wird. Die Transformationsvorschrift kann vorbestimmt sein oder mit einem geeigneten Verfahren bestimmt werden, beispielsweise durch einen Vergleich des Kamerabilds mit dem Referenzbilds unter Verwendung des Kamerabildsignals und des Referenzbildsignals. Bei dem Augenöffnungssignal kann es sich um ein elektrisches Signal handeln, das einen zu einem Erfassungszeitpunkt des Kamerabilds bestehenden Öffnungszustand des Auges anzeigt. Das Augenöffnungssignal kann beispielsweise von einem Fahrerassistenzsystem des Fahrzeugs verwendet werden, um eine aktuelle Aufmerksamkeit des Fahrers des Fahrzeugs zu bewerten. Die Schritte des Ermittelns des Verfahrens können fortlaufend wiederholt ausgeführt werden, um den Öffnungszustand des Auges fortlaufend überwachen zu können.
  • Das Verfahren kann einen Schritt des Ermittelns eines Abstands zwischen den ersten Augenlied-Kamerakoordinaten und den zweiten Augenlied-Kamerakoordinaten umfassen. Dabei kann das Augenöffnungssignal unter Verwendung des Abstands ermittelt werden. Da die Augenlied-Kamerakoordinaten aufgrund des Kugelmodells sehr genau die reale Position der Augenlider abbilden, kann aus den Abstand der durch die Augenlied-Kamerakoordinaten definierten Punkte sehr genau bestimmt werden, ob und gegebenenfalls wie weit das Auge geöffnet ist.
  • Die genannten Verfahren können beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein.
  • Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
  • Hierzu kann die Vorrichtung zumindest eine Recheneinheit zum Verarbeiten von Signalen oder Daten, zumindest eine Speichereinheit zum Speichern von Signalen oder Daten, zumindest eine Schnittstelle zu einem Sensor oder einem Aktor zum Einlesen von Sensorsignalen von dem Sensor oder zum Ausgeben von Daten- oder Steuersignalen an den Aktor und/oder zumindest eine Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten aufweisen, die in ein Kommunikationsprotokoll eingebettet sind. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein Mikrocontroller oder dergleichen sein, wobei die Speichereinheit ein Flash-Speicher, ein EEPROM oder eine magnetische Speichereinheit sein kann. Die Kommunikationsschnittstelle kann ausgebildet sein, um Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben, wobei eine Kommunikationsschnittstelle, die leitungsgebundene Daten einlesen oder ausgeben kann, diese Daten beispielsweise elektrisch oder optisch aus einer entsprechenden Datenübertragungsleitung einlesen oder in eine entsprechende Datenübertragungsleitung ausgeben kann.
  • Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.
  • Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.
  • Ausführungsbeispiele des hier vorgestellten Ansatzes sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:
    • 1 eine schematische Darstellung eines Fahrzeugs mit einer Vorrichtung gemäß einem Ausführungsbeispiel;
    • 2 eine erste Kopfpose eines Kopfes gemäß einem Ausführungsbeispiel;
    • 3 eine zweite Kopfpose eines Kopfes gemäß einem Ausführungsbeispiel;
    • 4 ein Referenzbild eines Auges mit einer Markierung der Pupille und eines Augenwinkels gemäß einem Ausführungsbeispiel;
    • 5 eine schematische Darstellung eines Auges gemäß einem Ausführungsbeispiel;
    • 6 ein Kamerabild eines Auges mit einer Markierung von Augenliedern gemäß einem Ausführungsbeispiel;
    • 7 eine schematische Darstellung eines Augenmodells gemäß einem Ausführungsbeispiel;
    • 8 ein Ablaufdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel.
  • In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
  • 1 zeigt eine schematische Darstellung eines Fahrzeugs 100 mit einer Vorrichtung 102 gemäß einem Ausführungsbeispiel. In dem Fahrzeug 100 befindet sich ein Insasse 104, bei dem es sich beispielsweise um den Fahrer des Fahrzeugs 100 handeln kann. Das Fahrzeug 100 weist eine Kamera 106 zum Beobachten des Insassen 104 auf. Die Kamera 106 ist ausgebildet um Bilder des Gesichts oder zumindest einer Augenpartie des Insassen 104 zu erfassen. Bei der Kamera 106 kann es sich um eine geeignete Bilderfassungseinrichtung, beispielsweise in Form einer Stereokamera handeln, wie sie bereits als Fahrerbeobachtungskamera eingesetzt wird.
  • Gemäß diesem Ausführungsbeispiel ist die Kamera 106 ausgebildet, um ein Referenzbild des Gesichts des Insassen 104 zu einem Zeitpunkt zu erfassen, bei dem der Kopf des Insassen 104 eine bestimmte Stellung innehat, die als Referenzkopfpose bezeichnet wird. Beispielsweise sieht der Insasse 104 bei der Referenzkopfpose direkt in die Kamera 106. Die Kamera 106 ist ausgebildet, um ein Referenzbildsignal 110 bereitzustellen, das das Referenzbild des Gesichts des Insassen 104 repräsentiert. Das Referenzbildsignal 110 kann Rohbilddaten oder bereits vorverarbeitete Daten umfassen.
  • Gemäß einem Ausführungsbeispiel ist die Vorrichtung 102 ausgebildet, um einen Mittelpunkt eines Auges des Insassen in einem der Kamera 106 zugeordneten Kamerakoordinatensystem 120 oder einem dem Fahrzeug 100 zugeordneten Weltkoordinatensystem 124 zu bestimmen. Dazu weist die Vorrichtung Ermittlungseinrichtungen 130, 132, 134, 136 auf.
  • Die Ermittlungseinrichtung 130 ist ausgebildet, um unter Verwendung eines geeigneten Auswerteverfahrens Referenz-Pupillen-Pixelkoordinaten 140 und Referenz-Augenwinkel-Pixelkoordinaten 142 aus dem Referenzbildsignal 110 zu bestimmen. Dabei bilden die Referenz-Pupillen-Pixelkoordinaten 140 eine Position eines Mittelpunkts einer Pupille eines Auges des Insassen 104 in dem Referenzbild und die Referenz-Augenwinkel-Pixelkoordinaten 142 eine Position eines Augenwinkels des Auges des Insassen 104 in dem Referenzbild ab. Die Pixelkoordinaten beziehen sich dabei beispielsweise auf eine Bildebene des Referenzbilds.
  • Die Ermittlungseinrichtung 132 ist ausgebildet, um beispielsweise unter Verwendung einer geeigneten Umrechnungsvorschrift aus den Referenz-Pupillen-Pixelkoordinaten 140 homogene Referenz-Pupillen-Koordinaten 144 und aus den Referenz-Augenwinkel-Pixelkoordinaten 142 homogene Referenz-Augenwinkel-Koordinaten 146 zu ermitteln. Dabei stellen die homogenen Referenz-Pupillen-Koordinaten 144 und die homogenen Referenz-Augenwinkel-Koordinaten 146 auf das Kamerakoordinatensystem 120 bezogene homogene Koordinaten dar.
  • Die Ermittlungseinrichtung 134 ist ausgebildet, um beispielsweise unter Verwendung einer geeigneten Transformationsvorschrift Referenz-Augenwinkel-Kamerakoordinaten 148 aus den homogenen Referenz-Augenwinkel-Koordinaten 146 und einer dem Augenwinkel zugeordneten Tiefeninformation zu ermitteln. Dabei bilden die Referenz-Augenwinkel-Kamerakoordinaten 148 eine Position des Augenwinkels in dem Kamerakoordinatensystem 120 ab. Gemäß einem Ausführungsbeispiel wird die Tiefeninformation unter Verwendung des Referenzbildsignals 110 ermittelt, beispielsweise von der Ermittlungseinrichtung 130 oder der Ermittlungseinrichtung 134.
  • Die Ermittlungseinrichtung 136 ist ausgebildet, um der Referenzkopfpose zugeordnete Referenz-Augenmittelpunkt-Kamerakoordinaten 150 zu ermitteln und bereitzustellen. Die Referenz-Augenmittelpunkt-Kamerakoordinaten 150 können verwendet werden, um in nachfolgenden Kamerabildern der Kamera 106 jeweils den Mittelpunkt des Auges sicher bestimmen zu können. Zum Ermitteln der Referenz-Augenmittelpunkt-Kamerakoordinaten 150 ist die Ermittlungseinrichtung 136 ausgebildet, um einen Referenzvektor aus den homogen Referenz-Pupillen-Koordinaten 144 und den homogenen Referenz-Augenwinkel-Koordinaten 146 zu bilden. Ferner ist die Ermittlungseinrichtung 136 ausgebildet, um eine Referenzkugel aufzuspannen, deren Mittelpunkt durch die Referenz-Augenwinkel-Kamerakoordinaten 148 gebildet wird und dessen Durchmesser einem mittleren Augendurchmesser eines menschlichen Auges entspricht. Ferner ist die Ermittlungseinrichtung 136 ausgebildet, um die Referenz-Augenmittelpunkt-Kamerakoordinaten 150 als Schnittpunkt aus dem Referenzvektor und der Referenzkugel zu ermitteln.
  • Gemäß einem Ausführungsbeispiel ist die Vorrichtung 102 ausgebildet, um unter Verwendung der Referenz-Augenmittelpunkt-Kamerakoordinaten 150 eine Augenöffnung eines Auges des Insassen unter Verwendung eines von der Kamera 106 aufgenommenen Kamerabilds zu bestimmen. Gemäß diesem Ausführungsbeispiel ist die Kamera 106 ausgebildet, um zu einem weiteren Zeitpunkt ein Kamerabild des Gesichts des Insassen 104 zu erfassen. Dabei kann der Kopf des Insassen 104 zu dem weiteren Zeitpunkt eine von der Referenzkopfpose abweichende Kopfpose aufweisen. Beispielsweise kann der Insasse 104 bei der Kopfpose seitlich an der Kamera 106 vorbeisehen. Die Kamera 106 ist ausgebildet, um ein Kamerabildsignal 152 bereitzustellen, das das Kamerabild des Gesichts des Insassen 104 repräsentiert. Das Kamerabildsignal 152 kann Rohbilddaten oder bereits vorverarbeitete Daten umfassen.
  • Um die Augenöffnung des Auges des Insassen zu dem weiteren Zeitpunkt zu bestimmen, zu dem das Kamerabild erfasst wurde, weist die Vorrichtung 102 gemäß diesem Ausführungsbeispiel Ermittlungseinrichtungen 160, 162, 164 auf.
  • Die Ermittlungseinrichtung 160 ist ausgebildet, um das Kamerabildsignal 152 einzulesen und unter Verwendung einer geeigneten Auswertevorschrift aus dem Kamerabildsignal 152 erste Augenlied-Pixelkoordinaten 170 und zweite Augenlied-Pixelkoordinaten 172 zu ermitteln. Dabei bilden die ersten Augenlied-Pixelkoordinaten 170 eine Position eines Punkts eines oberen Augenlids des Auges des Insassen 104 in dem Kamerabild und die zweiten Augenlied-Pixelkoordinaten 172 eine Position eines Punkts eines unteren Augenlids des Auges des Insassen 104 in dem Kamerabild ab. Die Pixelkoordinaten 170, 172 beziehen sich dabei beispielsweise auf eine Bildebene des Kamerabilds.
  • Die Ermittlungseinrichtung 162 ist ausgebildet, um die ersten Augenlied-Pixelkoordinaten 170, die zweiten Augenlied-Pixelkoordinaten 172 und die Referenz-Augenmittelpunkt-Kamerakoordinaten 150 einzulesen und zum Ermitteln von der Kopfpose zugeordneten Augenmittelpunkt-Kamerakoordinaten zu verwenden. Dabei kann die Ermittlungseinrichtung 162 eine Transformationsvorschrift zum Überführen der Referenzkopfpose in die Kopfpose verwenden.
  • Die Ermittlungseinrichtung 162 ist ausgebildet, um eine Kugel aufzuspannen, deren Mittelpunkt durch die Augenmittelpunkt-Kamerakoordinaten definiert ist und deren Durchmesser dem mittleren Augendurchmesser des menschlichen Auges entspricht. Die Ermittlungseinrichtung 162 ist ferner ausgebildet, um die der ersten Augenlied-Pixelkoordinaten 170 und die zweiten Augenlied-Pixelkoordinaten 172 beispielsweise unter Verwendung einer geeigneten Projektionsvorschrift auf die Kugel zu projizieren und aus der Projektion erste Augenlied-Kamerakoordinaten 174 und zweite Augenlied-Kamerakoordinaten 176 zu erhalten.
  • Die Ermittlungseinrichtung 164 ist ausgebildet, um ein die Augenöffnung des Auges repräsentierendes Augenöffnungssignal 178 unter Verwendung der ersten Augenlied-Kamerakoordinaten 174 und der zweiten Augenlied-Kamerakoordinaten 176 zu ermitteln. Beispielsweise ist die Ermittlungseinrichtung 164 ausgebildet, um ein Abstand zwischen den ersten Augenlied-Kamerakoordinaten 174 und den zweiten Augenlied-Kamerakoordinaten 176 zu bestimmen und das Augenöffnungssignal 178 unter Verwendung des Abstands zu ermitteln.
  • Gemäß einem Ausführungsbeispiel ist die Ermittlungseinrichtung 160 ausgebildet, um weiteren Punkten der Augenlider zugeordnete weitere Augenlied-Pixelkoordinaten zu ermitteln, die von den weiteren Ermittlungseinrichtung 162, 164 genutzt werden können, um die Augenöffnung genauer bestimmen zu können.
  • Die Ermittlungseinrichtungen 130, 132, 134, 136 und die Ermittlungseinrichtungen 160, 162, 164 sind gemäß einem alternativen Ausführungsbeispiel nicht zusammen in der Vorrichtung 102 sondern in separaten Vorrichtungen realisiert.
  • 2 zeigt eine erste Kopfpose eines Kopfes 200 gemäß einem Ausführungsbeispiel. Dabei kann es sich um den Kopf des in 1 gezeigten Insassen handeln, der in der ersten Kopfpose gerade gehalten wird. Schematisch ist eine Nase und ein Auge 202 dargestellt. Das Auge 202 wird von einer Kamera 106 erfasst. Bei der Kamera 106 kann es beispielsweise um eine Fahrzeugkamera handeln, wie sie anhand von 1 gezeigt ist. Aus Sicht der Kamera 106 weisen das obere und das untere Augenlid des Auges 202 einen Abstand d auf.
  • In 2 ist ferner das der Kamera 106 zugeordnete Kamerakoordinatensystem 120, hier mit einer x-Achse, einer y-Achse und einer z-Achse sowie das Weltkoordinatensystem 124, hier ebenfalls mit einer x-Achse, einer y-Achse und einer z-Achse gezeigt.
  • 3 zeigt eine zweite Kopfpose des in 2 dargestellten Kopfes 200 gemäß einem Ausführungsbeispiel. In der zweiten Kopfpose ist der Kopf 200 nach unten abgewinkelt. Aus Sicht der Kamera 106 weisen das obere und das untere Augenlid des Auges 202 einen Abstand d' auf.
  • Gemäß einem Ausführungsbeispiel ist die Kamera 106 Teil eines sogenannten Fahrerbeobachtungssystem, das als kamerabasiertes Systeme realisiert und in Richtung des Fahrers gerichtet ist. Es ist vor allem das Gesicht des Fahrers von Interesse. Die Kamerabilder der Kamera 106 werden von geeigneten Algorithmen prozessiert und liefern z.B. die Kopfpose des Kopfes 200, die Blickrichtung oder Öffnung der Augen 202 als Größe in Millimetern. Zur Erkennung des Müdigkeitszustands des Fahrers spielt der zeitliche Verlauf dieser Augenöffnung eine zentrale Rolle. Um entsprechende „Schätzalgorithmen“ zur Fahrermodellierung abzusichern, werden Referenzmethoden verwendet, die eine höhere Genauigkeit ermöglichen. Hier beschriebene Ausführungsbeispiele befassen sich inhaltlich mit der Entwicklung einer kamerabasierten Referenzmethode zur Erzeugung der Groundtruth-Daten für die Augenöffnung, bei der vor allem die Kompensation des Einflusses der Kopfpose auf das Ergebnis der Augenöffnung berücksichtigt wird. Dazu wird eine modellbasierte Methode zur Kompensation der Kopfpose bei der Bestimmung der Augenöffnung anhand von Bilddaten einer oder mehrerer Fahrerbeobachtungskameras eingesetzt.
  • Die Methode kann zusätzlich oder alternativ zu einem Verfahren eingesetzt werden, bei dem der Kopf 200 des Fahrers mithilfe eines Stereokamerasystems und einem Target getrackt wird. Die Position des Targets ist dadurch im Weltkoordinatensystem 124 bekannt, welches im Fahrzeug aufgespannt wird. Mit einem zusätzlichen Tool können markante Punkte im Gesicht des Fahrers einmalig vermessen werden. Dadurch dass die Position dieser Punkte relativ zum Kopf 200 konstant bleibt, kann auch deren Position im Weltkoordinatensystem 124 zu jedem Zeitpunkt berechnet werden. Durch Kenntnis der extrinsischen Parameter der Kamera 106 können alle Punkte ebenso in das Kamerakoordinatensystem 120 der Kamera 106 umgerechnet werden. Bei dieser alternativen Vorgehensweise werden die gelabelten Augenlider, wie es nachfolgend in 6 gezeigt ist, auf eine Ebene 204 projiziert die parallel zur xy-Ebene des Weltkoordinatensystems 124 im Fahrzeug liegt. Unter dem Vorgang des Labelns kann dabei ein markieren relevanter Merkmale, beispielsweise eines Augenwinkels, des Mittelpunkts der Pupille oder von Punkten auf den Augenlider in einem Bild der Kamera 106 verstanden werden. Dabei können die auf das Bild bezogenen Pixelkoordinaten dieser Merkmale bestimmt werden. Beispielsweise würde eine Projektion der in 6 gezeigten gelabelten Punkte auf die Ebene 204 erfolgen. Dies mag für den Fall, dass der Kopf 202 des Fahrers geradeaus gerichtet ist, wie es in 2 gezeigt ist, ausreichend genau sein. Ist der Kopf 202 des Fahrers jedoch beispielsweise nach unten geneigt, wie es in 3 gezeigt ist, so führt dies ein „Verkleinern“ der Augenöffnung mit sich. So erscheint der in 3 dargestellt Abstand d' kleiner als der in 2 dargestellte Abstand d, wodurch das für die in 3 gezeigte zweite Kopfpose bezüglich der Augenöffnung errechnete Ergebnis nicht mehr der Realität entspräche. Durch das hier beschriebene modellbasierte Verfahren wird ein solcher bei der Bestimmung der Augenöffnung bei Projektion auf die statische Ebene 204 auftretender Fehler vermieden.
  • 4 zeigt ein Referenzbild 300 eines Auges 202 mit einer Position 310 eines Mittelpunkts der Pupille und einer Position 312 eines Augenwinkels gemäß einem Ausführungsbeispiel. Das Referenzbild 300 kann beispielsweise unter Verwendung der anhand von 1 beschriebenen Kamera erfasst worden sein. Dabei kann das Auge 202 direkt in die Kamera blicken, sodass die Referenzkopfpose vorliegt. Die Position 310 des Mittelpunkts der Pupille 310 und die Position 312 des Augenwinkels können durch die anhand von 1 beschriebenen Referenz-Pupillen-Pixelkoordinaten und Referenz-Augenwinkel-Pixelkoordinaten abgebildet werden. Die Pixelkoordinaten können dabei x- und y-Werte bezüglich des Kamerakoordinatensystems umfassen. Die Bestimmung der Pixelkoordinaten erfolgt dabei im Rahmen eines Labeling des Mittelpunkts der Pupille 310 und eines Augenwinkels.
  • 5 zeigt eine schematische Darstellung eines Auges 202 gemäß einem Ausführungsbeispiel. Dabei kann es sich um das in 4 gezeigte Auge handeln. Gezeigt ist der Augapfel 502 des Auges 202, der Mittelpunkt 504 des Auges 202 und die Pupille 506 des Auges 202. Ferner ist die Position 312 des Augenwinkels des Auges 202 gezeigt.
  • Der Kopf des Insassen weist gemäß diesem Ausführungsbeispiel eine Referenzkopfpose auf, bei der der Insasse mit dem Auge 202 direkt in die Kamera 106 schaut, wie es durch den Vektor 580 angedeutet ist, der auch als Vektor v
    Figure DE102019209200A1_0001
    bezeichnet wird. Der Vektor 580 verläuft durch einen Mittelpunkt der Pupille 506 und einen Ursprung des Kamerakoordinatensystems 120. Eine visuelle Akte 582 verläuft parallel zu dem Vektor 580. Eine optische Achse 584 verläuft durch den Mittelpunkt 504 des Auges 202. Ein Vektor 586, der auch als Vektor ec2ec bezeichnet wird, verläuft von der Position 312 des Augenwinkels des Auges 202 zu dem Mittelpunkt 504 des Auges 202. Eine Tiefeninformation 588 kennzeichnet einen Abstand z_css der Position 312 des Augenwinkels von dem Ursprung des Kamerakoordinatensystems 120 in z-Richtung des Kamerakoordinatensystems 120.
  • Wenn die Position des Augenmittelpunktes 504 im Kamerakoordinatensystem 120 bekannt ist, so können gelabelte Punkte, wie sie beispielsweise nachfolgend in 6 gezeigt sind, direkt auf ein Modell des Auges 202 in Form einer Kugel projiziert werden, wie es nachfolgend anhand von 7 beschrieben ist. Dabei wird davon ausgegangen, dass der Durchmesser eines menschlichen Augapfels im Erwachsenenalter relativ konstant ist.
  • Dieser modellbasierte Anlass erlaubt aus geometrischer Sicht eine genaue Bestimmung der Augenöffnung.
  • Wenn die Position des Augenmittelpunktes 504 und der Mittelpunkt der Pupille 506 bekannt sind, kann die Blickrichtung des Auges bestimmt werden, indem ein Vektor von der Position des Augenmittelpunktes 504 durch den Mittelpunkt der Pupille 506 geführt wird. Ein die Blickrichtung anzeigendes Signal kann bereitgestellt und beispielsweise von einem Assistenzsystem des Fahrzeugs verwendet werden.
  • Anhand von 3 wird eine Bestimmung eines Vektors zur Schätzung des Augenmittelpunktes erläutert. Dazu wird auf eine Methode zur Schätzung des Augenmittelpunktes 504 eingegangen.
  • Die Position 312 des Augenwinkels kann durch Messen bestimmt werden und ist somit im Kamerakoordinatensystem 120 bekannt. Zum Bestimmen der Position 312 des Augenwinkels kann auf geeignete Bildauswerteverfahren zurückgegriffen werden. Ist nun ein Vektor bekannt, der von diesem Augenwinkel in einer beliebigen Kopfpose zum Mittelpunkt 504 des Augapfels 502 zeigt, so kann dieser Vektor mit jeder Kopfpose mitgedreht werden. Dieser Vektor kann dadurch gemeinsam mit der Positionsinformation des Augenwinkels den Mittelpunkt 504 des Auges 202 im Kamerakoordinatensystem 120 liefern. Für den Mittelpunkt 504 des Auges 202 wird eine Schätzung vorgenommen, die im Folgenden erklärt wird.
  • Nach einem Vermessen der Landmarken, hier des Augenwinkels und des Mittelpunkts der Pupille 506 muss der Proband, beispielsweise der Insasse eines Fahrzeugs, direkt in das Objektiv der Kamera 106 sehen.
  • Anschließend wird der Mittelpunkt der Pupille 506 und ein Augenwinkel, in diesem Fall der äußere Augenwinkel, gelabelt und die Pixelkoordinaten gespeichert.
  • Die Pixelkoordinaten des Augenmittelpunkts 504, auch als Peyecenter bezeichnet, und des Augenwinkels, auch als Peyecorner bezeichnet, werden in homogene Koordinaten im Kamerakoordinatensystem 120 umgerechnet.
  • Die Position 312 des Augenwinkels Peyecorner, der auch gelabelt wurde, wird ins Kamerakoordinatensystem 120 transformiert. Mithilfe der Tiefeninformation 588 im Kamerakoordinatensystem 120, die auch als z_ccs bezeichnet wird, und den homogenen Koordinaten des Augenwinkels wird die Position 312 des Augenwinkels im Kamerakoordinatensystem 120 berechnet.
  • Nun wird davon ausgegangen, dass der Mittelpunkt 504 des Auges 202 für den Fall, dass die Person in die Kamera 106 schaut im Kamerakoordinatensystem 120 die gleichen homogenen Koordinaten besitzt wie die Mitte der Pupille 506. Diese Annahme ist nicht ganz richtig, der Fehler soll aber vernachlässigt werden.
  • Wird um die Position 312 des Augenwinkels Peyecorner eine Kugel mit dem mittleren Durchmesser des menschlichen Auges 202 gelegt und der Schnittpunkt mit dem Vektor 580, auch als v
    Figure DE102019209200A1_0002
    bezeichnet gesucht, der aus den homogenen Koordinaten gebildet wird, so erhält man die geschätzte Position des Augapfels 502 in Kamerakoordinaten 120. Dazu kann der auch als Vektor v
    Figure DE102019209200A1_0003
    bezeichnete Vektor 580 zunächst verwendet werden, um den auch als Vektor ec2ec bezeichneten Vektor 586 zu bestimmen.
  • Nun sind beide Punkte, also der Augenwinkel sowie der Augenmittelpunkt 504 im Kamerakoordinatensystem 120 für den Frame bekannt, in dem gelabelt wurde.
  • Diese Informationen können nun genutzt werden um ausgehend von der Position 312 des Augenwinkels in jedem Frame die Position des Augenmittelpunktes 504 zu rekonstruieren, wie es nachfolgend anhand von 7 beschrieben wird.
  • 6 zeigt ein Kamerabild 600 eines Auges mit einer Markierung von Augenliedern gemäß einem Ausführungsbeispiel. Gezeigt sind eine Position 312 des äußeren Augewinkels, eine Position 612 des inneren Augenwinkels. Ferner ist ein Verlauf des oberen Augenlieds über dem oberen Augenlied zugeordnete Punkte 620, 622, 624, 626 und ein Verlauf des unteren Augenlieds über dem unteren Augenlied zugeordnete Punkte 630, 632 gekennzeichnet. Durch die Punkte 620, 622, 624, 626, 630, 632 ergeben sich gelabelte Augenlider.
  • 7 zeigt eine schematische Darstellung eines Augenmodells gemäß einem Ausführungsbeispiel. Das Augenmodell ist als eine Kugel 702 mit dem mittleren Durchmesser des menschlichen Auges realisiert. Gezeigt ist in Form einer Skizze eine Projektion 740, beispielsweise der in 6 gezeigten gelabelten Punkte 312, 612, 620, 622, 624, 626, 630, 632, auf die Kugel 702 des Augenmodells. Die beim Projizieren entstandenen Schnittpunkte zwischen den Projektionslinien der Projektion 740 und der Kugeloberfläche der Kugel 702 werden interpoliert. Anhand der Interpolation wird dann die Augenöffnung berechnet.
  • 8 zeigt ein Ablaufdiagramm eines Verfahrens zum Bestimmen eines Mittelpunkts eines Auges sowie zum Bestimmen einer Augenöffnung des Auges gemäß einem Ausführungsbeispiel. Das Verfahren kann beispielsweise unter Verwendung einer Vorrichtung ausgeführt werden, wie sie anhand von 1 gezeigt ist.
  • In einem optionalen Schritt 801 wird ein Referenzbild unter Verwendung einer Kamera erfasst und ein das Referenzbild repräsentierendes Referenzbildsignal bereitgestellt. Das Referenzbildsignal repräsentiert ein von einer Kamera erfasstes Referenzbild zumindest eines Abschnitts eines Gesichts einer Person, die gerade eine Referenzkopfpose innehat, beispielsweise direkt in die Kamera sieht. In einem Schritt 803 werden Referenz-Pupillen-Pixelkoordinaten und Referenz-Augenwinkel-Pixelkoordinaten unter Verwendung des Referenzbildsignals ermittelt. In einem Schritt 805 werden unter Verwendung der Referenz-Pupillen-Pixelkoordinaten homogene Referenz-Pupillen-Koordinaten in einem Kamerakoordinatensystem der Kamera und unter Verwendung der Referenz-Augenwinkel-Pixelkoordinaten homogene Referenz-Augenwinkel-Koordinaten in dem Kamerakoordinatensystem der Kamera ermittelt. Optional wird in einem Schritt 807 unter Verwendung des Referenzbildsignals eine dem Augenwinkel zugeordnete Tiefeninformation ermittelt. In einem Schritt 809 werden Referenz-Augenwinkel-Kamerakoordinaten unter Verwendung der homogenen Referenz-Augenwinkel-Koordinaten und einer dem Augenwinkel zugeordneten Tiefeninformation ermittelt. In einem Schritt 811 werden der Referenzkopfpose zugeordneten Referenz-Augenmittelpunkt-Kamerakoordinaten als Schnittpunkt eines aus den homogen Referenz-Pupillen-Koordinaten und den homogenen Referenz-Augenwinkel-Koordinaten gebildeten Referenzvektors und einer Referenzkugel ermittelt.
  • In einem Schritt 821 werden Referenz-Augenmittelpunkt-Kamerakoordinaten eingelesen, wie sie im Schritt 811 bestimmt wurden. In einem Schritt 825 werden erste Augenlied-Pixelkoordinaten und zweite Augenlied-Pixelkoordinaten unter Verwendung eines Kamerabildsignals ermittelt. Das Kamerabildsignal repräsentiert ein von der Kamera erfasstes Kamerabild zumindest eines Abschnitts des Gesichts der Person, die nun eine Kopfpose aufweist, die sich von der Referenzkopfpose unterscheiden kann. In einem Schritt 827 werden der Kopfpose zugeordnete Augenmittelpunkt-Kamerakoordinaten unter Verwendung der Referenz-Augenmittelpunkt-Kamerakoordinaten und einer die Referenzkopfpose in die Kopfpose überführenden Transformationsvorschrift ermittelt. In einem Schritt 829 werden die ersten Augenlied-Pixelkoordinaten auf eine Kugel projiziert, um erste Augenlied-Kamerakoordinaten zu erhalten. Ferner werden die zweiten Augenlied-Pixelkoordinaten auf die Kugel projiziert, um zweite Augenlied-Kamerakoordinaten zu erhalten. Optional umfasst das Verfahren einen Schritt 831, in dem ein Abstand zwischen den ersten Augenlied-Kamerakoordinaten und den zweiten Augenlied-Kamerakoordinaten ermittelt wird. In einem Schritt 833 wird ein die Augenöffnung des Auges repräsentierendes Augenöffnungssignal unter Verwendung der ersten Augenlied-Kamerakoordinaten und der zweiten Augenlied-Kamerakoordinaten oder unter Verwendung des im Schritt 831 ermittelten Abstand ermittelt.
  • Die Schritte 821, 823, 825, 827, 829, 831, 833 können unabhängig zu den Schritten 801, 803, 805, 807, 809, 811 ausgeführt werden. Insbesondere können die Schritte 821, 823, 825, 827, 829, 831, 833 einmalig ausgeführt werden, um für die Person geeignete Referenz-Augenmittelpunkt-Kamerakoordinaten zu ermitteln. Die Schritte 821, 823, 825, 827, 829, 831, 833 können für jedes erfasste Kamerabild erneut ausgeführt werden, um die Augenöffnung der Person zu demjenigen Zeitpunkt zu bestimmen, zu dem das jeweilige Kamerabild erfasst wurde.
  • Umfasst ein Ausführungsbeispiel eine „und/oder“-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.

Claims (9)

  1. Verfahren zum Bestimmen eines Mittelpunkts (504) eines Auges (202) eines Insassen eines Fahrzeugs (100), wobei das Verfahren die folgenden Schritte umfasst: Ermitteln (803) von Referenz-Pupillen-Pixelkoordinaten (140) und Referenz-Augenwinkel-Pixelkoordinaten (142) unter Verwendung eines Referenzbildsignals (110), das ein von einer Kamera (106) erfasstes Referenzbild (300) zumindest eines Abschnitts eines Gesichts des eine Referenzkopfpose aufweisenden Insassen repräsentiert, wobei die Referenz-Pupillen-Pixelkoordinaten (140) eine Position eines Mittelpunkts (504) einer Pupille (506) des Auges (202) des Insassen in dem Referenzbild (300) und die Referenz-Augenwinkel-Pixelkoordinaten (142) eine Position (312) eines Augenwinkels des Auges (202) des Insassen in dem Referenzbild (300) repräsentieren; Ermitteln (805) von homogen Referenz-Pupillen-Koordinaten (144) in einem Kamerakoordinatensystem (120) der Kamera (106) unter Verwendung der Referenz-Pupillen-Pixelkoordinaten (140) und von homogenen Referenz-Augenwinkel-Koordinaten (146) in dem Kamerakoordinatensystem (120) der Kamera (106) unter Verwendung der Referenz-Augenwinkel-Pixelkoordinaten (142); Ermitteln (809) von Referenz-Augenwinkel-Kamerakoordinaten (148) unter Verwendung der homogenen Referenz-Augenwinkel-Koordinaten (146) und einer dem Augenwinkel zugeordneten Tiefeninformation (588), wobei die Referenz-Augenwinkel-Kamerakoordinaten (148) eine Position (312) des Augenwinkels in dem Kamerakoordinatensystem (120) repräsentieren; und Ermitteln (811) von der Referenzkopfpose zugeordneten Referenz-Augenmittelpunkt-Kamerakoordinaten (150) als Schnittpunkt eines aus den homogen Referenz-Pupillen-Koordinaten (144) und den homogenen Referenz-Augenwinkel-Koordinaten (146) gebildeten Referenzvektors und einer Referenzkugel, wobei ein Mittelpunkt der Referenzkugel durch die Referenz-Augenwinkel-Kamerakoordinaten (150) und ein Durchmesser der Referenzkugel durch einen mittleren Augendurchmesser eines menschlichen Auges (202) definiert sind.
  2. Verfahren gemäß Anspruch 1, mit einem Schritt (801) des Erfassens des Referenzbilds (300) unter Verwendung der Kamera (106) und einem Schritt des Bereitstellens des Referenzbildsignals (110).
  3. Verfahren gemäß Anspruch 2, bei dem der Schritt (801) des Erfassens zu einem Zeitpunkt durchgeführt wird, bei dem der Insasse mit dem Auge (202) direkt in ein Objektiv der Kamera (106) blickt.
  4. Verfahren gemäß einem der vorangegangenen Ansprüche, mit einem Schritt (807) des Ermittelns der dem Augenwinkel zugeordneten Tiefeninformation (588) unter Verwendung des Referenzbildsignals (110).
  5. Verfahren zum Bestimmen einer Augenöffnung eines Auges (202) eines Insassen eines Fahrzeugs (100), wobei das Verfahren die folgenden Schritte umfasst: Einlesen (821) von Referenz-Augenmittelpunkt-Kamerakoordinaten (150), die nach einem Verfahren zum Bestimmen eines Mittelpunkts (504) eines Auges (202) eines Insassen eines Fahrzeugs (100) gemäß einem der Ansprüche 1 bis 4 bestimmte Koordinaten repräsentieren; Ermitteln (825) von ersten Augenlied-Pixelkoordinaten (170) und zweiten Augenlied-Pixelkoordinaten (172) unter Verwendung eines Kamerabildsignals (152), das ein von der Kamera (106) erfasstes Kamerabild (600) zumindest eines Abschnitts eines Gesichts des eine Kopfpose aufweisenden Insassen repräsentiert, wobei die ersten Augenlied-Pixelkoordinaten (170) eine Position eines Punkts (620, 622, 624, 626) eines oberen Augenlids des Auges (202) des Insassen in dem Kamerabild (600) und die zweiten Augenlied-Pixelkoordinaten eine Position eines Punkts (630, 632) eines unteren Augenlids des Auges (202) des Insassen in dem Kamerabild (600) repräsentieren; Ermitteln (827) von der Kopfpose zugeordneten Augenmittelpunkt-Kamerakoordinaten unter Verwendung der Referenz-Augenmittelpunkt-Kamerakoordinaten (150) und einer die Referenzkopfpose in die Kopfpose überführenden Transformationsvorschrift; Projizieren (829) der ersten Augenlied-Pixelkoordinaten (170) auf eine Kugel (702), um erste Augenlied-Kamerakoordinaten (174) zu erhalten, und der zweiten Augenlied-Pixelkoordinaten auf die Kugel (702), um zweite Augenlied-Kamerakoordinaten (176) zu erhalten, wobei ein Mittelpunkt der Kugel (702) durch die Augenmittelpunkt-Kamerakoordinaten und ein Durchmesser der Kugel durch den mittleren Augendurchmesser des menschlichen Auges (202) definiert sind; Ermitteln (833) eines die Augenöffnung des Auges (202) repräsentierenden Augenöffnungssignals unter Verwendung der ersten Augenlied-Kamerakoordinaten (174) und der zweiten Augenlied-Kamerakoordinaten (176).
  6. Verfahren gemäß Anspruch 5, mit einem Schritt des Ermittelns eines Abstands zwischen den ersten Augenlied-Kamerakoordinaten und den zweiten Augenlied-Kamerakoordinaten, wobei das Augenöffnungssignal unter Verwendung des Abstands ermittelt wird.
  7. Vorrichtung, die eingerichtet ist, um die Schritte des Verfahrens gemäß einem der vorangegangenen Ansprüche in entsprechenden Einheiten auszuführen und/oder anzusteuern.
  8. Computerprogramm, das dazu eingerichtet ist, die Schritte des Verfahrens gemäß einem der vorangegangenen Ansprüche auszuführen und/oder anzusteuern.
  9. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 8 gespeichert ist.
DE102019209200.4A 2019-06-26 2019-06-26 Verfahren und Vorrichtung zum Bestimmen eines Mittelpunkts und einer Augenöffnung eines Auges eines Insassen eines Fahrzeugs Pending DE102019209200A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019209200.4A DE102019209200A1 (de) 2019-06-26 2019-06-26 Verfahren und Vorrichtung zum Bestimmen eines Mittelpunkts und einer Augenöffnung eines Auges eines Insassen eines Fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019209200.4A DE102019209200A1 (de) 2019-06-26 2019-06-26 Verfahren und Vorrichtung zum Bestimmen eines Mittelpunkts und einer Augenöffnung eines Auges eines Insassen eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102019209200A1 true DE102019209200A1 (de) 2020-12-31

Family

ID=73747812

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019209200.4A Pending DE102019209200A1 (de) 2019-06-26 2019-06-26 Verfahren und Vorrichtung zum Bestimmen eines Mittelpunkts und einer Augenöffnung eines Auges eines Insassen eines Fahrzeugs

Country Status (1)

Country Link
DE (1) DE102019209200A1 (de)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7401920B1 (en) * 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
DE102010044449A1 (de) * 2009-12-31 2011-07-07 Volkswagen AG, 38440 Erkennen des Grades der Fahrfähigkeit des Fahrers eines Kraftfahrzeugs
DE112011105435T5 (de) * 2011-07-11 2014-03-27 Toyota Jidosha Kabushiki Kaisha Augenliderfassungsvorrichtung
DE102015204283A1 (de) * 2015-03-10 2016-09-15 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erfassung der Blickrichtung einer Person
DE102015210090A1 (de) * 2015-06-01 2016-12-01 Volkswagen Aktiengesellschaft Kalibrierung einer Fahrerbeobachtungskamera
DE102016201939A1 (de) * 2016-02-09 2017-08-10 Volkswagen Aktiengesellschaft Vorrichtung, Verfahren und Computerprogramm zur Verbesserung der Wahrnehmung bei Kollisionsvermeidungssystemen
DE102017212446A1 (de) * 2017-07-20 2019-01-24 Robert Bosch Gmbh Verfahren zum Überwachen einer Anzeigevorrichtung

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7401920B1 (en) * 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
DE102010044449A1 (de) * 2009-12-31 2011-07-07 Volkswagen AG, 38440 Erkennen des Grades der Fahrfähigkeit des Fahrers eines Kraftfahrzeugs
DE112011105435T5 (de) * 2011-07-11 2014-03-27 Toyota Jidosha Kabushiki Kaisha Augenliderfassungsvorrichtung
DE102015204283A1 (de) * 2015-03-10 2016-09-15 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erfassung der Blickrichtung einer Person
DE102015210090A1 (de) * 2015-06-01 2016-12-01 Volkswagen Aktiengesellschaft Kalibrierung einer Fahrerbeobachtungskamera
DE102016201939A1 (de) * 2016-02-09 2017-08-10 Volkswagen Aktiengesellschaft Vorrichtung, Verfahren und Computerprogramm zur Verbesserung der Wahrnehmung bei Kollisionsvermeidungssystemen
DE102017212446A1 (de) * 2017-07-20 2019-01-24 Robert Bosch Gmbh Verfahren zum Überwachen einer Anzeigevorrichtung

Similar Documents

Publication Publication Date Title
DE102017107396A1 (de) Testverfahren und Testvorrichtung für Fahrerassistenzsysteme
DE102016224095A1 (de) Verfahren zum Kalibrieren einer Kamera und Kalibriersystem
EP3635478B1 (de) Verfahren, vorrichtungen und computerprogramm zum bestimmen eines nah-durchblickpunktes
DE102015209391A1 (de) Verfahren und Vorrichtung zum Erzeugen einer Maskierungsvorschrift sowie zum Maskieren einer Bildinformation einer Kamera
DE102015214116A1 (de) Verfahren und Einrichtung zum Schätzen einer Blickrichtung eines Fahrzeuginsassen, Verfahren und Einrichtung zum Bestimmen eines für einen Fahrzeuginsassen spezifischen Kopfbewegungsverstärkungsparameters und Verfahren und Vorrichtung zum Blickrichtungsschätzen eines Fahrzeuginsassen
DE112018006164B4 (de) Sichtlinienrichtungskalibrierungsvorrichtung, sichtlinienrichtungskalibrierungsverfahren und sichtlinienrichtungskalibrierungsprogramm
EP3392111A1 (de) Verfahren und vorrichtung zum ermitteln einer visuellen ablenkung eines fahrers eines fahrzeugs
DE102019103197B4 (de) Insassenüberwachungsvorrichtung
EP3729213B1 (de) Verhaltensmodell eines umgebungssensors
DE102018206777A1 (de) Tiefenauswertung zur Lokalisierung eines Fahrzeuginsassen in einem Fahrzeuginnenraum
DE102018204451A1 (de) Verfahren und Vorrichtung zur Autokalibrierung eines Fahrzeugkamerasystems
DE102019207448A1 (de) Simultane Lokalisierung und Kartenerstellung in 2D unter Verwendung eines 3D-Scanners
EP1352363B1 (de) Verfahren und vorrichtung zum kompensieren einer dejustage einer bilderzeugungsvorrichtung
DE102019209200A1 (de) Verfahren und Vorrichtung zum Bestimmen eines Mittelpunkts und einer Augenöffnung eines Auges eines Insassen eines Fahrzeugs
DE102019103360A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102010004233B3 (de) Verfahren zur Bestimmung der Lage eines Kamerasystems bezüglich eines Objekts
DE102010042821B4 (de) Verfahren und Vorrichtung zur Bestimmung einer Basisbreite eines Stereo-Erfassungssystems
DE102017212446A1 (de) Verfahren zum Überwachen einer Anzeigevorrichtung
DE102019201134B4 (de) Verfahren, Computerprogramm mit Instruktionen und System zum Einmessen einer Augmented-Reality-Brille und Augmented-Reality-Brille zur Verwendung in einem Kraftfahrzeug
DE112021003430T5 (de) Bildverarbeitungsvorrichtung
DE112021000595T5 (de) Bildverarbeitungssystem
DE102016223290A1 (de) Verfahren und Vorrichtung zum Kalibrieren eines Sensors für ein Fahrzeug
EP3596428B1 (de) Verfahren und vorrichtung zum aktualisieren einer digitalen karte zur fahrzeugnavigation
DE102019008892A1 (de) Verfahren zum Betreiben eines Kamerasystems mit einem kameragestützten Bildstitching oder einem merkmalsgestützten Bildstitching, sowie Kamerasystem
DE102015101190A1 (de) Verfahren zum Bestimmen eines Bildtiefenwerts abhängig von einem Bildbereich, Kamerasystem und Kraftfahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified