DE102005047967A1 - Erfassen eines Auges eines Benutzers und Bestimmen von Ort und Blinzelzustand des Benutzers - Google Patents

Erfassen eines Auges eines Benutzers und Bestimmen von Ort und Blinzelzustand des Benutzers Download PDF

Info

Publication number
DE102005047967A1
DE102005047967A1 DE102005047967A DE102005047967A DE102005047967A1 DE 102005047967 A1 DE102005047967 A1 DE 102005047967A1 DE 102005047967 A DE102005047967 A DE 102005047967A DE 102005047967 A DE102005047967 A DE 102005047967A DE 102005047967 A1 DE102005047967 A1 DE 102005047967A1
Authority
DE
Germany
Prior art keywords
eye
user
location
vehicle
eyes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102005047967A
Other languages
English (en)
Inventor
Mark A. Loveland Unkrich
Julie E. Loveland Fouquet
Richard E. Loveland Haven
Daniel Loveland Usikov
John S. Loveland Wenstrand
Todd S. Loveland Sachs
James G. Loveland Horner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Avago Technologies International Sales Pte Ltd
Original Assignee
Agilent Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agilent Technologies Inc filed Critical Agilent Technologies Inc
Publication of DE102005047967A1 publication Critical patent/DE102005047967A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/20Means to switch the anti-theft system on or off
    • B60R25/25Means to switch the anti-theft system on or off using biometry
    • B60R25/255Eye recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Rear-View Mirror Devices That Are Mounted On The Exterior Of The Vehicle (AREA)
  • Air Bags (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

Ein Verfahren und eine Vorrichtung zum Erfassen eines Ortes eines Auges eines Benutzers unter Verwendung eines automatisierten Erfassungsprozesses und zum automatischen Bestimmen einer Position eines Kopfes des Benutzers bezüglich eines Objekts, basierend auf dem erfassten Ort des Auges. Ein Ort eines Auges eines Benutzers in einem Fahrzeug wird unter Verwendung des automatisierten Erfassungsprozesses erfasst, zumindest eines von Größen- und Ausrichtungsinformationen des Benutzers wird automatisch, basierend auf dem erfassten Ort des Auges, bestimmt, und eine mechanische Vorrichtung in dem Fahrzeug wird gemäß den bestimmten Informationen gesteuert. Außerdem wird ein Augenblinzelmuster eines Benutzers unter Verwendung eines Infrarotreflexionsvermögens eines Auges des Benutzers erfasst, und Nachrichten werden von dem Benutzer gemäß dem erfassten Augenblinzelmuster des Benutzers gesendet.

Description

  • Die Erfassung der Position eines Fahrzeuginsassen ist in verschiedenen Industriezweigen sehr nützlich. Ein Industriezweig, der derartige Informationen verwendet, ist die Automobilindustrie, bei der die Position eines Fahrzeuginsassen bezüglich einer Airbageinsatzregion erfasst wird, um eine Verletzung zu verhindern, die auftritt, wenn ein Airbag aufgrund eines Autounfalls oder eines anderen Vorkommnisses zum Einsatz kommt. Allgemein stützen sich derzeitige Lösungen auf eine Kombination von Sensoren, die Sitzsensoren umfassen, die den Druck oder das Gewicht eines Insassen erfassen, um zu bestimmen, ob der Sitz belegt ist. Da dieses System jedoch keine Unterscheidung z. B. zwischen großen und kleinen Insassen oder Insassen, die während eines Zusammenstoßes nicht in Position sind, liefert, kann sich trotzdem eine Verletzung aus dem explosiven Aufprall des Airbags auf Insassen, die nicht in Position sind, ergeben. Ferner kann der Airbag fälschlicherweise auf ein plötzliches Abbremsen hin zum Einsatz kommen, wenn die Gewichtssensoren verwendet werden, um die Position des Fahrzeuginsassen zu erfassen.
  • Andere Lösungen liefern kapazitive Sensoren im Dach eines Fahrzeuges, um eine Position des Fahrzeuginsassen zu bestimmen. Ähnlich wie die Gewichts- oder Drucksensoren liefern die kapazitiven Sensoren jedoch keine genauen Positionierungsinformationen kleiner Insassen, wie z. B. Kinder. Die kapazitiven Sensoren erfordern zur Implementierung auch eine große Fläche in dem Dach des Fahrzeugs und es ist nicht ohne weiteres möglich, dass dieselben bei existierenden Fahrzeugen implementiert werden.
  • Es ist die Aufgabe der vorliegenden Erfindung, ein Verfahren mit verbesserten Charakteristika zu schaffen.
  • Diese Aufgabe wird durch ein Verfahren gemäß Anspruch 1, 11, 24, 28, 34 oder 35 gelöst.
  • Verschiedene Ausführungsbeispiele der vorliegenden Erfindung liefern ein Verfahren, das (a) ein Erfassen eines Ortes eines Auges eines Benutzers unter Verwendung eines automatisierten Erfassungsprozesses und (b) ein automatisches Bestimmen einer Position eines Kopfes des Benutzers bezüglich eines Objekts basierend auf dem erfassten Ort des Auges umfasst.
  • Verschiedene Ausführungsbeispiele der vorliegenden Erfindung liefern ein Verfahren, das (a) ein Erfassen eines Ortes eines Auges eines Benutzers unter Verwendung eines automatisierten Erfassungsprozesses und (b) ein automatisches Bestimmen von zumindest einem von Größen- und Ausrichtungsinformationen des Benutzers bezüglich eines Objekts basierend auf dem erfassten Ort des Auges umfasst.
  • Außerdem liefern verschiedene Ausführungsbeispiele der vorliegenden Erfindung ein Verfahren, das (a) ein Erfassen eines Ortes eines Auges eines Benutzers in einem Fahrzeug unter Verwendung eines Infrarotreflexionsvermögens des Auges oder einer Differenzwinkelbeleuchtung des Auges, (b) ein automatisches Bestimmen von zumindest einem von Größen- und Ausrichtungsinformationen des Benutzers basierend auf dem erfassten Ort des Auges und (c) ein Steuern einer mechanischen Vorrichtung in dem Fahrzeug gemäß den bestimmten Informationen des Benutzers umfasst.
  • Verschiedene Ausführungsbeispiele der vorliegenden Erfindung liefern ein Verfahren, das (a) ein Erfassen eines Ortes eines Auges eines Benutzers in einem Fahrzeug unter Verwendung eines Infrarotreflexionsvermögens des Auges oder einer Differenzwinkelbeleuchtung des Auges, (b) ein automa tisches Bestimmen einer Position eines Kopfes des Benutzers basierend auf dem erfassten Ort des Auges und (c) ein Steuern einer mechanischen Vorrichtung in dem Fahrzeug gemäß der bestimmten Position des Kopfes umfasst.
  • Verschiedene Ausführungsbeispiele der vorliegenden Erfindung liefern ein Verfahren, das (a) ein Erfassen eines Ortes eines Auges eines Benutzers unter Verwendung eines automatisierten Erfassungsprozesses, (b) ein Bestimmen einer Position des Benutzers basierend auf dem erfassten Ort des Auges und (c) ein automatisches Implementieren einer Vorzusammenstoß- und/oder einer Nachzusammenstoßaktion gemäß der bestimmten Position umfasst.
  • Verschiedene Ausführungsbeispiele der vorliegenden Erfindung liefern ferner ein Verfahren, das (a) ein Erfassen eines Augenblinzelmusters eines Benutzers unter Verwendung eines Infrarotreflexionsvermögens eines Auges des Benutzers und (b) ein Senden von Nachrichten von dem Benutzer gemäß dem erfassten Augenblinzelmuster des Benutzers umfasst.
  • Diese und/oder andere Aspekte und Vorteile der Erfindung werden aus der folgenden Beschreibung der Ausführungsbeispiele zusammen mit den beiliegenden Zeichnungen ersichtlich und leichter erkannt. Es zeigen:
  • 1 ein Diagramm, das einen Prozess zum Erfassen eines Ortes eines Auges unter Verwendung eines automatisierten Erfassungsprozesses und zum automatischen Bestimmen einer Position eines Kopfes bezüglich eines Objekts basierend auf dem erfassten Ort des Auges gemäß einem Ausführungsbeispiel der vorliegenden Erfindung veranschaulicht;
  • 2 ein Diagramm, das einen Prozess zum Erfassen eines Ortes eines Auges unter Verwendung eines automatisierten Erfassungsprozesses und zum automatischen Bestimmen von zumindest einem von Grö ßen- und Ausrichtungsinformationen basierend auf dem erfassten Ort des Auges gemäß einem Ausführungsbeispiel der vorliegenden Erfindung veranschaulicht;
  • 3 ein Diagramm, das einen Prozess zum Erfassen eines Ortes eines Auges unter Verwendung eines automatisierten Erfassungsprozesses und zum automatischen Bestimmen einer Position eines Kopfes des Benutzers bezüglich eines Objekts basierend auf dem erfassten Ort des Auges gemäß einem Ausführungsbeispiel der vorliegenden Erfindung veranschaulicht;
  • 4 ein Diagramm, das eine Vorrichtung zum Erfassen eines Ortes eines Auges unter Verwendung eines automatisierten Erfassungsprozesses und zum automatischen Bestimmen von zumindest einem von Größen- und Ausrichtungsinformationen eines Benutzers bezüglich eines Objekts basierend auf dem erfassten Ort des Auges gemäß einem Ausführungsbeispiel der vorliegenden Erfindung veranschaulicht;
  • 5A und 5B Diagramme, die einen Prozess zum Erfassen eines Ortes eines Auges eines Benutzers in einem Fahrzeug gemäß einem Ausführungsbeispiel der vorliegenden Erfindung veranschaulichen;
  • 6A, 6B u. 6C Diagramme, die einen Prozess zum Erfassen von Orten von Augen eines Benutzers in einem Fahrzeug gemäß einem Ausführungsbeispiel der vorliegenden Erfindung veranschaulichen;
  • 7 ein Diagramm, das einen Prozess zum Erfassen eines Ortes eines Auges unter Verwendung eines automatisierten Erfassungsprozesses, zum Bestimmen einer Position eines Benutzers basierend auf dem erfassten Ort des Auges und zum automatischen Implementieren einer Vorzusammenstoß- und/oder Nachzusammenstoßaktion gemäß der bestimmten Position gemäß einem Ausführungsbeispiel der vorliegenden Erfindung veranschaulicht; und
  • 8 ein Diagramm, das einen Prozess zum Erfassen eines Augenblinzelmusters unter Verwendung eines Infrarotreflexionsvermögens eines Auges und zum Senden von Nachrichten von einem Benutzer gemäß dem erfassten Augenblinzelmuster gemäß einem Ausführungsbeispiel der vorliegenden Erfindung veranschaulicht.
  • Es wird nun detailliert Bezug genommen auf die vorliegenden Ausführungsbeispiele der vorliegenden Erfindung, von denen Beispiele in den beiliegenden Zeichnungen veranschaulicht sind, wobei gleiche Bezugszeichen sich durchgängig auf die gleichen Elemente beziehen. Die Ausführungsbeispiele sind im Folgenden beschrieben, um die vorliegende Erfindung durch Bezugnahme auf die Figuren zu erläutern.
  • 1 ist ein Diagramm, das einen Prozess 100 zum Erfassen eines Ortes eines Auges unter Verwendung eines automatisierten Erfassungsprozesses und zum automatischen Bestimmen einer Position eines Kopfes bezüglich eines Objekts basierend auf dem erfassten Ort des Auges gemäß einem Ausführungsbeispiel der vorliegenden Erfindung veranschaulicht. Unter Bezugnahme auf 1 wird bei Operation 10 ein Ort eines Auges eines Benutzers unter Verwendung eines automatisierten Erfassungsprozesses erfasst. Obwohl sich Operation 10 auf ein Auge eines Benutzers bezieht, ist die vorliegende Erfindung nicht auf ein Erfassen eines einzigen Auges des Benutzers beschränkt. Zum Beispiel können Orte von beiden Augen eines Benutzers unter Verwendung eines automatisierten Erfassungsprozesses erfasst werden.
  • Der Begriff „automatisiert" zeigt an, dass der Erfassungsprozess im Gegensatz zur Erfassung durch Personen auf eine automatisierte Weise durch eine Maschine durchgeführt wird. Die Maschine kann z. B. einen Computerprozessor und Sensoren umfassen. Auf ähnliche Weise können verschiedene Prozesse hier so beschrieben sein, dass dieselben „automatisch" durchgeführt werden, wodurch angezeigt wird, dass die Prozesse im Gegensatz zu einer Durchführung durch Personen auf eine automatisierte Weise durch eine Maschine durchgeführt werden.
  • Der automatisierte Erfassungsprozess, um den Ort von ein oder mehr Augen zu erfassen, könnte z. B. ein Differenzwinkelbeleuchtungsprozess sein, wie z. B. derjenige, der in der U.S.-Anmeldung Seriennummer 10/377,687, U.S.-Patentanmeldung Nummer 20040170304 mit dem Titel „APPARATUS AND METHOD FOR DETECTING PUPILS", eingereicht am 28. Februar 2003 von den Erfindern Richard E. Haven, David J. Anvar, Julie E. Fouquet und John S. Wenstrand, Anwaltsaktenzeichen 10030010-1, die hier durch Bezugnahme aufgenommen ist, offenbart ist. Bei diesem Differenzwinkelbeleuchtungsprozess werden allgemein die Orte von Augen durch ein Erfassen von Pupillen basierend auf einer Differenz zwischen reflektiertem Licht von unterschiedlichen Beleuchtungswinkeln erfasst. Insbesondere wird Licht mit unterschiedlichen Winkeln emittiert, und die Pupillen werden unter Verwendung der Differenz zwischen reflektiertem Licht infolge der unterschiedlichen Beleuchtungswinkel erfasst. Außerdem können bei diesem Prozess zwei Bilder eines Auges, die zeitlich oder durch Lichtwellenlänge getrennt sind, durch einen oder mehr Sensoren erfasst und differenziert werden, um einen Ort des Auges basierend auf einer Differenz zu erfassen, die sich zwischen den zwei Bildern ergibt.
  • Alternativ dazu könnte der automatisierte Erfassungsprozess, um den Ort von ein oder mehr Augen zu erfassen, z. B. ein Prozess sein wie derjenige, der in der U.S.-Anmeldung 10/843,517 mit dem Titel "METHOD AND SYSTEM FOR WAVELENGTH-DEPENDENT IMAGING AND DETECTION USING A HYBRID FILTER", eingereicht am 10. Mai 2004 von den Erfindern Julie E. Fouquet, Richard E. Haven und Scott W. Corzine, Anwaltsaktenzeichen 10040052-1, und der U.S.-Anmeldung 10/739,831 mit dem Titel „METHOD AND SYSTEM FOR WAVELENGTH-DEPENDENT IMAGING AND DETECTION USING A HYBRID FILTER", eingereicht am 18. Dezember 2003, Anwaltsaktenzeichen 10031131-1, die hier durch Bezugnahme aufgenommen sind, offenbart ist. Bei diesem Prozess werden allgemein zumindest zwei Bilder eines Gesichts und/oder von Augen einer Person aufgenommen, wobei ein Bild z. B. an oder auf einer Achse eines Detektors aufgenommen wird, und das andere Bild z. B. mit einem größeren Winkel von der Achse des Detektors weg aufgenommen wird. Dementsprechend hebt der Unterschied zwischen den beiden Bildern, wenn die Augen der Person offen sind, die Pupillen der Augen hervor, was verwendet werden kann, um zu folgern, dass die Augen der Person geschlossen sind, wenn die Pupillen in dem Differenzbild nicht erfassbar sind.
  • Wie es ferner in den U.S.-Anmeldungen mit dem Titel „METHOD AND SYSTEM FOR WAVELENGTH-DEPENDENT IMAGING AND DETECTION USING A HYBRID FILTER", auf die im Vorhergehenden verwiesen ist, beschrieben ist, kann ein wellenlängenabhängiger Beleuchtungsprozess implementiert werden, bei dem allgemein ein Hybridfilter, das Filterschichten aufweist, bereitgestellt ist zum Durchlassen von Licht mit oder nahe einer ersten Wellenlänge und mit oder nahe einer zweiten Wellenlänge, während alle anderen Wellenlängen blockiert werden, zum Erfassen von Lichtmengen, die mit oder nahe der ersten und der zweiten Wellenlänge empfangen werden. Dementsprechend wird ein wellenlängenabhängiger Bilderfassungsprozess allgemein implementiert, um zu erfassen, ob die Augen der Person geschlossen oder offen sind.
  • Die vorliegenden allgemeinen Beschreibungen der im Vorhergehenden beschriebenen automatisierten Erfassungsprozesse sind nur als allgemeine Beschreibungen vorgesehen. Die vorliegende Erfindung ist nicht auf die allgemeinen Beschreibungen dieser automatisierten Erfassungsprozesse beschränkt. Außerdem sind die automatisierten Erfassungsprozesse, auf die im Vorhergehenden verwiesen ist, nur als Beispiele für automatisierte Erfassungsprozesse, um den Ort von ein oder mehr Augen zu erfassen, vorgesehen. Die vorliegende Erfindung ist nicht auf irgendeinen bestimmten Prozess beschränkt.
  • Unter Bezugnahme auf 1 geht der Prozess 100 von Operation 10 zu Operation 12 über, bei der eine Position eines Kopfes eines Benutzers bezüglich eines Objekts basierend auf dem erfassten Ort von zumindest einem Auge bei Operation 10 bestimmt wird. Es gibt viele verschiedene Weisen, die Position eines Kopfes bezüglich eines Objekts bei Operation 12 zu bestimmen, und die vorliegende Erfindung ist nicht auf irgendeine bestimmte Weise beschränkt.
  • Zum Beispiel kann eine Position eines Kopfes des Benutzers bezüglich eines Objekts bei Operation 12 von 1 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung unter Verwendung eines Triangulationsverfahrens gemäß der Erfassungsergebnisse bei Operation 10 bestimmt werden. Zum Beispiel kann ein Triangulationsverfahren unter Verwendung von Stereoaugenerfassungssystemen implementiert werden, um Informationen, die eine dreidimensionale Position des Kopfes anzeigen, durch ein Anwenden einer stereoskopischen Bilderfassung zusätzlich zu der Erfassung von Operation 10 zu erzeugen.
  • Insbesondere würde beispielsweise bei Stereoaugenerfassungssystemen jedes Augenerfassungssystem Augenortinformationen bei Operation 10 liefern. Dann würde bei Operation 12 ein Triangulationsverfahren zwischen den Augenerfassungssystemen verwendet werden, um detailliertere dreidimensionale Kopfpositionsinformationen zu liefern. Zusätzlich könnte das Triangulationsverfahren bei Operation 12 implementiert werden, um z. B. Blickwinkelinformationen zu liefern.
  • Um eine Genauigkeit zu verbessern, könnte eine Zeitgebung einer Bilderfassung zwischen den Stereoaugenerfassungssystemen streng gesteuert sein. Es gibt eine Anzahl von Weisen, um eine derartige Steuerung zu erreichen. Zum Beispiel kann eine derartige Steuerung durch ein Verwenden eines Pufferspeichers bei jedem Augenerfassungssystem erreicht werden, um vorübergehend Bilder zu speichern, die gleichzeitig durch die Augenerfassungssysteme aufgenommen wurden. Der Speicher eines jeweiligen Augenerfassungssystems könnte z. B. ein separater Speicherspeicherungsblock sein, der z. B. von einem Pixelsensorarray des jeweiligen Augenerfassungssystems heruntergeladen wird. Alternativ dazu können Bilddaten vorübergehend z. B. in dem Pixelarray selbst gespeichert werden. Die Bilder von den unterschiedlichen Augenerfassungssystemen könnten dann z. B. sequentiell verarbeitet werden, um Augenortinformationen aus jedem Bild zu extrahieren.
  • Als ein weiteres Beispiel für die Verwendung von Stereoaugenerfassungssystemen können die Kosten eines Pufferspeichers oder die Pixelkomplexität z. B. durch ein Beseitigen der Speicherkomponente reduziert werden. Zum Beispiel könnten Augenerfassungssysteme z. B. CMOS-Bildsensoren umfassen, die durchgehend sequentielle Bilder aufzeichnen. Die Auslese jedes Bildsensors kann dann auf einer Linie-für-Linie-Basis abgetastet werden. Wirksam können gleichzeitige Bilder durch ein Lesen einer Linie von einem ersten Sensor und dann ein Lesen der gleichen Linie von einem zweiten Sensor extrahiert werden. Die Auslese von den zwei Bildern kann dann verschachtelt werden. Nachfolgende Linien könnten alternativ dazu von abwechselnden Bildsensoren ausgelesen werden. Informationen über den Augenort können dann von jedem der zusammengesetzten Bilder, die aus den abwechselnden Linien der Bilddaten, wie dieselben gelesen werden, gebildet sind, extrahiert werden, um dadurch Infor mationen zu liefern, die eine dreidimensionale Position des Kopfes anzeigen.
  • Die im Vorhergehenden beschriebenen Beispiele der Operation von Stereoaugenerfassungssystemen sind nur als Beispiele vorgesehen. Die vorliegende Erfindung ist nicht auf irgendeine bestimmte Weise des Betreibens von Stereoaugenerfassungssystemen beschränkt.
  • Anstatt ein Triangulationsverfahren zu verwenden, kann bei Operation 12 ein Algorithmus verwendet werden, um die Position eines Kopfes des Benutzers bezüglich eines Objekts basierend auf dem erfassten Ort von zumindest einem Auge bei Operation 10 zu bestimmen. Ein Beispiel für einen Algorithmus kann z. B. sein, eine Grenze eines Kopfes durch ein Aufnehmen von Durchschnittsabständen von Gesichtsstrukturen von einem erfassten Ort eines Auges zu schätzen. Da der Ort des Objekts bekannt ist, kann die Position des Kopfes bezüglich des Objekts aus der geschätzten Grenze des Kopfes bestimmt werden. Natürlich ist dies nur ein Beispiel für einen Algorithmus, und die vorliegende Erfindung ist nicht auf irgendeinen bestimmten Algorithmus beschränkt.
  • Ferner kann als ein zusätzliches Beispiel bei Operation 12 von 1 eine Position des Kopfes des Benutzers bezüglich eines Objekts unter Verwendung eines Augenabstands zwischen den Augen des Benutzers bestimmt werden. Zum Beispiel ist die Position des Objekts bekannt. Zum Beispiel kann es sich bei dem Objekt z. B. um einen Airbag, ein Armaturenbrett oder einen Sensor handeln. Deshalb kann, wenn der bestimmte Augenabstand weiter wird, gefolgert werden, dass die Position des Kopfes näher an dem Objekt ist. Natürlich ist dies nur ein Beispiel der Verwendung eines Augenabstandes, um die Position des Kopfes bezüglich des Objekts zu bestimmen, und die vorliegende Erfindung ist nicht auf diese bestimmte Verwendung des Augenabstandes beschränkt.
  • Deshalb wird bei Operation 12 von 1 die Position des Kopfes bezüglich eines Objekts basierend auf dem erfassten Ort von zumindest einem Auge bestimmt. Zum Beispiel wird gemäß einem Ausführungsbeispiel der vorliegenden Erfindung, wenn ein Benutzer sich in einem Fahrzeug befindet, der Ort von zumindest einem Auge des Benutzers erfasst und eine Position des Kopfes des Benutzers bezüglich eines Objekts wird basierend auf dem erfassten Ort des Auges bestimmt.
  • Bei verschiedenen Ausführungsbeispielen der vorliegenden Erfindung kann, wie es im Folgenden näher erörtert wird, eine mechanische Vorrichtung des Fahrzeugs gemäß der bestimmten Position des Kopfes eines Benutzers oder einfach gemäß einer bestimmten Position des Benutzers geeignet gesteuert werden, oder eine geeignete Korrekturaktion kann vorgenommen werden.
  • Zum Beispiel kann es sich bei dem Objekt in dem Fahrzeug um ein Armaturenbrett handeln, so dass die Position des Kopfes bezüglich des Armaturenbretts bestimmt wird. Dann kann eine mechanische Vorrichtung des Fahrzeugs basierend auf der bestimmten Position gesteuert werden. Zum Beispiel kann bei verschiedenen Ausführungsbeispielen der vorliegenden Erfindung eine geeignete Steuerung automatisch durchgeführt werden, um einen Sitz oder einen Spiegel einzustellen (wie z. B. einen Rückspiegel oder einen Seitenspiegel). Natürlich ist die vorliegende Erfindung nicht darauf beschränkt, dass das Objekt das Armaturenbrett ist oder dass die gesteuerte mechanische Vorrichtung ein Sitz oder ein Spiegel ist.
  • Alternativ dazu kann bei verschiedenen Ausführungsbeispielen der vorliegenden Erfindung eine geeignete Steuerung automatisch durchgeführt werden, um eine Vorzusammenstoßkorrekturaktion zu implementieren. Eine derartige Vorzusammenstoßkorrekturaktion könnte z. B. ein Aktivieren eines Gurtes, ein Durchführen einer geeigneten Bremsaktion, ein Durchführen einer geeigneten Geschwindigkeitssteuerung, ein Durchführen einer geeigneten Fahrzeugstabilitätssteuerung usw. umfassen. Diese sind nur als Beispiele für eine Vorzusammenstoßkorrekturaktion vorgesehen, und die vorliegende Erfindung ist nicht auf diese Beispiele beschränkt.
  • Zusätzlich kann bei verschiedenen Ausführungsbeispielen der vorliegenden Erfindung eine geeignete Steuerung automatisch durchgeführt werden, um eine Nachzusammenstoßkorrekturaktion zu implementieren. Eine derartige Nachzusammenstoßkorrekturaktion könnte z. B. ein automatisches Telefonieren nach Hilfe, ein automatisches Abschalten des Motors usw. umfassen. Diese sind nur als Beispiele für Nachzusammenstoßzusammenstoßkorrekturaktionen vorgesehen, und die vorliegende Erfindung ist nicht auf diese Beispiele beschränkt.
  • Deshalb sei darauf hingewiesen, dass „Vorzusammenstoß"-Korrekturaktionen Aktionen sind, die vor dem bevorstehenden Eintreten eines erwarteten Ereignisses, wie z. B. eines Zusammenstoßes, vorgenommen werden. „Nachzusammenstoß"-Korrekturaktionen sind Aktionen, die nach dem Eintreten des erwarteten Ereignisses, wie z. B. eines Zusammenstoßes, vorgenommen werden. Es sei jedoch darauf hingewiesen, dass ein erwartetes Ereignis eventuell nicht tatsächlich eintritt. Zum Beispiel können Vorzusammenstoßaktionen automatisch implementiert werden, die verhindern, dass der Zusammenstoß tatsächlich eintritt.
  • Obwohl das Bestimmen einer Position eines Kopfes des Benutzers bezüglich eines Objekts bezüglich eines Benutzers in einem Fahrzeug beschrieben ist, ist die vorliegende Erfindung nicht auf ein Bestimmen einer Position eines Kopfes des Benutzers in einem Fahrzeug beschränkt. Zum Beispiel kann die vorliegende Erfindung implementiert werden, um den Ort eines Auges des Benutzers bezüglich des Fahrzeugs selbst zum schlüssellosen Einsteigen in das Fahrzeug zu erfassen.
  • Dementsprechend wird bei Prozess 100 ein Ort eines Auges eines Benutzers unter Verwendung eines automatisierten Erfassungsprozesses erfasst, und eine Position eines Kopfes des Benutzers bezüglich eines Objekts wird basierend auf dem erfassten Ort des Auges bestimmt. Die bestimmte Position des Kopfes ermöglicht eine Verwendung der bestimmten Position des Kopfes bei verschiedenen Anwendungen.
  • 2 ist ein Diagramm, das einen Prozess 200 zum Erfassen eines Ortes eines Auges eines Benutzers unter Verwendung eines automatisierten Erfassungsprozesses und zum automatischen Bestimmen von zumindest einem von Größen- und Ausrichtungsinformationen des Benutzers bezüglich eines Objekts basierend auf dem erfassten Ort des Auges gemäß einem Ausführungsbeispiel der vorliegenden Erfindung veranschaulicht. Unter Bezugnahme auf 2 wird bei Operation 14 ein Ort eines Auges unter Verwendung eines automatisierten Erfassungsprozesses erfasst. Zum Beispiel können die verschiedenen im Vorhergehenden beschriebenen automatisierten Erfassungsprozesse verwendet werden, um den Ort eines Auges zu erfassen. Die vorliegende Erfindung ist jedoch nicht auf irgendeinen spezifischen automatisierten Prozess zum Erfassen eines Ortes eines Auges beschränkt.
  • Von Operation 14 geht der Prozess 200 zu Operation 16 über, bei der zumindest Größen- und Ausrichtungsinformationen des Benutzers bezüglich eines Objekts basierend auf dem erfassten Ort des Auges bestimmt werden. Zum Beispiel entspricht unter der Annahme, dass ein Benutzer aufrecht in einem Autositz sitzt, die Position des Auges in einer vertikalen Dimension direkt der Größe des Benutzers. Wenn sich der Benutzer jedoch in der Nähe des Objekts befindet, könnte die Größe, die aus dem Ort der ein oder mehr Augen in einer vertikalen Dimension berechnet wird, irreführend sein. Somit kann bei einem Ausführungsbeispiel der vorliegenden Erfindung in einem Fall, bei dem sich der Benutzer zu nahe an dem Objekt befindet, ein Augenabstand zwischen den Augen des Benutzers, der dem Abstand zu dem Benutzer entspricht, mit einem bestimmten Abstand korreliert werden, wobei ein weiterer Augenabstand allgemein dem entspricht, dass der Benutzer nahe ist, und ein relativ enger Augenabstand das Gegenteil anzeigt.
  • Ferner kann, wenn der Kopf des Benutzers nach rechts oder links gedreht wird, der Augenabstand zwischen den Augen eine engere Augenbeabstandung bezüglich des Objekts anzeigen. Dementsprechend kann gemäß einem Ausführungsbeispiel der vorliegenden Erfindung eine zusätzliche Charakterisierung implementiert werden, um eine Kopfdrehung zu bestimmen. Zum Beispiel kann eine Merkmalsextraktion einer Nase des Benutzers relativ zu den Augen verwendet werden, um zwischen einer engeren Augenbeabstandung aufgrund einer Kopfdrehung und aufgrund eines abnehmenden Abstands zwischen dem Kopf und dem Objekt zu unterscheiden.
  • Als ein zusätzliches Beispiel können Sensoren bereitgestellt sein, um den Ort der Augen des Benutzers zu erfassen, und die Größen- und Ausrichtungsinformationen können unter Verwendung eines Triangulationsverfahrens gemäß Erfassungsergebnissen der Sensoren bestimmt werden.
  • Die vorliegende Erfindung ist jedoch nicht auf irgendeine spezifische Weise zum Bestimmen von Größen- und Ausrichtungsinformationen eines Benutzers beschränkt,
  • 3 ist ein Diagramm, das einen Prozess 300 zum Erfassen von Orten von Augen eines Benutzers und zum automatischen Bestimmen einer Position eines Kopfes eines Benutzers bezüglich eines Objekts basierend auf dem erfassten Ort der Augen gemäß einem Ausführungsbeispiel der vorliegenden Erfindung veranschaulicht. Wie es in 3 gezeigt ist, ist ein Sensor 30 bereitgestellt, um einen Ort der Augen 52a und 52b eines Benutzers zu erfassen. Obwohl nur ein Sensor 30 verwendet wird, um den Prozess 300 zu veranschaulichen, können mehr als ein Sensor 30 bereitgestellt sein, um den Ort der Augen 52a und 52b des Benutzers zu erfassen.
  • Zum Beispiel können, wie es im Vorhergehenden erwähnt ist, mehrere Sensoren bereitgestellt sein, um den Ort der Augen 52a und 52b des Benutzers unter Verwendung eines Triangulationsverfahrens zu erfassen.
  • Ferner veranschaulicht 3 einen Augenabstand 54 zwischen den Augen 52a und 52b zum Erfassen von jeweiligen Orten der Augen 52a und 52b und zum Bestimmen einer Position eines Kopfes 50 bezüglich eines Objekts 40 gemäß dem Augenabstand 54 zwischen den Augen 52a und 52b des Benutzers. Obwohl 3 unter Verwendung eines Objekts 40 beschrieben ist, kann die vorliegende Erfindung implementiert sein, um eine Position des Kopfes 50 bezüglich mehr als eines Objekts 40 zu bestimmen. Zum Beispiel kann die vorliegende Erfindung implementiert sein, um die Position des Kopfes 50 bezüglich eines Steuerrades und eines Spiegels innerhalb eines Fahrzeuges zu bestimmen.
  • Unter Bezugnahme auf 3 ist eine Lichtquelle 32 zum Beleuchten der Augen 52a und 52b bereitgestellt, um einen automatisierten Erfassungsprozess zum Erfassen des Ortes der Augen 52a und 52b auszuführen. Die Lichtquelle kann z. B. unter Verwendung von lichtemittierenden Dioden (LEDs) oder einer beliebigen anderen geeigneten Lichtquelle implementiert sein. Die vorliegende Erfindung ist jedoch nicht auf irgendeinen spezifischen Typ oder eine spezifische Anzahl von Lichtquellen beschränkt.
  • Wie es ebenfalls in 3 gezeigt ist, ist ein Prozessor 70 mit dem Sensor 30 und der Lichtquelle 32 verbunden, um den automatisierten Erfassungsprozess zu implementieren. Die vorliegende Erfindung ist jedoch nicht darauf beschränkt, den Prozessor 70 mit dem Sensor 30 und der Lichtquelle 32 verbunden bereitzustellen. Zum Beispiel kann der Prozessor 70 dem Sensor 30 bereitgestellt sein, um den Erfassungsprozess auszuführen. Ferner ist die vorliegende Erfindung nicht auf irgendeinen spezifischen Typ von Prozessor beschränkt.
  • 4 ist ein Diagramm, das eine Vorrichtung 500 zum Erfassen eines Ortes eines Auges eines Benutzers unter Verwendung eines automatisierten Erfassungsprozesses und zum automatischen Bestimmen von zumindest Größen- und Ausrichtungsinformationen des Benutzers bezüglich eines Objekts basierend auf dem erfassten Ort des Auges gemäß einem Ausführungsbeispiel der vorliegenden Erfindung veranschaulicht. Wie es in 4 gezeigt ist, umfasst die Vorrichtung einen Sensor 30 und einen Prozessor 70. Der Sensor 30 erfasst einen Ort eines Auges unter Verwendung eines automatisierten Erfassungsprozesses, und der Prozessor 70 bestimmt Größen- und Ausrichtungsinformationen des Benutzers bezüglich eines Objekts basierend auf dem erfassten Ort des Auges. Obwohl die Vorrichtung 500 unter Verwendung eines Sensors 30 und eines Prozessors 70 beschrieben ist, ist die vorliegende Erfindung nicht auf einen einzigen Prozessor und/oder einen einzigen Sensor beschränkt. Zum Beispiel könnte die Vorrichtung 500 bei einem Ausführungsbeispiel der vorliegenden Erfindung zumindest zwei Sensoren zum Erfassen eines Orts von Augen eines Benutzers unter Verwendung eines Triangulationsverfahrens umfassen.
  • Dementsprechend liefert die vorliegende Erfindung ein genaues Verfahren und eine Vorrichtung zur Augen- und Positionserfassung eines Benutzers.
  • Ferner wird bei verschiedenen Ausführungsbeispielen der vorliegenden Erfindung die Position des Kopfes des Benutzers in einem dreidimensionalen Raum bestimmt. Zum Beispiel können, wie es in 3 gezeigt ist, ein Kopf 50, Augen 52a und 52b und ein Objekt 40 in einem x-y-z-Raum existieren, wobei der Kopf 50 und die Augen 52a und 52b sich in einer x-y-Ebene befinden, und sich das Objekt 50 in einer z-Achse befindet, die senkrecht zu der x-y-Ebene ist. Dementsprechend bestimmt die vorliegende Erfindung die Position des Kopfes 50 in der x-y-Ebene gemäß einem erfassten Ort der Augen 52a und 52b in der x-y-Ebene, um die Position des Kopfes 50 bezüglich des Objekts 40 in der z-Achse zu bestimmen.
  • Die 5A und 5B sind Diagramme, die einen Prozess zum Erfassen eines Ortes eines Auges eines Benutzers in einem Fahrzeug unter Verwendung eines automatisierten Erfassungsprozesses gemäß einem Ausführungsbeispiel der vorliegenden Erfindung veranschaulichen. 5A veranschaulicht eine Draufsicht des Kopfes 50 und der Augen 52a und 52b, und 5B veranschaulicht eine Seitenansicht eines Benutzers 56 in dem Fahrzeug. 5A zeigt auch Seitenspiegel 76a und 76b des Fahrzeugs. Dementsprechend werden Orte der Augen 52a und 52b unter Verwendung eines automatisierten Erfassungsprozesses erfasst, und eine Position des Kopfes 50 wird basierend auf dem erfassten Ort der Augen 52a und 52b bestimmt. Zum Beispiel kann ein Sensor 30, der ein Sichtfeld 80 aufweist, bereitgestellt sein, um den Ort der Augen 52a und 52b zu erfassen. Die Erfassung der Orte der Augen 52a und 52b kann unter Verwendung von verschiedenen automatisierten Erfassungsprozessen, wie den im Vorhergehenden erwähnten, implementiert werden. Zum Beispiel können die Orte der Augen 52a und 52b durch ein Beleuchten der Augen 52a und 52b von unterschiedlichen Winkeln und ein Erfassen des Ortes der Augen 52a und 52b basierend auf Reflexionen der Augen 52a und 52b ansprechend auf die Beleuchtung erfasst werden. Die vorliegende Erfindung ist jedoch nicht auf irgendein spezifisches Verfahren zum Erfassen eines Ortes von ein oder mehr Augen beschränkt.
  • 5B zeigt eine Seitenansicht des Benutzers 56, der in einem Vordersitz 78 eines Fahrzeuges sitzt. Wie es in 5B gezeigt ist, sitzt der Benutzer 56 vor einem Steuerrad 60 des Fahrzeugs, in das ein Airbag 72 eingebaut ist, und einem Rückspiegel 74. Ein Ort des Auges 52a des Benutzers 56 in dem Fahrzeug wird z. B. unter Verwendung eines Infrarotreflexionsvermögens des Auges 52a oder einer Differenzwinkelbeleuchtung des Auges 52a erfasst. Dann wird zumindest eines von Größen- und Ausrichtungsinformationen des Benutzers 56 basierend auf dem erfassten Ort des Auges 52a bestimmt. Wie es im Vorhergehenden erörtert ist, können die bestimmten Größen- und Ausrichtungsinformationen für verschiedene Zwecke implementiert werden. Zum Beispiel können der Airbag 72, der Rückspiegel 74, das Steuerrad 60 und/oder der Vordersitz 78 des Fahrzeugs basierend auf den bestimmten Größen- und Ausrichtungsinformationen des Benutzers 56 bezüglich des Sensors 30 oder bezüglich des Rückspiegels 74 gesteuert werden. Bei anderen Ausführungsbeispielen der vorliegenden Erfindung kann eine geeignete Vorzusammenstoß- und/oder Nachzusammenstoßkorrekturaktion gemäß den bestimmten Größen- und Ausrichtungsinformationen vorgenommen werden.
  • Obwohl 5B unter Verwendung eines Airbags 72 beschrieben ist, der vor dem Benutzer 56 angeordnet ist, ist die vorliegende Erfindung nicht auf einen Airbag eines Fahrzeugs beschränkt, der vor einem Benutzer angeordnet ist. Zum Beispiel kann die vorliegende Erfindung implementiert sein, um einen Seitenairbag eines Fahrzeugs gemäß bestimmten Größen- und Ausrichtungsinformationen eines Benutzers zu steuern. Außerdem ist die vorliegende Erfindung nicht darauf beschränkt, dass ein Spiegel ein Rückspiegel ist. Zum Beispiel können die Größen- und Ausrichtungsinformationen des Benutzers 56 bezüglich eines Sicherheitsspiegels bestimmt werden, wie z. B. denjenigen, die bereitgestellt sind, um einen Kind-Insassen zu beaufsichtigen oder anzusehen, der in einem Rücksitz eines Fahrzeugs sitzt.
  • Die 6A, 6B und 6C sind Diagramme, die einen Prozess zum Erfassen von Orten von Augen eines Benutzers in einem Fahrzeug unter Verwendung eines automatisierten Erfassungsprozesses gemäß einem Ausführungsbeispiel der vorliegenden Erfindung veranschaulichen. 6A veranschaulicht eine Erfassung der Orte der Augen 52a und 52b in einem zweidimensionalen Feld unter Verwendung eines Sensors 30, der ein Sichtfeld 80 aufweist, 6B veranschaulicht eine Erfassung des Ortes der Augen 52a und 52b in einem dreidimensio nalen Feld unter Verwendung von Sensoren 30a und 30b, die Sichtfelder 80a bzw. 80b aufweisen, und 6C veranschaulicht eine Seitenansicht eines Benutzers 56, der in einem Vordersitz eines Fahrzeugs sitzt. Wie es in 6B gezeigt ist, sind die Sensoren 30a und 30b bereitgestellt, um die Orte der Augen 52a und 52b unter Verwendung eines automatisierten Erfassungsprozesses zu erfassen, um zumindest Größen- und Ausrichtungsinformationen des Benutzers 56 zu bestimmen. Wie es im Vorhergehenden erörtert ist, können die Orte der Augen 52a und 52b z. B. durch ein Beleuchten der Augen 52a und 52b von zumindest zwei Winkeln und ein Erfassen des Ortes der Augen 52a und 52b unter Verwendung einer Differenz zwischen Reflexionen ansprechend auf die Beleuchtung erfasst werden. Dann werden die Größe und Ausrichtung des Benutzers 56 z. B. gemäß einem Augenabstand zwischen den Augen 52a und 52b basierend auf den erfassten Orten der Augen 52a und 52b bestimmt.
  • Die Bestimmung einer Position eines Benutzers basierend auf ein oder mehr erfassten Orten von ein oder mehr Augen des Benutzers ermöglicht verschiedene Anwendungen der Positionsinformationen des Benutzers. Zum Beispiel können verschiedene mechanische Vorrichtungen, wie z. B. Sitze, Spiegel und Airbags, gemäß der bestimmten Position des Benutzers eingestellt werden.
  • Außerdem können z. B. Vorzusammenstoßkorrekturaktionen automatisch durchgeführt werden, um die Vorzusammenstoßkorrekturaktionen basierend auf der bestimmten Position eines Benutzers zu implementieren. Eine derartige Vorzusammenstoßkorrekturaktion könnte z. B. ein Aktivieren eines Gurtes, ein Durchführen einer geeigneten Bremsaktion, ein Durchführen einer geeigneten Geschwindigkeitssteuerung, ein Durchführen einer geeigneten Fahrzeugstabilitätssteuerung usw. umfassen. Diese sind nur als Beispiele für eine Vorzusammenstoßkorrekturaktion vorgesehen, und die vorliegende Erfindung ist nicht auf diese Beispiele beschränkt.
  • Außerdem können bei verschiedenen Ausführungsbeispielen der vorliegenden Erfindung Nachzusammenstoßkorrekturaktionen automatisch durchgeführt werden, um die Nachzusammenstoßkorrekturaktionen basierend auf der bestimmten Position eines Benutzers zu implementieren. Eine derartige Nachzusammenstoßkorrekturaktion könnte z. B. ein automatisches Telefonieren nach Hilfe, ein automatisches Abschalten des Motors usw. umfassen. Diese sind nur als Beispiele für eine Nachzusammenstoßzusammenstoßkorrekturaktion vorgesehen, und die vorliegende Erfindung ist nicht auf diese Beispiele beschränkt.
  • 7 ist ein Diagramm, das einen Prozess 400 zum Erfassen eines Ortes eines Auges unter Verwendung eines automatisierten Erfassungsprozesses, zum Bestimmen einer Position eines Benutzers basierend auf dem erfassten Ort des Auges und zum automatischen Implementieren einer Vorzusammenstoß- und/oder Nachzusammenstoßaktion gemäß der bestimmten Position gemäß einem Ausführungsbeispiel der vorliegenden Erfindung veranschaulicht. Unter Bezugnahme auf 7 wird bei Operation 24 ein Ort eines Auges unter Verwendung eines automatisierten Erfassungsprozesses erfasst. Zum Beispiel können die verschiedenen automatisierten Erfassungsprozesse, die im Vorhergehenden beschrieben sind, verwendet werden, um den Ort des Auges zu erfassen.
  • Unter Bezugnahme auf 7 geht der Prozess 400 von Operation 24 zu Operation 26 über, bei der eine Position eines Benutzers basierend auf dem erfassten Ort des Auges bestimmt wird. Zum Beispiel kann die Position des Benutzers durch ein Korrelieren des erfassten Ortes des Auges mit der Größe des Benutzers geschätzt werden, um die Position des Benutzers zu bestimmen.
  • Von Operation 26 geht der Prozess 400 von 7 zu Operation 28 über, bei der eine Vorzusammenstoßaktion und/oder eine Nachzusammenstoßaktion automatisch basierend auf der bestimmten Position des Benutzers implementiert wird. Die vorliegende Erfindung ist jedoch nicht auf ein Implementieren eines Vorzusammenstoßes und/oder eines Nachzusammenstoßes beschränkt. Zum Beispiel kann es sich bei dem bevorstehenden Ereignis um etwas anderes als einen Zusammenstoß handeln, und bei der automatisch implementierten Aktion kann es sich um etwas anderes als eine Vorzusammenstoß- oder Nachzusammenstoßkorrekturaktion handeln.
  • 8 ist ein Diagramm, das einen Prozess 600 zum Erfassen eines Augenblinzelmusters eines Benutzers unter Verwendung eines Infrarotreflexionsvermögens eines Auges des Benutzers und zum Senden von Nachrichten von dem Benutzer gemäß dem erfassten Augenblinzelmuster des Benutzers gemäß einem Ausführungsbeispiel der vorliegenden Erfindung veranschaulicht. Unter Bezugnahme auf 8 wird bei Operation 20 ein Augenblinzelmuster unter Verwendung eines Infrarotreflexionsvermögens des Auges erfasst. Ferner kann der automatisierte Erfassungsprozess, der in der U.S.-Anmeldung mit dem Titel „APPARATUS AND METHOD FOR DETETING PUPILS" beschrieben ist, auf die im Vorhergehenden verwiesen ist, verwendet werden, um ein Augenblinzelmuster zu erfassen.
  • Von Operation 20 geht der Prozess 600 zu Operation 22 über, bei der Nachrichten von einem Benutzer gemäß dem erfassten Blinzelmuster gesendet werden. Zum Beispiel wird ein Augenblinzelmuster einer behinderten Person automatisch erfasst, und das erfasste Augenblinzelmuster wird in Buchstaben und/oder Wörter des englischen Alphabets decodiert, um Nachrichten von der behinderten Person unter Verwendung des Augenblinzelmusters zu senden. Ferner wird eine Frequenz des Augenblinzelmusters zum Senden von Nachrichten von dem Benutzer gemäß einem Aspekt der vorliegenden Erfindung verwendet.
  • Unter Bezugnahme auf 8 ermöglicht die Verwendung eines Infrarotreflexionsvermögens eines Auges, um das Augenblinzelmuster zu erfassen, dass das Augenblinzelmuster des Benutzers aus mehreren Richtungen erfasst wird, ohne den Benutzer auf einen eingeschränkten Abschnitt eines Bereichs zu beschränken, von dem die Nachrichten zu senden sind. Zum Beispiel kann ein Benutzer Nachrichten in einem weiten Bereich senden, ohne sich aktiv für die Erfassung des Augenblinzelmusters einsetzen zu müssen.
  • Deshalb ermöglicht die vorliegende Erfindung auch eine Verwendung eines Augenblinzelmusters zu Kommunikationszwecken durch ein Erfassen eines Augenblinzelmusters aus mehreren Richtungen.
  • Obwohl verschiedene Aspekte der vorliegenden Erfindung unter Verwendung einer Erfassung von Augen eines Benutzers beschrieben wurden, ist die vorliegende Erfindung nicht auf eine Erfassung beider Augen des Benutzers beschränkt. Zum Beispiel kann ein Auge eines Benutzers erfasst werden, und eine Position eines Kopfes des Benutzers kann unter Verwendung des erfassten Auges des Benutzers geschätzt werden.
  • Obwohl einige Ausführungsbeispiele der vorliegenden Erfindung gezeigt und beschrieben worden sind, werden Fachleute erkennen, dass Veränderungen an diesen Ausführungsbeispielen vorgenommen werden können, ohne von den Prinzipien und der Wesensart der Erfindung abzuweichen, deren Schutzumfang in den angehängten Ansprüchen und ihren Äquivalenten definiert ist.

Claims (36)

  1. Verfahren, das folgende Schritte aufweist: Erfassen (10) eines Ortes eines Auges eines Benutzers unter Verwendung eines automatisierten Erfassungsprozesses; und automatisches Bestimmen (12) einer Position eines Kopfes des Benutzers bezüglich eines Objekts basierend auf dem erfassten Ort des Auges.
  2. Verfahren gemäß Anspruch 1, bei dem der automatisierte Erfassungsprozess ein Infrarotreflexionsvermögen des Auges verwendet, um den Ort des Auges zu erfassen.
  3. Verfahren gemäß Anspruch 1, bei dem der automatisierte Erfassungsprozess das Auge von zumindest zwei Winkeln beleuchtet und den Ort des Auges unter Verwendung einer Differenz zwischen Reflexionen ansprechend auf die Beleuchtung erfasst.
  4. Verfahren gemäß einem der Ansprüche 1 bis 3, bei dem das Erfassen (10) des Ortes des Auges folgende Schritte aufweist: Erfassen des Ortes des Auges durch zumindest zwei Sensoren (30) und Verwenden eines Triangulationsverfahrens gemäß Erfassungsergebnissen der zumindest zwei Sensoren.
  5. Verfahren gemäß einem der Ansprüche 1 bis 4, bei dem das Bestimmen (12) der Position des Kopfes folgenden Schritt aufweist: Bestimmen der Position des Kopfes in einem dreidimensionalen Raum.
  6. Verfahren gemäß einem der Ansprüche 1 bis 5, bei dem der Kopf (50) zwei Augen (52a, 52b) umfasst, das Erfassen des Ortes des Auges jeweils ein Erfassen von Orten der zwei Augen aufweist, und das Bestimmen der Position des Kopfes ein Bestimmen der Position des Kopfes gemäß einem Augenabstand (54) zwischen den zwei Augen aufweist.
  7. Verfahren gemäß einem der Ansprüche 1 bis 6, bei dem das Objekt (40) in einem Fahrzeug angeordnet ist, und die Position des Kopfes (50) bezüglich des Objekts in dem Fahrzeug bestimmt wird.
  8. Verfahren gemäß Anspruch 7, bei dem der Kopf, das Auge und das Objekt in einem x-y-z-Raum existieren, wobei sich der Kopf und das Auge in einer x-y-Ebene befinden und sich das Objekt in einer z-Achse befindet, die senkrecht zu der x-y-Ebene ist.
  9. Verfahren gemäß einem der Ansprüche 1 bis 8, das ferner folgenden Schritt aufweist: automatisches Einstellen einer mechanischen Vorrichtung in einem Fahrzeug gemäß der bestimmten Position.
  10. Verfahren gemäß einem der Ansprüche 1 bis 9, bei dem die bestimmte Position einen bevorstehenden Zusammenstoß anzeigt und das Verfahren ferner folgenden Schritt aufweist: automatisches Implementieren (28) einer Vorzusammenstoßkorrekturaktion und/oder einer Nachzusammenstoßkorrekturaktion gemäß der bestimmten Position.
  11. Verfahren, das folgende Schritte aufweist: Erfassen (14) eines Ortes eines Auges eines Benutzers unter Verwendung eines automatisierten Erfassungsprozesses; und automatisches Bestimmen (16) von zumindest einem von Größen- und Ausrichtungsinformationen des Benutzers bezüglich eines Objekts basierend auf dem erfassten Ort des Auges.
  12. Verfahren gemäß Anspruch 11, bei dem der automatisierte Erfassungsprozess ein Infrarotreflexionsvermögen des Auges verwendet, um den Ort des Auges zu erfassen.
  13. Verfahren gemäß Anspruch 11, bei dem der automatisierte Erfassungsprozess das Auge von zumindest zwei Winkeln beleuchtet und den Ort des Auges unter Verwendung einer Differenz zwischen Reflexionen ansprechend auf die Beleuchtung erfasst.
  14. Verfahren gemäß einem der Ansprüche 11 bis 13, bei dem das Objekt (40) in einem Fahrzeug angeordnet ist und zumindest entweder die Größen- oder die Ausrichtungsinformationen des Benutzers bezüglich des Objekts in dem Fahrzeug bestimmt werden.
  15. Verfahren gemäß Anspruch 14, bei dem das Objekt (40) in dem Fahrzeug eine mechanische Vorrichtung des Fahrzeugs ist und das Verfahren ferner folgenden Schritt aufweist: Steuern der mechanischen Vorrichtung gemäß den bestimmten Informationen.
  16. Verfahren gemäß einem der Ansprüche 11 bis 14, bei dem das Objekt (40) eine mechanische Vorrichtung in einem Fahrzeug ist und das Verfahren ferner folgenden Schritt aufweist: automatisches Steuern der mechanischen Vorrichtung des Fahrzeugs gemäß den bestimmten Informationen.
  17. Verfahren gemäß einem der Ansprüche 11 bis 14, bei dem das Objekt (40) eine mechanische Vorrichtung in einem Fahrzeug ist und das Verfahren ferner folgenden Schritt aufweist: Steuern einer weiteren mechanischen Vorrichtung in dem Fahrzeug gemäß den bestimmten Informationen.
  18. Verfahren gemäß einem der Ansprüche 11 bis 17, bei dem das Objekt (40) ein Airbag in einem Fahrzeug ist und das Verfahren ferner folgenden Schritt aufweist: Steuern eines Einsatzes des Airbags gemäß den bestimmten Informationen.
  19. Verfahren gemäß einem der Ansprüche 11 bis 17, bei dem das Objekt (40) ein Seitenspiegel oder ein Rückspiegel in einem Fahrzeug ist und eine Position des Seitenspiegels oder des Rückspiegels gemäß den bestimmten Informationen gesteuert wird.
  20. Verfahren gemäß einem der Ansprüche 11 bis 17, bei dem das Objekt (40) ein Sitz in einem Fahrzeug ist und eine Position des Sitzes gemäß den bestimmten Informationen gesteuert wird.
  21. Verfahren gemäß einem der Ansprüche 11 bis 20, bei dem der Benutzer zwei Augen (52a, 52b) hat und das Erfassen des Ortes des Auges jeweils ein Erfassen von Orten der zwei Augen gemäß einem Augenabstand (54) zwischen den zwei Augen aufweist.
  22. Verfahren gemäß Anspruch 21, bei dem das Erfassen des Ortes der zwei Augen (52a, 52b) ein Erfassen des Ortes der zwei Augen gemäß einer Datenbank aufweist, die Informationen aufweist, die sich auf Augenabstände (54) zwischen Augen einer Mehrzahl von Benutzern beziehen.
  23. Verfahren gemäß einem der Ansprüche 11 bis 22, bei dem der Benutzer und das Objekt in einem Fahrzeug sind, und die bestimmten Informationen einen bevorstehenden Zusammenstoß des Fahrzeugs anzeigen, und das Verfahren ferner folgenden Schritt aufweist: automatisches Implementieren (28) einer Vorzusammenstoß- und/oder Nachzusammenstoßkorrekturaktion gemäß den bestimmten Informationen.
  24. Verfahren, das folgende Schritte aufweist: Erfassen eines Ortes eines Auges eines Benutzers in einem Fahrzeug unter Verwendung eines Infrarotreflexionsvermögens des Auges oder einer Differenzwinkelbeleuchtung des Auges; automatisches Bestimmen von zumindest einem von Größen- und Ausrichtungsinformationen des Benutzers basierend auf dem erfassten Ort des Auges; und Steuern einer mechanischen Vorrichtung in dem Fahrzeug gemäß den bestimmten Informationen.
  25. Verfahren gemäß Anspruch 24, bei dem die mechanische Vorrichtung ein Airbag, ein Seitenspiegel, ein Rückspiegel oder ein Sitz des Fahrzeugs ist.
  26. Verfahren gemäß Anspruch 24 oder 25, bei dem das Erfassen des Ortes des Auges folgende Schritte aufweist: Erfassen des Ortes des Auges durch zumindest zwei Sensoren (30) und Verwenden eines Triangulationsverfah rens gemäß Erfassungsergebnissen der zumindest zwei Sensoren.
  27. Verfahren gemäß einem der Ansprüche 24 bis 26, bei dem der Benutzer zwei Augen (52a, 52b) hat und das Erfassen des Ortes des Auges jeweils ein Erfassen von Orten der zwei Augen gemäß einem Augenabstand (54) zwischen den zwei Augen aufweist.
  28. Verfahren, das folgende Schritte aufweist: Erfassen eines Ortes eines Auges eines Benutzers in einem Fahrzeug unter Verwendung eines Infrarotreflexionsvermögens des Auges oder einer Differenzwinkelbeleuchtung des Auges; automatisches Bestimmen einer Position eines Kopfes des Benutzers basierend auf dem erfassten Ort des Auges; und Steuern einer mechanischen Vorrichtung in dem Fahrzeug gemäß der bestimmten Position des Kopfes.
  29. Verfahren gemäß Anspruch 28, bei dem die mechanische Vorrichtung ein Airbag, ein Seitenspiegel, ein Rückspiegel oder ein Sitz des Fahrzeugs ist.
  30. Verfahren gemäß Anspruch 28 oder 29, bei dem das Erfassen des Ortes des Auges folgende Schritte aufweist: Erfassen des Ortes des Auges durch zumindest zwei Sensoren (30) und Verwenden eines Triangulationsverfahrens.
  31. Verfahren gemäß einem der Ansprüche 28 bis 30, bei dem das Bestimmen der Position des Kopfes (50) folgenden Schritt aufweist: Bestimmen der Position des Kopfes in einem dreidimensionalen Raum.
  32. Verfahren gemäß einem der Ansprüche 28 bis 31, bei dem der Kopf (50) zwei Augen (52a, 52b) umfasst, das Erfassen des Ortes des Auges jeweils ein Erfassen von Orten der zwei Augen aufweist, und das Bestimmen der Position des Kopfes ein Bestimmen der Position des Kopfes gemäß einem Augenabstand (54) zwischen den zwei Augen aufweist.
  33. Verfahren gemäß einem der Ansprüche 28 bis 32, bei dem das Bestimmen der Position des Kopfes folgende Schritte aufweist: Extrahieren von Gesichtsmerkmalsinformationen des Benutzers relativ zu dem erfassten Ort des Auges und Bestimmen der Position des Kopfes gemäß den extrahierten Informationen.
  34. Verfahren, das folgende Schritte aufweist: Erfassen (24) eines Ortes eines Auges eines Benutzers unter Verwendung eines automatisierten Erfassungsprozesses; Bestimmen (26) einer Position des Benutzers basierend auf dem erfassten Ort des Auges; und automatisches Implementieren (28) einer Vorzusammenstoß- und/oder einer Nachzusammenstoßaktion gemäß der bestimmten Position.
  35. Verfahren, das folgende Schritte aufweist: Erfassen (20) eines Augenblinzelmusters eines Benutzers unter Verwendung eines Infrarotreflexionsvermögens eines Auges des Benutzers; und Senden (22) von Nachrichten von dem Benutzer gemäß dem erfassten Augenblinzelmuster des Benutzers.
  36. Verfahren gemäß Anspruch 35, bei dem das Augenblinzelmuster aus mehreren Richtungen erfasst wird.
DE102005047967A 2005-01-04 2005-10-06 Erfassen eines Auges eines Benutzers und Bestimmen von Ort und Blinzelzustand des Benutzers Withdrawn DE102005047967A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/028,151 US20060149426A1 (en) 2005-01-04 2005-01-04 Detecting an eye of a user and determining location and blinking state of the user
US11/028,151 2005-01-04

Publications (1)

Publication Number Publication Date
DE102005047967A1 true DE102005047967A1 (de) 2006-07-13

Family

ID=36599518

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005047967A Withdrawn DE102005047967A1 (de) 2005-01-04 2005-10-06 Erfassen eines Auges eines Benutzers und Bestimmen von Ort und Blinzelzustand des Benutzers

Country Status (3)

Country Link
US (1) US20060149426A1 (de)
JP (1) JP2006209750A (de)
DE (1) DE102005047967A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020200221A1 (de) * 2020-01-09 2021-07-15 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Schätzen einer Augenposition eines Fahrers eines Fahrzeugs

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8152198B2 (en) * 1992-05-05 2012-04-10 Automotive Technologies International, Inc. Vehicular occupant sensing techniques
US20100182152A1 (en) * 2007-09-20 2010-07-22 Volvo Lastvagnar Ab Position detection arrangement and operating method for a position detection arrangement
CN102292017B (zh) * 2009-01-26 2015-08-05 托比股份公司 由光学基准信号辅助的对凝视点的检测
EP2555948B1 (de) 2010-04-07 2015-03-04 Alcon Research, Ltd. Systeme und verfahren zur überwindung von hindernissen für laufrollen
US8684145B2 (en) 2010-04-07 2014-04-01 Alcon Research, Ltd. Systems and methods for console braking
CN102834077B (zh) 2010-04-08 2015-04-01 爱尔康研究有限公司 患者眼睛水平触摸控制
EP2395759B1 (de) * 2010-06-11 2015-03-04 Sony Ericsson Mobile Communications AB Autostereoskopische Anzeigevorrichtung und Verfahren zum Betrieb einer autostereoskopischen Anzeigevorrichtung
WO2012156660A1 (en) * 2011-05-13 2012-11-22 Howe Renovation (Yorks) Limited Vehicle security device
IL213504A0 (en) * 2011-06-13 2011-07-31 Aharon Krishevsky System to adjust a vehicle's mirrors automatically
US9043042B2 (en) * 2011-07-19 2015-05-26 GM Global Technology Operations LLC Method to map gaze position to information display in vehicle
EP2608546A1 (de) 2011-12-21 2013-06-26 Thomson Licensing Videoverarbeitungsvorrichtung und Verfahren zur Erkennung eines zeitlichen Synchronisierungsfehlers
US10358091B2 (en) * 2013-07-26 2019-07-23 Shivam SIKRORIA Automated vehicle mirror adjustment
JP6359866B2 (ja) * 2014-04-23 2018-07-18 矢崎総業株式会社 対象者存在範囲推定装置及び対象者存在範囲推定方法
GB2532457B (en) * 2014-11-19 2018-04-18 Jaguar Land Rover Ltd Dynamic control apparatus and related method
TWI592320B (zh) * 2015-05-15 2017-07-21 Jon Chao Hong 以行動終端控制座椅的控制方法及系統
US10953830B1 (en) * 2018-07-13 2021-03-23 State Farm Mutual Automobile Insurance Company Adjusting interior configuration of a vehicle based on vehicle contents

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6772057B2 (en) * 1995-06-07 2004-08-03 Automotive Technologies International, Inc. Vehicular monitoring systems using image processing
US6507779B2 (en) * 1995-06-07 2003-01-14 Automotive Technologies International, Inc. Vehicle rear seat monitor
US6712387B1 (en) * 1992-05-05 2004-03-30 Automotive Technologies International, Inc. Method and apparatus for controlling deployment of a side airbag
US5360971A (en) * 1992-03-31 1994-11-01 The Research Foundation State University Of New York Apparatus and method for eye tracking interface
US5570698A (en) * 1995-06-02 1996-11-05 Siemens Corporate Research, Inc. System for monitoring eyes for detecting sleep behavior
JP3426060B2 (ja) * 1995-07-28 2003-07-14 三菱電機株式会社 顔画像処理装置
JP3183161B2 (ja) * 1996-04-12 2001-07-03 三菱自動車工業株式会社 覚醒度推定装置
US5726916A (en) * 1996-06-27 1998-03-10 The United States Of America As Represented By The Secretary Of The Army Method and apparatus for determining ocular gaze point of regard and fixation duration
IL118854A0 (en) * 1996-07-15 1996-10-31 Atlas Dan Personal micro-monitoring and alerting device for sleepiness
AUPP048097A0 (en) * 1997-11-21 1997-12-18 Xenotech Research Pty Ltd Eye tracking apparatus
US6243076B1 (en) * 1998-09-01 2001-06-05 Synthetic Environments, Inc. System and method for controlling host system interface with point-of-interest data
US6087941A (en) * 1998-09-01 2000-07-11 Ferraz; Mark Warning device for alerting a person falling asleep
US6091334A (en) * 1998-09-04 2000-07-18 Massachusetts Institute Of Technology Drowsiness/alertness monitor
US6130617A (en) * 1999-06-09 2000-10-10 Hyundai Motor Company Driver's eye detection method of drowsy driving warning system
JP4603264B2 (ja) * 2002-02-19 2010-12-22 ボルボ テクノロジー コーポレイション 運転者注意負荷の監視と管理とを行なうシステムおよび方法
US7460940B2 (en) * 2002-10-15 2008-12-02 Volvo Technology Corporation Method and arrangement for interpreting a subjects head and eye activity
AU2003901528A0 (en) * 2003-03-31 2003-05-01 Seeing Machines Pty Ltd Eye tracking system and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020200221A1 (de) * 2020-01-09 2021-07-15 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Schätzen einer Augenposition eines Fahrers eines Fahrzeugs

Also Published As

Publication number Publication date
US20060149426A1 (en) 2006-07-06
JP2006209750A (ja) 2006-08-10

Similar Documents

Publication Publication Date Title
DE102005047967A1 (de) Erfassen eines Auges eines Benutzers und Bestimmen von Ort und Blinzelzustand des Benutzers
EP1497160B2 (de) Sicherheitsvorrichtung für ein fahrzeug
DE102015120811B4 (de) Detektion der Position eines Sicherheitsgurts in einem Fahrzeug
DE102006024979B4 (de) Verfahren und Vorrichtung zum Detektieren der Anwesenheit eines Insassen innerhalb eines Fahrzeugs
DE102016123231B4 (de) Vorrichtung und Verfahren zum Steuern eines Airbags
DE10158415C2 (de) Verfahren zur Überwachung des Innenraums eines Fahrzeugs, sowie ein Fahrzeug mit mindestens einer Kamera im Fahrzeuginnenraum
EP1210250B1 (de) Verfahren und vorrichtung zum steuern des betriebs einer einem sitz zugeordneten insassenschutzvorrichtung, insbesondere in einem kraftfahrzeug
EP1620289B1 (de) Vorrichtung und verfahren zur kalibrierung eines bildsensors
DE112018007120B4 (de) Physis-Ermittlungseinrichtung und Physis-Ermittlungsverfahren
DE112009003557T5 (de) Fahrzeug-Anzeigevorrichtung undAnzeigeverfahren
DE102015219237B4 (de) Verfahren zur automatischen Einstellung eines oder mehrerer Komfort- und/oder Sicherheitssysteme in einem Kraftfahrzeug, Kraftfahrzeug, Computerprogrammprodukt und Computerprogramm
EP1069001A1 (de) Vorrichtung zur Steuerung eines Sicherheitsystems
DE102007051543A1 (de) Einstellvorrichtung und Verfahren zur Einstellung einer Fahrzeugkomponente
EP1173828A1 (de) Verfahren und vorrichtung zur ermittlung der position eines objektes innerhalb einer szene
EP1569823B1 (de) Verfahren und vorrichtung zur bestimmung der 3d-position von pkw-insassen
DE102004020255B4 (de) Überwachungssystem für Fahrzeuge
DE102021000509A1 (de) Verfahren zum Betrieb eines Fahrzeugs
EP1334009B1 (de) Verfahren und system zum bestimmen der belegung des innenraums eines fahrzeugs
DE112020005993T5 (de) Fahrzeugfahrsystem
DE102020211339A1 (de) Verfahren und System zur automatischen Ausrichtung einer Rückspiegeleinheit
DE102021130589B4 (de) Vorrichtung zur auslösung eines airbags eines autonomen fahrzeugs und steuerungsverfahren davon
DE102019113839B3 (de) Vorrichtung und Verfahren zur Überwachung einer Fahrgastzelle
DE102022103604A1 (de) Bordeigene überwachungseinrichtung für ein fahrzeug
WO2017076549A1 (de) Verfahren und vorrichtung zum bereitstellen einer insasseninformation für eine sicherheitseinrichtung für ein fahrzeug
DE102020210055A1 (de) Verfahren und Vorrichtung zur Innenraumüberwachung eines Fahrzeugs

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: AVAGO TECHNOLOGIES GENERAL IP ( SINGAPORE) PTE. LT

8139 Disposal/non-payment of the annual fee