WO2006032253A1 - Vorrichtung und verfahren zur berührungslosen bestimmung der blickrichtung - Google Patents

Vorrichtung und verfahren zur berührungslosen bestimmung der blickrichtung Download PDF

Info

Publication number
WO2006032253A1
WO2006032253A1 PCT/DE2005/001657 DE2005001657W WO2006032253A1 WO 2006032253 A1 WO2006032253 A1 WO 2006032253A1 DE 2005001657 W DE2005001657 W DE 2005001657W WO 2006032253 A1 WO2006032253 A1 WO 2006032253A1
Authority
WO
WIPO (PCT)
Prior art keywords
eye
cameras
processing system
image processing
viewing direction
Prior art date
Application number
PCT/DE2005/001657
Other languages
English (en)
French (fr)
Inventor
Kai-Uwe Plagwitz
Peter Husar
Steffen Markert
Sebastian Berkes
Original Assignee
Eldith Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eldith Gmbh filed Critical Eldith Gmbh
Priority to EP05792309A priority Critical patent/EP1809163A1/de
Priority to JP2007532761A priority patent/JP2008513168A/ja
Priority to US11/663,384 priority patent/US20080252850A1/en
Publication of WO2006032253A1 publication Critical patent/WO2006032253A1/de

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Definitions

  • the invention relates to a device and a method for the contactless determination of the current viewing direction of the human eye. They are used in eye movements as well as psychophysiological studies of attention to environmental design (e.g., cockpit design) as well as in the design and marketing field such as cockpit design. Advertising, determination of ROIs (Regions of Interest) in 2D and 3D rooms.
  • environmental design e.g., cockpit design
  • ROIs Region of Interest
  • This method illuminates the eye with one or more infrared light sources so as not to interfere with vision.
  • the light sources generate a reflex on the cornea, which is recorded and evaluated with a camera.
  • reflex light arrays are placed close to the eye, which are aligned to the limbus (Korneoskleralübergang) of the eye.
  • the optical sensors detect the intensity of the reflected light. From the differences in intensity, it is possible to conclude that the komeoscleral transitions are shifting in their position relative to the sensors and thus to the viewing direction.
  • a disadvantage is the weak signal of the measuring arrangement, which also severely limits the field of vision, which can not be accepted in ophthalmological examinations.
  • - EOG derivation The eye forms an electric dipole between the field theory and the field
  • Electrodes bonded close to the eye capture the projection of an eye movement related deflection of this dipole.
  • the typical potential curves are approximately linearly proportional to the amplitude of the eye movement.
  • a disadvantage is the strong, always present drift of the electrode voltage, which prevents the detection of static or slowly changing directions of view.
  • the interindividual variability of the amplitude dependence from the viewing direction requires a patient-specific calibration. To make matters worse, that the detected signal relatively strong potentials of the surrounding muscles are superimposed as interference.
  • the invention has for its object to provide a device and a method that allow for each subject a non-contact determination of the visual vector of the human eye without calibration.
  • the object is achieved with a device for non-contact determination of the viewing direction in that two cameras are present, each of which simultaneously images from different directions of the human Eye generate that the two cameras are connected to an image processing system and that at least the spatial coordinates of the cameras and their distance from the eye are stored in the image processing system. Furthermore, the object is achieved by a method for contactless determination of the viewing direction, characterized in that the eye of a subject via at least two cameras from at least two different spatial directions is shown that by means of the morphological features of an eye, which can be evaluated in the image and the image processing system stored spatial coordinates of the cameras and at least their distance from the eye the viewing direction is determined.
  • the viewpoint can be determined from the starting point on the eye and the determined eye vector. Neither does the head need to be fixed, nor does the system need to be calibrated by associating multiple points of view and eye positions, as with conventional gaze sequences.
  • the structure is not positioned directly in front of the eye, but may be at a sufficient distance from the eye, so that the required field of view (the visible space at a distance of at least 30 cm) is not disturbed.
  • the field of view can be further increased by arranging optical means, such as mirrors, since the recording systems can now be arranged outside the field of view.
  • the principle can be used wherever a quick determination of the current direction of view is necessary without affecting the visual field and the condition of the person being examined.
  • FIG. 3 A schematic diagram of the measuring principle Figure 3 shows a further representation of the measuring principle.
  • the device consists of two cameras, each consisting of their essential parts, the receiver surfaces 1 a and 2b with their upstream imaging optics 2a and 2b.
  • the cameras are located in a spatial reference system (coordinate system).
  • the eye 3 is recorded from at least two spatial directions with simultaneous image acquisition.
  • the pictures become the form the pupil 4 and the position on the receiver surfaces 1 a and 1 b determined and described mathematically.
  • the cameras are connected to an image processing system 5.
  • the surface normal 6 of the respective receiver surface 1 a or 1 b and the line of sight vector 7, which is defined as the vector of the tangential surface of the pupil 4, enclose an angle ⁇ (FIG. 2).
  • the per se circular pupil 4 is depicted as an ellipse 8.
  • the ellipse 8 is characterized by its large semiaxis a and its small semiaxis b.
  • the large semiaxis a corresponds exactly to the radius R of the pupil 4.
  • the distance D is known and stored in the image processing system 5. The aim now is to determine the virtual point 9 from the previously known quantities and the measured quantities.
  • the virtual point 9 is the point of intersection, formed by the line of sight straight line and the projection plane 10, which is predetermined by the receiver surface 1 a (FIG. 2).
  • a second virtual point which is the point of intersection through the same line of sight straight line with the projection plane formed by the receiver surface 1b.
  • the two virtual points do not necessarily coincide.
  • the determination of the two virtual points can show that they do not lie on a straight line, then the viewing direction is defined by the so-called middle straight line.
  • the spatial coordinates of the receiver surface 1 a are stored in the image processing system 5, the spatial coordinates of the virtual point 9 can thus be determined, which characterizes the desired viewing direction.
  • the eye 3 is partly or completely imaged onto the image receivers 1 a and 1 b via the upstream imaging optics 2 a and 2 b.
  • the images are first converted to binary, wherein the binarization threshold of the gray value distribution is adapted dynamically.
  • the pupil 4 is classified and mathematically approximated described as an ellipse. According to a known algorithm, the two half-axes a and b, the center point and the angle ⁇ are calculated.
  • a further possible embodiment of the method is that the determination of the virtual point by backprojection of characteristic points of the pupil envelopes or of points of known position on the pupil from the image to the place of origin similar to Trigonometry is closed. It is also possible to deduce the viewing direction by generating characteristic curves from characteristic curves of b / a- ⁇ - ⁇ and ⁇ - ⁇ - ⁇ and determining the intersection of curves of determined parameters.
  • the imaging can also be done indirectly via optical means, which affect the visual field far less.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft eine Vorrichtung und ein Verfahren zur berührungslosen Bestimmung der aktuellen Blickrichtung des menschlichen Auges. Sie finden Anwendung bei Untersuchungen von Augenbewegungen wie auch bei psychophysiologischen Untersuchungen der Aufmerksamkeit zur Umweltgestaltung (z.B. Cockpitdesign) als auch im Design- und Marketingbereich wie z.B. Werbung, Ermittlung von ROIs (Regions of Interest) in 2D- und 3D-Räumen.

Description

Vorrichtung und Verfahren zur berührungslosen Bestimmung der Blickrichtung
Die Erfindung betrifft eine Vorrichtung und ein Verfahren zur berührungslosen Bestimmung der aktuellen Blickrichtung des menschlichen Auges. Sie finden Anwendung bei Untersuchungen von Augenbewegungen wie auch bei psychophysiologischen Untersuchungen der Aufmerksamkeit zur Umweltgestaltung (z.B. Cockpitdesign) als auch im Design- und Marketingbereich wie z.B. Werbung, Ermittlung von ROIs (Regions of Interest) in 2D- und 3D-Räumen.
Im Stand der Technik sind verschiedene Vorrichtungen und Verfahren bekannt, mit denen die Blickrichtung und der Blickpunkt berührungslos bestimmt werden können.
- Kornealreflexmethode:
Bei dieser Methode wird das Auge mit einer oder mehreren Infrarotlichtquellen beleuchtet, um das Sehen nicht zu beeinträchtigen. Die Lichtquellen erzeugen dabei einen Reflex auf der Kornea, der mit einer Kamera erfasst und ausgewertet wird. Die
Lage der Reflexionspunkte zu anatomischen und mit der Kamera erfassbaren Merkmalen des Auges ist charakteristisch für die Blickrichtung. Die Streuung der Parameter des menschlichen Auges erfordert jedoch für jeden zu Untersuchenden eine individuelle Kalibration. - Purkinje-Eyetracker (Eyetracker=Blickrichtungsverfolger):
Diese Eyetracker nutzen die kamera gestützte Auswertung der an Grenzflächen des Auges entstehenden Rückreflexionen einer Beleuchtungseinrichtung, deren Licht ins Auge fällt. Diese sogenannten Purkinje-Bildchen entstehen als Kornealreflex auf der Korneavorderseite (1. Purkinjebild), an der Kornearückseite (2. Purkinjebild), an dέr Linsenvorderseite (3. Purkinjebild) sowie -rückseite (4. Purkinjebild). Die Helligkeit der
Reflexe nimmt in der Reihenfolge stark ab. Etablierte Geräte nach diesem Prinzip benötigen eine extrem aufwendige Bildverarbeitung und sind sehr teuer.
- Search-Coil-Methode:
Auf das Auge wird eine Kontaktlinse aufgesetzt, die dünne Drahtschleifen enthält, deren Kontaktierung nach außen geführt ist. Der Kopf des zu Untersuchendenten befindet sich in orthogonalen und zueinander im Zeitmultiplex getakteten Magnetfeldern. Entsprechend dem Induktionsgesetz lässt sich für jede räumliche Lage der Kontaktlinse synchron zur Magnetfeldtaktung eine Induktionsspannung erfassen. Nachteilig bei dieser Methode sind der hohe messtechnische Aufwand und die Kosten der nur etwa 3 bis 5 Messungen haltenden Kontaktlinse. Zudem handelt es sich um ein Kontakt-Verfahren. Die Kontaktierung der Linse wird von Untersuchten subjektiv als störend empfunden. - Limbus-Tracking:
Bei diesem Verfahren werden nahe am Auge Reflexlichtschrankenanordnungen platziert, die auf den Limbus (Korneoskleralübergang) des Auges ausgerichtet werden. Die optischen Sensoren erfassen dabei die Intensität des reflektierten Lichtes. Aus den Intensitätsdifferenzen lässt sich auf eine Verschiebung der Komeoskleralübergänge in ihrer Lage zu den Sensoren und damit auf die Blickrichtung schließen. Nachteilig ist das schwache Signal der Messanordnung, die zudem das Gesichtsfeld stark einschränkt, was bei ophthalmologischen Untersuchungen nicht akzeptiert werden kann. - EOG-Ableitung: Das Auge bildet aus der Sicht der Feldtheorie einen elektrischen Dipol zwischen der
Kornea und dem Augenhintergrund. Augennah aufgeklebte Elektroden erfassen die Projektion einer mit der Augenbewegung verbundenen Auslenkung dieses Dipols. Die typischen Potentialverläufe sind dabei annähernd linear proportional zur Amplitude der Augenbewegung. Nachteilig ist die starke, immer vorhandene Drift der Elektrodenspannung, die die Erfassung vor allem statischer oder sich nur langsam verändernder Blickrichtungen verhindert. Zudem erfordert die interindividuelle Variabilität der Amplitudenabhängigkeit von der Blickrichtung eine patientenspezifische Kalibration. Erschwerend kommt hinzu, dass dem erfassten Signal relativ starke Potentiale der umliegenden Muskulatur als Störungen überlagert sind.
Der Erfindung liegt die Aufgabe zugrunde, eine Vorrichtung und ein Verfahren anzugeben, die ohne Kalibrierung für jeden Probanden eine berührungslose Bestimmung des Blickvektors des menschlichen Auges ermöglichen.
Erfindungsgemäß wird die Aufgabe mit einer Vorrichtung zur berührungslosen Bestimmung der Blickrichtung dadurch gelöst, dass zwei Kameras vorhanden sind, die jeweils zeitgleich Abbildungen aus unterschiedlichen Richtungen vom menschlichen Auge erzeugen, dass die beiden Kameras mit einem Bildverarbeitungssystem verbunden sind und dass mindestens die Raumkoordinaten der Kameras und deren Abstand zum Auge im Bildverarbeitungssystem abgespeichert sind. Ferner wird die Aufgabe durch ein Verfahren zur berührungslosen Bestimmung der Blickrichtung, dadurch gelöst, dass das Auge eines Probanden über mindestens zwei Kameras aus mindestens zwei unterschiedlichen Raumrichtungen abgebildet wird, dass mittels der morphologischen Merkmale eines Auges, die im Abbild auswertbar sind und den im Bildverarbeitungssystem abgespeicherten Raumkoordinaten der Kameras und mindestens deren Abstand zum Auge die Blickrichtung bestimmt wird. Bei bekannter Geometrie der Messanordnung kann aus dem Ausgangspunkt am Auge und dem ermittelten Blickvektor der Blickpunkt bestimmt werden. Weder muss der Kopf fixiert, noch muss das System, wie bei herkömmlichen Blickfolgen, durch Zuordnung von mehreren Blickpunkten und Augenstellungen kalibriert werden. Der Aufbau ist nicht unmittelbar vor dem Auge positioniert, sondern kann sich in einem hinreichenden Abstand zum Auge befinden, damit das erforderliche Gesichtsfeld (der sichtbare Raum in mindestens 30 cm Abstand) nicht gestört wird. Das Gesichtsfeld kann durch Anordnung von optischen Mitteln, wie Spiegel, weiter vergrößert werden, da die Aufnahmesysteme nunmehr außerhalb des Blickfeldes angeordnet werden können. Das Prinzip kann überall dort eingesetzt werden, wo eine schnelle Bestimmung der aktuellen Blickrichtung ohne Beeinträchtigung des Gesichtsfeldes und des Befindens des Untersuchten notwendig ist.
Die Erfindung soll nachfolgend an Hand von Ausführungsbeispielen und Zeichnungen näher erläutert werden. In den Zeichnungen zeigen:
Fig.1 einen prinzipiellen Messaufbau der Vorrichtung Fig.2 eine schematische Darstellung zum Messprinzip Fig.3 eine weitere Darstellung zum Messprinzip.
Entsprechend Fig. 1 besteht die Vorrichtung aus zwei Kameras, jeweils bestehend aus ihren wesentlichen Teilen, den Empfängerflächen 1 a und 2b mit ihren vorgelagerten Abbildungsoptiken 2a und 2b. Die Kameras befinden sich dabei in einem räumlichen Bezugssystem (Koordinatensystem). Die Aufnahme des Auges 3 erfolgt aus mindestens zwei Raumrichtungen mit simultaner Bildaufnahme. Aus den Bildern werden die Form der Pupille 4 und die Lage auf den Empfängerflächen 1 a und 1 b ermittelt und mathematisch beschrieben. Wie weiterhin aus Fig. 1 ersichtlich, sind die Kameras mit einem Bildverarbeitungssystem 5 verbunden. Die Flächennormale 6 der jeweiligen Empfängerfläche 1 a oder 1 b und der Blickrichtungsvektor 7, der definiert ist als der Vektor der Tangentialfläche der Pupille 4, schließen einen Winkel α ein (Fig.2). Durch diesen Winkel α wird die an sich kreisrunde Pupille 4 als Ellipse 8 abgebildet Die Ellipse 8 ist dabei durch ihre große Halbachse a und ihre kleine Halbachse b gekennzeichnet. Dabei entspricht die große Halbachse a genau dem Radius R der Pupille 4. Des Weiteren ist der Abstand D (Schnittpunkt der Achsen der Ellipse zum zentralen Auftreffpunkt der Pupille 4) bekannt und im Bildverarbeitungssystem 5 abgespeichert. Ziel ist es nun, aus den vorab bekannten Größen und den gemessenen Größen den virtuellen Punkt 9 zu bestimmen. Der virtuelle Punkt 9 ist der Schnittpunkt, gebildet durch die Blickrichtungsgerade und der Projektionsebene 10, die durch die Empfängerfläche 1 a vorgegeben ist (Fig. 2). Es gibt selbstverständlich einen zweiten virtuellen Punkt, der der Schnittpunkt durch dieselbe Blickrichtungsgerade mit der Projektionseben, die durch die Empfängerfläche 1 b gebildet wird, ist. Die beiden virtuellen Punkte müssen dabei nicht notwendigerweise zusammenfallen. Wie aus Fig. 3 ersichtlich, kann die Ermittlung der beiden virtuellen Punkte ergeben, dass sie nicht auf einer Geraden liegen, dann wird die Blickrichtung durch die sogenannte Mittelgerade definiert. Durch die einfachen mathematischen Beziehungen
(1 ) R = tan α * D und
(2) tan α =
ergibt sich
Figure imgf000006_0001
Da im Bildverarbeitungssystem 5 die Raumkoordinaten der Empfängerfläche 1 a gespeichert sind, lassen sich somit die Raumkoordinaten des virtuellen Punktes 9 ermitteln, der die gewünschte Blickrichtung charakterisiert. Nachfolgend wird eine Ausführungsform des Verfahrens näher beschrieben. Im ersten Schritt wird dabei das Auge 3 teilweise oder vollständig über die vorgelagerte Abbildungsoptik 2a und 2b auf die Bildempfänger 1 a und 1 b abgebildet Die Bilder werden zunächst binär gewandelt, wobei die Binarisierungsschwelle der Grauwertverteilung dynamisch angepasst wird. Aus den Binärbildern wird die Pupille 4 klassifiziert und mathematisch angenähert als Ellipse beschrieben. Nach einem bekannten Algorithmus werden die beiden Halbachsen a und b, der Mittelpunkt sowie der Winkel α berechnet. Diese Parameter hängen ab vom horizontalen und vertikalen Blickwinkel θ und φ des Auges sowie den Abmaßen der Pupille und ihrer Position im Raum. Die größere Halbachse a stellt dabei zugleich den Durchmesser der Pupille 4 dar. Eine weitere Ausführungsmöglichkeit des Verfahrens besteht darin, dass die Bestimmung des virtuellen Punktes durch Rückprojektion charakteristischer Punkte der Pupillenumhüllenden bzw. von Punkten bekannter Lage auf der Pupille vom Bild in den Ursprungsort ähnlich der Trigonometrie geschlossen wird. Ebenfalls ist es möglich, durch Erstellung von Kennfeldern aus charakteristischen Kurven von b/a-θ-φ und α-θ-φ und Ermittlung des Schnittpunktes von Kurven ermittelter Parameter auf die Blickrichtung zu schließen.
Statt der direkten Ausrichtung der Kameras auf das Auge kann die Abbildung auch indirekt über optische Mittel, die das Gesichtsfeld weit weniger beeinträchtigen, erfolgen.
Untersuchungen am menschlichen Auge haben ergeben, dass der geometrische Blickrichtungsvektor nicht immer mit der realen Blickrichtung übereinstimmt, so dass ein systematischer Fehler entstehen kann. Allerdings ist die Winkelabweichung für jeden Probanden immer konstant, so dass dieser Abweichungswinkel mit als Korrekturwinkel nach der Ermittlung des geometrischen Blickrichtungsvektors hinzugezogen werden kann. Abschließend sei noch erwähnt, dass in gewissen Grenzen eine Kopfbewegung unschädlich ist, wenn abgesichert ist, dass die Pupille zu 60% noch auf den Empfängerflächen abgebildet wird. Aufstellung der verwendeten Bezugszeichen
1a Empfängerfläche
1 b Empfängerfläche
2a Abbildungsoptik
2b Abbildungsoptik
3 Auge
4 Pupille
5 Bildverarbeitungssystem
6 Flächennormale
7 Blickrichtungsvektor
8 Ellipse
9 virtueller Punkt
10 Projektionsebene a große Halbachse b kleine Halbachse
R Radius der Pupille r Abstand zwischen Mittelpunkt der Ellipse und virtuellem Punkt
D Abstand α Winkel zwischen 6 und 7
Φ vertikaler Blickwinkel θ horizontaler Blickwinkel

Claims

Patentansprüche
1. Vorrichtung zur berührungslosen Bestimmung der Blickrichtung, dadurch gekennzeichnet, dass
- zwei Kameras vorhanden sind, die jeweils zeitgleich Abbildungen aus unterschiedlichen Richtungen vom menschlichen Auge (3) erzeugen,
- die beiden Kameras mit einem Bildverarbeitungssystem (5) verbunden sind und
- mindestens die Raumkoordinaten der Kameras und deren Abstand zum Zentrum der Pupille (4) des Auges (3) im Bildverarbeitungssystem (5) abgespeichert sind.
2. Vorrichtung nach Anspruch 1 , dadurch gekennzeichnet, dass im optischen Strahlengang zwischen Auge (3) und Kameras zur Umleitung der Abbilder optische Mittel vorhanden sind.
3. Vorrichtung nach Anspruch 1 bis 2, dadurch gekennzeichnet, dass im Bildverarbeitungssystem (5) ein Korrekturwinkel abspeicherbar ist.
4. Verfahren zur berührungslosen Bestimmung der Blickrichtung, dadurch gekennzeichnet, dass das Auge (3) eines Probanden über mindestens zwei Kameras aus mindestens zwei unterschiedlichen Raumrichtungen abgebildet wird, mittels der morphologischen Merkmale eines Auges (3), die im Abbild auswertbar sind, und den im Bildverarbeitungssystem (5) abgespeicherten Raumkoordinaten der Kameras und deren Abstand zum Auge (3) die Blickrichtung bestimmt wird.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Blickbestimmung anhand der mathematischen und geometrischen Rekonstruktion der Lage der charakteristischen Merkmale des Auges (3) im Raum erfolgt, wobei diese besonderen Bildmerkmale des Auges (3) in Form und Lage im
Bild mathematisch oder geometrisch beschrieben werden und jedem Bildpunkt Raumkoordinaten zugewiesen werden.
6. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Blickrichtung bestimmende Merkmale des Auges (3) über die Abbildungseigenschaften der Anordnung in den Raum zurückgerechnet werden.
7. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Anwendung im sichtbaren oder nichtsichtbaren optischen Wellenlängenbereich erfolgen kann.
8. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die durch das Bildverarbeitungssystem (5) ermittelte geometrische Blickrichtung mit einem bereits vorher vom Probanden ermittelten Korrekturwinkel zwischen geometrischer Blickrichtung und realer Blickrichtung korrigiert wird.
PCT/DE2005/001657 2004-09-22 2005-09-19 Vorrichtung und verfahren zur berührungslosen bestimmung der blickrichtung WO2006032253A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP05792309A EP1809163A1 (de) 2004-09-22 2005-09-19 Vorrichtung und verfahren zur berührungslosen bestimmung der blickrichtung
JP2007532761A JP2008513168A (ja) 2004-09-22 2005-09-19 視線方向を非接触で特定する為の装置及び方法
US11/663,384 US20080252850A1 (en) 2004-09-22 2005-09-19 Device and Method for the Contactless Determination of the Direction of Viewing

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE200410046617 DE102004046617A1 (de) 2004-09-22 2004-09-22 Vorrichtung und Verfahren zur berührungslosen Bestimmung der Blickrichtung
DE102004046617.3 2004-09-22

Publications (1)

Publication Number Publication Date
WO2006032253A1 true WO2006032253A1 (de) 2006-03-30

Family

ID=35482835

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2005/001657 WO2006032253A1 (de) 2004-09-22 2005-09-19 Vorrichtung und verfahren zur berührungslosen bestimmung der blickrichtung

Country Status (5)

Country Link
US (1) US20080252850A1 (de)
EP (1) EP1809163A1 (de)
JP (1) JP2008513168A (de)
DE (1) DE102004046617A1 (de)
WO (1) WO2006032253A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2520993A2 (de) 2011-05-06 2012-11-07 DECKEL MAHO Pfronten GmbH Vorrichtung zum Bedienen einer automatisierten Maschine zur Handhabung, Montage oder Bearbeitung von Werkstücken
WO2015117905A1 (de) * 2014-02-04 2015-08-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. 3d-bildanalysator zur blickrichtungsbestimmung

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10460346B2 (en) * 2005-08-04 2019-10-29 Signify Holding B.V. Apparatus for monitoring a person having an interest to an object, and method thereof
DE102007001738B4 (de) * 2007-01-11 2016-04-14 Audi Ag Verfahren und Computerprogrammprodukt zur Blickerfassung
DE102008053015B3 (de) * 2008-10-21 2010-03-04 Technische Universität Ilmenau Verfahren und Vorrichtung zur farbkanalselektiven, blickgeführten Stimulation des visuellen Systems
DE102011009261B4 (de) * 2011-01-24 2022-02-10 Rodenstock Gmbh Bestimmung der Rotationsparameter der Augen
JP5989523B2 (ja) 2012-05-01 2016-09-07 株式会社トプコン 眼科装置
CN102981616B (zh) * 2012-11-06 2017-09-22 中兴通讯股份有限公司 增强现实中对象的识别方法及系统和计算机
KR101878376B1 (ko) * 2012-11-14 2018-07-16 한국전자통신연구원 시선 기반의 제어 장치 및 그것의 기기 제어 방법
KR20160094190A (ko) * 2015-01-30 2016-08-09 한국전자통신연구원 시선 추적 장치 및 방법
US9898865B2 (en) 2015-06-22 2018-02-20 Microsoft Technology Licensing, Llc System and method for spawning drawing surfaces
US20180007328A1 (en) * 2016-07-01 2018-01-04 Intel Corporation Viewpoint adaptive image projection system
US10880086B2 (en) 2017-05-02 2020-12-29 PracticalVR Inc. Systems and methods for authenticating a user on an augmented, mixed and/or virtual reality platform to deploy experiences
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep
CN110658918B (zh) * 2019-09-25 2023-12-12 京东方科技集团股份有限公司 用于视频眼镜的眼球追踪相机的定位方法、设备及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6322216B1 (en) * 1999-10-07 2001-11-27 Visx, Inc Two camera off-axis eye tracker for laser eye surgery
US20030098954A1 (en) * 2001-04-27 2003-05-29 International Business Machines Corporation Calibration-free eye gaze tracking
US6580448B1 (en) * 1995-05-15 2003-06-17 Leica Microsystems Ag Process and device for the parallel capture of visual information

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4789235A (en) * 1986-04-04 1988-12-06 Applied Science Group, Inc. Method and system for generating a description of the distribution of looking time as people watch television commercials
JPH024313A (ja) * 1988-06-13 1990-01-09 Nippon Telegr & Teleph Corp <Ntt> 注視位置検出装置
JP2739331B2 (ja) * 1988-11-16 1998-04-15 株式会社エイ・ティ・アール通信システム研究所 非接触視線検出装置
JPH082345B2 (ja) * 1989-07-07 1996-01-17 日本電信電話株式会社 視線方向検出装置
JP4032994B2 (ja) * 2003-02-26 2008-01-16 トヨタ自動車株式会社 視線方向検出装置および視線方向検出方法
JP2004259043A (ja) * 2003-02-26 2004-09-16 Toyota Motor Corp 向き方向検出装置および向き方向検出方法
US7219995B2 (en) * 2004-08-25 2007-05-22 Hans-Joachim Ollendorf Apparatus for determining the distance between pupils
JP2006128880A (ja) * 2004-10-27 2006-05-18 Funai Electric Co Ltd Ieee1394シリアルバスに接続されるdvdレコーダ、及びieee1394シリアルバスに接続されるディジタル録画装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6580448B1 (en) * 1995-05-15 2003-06-17 Leica Microsystems Ag Process and device for the parallel capture of visual information
US6322216B1 (en) * 1999-10-07 2001-11-27 Visx, Inc Two camera off-axis eye tracker for laser eye surgery
US20030098954A1 (en) * 2001-04-27 2003-05-29 International Business Machines Corporation Calibration-free eye gaze tracking

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2520993A2 (de) 2011-05-06 2012-11-07 DECKEL MAHO Pfronten GmbH Vorrichtung zum Bedienen einer automatisierten Maschine zur Handhabung, Montage oder Bearbeitung von Werkstücken
DE102011075467A1 (de) 2011-05-06 2012-11-08 Deckel Maho Pfronten Gmbh Vorrichtung zum bedienen einer automatisierten maschine zur handhabung, montage oder bearbeitung von werkstücken
US9158298B2 (en) 2011-05-06 2015-10-13 Deckel Maho Pfronten Gmbh Device for operating an automated machine for handling, assembling or machining workpieces
WO2015117905A1 (de) * 2014-02-04 2015-08-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. 3d-bildanalysator zur blickrichtungsbestimmung
KR101858491B1 (ko) 2014-02-04 2018-05-16 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 시야 방향을 결정하기 위한 3-d 이미지 분석기
US10074031B2 (en) 2014-02-04 2018-09-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. 2D image analyzer
US10192135B2 (en) 2014-02-04 2019-01-29 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. 3D image analyzer for determining the gaze direction
US10592768B2 (en) 2014-02-04 2020-03-17 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Hough processor

Also Published As

Publication number Publication date
JP2008513168A (ja) 2008-05-01
EP1809163A1 (de) 2007-07-25
DE102004046617A1 (de) 2006-04-06
US20080252850A1 (en) 2008-10-16

Similar Documents

Publication Publication Date Title
WO2006032253A1 (de) Vorrichtung und verfahren zur berührungslosen bestimmung der blickrichtung
EP0825826B1 (de) Verfahren und vorrichtung zum parallelen erfassen von sehinformation
EP2582284B1 (de) Verfahren und vorrichtung zur bestimmung der augenposition
US20160143528A1 (en) Gaze tracking system
EP1228414A2 (de) Rechnerunterstütztes verfahren zur berührungslosen, videobasierten blickrichtungsbestimmung eines anwenderauges für die augengeführte mensch-computer-interaktion und vorrichtung zur durchführung des verfahrens
DE102009010467A1 (de) Verfahren und Vorrichtung zur Bestimmung der Augendrehpunktlage
DE2359360A1 (de) Verfahren und vorrichtung zum verfolgen von augenbewegungen
DE10108797A1 (de) Verfahren zur Ermittlung von Abständen am vorderen Augenabschnitt
DE102015001874A1 (de) Vorrichtung und Verfahren zur Abstandsbestimmung und/oder Zentrierung unter Verwendung von Hornhautreflexionen
DE102010017837A1 (de) Anordnung zur Erzielung hochgenauer Messwerte am Auge
EP2922460B1 (de) Vorrichtung sowie verfahren zur überprüfung der menschlichen sehfähigkeit
EP3195052B1 (de) Verfahren zur messgenauen bestimmung von zentriertdaten eines probanden zur anpassung einer brille an den probanden und immobiles videozentriersystem
EP3735891A2 (de) Computerimplementiertes verfahren zur detektion eines hornhautscheitels
DE202010013741U1 (de) Sehtestgerät
DE102013000295B4 (de) Vorrichtung und Verfahren zur Bestimmung eines Satzes ophthalmologischer Daten
DE102013021974B3 (de) Vorrichtung zur Bestimmung einer Ametropie eines Auges
EP0363610A1 (de) Vorrichtung zum Prüfen visueller Funktionen eines menschlichen Auges
DE19502337C2 (de) Vorrichtung und Verfahren zur Prüfung von Sehfunktionen
EP3959497B1 (de) Verfahren und vorrichtung zum vermessen der lokalen brechkraft und/oder der brechkraftverteilung eines brillenglases
DE102011102354A1 (de) System zur Bestimmung der Oberflächenform der Kornea eines Auges
Singh Near-field depth perception in optical see-though augmented reality
DE102017129951B3 (de) Vorrichtung zur ophthalmologischen Blickfixierung für Patienten mit beliebiger Sehschärfe
DE112019002014T5 (de) Bildverarbeitungsverfahren, Programm, Bildverarbeitungsvorrichtung und ophthalmologisches System
DE202018100600U1 (de) Sehprüfgerät
DE3731415A1 (de) Verfahren fuer die gesichtsfelduntersuchung

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11663384

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2007532761

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2005792309

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2005792309

Country of ref document: EP