DE19953835C1 - Rechnerunterstütztes Verfahren zur berührungslosen, videobasierten Blickrichtungsbestimmung eines Anwenderauges für die augengeführte Mensch-Computer-Interaktion und Vorrichtung zur Durchführung des Verfahrens - Google Patents
Rechnerunterstütztes Verfahren zur berührungslosen, videobasierten Blickrichtungsbestimmung eines Anwenderauges für die augengeführte Mensch-Computer-Interaktion und Vorrichtung zur Durchführung des VerfahrensInfo
- Publication number
- DE19953835C1 DE19953835C1 DE19953835A DE19953835A DE19953835C1 DE 19953835 C1 DE19953835 C1 DE 19953835C1 DE 19953835 A DE19953835 A DE 19953835A DE 19953835 A DE19953835 A DE 19953835A DE 19953835 C1 DE19953835 C1 DE 19953835C1
- Authority
- DE
- Germany
- Prior art keywords
- eye
- user
- calibration
- function
- vectors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Eye Examination Apparatus (AREA)
Abstract
Blickrichtungsgesteuerte Schnittstellen in der Mensch-Computer-Interaktion bieten dem Anwender völlig neue Möglichkeiten. Zur Erfassung der aktuellen Blickrichtung (VD), mit der der Anwender (UE) gezielt Funktionen anwählen kann, wird die Cornea-Reflex-Methode eingesetzt. Hiermit können Augenvektoren (AV) zwischen dem Pupillenmittelpunkt (ZP) und durch Infrarotbeleuchtung (IRS) erzeugten Reflexpunkten (RP) auf der Augenhornhaut (CA) detektiert und mit dem vom Anwender (UE) aktuell angeblickten Fixationspunkt (FP) in Verbindung gebracht werden. Dieser Zusammenhang wird über die Blickrichtungsfunktion (VDF) hergestellt, die bei der Kalibrierung (C) ermittelt wird. Bei erkannten Verfahren ist diese Kalibrierung (C) für den Anwender (UE) äußerst konzentrations- und zeitintensiv. Bei dem erfindungsgemäßen Verfahren wird deshalb das System initial auf einen Referenzanwender (RE) kalibriert (C). Für den individuellen Anwender (UE) wird dann nur noch eine selbstabgleichende Rekalibrierung (RC) durchgeführt, bei der eine Mappingfunktion (MF) ermittelt wird, mit der die individuellen Augenvektoren (EVU) in die Referenzaugenvektoren (EVR) überführbar sind. Diese Rekalibrierung (RC) erfolgt für den Anwender (UE) völlig unbemerkt. Anwendbar ist das erfindungsgemäße Verfahren in der medizinischen Diagnostik, bei psychooptischen Untersuchungen und bei der augengesteuerten Interaktion mit multimodalen Computern.
Description
Die Erfindung bezieht sich auf ein rechnerunterstütztes Verfahren zur
berührungslosen, videobasierten Blickrichtungsbestimmung eines Anwender
auges für die augengeführte Mensch-Computer-Interaktion nach dem Cornea-
Reflex-Verfahren, mit dem blickrichtungsabhängige Augenvektoren zwischen
dem detektierbaren Pupillenmittelpunkt und durch gerichtete Infrarotbeleuch
tung erzeugbaren, ebenfalls detektierbaren Reflexpunkten auf der Augenhorn
haut bestimmt werden, mit einer Kalibrierung auf zumindest einen auf dem
Bildschirm darstellbaren Kalibrierpunkt zur Bestimmung einer Blickrichtungs
funktion und einer in Abhängigkeit von der Erzeugung von Bildobjekten und
mehreren Reflexpunkten durchzuführenden Rekalibrierung zur Korrektur
systematischer Messfehler und auf eine Anordnung zur Durchführung des
Verfahrens.
Die fortschreitende Integration informationstechnischer Systeme bietet den
Computer-Nutzern ein weites Spektrum neuartiger Dienste und den Zugang zu
nahezu unüberschaubaren multimedialen Datenbeständen. Mit den erweiterten
Nutzungsmöglichkeiten des Computers werden zunehmend höhere Anforde
rungen an die Gestaltung der Anwenderschnittstelle gestellt. Gesucht sind
Lösungen, die Nutzern mit unterschiedlichsten Vorkenntnissen eine souveräne
Beherrschung des Computers erlauben. Hierbei ist eine weiterentwickelte
Anwenderschnittstelle von besonderer Bedeutung, die das Wahrnehmungs
vermögen des Menschen und das natürliche Repertoire an Interaktions
möglichkeiten besser unterstützt als die heutigen grafischen Schnittstellen mit
Handmaus und Tastatur. Schlüsselelemente sind die räumliche Darstellung
der Informationen auf einem brillenlosen 3D-Display, die Unterstützung des
aktiven Sehens durch Beeinflussung der Informationsdarstellung über
Kopfposition und Blickrichtung und nicht-befehlsbasierte, von einem Interface-
Agenten aus dem Blickverhalten antizipierte Interaktionen.
Hinsichtlich des Benutzerwunsches nach schneller kognitiver Orientierung,
souveräner Handhabung und persönlicher Kontrolle der neuartigen Systeme
existieren verschiedene Lösungsansätze auf der Grundlage neuer
Darstellungs- und Interaktionstechniken. Dazu zählt insbesondere die intuitive
Direktmanipulation durch aktives Sehen und Handgesten. Wie beim
natürlichen Sehen kann sich die Betrachtungsperspektive bei
Kopfbewegungen verändern. Vordergrundobjekte können auf diese Weise zur
temporären Einsichtnahme in verdeckte Ebenen seitlich weggeschoben
werden. Durch Detektion der Blickrichtung bzw. des Fixationspunkts werden
zusätzliche visuelle Interaktionen möglich. Beispielsweise kann der Blick auf
ein Medienobjekt zum Einblenden von Kontextinformationen verwendet
werden. Eine an den Fixationspunkt gekoppelte synthetische Schärfentiefe
kann dem Anwender helfen, die Aufmerksamkeit auf das gewählte
Medienobjekt zu konzentrieren. Darüber hinaus kann die Blickrichtung genutzt
werden, um Bildschirmobjekte durch visuelles Fixieren zu adressieren, zu
bewegen oder zu zoomen (Augenmaus-Funktion).
Verfahren zur Messung der Blickrichtung wurden in der Vergangenheit
überwiegend für Laborexperimente oder für Zwecke der medizinischen
Diagnostik und weniger für Anwendungen in der Mensch-Computer-Interaktion
entwickelt. Die technischen Möglichkeiten sind seit den siebziger Jahren im
Wesentlichen bekannt und können grundsätzlich in berührungslose und nicht-
berührungslose Verfahren unterschieden werden. Die nicht-berührungslosen
erfordern z. B. das Anbringen von Hautelektroden im Gesicht des Anwenders
oder das Tragen von speziellen Brillen oder Kontaktlinsen. Für die Mensch-
Computer-Interaktion sind videobasierte Techniken am besten geeignet. Dazu
wird ein Bild des Auges möglichst formatfüllend von einer Videokamera
aufgenommen und nach verschiedenen Kriterien ausgewertet. Für eine
berührungslose Messung wird die Blickmesskamera in der Nähe des
Bildschirms aufgestellt. Eine Teleoptik ggfs. mit einem Nachführsystem, das
die Kamera auch bei Kopfbewegungen auf das Auge ausrichtet, sorgt in
diesem Falle für das formatfüllende Bild des Auges. Ausgewertet werden
Bewegungen der Pupille bezüglich eines Bezugssystems, z. B. bezüglich der
Mitte des Kamerabildes. Für genaue Messungen wird das Auge mit
schwachem, nicht blendendem Infrarotlicht beleuchtet, um eine gute
Ausleuchtung der Augenregion und gezielt Reflexionen an Grenzschichten,
z. B. an der Oberfläche des Auges und an der Rückseite der Augenlinse
(Purkinje-Reflexe) zu erzeugen, deren Lage in Relation zum Zentrum der
Pupille ausgewertet werden. Die stärkste Reflexion findet an der
Hornhautoberfläche (Cornea) statt. Die sogenannte "Cornea-Reflex-Methode"
(vgl. "Bildverarbeitung durch das visuelle System", A. Korn, Springer Verlag,
1982, S. 126 ff), die die Tatsache ausnutzt, dass die Hornhaut einfallendes
Licht reflektiert, das an der Oberfläche als Glanzpunkt detektiert werden kann
("Cornea-Reflex"), ermöglicht ohne Nachkalibrierung über einen längeren
Zeitraum präzise berührungslose Messungen. Die Blickmesskamera wird durch
Signale eines Head-Trackers auf ein Auge des Anwenders ausgerichtet und
folgt diesem Auge auch bei Kopfbewegungen.
Im Verlauf der Bildauswertung wird zunächst die Pupille lokalisiert, indem nach
dem Least-Squares-Verfahren eine kreisförmige Konturlinie der Pupille iterativ
angenähert wird. Danach wird der Reflexpunkt durch eine einfache
Schwellwertoperation als Zentrum der größten, sehr hellen Region in einem
etwas erweiterten Umfeld der Pupille ermittelt. Damit ist der sogenannte
"Augenvektor" bestimmt, der vom Zentrum der Pupille auf das Zentrum des
Reflexpunktes zeigt. Bei jeder Blickrichtungsänderung ändert sich der
Augenvektor zwischen dem Pupillen- und dem Reflexmittelpunkt monoton zur
Blickrichtung. Die Größe hängt von der Geometrie des individuellen Auges ab
(Krümmungsradii der Hornhaut und des Augapfels) und kann durch eine
monotone Funktion (Blickrichtungsfunktion) beschrieben werden. Die
Blickrichtungsfunktion muss durch die Kalibrierung ermittelt werden. Nach der
Kalibrierung, bei der der Anwender nacheinander z. B. fünf Kalibrierpunkte als
punktförmige Gegenstandsobjekte auf dem Bildschirm fixieren muss, können
der Augenvektoren in Relation zu den Kalibrierpunkten berechnet werden. Je
mehr Kalibrierpunkte dabei in festgelegter Betrachtungsreihenfolge verwendet
werden und je länger die Fixationszeit durch den jeweiligen Anwender ist,
desto genauer können diese erstellt werden. Dieser komplexe Vorgang ist bei
bekannten Verfahren zu Beginn jeder individuellen Anwendung durchzuführen
und erfordert vom Anwender eine hohe Aufmerksamkeit und viel Geduld. Ein
Interpolationsmodell stellt dabei einen Zusammenhang zwischen den X- und Y-
Bildschirmkoordinaten der Kalibrierpunkte und den entsprechenden x- und y-
Werten der gemessenen Augenvektoren (im Kamerabild) bei der Fixation des
jeweiligen Kalibrierpunktes her. Die individuell angepassten Parameterwerte
des Modells werden gespeichert und dienen anschließend bei der
Blickmessung zur Interpolation der Bildschirmkoordinatenwerte bei der Fixation
beliebiger Punkte des Bildschirms. Der Kalibriervorgang dauert je nach Anzahl
der Kalbrierpunkte und Konzentrationsfähigkeit des Anwenders mindestens ein
bis zwei Minuten.
Bei Kopfbewegungen ändert sich der Augenvektor und somit die berechnete
Blickrichtung auch dann, wenn der Nutzer den Fixationspunkt beibehält. Diese
Änderung liegt darin begründet, dass der Augapfel gedreht werden muss, um
die Ausrichtung der Blicklinie auf den (raumfesten) Fixationspunkt zu
gewährleisten. Da die Blickkamera geneigt und geschwenkt werden muss, um
das Auge bei Kopfbewegungen in der Bildmitte zu halten, verändert sich
außerdem die Flächennormale des Kamerasensors. Eine neu entwickelte
Transformationstechnik (vgl. DE 197 36 995.2 A1 bzw. Aufsatz "Determination
of the Point of Fixation in a Head-Fixed Coordinate System", Liu, 14th
Intern. Conf. on Pattern Recognition, 16-20 August, 1998, Brisbane, Australia)
ermöglicht eine effektive Korrektur dieser (systematischen) Messfehler. Hierbei
wird ein bewegliches, auf die Kopfposition des Anwenders bezogenes
Koordinatensystem verwendet. Als Koordinatenursprung für die
Messdatentransformation wird der Augenmittelpunkt gewählt. Durch eine
Rotation, eine Skalierung und eine Translation kann die im Kamerabild
gemessene Blickrichtung in die 3D-Koordinaten des Fixationspunktes
umgerechnet werden, wobei die Freiheitsgrade des Messsystems und des
Displays nicht eingeschränkt sind. Dadurch sind nur wenige Transformations
schritte zur Kompensation von Kopfbewegungen erforderlich. Die
vorstehenden Erläuterungen stammen auch aus dem Aufsatz "Augenmaus &
Co.-Entwicklung einer neuartigen Anwenderschnittstelle für Multimedia-
Computer", Liu, Pastoor, ZMMS-Spektrum (ISBN 3-932490-52-5) 1999; Band
8, Seiten 56-70, und aus dem Schlussbericht zum Förderprojekt 01BK410/8
(BLICK), 30.04.99, Seiten 57-61).
Bevor im Weiteren näher auf einzelne Kalibrierverfahren eingegangen werden
soll, wird zunächst eine Definition des Begriffes "Kalibrierung" eingeschoben.
Gerade im Zusammenhang mit dem Gebrauch dieses Begriffes entstehen oft
Unklarheiten, da er fälschlicherweise auch für Kompensations- und Korrektur
vorgänge bei Messverfahren eingesetzt wird. Der Kalibriervorgang ist als
"Einmessvorgang" einer Messanordnung zu verstehen, bei dem ein relativer,
reproduzierbarer Zusammenhang zwischen den Ausgangs- und den
individuellen Eingangsgrößen festgestellt wird. Im Gegensatz dazu ist der
Eichvorgang als "Abmessvorgang" zu bezeichnen, bei dem eine Überprüfung
und absolute Abstimmung der Messgenauigkeit und -sicherheit von
Messgeräten stattfindet. In bekannten Verfahren auftretende Kompensations
vorgänge, beispielsweise die Kompensation der Kopfbewegung bei der
Blickrichtungsbestimmung, oder Korrekturvorgänge, beispielsweise die
Messwertkorrektur bei einer Abstandsänderung des Anwenders in der Raum
tiefe zur Blickmesskamera, sind keine Kalibriervorgänge. Hier von "Nach- oder
Rekalibrieren" zu sprechen, ist messtechnisch gesehen nicht korrekt.
Bei einigen aus dem Stand der Technik bekannten Anwendungen auf dem
Gebiet der videobasierten Blickrichtungsbestimmung sind keine expliziten
Kalibriervorgänge vorgesehen. Bei einer Kamera mit einem blickgesteuerten
Autofokus gemäß der US-PS 5,678,066 kann der individuelle Anwender
keinen Kalibriervorgang durchführen. Der Auswahlbereich lässt sich hier
entsprechend einer sehr groben Erfassung der Blickrichtung lediglich in drei
Regionen aufteilen. Eine Kamera gleichen Typs mit einer verbesserten
Objektiv-Spiegel-Anordnung und einem weiterentwickelten Detektionsver
fahren wird auch in der US-PS 5,875,121 beschrieben. Auch hier ist keine
individuelle Kalibrierung möglich, die Blickmessung unterscheidet nur in die
vier Hauptrichtungen "links", "rechts", "oben" und "unten".
Ebenfalls eine Kamera ohne anwenderindividuelle Kalibrierung mit einem
verbesserten Messverfahren ist aus der US-PS 5,987,151 bekannt. Bei diesem
Verfahren wird in der Kamera über einen integrierten zweidimensionalen
Bildsensor mit einer Vielzahl von gerasterten Detektionslinien zum Empfang
von vom Anwenderauge reflektiertem Infrarotlicht die Blickrichtung ("Blicklinie")
des Anwenders zunächst detektiert. Die gemessenen Daten werden dann
unter Zuhilfenahme von Augenstandarddaten in einer umfangreichen Software
rechnerisch aufgearbeitet, wobei eine Korrektur der Rechenfehler stattfindet.
Im Ergebnis kann damit die Blickrichtung aus der relativ groben Detektion
genau errechnet werden. Eine anwenderindividuelle Eingangskalibrierung
findet jedoch nicht statt. Die beiden in die Formeln eingehenden, nicht zu
berechnenden Parameter werden einmalig durch Kalibrierung ermittelt und als
Augenstandarddaten abgespeichert, wobei sich Abweichungen zum
individuellen Anwenderauge ergeben können.
Eine Verbesserung der Messgenauigkeit ohne Kalibrierung ergibt sich, wenn
der Anwenderkopf fixiert ist, sodass nur noch die physiologischen
Augencharakteristika einen systematischen Fehlereinfluss haben. Eine solche
Maßnahme wird in einem Verfahren zur Gesichtsfeldmessung bei Patienten
gemäß der US-PS 5,220,361 beschrieben. Zur zumindest teilweisen
Kompensation des systematischen Messfehlers werden hier insgesamt vier
Reflexpunkte auf der Hornhaut erzeugt, dadurch kann der Augen-Sensor-
Abstand ermittelt werden. Eine Berücksichtigung der individuellen
Augengeometrie (z. B. Augenradius) erfolgt jedoch nicht. Insgesamt muss
festgestellt werden, dass Verfahren ohne Kalibrierung die Blickrichtung mit
einer wesentlich geringeren Genauigkeit vermessen und als Ergebnis nur eine
grobe Abschätzung der Blickrichtung liefern können. Das ist aber für viele
Anwendungen unzureichend. Es handelt es sich hierbei also um "einfache
Systeme" ohne individuelle Kalibrierung, bei denen die verallgemeinerten
Parameter von "Standardaugen" verwendet werden. Eine ausreichende
Genauigkeit wird nur erreicht, wenn die Anwenderaugen zufällig mit diesen
Standardaugen übereinstimmen.
Dagegen zu unterscheiden sind die "aufwendigen Systeme", bei denen eine
Zeit- und arbeitsaufwendige individuelle Kalibrierung für jeden einzelnen
Anwender durchgeführt wird. Diese unterscheiden sich in der Anzahl und der
Ordnung der verwendeten Kalibrierpunkte. Die Genauigkeit steigt im
Allgemeinen mit der Anzahl der verwendeten Kalibrierpunkte. Aus der US-PS
5,634,141 ist eine Kamera mit einem blickgesteuerten Autofokus bekannt, bei
der ein individueller Kalibriervorgang durchführbar ist. Hierzu sind zwei
horizontal angeordnete Kalibrierpunkte im Sucherbereich der Kamera
vorgesehen. Von sechs, um den Sucher herum angeordneten Infrarotdioden
werden je nach der Kamerastellung und des Anwenderzustands zwei
paarweise eingesetzt, um Reflexpunkte auf dem Anwenderauge zu erzeugen,
die der Messung seines individuellen Pupillendurchmessers und der unter
verschiedenen Annahmen resultierenden Berechnung der Augenachse
(Kausalitätsprüfung) unter Zugrundelegung von standardisierten Augapfel
parametern dienen. Auch hierbei reicht die Genauigkeit der Kalibrierung jedoch
nur dazu aus, Blickbereiche - hier drei Bereiche in horizontaler Richtung -
festzulegen. Um die Aufwendigkeit des Kalibriervorganges etwas zu
reduzieren, ist bei dieser Kamera eine Einspeicherung von verschiedenen
Kalibrierdatensätzen möglich, beispielsweise für unterschiedliche Anwender
oder für einen Anwender mit und ohne Brille. Im Gebrauchsfall kann dann der
entsprechende Datensatz vom Anwender aufgerufen werden. Abgesehen
jedoch davon, dass es für die Messgenauigkeit extrem wichtig ist, dass der
richtige, zum Anwender passende Datensatz aufgerufen wird, ist eine
automatische Anpassung an die individuellen Augendaten nicht gewährleistet.
Um Veränderungen berücksichtigen zu können, ist eine erneute Durchführung
des gesamten Kalibriervorganges erforderlich.
Der Stand der Technik, von dem die Erfindung ausgeht, wird beschrieben in
der DE-OS-197 31 303 A1. Hierbei handelt es sich um ein Verfahren zur
kontaktlosen Messung der Blickrichtung mit einer korrigierenden
Berücksichtigung von größeren Kopf- und Augenbewegungen, bei dem die
Koordinaten von Zielfadenkreuzen für Pupillenmittelpunkt und wenigstens
einer kornealen Reflexion eines einzigen Anwenders auf mindestens einen
Kalibrierpunkt (bei höchster Genauigkeit auf 13 Kalibrierpunkte) kalibriert
werden ("Blickrichtungskalibrierung"). Dazu wird die entsprechende Anzahl von
Kalibrierpunkten auf dem Bildschirm gezeigt. Der Anwender muss diese
Kalibrierpunkte dann ausreichend lange und in vorgegebener Reihenfolge
fixieren. Dabei erfolgt eine automatische Kontrolle, ob er lange genug auf das
Fixationsziel blickt und diesem folgt. Tut der Anwender dies nicht, wird er zur
Wiederholung aufgefordert. Aus den gewonnenen Messdaten für die
Pupillenposition, der kornealen Reflexionen und den Koordinaten der
vorgegebenen Kalibrierpunkte wird dann auf Basis unterschiedlicher mathema
tischer Modelle und Näherungsverfahren eine Transformationsmatrix (Blick
richtungsfunktion) erstellt, mit der die anschließend gemessenen Koordinaten
der Pupille und der kornealen Reflexionen in die augenblickliche Blickposition
transformiert werden können. Weiterhin ist für dieses bekannte Verfahren eine
"automatische Anpassung der Kalibrierdaten" bei horizontalen und vertikalen
Abstandänderungen der Anwenderaugen zum Bildschirm und zur
Blickmesskamera vorgesehen. Hierbei handelt es sich um eine Kompensation
bzw. Korrektur von größeren Kopf- und Augenbewegungen in einer Ebene
parallel zum Bildschirm. Desweiteren wird eine "automatische
Nachkalibrierung" offenbart. Hierbei handelt es sich um eine rechnerische
Anpassung bei Veränderung des Augenabstandes zum Kameraobjektiv (in der
Tiefendimension) über die entsprechend veränderte Autofokuseinstellung.
Beide Korrekturvorgänge sind jedoch im Sinne der weiter oben gegebenen
Definition nicht korrekt mit dem Begriff "Kalibrierung" zu beschreiben. Anders
verhält es sich bei der ebenfalls vorgesehenen dynamischen "Rekalibrierung".
Zur Korrektur systematischer Messfehler, beispielsweise Pupillendurchmesser
veränderungen, wird wiederholt für jeden einzelnen Anwender ein Soll-Istwert-
Vergleich an zuvor definierten Gegenstandsobjekten auf dem Bildschirm
durchgeführt. Dabei wird die Rekalibrierung bei Überschreiten eines zulässigen
Messfehlers automatisch ausgelöst. Abgesehen davon, dass unklar ist, wie ein
Überschreiten vom System registriert wird, bedeutet diese dynamische
Rekalibrierung eine empfindliche Störung für den Anwender, der sich ständig
überraschend - auch aus einer aktiven Anwendung heraus - einem erneuten
Kalibriervorgang unterziehen muss.
Insgesamt ist also festzustellen, dass die bekannten Kalibriermethoden bei
dem Verfahren zur Bestimmung der Blickrichtung eine wesentliche Komfortein
schränkung für den Anwender bedeuten. Zum einen muss er eine hohe
Konzentration und viel Geduld bei der Fixation der Kalibrierpunkte, die zudem
noch bewegt sein können, aufbringen. Zum anderen müssen verschiedene
Anwender eines Blickrichtungsmesssystems zur Gewährleistung ihrer indivi
duellen Kalibrierdaten vor einer Benutzung jeder einen eigenen aufwendigen
Kalibriervorgang durchführen. Die Aufgabe für die vorliegende Erfindung ist
daher darin zu sehen, ein gegenüber dem bekannten Stand der Technik
verbessertes Verfahren zur Bestimmung der Blickrichtung anzugeben, bei dem
eine Kalibrierung integriert ist, die zum einen eine maximale Genauigkeit für
die Vermessung der Blickrichtung, insbesondere mit einer Rekalibrierung zur
Korrektur von systematischen Messfehlern, garantiert, zum anderen aber auch
eine minimale Belastung für den individuellen Anwender bedeutet.
Darüberhinaus soll es auch einer Mehrzahl von individuellen Anwendern
möglich sein, ohne eine Kalibrierbelastung das System zur Blickrichtungs
bestimmung benutzen zu können. Neben einer verringerten Belastung für den
Anwender ist auch eine verringerte Belastung für das Messsystem
anzustreben, was bedeutet, dass die Kalibrierung ohne großen
Rechenaufwand oder zusätzliche aufwendige Systemkomponenten
umzusetzen ist.
Zur Lösung dieser Aufgabe ist deshalb bei einem rechnerunterstützten
Verfahren zur berührungslosen, videobasierten Blickrichtungsbestimmung
eines Anwenderauges für die augengeführte Mensch-Computer-Interaktion der
eingangs beschriebenen Art erfindungsgemäß vorgesehen, dass mit der
Kalibrierung ein Referenzaugen-Datensatz als Zusammenhang zwischen den
Augenvektoren eines beliebigen Referenzauges und dem zumindest einen
Fixationspunkt einmalig erstellt und abgespeichert wird und die Rekalibrierung
für jeden aktuellen Anwender bei einer willkürlichen Betrachtung zumindest
eines Attraktors als Bildobjekt ohne dessen aktive Beteiligung durch eine
selbstabgleichende Bestimmung der individuellen Augenvektoren des
jeweiligen Anwenderauges und unter Erstellung und Abspeicherung einer
Transformationsfunktion zur Anpassung der Referenzaugenvektoren an die
aktuellen Anwenderaugenvektoren erfolgt.
Bei dem erfindungsgemäßen Messverfahren werden Kalibrierung und
Rekalibrierung zeitlich völlig voneinander getrennt und auf unterschiedliche
Anwender bezogen. Die eigentliche Kalibrierung hat hierbei nunmehr den
Charakter eines initialen, referenzbildenden Vorgangs, der nur ein einziges Mal
zu Beginn der Messungen durchzuführen ist. Der dabei zu betreibende
Aufwand entspricht zwar dem Aufwand für bekannte Verfahren mit einer
zeitabhängigen Fixation von verschiedenen beliebigen Kalibrierpunkten unter
Berücksichtigung aller System- und Verfahrensparameter. Hiermit wird jedoch
nur eine einzige Person in der Rolle einer "Referenzperson" einmalig belastet.
Diese Referenzperson besitzt die "Referenzaugen", auf die das Messverfahren
durch die Ermittlung von den Referenzaugenvektoren zunächst eingestellt -
kalibriert - wird. Hierbei handelt es sich also nicht um sogenannte
"Standardaugen", die durchschnittlich ermittelte Standardabmessungen
aufweisen, sondern um Augen einer beliebigen Person.
Die individuelle Rekalibrierung entspricht dann einer Anpassung der referenz
bildenden Kalibrierung auf den individuellen Anwender. Hierbei wird dessen
physiologische Augengeometrie (Krümmungradii der Hornhaut und des
Augapfels) detektiert und berücksichtigt, indem die individuellen Anwender
augenvektoren bestimmt und in die Referenzaugenvektoren überführt werden.
Die Rekalibrierung erfolgt verfahrensimmanent ohne eine aktive Beteiligung
des Anwenders, sodass dieser nicht zusätzlich belastet wird. Zeit und
Konzentrationsaufwand werden so eingespart. Lästige und zeitraubende
Routinen, in denen der Anwender gezwungen ist, mit starrem Blick
hochkonzentriert in vorgegebener Reihenfolge auf eine Mehrzahl von
Fixationspunkten zu blicken, entfallen für den individuellen Anwender.
Trotzdem ist sicher gewährleistet, dass die Kalibrierdaten immer auf dem
neuesten Stand sind, sodass hochgenaue Messergebnisse erzielbar sind. Um
eine Mehrzahl von Augenvektoren in kürzester Zeit für die Transformation zu
erhalten, sind viele Reflexpunkte auf der Hornhaut erforderlich. Diese werden
bei nur einem Fixationspunkt ohne Belastung für den Anwender durch eine
entsprechende Anzahl von Infrarotlichtquellen erzeugt. Schaut der Anwender
unwillkürlich auf den Bildschirm, können so mehrere Augenvektoren zur
gleichen Zeit bestimmt werden. Dadurch wird die erforderliche Fixationszeit
wesentlich reduziert. Ein Attraktor, dessen Koordinaten dem System bekannt
sind, hilft dabei, den Blick des Anwenders auf den Bildschirm zu ziehen. Es
wird dabei davon ausgegangen, dass der Anwender, wenn er auf den
Bildschirm blickt, auch den Attraktor betrachtet. Dabei fühlt er sich weder
beansprucht noch gelangweilt, er folgt mehr einem "Neugierreflex".
Zusammenfassend gesehen ist die Rekalibrierung bei dem erfindungs
gemäßen Verfahren also kein expliziter Kalibriervorgang, bei dem der
Anwender aufgefordert wird, bewusst etwas zu tun, sondern vielmehr ein
Selbstabgleich in Form einer automatischen Auswertung der unwillkürlichen
Aktionen des Anwenders ohne dessen Belastung. Damit wird mit der Erfindung
ein "einfaches" Messverfahren - vergleichbar mit den Verfahren mit
standardisierter Kalibrierung - geschaffen, das aber die Messgenauigkeit eines
"aufwendigen" Messverfahrens - mit wiederholter Kalibrierung - aufweist.
Bei dem bekannten Verfahren, von dem die Erfindung ausgeht, erfolgt die
Rekalibrierung unter Inkaufnahme der Anwenderstörung grundsätzlich
dynamisch in Abhängigkeit von einer festgestellten Fehlerüberschreitung. Da
im Gegensatz zu dieser bekannten Rekalibrierung die Rekalibrierung bei dem
erfindungsgemäßen Verfahren dem individuellen Anwender nicht bewusst wird,
ist es vorteilhaft, wenn entsprechend einer Erfindungsweiterbildung die
Rekalibrierung zur Korrektur der systematischen Messfehler dynamisch erfolgt.
So ist sicher gewährleistet, dass sowohl für einen einzelnen Anwender bei
einer längeren Nutzungszeit, in der Ermüdungserscheinungen auftreten
können, als auch für verschiedene Anwender, die eine Anmeldung bei dem
System unterlassen haben, die Blickrichtungsbestimmung stets genau
kalibriert ist. Dabei sind die Zeitabstände der Wiederkehr der dynamischen
Rekalibrierung anwendungsspezifisch.
Nach einer nächsten Fortführung des erfindungsgemäßen Verfahrens, wird die
Transformationsfunktion als Mappingfunktion durch Anwendung der Least-
Square-Fitting-Technik ermittelt und abgespeichert. Bei der Least-Square-
Fitting (LSF)-Methode handelt es sich um eine allgemein bekannte Methode
(vgl. z. B. "Numerical Recipes in C", W. H. Press et al., Cambridge University
Press, 1990, Kapitel 14) zur Minimierung des quadratischen Fehlers eines
Gleichungssystems. Nähere Ausführungen hierzu sind im speziellen
Beschreibungsteil zu finden.
Weiterhin kann bei der Erfindung vorgesehen sein, dass ein oder mehrere
Attraktoren mit konstanter oder veränderlicher, insbesondere abnehmender
Größe und stationär oder zufallsweise sprungartig bewegt auf dem Bildschirm
darstellbar sind. Wie bereits weiter oben ausgeführt, haben Attraktoren nicht
den Charakter von einfachen Kalibrierpunkten, die den Betrachter schnell
langweilen. Sie sind vielmehr Darstellungen mit einem phantasiegeprägten
Charakter, die die Aufmerksamkeit des neugierigen Anwenders automatisch
auf sich ziehen. Dabei muss eine gegenständliche Darstellung nicht gegeben
sein. Eine Mehrzahl von Ausführungen ist denkbar, auch mit Veränderungen,
Variationen oder Kombinationen.
Alle genannten Verfahren zur Bestimmung der Blickrichtung können von einer
festen Kopfposition ausgehen und/oder Kopfbewegungen zulassen. Im Falle
einer erlaubten Kopfbewegung ist es daher erforderlich, dass nach einer
Fortführung des erfindungsgemäßen Verfahrens Kopfbewegungen, die eine
Änderung der Augenvektoren bewirken, bei der Messwertbestimmung durch
Miterfassung der aktuellen Kopfposition kompensiert werden. Die daraus
abgeleiteten Augenvektoren werden dann in Vektoren mit den festen
Bildschirmkoordinaten transformiert. Zu diesem Vorgehen existieren bereits
eine Reihe von bekannten Verfahren (vgl. insbesondere DE 197 36 995.2 A1,
DE 197 31 303 A1 (hier belegt mit dem Begriff einer "automatischen
Nachkalibrierung" bei Abstandsänderungen des Betrachterauges zum
Fixationspunkt durch Kopfbewegungen) oder auch den Aufsatz "Eye and gaze
tracking for visually controlled interactive stereoscopic displays" von Talmi, Liu;
Elsevier/Signal Processing: Image Communication 14 (1999) 799-810, Kap.
4.3.).
Neben dem erfindungsgemäßen Verfahren selbst wird auch eine Vorrichtung
zu dessen Durchführung beansprucht mit den für die vorgesehene Kalibrierung
erforderlichen System-Komponenten: (1) Blickrichtungs-Sensor und Infrarot
beleuchtung, (2) Blickdetektor, (3) Auswerter, (4) Attraktorerzeuger, (5)
Referenzdaten- und Blickrichtungsfunktionsspeicher, (6) Umwandler und
Mappingfunktionsspeicher, (7) Blickrichtungsermittler und (8) Bildschirm.
Bevorzugte Ausführungsformen zu den Systemkomponenten sind den
nachgeordneten Unteransprüchen zu entnehmen. Um Wiederholungen im
Zusammenhang mit dem Systemaufbau und der Funktion seiner einzelnen
Komponenten zu vermeiden, wird auf den anschließenden speziellen
Beschreibungsteil, insbesondere Fig. 3, verwiesen.
Das erfindungsgemäße Verfahren und eine bevorzugte Vorrichtung zu seiner
Durchführung werden nachfolgend anhand der schematischen Figuren näher
erläutert. Dabei zeigt:
Fig. 1 die Augengeometrie für das bekannte Prinzip der Cornea-
Reflex-Methode,
Fig. 2 ein Strukturbild des erfindungsgemäßen Verfahrens und
Fig. 3 ein Strukturbild der für die Kalibrierung erforderlichen
Systemkomponenten einer Messanordnung.
In der Fig. 1 ist ein vereinfachtes Modell zu Beschreibung des menschlichen
Auges dargestellt, an dem die Grundlagen zu dem erfindungsgemäßen
Verfahren nach der Cornea-Reflex-Methode näher beschrieben werden sollen.
Der Augapfel E ist nahezu eine Kugel mit einem Drehpunkt ZE. Die Hornhaut
(Cornea CA) liegt auf der vorderen Seite des Augapfels E und ihre Oberfläche
ist kugelförmig ausgebildet mit einem Radius r. Die Iris I ist modelliert als eine
Kreisscheibe mit einer zentralen Öffnung (Pupille P). Die optische Achse des
Auges E verbindet den Drehpunkt des Augapfels ZE und den Mittelpunkt ZP
der Pupille P und wird als Blicklinie VL bezeichnet, deren Richtung (sie zeigt
vom Drehpunkt ZE zum Pupillenmittelpunkt ZP) die Blickrichtung VD
beschreibt. Beim Wechseln der Blickrichtung VD rotiert der Augapfel E um
seinen Drehpunkt ZE. Der Fixationspunkt FP ist der Schnittpunkt der Blicklinie
VL eines Auges E mit der Oberfläche des angeblickten Attraktors A. Beim
normalen beidäugigen Sehen liegt der Fixationspunkt FP auch im Schnittpunkt
der Blicklinien VL beider Augen E. Es existiert bereits eine Reihe von
Verfahren zur Vermessung der Blickbewegung eines Auges; die Cornea-
Reflex-Methode ist die am weitesten verbreitete Methode zur berührungslosen
Blickrichtungsvermessung aus der Entfernung.
Bei der Cornea-Reflex-Methode wird die Tatsache benutzt, dass die Cornea
CA das einfallende Licht der Infrarotlichtquelle IRS reflektiert und der Cornea-
Reflex an der Cornea-Oberfläche als ein Glanzpunkt mit dem Öffnungswinkel
Θ gesehen wird Bei einer Blickänderung ändert sich der Augenvektor EV(EV =
κsinΘ mit Hypothenuse κ) zwischen dem Pupillenmittelpunkt ZP und dem
Reflexpunkt RP monoton zur Blickrichtung VD. Seine Größe hängt von der
Geometrie des Anwenderauges UE ab (Krümmungsradius r der Cornea CA,
Radius R des Augapfels E) und kann durch eine monotone Funktion VDF
(Blickrichtungsfunktion) beschrieben werden. Die Blickrichtungsfunktion VDF
läßt sich durch die Kalibrierung ermitteln.
Die Fig. 2 zeigt ein Strukturdiagramm das Zusammenspiel der wesentlichen
Verfahrensschritte für das erfindungsgemäße Messverfahren zur Bestimmung
der Blickrichtung. Mittels mehrerer Infrarotlichtquellen IRS werden dazu auf der
Hornhaut CA eines Anwenderauges UE mehrere Reflexpunkte RP erzeugt.
Diese werden dann von einem Blickrichtungssensor VS (Blickkamera)
eingefangen, der die Koordinaten an einen rechnergestützten Blickdetektor
VDE zur Bestimmung der aktuellen Blickrichtung VD weiterleitet. Von einem
Augenstellungssensor ES (Eye- bzw. Headtracker) wird die Kopf- bzw. Augen
positon HP registriert und deren Koordinaten an einen rechnergestützten
Augendetektor EDE weitergeleitet. Der Blickdetektor VDE ermittelt daraus
dann die Augenvektoren EV und danach über die bei einer Kalibrierung C
ermittelte Blickrichtungsfunktion VDF den vom Anwender UE aktuell auf einem
Bildschirm M angeblickten Fixationspunkt FP. Die beiden Detektoren VDE und
EDE sind datengekoppelt. Dadurch kann in die Blickrichtungsbestimmung
mittels einer entsprechenden Transformationsfunktion automatisch eine
Kompensation von Kopfbewegungen aufgrund der vom Augendetektor EDE
ermittelten absoluten Augenkoordinaten eingehen.
Der in der Fig. 2 dargestellte Monitor M ist im gewählten Ausführungsbeispiel
ein autostereoskopischer Bildschirm für räumliches Sehen ohne Hilfsmittel.
Derartige Bildschirme können für augenmausgeführte Systeme eingesetzt
werden. Sie müssen jedoch genau auf die Anwenderaugen UE ausgerichtet
sein, um den Tiefeneindruck zu gewährleisten. Dazu kann der Bildschirm M
augenstellungsabhängig nachgeführt werden. Die erforderlichen Bildinhalte
(verschiedene Perspektiven, Streifenrasterbelegung) werden von einer
Recheneinheit COM ermittelt.
Wesentlicher Bestandteil der Verfahrens ist die initiale, referenzbezogene
Kalibrierung C. Hier wird die Transformationsfunktion zwischen den
gemessenen Augenvektoren EV des Referenzauges RE und den angeblickten
Fixationspunkten FP auf dem Bildschirm M ermittelt (referenzbezogene
Blickrichtungsfunktion VDF). Dazu werden in einem initialen Messdurchlauf vor
Beginn der eigentlichen Messungen mit dem Blickdetektor VDE die Pupillen
mittelpunkte ZP und die Reflexionspunkte RP auf der Hornhaut CA eines
beliebigen Referenzauges RE detektiert, die von den entsprechenden
Infrarotlichtquellen IRS erzeugt werden, während der Referenzanwender RE
auf Kalibrierpunkte CP auf dem Bildschirm M blickt. Die Infrarotlichtquellen IRS
sind neben der Blickmesskamera VS und im dargestellten Ausführungsbeispiel
auch um den Bildschirm M herum angeordnet, sodass eine entsprechende
Anzahl von Reflexpunkten RP auf dem Referenz- bzw. später Anwenderauge
REUE entstehen. Je höher die Anzahl der unterschiedlichen Kalibrierpunkte
CP ist, die der Referenzanwender RE für eine vorbestimmte Dauer fixieren
muss, desto genauer erfolgt die initiale Messwertkalibrierung. Die Messwerte
zur Ermittlung der Referenzaugenvektoren EVR durchlaufen dabei dieselbe
Rechenroutine wie oben beschrieben. Es wird die auf die Referenzaugen RE
bezogene Blickrichtungsfunktion VDF(CP, EVR) ermittelt.
Nach der Durchführung der initalen, referenzbezogenen Kalibrierung C ist das
Messsystem zunächst auf das Referenzauge RE kalibriert. Zu Beginn der
Nutzung des Messsystems durch einen individuellen Anwender UE erfolgt
dann ein automatischer Abgleich der Referenzdaten aufgrund einer
systemimmanenten Rekalibrierung RC. Dabei wird das Anwenderauge UE mit
einer Vielzahl von Infrarotlichtquellen IRS, die um den Monitor M herum
angeordnet sind, bestrahlt, sodass eine entsprechende Anzahl von
Reflexpunkten RP auf dem Anwenderauge UE entstehen. Der Anwender UE
muss zu deren Detektion nurmehr unwillkürlich kurzzeitig auf einen einzigen
Attraktor A auf dem Bildschirm M schauen. Dabei werden die individuellen
Augenvektoren EVU ermittelt und in die Referenzaugenvektoren EVR
transformiert. Die dadurch bestimmbare Transformationsfunktion wird als
Mappingfunktion MF bezeichnet. Das Messsystem ist nunmehr auf den
aktuellen Anwender UE rekalibriert und bereit, genaueste Ergebnisse bei der
Vermessung der aktuellen Blickrichtung VD des Anwenders UE zu liefern,
sodass eine hohe Ortsauflösung bei der Blickpunktbestimmung erreicht
werden kann. Während der Messungen werden die momentan angeblickten
Fixationspunkte FP auf dem Bildschirm M dann mittels der Blickrichtungs
funktion VDF und der Mappingfunktion MF bestimmt: FP = VDF(MF(EVU)).
Im Zusammenhang mit der Beschreibung des Kalibriervorganges soll an dieser
Stelle noch vertiefend auf die dem Vorgang zugrunde liegende Least-Square-
Fitting-Technik (LSF-Technik) eingegangen werden.
Augenvektor EV mit den Komponenten (ax, ay), gemessen auf dem Augenbild.
Fixationspunkt FP (oder Kalibrierpunkt) (fx, fy), gemessen auf dem Bildschirm
Blickrichtungsfunktion VDF: erstellt den Zusammenhang zwischen EV und FP,
Eigenschaften von VDF: monoton und eindeutig.
- A) Die VDF ist eine lineare Funktion. Der Zusammenhang lässt sich dann
formulieren zu
fx = c0 + c1ax + c2ay und
fy = c3 + c4ax + c5ay
Die Koeffizienten {ci}, i = 0, . . . ., 5, lassen sich im Kalibriervorgang mit einer
entsprechenden Anzahl von Kalibrierpunkten bestimmen.
oder
- A) Die VDF ist ein quadratische Funktion. Der Zusammenhang lässt sich dann
formulieren zu
fx = c0 + c1ax + c2ay + c3axay + c4ax 2 + c5ay 2 und
fy = c6 + c7ax + c8ay + c9axay + c10ax 2 + c11ay 2
Die Koeffizienten {ci}, i = 0, . . . ., 11, lassen sich wiederum im Kalibriervorgang
mit einer entsprechenden größeren Anzahl von Kalibrierpunkten bestimmen.
Für die Annahme I) sind mindestens 3 Messpunkte erforderlich (2 Gleichungen
× 3 Messpunkte für 6 Gleichungen mit 6 Unbekannten). Wegen auftretendem
Messrauschen sind jedoch mehr als 3 Mess- bzw. Kalibrierpunkte zu wählen
(im gewählten Beispiel sind es 5 Punkte).
Unter der Annahme der Bekanntheit der EV(axj, ayj) und (fxj, fyj) werden die FP
bzw. CP berechnet:
c0 + c1axj + c2ayj = f'xy ≠ fxj j = 1, . . . . 5
c3 + c4axy + c5ayj = f'yj ≠ fyj
Die LSF besagt nun, dass der quadratische Fehler minimiert werden soll:
F = Σ(j = 1 . . 5)(c0 + c1axj + c2ayj - fxj)2 + Σ(j = 1 . . 5)(c3 + c4axj + c5ayj - fyj)2
Die {ci}, i = 0, . . . ., 5 sind bei bekannten EV zu bestimmen. Dazu wird F nach den
Koeffizienten ci abgeleitet, die durch Lösung der Gleichungssysteme (z. B. nach
der "Singular Value Decomposition"-Methode) dann bestimmbar sind. Für die
Annahme II sind mindestens 6 Messpunkte erforderlich. Der Lösungsweg ist
identisch.
Dieselbe Technik wird auch angewendet, um die Mappingfunktion MF, die die
Daten EVU an die EVR anpasst, zu berechnen. Dabei sind (ax, ay) die
Komponenten des Referenzaugenvektors (EVR), gemessen auf dem
Augenbild der Referenzperson, und (fx, fy) die Komponenten des
Anwenderaugenvektors (EVU), gemessen auf dem Augenbild des Anwenders.
Die Mappingfunktion MF erstellt dann den Zusammenhang zwischen EVR und
EVU, der durch die Koeffizienten {ci} zu bestimmen ist.
In Fig. 3 ist ein Strukturbild der für die Kalibrierung erforderlichen
Systemkomponenten einer bevorzugten Messanordnung dargestellt. Im
folgenden sollen die einzelnen Komponenten auch im Hinblick auf vorteilhafte
Vorrichtungsausgestaltungen gemäß den Unteransprüchen näher erläutert
werden.
Zur Messung der Blickrichtung VD wird als Blickrichtungssensor VS eine
Videokamera mit langer Brennweite verwendet. Sie erfasst das Auge
formatfüllend. Die Lichtquellen IRS sind neben der Kamera und/oder um den
Bildschirm M herum fest montiert. Im dargestellten System wird eine
Infrarotlichtquelle IRS neben der Kamera und weitere vier werden neben dem
Bildschirm M (an den 2, 4, 8 und 10 Uhrzeiger-Positionen) platziert. Die
günstigste Platzierung sowie auch die Anzahl der Lichtquellen IRS hängt von
der Anwendung ab und kann variiert werden.
Der Blickdetektor VDE hat die Aufgabe, aus den Bilddaten des
Blickrichtungssensors die Augenvektoren (EVR, EVU) zu bestimmen. Es wird
die bekannte Cornea-Reflex Methode verwendet. Die Mittelpunkte der Pupille
und der Glanzpunkte im Kamerabild werden detektiert. Von dem
Pupillenmittelpunkt ZP aus wird zu jedem Glanzmittelpunkt RP der
Augenvektor EV bestimmt. Es können zur gleichen Zeit maximal so viele
Augenvektoren EV wie verwendete Infrarotlichtquellen IRS bestimmt werden.
Bei der erstmaligen Benutzung des Systems sowie nach Änderungen der
Systemkonfiguration müssen die Referenzaugenvektoren EVR neu gemessen
werden (Komponente 2'). In einem Kalibriervorgang, in dem die Referenz
person RE nacheinander auf verschiedene Kalibrierpunkte CP schaut, wird die
Blickrichtungsfunktion VDF ermittelt. Die Funktion VDF wird im einem
Referenzdatenspeicher (Komponente 5) gespeichert. Während ein Anwender
UE das System benutzt, ermittelt der Blickdetektor VDE die Augenvektoren
EVU des Anwenders UE (Komponente 2).
Der Auswerter vergleicht die Referenzaugenvektoren EVR mit den
Anwenderaugenvektoren EVU und entscheidet, ob der Anwender in die
Bildschirmrichtung blickt. Wenn nein (EVU und EVR unterscheiden sich
deutlich), werden die EVU zurückgewiesen. Wenn ja (EVU weichen nur
geringfügig von den EVR ab), wird hier angenommen, dass der Blick den
Attraktor A auf dem Bildschirm M fixiert. Die EVU werden dann an die weitere
Bearbeitungsstufe (Komponente 6) weitergeleitet.
Der Attraktor A ist ein graphisches Objekt ("Reizobjekt"), das einen oder
mehrere visuelle Reizpunkte auf dem Bildschirm M erzeugt und unwillkürlich
den Blick des Anwenders UE auf sich zieht. Das Reizobjekt sollte sich
sprungartig auf dem Bildschirm M bewegen. Es sollte am Anfang größer sein,
um die Aufmerksamkeit auf sich zu ziehen, und dann kleiner werden, um die
Messgenauigkeit zu erhöhen. Seine aktuelle Position (x, y) auf dem Bildschirm
wird an den Auswerter (3) und den Umwandler (6) weitergegeben.
Hier sind die Augenvektoren EVR des Referenzauges RE für mehrere
vorgegebene Augenstellungen gespeichert. Die entsprechende Kopfposition
HP muss bekannt sein (fixiert oder on-line getrackt). Die Referenzaugen
vektoren EVR für eine beliebige Augenstellung werden aus den bekannten
Vektoren interpoliert. Aus den EVR wird die Blickrichtungsfunktion VDF
ermittelt.
Der Umwandler transformiert die Anwender-Augenvektoren EVU in die
Referenz-Augenvektoren EVR, die bereits im System als Referenzdaten
gespeichert sind (5). Hier wird die Least-Square-Fitting Technik angewendet,
um die Daten EVU an die EVR anzupassen. Die dabei ermittelte
Mappingfunktion MF, deren Form an die Systemparameter (Anzahl der
Infrarotlichtquellen IRS und gewählte Art des Attraktors A) anzupassen ist, wird
gespeichert. Die Referenz-Augenvektoren EVR liefern Werte für die
Augenstellung, in der das Auge auf das Reizobjekt blickt und bei der die
Anwender-Augenvektoren EVU gemessen werden. Die Art und Weise der
LSF-Technik sowie die Menge der Stichproben von Augenvektoren sind nicht
festgelegt. Es ist sinnvoll, dass sie jeweils aus mehreren Messungen stammen.
Der Blickrichtungsermittler VDC hat die Aufgabe, die ermittelten Augen
vektoren EV mit Hilfe der Blickrichtungsfunktion VDF in die angeblickten
Fixationspunkte FP und damit in die aktuelle Blickrichtung VD des aktuellen
Anwenders umzurechnen. Zur Umrechnung können ein oder mehrere
Augenvektoren verwendet werden. Die entsprechende Blickrichtungsfunktion
VDF, die im System gespeichert (5) und mittels des Referenzauges RE
ermittelt wird, ist anzuwenden.
Auf dem Bildschirm M werden die unterschiedlichen Fixations- und
Kalibrierpunkte FP, CP sowie Attraktoren A dargestellt. Er ist generelles Ziel
der Blickrichtung des Anwenders UE und kann als autostereoskopischer 3D-
Bildschirm ausgeführt sein.
A Attraktor
C Kalibrierung
CA Cornea (Hornhaut)
COM Recheneinheit
CP Kalibrierpunkt
E Augapfel
EDE Augendetektor
ES Augenstellungssensor
EV Augenvektor
EVR Referenzaugenvektor
EVU Anwenderaugenvektor
FP Fixationspunkt
HP Kopf- bzw. Augenpositon
I Iris
IRS Infrarotlichtquelle
M Bildschirm
MF Mappingfunktion
P Pupille
r Radius von CA
R Radius von E
RC Rekalibrierung
RE Referenzauge, Referenzanwender
RP Reflexpunkt
UE Anwenderauge, Anwender
VD Blickrichtung
VDE Blickdetektor
VDF Blickrichtungsfunktion
VL Blicklinie
VS Blickrichtungssensor
VDC Blickrichtungsermittler
ZE Drehpunkt von E
ZP Pupillenmittelpunkt
Θ Öffnungswinkel
κ Hypothenuse
C Kalibrierung
CA Cornea (Hornhaut)
COM Recheneinheit
CP Kalibrierpunkt
E Augapfel
EDE Augendetektor
ES Augenstellungssensor
EV Augenvektor
EVR Referenzaugenvektor
EVU Anwenderaugenvektor
FP Fixationspunkt
HP Kopf- bzw. Augenpositon
I Iris
IRS Infrarotlichtquelle
M Bildschirm
MF Mappingfunktion
P Pupille
r Radius von CA
R Radius von E
RC Rekalibrierung
RE Referenzauge, Referenzanwender
RP Reflexpunkt
UE Anwenderauge, Anwender
VD Blickrichtung
VDE Blickdetektor
VDF Blickrichtungsfunktion
VL Blicklinie
VS Blickrichtungssensor
VDC Blickrichtungsermittler
ZE Drehpunkt von E
ZP Pupillenmittelpunkt
Θ Öffnungswinkel
κ Hypothenuse
Claims (9)
1. Rechnerunterstütztes Verfahren zur berührungslosen, videobasierten
Blickrichtungsbestimmung eines Anwenderauges (UE) für die augengeführte
Mensch-Computer-Interaktion nach dem Cornea-Reflex-Verfahren, mit dem
blickrichtungsabhängige Augenvektoren (EV) zwischen dem detektierbaren
Pupillenmittelpunkt (ZP) und durch gerichtete Infrarotbeleuchtung (IRS)
erzeugbaren, ebenfalls detektierbaren Reflexpunkten (RP) auf der Augenhorn
haut (CA) bestimmt werden, mit einer Kalibrierung (C) auf zumindest einen auf
dem Bildschirm (M) darstellbaren Kalibrierpunkt (CP) zur Bestimmung einer
Blickrichtungsfunktion (VDF) und einer in Abhängigkeit von der Erzeugung von
Bildobjekten und mehreren Reflexpunkten (RP) durchzuführenden
Rekalibrierung (RC) zur Korrektur systematischer Messfehler,
dadurch gekennzeichnet, dass
mit der Kalibrierung (C) ein Referenzaugen-Datensatz als Zusammenhang
zwischen den Augenvektoren (EVR) eines beliebigen Referenzauges (RE) und
dem zumindest einen Kalibrierpunkt (CP) einmalig erstellt und abgespeichert
wird und die Rekalibrierung (RC) für jeden aktuellen Anwender (UE) bei einer
willkürlichen Betrachtung zumindest eines Attraktors (A) als Bildobjekt ohne
dessen aktive Beteiligung durch eine selbstabgleichende Bestimmung der
individuellen Augenvektoren (EVU) des jeweiligen Anwenderauges (UE) und
unter Erstellung und Abspeicherung einer Transformationsfunktion (MF) zur
Anpassung der Referenzaugenvektoren (EVR) an die aktuellen Anwender
augenvektoren (EVU) erfolgt.
2. Verfahren nach Anspruch 1,
dadurch gekennzeichnet, dass
die Rekalibrierung (RC) zur Korrektur der systematischen Messfehler
dynamisch erfolgt.
3. Verfahren nach Anspruch 1 oder 2,
dadurch gekennzeichnet, dass
die Transformationsfunktion als Mappingfunktion (MF) durch Anwendung der
Least-Square-Fitting-Technik ermittelt und abgespeichert wird.
4. Verfahren nach mindestens einem der Ansprüche 1 bis 3,
dadurch gekennzeichnet, dass
ein oder mehrere Attraktoren (A) mit konstanter oder veränderlicher,
insbesondere abnehmender Größe und stationär oder zufallsweise sprungartig
bewegt auf dem Bildschirm (M) darstellbar sind.
5. Verfahren nach mindestens einem der Ansprüche 1 bis 4,
dadurch gekennzeichnet, dass
Kopfbewegungen, die eine Änderung der Augenvektoren (EV) bewirken, bei
der Messwertbestimmung durch Miterfassung der aktuellen Kopfposition (HP)
kompensiert werden.
6. Vorrichtung zur Durchführung des Verfahrens zur kontaktlosen,
videobasierten Blickrichtungsbestimmung eines Anwenderauges (UE) für die
augengeführte Mensch-Computer-Interaktion nach dem Cornea-Reflex-
Verfahren, mit dem blickrichtungsabhängige Augenvektoren (EV) zwischen
dem detektierbaren Pupillenmittelpunkt (ZP) und durch gerichtete
Infrarotbeleuchtung (IRS) erzeugbaren, ebenfalls detektierbaren Reflexpunkten
(RP) auf der Augenhornhaut (CA) bestimmt werden, mit einer Kalibrierung (C)
auf zumindest einen auf dem Bildschirm (M) darstellbaren Kalibrierpunkt (CP)
zur Bestimmung einer Blickrichtungsfunktion (VDF) und einer in Abhängigkeit
von der Erzeugung von Bildobjekten und mehreren Reflexpunkten (RP)
durchzuführenden Rekalibrierung (RC) zur Korrektur systematischer
Messfehler nach mindestens einem der Ansprüche 1 bis 5 mit den für die
Kalibrierung (C, RC) erforderlichen System-Komponenten:
- 1. Blickrichtungs-Sensor (VS) und Infrarotbeleuchtung (IRS)
- 2. Blickdetektor (VDE)
- 3. Auswerter (EVU, EVR)
- 4. Attraktorerzeuger (A)
- 5. Referenzdaten- und Blickrichtungsfunktionsspeicher (RE, VDF)
- 6. Umwandler und Mappingfunktionsspeicher (MF)
- 7. Blickrichtungsermittler (VDC)
- 8. Bildschirm (M)
7. Anordnung nach Anspruch 6,
dadurch gekennzeichnet, dass
als Blickrichtungssensor (VS) eine Videokamera mit langer Brennweite und
einer formatfüllenden Augenerfassung verwendet wird.
8. Anordnung nach Anspruch 6 oder 7,
dadurch gekennzeichnet, dass
das die Infrarotbeleuchtung aus einer Mehrzahl einzelner Infrarotlichtquellen
(IRS) besteht, die neben dem Blickrichtungssensor (VS) und/oder neben dem
Bildschirm (M) angeordnet sind.
9. Anordnung nach Anspruch 8,
dadurch gekennzeichnet, dass
die einzelnen Infrarotlichtquellen (IRS) an gleichmäßig verteilten Positionen
rund um den Bildschirm (M) angeordnet sind.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19953835A DE19953835C1 (de) | 1999-10-30 | 1999-10-30 | Rechnerunterstütztes Verfahren zur berührungslosen, videobasierten Blickrichtungsbestimmung eines Anwenderauges für die augengeführte Mensch-Computer-Interaktion und Vorrichtung zur Durchführung des Verfahrens |
PCT/DE2000/003843 WO2001033323A2 (de) | 1999-10-30 | 2000-10-27 | Rechnerunterstütztes verfahren zur berührungslosen, videobasierten blickrichtungsbestimmung eines anwenderauges für die augengeführte mensch-computer-interaktion und vorrichtung zur durchführung des verfahrens |
US10/129,217 US7538744B1 (en) | 1999-10-30 | 2000-10-27 | Method and apparatus for computer-aided determination of viewer's gaze direction |
DE50002018T DE50002018D1 (de) | 1999-10-30 | 2000-10-27 | Rechnerunterstütztes verfahren zur berührungslosen, videobasierten blickrichtungsbestimmung eines anwenderauges für die augengeführte mensch-computer-interaktion und vorrichtung zur durchführung des verfahrens |
EP00987061A EP1228414B1 (de) | 1999-10-30 | 2000-10-27 | Rechnerunterstütztes verfahren zur berührungslosen, videobasierten blickrichtungsbestimmung eines anwenderauges für die augengeführte mensch-computer-interaktion und vorrichtung zur durchführung des verfahrens |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19953835A DE19953835C1 (de) | 1999-10-30 | 1999-10-30 | Rechnerunterstütztes Verfahren zur berührungslosen, videobasierten Blickrichtungsbestimmung eines Anwenderauges für die augengeführte Mensch-Computer-Interaktion und Vorrichtung zur Durchführung des Verfahrens |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19953835C1 true DE19953835C1 (de) | 2001-05-23 |
Family
ID=7928403
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19953835A Expired - Fee Related DE19953835C1 (de) | 1999-10-30 | 1999-10-30 | Rechnerunterstütztes Verfahren zur berührungslosen, videobasierten Blickrichtungsbestimmung eines Anwenderauges für die augengeführte Mensch-Computer-Interaktion und Vorrichtung zur Durchführung des Verfahrens |
DE50002018T Expired - Lifetime DE50002018D1 (de) | 1999-10-30 | 2000-10-27 | Rechnerunterstütztes verfahren zur berührungslosen, videobasierten blickrichtungsbestimmung eines anwenderauges für die augengeführte mensch-computer-interaktion und vorrichtung zur durchführung des verfahrens |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE50002018T Expired - Lifetime DE50002018D1 (de) | 1999-10-30 | 2000-10-27 | Rechnerunterstütztes verfahren zur berührungslosen, videobasierten blickrichtungsbestimmung eines anwenderauges für die augengeführte mensch-computer-interaktion und vorrichtung zur durchführung des verfahrens |
Country Status (4)
Country | Link |
---|---|
US (1) | US7538744B1 (de) |
EP (1) | EP1228414B1 (de) |
DE (2) | DE19953835C1 (de) |
WO (1) | WO2001033323A2 (de) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005021314A1 (de) * | 2003-08-27 | 2005-03-10 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. | Verfahren zur anzeigesteuerung von unterschiedlichen informationen in einem fahrzeug und optoakustische informationseinheit |
US7533988B2 (en) | 2004-02-17 | 2009-05-19 | National University Corporation Shizuoka University | Eyeshot detection device using distance image sensor |
DE102013207528A1 (de) * | 2013-04-25 | 2014-10-30 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Interagieren mit einem auf einer Datenbrille angezeigten Objekt |
DE102013012639A1 (de) * | 2013-07-26 | 2015-01-29 | Audi Ag | Verfahren und System zum Betreiben wenigstens einer Vorrichtung |
Families Citing this family (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6578962B1 (en) | 2001-04-27 | 2003-06-17 | International Business Machines Corporation | Calibration-free eye gaze tracking |
GB0119859D0 (en) | 2001-08-15 | 2001-10-10 | Qinetiq Ltd | Eye tracking system |
US7762665B2 (en) | 2003-03-21 | 2010-07-27 | Queen's University At Kingston | Method and apparatus for communication between humans and devices |
US8292433B2 (en) | 2003-03-21 | 2012-10-23 | Queen's University At Kingston | Method and apparatus for communication between humans and devices |
GB2412431B (en) * | 2004-03-25 | 2007-11-07 | Hewlett Packard Development Co | Self-calibration for an eye tracker |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US9658473B2 (en) | 2005-10-07 | 2017-05-23 | Percept Technologies Inc | Enhanced optical and perceptual digital eyewear |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US8066375B2 (en) * | 2005-10-10 | 2011-11-29 | Tobii Technology Ab | Eye tracker having an extended span of operating distances |
WO2010015962A1 (en) * | 2008-08-07 | 2010-02-11 | Koninklijke Philips Electronics N. V. | Method of and system for determining a head-motion/gaze relationship for a user, and an interactive display system |
EP2389095B1 (de) * | 2009-01-26 | 2014-10-01 | Tobii Technology AB | Nachweis des blickpunkts mit unterstützung durch optische bezugssignale |
US20100295782A1 (en) | 2009-05-21 | 2010-11-25 | Yehuda Binder | System and method for control based on face ore hand gesture detection |
JP5402293B2 (ja) | 2009-06-22 | 2014-01-29 | ソニー株式会社 | 頭部装着型ディスプレイ、及び、頭部装着型ディスプレイにおける画像表示方法 |
CN103124943A (zh) * | 2010-06-10 | 2013-05-29 | 沃尔沃拉斯特瓦格纳公司 | 基于车辆的显示系统和用于操作其的方法 |
US8639020B1 (en) | 2010-06-16 | 2014-01-28 | Intel Corporation | Method and system for modeling subjects from a depth map |
US11048333B2 (en) | 2011-06-23 | 2021-06-29 | Intel Corporation | System and method for close-range movement tracking |
JP6074170B2 (ja) | 2011-06-23 | 2017-02-01 | インテル・コーポレーション | 近距離動作のトラッキングのシステムおよび方法 |
US8885882B1 (en) * | 2011-07-14 | 2014-11-11 | The Research Foundation For The State University Of New York | Real time eye tracking for human computer interaction |
CA2750287C (en) | 2011-08-29 | 2012-07-03 | Microsoft Corporation | Gaze detection in a see-through, near-eye, mixed reality display |
US9323325B2 (en) | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
US9025252B2 (en) | 2011-08-30 | 2015-05-05 | Microsoft Technology Licensing, Llc | Adjustment of a mixed reality display for inter-pupillary distance alignment |
KR20140059213A (ko) | 2011-08-30 | 2014-05-15 | 마이크로소프트 코포레이션 | 홍채 스캔 프로파일링을 이용하는 헤드 마운티드 디스플레이 |
US9213163B2 (en) | 2011-08-30 | 2015-12-15 | Microsoft Technology Licensing, Llc | Aligning inter-pupillary distance in a near-eye display system |
US8998414B2 (en) | 2011-09-26 | 2015-04-07 | Microsoft Technology Licensing, Llc | Integrated eye tracking and display system |
DE102011055967B4 (de) | 2011-12-02 | 2016-03-10 | Seereal Technologies S.A. | Messverfahren und Vorrichtung zur Durchführung des Messverfahrens |
US9364319B2 (en) * | 2012-09-25 | 2016-06-14 | Valdemar Portney | Refractive-diffractive switchable optical element |
EP2834722A1 (de) * | 2012-04-02 | 2015-02-11 | Thomson Licensing | Verfahren zur kalibrierung einer freien blickverfolgung mittels einer kostengünstiger kamera |
US9477303B2 (en) | 2012-04-09 | 2016-10-25 | Intel Corporation | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
JP5689850B2 (ja) * | 2012-05-25 | 2015-03-25 | 株式会社ソニー・コンピュータエンタテインメント | 映像解析装置、映像解析方法、および注視点表示システム |
CN105247447B (zh) | 2013-02-14 | 2017-11-10 | 脸谱公司 | 眼睛跟踪校准系统及方法 |
US8994652B2 (en) * | 2013-02-15 | 2015-03-31 | Intel Corporation | Model-based multi-hypothesis target tracker |
US11181740B1 (en) | 2013-03-15 | 2021-11-23 | Percept Technologies Inc | Digital eyewear procedures related to dry eyes |
WO2015066475A1 (en) * | 2013-10-31 | 2015-05-07 | The University of North Carlina at Chapel Hill | Methods, systems, and computer readable media for leveraging user gaze in user monitoring subregion selection systems |
US9760772B2 (en) * | 2014-03-20 | 2017-09-12 | Lc Technologies, Inc. | Eye image stimuli for eyegaze calibration procedures |
US9785233B2 (en) | 2014-04-11 | 2017-10-10 | Facebook, Inc. | Systems and methods of eye tracking calibration |
WO2016075532A1 (en) | 2014-11-14 | 2016-05-19 | The Eye Tribe Aps | Dynamic eye tracking calibration |
DE102015204283A1 (de) * | 2015-03-10 | 2016-09-15 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Erfassung der Blickrichtung einer Person |
JP6553418B2 (ja) * | 2015-06-12 | 2019-07-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 表示制御方法、表示制御装置及び制御プログラム |
US10016130B2 (en) | 2015-09-04 | 2018-07-10 | University Of Massachusetts | Eye tracker system and methods for detecting eye parameters |
KR102463169B1 (ko) | 2015-09-07 | 2022-11-04 | 삼성전자주식회사 | 시점 추적 방법 및 장치 |
US10409368B2 (en) * | 2016-07-27 | 2019-09-10 | Fove, Inc. | Eye-gaze detection system, displacement detection method, and displacement detection program |
CN106339087B (zh) * | 2016-08-29 | 2019-01-29 | 上海青研科技有限公司 | 一种基于多维坐标的眼球追踪方法及其装置 |
CN106598258B (zh) * | 2016-12-28 | 2019-04-16 | 北京七鑫易维信息技术有限公司 | 注视点映射函数确定方法及装置、注视点确定方法及装置 |
US20190018485A1 (en) * | 2017-07-17 | 2019-01-17 | Thalmic Labs Inc. | Dynamic calibration systems and methods for wearable heads-up displays |
KR102476757B1 (ko) * | 2017-12-21 | 2022-12-09 | 삼성전자주식회사 | 반사를 검출하는 장치 및 방법 |
US11347308B2 (en) * | 2019-07-26 | 2022-05-31 | Samsung Electronics Co., Ltd. | Method and apparatus with gaze tracking |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5220361A (en) * | 1991-06-05 | 1993-06-15 | Allergan Humphrey | Gaze tracking for field analyzer |
US5634141A (en) * | 1992-09-07 | 1997-05-27 | Canon Kabushiki Kaisha | Visual axis detection device capable of reducing detection errors due to variations of eyes among individuals |
US5678066A (en) * | 1994-01-31 | 1997-10-14 | Nikon Corporation | Camera with a visual line detection system |
DE19731303A1 (de) * | 1997-07-13 | 1999-02-04 | Smi Senso Motoric Instr Gmbh | Verfahren und Vorrichtung zum kontaktlosen, helmfreien Messen der Blickrichtung von Augen bei größeren und schnelleren Kopf- und Augenbewegungen |
US5875121A (en) * | 1996-08-06 | 1999-02-23 | Hewlett-Packard Company | Register selection system and method |
DE19736995A1 (de) * | 1997-08-26 | 1999-03-04 | Hertz Inst Heinrich | Vorrichtung zum Bestimmen eines Fixationspunktes |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0055338A1 (de) | 1980-12-31 | 1982-07-07 | International Business Machines Corporation | Augengesteuerte Anwendermaschine zum Informationsaustausch |
GB2116334B (en) * | 1982-03-04 | 1985-09-18 | Standard Telephones Cables Ltd | Eye follower |
US4973149A (en) * | 1987-08-19 | 1990-11-27 | Center For Innovative Technology | Eye movement detector |
JPH06304142A (ja) | 1993-04-22 | 1994-11-01 | Canon Inc | 視線検出装置 |
JP2501288B2 (ja) * | 1993-06-21 | 1996-05-29 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 注視点推定装置 |
JP3396062B2 (ja) * | 1993-08-26 | 2003-04-14 | オリンパス光学工業株式会社 | 画像表示装置 |
US5471542A (en) * | 1993-09-27 | 1995-11-28 | Ragland; Richard R. | Point-of-gaze tracker |
JP3058004B2 (ja) * | 1994-03-23 | 2000-07-04 | キヤノン株式会社 | 目視制御画像表示装置 |
JPH086708A (ja) * | 1994-04-22 | 1996-01-12 | Canon Inc | 表示装置 |
US6373961B1 (en) * | 1996-03-26 | 2002-04-16 | Eye Control Technologies, Inc. | Eye controllable screen pointer |
JPH09274144A (ja) * | 1996-04-02 | 1997-10-21 | Canon Inc | 画像表示装置 |
US6351273B1 (en) * | 1997-04-30 | 2002-02-26 | Jerome H. Lemelson | System and methods for controlling automatic scrolling of information on a display or screen |
US6091378A (en) * | 1998-06-17 | 2000-07-18 | Eye Control Technologies, Inc. | Video processing methods and apparatus for gaze point tracking |
US6348877B1 (en) * | 1999-06-17 | 2002-02-19 | International Business Machines Corporation | Method and system for alerting a pilot to the location of other aircraft |
-
1999
- 1999-10-30 DE DE19953835A patent/DE19953835C1/de not_active Expired - Fee Related
-
2000
- 2000-10-27 WO PCT/DE2000/003843 patent/WO2001033323A2/de active IP Right Grant
- 2000-10-27 EP EP00987061A patent/EP1228414B1/de not_active Expired - Lifetime
- 2000-10-27 DE DE50002018T patent/DE50002018D1/de not_active Expired - Lifetime
- 2000-10-27 US US10/129,217 patent/US7538744B1/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5220361A (en) * | 1991-06-05 | 1993-06-15 | Allergan Humphrey | Gaze tracking for field analyzer |
US5634141A (en) * | 1992-09-07 | 1997-05-27 | Canon Kabushiki Kaisha | Visual axis detection device capable of reducing detection errors due to variations of eyes among individuals |
US5678066A (en) * | 1994-01-31 | 1997-10-14 | Nikon Corporation | Camera with a visual line detection system |
US5875121A (en) * | 1996-08-06 | 1999-02-23 | Hewlett-Packard Company | Register selection system and method |
DE19731303A1 (de) * | 1997-07-13 | 1999-02-04 | Smi Senso Motoric Instr Gmbh | Verfahren und Vorrichtung zum kontaktlosen, helmfreien Messen der Blickrichtung von Augen bei größeren und schnelleren Kopf- und Augenbewegungen |
DE19736995A1 (de) * | 1997-08-26 | 1999-03-04 | Hertz Inst Heinrich | Vorrichtung zum Bestimmen eines Fixationspunktes |
Non-Patent Citations (3)
Title |
---|
KORN, A.: "Bildverarbeitung durch das visuelle System" Springer-Verlag, 1982, S. 126 ff. * |
PASTOOR, Liu: "Augenmaus & Co - Entwicklung einer neuartigen Anwenderschnittstelle für Multimedia- Computer" ZMMS-Spektrum (ISBN 3-932490-52-5), 1999, Bd. 8, S. 56-70 * |
Talmi, Liu "Eye and gaze tracking for visually controlled interactive stereoscopic displays", Image Communication 14 (1999), S. 799-810 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005021314A1 (de) * | 2003-08-27 | 2005-03-10 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. | Verfahren zur anzeigesteuerung von unterschiedlichen informationen in einem fahrzeug und optoakustische informationseinheit |
US7533988B2 (en) | 2004-02-17 | 2009-05-19 | National University Corporation Shizuoka University | Eyeshot detection device using distance image sensor |
DE102013207528A1 (de) * | 2013-04-25 | 2014-10-30 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Interagieren mit einem auf einer Datenbrille angezeigten Objekt |
US9910506B2 (en) | 2013-04-25 | 2018-03-06 | Bayerische Motoren Werke Aktiengesellschaft | Method for interacting with an object displayed on data eyeglasses |
DE102013012639A1 (de) * | 2013-07-26 | 2015-01-29 | Audi Ag | Verfahren und System zum Betreiben wenigstens einer Vorrichtung |
DE102013012639B4 (de) | 2013-07-26 | 2018-10-25 | Audi Ag | Verfahren und System zum Betreiben wenigstens einer Vorrichtung |
Also Published As
Publication number | Publication date |
---|---|
EP1228414A2 (de) | 2002-08-07 |
WO2001033323A2 (de) | 2001-05-10 |
WO2001033323A3 (de) | 2001-12-27 |
DE50002018D1 (de) | 2003-06-05 |
US7538744B1 (en) | 2009-05-26 |
EP1228414B1 (de) | 2003-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19953835C1 (de) | Rechnerunterstütztes Verfahren zur berührungslosen, videobasierten Blickrichtungsbestimmung eines Anwenderauges für die augengeführte Mensch-Computer-Interaktion und Vorrichtung zur Durchführung des Verfahrens | |
DE69325448T2 (de) | Vorrichtung und verfahren für eine schnittstelle zur augenverfolgung. | |
Shih et al. | A novel approach to 3-D gaze tracking using stereo cameras | |
DE19983513B4 (de) | Verfahren für das Auswählen eines grafischen Objektes und System für die Steuerung einer Schnittstelle eines Rechnersystems hierfür | |
WO2015117906A1 (de) | 2d-bildanalysator | |
DE69923943T2 (de) | Verfahren und Vorrichtung zur Simulation eines okularen optischen Systems | |
DE60117432T2 (de) | Verfahren und Gerät zur Simulation eines optischen Okularsystems | |
WO2017211817A1 (de) | Bedienvorrichtung mit eyetrackereinheit und verfahren zum kalibrieren einer eyetrackereinheit einer bedienvorrichtung | |
EP3924710B1 (de) | Verfahren und vorrichtung zum vermessen der lokalen brechkraft und/oder der brechkraftverteilung eines brillenglases | |
EP3422087B1 (de) | Verfahren zur korrektur von zentrierparametern und/oder einer achslage sowie entsprechendes computerprogramm und verfahren | |
DE112019002021T5 (de) | Bildverarbeitungsverfahren, Programm, Bildverarbeitungsvorrichtung und ophthalmologisches System | |
EP3195052B1 (de) | Verfahren zur messgenauen bestimmung von zentriertdaten eines probanden zur anpassung einer brille an den probanden und immobiles videozentriersystem | |
WO2017153354A1 (de) | Verfahren und vorrichtung zum bewerten von blickabbildungen | |
DE112016002894T5 (de) | Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm | |
EP3730036A1 (de) | Bestimmung eines refraktionsfehlers eines auges | |
EP2924540B1 (de) | Verfahren und System zum Betreiben einer Anzeigevorrichtung | |
EP3959497B1 (de) | Verfahren und vorrichtung zum vermessen der lokalen brechkraft und/oder der brechkraftverteilung eines brillenglases | |
DE2409614A1 (de) | Verfahren zur pruefung des gesichtsfeldes | |
DE29519078U1 (de) | Vorrichtung für die Erfassung der räumlichen Position eines menschlichen Körperteils | |
WO2017220667A1 (de) | Verfahren und vorrichtung zur veränderung der affektiven visuellen information im gesichtsfeld eines benutzers | |
DE102023002197A1 (de) | Verfahren und Einrichtung zur Bildanzeige für ein Fahrzeug | |
EP4188188B1 (de) | Verfahren zum bestimmen des nahpunkts, zum bestimmen der nahpunktdistanz, zum bestimmen eines sphärischen brechwertes sowie zum herstellen eines brillenglases sowie entsprechende mobile endgeräte und computerprogramme | |
CN113662822B (zh) | 一种基于眼动的视标调整方法、视觉训练方法及装置 | |
Huynh et al. | The reference frame for encoding and retention of motion depends on stimulus set size | |
WO2016046124A1 (de) | Anzeigevorrichtung, die auf den kopf eines benutzers aufsetzbar ist, und verfahren zum steuern einer solchen anzeigevorrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8100 | Publication of patent without earlier publication of application | ||
D1 | Grant (no unexamined application published) patent law 81 | ||
8322 | Nonbinding interest in granting licences declared | ||
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: FRAUNHOFER-GESELLSCHAFT ZUR FOERDERUNG DER ANGEWAND |
|
8339 | Ceased/non-payment of the annual fee |