DE19819961A1 - Automatische Blickpunktanalyse mit Methoden der Bilderkennung zur Computersteuerung - Google Patents

Automatische Blickpunktanalyse mit Methoden der Bilderkennung zur Computersteuerung

Info

Publication number
DE19819961A1
DE19819961A1 DE19819961A DE19819961A DE19819961A1 DE 19819961 A1 DE19819961 A1 DE 19819961A1 DE 19819961 A DE19819961 A DE 19819961A DE 19819961 A DE19819961 A DE 19819961A DE 19819961 A1 DE19819961 A1 DE 19819961A1
Authority
DE
Germany
Prior art keywords
camera
indicates
head
image
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19819961A
Other languages
English (en)
Inventor
Dirk Kukulenz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE19819961A priority Critical patent/DE19819961A1/de
Publication of DE19819961A1 publication Critical patent/DE19819961A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2213/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B2213/02Viewfinders
    • G03B2213/025Sightline detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Vorrichtung zur Steuerung eines Computers durch Analyse des Blickpunktes, wobei die bildliefernden Instrumente für die Blickpunktbestimmung (Kameras) unabhängig vom Kopf im Bereich des Monitors angebracht werden. DOLLAR A Bei den beschriebenen Vorrichtungen wird die Kamera bzw. die Kameras am Monitor angebracht. Sie fokussieren den Kopf (bzw. Teile davon) vor der dem Monitor sitzenden Person. Die aufgenommenen Bilder werden einem Computer zwecks Bilderkennung zugeführt. Es wird zunächst die Kopflage bestimmt und anschließend die Pupillenposition(en). Mit Hilfe dieser Größen werden die Sehlinie(n) und durch Bildung des Schnittpunktes mit der Monitoroberfläche der Blickpunkt ermittelt. Die Kameras sind in einer Ausführung drehbar und folgen jeweils dem Kopf der Person bei Bewegung zwecks größerer Bewegungsfreiheit und bei Benutzung eines Zoom-Objektivs größerer Auflösung. DOLLAR A Anwendung DOLLAR A Die Erfindung kann zur Computersteuerung verwendet werden, vorzugsweise in Verbindung mit einer Tastendruckabfrage. Ferner kann sie für psychologische Untersuchungen (z. B. Werbeanalyse) benutzt werden.

Description

Technisches Gebiet
Zwischen dem Menschen und dem Computer gibt es bestimmte Schnitt­ stellen zum beiderseitigen Informationsaustausch. Der Computer vermittelt dem Menschen meist Informationen durch ein Monitorbild. Andererseits gibt der Mensch einem Computer Daten und Befehle meist durch eine Tastatur oder Mouse ein. Neuerdings ist auch durch Spracheingabe eine Informationsübergabe bzw. Steuerung des Computers möglich.
Stand der Technik
Es wurden bereits verschiedene Methoden vorgeschlagen, um einen Compu­ ter mithilfe von Cameras, die die Person vor dem Monitor beobachten, zu steuern. Dabei wurden die Cameras in der Regel direkt am Kopf der Person angebracht, um die Pupillen fokussieren zu können. Anhand der Pupillen­ ausrichtung wurde der Blickpunkt ermittelt, dessen Kenntnis dazu dienen kann, einen Computer zu steuern. Die Steuerung kann dadurch zusätzlich erleichtern werden, daß man die Kenntnis des Blickpunktes z. B. mit einer Tastenabfrage kombiniert.
Es wurden weiterhin Methoden vorgestellt, einen Mousezeiger auf einem Mo­ nitor mithilfe einer Bilderkennung, die die Kopflage einer Person erkennt, zu steuern.
Mängel der bekannten Ausführungen
Die ersteren Vorrichtungen haben den Nachteil, daß die Person vor dem Monitor durch die Kamera am Kopf behindert wird. Die Methoden der Kopflagebestimmung haben den Nachteil, daß die Kopflage allein nicht so aussagestark ist, wie die Kenntnis der Kopflage und der zusätzlichen Kenntnis der Pupillenposition wie bei dem hier vorgestellten Verfahren.
Aufgabe (technisches Problem)
Entwicklung eines Gerätes, welches die Lage des Kopfes einer Person in Be­ zug auf ein ruhendes Raumkoordinatensystem ermittelt und andererseits die Position der Augen (bzw. Pupillen) in dem Koordinatensystem bestimmt. Aus diesen Größen werden die Sehlinie(n) in dem betreffenden Koordinaten­ system berechnet. Die Kenntnis des Schnittpunktes dieser Sehlinie(n) mit einem 2- oder 3-dimensionalen Bild auf einem Monitor kann z. B. für psycho­ logische Analysen der Person oder in Verbindung mit einem Schaltmecha­ nismus (z. B. Tastendruck) zur Computersteuerung (z. B. als Mouse-Ersatz) verwendet werden.
Lösung des Problems
Zur Lösung der Aufgabe wird die im folgenden beschriebene Apparatur vor­ geschlagen:
Eine bzw. mehrere Kameras ruhen im Raumkoordinatensystem (bis auf even­ tuelle Drehbewegungen um 2 Achsen). Sie sind mit einer Fokussierungsvor­ richtung und eventuell einer Vergrößerungsvorrichtung ausgerüstet. Die Ka­ meras fokussieren den Kopf einer Person bzw. Teile davon.
Zunächst wird bei einem Initialisierungsverfahren der Kopf in einer bzw. mehrerer der Analyse-Software bekannten räumlichen Lage(n) angenommen. Das Bild bzw. die Bilder werden mithilfe einer Bildverarbeitung/-erkennung ausgewertet in der Weise, daß bestimmte individuelle charakteristische Para­ meter wie Augenabstand und sonstige Gesichtsabmessungen ermittelt wer­ den. Diese Daten werden gespeichert.
Im laufenden Betrieb nehmen die Kamera(s) mit einer bestimmten Frequenz Bilder auf. Diese Bilder werden digitalisiert und teilweise gespeichert. Mit­ hilfe einer Bildverarbeitung/-erkennung, die auf die gespeicherten individuel­ len Parameter zurückgreift, werden alle Orientierungsgrößen des Kopfes bzw. der Augen bestimmt, die für eine Berechnung der Sehlinien und damit des Schnittpunktes mit dem Monitorbild notwendig sind.
Erreichte Vorteile
Die Person ist unabhängig von den Kameras, kann sich frei bewegen. Es tritt keine Behinderung durch eine Kamera, die am Auge angebracht ist, ein. Computer können auf diese Weise bequem und schnell gesteuert werden. Es wird weniger Zeit für Routineeingaben verschwendet.
Ausführungsbeispiele Ausführungsbeispiel 1
Wie in Abb. 1 dargestellt, wird eine elektronische Filmkamera über einem Computermonitor angebracht. Sie besitzt ein Zoom-Objektiv, das von ex­ tern durch elektrische Impulse gesteuert werden kann. Die Kamera fixiert den Kopf einer Person, die sich im Bereich vor dem Monitor befindet. Die Fokussierung erfolgt automatisch durch die Camera oder durch eine Bild­ verarbeitung bei steuerbarem Fokussierungszustand durch den Computer. Die Kamera nimmt mit einer bestimmten Frequenz (50 Hz) Bilder auf, die in digitalisierter Form einem Computer zugeführt werden.
Initialisierungs-/Lernprozeß
Zunächst wird der Kopf in eine klar definierte räumliche Position und La­ ge gebracht. Aus dem Bild, das die Kamera vom Kopf in dieser Position aufnimmt, ermittelt der Computer mit Hilfe einer Bildverarbeitungs- und Erkennungssoftware bestimmte charakteristische Parameter in der optischen Erscheinung des Kopfes der Person, z. B. (Abb. 2)
  • - die Länge des im folgenden so bezeichneten "Mundschattens", (Schatten zwischen den Lippen bei geschlossenem Mund),
  • - den Augenabstand,
  • - den Abstand zwischen einer Verbindungslinie beider Augen und der Na­ senunterseite.
Diese charakteristischen Parameter werden im Computer gespeichert und dienen als Referenzobjekte für die Bilderkennung, wenn sich der Kopf in ei­ ner abweichenden Position befindet.
Ermittlung der Kopflage im laufenden Betrieb
Im laufenden Betrieb wird zunächst die räumliche Kopflage durch Vergleich der Bilder der Kamera mit den gespeicherten Referenzobjekten ermittelt.
Die Entfernung des Kopfes von der Kamera wird aus der Länge des Mund­ schattens bestimmt (bei größerer Entfernung ist die Größe aller Objekte am Kopf im Kamerabild geringer).
Die horizontale und vertikale Position wird anhand eines Vergleiches von den ermittelten Referenzgrößen und den entsprechenden aus dem zu ana­ lysierenden Bild gewonnenen Größen in Hinblick auf bestimmte Bezugs­ punkte (z. B. Mundschattenenden, Nasenunterseite und Augenlage) be­ stimmt.
Die Drehung um eine horizontale Achse parallel zum Monitorbild wird durch einen entsprechenden Vergleich in Hinblick auf die Länge der Verbin­ dungslinie zwischen Nasenunterseite und einer Verbindungslinie zwischen beiden Augen und einer Schattenanalyse ermittelt.
Diese Verbindungslinie kann auch dazu benutzt werden, die Drehung des Kopfes um eine Achse senkrecht zum Monitorbild zu bestimmen.
Eine Drehung des Kopfes um eine vertikale Achse parallel zur Monitor­ fläche wird durch einen Vergleich von Referenz- und Analysebild bzw. den daraus gewonnene Parametern in Bezug auf die Längen der Streckenab­ schnitte von den Augen zu einer vertikalen Linie von der Nasenunterseite. Auf diese Weise wird die räumliche Orientierung des Kopfes ermittelt.
Anschließend wird die Position der Pupillen (bzw. der Iris) relativ zum Kopf anhand der digitalisierten Bilder der Kamera ermittelt. Diese Bil­ derkennung ist sehr anspruchsvoll, da die Pupillen teilweise von den Au­ genlidern bedeckt sein können und es ausserdem zu Spiegelungen kommen kann.
Aus der Kenntnis der Augenpositionen relativ zur räumlichen Lage des Kopfes können nun die Sehlinien ermittelt werden (die Richtung in die die Augen blicken). Daraus kann der Blickpunkt auf der Monitoroberfläche ermittelt werden. Es ist der Schnittpunkt der Sehlinien mit der Monitoro­ berfläche. Es genügt für diese Schnittpunktbildung auch die Sehlinie eines einzelnen Auges.
Ausführungsbeispiel 2
Ein Problem bei der 1. Ausführung ist die mangelnde Auflösung und ein daraus resultierender großer Fehler bei der Blickpunktbestimmung. Ein wei­ terer Nachteil ist der geringe Raumwinkel, der von der Kamera erfaßt wird. Daraus resultiert eine geringe Bewegungsmöglichkeit für die Person.
In der folgenden Ausführung ist der Aufbau weitgehend wie im 1. Beispiel. Zusätzlich sei die Kamera mit einem Zoom-Objektiv ausgestattet, das vom Computer steuerbar ist, und dessen Zustand vom Computer, abgefragt wer­ den kann. Desweiteren ist die Kamera um zwei Achsen (senkrecht aufein­ ander, parallel zur Bildebene des Monitors) beweglich. Der Drehwinkel der Camera ist ebenfalls vom Computer steuerbar.
Im laufenden Betrieb wird die Kamera in der Weise positioniert (d. h. ge­ dreht), daß immer ein bestimmter Teil des Kopfes der Person im Bild gehal­ ten wird, wenn sich die Person in einem bestimmten Raumbereich bewegt. Am Beginn kann zunächst das Zoom-Objektiv so gesteuert werden, daß ein größerer Raumbereich erfaßt wird. Dadurch kann mit einer Bilderkennung der zu fixierende Teil des Kopfes (Bereich um ein bzw. beide Augen) "gefunden" werden. Im folgenden wird die Kamera mit einer Bilderkennung bei Bewe­ gung des Kopfes der Person so gedreht, daß immer der zu fixierende Bereich im Bild ist. Das Zoom-Objektiv vergrössert das Bild der Kamera, so daß eine maximale Auflösung erzielt wird, jedoch genügend Gesichtskennlinien vorhanden sind, um die Kopflage ähnlich wie im I. Ausfürungsbeispiel zu bestimmen. Bei der Ermittlung der Kopflage müssen zusätzlich der Camera- Zoomzustand und der Camera-Drehwinkelzustand berücksichtigt werden.
Bestimmung des Camera-Drehwinkels
Es sind verschiedene Metho­ den zur Bewegungsverfolgung einer Camera mit Hilfe einer Bilderkennung bekannt, von denen hier zwei vorgeschlagen werden sollen.
Zunächst können am Kopf der Person in dem Bereich, den die Camera erfaßt ein bzw. mehrere Fixpunkte oder Objekte festgelegt werden. Anhand einer Grauwertfilterung (eventuell mit Farbselektion) und anschliessender Bilder­ kennung kann die Position dieser Objekte im Camerabild ermittelt werden. Die Camera wird dann in der Weise gesteuert, daß diese Fixobjekte bestimm­ te Koordinaten im Camerabild haben. Das Zoomobjektiv wird so gesteuert, daß die Fixobjekte bestimmte Größenmaße im Camerabild haben.
Es kann zur Bewegungsbestimmung ebenfalls die Differenz von 2 oder mehr Bildern betrachtet werden. Anhand der Grauwertänderung, die durch das Differenzbild sichtbar wird, kann auf die Art der Bewegung rückgeschlossen und entsprechend die Camera nachgeführt werden. Eine Feinabstimmung kann dann auf die Weise wie bei der ersten Methode erfolgen.
In Abb. 3 wird die Abfolge der Schritte beim Differenzbildanalysever­ fahren gezeigt. Die horizontale Achse ist die Zeitachse. Es werden zunächst zwei Bilder B1 und B2 aufgenommen. Es wird anschliessend die Differenz gebildet und dort gespeichert, wo vorher B1 war. Das Differenzbild wird ana­ lysiert, und entsprechend wird die Camera nachgeführt. Im Anschluß an die Cameranachführung wird ein neues Bild aufgenommen, z. B. B4 und unter Berücksichtigung der Cameranachführung mit B2 verglichen usw.
Ausführungsbeispiel 3
Der Aufbau ist im wesentlichen wie bei der Ausführung 2. Hier werden al­ lerdings 2 Kameras auf den Kopf bzw. Teile davon gerichtet. Mit Hilfe der Paralaxe der Stereobildpaare kann in bekannter Weise eine genauere Entfer­ nungsbestimmung des Kopfes von dem Monitorschirm erfolgen. Durch den Vergleich der Sehlinienbestimmung;beider Kamerabilder kann zusätzlich ei­ ne genauere Blickpunktbestimmung erfolgen. Der entscheidende Vorteil ist bei der Darstellung räumlicher Bilder auf dem Monitorschirm zu sehen. Der Blickpunkt kann hier allein durch den Schnittpunkt der Sehlinien beider Au­ gen ermittelt werden.

Claims (18)

1. Vorrichtung zur automatischen Blickpunktbestimmung einer sich vor einem Monitor befindenden Person, dadurch gekennzeichnet, daß im Bereich des Monitors eine bzw. meh­ rere Kameras angebracht sind, die fortlaufend Bilder vom Kopf bzw. Teilbereichen des Kopfes der Person aufnehmen. Eine bzw. beide Pu­ pillen und gegebenenfalls die Kopflage (d. h. Raumposition und Dreh­ winkel) bezüglich eines Raumkoordinatensystems werden mit Hilfe ei­ nes elektronischen Datenverarbeitungssystems (z. B. einem PC) durch eine Bildverarbeitung und Erkennung anhand der digitalisierten Bilder der Kamera ermittelt. Aus der Kenntnis dieser Daten werden eine oder beide Sehlinien der Person bezüglich dem Raumkoordinatensystem er­ mittelt. Durch Bildung des Schnittpunktes dieser Sehlinie(n) mit dem Bild auf dem Monitor wird der Blickpunkt errechnet.
2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Person mithilfe einer oder mehrerer Lichtquelle(n) beleuchtet wird, um eine normierte Bildantwort zu erhalten.
3. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Kame­ ra starr ist mit einer Fokussierungsvorrichtung.
4. Vorrichtung nach dem vorangegangenen Anspruch dadurch gekenn­ zeichnet, daß die Einstellung der Fokussierung durch die Kamera er­ folgt.
5. Vorrichtung nach einem der vorangegangenen Ansprüche dadurch ge­ kennzeichnet, daß die Fokussierung der Kamera von außen kontrollier­ bar ist und durch eine Auswertung der Bilder der Kamera erfolgt.
6. Vorrichtung nach einem der vorangegangenen Ansprüche dadurch ge­ kennzeichnet, daß der Fokussierungszustand der Kamera dem Positi­ onsanalyseprogramm zur Entfernungsbestimmung mitgeteilt wird.
7. Vorrichtung nach einem der vorangegangenen Ansprüche dadurch ge­ kennzeichnet, daß die Kamera mit einem Zoom-Objektiv versehen ist um eine genauere Positionsparameteranalyse zu ermöglichen.
8. Vorrichtung nach dem vorangegangenen Anspruch dadurch gekennzeich­ net, daß der Zoom-Zustand des Objektivs dem Programm zur Analyse der Positionsparameter mitgeteilt wird und steuerbar ist.
9. Vorrichtung nach einem der vorangegangenen Ansprüche, dadurch ge­ kennzeichnet, daß die Kamera um eine oder zwei Achsen schwenkbar ist, um die zu analysierenden Teile des Kopfes bei Bewegung desselben im Bild zu behalten.
10. Vorrichtung nach dem vorangegangenen Anspruch dadurch gekenn­ zeichnet, daß die Steuerung der Drehposition der Kamera anhand einer Bewegungsanalyse der Kamerabilder (z. B. durch Bildung von Bilddif­ ferenzen und Auswertung) erfolgt.
11. Vorrichtung nach einem der vorrangegangenen Ansprüche dadurch ge­ kennzeichnet, daß die Positionssteuerung der Kamera in der Weise er­ folgt, daß ein bestimmter Referenzpunkt im Bild immer die gleich Po­ sition im Bild hat.
12. Vorrichtung nach einem der vorangegangenen Ansprüche dadurch ge­ kennzeichnet, daß die Positionsbestimmung der Kamera auf andere Weise erfolgt.
13. Vorrichtung nach einem der vorangegangenen Ansprüche, dadurch ge­ kennzeichnet, daß 2 oder mehr gegebenenfalls bewegliche Kameras eventuell mit Objektiven Teile vom Kopf der Person im Bild haben, die im Bereich des Monitors angebracht sind, um eine genauere Lage­ bestimmung des Kopfes bzw. der Pupille(n) zu ermöglichen.
14. Vorrichtung nach dem vorangegangenen Anspruch dadurch gekenn­ zeichnet, daß anhand der Paralaxe beider Kamerabilder eine Entfer­ nungsmessung vorgenommen wird.
15. Vorrichtung nach einem der vorangegangenen Ansprüche dadurch ge­ kennzeichnet, daß die Steuerung der Kameraposition(en) auf anderem Weg als durch eine Bildanalyse erfolgt.
16. Vorrichtung nach einem der vorangegangenen Ansprüche, dadurch ge­ kennzeichnet, daß die Bildverarbeitung in der Weise erweitert wird, daß der Blickpunkt auch beim Benutzen einer Sehhilfe (Brille etc.) be­ stimmt werden kann.
17. Vorrichtung nach einem der vorangegangenen Ansprüche dadurch ge­ kennzeichnet, daß die Kenntnis des Blickpunktes mit einer anderen Eingabeinformation (z. B. Spracherkennung oder Tastendruck) gekop­ pelt wird um eine Steuerung eines Computers (z. B. wie mit einer Mou­ se) zu ermöglichen.
18. Vorrichtung nach einem der vorangegangenen Ansprüche dadurch ge­ kennzeichnet, daß die Kenntnis des Blickpunktes für psychologische Analysezweck (z. B. Testen der Wirksamkeit eines Werbespots) benutzt wird.
DE19819961A 1998-05-05 1998-05-05 Automatische Blickpunktanalyse mit Methoden der Bilderkennung zur Computersteuerung Withdrawn DE19819961A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19819961A DE19819961A1 (de) 1998-05-05 1998-05-05 Automatische Blickpunktanalyse mit Methoden der Bilderkennung zur Computersteuerung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19819961A DE19819961A1 (de) 1998-05-05 1998-05-05 Automatische Blickpunktanalyse mit Methoden der Bilderkennung zur Computersteuerung

Publications (1)

Publication Number Publication Date
DE19819961A1 true DE19819961A1 (de) 1999-11-11

Family

ID=7866682

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19819961A Withdrawn DE19819961A1 (de) 1998-05-05 1998-05-05 Automatische Blickpunktanalyse mit Methoden der Bilderkennung zur Computersteuerung

Country Status (1)

Country Link
DE (1) DE19819961A1 (de)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10027365A1 (de) * 2000-06-02 2002-01-03 Zn Vision Technologies Ag Objektbezogene Steuerung von Informations- und Werbeträgern
WO2006029739A1 (de) * 2004-09-16 2006-03-23 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur bildbasierten fahreridentifikation in einem kraftfahrzeug
EP2116919A1 (de) * 2008-05-09 2009-11-11 MBDA UK Limited Anzeige für dreidimensionale Objekte
WO2009136207A1 (en) * 2008-05-09 2009-11-12 Mbda Uk Limited Display of 3-dimensional objects
CN101969539A (zh) * 2010-09-30 2011-02-09 冠捷显示科技(厦门)有限公司 基于用户视角的电视自动转向方法
WO2011038527A1 (zh) * 2009-09-29 2011-04-07 阿尔卡特朗讯 一种注视点检测方法及其装置
DE112005003221B4 (de) * 2004-12-22 2011-06-09 Lenovo (Beijing) Ltd., Haidian Steuersystem und -verfahren für einen Cursor in einer Mehrzahl von Anzeigevorrichtungen
EP2629179A1 (de) * 2012-02-15 2013-08-21 Samsung Electronics Co., Ltd. Augenverfolgungsverfahren und Anzeigevorrichtung damit

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10027365A1 (de) * 2000-06-02 2002-01-03 Zn Vision Technologies Ag Objektbezogene Steuerung von Informations- und Werbeträgern
WO2006029739A1 (de) * 2004-09-16 2006-03-23 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur bildbasierten fahreridentifikation in einem kraftfahrzeug
US8005269B2 (en) 2004-09-16 2011-08-23 Bayerische Motoren Werke Aktiengesellschaft Method for image-based driver identification in a motor vehicle
DE112005003221B4 (de) * 2004-12-22 2011-06-09 Lenovo (Beijing) Ltd., Haidian Steuersystem und -verfahren für einen Cursor in einer Mehrzahl von Anzeigevorrichtungen
EP2116919A1 (de) * 2008-05-09 2009-11-11 MBDA UK Limited Anzeige für dreidimensionale Objekte
WO2009136207A1 (en) * 2008-05-09 2009-11-12 Mbda Uk Limited Display of 3-dimensional objects
WO2011038527A1 (zh) * 2009-09-29 2011-04-07 阿尔卡特朗讯 一种注视点检测方法及其装置
CN101969539A (zh) * 2010-09-30 2011-02-09 冠捷显示科技(厦门)有限公司 基于用户视角的电视自动转向方法
EP2629179A1 (de) * 2012-02-15 2013-08-21 Samsung Electronics Co., Ltd. Augenverfolgungsverfahren und Anzeigevorrichtung damit
US9218056B2 (en) 2012-02-15 2015-12-22 Samsung Electronics Co., Ltd. Eye tracking method and display apparatus using the same

Similar Documents

Publication Publication Date Title
DE68927275T2 (de) Bildaufnahmegerät
AT505338B1 (de) Verfahren zur wahrnehmungsmessung
DE69400266T2 (de) Vorrichtung zum analysieren der augenbewegung
DE112005000929B4 (de) Automatisches Abbildungsverfahren und Vorrichtung
DE102007056528B3 (de) Verfahren und Vorrichtung zum Auffinden und Verfolgen von Augenpaaren
DE60133386T2 (de) Vorrichtung und verfahren zur anzeige eines ziels mittels bildverarbeitung ohne drei dimensionales modellieren
EP3256036B1 (de) Vorrichtung und verfahren zur abstandsbestimmung und/oder zentrierung unter verwendung von hornhautreflexionen
DE102007006158A1 (de) Verfahren und Vorrichtung zum Erfassen eines Sichtlinienvektors
DE102007059478B4 (de) Verfahren und System zur Ausrichtung eines virtuellen Modells an einem realen Objekt
DE102005013225A1 (de) Objektverfolgungs- und Situationsanalysesystem
DE102005003699A1 (de) Vorrichtung und Verfahren zum Bestimmen von optischen Parametern eines Benutzers; Computerprogrammprodukt
EP2082687A1 (de) Überlagerte Darstellung von Aufnahmen
DE102005011126A1 (de) Generierung virtueller Welten auf Basis einer realen Umgebung
EP3195052B1 (de) Verfahren zur messgenauen bestimmung von zentriertdaten eines probanden zur anpassung einer brille an den probanden und immobiles videozentriersystem
DE10049926A1 (de) Kamera zur kostengünstigen Erfassung der Raumform von Körpern
EP3635478B1 (de) Verfahren, vorrichtungen und computerprogramm zum bestimmen eines nah-durchblickpunktes
DE10304185B4 (de) Vorrichtung und Verfahren zum Anpassen einer Position eines Brillenglases relativ zur Position einer Pupille
DE102019133756A1 (de) Systems and methods for generating a lighting design
DE19819961A1 (de) Automatische Blickpunktanalyse mit Methoden der Bilderkennung zur Computersteuerung
DE102004061841A1 (de) Markerloses Tracking System für Augmented Reality Anwendungen
DE10125971A1 (de) Verfahren zur Entfernungsmessung ausgedehnter Objekte in Verbindung mit einer optischen Betrachtungseinrichtung und Mikroskop zur Durchführung desselben
DE60216766T2 (de) Verfahren zum automatischen verfolgen eines sich bewegenden körpers
WO2017162329A1 (de) Verfahren und vorrichtung zur ermittlung von 3d-koordinaten zumindest eines vorbestimmten punktes eines objekts
EP1300108B1 (de) Verfahren zur Erfassung, Auswertung und Analyse von Blicksequenzen
EP0824827B1 (de) Verfahren zur erstellung einer objektmaske für videoüberwachungsanlagen

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8139 Disposal/non-payment of the annual fee