AT412443B - Verfahren zur erfassung, auswertung und analyse von blicksequenzen - Google Patents

Verfahren zur erfassung, auswertung und analyse von blicksequenzen Download PDF

Info

Publication number
AT412443B
AT412443B AT15512001A AT15512001A AT412443B AT 412443 B AT412443 B AT 412443B AT 15512001 A AT15512001 A AT 15512001A AT 15512001 A AT15512001 A AT 15512001A AT 412443 B AT412443 B AT 412443B
Authority
AT
Austria
Prior art keywords
video
coordinates
pupil
field
eye
Prior art date
Application number
AT15512001A
Other languages
English (en)
Other versions
ATA15512001A (de
Inventor
Ernst Dipl Ing Dr Pfleger
Original Assignee
Ernst Dipl Ing Dr Pfleger
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ernst Dipl Ing Dr Pfleger filed Critical Ernst Dipl Ing Dr Pfleger
Priority to AT15512001A priority Critical patent/AT412443B/de
Priority to US10/262,608 priority patent/US6997556B2/en
Priority to AU2002301266A priority patent/AU2002301266B2/en
Publication of ATA15512001A publication Critical patent/ATA15512001A/de
Application granted granted Critical
Publication of AT412443B publication Critical patent/AT412443B/de

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/0058Operational features thereof characterised by display arrangements for multiple images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0033Operational features thereof characterised by user input arrangements

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Eye Examination Apparatus (AREA)

Description


   <Desc/Clms Page number 1> 
 



   Die Erfindung betrifft ein Verfahren zur Erfassung, Auswertung und Analyse von Blicksequen- zen einer Testperson mittels eines Blickerfassungssystems, - wobei das Blickfeld der Testperson durch eine nach vorne gerichtete und starr mit dem Kopf der Testperson verbundene erste Kamera erfasst und in einem Blickfeldvideo aufgezeichnet wird, - die Bewegung der Pupille der Testperson durch eine zweite Kamera, die ebenfalls starr mit dem Kopf der Testperson verbunden ist, erfasst und in einem Augenvideo aufgezeichnet wird und das Augenvideo und das Blickfeldvideo auf ein Videosystem aufgezeichnet und zeitlich synchronisiert werden, - wobei für jedes Einzelbild des Augenvideos die Pupillenkoordinaten ermittelt werden, - die Korrelationsfunktion zwischen Pupillenkoordinaten auf dem Augenvideo und den Koor- dinaten des entsprechenden Blickpunktes, d. h.

   des Punktes, den die Testperson fixiert, auf dem Blickfeldvideo ermittelt wird - und nach erfolgter Ermittlung der Korrelationsfunktion für jedes Einzelbild aus den Pupillen- koordinaten auf dem Augenvideo die Koordinaten des entsprechenden Blickpunktes auf dem Blickfeldvideo extrapoliert werden. 



   Derartige Verfahren sind im Stand der Technik bekannt. So wird beispielsweise in der WO 96/36271 ein Verfahren und eine Vorrichtung beschrieben, mit welchen erfasst werden kann, was eine Person gerade sieht. Die Vorrichtung weist dazu zumindest eine, vorzugsweise zwei Videokameras auf, welche neben dem Kopf der Person angeordnet und parallel zur deren Augen- achsen ausrichtbar sind. Es sind dazu Augen-Ausrichtungssensoren vorgesehen, mittels welchen die aktuelle Lage der Augenachsen bestimmt wird. Über Stellsysteme werden die Videokameras entsprechend der gemessenen Augenachsen-Lagen ausgerichtet. Zur Ermittlung der Lage der Augenachsen werden einerseits die Zentren der Pupillen und andererseits die Augendrehzentren bestimmt, da die Augenachse die Verbindungslinie zwischen Augendrehzentrum und Pupillenzent- rum ist.

   Das Pupillenzentrum wird dabei als Schnittpunkt der zwei Hauptachsen der im von den Ausrichtungssensoren erfassten Bild des Auges enthaltenen ellipsen- oder kreisförmigen äusseren Iris-Berandung festgelegt. 



   In der FR-A1-2 719 988 wird eine Vorrichtung zur Bestimmung von Augenbewegungen be- schrieben. Es sind dabei zwei, jeweils auf die Augen der Testperson gerichtete Kameras vorgese- hen. Die von diesen Kameras gelieferten Bilder werden zunächst digitalisiert und werden in weite- rer Folge aus diesen digitalen Daten die Position der Pupillen und die Koordinaten deren Mittel- punkte errechnet. Dazu wird ein gitterförmiger Raster über das Augenbild gelegt und die Helligkeit der Schnittpunkte der Gitterlinien bestimmt, wodurch die Pupille lokalisiert werden kann. Als Koor- dinaten des Mittelpunktes der Pupille wird dann der Schnittpunkt der mittleren horizontalen und der mittleren vertikalen Pupillenkoordinate genommen. Die Erstellung eines Blickfeldvideos, d. h. eine Aufzeichnung der gerade von der Testperson beobachteten Szene wird allerdings nicht erwähnt. 



   Die DE-A1-29 35 268 beschäftigt sich mit einer Vorrichtung zum Messen der Blickbewegungen einer Versuchsperson. Dabei wird das Auge mit einer Infrarotdiode beleuchtet, deren Infrarotlicht vom Augapfel reflektiert wird und durch die Pupille austritt. Auf das Auge ist eine infrarotempfindli- chen Kamera gerichtet, deren Bild auf einem Monitor dargestellt wird. Eine Bestimmung des Pupil- lenmittelpunktes wird allerdings nicht angesprochen. 



   Bei den bekannten Verfahren werden die Pupillenkoordinaten zusammenfassend entweder gar nicht oder nur sehr ungenau und auf sehr aufwendige Weise erfasst. 



   Die Erfindung hat zur Aufgabe, die bekannten Systeme zu verbessern und ein Verfahren der eingangs genannten Art vorzustellen, bei dem eine zuverlässige Erkennung der Pupillenkoordina- ten für jedes Einzelbild des Augenvideos mit möglichst geringem technischem Aufwand erfolgen kann. 



   Erfindungsgemäss wird dies dadurch erreicht, dass zur Ermittlung der Pupillenkoordinaten für je- des Einzelbild des Augenvideos mit einem Bilderkennungsprogramm automatisch - die Kontraste der Pupille zum Umfeld registriert werden, - alle Punkte des Einzelbilds, die dunkler als ein eingestellter Dunkelheitsgrad sind, gesucht werden, - mit diesen Punkten eine der Pupille entsprechende Dunkelfläche voll erfasst und abgegrenzt wird, und 

 <Desc/Clms Page number 2> 

 - der dem Pupillenmittelpunkt mit den Pupillenkoordinaten entsprechende Schwerpunkt der
Dunkelfläche ermittelt wird. 



   Durch dieses Verfahren wird zunächst die gesamte Pupille als Dunkelfläche erfasst. Die Regist- rierung des Kontrastes zwischen der dunklen Pupille und der beinahe weissen Umgebung der Pupille ermöglicht eine besonders einfache automatische Erkennung der Dunkelfläche. Die Ermitt- lung des Schwerpunktes dieser Dunkelfläche erfolgt auf besonders einfache Weise und verlangt nur einen geringen rechnerischen Aufwand, wobei der Schwerpunkt aber mit grosser Genauigkeit angegeben werden kann. Durch Gleichsetzung des Pupillenmittelpunktes mit dem Schwerpunkt der Dunkelfläche kann somit der Pupillenmittelpunktes auf besonders einfache Weise mit grosser Genauigkeit ermittelt werden.

   Die Erfindung basiert auf dem im Stand der Technik bekannten allgemeinen Prinzip der Zusammenführung eines Augenvideos und eines Blickfeldvideos, und stellt durch die neu entwickelten optischen und mathematischen Verfahren im Hintergrund und durch die sich daraus ergebenden neuen Analyseverfahren eine wesentliche Innovation dar. 



   Um Fehler durch unvorhergesehene Störungen oder Lichteinfälle zu korrigieren, kann gemäss einer weiteren Ausgestaltung der Erfindung vorgesehen sein, dass nach der automatischen Ermitt- lung der Pupillenkoordinaten eine händische Korrektur der Pupillenkoordinaten erfolgt. 



   Ein weiteres Problem bei Verfahren zur Erfassung, Auswertung und Analyse von Blicksequen- zen der eingangs genannten Art ist die Ungenauigkeit bei der Ermittlung der Korrelationsfunktion. 



   Es ist deswegen eine weitere Aufgabe Erfindung, die bekannten Systeme zu verbessern und ein Verfahren der eingangs genannten Art vorzustellen, bei dem eine zuverlässige Ermittlung der Korrelationsfunktion mit möglichst geringem technischem Aufwand erfolgen kann. 



   Erfindungsgemäss wird dies dadurch erreicht, dass zur Ermittlung der Korrelationsfunktion - zunächst eine oder mehrere Musterblicksequenzen der Testperson auf einen oder mehrere bestimmte vorgegebene Passpunkte aufgenommen werden - und die Zuordnung der Pupillenkoordinaten auf dem Augenvideo zu den Koordinaten des 
Passpunktes auf dem Blickfeldvideo ermittelt wird, - indem für jedes Einzelbild im Augenvideo die Pupillenkoordinaten im Augenvideo ermittelt werden, - die Koordinaten des Passpunktes im entsprechenden Einzelbild auf dem Blickfeldvideo er- mittelt werden, - die Pupillenkoordinaten im Einzelbild des Augenvideo den Koordinaten des Passpunktes im entsprechenden Einzelbild des Blickfeldvideo zugeordnet werden, - dieser Datensatz abgespeichert wird, - und aus allen Datensätzen, vorzugsweise durch quadratische Regression,

   die Pupillenkoor- dinaten auf dem Augenvideo und die Koordinaten des entsprechenden Blickpunktes auf dem Blickfeldvideo korreliert werden. 



   Durch dieses Verfahren erhält man eine Korrelationsfunktion, die auf den sich entsprechenden Koordinaten auf jedem Einzelbild des Augenvideos und des Blickfeldvideos basiert. Dadurch ergibt sich eine aussergewöhnlich hohe Genauigkeit der Korrelationsfunktion, wobei die Ermittlung dersel- ben auf einfache Art durchgeführt werden kann. 



   Um eine weitgehend automatische Ermittlung der Korrelationsfunktion zu ermöglichen, kann in weiterer Ausbildung der Erfindung vorgesehen sein, dass die Koordinaten des Passpunktes auf jedem Einzelbild des Blickfeldvideos automatisch durch ein Bilderkennungsverfahren ermittelt werden. 



   Gemäss einer anderen Variante der Erfindung kann vorgesehen sein, dass die Koordinaten des Passpunktes auf jedem Einzelbild des Blickfeldvideos händisch mittels Mausklickverfahren ermittelt werden. Dadurch können diese auch bei schwierigen Bedingungen, wie z. B. bei nicht ausreichen- dem Kontrast oder unerwünschten Lichtreflexen durch Blitze etc., sicher ermittelt werden. 



   In weiterer Ausgestaltung der Erfindung kann vorgesehen sein, dass die Musterblicksequenzen durch Drehen des Kopfes der Testperson bei Fixierung eines einzelnen Passpunktes erhalten werden. Dies stellt eine besonders einfache Methode dar, unterschiedliche Positionen der Pass- punkte auf dem Blickfeldvideo zu erhalten, wobei die Definition eines einzelnen physikalischen Passpunktes genügt. 



   Bei einer weiteren Ausführungsform der Erfindung kann vorgesehen sein, dass zwischen 25 und 100 Positionen des Passpunktes bzw. der Passpunkte verwendet werden. Dadurch ergibt sich 

 <Desc/Clms Page number 3> 

 die gewünschte sehr hohe Genauigkeit der Korrelationsfunktion bei gleichzeitig vertretbarem Rechenaufwand. 



   Bei im Stand der Technik bekannten Verfahren zur Erfassung, Auswertung und Analyse von Blicksequenzen einer Testperson mittels eines Blickerfassungssystems stellt sich regelmässig das Problem der Auswertung der gemessenen Werte. Insbesondere ergibt sich bei der Aufzeichnung aller Einzelbilder auf einem Videosystem das Problem, diese erheblichen Datenmengen in komp- rimierter Form weiter zu verarbeiten und zu analysieren. 



   Es ist somit eine weitere Aufgabe der Erfindung, die sich bei der Erfassung der Blicksequenzen ergebenden sehr grossen Datenmengen in eine für die Analyse optimale Form zu komprimieren und somit eine Möglichkeit zu bieten, die erfassten Blicksequenzen auf einfache Art zu analysieren. 



  Eine weitere Aufgabe der Erfindung ist es, den hoch technischen Inhalt der Blickfeldanalyse be- sonders einfach aufzubereiten und auch für den Laien ohne fachliche Qualifikation anschaulich darzustellen. 



   Erfindungsgemäss wird dies dadurch erreicht, dass mehrere Kategorien definiert werden und der Blickpunkt für jedes Einzelbild einer Kategorie zugeordnet wird, indem für jedes Einzelbild überprüft wird, im Bereich welcher Kategorie der Blickpunkt liegt. 



   Dadurch ergibt sich die Möglichkeit, die grosse Fülle an Daten, welche sich durch die Auswer- tung der Blicksequenzen ergibt, übersichtlich nach Kategorien zu ordnen. Dadurch, dass nicht mehr die Pupillenkoordinaten jedes Einzelbildes, sondern nur noch die Koordinaten der unterschiedli- chen definierten Kategorien weiterverarbeitet werden müssen, ergibt sich eine drastische Redukti- on des Datenvolumens. 



   In weiterer Ausgestaltung der Erfindung kann vorgesehen sein, dass zur komprimierten Darstel- lung von Verweildauern des Blickpunktes auf bestimmten Kategorien einer Blicksequenz auf ein Standbild - für jede Kategorie ermittelt wird, bei welchen Einzelbildern der Blickpunkt in einer Kategorie liegt und - die Verweildauer des Blickpunktes auf dieser Kategorie durch Addition der Dauer dieser Ein- zelbilder ermittelt wird. 



   Damit lässt sich ein Diagramm erstellen, welches in übersichtlicher Weise die Gesamtdauer der Blickzuwendungen zu einzelnen Kategorien angibt. Die wesentliche Information aus allen Einzel- bildern des Blickfeldvideos und allen Pupillenkoordinaten der Einzelbilder des Augenvideos ist somit in diesem Diagramm zusammengefasst, wobei lediglich ein einziges grafisches Element pro Kategorie verwendet werden muss. 



   Die Erfindung wird unter Bezugnahme auf die beigeschlossenen Zeichnungen, in welchen be- sonders bevorzugte Ausführungsbeispiele dargestellt sind, näher beschrieben. Dabei zeigt: 
Fig. 1 eine schematische Darstellung des mit dem Kopf der Testperson verbundenen Teiles des Blickerfassungssystems; 
Fig. 2 eine Darstellung eines eine Brille 3 umfassenden mit dem Kopf der Testperson verbun- denen Teiles des Blickerfassungssystems; 
Fig. 3 eine schematische Darstellung zweier Einzelbilder jeweils aus dem Augenvideo und aus dem Blickfeldvideo; 
Fig. 4 eine Darstellung eines Videosystems zur Aufzeichnung der beiden Videosignale ; 
Fig. 5 die Darstellung einer Benutzeroberfläche zur erfindungsgemässen Ermittlung der Pupil- lenkoordinaten (xa,ya);

   
Fig. 6 eine schematische Darstellung zweier Einzelbilder jeweils aus dem Augenvideo und aus dem Blickfeldvideo bei der Aufnahme einer Musterblicksequenz; 
Fig. 7 die Darstellung einer Benutzeroberfläche zur erfindungsgemässen Ermittlung der Korrela- tionsfunktion K; 
Fig. 8 ein Einzelbild aus einem Ergebnisvideo; 
Fig. 9 eine Skizze eines zu analysierenden Bildes; 
Fig. 10 ein erfindungsgemässes Diagramm zur komprimierten Darstellung der zeitlichen Abfolge der Zugehörigkeit des Blickpunktes B zu bestimmten Kategorien ki einer Blicksequenz; 
Fig. 11ein erfindungsgemässes Diagramm zur komprimierten Darstellung der Verweildauer des Blickpunktes B auf bestimmten Kategorien ki einer Blicksequenz auf das in Fig. 9 skizzierte Stand- bild;

   

 <Desc/Clms Page number 4> 

 
Die Aufgabe von Blickerfassungssystemen ist es, mit möglichst grosser Genauigkeit darzustel- len, auf welchen Punkt des Blickfeldes eine Testperson blickt, d.h. auf welchen genauen Punkt das Interesse bzw. die Aufmerksamkeit der Testperson gerichtet ist. 



   Dabei wird einerseits das Blickfeld durch eine nach vorne gerichtete und starr mit dem Kopf der Testperson verbundene erste Kamera 1 erfasst. Weiters wird die Bewegung der Pupille der Test- person durch eine zweite Kamera 2, die ebenfalls starr mit dem Kopf verbunden ist, erfasst. Starr verbunden bedeutet in diesem Zusammenhang, dass beide Kameras 1,2 so mit dem Kopf der Testperson verbunden sind, dass sie sich mit diesem bewegen bzw. allen Bewegungen folgen, wobei aber die Bewegungsfreiheit des Kopfes und der Augen in keiner Weise eingeschränkt wird. 



  Aus der Auswertung dieser beiden Aufnahmen ist es möglich, mit grosser Genauigkeit anzugeben, auf welchen Punkt die Testperson gerade blickt. Es sind dadurch exakte Aussagen über   Blickzu-   wendungen, Blickbindungen und Blickabsenzen möglich. 



   Solche Blickerfassungssysteme werden bevorzugt im Sicherheitsbericht, insbesondere im Be- reich der   Unfallforschung.   aber auch im Bereich der Werbung oder bei anderen humanphysiologi- schen Untersuchungen eingesetzt. 



   Insgesamt stellt die Blickverhaltensforschung einen wesentlichen Baustein zur Erforschung von physiologischen Unfallursachen dar. Beispielsweise können durch umfassende Blickuntersuchun- gen neue Erkenntnisse für die Unfallaufklärung und Unfallrekonstruktion hinsichtlich menschlicher Leistungsgrenzen gefunden werden. 



   Üblicherweise werden z.B. besonders gefährliche Stellen im Strassenverkehr mit Blickerfas- sungssystemen untersucht. Eine mit einem solchen Blickerfassungssystem ausgestattete Testper- son durchfährt dabei die gefährliche Stelle, wobei ihr Blickverhalten aufgezeichnet wird. Die Sum- me der dabei analysierten Blicke wird im folgenden mit Blicksequenz bezeichnet. Aus der Analyse des Blickverhaltens kann nachvollzogen werden, welche Wegweiser oder Signaltafeln aufgrund ihrer ungünstigen Plazierung nicht genügend Beachtung finden, oder wo besonders uneinsichtige bzw. wenig beachtete Stellen in einer Kreuzung liegen. 



   Im Bereich der Arbeitssicherheit, z. B. auf Baustellen kann untersucht werden, welche Gefah- renquellen erst sehr spät von der Testperson erfasst werden, und welche Sicherheitsvorkehrungen hier notwendig wären. 



   Ein weiteres wichtiges Anwendungsgebiet von Blickerfassungssystemen liegt in der Analyse von Werbeplakaten oder Werbespots. Auch hier kann sehr genau erfasst werden, welche Botschaf- ten, Texte Logos etc. von der Testperson wie lange und in welcher Reihenfolge fixiert werden. 



   Fig. 1 zeigt ein Teil eines Blickerfassungssystems zur Durchführung des erfindungsgemässen Verfahrens. Das Blickfeld der Testperson wird durch eine nach vorne gerichtete und starr mit dem Kopf der Testperson verbundene erste Kamera 1 erfasst. Diese erste Kamera 1 gibt somit ein ungefähres Bild der Blickrichtung der Testperson, welche rein durch die Position des Kopfes defi- niert ist. Die erste Kamera 1 kann z. B. durch eine CCD-Farbkamera realisiert sein, die einen Gross- teil des Blickfeldes der Testperson aufzeichnet. 



   Vorzugsweise kann die erste Kamera 1 und/oder auch die zweite Kamera 2 zusätzlich mittels Software gesteuert werden und so den unterschiedlichsten äusseren Einsatzbedingungen angepasst werden. Dies stellt sicher, dass durch die direkte Aufnahme der Pupille keinerlei Verzerrung des Pupillenbildes gegeben ist, bzw. durch die direkte Nähe zum Auge eine grosse Abbildung vorhan- den ist und die Einrichtung insgesamt kleiner gehalten werden kann. Bisherige Verfahren stellen sowohl durch die Grösse, als auch durch die generelle schlechtere Bildqualität erhebliche Ursachen für Unschärfen dar. Dies bedeutet nicht nur Erschwerungen im Gewicht des Blickerfassungssys- tems, sondern auch generelle Einschränkungen im Blickverhalten der Testperson, welche durch das erfindungsgemässe Verfahren vermieden werden.

   Daher kann das erfindungsgemässe Blicker- fassungssystem auch von Probanden mit unterschiedlichen Kleidungen und Schutzmassnahmen wie z.B. Helm ohne Einschränkungen verwendet werden. Es können daher auch sehr leicht unter- schiedliche Kameras mit verschiedenen Objektiven je nach Versuchsanforderungen Anwendung finden. 



   Die qualitativ hochwertigen Kameras, die im erfindungsgemässen System eingesetzt werden sind vorzugsweise mit einer Control Unit ausgestattet, die es ermöglicht automatischen Weissab- gleich, Farbbalance und Belichtung vorzunehmen. Diese Werte sind üblicherweise auch manuell einstellbar. Durch diese Control Unit wird ermöglicht die Bildqualität den Versuchsbedingungen 

 <Desc/Clms Page number 5> 

 optimal anzupassen. Hiermit ist eine sehr hohe Bildqualität zur weiteren Analyse sichergestellt. 



  Weiters besteht vorzugsweise die Option, den Bildausschnitt als digitalen Zoom elektronisch zu vergrössern. Andere Einstellmöglichkeiten haben in der Regel nur bedingten Einfluss auf das gene- rierte Bild. 



   Die Bewegung der Pupille der Testperson wird durch eine zweite Kamera 2 erfasst, die eben- falls starr mit dem Kopf der Testperson verbunden ist, und auf eines der beiden Augen der Test- person gerichtet ist. Die zweite Kamera 2 kann beispielsweise durch eine s/w CCD-Kamera reali- siert sein und die Augenbewegungen des rechten Auges registrieren. Die Erfassung der Pupillen- position durch die zweite Kamera 2 erfolgt bei den in den Figuren dargestellten Blickerfassungssystemen unmittelbar, wobei die zweite Kamera 2 direkt auf das Auge der Testperson gerichtet ist. Die Erfassung der Pupillenposition kann aber auch über optische Umlenksysteme wie Spiegel oder Glasfaserkabel erfolgen, mit denen das Bild vom Auge an die zweDeekaindes Kamgetsnk Qisind beispielsweise auf einem Helm oder einer Brille 3 (vgl.

   Fig.2) oder einer ähnlichen vorzugsweise leicht auf- und abnehmbaren Trägereinrichtung aufgebracht, die starr mit dem Kopf der Testperson verbunden sind. Unter starr verbunden ist, wie oben bereite erläutert, zu verstehen, dass die Trägereinrichtung und beide Kameras 1,2 allen Bewegungen des Kopfes folgen, wobei aber die Bewegungsfreiheit des Kopfes und der Augen in keiner Weise eingeschränkt wird. Die Anbringung der Kameras auf einer Brille 3 als leicht auf- und abnehmbare Trägereinrichtung ermöglicht eine besonders grosse Mobilität der Testperson und erlaubt eine sehr viel grössere Versuchsvielfalt als bei herkömmlichen Systemen. 



   Natürlich ist es auch möglich, mehrere zweite Kameras 2 vorzusehen, beispielsweise um beide Pupillen der Testperson aufzunehmen. Auch können mehrere erste Kameras 1 vorgesehen wer- den, um das Blickfeld der Testperson vollständig zu erfassen, falls die Brennweite einer einzelnen ersten Kamera 1 hierfür nicht ausreichend ist. 



   Auf diese Weise können einzelne Blicksequenzen erfasst und, wie im folgenden beschrieben, ausgewertet und analysiert werden. Die Bezeichnung Blicksequenz steht dabei für die Summe der jeweils aufgenommenen und analysierten Blicke. 



   Durch die beiden Kameras 1, 2 erhält man zwei, im folgenden mit Augenvideo und Blickfeldvi- deo bezeichnete und in Fig. 3 schematisch dargestellte Videosignale, welche auf ein in Fig. 4 dargestelltes Videosystem aufgezeichnet werden. 



   Die Bezeichnung Videosystem umfasst hierbei alle Einrichtungen, die geeignet sind, Filmdaten aufzuzeichnen. Das Trägermaterial zur Aufzeichnung der Videosignale ist hier unwesentlich. Es können analoge Filmmaterialien wie auch Videobänder oder digitale Speichermedien wie DVDs oder ähnliche verwendet werden. Auch das Ablegen einzelner Bilder im Speicher eines Computers gilt als Aufzeichnung im Sinne der Erfindung. Auch das Format ist nicht wesentlich. Es können unterschiedliche analoge oder digitale Filmformate, wie DV oder MPEG2 verwendet werden. 



  Vorzugsweise werden bei der Verwendung von CCD-Kameras die beiden Bildinformationen auf ein digitales Videosystem, beispielsweise auf 2 Mini-DV-Rekorder, aufgezeichnet. 



   Bei einer bevorzugten Ausführungsform wird die Verbindung zwischen den Kameras 1,2 und dem Videosystem erstmals auch über eine Funkstrecke realisiert. Dies ermöglicht die kabellose Übertragung der Videosignale zum Videosystem. Hierdurch wird vorteilhaft das ungehinderte Bewegen der Testperson als Fussgänger, als Radfahrer im freien Gelände oder auch auf bestimm- ten Arbeitseinsätzen, wie. z. B. auf Gerüsten oder Baustellen ermöglicht. 



   Wesentlich ist, dass die beiden Videosignale synchronisiert sind, d. h., dass für jedes Einzelbild des Augenvideos das entsprechende Einzelbild des Blickfeldvideos gefunden werden kann und umgekehrt. Die Synchronisierung kann mit einem periodischen Signalgenerator und Time-Code erfolgen. Vorzugsweise wird das Aufzeichnungsverfahren mit einem Tonpuls synchronisiert, der auf den jeweiligen Audiospuren mit aufgezeichnet wird. Dieses Verfahren ermöglicht es, gleichzei- tig auch andere externen Geräte, wie z. B. UDS-Datenschreiber, GPS-Systeme o.ä. mit zu syn- chronisieren um auch weitere technische und medizinische Kenngrössen wie die aktuelle genaue geographische Position oder auch Herz- bzw. Pulsfrequenz, Hautwiderstand etc. der Testperson direkt mit dem Blickverhalten in Abstimmung bringen zu können.

   Die Synchronisierung ist für die spätere erfindungsgemässe Bearbeitung bzw. Auswertung der beiden Videosignale unabdinglich. 



   Bei dem erfindungsgemässen Verfahren werden die genauen Koordinaten (xa,ya) des Pupil- lenmittelpunktes im Augenvideo durch ein Bilderkennungsprogramm ermittelt. Hierbei werden die 

 <Desc/Clms Page number 6> 

 Pupillenkoordinaten (xa,ya) für jedes Einzelbild des Augenvideos ermittelt. Die Pupillenkoordinaten (xa,ya) in einem Einzelbild des Augenvideos sind in Fig. 3 skizziert. 



   Die Ermittlung der Pupillenkoordinaten (xa, ya) erfolgt vorzugsweise automatisch mit einem Bil- derkennungsprogramm. Hierfür werden für jedes Einzelbild des Augenvideos die Kontraste der Pupille zum Umfeld registriert und alle Punkte des Einzelbilds, die dunkler als ein eingestellter Dunkelheitsgrad sind, gesucht. Mit diesen Punkten wird eine Dunkelfläche voll erfasst und abge- grenzt, und daraufhin automatisch der Schwerpunkt dieser Dunkelfläche ermittelt. Da die Dunkel- fläche der Pupille der Testperson entspricht, stellt der Schwerpunkt der Dunkelfläche den Pupil- lenmittelpunkt dar. 



   Vorzugsweise bietet das Bilderkennungsprogramm Einstellungsvarianten für die entsprechen- den Kontraste und den Dunkelheitsgrad, sodass die höchstmögliche Genauigkeitsstufe für alle Einzelbilder erreicht werden kann. Für jedes Einzelbild kann somit für unterschiedliche Belich- tungsverhältnisse der jeweils beste Kontrast in Form einer Grauwertschwelle sichergestellt werden, was insgesamt eine einwandfreie sichere Bestimmung der Pupillenkoordinaten (xa.ya) möglich macht. 



   Die Grauwertschwelle ist jener Wert, der z. B. bei digitalisierter Form zwischen 1 und 256 liegt, und den prozentuellen Anteil von Schwarz bzw. Weiss an einem Bildpunkt definiert. Der höchste erreichbare Wert entspricht einem vollen Schwarz, der niedrigste Wert dem Weiss. Da die Pupille bei der Aufzeichnung nie den vollen Schwarzwert erreicht, ist ein Wert zu definieren, der - zumin- dest für dieses Bild - dem real vorhandenen Pupillengrau entspricht. Der Schwellwert scheidet alle Bildpunkte aus, die heller als der definierte Grauwert sind, alle dunkleren Bereiche werden zur Schwerpunktsfindung herangezogen. Drei Parameter ermöglichen es, die Schwellendefinition zu optimieren. Da sich bei den Versuchen innerhalb einer Sequenz die Belichtungsverhältnisse oft sehr stark verändern, ist diese Schwellwertdefinition vorzugsweise auch für jedes Bild einzeln möglich.

   Alle Einstellungen können entsprechend den hohen Anforderungen für jedes Bild der Sequenz in einer Datei abgelegt werden. Durch das erfindungsgemässe Verfahren ist die beson- ders hohe Genauigkeit bei der Zuordnung der Pupillenkoordinaten (xa,ya) an das Blickfeld möglich. 



  Die jeweilige Genauigkeitsstufe kann beispielsweise in Form einer Staffel visualisiert werden. In diesem Fall wird die Güte der ermittelten Fläche im Auswerteprogramm mittels der Staffel darge- stellt, wobei es zunächst wichtig ist, dass ein positiver Wert erreicht wird. Negative Werte haben zur Folge, dass das jeweilige Bild ausgesondert wird. Je höher der positive Wert ausfällt, umso exakter können helle (Umfeld) von dunklen (Pupille) Bereichen unterschieden werden. 



   Zusätzlich kann zur genaueren Lokalisation des Pupillenmittelpunktes ein Infrarotfilter vor der Kamera vorgesehen sein. Durch diesen werden die Kontraste im Augenvideo verstärkt. Der IR    Filter hat zwei wichtige Funktionen : Erstenserfolgt die Beleuchtung des Auges mit Infrarot Leucht-   dioden (LED), die auch bei absoluter Dunkelheit gute Kontraste für die Augenkamera und für die weitere Bearbeitung gewährleisten. Der Filter hat die Aufgabe, das von den LED emittierte Licht auf den Kamerachip durchzulassen, alle anderen Spektralbereiche des Lichtes werden entspre- chend der Filterdurchlasskurve gedämpft. Zweitens sind die vom Sonnenlicht verursachten Reflexi- onen auf der Pupille, die sich massiv negativ auf die Schwerpunktsfindung auswirken, hauptsäch- lich im blauen Spektralbereich vorhanden.

   Auch hier hat der Filter die Aufgabe die Reflexionen auf der Pupille, die durch das Sonnenlicht verursacht werden, zu reduzieren. 



   Bei einer weiteren vorteilhaften Ausführung des erfindungsgemässen Verfahrens erfolgt nach der automatischen Ermittlung der Pupillenkoordinaten (xa,ya) zusätzlich eine manuelle Kontrolle. 



  Ein Bearbeiter kann bei einer fehlerhaften automatischen Erkennung (die beispielsweise bei plötz- lichen Lichtreflexen auf der Augenoberfläche etc. auftreten) die Bildverarbeitungsparameter manu- ell ändern. Auch ist es möglich, die Pupillenkoordinaten (xa,ya) unmittelbar zu korrigieren. Eine Benutzeroberfläche für die erfindungsgemässe rechnerische Lokalisation des Pupillenmittelpunktes und die manuelle Kontrolle ist in Fig. 5 gezeigt. 



   Man erhält insgesamt für jedes Einzelbild des Augenvideos die Pupillenkoordinaten (xa,ya) beispielsweise in Form eines kartesischen Wertepaares. Natürlich können auch andere Koordina- tensysteme, wie Polarkoordinaten etc. zum Einsatz kommen. 



   Da beide Kameras 1, 2 starr mit dem Kopf der Testperson verbunden sind, entspricht einer be- stimmten Position der Pupille bzw. des Pupillenmittelpunktes im Augenvideo stets ein genau defi- nierter Blickpunkt B im Blickfeldvideo. Aus dem Augenvideo und dem Blickfeldvideo kann somit 

 <Desc/Clms Page number 7> 

 berechnet werden, auf welchen Punkt die Testperson genau blickt. 



   Für die Zuordnung der Pupillenkoordinaten (xa,ya) zu den Koordinaten (xb,yb) des entspre- chenden Blickpunktes B, d. h. des Punktes, den die Testperson fixiert, auf dem Blickfeldvideo muss zunächst die Korrelationsfunktion K zwischen diesen beiden Koordinatenpaaren (xa,ya) und (xb,yb) ermittelt werden. Die Korrelation zwischen Pupillenkoordinaten (xa,ya) und Blickpunkt B auf dem Blickfeldvideo erfolgt über eine Versuchsserie. Hierbei fixiert die Testperson der Reihe nach bestimmte vorgegebene Passpunkte P. Die Korrelationsfunktion K zwischen Pupillenkoordinaten (xa, ya) und den Koordinaten (xb,yb) im Blickfeldvideo wird anhand der hierbei gemessenen Daten erstellt. 



   Beim erfindungsgemässen Verfahren wird die Korrelationsfunktion K zwischen Pupillenkoordi- naten (xa,ya) auf dem Augenvideo und den Koordinaten (xb,yb) des entsprechenden Blickpunktes B auf dem Blickfeldvideo vorzugsweise automatisch ermittelt. Hierfür werden zunächst eine oder mehrere Musterblicksequenzen der Testperson auf einen oder mehrere bestimmte vorgegebene Passpunkte P aufgenommen. Unter Musterblicksequenz ist eine Blicksequenz zu verstehen, welche lediglich für die Kalibrierung aufgenommen wird, und bei der die Testperson auf vorgege- bene Passpunkte P blickt. 



   Beispielsweise kann ein bestimmter Passpunkt P auf einer Wand markiert sein. Um einen best- möglichen Kontrast zu erhalten, kann beispielsweise eine schwarze Markierung auf einer sonst weissen Oberfläche als Passpunkt P gewählt werden. Der Passpunkt P ist in der Regel ein Kreuz oder ein Leuchtpunkt oder ähnliches. Die Testperson wird angewiesen, diesen Passpunkt P zu fixieren, wobei das Blickfeld und das Auge der Testperson durch die beiden Kameras 1, 2 aufge- nommen werden. Es können auf diese Weise mehrere Passpunkte P definiert werden. Auch ist es möglich, lediglich einen Passpunkt P zu markieren und die Testperson anzuweisen, bei Fixierung dieses Passpunktes P unterschiedliche Bewegungen mit dem Kopf auszuführen. Zwei Einzelbilder der auf diese Art erhaltenen Augen und Blickfeldvideos sind in Fig. 6 skizziert. 



   Da der Blickpunkt B auf dem so aufgenommenen Blickfeldvideo der Musterblicksequenz durch den bekannten Passpunkt P gegeben sind, kann in einem nächsten Schritt die Korrelationsfunktion K zwischen den Pupillenkoordinaten (xa,ya) auf dem Augenvideo und den Koordinaten (xb,yb) des entsprechenden Blickpunktes B auf dem Blickfeldvideo ermittelt werden. 



   Hierfür werden für jedes Einzelbild im Augenvideo die Pupillenkoordinaten (xa,ya) im Augenvi- deo gemäss dem oben beschriebenen Verfahren ermittelt. 



   Weiters werden die Koordinaten (xb,yb) des Passpunktes P im entsprechenden Einzelbild auf dem Blickfeldvideo ermittelt. Dies erfolgt bevorzugt mit einem Bilderkennungsverfahren, welches auf dem Blickfeldvideo die Koordinaten (xb,yb) des durch seinen Kontrast eindeutig erkennbaren Passpunktes P ermittelt. 



   Es ist aber auch möglich, die Koordinaten (xb,yb) des Passpunktes P im Blickfeldvideo jeweils für jedes Einzelbild händisch, beispielsweise durch Mausklickverfahren, zu bestimmen. Dies er- laubt eine Auswertung der Musterblicksequenz auch bei schwierigen Bedingungen im Gelände, bei denen eine automatische Bestimmung der Koordinaten (xb,yb) des Passpunktes P, beispielsweise wegen eines zu uneinheitlichen Hintergrundes, nicht möglich ist. 



   Somit können die Pupillenkoordinaten (xa,ya) im Einzelbild des Augenvideo den Koordinaten (xb,yb) des Passpunktes P im entsprechenden Einzelbild des Blickfeldvideos zugeordnet werden. 



   Die entsprechenden Koordinaten im Augen- und im Blickfeldvideo werden für jedes Einzelbild der Musterblicksequenz ermittelt und abgespeichert. 



   Aus allen so gewonnenen Datensätzen werden vorzugsweise durch quadratische Regression die Pupillenkoordinaten (xa,ya) auf dem Augenvideo und die Koordinaten (xb,yb) des entspre- chenden Blickpunktes B auf dem Blickfeldvideo korreliert. Natürlich sind auch andere Verfahren wie lineare Regression oder stochastische Modelle für die Korrelation möglich. Eine Benutzerober- fläche für die erfindungsgemässe Ermittlung der Korrelationsfunktion K ist in Fig. 7 dargestellt. 



   Man erhält eine Korrelationsfunktion K : (xa,ya)   @   (xb,yb), welche einem bestimmten Satz von Pupillenkoordinaten (xa,ya) auf dem Augenvideo eindeutig die entsprechenden Koordinaten (xb,yb) des Blickpunktes B im Blickfeldvideo zuordnet. 



   Für eine grösstmögliche Genauigkeit der Korrelationsfunktion K sollten zumindest 25 unter- schiedliche Positionen des Passpunktes P verwendeten werden. Ab etwa 100 unterschiedlichen Passpunktpositionen nimmt die erzielte Genauigkeit kaum mehr zu, sodass eine weitere Erhöhung 

 <Desc/Clms Page number 8> 

 der Zahl der Passpunktpositionen nicht mehr sinnvoll ist. Vorzugsweise werden somit zwischen 25 und 100 Passpunktpositionen verwendet. 



   Mit der so ermittelten Korrelationsfunktion K können alle weiteren Videosequenzen der glei- chen Versuchsserie, d.h. bei denen es keine Änderungen bezüglich der Kamerapositionen auf dem Kopf der Testperson gibt, errechnet werden. 



   Durch die numerische Korrelation der beiden Koordinatenpaare können nichtlineare Zusam- menhänge erfasst werden. Dies bietet einen bedeutenden Vorteil gegenüber bekannten Systemen, bei denen die beiden Videosignale einfach übereinandergelegt werden. Das Ergebnis bei diesen bekannten Verfahren ist ein Ergebnisvideo, welches das Blickfeld der Testperson zeigt. Über das Blickfeld ist die Pupille der Testperson überlagert, so dass ersichtlich ist, welcher Punkt von der Testperson fixiert wird. Diese bekannten Verfahren sind allerdings sehr ungenau. Geometrische Verschiebungen zwischen der Position der Pupille im Augenvideo und dem Blickpunkt müssen videotechnisch kompensiert werden. Beim erfindungsgemässen Verfahren müssen derlei geometri- sche Faktoren nicht berücksichtigt werden.

   Die korrekte Zuordnung der Pupillenkoordinaten (xa.ya) zum Blickpunkt B erfolgt über die Korrelationsfunktion K. 



   Nach der Kalibrierung des Blickerfassungssystems können nun einzelne Blicksequenzen erfasst und analysiert werden. Nach erfolgter Ermittlung der Korrelationsfunktion K werden hierbei für jedes Einzelbild aus den Pupillenkoordinaten (xa,ya) auf dem Augenvideo die Koordinaten (xb,yb) des entsprechenden Blickpunktes B auf dem Blickfeldvideo extrapoliert. 



   Die Zusammenführung des Augenvideos und des Blickfeldvideos in einem Ergebnisvideo er- folgt softwaretechnisch so, dass die errechneten Blickpunkte B als Mittelpunkte der Blickzuwendun- gen auf dem Blickfeldvideo positioniert werden. Durch die erfindungsgemässe rechnerische Ermitt- lung der Koordinaten (xb,yb) der Blickpunkte B ist die besonders genaue Darstellung des Mittel- punktes der Blickzuwendung möglich. 



   Der Blickpunkt B kann auf dem Ergebnisvideo genau eingezeichnet werden. Vorzugsweise wird der Blickpunkt B auf dem Ergebnisvideo durch eine visuell gut sichtbare Markierung, bei- spielsweise durch ein Kreuz, angedeutet. Fig. 8 zeigt ein Einzelbild eines so erzeugten Ergebnisvideos. 



   In einem nächsten Schritt kann das Ergebnisvideo in einer eigenen Datei abgespeichert wer- den, wobei übliche Videokomprimierungsverfahren zur Anwendung kommen können. 



   Das erfindungsgemässe Verfahren kann vollständig automatisiert durchgeführt werden. In die- sem Fall ist eine händische Kontrolle der Pupillenkoordinaten (xa,ya) nicht vorgesehen. Diese werden unmittelbar über das   Bilderkennungsprogramm   aus den Einzelbildern des Augenvideos ermittelt. Desweiteren werden die Koordinaten (xb,yb) der Passpunkte P während des Kalibrie- rungsschrittes automatisch ermittelt. Somit ist das weiter oben beschriebenes Abspeichern des gesamten Augenvideos nicht mehr unbedingt notwendig. 



   Bei einer bevorzugten Ausführungsform der Erfindung bietet die Verarbeitungssoftware die weitere vorteilhafte Möglichkeit, das Blickfeld in unterschiedliche Einheiten, sogenannten Katego- rien ki, aufzugliedern. Die jeweiligen Bildinhalte können zu frei wählbaren und definierbaren Kate- gorien ki zugeordnet werden. 



   Diese Einteilung in Kategorien ki ist nicht nur für das erfindungsgemässe, sondern auch für an- dere Verfahren zur Erfassung, Auswertung und Analyse von Blicksequenzen vorteilhaft, bei denen das Blickfeld der Testperson durch eine erste Kamera 1 erfasst wird und für jedes Einzelbild des Blickfeldvideos die Koordinaten (xb,yb) des entsprechenden Blickpunktes B auf dem Blickfeldvideo ermittelt werden. 



   Die Kategorien ki k1..kn können statische oder bewegliche Elemente des Blickfeldes sein. Bei- spielsweise kann bei einem Flugsimulator eine Kategorie ki durch ein fremdes Flugzeug dargestellt sein, eine weitere durch die Höhenanzeige etc. Bei Werbeplakaten kann eine Kategorie ki durch ein bestimmtes Logo, eine andere durch einen bestimmten Text gegeben sein usw. Beispielsweise enthält das in Fig. 9 skizzierte Bild bzw. Schild oder Werbeplakat eine bildliche Darstellung 10, ein Logo 11 einen Titel 12 und einen erläuternden Werbetext 13. Bei der Analyse der Blicksequenzen auf dieses Standbild kann jedem dieser Elemente eine eigene Kategorie ki zugeordnet werden. In Fig. 11 ist der bildlichen Darstellung 10 die Kategorie k1, dem Logo 11 die Kategorie k2, dem Titel 12 die Kategorie k3 und dem erläuternden Werbetext 13 die Kategorie k4 zugeordnet. 



   Die Zuordnung der einzelnen Blickpunkte zu den einzelnen Kategorien ki kann automatisch 

 <Desc/Clms Page number 9> 

 erfolgen. Wesentlich ist, dass mehrere Kategorien ki definiert werden und der Blickpunkt B für jedes Einzelbild einer Kategorie ki zugeordnet wird, indem für jedes Einzelbild überprüft wird, im Bereich welcher Kategorie ki der Blickpunkt B liegt. Liegt der Blickpunkt B in keiner der definierten Katego- rien ki, kann er einer zusätzlichen Nullkategorie zugeordnet werden. 



   Beispielsweise können im Fall eines statischen Bildes einzelne Kategorien ki anhand der Häu- fungen der Blickpunkte definiert werden. Somit erfolgt die Einteilung in Kategorien ki voll automa- tisch. Bei beweglichen Bildern, wie im Fall des genannten Flugsimulators, können die beweglichen Objekte durch spezielle Bilderkennungssoftware erkannt und lokalisiert werden. Auch ist eine Kommunikation zwischen dem Flugsimulator und dem Blickerkennungssystem möglich, bei dem die Koordinaten (xb,yb) der einzelnen Flugzeuge, bzw. Kategorien ki unmittelbar eingelesen werden können. 



   Andererseits ist auch die händische Zuordnung der Blickpunkte zu den einzelnen Kategorien ki für jedes Einzelbild möglich. 



   Das erfindungsgemässe Verfahren erlaubt durch das Vorliegen der Daten in digitalisierter Form eine weitere Aufbereitung der Daten, insbesondere der Zuordnung der einzelnen Blickpunkte B zu den unterschiedlichen Kategorien ki, die die Analyse derselben stark vereinfacht. 



   Bei einer vorteilhaften Ausführung des Verfahrens kann vorgesehen sein, dass zur komprimier- ten Darstellung der zeitlichen Abfolge der Zugehörigkeit des Blickpunktes B zu einer bestimmten Kategorie ki einer Blicksequenz ein Diagramm erstellt wird, welches zwei Achsen aufweist, wobei eine Achse einer Zeitachse entspricht und die andere Achse den einzelnen Kategorien ki ent- spricht. Hierfür wird für jedes Einzelbild ermittelt, in welcher Kategorie ki sich der Blickpunkt B befindet und in dem Diagramm an der dem Zeitpunkt des Einzelbildes entsprechenden Höhe der Zeitachse und der der Kategorie ki entsprechenden Höhe der anderen Achse eine visuelle Marke 20, beispielsweise ein Strich, eingetragen. 



   Das auf diese Weise erzeugte sogenannte lineare Blickband, welches in Fig. 10 dargestellt ist, ist eine Darstellungsform, bei der auf einer Achse die Zeit, in Sekunden oder in Einzelbildern, dargestellt wird und auf der anderen Achse die frei zu wählenden Kategorien ki aufgetragen wer- den. Durch die Eintragung einzelner visueller Marken 20 bzw. einzelner Striche für jedes Einzelbild entsprechend der Zuordnung des Blickpunktes B zu einer der aufgetragenen Kategorien ki ergibt sich eine Balkendarstellung, bei der jeder Balken 21 den Beginn und das Ende einer Blickzuwen- dung zu einer bestimmten Kategorie ki angibt. Der zeitliche Ablauf des Festhaltens des Blickes der Testperson an bestimmten Kategorien ki wird somit als Diagramm über der Zeit klar ersichtlich. 



  Selbstverständlich können auch andere visuelle Marken 20 wie Punkte, Kreuze etc. verwendet werden. 



   Natürlich ist es auch möglich, in dem linearen Blickband Zusatzinformationen, die über Video- auswertungen hinausgehen, einzutragen. Dazu zählen Informationen, die den Handlungsablauf beschreiben, wie z. B. Veränderungen im Strassenraum, aber auch Zusatzinformationen aus ande- ren Datenquellen wie beispielsweise UDS-Datenschreiber, (Geschwindigkeit, Richtung), oder auch in weiterer Folge humanphysiologische Daten des Pulsschlages oder Lidschlages, der Körpertem- peratur usw. 



   Im linearen Blickband können, entsprechend den jeweiligen Zeitabschnitten, die Kategorien ki durch Balken 21, die in verschiedenen Farben die Kategorien ki symbolisieren, zentral dargestellt werden. Es können innerhalb dieser einzelnen Kategorien ki Zusammenfassungen getroffen wer- den, die dann farblich inhaltlich unterschieden werden, wie z. B. örtliche Unterschiede oder inhaltli- che Unterschiede wie Links/Rechts oder Vorne/Hinten. Das lineare Blickband ist grundsätzlich nicht in seiner Länge oder in seinen Kategorien ki begrenzt. Um eine anschauliche Darstellungs- form zu ermöglichen, ist es jedoch sinnvoll, Ausschnitte inhaltlich zusammenzufassen. 



   Bei einer weiteren vorteilhaften Darstellungsform der Vorgänge bei einer Blicksequenz auf ein Standbild, d. h. auf ein nicht bewegtes Bild, wie z. B. eine Werbetafel, können die Verweildauern des Blickpunktes B auf unterschiedlichen Kategorien ki grafisch dargestellt werden. Hierfür wird für jede Kategorie ki ermittelt, bei welchen Einzelbildern der Blickpunkt B im Bereich dieser Kategorie ki liegt. Die Zeiten, für die der Blickpunkt B im Bereich dieser Kategorie ki liegt, werden addiert, wobei die so ermittelte Summe der Verweildauer des Blickpunktes B auf dieser Kategorie ki entspricht. 



  Aus den unterschiedlichen Verweildauern wird anschliessend eine Grafik bzw. ein Bild erstellt, welches im wesentlichen dem Standbild entspricht, wobei aber jede Verweildauer auf den einzel- 

 <Desc/Clms Page number 10> 

 nen Kategorien ki jeweils durch ein grafisches Element 30 dargestellt ist, welches im Bereich der Kategorie ki plaziert ist und zumindest einen Parameter - Durchmesser, Farbe o.ä. - aufweist, der der Verweildauer proportional ist. Beispielsweise können unterschiedliche Verweildauern durch grafische Elemente 30 unterschiedlicher Grösse (beispielsweise ist der Umfang des grafischen Elements 30 umso grösser, je länger die Verweildauer ist) oder unterschiedlicher Farbe dargestellt werden.

   Fig. 11zeigt ein aus dem Werbeplakat von Fig. 9 gewonnenes Diagramm, in welchem die Verweildauern auf den einzelnen Kategorien ki durch grafische Elemente 30 angezeigt sind, wel- che als Punktwolken unterschiedlichen Durchmessers ausgeführt sind. Weiters sind in Fig. 11die Abgrenzungen der vier definierten Kategorien k1 bis k4 durch gestrichelte Linien angedeutet. 



   Dieses erfindungsgemässe Diagramm zur komprimierten Darstellung der Verweildauer des Blickpunktes B auf einer bestimmten Kategorie ki einer Blicksequenz auf ein Standbild zeichnet sich somit dadurch aus, dass im Bereich jeder Kategorie ki ein grafisches Element angeordnet ist, welches der Verweildauer proportional ist. Die Häufigkeit des Festhaltens des Blickpunktes B auf einer bestimmten Kategorie ki wird in dem erfindungsgemässen Diagramm durch ein der Verweil- dauer proportionales grafisches Elemente 30, etwa einen unterschiedlich grossen Punkt, angezeigt. 



   Durch dieses Diagramm können die Häufigkeiten und die Zeitbedarfsanalyse besonders deut- lich visualisiert werden. Das erfindungsgemässe Diagramm ermöglicht eine qualitative hochkarätige und anschauliche Analyse der Blickzuwendungshäufigkeiten. 



   Bei einer weiteren Darstellungsform, der sogenannten Blickfeldskizze, werden die Blickabfol- gen in der Reihenfolge, wie sie im Ergebnisvideo in Erscheinung treten, aufgetragen. Dabei kön- nen perspektivische Darstellungen oder entzerrte Darstellungen der von der Testperson betrachte- ten Szene zur Anwendung gelangen, wie z. B. Aufriss- oder Grundrissskizzen. Bei Aufrissskizzen können in einem Screenshot in parallel erstellten Fotos, aber auch in Skizzen, die Blickabfolgen grafisch erstellt werden. Für Grundrissskizzen können Lagepläne, stilisierte Pläne, aber auch Übersichtsdarstellungen für konkrete Inhalte herangezogen werden. In der Blickfeldskizze wird jedem Blickpunkt, bzw. jeder Fixation ein Pfeil zugeordnet, unabhängig von der Fixationslänge.

   Die Fixationslängen bzw. thematischen Zusammenhänge können farblich, aber auch durch Zusatzin- formationen näher beschrieben werden. Als Zusatzinformationen sind Numerierungen bzw. Erklä- rungstexte möglich. Ergänzend können auch zeitliche Zusammenhänge und unterschiedliche Farbskalierungen dargestellt werden, d. h. es können Zeiten gebündelt und in einer konkreten Farbe mit entsprechender Legende ausgewiesen werden. 



   Das erfindungsgemässe Verfahren eignet sich besonders für die Analyse des Blickverhaltens verschiedener Testpersonen in einer selben, vorgegebenen Untersuchungssituation. Hierfür wird die Untersuchungssituation aufgezeichnet und anschliessend unterschiedlichen Testpersonen vorgespielt, wobei deren Blickverhalten analysiert wird. Dies ist beispielsweise für die Untersu- chung einer bestimmten gefährlichen Stelle im Strassenverkehr vorteilhaft. Für die selbe Verkehrssituation kann das Blickverhalten unterschiedlicher Testpersonen, beispielsweise altersabhängig oder abhängig davon, ob die Testperson unter dem Einfluss bestimmter Medikamente, Drogen oder Alkohol steht, untersucht werden.

   Es können aber auch andere Untersuchungssituationen wie Arbeitseinsätze auf Baustellen oder in Kraftwerksleitstellen oder - sicherungen oder allgemeine Situationen in Mensch-Maschine Systemen aufgezeichnet werden, wobei später das Blickverhalten unterschiedlicher Testpersonen in diesen Untersuchungssituationen analysiert werden kann. Die Aufzeichnung der Untersuchungssituation erfolgt beispielsweise mit einer einfachen Videokamera, wobei diese Aufzeichnung den Testpersonen z. B. über einen Videoprojektor vorgespielt werden kann. 

**WARNUNG** Ende DESC Feld kannt Anfang CLMS uberlappen**.

Claims (9)

  1. PATENTANSPRÜCHE : 1. Verfahren zur Erfassung, Auswertung und Analyse von Blicksequenzen einer Testperson mittels eines Blickerfassungssystems, - wobei das Blickfeld der Testperson durch eine nach vorne gerichtete und starr mit dem Kopf der Testperson verbundene erste Kamera (1) erfasst und in einem Blickfeldvideo aufgezeichnet wird, - die Bewegung der Pupille der Testperson durch eine zweite Kamera (2), die ebenfalls <Desc/Clms Page number 11> starr mit dem Kopf der Testperson verbunden ist, erfasst und in einem Augenvideo auf- gezeichnet wird - und das Augenvideo und das Blickfeldvideo auf ein Videosystem aufgezeichnet und zeitlich synchronisiert werden, wobei für jedes Einzelbild des Augenvideos die Pupillenkoordinaten (xa,ya) ermittelt werden, - die Korrelationsfunktion (K) zwischen Pupillenkoordinaten (xa,ya) auf dem Augenvideo und den Koordinaten (xb,yb)
    des entsprechenden Blickpunktes (B), d. h. des Punktes, den die Testperson fixiert, auf dem Blickfeldvideo ermittelt wird und nach erfolgter Ermittlung der Korrelationsfunktion (K) für jedes Einzelbild aus den Pupillenkoordinaten (xa,ya) auf dem Augenvideo die Koordinaten (xb,yb) des entspre- chenden Blickpunktes (B) auf dem Blickfeldvideo extrapoliert werden, dadurch gekennzeichnet, dass zur Ermittlung der Pupillenkoordinaten (xa,ya) für jedes Einzelbild des Augenvideos mit einem Bilderkennungsprogramm automatisch - die Kontraste der Pupille zum Umfeld registriert werden, - alle Punkte des Einzelbilds, die dunkler als ein eingestellter Dunkelheitsgrad sind, ge- sucht werden, - mit diesen Punkten eine der Pupille entsprechende Dunkelfläche voll erfasst und abge- grenzt wird, und - der dem Pupillenmittelpunkt mit den Pupillenkoordinaten (xa,ya)
    entsprechende Schwerpunkt der Dunkelfläche ermittelt wird.
  2. 2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass nach der automatischen Er- mittlung der Pupillenkoordinaten (xa,ya) eine händische Korrektur der Pupillenkoordinaten (xa,ya) erfolgt.
  3. 3. Verfahren zur Erfassung, Auswertung und Analyse von Blicksequenzen einer Testperson mittels eines Blickerfassungssystems, - wobei das Blickfeld der Testperson durch eine nach vorne gerichtete und starr mit dem Kopf der Testperson verbundene erste Kamera (1) erfasst und in einem Blickfeldvideo aufgezeichnet wird, - die Bewegung der Pupille der Testperson durch eine zweite Kamera (2), die ebenfalls starr mit dem Kopf der Testperson verbunden ist, erfasst und in einem Augenvideo auf- gezeichnet wird - und das Augenvideo und das Blickfeldvideo auf ein Videosystem aufgezeichnet und zeitlich synchronisiert werden, - wobei für jedes Einzelbild des Augenvideos die Pupillenkoordinaten (xa,ya) ermittelt werden, - die Korrelationsfunktion (K) zwischen Pupillenkoordinaten (xa,ya) auf dem Augenvideo und den Koordinaten (xb,yb) des entsprechenden Blickpunktes (B), d. h.
    des Punktes, den die Testperson fixiert, auf dem Blickfeldvideo ermittelt wird - und nach erfolgter Ermittlung der Korrelationsfunktion (K) für jedes Einzelbild aus den Pupillenkoordinaten (xa,ya) auf dem Augenvideo die Koordinaten (xb,yb) des entspre- chenden Blickpunktes (B) auf dem Blickfeldvideo extrapoliert werden, dadurch gekennzeichnet, dass zur Ermittlung der Korrelationsfunktion (K) zunächst eine oder mehrere Musterblicksequenzen der Testperson auf einen oder meh- rere bestimmte vorgegebene Passpunkte (P) aufgenommen werden und die Zuordnung der Pupillenkoordinaten (xa,ya) auf dem Augenvideo zu den Koor- dinaten (xb,yb) des Passpunktes (P) auf dem Blickfeldvideo ermittelt wird, - indem für jedes Einzelbild im Augenvideo die Pupillenkoordinaten (xa,ya) im Augen- video ermittelt werden, - die Koordinaten (xb,yb) des Passpunktes (P)
    im entsprechenden Einzelbild auf dem Blickfeldvideo ermittelt werden, - die Pupillenkoordinaten (xa,ya) im Einzelbild des Augenvideo den Koordinaten (xb,yb) des Passpunktes (P) im entsprechenden Einzelbild des Blickfeldvideo zuge- <Desc/Clms Page number 12> ordnet werden, - dieser Datensatz abgespeichert wird, - und aus allen Datensätzen, vorzugsweise durch quadratische Regression, die Pupillen- koordinaten (xa,ya) auf dem Augenvideo und die Koordinaten (xb,yb) des entsprechen- den Blickpunktes (B) auf dem Blickfeldvideo korreliert werden.
  4. 4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Koordinaten (xb,yb) des Passpunktes (P) auf jedem Einzelbild des Blickfeldvideos automatisch durch ein Bilder- kennungsverfahren ermittelt werden.
  5. 5. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Koordinaten (xb,yb) des Passpunktes (P) auf jedem Einzelbild des Blickfeldvideos händisch mittels Mausklickver- fahren ermittelt werden.
  6. 6. Verfahren nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass die Muster- blicksequenzen durch Drehen des Kopfes der Testperson bei Fixierung eines einzelnen Passpunktes (P) erhalten werden.
  7. 7. Verfahren nach einem der Ansprüche 3 bis 6, dadurch gekennzeichnet, dass zwischen 25 und 100 Positionen des Passpunktes (P) bzw. der Passpunkte (P) verwendet werden.
  8. 8. Verfahren zur Erfassung, Auswertung und Analyse von Blicksequenzen einer Testperson mittels eines Blickerfassungssystems, - wobei das Blickfeld der Testperson durch eine nach vorne gerichtete und starr mit dem Kopf der Testperson verbundene erste Kamera (1) erfasst und in einem Blickfeldvideo aufgezeichnet wird, - die Bewegung der Pupille der Testperson durch eine zweite Kamera (2), die ebenfalls starr mit dem Kopf der Testperson verbunden ist, erfasst und in einem Augenvideo auf- gezeichnet wird - und das Augenvideo und das Blickfeldvideo auf ein Videosystem aufgezeichnet und zeitlich synchronisiert werden, - wobei für jedes Einzelbild des Augenvideos die Pupillenkoordinaten (xa,ya) ermittelt werden, - die Korrelationsfunktion (K) zwischen Pupillenkoordinaten (xa,ya) auf dem Augenvideo und den Koordinaten (xb,yb) des entsprechenden Blickpunktes (B), d. h.
    des Punktes, den die Testperson fixiert, auf dem Blickfeldvideo ermittelt wird - und nach erfolgter Ermittlung der Korrelationsfunktion (K) für jedes Einzelbild aus den Pupillenkoordinaten (xa,ya) auf dem Augenvideo die Koordinaten (xb,yb) des entspre- chenden Blickpunktes (B) auf dem Blickfeldvideo extrapoliert werden, dadurch gekennzeichnet, dass mehrere Kategorien (ki) definiert werden und der Blick- punkt (B) für jedes Einzelbild einer Kategorie (ki) zugeordnet wird, indem für jedes Einzel- bild überprüft wird, im Bereich welcher Kategorie (ki) der Blickpunkt (B) liegt.
  9. 9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass zur komprimierten Darstel- lung von Verweildauern des Blickpunktes (B) auf bestimmten Kategorien (ki) einer Blickse- quenz auf ein Standbild - für jede Kategorie (ki) ermittelt wird, bei welchen Einzelbildern der Blickpunkt (B) in einer Kategorie (ki) liegt und - die Verweildauer des Blickpunktes (B) auf dieser Kategorie (ki) durch Addition der Dau- er dieser Einzelbilder ermittelt wird.
    HIEZU 6 BLATT ZEICHNUNGEN
AT15512001A 2001-10-01 2001-10-01 Verfahren zur erfassung, auswertung und analyse von blicksequenzen AT412443B (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
AT15512001A AT412443B (de) 2001-10-01 2001-10-01 Verfahren zur erfassung, auswertung und analyse von blicksequenzen
US10/262,608 US6997556B2 (en) 2001-10-01 2002-09-30 Method for detecting, evaluating, and analyzing look sequences
AU2002301266A AU2002301266B2 (en) 2001-10-01 2002-10-01 Method for detecting, evaluating and analyzing look sequences

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
AT15512001A AT412443B (de) 2001-10-01 2001-10-01 Verfahren zur erfassung, auswertung und analyse von blicksequenzen

Publications (2)

Publication Number Publication Date
ATA15512001A ATA15512001A (de) 2004-08-15
AT412443B true AT412443B (de) 2005-03-25

Family

ID=32831440

Family Applications (1)

Application Number Title Priority Date Filing Date
AT15512001A AT412443B (de) 2001-10-01 2001-10-01 Verfahren zur erfassung, auswertung und analyse von blicksequenzen

Country Status (2)

Country Link
AT (1) AT412443B (de)
AU (1) AU2002301266B2 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2935268A1 (de) * 1979-08-31 1981-03-19 Gerhard Dipl.-Psych. 8000 München Dittel Blickbewegungsmesseinrichtung durch infrarotdurchleuchtung es bulbus mit hilfe des tyndalleffektes
FR2719988A1 (fr) * 1994-05-20 1995-11-24 Centre Nat Rech Scient Dispositif de contrôle des mouvements oculaires.
WO1996036271A1 (de) * 1995-05-15 1996-11-21 Leica Ag Verfahren und vorrichtung zum parallelen erfassen von sehinformation

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6373961B1 (en) * 1996-03-26 2002-04-16 Eye Control Technologies, Inc. Eye controllable screen pointer

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2935268A1 (de) * 1979-08-31 1981-03-19 Gerhard Dipl.-Psych. 8000 München Dittel Blickbewegungsmesseinrichtung durch infrarotdurchleuchtung es bulbus mit hilfe des tyndalleffektes
FR2719988A1 (fr) * 1994-05-20 1995-11-24 Centre Nat Rech Scient Dispositif de contrôle des mouvements oculaires.
WO1996036271A1 (de) * 1995-05-15 1996-11-21 Leica Ag Verfahren und vorrichtung zum parallelen erfassen von sehinformation

Also Published As

Publication number Publication date
AU2002301266B2 (en) 2007-08-30
ATA15512001A (de) 2004-08-15

Similar Documents

Publication Publication Date Title
AT505338B1 (de) Verfahren zur wahrnehmungsmessung
EP2828794B1 (de) Verfahren und vorrichtung zum auswerten von ergebnissen einer blickerfassung
DE69434770T2 (de) Ophthalmologisches Instrument zur Bestimmung der Topographie der Cornea
EP1061851B1 (de) Verfahren und vorrichtung zur auswertung eines bewegungsmusters
DE102008054985B4 (de) Verfahren und Vorrichtung zur optischen Vermessung von dreidimensionalen Objekten mittels einer dentalen 3D-Kamera unter Verwendung eines Triangulationsverfahrens
EP3183616B1 (de) Ermittlung von benutzerdaten unter berücksichtigung von bilddaten einer ausgewählten brillenfassung
DE112012000950T5 (de) Ermitteln des Abstands zwischen verschiedenen Punkten an einem abgebildeten Gegenstand
WO2017153354A1 (de) Verfahren und vorrichtung zum bewerten von blickabbildungen
WO2017153355A1 (de) Verfahren und vorrichtung zum durchführen einer blickabbildung
DE10304185A1 (de) Vorrichtung und Verfahren zum Anpassen einer Position eines Brillenglases relativ zur Position einer Pupille
DE102014013447A1 (de) Verfahren zur messgenauen Bestimmung von optischen Parametern eines Probanden zur Anpassung einer Brille an den Probanden und immobiles Videozentriersystem
DE102017208806B3 (de) Externe Darstellung von Bildaufnahmen eines Fahrzeuginnenraums in einer VR-Brille
EP3192432B1 (de) Verfahren zum überprüfen der augen
EP1300108B1 (de) Verfahren zur Erfassung, Auswertung und Analyse von Blicksequenzen
EP3959497B1 (de) Verfahren und vorrichtung zum vermessen der lokalen brechkraft und/oder der brechkraftverteilung eines brillenglases
WO1999003066A1 (de) Verfahren und vorrichtung zum erfassen einer reflektierenden fläche eines menschen
EP1089651A1 (de) Vorrichtung zur untersuchung der augenmotilität
WO2017220667A1 (de) Verfahren und vorrichtung zur veränderung der affektiven visuellen information im gesichtsfeld eines benutzers
AT412443B (de) Verfahren zur erfassung, auswertung und analyse von blicksequenzen
WO1998052309A1 (de) Verfahren und vorrichtung zum messen der aufmerksamkeit von lebewesen innerhalb einer menge von lebewesen
EP1416843B1 (de) Vorrichtung zur kontaktlosen gewinnung von bildern der kornea
DE102004020356A1 (de) Verfahren und Vorrichtung zur Erfassung von mehrdimensionalen Augenbewegungen mit einem optoelektronischen Sensor
DE102012100848B4 (de) System und Verfahren zur stereoskopischen Darstellung von Aufnahmen eines Endoskops
DE102019102423A1 (de) Verfahren zur Live-Annotation von Sensordaten
AT506572B1 (de) Verfahren zur messung der visuellen aufmerksamkeit bei der betrachtung von statischen und dynamischen visuellen szenen

Legal Events

Date Code Title Description
MK07 Expiry

Effective date: 20211001