DE102015015136A1 - Adaptives Benutzeroberflächensystem - Google Patents

Adaptives Benutzeroberflächensystem Download PDF

Info

Publication number
DE102015015136A1
DE102015015136A1 DE102015015136.3A DE102015015136A DE102015015136A1 DE 102015015136 A1 DE102015015136 A1 DE 102015015136A1 DE 102015015136 A DE102015015136 A DE 102015015136A DE 102015015136 A1 DE102015015136 A1 DE 102015015136A1
Authority
DE
Germany
Prior art keywords
information
information area
display
user
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102015015136.3A
Other languages
English (en)
Inventor
Jonatan Fjellström
Simon Katzmann
Johanna Vännström
Robert Friberg
Stas Krupenia
Victor Ahlm
Helena Nyberg
Daniele Nicola
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Scania CV AB
Original Assignee
Scania CV AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Scania CV AB filed Critical Scania CV AB
Publication of DE102015015136A1 publication Critical patent/DE102015015136A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/20
    • B60K35/23
    • B60K35/29
    • B60K35/654
    • B60K35/81
    • B60K2360/149
    • B60K2360/151
    • B60K2360/195
    • B60K2360/334
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Ein adaptives Benutzeroberflächensystem (2) für ein Fahrzeug (3) dient dazu, Informationen in einem Informationsdisplay (4) des Fahrzeugs zu präsentieren. Das System umfasst eine Steuereinheit (6) zur Steuerung der Informationen, die im Informationsdisplay (4) präsentiert werden. Das Informationsdisplay umfasst mehrere Informationsbereiche (8), die jeweils eine vorgegebene Position im Informationsdisplay haben, und dient zur Präsentation von Informationsbereichsinhalt. Das System umfasst eine Eye-Tracking-Vorrichtung (10), die dazu dient, mindestens einen vorgegebenen Informationsbereichsparameter (12) bezüglich der visuellen Interaktion (14) eines Benutzers mit Informationsbereichen (8) zu bestimmen und ein Eye-Tracking-Signal (16) zu erzeugen, das für die Steuereinheit (6) bereitgestellt wird, einschließlich des mindestens einen Parameters. Die Steuereinheit (6) dient zur Speicherung des/der bestimmten Informationsbereichsparameter/s für jeden Informationsbereich, zur Analyse der Informationsbereichsparameter im Laufe der Zeit unter Verwendung eines Satzes von Analyseregeln, zur Festlegung eines oder mehrerer Informationsbereiche als aktive Informationsbereiche in Abhängigkeit von einem Satz von adaptiven Präsentationsregeln für einen aktuellen Benutzer und zur Steuerung des Informationsdisplays zwecks Präsentation von Informationsbereichsinhalt von aktiven Informationsbereichen.

Description

  • Bereich der Erfindung
  • Gegenstand der vorliegenden Erfindung ist ein adaptives Benutzeroberflächensystem für ein Fahrzeug und ein Verfahren im Zusammenhang mit einem solchen System gemäß den Oberbegriffen der selbstständigen Patentansprüche.
  • Hintergrund der Erfindung
  • Bei modernen Fahrzeugen erhöht sich die Menge an Informationen, die den Fahrern präsentiert werden, mit der zunehmenden Zahl von neuen Assistenzsystemen, die in die Fahrzeuge eingebaut werden. Dies kann zu einer Verstärkung der geistigen Beanspruchung der Fahrer führen. Einige Fahrer brauchen möglichst viele Information, während andere Fahrer nur wenige grundlegende Informationen benötigen. Je nach Fahrer sind die Strategien zur Lösung der Aufgabe des Fahrens eines Fahrzeugs unterschiedlich. Deshalb haben unterschiedliche Fahrer unterschiedlichen Bedarf an Informationen und Informationsmengen, um sich sicher und behaglich zu fühlen.
  • Informationen werden normalerweise in Informationsdisplays angezeigt, die vor dem Fahrer und unter der Windschutzscheibe platziert sind.
  • Ein alternatives Verfahren zur Präsentation von Informationen für einen Fahrer sind so genannte Head-up-Displays (HUD). Bei Head-up-Displays werden Informationen auf die Windschutzscheibe eines Fahrzeugs projiziert, so dass der Fahrer die projizierten Informationen sehen kann, ohne nach unten auf das Armaturenbrett zu schauen. Head-up-Displays wurden ursprünglich für die Militärluftfahrt entwickelt. Jedoch wer-den sie heute auch bei zivilen Verkehrsflugzeugen, Kraftfahrzeugen, Computerspielen und anderen Anwendungen eingesetzt.
  • Head-up-Displays sind transparent und zeigen Daten an, ohne dass der Benutzer seinen Blick vom Verkehrsgeschehen abwenden muss. Der Name Head-up-Display (wörtlich: „Kopf-hoch-Anzeige”) rührt davon, dass ein Pilot Informationen mit „erhobenem” Kopf und nach vorne schauend sehen kann, statt den Kopf nach unten zu neigen, um Instrumente abzulesen.
  • Das Patent US-2007/0194902 bezieht sich auf eine adaptive Head-up-Benutzeroberfläche für Automobile. Diese Benutzeroberfläche umfasst einige Anzeigeelemente, die in verschiedenen Anzeigezuständen präsentiert werden können. Die Anzeigezustände werden dabei auf der Basis von Eingaben aus mehreren Quellen bestimmt, beispielsweise vom Fahrzeug oder auf der Basis von Benutzerinteraktionen und biometrischen Informationen.
  • Wie oben erwähnt, kann die Menge an Informationen, die einige Fahrer wünschen, groß sein. Wenn zu viele Informationen an der Windschutzscheibe präsentiert werden, kann die Sicht des Fahrers behindert werden und dadurch die Fahrtüchtigkeit des Fahrers beeinträchtigt werden.
  • Eine generelle Aufgabe der vorliegenden Erfindung besteht darin, die individuelle Weise, in welcher der Fahrer wählt, welche Informationen er sehen will, zu berücksichtigen und dadurch ein System und ein Verfahren zur individuellen Anpassung der Informationen, die dem Fahrer präsentiert werden, an die Wünsche des Fahrers zu erzielen.
  • Zusammenfassung der Erfindung
  • Die oben genannte Aufgabe wird zumindest teilweise durch die vorliegende Erfindung gemäß den selbstständigen Patentansprüchen erzielt.
  • Bevorzugte Ausführungsformen sind in den abhängigen Patentansprüchen angegeben.
  • Gemäß der vorliegenden Erfindung wird ein adaptives Benutzeroberflächensystem erzielt, das in der Lage ist, sich zu merken, wann der Fahrer sich eine bestimmte Information anschaut. Das System kann die Stelle, die der Fahrer betrachtet, durch eine Augenbewegungsaufzeichnungstechnik (Eye-Tracking) mit einer integrierten Blickinteraktion registrieren. Auf der Basis des Ergebnisses einer Analyse von Parametern bezüglich Informationsbereichen, die der Fahrer betrachtet hat, nimmt das System eine Anpassung der präsentierten Informationen vor. Die Anpassung berücksichtigt sowohl, welche Informationen präsentiert werden sollten, als auch wann die Informationen präsentiert werden sollten. In einer Ausführungsform werden die Informationen für den Fahrer an der Windschutzscheibe präsentiert, d. h. die Informationen werden in der Form eines Head-up-Displays (HUD) angezeigt.
  • Ein Vorteil der vorliegenden Erfindung besteht darin, dass nur Informationen angezeigt werden, die der Fahrer wünscht.
  • Kurzbeschreibung der beigefügten Zeichnungen
  • ist eine schematische Darstellung eines Fahrzeugs mit dem adaptiven Benutzeroberflächensystem gemäß der vorliegenden Erfindung.
  • zeigt ein Blockdiagramm, das ein adaptives Benutzeroberflächensystem gemäß der vorliegenden Erfindung schematisch darstellt.
  • ist ein Ablaufdiagramm des Verfahrens gemäß der vorliegenden Erfindung.
  • Detaillierte Beschreibung von bevorzugten Ausführungsformen der Erfindung
  • Die vorliegende Erfindung wird nun unter Verweis auf die beigefügten Abbildungen ausführlich beschrieben.
  • Die vorliegende Erfindung betrifft ein adaptives Benutzeroberflächensystem 2 zur Verwendung beispielsweise bei einem Fahrzeug 3, das in schematisch dargestellt ist. In dieser Abbildung sind ein Display 4, eine Steuereinheit 6 und eine Eye-Tracking-Vorrichtung 10 schematisch dargestellt.
  • Folglich bezieht sich die vorliegende Erfindung, die in dargestellt ist, auf ein adaptives Benutzerschnittstellensystem 2 für ein Fahrzeug 3 (siehe ), beispielsweise für einen Bus, einen Lastkraftwagen oder einen Personenkraftwagen, aber auch für ein Luftfahrzeug und für ein Schiff.
  • Das System präsentiert Informationen in einem Informationsdisplay 4 des Fahrzeugs. Das System umfasst eine Steuereinheit 6 zur Steuerung der im Informationsdisplay 4 präsentierten Informationen mittels Steuersignalen 7. Die Steuereinheit 6 erhält anzuzeigende Informationen von mehreren Systemen des Fahrzeugs.
  • Das Informationsdisplay 4 umfasst mehrere Informationsbereiche 8, die jeweils eine bestimmte Position im Informationsdisplay besitzen und zur Anzeige des Inhalts des jeweiligen Informationsbereichs dienen. Folglich erhält die Steuereinheit 6 Daten über Informationsbereiche, deren jeweilige Position und auch darüber, welche Informationen in jedem Informationsbereich präsentiert werden, die im vorliegenden Dokument als Informationsbereichsinhalt bezeichnet werden. Ein Informationsbereich kann, je nachdem, welche Informationen präsentiert werden sollen, unterschiedliche Größen und Formen haben. Der Informationsbereichsinhalt kann die Fahrzeuggeschwindigkeit, eine Temperaturanzeige, Verkehrswarnungen, Informationen über die Umgebung, Informationen über die Musik im Radio usw. sein.
  • Das System umfasst eine Eye-Tracking-Vorrichtung 10 zur Bestimmung mindestens eines vorgegebenen Informationsbereichsparameters 12 bezüglich der visuellen Interaktion 14 eines Benutzers – schematisch durch ein Auge 15 des Benutzers dargestellt – mit Informationsbereichen 8 und zur Erzeugung eines Eye-Tracking-Signals 16, das für die Steuereinheit 6 bereitgestellt werden kann, einschließlich des mindestens einen Parameters. Die Steuereinheit 6 dient zur Steuerung der Funktion der Eye-Tracking-Vorrichtung 10 mittels Steuersignalen 17.
  • Im Folgenden werden in einem separaten Abschnitt verschiedene Aspekte der Eye-Tracking-Technik ausführlich beschrieben, einschließlich spezieller Erwägungen beim Einsatz dieser Technik bei Fahrzeugen zur Realisierung der vorliegenden Erfindung. Die visuelle Interaktion 14 umfasst sowohl die Bestimmung der Position eines Informationsbereichs, den der Benutzer betrachtet, als auch eine Möglichkeit der Aktivierung einer Funktion, die von einem Informationsbereichsinhalt in einem Informationsbereich gesteuert wird, den der Benutzer betrachtet, d. h. eine Blickinteraktion. Der mindestens eine vorgegebene Informationsbereichsparameter umfasst beispielsweise einen Parameter, der die Dauer der Fixierung eines Informationsbereichs durch den Benutzer angibt.
  • Die Steuereinheit 6 dient dazu, den/die bestimmten Informationsbereichsparameter für jeden Informationsbereich zu speichern und die Informationsbereichsparameter im Laufe der Zeit anhand eines Satzes von Analyseregeln zu analysieren.
  • Die Steuereinheit kann außerdem einen oder mehrere Informationsbereiche auf der Basis eines Satzes von adaptiven Präsentationsregeln für einen aktuellen Benutzer als aktiv festlegen und das Informationsdisplay durch Steuersignale 7 steuern, um den Informationsbereichsinhalt von aktiven Informationsbereichen zu präsentieren.
  • Gemäß der vorliegenden Erfindung umfasst der Satz von Analyseregeln eine Regel zur Durchführung einer Häufigkeitsanalyse der Benutzerinteraktion mit Informationsbereichen. Die Häufigkeitsanalyse kann die Bestimmung der Häufigkeit umfassen, mit der ein bestimmter Informationsbereich während einer vorgegebenen Zeit fixiert wird. Eine Fixierung ist definiert als die Betrachtung eines bestimmten Informationsbereichs während einer Dauer von mindestens 200–350 ms.
  • Die Analyse wird vorzugsweise kontinuierlich durchgeführt und kann Interaktionsinformationen aus einer vorgegebenen Zeitspanne, beispielsweise einige Stunden oder eine gesamte Fahrt, umfassen.
  • Ein Informationsbereich kann als aktiv erachtet werden, wenn die Anzahl der Fixierungen dieses Informationsbereichs während der vorgegebenen Zeitspanne über einer vorgegebenen Schwelle liegt. Folglich kann eine feste Anzahl von Fixierungen bestimmt werden, um einen Informationsbereich als aktiv einzustufen. Alternativ dazu kann die vorgegebene Schwelle so eingestellt werden, dass als Anzahl der aktiven Informationsbereiche beispielsweise die „ersten zehn” Bereiche mit den meisten Fixierungen festgelegt wird.
  • Folglich enthalten die Präsentationsregeln eine Regel für die Festlegung eines Informationsbereichs als aktiv in Abhängigkeit vom Ergebnis des Analysenschritts.
  • Gemäß einer Ausführungsform umfasst der Satz von Präsentationsregeln mindestens eine Regel mit auf das Fahrzeug bezogenen Parametern, beispielsweise mit der Geschwindigkeit des Fahrzeugs. Diese Präsentationsregel kann beispielsweise beinhalten, dass die Anzahl der aktiven Informationsbereiche beim Fahren mit geringer Geschwindigkeit höher sein kann, weil der Fahrer bei geringer Geschwindigkeit Zeit hat, mehr Informationen aufzunehmen als beim Fahren mit hoher Geschwindigkeit, wenn nur wenige Informationsbereiche angezeigt werden sollten.
  • Alternativ dazu können mehr Informationsbereiche aktiv sein, wenn das Fahrzeug mit hoher Geschwindigkeit beispielsweise auf einer Autobahn fährt, weil dort die Ablenkung geringer ist als beispielsweise im unübersichtlichen Stadtverkehr, bei dem die volle Aufmerksamkeit des Fahrers erforderlich ist. In diesem Fall kann die Geschwindigkeit, beispielsweise kombiniert mit Fahren auf einer im Wesentlichen geraden Strecke, berücksichtigt werden.
  • Es können auch höher entwickelte Funktionen bereitgestellt werden. Beispielsweise sollte das System so intelligent sein, dass es sich merken kann, dass beispielsweise der Fahrer zehn Minuten vor jedem Stopp prüfen will, wo er essen kann. Diese Information wird dann immer angezeigt, bevor es an der Zeit ist, einen Stopp einzulegen.
  • Folglich gestattet die vorliegende Erfindung eine Zuordnung und/oder Anpassung der präsentierten Informationen zu/an der/die jeweilige Situation, d. h. die Informationen werden auf die Situation bezogen und es wird eine entsprechende Anpassung der Präsentationsweise der Informationen vorgenommen. Beispielsweise können wichtige Informationen hervorgehoben werden. Beispielsweise können bei einem Ampelstopp (wenn die Geschwindigkeit gering oder null ist) Informationen einer bestimmten Art angezeigt werden.
  • Die Steuereinheit ist vorzugsweise so konzipiert, dass sie den Satz von adaptiven Präsentationsregeln des Benutzers speichert, wenn eine Benutzersitzung beendet wird, und dass sie diesen Satz von Präsentationsregeln verwendet, wenn derselbe Benutzer das System beim nächsten Mal benutzt. Dadurch wird die Präsentation von Informationen individuell an den Benutzer angepasst. Der Fahrer wird normalerweise durch seine Fahrerkarte identifiziert.
  • Gemäß einer bestimmten Ausführungsform ist das Informationsdisplay ein so genanntes Head-up-Display (HUD) an einer Windschutzscheibe des Fahrzeugs. Die Headup-Display-Technik wird im Folgenden in einem separaten Abschnitt näher erläutert.
  • Alternativ dazu ist das Informationsdisplay eine LCD (Flüssigkristallanzeige) oder eine andere Anzeige, die vor dem Fahrer unter der Windschutzscheibe platziert ist.
  • Die vorliegende Erfindung bezieht sich auch auf ein Verfahren bei einem adaptiven Benutzeroberflächensystem für ein Fahrzeug. Das adaptive Benutzeroberflächensystem wurde oben ausführlich beschrieben und es wird im Folgenden auf diese Beschreibung verwiesen. Folglich dient das Benutzeroberflächensystem dazu, Informationen in einem Informationsdisplay des Fahrzeugs zu präsentieren. Das System umfasst eine Steuereinheit zur Steuerung der Informationen, die im Informationsdisplay präsentiert werden. Das Informationsdisplay umfasst mehrere Informationsbereiche, die alle eine vorgegebene Position im Informationsdisplay haben und dazu dienen, Informationsbereichsinhalt zu präsentieren.
  • Unter Verweis auf das Ablaufdiagramm in wird das Verfahren nun ausführlich beschrieben.
  • Das Verfahren umfasst die Bestimmung mindestens eines vorgegebenen Informationsbereichsparameters, der sich auf die visuelle Interaktion eines Benutzers mit Informationsbereichen bezieht, mithilfe einer Eye-Tracking-Vorrichtung und die Erzeugung eines Eye-Tracking-Signals mit dem/den Parameter/n sowie die Speicherung des/der bestimmten Informationsbereichsparameter/s für jeden Informationsbereich in der Steuereinheit.
  • Die Steuereinheit führt dann einen Schritt aus, in dem die Informationsbereichsparameter im Laufe der Zeit mithilfe eines Satzes von Analysenregeln analysiert werden, beispielsweise durch Durchführung einer Häufigkeitsanalyse der Benutzerinteraktion mit Informationsbereichen unter Anwendung einer Häufigkeitsanalyseregel aus dem Satz der Analysenregeln.
  • Darüber hinaus umfasst das Verfahren die Festlegung eines oder mehrerer Informationsbereiche als aktive/r Informationsbereich/e auf der Basis eines Satzes von adaptiven Präsentationsregeln für einen aktuellen Benutzer und die Präsentation von Informationsbereichsinhalt von aktiven Informationsbereichen im Informationsdisplay. Genauer gesagt gelten die Präsentationsregeln für die Bestimmung eines Informationsbereichs als aktiver Informationsbereich auf der Basis des Ergebnisses des Analysenschritts.
  • Der Satz von Präsentationsregeln kann beispielsweise eine oder mehrere Regeln mit auf das Fahrzeug bezogenen Parametern umfassen, unter anderem mit der Geschwindigkeit des Fahrzeugs.
  • Die Häufigkeitsanalyseregel umfasst die Bestimmung der Häufigkeit der Fixierung eines bestimmten Informationsbereichs während einer vorgegebenen Zeitspanne. Ein Informationsbereich wird als aktiv erachtet, wenn die Anzahl der Fixierungen dieses Informationsbereichs während einer vorgegebenen Zeitspanne über einer vorgegebenen Schwelle liegt. Die vorgegebenen Informationsbereichsparameter umfassen einen Parameter, der die Dauer der Benutzerfixierung auf einen Informationsbereich angibt. Diese Aspekte sind oben bei der Beschreibung des Systems näher erläutert. Gemäß einer Ausführungsform umfasst das Verfahren die Speicherung des Satzes von adaptiven Präsentationsregeln eines Benutzers, wenn eine Benutzersitzung beendet wird, und die Verwendung dieses Satzes von Präsentationsregeln, wenn derselbe Benutzer das System beim nächsten Mal benutzt.
  • Mithilfe der Eye-Tracking-Vorrichtung kann ein Aufmerksamkeitsgrad des Fahrers festgestellt werden. Dieser Aufmerksamkeitsgrad kann einen Ermüdungsgrad des Fahrers umfassen. Gegebenenfalls kann es notwendig sein, den Fahrer zu „wecken”, beispielsweise durch die Erhöhung der Lautstärke von Musik oder durch visuelle Anzeige an der Windschutzscheibe (Head-up-Display).
  • Der Aufmerksamkeitsgrad kann auch Informationen über den Belastungsgrad des Fahrers umfassen. Beispielsweise kann es bei hohem Verkehrsaufkommen erforderlich sein, weniger Informationen oder nur bestimmte Informationen anzuzeigen, um dem Fahrer optimal zu helfen.
  • Die vorliegende Erfindung betrifft auch ein Computerprogramm P (siehe ), das Computerprogrammcode umfasst, der bewirkt, dass die Steuereinheit 10 oder ein Computer, der an die Steuereinheit 10 angeschlossen ist, das oben beschriebene Verfahren durchführt.
  • Darüber hinaus wird ein Computerprogrammprodukt bereitgestellt, das Computerprogrammcode umfasst, der in einem von einem Computer lesbaren Medium gespeichert ist, um das oben beschriebene Verfahren durchzuführen, wenn der Computerprogrammcode von der Steuereinheit 10 oder von einem Computer, der an die Steuereinheit 10 angeschlossen ist, ausgeführt wird.
  • Head-up-Display (HUD)
  • Ein typisches Head-up-Display umfasst drei Hauptkomponenten: eine Projektionseinheit, einen Combiner und einen Videoerzeugungscomputer. Diese Komponenten sind hierbei in der Steuereinheit 6 enthalten.
  • Die Projektionseinheit ist bei einem typischen Head-up-Display eine optische Kollimator-Einrichtung: eine konvexe Linse oder ein konkaver Spiegel mit einer Kathodenstrahlröhre, einer Leuchtdiode (LED) oder einer Flüssigkristallanzeige (LCD) in ihrem/seinem Brennpunkt. Diese Einrichtung erzeugt ein Bild, bei dem das Licht parallel ausgerichtet ist, d. h. auf Unendlich fokussiert ist.
  • Der Combiner ist normalerweise ein abgewinkeltes flaches Stück Glas (ein Strahlteiler), das sich direkt vor dem Betrachter befindet und das projizierte Bild des Projektors so umlenkt, dass das Sichtfeld und das auf Unendlich fokussierte projizierte Bild gleichzeitig zu sehen sind. Combiner können spezielle Beschichtungen aufweisen, die das von der Projektoreinheit auf den Combiner projizierte monochromatische Licht reflektieren und Licht mit allen anderen Wellenlängen durch sie hindurch dringen lassen. Bei einigen optischen Anordnungen können Combiner auch eine gekrümmte Oberfläche haben, um das Bild des Projektors umzufokussieren.
  • Der Computer liefert die Schnittstelle zwischen dem Head-up-Display (d. h. der Projektionseinheit) und den Systemen/anzuzeigenden Daten und erzeugt die Bilder und Symbole, die von der Projektionseinheit angezeigt werden sollen.
  • Es werden zurzeit neuere Mikro-Display-Bildtechniken eingeführt, zu denen Flüssigkristallanzeigen (LCD), Flüssigkristall auf Silizium (LCos), digitale Mikrospiegel (DMD) und organische Leuchtdioden (OLED) gehören.
  • Eye-Tracker-Technik
  • Ein Eye-Tracker-System umfasst Nahinfrarot-Mikroprojektoren, optische Sensoren und eine Bildverarbeitungseinrichtung.
  • Mikroprojektoren erzeugen Reflexionsmuster auf den Augen. Bildsensoren registrieren das Bild des Benutzers, die Augen des Benutzers und die Projektionsmuster in Echtzeit.
  • Bildverarbeitung wird eingesetzt, um Merkmale des Benutzers, der Augen und der Projektionsmuster festzustellen.
  • Es werden mathematische Modelle eingesetzt, um die Position der Augen und den Blickpunkt genau zu berechnen.
  • Eye-Tracking ist ein Verfahren zur Messung entweder des Blickpunkts (wohin jemand schaut) oder der Bewegung eines Auges relativ zum Kopf. Ein Eye-Tracker ist ein Gerät zur Messung von Augenpositionen und Augenbewegungen. Eye-Tracker werden in der Erforschung des Sehsystems, in der Psychologie, in der kognitiven Linguistik und in der Produktgestaltung eingesetzt. Es gibt mehrere Verfahren zur Messung von Augenbewegungen. Bei der am häufigsten angewendeten Variante werden Videobilder eingesetzt, aus denen die Augenposition ermittelt wird. Andere Verfahren verwenden Suchspulen oder basieren auf einem Elektro-Okulogramm.
  • Bei der zweiten Hauptkategorie werden berührungslose optische Verfahren zur Messung der Augenbewegung angewendet. Licht, und zwar normalerweise Infrarot-Licht, wird vom Auge reflektiert und von einer Videokamera oder einem anderen, speziell zu diesem Zweck konzipierten optischen Sensor aufgenommen. Dann werden diese Informationen analysiert, um anhand von Reflexionsänderungen die Augendrehung zu ermitteln. Video-basierte Eye-Tracker verwenden normalerweise die Hornhaut-Reflexion (das erste Purkinje-Bild) und die Mitte der Pupille als Merkmale, die im Zeitverlauf verfolgt werden. Eine empfindlichere Ausführung eines Eye-Trackers, der duale Purkinje-Eye-Tracker, arbeitet mit Reflexionen von der Vorderseite der Hornhaut (erstes Purkinje-Bild) und der Rückseite der Linse (viertes Purkinje-Bild) als zu verfolgende Merkmale. Ein noch empfindlicheres Verfolgungsverfahren ist die Abbildung von Merkmalen des Augeninneren, wie beispielsweise der Netzhaut-Blutgefäße, und die Verfolgung dieser Merkmale bei der Drehung des Auges. Optische Verfahren, insbesondere solche, die auf Videoaufzeichnung basieren, werden auf breiter Basis zur Blickverfolgung eingesetzt und werden bevorzugt, weil sie nicht-invasiv und kostengünstig sind.
  • Die zurzeit am häufigsten eingesetzten Ausführungen sind videobasierte Eye-Tracker. Eine Kamera wird auf ein oder beide Augen fokussiert und zeichnet die Augenbewegung auf, während der Betrachter einen Stimulus anschaut. Die meisten modernen Eye-Tracker verwenden die Mitte der Pupille und nicht parallel ausgerichtetes Infrarot-/Nahinfrarot-Licht, um Hornhaut-Reflexionen (CR = corneal reflections) zu erzeugen. Der Vektor zwischen der Pupillenmitte und den Hornhaut-Reflexionen kann verwendet werden, um den Betrachtungspunkt auf einer Fläche oder die Blickrichtung zu berechnen. Bevor der Eye-Tracker eingesetzt wird, muss in der Regel eine einfache personenbezogene Kalibrierung vorgenommen werden.
  • Es werden zwei generelle Eye-Tracking-Techniken angewendet: helle Pupille und dunkle Pupille. Der Unterschied zwischen diesen Techniken basiert auf der Lage der Beleuchtungsquelle in Bezug auf die Optik. Wenn die Beleuchtung koaxial mit dem optischen Weg erfolgt, fungiert das Auge als Retroreflektor, da das Licht von der Netzhaut reflektiert wird und eine helle Pupille bewirkt, ähnlich wie bei roten Augen. Wenn die Beleuchtungsquelle sich nicht im optischen Weg befindet, erscheint die Pupille schwarz, weil die Retroreflexion der Netzhaut von der Kamera weg gerichtet ist.
  • Die Verfolgung mit heller Pupille ergibt einen höheren Iris/Pupille-Kontrast und gestattet ein robusteres Eye-Tracking mit der gesamten Iris-Pigmentierung. Außerdem verringert diese Technik beträchtlich Störungen durch Wimpern und andere verdunkelnde Objekte. Diese Technik gestattet außerdem eine Verfolgung bei Beleuchtungsverhältnissen von völliger Dunkelheit bis zu großer Helligkeit. Aber Helle-Pupille-Techniken sind für die Verfolgung im Freien ungeeignet, weil externe Infrarotquellen die Überwachung stören.
  • Eye-Tracking-Vorrichtungen sind sehr unterschiedlich. Einige werden am Kopf angebracht, bei einigen muss der Kopf stabilisiert werden (beispielsweise mit einer Kinnauflage) und einige arbeiten aus der Ferne und verfolgen automatisch den Kopf bei Bewegungen. Die meisten dieser Vorrichtungen arbeiten mit einer Abtastfrequenz von mindestens 30 Hz. Am häufigsten wird mit 50/60 Hz gearbeitet. Aber heute setzen viele videobasierte Eye-Tracker 240, 350 oder sogar 1000/1250 Hz ein. Diese hohen Frequenzen sind erforderlich, um die Details der sehr schnellen Augenbewegung beim Lesen oder bei neurologischen Untersuchungen zu erfassen.
  • Die Augenbewegungen werden normalerweise in Fixierungen und Sakkaden eingeteilt. Fixierungen sind Pausen des Blicks in einer bestimmten Position. Sakkaden sind Bewegungen zwischen zwei Fixierphasen in eine andere Position. Die daraus resultierende Serie von Fixierungen und Sakkaden wird als Blickverlauf bezeichnet. Die meisten Informationen liefert das Auge während einer Fixierung und nicht bei einer Sakkade. Die mittleren ein bis zwei Grade des Sichtwinkels (die Fovea) liefert das Gros der visuellen Informationen. Die Informationen von größeren Exzentrizitäten (die Peripherie) sind weniger aufschlussreich. Folglich zeigen die Fixierpunkte im Blickverlauf an, welche Informationsstellen des Stimulus bei einer Eye-Tracking-Sitzung verarbeitet wurden. Durchschnittlich dauern die Fixierungen etwa 200 ms beim Lesen von linguistischem Text und 350 ms beim Betrachten einer Szene. Die Erzeugung einer Sakkade zu einem neuen Ziel dauert etwa 200 ms.
  • Blickverläufe sind nützlich bei der Analyse der kognitiven Absicht, des Interesses und der Auffälligkeit. Andere biologische Faktoren (beispielsweise allein schon das Geschlecht) können sich ebenfalls auf den Blickverlauf auswirken. Beim Eye-Tracking durch Mensch-Computer-Interaktion (HCI = Human-Computer Interaktion) wird normalerweise der Blickverlauf zur Nutzbarkeit oder als Verfahren der Eingabe in blickabhängigen Anzeigen untersucht, die auch als blickbasierte Benutzeroberflächen bezeichnet werden.
  • Im Folgenden werden verschiedene Aspekte des Eye-Tracking aufgelistet, die bei der Implementierung des adaptiven Benutzeroberflächensystems gemäß der vorliegenden Erfindung berücksichtigt werden, um konkret ein System zu erzielen, das die Interaktion eines Benutzers sofort und sicher mit einer bestimmten Position im Display verbindet oder verknüpft, d. h. mit einem bestimmten Informationsbereich und den in diesem Bereich präsentierten Informationen in Form des Informationsbereichsinhalts. Dann werden die gespeicherten Daten analysiert, um die zu präsentierenden Informationen anzupassen.
    • – Die Blickrichtung und der Blickpunkt werden in der Interaktion mit Computern und bei anderen Benutzeroberflächen sowie in der Verhaltensforschung/Prüfung von menschlichen Reaktionen angewendet, um besser zu verstehen, was die Aufmerksamkeit von Personen auf sich zieht.
    • – Augengegenwarterkennung – Das Eye-Tracking-System muss zunächst Augen finden, so dass die Augengegenwartserkennung der wichtigste Teil des Eye-Tracking ist.
    • – Augenposition – Die Fähigkeit, die Position der Augen in Echtzeit zu berechnen, verleiht dem Eye-Tracking-System Genauigkeit und gestattet dem Benutzer freie Beweglichkeit.
    • – Benutzeridentifizierung – Das Eye-Tracking-System kann als multimodaler Biometne-Sensor verwendet werden, beispielsweise zum Einloggen in einen Computer oder zur Fahrzeug-Fahrer-Identifizierung. Das System kann Gesichtsidentifizierung mit physiologischen Augenmerkmalen und Augenbewegungsmustern kombinieren.
    • – Augenlidschließung – Die Augenlidschließung wird zur Überwachung der Schläfrigkeit des Benutzers verwendet, beispielsweise in hochentwickelten Fahrer-Assistenz- oder Benutzer-Sicherheits-Lösungen.
    • – Augenbewegung und -muster – Die Augenbewegungen und -muster werden untersucht, um menschliches Verhalten zu verstehen und Verletzungen oder Krankheiten zu beurteilen und zu diagnostizieren.
    • – Pupillengröße und -erweiterung – Die Pupillenerweiterung ist ein Anzeichen von Erregung. In Kombination mit Augenbewegungsmustern und Gesichtsausdrücken können daraus emotionale Reaktionen abgeleitet werden, beispielsweise bei der Schaffung innovativer Benutzererlebnisse. Die Pupillenerweiterung kann auch als Indikator von Funktionsbeeinträchtigungen, wie beispielsweise durch Gehirnerschütterungen oder Drogen- oder Alkoholkonsum verwendet werden.
  • Die vorliegende Erfindung ist nicht auf die oben beschriebenen bevorzugten Ausführungsformen beschränkt. Zahlreiche Alternativen, Modifikationen und Entsprechungen können verwendet werden. Folglich sind die obigen Ausführungsformen nicht als Einschränkung des Umfangs der Erfindung zu verstehen, der durch die beigefügten Patentansprüche definiert wird.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2007/0194902 [0006]

Claims (16)

  1. Adaptives Benutzeroberflächensystem (2) für ein Fahrzeug (3) zur Präsentation von Informationen in einem Informationsdisplay (4) des Fahrzeugs mit einer Steuereinheit (6) zur Steuerung der Informationen, die in dem Informationsdisplay (4) präsentiert werden, wobei das Informationsdisplay mehrere Informationsbereiche (8) umfasst, die jeweils eine bestimmte Position in dem Informations-display haben, und dazu dient, Informationsbereichsinhalt zu präsentieren, dadurch gekennzeichnet, dass das System eine Eye-Tracking-Vorrichtung (10) umfasst, die dazu dient, mindestens einen vorgegebenen Informationsbereichsparameter (12) für die visuelle Interaktion (14) eines Benutzers mit Informationsbereichen (8) zu bestimmen und ein Eye-Tracking-Signal (16) zu erzeugen, das von der Steuereinheit (6) verwendet werden kann, einschließlich des mindestens einen Parameters, und dass die Steuereinheit (6) dazu dient, den/die bestimmten Informationsbereichsparameter für jeden Informationsbereich zu speichern und die Informationsbereichsparameter anhand eines Satzes von Analyseregeln im Laufe der Zeit zu analysieren, wobei die Steuereinheit außerdem dazu dient, einen oder mehrere Informationsbereiche in Abhängigkeit von einem Satz von adaptiven Präsentationsregeln in Bezug auf einen vorhandenen Benutzer als aktiv festzulegen und das Informationsdisplay zur Präsentation von Informationsbereichsinhalt von aktiven Informationsbereichen zu steuern, wobei der Satz von Analyseregeln eine Regel zur Durchführung einer Häufigkeitsanalyse der Benutzerinteraktion mit Informationsbereichen umfasst, wobei die Häufigkeitsanalyse die Bestimmung der Anzahl der Fixierungen eines bestimmten Informationsbereichs während einer vorgegebenen Zeitspanne umfasst und wobei die Präsentationsregeln eine Regel zur Festlegung eines Informationsbereichs in Abhängigkeit vom Ergebnis des Analyseschritts als aktiv umfassen.
  2. Adaptives Benutzeroberflächensystem gemäß Patentanspruch 1, bei dem ein Informationsbereich aktiv ist, wenn eine Anzahl der Fixierungen dieses Informationsbereichs während der vorgegebenen Zeitspanne über einer vorgegebenen Schwelle liegt.
  3. Adaptives Benutzeroberflächensystem gemäß einem der Patentansprüche 1–2, bei dem die vorgegebenen Informationsbereichsparameter einen Parameter umfassen, der die Dauer einer Benutzerfixierung eines Informationsbereichs angibt.
  4. Adaptives Benutzeroberflächensystem gemäß einem der Patentansprüche 1–3, bei dem der Satz von Präsentationsregeln eine Regel mit fahrzeugbezogenen Parametern umfasst.
  5. Adaptives Benutzeroberflächensystem gemäß einem der Patentansprüche 1–4, bei dem das Informationsdisplay ein Head-up-Display (HUD) an einer Windschutzscheibe des Fahrzeugs ist.
  6. Adaptives Benutzeroberflächensystem gemäß einem der Patentansprüche 1–4, bei dem das Informationsdisplay eine Flüssigkristallanzeige (LCD) oder eine andere Display-Ausführung ist.
  7. Adaptives Benutzeroberflächensystem gemäß einem der Patentansprüche 1–6, bei dem die Steuereinheit dazu dient, den Satz an adaptiven Präsentationsregeln eines Benutzers zu speichern, wenn eine Benutzersitzung beendet ist, und diesen Satz von Präsentationsregeln zu verwenden, wenn derselbe Benutzer das System beim nächsten Mal benutzt.
  8. Verfahren bei einem adaptiven Benutzeroberflächensystem für ein Fahrzeug zur Präsentation von Informationen in einem Informationsdisplay des Fahrzeugs, bei der das System eine Steuereinheit zur Steuerung der im Informationsdisplay präsentierten Informationen umfasst und das Informationsdisplay mehrere Informationsbereiche umfasst, die jeweils eine bestimmte Position im Informationsdisplay haben, und zur Präsentation von Informationsbereichsinhalt dient, dadurch gekennzeichnet, dass das Verfahren Folgendes umfasst: – Bestimmung mindestens eines vorgegebenen Informationsbereichsparameters bezüglich der visuellen Interaktion eines Benutzers mit Informationsbereichen mithilfe einer Eye-Tracking-Vorrichtung, – Erzeugung eines Eye-Tracking-Signals mit dem/den Parameter/n, – Speicherung des/der bestimmten Parameter/s für jeden Informationsbereich in der Steuereinheit, – Analyse der Informationsbereichsparameter im Laufe der Zeit anhand eines Satzes von Analyseregeln, – Festlegung eines oder mehrerer Informationsbereiche als aktive Informationsbereiche anhand eines Satzes von adaptiven Präsentationsregeln für einen aktuellen Benutzer, – Präsentation von Informationsbereichsinhalt von aktiven Informationsbereichen im Informationsdisplay, – Durchführung einer Häufigkeitsanalyse der Benutzerinteraktion mit Informationsbereichen mit einer Häufigkeitsanalyseregel aus dem Satz von Analyseregeln, – Bestimmung der Anzahl der Fixierungen eines bestimmten Informationsbereichs während einer vorgegebenen Zeitspanne mit der Häufigkeitsanalyseregel, – Festlegung eines Informationsbereichs als aktiver Informationsbereich in Abhängigkeit vom Ergebnis des Analyseschritts mit den Präsentationsregeln.
  9. Verfahren gemäß Patentanspruch 8, bei dem ein Informationsbereich aktiv ist, wenn die Anzahl der Fixierungen dieses Informationsbereichs während einer vorgegebenen Zeitspanne über einer vorgegebenen Schwelle liegt.
  10. Verfahren gemäß Patentanspruch 8 oder 9, bei dem die vorgegebenen Informationsbereichsparameter einen Parameter umfassen, der die Dauer einer Benutzerfixierung eines Informationsbereichs angibt.
  11. Verfahren gemäß einem der Patentansprüche 8 bis 10, bei welchem der Satz von Präsentationsregeln eine Regel mit fahrzeugbezogenen Parametern umfasst.
  12. Verfahren gemäß einem der Patentansprüche 8 bis 11, bei dem das Informationsdisplay ein Head-up-Display (HUD) an einer Windschutzscheibe des Fahrzeugs ist.
  13. Verfahren gemäß einem der Patentansprüche 8 bis 12 mit Speicherung eines Benutzersatzes von adaptiven Präsentationsregeln, wenn eine Benutzersitzung beendet ist, und Verwendung dieses Satzes von Präsentationsregeln, wenn derselbe Benutzer das System beim nächsten Mal benutzt.
  14. Computerprogramm P mit einem Computerprogrammcode, der bewirkt, dass eine Steuereinheit (10) oder ein Computer, der an die Steuereinheit (10) angeschlossen ist, das Verfahren gemäß einem der Patentansprüche 8 bis 13 durchführt.
  15. Computerprogrammprodukt mit Computerprogrammcode, der in einem von einem Computer lesbaren Medium gespeichert ist und dazu dient, das Verfahren gemäß einem der Patentansprüche 8 bis 13 durchzuführen, wenn der Computerprogrammcode von einer Steuereinheit (10) oder von einem Computer, der an die Steuereinheit (10) angeschlossen ist, ausgeführt wird.
  16. Fahrzeug (3) mit einem adaptiven Benutzeroberflächensystem gemäß einem der Patentansprüche 1 bis 7.
DE102015015136.3A 2014-11-24 2015-11-23 Adaptives Benutzeroberflächensystem Pending DE102015015136A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
SE1451415A SE539952C2 (en) 2014-11-24 2014-11-24 Adaptive user interface system for a vehicle
SE1451415-2 2014-11-24

Publications (1)

Publication Number Publication Date
DE102015015136A1 true DE102015015136A1 (de) 2016-05-25

Family

ID=55913932

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015015136.3A Pending DE102015015136A1 (de) 2014-11-24 2015-11-23 Adaptives Benutzeroberflächensystem

Country Status (2)

Country Link
DE (1) DE102015015136A1 (de)
SE (1) SE539952C2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112578903A (zh) * 2019-09-30 2021-03-30 托比股份公司 眼动追踪方法、眼动追踪器以及计算机程序

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070194902A1 (en) 2006-02-17 2007-08-23 Microsoft Corporation Adaptive heads-up user interface for automobiles

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070194902A1 (en) 2006-02-17 2007-08-23 Microsoft Corporation Adaptive heads-up user interface for automobiles

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112578903A (zh) * 2019-09-30 2021-03-30 托比股份公司 眼动追踪方法、眼动追踪器以及计算机程序

Also Published As

Publication number Publication date
SE539952C2 (en) 2018-02-06
SE1451415A1 (en) 2016-05-25

Similar Documents

Publication Publication Date Title
EP3525066B1 (de) Peripherisches sehen in einer mensch-maschine-schnittstelle
Wang et al. The sensitivity of different methodologies for characterizing drivers’ gaze concentration under increased cognitive demand
Itier et al. Effects of task demands on the early neural processing of fearful and happy facial expressions
US8790280B2 (en) Human state estimating device and method
US20150213634A1 (en) Method and system of modifying text content presentation settings as determined by user states based on user eye metric data
DE602005003214T2 (de) Verfahren und system zur perzeptuellen eignungsprüfung eines fahrers
DE102011056714A1 (de) Systembereitschaftsschalter für ein Mensch-Maschine-Interaktionssteuerungssystem mit Augenverfolgung
Rigas et al. Study of an extensive set of eye movement features: Extraction methods and statistical analysis
DE112015002673T5 (de) Anzeige zur Informationsverwaltung
Ellis Eye tracking metrics for workload estimation in flight deck operations
WO2018127330A1 (de) Verfahren und vorrichtung zur durchführung des verfahrens in einem fahrzeug
DE102015220398A1 (de) Verfahren zur Übermittlung von Informationen an einen Fahrer eines Kraftfahrzeuges und adaptives Fahrerassistenzsystem
Edgar Accommodation, cognition, and virtual image displays: A review of the literature
Shillcock et al. Binocular foveation in reading
DE102015015136A1 (de) Adaptives Benutzeroberflächensystem
National Research Council Emergent techniques for assessment of visual performance
Sullivan Visual fatigue and the driver
Takada et al. Evaluation of driver’s cognitive load when presented information on the windshield using p300 latency in eye-fixation related potentials
WO2022071851A1 (en) Method and system for driving skill feedback
Greene Transportation
Roscoe et al. Eye accommodation: Use of vernier optometers in behavioral research
Dolega et al. Cognitive research on pilot’s eye attention during flight simulator tests
Freeman et al. Head-centred motion perception in the ageing visual system
Stein Air Traffic Controller Scanning and Eye Movements in Search of Information: A Literature Review
DO HYONG The Study of Visual Attention: From Raw Data to an Interdisciplinary Environment

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication