DE102017113325A1 - Vorrichtung und Verfahren zum Bestimmen einer benutzerbasierten Blickinformation - Google Patents

Vorrichtung und Verfahren zum Bestimmen einer benutzerbasierten Blickinformation Download PDF

Info

Publication number
DE102017113325A1
DE102017113325A1 DE102017113325.9A DE102017113325A DE102017113325A1 DE 102017113325 A1 DE102017113325 A1 DE 102017113325A1 DE 102017113325 A DE102017113325 A DE 102017113325A DE 102017113325 A1 DE102017113325 A1 DE 102017113325A1
Authority
DE
Germany
Prior art keywords
user
database
gaze
information
historical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102017113325.9A
Other languages
English (en)
Inventor
Gene Dimarco
David A. Canella
Jarvis Chau
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102017113325A1 publication Critical patent/DE102017113325A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • G06F16/24575Query processing with adaptation to user needs using context
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Alarm Systems (AREA)

Abstract

Ein Verfahren und eine Vorrichtung zum Verfolgen von Absicht oder Bewusstsein basierend auf einem Blick eines Benutzers sind vorgesehen. Das Verfahren beinhaltet das Empfangen von Blickinformationen, des Blickes des Benutzers; basierend auf der Blickinformation, Bestimmen, ob eine Funktion des Fahrzeugs durch den Benutzer aktiviert wurde; als Reaktion darauf, dass die Funktion durch den Benutzer aktiviert wurde, Erzeugen und Speichern von historischen Blickinformationen in einer Datenbank; und als Reaktion darauf, dass die Funktion vom Benutzer nicht aktiviert wurde, Berechnen einer Wahrscheinlichkeit, dass die Funktion durch den Benutzer während eines Verarbeitungszyklus basierend auf der Blickinformation aktiviert wird, und Erzeugen und Speichern der historischen Blickinformationen in der Datenbank basierend auf der berechneten Wahrscheinlichkeit und einer Größe der Datenbank. Die Vorrichtung und das Verfahren können verwendet werden, um den Blick eines Benutzers eines Fahrzeugs zu verfolgen und das Benutzerverhalten basierend auf den historischen Blickinformationen vorherzusagen.

Description

  • EINFÜHRUHNG
  • Vorrichtungen und Verfahren in Übereinstimmung mit exemplarischen Ausführungsformen beziehen sich auf die Blickverfolgung und Erkennung. Insbesondere betreffen Vorrichtungen, die mit exemplarischen Ausführungsformen übereinstimmen, das Bestimmen der Absicht eines Benutzers basierend auf Blickinformationen.
  • ZUSAMMENFASSUNG
  • Eine oder mehrere exemplarische Ausführungsformen behandeln die vorgenannten Probleme durch Bereitstellen einer Blickverfolgungsvorrichtung. Insbesondere sehen eine oder mehrere exemplarische Ausführungsformen eine Blickverfolgungsvorrichtung vor, die in der Lage ist, den Blick eines Benutzers zu verfolgen und die Absicht und das Situationsbewusstsein des Benutzers zu bestimmen.
  • Gemäß einem Aspekt einer exemplarischen Ausführungsform wird ein Verfahren einer Absicht eines Benutzers, basierend auf einem Blick des Benutzers in einem Fahrzeug, bereitgestellt. Das Verfahren beinhaltet das Empfangen von Blickinformationen, die dem Blick des Benutzers zugeordnet sind; basierend auf der Blickinformation, Bestimmen, ob eine Funktion des Fahrzeugs durch den Benutzer aktiviert wurde; als Reaktion darauf, dass die Funktion durch den Benutzer aktiviert wurde, Erzeugen und Speichern von historischen Blickinformationen in einer Datenbank; und als Reaktion darauf, dass die Funktion vom Benutzer nicht aktiviert wurde, Berechnen einer Wahrscheinlichkeit, dass die Funktion durch den Benutzer während eines Verarbeitungszyklus basierend auf der Blickinformation aktiviert wird, und Erzeugen und Speichern der historischen Blickinformationen in der Datenbank basierend auf der berechneten Wahrscheinlichkeit und einer Größe der Datenbank.
  • Das Erzeugen und Speichern der historischen Blickinformation basierend auf der berechneten Wahrscheinlichkeit und der Größe der Datenbank kann das Erzeugen und Speichern der historischen Blickinformation in der Datenbank beinhalten, wenn die berechnete Wahrscheinlichkeit größer als ein vorbestimmter Wert ist und die Größe der Datenbank größer als eine vorbestimmte Größe ist.
  • Das Verfahren kann ferner das Ausgeben eines Signals in Reaktion auf die berechnete Wahrscheinlichkeit, die größer als der vorbestimmte Wert ist und die Größe der Datenbank, die größer als eine vorbestimmte Größe ist, beinhalten.
  • Das Erzeugen und Speichern der historischen Blickinformation basierend auf der berechneten Wahrscheinlichkeit und der Größe der Datenbank kann das Bestimmen beinhalten, ob eine Folgeaktion des Benutzers auftritt; in Reaktion auf das Bestimmen, dass die Folgeaktion auftritt, Erzeugen und Speichern der historischen Blickinformationen zusammen mit entsprechenden Informationen, die anzeigen, dass die Folgeaktion in der Datenbank auftritt; und als Reaktion darauf, dass die Folgeaktion nicht erforderlich ist, Erzeugen und Speichern der historischen Blickinformationen zusammen mit entsprechenden Informationen, die anzeigen, dass die Folgeaktion in der Datenbank nicht erforderlich ist.
  • Die historische Blickinformation kann mindestens eine aus einer Handlung des Benutzers, der visuellen Informationsposition, dem Zielnamen, der Blickposition, der Verweilzeit auf dem Ziel, der Anzahl der verschiedenen Blicke und der Gesamtverweilzeit beinhalten.
  • Gemäß einem Aspekt einer weiteren exemplarischen Ausführungsform ist ein Verfahren zum Verfolgen des Bewusstseins eines Benutzers, basierend auf einem Blick des Benutzers, vorgesehen. Das Verfahren beinhaltet das Empfangen von Blickinformationen, die dem Blick des Benutzers auf ein bestimmtes Ziel zugeordnet sind; basierend auf der Blickinformation, Bestimmen, ob eine vorgegebene Zeit zwischen einem vorherigen Blick und einem aktuellen Blick auf denselben Bereich überschritten wurde; als Reaktion darauf, dass die vorbestimmte Zeit überschritten wird, Erzeugen und Speichern von historischen Blickinformationen in einer Datenbank; und als Reaktion darauf, dass die vorbestimmte Zeit nicht überschritten wird, Berechnen einer Wahrscheinlichkeit, dass der Benutzer das Betrachten eines ersten Bereichs abgeschlossen hat und die historische Blickinformation in der Datenbank basierend auf der berechneten Wahrscheinlichkeit und einer Größe der Datenbank erzeugt und speichert.
  • Das Erzeugen und Speichern der historischen Blickinformation basierend auf der berechneten Wahrscheinlichkeit und der Größe der Datenbank kann das Erzeugen und Speichern der historischen Blickinformation in der Datenbank beinhalten, wenn die berechnete Wahrscheinlichkeit größer als ein vorbestimmter Wert ist und die Größe der Datenbank größer als eine vorbestimmte Größe ist.
  • Das Verfahren kann ferner das Ausgeben eines Signals in Reaktion auf die berechnete Wahrscheinlichkeit, die größer als der vorbestimmte Wert ist und die Größe der Datenbank, die größer als eine vorbestimmte Größe ist, beinhalten.
  • Das Erzeugen und Speichern der historischen Blickinformation basierend auf der berechneten Wahrscheinlichkeit und der Größe der Datenbank kann ferner das Bestimmen beinhalten, ob eine Folgeaktion des Benutzers auftritt; in Reaktion auf das Bestimmen, dass die Folgeaktion auftritt, Erzeugen und Speichern der historischen Blickinformationen zusammen mit entsprechenden Informationen, die anzeigen, dass die Folgeaktion in der Datenbank auftritt; und als Reaktion darauf, dass die Folgeaktion nicht erforderlich ist, Erzeugen und Speichern der historischen Blickinformationen zusammen mit entsprechenden Informationen, die anzeigen, dass die Folgeaktion in der Datenbank nicht erforderlich ist.
  • Die historische Blickinformation kann mindestens eine aus einer Handlung des Benutzers, der visuellen Informationsposition, dem Zielnamen, der Blickposition, der Verweilzeit auf dem Ziel, der Anzahl der verschiedenen Blicke und der Gesamtverweilzeit beinhalten.
  • Gemäß einem Aspekt einer weiteren exemplarischen Ausführungsform ist eine Vorrichtung zum Verfolgen einer Absicht eines Benutzers basierend auf einem Blick des Benutzers vorgesehen. Die Vorrichtung umfasst: mindestens einen Speicher mit computerausführbaren Anweisungen; und mindestens einen Prozessor, der konfiguriert ist, um die computerausführbaren Anweisungen zu lesen und auszuführen. Die computerausführbaren Anweisungen veranlassen, den mindestens einen Prozessor zum: Empfangen von Blickinformationen, die dem Blick des Benutzers zugeordnet sind; basierend auf der Blickinformation, Bestimmen, ob eine Funktion durch den Benutzer aktiviert wurde; als Reaktion darauf, dass die Funktion durch den Benutzer aktiviert wurde, Erzeugen und Speichern von historischen Blickinformationen in einer Datenbank; und als Reaktion darauf, dass die Funktion vom Benutzer nicht aktiviert wurde, Berechnen einer Wahrscheinlichkeit, dass die Funktion durch den Benutzer während eines Verarbeitungszyklus basierend auf der Blickinformation aktiviert wird, und Erzeugen und Speichern der historischen Blickinformationen in der Datenbank basierend auf der berechneten Wahrscheinlichkeit und einer Größe der Datenbank.
  • Die computerausführbaren Anweisungen können ferner bewirken, dass der mindestens eine Prozessor die historische Blickinformation basierend auf der berechneten Wahrscheinlichkeit und der Größe der Datenbank erzeugt und speichert, indem die historische Blickinformation in der Datenbank erzeugt und gespeichert wird, wenn die berechnete Wahrscheinlichkeit größer als ein vorbestimmter Wert ist und die Größe der Datenbank größer als eine vorbestimmte Größe ist.
  • Die computerausführbaren Anweisungen können ferner bewirken, dass der mindestens eine Prozessor ein Signal ausgibt, wenn die berechnete Wahrscheinlichkeit größer als der vorbestimmte Wert ist und die Größe der Datenbank größer als eine vorbestimmte Größe ist.
  • Die computerausführbaren Anweisungen können ferner bewirken, dass der mindestens eine Prozessor die historische Blickinformation basierend auf der berechneten Wahrscheinlichkeit und der Größe der Datenbank erzeugt und speichert, indem: bestimmt wird, ob eine Folgeaktion des Benutzers auftritt; als Reaktion darauf bestimmt wird, dass die Folgeaktion auftritt, Erzeugen und Speichern der historischen Blickinformationen zusammen mit entsprechenden Informationen, die anzeigen, dass die Folgeaktion in der Datenbank auftritt; und als Reaktion darauf festgestellt wird, dass die Folgeaktion nicht erforderlich ist, Erzeugen und Speichern der historischen Blickinformationen zusammen mit entsprechenden Informationen, die anzeigen, dass die Folgeaktion in der Datenbank nicht erforderlich ist.
  • Die historische Blickinformation kann mindestens eine aus einer Handlung des Benutzers, der visuellen Informationsposition, dem Zielnamen, der Blickposition, der Verweilzeit auf dem Ziel, der Anzahl der verschiedenen Blicke und der Gesamtverweilzeit beinhalten.
  • Gemäß einem Aspekt einer weiteren exemplarischen Ausführungsform ist eine Vorrichtung zum Verfolgen des Bewusstseins eines Benutzers basierend auf einem Blick des Benutzers vorgesehen. Die Vorrichtung beinhaltet: mindestens einen Speicher mit computerausführbaren Anweisungen; und mindestens einen Prozessor, der konfiguriert ist, um die computerausführbaren Anweisungen zu lesen und auszuführen. Die computerausführbaren Anweisungen veranlassen den mindestens einen Prozessor zum: Empfangen von Blickinformationen, die dem Blick des Benutzers zugeordnet sind; basierend auf der Blickinformation, Bestimmen, ob eine vorgegebene Zeit zwischen einem vorherigen Blick und einem aktuellen Blick auf denselben Bereich überschritten wurde; als Reaktion darauf, dass die vorbestimmte Zeit überschritten wird, Erzeugen und Speichern von historischen Blickinformationen in einer Datenbank; und als Reaktion darauf, dass die vorbestimmte Zeit nicht überschritten wird, Berechnen einer Wahrscheinlichkeit, dass der Benutzer das Betrachten eines ersten Bereichs abgeschlossen hat und die historische Blickinformation in der Datenbank basierend auf der berechneten Wahrscheinlichkeit und einer Größe der Datenbank erzeugt und speichert.
  • Die computerausführbaren Anweisungen können ferner bewirken, dass der mindestens eine Prozessor die historische Blickinformation basierend auf der berechneten Wahrscheinlichkeit und der Größe der Datenbank erzeugt und speichert, indem die historische Blickinformation in der Datenbank erzeugt und gespeichert wird, wenn die berechnete Wahrscheinlichkeit größer als ein vorbestimmter Wert ist und die Größe der Datenbank größer als eine vorbestimmte Größe ist.
  • Die computerausführbaren Anweisungen können ferner bewirken, dass der mindestens eine Prozessor ein Signal ausgibt, wenn die berechnete Wahrscheinlichkeit größer als der vorbestimmte Wert ist und die Größe der Datenbank größer als die vorbestimmte Größe ist.
  • Die computerausführbaren Anweisungen können ferner bewirken, dass der mindestens eine Prozessor die historische Blickinformation basierend auf der berechneten Wahrscheinlichkeit und der Größe der Datenbank erzeugt und speichert, indem: bestimmt wird, ob eine Folgeaktion des Benutzers auftritt; als Reaktion darauf bestimmt wird, dass die Folgeaktion auftritt, Erzeugen und Speichern der historischen Blickinformationen zusammen mit entsprechenden Informationen, die anzeigen, dass die Folgeaktion in der Datenbank auftritt; und als Reaktion darauf festgestellt wird, dass die Folgeaktion nicht erforderlich ist, Erzeugen und Speichern der historischen Blickinformationen zusammen mit entsprechenden Informationen, die anzeigen, dass die Folgeaktion in der Datenbank nicht erforderlich ist.
  • Die historische Blickinformation kann mindestens eine aus einer Handlung des Benutzers, der visuellen Informationsposition, dem Zielnamen, der Blickposition, der Verweilzeit auf dem Ziel, der Anzahl der verschiedenen Blicke und der Gesamtverweilzeit beinhalten.
  • Weitere Zwecke, Vorteile und neuartige Merkmale der Ausführungsbeispiele ergeben sich aus der nachfolgenden detaillierten Beschreibung der Ausführungsbeispiele und den beigefügten Zeichnungen.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt ein Blockschaltbild einer Blickverfolgungsvorrichtung gemäß einer exemplarischen Ausführungsform;
  • 2 zeigt ein Flussdiagramm eines Verfahrens zum Bestimmen der Absicht des Benutzers gemäß einer exemplarischen Ausführungsform; und
  • 3 zeigt ein Flussdiagramm eines Verfahrens zum Bestimmen des Situationsbewusstseins des Benutzers gemäß einer exemplarischen Ausführungsform.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Vorrichtungen zum Verfolgen eines Blicks eines Benutzers verwenden Sensoren, welche die von einem Benutzer ausgeführten Aktionen und die Ausgabeinformationen, die den Aktionen des Benutzers entsprechen, erfassen. Die Informationen von den Sensoren werden dann verwendet, um Informationen zu bestimmen, die dem Blick des Benutzers zugeordnet sind.
  • Eine Blickverfolgungsvorrichtung und ein Verfahren davon werden nun im Detail unter Bezugnahme auf die 13 der beigefügten Zeichnungen, in denen sich gleiche Bezugszeichen auf gleiche Elemente beziehen, beschrieben. Die folgende Offenbarung ermöglicht es Fachleuten Erfindungsgedanken auszuüben. Jedoch sind die hierin offenbarten Ausführungsbeispiele lediglich exemplarisch und beschränken nicht den Erfindungsgedanken der hierin beschriebenen Ausführungsbeispiele. Außerdem sollten Beschreibungen der Merkmale oder Aspekte jedes Ausführungsbeispiels normalerweise als verfügbar für Aspekte von anderen Ausführungsbeispielen berücksichtigt werden.
  • Es versteht sich auch, dass dort, wo es hierin angegeben ist, ein erstes Element mit einem zweiten Element „verbunden mit“, „gebildet auf“ oder „angelegt“ ist, das erste Element direkt verbunden mit, direkt gebildet auf oder direkt auf dem zweiten Element angeordnet sein kann, es können Zwischenelemente zwischen dem ersten Element und dem zweiten Element vorhanden sein, es sei denn, es wird angegeben, dass ein erstes Element „direkt“ mit dem zweiten Element „verbunden“ ist oder auf diesem angeordnet ist. Wenn darüber hinaus ein erstes Element konfiguriert ist, um Informationen von einem zweiten Element zu empfangen, kann das erste Element die Informationen direkt von dem zweiten Element empfangen, die Informationen über einen Bus empfangen, die Informationen über ein Netzwerk empfangen oder die Information über Zwischenelemente empfangen, es sei denn, das erste Element wird angezeigt, um die Information „direkt“ vom zweiten Element zu empfangen.
  • In der gesamten Offenbarung können eines oder mehrere der offenbarten Elemente zu einer einzigen Vorrichtung kombiniert oder zu einer oder mehreren Vorrichtungen kombiniert werden. Zusätzlich können einzelne Elemente auf separaten Vorrichtungen vorgesehen sein.
  • 1 zeigt ein Blockschaltbild einer Blickverfolgungsvorrichtung 100 gemäß einer exemplarischen Ausführungsform. Wie in 1 gezeigt, beinhaltet die Blickverfolgungsvorrichtung 100 gemäß einer exemplarischen Ausführungsform eine Steuerung 101, eine Stromversorgung 102, einen Speicher 103, einen Ausgang 104, einen Blickerfassungssensor 105, einen Benutzereingang 106, einen Fahrzeugeingangsstatus 107 und eine Kommunikationsvorrichtung 108. Jedoch ist die Blickverfolgungsvorrichtung 100 nicht auf die vorstehend erwähnte Konfiguration beschränkt und kann so konfiguriert sein, dass sie zusätzliche Elemente beinhaltet und/oder ein oder mehrere der vorgenannten Elemente weglässt.
  • Die Steuerung 101 steuert den Gesamtbetrieb und die Funktion der Blickverfolgungsvorrichtung 100. Die Steuerung 101 kann einen oder mehrere der Speicher 103, der Ausgänge 104, der Blickerfassungssensoren 105, der Benutzereingaben 106, des Fahrzeugeingangsstatus 107 und der Kommunikationsvorrichtung 108 der Blickverfolgungsvorrichtung 100 steuern. Die Steuerung 101 kann einen oder mehrere aus einem Prozessor, einem Mikroprozessor, einer zentralen Verarbeitungseinheit (CPU), einem Grafikprozessor, anwendungsspezifischen integrierten Schaltungen (ASICs), feldprogrammierbaren Gate-Arrays (FPGAs), Zustandsmaschinen und eine Kombination von Hardware-, Software- und Firmware-Komponenten beinhalten.
  • Die Stromversorgung 102 stellt einen oder mehrere der Speicher 103, der Ausgänge 104, der Blickerfassungssensoren 105, der Benutzereingaben 106, des Fahrzeugeingangsstatus 107 und der Kommunikationsvorrichtung 108 der Blickverfolgungsvorrichtung 100 bereit. Die Stromversorgung 102 kann eine oder mehrere aus einer Batterie, einem Auslass, einem Kondensator, einer Solarenergiezelle, einem Generator, einer Windenergievorrichtung, einem Wechselstromgenerator usw. beinhalten.
  • Der Speicher 103 ist konfiguriert, um Information zu speichern und um Informationen zu lesen, die von der Blickverfolgungsvorrichtung 100 verwendet werden. Der Speicher 103 kann über die Steuerung 101 gesteuert werden, um Fahrzeugkontextinformationen, historische Blickinformationen usw. zu speichern und abzurufen. Der Speicher 103 kann ein oder mehrere aus Disketten, optischen Platten, CD-ROMs (Compact Disc-Read Only Memories), magnetooptischen Platten, ROMs (Read Only Memories), RAMs (Random Access Memories), EPROMs (löschbare programmierbare Nur-Lese-Speicher), EEPROMs (elektrisch löschbare programmierbare Nur-Lese-Speicher), magnetische oder optische Karten, Flash-Speicher, Cache-Speicher und andere Arten von Medien/maschinenlesbaren Medien beinhalten, die zum Speichern von maschinenausführbaren Anweisungen geeignet sind.
  • Der Speicher 103 kann eine Datenbank 109 beinhalten, die konfiguriert ist, um die historische Blickinformation zu speichern. Die historische Blickinformation kann eine oder mehrere aus einer Handlung des Benutzers, der visuellen Informationsposition, dem Zielnamen, der Blickposition, der Verweilzeit auf dem Ziel, der Anzahl der verschiedenen Blicke und der Gesamtverweilzeit beinhalten. Zusätzlich können Informationen, die angeben, ob eine Folgeaktion auftritt, zusammen mit den historischen Blickinformationen in der Datenbank 109 gespeichert werden. Die Datenbank 109 kann eine zunehmend große Datenbank werden, die verwendet wird, um immer genauere Vorhersagen zu treffen. So können zum Beispiel aggregierte anonymisierte Daten, wie beispielsweise historische Blickinformationen, über die Kommunikationsvorrichtung 108 zu sicheren Servern übertragen werden. Die aggregierten anonymisierten Daten können auf den Servern gespeichert und an andere Fahrzeuge übertragen und zum Bestimmen der Absicht eines zweiten Benutzers basierend auf historischen Blickinformationen eines ersten Benutzers verwendet werden. Darüber hinaus können aggregierte anonymisierte Daten in durchsuchbaren Datenbanken gespeichert werden. Die aggregierten anonymisierten Daten können gesucht und abgerufen werden, um Modelle von Fahrerleistungsdaten für die Produktentwicklung und Systemkalibrierung zu erstellen.
  • Die Datenbank 109 kann auch Informationen über eine oder mehrere eines Hautleitwerts, Herzfrequenz, Blutdruck, Sauerstoffsättigung des Blutes, Ermüdungsverhalten, Tageszeit, Wetter, Verkehr und Reise speichern. Reiseinformationen können eine Reisedauer, Dauer bis zum Erreichen des Zielorts und die Zeit seit der Abfahrt beinhalten. Die Informationen können von einem oder mehreren Sensoren im Fahrzeug erfasst werden.
  • Eine Aktion eines Benutzers kann jede identifizierbare physikalische Interaktion eines Benutzers mit einem System sein, in dem ein Verfahren zum Bestimmen der Absicht des Benutzers durchgeführt wird. So kann beispielsweise eine Aktion des Benutzers ein Knopfdruck sein oder wenn er die Hände auf das Lenkrad legt oder wegnimmt.
  • Der Zielname kann ein Schnittstellenname oder ein Name einer Stelle in einem Fahrzeuginnenraum sein, in dem sich der Benutzer umschaut. So können beispielsweise eine Windschutzscheibe, eine Mittelkonsole oder eine Tür Zielnamen sein, wie sie verwendet werden können, um Bereiche des Fahrzeuginnenraums zu klassifizieren. Die gleiche Stelle kann mehrere Zielnamen erhalten, die alle im Speicher gespeichert werden können. So kann beispielsweise der Bereich, der die Kraftstoffanzeige enthält, gleichzeitig als „Tankanzeige,“ Instrumententräger,“ Armaturenbrett,“ und „Entfernt von der Windschutzscheibe“ bezeichnet werden. Die Zielnamen können je nach Fahrzeug oder System variieren, wobei das Verfahren zum Bestimmen der Absicht des Benutzers durchgeführt wird. Als solches kann der Zielname auch Informationen beinhalten, die einen Fahrzeugtyp identifizieren, der das Ziel beinhaltet.
  • Die Blickposition kann die Stelle sein, auf die der Benutzer schaut. Die Verweilzeit auf dem Ziel kann die Zeitspanne sein, die ein Benutzer damit verbringt an einem bestimmten Ort/Ziel zu suchen, bevor er etwas anderes ansieht. Die Anzahl der einzelnen Blicke kann die Anzahl der Male sein, die der Benutzer auf einen Bereich schaut, nachdem er einen anderen Bereich betrachtet hat. Die Gesamtverweilzeit kann die Summe der Verweilzeiten für die Anzahl der einzelnen Blicke in einem gegebenen Bereich sein.
  • Eine visuelle Informationsposition kann eine physikalische Position in einem dreidimensionalen (3D) Raum um einen Benutzer herum sein, in dem visuelle Informationen dargestellt werden. So kann beispielsweise eine Messinstrumentengruppe vor und unterhalb der Augen des Benutzers angeordnet sein, und ihre Lage kann als ein bestimmter Abstand (x, y und z) von den Augen des Benutzers oder eines anderen festen Bezugspunkts angegeben werden.
  • Der Ausgang 104 gibt Informationen in einer visuellen, hörbaren oder haptischen Form oder gibt ein Signal aus, um eine andere Vorrichtung zu veranlassen, Informationen in den vorgenannten Formen auszugeben. Der Ausgang 104 kann über die Steuerung 101 gesteuert werden, um dem Benutzer der Blickverfolgungsvorrichtung 100 Ausgänge zu liefern. Der Ausgang 104 kann einen oder mehrere aus einem Lautsprecher, einer Anzeige, einer Heads-Up-Anzeige, einer haptischen Rückkopplungsvorrichtung, einer Vibrationsvorrichtung, einer Abgriffrückkopplungsvorrichtung, einer holographischen Anzeige usw. beinhalten.
  • Der Blickerfassungssensor 105 ist konfiguriert, um einen Standort eines Blicks des Benutzers und eine Bewegungsrichtung des Blicks des Benutzers zu erfassen und Informationen über den Standort und die Richtung zur Blickverfolgungsvorrichtung 100 und der Steuerung 101 bereitzustellen. Der Blickerfassungssensor 105 kann eine oder mehrere aus einer Infrarotkamera, einer Kamera, einer nahen Infrarotkamera, einer aktiven Lichtkamera, einem Ultraschallsensor, einer Radarvorrichtung usw. beinhalten. Der Blickerfassungssensor 105 kann die Informationen an die Steuerung 101 zum Verarbeiten bereitstellen, sodass die Steuerung 101 Funktionen ausführen kann, die auf einer oder mehreren der Positionen eines Blicks des Benutzers, des Standorts des Benutzers und der Bewegungsrichtung des Blicks des Benutzers basieren.
  • Die Benutzereingabe 106 ist so konfiguriert, um Eingabeinformationen und Befehle an die Blickverfolgungsvorrichtung 100 zu liefern. Die Benutzereingabe 106 kann verwendet, um Benutzereingaben usw. an die Steuerung 101 zu liefern. Die Benutzereingabe 106 kann einen oder mehrere aus einem Touchscreen, einer Tastatur, einer Softtastatur, einer Schaltfläche, einem Bewegungsdetektor, einem Spracheingabedetektor, einem Mikrofon, einer Kamera, einem Trackpad, einer Maus, einem Touchpad usw. beinhalten.
  • Das Fahrzeugstatuseingang 107 ist konfiguriert, um Fahrzeugkontextinformationen zu empfangen und die Informationen an die Blickverfolgungsvorrichtung 100 zu liefern. Der Fahrzeugstatuseingang 107 kann verwendet werden, um Fahrzeugkontextinformationen usw. an die Steuerung 101 zu liefern. Die Fahrzeugkontextinformation kann von Sensoren oder Vorrichtungen empfangen werden, die Informationen über das Fahrzeug erfassen, können aus dem Speicher 103 gelesen werden, wobei die Fahrzeugkontextinformationen gespeichert sind oder über die Kommunikationsvorrichtung 108 empfangen werden. Die Fahrzeugkontextinformationen können von Sensoren oder Vorrichtungen, wie beispielsweise einem oder mehreren aus einem GPS (Global Positioning System), einem Tachometer, einem Kilometerzähler, einem Motorsensor, einem Emissionssensor, einem Sendesensor, einem Reifendrucksensor, einem Türsensor, einem Kofferraumsensor, einem Fenstersensor, einem Innen-/Außentemperatursensor, einem barometrischen Drucksensor, einem Beschleunigungssensor, einem gyroskopischen Sensor, einer Berührungskraft oder einem Drucksensor, einem Sitzsensor, einem Passagiersensor, einem Kollisionssensor, einem externen Objektdetektor, einem Ultraschallsensor, einem Radarsensor, einem Thermometer, einem Höhenmesser, einer elektronischen Steuereinheit (z. B. einer elektronischen Steuerung usw.), einem Fahrzeuglicht-Aktivierungssensor, einem Regensensor, einem Schneesensor, einem Fahrzeugschlüsselsensor, einer Fahrzeuginformation und einer Unterhaltungsvorrichtung (d. h. einer Infotainmentvorrichtung), einer Kommunikationsvorrichtung, einem Umgebungslichtsensor, usw. bereitgestellt werden.
  • Die Fahrzeugkontextinformation kann Informationen über eines oder mehrere von einem mit einem Fahrzeug verbundenen Ereignis, eine Lenkung eines Fahrzeugs, einen Blinkerstatus, eine Geschwindigkeit eines Fahrzeugs, eine Position eines Fahrzeugs, ein Motorereignis oder einen Status, einen Emissionsstatus, Umdrehungen pro Minute eines Motors, Übertragungsstatus, Reifendruck, Türöffnungs-/Schließstatus, Kofferraumöffnungs-/Schließstatus, Fensteröffnungs-/Schließstatus, Innen-/Außentemperatur, barometrischer Druck, Höhe eines Fahrzeugs, Beschleunigung eines Fahrzeugs, Benutzereingabe, vom Benutzer angewendeter Druck auf ein Objekt oder eine Schaltfläche in einem Fahrzeug, ob sich ein Fahrgast in einem Sitz befindet, Ort und Geschwindigkeit von externen Objekten um das Fahrzeug herum, welche Lichter eines Fahrzeugs aktiviert sind, ob ein Autoschlüssel in einem Fahrzeug vorhanden ist, ein aktuell angezeigter Bildschirm auf einem Display im Fahrzeug, Tag- oder Nachtzeit, ein Umgebungslicht, einen Status eines Fahrzeugs, einen Status einer Einstellung eines Fahrzeugs und einen Ort einer Funktion, die vom Benutzer ausführbar ist, beinhalten.
  • Die Kommunikationsvorrichtung 108 kann von der Blickverfolgungsvorrichtung 100 verwendet werden, um mit verschiedenen Arten von externen Vorrichtungen gemäß verschiedenen Kommunikationsverfahren zu kommunizieren. Die Kommunikationsvorrichtung 108 kann verwendet werden, um Blickkontaktinformationen, Fahrzeugkontextinformationen, historische Nutzungsinformationen usw. an die Steuerung 101 und die Blickverfolgungsvorrichtung 100 zu liefern.
  • Die Kommunikationsvorrichtung 108 kann verschiedene Kommunikationsmodule beinhalten, wie beispielsweise ein Rundfunkempfangsmodul, ein Nahfeldkommunikationsmodul (NFC), ein GPS-Modul und ein drahtloses Kommunikationsmodul. Das Rundfunkempfangsmodul kann ein terrestrisches Rundfunkempfangsmodul beinhalten, welches eine Antenne beinhaltet, um ein terrestrisches Rundfunksignal, einen Demodulator und einen Entzerrer zu empfangen, und ein digitales Multimediaübertragungsmodul (DMB) zum Empfangen und Verarbeiten eines DMB-Rundfunksignals. Das NFC-Modul ist ein Modul, das mit einer externen Vorrichtung kommuniziert, die sich in einer nahe gelegenen Entfernung gemäß einem NFC-Verfahren befindet. Das GPS-Modul ist ein Modul, das ein GPS-Signal von einem GPS-Satelliten empfängt und einen aktuellen Standort erkennt. Das drahtlose Kommunikationsmodul ist ein Modul, das über ein drahtloses Kommunikationsprotokoll, wie beispielsweise ein Wi-Fi- oder IEEE-Kommunikationsprotokoll mit einem externen Netzwerk verbunden ist und mit dem externen Netzwerk kommuniziert. Das drahtlose Kommunikationsmodul kann ferner ein Mobilkommunikationsmodul beinhalten, das auf ein Mobilkommunikationsnetzwerk zugreift und eine Kommunikation gemäß verschiedenen Mobilkommunikationsstandards, wie beispielsweise 3rd Generation (3G), 3rd Generation Partnerschaftsprojekt (3GPP), Langzeitentwicklung (LTE), Bluetooth oder Zigbee, beinhalten.
  • Gemäß einer exemplarischen Ausführungsform ist die Steuerung 101 der Blickverfolgungsvorrichtung 100 so konfiguriert, um mit dem Blick des Benutzers aus dem Blickerfassungssensor 105 Informationen zu erhalten. Die Steuerung 101 bestimmt, ob eine Funktion des Fahrzeugs durch den Benutzer aktiviert wurde. Wenn die Steuerung 101 feststellt, dass die Funktion durch den Benutzer aktiviert wurde, erzeugt und speichert die Steuerung 101 historische Blickinformationen in einer Datenbank 109. Wenn die Steuerung 101 feststellt, dass die Funktion vom Benutzer nicht aktiviert wurde, berechnet die Steuerung 101 eine Wahrscheinlichkeit, dass die Funktion durch den Benutzer während eines Verarbeitungszyklus basierend auf der Blickinformation aktiviert wird. Ein Zyklus kann die Zeitspanne sein, die erforderlich ist, um eine vorbestimmte Anzahl von Abtastwerten von der Blickverfolgungsvorrichtung zu sammeln.
  • Die Steuerung 101 steuert dann, um die historische Blickinformation in der Datenbank 109 zu erzeugen und zu speichern, wenn die berechnete Wahrscheinlichkeit größer als ein vorbestimmter Wert ist und die Größe der Datenbank 109 größer als eine vorbestimmte Größe ist. Die vorbestimmte Größe der Datenbank kann basierend auf einer erforderlichen Datenmenge eingestellt werden, um eine Wahrscheinlichkeit vorherzusagen, dass die Funktion während eines Bearbeitungszyklus vom Benutzer aktiviert wird. Die Steuerung 101 kann auch steuern, um ein Signal auszugeben, wenn die berechnete Wahrscheinlichkeit größer als der vorbestimmte Wert ist und die Größe der Datenbank 109 größer als eine vorbestimmte Größe ist. Der vorbestimmte Wert der Wahrscheinlichkeit kann eingestellt werden, um ein unerwünschtes Auslösen der Funktion zu begrenzen. Zum Beispiel wird, je größer der für die berechnete Wahrscheinlichkeit erforderliche vorbestimmte Wert ist, desto weniger eine unerwünschte Funktion ausgelöst. In einem Beispiel kann das Ausgangssignal gesendet werden, um eine Funktion, wie beispielsweise eine Funktion eines Fahrzeugs, auszulösen.
  • Gemäß einer weiteren exemplarischen Ausführungsform ist die Steuerung 101 der Blickverfolgungsvorrichtung 100 so konfiguriert, um mit dem Blick des Benutzers aus dem Blickerfassungssensor 105 Informationen zu erhalten. Die Steuerung 101 bestimmt, ob eine vorbestimmte Zeit zwischen einem vorherigen Blick und einem aktuellen Blick auf das gleiche Ziel basierend auf der Blickinformation überschritten wurde. Wenn die Steuerung 101 feststellt, dass die vorbestimmte Zeit überschritten wird, erzeugt und speichert die Steuerung 101 historische Blickinformationen in einer Datenbank 109. Wenn die Steuerung 101 bestimmt, dass die vorbestimmte Zeit nicht überschritten wird, berechnet die Steuerung 101 eine Wahrscheinlichkeit, die der Benutzer in einem ersten Bereich basierend auf der Blickinformation abgeschlossen hat.
  • Die vorbestimmte Zeitdauer kann eine statische voreingestellte Zeitspanne sein. Alternativ, kann die vorgegebene Zeit kontinuierlich aktualisiert werden, basierend auf einem laufenden Durchschnitt der Gesamtzeitdauer, die eine Person auf das ausgewählte Ziel blickt.
  • Die Steuerung 101 steuert dann, um die historische Blickinformation in der Datenbank 109 zu erzeugen und zu speichern, wenn die berechnete Wahrscheinlichkeit größer als ein vorbestimmter Wert ist und die Größe der Datenbank 109 größer als eine vorbestimmte Größe ist. Die Steuerung 101 kann auch steuern, um ein Signal auszugeben, wenn die berechnete Wahrscheinlichkeit größer als der vorbestimmte Wert ist und die Größe der Datenbank 109 größer als eine vorbestimmte Größe ist. In einem Beispiel kann das Ausgangssignal gesendet werden, um eine Funktion, z. B. eine Funktion eines Fahrzeugs, auszulösen.
  • Die Steuerung 101 kann steuern, um die historische Blickinformation basierend auf der berechneten Wahrscheinlichkeit und der Größe der Datenbank 109 zu erzeugen und zu speichern, indem bestimmt wird, ob eine Folgeaktion des Benutzers auftritt. Die Steuerung 101 kann dann die historische Blickinformation, die anzeigt, dass eine Folgeaktion in der Datenbank 109 auftritt, zusammen mit entsprechenden Informationen erzeugen und speichern, wenn die Folgeaktion des Benutzers auftritt oder die historische Blickinformation zusammen mit entsprechenden Informationen erzeugt und gespeichert werden, was anzeigt, dass in der Datenbank 109 keine Folgeaktion auftritt, wenn die Folgeaktion des Benutzers nicht erforderlich ist. Ob eine Folgeaktion auftritt oder erforderlich ist, ist ein Indikator, der gespeichert und analysiert wird, um festzustellen, wann ungenaue Vorhersagen auftreten. Diese Angabe kann verwendet werden, um die Wahrscheinlichkeit zu berechnen, dass der Benutzer eine Aktion ausführt und die Wahrscheinlichkeit, dass der Benutzer das Betrachten eines Ziels beendet hat.
  • 2 zeigt ein Flussdiagramm eines Verfahrens zum Bestimmen der Absicht des Benutzers gemäß einer exemplarischen Ausführungsform. So kann beispielsweise die Absicht des Benutzers die Absicht des Benutzers sein, eine Aktion auszuführen. Verfahren von 2 kann kontinuierlich wiederholt werden, um eine Datenbank zum Modellieren einer Absicht des Benutzers zum Ausführen der Aktion zu erzeugen.
  • Das Verfahren von 2 kann durch die Blickverfolgungsvorrichtung 100 durchgeführt werden oder kann in ein computerlesbares Medium als Anweisungen codiert werden, die von einem Computer ausführbar sind, um das Verfahren durchzuführen. Wie im Verfahren von 2 dargestellt, kann das Durchführen von Berechnungen auf Blickinformationen, die über die Zeit zusammen mit historischen Blickinformationen gesammelt wurden, verwendet werden, um vorherzusagen, wann und wie eine Person beabsichtigt, in Bezug auf das Ziel der visuellen Aufmerksamkeit der Person zu handeln.
  • Unter Bezugnahme auf 2 wird im Betrieb S210 die dem Blick des Benutzers zugeordnete Blickinformation empfangen. Insbesondere, wenn eine Person seine oder ihre Aufmerksamkeit auf einen erfassbaren Bereich lenkt, kann die Blickverfolgungsvorrichtung die Standortkoordinaten des von der Person oder durch die Person betrachteten Bereichs, den Blick der Person oder einen Teil der Person identifizieren. Die Koordinaten können dann mit einem Zeitstempel versehen und als Blickinformation gespeichert werden.
  • Bei Operation S220 wird bestimmt, ob der Benutzer eine Aktion ausführt. Wenn bestimmt wird, dass der Benutzer eine Aktion bei Operation S220-Ja ausführt, wird bei Operation S230 ein neuer Datenbankeintrag der historischen Blickinformation erzeugt. Die historische Blickinformation kann eine oder mehrere aus einer Handlung des Benutzers, der visuellen Informationsposition, dem Zielnamen, der Blickposition, der Verweilzeit auf dem Ziel, der Anzahl der verschiedenen Blicke und der Gesamtverweilzeit beinhalten.
  • Wenn bestimmt wird, dass der Benutzer keine Aktion im Betrieb S220-No ausführt, wird die Wahrscheinlichkeit, dass eine Benutzeraktion während des aktuellen Zyklus auftritt, bei Operation S240 berechnet. Die Wahrscheinlichkeit, dass der Benutzer eine Aktion ausführt, kann nach der folgenden Gleichung berechnet werden:
    Figure DE102017113325A1_0002
    wobei fs = die Häufigkeit des Auftretens von Aktionen mit ähnlichen Merkmalen ist (z. B. visuelle Informationsstelle, Zielname, Blickort, Verweilzeit auf das Ziel, Anzahl der spezifischen Blicke und die Gesamtverweilzeit usw.), wenn eine Aktion aufgetreten ist, fein = die Häufigkeit von Ereignissen mit ähnlichen Merkmalen ist, in welchen eine Folgeaktion erforderlich war, k = der Korrekturfaktor und N = die Gesamtzahl der für Standort erfassten Abtastungen in der Datenbank ist.
  • Die berechnete Wahrscheinlichkeit kann auch Informationen über andere Faktoren berücksichtigen, wie beispielsweise über eine oder mehrere des Hautleitwerts, Herzfrequenz, Blutdruck, Sauerstoffsättigung des Blutes, Ermüdungsverhalten, Tageszeit, Wetter, Verkehr und Reise. Reiseinformationen können eine Reiseentfernung, Dauer bis zum Erreichen des Zielorts und die Zeit seit der Abfahrt beinhalten. So kann beispielsweise die berechnete Wahrscheinlichkeit basierend auf den vorstehend angesprochenen Faktoren gewichtet werden.
  • Wenn die Wahrscheinlichkeit größer oder gleich einem Schwellenwert (d. h. einem vorbestimmten Wert) ist (Operation S241-Ja) und eine Größe der Datenbank, die verwendet wird, um die Wahrscheinlichkeit zu bestimmen, ist größer als eine minimale Größe (Operation S242-Ja), wird ein Ausgangssignal gesendet (Operation S244). In einem Beispiel kann das Ausgangssignal gesendet werden, um eine Funktion, wie beispielsweise eine Funktion eines Fahrzeugs, auszulösen. In einem anderen Beispiel kann das Ausgangssignal gesendet werden, wenn ein Daumen oder eine Hand eines Benutzers vom Lenkrad entfernt wird oder sich zu einem Zielbereich bewegt. Das Entfernen von Händen oder Fingern vom Lenkrad oder einer anderen Vorrichtung, kann unter Verwendung von kapazitiven oder piezoelektrischen Sensoren erfasst werden, um zu identifizieren, wann sich die Finger- und/oder Handstellung am Lenkrad als Eingabe zur Vorhersage verschiebt, wenn eine Aktion auftritt. Wenn die Wahrscheinlichkeit kleiner als der Schwellenwert ist (Operation S241-Nein), kehrt das Verfahren zum Start zurück, um mit dem Blick des Benutzers bei Operation S210 zugeordnete Blickinformationen zu empfangen.
  • Bei Operation S245 wird bestimmt, ob eine Folgeaktion des Benutzers erfolgt. So kann beispielsweise eine Folgeaktion eine Benutzerkorrektur oder eine zusätzliche Benutzeraktion sein, um eine vom System vorhergesagte und/oder durchgeführte Funktion anzuwenden. Die Benutzerkorrektur oder zusätzliche Benutzeraktion kann die Änderung eines vorhergesagten Ausgabebildschirms sein. Wenn eine Folgeaktion auftritt (Operation S245-Ja), tritt ein neuer Datenbankeintrag von historischen Blickinformationen auf, die eine Folgeaktion anzeigen (Operation S246). Wenn keine Folgeaktion erforderlich ist (Operation S245-Ja), zeigt ein neuer Datenbankeintrag von historischen Blickinformationen eine nicht erforderliche Folgeaktion an (Operation S247). Die historische Blickinformation kann eine oder mehrere aus einer Handlung des Benutzers, der visuellen Informationsposition, dem Zielnamen, der Blickposition, der Verweilzeit auf dem Ziel, der Anzahl der verschiedenen Blicke und der Gesamtverweilzeit beinhalten. Darüber hinaus können rohe Blickinformationen während der Durchführung des Verfahrens kontinuierlich aufgezeichnet werden.
  • 3 zeigt ein Flussdiagramm eines Verfahrens zum Bestimmen des Situationsbewusstseins des Benutzers gemäß einer exemplarischen Ausführungsform. Das Verfahren gemäß 3 kann verwendet werden, um die Datenbank 109 zu erzeugen und zu aktualisieren oder Funktionen basierend auf der Verfolgung des Bewusstseins des Benutzers für die Situation, in der sich der Benutzer befindet, auszuführen. So kann beispielsweise das Situationsbewusstsein angeben, ob der Benutzer die aktuell angezeigte Information oder die aktuelle Umgebung des Benutzers wahrgenommen und verarbeitet hat.
  • Das Verfahren von 3 kann durch die Blickverfolgungsvorrichtung 100 durchgeführt werden oder kann in ein computerlesbares Medium als Anweisungen codiert werden, die von einem Computer ausführbar sind, um das Verfahren durchzuführen. Wie im Verfahren von 3 dargestellt, kann das Durchführen von Berechnungen über die im Laufe der Zeit gesammelten Blickinformationen zusammen mit den historischen Blickinformationen verwendet werden, um vorherzusagen, ob eine Person die visuell dargestellte Information wahrgenommen hat und die Zeit zur Verarbeitung der Informationen. Das Verfahren von 3 kann kontinuierlich wiederholt werden, um eine Datenbank zum Modellieren des Situationsbewusstseins des Benutzers zu erzeugen.
  • Unter Bezugnahme auf 3 wird bei Operation S310 die dem Blick des Benutzers zugeordnete Blickinformation empfangen. Insbesondere, wenn eine Person seine oder ihre Aufmerksamkeit auf einen erfassbaren Bereich lenkt, kann die Blickverfolgungsvorrichtung die Standortkoordinaten des von der Person oder durch die Person betrachteten Bereichs, den Blick der Person oder einen Teil der Person identifizieren. Die Koordinaten können dann mit einem Zeitstempel versehen und als Blickinformation gespeichert werden.
  • Bei Operation S320 wird bestimmt, ob eine Zeitschwelle (d. h. vorgegebene Zeit) zwischen aufeinanderfolgenden Blicken überschritten wird. Wenn die Zeitschwelle bei Operation S320-Ja überschritten ist, wird bei Operation S330 ein neuer Datenbankeintrag von historischen Blickinformationen erzeugt. Die historische Blickinformation kann eine oder mehrere aus einer Handlung des Benutzers, der visuellen Informationsposition, dem Zielnamen, der Blickposition, der Verweilzeit auf dem Ziel, der Anzahl der verschiedenen Blicke und der Gesamtverweilzeit beinhalten.
  • Wird festgestellt, dass die Zeitschwelle bei Operation S320-Nein nicht überschritten ist, so kann bei Operation S340 die Wahrscheinlichkeit berechnet werden, dass ein Benutzer mit dem Betrachten des Zielbereichs fertig ist und sich aller Informationen im Zielgebiet bewusst ist. Die Wahrscheinlichkeit, dass der Benutzer das Betrachten des Zielbereichs beendet hat, kann nach der folgenden Gleichung berechnet werden:
    Figure DE102017113325A1_0003
    wobei fs = die Häufigkeit des Auftretens von Aktionen mit ähnlichen Merkmalen ist (z. B. visuelle Informationsstelle, Zielname, Blickort, Verweilzeit auf das Ziel, Anzahl der spezifischen Blicke und die Gesamtverweilzeit usw.) ein Zielbereich ist, auf den der Blick gerichtet ist, fein = die Häufigkeit von Ereignissen mit ähnlichen Merkmalen ist, in welchen eine Folgeaktion erforderlich war, k = der Korrekturfaktor und N = die Gesamtzahl der für Standort erfassten Abtastungen in der Datenbank ist.
  • Die berechnete Wahrscheinlichkeit kann auch Informationen über andere Faktoren berücksichtigen, wie beispielsweise über eine oder mehrere des Hautleitwerts, Herzfrequenz, Blutdruck, Sauerstoffsättigung des Blutes, Ermüdungsverhalten, Tageszeit, Wetter, Verkehr und Reise. Reiseinformationen können eine Reisedauer, Dauer bis zum Erreichen des Zielorts und die Zeit seit der Abfahrt beinhalten. So kann beispielsweise die berechnete Wahrscheinlichkeit basierend auf den vorstehend angesprochenen Faktoren gewichtet werden.
  • Wenn die Wahrscheinlichkeit größer oder gleich einem Schwellenwert (d. h. einem vorbestimmten Wert) ist (Operation S341-Ja) und eine Größe der Datenbank, die verwendet wird, um die Wahrscheinlichkeit zu bestimmen, ist größer als eine minimale Größe (Operation S342-Ja), wird ein Ausgangssignal gesendet (Operation S344). In einem Beispiel kann das Ausgangssignal gesendet werden, um eine Funktion auszulösen. In einem anderen Beispiel kann das Ausgangssignal gesendet werden, wenn ein Daumen oder eine Hand eines Benutzers vom Lenkrad entfernt wird oder sich zu einem Zielbereich bewegt. Das Entfernen von Händen oder Fingern vom Lenkrad oder einer anderen Vorrichtung, kann unter Verwendung von kapazitiven oder piezoelektrischen Sensoren erfasst werden, um zu identifizieren, wann sich die Finger- und/oder Handstellung am Lenkrad als Eingabe zur Vorhersage verschiebt, wenn eine Aktion auftritt. Wenn die Wahrscheinlichkeit kleiner als der Schwellenwert ist (Operation S341-Nein), kehrt das Verfahren zum Start zurück, um mit dem Blick des Benutzers bei Operation S310 zugeordnete Blickinformationen zu empfangen.
  • Bei Operation S345 wird bestimmt, ob eine Folgeaktion des Benutzers erfolgt. So kann beispielsweise eine Folgeaktion eine Benutzerkorrektur oder eine zusätzliche Benutzeraktion einer vorhergesagten und/oder durchgeführten Funktion sein. Die Benutzerkorrektur oder zusätzliche Benutzeraktion kann die Änderung eines vorhergesagten Ausgabebildschirms sein. Wenn eine Folgeaktion auftritt (Operation S345-Ja), tritt ein neuer Datenbankeintrag von historischen Blickinformationen auf, die eine Folgeaktion anzeigen (Operation S346). Wenn keine Folgeaktion erforderlich ist (Operation S345-Ja), zeigt ein neuer Datenbankeintrag von historischen Blickinformationen eine nicht erforderliche Folgeaktion an (Operation S347). Die historische Blickinformation kann eine oder mehrere aus einer Handlung des Benutzers, der visuellen Informationsposition, dem Zielnamen, der Blickposition, der Verweilzeit auf dem Ziel, der Anzahl der verschiedenen Blicke und der Gesamtverweilzeit beinhalten. Darüber hinaus können rohe Blickinformationen während der Durchführung des Verfahrens kontinuierlich aufgezeichnet werden.
  • Die hierin offenbarten Prozesse, Verfahren oder Algorithmen können von einer Verarbeitungsvorrichtung, einer Steuerung oder einem Computer, die jede vorhandene programmierbare elektronische Steuervorrichtung oder eine dedizierte elektronische Steuervorrichtung beinhalten können, geliefert/implementiert werden. Desgleichen können die Prozesse, Verfahren oder Algorithmen als Daten oder ausführbare Anweisungen durch eine Steuerung oder einen Computer in vielfältiger Weise gespeichert werden, darunter ohne Einschränkung die dauerhafte Speicherung auf nicht beschreibbaren Speichermedien, wie einem ROM, und als änderbare Information auf beschreibbaren Speichermedien wie Disketten, Magnetbändern, CDs, RAM sowie anderen magnetischen und optischen Medien. Die Prozesse, Verfahren oder Algorithmen können auch in einem softwareausführbaren Objekt implementiert werden. Alternativ können die Prozesse, Verfahren oder Algorithmen ganz oder teilweise mit geeigneten Hardwarekomponenten, wie beispielsweise anwendungsspezifischen integrierten Schaltungen (ASICs), feldprogrammierbaren Gate Arrays (FPGAs), Zustandsmaschinen, Steuerungen oder anderen Hardwarekomponenten oder Vorrichtungen oder einer Kombination von Hardware, Software und Firmwarekomponenten verkörpert werden.
  • Es wurden oben ein oder mehrere Ausführungsbeispiele anhand der Zeichnungen beschrieben. Die oben beschriebenen Ausführungsbeispiele sollten nur im beschreibenden Sinne betrachtet werden und nicht der Begrenzung dienen. Außerdem können die Ausführungsbeispiele ohne Abweichen vom Geist und Schutzumfang des Erfindungsgedankens modifiziert werden, was in den folgenden Ansprüchen definiert ist.

Claims (10)

  1. Vorrichtung zum Verfolgen einer Absicht eines Benutzers, basierend auf einem Blick des Benutzers, die Vorrichtung umfassend: mindestens einen Speicher mit computerausführbaren Anweisungen; und mindestens einen Prozessor, der konfiguriert ist, um die computerausführbaren Anweisungen zu lesen und auszuführen, wobei die computerausführbaren Anweisungen den mindestens einen Prozessor zu Folgendem veranlassen: Empfangen von Blickinformationen, die dem Blick des Benutzers zugeordnet sind; basierend auf den Blickinformationen das Bestimmen, ob eine Funktion vom Benutzer aktiviert wurde; in Reaktion auf das Bestimmen, dass die Funktion vom Benutzer aktiviert wurde, das Erzeugen und das Speichern von historischen Blickinformationen in einer Datenbank; und als Reaktion darauf, dass die Funktion vom Benutzer nicht aktiviert wurde, das Berechnen der Wahrscheinlichkeit, dass die Funktion vom Benutzer während eines Bearbeitungszyklus basierend auf den Blickinformationen aktiviert und die historischen Blickinformationen in der Datenbank basierend auf der berechneten Wahrscheinlichkeit und einer Größe der Datenbank erzeugt und gespeichert werden.
  2. Vorrichtung nach Anspruch 1, worin die computerausführbaren Anweisungen ferner bewirken, dass der mindestens eine Prozessor die historische Blickinformation basierend auf der berechneten Wahrscheinlichkeit und der Größe der Datenbank erzeugt und speichert, indem die historische Blickinformation in der Datenbank erzeugt und gespeichert wird, wenn die berechnete Wahrscheinlichkeit größer als ein vorbestimmter Wert ist und die Größe der Datenbank größer als eine vorbestimmte Größe ist.
  3. Vorrichtung nach Anspruch 2, worin die computerausführbaren Anweisungen ferner bewirken, dass der mindestens eine Prozessor ein Signal ausgibt, wenn die berechnete Wahrscheinlichkeit größer als der vorbestimmte Wert ist und die Größe der Datenbank größer als eine vorbestimmte Größe ist.
  4. Vorrichtung nach Anspruch 3, worin die computerausführbaren Anweisungen ferner bewirken, dass der mindestens eine Prozessor die historische Blickinformation basierend auf der berechneten Wahrscheinlichkeit und der Größe der Datenbank erzeugt und speichert, durch: das Bestimmen, ob eine Folgeaktion des Benutzers auftritt; in Reaktion auf das Bestimmen, dass die Folgeaktion auftritt, das Erzeugen und Speichern der historischen Blickinformationen zusammen mit entsprechenden Informationen, die anzeigen, dass die Folgeaktion in der Datenbank auftritt; und in Reaktion auf das Bestimmen, dass die Folgeaktion nicht erforderlich ist, Erzeugen und Speichern der historischen Blickinformationen zusammen mit entsprechenden Informationen, die anzeigen, dass die Folgeaktion in der Datenbank nicht erforderlich ist.
  5. Vorrichtung nach Anspruch 3, worin die historische Blickinformation mindestens eine aus einer Handlung des Benutzers, der visuellen Informationsposition, dem Zielnamen, der Blickposition, der Verweilzeit auf dem Ziel, der Anzahl der verschiedenen Blicke und der Gesamtverweilzeit umfasst.
  6. Vorrichtung zum Verfolgen des Bewusstseins eines Benutzers, basierend auf einem Blick des Benutzers, wobei die Vorrichtung umfasst: mindestens einen Speicher mit computerausführbaren Anweisungen; und mindestens einen Prozessor, der konfiguriert ist, um die computerausführbaren Anweisungen zu lesen und auszuführen, wobei die computerausführbaren Anweisungen den mindestens einen Prozessor zu Folgendem veranlassen: Empfangen von Blickinformationen, die dem Blick des Benutzers zugeordnet sind; basierend auf der Blickinformation dem Bestimmen, ob eine vorbestimmte Zeit zwischen einem vorherigen Blick und einem aktuellen Blick auf das gleiche Ziel überschritten wurde; in Reaktion auf das Bestimmen, dass die vorgegebene Zeit überschritten ist, das Erzeugen und das Speichern von historischen Blickinformationen in einer Datenbank; und als Reaktion darauf, dass die vorgegebene Zeit nicht überschritten wird, das Berechnen einer Wahrscheinlichkeit, dass der Benutzer das Betrachten eines ersten Bereichs abgeschlossen hat und die historische Blickinformation in der Datenbank basierend auf der berechneten Wahrscheinlichkeit und einer Größe der Datenbank erzeugt und speichert.
  7. Vorrichtung nach Anspruch 6, worin die computerausführbaren Anweisungen ferner bewirken, dass der mindestens eine Prozessor die historische Blickinformation basierend auf der berechneten Wahrscheinlichkeit und der Größe der Datenbank erzeugt und speichert, indem die historische Blickinformation in der Datenbank erzeugt und gespeichert wird, wenn die berechnete Wahrscheinlichkeit größer als ein vorbestimmter Wert ist und die Größe der Datenbank größer als eine vorbestimmte Größe ist.
  8. Vorrichtung nach Anspruch 7, worin die computerausführbaren Anweisungen ferner bewirken, dass der mindestens eine Prozessor ein Signal ausgibt, wenn die berechnete Wahrscheinlichkeit größer als der vorbestimmte Wert ist und die Größe der Datenbank größer als die vorbestimmte Größe ist.
  9. Vorrichtung nach Anspruch 8, worin die computerausführbaren Anweisungen ferner bewirken, dass der mindestens eine Prozessor die historische Blickinformation basierend auf der berechneten Wahrscheinlichkeit und der Größe der Datenbank erzeugt und speichert, durch: Bestimmen, ob eine Folgeaktion des Benutzers auftritt; in Reaktion auf das Bestimmen, dass die Folgeaktion auftritt, das Erzeugen und Speichern der historischen Blickinformationen zusammen mit entsprechenden Informationen, die anzeigen, dass die Folgeaktion in der Datenbank auftritt; und in Reaktion auf das Bestimmen, dass die Folgeaktion nicht erforderlich ist, das Erzeugen und Speichern der historischen Blickinformationen zusammen mit entsprechenden Informationen, die anzeigen, dass die Folgeaktion in der Datenbank nicht erforderlich ist.
  10. Vorrichtung nach Anspruch 8, worin die historische Blickinformation mindestens eine aus einer Handlung des Benutzers, der visuellen Informationsposition, dem Zielnamen, der Blickposition, der Verweilzeit auf dem Ziel, der Anzahl der verschiedenen Blicke und der Gesamtverweilzeit umfasst.
DE102017113325.9A 2016-06-21 2017-06-16 Vorrichtung und Verfahren zum Bestimmen einer benutzerbasierten Blickinformation Withdrawn DE102017113325A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/188,019 US10216269B2 (en) 2016-06-21 2016-06-21 Apparatus and method for determining intent of user based on gaze information
US15/188,019 2016-06-21

Publications (1)

Publication Number Publication Date
DE102017113325A1 true DE102017113325A1 (de) 2017-12-21

Family

ID=60481502

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017113325.9A Withdrawn DE102017113325A1 (de) 2016-06-21 2017-06-16 Vorrichtung und Verfahren zum Bestimmen einer benutzerbasierten Blickinformation

Country Status (3)

Country Link
US (1) US10216269B2 (de)
CN (1) CN107527005B (de)
DE (1) DE102017113325A1 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3732085A4 (de) * 2017-12-27 2021-08-11 Bayerische Motoren Werke Aktiengesellschaft Vorhersage eines spurwechsels eines fahrzeugs
CN108922085B (zh) * 2018-07-18 2020-12-18 北京七鑫易维信息技术有限公司 一种监护方法、装置、监护设备及存储介质
CN109726713B (zh) * 2018-12-03 2021-03-16 东南大学 基于消费级视线追踪仪的用户感兴趣区域检测系统和方法
US10882398B2 (en) * 2019-02-13 2021-01-05 Xevo Inc. System and method for correlating user attention direction and outside view
CN109982420B (zh) * 2019-05-07 2021-12-14 肇庆学院 一种基于监测行为规则的无线传感器网络休眠调度方法
CN111694424A (zh) * 2020-04-20 2020-09-22 上汽大众汽车有限公司 一种唤醒车载智能语音功能的系统和方法
US11535253B2 (en) * 2020-09-18 2022-12-27 GM Global Technology Operations LLC Lane change maneuver intention detection systems and methods

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11042886B2 (en) * 2003-09-04 2021-06-22 Google Llc Systems and methods for determining user actions
CN101441513B (zh) * 2008-11-26 2010-08-11 北京科技大学 一种利用视觉进行非接触式人机交互的系统
EP2691877A4 (de) * 2011-03-31 2015-06-24 Microsoft Technology Licensing Llc Lern- und korrektursystem für konversationsdialoge
CN103455580A (zh) * 2013-08-26 2013-12-18 华为技术有限公司 一种推荐信息的方法和装置
US9580081B2 (en) * 2014-01-24 2017-02-28 Tobii Ab Gaze driven interaction for a vehicle
US9983591B2 (en) * 2015-11-05 2018-05-29 Ford Global Technologies, Llc Autonomous driving at intersections based on perception data

Also Published As

Publication number Publication date
CN107527005B (zh) 2020-10-30
CN107527005A (zh) 2017-12-29
US20170364147A1 (en) 2017-12-21
US10216269B2 (en) 2019-02-26

Similar Documents

Publication Publication Date Title
DE102017113325A1 (de) Vorrichtung und Verfahren zum Bestimmen einer benutzerbasierten Blickinformation
DE102018121595B4 (de) Unbeaufsichtigtes anlernen von agenten für autonome fahranwendungen
DE102017114049A1 (de) Systeme zum auswählen und durchführen von routen für autonome fahrzeuge
DE202019005891U1 (de) Fahrzeugtelematik von Fahrzeugunfällen
DE112018000973T5 (de) Informationsverarbeitungssystem, Informationsverarbeitungsverfahren, Programm und Aufzeichnungsmedium
DE102017113324A1 (de) Vorrichtung und Verfahren zum Vorhersagen von Zielen der visuellen Aufmerksamkeit
DE102018100097A1 (de) Interaktives fahrersystem für halbautonome modi eines fahrzeugs
DE102019115897A1 (de) Fahrerüberwachungssystem und verfahren zum betreiben desselben
DE102013210746A1 (de) System und Verfahren zum Überwachen und/oder Bedienen einer technischen Anlage, insbesondere eines Fahrzeugs
DE102017117339A1 (de) Verfahren und vorrichtung zur erkennung einer projektierten beeinträchtigung
DE102017113603A1 (de) Verfahren, System und Vorrichtung zum Adressieren von Fahrbahngeräuschen
DE102016121768A9 (de) Verfahren und vorrichtung zur unterscheidung von fahrern basierend auf dem fahrverhalten
DE112018000975T5 (de) Informationsverarbeitungssystem, Informationsverarbeitungsverfahren und Aufzeichnungsmedium
DE102019109505A1 (de) Datenverarbeitungsvorrichtung, überwachungssystem, wecksystem, datenverarbeitungsverfahren und datenverarbeitungsprogramm
DE102020105566A1 (de) Überwachung des lenkradeingriffs für autonome fahrzeuge
DE102020122357A1 (de) Fahrerbewusstseinserfassungssystem
DE102014225804A1 (de) Unterstützung beim Führen eines Fahrzeugs
DE102015213538A1 (de) Verfahren und System zum Warnen vor einer Falschfahrt eines Fahrzeugs
DE102018112151A1 (de) Verfahren und vorrichtung zum klassifizieren von lidardaten zur objekterkennung
DE102019127986A1 (de) Benutzerschnittstellen für ferngesteuerte fahrzeugeinparkhilfe
DE102020124633A1 (de) Kontextsensitive anpassung einer geländeblickzeit
DE102020215921A1 (de) Einrichtung und warnsystem für intelligenten helm
DE102019106122A1 (de) Automatisiertes Fahrsystem
DE112015006601T5 (de) Verbesserte Kollisionsabwendung
DE102019134089A1 (de) Parkassistenzvorrichtung, Parkassistenzverfahren und Computerprogramm

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENT- UND RECHTSANWALTSPA, DE

Representative=s name: MANITZ FINSTERWALD PATENTANWAELTE PARTMBB, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee