DE102012212217A1 - Verfahren zum Abbilden der Blickposition auf eine Informationsanzeige im Fahrzeug - Google Patents

Verfahren zum Abbilden der Blickposition auf eine Informationsanzeige im Fahrzeug Download PDF

Info

Publication number
DE102012212217A1
DE102012212217A1 DE102012212217A DE102012212217A DE102012212217A1 DE 102012212217 A1 DE102012212217 A1 DE 102012212217A1 DE 102012212217 A DE102012212217 A DE 102012212217A DE 102012212217 A DE102012212217 A DE 102012212217A DE 102012212217 A1 DE102012212217 A1 DE 102012212217A1
Authority
DE
Germany
Prior art keywords
vehicle
module
data
occupant
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102012212217A
Other languages
English (en)
Other versions
DE102012212217B4 (de
Inventor
Amanda J. Kalhous
Fuad Al-Amin
Jarvis Chau
Norman J. Weigert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102012212217A1 publication Critical patent/DE102012212217A1/de
Application granted granted Critical
Publication of DE102012212217B4 publication Critical patent/DE102012212217B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Es wird ein Verfahren zum Steuern eines Fahrzeugsystems eines Fahrzeugs geschaffen. Das Verfahren umfasst: Empfangen von Bilddaten, die von einem Insassen des Fahrzeugs erfasst werden; Bestimmen eines Fokus des Insassen des Fahrzeugs auf der Grundlage der Bilddaten; und Erzeugen eines Anwenderbefehls zum Steuern des Fahrzeugsystems auf der Grundlage des Fokus des Insassen.

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Offenbarung bezieht sich auf Verfahren, Systeme und Computerprogrammprodukte, um die Fahrerblickrichtung zum Steuern von Fahrzeugsystemen zu verwenden.
  • HINTERGRUND
  • Die Hauptsteuereinrichtungen für Fahrzeug-Entertainment-Systeme sind üblicherweise in der Mitte des Fahrzeugarmaturenbretts angeordnet. Um das Entertainment-System zum Ausführen einer Funktion zu bedienen, ändert ein Fahrer vorübergehend den Fokus seiner Aufmerksamkeit von der Straße auf das Entertainment-System.
  • Dementsprechend ist es erwünscht, Systeme und Verfahren zu schaffen, um Fahrzeugfunktionen zu bedienen, ohne den Fokus des Fahrers zu ändern.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • In einer beispielhaften Ausführungsform wird ein Verfahren zum Steuern eines Fahrzeugsystems eines Fahrzeugs geschaffen. Das Verfahren umfasst: das Empfangen von Bilddaten, die von einem Insassen des Fahrzeugs erfasst werden; das Bestimmen eines Fokus des Insassen des Fahrzeugs auf der Grundlage der Bilddaten; und das Erzeugen eines Anwenderbefehls zum Steuern des Fahrzeugsystems auf der Grundlage des Fokus des Insassen.
  • In einer anderen beispielhaften Ausführungsform wird ein Steuersystem für ein Fahrzeug geschaffen. Das Steuersystem enthält ein erstes Modul, das auf der Grundlage von Bilddaten einen Fokus eines Insassen des Fahrzeugs bestimmt, wobei die Bilddaten unter Verwendung eines Bildprozessors von dem Insassen erfasst werden. Ein zweites Modul erzeugt auf der Grundlage des Fokus des Insassen einen Anwenderbefehl zum Steuern eines Fahrzeugsystems.
  • In einer nochmals anderen beispielhaften Ausführungsform wird ein Fahrzeug geschaffen. Das Fahrzeug enthält einen Bildprozessor, der Bilddaten eines Insassen des Fahrzeugs erfasst. Ein Mensch-Maschine-Schnittstellenmodul verarbeitet die Bilddaten und erzeugt auf der Grundlage der Bilddaten einen Anwenderbefehl. Ein Fahrzeugsystem empfängt den Anwenderbefehl und steuert auf der Grundlage des Anwenderbefehls eine Funktion des Fahrzeugsystems.
  • Die obigen Merkmale und Vorteile und andere Merkmale und Vorteile der Erfindung gehen leicht aus der folgenden ausführlichen Beschreibung der Erfindung in Verbindung mit den beigefügten Zeichnungen hervor.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Weitere Merkmale, Vorteile und Einzelheiten erscheinen nur beispielhaft in der folgenden ausführlichen Beschreibung von Ausführungsformen, wobei sich die ausführliche Beschreibung auf die Zeichnungen bezieht, in denen:
  • 1 ein Funktionsblockschaltplan ist, der ein Fahrzeug darstellt, das ein Fahrerblickrichtungs-Steuersystem gemäß beispielhaften Ausführungsformen enthält;
  • 2 ein Datenflussdiagramm ist, das ein Fahrerblickrichtungs-Steuermodul gemäß beispielhaften Ausführungsformen darstellt; und
  • 3 ein Ablaufplan ist, der ein Fahrerblickrichtungs-Steuerverfahren gemäß beispielhaften Ausführungsformen darstellt.
  • BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Die folgende Beschreibung ist dem Wesen nach lediglich beispielhaft und soll die vorliegende Offenbarung, ihre Anwendung oder Verwendungen nicht einschränken. Selbstverständlich bezeichnen entsprechende Bezugszeichen in allen Zeichnungen gleiche oder entsprechende Teile und Merkmale. Wie er hier verwendet ist, bezieht sich der Begriff Modul auf eine anwendungsspezifische integrierte Schaltung (ASIC), auf eine elektronische Schaltung, auf einen Prozessor (gemeinsam genutzt, dediziert oder Gruppe) und auf Speicher, die eines oder mehrere Software- oder Firmwareprogramme ausführen, auf eine Kombinationslogikschaltung und/oder auf andere geeignete Komponenten, die die beschriebene Funktionalität bereitstellen.
  • Gemäß beispielhaften Ausführungsformen ist ein allgemein bei 10 gezeigtes blickrichtungsgestütztes Steuersystem in der Weise gezeigt, dass es innerhalb eines Fahrzeugs 12 enthalten ist. Das blickrichtungsgestützte Steuersystem 10 verarbeitet Netzhautinformationen eines Fahrers 13 oder eines anderen Insassen des Fahrzeugs 12 und erzeugt darauf beruhend Steuersignale zum Steuern von Funktionen von Fahrzeugsystemen 16a16n. Solche Fahrzeugsysteme 16a16n können z. B. ein Entertainmentsystem, ein Navigationssystem, ein Telematiksystem und/oder irgendein anderes System innerhalb des Fahrzeugs enthalten, sind darauf aber nicht beschränkt. Es wird gewürdigt werden, dass die Steuersignale an Steuermodule 18a18n, die den Fahrzeugsystemen 16a16n zugeordnet sind, über ein Fahrzeugnetz 20 (wie allgemein bei 22 gezeigt) übertragen werden können und/oder (wie allgemein bei 24 gezeigt) direkt an das Fahrzeugsystem 16n' übertragen werden können.
  • In verschiedenen Ausführungsformen enthält das blickrichtungsgestützte Steuersystem 10 einen Bildprozessor 26, der Bilddaten des Fahrers 13 erfasst, und ein Mensch-Maschine-Schnittstellenmodul (HMI-Modul) 28, das die erfassten Bilddaten verarbeitet. Das HMI-Modul 28 erzeugt auf der Grundlage der verarbeiteten Bilddaten die Steuersignale zum Steuern eines oder mehrerer der Fahrzeugsysteme 16a16n.
  • In verschiedenen Ausführungsformen kommuniziert das HMI-Modul mit einem Anzeigesystem 30. Das Anzeigesystem 30 zeigt eine Anwenderschnittstelle an, die dem zu steuernden Fahrzeugsystem 16a16n entspricht. In verschiedenen Ausführungsformen wird die Anwenderschnittstelle in der oder in der Nähe der Sichtlinie des Fahrers 13 angezeigt. Die Anwenderschnittstelle kann z. B. auf einer Windschutzscheibe (nicht gezeigt) des Fahrzeugs 12 durch ein Headup-Display-System (HUD-System) angezeigt werden. Das HMI-Modul 28 verarbeitet die Bilddaten in Bezug auf die angezeigte Anwenderschnittstelle.
  • Nun anhand von 2 veranschaulichen Datenflussdiagramme das HMI-Modul 28 gemäß verschiedenen Ausführungsformen. Es wird gewürdigt werden, dass verschiedene Ausführungsformen der HMI-Module 28 gemäß der vorliegenden Offenbarung irgendeine Anzahl von Teilmodulen enthalten können. Die in 2 gezeigten Teilmodule können kombiniert und/oder weiter unterteilt werden, um ähnlich die Blickrichtung eines Fahrers zu erkennen und auf der Grundlage davon Funktionen eines oder mehrerer Fahrzeugsysteme 16a16n' (1) zu steuern. Eingaben in das HMI-Modul 28 können von einer oder von mehreren Sensoreingabeeinrichtungen des Fahrzeugs 12 (1) empfangen werden, von anderen Modulen (nicht gezeigt) innerhalb des Fahrzeugs 12 (1) empfangen werden, durch andere Module (nicht gezeigt) innerhalb des HMI-Moduls 28 bestimmt/modelliert werden und/oder über ein Netz (z. B. das Internet) von einer externen Quelle empfangen werden. In dem Beispiel aus 2 enthält das HMI-Modul 28 ein Bildverarbeitungsmodul 32, ein Blickrichtungsanalysemodul 34, ein Anzeigemodul 36 und ein Befehlsmodul 38.
  • Das Bildverarbeitungsmodul 32 empfängt als Eingabe Bilddaten 40. Das Bildverarbeitungsmodul 32 verarbeitet die Bilddaten 40, um ein Gesicht und Augen des Fahrers 13 zu unterscheiden (1), und erzeugt auf der Grundlage davon Augendaten 42 und Gesichtsdaten 44. Es wird gewürdigt werden, dass durch das Bildverarbeitungsmodul 32 verschiedene Analyseverfahren ausgeführt werden können, um die Augen und das Gesicht von den Bilddaten 40 zu unterscheiden. Diese Analyseverfahren können die Verwendung der Infrarotbeleuchtung auf das Auge zum Erzeugen einer Wirkung einer hellen Pupille, die einen hohen Kontrast zwischen den Pupillen und dem Rest des Gesichts erzeugt, um eine Robustheit und Genauigkeit der Augennachführung sicherzustellen, enthalten, sind darauf aber nicht beschränkt. Die Gesichtsdetektierung wird unter Verwendung des Viola-Jones-Objektdetektierungssystems ausgeführt.
  • Das Blickrichtungsanalysemodul 34 empfängt als Eingabe die Augendaten 42 und die Gesichtsdaten 44. Das Blickrichtungsanalysemodul 34 bestimmt auf der Grundlage der Augendaten 42 und/oder der Gesichtsdaten 44 einen Fokus des Fahrers 13 (1) und erzeugt auf der Grundlage davon Fokusdaten 46. Es sollte gewürdigt werden, dass durch das Blickrichtungsanalysemodul 34 verschiedene Analyseverfahren ausgeführt werden können, um den Fokus des Fahrers 13 zu bestimmen (1). Solche Analyseverfahren können die Verwendung der selbstkalibrierten Ruhezustandsdaten des Fahrers von dem Blickrichtungsanalysemodul und das Bestimmen der relativen Augenposition (Pupillenposition) und Gesichtsposition enthalten, sind darauf aber nicht beschränkt, wobei der Fahrerfokussierungsalgorithmus den Fokus des Fahrers bestimmen kann.
  • In verschiedenen Ausführungsformen kann das Blickrichtungsanalysemodul 34 die Gesichtsdaten 44 unter Verwendung eines Analyseverfahrens analysieren, um eine Position des Gesichts zu bestimmen. Daraufhin kann das Blickrichtungsanalysemodul 34 die Augendaten 42 unter Verwendung eines Analyseverfahrens und auf der Grundlage der Gesichtsposition analysieren, um einen Fokus des Auges (der Augen) zu bestimmen. In verschiedenen Ausführungsformen kann der Fokus des Auges (der Augen) z. B. durch einen allgemeinen Ort oder durch eine x-y-Koordinate innerhalb einer zweidimensionalen Ebene dargestellt werden.
  • Das Anzeigemodul 36 empfängt als Eingabe Systemdaten 48. Die Systemdaten 48 können durch das zu steuernde Fahrzeugsystem 16a16n (1) erzeugt werden und können einen gegenwärtigen Zustand des Fahrzeugsystems 16a16n (1) angeben. Das Anzeigemodul 36 managt auf der Grundlage der Systemdaten 48 die über die Anzeigedaten 50 anzuzeigende Anwenderschnittstelle. Das Anzeigemodul 36 kann z. B. Anzeigedaten 50 erzeugen, die von dem Anzeigesystem 30 zum Anzeigen eines bestimmten Bildschirms oder einer Benachrichtigung der dem zu steuernden Fahrzeugsystem 16a16n (1) zugeordneten Anwenderschnittstelle verwendet werden können.
  • Daraufhin stellt das Anzeigemodul 36 diese Anzeigedaten oder andere Anzeige/Funktions-Daten 52 für das Befehlsmodul 38 zur Verfügung. Die Anzeige/Funktions-Daten 52 geben irgendwelche dem besonderen Bildschirm zugeordneten Funktionen oder eine Benachrichtigung, die angezeigt wird, und eine Abbildung der Funktionen auf die zweidimensionale Ebene, auf der die Anwenderschnittstelle angezeigt wird, an. Zum Beispiel werden durch den Bildschirm, der angezeigt wird, die Funktionen x, y und z bereitgestellt. Die Funktion x wird auf die Koordinaten ((a, b), (c, d), (e, f) usw.) der Anwenderschnittstelle abgebildet; die Funktion y wird auf die Koordinaten ((g, h), (i, j), (k, l) usw.) der Anwenderschnittstelle abgebildet; und die Funktion z wird auf die Koordinaten ((m, n), (o, p), (q, r) usw.) der Anwenderschnittstelle abgebildet.
  • In verschiedenen Ausführungsformen empfängt das Anzeigemodul 36 ferner als Eingabe eine Auswahl 54. Wie hinsichtlich des Befehlsmoduls 38 genauer diskutiert wird, kann die Auswahl 54 erzeugt werden, wenn die ausgewählte Funktion einem neuen Bildschirm oder einer Benachrichtigung der Anwenderschnittstelle zugeordnet ist. Das Anzeigemodul 36 kann auf der Grundlage der Auswahl 54 die Anzeigedaten 50 (z. B. zum Anzeigen eines neuen Bildschirms oder einer neuen Benachrichtigung) und die Anzeige/Funktions-Daten 52 ändern.
  • Das Befehlsmodul 38 empfängt als Eingabe die Anzeige/Funktions-Daten 52 und die Fokusdaten 46. Das Befehlsmodul 38 bestimmt auf der Grundlage der Eingaben 46, 52 die Auswahl 54 des Fahrers und erzeugt in einigen Fällen auf der Grundlage davon einen Anwenderbefehl 56. Zum Beispiel bildet das Befehlsmodul 38 die Koordinaten der Fokusdaten 46 auf Koordinaten der Anzeige/Funktions-Daten 52 ab und bestimmt die den Koordinaten zugeordnete Funktion. Daraufhin bestimmt das Befehlsmodul 38 den richtigen Befehl für diese Funktion und erzeugt auf der Grundlage davon einen Anwenderbefehl 56.
  • Der Anwenderbefehl 56 kann von dem Fahrzeugsystem 16a16n' empfangen werden, um ein Systemmerkmal zu steuern. Der Anwenderbefehl kann zurück für das Anzeigemodul bereitgestellt werden, um die Änderung der Anwenderschnittstelle zu initiieren.
  • Nun wird weiterhin auf 2 und außerdem auf 3 Bezug genommen, worin ein Ablaufplan blickrichtungsgestützte Steuerverfahren veranschaulicht, die durch die blickrichtungsgestützten Steuersysteme gemäß der vorliegenden Offenbarung ausgeführt werden können. Wie im Licht der Offenbarung gewürdigt werden kann, ist die Reihenfolge des Betriebs innerhalb des Verfahrens nicht auf die wie in 3 dargestellte sequentielle Ausführung beschränkt, sondern kann in irgendeiner oder mehreren unterschiedlichen Reihenfolgen wie zutreffend und gemäß der vorliegenden Offenbarung ausgeführt werden. Wie weiter gewürdigt werden wird, können einer oder mehrere Schritte hinzugefügt oder entfernt werden, ohne den Erfindungsgedanken des Verfahrens zu ändern.
  • In verschiedenen Ausführungsformen kann das Verfahren so geplant werden, dass es auf der Grundlage vorgegebener Ereignisse ausgeführt wird, und/oder kann es während des Betriebs des Fahrzeugs 12 (1) (wie gezeigt) ausgeführt werden.
  • In einem Beispiel kann das Verfahren bei 100 beginnen. Bei 110 wird bestimmt, ob die blickrichtungsgestützte Steuerung aktiv ist (wobei z. B. durch den Fahrer ein Schalter zum Aktivieren des blickrichtungsgestützten Steuersystems ausgewählt wird). Falls die blickrichtungsgestützte Steuerung bei 110 aktiv ist, wird bei 130 auf der Grundlage der Steuersystemdaten und irgendeiner Auswahl die Anwenderschnittstelle bestimmt. Auf der Grundlage der Systemdaten und irgendwelcher Befehlsdaten zum Anzeigen der Anwenderschnittstelle, z. B. über die HUD, werden bei 140 die Anzeigedaten erzeugt. Bei 150 werden die Bilddaten von dem Bildprozessor analysiert, um die Augendaten und/oder die Gesichtsdaten zu bestimmen. Bei 160 werden die Augendaten und/oder die Gesichtsdaten analysiert, um den Fokus zu bestimmen. Bei 170 wird auf der Grundlage des Fokus die Auswahl bestimmt und werden die der gegenwärtigen Anwenderschnittstelle zugeordneten Funktionen (wie durch die Anzeige/Funktions-Daten angegeben) angezeigt. Optional kann die Auswahl bei 180 über eine Eingabeaufforderung von der Anwenderschnittstelle bestätigt werden. Falls die Auswahl bei 180 bestätigt wird, wird bei 190 auf der Grundlage der Auswahl und der der Auswahl zugeordneten Funktion der Anwenderbefehl erzeugt. Anschließend wird das Verfahren bei 110 mit der Überwachung, ob das blickrichtungsgestützte Steuersystem aktiv ist, fortgesetzt. Falls das blickrichtungsgestützte Steuersystem dagegen nicht aktiv ist oder das blickrichtungsgestützte Steuersystem nicht aktiv wird (z. B. daraufhin ausgeschaltet wird), kann das Verfahren bei 120 enden.
  • Obwohl die Erfindung anhand beispielhafter Ausführungsformen beschrieben worden ist, ist für den Fachmann auf dem Gebiet selbstverständlich, dass verschiedene Änderungen vorgenommen werden können und Äquivalente für Elemente davon ersetzt werden können, ohne von dem Umfang der Erfindung abzuweichen. Außerdem können viele Änderungen vorgenommen werden, um eine bestimmte Situation oder ein bestimmtes Material an die Lehren der Erfindung anzupassen, ohne von dem wesentlichen Umfang davon abzuweichen. Somit soll die Erfindung nicht auf die besonderen offenbarten Ausführungsformen beschränkt sein, sondern enthält die Erfindung alle Ausführungsformen, die im Umfang der vorliegenden Anmeldung liegen.

Claims (11)

  1. Steuersystem für ein Fahrzeug, umfassend: ein erstes Modul, das auf der Grundlage von Bilddaten einen Fokus eines Insassen eines Fahrzeugs bestimmt, wobei die Bilddaten unter Verwendung eines Bildprozessors von dem Insassen erfasst werden; und ein zweites Modul, das auf der Grundlage des Fokus des Insassen einen Anwenderbefehl zum Steuern eines Fahrzeugsystems erzeugt.
  2. System nach Anspruch 1, das ferner ein drittes Modul umfasst, das die Bilddaten analysiert, um aus den Bilddaten Augendaten und/oder Gesichtsdaten zu bestimmen.
  3. System nach Anspruch 2, wobei das erste Steuermodul auf der Grundlage der Augendaten und/oder der Gesichtsdaten den Fokus des Insassen bestimmt.
  4. System nach Anspruch 1, das ferner ein viertes Modul umfasst, das Anzeigedaten zum Anzeigen einer dem Fahrzeugsystem zugeordneten Anwenderschnittstelle erzeugt.
  5. System nach Anspruch 4, wobei das zweite Modul eine Auswahl des Insassen auf der Grundlage des Fokus in Bezug auf die Anwenderschnittstelle bestimmt und wobei das zweite Modul den Anwenderbefehl auf der Grundlage der Auswahl erzeugt.
  6. System nach Anspruch 5, wobei das vierte Modul die Anzeigedaten auf der Grundlage der Auswahl ändert.
  7. Fahrzeug, umfassend: einen Bildprozessor, der Bilddaten eines Insassen des Fahrzeugs erfasst; ein Mensch-Maschine-Schnittstellenmodul, das die Bilddaten verarbeitet und das auf der Grundlage der Bilddaten einen Anwenderbefehl erzeugt; und ein Fahrzeugsystem, das den Anwenderbefehl empfängt und das auf der Grundlage des Anwenderbefehls eine Funktion des Fahrzeugsystems steuert.
  8. Fahrzeug nach Anspruch 7, das ferner ein Anzeigesystem umfasst, das eine Anwenderschnittstelle in einer Sichtlinie des Insassen anzeigt.
  9. Fahrzeug nach Anspruch 8, wobei das Mensch-Maschine-Schnittstellenmodul die Bilddaten in Bezug auf die Anwenderschnittstelle verarbeitet.
  10. Fahrzeug nach Anspruch 8, wobei das Mensch-Maschine-Schnittstellenmodul auf der Grundlage des Anwenderbefehls Schnittstellendaten an das Anzeigesystem sendet.
  11. Fahrzeug nach Anspruch 7, wobei das Mensch-Maschine-Schnittstellensymbol auf der Grundlage der Bilddaten einen Fokus des Insassen bestimmt; und den Anwenderbefehl auf der Grundlage des Fokus des Insassen erzeugt.
DE102012212217.6A 2011-07-19 2012-07-12 Steuersystem für ein Fahrzeug Active DE102012212217B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/185,545 US9043042B2 (en) 2011-07-19 2011-07-19 Method to map gaze position to information display in vehicle
US13/185,545 2011-07-19

Publications (2)

Publication Number Publication Date
DE102012212217A1 true DE102012212217A1 (de) 2013-01-24
DE102012212217B4 DE102012212217B4 (de) 2020-10-29

Family

ID=47502346

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012212217.6A Active DE102012212217B4 (de) 2011-07-19 2012-07-12 Steuersystem für ein Fahrzeug

Country Status (3)

Country Link
US (1) US9043042B2 (de)
CN (1) CN102887121B (de)
DE (1) DE102012212217B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015212006A1 (de) * 2015-06-29 2016-12-29 Bayerische Motoren Werke Aktiengesellschaft Bedienung mittels Kopfausrichtung

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120007772A1 (en) * 2009-03-16 2012-01-12 Paerssinen Aarno Tapio Controller for a Directional Antenna and Associated Apparatus and Methods
KR102080183B1 (ko) * 2013-04-18 2020-04-14 삼성전자주식회사 전자 장치 및 전자 장치에서 잠금 해제 방법
US9329682B2 (en) * 2013-06-18 2016-05-03 Microsoft Technology Licensing, Llc Multi-step virtual object selection
EP3063606A4 (de) 2013-10-30 2017-08-09 Technology Against ALS Kommunikations- und steuerungssystem und -verfahren
US9354073B2 (en) * 2013-12-09 2016-05-31 Harman International Industries, Inc. Eye gaze enabled navigation system
US9817474B2 (en) * 2014-01-24 2017-11-14 Tobii Ab Gaze driven interaction for a vehicle
DE102014211882A1 (de) * 2014-06-20 2015-12-24 Robert Bosch Gmbh Verfahren zur Ermittlung der Herzfrequenz des Fahrers eines Fahrzeugs
GB2532457B (en) * 2014-11-19 2018-04-18 Jaguar Land Rover Ltd Dynamic control apparatus and related method
CN104503583B (zh) * 2014-12-30 2018-03-06 百度在线网络技术(北京)有限公司 信息显示方法及装置
US10713501B2 (en) * 2015-08-13 2020-07-14 Ford Global Technologies, Llc Focus system to enhance vehicle vision performance
US9841813B2 (en) * 2015-12-22 2017-12-12 Delphi Technologies, Inc. Automated vehicle human-machine interface system based on glance-direction
US10095937B2 (en) * 2016-06-21 2018-10-09 GM Global Technology Operations LLC Apparatus and method for predicting targets of visual attention
CN106131503A (zh) * 2016-08-16 2016-11-16 深圳市金豪泰科技有限公司 一种行车监控系统及监控方法
US20190012552A1 (en) * 2017-07-06 2019-01-10 Yves Lambert Hidden driver monitoring
GB2567164A (en) 2017-10-04 2019-04-10 Continental Automotive Gmbh Display system in a vehicle
CN111527013B (zh) * 2017-12-27 2024-02-23 宝马股份公司 车辆变道预测
US10928900B2 (en) 2018-04-27 2021-02-23 Technology Against Als Communication systems and methods
CN109542217B (zh) * 2018-10-12 2022-05-17 深圳市元征科技股份有限公司 一种眼球追踪显示方法以及装置
KR20190078553A (ko) * 2019-06-14 2019-07-04 엘지전자 주식회사 차량 제어 방법 및 차량을 제어하는 지능형 컴퓨팅 디바이스
KR20210034843A (ko) * 2019-09-23 2021-03-31 삼성전자주식회사 차량의 제어 장치 및 방법
US11487968B2 (en) * 2019-12-16 2022-11-01 Nvidia Corporation Neural network based facial analysis using facial landmarks and associated confidence values
US11535253B2 (en) * 2020-09-18 2022-12-27 GM Global Technology Operations LLC Lane change maneuver intention detection systems and methods

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60152904A (ja) * 1984-01-20 1985-08-12 Nippon Denso Co Ltd 車両運転者位置認識装置
JPH01158579A (ja) * 1987-09-09 1989-06-21 Aisin Seiki Co Ltd 像認識装置
US7511833B2 (en) * 1992-05-05 2009-03-31 Automotive Technologies International, Inc. System for obtaining information about vehicular components
US7887089B2 (en) * 1992-05-05 2011-02-15 Automotive Technologies International, Inc. Vehicular occupant protection system control arrangement and method using multiple sensor systems
JP3203951B2 (ja) * 1993-08-04 2001-09-04 日産自動車株式会社 車両用インタフェース
JP3214195B2 (ja) * 1993-11-11 2001-10-02 三菱電機株式会社 運転者撮影装置
JP3727078B2 (ja) * 1994-12-02 2005-12-14 富士通株式会社 表示装置
US7386372B2 (en) * 1995-06-07 2008-06-10 Automotive Technologies International, Inc. Apparatus and method for determining presence of objects in a vehicle
US5689619A (en) * 1996-08-09 1997-11-18 The United States Of America As Represented By The Secretary Of The Army Eyetracker control of heads-up displays
US6005958A (en) * 1997-04-23 1999-12-21 Automotive Systems Laboratory, Inc. Occupant type and position detection system
US6272431B1 (en) * 1997-04-29 2001-08-07 Thomas Zamojdo Method for displaying a map in a vehicle en-route guidance system
US7231060B2 (en) * 1997-08-26 2007-06-12 Color Kinetics Incorporated Systems and methods of generating control signals
DE19918008A1 (de) * 1999-04-21 2000-10-26 Claussen Claus Frenz Verfahren und Vorrichtung zur Ermittlung des Halsbewegungsmusters
US6348877B1 (en) * 1999-06-17 2002-02-19 International Business Machines Corporation Method and system for alerting a pilot to the location of other aircraft
US7180476B1 (en) * 1999-06-30 2007-02-20 The Boeing Company Exterior aircraft vision system using a helmet-mounted display
EP1083076A3 (de) * 1999-09-07 2005-01-12 Mazda Motor Corporation Anzeigegerät für Fahrzeug
US6580973B2 (en) * 2000-10-14 2003-06-17 Robert H. Leivian Method of response synthesis in a driver assistance system
JP3675330B2 (ja) * 2000-11-07 2005-07-27 日産自動車株式会社 車両用表示装置及び表示装置を有する自動車
US7027621B1 (en) * 2001-03-15 2006-04-11 Mikos, Ltd. Method and apparatus for operator condition monitoring and assessment
US6578869B2 (en) * 2001-03-26 2003-06-17 Trw Inc. Vehicle occupant position sensor utilizing image focus attributes
DE10121392A1 (de) * 2001-05-02 2002-11-21 Bosch Gmbh Robert Vorrichtung zur Steuerung von Geräten mittels Blickrichtung
US7526120B2 (en) * 2002-09-11 2009-04-28 Canesta, Inc. System and method for providing intelligent airbag deployment
CN100398065C (zh) * 2002-10-15 2008-07-02 沃尔沃技术公司 解释对象的头部和眼睛活动的方法和装置
US6859144B2 (en) * 2003-02-05 2005-02-22 Delphi Technologies, Inc. Vehicle situation alert system with eye gaze controlled alert signal generation
SE0303122D0 (sv) * 2003-11-20 2003-11-20 Volvo Technology Corp Method and system for communication and/or interaction between a vehicle driver and a plurality of applications
JP4388359B2 (ja) * 2003-12-17 2009-12-24 株式会社ケンウッド 車載用マンマシン・インタフェース装置、方法、及びプログラム
DE102004005816B4 (de) * 2004-02-06 2007-02-08 Audi Ag Kraftfahrzeug
JP4277081B2 (ja) * 2004-03-17 2009-06-10 株式会社デンソー 運転支援装置
JP4252938B2 (ja) * 2004-07-07 2009-04-08 株式会社デンソー 車両の車室照明装置
US20060011399A1 (en) * 2004-07-15 2006-01-19 International Business Machines Corporation System and method for controlling vehicle operation based on a user's facial expressions and physical state
US9795760B2 (en) * 2004-07-16 2017-10-24 Samuel Kim Motion sickness reduction
US20060149426A1 (en) * 2005-01-04 2006-07-06 Unkrich Mark A Detecting an eye of a user and determining location and blinking state of the user
JP2006252138A (ja) * 2005-03-10 2006-09-21 Omron Corp 運転者撮影装置および運転者監視装置
EP1865404A4 (de) * 2005-03-28 2012-09-05 Panasonic Corp Benutzeroberflächensystem
JP4462231B2 (ja) * 2006-05-09 2010-05-12 株式会社デンソー 車両用オートライト装置
US7792328B2 (en) * 2007-01-12 2010-09-07 International Business Machines Corporation Warning a vehicle operator of unsafe operation behavior based on a 3D captured image stream
WO2008088070A1 (ja) * 2007-01-19 2008-07-24 Asahi Kasei Kabushiki Kaisha 覚醒状態判定モデル生成装置、覚醒状態判定装置及び警告装置
TW200838750A (en) * 2007-03-22 2008-10-01 Univ Chang Gung Intelligent driving safety monitoring system integrating multiple direction information and method thereof
JP4259587B2 (ja) * 2007-03-30 2009-04-30 株式会社デンソー データベース装置、注意喚起装置及び運転支援装置
US7970175B2 (en) * 2007-04-30 2011-06-28 Delphi Technologies, Inc. Method and apparatus for assessing head pose of a vehicle driver
AT505338B1 (de) * 2007-06-12 2009-03-15 Ernst Dipl Ing Dr Pfleger Verfahren zur wahrnehmungsmessung
JP4458131B2 (ja) * 2007-08-23 2010-04-28 ソニー株式会社 画像撮像装置、撮像方法
US7556377B2 (en) * 2007-09-28 2009-07-07 International Business Machines Corporation System and method of detecting eye fixations using adaptive thresholds
JP4604073B2 (ja) * 2007-10-03 2010-12-22 本田技研工業株式会社 車両用飲酒運転防止装置
US8077915B2 (en) * 2007-10-12 2011-12-13 Sony Ericsson Mobile Communications Ab Obtaining information by tracking a user
DE102007049710A1 (de) * 2007-10-17 2009-04-23 Robert Bosch Gmbh Visuelles Auslösen von Vorgängen in einem Kraftfahrzeug
JP4640404B2 (ja) * 2007-11-22 2011-03-02 トヨタ自動車株式会社 車両運転者状態検出装置
WO2009072366A1 (ja) * 2007-12-05 2009-06-11 Bosch Corporation 車両情報表示装置
US8106783B2 (en) * 2008-03-12 2012-01-31 Denso Corporation Input apparatus, remote controller and operating device for vehicle
KR101297144B1 (ko) * 2008-03-19 2013-08-21 가부시키가이샤 덴소 차량용 조작 입력 장치
JP5354514B2 (ja) * 2008-03-31 2013-11-27 現代自動車株式会社 脇見運転検出警報システム
US20100079413A1 (en) * 2008-09-29 2010-04-01 Denso Corporation Control device
US8391554B2 (en) * 2008-10-01 2013-03-05 GM Global Technology Operations LLC Eye detection system using a single camera
US8700332B2 (en) * 2008-11-10 2014-04-15 Volkswagen Ag Operating device for a motor vehicle
JP4666062B2 (ja) * 2008-11-17 2011-04-06 株式会社デンソー 画像撮影装置および方法
US8376595B2 (en) * 2009-05-15 2013-02-19 Magna Electronics, Inc. Automatic headlamp control
US8698639B2 (en) * 2011-02-18 2014-04-15 Honda Motor Co., Ltd. System and method for responding to driver behavior
US8825392B2 (en) * 2011-06-30 2014-09-02 Navteq B.V. Map view

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015212006A1 (de) * 2015-06-29 2016-12-29 Bayerische Motoren Werke Aktiengesellschaft Bedienung mittels Kopfausrichtung

Also Published As

Publication number Publication date
DE102012212217B4 (de) 2020-10-29
CN102887121A (zh) 2013-01-23
US9043042B2 (en) 2015-05-26
CN102887121B (zh) 2015-10-28
US20130024047A1 (en) 2013-01-24

Similar Documents

Publication Publication Date Title
DE102012212217B4 (de) Steuersystem für ein Fahrzeug
CN111931579B (zh) 利用眼动追踪和手势识别技术的自动驾驶辅助系统及方法
EP2836386B1 (de) Verfahren, vorrichtung und computerprogrammprodukt zum steuern zumindest einer funktion zumindest eines anzeigegerätes für einen innenraum eines fahrzeugs
DE102012219280A1 (de) Fahrerassistenzsystem und Verfahren
DE102012109039A1 (de) Fahrzeugbedienungseingabevorrichtung und Steuerverfahren für eine Fahrzeugbedienungseingabevorrichtung
DE102011056714A1 (de) Systembereitschaftsschalter für ein Mensch-Maschine-Interaktionssteuerungssystem mit Augenverfolgung
DE102012000274A1 (de) Verfahren und Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt
DE112014004212T5 (de) Vorrichtung und Verfahren, Programm und Speichermedium zur Gestenbedienung
DE102016210288A1 (de) Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung
DE112012006761T5 (de) Fahrassistenzvorrichtung
DE102015204281A1 (de) Verfahren zur Kalibrierung einer Kamera für eine Blickrichtungserkennung in einem Fahrzeug, Vorrichtung für ein Kraftfahrzeug mit einer Kamera und mindestens einem weiteren Element und Computerprogrammprodukt
DE102014200782A1 (de) Betreiben eines Fahrzeugs gemäß dem Wunsch eines Fahrzeuginsassen
DE102014204320A1 (de) Informationsabfrage durch Zeigen
DE102013221668A1 (de) System und Verfahren für das Bereitstellen einer Benutzerschnittstelle im Fahrzeug, wobei das Erkennen einer Handformspur benutzt wird
DE102013225503A1 (de) System und Verfahren zum Bedienen einer Benutzerschnittstelle unter Verwendung eines Handgelenkwinkels in einem Fahrzeug
DE102018127819A1 (de) Steuerungsvorrichtung und Programm
DE102013100328A1 (de) Adaptives Schnittstellensystem
CN110949272A (zh) 车载显示设备调节方法、装置、车辆、介质及设备
DE102009054544A1 (de) Handsteuerbild zur Replikation
EP3243688A1 (de) Verfahren und vorrichtung zum zuordnen von steuerbefehlen in einem fahrzeug sowie fahrzeug
DE112016006769B4 (de) Verfahren für Gebärdenspracheneingaben in eine Benutzerschnittstelle eines Fahrzeugs und Fahrzeug
DE102022109370A1 (de) Auf Betrachter-Eingaben basierende Steuerung in einem Multibild-Head-up-Display mit erweiterter Realität in einem Fahrzeug
DE102015115362A1 (de) Erfassungsvorrichtung für ein Kraftfahrzeug sowie Kraftfahrzeug
DE102019125920A1 (de) Augapfelinformationenerfassungsvorrichtung, Augapfelinformationenerfassungsverfahren und Insassenüberwachungsvorrichtung
DE102022107887A1 (de) Fahrzeugsimulator

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: B60R0016000000

Ipc: B60R0016020000

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final