DE102013226012A1 - Bereitstellung eines Bedienelements durch Oberflächenveränderung - Google Patents

Bereitstellung eines Bedienelements durch Oberflächenveränderung Download PDF

Info

Publication number
DE102013226012A1
DE102013226012A1 DE102013226012.1A DE102013226012A DE102013226012A1 DE 102013226012 A1 DE102013226012 A1 DE 102013226012A1 DE 102013226012 A DE102013226012 A DE 102013226012A DE 102013226012 A1 DE102013226012 A1 DE 102013226012A1
Authority
DE
Germany
Prior art keywords
finger
haptic feedback
user
virtual
haptic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102013226012.1A
Other languages
English (en)
Inventor
Matthias Kaufmann
Nora Broy
Sonja Rümelin
Michael Bajer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102013226012.1A priority Critical patent/DE102013226012A1/de
Publication of DE102013226012A1 publication Critical patent/DE102013226012A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • B60K35/10
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/25
    • B60K35/60
    • B60K2360/146
    • B60K2360/1464
    • B60K2360/1468
    • B60K2360/21
    • B60K2360/782
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G5/00Means for preventing, limiting or returning the movements of parts of a control mechanism, e.g. locking controlling member
    • G05G5/03Means for enhancing the operator's awareness of arrival of the controlling member at a command or datum position; Providing feel, e.g. means for creating a counterforce

Abstract

Die Erfindung betrifft ein Bedienelement, z.B. zur Steuerung von einer Funktion in einem Fahrzeug. Insbesondere betrifft die Erfindung ein Bedienelement, welches in flexibler Weise an unterschiedlichen Positionen bereitgestellt werden kann. Es wird ein Verfahren (300) zur Bereitstellung eines virtuellen haptischen Bedienelements (102, 402) beschrieben. Das Verfahren (300) umfasst das Erfassen (301) mindestens einer Berührung einer Oberfläche (100, 400) durch einen Finger einer Hand eines Nutzers. Die Oberfläche (100, 400) weist eine haptische Feedback-Einheit (101) auf. Das Verfahren (300) umfasst weiter das Ermitteln (302, 303) einer Position des Fingers auf der Oberfläche (100, 400), und das Detektieren einer Bewegung des Fingers entlang der Oberfläche (100, 400). Außerdem umfasst das Verfahren (300) das Ermitteln (305) von ein oder mehreren Indizien für eine Intention des Nutzers, und das Bestimmen (306, 308), anhand der ein oder mehreren Indizien, dass die detektierte Bewegung des Fingers auf die Auslösung einer Funktion gerichtet ist. Desweiteren umfasst das Verfahren (300) in Reaktion darauf, das Erzeugen (309) eines haptischen Feedbacks an der Position des Fingers durch die haptische Feedback-Einheit (101), zur Bereitstellung eines virtuellen haptischen Bedienelements (102, 402).

Description

  • Die Erfindung betrifft ein Bedienelement, z.B. zur Steuerung von einer Funktion in einem Fahrzeug. Insbesondere betrifft die Erfindung ein Bedienelement, welches in flexibler Weise an unterschiedlichen Positionen bereitgestellt werden kann.
  • Fahrzeuge, z.B. Personenkraftwagen und/oder Lastkraftwagen und/oder Motorräder, umfassen typischerweise eine Vielzahl von Bedienelementen zur Steuerung von unterschiedlichen Fahrzeugfunktionen. Beispiele von derartigen Bedienelementen sind Tasten und/oder Drehknöpfe mit denen Einstellungen einer Stereoanlage und/oder Einstellungen eines Navigationssystems verändert werden können.
  • Zur Betätigung der Bedienelemente richtet der Fahrer des Fahrzeugs typischerweise kurzfristig seinen Blick auf eine Bedienoberfläche, um ein bestimmtes Bedienelement zu identifizieren, und um seine Hand oder seinen Finger zu dem bestimmten Bedienelement hin zu bewegen. Dies kann dazu führen, dass der Fahrer seinen Blick kurzfristig vom Verkehr ablenkt, wodurch Unfallrisiken entstehen können.
  • Das vorliegende Dokument befasst sich mit der technischen Aufgabe, ein Bedienelement bereitzustellen, das in flexibler Weise durch den Fahrer eines Fahrzeugs identifiziert und bedient werden kann. Insbesondere soll ein Bedienelement bereitgestellt werden, welches identifiziert und bedient werden kann, ohne dass der Fahrer dazu seinen Blick vom Verkehrsgeschehen abwenden muss.
  • Die Aufgabe wird durch die unabhängigen Ansprüche gelöst. Vorteilhafte Ausführungsformen werden u.a. in den abhängigen Ansprüchen beschrieben.
  • Gemäß einem Aspekt wird ein Verfahren zur Bereitstellung eines virtuellen haptischen Bedienelements beschrieben. Bei dem virtuellen haptischen Bedienelement kann es sich insbesondere um ein Bedienelement handeln, welches keine physikalische, drei-dimensionale Ausdehnung aufweist und ggf. auch nicht sichtbar ist. Andererseits kann das Bedienelement erfühlt oder ertastet werden. Mit anderen Worten, das virtuelle haptische Bedienelement kann derart ausgebildet sein, dass es ein Tast-Gefühl vermittelt, dass ein tatsächliches physikalisches Bedienelement vorliegt.
  • Das Verfahren umfasst das Erfassen mindestens einer Berührung einer Oberfläche durch einen (oder ggf. durch mehrere) Finger einer Hand eines Nutzers. Die Oberfläche umfasst eine haptische Feedback-Einheit (z.B. eine haptische Feedback-Schicht). Die Oberfläche kann in einem Fahrzeug angeordnet sein. Insbesondere kann die Oberfläche ein Lenkrad eines Fahrzeugs und/oder eine Fläche zwischen einer Fahrerposition und einer Beifahrerposition des Fahrzeugs umfassen.
  • Die haptische Feedback-Einheit kann eingerichtet sein, einen haptischen Feedback durch Elektropotentialdifferenzen und/oder durch Ultraschallwellen zu erzeugen. Desweiteren kann die haptische Feedback-Einheit eingerichtet sein, einen örtlich lokalisierten, z.B. punktuellen, haptischen Feedback auf der Oberfläche zu erzeugen. Insbesondere kann dediziert an einer isolierten Stelle auf einer haptischen Feedback-Schicht ein haptisches Feedback erzeugt werden.
  • Das Verfahren umfasst weiter das Ermitteln einer Position des Fingers auf der Oberfläche. Mit anderen Worten, der Berührungspunkt auf der Oberfläche kann mit einem bestimmten Finger der Hand des Nutzers assoziiert werden. Dazu kann ggf. ein Handmodell herangezogen werden, um eine Vielzahl von Berührungspunkten zu disambiguieren und den Berührungspunkt eines bestimmten (ermittelten) Fingers zu ermitteln. Insbesondere kann das Verfahren das Erfassen einer Vielzahl von gleichzeitigen Berührungen der Oberfläche durch eine entsprechende Vielzahl von Elementen der Hand des Nutzers umfassen. Dabei umfasst die Vielzahl von Elementen den bestimmten ermittelten Finger des Nutzers. Die Vielzahl von Berührungen kann typischerweise an unterschiedlichen Stellen oder Positionen auf der Oberfläche erfolgen. Das Verfahren kann weiter das Identifizieren der Berührung, die auf den ermittelten Finger zurückgeht, umfassen. Zu diesem Zweck kann ein Handmodell herangezogen werden. Somit kann sichergestellt werden, dass ein virtuelles haptisches Bedienelement nur durch einen bestimmten Finger der Hand bedient werden kann, und so Fehlauslösungen vermieden werden können. Außerdem kann so sichergestellt werden, dass das virtuelle haptische Bedienelement an die Ergonomie eines bestimmten Fingers (z.B. eines Daumens) angepasst ist.
  • Das Ermitteln der Position des Fingers kann z.B. durch eine berührungsempfindliche Schicht auf der Oberfläche und/oder durch einen Time-of-Flight Sensor und/oder durch eine Kamera, die eingerichtet ist, ein Bild der Oberfläche zu erfassen, erfolgen.
  • Das Verfahren umfasst weiter das Detektieren einer Bewegung des Fingers entlang der Oberfläche. Die Bewegung des Fingers kann z.B. durch eine, auf die Oberfläche gerichtete Kamera und/oder durch einen ToF Sensor detektiert werden. Alternativ oder ergänzend kann die Bewegung des Fingers z.B. durch eine berührungsempfindliche Schicht der Oberfläche detektiert werden.
  • Das Verfahren umfasst weiter das Ermitteln von ein oder mehreren Indizien für eine Intention des Nutzers. Insbesondere können ein oder mehrere Indizien dafür ermittelt werden, ob die detektierte Bewegung des Fingers auf die Auslösung einer Funktion und/oder auf die Betätigung eines Bedienelements gerichtet ist. Die ein oder mehreren Indizien können z.B. auf Basis einer Blickrichtung des Nutzers ermittelt werden. Alternativ oder ergänzend kann anhand der detektierten Bewegung auf die Intention des Nutzers geschlossen werden. Beispielsweise kann eine geradlinige Bewegung ein Indiz dafür sein, dass der Nutzer ein Scrollrad bedienen möchte. Eine kreisförmige Bewegung kann ein Indiz dafür sein, dass der Nutzer ein Touchrad bedienen möchte. Eine abrollende Bewegung kann ein Indiz dafür sein, dass der Nutzer eine Wippe bedienen möchte. Durch das Ermitteln von ein oder mehreren Indizien für die Intention des Nutzers können zielgerichtete Bewegungen (in Bezug auf das Bedienelement) von sonstigen Bewegungen des Fingers disambiguiert werden.
  • Das Verfahren umfasst weiter das Bestimmen, anhand der ein oder mehreren Indizien, dass die detektierte Bewegung des Fingers auf die Auslösung einer Funktion gerichtet ist. Beispielsweise kann anhand der ein oder mehreren Indizien bestimmt werden, ob die detektierte Bewegung des Fingers einer Bewegung entspricht, die typischerweise zur Auslösung einer Funktion verwendet wird, und/oder ob die Blickrichtung des Nutzers einer Blickrichtung entspricht, die typischerweise vorliegt, wenn eine Funktion ausgelöst wird. Desweiteren umfasst das Verfahren in Reaktion darauf, das Erzeugen eines haptischen Feedbacks an der Position des Fingers durch die haptische Feedback-Einheit, zur Bereitstellung eines virtuellen haptischen Bedienelements.
  • Das Verfahren ermöglicht es somit, an beliebiger Stelle auf der Oberfläche (z.B. auf einem Lenkrad) durch eine haptische Feedback-Einheit ein virtuelles Bedienelement ertastbar zu machen. Dies ermöglicht die flexible Gestaltung von Bedienoberflächen. Insbesondere ermöglicht dies die Bereitstellung eines Bedienelements an einer beliebigen Stelle auf einem Lenkrad, ohne dass ein Fahrer zur Bedienung des Bedienelements seine Handposition verändern muss. Alternativ oder ergänzend ermöglicht dies die Bereitstellung eines Bedienelements an einer beliebigen Stelle auf einer Fläche im Center-Stack eines Fahrzeugs. Dadurch können Komfort und Sicherheit in einem Fahrzeug erhöht werden.
  • Das durch die haptische Feedback-Einheit erzeugte haptische Feedback kann z.B. eine spürbare Barriere an der Position des Fingers, zur Bereitstellung einer virtuellen Wippe (als virtuelles Bedienelement) umfassen. Alternativ oder ergänzend kann das haptische Feedback eine spürbare Aneinanderreihung von Linien quer zur Richtung der detektierten Bewegung, zur Bereitstellung eines virtuellen Scrollrads (als virtuelles Bedienelement) umfassen. Alternativ oder ergänzend kann das haptische Feedback eine spürbare Barriere entlang der Richtung der detektierten Bewegung, zur Bereitstellung eines virtuellen Touchrads (als virtuelles Bedienelement) umfassen. Somit können durch die haptische Feedback-Einheit in flexibler Weise anhand unterschiedlicher haptischer Feedbacks unterschiedliche Bedienelemente ertastbar gemacht werden.
  • Das erzeugte virtuelle Bedienelement kann von der Form der detektierten Bewegung abhängig sein. Eine geradlinige Bewegung kann zur Erzeugung eines Scrollrads führen, eine abrollende Bewegung kann zur Erzeugung einer Wippe führen und/oder eine kreisförmige Bewegung kann zur Erzeugung eines Touchrads führen.
  • Es können auch an einer Vielzahl von Positionen auf der Oberfläche haptische Feedbacks erzeugt werden. Insbesondere kann eine Vielzahl von Berührungen durch eine Vielzahl von Finger (d.h. ein Multitouch) erkannt werden. Desweiteren kann eine Bewegung der Vielzahl von Finger entlang der Oberfläche detektiert werden. Beispielsweise kann erkannt werden, dass die Vielzahl von Finger eine Kreisbewegung vollziehen. Die Durchführung einer derartigen Bewegung kann ein Indiz dafür sein, dass der Fahrer einen Drehknopf bedienen möchte. In Reaktion darauf kann an der Vielzahl von Positionen ein haptisches Feedback erzeugt werden, durch das der haptische Eindruck eines Drehknopfs erzeugt wird. Der virtuelle haptische Drehknopf kann so an einer beliebigen Stelle auf der Oberfläche bereitgestellt werden.
  • Das Verfahren kann weiter umfassen, in Reaktion auf das Bestimmen, dass die detektierte Bewegung des Fingers auf die Auslösung einer Funktion gerichtet ist, das Veranlassen, dass eine Funktion ausgelöst wird. Die ausgelöste Funktion kann von der detektierten Bewegung und/oder von dem erzeugten Bedienelement abhängen.
  • Das Verfahren kann weiter das Ermitteln eines Kontexts umfassen. Der Kontext kann z.B. von einer Blickrichtung des Nutzers abhängen. Die ausgelöste Funktion kann von dem ermittelten Kontext abhängen. Durch die Berücksichtigung des Kontexts kann die Anzahl von Funktionen, die über das virtuelle Bedienelement ausgelöst werden können, erhöht werden. Dadurch erhöht sich der Komfort für den Nutzer.
  • Gemäß einem weiteren Aspekt wird eine Steuereinheit zur Ansteuerung einer haptischen Feedback-Einheit beschrieben. Die Steuereinheit kann insbesondere in einem Fahrzeug eingesetzt werden. Die Steuereinheit ist eingerichtet, mindestens eine Berührung einer Oberfläche durch einen (oder ggf. mehrere) Finger einer Hand eines Nutzers zu erfassen. Die Oberfläche umfasst die haptische Feedback-Einheit. Die Steuereinheit ist weiter eingerichtet, eine Position des Fingers auf der Oberfläche zu ermitteln, und eine Bewegung des Fingers entlang der Oberfläche zu detektieren. Darüber hinaus ist die Steuereinheit eingerichtet, ein oder mehrere Indizien für eine Intention des Nutzers zu ermitteln, und anhand der ein oder mehreren Indizien zu bestimmen, dass die detektierte Bewegung des Fingers auf die Auslösung einer Funktion und/oder auf die Bedienung eines Bedienelements gerichtet ist. Die Steuereinheit ist weiter eingerichtet, in Reaktion darauf, die haptische Feedback-Einheit zu veranlassen, zur Bereitstellung eines virtuellen haptischen Bedienelements, ein haptisches Feedback an der Position des Fingers zu erzeugen.
  • Gemäß einem weiteren Aspekt wird ein Fahrzeug mit einer in diesem Dokument beschriebenen Steuereinheit beschrieben.
  • Gemäß einem weiteren Aspekt wird ein Software (SW) Programm beschrieben. Das SW Programm kann eingerichtet werden, um auf einem Prozessor (z.B. auf der Steuereinheit) ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren auszuführen.
  • Gemäß einem weiteren Aspekt wird ein Speichermedium beschrieben. Das Speichermedium kann ein SW Programm umfassen, welches eingerichtet ist, um auf einem Prozessor ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren auszuführen.
  • Es ist zu beachten, dass die in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systeme sowohl alleine, als auch in Kombination mit anderen in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen verwendet werden können. Desweiteren können jegliche Aspekte der in diesem Dokument beschriebenen Verfahren, Vorrichtung und Systemen in vielfältiger Weise miteinander kombiniert werden. Insbesondere können die Merkmale der Ansprüche in vielfältiger Weise miteinander kombiniert werden.
  • Im Weiteren wird die Erfindung anhand von Ausführungsbeispielen näher beschrieben. Dabei zeigt
  • 1 ein beispielhaftes Lenkrad für ein Fahrzeug mit einem haptischen Bedienelement;
  • 2 ein Blockdiagram einer Fahrerposition eines Fahrzeugs;
  • 3 ein Flussdiagram eines beispielhaften Verfahrens zur Bedienung einer Fahrzeugfunktion; und
  • 4 eine beispielhafte Fläche mit einem haptischen Bedienelement.
  • Wie eingangs dargelegt, befasst sich das vorliegende Dokument mit Bedienelementen, z.B. für ein Fahrzeug. Insbesondere befasst sich das vorliegende Dokument mit Bedienelementen, die in flexibler Weise auf einer Oberfläche (z.B. auf einem Armaturenbrett eines Fahrzeugs, auf einem Lenkrad eines Fahrzeugs und/oder auf einer Fläche zwischen den Frontsitzen eines Fahrzeugs) angeordnet werden können.
  • Bedienelemente haben typischerweise eine physikalische, drei-dimensionale Ausdehnung, durch die gewährleistet wird, dass die Bedienelemente ertastet und/oder gesehen werden können. Beispielsweise haben eine Taste und/oder ein Drehknopf eine bestimmte physikalische, drei-dimensionale Form, die es ermöglicht, die Taste und/oder den Drehknopf auch ohne Blickkontakt, d.h. durch Ertasten, zu identifizieren. Desweiteren weisen Bedienelement typischerweise auch eine charakteristische Bedien-Haptik auf, wie z.B. Einrastungen. Die Bereitstellung von physikalischen, drei-dimensionalen Bedienelementen hat jedoch den Nachteil, dass die Bedienelemente auf eine ganz bestimmte Stelle fixiert sind. Dadurch ergeben sich Einschränkungen bei der Gestaltung einer Bedienoberfläche. Desweiteren muss sich der Fahrer eines Fahrzeugs die örtlich fixierten Bedienelemente mühsam ertasten, wenn er/sie das Bedienelement ohne Blickkontakt identifizieren möchte.
  • Andererseits können Bedienelemente durch eine bildliche Darstellung auf einem Touchscreen angezeigt werden, so dass die Bedienelemente optisch identifiziert werden können. Diese Bedienelemente können zwar flexible auf dem Touchscreen angezeigt werden, erfordern jedoch einen Blickkontakt durch den Fahrer eines Fahrzeugs. Wie bereits dargelegt, können durch das Abwenden des Blicks vom Straßenverkehr Unfallrisiken entstehen.
  • In diesem Dokument wird eine Vorrichtung zur Bereitstellung von ein oder mehreren Bedienelementen beschrieben, durch die ein oder mehrere virtuelle Bedienelemente haptisch ertastbar und in örtlich flexibler Weise bereitgestellt werden können. Im Folgenden wird eine derartige Vorrichtung am Beispiel eines Lenkrads eines Fahrzeugs beschrieben. Es sei jedoch darauf hingewiesen, dass derartige Vorrichtungen auch auf anderen Oberflächen bereitgestellt werden können.
  • 1 zeigt ein Lenkrad 100 eines Fahrzeugs, dessen Oberfläche zumindest teilweise mit einer haptischen Feedback-Schicht 101 überzogen ist. Die haptische Feedback-Schicht 101 ist eingerichtet, an ein oder mehreren isolierten Stellen auf der Oberfläche des Lenkrads 100 ein haptisches Feedback zu erzeugen. Beispiele für Feedback Technologien, mit denen derartige Schichten 101 bereitgesellt werden können, sind die Feedback Technologie von der Firma Senseg, bei der durch elektrostatische Kräfte haptische Eindrücke vermittelt werden, und/oder Technologien, die auf Ultraschall-Wellen basieren.
  • Durch eine haptische Feedback-Schicht 101 können an jeder beliebigen Stelle auf der Oberfläche des Lenkrads 100 virtuelle Bedienelemente 102 haptisch ertastbar gemacht werden. Insbesondere kann die haptische Feedback-Schicht 101 derart angesteuert werden, dass an der Stelle eines Fingers (z.B. Daumen) des Fahrers auf dem Lenkrad 100 ein haptischer Feedback erzeugt wird, der dem Fahrer den Eindruck vermittelt, dass sich an der Stelle des Fingers ein physikalisches, drei-dimensionales Bedienelement befindet. Somit kann an jeder beliebigen Stelle auf dem Lenkrad 100 ein virtuelles Bedienelement bereitgestellt werden. Der Fahrer muss somit nicht mehr nach der Position eines Bedienelements suchen, da sich die Position des Bedienelements der Position des Fingers des Fahrers anpasst.
  • 2 zeigt beispielhafte Komponenten eines Fahrzeugs 200 zur Bereitstellung eines virtuellen, haptischen Bedienelements. Insbesondere zeigt 2 eine Fahrerposition 203 (z.B. einen Fahrersitz) und ein Lenkrad 100, wobei das Lenkrad eine haptische Feedback-Schicht 101 (z.B. eine auf Elektropotentialdifferenzen basierende Schicht) umfasst. Desweiteren zeigt 2 einen Handsensor 202 (z.B. eine Kamera), der eingerichtet ist, eine Position der Hand und/oder eine Position von ein oder mehreren Fingern des Fahrers auf dem Lenkrad 100 zu erkennen.
  • Der Handsensor 202 (auch als System zur Erkennung der Hand- und/oder Fingerposition bezeichnet) kann z.B. eine zusätzliche berührungsempfindliche Schicht auf dem Lenkrad 100, ein Kamerasystem, Time-of-Flight (ToF) Sensorik, etc. umfassen. Die von dem Handsensor 202 erfassten Daten (auch als Handdaten bezeichnet) können an eine Steuereinheit 210 übertragen werden. Die Steuereinheit 210 kann eingerichtet sein, auf Basis der Handdaten und ggf. unter Zuhilfenahme eines Handmodells und/oder eines Lenkrad-Modells, die drei-dimensionale Anordnung der Hand und/oder der Finger auf dem Lenkrad 100 zu berechnen. Insbesondere kann die Steuereinheit 210 eingerichtet sein, zu ermitteln, an welcher Position auf dem Lenkrad 100 sich ein bestimmter Finger (z.B. der Daumen) des Fahrers befindet. D.h. die Steuereinheit 210 kann nicht nur die ein oder mehreren Stellen ermitteln, an denen die Hand des Fahrers das Lenkrad 100 berührt. Die Steuereinheit 210 kann auch ermitteln, welche ein oder mehreren Elemente der Hand (z.B. welche Finger) die jeweiligen ein oder mehreren Stellen des Lenkrads 100 berühren. Dazu kann die Steuereinheit 100 ein Modell einer Hand heranziehen, und so ermitteln, welche Berührungspunkte zu welchem Handelement gehören. Alternativ oder ergänzend können auch Kameradaten verwendet werden, aus denen eine Stellung der Hand des Fahrers auf dem Lenkrad 100 hervorgeht.
  • Desweiteren kann die Steuereinheit 210 eingerichtet sein, auf Basis der Handdaten eine Bewegung eines bestimmten Fingers (z.B. des Daumens) einer Hand des Fahrers zu detektieren. Bei der detektierten Bewegung kann es sich um eine Bewegung entlang der Oberfläche des Lenkrads 100 handeln. Beispielsweise kann der bestimmte Finger der Hand entlang der Oberfläche des Lenkrads 100 verschoben werden.
  • Desweiteren zeigt 2 einen Fahrersensor 201, der eingerichtet ist, Informationen bzgl. des Fahrers des Fahrzeugs 200 zu erfassen. Insbesondere kann der Fahrersensor 201 eine Kamera umfassen, die auf die Fahrerposition 203 gerichtet ist. Die Kamera kann z.B. eine Blickrichtung des Fahrers erfassen. Die Daten des Fahrersensors 201 (auch als Fahrerdaten bezeichnet) können an die Steuereinheit 210 übermittelt werden.
  • Die Steuereinheit 210 kann eingerichtet sein, auf Basis der Fahrerdaten und/oder auf Basis andere Informationen (z. B. auf Basis von Fahrzeugsignalen wie das Setzen eines Blinkers) eine Intention des Fahrers zu ermitteln. Mit anderen Worten, die Steuereinheit 210 kann eingerichtet sein, ein oder mehrere Indizien für eine Intention des Fahrers zu ermitteln. Aus den ein oder mehreren Indizien kann insbesondere eine Wahrscheinlichkeit dafür ermittelt werden, ob oder ob nicht eine detektierte Bewegung des Fingers eine Bewegung darstellt, durch die eine Funktion ausgelöst werden soll. Beispielsweise kann eine bestimmte Blickrichtung des Fahrers ein Indiz für die Intention der Bewegung des Fingers liefern.
  • Die Steuereinheit 210 kann weiter eingerichtet sein, über die haptische Feedback-Schicht 101 ein ertastbares Bedienelement 102 zu simulieren, wenn ermittelt wurde, dass die detektierte Bewegung des Fingers darauf abzielt, eine Fahrzeugfunktion auszulösen. Dadurch wird dem Fahrer das Gefühl vermittelt, dass er/sie ein tatsächliches Bedienelement betätigt, und er/sie durch die Betätigung des Bedienelements die Fahrzeugfunktion auslöst. Desweiteren kann die Steuereinheit 210 eingerichtet sein, die Fahrzeugfunktion tatsächlich auszulösen.
  • Die haptische Feedback-Schicht 101 kann beispielsweise dazu verwendet werden, um ein virtuelles Scrollrad an dem Lenkrad 100 bereitzustellen. Dazu kann das haptische Gefühl einer Aneinanderreihung mehrerer „Linien“ quer zur Bewegungsrichtung des Fingers erzeugt werden, so dass beim nach oben oder unten Führen des Fingers ein Gefühl des Scrollens erzeugt wird.
  • Alternativ oder ergänzend kann die haptische Feedback-Schicht 101 dazu verwendet werden, eine virtuelle Wippe am Lenkrad 100 bereitzustellen. Beim Auflegen des Daumens auf die haptische Feedback-Schicht 100 kann dazu in der Mitte der Daumenfläche eine fühlbare Barriere erzeugt werden. Beim Verschieben des Daumens in eine Richtung kann sich die Intensität der Barriere reduzieren und die Barriere kann sich in die gleiche Bewegungsrichtung verschieben. Hierdurch wird das Gefühl der Bedienung einer realen Wippe nachempfunden. Bei erfolgreicher Betätigung der virtuellen Wippe kann beispielsweise die haptische Barriere vollständig verschwinden und/oder die Daumen-Vorderseite kann gegen eine zweite virtuelle, haptische Barriere stoßen.
  • Alternativ oder ergänzend kann durch die haptische Feedback-Schicht 101 ein Touchrad, vergleichbar mit einem iPod® Bedienelement, haptisch dargestellt werden. Mit einem Touchrad kann der Nutzer durch eine kreisförmige Bewegung kontinuierliche Werte einstellen. Durch haptische Barrieren kann dargestellt werden, wenn der interaktive Bereich verlassen wird. Es wird dadurch das Gefühl erzeugt, dass der Finger durch fühlbare Barrieren in einer Ringmulde geführt wird.
  • 3 zeigt ein Flussdiagram eines beispielhaften Verfahrens 300 zur Bereitstellung eines virtuellen haptischen Bedienelements für die Auslösung einer Fahrzeugfunktion. Das Verfahren 300 umfasst das Erfassen 301 von Daten zur Erkennung von Händen und Fingern (z.B. durch ein oder mehrere Handsensoren 202). Die ein oder mehreren Handsensoren 202 können eine berührungsempfindliche Oberfläche auf dem Lenkrad 100, ein Kamerasystem, ToF Sensoren etc. umfassen. Desweiteren umfasst das Verfahren 300 das Bereitstellen 303 eines Hand- und Lenkrad-Modells. Das Verfahren 300 umfasst weiter das Bestimmen 302 der Handposition und der Fingerlage, z.B. anhand von Auflagepunkten, Auflageflächen, und/oder aufgrund der Anordnung der Berührungspunkte unter Nutzung des Handmodells und des Lenkradmodells.
  • Das Verfahren 300 umfasst weiter das Erkennen 304 von einer Fingerbewegung (z.B. einer Daumenbewegung, d.h. einer Verschiebung der Auflagefläche des Daumens). Desweiteren umfasst das Verfahren 305 das Ermitteln 305 einer Intention des Nutzers. Die Intention des Nutzers kann z.B. anhand des Fahrersensors 201 und/oder anhand von Fahrzeuginformationen (wie z.B. das Setzen des Blinkers) ermittelt werden. Unter Berücksichtigung der ermittelten Fahrerintention kann bestimmte werden (Schritt 306), ob eine detektierte Fingerbewegung darauf ausgelegt war, eine Fahrzeugfunktion auszulösen (Schritt 308) oder nicht (Schritt 307). Wenn ermittelt wird, dass die Fingerbewegung nicht auf das Auslösen einer Fahrzeugfunktion gerichtet ist, so führt das Verfahren 300 die Schritte 304 und 305 aus, um eine weitere Fingerbewegung zu detektieren.
  • Wenn eine Fingerbewegung detektiert wurde, die auf das Auslösen einer Fahrzeugfunktion gerichtet ist, so wird die haptische Feedback-Schicht 101 angesteuert 309, um dem Nutzer das Gefühl eines physikalischen, drei-dimensionalen Bedienelements zu vermitteln. Desweiteren kann das Verfahren 300 das Auslösen 310 einer Fahrzeugfunktion umfassen. Zu diesem Zweck kann das Verfahren 300 das Ermitteln 311 eines Kontexts umfassen. Beispielsweise kann die Blickrichtung des Fahrers ermittelt werden. Der Blick kann z.B. auf ein Radiosender-Display, auf einen Lautstärkeregler und/oder auf ein Display mit der Anzeige eines eingehenden Anrufs gerichtet sein. Daraus kann sich der Kontext Musiksteuerung, Lautstärkesteuerung, und/oder Anruf Annehmen ergeben. Die ausgelöste Funktion kann dann von dem ermittelten Kontext abhängig sein. Mit anderen Worten, das Auslösen einer Funktion kann je nach Kontext erfolgen. Beispielsweise kann bei einem Blick auf die Volumens Taste eine Lautstärkeänderung vorgenommen werden, bei einem Blick auf Radio/Radionamen im Display kann eine nächste Station ausgewählt werden, und/oder bei einem eingehenden Anruf kann eine Annahme/Abweisung des Anrufs erfolgen.
  • Wie bereits oben dargelegt, kann das in diesem Dokument beschriebene Verfahren zur Bereitstellung von ein oder mehreren virtuellen haptischen Bedienelementen auch auf andere Oberflächen angewendet werden. Beispielsweise kann eine Fläche im Center Stack eines Fahrzeugs 200 dazu verwendet werden ein oder mehrere virtuelle haptische Bedienelemente bereitzustellen. Dies ist in 4 beispielhaft dargestellt. Zwischen einer Fahrerposition 203 und einer Beifahrerposition 403 ist eine Fläche 400 angeordnet. Die Fläche 400 umfasst eine haptische Feedback-Schicht 101, die eingerichtet ist, ein virtuelles haptisches Bedienelement 402 bereitzustellen. Das haptische Bedienelement 402 kann z.B. einen Drehknopf oder einen virtuellen iDrive® Controller umfassen.
  • Bei Annäherung einer greifenden Hand (wie für die Bedienung eines realen iDrive® Controllers) kann in der Handmitte durch haptische Barrieren ein Bedienelement 402 (z.B. ein iDrive® Controller) erfühlbar gemacht werden. Dieses Bedienelement 402 kann z.B. derart bedient werden, dass bei Drehung haptische Einrastungen fühlbar sind. Der Rastungsabstand kann z.B. von der Menge von Elementen in einem Menü oder in einer Liste abhängen (z.B. eine Liste mit vielen Inhalten wie ein Telefonbuch kann zu kleine Rastungen führen; eine Liste mit wenig Elementen wie ein Hauptmenü kann zu großen Rastungen führen).
  • Die in diesem Dokument beschriebenen Vorrichtungen und Verfahren zur Bereitstellung von virtuellen haptischen Bedienelementen können dazu verwendet werden, in örtlich flexibler Weise Bedienelemente bereitzustellen. Insbesondere können die Bedienelemente an einer aktuellen Position der Hand eines Nutzers bereitgestellt werden, wodurch das „Auffinden“ der Bedienelemente durch den Nutzer erleichtert wird. Die beschriebenen Vorrichtungen und Verfahren ermöglichen es insbesondere, die Position der Bedienelemente einer Position der Hand des Nutzers anzupassen. Dies steht im Gegensatz zu physikalischen, drei-dimensionalen Bedienelementen, bei denen der Nutzer seine Hand zu dem fixierten physikalischen Bedienelement hin bewegen muss. Dadurch wird das Auslösen von Fahrzeugfunktionen erleichtert, und ggf. ein Unfallrisiko aufgrund der Betätigung von Bedienelementen reduziert.
  • Die vorliegende Erfindung ist nicht auf die gezeigten Ausführungsbeispiele beschränkt. Insbesondere ist zu beachten, dass die Beschreibung und die Figuren nur das Prinzip der vorgeschlagenen Verfahren, Vorrichtungen und Systeme veranschaulichen sollen.

Claims (10)

  1. Verfahren (300) zur Bereitstellung eines virtuellen haptischen Bedienelements (102, 402), wobei das Verfahren (300) umfasst, – Erfassen (301) mindestens einer Berührung einer Oberfläche (100, 400) durch mindestens einen Finger einer Hand eines Nutzers; wobei die Oberfläche (100, 400) eine haptische Feedback-Einheit (101) aufweist; – Ermitteln (302, 303) einer Position des Fingers auf der Oberfläche (100, 400); – Detektieren einer Bewegung des Fingers entlang der Oberfläche (100, 400); – Ermitteln (305) von ein oder mehreren Indizien für eine Intention des Nutzers; – Bestimmen (306, 308), anhand der ein oder mehreren Indizien, dass die detektierte Bewegung des Fingers auf die Auslösung einer Funktion gerichtet ist; und – in Reaktion darauf, Erzeugen (309) eines haptischen Feedbacks an der Position des Fingers durch die haptische Feedback-Einheit (101), zur Bereitstellung eines virtuellen haptischen Bedienelements (102, 402).
  2. Verfahren (300) gemäß Anspruch 1, wobei das haptische Feedback umfasst, – eine spürbare Barriere an der Position des Fingers, zur Bereitstellung einer virtuellen Wippe; und/oder – eine spürbare Aneinanderreihung von Linien quer zur Richtung der detektierten Bewegung, zur Bereitstellung eines virtuellen Scrollrads; und/oder – eine spürbare Barriere entlang der Richtung der detektierten Bewegung, zur Bereitstellung eines virtuellen Touchrads.
  3. Verfahren (300) gemäß einem vorhergehenden Anspruch, wobei das Verfahren (300) weiter umfasst, in Reaktion auf das Bestimmen (306, 308), dass die detektierte Bewegung des Fingers auf die Auslösung einer Funktion gerichtet ist, Veranlassen (310), dass eine Funktion ausgelöst wird.
  4. Verfahren (300) gemäß Anspruch 3, wobei – das Verfahren (300) weiter umfasst, Ermitteln (311) eines Kontexts; – der Kontext von einer Blickrichtung des Nutzers abhängt; und – die ausgelöste Funktion von dem ermittelten Kontext abhängt.
  5. Verfahren (300) gemäß einem vorhergehenden Anspruch, wobei die haptische Feedback-Einheit (101) eingerichtet ist, ein haptisches Feedback durch Elektropotentialdifferenzen und/oder durch Ultraschallwellen zu erzeugen.
  6. Verfahren (300) gemäß einem vorhergehenden Anspruch, wobei das Ermitteln (302, 303) der Position des Fingers erfolgt durch ein oder mehrere von: eine berührungsempfindliche Schicht auf der Oberfläche (100, 400), einen Time-of-Flight Sensor, eine Kamera (202), die eingerichtet ist, ein Bild der Oberfläche zu erfassen.
  7. Verfahren (300) gemäß einem vorhergehenden Anspruch, wobei das Ermitteln (305) der ein oder mehreren Indizien ein Erfassen einer Blickrichtung des Nutzers umfasst.
  8. Verfahren (300) gemäß einem vorhergehenden Anspruch, wobei das Verfahren (300) umfasst, – Erfassen (301) einer Vielzahl von gleichzeitigen Berührungen der Oberfläche (100, 400) durch eine entsprechende Vielzahl von Elementen der Hand des Nutzers; wobei die Vielzahl von Elementen den Finger umfasst; – Identifizieren der Berührung, die auf den Finger zurückgeht, anhand eines vordefinierten Handmodells.
  9. Verfahren (300) gemäß einem vorhergehenden Anspruch, wobei die Oberfläche (100, 400) ein Lenkrad (100) eines Fahrzeugs (200) und/oder eine Fläche (400) zwischen Fahrerposition (203) und Beifahrerposition (403) des Fahrzeugs (200) umfasst.
  10. Steuereinheit (210) zur Ansteuerung einer haptischen Feedback-Einheit (101); wobei die Steuereinheit (210) eingerichtet ist, – mindestens eine Berührung einer Oberfläche (100, 400) durch mindestens einen Finger einer Hand eines Nutzers zu erfassen; wobei die Oberfläche (100, 400) die haptische Feedback-Einheit (101) umfasst; – eine Position des Fingers auf der Oberfläche (100, 400) zu ermitteln; – eine Bewegung des Fingers entlang der Oberfläche (100, 400) zu detektieren; – ein oder mehrere Indizien für eine Intention des Nutzers zu ermitteln; – anhand der ein oder mehreren Indizien zu bestimmen, dass die detektierte Bewegung des Fingers auf die Auslösung einer Funktion gerichtet ist; und – in Reaktion darauf, die haptische Feedback-Einheit (101) zu veranlassen, zur Bereitstellung eines virtuellen haptischen Bedienelements (102, 402) einen haptischen Feedback an der Position des Fingers zu erzeugen.
DE102013226012.1A 2013-12-16 2013-12-16 Bereitstellung eines Bedienelements durch Oberflächenveränderung Pending DE102013226012A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102013226012.1A DE102013226012A1 (de) 2013-12-16 2013-12-16 Bereitstellung eines Bedienelements durch Oberflächenveränderung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013226012.1A DE102013226012A1 (de) 2013-12-16 2013-12-16 Bereitstellung eines Bedienelements durch Oberflächenveränderung

Publications (1)

Publication Number Publication Date
DE102013226012A1 true DE102013226012A1 (de) 2015-06-18

Family

ID=53192343

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013226012.1A Pending DE102013226012A1 (de) 2013-12-16 2013-12-16 Bereitstellung eines Bedienelements durch Oberflächenveränderung

Country Status (1)

Country Link
DE (1) DE102013226012A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017201236A1 (de) 2017-01-26 2018-07-26 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Bediensystems, Bediensystem und Fahrzeug mit einem Bediensystem

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10022321A1 (de) * 2000-05-09 2001-11-15 Bayerische Motoren Werke Ag Vorrichtung in Fahrzeugen zum Erkennen einer Handstellung
DE102006037156A1 (de) * 2006-03-22 2007-09-27 Volkswagen Ag Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
US20070236450A1 (en) * 2006-03-24 2007-10-11 Northwestern University Haptic device with indirect haptic feedback
DE102007005889A1 (de) * 2007-01-17 2008-07-24 Siemens Ag Bedieneinheit
EP2213501A2 (de) * 2003-03-31 2010-08-04 Timothy R. Pryor Rekonfigurierbare Fahrzeugarmaturenbretter
US20100201893A1 (en) * 2001-02-22 2010-08-12 Pryor Timothy R Reconfigurable tactile controls and displays
DE102009034871A1 (de) * 2009-07-27 2011-02-03 Volkswagen Ag Bediensystem und Bedienverfahren zum Erfassen von Nutzereingaben in einem Kraftfahrzeug mit verbessertem haptischem Bedienfeedback

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10022321A1 (de) * 2000-05-09 2001-11-15 Bayerische Motoren Werke Ag Vorrichtung in Fahrzeugen zum Erkennen einer Handstellung
US20100201893A1 (en) * 2001-02-22 2010-08-12 Pryor Timothy R Reconfigurable tactile controls and displays
EP2213501A2 (de) * 2003-03-31 2010-08-04 Timothy R. Pryor Rekonfigurierbare Fahrzeugarmaturenbretter
DE102006037156A1 (de) * 2006-03-22 2007-09-27 Volkswagen Ag Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
US20070236450A1 (en) * 2006-03-24 2007-10-11 Northwestern University Haptic device with indirect haptic feedback
DE102007005889A1 (de) * 2007-01-17 2008-07-24 Siemens Ag Bedieneinheit
DE102009034871A1 (de) * 2009-07-27 2011-02-03 Volkswagen Ag Bediensystem und Bedienverfahren zum Erfassen von Nutzereingaben in einem Kraftfahrzeug mit verbessertem haptischem Bedienfeedback

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017201236A1 (de) 2017-01-26 2018-07-26 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Bediensystems, Bediensystem und Fahrzeug mit einem Bediensystem
WO2018137939A1 (de) 2017-01-26 2018-08-02 Volkswagen Aktiengesellschaft Verfahren zum betreiben eines bediensystems, bediensystem und fahrzeug mit einem bediensystem
DE102017201236B4 (de) 2017-01-26 2023-09-07 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Bediensystems, Bediensystem und Fahrzeug mit einem Bediensystem

Similar Documents

Publication Publication Date Title
EP3507681B1 (de) Verfahren zur interaktion mit bildinhalten, die auf einer anzeigevorrichtung in einem fahrzeug dargestellt werden
EP2574881B1 (de) Verfahren zum Betrieb eines Bediensystems für ein Fahrzeug und Bediensystem für ein Fahrzeug
DE102017209562B4 (de) Verfahren zum Betreiben einer Anzeigeanordnung eines Kraftfahrzeugs, Bedienvorrichtung, und Kraftfahrzeug
EP3108331B1 (de) Anwenderschnittstelle und verfahren zum berührungslosen bedienen eines in hardware ausgestalteten bedienelementes in einem 3d-gestenmodus
EP3411259A1 (de) Bedienvorrichtung und verfahren zum empfangen einer zeichenfolge von einem benutzer in einem kraftfahrzeug
EP3234743B1 (de) Verfahren zum betreiben einer bedienvorrichtung eines kraftfahrzeugs in unterschiedlichen bedienmodi sowie bedienvorrichtung und kraftfahrzeug
EP3807119B1 (de) Verfahren zum betreiben einer anzeige- und bedienvorrichtung, anzeige- und bedienvorrichtung, und kraftfahrzeug
EP2653335A2 (de) Verfahren und Vorrichtung zur Anzeige einer Hand eines Bedieners eines Bedienelements eines Fahrzeugs
EP3040817A1 (de) Vorrichtung und verfahren zur eingabe eines textes über virtuelle bedienelemente mit haptischer rückkopplung zur simulation einer tastenhaptik, insbesondere in einem kraftfahrzeug
EP3508967A1 (de) Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle
EP3508968A1 (de) Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle
DE102013000069B4 (de) Kraftfahrzeug-Bedienschnittstelle mit einem Bedienelement zum Erfassen einer Bedienhandlung
DE102012011179A1 (de) Vorrichtung zur Bedienung einesKraftfahrzeuges
DE102013022035B4 (de) Kraftfahrzeug-Bedienvorrichtung mit graphischer Benutzerschnittstelle, sowie Kraftfahrzeug und Verfahren
DE102014200609A1 (de) Berührungssensitive Bedienvorrichtung mit Mulde
DE102013226012A1 (de) Bereitstellung eines Bedienelements durch Oberflächenveränderung
DE102012013537B4 (de) Verfahren zum Übertragen eines graphischen Objekts und ein System für ein Kraftfahrzeug
DE102018202668A1 (de) Bedienvorrichtung sowie Verfahren zum Ansteuern zumindest einer Funktionseinheit für ein Kraftfahrzeug mit einer optischen Verlagerung eines Bediensymbols
EP3298477B1 (de) Verfahren zum betreiben einer bedienvorrichtung sowie bedienvorrichtung für ein kraftfahrzeug
DE102014018350A1 (de) Kraftfahrzeug-Bedienvorrichtung mit Tastenbedienung und Zeicheneingabe
DE102013101339A1 (de) Bedienelement
DE102013019263B4 (de) Verfahren zum Betreiben einer Bedieneinrichtung sowie Fahrzeug mit einer Bedieneinrichtung
DE102022102504B9 (de) Verfahren zum Betreiben einer Schnittstellenvorrichtung in einem Fahrzeug, sowie Schnittstellenvorrichtung und Fahrzeug
WO2017157542A1 (de) Bedienvorrichtung und verfahren zum erfassen einer benutzerauswahl zumindest einer bedienfunktion der bedienvorrichtung
DE102015001473B4 (de) Bediengeschwindigkeitsabhängiger Fahrzeugbetrieb

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed