DE102013019200A1 - Verfahren zum Betreiben eines Bediensystems, Bediensystem und Vorrichtung mit einem Bediensystem - Google Patents

Verfahren zum Betreiben eines Bediensystems, Bediensystem und Vorrichtung mit einem Bediensystem Download PDF

Info

Publication number
DE102013019200A1
DE102013019200A1 DE102013019200.5A DE102013019200A DE102013019200A1 DE 102013019200 A1 DE102013019200 A1 DE 102013019200A1 DE 102013019200 A DE102013019200 A DE 102013019200A DE 102013019200 A1 DE102013019200 A1 DE 102013019200A1
Authority
DE
Germany
Prior art keywords
user
control surfaces
control
input field
operating system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102013019200.5A
Other languages
English (en)
Inventor
Marcus Kühne
Manuel Kühner
Ulrich Müller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102013019200.5A priority Critical patent/DE102013019200A1/de
Publication of DE102013019200A1 publication Critical patent/DE102013019200A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • B60K2360/1442
    • B60K2360/149

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Betreiben eines Bediensystems (12), insbesondere eines Kraftwagens (10), welches ein Eingabefeld (14) mit mehreren berührungssensitiven Bedienflächen (16) umfasst, mit den Schritten: Erfassen eines Bereichs, in welchem ein Nutzer (20) das Eingabefeld (14) berührt; Ermitteln anhand des erfassten Bereichs, welche der Bedienflächen (16) der Nutzer (20) berührt; Erfassen einer Blickrichtung (26) des Nutzers (20); Ermitteln anhand der erfassten Blickrichtung (26), auf welche der Bedienflächen (16) der Nutzer (20) seinen Blick gerichtet hat; Auswählen von einer der Bedienflächen (16) des Eingabefelds (14) unter Berücksichtigung der Informationen, welche der Bedienflächen (16) der Nutzer (20) berührt und auf welche der Bedienflächen (16) der Nutzer (20) seinen Blick gerichtet hat; Ausführen einer der ausgewählten Bedienfläche (16) zugeordneten Funktion. Des Weiteren betrifft die Erfindung ein Bediensystem (12) sowie eine Vorrichtung mit einem solchen Bediensystem (12).

Description

  • Die Erfindung betrifft ein Verfahren zum Betreiben eines Bediensystems, insbesondere eines Kraftwagens, welches ein Eingabefeld mit mehreren berührungssensitiven Bedienflächen umfasst. Des Weiteren betrifft die Erfindung ein Bediensystem sowie eine Vorrichtung mit einem derartigen Bediensystem.
  • Bei der Bedienung von Touchscreens kommt es gerade bei komplexeren Menüs mit kleinflächigen Auswahlelementen immer wieder zu Fehlbedienungen. Berührt ein Nutzer beispielsweise einen Bereich zwischen zwei als Auswahlelemente dienende berührungssensitive Bedienflächen auf dem Touchscreen, wird beispielsweise diejenige Bedienfläche aktiviert, bei dem ein leichter Überhang des berührenden Fingers detektiert wird. Dies führt – gerade auch durch eine perspektivische Verfälschung infolge eines Versatzes des Touchscreen zur Sichtachse des Nutzers – dazu, dass des Öfteren die falsche Bedienfläche und somit eine dieser Bedienfläche zugeordnete Funktion ausgelöst wird, welche der Nutzer gar nicht auslösen wollte.
  • Die DE 2007 057 208 A1 zeigt ein Verfahren zur Darstellung von Bildobjekten in einem virtuellen Bildraum. Dabei wird eine erfasste Blickrichtung eines Nutzers bei der Darstellung von Bildpunkten eines Anzeigefelds berücksichtigt.
  • Die DE 10 302 387 A1 zeigt ein Head-Up-Display für den Einsatz in Kraftfahrzeugen. Die beim Anzeigen einer Anzeige in dem Head-Up-Display entstehende Parallaxe wird so verändert, dass die Anzeige für den Betrachter in einer angenehmen Entfernung erscheint.
  • Die EP 1 997 667 A1 zeigt eine Informationsvermittlungsvorrichtung und ein Verfahren zur Vermittlung von Informationen. Dabei erfolgt eine Anpassung auf einem Anzeigefeld angezeigter Informationen in Abhängigkeit einer erfassten Blickrichtung eines Nutzers.
  • Die US 2006/0279528 A1 zeigt eine Anzeige mit einer Mehrzahl von unterschiedlichen Ansichten. Die Anzeige von Informationen wird dabei in Abhängigkeit von einer detektierten Nutzerposition angepasst.
  • Die DE 69 715 816 C2 zeigt ein Anzeigesystem zum Darstellen einer virtuellen, dreidimensionalen Bildanzeige. In Abhängigkeit einer erfassten Kopfposition eines Nutzers wird ein Parallaxeneffekt erzeugt.
  • Es ist die Aufgabe der vorliegenden Erfindung, die Wahrscheinlichkeit einer Fehlbedienung eines Bediensystems, welches ein Eingabefeld mit mehreren berührungssensitiven Bedienflächen umfasst, zu verringern.
  • Diese Aufgabe wird durch ein Verfahren zum Betreiben eines Bediensystems, durch ein Bediensystem sowie durch eine Vorrichtung mit einem Bediensystem mit den Merkmalen der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausgestaltungen mit zweckmäßigen und nicht-trivialen Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen angegeben.
  • Das erfindungsgemäße Verfahren zum Betreiben eines Bediensystems, insbesondere eines Kraftwagens, welches ein Eingabefeld mit mehreren berührungssensitiven Bedienflächen umfasst, weist die folgenden Schritte auf:
    • – Erfassen eines Bereichs, in welchem ein Nutzer das Eingabefeld berührt;
    • – Ermitteln anhand des erfassten Bereichs, welche der Bedienflächen der Nutzer berührt;
    • – Erfassen einer Blickrichtung des Nutzers;
    • – Ermitteln anhand der erfassten Blickrichtung, auf welche der Bedienflächen der Nutzer seinen Blick gerichtet hat;
    • – Auswählen von einer der Bedienflächen des Eingabefelds unter Berücksichtigung der Informationen, welche der Bedienflächen der Nutzer berührt und auf welche der Bedienflächen der Nutzer seinen Blick gerichtet hat;
    • – Ausführen einer der ausgewählten Bedienfläche zugeordneten Funktion.
  • Es ist also erfindungsgemäß vorgesehen, nicht nur die Berührung berührungssensitiver Bedienflächen eines Eingabefelds zu berücksichtigen, sondern auch noch eine Blickrichtung des betreffenden Nutzers zu erfassen, wobei diese beiden Informationen kombiniert ausgewertet werden, bevor eine der Bedienflächen des Eingabefelds ausgewählt und eine entsprechende der ausgewählten Bedienfläche zugeordnete Funktion ausgeführt wird.
  • Das Eingabefeld selbst kann beispielsweise Teil eines Touchscreens oder eines Touchpads des Bediensystems sein, wobei die berührungssensitiven Bedienflächen beispielsweise im Falle eines Touchscreens augenblicklich im Bereich des Eingabefelds angezeigte unterschiedliche Icons sein können. Bei einer der ausgewählten Bedienfläche zugeordneten Funktion kann es sich beispielsweise um einen Programmaufruf handeln, welches mit der betreffenden berührungssensitiven Bedienfläche, also beispielsweise einem entsprechenden Icon, verknüpft ist. Je nach Ausgestaltung der gerade angezeigten Menüoberfläche des Eingabefelds kann es sich bei den Bedienflächen auch um andersartige Steuerelemente handeln, mittels welchen beispielsweise die Lautstärke einer Audiowiedergabe verändert oder sonstige Funktionen beeinflusst werden können. Mittels des erfindungsgemäßen Verfahrens kann nun eine verbesserte Absicherung erfolgen, welche der berührungssensitiven Bedienflächen ein Nutzer tatsächlich gerade auswählen möchte, da neben der Berührungserfassung des Eingabefelds zusätzlich auch noch die Blickrichtung des betreffenden Nutzers ausgewertet und berücksichtigt wird. Fehlbedienungen durch eine Auswahl von Bedienflächen, welche der Nutzer gar nicht auswählen wollte, können dadurch wesentlich verringert werden.
  • In vorteilhafter Ausgestaltung der Erfindung ist es vorgesehen, dass, falls erfasst wird, dass mehr als eines der Bedienflächen von dem Nutzer berührt wird, diejenige Bedienflächen ausgewählt wird, für welche ermittelt worden ist, dass der Nutzer seinen Blick darauf gerichtet hat. Beispielsweise kann der Fall auftreten, dass die Bedienflächen relativ eng nebeneinander angeordnet sind beziehungsweise eng angeordnet auf dem Eingabefeld angezeigt werden, so dass durch einen Nutzer, insbesondere wenn dieser etwas breitere Finger haben sollte, zwei oder mehr Bedienflächen gleichzeitig berührt werden. Gerade in diesem Fall ist es nützlich, dass die Blickrichtung des Nutzers erfasst wird, um einen zusätzlichen Abgleich treffen zu können, welches der Bedienflächen der Nutzer gerade tatsächlich bedienen wollte.
  • Dadurch werden die Bediensicherheit und die Wahrscheinlichkeit von Fehlbedienungen bei der Verwendung des Bediensystems erheblich reduziert.
  • In weiterer vorteilhafter Ausgestaltung der Erfindung ist es vorgesehen, dass, falls erfasst wird, dass keines der Bedienflächen von dem Nutzer berührt wird, diejenige Bedienfläche ausgewählt wird, für welche ermittelt worden ist, dass der Nutzer seinen Blick darauf gerichtet hat. Dieser Fall kann insbesondere dann auftreten, wenn das Eingabefeld beispielsweise relativ groß und die berührungssensitiven Bedienflächen relativ weit auseinanderliegend angeordnet sind beziehungsweise angezeigt werden. In solchen Fällen kann es dazu kommen, dass der Nutzer beispielsweise seinen Finger in einen Bereich des Eingabefelds legt, welcher gerade zwischen zwei berührungssensitiven Bedienflächen ist, so dass der Nutzer gerade gar keines der berührungssensitiven Bedienflächen berührt. Durch einen Abgleich mit der erfassten Blickrichtung des Nutzers ist es dennoch möglich, diejenige Bedienfläche auszuwählen, welche der Nutzer höchstwahrscheinlich betätigen beziehungsweise auswählen wollte.
  • Gemäß einer weiteren vorteilhaften Ausführungsform der Erfindung ist es vorgesehen, dass, falls erfasst wird, dass sich die vom Nutzer berührte Bedienfläche und die Bedienfläche, auf welche der Nutzer seinen Blick gerichtet hat, unterscheiden, die Bedienfläche ausgewählt wird, auf welche der Nutzer seinen Blick gerichtet hat. Mit anderen Worten kann es also vorgesehen sein, dass durch die Blickrichtungserfassung eine Auswahl von einer der Bedienflächen quasi überstimmt wird, welche ohne die Blickrichtungserfassung, also nur bei einer Berührungserkennung des Eingabefeldes, erfolgt wäre. Dabei wird davon ausgegangen, dass der Nutzer üblicherweise treffsicherer diejenige Bedienfläche auch mit seinem Blick fokussieren wird, welche er gerade auswählen will, wobei es eher versehentlich zu einer Berührung des Eingabefelds an einer nicht gewollten Stelle und somit einer berührungssensitiven Bedienfläche kommen kann, welche der Nutzer gar nicht beabsichtigt hatte, auszuwählen.
  • In weiterer vorteilhafter Ausgestaltung der Erfindung ist es vorgesehen, dass die Bedienfläche, auf welche der Nutzer seinen Blick gerichtet hat, nur dann ausgewählt wird, falls die vom Nutzer berührte Bedienfläche und die Bedienfläche, auf welche der Nutzer seinen Blick gerichtet hat, nicht weiter als eine vorgegebene Entfernung auseinander liegen. Die vorgegebene Entfernung kann dabei vorzugsweise von einem Nutzer des Bediensystems frei wählbar sein. Dadurch, dass diese Art der Überstimmung durch die Blickrichtungserfassung nur bis zu einer gewissen Entfernung zwischen den betreffenden Bedienflächen erfolgt, kann eine weiterhin intuitive Benutzung des Bediensystems sichergestellt werden, da es ab einer gewissen Entfernung zwischen den betreffenden Bedienflächen relativ unwahrscheinlich ist, dass der Nutzer tatsächlich wünscht, dass die Bedienfläche, auf welche er seinen Blick gerichtet hat, ausgewählt wird statt der Bedienfläche, auf die er seinen Finger gerade gelegt hat. Dies könnte beispielsweise der Fall sein, wenn der Nutzer nur seinen Blick über das Eingabefeld hat schweifen lassen, ohne die betreffende Bedienfläche zu fokussieren, welche er gerade tatsächlich auswählen wollte.
  • In weiterer vorteilhafter Ausgestaltung der Erfindung ist es vorgesehen, dass, falls die vom Nutzer berührte Bedienfläche und die Bedienfläche, auf welche der Nutzer seinen Blick gerichtet hat, weiter als die vorgegebene Entfernung auseinander liegen, die vom Nutzer berührte Bedienfläche ausgewählt wird. Somit wird eine blickrichtungsgesteuerte Überstimmung über die berührungsgesteuerte Auswahl der Bedienfläche ab einer gewissen Entfernung zwischen den betreffenden Bedienflächen unterbunden.
  • Eine weitere vorteilhafte Ausführungsform der Erfindung sieht vor, dass das Erfassen der Blickrichtung des Nutzers und das Ermitteln anhand der erfassten Blickrichtung, auf welche der Bedienflächen der Nutzer seinen Blick gerichtet hat, vor und/oder während der Berührung des Eingabefelds erfolgt. Idealerweise wird die Blickrichtung des Nutzers permanent erfasst, so dass der Zeitraum vor der eigentlichen Berührung des Eingabefelds bis hin zur Berührung des Eingabefelds erfasst werden kann, so dass anhand der erfassten Blickrichtung des Nutzers besonders zuverlässig abgeschätzt werden kann, welches der Bedienelemente der Nutzer tatsächlich gerade berühren wollte.
  • Das erfindungsgemäße Bediensystem umfasst ein mehrere berührungssensitive Bedienflächen umfassendes Eingabefeld. Des Weiteren umfasst das Bediensystem eine Berührungserfassungseinrichtung, welche dazu ausgelegt ist, einen Bereich zu erfassen, in welchem ein Nutzer das Eingabefeld berührt und anhand des erfassten Bereichs zu ermitteln, welche der Bedienflächen der Nutzer berührt. Zudem umfasst das Bediensystem eine Blickerfassungseinrichtung, welche dazu ausgelegt ist, eine Blickrichtung des Nutzers zu erfassen und anhand der erfassten Blickrichtung zu ermitteln, auf welche der Bedienflächen der Nutzer seinen Blick gerichtet hat. Ferner umfasst das Bediensystem eine Steuereinrichtung, welche dazu ausgelegt ist, eine der Bedienflächen des Eingabefelds unter Berücksichtigung der Information, welche der Bedienflächen der Nutzer berührt und auf welche der Bedienflächen der Nutzer seinen Blick gerichtet hat, auszuwählen und eine der ausgewählten Bedienfläche zugeordnete Funktion auszuführen. Vorteilhafte Ausgestaltungen des erfindungsgemäßen Verfahrens sind als vorteilhafte Ausgestaltungen des erfindungsgemäßen Bediensystems anzusehen, wobei das Bediensystem insbesondere Mittel zur Durchführung der Verfahrensschritte umfasst.
  • In vorteilhafter Ausgestaltung des erfindungsgemäßen Bediensystems ist es vorgesehen, dass das Eingabefeld Teil eines Touchscreens oder eines Touchpads des Bediensystems ist.
  • Eine weitere vorteilhafte Ausführungsform des Bediensystems sieht vor, dass die Blickerfassungseinrichtung eine Stereo-Kamera zur Blickrichtungserfassung umfasst. Dadurch kann die Blickrichtung des betreffenden Nutzers besonders exakt erfasst werden und der betreffenden Bedienfläche zugeordnet werden.
  • Die erfindungsgemäße Vorrichtung umfasst das erfindungsgemäße Bediensystem oder eine vorteilhafte Ausführungsform des Bediensystems, wobei sich die Vorrichtung dadurch auszeichnet, dass die Vorrichtung ein Kraftwagen, ein Smartphone, ein Tabletcomputer, ein Notebook oder Desktop-Computer ist. Mit anderen Worten kann das Bediensystem im Wesentlichen in beliebigen Vorrichtungen integriert sein, in welchen berührungssensitive Bedienflächen, beispielsweise bei Touchpads oder Touchscreens, sinnvollerweise eingesetzt werden.
  • Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele sowie anhand der Zeichnung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.
  • Die Zeichnung zeigt in:
  • 1 eine schematische Darstellung eines Kraftwagens mit einem Bediensystem, welches ein mehrere berührungssensitive Bedienflächen umfassendes Eingabefeld, eine Berührungserfassungseinrichtung, eine Blickerfassungseinrichtung sowie eine Steuereinrichtung umfasst;
  • 2 eine schematische Detailansicht des Eingabefelds, welches mehrere berührungssensitive Bedienflächen umfasst;
  • 3 eine weitere schematische Ansicht des Eingabefelds; und in
  • 4 eine weitere schematische Ansicht des Eingabefelds.
  • In den Figuren werden gleiche oder funktionsgleiche Elemente mit gleichen Bezugszeichen versehen.
  • Ein Kraftwagen 10 mit einem Bediensystem 12 ist in einer schematischen Darstellung in 1 gezeigt. Das Bediensystem 12 umfasst ein Eingabefeld 14, welches mehrere hier nicht näher gezeigte berührungssensitive Bedienflächen 14 aufweist. Das Eingabefeld 14 kann beispielsweise Teil eines hier nicht dargestellten Touchscreens oder eines hier nicht dargestellten Touchpads des Bediensystems 12 sein.
  • Das Bediensystem 12 umfasst des Weiteren eine Berührungserfassungseinrichtung 18, welche mit dem Eingabefeld 14 gekoppelt und dazu ausgelegt ist, einen Bereich zu erfassen, in welchem ein Nutzer 20 das Eingabefeld 14, beispielsweise wie im vorliegenden Fall mit seinem Zeigefinger 22, berührt und anhand des erfassten Bereichs zu ermitteln, welche der Bedienflächen 16 der Nutzer 20 gerade berührt. Die Berührungserfassungseinrichtung kann dabei beispielsweise kapazitiv und/oder drucksensitiv arbeiten.
  • Das Bediensystem 12 umfasst des Weiteren eine Blickerfassungseinrichtung 24, welche dazu ausgelegt ist, eine mit der gestrichelten Linie gekennzeichnete Blickrichtung 26 des Nutzers 20 zu erfassen und anhand der erfassten Blickrichtung 26 zu ermitteln, auf welche der Bedienflächen 16 der Nutzer 20 gerade seinen Blick gerichtet hat.
  • Schließlich umfasst das Bediensystem 12 noch eine Steuereinrichtung 28, welche dazu ausgelegt ist, eine der Bedienflächen 16 des Eingabefelds 14 unter Berücksichtigung der Information, welche der Bedienflächen 16 der Nutzer 20 gerade berührt und auf welche der Bedienflächen 16 der Nutzer 20 seinen Blick gerichtet hat, auszuwählen und eine der ausgewählten Bedienfläche 16 zugeordnete Funktion auszuführen.
  • Die Blickerfassungseinrichtung 24 kann zudem eine Stereo-Kamera zur Blickrichtungserfassung umfassen, mittels welcher besonders exakt die Blickrichtung 26 des Nutzers 20 erfasst und anhand dessen festgestellt werden kann, auf welche der Bedienflächen 16 der Nutzer 20 gerade blickt.
  • Nachfolgend wird anhand der 2 bis 4, in welchen das Eingabefeld 14 in unterschiedlichen Bediensituationen schematisch dargestellt ist, ein Verfahren zum Betreiben des Bediensystems 12 erläutert.
  • Mittels der Blickerfassungseinrichtung 24 wird fortlaufend die Blickrichtung 26 des Nutzers 20 erfasst und ermittelt, auf welche der Bedienflächen 16 der Nutzer 20 gerade seinen Blick gerichtet hat. Sobald der Nutzer 20 das Eingabefeld 14 berührt, im vorliegenden Fall mit seinem Zeigefinger 22, wird derjenige Bereich erfasst, welchen der Benutzer 20 gerade berührt. Anhand des erfassten Bereichs wird ermittelt, welche der Bedienflächen 16 der Nutzer 20 gerade berührt. Im vorliegend in 2 gezeigten Fall berührt der Nutzer 20 mit seinem Zeigefinger 22 zwei Bedienflächen 16 gleichzeitig, da er seinen Finger 22 mittig zwischen beide Bedienflächen 16 gelegt hat, wobei der Abstand zwischen den Bedienflächen 16 so gering ist, dass er mit seinem Finger 22 beide Bedienflächen 16 berührt.
  • Anhand der permanent erfassten Blickrichtung 26 des Nutzers 20 wird zudem ermittelt, auf welche der Bedienflächen 16 der Nutzer seine Blick gerichtet hat, im vorliegenden Fall also auf die obere linke Bedienfläche 16. Im vorliegend gezeigten Fall wird also erfasst, dass mehr als eines der Bedienflächen 16 von dem Nutzer 20 berührt wird, wobei in diesem Fall diejenige der Bedienflächen 16 ausgewählt wird, für welche ermittelt worden ist, dass der Nutzer 20 seinen Blick darauf gerichtet hat, also auf die oberste und ganz links angeordnete Bedienfläche 16. Der in 2 gezeigte Fall kann sich insbesondere dann ereignen, wenn die Bedienflächen 16 relativ eng nebeneinander angeordnet sind und gleichzeitig der Nutzer 20 im Verhältnis zur Beabstandung der Bedienflächen 16 relativ breite Finger 22 aufweist. Durch die Blickrichtungserfassung kann mit relativ großer Sicherheit festgestellt werden, welche der Bedienflächen 16 der Benutzer 20 tatsächlich berühren wollte, obwohl er wie im vorliegend gezeigten Fall zwei der Bedienflächen 16 gleichzeitig mit seinem Finger 22 berührt hat.
  • In 3 ist ein weiteres alternatives Szenario gezeigt, zu welchem es bei der Bedienung des Bediensystems 12 kommen kann. Im vorliegend gezeigten Fall hat der Nutzer 20 seinen Finger 22 in einen nicht näher bezeichneten Zwischenraum zwischen zwei der Bedienflächen 16 gelegt, so dass er mit seinem Finger 22 keine der Bedienflächen 16 berührt. Falls im vorliegenden Fall erfasst wird, dass keines der Bedienflächen 16 von dem Nutzer 20 berührt wird, wird diejenige Bedienfläche 16 ausgewählt, für welche ermittelt worden ist, dass der Nutzer 20 seinen Blick darauf gerichtet hat, im vorliegenden Fall also wiederum die oberste linke Bedienfläche 16. Zu dem in 3 gezeigten Szenario kann es vor allem dann kommen, wenn die Bedienflächen 16 im Vergleich zur Fingerbreite des Nutzers 20 relativ weit auseinander angeordnet sind, so dass der Nutzer 20 versehentlich in einen Zwischenraum zwischen die beiden Bedienflächen 16 drückt, ohne dass er dabei eine der Bedienflächen 16 überhaupt berührt.
  • In 4 ist ein weiteres mögliches Szenario bei der Bedienung des Bediensystems 12 gezeigt, bei welchem der Nutzer 20 eine Bedienfläche 16 berührt, wobei sein Blick auf eine gänzlich andere Bedienfläche 16 gerichtet ist. Falls wie im vorliegend gezeigten Fall erfasst wird, dass sich die vom Nutzer 20 berührte Bedienfläche 16 und die Bedienfläche 16, auf welche der Nutzer 20 seinen Blick gerichtet hat, unterscheiden, wird die Bedienfläche 16 ausgewählt, auf welche der Nutzer 20 seinen Blick gerichtet hat, vorliegend also wiederum die oberste linke Bedienfläche 16.
  • Dabei kann noch eine weitere Randbedingung in der Art vorgegeben sein, dass die Bedienfläche 16, auf welche der Nutzer 20 seinen Blick gerichtet hat, nur dann ausgewählt wird, falls die vom Nutzer 20 berührte Bedienfläche 16 und die Bedienfläche 16, auf welche der Nutzer 20 seinen Blick gerichtet hat, nicht weiter als eine vorgegebenen Entfernung 28 auseinander liegen. Vorzugsweise kann das Bediensystem 12 derart ausgestaltet sein, dass der Nutzer 20 diese vorgegebene Entfernung 28 selber einstellen kann. Sollte also die vorgegebene Entfernung 28 zwischen den betreffenden Bedienflächen 16 größer als die vorgegebene Entfernung 28 sein, wird statt der Bedienfläche 16, auf welche der Nutzer 20 seinen Blick gerichtet hat, die Bedienfläche 16 ausgewählt, welche der Benutzer 20 tatsächlich mit seinem Finger 22 berührt.
  • Das erläuterte Verfahren und der Einsatz des erläuterten Bediensystems 12 sind dabei nicht auf Kraftwagen alleine beschränkt. Vielmehr ist es möglich, dass ein derartiges Bediensystem 12 auch in einem Smartphone, einem Tabletcomputer, einem Notebook oder einem Desktop-Computer integriert ist, wobei das Verfahren in analoger Weise in diesen Vorrichtungen durchgeführt werden kann.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 2007057208 A1 [0003]
    • DE 10302387 A1 [0004]
    • EP 1997667 A1 [0005]
    • US 2006/0279528 A1 [0006]
    • DE 69715816 C2 [0007]

Claims (11)

  1. Verfahren zum Betreiben eines Bediensystems (12), insbesondere eines Kraftwagens (10), welches ein Eingabefeld (14) mit mehreren berührungssensitiven Bedienflächen (16) umfasst, mit den Schritten: – Erfassen eines Bereichs, in welchem ein Nutzer (20) das Eingabefeld (14) berührt; – Ermitteln anhand des erfassten Bereichs, welche der Bedienflächen (16) der Nutzer (20) berührt; – Erfassen einer Blickrichtung (26) des Nutzers (20); – Ermitteln anhand der erfassten Blickrichtung (26), auf welche der Bedienflächen (16) der Nutzer (20) seinen Blick gerichtet hat; – Auswählen von einer der Bedienflächen (16) des Eingabefelds (14) unter Berücksichtigung der Informationen, welche der Bedienflächen (16) der Nutzer (20) berührt und auf welche der Bedienflächen (16) der Nutzer (20) seinen Blick gerichtet hat; – Ausführen einer der ausgewählten Bedienfläche (16) zugeordneten Funktion.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass falls erfasst wird, dass mehr als eines der Bedienflächen (16) von dem Nutzer (20) berührt wird, diejenige Bedienfläche (16) ausgewählt wird, für welche ermittelt worden ist, dass der Nutzer (20) seinen Blick darauf gerichtet hat.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass falls erfasst wird, dass keines der Bedienflächen (16) von dem Nutzer (20) berührt wird, diejenige Bedienfläche (16) ausgewählt wird, für welche ermittelt worden ist, dass der Nutzer (20) seinen Blick darauf gerichtet hat.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass falls erfasst wird, dass sich die vom Nutzer (20) berührte Bedienfläche (16) und die Bedienfläche (16), auf welche der Nutzer (20) seinen Blick gerichtet hat, unterscheiden, die Bedienfläche (16) ausgewählt wird, auf welche der Nutzer (20) seinen Blick gerichtet hat.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Bedienfläche (16), auf welche der Nutzer (20) seinen Blick gerichtet hat, nur dann ausgewählt wird, falls die vom Nutzer (20) berührte Bedienfläche (16) und die Bedienfläche (16), auf welche der Nutzer (20) seinen Blick gerichtet hat, nicht weiter als eine vorgegebene Entfernung (28) auseinander liegen.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass falls die vom Nutzer (20) berührte Bedienfläche (16) und die Bedienfläche (16), auf welche der Nutzer (20) seinen Blick gerichtet hat, weiter als die vorgegebene Entfernung (28) auseinander liegen, die vom Nutzer (20) berührte Bedienfläche (16) ausgewählt wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Erfassen der Blickrichtung (26) des Nutzers (20) und das Ermitteln anhand der erfassten Blickrichtung (26), auf welche der Bedienflächen (16) der Nutzer (20) seinen Blick gerichtet hat, vor und/oder während der Berührung des Eingabefelds (14) erfolgt.
  8. Bediensystem (12) mit – einem mehrere berührungssensitive Bedienflächen (16) umfassenden Eingabefeld (14); – einer Berührungserfassungseinrichtung (18), welche dazu ausgelegt ist, einen Bereich zu erfassen, in welchem ein Nutzer (20) das Eingabefeld (14) berührt und anhand des erfassten Bereichs zu ermitteln, welche der Bedienflächen (16) der Nutzer (20) berührt; – einer Blickerfassungseinrichtung (24), welche dazu ausgelegt ist, eine Blickrichtung (26) des Nutzers (20) zu erfassen und anhand der erfassten Blickrichtung (26) zu ermitteln, auf welche der Bedienflächen (16) der Nutzer (20) seinen Blick gerichtet hat; – einer Steuereinrichtung (28), welche dazu ausgelegt ist, eine der Bedienflächen (16) des Eingabefelds (14) unter Berücksichtigung der Informationen, welche der Bedienflächen (16) der Nutzer (20) berührt und auf welche der Bedienflächen (16) der Nutzer (20) seinen Blick gerichtet hat, auszuwählen und eine der ausgewählten Bedienfläche (16) zugeordnete Funktion auszuführen.
  9. Bediensystem nach Anspruch 8, dadurch gekennzeichnet, dass das Eingabefeld (14) Teil eines Touchscreens oder eines Touchpads des Bediensystems (12) ist.
  10. Bediensystem nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass die Blickerfassungseinrichtung (24) eine Stereo-Kamera zur Blickrichtungserfassung umfasst.
  11. Vorrichtung mit einem Bediensystem (12) nach einem der Ansprüche 8 bis 10, dadurch gekennzeichnet, dass die Vorrichtung ein Kraftwagen (10), ein Smartphone, ein Tabletcomputer, ein Notebook oder ein Desktop Computer ist.
DE102013019200.5A 2013-11-15 2013-11-15 Verfahren zum Betreiben eines Bediensystems, Bediensystem und Vorrichtung mit einem Bediensystem Pending DE102013019200A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102013019200.5A DE102013019200A1 (de) 2013-11-15 2013-11-15 Verfahren zum Betreiben eines Bediensystems, Bediensystem und Vorrichtung mit einem Bediensystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013019200.5A DE102013019200A1 (de) 2013-11-15 2013-11-15 Verfahren zum Betreiben eines Bediensystems, Bediensystem und Vorrichtung mit einem Bediensystem

Publications (1)

Publication Number Publication Date
DE102013019200A1 true DE102013019200A1 (de) 2015-05-21

Family

ID=53184045

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013019200.5A Pending DE102013019200A1 (de) 2013-11-15 2013-11-15 Verfahren zum Betreiben eines Bediensystems, Bediensystem und Vorrichtung mit einem Bediensystem

Country Status (1)

Country Link
DE (1) DE102013019200A1 (de)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10302387A1 (de) 2003-01-22 2004-08-26 Siemens Ag Head-up-Display für den Einsatz in Kraftfahrzeugen
US20050243054A1 (en) * 2003-08-25 2005-11-03 International Business Machines Corporation System and method for selecting and activating a target object using a combination of eye gaze and key presses
US20060279528A1 (en) 2003-03-10 2006-12-14 Schobben Daniel W E Multi-view display
EP1997667A1 (de) 2007-05-31 2008-12-03 Volkswagen AG Informationsvermittlungsvorrichtung und Verfahren zur Vermittlung von Informationen
DE102007057208A1 (de) 2007-11-15 2009-05-28 Spatial View Gmbh Verfahren zum Darstellen von Bildobjekten in einem virtuellen dreidimensionalen Bildraum
US20130169560A1 (en) * 2012-01-04 2013-07-04 Tobii Technology Ab System for gaze interaction
DE102012219958A1 (de) * 2012-10-31 2014-06-12 Bayerische Motoren Werke Aktiengesellschaft Bestimmung einer Eingabeposition auf einem Touch-Screen

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10302387A1 (de) 2003-01-22 2004-08-26 Siemens Ag Head-up-Display für den Einsatz in Kraftfahrzeugen
US20060279528A1 (en) 2003-03-10 2006-12-14 Schobben Daniel W E Multi-view display
US20050243054A1 (en) * 2003-08-25 2005-11-03 International Business Machines Corporation System and method for selecting and activating a target object using a combination of eye gaze and key presses
EP1997667A1 (de) 2007-05-31 2008-12-03 Volkswagen AG Informationsvermittlungsvorrichtung und Verfahren zur Vermittlung von Informationen
DE102007057208A1 (de) 2007-11-15 2009-05-28 Spatial View Gmbh Verfahren zum Darstellen von Bildobjekten in einem virtuellen dreidimensionalen Bildraum
US20130169560A1 (en) * 2012-01-04 2013-07-04 Tobii Technology Ab System for gaze interaction
DE102012219958A1 (de) * 2012-10-31 2014-06-12 Bayerische Motoren Werke Aktiengesellschaft Bestimmung einer Eingabeposition auf einem Touch-Screen

Similar Documents

Publication Publication Date Title
DE102010027915A1 (de) Benutzer-Schnittstellen-Einrichtung zum Steuern eines Fahrzeug-Multimedia-Systems
EP2846249B1 (de) Verzahnmaschine mit multitouch-fähigem Display
EP3234743B1 (de) Verfahren zum betreiben einer bedienvorrichtung eines kraftfahrzeugs in unterschiedlichen bedienmodi sowie bedienvorrichtung und kraftfahrzeug
EP3508967B1 (de) Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle
EP3508968A1 (de) Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle
EP3418861B1 (de) Verfahren zum betreiben einer anzeigevorrichtung sowie ein kraftfahrzeug
DE112014001763T5 (de) Aktivrückrneldungs-Schnittstelle für Berührungsbildschirm
EP2924551A1 (de) Verfahren und Vorrichtung zum Bereitstellen einer graphischen Benutzerschnittstelle in einem Fahrzeug
DE102013109268A1 (de) Eingabevorrichtungen
DE102016218003B4 (de) Verfahren und Vorrichtung zur Optimierung der Darstellung auf mehreren Displays in einem Fahrzeug
DE102015012720A1 (de) Interaktives Bediensystem und Verfahren zum Durchführen einer Bedienhandlung bei einem interaktiven Bediensystem
DE102004061420A1 (de) Bediensystem für ein Fahrzeug
DE102016208575A1 (de) Touchpad mit Gestensteuerung für Wallscreen
EP2548106B1 (de) Verfahren zur steuerung eines elektronischen systems für ein fahrzeug sowie entsprechende steuerung
EP2828724B1 (de) Verfahren zur bedienung einer bedienvorrichtung eines kraftfahrzeugs
DE102013019200A1 (de) Verfahren zum Betreiben eines Bediensystems, Bediensystem und Vorrichtung mit einem Bediensystem
DE102013022035A1 (de) Kraftfahrzeug-Bedienvorrichtung mit graphischer Benutzerschnittstelle
DE102013219511A1 (de) Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung eines Bediensystems, Kraftfahrzeug, Computerprogramm, Computer-Programmprodukt
DE102015201722A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
WO2020126410A1 (de) Verfahren und system zum einstellen eines wertes eines parameters
WO2014040807A1 (de) Berührungseingaben entlang einer schwelle auf einer berührungsempfindlichen oberfläche
WO2014114428A1 (de) Verfahren und system zum blickrichtungsabhängigen steuern einer mehrzahl von funktionseinheiten sowie kraftwagen und mobiles endgerät mit einem solchen system
DE102017210599A1 (de) Verfahren zum Positionieren eines digitalen Anzeigeinhalts auf einer Anzeigeeinrichtung eines Kraftfahrzeugs, Steuervorrichtung und Kraftfahrzeug mit Steuervorrichtung
DE102013214326A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102013215904A1 (de) Verfahren zum Bereitstellen einer Bedienvorrichtung in einem Fahrzeug und Bedienvorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: HOFSTETTER, SCHURACK & PARTNER - PATENT- UND R, DE