DE102016216318A1 - Verfahren und Vorrichtung zur Bedienung eines elektronischen Gerätes - Google Patents

Verfahren und Vorrichtung zur Bedienung eines elektronischen Gerätes Download PDF

Info

Publication number
DE102016216318A1
DE102016216318A1 DE102016216318.3A DE102016216318A DE102016216318A1 DE 102016216318 A1 DE102016216318 A1 DE 102016216318A1 DE 102016216318 A DE102016216318 A DE 102016216318A DE 102016216318 A1 DE102016216318 A1 DE 102016216318A1
Authority
DE
Germany
Prior art keywords
selectable
touchpad
function
menu
body part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016216318.3A
Other languages
English (en)
Inventor
Ercan Tunca
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Automotive Technologies GmbH
Original Assignee
Continental Automotive GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive GmbH filed Critical Continental Automotive GmbH
Priority to DE102016216318.3A priority Critical patent/DE102016216318A1/de
Priority to PCT/EP2017/071001 priority patent/WO2018041650A1/de
Priority to US16/329,159 priority patent/US20190204997A1/en
Publication of DE102016216318A1 publication Critical patent/DE102016216318A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/26Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using acoustic output
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • B60K2360/115Selection of menu items
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/161Explanation of functions, e.g. instructions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Anwahl- und/oder Auswahl eines Menüs (A–M), eines Untermenüs (N–P), einer Funktion oder eines Funktionswertes (R) eines elektronischen Gerätes, wobei das Menü (A–M), das Untermenü (N–P), die Funktion oder der Funktionswert (R) mittels eines Berührens eines Touchpads (1) mit einem ersten Körperteil (21) anwählbar und/oder auswählbar ist und eine akustische Rückmeldung zu dem angewählten und/oder ausgewählten Menü, Untermenü, Funktionswert oder der angewählten und/oder ausgewählten Funktion des elektronischen Gerätes ausgebbar ist, wodurch eine Aktivierung der akustischen Rückmeldung durch ein zusätzliches Berühren des Touchpads an einer beliebigen Stelle mit einem zweiten Körperteil (22) erfolgt.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bedienung eines elektronischen Gerätes. Aus dem Stand der Technik sind Verfahren bekannt zur Anwahl und/oder Auswahl eines Menüs, eines Untermenüs, einer Funktion oder eines Funktionswertes eines elektronischen Gerätes, wobei das Menü, das Untermenü, die Funktion oder der Funktionswert mittels eines Berührens eines Touchpads mit einem ersten Körperteil anwählbar und/oder auswählbar ist und eine akustische Rückmeldung zu dem angewählten und/oder ausgewählten Menü, Untermenü, Funktionswert oder der angewählten und/oder ausgewählten Funktion des elektronischen Gerätes ausgebbar ist. Das Anwählen des Menüs, des Untermenüs, der Funktion oder des Funktionswertes geschieht beispielsweise durch Berühren der Stelle des Touchpads, die dem Menü, dem Untermenü, der Funktion oder dem Funktionswert zugeordnet ist. Diese Stellen können optisch beispielsweise durch ein Bedrucken oder eine Darstellung auf einem Display gekennzeichnet sein. Vorstellbar ist es aber auch, dass auf dem Touchpad nichts dargestellt wird, um den Bediener zu einer Blindbedienung zu zwingen und ihn so abzuhalten, während der Bedienung auf das Touchpad zu schauen. Die Auswahl des Menüs, des Untermenüs, der Funktion oder des Funktionswertes kann durch eine zweite Handlung wie beispielsweise ein kurzes Anheben und wieder Absenken des ersten Körperteils auf das Touchpad geschehen. Es sind aber auch andere Auswahlmöglichkeiten denkbar, wie beispielsweise ein Betätigen eines zusätzlichen Schalters oder das Verbleiben des ersten Körperteils auf dem Touchpad über eine längere Zeit nach Beendigung der akustischen Rückmeldung. Die Ausgabe einer akustischen Rückmeldung ist insbesondere dann sinnvoll, wenn der Bediener des elektronischen Gerätes nicht durch einen Blick auf die Bedienvorrichtung abgelenkt werden soll. Die Ablenkung kann beispielsweise dann erfolgen, wenn das elektronische Gerät in einem Fahrzeug angeordnet ist und der Bediener sich gleichzeitig um das Steuern des Fahrzeuges kümmern muss und deshalb eigentlich nicht auf die Bedienvorrichtung blicken sollte. Deshalb ist es im Stand der Technik bekannt, dem Bediener eines elektronischen Gerätes in Kraftfahrzeugen eine akustische Rückmeldung zu geben, wenn er ein Verfahren ausführt zur Anwahl und/oder Auswahl eines Menüs, eines Untermenüs, einer Funktion oder eines Funktionswertes eines elektronischen Gerätes, wobei das Menü, das Untermenü, die Funktion oder der Funktionswert mittels eines Berührens eines Touchpads mit einem ersten Körperteil anwählbar und/oder auswählbar ist. Die akustische Rückmeldung kann automatisch erfolgen. Nachteil hierbei ist es, dass die automatische Rückmeldung den Bediener des elektronischen Gerätes überfordern oder ablenken kann, da gegebenenfalls mehrere akustische Rückmeldungen abgegeben werden können, die den Bediener möglicherweise ebenfalls ablenken oder überfordern. Deshalb ist es im Stand der Technik bekannt, eine akustische Rückmeldung durch das Betätigen eines Schalters zu starten. Dieser kann beispielsweise in einem Kraftfahrzeug auf dem Lenkrad oder unterhalb des Lenkrades des Kraftfahrzeuges angeordnet sein. Dies hat den Nachteil, dass zusätzlich zu der Hand, die das Touchpad berührt, die zweite Hand des Kraftfahrers benötigt wird. Hierdurch kann ein sicheres Halten des Lenkrades mittels der zweiten Hand beeinträchtigt sein. Durch diese Ausgestaltung wird der Kraftfahrer außerdem mehr als nötig von seiner eigentlichen Fahrausgabe abgelenkt, da er beide Hände für die Bedienung des elektronischen Gerätes benötigt. Weiterhin ist es bekannt, eine akustische Rückmeldung dann auszugeben, wenn der Körperteil eine Mindestzeit seine Position auf der Eingabefläche nicht verändert. Dies hat den Nachteil, dass die akustische Rückmeldung ungewollt ausgelöst werden kann. Schließlich ist es weiterhin bekannt, eine akustische Rückmeldung per Spracherkennung auszulösen. Diese Spracherkennung kann aber wegen der im Kraftfahrzeug auftretenden Geräusche nicht immer zuverlässig erkannt werden.
  • Aufgabe der Erfindung ist es daher, ein Verfahren und eine Bedienvorrichtung zur Bedienung eines elektronischen Gerätes anzugeben, welches den Bediener nicht über Maßen ablenkt und so beispielsweise die Fahrsicherheit bei Bedienung des elektronischen Gerätes innerhalb von Kraftfahrzeugen dadurch erhöht, dass die Komplexität der Bedienung bei Eingabegeräten mit Touchpads reduziert wird.
  • Diese Aufgabe wird dadurch gelöst, dass bei dem Verfahren eine Aktivierung der akustischen Rückmeldung durch ein zusätzliches Berühren des Touchpads an einer beliebigen Stelle mit einem zweiten Körperteil erfolgt, und die Bedienvorrichtung derart ausgestaltet ist, dass die akustische Rückmeldung durch ein zusätzliches Berühren des Touchpads an einer beliebigen Stelle mit einem zweiten Körperteil aktivierbar ist. Hierdurch kann die akustische Rückmeldung ohne eine gesteigerte Aufmerksamkeit des Bedieners ausgelöst werden
  • Durch Auflegen und Ziehen eines dritten Körperteils kann einfach ein Funktionswert vergrößert oder verkleinert werden. So kann beispielsweise ein Funktionswert verkleinert werden, wenn der dritte Körperteil in Richtung auf den ersten und/oder zweiten Körperteil bewegt wird. Diese Zuordnung ist besonders intuitiv, da auch der Abstand der Körperteile zueinander verkleinert wird. Es ist aber auch eine genau andere Zuordnung möglich.
  • Durch ein Ziehen des dritten Körperteils von dem ersten und/oder zweiten Körperteil weg kann entsprechend ein Funktionswert vergrößert werden.
  • Bevorzugt werden als Körperteile zur Berührung des Touchpads Teile einer Hand, wie beispielsweise die einzelnen Finger für die ersten Körperteile, da die Finger im Verhältnis zum Touchpad nur eine geringe Auflagefläche auf dem Touchpad aufweisen und so eine Vielzahl von verschiedenen Menüs, Untermenüs, Funktionen und/oder Funktionswerten auf dem Touchpad gleichzeitig dargestellt werden und einer Position auf dem Touchpad zugeordnet werden können und so ohne ein Umschalten angewählt und/oder ausgewählt werden können. Als zweiter Körperteil kann beispielsweise auch ein Finger einer Hand Verwendung finden. Es ist aber auch möglich, das Touchpad mit dem Ballen der Hand oder einer Kante der Hand zu berühren und so die akustische Rückmeldung auszulösen. So kann in einem ersten Ausführungsbeispiel mit einem Zeigefinger einer Hand als erstem Körperteil das Touchpad berührt werden, mittels des Handballens der Hand die akustische Rückmeldung ausgelöst werden und mittels eines Ziehens des Daumens der Hand über das Touchpad ein mittels des Zeigefingers angewählter Funktionswert vergrößert und/oder verkleinert werden. Als dritte Körperteile können auch sonstige Finger der Hand Verwendung finden. Das Verfahren kann so ausgestaltet sein, dass es bei dem Berühren des Touchpads nur auf die Reihenfolge der Berührungen und nicht auf die Größe der eingesetzten Körperteile ankommt, so dass ein Bediener selbst entscheiden kann, mit welchen Körperteilen er das Touchpad berührt und bedient.
  • Wenn der erste und zweite Körperteil das Touchpad benachbart berühren müssen, kann eine versehentliche Fehlbedienung ausgeschlossen werden.
  • Das Touchpad kann eine optische, kapazitive oder resistive Berührungserkennung aufweisen.
  • Sofern das Touchpad ein Display aufweist und somit als Touchscreen ausgestaltet ist, können auch unterschiedliche Menüs, Untermenüs, Funktionen und/oder Funktionswerte auf dem Display nacheinander dargestellt werden und so die Anzahl der anwählbaren und/oder auswählbaren Menüs, Untermenüs, Funktionen und/oder Funktionswerte gegenüber einem reinen Touchpad ohne Display vergrößert werden. Das Display ist vorzugsweise als elektrooptisches Display, wie beispielsweise als LCD, LED-Display oder OLED-Display, ausgestaltet, da diese Displays dauerhaft und preiswert zu beschaffen sind.
  • Die Erfindung wird nachfolgend anhand der Figuren näher erläutert. Es zeigen:
  • 1 ein Touchpad mit einer ersten Darstellung von auswählbaren Menüs,
  • 2 das Touchpad aus 1 mit einer zweiten Darstellung von Menüs,
  • 3 das Touchpad aus den vorangegangenen Figuren mit einer Darstellung von Untermenüs,
  • 4 das Touchpad aus den vorangegangenen Figuren mit einer Darstellung eines einstellbaren Funktionswertes,
  • 5 das Touchpad aus den vorangegangenen Figuren mit einer Darstellung einer Senderauswahl mit einem aufgelegten Finger einer Hand,
  • 6 das Touchpad aus den vorangegangenen Figuren mit einer Darstellung der Hand aus 5 mit zwei aufgelegten Fingern.
  • In 1 erkennt man ein Touchpad 1 mit einem Menü mit anwähl- und auswählbaren Untermenüs A–M. Wenn das Touchpad 1 im Bereich des jeweiligen Untermenüs mit einem Körperteil, beispielsweise einem ersten Finger einer Hand, berührt wird, wird das entsprechende Untermenü angewählt und kann durch eine zweite Aktion ausgewählt werden. Durch Auflegen eines zweiten Körperteils, beispielsweise eines zweiten Fingers der Hand, des Handballens der Hand oder der Seite der Hand, kann die akustische Rückmeldung aktiviert werden.
  • Die zweite Aktion zur Auswahl des angewählten Untermenüs kann beispielsweise in einem kurzen Anheben und wieder Berühren des Touchpads 1 durch den ersten Finger, ein Belassen des ersten Körperteils über einen Bestimmten Zeitraum nach Berührung des Touchpads oder Aktivieren der akustischen Rückmeldung oder eine sonstige zugewiesene Aktion erfolgen, wie beispielsweise dem Auflegen eines dritten Körperteils, während der erste und zweite Körperteil weiterhin das Touchpad berühren, oder der Betätigung eines Schalters.
  • Das Touchpad 1 kann so ausgestaltet sein, dass die anwählbaren Menüs dauerhaft dargestellt werden, beispielsweise durch eine Bedruckung, Lackierung oder Gravur der Oberfläche des Touchpads. Dann kann aber nur aus dem dargestellten Menü ausgewählt werden. Weiterhin ist es möglich, auf der Oberfläche nichts darzustellen und so den Bediener zu einer Blindbedienung zu zwingen. Schließlich kann das Touchpad als Touchscreen ausgestaltet sein und so die anwählbaren und auswählbaren Menüs, Untermenüs, Funktionen und Funktionswerte je nach Status des Bediensystems darstellen in Form von Symbolen und/oder Textinformationen.
  • In 2 sind die anwählbaren Untermenüs A–E in einer zweiten Anordnung auf dem Touchpad 1 dargestellt. Ansonsten unterscheidet es sich nicht von dem Touchpad in 1.
  • In 3 sind auf dem Touchpad 1 drei Untermenüs N–P dargestellt, die beispielsweise durch eine Auswahl des Menüs A aus 1 oder 2 anwählbar und auswählbar sind. Auch diese Unterfunktionen sind durch in 3 angedeutete Textinformation oder Symbole gekennzeichnet. Die Untermenüs können beispielsweise Funktionen eines Radioempfängers wie Lautstärkeeinstellung, Senderwahl und Balance betreffen.
  • Ist Untermenü N beispielsweise die Lautstärkeeinstellung, dann wird nach Auswahl dieses Untermenüs auf dem Touchpad 1 die Lautstärkeeinstellung dargestellt, wie in 4 gezeigt. Die Lautstärke kann beispielsweise dadurch verändert werden, dass ein Pfeil R mit einem Körperteil berührt wird und der Körperteil auf der Anzeige verschoben wird. Es ist aber beispielsweise auch möglich, mit einem dritten Körperteil das Touchpad 1 zu berühren, während die ersten und zweiten Körperteile weiterhin das Touchpad berühren, und den Abstand zwischen dem ersten und dritten Körperteil zu vergrößern oder zu verkleinern. So kann beispielsweise das Touchpad 1 mit einem Zeigefinger einer Hand und dem Handballen der Hand berührt werden und gleichzeitig das Touchpad 1 mit dem Daumen oder Mittelfinger der Hand berührt werden und der Abstand zwischen dem Zeigefinger und Daumen bzw. Mittelfinger vergrößert oder verkleinert werden und so die Lautstärke entsprechend verändert werden.
  • In 5 erkennt man das Touchpad 1 ausgestaltet als Touchscreen, auf dem ein Senderauswahlmenü dargestellt wird, und eine Hand 2 eines ansonsten nicht dargestellten Bedieners mit einem Zeigefinger 21. Der Zeigefinger 21 berührt das Touchpad im Bereich, der für die Anwahl und Auswahl des Senders „Bayern Radio“ zugeordnet ist. Berührt nun ein weiteres Körperteil, wie beispielsweise ein wie 6 dargestellter Mittelfinger 22, das Touchpad 1, wird als akustische Rückmeldung die gesprochene Information wie beispielsweise: „Bayern Radio“ oder „Sie haben den Sender Bayern Radio angewählt“ ausgegeben. Die Auswahl des angewählten Senders kann dann beispielsweise durch ein Auflegen eines dritten Körperteils wie beispielsweise dem Handballen der Hand 2 oder Daumen der Hand 2 erfolgen.
  • Es ist möglich, nur bestimmte Körperteile oder Handlungsweisen für die Auswahl zuzulassen, oder nur auf die Anzahl der aufgelegten Körperteile abzustellen. Es ist auch möglich, die Auswahl vorzusehen alternativ oder zusätzlich durch eine andere Aktion wie beispielsweise dem kurzzeitigen Abheben des ersten Körperteils im Ausführungsbeispiel nach 5 und 6 des Zeigefingers 21.

Claims (17)

  1. Verfahren zur Anwahl- und/oder Auswahl eines Menüs (A-M), eines Untermenüs (N–P), einer Funktion oder eines Funktionswertes (R) eines elektronischen Gerätes, wobei das Menü (A–M), das Untermenü (N–P), die Funktion oder der Funktionswert (R) mittels eines Berührens eines Touchpads (1) mit einem ersten Körperteil (21) anwählbar und/oder auswählbar ist und eine akustische Rückmeldung zu dem angewählten und/oder ausgewählten Menü, Untermenü, Funktionswert oder der angewählten und/oder ausgewählten Funktion des elektronischen Gerätes ausgebbar ist, dadurch gekennzeichnet, dass eine Aktivierung der akustischen Rückmeldung durch ein zusätzliches Berühren des Touchpads an einer beliebigen Stelle mit einem zweiten Körperteil (22) erfolgt.
  2. Verfahren nach Patentanspruch 1, dadurch gekennzeichnet, dass mittels des Auflegens und Ziehens eines dritten Körperteils ein an- oder ausgewählter Funktionswert (R) verändert wird.
  3. Verfahren nach Patentanspruch 1 oder 2, dadurch gekennzeichnet, dass das Menü (A–M), das Untermenü (N–P), die Funktion oder der Funktionswert (R) einer Position auf dem Touchpad (1) zugeordnet ist.
  4. Verfahren nach Patentanspruch 3, dadurch gekennzeichnet, dass das anwählbare und/oder auswählbare Menü (A–M), das anwählbare und/oder auswählbare Untermenü (N–P), die anwählbare und/oder auswählbare Funktion oder der anwählbare und/oder auswählbare Funktionswert (R) durch ein Berühren der zugeordneten Position anwählbar und/oder auswählbar ist.
  5. Verfahren nach einem der vorstehenden Patentansprüche, dadurch gekennzeichnet, dass der erste Körperteil ein erster Finger (21) ist.
  6. Verfahren nach einem der vorstehenden Patentansprüche, dadurch gekennzeichnet, dass der zweite Körperteil ein zweiter Finger (22) ist.
  7. Verfahren nach Patentanspruch 5 und 6, dadurch gekennzeichnet, dass der erste und zweite Finger (21, 22) benachbart das Touchpad (1) berühren.
  8. Bedienvorrichtung zur Anwahl- und/oder Auswahl eines Menüs (A–M), eines Untermenüs (N–P), einer Funktion oder eines Funktionswertes (R) eines elektronischen Gerätes, wobei das Menü (A–M), das Untermenü (N–P), die Funktion oder der Funktionswert (R) mittels eines Berührens eines Touchpads mit einem ersten Körperteil (21) anwählbar und/oder auswählbar ist und eine akustische Rückmeldung zu dem angewählten und/oder ausgewählten Menü (A–M), Untermenü (N–P), Funktionswert (R) oder der angewählten und/oder ausgewählten Funktion des elektronischen Gerätes ausgebbar ist, dadurch gekennzeichnet, dass die akustische Rückmeldung durch ein zusätzliches Berühren des Touchpads(1) an einer beliebigen Stelle mit einem zweiten Körperteil (22) aktivierbar ist.
  9. Bedienvorrichtung nach Patentanspruch 8, dadurch gekennzeichnet, dass mittels des Auflegens und Ziehens eines dritten Körperteils ein Funktionswert (R) veränderbar ist.
  10. Bedienvorrichtung nach Patentanspruch 8 oder 9, dadurch gekennzeichnet, dass das Menü (A–M), das Untermenü (N–P), die Funktion oder der Funktionswert (R) einer Position auf dem Touchpad (1) zugeordnet ist.
  11. Bedienvorrichtung nach Patentanspruch 10, dadurch gekennzeichnet, dass das anwählbare und/oder auswählbare Menü (A–M), das anwählbare und/oder auswählbare Untermenü (N–P), die anwählbare und/oder auswählbare Funktion oder der anwählbare und/oder auswählbare Funktionswert (R) durch ein Berühren der zugeordneten Position anwählbar und/oder auswählbar ist.
  12. Bedienvorrichtung nach einem der vorstehenden Patentansprüche 8 bis 11, dadurch gekennzeichnet, dass der erste Körperteil ein erster Finger (21) ist.
  13. Bedienvorrichtung nach einem der vorstehenden Patentansprüche 8 bis 12, dadurch gekennzeichnet, dass der zweite Körperteil ein zweiter Finger (22) ist.
  14. Bedienvorrichtung nach Patentanspruch 12 und 13, dadurch gekennzeichnet, dass die akustischen Rückmeldung durch ein Berühren des Touchpads (1) aktivierbar ist, wenn der erste und zweite Finger (21, 22) benachbart das Touchpad (1) berühren.
  15. Bedienvorrichtung nach einem der vorstehenden Patentansprüche 8 bis 14, dadurch gekennzeichnet, dass das Touchpad (1) eine kapazitive, induktive, resistive oder optische Berührungserkennung aufweist.
  16. Bedienvorrichtung nach einem der vorstehenden Patentansprüche 8 bis 15, dadurch gekennzeichnet, dass das Touchpad (1) als Touchscreen ausgestaltet ist.
  17. Bedienvorrichtung nach Patentanspruch 16, dadurch gekennzeichnet, dass der Touchscreen eine elektrooptische Anzeige aufweist.
DE102016216318.3A 2016-08-30 2016-08-30 Verfahren und Vorrichtung zur Bedienung eines elektronischen Gerätes Pending DE102016216318A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102016216318.3A DE102016216318A1 (de) 2016-08-30 2016-08-30 Verfahren und Vorrichtung zur Bedienung eines elektronischen Gerätes
PCT/EP2017/071001 WO2018041650A1 (de) 2016-08-30 2017-08-21 Verfahren und vorrichtung zur bedienung eines elektronischen gerätes
US16/329,159 US20190204997A1 (en) 2016-08-30 2017-08-21 Method And Device For Operating An Electronic Appliance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016216318.3A DE102016216318A1 (de) 2016-08-30 2016-08-30 Verfahren und Vorrichtung zur Bedienung eines elektronischen Gerätes

Publications (1)

Publication Number Publication Date
DE102016216318A1 true DE102016216318A1 (de) 2018-03-01

Family

ID=59677243

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016216318.3A Pending DE102016216318A1 (de) 2016-08-30 2016-08-30 Verfahren und Vorrichtung zur Bedienung eines elektronischen Gerätes

Country Status (3)

Country Link
US (1) US20190204997A1 (de)
DE (1) DE102016216318A1 (de)
WO (1) WO2018041650A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110138284A1 (en) 2009-12-03 2011-06-09 Microsoft Corporation Three-state touch input system
US20150175172A1 (en) 2013-12-20 2015-06-25 Immersion Corporation Gesture based input system in a vehicle with haptic feedback

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10031982A1 (de) * 2000-06-30 2002-01-10 Bosch Gmbh Robert Bedienverfahren
US6999066B2 (en) * 2002-06-24 2006-02-14 Xerox Corporation System for audible feedback for touch screen displays
US9235967B1 (en) * 2005-12-20 2016-01-12 Diebold Self-Service Systems Division Of Diebold, Incorporated Banking system controlled responsive to data bearing records
US8462134B2 (en) * 2009-06-29 2013-06-11 Autodesk, Inc. Multi-finger mouse emulation
US8195313B1 (en) * 2010-11-19 2012-06-05 Nest Labs, Inc. Thermostat user interface
US10489760B2 (en) * 2011-11-29 2019-11-26 Diebold Nixdorf, Incorporated Banking system controlled responsive to data bearing records
US9697745B2 (en) * 2013-03-15 2017-07-04 Verizon Patent And Licensng Inc. Auxiliary sensor for touchscreen device
US9128558B2 (en) * 2013-05-31 2015-09-08 Eastman Kodak Company Force detecting method for capacitive touch screen
US10379737B2 (en) * 2015-10-19 2019-08-13 Apple Inc. Devices, methods, and graphical user interfaces for keyboard interface functionalities

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110138284A1 (en) 2009-12-03 2011-06-09 Microsoft Corporation Three-state touch input system
US20150175172A1 (en) 2013-12-20 2015-06-25 Immersion Corporation Gesture based input system in a vehicle with haptic feedback

Also Published As

Publication number Publication date
US20190204997A1 (en) 2019-07-04
WO2018041650A1 (de) 2018-03-08

Similar Documents

Publication Publication Date Title
EP3113969B1 (de) Anwenderschnittstelle und verfahren zur signalisierung einer 3d-position eines eingabemittels bei der gestenerfassung
DE102014019040B4 (de) Verfahren zum Betreiben einer Bedienvorrichtung eines Kraftfahrzeugs bei einer Mehrfingerbedienung
EP3084561B1 (de) Tastenlos bedienbare bedienvorrichtung
EP3224077B1 (de) Verfahren zum betreiben einer bedienvorrichtung eines kraftfahrzeugs
WO2013034287A2 (de) Bedienanordnung für ein kraftfahrzeug und verfahren zum bedienen der bedienanordnung für ein kraftfahrzeug
DE102016200022A1 (de) Vorrichtung zum Schalten in einem Kraftfahrzeug
DE102018100197A1 (de) Verfahren zum Betreiben einer Mensch-Maschinen-Schnittstelle sowie Mensch-Maschinen-Schnittstelle
DE102012024055A1 (de) Verfahren und Vorrichtung zum Bedienen eines elektronischen Gerätes
DE102014222195A1 (de) Fahrzeugbedienung abhängig vom Fahrmodus
EP3508967A1 (de) Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle
DE102016108899A1 (de) Kombiniertes Ein- und Ausgabegerät und Verfahren zur Bedienung eines Ein- und Ausgabegerätes
DE102010012239A1 (de) Bedienungs- und Anzeigevorrichtung eines Kraftfahrzeugs
WO2014056829A1 (de) Bedienelement für eine anzeigevorrichtung in einem kraftfahrzeug
DE102014008296A1 (de) Schaltwippenvorrichtung, Lenkradvorrichtung mit der Schaltwippenvorrichtung sowie Steuerungsvorrichtung mit der Schaltwippen- oder Lenkradvorrichtung
DE102016216318A1 (de) Verfahren und Vorrichtung zur Bedienung eines elektronischen Gerätes
DE102012011177A1 (de) Verfahren zur Bedienung von Funktionen einesFahrzeuges sowie entsprechende Vorrichtung
DE102013015227A1 (de) Bedieneinrichtung für einen Kraftwagen
DE102012216289A1 (de) Berührungseingaben entlang einer Schwelle auf einer berührungsempfindlichen Oberfläche
DE102011112565A1 (de) Verfahren zum Bedienen einer Bedienvorrichtung für ein Kraftfahrzeug
DE102013001384A1 (de) Verfahren und System zum blickrichtungsabhängigen Steuern einer Mehrzahl von Funktionseinheiten sowie Kraftwagen und mobiles Endgerät mit einem solchen System
DE102015212920A1 (de) Bedienung von dreidimensionalen Benutzerschnittstellen
DE102014014340B4 (de) Bedienvorrichtung, Kraftfahrzeug und Verfahren zum Bedienen einer Bedienvorrichtung für ein Kraftfahrzeug
WO2024046612A1 (de) Steuern einer funktion an bord eines kraftfahrzeugs
DE102018215396A1 (de) Bedienvorrichtung in einem Kraftfahrzeug, bei der Menüs, Teilmenüs und/oder Einzelwerte auf einer Anzeige darstellbar sind und mittels einer Eingabevorrichtung auswählbar sind
DE102019212278A1 (de) Bediensystem und Verfahren zum Betreiben des Bediensystems

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R002 Refusal decision in examination/registration proceedings
R125 Request for further processing filed
R126 Request for further processing allowed
R081 Change of applicant/patentee

Owner name: CONTINENTAL AUTOMOTIVE TECHNOLOGIES GMBH, DE

Free format text: FORMER OWNER: CONTINENTAL AUTOMOTIVE GMBH, 30165 HANNOVER, DE

R081 Change of applicant/patentee

Owner name: CONTINENTAL AUTOMOTIVE TECHNOLOGIES GMBH, DE

Free format text: FORMER OWNER: CONTINENTAL AUTOMOTIVE TECHNOLOGIES GMBH, 30165 HANNOVER, DE