DE102016216318A1 - Verfahren und Vorrichtung zur Bedienung eines elektronischen Gerätes - Google Patents
Verfahren und Vorrichtung zur Bedienung eines elektronischen Gerätes Download PDFInfo
- Publication number
- DE102016216318A1 DE102016216318A1 DE102016216318.3A DE102016216318A DE102016216318A1 DE 102016216318 A1 DE102016216318 A1 DE 102016216318A1 DE 102016216318 A DE102016216318 A DE 102016216318A DE 102016216318 A1 DE102016216318 A1 DE 102016216318A1
- Authority
- DE
- Germany
- Prior art keywords
- selectable
- touchpad
- function
- menu
- body part
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 15
- 230000004913 activation Effects 0.000 claims abstract description 3
- 238000001514 detection method Methods 0.000 claims description 2
- 230000003287 optical effect Effects 0.000 claims description 2
- 230000001939 inductive effect Effects 0.000 claims 1
- 210000003811 finger Anatomy 0.000 description 18
- 210000003813 thumb Anatomy 0.000 description 4
- 230000001960 triggered effect Effects 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 210000005224 forefinger Anatomy 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/22—Display screens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/26—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using acoustic output
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/28—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/11—Instrument graphical user interfaces or menu aspects
- B60K2360/115—Selection of menu items
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/143—Touch sensitive instrument input devices
- B60K2360/1438—Touch screens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/146—Instrument input by gesture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/146—Instrument input by gesture
- B60K2360/1464—3D-gesture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/16—Type of output information
- B60K2360/161—Explanation of functions, e.g. instructions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Chemical & Material Sciences (AREA)
- Transportation (AREA)
- Combustion & Propulsion (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Anwahl- und/oder Auswahl eines Menüs (A–M), eines Untermenüs (N–P), einer Funktion oder eines Funktionswertes (R) eines elektronischen Gerätes, wobei das Menü (A–M), das Untermenü (N–P), die Funktion oder der Funktionswert (R) mittels eines Berührens eines Touchpads (1) mit einem ersten Körperteil (21) anwählbar und/oder auswählbar ist und eine akustische Rückmeldung zu dem angewählten und/oder ausgewählten Menü, Untermenü, Funktionswert oder der angewählten und/oder ausgewählten Funktion des elektronischen Gerätes ausgebbar ist, wodurch eine Aktivierung der akustischen Rückmeldung durch ein zusätzliches Berühren des Touchpads an einer beliebigen Stelle mit einem zweiten Körperteil (22) erfolgt.
Description
- Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bedienung eines elektronischen Gerätes. Aus dem Stand der Technik sind Verfahren bekannt zur Anwahl und/oder Auswahl eines Menüs, eines Untermenüs, einer Funktion oder eines Funktionswertes eines elektronischen Gerätes, wobei das Menü, das Untermenü, die Funktion oder der Funktionswert mittels eines Berührens eines Touchpads mit einem ersten Körperteil anwählbar und/oder auswählbar ist und eine akustische Rückmeldung zu dem angewählten und/oder ausgewählten Menü, Untermenü, Funktionswert oder der angewählten und/oder ausgewählten Funktion des elektronischen Gerätes ausgebbar ist. Das Anwählen des Menüs, des Untermenüs, der Funktion oder des Funktionswertes geschieht beispielsweise durch Berühren der Stelle des Touchpads, die dem Menü, dem Untermenü, der Funktion oder dem Funktionswert zugeordnet ist. Diese Stellen können optisch beispielsweise durch ein Bedrucken oder eine Darstellung auf einem Display gekennzeichnet sein. Vorstellbar ist es aber auch, dass auf dem Touchpad nichts dargestellt wird, um den Bediener zu einer Blindbedienung zu zwingen und ihn so abzuhalten, während der Bedienung auf das Touchpad zu schauen. Die Auswahl des Menüs, des Untermenüs, der Funktion oder des Funktionswertes kann durch eine zweite Handlung wie beispielsweise ein kurzes Anheben und wieder Absenken des ersten Körperteils auf das Touchpad geschehen. Es sind aber auch andere Auswahlmöglichkeiten denkbar, wie beispielsweise ein Betätigen eines zusätzlichen Schalters oder das Verbleiben des ersten Körperteils auf dem Touchpad über eine längere Zeit nach Beendigung der akustischen Rückmeldung. Die Ausgabe einer akustischen Rückmeldung ist insbesondere dann sinnvoll, wenn der Bediener des elektronischen Gerätes nicht durch einen Blick auf die Bedienvorrichtung abgelenkt werden soll. Die Ablenkung kann beispielsweise dann erfolgen, wenn das elektronische Gerät in einem Fahrzeug angeordnet ist und der Bediener sich gleichzeitig um das Steuern des Fahrzeuges kümmern muss und deshalb eigentlich nicht auf die Bedienvorrichtung blicken sollte. Deshalb ist es im Stand der Technik bekannt, dem Bediener eines elektronischen Gerätes in Kraftfahrzeugen eine akustische Rückmeldung zu geben, wenn er ein Verfahren ausführt zur Anwahl und/oder Auswahl eines Menüs, eines Untermenüs, einer Funktion oder eines Funktionswertes eines elektronischen Gerätes, wobei das Menü, das Untermenü, die Funktion oder der Funktionswert mittels eines Berührens eines Touchpads mit einem ersten Körperteil anwählbar und/oder auswählbar ist. Die akustische Rückmeldung kann automatisch erfolgen. Nachteil hierbei ist es, dass die automatische Rückmeldung den Bediener des elektronischen Gerätes überfordern oder ablenken kann, da gegebenenfalls mehrere akustische Rückmeldungen abgegeben werden können, die den Bediener möglicherweise ebenfalls ablenken oder überfordern. Deshalb ist es im Stand der Technik bekannt, eine akustische Rückmeldung durch das Betätigen eines Schalters zu starten. Dieser kann beispielsweise in einem Kraftfahrzeug auf dem Lenkrad oder unterhalb des Lenkrades des Kraftfahrzeuges angeordnet sein. Dies hat den Nachteil, dass zusätzlich zu der Hand, die das Touchpad berührt, die zweite Hand des Kraftfahrers benötigt wird. Hierdurch kann ein sicheres Halten des Lenkrades mittels der zweiten Hand beeinträchtigt sein. Durch diese Ausgestaltung wird der Kraftfahrer außerdem mehr als nötig von seiner eigentlichen Fahrausgabe abgelenkt, da er beide Hände für die Bedienung des elektronischen Gerätes benötigt. Weiterhin ist es bekannt, eine akustische Rückmeldung dann auszugeben, wenn der Körperteil eine Mindestzeit seine Position auf der Eingabefläche nicht verändert. Dies hat den Nachteil, dass die akustische Rückmeldung ungewollt ausgelöst werden kann. Schließlich ist es weiterhin bekannt, eine akustische Rückmeldung per Spracherkennung auszulösen. Diese Spracherkennung kann aber wegen der im Kraftfahrzeug auftretenden Geräusche nicht immer zuverlässig erkannt werden.
- Aufgabe der Erfindung ist es daher, ein Verfahren und eine Bedienvorrichtung zur Bedienung eines elektronischen Gerätes anzugeben, welches den Bediener nicht über Maßen ablenkt und so beispielsweise die Fahrsicherheit bei Bedienung des elektronischen Gerätes innerhalb von Kraftfahrzeugen dadurch erhöht, dass die Komplexität der Bedienung bei Eingabegeräten mit Touchpads reduziert wird.
- Diese Aufgabe wird dadurch gelöst, dass bei dem Verfahren eine Aktivierung der akustischen Rückmeldung durch ein zusätzliches Berühren des Touchpads an einer beliebigen Stelle mit einem zweiten Körperteil erfolgt, und die Bedienvorrichtung derart ausgestaltet ist, dass die akustische Rückmeldung durch ein zusätzliches Berühren des Touchpads an einer beliebigen Stelle mit einem zweiten Körperteil aktivierbar ist. Hierdurch kann die akustische Rückmeldung ohne eine gesteigerte Aufmerksamkeit des Bedieners ausgelöst werden
- Durch Auflegen und Ziehen eines dritten Körperteils kann einfach ein Funktionswert vergrößert oder verkleinert werden. So kann beispielsweise ein Funktionswert verkleinert werden, wenn der dritte Körperteil in Richtung auf den ersten und/oder zweiten Körperteil bewegt wird. Diese Zuordnung ist besonders intuitiv, da auch der Abstand der Körperteile zueinander verkleinert wird. Es ist aber auch eine genau andere Zuordnung möglich.
- Durch ein Ziehen des dritten Körperteils von dem ersten und/oder zweiten Körperteil weg kann entsprechend ein Funktionswert vergrößert werden.
- Bevorzugt werden als Körperteile zur Berührung des Touchpads Teile einer Hand, wie beispielsweise die einzelnen Finger für die ersten Körperteile, da die Finger im Verhältnis zum Touchpad nur eine geringe Auflagefläche auf dem Touchpad aufweisen und so eine Vielzahl von verschiedenen Menüs, Untermenüs, Funktionen und/oder Funktionswerten auf dem Touchpad gleichzeitig dargestellt werden und einer Position auf dem Touchpad zugeordnet werden können und so ohne ein Umschalten angewählt und/oder ausgewählt werden können. Als zweiter Körperteil kann beispielsweise auch ein Finger einer Hand Verwendung finden. Es ist aber auch möglich, das Touchpad mit dem Ballen der Hand oder einer Kante der Hand zu berühren und so die akustische Rückmeldung auszulösen. So kann in einem ersten Ausführungsbeispiel mit einem Zeigefinger einer Hand als erstem Körperteil das Touchpad berührt werden, mittels des Handballens der Hand die akustische Rückmeldung ausgelöst werden und mittels eines Ziehens des Daumens der Hand über das Touchpad ein mittels des Zeigefingers angewählter Funktionswert vergrößert und/oder verkleinert werden. Als dritte Körperteile können auch sonstige Finger der Hand Verwendung finden. Das Verfahren kann so ausgestaltet sein, dass es bei dem Berühren des Touchpads nur auf die Reihenfolge der Berührungen und nicht auf die Größe der eingesetzten Körperteile ankommt, so dass ein Bediener selbst entscheiden kann, mit welchen Körperteilen er das Touchpad berührt und bedient.
- Wenn der erste und zweite Körperteil das Touchpad benachbart berühren müssen, kann eine versehentliche Fehlbedienung ausgeschlossen werden.
- Das Touchpad kann eine optische, kapazitive oder resistive Berührungserkennung aufweisen.
- Sofern das Touchpad ein Display aufweist und somit als Touchscreen ausgestaltet ist, können auch unterschiedliche Menüs, Untermenüs, Funktionen und/oder Funktionswerte auf dem Display nacheinander dargestellt werden und so die Anzahl der anwählbaren und/oder auswählbaren Menüs, Untermenüs, Funktionen und/oder Funktionswerte gegenüber einem reinen Touchpad ohne Display vergrößert werden. Das Display ist vorzugsweise als elektrooptisches Display, wie beispielsweise als LCD, LED-Display oder OLED-Display, ausgestaltet, da diese Displays dauerhaft und preiswert zu beschaffen sind.
- Die Erfindung wird nachfolgend anhand der Figuren näher erläutert. Es zeigen:
-
1 ein Touchpad mit einer ersten Darstellung von auswählbaren Menüs, -
2 das Touchpad aus1 mit einer zweiten Darstellung von Menüs, -
3 das Touchpad aus den vorangegangenen Figuren mit einer Darstellung von Untermenüs, -
4 das Touchpad aus den vorangegangenen Figuren mit einer Darstellung eines einstellbaren Funktionswertes, -
5 das Touchpad aus den vorangegangenen Figuren mit einer Darstellung einer Senderauswahl mit einem aufgelegten Finger einer Hand, -
6 das Touchpad aus den vorangegangenen Figuren mit einer Darstellung der Hand aus5 mit zwei aufgelegten Fingern. - In
1 erkennt man ein Touchpad1 mit einem Menü mit anwähl- und auswählbaren Untermenüs A–M. Wenn das Touchpad1 im Bereich des jeweiligen Untermenüs mit einem Körperteil, beispielsweise einem ersten Finger einer Hand, berührt wird, wird das entsprechende Untermenü angewählt und kann durch eine zweite Aktion ausgewählt werden. Durch Auflegen eines zweiten Körperteils, beispielsweise eines zweiten Fingers der Hand, des Handballens der Hand oder der Seite der Hand, kann die akustische Rückmeldung aktiviert werden. - Die zweite Aktion zur Auswahl des angewählten Untermenüs kann beispielsweise in einem kurzen Anheben und wieder Berühren des Touchpads
1 durch den ersten Finger, ein Belassen des ersten Körperteils über einen Bestimmten Zeitraum nach Berührung des Touchpads oder Aktivieren der akustischen Rückmeldung oder eine sonstige zugewiesene Aktion erfolgen, wie beispielsweise dem Auflegen eines dritten Körperteils, während der erste und zweite Körperteil weiterhin das Touchpad berühren, oder der Betätigung eines Schalters. - Das Touchpad
1 kann so ausgestaltet sein, dass die anwählbaren Menüs dauerhaft dargestellt werden, beispielsweise durch eine Bedruckung, Lackierung oder Gravur der Oberfläche des Touchpads. Dann kann aber nur aus dem dargestellten Menü ausgewählt werden. Weiterhin ist es möglich, auf der Oberfläche nichts darzustellen und so den Bediener zu einer Blindbedienung zu zwingen. Schließlich kann das Touchpad als Touchscreen ausgestaltet sein und so die anwählbaren und auswählbaren Menüs, Untermenüs, Funktionen und Funktionswerte je nach Status des Bediensystems darstellen in Form von Symbolen und/oder Textinformationen. - In
2 sind die anwählbaren Untermenüs A–E in einer zweiten Anordnung auf dem Touchpad1 dargestellt. Ansonsten unterscheidet es sich nicht von dem Touchpad in1 . - In
3 sind auf dem Touchpad1 drei Untermenüs N–P dargestellt, die beispielsweise durch eine Auswahl des Menüs A aus1 oder 2 anwählbar und auswählbar sind. Auch diese Unterfunktionen sind durch in3 angedeutete Textinformation oder Symbole gekennzeichnet. Die Untermenüs können beispielsweise Funktionen eines Radioempfängers wie Lautstärkeeinstellung, Senderwahl und Balance betreffen. - Ist Untermenü N beispielsweise die Lautstärkeeinstellung, dann wird nach Auswahl dieses Untermenüs auf dem Touchpad
1 die Lautstärkeeinstellung dargestellt, wie in4 gezeigt. Die Lautstärke kann beispielsweise dadurch verändert werden, dass ein Pfeil R mit einem Körperteil berührt wird und der Körperteil auf der Anzeige verschoben wird. Es ist aber beispielsweise auch möglich, mit einem dritten Körperteil das Touchpad1 zu berühren, während die ersten und zweiten Körperteile weiterhin das Touchpad berühren, und den Abstand zwischen dem ersten und dritten Körperteil zu vergrößern oder zu verkleinern. So kann beispielsweise das Touchpad1 mit einem Zeigefinger einer Hand und dem Handballen der Hand berührt werden und gleichzeitig das Touchpad1 mit dem Daumen oder Mittelfinger der Hand berührt werden und der Abstand zwischen dem Zeigefinger und Daumen bzw. Mittelfinger vergrößert oder verkleinert werden und so die Lautstärke entsprechend verändert werden. - In
5 erkennt man das Touchpad1 ausgestaltet als Touchscreen, auf dem ein Senderauswahlmenü dargestellt wird, und eine Hand2 eines ansonsten nicht dargestellten Bedieners mit einem Zeigefinger21 . Der Zeigefinger21 berührt das Touchpad im Bereich, der für die Anwahl und Auswahl des Senders „Bayern Radio“ zugeordnet ist. Berührt nun ein weiteres Körperteil, wie beispielsweise ein wie6 dargestellter Mittelfinger22 , das Touchpad1 , wird als akustische Rückmeldung die gesprochene Information wie beispielsweise: „Bayern Radio“ oder „Sie haben den Sender Bayern Radio angewählt“ ausgegeben. Die Auswahl des angewählten Senders kann dann beispielsweise durch ein Auflegen eines dritten Körperteils wie beispielsweise dem Handballen der Hand2 oder Daumen der Hand2 erfolgen. - Es ist möglich, nur bestimmte Körperteile oder Handlungsweisen für die Auswahl zuzulassen, oder nur auf die Anzahl der aufgelegten Körperteile abzustellen. Es ist auch möglich, die Auswahl vorzusehen alternativ oder zusätzlich durch eine andere Aktion wie beispielsweise dem kurzzeitigen Abheben des ersten Körperteils im Ausführungsbeispiel nach
5 und6 des Zeigefingers21 .
Claims (17)
- Verfahren zur Anwahl- und/oder Auswahl eines Menüs (A-M), eines Untermenüs (N–P), einer Funktion oder eines Funktionswertes (R) eines elektronischen Gerätes, wobei das Menü (A–M), das Untermenü (N–P), die Funktion oder der Funktionswert (R) mittels eines Berührens eines Touchpads (
1 ) mit einem ersten Körperteil (21 ) anwählbar und/oder auswählbar ist und eine akustische Rückmeldung zu dem angewählten und/oder ausgewählten Menü, Untermenü, Funktionswert oder der angewählten und/oder ausgewählten Funktion des elektronischen Gerätes ausgebbar ist, dadurch gekennzeichnet, dass eine Aktivierung der akustischen Rückmeldung durch ein zusätzliches Berühren des Touchpads an einer beliebigen Stelle mit einem zweiten Körperteil (22 ) erfolgt. - Verfahren nach Patentanspruch 1, dadurch gekennzeichnet, dass mittels des Auflegens und Ziehens eines dritten Körperteils ein an- oder ausgewählter Funktionswert (R) verändert wird.
- Verfahren nach Patentanspruch 1 oder 2, dadurch gekennzeichnet, dass das Menü (A–M), das Untermenü (N–P), die Funktion oder der Funktionswert (R) einer Position auf dem Touchpad (
1 ) zugeordnet ist. - Verfahren nach Patentanspruch 3, dadurch gekennzeichnet, dass das anwählbare und/oder auswählbare Menü (A–M), das anwählbare und/oder auswählbare Untermenü (N–P), die anwählbare und/oder auswählbare Funktion oder der anwählbare und/oder auswählbare Funktionswert (R) durch ein Berühren der zugeordneten Position anwählbar und/oder auswählbar ist.
- Verfahren nach einem der vorstehenden Patentansprüche, dadurch gekennzeichnet, dass der erste Körperteil ein erster Finger (
21 ) ist. - Verfahren nach einem der vorstehenden Patentansprüche, dadurch gekennzeichnet, dass der zweite Körperteil ein zweiter Finger (
22 ) ist. - Verfahren nach Patentanspruch 5 und 6, dadurch gekennzeichnet, dass der erste und zweite Finger (
21 ,22 ) benachbart das Touchpad (1 ) berühren. - Bedienvorrichtung zur Anwahl- und/oder Auswahl eines Menüs (A–M), eines Untermenüs (N–P), einer Funktion oder eines Funktionswertes (R) eines elektronischen Gerätes, wobei das Menü (A–M), das Untermenü (N–P), die Funktion oder der Funktionswert (R) mittels eines Berührens eines Touchpads mit einem ersten Körperteil (
21 ) anwählbar und/oder auswählbar ist und eine akustische Rückmeldung zu dem angewählten und/oder ausgewählten Menü (A–M), Untermenü (N–P), Funktionswert (R) oder der angewählten und/oder ausgewählten Funktion des elektronischen Gerätes ausgebbar ist, dadurch gekennzeichnet, dass die akustische Rückmeldung durch ein zusätzliches Berühren des Touchpads(1 ) an einer beliebigen Stelle mit einem zweiten Körperteil (22 ) aktivierbar ist. - Bedienvorrichtung nach Patentanspruch 8, dadurch gekennzeichnet, dass mittels des Auflegens und Ziehens eines dritten Körperteils ein Funktionswert (R) veränderbar ist.
- Bedienvorrichtung nach Patentanspruch 8 oder 9, dadurch gekennzeichnet, dass das Menü (A–M), das Untermenü (N–P), die Funktion oder der Funktionswert (R) einer Position auf dem Touchpad (
1 ) zugeordnet ist. - Bedienvorrichtung nach Patentanspruch 10, dadurch gekennzeichnet, dass das anwählbare und/oder auswählbare Menü (A–M), das anwählbare und/oder auswählbare Untermenü (N–P), die anwählbare und/oder auswählbare Funktion oder der anwählbare und/oder auswählbare Funktionswert (R) durch ein Berühren der zugeordneten Position anwählbar und/oder auswählbar ist.
- Bedienvorrichtung nach einem der vorstehenden Patentansprüche 8 bis 11, dadurch gekennzeichnet, dass der erste Körperteil ein erster Finger (
21 ) ist. - Bedienvorrichtung nach einem der vorstehenden Patentansprüche 8 bis 12, dadurch gekennzeichnet, dass der zweite Körperteil ein zweiter Finger (
22 ) ist. - Bedienvorrichtung nach Patentanspruch 12 und 13, dadurch gekennzeichnet, dass die akustischen Rückmeldung durch ein Berühren des Touchpads (
1 ) aktivierbar ist, wenn der erste und zweite Finger (21 ,22 ) benachbart das Touchpad (1 ) berühren. - Bedienvorrichtung nach einem der vorstehenden Patentansprüche 8 bis 14, dadurch gekennzeichnet, dass das Touchpad (
1 ) eine kapazitive, induktive, resistive oder optische Berührungserkennung aufweist. - Bedienvorrichtung nach einem der vorstehenden Patentansprüche 8 bis 15, dadurch gekennzeichnet, dass das Touchpad (
1 ) als Touchscreen ausgestaltet ist. - Bedienvorrichtung nach Patentanspruch 16, dadurch gekennzeichnet, dass der Touchscreen eine elektrooptische Anzeige aufweist.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102016216318.3A DE102016216318A1 (de) | 2016-08-30 | 2016-08-30 | Verfahren und Vorrichtung zur Bedienung eines elektronischen Gerätes |
US16/329,159 US20190204997A1 (en) | 2016-08-30 | 2017-08-21 | Method And Device For Operating An Electronic Appliance |
PCT/EP2017/071001 WO2018041650A1 (de) | 2016-08-30 | 2017-08-21 | Verfahren und vorrichtung zur bedienung eines elektronischen gerätes |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102016216318.3A DE102016216318A1 (de) | 2016-08-30 | 2016-08-30 | Verfahren und Vorrichtung zur Bedienung eines elektronischen Gerätes |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102016216318A1 true DE102016216318A1 (de) | 2018-03-01 |
Family
ID=59677243
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102016216318.3A Pending DE102016216318A1 (de) | 2016-08-30 | 2016-08-30 | Verfahren und Vorrichtung zur Bedienung eines elektronischen Gerätes |
Country Status (3)
Country | Link |
---|---|
US (1) | US20190204997A1 (de) |
DE (1) | DE102016216318A1 (de) |
WO (1) | WO2018041650A1 (de) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110138284A1 (en) | 2009-12-03 | 2011-06-09 | Microsoft Corporation | Three-state touch input system |
US20150175172A1 (en) | 2013-12-20 | 2015-06-25 | Immersion Corporation | Gesture based input system in a vehicle with haptic feedback |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10031982A1 (de) * | 2000-06-30 | 2002-01-10 | Bosch Gmbh Robert | Bedienverfahren |
US6999066B2 (en) * | 2002-06-24 | 2006-02-14 | Xerox Corporation | System for audible feedback for touch screen displays |
US9235967B1 (en) * | 2005-12-20 | 2016-01-12 | Diebold Self-Service Systems Division Of Diebold, Incorporated | Banking system controlled responsive to data bearing records |
US8462134B2 (en) * | 2009-06-29 | 2013-06-11 | Autodesk, Inc. | Multi-finger mouse emulation |
US8195313B1 (en) * | 2010-11-19 | 2012-06-05 | Nest Labs, Inc. | Thermostat user interface |
US10489760B2 (en) * | 2011-11-29 | 2019-11-26 | Diebold Nixdorf, Incorporated | Banking system controlled responsive to data bearing records |
US9697745B2 (en) * | 2013-03-15 | 2017-07-04 | Verizon Patent And Licensng Inc. | Auxiliary sensor for touchscreen device |
US9128558B2 (en) * | 2013-05-31 | 2015-09-08 | Eastman Kodak Company | Force detecting method for capacitive touch screen |
US10379737B2 (en) * | 2015-10-19 | 2019-08-13 | Apple Inc. | Devices, methods, and graphical user interfaces for keyboard interface functionalities |
-
2016
- 2016-08-30 DE DE102016216318.3A patent/DE102016216318A1/de active Pending
-
2017
- 2017-08-21 WO PCT/EP2017/071001 patent/WO2018041650A1/de active Application Filing
- 2017-08-21 US US16/329,159 patent/US20190204997A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110138284A1 (en) | 2009-12-03 | 2011-06-09 | Microsoft Corporation | Three-state touch input system |
US20150175172A1 (en) | 2013-12-20 | 2015-06-25 | Immersion Corporation | Gesture based input system in a vehicle with haptic feedback |
Also Published As
Publication number | Publication date |
---|---|
WO2018041650A1 (de) | 2018-03-08 |
US20190204997A1 (en) | 2019-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3113969B1 (de) | Anwenderschnittstelle und verfahren zur signalisierung einer 3d-position eines eingabemittels bei der gestenerfassung | |
DE102014019040B4 (de) | Verfahren zum Betreiben einer Bedienvorrichtung eines Kraftfahrzeugs bei einer Mehrfingerbedienung | |
EP3084561B1 (de) | Tastenlos bedienbare bedienvorrichtung | |
EP3224077B1 (de) | Verfahren zum betreiben einer bedienvorrichtung eines kraftfahrzeugs | |
EP3508968A1 (de) | Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle | |
EP2741200B1 (de) | Verfahren und Vorrichtung zum Bedienen eines elektronischen Gerätes | |
WO2013034287A2 (de) | Bedienanordnung für ein kraftfahrzeug und verfahren zum bedienen der bedienanordnung für ein kraftfahrzeug | |
DE102016200022A1 (de) | Vorrichtung zum Schalten in einem Kraftfahrzeug | |
DE102016108899A1 (de) | Kombiniertes Ein- und Ausgabegerät und Verfahren zur Bedienung eines Ein- und Ausgabegerätes | |
DE102010012239A1 (de) | Bedienungs- und Anzeigevorrichtung eines Kraftfahrzeugs | |
DE102012020164A1 (de) | Bedienelement für eine Anzeigevorrichtung in einem Kraftfahrzeug | |
DE102014008296A1 (de) | Schaltwippenvorrichtung, Lenkradvorrichtung mit der Schaltwippenvorrichtung sowie Steuerungsvorrichtung mit der Schaltwippen- oder Lenkradvorrichtung | |
DE102016216318A1 (de) | Verfahren und Vorrichtung zur Bedienung eines elektronischen Gerätes | |
DE102012011177A1 (de) | Verfahren zur Bedienung von Funktionen einesFahrzeuges sowie entsprechende Vorrichtung | |
DE102013015227A1 (de) | Bedieneinrichtung für einen Kraftwagen | |
DE102019129396A1 (de) | Grafische Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zum Betrieb einer grafischen Anwenderschnittstelle für ein Fortbewegungsmittel | |
DE102019129395A1 (de) | Grafische Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zum Betrieb einer grafischen Anwenderschnittstelle für ein Fortbewegungsmittel | |
WO2014114428A1 (de) | Verfahren und system zum blickrichtungsabhängigen steuern einer mehrzahl von funktionseinheiten sowie kraftwagen und mobiles endgerät mit einem solchen system | |
DE102011112565A1 (de) | Verfahren zum Bedienen einer Bedienvorrichtung für ein Kraftfahrzeug | |
DE102015212920A1 (de) | Bedienung von dreidimensionalen Benutzerschnittstellen | |
DE102014014340B4 (de) | Bedienvorrichtung, Kraftfahrzeug und Verfahren zum Bedienen einer Bedienvorrichtung für ein Kraftfahrzeug | |
WO2024046612A1 (de) | Steuern einer funktion an bord eines kraftfahrzeugs | |
DE102018215396A1 (de) | Bedienvorrichtung in einem Kraftfahrzeug, bei der Menüs, Teilmenüs und/oder Einzelwerte auf einer Anzeige darstellbar sind und mittels einer Eingabevorrichtung auswählbar sind | |
DE102019212278A1 (de) | Bediensystem und Verfahren zum Betreiben des Bediensystems | |
WO2023209179A1 (de) | Verfahren und steuervorrichtung zum aufrufen von funktionen und zur betätigung von einstellungen eines fahrzeugs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R002 | Refusal decision in examination/registration proceedings | ||
R125 | Request for further processing filed | ||
R126 | Request for further processing allowed | ||
R081 | Change of applicant/patentee |
Owner name: CONTINENTAL AUTOMOTIVE TECHNOLOGIES GMBH, DE Free format text: FORMER OWNER: CONTINENTAL AUTOMOTIVE GMBH, 30165 HANNOVER, DE |
|
R081 | Change of applicant/patentee |
Owner name: CONTINENTAL AUTOMOTIVE TECHNOLOGIES GMBH, DE Free format text: FORMER OWNER: CONTINENTAL AUTOMOTIVE TECHNOLOGIES GMBH, 30165 HANNOVER, DE |