DE102022203454A1 - Fortbewegungsmittel, Anwenderschnittstelle und Verfahren zum Betreiben einer Anwenderschnittstelle - Google Patents

Fortbewegungsmittel, Anwenderschnittstelle und Verfahren zum Betreiben einer Anwenderschnittstelle Download PDF

Info

Publication number
DE102022203454A1
DE102022203454A1 DE102022203454.6A DE102022203454A DE102022203454A1 DE 102022203454 A1 DE102022203454 A1 DE 102022203454A1 DE 102022203454 A DE102022203454 A DE 102022203454A DE 102022203454 A1 DE102022203454 A1 DE 102022203454A1
Authority
DE
Germany
Prior art keywords
user
input
touch
user interface
user input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022203454.6A
Other languages
English (en)
Inventor
Viktor Bader
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102022203454.6A priority Critical patent/DE102022203454A1/de
Publication of DE102022203454A1 publication Critical patent/DE102022203454A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/199Information management for avoiding maloperation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Es werden eine Anwenderschnittstelle, ein Fortbewegungsmittel (10) sowie ein Verfahren zum Betreiben einer Anwenderschnittstelle (1) vorgeschlagen. Das Verfahren umfasst die Schritte: Ermitteln einer Anwendereingabe mittels eines Eingabemittels (2) über eine berührungsempfindliche Oberfläche (3), sensorgestütztes Ermitteln einer Kraftwirkung, welche während der Anwendereingabe in eine Richtung (P1) senkrecht zu einer Oberflächennormalen (P2) der berührungsempfindlichen Oberfläche (3) auf das Eingabemittel (2) wirkt, und Ermitteln anhand der Anwendereingabe und der Kraftwirkung, dass ein durch die Anwendereingabe betätigter Oberflächenbereich der Oberfläche nicht von dem Anwender (5) adressiert worden ist.

Description

  • Die vorliegende Erfindung betrifft eine Anwenderschnittstelle, ein Fortbewegungsmittel, ein Smart Wearable, ein Drahtloskommunikations-Endgerät sowie in Verfahren zum Betreiben einer Anwenderschnittstelle. Insbesondere betrifft die vorliegende Erfindung eine Erleichterung bei der Verwendung einer Anwenderschnittstelle in Bewegung.
  • Die Bedienung tragbarer berührungsempfindlicher Anwenderendgeräte in Bewegung stellt den Anwender mitunter vor große Herausforderungen. Während der Bewegung auftretende Erschütterungen und Kräfte können dafür sorgen, dass die Eingabemittel aus einer geplanten Trajektorie zur Adressierung eines vorbestimmten Oberflächenbereichs auswandern und einen neben dem vorbestimmten Oberflächenbereich liegenden weiteren Oberflächenbereich betätigen. Während Touch-Screens und andere festkörper-basierte Touch-Oberflächen (Touch-Pads) bislang den gängigsten Formfaktor darstellen, wird zunehmend auch über flexible Stoffoberflächen und Smart Wearables (intelligente Kleidungsstücke und Accessoires) gesprochen.
  • https://www.derstandard.de/story/2000115846371/touch-stoffe-sorgen-fue-gefuehlvolleelektronik zeigt flexible Stoffoberflächen, welche ganz ähnlich wie ein Smartphone-Bildschirm funktionieren. Solche Oberflächen haben üblicherweise ein sog. kapazitives Feld, welches man durch die Berührung mit den Fingern oder einem anderen Eingabemittel beeinflusst. Diese Veränderungen werden erkannt und dann in Eingabegesten übersetzt.
  • Häufig treten bei der Bedienung von Touch-Displays und anderen Smart Wearables ungewollte Fehleingaben auf, wenn es z.B. während der Gestenausführung in der Nähe des Displays z.B. zu schlagartigen Beschleunigungen kommt. Ein Beispiel hierfür ist das Überfahren eines Schlaglochs. Ebenso kann das Umschalten von einer ersten Bildschirmansicht auf eine zweite Bildschirmansicht dazu führen, dass eine Anwendereingabe sich unbeabsichtigt auf eine neue Schaltfläche bezieht, an deren Stelle zuvor die eigentlich vom Anwender adressierte Schaltfläche angeordnet war. Da der Bildschirmwechsel mitunter durch Lichtreflexionen kaschiert werden kann, kann ein Wechsel der Lichtverhältnisse während der Bewegung der Anwenderschnittstelle die Bedienung erschweren. Zudem können während der Bewegung auftretende Geräusche einen durch die Ausgestaltung der Anwenderschnittstelle üblicherweise vorgesehene Klangausgabe beim Wechsel von einem ersten auf einen zweiten Bildschirm maskieren, so dass der Anwender den gewohnten Hinweis über einen Wechsel der Bildschirmansichten überhört.
  • US 2014 / 0 160 048 A1 offenbart eine Anwenderschnittstelle, welche im Ansprechen auf eine mechanische Störung des Anwenders eine vom Anwender ausgeführte Geste nicht als solche zulässt, so dass eine irrtümliche Eingabe nicht zu einem Funktionsaufruf führt.
  • US 2017 / 0 364 207 A1 offenbart eine Anwenderschnittstelle für ein Flugzeug, bei welchem ein vibrationsbedingter Eingabefehler automatisch korrigiert wird.
  • US 2014 / 0 062 893 A1 offenbart ein System und ein Verfahren zum Reduzieren einer Wahrscheinlichkeit versehentlicher Anwendereingaben auf einem Touch-Screen. Hierbei werden Informationen über das Terrain, Kartendaten und Sensoren verwendet, um eine beabsichtigte von einer unbeabsichtigten Eingabe zu unterscheiden.
  • Ausgehend vom vorgenannten Stand der Technik ist es eine Aufgabe der vorliegenden Erfindung, Anwendereingaben unter ungünstigen Bedingungen, insbesondere während ungleichförmiger Bewegungen, zu erleichtern.
  • Offenbarung der Erfindung
  • Die vorgenannte Aufgabe wird erfindungsgemäß durch ein Verfahren zum Betreiben einer Anwenderschnittstelle mit den Merkmalen gemäß Anspruch 1 gelöst.
  • Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung.
  • Entsprechend wird als Anwenderschnittstelle beispielsweise eine Eingabevorrichtung verstanden, mittels welcher der Anwender gesten basierte Eingaben vornehmen kann. Insbesondere kann die Eingabe durch Verwendung einer berührungsempfindlichen Oberfläche detektiert werden. Hierzu erfolgt im ersten Schritt ein Ermitteln einer Anwendereingabe mittels eines Eingabemittels. Das Eingabemittel kann beispielsweise ein Finger, ein Daumen, eine Hand, ein Stylus, ein Kugelschreiber, o.ä., sein. Für die Ermittlung der Anwendereingabe wird eine berührungsempfindliche Oberfläche verwendet, welche selbst durch betriebsbedingte Erschütterungen und/oder Vibrationen aus einer Ruhelage ausgelenkt werden kann. Dies schließt nicht aus, dass die berührungsempfindliche Oberfläche immun gegen die vorgenannten Störungen ist und die Störungen sich lediglich auf den Anwender und/oder das Eingabemittel auswirken können. In einem zweiten Schritt wird eine Kraftwirkung sensorisch ermittelt, welche während der Anwendereingabe in eine Richtung senkrecht zu einer Oberflächennormalen der berührungsempfindlichen Oberfläche auf das Eingabemittel wirkt. Zumindest weißt die Kraftwirkung eine Komponente auf, welche senkrecht zu der Oberflächennormalen der berührungsempfindlichen Oberfläche orientiert ist. Alternativ oder zusätzlich kann auch eine sensorgestützte Ermittlung einer Bewegung zwischen der berührungsempfindlichen Oberfläche und dem Eingabemittel detektiert werden, so dass das Eingabemittel zumindest anteilig in einer Richtung senkrecht zu einer Oberflächennormalen der berührungsempfindlichen Oberfläche auswandert. Mit anderen Worten wird also sensorisch automatisch ermittelt, dass das Eingabemittel aufgrund der fortbewegungs- oder betriebsbedingten Kraftwirkung ein vom Anwender (vermutlich) adressiertes Ziel auf der berührungsempfindlichen Oberfläche verfehlt. Im Ansprechen hierauf wird in einem dritten Schritt ermittelt, dass ein durch die Anwendereingabe betätigter Oberflächenbereich der Oberflächen nicht von dem Anwender adressiert worden ist. Mitunter besteht ein funktionaler Unterschied zwischen dem tatsächlich betätigten Oberflächenbereich und dem eigentlich von dem Anwender adressierten Oberflächenbereich der berührungsempfindlichen Oberfläche. Dies wird anhand der Anwendereingabe und der Kraftwirkung festgestellt. Dies wird sensorgestützt und insbesondere automatisch festgestellt. Im Ansprechen darauf kann die Anwendereingabe von der Anwenderschnittstelle ignoriert werden, bedingt akzeptiert werden oder korrigiert werden. Eine bedingte Akzeptanz kann beispielsweise darin bestehen, dass eine Nachricht an den Anwender ergeht, im Ansprechen auf welche er die Anwendereingabe zu bestätigen hat. Da die Nachricht eine größere Schaltfläche darstellen kann, als diejenige, welche der Anwender zuvor (gegebenenfalls versehentlich) betätigt hat, kann die Bedienung der Anwenderschnittstelle unterstützt werden. Alternativ oder zusätzlich kann eine Nachricht umfassend einen Timer ausgegeben werden, welche den Anwender darauf hinweist, dass bei fruchtlosem Verstreichen eines Timers von beispielsweise einer Sekunde, zwei Sekunden, drei Sekunden, vier Sekunden oder fünf Sekunden die vom Anwender tatsächlich gemachte Anwendereingabe als beabsichtigt ausgewertet wird. Entsprechendes kann auch für die vom Anwender (vermutlich) adressierte, jedoch nicht betätigte Oberfläche gelten. Auf diese Weise kann die Bedienung einer Anwenderschnittstelle während der Bewegung und unter Einwirkung vom Anwender nicht vorhersehbarer Kräfte erleichtert werden.
  • Die Anwendereingabe kann beispielsweise mittels einer berührungsempfindlichen Oberfläche erfolgen. Diese kann beispielsweise auf einem Touch-Screen angeordnet sein. Alternativ kann die berührungsempfindliche Oberfläche auch als Touch-Pad (nicht notwendigerweise transparent) ausgestaltet sein. Es ist des Weiteren zu beachten, dass die berührungsempfindliche Oberfläche nicht notwendigerweise eben ausgestaltet sein muss, so dass auch als berührungsempfindliche Oberflächen ausgestaltete Stoffe, Folien, Gewebe, etc., im Rahmen der vorliegenden Erfindung verwendet werden können.
  • So können die berührungsempfindlichen Oberflächen beispielsweise Bestandteil eines Smartphones, eines Tablets, eines Smart Wearables (Ring), Smartwatch, Smartcloth, o.ä., ausgestaltet sein. Auch Oberflächen eines Fortbewegungsmittels, insbesondere Bildschirme oder Interieur-Oberflächen, können im Sinne der vorliegende Erfindung verwendet werden.
  • Bevorzugt kann die Anwendereingabe mittels einer Kamera überwacht werden. Die Anwendereingabe kann hierbei auf eine plötzliche Bewegung des Eingabemittels relativ zur berührungsempfindlichen Oberfläche untersucht und im positiven Falle als gegebenenfalls irrtümlich gehandhabt werden. Aus den Daten der Kamera kann beispielsweise auch eine Bodenwelle, ein Schlagloch, o.ä., ermittelt werden, welche einen mittelbaren Hinweis darauf gibt, dass die Anwendereingabe gegebenenfalls ihr eigentliches Ziel verfehlt hat.
  • Selbstverständlich kann die Kraftwirkung auch mittels eines Beschleunigungssensors, eines Kraftaufnehmers, o.ä., ermittelt werden. Auch Drehraten-Sensoren, Gyroskope, o.ä., können verwendet werden, um eine sich nachteilig auf die Eingabepräzision auswirkende Kraftwirkung zu ermitteln. Insbesondere können hierbei mehrere Beschleunigungssensoren verwendet werden, deren Signale im Zusammenwirken bezüglich einer und derselben Anwendereingabe ausgewertet werden. Beispielsweise kann das erste Beschleunigungssignal eine Beschleunigung der berührungsempfindlichen Oberfläche repräsentieren, während ein zweites Beschleunigungssignal eine Beschleunigung des Eingabemittels repräsentieren kann. Werden beide Beschleunigungen in etwa gleichgerichtet und in etwa gleich hoch ermittelt, kann darauf geschlossen werden, dass eine Verfälschung der Anwendereingabe durch die identische Kraftwirkung nicht erfolgt ist. Andernfalls kann aus einer Abweichung von Kraftwirkungsrichtung und Kraftwirkungsbetrag (oder zumindest einem der beiden) darauf geschlossen werden, dass die vom Anwender getätigte Eingabe nicht seiner Absicht entsprach.
  • Das Verfahren kann optional weitere Schritte umfassen, wobei in einem ersten weiteren Schritt eine Blickrichtung des Anwenders während der Anwendereingabe automatisch (sensorisch) ermittelt wird. Die Blickrichtung kann beispielsweise Auskunft darüber geben, wohin die Aufmerksamkeit des Anwenders zum Zeitpunkt der Anwendereingabe gerichtet war. Dies kann als zusätzliches Kriterium dafür verwendet werden zu ermitteln, ob die Anwendereingabe anhand der Kraftwirkung verfälscht worden ist oder ob der Anwender die Kraftwirkung hat kommen sehen und gegebenenfalls erfolgreich kompensieren können. Die Blickrichtung des Anwenders zum Zeitpunkt der Anwendereingabe kann somit als zusätzliches Kriterium für die Verfälschung der Anwendereingabe gesehen werden.
  • Das sensorgestützte Ermitteln der Kraftwirkung kann beispielsweise mittels eines Lenkwinkelsensors erfolgen. Wird die Anwenderschnittstelle in einem Fahrzeug geführt, kann ein Lenkwinkel des Fahrzeugs während der Fahrt darüber Auskunft geben, inwiefern eine Kraftwirkung durch den Anwender während der Anwendereingabe berücksichtigt werden konnte, oder nicht. Wenn es sich beispielsweise um ein manuell durch den Anwender geführtes Fortbewegungsmittel handelt, kann der Lenkwinkel als dem Anwender sehr gut bekannt angenommen und die Anwendereingabe und die aufgrund desselben resultierenden Kraftwirkungen wohl bekannt angenommen werden. Handelt es sich jedoch um eine automatisch geführte Fahrsituation, kann der Lenkwinkel dem Anwender weniger gut bekannt gewesen und daher auch vom Anwender weniger exakt berücksichtigt worden sein. Beispielsweise kann der Anwender das Lenkrad aktuell (während der Anwendereingabe) überhaupt nicht im Blick gehabt haben oder es ist kein Lenkrad/anderweitiger Hinweis auf einen aktuellen Lenkwinkel im Fahrzeug vorhanden. Im Zusammenwirken mit der Ermittlung des Lenkwinkels kann auch eine Veränderung des Lenkwinkels und/oder eine Geschwindigkeit des Fortbewegungsmittels erfolgen, um die auftretenden Seitenkräfte des Fortbewegungsmittels zu ermitteln. Aus diesen können sich die Kraftwirkungen auf das Eingabemittel und/oder auf die berührungsempfindliche Oberfläche ergeben, je nachdem, wie die berührungsempfindliche Oberfläche und das Eingabemittel an das Fortbewegungsmittel angebunden sind.
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird eine Anwenderschnittstelle vorgeschlagen, welche Bestandteil eines Smartphones, eines Fortbewegungsmittels, eines Smart Wearables, eines Drahtloskommunikations-Endgerätes, o.ä., sein kann. Die Anwenderschnittstelle weist einen Dateneingang, eine Auswerteeinheit und einen Datenausgang auf. Die Anwenderschnittstelle ist daher eingerichtet, mittels des Dateneingangs eine Anwendereingabe mittels eines Eingabemittels über eine berührungsempfindliche Oberfläche zu ermitteln. Zusätzlich ist die Anwenderschnittstelle mittels des Dateneingangs eingerichtet, eine Kraftwirkung und/oder eine Bewegung, welche während der Anwendereingabe in eine Richtung senkrecht zu einer Oberflächennormalen der berührungsempfindlichen Oberfläche auf das Eingabemittel wirkt, sensorgestützt zu ermitteln. Mit anderen Worten kann die Kraftwirkung bzw. die Bewegung dafür verantwortlich gemacht werden, dass die geplante Trajektorie des Eingabemittels bezüglich der berührungsempfindlichen Oberflächen unvorhersehbar gestört wird. Die Anwenderschnittstelle ist somit eingerichtet, anhand der Anwendereingabe und der Kraftwirkung zu ermitteln, dass ein durch die Anwendereingabe betätigter Oberflächenbereich der berührungsempfindlichen Oberfläche nicht vom Anwender adressiert worden ist. Mit anderen Worten werden die Tatsache bzw. eine Wahrscheinlichkeit dafür ermittelt, dass der Anwender die tatsächlich bediente Schaltfläche eigentlich nicht bedienen wollte, sondern die berührungsempfindliche Oberfläche in einem anderen Segment manipuliert und/oder berührt werden sollte. Somit kann über den Datenausgang ein Signal ausgegeben werden, dass die tatsächlich erfolgte Anwenderschnittstelle nicht, zunächst nicht oder in vordefinierter anderer Weise ausgewertet wird und eine entsprechend andere Funktion ausgeführt wird. Somit ist die Anwenderschnittstelle eingerichtet, die Merkmale, Merkmalskombinationen und die sich aus diesen ergebenden Vorteile des erfindungsgemäßen Verfahrens derart ersichtlich in entsprechender Weise auszuführen, dass zur Vermeidung von Wiederholungen auf die obigen Ausführungen verwiesen wird.
  • Gemäß einem dritten Aspekt der vorliegenden Erfindung wird ein Fortbewegungsmittel oder Smart Wearable oder ein Drahtloskommunikations-Endgerät vorgeschlagen, welches eine Anwenderschnittstelle gemäß dem zweitgenannten Erfindungsaspekt aufweist. Somit können das Fortbewegungsmittel, das Smart Wearable oder das Drahtloskommunikations-Endgerät ebenfalls die oben genannten Merkmale, Merkmalskombinationen und Vorteile ausführen, ohne dass es einer eigenen Diskussion der obigen Merkmale bedarf.
  • Gemäß einem Aspekt der vorliegenden Erfindung besteht das Bestreben darin einzuschätzen, ob eine aktuelle Eingabe bei einem Bedienelement tatsächlich von einer Person so gewollt war oder nicht. Wird mit einer genügend hohen Wahrscheinlichkeit eine Eingabe als ungewollt bewertet, wird die Eingabe entweder nicht umgesetzt oder nicht sofort umgesetzt (Timer bis zum Ablauf der Umsetzung mit Möglichkeit der Anwenderintervention) oder es wird sogar ermittelt, was die ursprünglich tatsächlich gewollte Eingabeabsicht des Anwenders war und diese dann gegebenenfalls sofort oder mittelbar (ebenfalls nach Ablauf eines Timers mit Interventionsmöglichkeit für den Anwender) umgesetzt. Die Wahrscheinlichkeit für eine gegebenenfalls nicht gewollte Betätigung eines Bedienelements kann beispielsweise anhand erfassbarer Messwerte im Umfeld des Bedienelementes (Eingabemittel) und/oder anhand erfassbarer Messwerte an dem betätigten Oberflächenbereich alternativ oder zusätzlich durch die Tatsache, dass im Kontext bestimmte ablenkende Ereignisse sensorisch festgestellt worden sind, ermittelt werden. Beispielsweise können Kameraaufnahmen und/oder Mikrofonaufnahmen im Umfeld des Anwenders angefertigt werden und Ablenkungspotential einerseits ermittelt und der Fokus einer Aufmerksamkeit des Anwenders andererseits ermittelt werden.
  • Ein Bedienelement kann beispielsweise ein Interaktionselement einer grafischen Benutzeroberfläche (GUI) oder eine mechanische Bedienvorrichtung (z.B. ein mechanischer Schalter) sein. So soll also z.B. eine getätigte Eingabe auf einer Touch-Oberfläche oder über eine (Hardware-)Taste mit einer Wahrscheinlichkeit dafür belegt werden, ob sie tatsächlich wie ausgeführt der Absicht des Anwenders entsprach.
  • Anhand einer Gesten-/Bewegungserkennung am Nutzer kann erkannt werden, dass die Bewegung des Nutzers gegebenenfalls zum Zeitpunkt der Eingabe unkontrolliert war und deshalb die Eingabe z.B. auf einem Touch-Display oder Hardware-Tasten ignoriert oder anders interpretiert werden soll, da die Wahrscheinlichkeit für eine unbeabsichtigte Eingabe oberhalb eines vorgegebenen Schwellwertes liegt. Diese Wahrscheinlichkeit kann bestimmt werden mit:
    • - Wearables bzw. Smart Wearables an der Person/am Anwender;
    • - Bewegungs- und/oder Ortungssensoren im Raum am Körper des Anwenders wie z.B. an der Hand (smarter Ring, Smartwatch, Armband) oder in der Kleidung (z.B. im Ärmel eines Bekleidungsstücks oder in einem Handschuh;
    • - Kameraufnahmen vom Anwender vor und/oder während der Bedienung mittels einer Kamera incl. Bildverarbeitung plus Objekterkennung plus Gesten und/oder Bewegungsinterpretation und/oder Blickrichtungserkennung.
  • Auf diese Weise kann z.B. festgestellt werden, dass
    • - z.B. an einem Touch-Display ein Überschreiten von Beschleunigungsschwellwerten in einem vorgegebenen Zeitraum vor der Eingabe oder zum Zeitpunkt der Eingabe stattfand (z.B. kann dies eine Auswirkung vom Überfahren eines Schlaglochs oder einer Bodenwelle gewesen sein, und der Nutzer konnte nur unkontrolliert eine Eingabe ausführen). Es besteht dann also eine ausreichende Wahrscheinlichkeit dafür, dass eine nicht gewünschte Eingabe seitens des Nutzers getätigt wurde;
    • - die Berührung des Displays innerhalb eines vorgegebenen Zeitfensters (Reaktionszeit plus vordefinierter Betrag von X Sekunden) nach Wechsel einer Bedienoberfläche von einem alten auf ein neues Menü mit anderen bzw. anders sortierten Bedienbuttons erfolgte. Nach dem Umschalten auf eine neue Bedienoberfläche konnte der Nutzer also gar nicht so schnell reagiert haben, um eine korrekte Eingabe zu tätigen. Diese Eingabe wäre dann mit hoher Wahrscheinlichkeit nicht gewollt und kann erfindungsgemäß automatisch ignoriert oder sogar korrigiert werden. Wird erkannt, dass die Eingabe des Nutzers mit einer genügend hohen Wahrscheinlichkeit nicht gewollt war, kann wie folgt damit umgegangen werden:
    • - die Eingabe durch den Anwender kann beispielsweise als nicht gültig gewertet bzw. ignoriert werden und es wird dem Anwender mitgeteilt, dass die Eingabe erforderlichenfalls zu wiederholen wäre;
    • - es kann im Ansprechen auf die Ermittlung einer hinreichend hohen Sicherheit dahingehend, was vom Anwender tatsächlich intendiert war, eine Meldung ausgegeben werden, um vergrößerte Schaltflächen zur Verfügung zu stellen, mittels derer der Anwender zwischen den beiden Möglichkeiten auswählen kann. Alternativ oder zusätzlich kann ein Timer gestartet werden, welcher eine voreingestellte Funktion auslöst, wenn vor Ablauf des Timers keine anderweitige Auswahl durch den Anwender erfolgt;
    • - die Eingabe durch einen Nutzer kann automatisch korrigiert werden. Es kann z.B. festgestellt werden, dass der Nutzer gar nicht so schnell reagiert haben konnte, um beim Wechsel von einer alten zu einer neuen Bedienoberfläche eine korrekte Eingabe auf der neu dargestellten Bedienoberfläche zu tätigen. Dabei wird festgestellt, dass die Eingabe also zu der bisherigen Bedienoberfläche gehört hat. Es kann nach dem Wechsel auf eine neue Bedienoberfläche trotzdem die Eingabe für die alte Bedienoberfläche gewertet werden und damit z.B. eine gewünschte Funktion ausgeführt werden. Es kann aber auch anhand der Bewegungen (z.B. mithilfe von Bewegungssensoren oder der Auswertung von Kameraaufnahmen oder eines Signals eines Beschleunigungssensors) genügend genau darauf geschlossen werden, welche Eingabe der Nutzer tatsächlich tätigen wollte.
  • In die Wahrscheinlichkeitsbestimmung, ob eine auszuführende Funktion durch die Eingabe seitens des Nutzers wirklich gewünscht ist bzw. eine Fehleingabe ausgeführt wurde, kann der Kontext einbezogen werden (also inwieweit er z.B. durch das Umfeld oder den eigenen Zustand und/oder eine Fahrsituation bei der Eingabe gestört wurde). Mögliche Einflussgrößen sind die Folgenden:
    • - Umgebungsbedingungen: Lautstärke im Fahrzeug und außerhalb, Lichtintensität, Lichtverhältnisse, Lufttemperatur (außen und/oder in einer Fahrzeugkabine), Wetter;
    • - Nutzerzustände: Haltung, Bewegung, Gestik, Gesundheitszustand, Müdigkeitszustand, Stresszustand, Bio-Vital-Daten, Gesprächssituation in einer Fahrzeugkabine, Telefongespräch;
    • - Kalenderinformationen bezüglich geplanter oder vergangener Termine, welche Hinweis auf Auffassungsgabe und Reaktionsvermögen des Anwenders geben;
    • - Tageszeit/Wochentag/Jahreszeit: beispielsweise kann der Anwender morgens entspannter als abends bzw. wochentags angespannter als am Wochenende sein. Die Jahreszeit und der Pollenflug können den Anwender bezüglich seiner Sinne und Auffassungsgabe charakterisieren;
    • - Gegebenenfalls kann die Anzahl der Mitfahrer im Fortbewegungsmittel und/oder die Identität/das Alter (insbesondere Kinder) der erkannten Mitfahrer berücksichtigt werden;
    • - Mobilitätsart (zu Fuß, mit dem Fahrrad, mit dem Auto, mit der S-Bahn, usw.). Insbesondere kann ein Wechsel der Mobilitätsform automatisch ermittelt werden und im Ansprechen darauf die Auswertung dahingehend geändert werden, dass die nun wegfallenden Sensoren nicht mehr verwendet werden, anstelle dieser jedoch die Sensoren des neu verwendeten Verkehrsmittels in die Ermittlung von Kraftwirkung und Anwendereingabe einbezogen werden. Insbesondere betrifft dies Beschleunigungssensoren, welche durch die neue Fortbewegungsart fortan zur Verfügung stehen. Die Art des Bedienelements selbst und auf welchem Objekt sich das Bedienelement befindet und wie häufig bereits in der Vergangenheit Fehleingaben durch den Anwender getätigt worden sind können abgespeichert werden. Beispielsweise kann sich eine solche Häufigkeit auf eine vordefinierte Touch-Oberfläche, eine bestimmte Schaltfläche, ein bestimmtes Bedienelement auf einem Smartphone oder einer Smartwatch, einen Oberflächenbereich auf einer smarten Kleidung (Smartcloth) oder Fahrzeuge jeglicher Art beziehen.
      • • Die Berührung des Displays erfolgt innerhalb eines vorgegebenen Zeitfensters (z.B. innerhalb der Reaktionszeit) nach dem Wechsel der Bedienoberfläche von einem alten auf ein neues Menu mit anderen bzw. anders sortierten Bedienbuttons. Nach dem Umschalten auf eine neue Bedienoberfläche konnte der Nutzer also gar nicht so schnell reagiert haben, um eine beabsichtigte, korrekte Eingabe auf der neuen Bedienoberfläche zu tätigen. Diese Eingabe wäre dann mit hoher Wahrscheinlichkeit nicht gewollt. Es wird also festgestellt, dass die Eingabe zu der alten Bedienoberfläche gehört. Es kann dann nach dem Wechsel auf eine neue Bedienoberfläche z.B. trotzdem die Eingabe (die z.B. innerhalb der Reaktionszeit erfolgte) für die alte Bedienoberfläche gewertet werden und damit z.B. eine gewünschte Funktion ausgeführt werden.
      • • In die Wahrscheinlichkeitsbestimmung, ob eine auszuführende Funktion durch die Eingabe seitens des Nutzers wirklich gewünscht ist bzw. eine Fehleingabe ausgeführt wurde, kann das Umfeld und der Zustand des Nutzers einbezogen werden (also inwieweit er z.B. durch das Umfeld oder den eigenen Zustand bei der Eingabe gestört wurde):
        • ○ Umgebungsbedingungen des Nutzers: Lautstärke im Fahrzeug und außerhalb, Lichtintensität, Lichtverhältnisse (Blendungen), Sichtverhältnisse, Lufttemperatur (außen und/oder in einer Fahrzeugkabine), Wetter (ob der Nutzer z.B. nasse Kleidung trägt)
        • ◯ Nutzerzustände: Gesundheitszustand, Stresszustand, thermischer Zustand (z.B. der Nutzer ist unterkühlt), Bio-Vital-Daten, Müdigkeitszustand, Gesprächssituation in einer Fahrzeugkabine oder Telefongespräch, Haltung, Bewegungen, Gestik
        • ◯ Fahrsituation (z.B. Abbiegesituation im Stadtverkehr)
        • ◯ Kalenderinformationen (geplante oder vergangene Termine)
        • ○ Tageszeit/ Wochentag/ Jahreszeit
        • ○ Art des Bedienelements selber und auf welchem Objekt es sich befindet und wie häufig bereits in der Vergangenheit dabei Fehleingaben durch den Nutzer getätigt worden sind
        • ○ ggf. Anzahl der Mitfahrer in einem Fahrzeug, erkannte individuelle Mitfahrer ○ Wearables an der Person selber erkennen unkoordinierte Bewegungen der Person (smarter Ring, Smartwatch, smarter Armband, smarte Kleidung mit Sensoren)
  • Getätigte Eingaben, die besonders störend für den Nutzer als Fahrzeugführer sein könnten und ihn z.B. bei der Fahrt (aus Erfahrung) besonders Ablenken könnten oder so störend sein könnten, dass er sich für eine Wahrscheinlichkeit oberhalb eines Wahrscheinlichkeitsschwellwertes für eine gewisse Zeit nicht auf das Fahren konzentrieren kann, benötigen eine höhere Wahrscheinlichkeit für eine gewollte Eingabe als Eingaben, die weniger Einfluss auf die Konzentrationsfähigkeit oder auf den körperlichen Zustand haben. So kann eine Verstellung des Klimasystems mit einer Luftströmung in Richtung Augen ein Schließen der Augen verursachen oder das Einstellen von schlagartig lauter Musik oder das Öffnen der Fenster bei hohen Fahrgeschwindigkeiten einen Schreckzustand verursachen. In solchen Fällen sollte die ermittelte Wahrscheinlichkeit einer gewollten Eingabe höher sein als in anderen Fällen, wo z.B. nur ein anderer Radiosender eingestellt wird.
  • Im Folgenden wird die Erfindung anhand von Ausführungsbeispielen genauer erläutert. Hierzu zeigen:
    • 1 eine schematische Darstellung eines Ausführungsbeispiels eines erfindungsgemäß ausgestalteten Fortbewegungsmittels mit einem Anwender, welcher eine intelligente Hose als Ausführungsbeispiel eines Smart Wearables trägt und einen Touch-Screen des Fortbewegungsmittels als Ausführungsbeispiel eines Drahtloskommunikations-Endgerätes bedient;
    • 2 eine schematische Darstellung eines Dateneingangs eines Ausführungsbeispiels einer erfindungsgemäßen Anwenderschnittstelle; und
    • 3 ein Flussdiagramm veranschaulichend Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens zum Betreiben einer Anwenderschnittstelle.
  • Ausführungsformen der Erfindung
  • 1 zeigt einen PKW 10 als Ausführungsbeispiel eines erfindungsgemäßen Fortbewegungsmittels, innerhalb dessen ein Fahrer 5 als Anwender Platz genommen hat. Der Fahrer 5 befindet sich im Erfassungsbereich einer Innenraumkamera 6 als Sensor, welche mit einem Dateneingang 14 eines elektronischen Steuergerätes 12 informationstechnisch verbunden ist. Der Dateneingang 14 ist ebenfalls mit einer touch-sensitiven Oberfläche 3 des Touch-Screens 4 verbunden. Der Touch-Screen 4 selbst ist mit einem Datenausgang 13 des elektronischen Steuergerätes 12 verbunden. Innerhalb des elektronischen Steuergerätes 12 ist ein Beschleunigungssensor 7 angeordnet, der eine Fahrt des PKWs 10 auf der Straße 9 über eine Bodenunebenheit 8 erkennt. Das Signal des Beschleunigungssensors 7 verrät der Anwenderschnittstelle 1, dass der PKW 10 eine Aufwärtsbewegung in Richtung des Pfeils P1 ausführt, welche einen Anteil in Richtung senkrecht zu einer Oberflächennormalen P2 auf dem Touch-Screen 4 und seiner berührungsempfindlichen Oberfläche 3 aufweist. Das Eingabemittel 2 (Hand) des Fahrers 5 wandert aufgrund der Bewegung aus einer beabsichtigten Trajektorie aus und verfehlt sein Ziel auf der berührungsempfindlichen Oberfläche 3. Entsprechendes gilt für einen Bereich der berührungsempfindlichen Oberfläche 3 der Smart Cloth 11, welche der Fahrer 5 während der Fahrt zu bedienen versucht. In Kenntnis der Aufwärtsbewegung in Richtung des Pfeils P1 kann die Anwenderschnittstelle 1 die tatsächlich vom Fahrer 5 bediente Position auf der berührungsempfindlichen Oberfläche 3 dahingehend korrigieren, dass ein ohne die Aufwärtsbewegung des PKWs 10 aller Wahrscheinlichkeit nach berührter Oberflächenbereich als bedient angenommen und die mit diesem assoziierte Funktion ausgelöst wird.
  • 2 zeigt Eingangsgrößen einer Anwenderschnittstelle eines zweiten Ausführungsbeispiels der vorliegenden Erfindung. Die Auswerteeinheit 12 weist einen Dateneingang 14 auf, welcher einen Lenkwinkel φ, eine Reisegeschwindigkeit V, eine erste Beschleunigung a1 und eine zweite Beschleunigung a2 erhält. Die erste Beschleunigung a1 ist diejenige Beschleunigung, welche die Anwenderschnittstelle vollzieht bzw. erfährt. Die zweite Beschleunigung a2 ist diejenige Beschleunigung, welche das Smart Wearable an der Hand des Anwenders erfährt. Durch Differenzbildung kann die Differenzbeschleunigung und somit die Beeinflussung der Trajektorie zwischen berührungsempfindlicher Oberfläche und Eingabemittel ermittelt werden. Indem dieser Einfluss rechnerisch rückgängig gemacht wird, kann die ursprünglich vom Anwender adressierte Position ermittelt und die mit dieser assoziierte Funktion ausgelöst werden.
  • 3 zeigt Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens zum Betreiben einer Anwenderschnittstelle. In einem ersten Schritt 100 wird eine Anwendereingabe mittels eines Eingabemittels in Form einer Hand eines Anwenders über eine berührungsempfindliche Oberfläche ermittelt. Dies kann über die kapazitive oder anderweitig berührungsempfindlich ausgestaltete Oberfläche der Anwenderschnittstelle erfolgen. In Schritt 200 wird sensorgestützt eine Kraftwirkung und/oder eine Bewegung ermittelt, welche während der Anwendereingabe in eine Richtung senkrecht zu einer Oberflächennormalen der berührungsempfindlichen Oberfläche auf das Eingabemittel wirkt. Mit anderen Worten wird ein zeitlicher Zusammenhang zwischen der Kraftwirkung/der Bewegung und dem Bedienvorgang der berührungsempfindlichen Oberfläche derart ermittelt, dass die Kraftwirkung/die Bewegung als für den Anwender unvorhersehbar klassifiziert werden kann. In Schritt 300 wird anhand der Anwendereingabe und den Kenntnissen über die Kraftwirkung ermittelt, dass ein durch die Anwendereingabe betätigter Oberflächenbereich der Oberfläche nicht von dem Anwender adressiert worden ist. Mit anderen Worten wird die Anwendereingabe als irrtümlich bzw. verfälscht klassifiziert und die mit der tatsächlich berührten Schaltfläche/dem tatsächlich betätigten Bedienelement assoziierte Funktion nicht ausgelöst. Vielmehr kann die Anwenderschnittstelle einen Hinweis darüber ausgeben, dass nach Ablauf eines (dargestellten) Timers die vermutlich vom Anwender adressierte Schaltfläche bzw. der vermutlich vom Anwender adressierte Oberflächenbereich als betätigt ausgewertet wird, sofern der Anwender nicht rechtzeitig interveniert.
  • Bezugszeichenliste
  • 1
    Anwenderschnittstelle
    2
    Hand/Eingabemittel
    3
    berührungsempfindliche Oberfläche
    4
    Touch-Screen
    5
    Fahrer/Anwender
    6
    Innenraumkamera
    7
    Beschleunigungssensor
    8
    Bodenunebenheit
    9
    Fahrbahn
    10
    PKW
    11
    Smartcloth
    12
    elektronisches Steuergerät
    13
    Datenausgang
    14
    Dateneingang
    100 bis 300
    Verfahrensschritte
    a1
    erste Beschleunigung
    a2
    zweite Beschleunigung
    P1
    vertikale Richtung
    P2
    Oberflächennormale
    V
    Reisegeschwindigkeit
    φ
    Lenkwinkel
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 20140160048 A1 [0005]
    • US 20170364207 A1 [0006]
    • US 20140062893 A1 [0007]

Claims (11)

  1. Verfahren zum Betreiben einer Anwenderschnittstelle (1) umfassend die Schritte: • Ermitteln (100) einer Anwendereingabe mittels eines Eingabemittels (2) über eine berührungsempfindliche Oberfläche (3), • Sensorgestütztes Ermitteln (200) einer Kraftwirkung, welche während der Anwendereingabe in eine Richtung (P1) senkrecht zu einer Oberflächennormalen (P2) der berührungsempfindlichen Oberfläche (3) auf das Eingabemittel (2) wirkt, und • Ermitteln (300) anhand der Anwendereingabe und der Kraftwirkung, dass ein durch die Anwendereingabe betätigter Oberflächenbereich der Oberfläche nicht von dem Anwender (5) adressiert worden ist.
  2. Verfahren nach Anspruch 1, wobei die Anwendereingabe mittels der berührungsempfindlichen Oberfläche (3) ermittelt wird.
  3. Verfahren nach Anspruch 1 oder 2, wobei die berührungsempfindliche Oberfläche (3) Bestandteil eines - Smartphones und/oder - Tablets und/oder - Smart-Wearables (11) und/oder - Fortbewegungsmittels (10) ist.
  4. Verfahren nach einem der vorstehenden Ansprüche, wobei die Anwendereingabe mittels einer Kamera (6) überwacht, insbesondere ermittelt, wird.
  5. Verfahren nach einem der vorstehenden Ansprüche, wobei die Kraftwirkung mittels eines Beschleunigungssensors (7) ermittelt wird.
  6. Verfahren nach einem der vorstehenden Ansprüche, wobei die Kraftwirkung mittels eines smart Wearables (11) ermittelt wird.
  7. Verfahren nach Anspruch 6, wobei die Kraftwirkung als eine Differenz zwischen einem mittels eines Beschleunigungssensors des smart Wearables (11) aufgenommenen Signals und einem mittels eines weiteren Beschleunigungssensors (7) aufgenommenen Signal ermittelt wird.
  8. Verfahren nach einem der vorstehenden Ansprüche weiter umfassend: - Ermitteln (00) einer Blickrichtung eines Anwenders (5) während der Anwendereingabe und in Abhängigkeit der Blickrichtung - Ermitteln (00), dass ein durch das Eingabemittel (2) betätigter Oberflächenbereich der Oberfläche nicht von dem Anwender (5) adressiert worden ist.
  9. Verfahren nach einem der vorstehenden Ansprüche, wobei das sensorgestützte Ermitteln der Kraftwirkung mittels eines Lenkwinkelsensors, insbesondere in Verbindung mit einer Reisegeschwindigkeit erfolgt.
  10. Anwenderschnittstelle umfassend: • einen Dateneingang (14), • eine Auswerteeinheit (12) und • einen Datenausgang (13), wobei die Anwenderschnittstelle (1) mittels des Dateneingangs (14) eingerichtet ist, • eine Anwendereingabe mittels eines Eingabemittels (2) über eine berührungsempfindliche Oberfläche (3) zu ermitteln, • eine Kraftwirkung, welche während der Anwendereingabe in eine Richtung (P1) senkrecht zu einer Oberflächennormalen (P2) der berührungsempfindlichen Oberfläche auf das Eingabemittel (2) wirkt, sensorgestützt zu ermitteln, und • anhand der Anwendereingabe und der Kraftwirkung zu ermitteln, dass ein durch die Anwendereingabe betätigter Oberflächenbereich der berührungsempfindlichen Oberfläche (3) nicht von dem Anwender (5) adressiert worden ist.
  11. Fortbewegungsmittel (10) oder Smart Wearable (11) oder Drahtloskommunikationsendgerät umfassend eine Anwenderschnittstelle (1) nach Anspruch 10.
DE102022203454.6A 2022-04-06 2022-04-06 Fortbewegungsmittel, Anwenderschnittstelle und Verfahren zum Betreiben einer Anwenderschnittstelle Pending DE102022203454A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022203454.6A DE102022203454A1 (de) 2022-04-06 2022-04-06 Fortbewegungsmittel, Anwenderschnittstelle und Verfahren zum Betreiben einer Anwenderschnittstelle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022203454.6A DE102022203454A1 (de) 2022-04-06 2022-04-06 Fortbewegungsmittel, Anwenderschnittstelle und Verfahren zum Betreiben einer Anwenderschnittstelle

Publications (1)

Publication Number Publication Date
DE102022203454A1 true DE102022203454A1 (de) 2023-10-12

Family

ID=88094032

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022203454.6A Pending DE102022203454A1 (de) 2022-04-06 2022-04-06 Fortbewegungsmittel, Anwenderschnittstelle und Verfahren zum Betreiben einer Anwenderschnittstelle

Country Status (1)

Country Link
DE (1) DE102022203454A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140062893A1 (en) 2012-08-28 2014-03-06 Honeywell International Inc. System and method for reducing the probability of accidental activation of control functions on a touch screen
US20140160048A1 (en) 2012-12-04 2014-06-12 L3 Communications Corporation Touch sensor controller responsive to environmental operating conditions
US20170364207A1 (en) 2016-06-20 2017-12-21 Ge Aviation Systems Limited Correction of vibration-induced error for touch screen display in an aircraft

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140062893A1 (en) 2012-08-28 2014-03-06 Honeywell International Inc. System and method for reducing the probability of accidental activation of control functions on a touch screen
US20140160048A1 (en) 2012-12-04 2014-06-12 L3 Communications Corporation Touch sensor controller responsive to environmental operating conditions
US20170364207A1 (en) 2016-06-20 2017-12-21 Ge Aviation Systems Limited Correction of vibration-induced error for touch screen display in an aircraft

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XU, Xuhai [et al.]: Recognizing unintentional touch on interactive tabletop. Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies, 2020, 4. Jg., Nr. 1, S. 1-24.

Similar Documents

Publication Publication Date Title
DE102016001314B4 (de) Bedienvorrichtung und Verfahren zum Empfangen einer Zeichenfolge von einem Benutzer in einem Kraftfahrzeug
DE102013010932A1 (de) Verfahren zum Betreiben einer Bedienschnittstelle, Bedienschnittstelle sowie Kraftfahrzeug mit einer Bedienschnittstelle
DE102009032069A1 (de) Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug
DE102012215407A1 (de) Bereitstellen einer Eingabe für ein Bedienelement
EP3096969B1 (de) Anwenderschnittstelle und verfahren zum steuern einer lautstärke mittels einer berührungssensitiven anzeigeeinheit
EP2941685B1 (de) Bedienverfahren und bediensystem in einem fahrzeug
DE102017201799A1 (de) Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Anwenderunterscheidung
DE102007011543A1 (de) Verfahren zum Bedienen von Einrichtungen eines Fahrzeugs und Bedienvorrichtung für solche Einrichtungen
DE102013227220A1 (de) Blindsteuerungssystem für fahrzeug
DE102013021931A1 (de) Tastenlos bedienbare Bedienvorrichtung
DE102015201901B4 (de) Bestimmung einer Position eines fahrzeugfremden Objekts in einem Fahrzeug
DE102014221053B4 (de) Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug
DE102022203454A1 (de) Fortbewegungsmittel, Anwenderschnittstelle und Verfahren zum Betreiben einer Anwenderschnittstelle
DE102017206111A1 (de) Bedienvorrichtung, verfahren und fahrzeug
DE102014218504A1 (de) Fahrzeug mit frei positionierbaren haptischen Bedienelementen
EP4003773B1 (de) Verfahren und vorrichtung zur aktivierung eines reinigungsmodus einer touchbedienbaren schaltfläche
DE102013021814A1 (de) Bedienvorrichtung mit Eyetracker
DE102014001183B4 (de) Verfahren und System zum Auslösen wenigstens einer Funktion eines Kraftwagens
DE102017105957B3 (de) Bedienelement zum Schalten einer elektronischen Einrichtung
WO2020193392A1 (de) Verfahren zur zielführung zu einer zielperson, elektronische vorrichtung der zielperson und elektronische vorrichtung des abholers sowie kraftfahrzeug
DE102015201722A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
EP3143483B1 (de) Bedienverfahren und bediensystem in einem fahrzeug
DE102013013168A1 (de) Verfahren zum Betreiben eines Infotainment-Systems eines Kraftwagens und Infotainment-System für einen Kraftwagen
DE102017219155A1 (de) Verfahren zur Funktionsauslösung auf beliebigen Flächen
DE102012218155A1 (de) Erleichtern der Eingabe auf einer berührungsempfindlichen Anzeige in einem Fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication