DE112017006949T5 - Berührungsgestenbeurteilungseinrichtung, Berührungsgestenbeurteilungsverfahren,Berührungsgestenbeurteilungsprogramm und Berührungsfeldeingabeeinrichtung - Google Patents

Berührungsgestenbeurteilungseinrichtung, Berührungsgestenbeurteilungsverfahren,Berührungsgestenbeurteilungsprogramm und Berührungsfeldeingabeeinrichtung Download PDF

Info

Publication number
DE112017006949T5
DE112017006949T5 DE112017006949.1T DE112017006949T DE112017006949T5 DE 112017006949 T5 DE112017006949 T5 DE 112017006949T5 DE 112017006949 T DE112017006949 T DE 112017006949T DE 112017006949 T5 DE112017006949 T5 DE 112017006949T5
Authority
DE
Germany
Prior art keywords
gesture
mode
touch
judgment
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE112017006949.1T
Other languages
English (en)
Inventor
Kotoyu Sasayama
Yuichi Sasaki
Takuya Maekawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112017006949T5 publication Critical patent/DE112017006949T5/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Eine Berührungsgestenbeurteilungseinrichtung 110 umfasst eine Vorgangsinformationeneingabeeinheit 11, eine Vorgangsbeurteilungseinheit 12, eine Benachrichtigungseinheit 13 und eine Anzeigesteuereinheit 14. Die Vorgangsbeurteilungseinheit 12 umfasst eine Anzeigekomponenteneingabebeurteilungseinheit 12a, eine Vollbildschirmeingabebeurteilungseinheit 12b und eine Vorgangsmodusumsschaltbeurteilungseinheit 12c. Die Vollbildschirmeingabebeurteilungseinheit 12b umfasst eine Gestenmodusbeurteilungseinheit 113. Die Gestenmodusbeurteilungseinheit 113 nimmt eine Modusabweichungsbeurteilung unter Verwendung eines Parameters eines Schiebemodus vor, wenn ein Berührungsgestenvorgang beurteilt wird, eine Schiebegeste zu sein, oder nimmt eine Modusabweichungsbeurteilung unter Verwendung eines Parameters eines Wählmodus vor, wenn der Berührungsgestenvorgang beurteilt wird, eine Wählgeste zu sein. Gesteneingabeinformationenbeurteilungseinheit 114 Berührungsfeld 120 einen In-Modus-Parameter 111, einen Außer-Modus-Parameter 112, eine Gestenmodusbeurteilungseinheit 113 und eine Gesteneingabeinformationenbeurteilungseinheit 114.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung bezieht sich auf eine Berührungsgestenbeurteilungseinrichtung, ein Berührungsgestenbeurteilungsverfahren und ein Berührungsgestenbeurteilungsprogramm zum Empfangen einer Eingabe von Vorgangsinformationen, die einem Berührungsgestenvorgang entsprechen, und Ausgeben eines Signals auf Grundlage der eingegebenen Vorgangsinformationen, und auf eine Berührungsfeldeingabeeinrichtung, die einen Berührungsgestenvorgang empfängt und ein Signal auf Grundlage des Berührungsgestenvorgangs ausgibt.
  • HINTERGRUND ZUM STAND DER TECHNIK
  • Wenn die Vorgänge zweier verschiedener Gesten bei der Eingabe von Informationen in ein Berührungsfeld durch Durchführen eines Berührungsvorgangs oder dergleichen ähnlich sind (z.B. ein Schiebevorgang mittels einer Zweipunktberührung und ein Wählvorgang mittels einer Zweipunktberührung), gibt es Fälle, in denen ein aktuell ausgeführter Gestenvorgang als eine andere Geste falsch eingeschätzt wird und die Eingabe nicht korrekt erfolgen kann.
  • Die Patentreferenz 1 offenbart ein Verfahren zum Beurteilen, ob ein in einem dreidimensionalen Raum durchgeführter Gestenvorgang zum nächsten Gestenvorgang umgeschaltet hat oder nicht, auf Grundlage der relativen Bewegung seit dem Zeitpunkt des Umschaltens zum Gestenvorgang unter Verwendung von vergangenen Gestenvorgangshistorienaufzeichnungen.
  • REFERENZEN ZUM STAND DER TECHNIK
  • PATENTREFERENZ
  • Patentreferenz 1: Japanische Patentanmeldung Veröffentlichungsnummer: 2012-528405
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • DURCH DIE ERFINDUNG ZU LÖSENDES PROBLEM
  • Die Patentreferenz 1, die einen Zustand zum Zeitpunkt des Umschaltens auf einen bestimmten Modus als Ausgangszustand betrachtet und einen Drehwinkel und eine Bewegungsdistanz vom Ausgangszustand beurteilt, enthält jedoch keine Beschreibung über das Ändern eines Schwellenwerts bezüglich einer Änderung gegenüber dem Ausgangszustand. Es besteht also das Problem, dass ein aktuell in einem bestimmten Modus ausgeführter Gestenvorgang fälschlicherweise als Geste in einem anderen Modus erkannt werden kann.
  • Ein Ziel der vorliegenden Erfindung, die zur Lösung des oben beschriebenen Problems gemacht wurde, ist es, die Fehlinterpretation eines Gestenvorgangs zu verhindern, der aktuell in einem bestimmten Modus als Geste in einem anderen Modus ausgeführt wird, und den Eingabevorgang durch Gesten zu erleichtern.
  • MITTEL ZUM LÖSEN DES PROBLEMS
  • Eine Berührungsgestenbeurteilungseinrichtung nach einem Aspekt der vorliegenden Erfindung ist eine Berührungsgestenbeurteilungseinrichtung, die Vorgangsinformationen von einem Berührungsfeld empfängt, das ein Vorgangsbild auf einem Bildschirm anzeigt, einen Berührungsgestenvorgang eines Benutzers empfängt und die Vorgangsinformationen entsprechend des Berührungsgestenvorgangs ausgibt, und Ausgabeinformationen auf Grundlage der Vorgangsinformationen erzeugt. Die Berührungsgestenbeurteilungseinrichtung umfasst: eine Vorgangsbeurteilungseinheit, die die Ausgabeinformationen auf Grundlage der Vorgangsinformationen für eine Anzeige auf dem Berührungsfeld erzeugt; und eine Anzeigesteuereinheit, die die Ausgabeinformationen empfängt und das Berührungsfeld veranlasst, ein Bild, das den Ausgabeinformationen entspricht, als das Vorgangsbild anzuzeigen. Die Vorgangsbeurteilungseinheit umfasst eine Vollbildschirmeingabebeurteilungseinheit, die die Ausgabeinformationen auf Grundlage der Vorgangsinformationen bestimmt, die einem Berührungsgestenvorgang entsprechen, der in einem Vollbildschirmeingabemodus durchgeführt wird, in dem Eingabeinhalt auf Grundlage eines Berührungsgestenvorgangs, der auf einem Vollbildschirm des Berührungsfelds durchgeführt wird, identifiziert wird. Die Vollbildschirmeingabebeurteilungseinheit umfasst: eine Gestenmodusbeurteilungseinheit, die beurteilt, ob ein Gestenmodus des Berührungsgestenvorgangs ein erster Gestenmodus oder ein zweiter Gestenmodus ist; einen ersten Parameter, der den ersten Gestenmodus betrifft; und einen zweiten Parameter, der den zweiten Gestenmodus betrifft und sich von dem ersten Parameter unterscheidet. Die Gestenmodusbeurteilungseinheit nimmt eine Modusabweichungsbeurteilung der Beurteilung von Abweichung vom ersten Gestenmodus unter Verwendung des ersten Parameters vor, wenn der Gestenmodus des Berührungsgestenvorgangs beurteilt wird, der erste Gestenmodus zu sein, und nimmt eine Modusabweichungsbeurteilung der Beurteilung von Abweichung vom zweiten Gestenmodus unter Verwendung des zweiten Parameters vor, wenn der Gestenmodus des Berührungsgestenvorgangs beurteilt wird, der zweite Gestenmodus zu sein.
  • Ein Berührungsgestenbeurteilungsverfahren nach einem anderen Aspekt der vorliegenden Erfindung ist ein Berührungsgestenbeurteilungsverfahren des Empfangens von Vorgangsinformationen von einem Berührungsfeld, das ein Vorgangsbild auf einem Bildschirm anzeigt, einen Berührungsgestenvorgang eines Benutzers empfängt und die Vorgangsinformationen entsprechend des Berührungsgestenvorgangs ausgibt, und des Erzeugens von Ausgabeinformationen auf Grundlage der Vorgangsinformationen. Das Berührungsgestenbeurteilungsverfahren umfasst: einen Vorgangsbeurteilungsschritt des Erzeugens der Ausgabeinformationen für eine Anzeige auf dem Berührungsfeld, auf Grundlage der Vorgangsinformationen; und einen Anzeigesteuerschritt des Empfangens der Ausgabeinformationen und des Veranlassens des Berührungsfeldes, ein Bild, das den Ausgabeinformationen entspricht, als das Vorgangsbild anzuzeigen. Der Vorgangsbeurteilungsschritt umfasst einen Vollbildschirmeingabebeurteilungsschritt des Bestimmens der Ausgabeinformationen auf Grundlage der Vorgangsinformationen, die einem Berührungsgestenvorgang entsprechen, der in einem Vollbildschirmeingabemodus durchgeführt wird, in dem Eingabeinhalt auf Grundlage eines Berührungsgestenvorgangs, der auf einem Vollbildschirm des Berührungsfelds durchgeführt wird, identifiziert wird. Der Vollbildschirmeingabebeurteilungsschritt umfasst einen Gestenmodusbeurteilungsschritt des Beurteilens, ob ein Gestenmodus des Berührungsgestenvorgangs ein erster Gestenmodus oder ein zweiter Gestenmodus ist. Der Gestenmodusbeurteilungsschritt wird auf Grundlage eines ersten Parameters ausgeführt, der den ersten Gestenmodus betrifft, und eines zweiten Parameters, der den zweiten Gestenmodus betrifft und sich vom ersten Parameter unterscheidet, nimmt eine Modusabweichungsbeurteilung der Beurteilung von Abweichung vom ersten Gestenmodus unter Verwendung des ersten Parameters vor, wenn der Gestenmodus des Berührungsgestenvorgangs beurteilt wird, der erste Gestenmodus zu sein, und nimmt eine Modusabweichungsbeurteilung der Beurteilung von Abweichung vom zweiten Gestenmodus unter Verwendung des zweiten Parameters vor, wenn der Gestenmodus des Berührungsgestenvorgangs beurteilt wird, der zweite Gestenmodus zu sein.
  • Eine Berührungsfeldeingabeeinrichtung gemäß einem anderen Aspekt der vorliegenden Erfindung ist eine Berührungsfeldeingabeeinrichtung, die umfasst: ein Berührungsfeld, das ein Vorgangsbild auf einem Bildschirm anzeigt, einen Berührungsgestenvorgang eines Benutzers empfängt und die Vorgangsinformationen entsprechend des Berührungsgestenvorgangs ausgibt; und eine Berührungsgestenbeurteilungseinrichtung, die auf Grundlage der Vorgangsinformationen die Vorgangsinformationen empfängt und eine Anzeige auf dem Berührungsfeld steuert. Die Berührungsgestenbeurteilungseinrichtung umfasst: eine Vorgangsbeurteilungseinheit, die auf Grundlage der Vorgangsinformationen für eine Anzeige auf dem Berührungsfeld einen Auswahlwert erzeugt; und eine Anzeigesteuereinheit, die den Auswahlwert empfängt und das Berührungsfeld veranlasst, ein Bild, das dem Auswahlwert entspricht, als das Vorgangsbild anzuzeigen. Die Vorgangsbeurteilungseinheit umfasst: eine Vorgangsmodusumschaltbeurteilungseinheit, die das Umschalten zwischen einem Anzeigekomponenteneingabemodus, in dem Eingabeinhalt auf Grundlage eines Berührungsgestenvorgangs, der auf einer auf dem Berührungsfeld als das Vorgangsbild angezeigten Anzeigekomponente durchgeführt wird, identifiziert wird, und einem Vollbildschirmeingabemodus, in dem der Eingabeinhalt auf Grundlage eines Berührungsgestenvorgangs, der auf einem Vollbildschirm des Berührungsfeldes durchgeführt wird, identifiziert wird; eine Anzeigekomponenteneingabebeurteilungseinheit, die auf Grundlage der Vorgangsinformationen im Anzeigekomponenteneingabemodus den Auswahlwert bestimmt; und eine Vollbildschirmeingabebeurteilungseinheit, die auf Grundlage der Vorgangsinformationen im Vollbildschirmeingabemodus den Auswahlwert bestimmt. Die Vollbildschirmeingabebeurteilungseinheit umfasst: eine Gestenmodusbeurteilungseinheit, die beurteilt, ob eine Art eines Gestenmodus des Berührungsgestenvorgangs ein erster Gestenmodus oder ein zweiter Gestenmodus ist; einen ersten Parameter, der den ersten Gestenmodus betrifft; und einen zweiten Parameter, der den zweiten Gestenmodus betrifft. Die Gestenmodusbeurteilungseinheit nimmt eine Modusabweichungsbeurteilung unter Verwendung des ersten Parameters vor, wenn die Art des Gestenmodus des Berührungsgestenvorgangs beurteilt wird, der erste Gestenmodus zu sein, und nimmt die Modusabweichungsbeurteilung unter Verwendung des zweiten Parameters vor, wenn die Art des Gestenmodus des Berührungsgestenvorgangs beurteilt wird, der zweite Gestenmodus zu sein.
  • WIRKUNG DER ERFINDUNG
  • Gemäß der vorliegenden Erfindung kann die Fehlinterpretation eines Gestenvorgangs, der aktuell in einem bestimmten Modus als Geste in einem anderen Modus ausgeführt wird, verhindert werden und der Eingabevorgang durch Gesten kann erleichtert werden.
  • Figurenliste
    • 1 ist ein funktionales Blockdiagramm, das eine schematische Konfiguration einer Berührungsfeldeingabeeinrichtung gemäß einer Ausführungsform der vorliegenden Erfindung zeigt.
    • 2 ist ein funktionales Blockdiagramm, das eine schematische Konfiguration einer Vollbildschirmeingabebeurteilungseinheit in der Ausführungsform zeigt.
    • 3 ist ein Diagramm, das ein Beispiel einer Hardware (H/W)-Konfiguration der Berührungsfeldeingabeeinrichtung gemäß der Ausführungsform zeigt.
    • Die 4(a) und 4(b) sind Diagramme, die ein Beispiel eines Bildschirms eines Berührungsfeldes und eines Berührungsgestenvorgangs auf der Berührungsfeldeingabeeinrichtung gemäß der Ausführungsform zeigen.
    • 5 ist ein Flussdiagramm, das einen Vorgang einer Berührungsgestenbeurteilungseinrichtung (Berührungsgestenbeurteilungsverfahren) in der Berührungsfeldeingabeeinrichtung gemäß der Ausführungsform zeigt.
    • 6 ist ein Flussdiagramm, das einen Vorgang einer Gestenmodusabweichungsbeurteilung zeigt, die in der Ausführungsform durch eine Gestenmodusbeurteilungseinheit vorgenommen wird.
  • AUSFÜHRUNGSFORM ZUM AUSFÜHREN DER ERFINDUNG
  • Eine Ausführungsform der vorliegenden Erfindung wird nachfolgend unter Bezugnahme auf die begleitenden Zeichnungen beschrieben. In der folgenden Beschreibung umfasst eine Berührungsfeldeingabeeinrichtung ein Berührungsfeld mit einem Bildschirm, der für berührungsbasierte Vorgänge (Vorgangsbildschirm) verwendet wird, und eine Berührungsgestenbeurteilungseinrichtung, die Vorgangsinformationen auf dem Berührungsfeld empfängt.
  • Die Berührungsfeldeingabeeinrichtung ist anwendbar auf einen Vorgangsbildschirm eines elektrischen Geräts als Objektausstattung, einen Vorgangsbildschirm einer Kamera als Objektausstattung, einen Vorgangsbildschirm einer Betriebsausstattung als Objektausstattung, einen in einem Automobil, einem Schiff, einem Flugzeug oder dergleichen als Objektausstattung installierten Vorgangsbildschirm, einen Vorgangsbildschirm eines mobilen Informationsendgerätes wie einem Smartphone oder einem Tablet-Endgerät als Objektausstattung und so weiter, indem die Berührungsfeldeingabeeinrichtung in der Objektausstattung installiert oder die Berührungsfeldeingabeeinrichtung kommunikativ mit der Objektausstattung verbunden wird.
  • Die Berührungsfeldeingabeeinrichtung ist in der Lage, ein Signal (z.B. der Auswahlwert) auf der Grundlage von Betriebsinformationen, die über den Vorgangsbildschirm des Berührungsfelds mittels eines Berührungsgestenvorgangs (auch als „Berührungsvorgang“ bezeichnet) eingegeben werden, an Objektausstattungen, die mit der Berührungsfeldeingabeeinrichtung ausgestattet sind, oder an Objektausstattungen, die mit der Berührungsfeldeingabeeinrichtung kommunizieren können, zu liefern.
  • Das Berührungsfeld ist eine Berührungsfeldeingabevorrichtung, die den durch den Benutzer durchgeführten Berührungsgestenvorgang empfängt. Der Berührungsgestenvorgang ist ein Informationseingabevorgang, der durch eine bestimmte Bewegung des Fingers des Benutzers (oder der Handfläche des Benutzers oder von Finger und Handfläche des Benutzers) oder ähnlichem durchgeführt wird. Der Berührungsgestenvorgang kann ein Tippen (tap) als einen Vorgang des leichten Drückens des Vorgangsbildschirms des Berührungsfelds mit einem Finger, ein Wischen (flick) als einen Vorgang des Streichens des Vorgangsbildschirms des Berührungsfelds mit einem Finger und ein Wischen (swipe) als einen Vorgang des Streifen des Vorgangsbildschirms des Berührungsfelds mit einem Finger beinhalten (einen Vorgang des Schiebens eines Fingers).
  • Ferner kann der Berührungsgestenvorgang ein Ziehen (drag) als einen Vorgang des Ziehens einer Anzeigekomponente auf dem Berührungsfeld mit einem Finger, ein Zusammenziehen (pinch-in) als einen Vorgang des Verringerns einer Distanz zwischen einer Vielzahl von Fingern, während der Vorgangsbildschirm des Berührungsfelds mit den Fingern berührt wird, ein Auseinanderziehen (pinch-out) als einen Vorgang des Erweiterns der Distanz zwischen einer Vielzahl von Fingern auf dem Vorgangsbildschirm des Berührungsfelds und so weiter umfassen.
  • Darüber hinaus kann der Berührungsgestenvorgang eine Wählgeste als einen Vorgang, bei dem ein Benutzer die Finger auf die gleiche Weise um zwei oder mehr Berührungspunkte bewegt wie beim Drehen einer Wählscheibe, eine Schiebegeste, bei der ein Benutzer einen Finger bewegt, um den Finger auf dem Berührungsfeld zu verschieben, während er den Finger in Kontakt mit dem Berührungsfeld hält, und so weiter beinhalten. Übrigens kann der Berührungsgestenvorgang auch einen Vorgang unter Verwendung eines Berührungsstifts als stiftartigem Eingabehilfsmittel beinhalten.
  • Ausführungsform
  • Konfiguration
  • 1 ist ein funktionales Blockdiagramm, das eine schematische Konfiguration einer Berührungsfeldeingabeeinrichtung 100 gemäß einer Ausführungsform der vorliegenden Erfindung zeigt. 2 ist ein funktionales Blockdiagramm, das eine schematische Konfiguration einer Vollbildschirmeingabebeurteilungseinheit 12b in der Ausführungsform zeigt. Wie in 1 gezeigt, umfasst die Berührungsfeldeingabeeinrichtung 100 gemäß der Ausführungsform eine Berührungsgestenbeurteilungseinrichtung 110 und ein Berührungsfeld 120. Die Berührungsgestenbeurteilungseinrichtung 110 ist eine Einrichtung, die in der Lage ist, ein Berührungsgestenbeurteilungsverfahren gemäß der Ausführungsform und ein Berührungsgestenbeurteilungsprogramm gemäß der Ausführungsform auszuführen.
  • Wie in 1 gezeigt, beinhaltet das Berührungsfeld 120 eine Vorgangsfeldeinheit 122, die einen vom Benutzer ausgeführten Berührungsgestenvorgang empfängt und Vorgangsinformationen (auch als „Berührungsinformationen“ bezeichnet) A0 entsprechend des Berührungsgestenvorgangs ausgibt, und eine Anzeigefeldeinheit 121, die in Überlagerung mit der Vorgangsfeldeinheit 122 angeordnet ist und Vorgangsbilder wie z. B. graphische Benutzeroberflächen (GUI) anzeigen kann. Die Anzeigefeldeinheit 121 ist zum Beispiel ein LCD.
  • Wie in 1 gezeigt, umfasst die Berührungsgestenbeurteilungseinrichtung 110 eine Vorgangsinformationeneingabeeinheit 11, eine Vorgangsbeurteilungseinheit 12 und eine Anzeigesteuereinheit 14. Die Berührungsgestenbeurteilungseinrichtung 110 kann eine Benachrichtigungseinheit 13 umfassen.
  • Die Vorgangsinformationeneingabeeinheit 11 empfängt die von der Vorgangsfeldeinheit 122 ausgegebenen Vorgangsinformationen (Vorgangssignal) A0. Die Vorgangsinformationeneingabeeinheit 11 gibt Eingabeinformationen A1 entsprechend der empfangenen Vorgangsinformationen A0 an die Vorgangsbeurteilungseinheit 12 aus. Die Eingabeinformation A1 ist Information, die der Vorgangsinformation A0 entspricht und kann die gleiche Information sein wie die Vorgangsinformation A0.
  • Die Vorgangsbeurteilungseinheit 12 empfängt die Eingabeinformationen A1 von der Vorgangsinformationeneingabeeinheit 11 und gibt einen Auswahlwert A2 als Ausgabeinformation an die Benachrichtigungseinheit 13 und die Anzeigesteuereinheit 14 aus. Der von der Vorgangsbeurteilungseinheit 12 ausgegebene Auswahlwert A2 ist ein von der Vorgangsbeurteilungseinheit 12 auf Grundlage der Eingabeinformationen A1 bestimmter Auswahlwert, und ein Anwendungsprogramm oder dergleichen der mit der Berührungsfeldeingabeeinrichtung 100 ausgestatteten Einrichtung führt eine Einrichtungssteuerung oder dergleichen auf Grundlage des Auswahlwertes A2 durch.
  • Die Vorgangsbeurteilungseinheit 12 beurteilt die Art und die Inhalte des durch den Benutzer auf Grundlage der empfangenen Eingabeinformationen A1 durchgeführten Berührungsgestenvorgangs. Wie in 1 gezeigt, umfasst die Vorgangsbeurteilungseinheit 12 eine Anzeigekomponenteneingabebeurteilungseinheit 12a, eine Vollbildschirmeingabebeurteilungseinheit 12b und eine Vorgangsmodusumsschaltbeurteilungseinheit 12c.
  • Die Vorgangsmodusumschaltbeurteilungseinheit 12c beurteilt, ob die von der Vorgangsinformationeneingabeeinheit 11 empfangenen Eingabeinformationen A1 Informationen hinsichtlich des Umschaltens der Vorgangsmodi des Bildschirms beinhalten oder nicht. Die Vorgangsmodi des Bildschirms beinhalten einen Anzeigekomponentenvorgangsmodus, in dem eine Anzeigekomponente als Vorgangsziel auf dem Bildschirm angezeigt wird, und ein Vollbildschirmvorgangsmodus, in dem der gesamte Bildschirm als Eingabebereich eingestellt ist, und der Vorgangsmodus kann zwischen diesen Vorgangsmodi umgeschaltet werden.
  • Die Vorgangsmodusumschaltbeurteilungseinheit 12c schaltet die Vorgangsmodi gemäß dem Ergebnis der Beurteilung über das Umschalten der Vorgangsmodi um. Ein Anzeigeinhalt, ein Eingabeverfahren und ein Benachrichtigungsverfahren des Vorgangsbildschirms werden durch die Vorgangsmodusumschaltbeurteilungseinheit 12c durch das Umschalten der Vorgangsmodi umgeschaltet.
  • Die Vollbildschirmeingabebeurteilungseinheit 12b identifiziert Eingabeinhalt als die Inhalte der Eingabe auf Grundlage der Berührungsinformationen für den Vollbildschirm und ist für den Empfang von Vorgängen und die Bestimmung des Auswahlwerts A2 zuständig. Wie in 2 gezeigt, umfasst die Vollbildschirmeingabebeurteilungseinheit 12b einen In-Modus-Parameter 111, einen Außer-Modus-Parameter 112, eine Gestenmodusbeurteilungseinheit 113 und eine Gesteneingabeinformationenbeurteilungseinheit 114.
  • Der Eingabeinhalt der Berührungsinformationen für den Vollbildschirm wird durch Verwendung des In-Modus-Parameters 111, des Außer-Modus-Parameters 112 und der Gestenmodusbeurteilungseinheit 113 identifiziert. Der In-Modus-Parameter 111 speichert einen Parameter, der in einem bestimmten Modus, wie z. B. als Bewegungsdistanz, Berührungszeit oder ähnliches verwendet werden soll.
  • Im In-Modus-Parameter 111 wird ein Parameter für jeden Gestenmodus in Hinblick auf jede Gestenmodusart gespeichert. Wie in 2 gezeigt, umfasst der In-Modus-Parameter 111 zum Beispiel einen Parameter 111a eines Schiebemodus und einen Parameter 111b eines Wählmodus. Jeder der Parameter 111a des Schiebemodus und der Parameter 111b des Wählmodus ist ein Parameter, der auf Grundlage von einem oder einer Kombination aus zwei oder mehr einer Bewegungsdistanz des Berührungsgestenvorgangs in einer vorgegebenen Zeit, einer Geschwindigkeit des Berührungsgestenvorgangs, einem Krümmungsradius des Berührungsgestenvorgangs und einer Berührungszeit des Berührungsgestenvorgangs bestimmt wird.
  • Im Übrigen sind die im In-Modus-Parameter 111 gespeicherten Parameter nicht auf das in 2 gezeigte Beispiel beschränkt. Im Außer-Modus-Parameter 112 ist ein Parameter gespeichert, wie z. B. eine Bewegungsdistanz, eine Berührungszeit oder ähnliches, der verwendet werden soll, wenn sich die Einrichtung in keinem Modus befindet, wie z. B. bei Inbetriebnahme.
  • Die Gestenmodusbeurteilungseinheit 113 identifiziert den Gestenmodus der eingegebenen Berührungsinformationen durch Bezugnahme auf den In-Modus-Parameter 111 und den Außer-Modus-Parameter 112. Die Gesteneingabeinformationenbeurteilungseinheit 114 bestimmt den Auswahlwert A2 gemäß eines Werteinstellverfahrens im durch die Gestenmodusbeurteilungseinheit 113 identifizierten Gestenmodus.
  • Die Anzeigekomponenteneingabebeurteilungseinheit 12a identifiziert den Eingabeinhalt auf Grundlage der Berührungsinformationen für eine auf dem Bildschirm angezeigte Anzeigekomponente und ist für den Empfang von Vorgängen und die Bestimmung des Auswahlwerts A2 zuständig.
  • Die Benachrichtigungseinheit 13 schaltet das Benachrichtigungsverfahren des Vorgangsbildschirms gemäß dem Ergebnis der Beurteilung durch die Vorgangsmodusumschaltbeurteilungseinheit 12c um und empfängt Informationen über den durch die Vorgangsbeurteilungseinheit 12 bestimmten Auswahlwert A2 und nimmt eine Benachrichtigung über den Status des Vorgangs vor. Die Benachrichtigungseinheit 13 gibt eine Benachrichtigung mit Benachrichtigungsinhalt gemäß dem Auswahlwert A2 heraus und gibt ein Signal der Benachrichtigung aus.
  • So benachrichtigt beispielsweise die Benachrichtigungseinheit 13 über den Status des Berührungsgestenvorgangs des Benutzers durch Ton, eine Bildschirmanzeige, Vibration eines Vibrationsalarms, Aufleuchten einer Lampe oder dergleichen, in Abhängigkeit von den von der Vorgangsbeurteilungseinheit 12 erhaltenen Eingabeinformationen A2.
  • Wenn die Benachrichtigung durch die Benachrichtigungseinheit 13 eine Benachrichtigung durch Ton ist, gibt die Benachrichtigungseinheit 13 das Signal der Benachrichtigung an einen Lautsprecher als eine Audio-Ausgabeeinheit aus. Der Lautsprecher ist in 3 gezeigt, welche später erläutert wird. Wenn die Benachrichtigung durch die Benachrichtigungseinheit 13 eine Bildanzeige ist, sendet die Benachrichtigungseinheit 13 Benachrichtigungsinformationen A3 an die Anzeigesteuereinheit 14 und die Anzeigesteuereinheit 14 überträgt ein Bildsignal A4 auf Grundlage der Benachrichtigungsinformationen A3 an die Anzeigefeldeinheit 121 des Berührungsfelds 120.
  • Die Anzeigesteuereinheit 14 schaltet den Anzeigeinhalt des Vorgangsbildschirms gemäß dem Ergebnis der Beurteilung durch die Vorgangsmodusumschaltbeurteilungseinheit 12c um und empfängt Informationen über den durch die Vorgangsbeurteilungseinheit 12 bestimmten Auswahlwert A2 und nimmt das Ergebnis des Vorgangs in den Bildschirm auf. Wie in 1 gezeigt, gibt die Anzeigesteuereinheit 14 das Bildsignal A4 eines auf der Anzeigefeldeinheit 121 des Berührungsfeldes 120 anzuzeigenden Vorgangsbildes an die Anzeigefeldeinheit 121 aus.
  • 3 ist ein Diagramm, das ein Beispiel einer Hardware (H/W)-Konfiguration der Berührungsfeldeingabeeinrichtung 100 gemäß der Ausführungsform zeigt. Wie in 3 gezeigt, umfasst die Berührungsfeldeingabeeinrichtung 100 gemäß der Ausführungsform das Berührungsfeld 120, einen Prozessor 301, einen Speicher 302 und einen Lautsprecher 303.
  • Die in 1 gezeigte Berührungsgestenbeurteilungseinrichtung 110 kann implementiert werden, indem der Speicher 302 als Speichereinrichtung zum Speichern des Berührungsgestenprogramms als Software und der Prozessor 301 als eine Informationsverarbeitungseinheit zum Ausführen des im Speicher 302 gespeicherten Berührungsgestenbeurteilungsprogramms verwendet werden (z. B. durch einen Computer).
  • In diesem Fall entsprechen die Komponenten 11 bis 14 in 1 dem Prozessor 301, der das Berührungsgestenbeurteilungsprogramm in 3 ausführt. Im Übrigen ist es auch möglich, einen Teil der in 1 gezeigten Berührungsgestenbeurteilungseinrichtung 110 durch den in 2 gezeigten Speicher 302 und den Prozessor 301, der das Berührungsgestenbeurteilungsprogramm ausführt, zu implementieren.
  • Das Berührungsfeld 120 erfasst den Kontakt einer Vielzahl von Fingern und überträgt die Berührungsinformationen (Identifikationsnummer, Koordinaten und Kontaktbedingung jedes Fingers) an den Prozessor 301. Der Prozessor 301 speichert die vom Berührungsfeld 120 erworbenen Berührungsinformationen im Speicher 302 und schaltet den Vorgangsbildschirm, das Eingabeverfahren und das Benachrichtigungsverfahren auf Grundlage der im Speicher 302 angesammelten Berührungshistorieninformationen um.
  • Ferner beurteilt der Prozessor 301 auf Grundlage der im Speicher 302 gespeicherten Berührungsinformationen, ob der Berührungsgestenvorgang ein Vorgang ist, der am Vollbildschirm durchgeführt wird, oder ein Vorgang ist, der auf einer Anzeigekomponente durchgeführt wird, und bestimmt den Auswahlwert in jedem Vorgangsmodus.
  • Der Lautsprecher 303 ist eine Tonausgabeeinheit, die zum Benachrichtigen über den Status des Berührungsgestenvorgangs durch Ton, wie z. B. eine Sprachansage, verwendet wird. Die Berührungsfeldeingabeeinrichtung 100 kann eine zusätzliche Einrichtung, wie z. B. eine Vibrationseinrichtung, eine Lampe oder eine Übertragungseinrichtung zum drahtlosen Übertragen des Signals der Benachrichtigung anstelle des Lautsprechers 303 oder als zusätzliche Komponente, umfassen.
  • Die 4(a) und 4(b) sind Diagramme, die ein Beispiel des Bildschirms des Berührungsfeldes 120 und eines Berührungsgestenvorgangs auf der Berührungsfeldeingabeeinrichtung 100 gemäß der Ausführungsform zeigen. 4(a) zeigt ein Bildschirmbeispiel 401, das im Anzeigekomponentenvorgangsmodus angezeigt wird. Wie in 4(a) gezeigt, werden im Bildschirmbeispiel 401 verschiedene als Vorgangsziele zu verwendende Komponenten angezeigt, wie z. B. die Tasten 402 zum direkten Auswählen des Auswahlwertes. Das Betreiben einer Komponente als Ziel wird durch Durchführung einer Berührungseingabe in dem Bereich, wo die Anzeigekomponente angezeigt wird, möglich.
  • 4(b) zeigt ein Bildschirmbeispiel 403, das im Vollbildschirmvorgangsmodus angezeigt wird. Wie in 4(b) gezeigt, werden im Bildschirmbeispiel 403 eine Anzeige 404 des aktuell ausgewählten Auswahlwertes, eine Anzeige zum Veranlassen eines Vorgangsbefehls zum Umschalten des Bildschirms (d. h. ein Abbruchbereich 405, der im Folgenden beschrieben wird) etc. gezeigt. Als Eingabeverfahren auf diesem Bildschirm werden Informationen beispielsweise über die Anzahl von Malen des Tipp-Vorgangs, eine Geste wie beim Drehen einer Wählscheibe mit zwei oder mehr Berührungspunkten oder ähnlichem eingegeben.
  • Am unteren Rand des Bildschirmbeispiels 403 in 4(b), wird der Abbruchbereich 405 als rechteckiger Bereich gezeigt, der „>>Abbruch>>“ umrandet. Durch Auswählen des Abbruchbereichs 405 und Wischen (den Finger in eine vorgegebene Richtung von links nach rechts schieben) ist es möglich, den Vollbildschirmvorgangsmodus abzubrechen und das Umschalten vom Bildschirm im Vollbildschirmvorgangsmodus zu einem Bildschirm im Anzeigekomponentenvorgangsmodus vorzunehmen.
  • 5 ist ein Flussdiagramm, das einen Vorgang einer Berührungsgestenbeurteilungseinrichtung 110 (Berührungsgestenbeurteilungsverfahren) in der Berührungsfeldeingabeeinrichtung 100 gemäß der Ausführungsform zeigt. Wie in 5 gezeigt, nimmt der Benutzer in Schritt ST401 das System im Anzeigekomponentenvorgangsmodus in Betrieb und die Initialisierung jeder Verarbeitungseinheit wird ausgeführt.
  • Im nächsten Schritt ST402 nimmt die Vorgangsmodusumschaltbeurteilungseinheit 12c eine Beurteilung der Eingabe für das Umschalten zum Vollbildschirmvorgangsmodus auf Grundlage der von der Vorgangsinformationeneingabeeinheit 11 eingegebenen Berührungsinformationen vor. Wenn die Eingabe für das Umschalten auf den Vollbildschirmvorgangsmodus empfangen wird (JA im Schritt ST402), wird der Vorgangsmodus umgeschaltet und der Anzeigeinhalt, das Eingabeverfahren und das Benachrichtigungsverfahren werden im nächsten Schritt ST403 auf die im Vollbildschirmvorgangsmodus umgeschaltet.
  • Im nächsten Schritt ST404 identifiziert die Gesteneingabeinformationenbeurteilungseinheit 114 auf Grundlage der durch den Benutzer eingegebenen Berührungsinformationen Informationen, die den Gestenvorgang betreffen und bestimmt dadurch den Auswahlwert A2. Beispielsweise gibt der Benutzer Informationen durch eine Geste wie beim Drehen einer Wählscheibe mit zwei oder mehr Berührungspunkten (Wählgeste) oder ähnlichem ein.
  • Hier kann das Berührungsfeld 120, wenn der Krümmungsradius des durch den Benutzer durchgeführten Wähldrehungswinkels im Wählgestenvorgang groß ist, fälschlicherweise erkennen, dass die durch den Benutzer gemachte Geste keine Wähleingabe, sondern eine Schiebeeingabe ist. Im Falle der Fehlinterpretation durch das Berührungsfeld 120 wird erkannt, dass die Geste vor Beendigung der aktuell erkannten Wählgeste (mitten im Gestenmodus) zur Schiebegeste umgeschaltet wurde. Das Berührungsgestenbeurteilungsverfahren gemäß der Ausführungsform zielt darauf ab, die vorstehend beschriebene Fehlinterpretation des aktuell durchgeführten Gestenvorgangs als einen anderen Gestenvorgang zu verhindern.
  • Im nächsten Schritt ST405 wird der in Schritt ST404 bestimmte Auswahlwert A2 an die Vorgangsbildschirmanzeigeeinheit 109 gegeben, durch die der Anzeigeinhalt umgeschaltet und ein Bildschirm, der die Inhalte des Vorgangs enthält, angezeigt wird.
  • Im nächsten Schritt ST406 wird der in Schritt ST404 bestimmte Auswahlwert A2 an die Benachrichtigungseinheit 13 gegeben, durch die der Benachrichtigungsinhalt umgeschaltet wird, es erfolgt eine Benachrichtigung über den Status nach dem Ergebnis des Vorgangs und es erfolgt eine Sprachansage zum Veranlassen eines Vorgangs.
  • Im nächsten Schritt ST407 nimmt die Vorgangsmodusumschaltbeurteilungseinheit 12c eine Beurteilung der Eingabe für das Umschalten zum Anzeigekomponentenvorgangsmodus auf Grundlage der von der Vorgangsinformationeneingabeeinheit 11 eingegebenen Berührungshistorieninformationen und der Berührungsinformationen vor.
  • Wenn die Umschalteingabe erfasst wird (JA in Schritt ST407), verändert sich der Vorgangsmodus zum Anzeigekomponentenvorgangsmodus im nächsten Schritt ST408 und der Bildschirm verändert sich zum Anzeigekomponentenvorgangsbildschirm, der zum Zeitpunkt der Inbetriebnahme angezeigt wird. Wenn es keine Eingabe für die Umschaltung in den Anzeigekomponentenvorgangsmodus gibt, wird jede Berührungseingabe auf der Vorgangsfeldeinheit 122 empfangen und der Anzeigeinhalt und der Benachrichtigungsinhalt werden entsprechend der Berührungseingabe umgeschaltet, bis die Umschalteingabe empfangen wird.
  • Wenn der Eingabeinhalt nicht die Umschaltung auf den Vollbildschirmvorgangsmodus in der Eingabebeurteilung des Schrittes ST402 bezüglich der Bildschirmumschaltung ist (NEIN im Schritt ST402), wird im nächsten Schritt ST709 eine Eingabebeurteilung bezüglich einer Anzeigekomponente vorgenommen.
  • Die Eingabebeurteilung bezüglich einer Anzeigekomponente im Anzeigekomponentenvorgangsmodus erfolgt auf der Grundlage, ob Berührungseingabekoordinaten in einem Vorgangsbereich der Anzeigekomponente enthalten sind oder nicht. Wenn eine Vorgangseingabe in eine Anzeigekomponente erfasst wird, wird die Bestimmung des Auswahlwertes A2 im nächsten Schritt ST410 ausgeführt. Wenn das Vorgangsziel keine Anzeigekomponente ist, wird in Schritt ST402 erneut der Empfang einer Berührungseingabe ausgeführt.
  • Im nächsten Schritt ST410 bestimmt die Anzeigekomponentenbeurteilungseinheit 12a den Auswahlwert A2 auf Grundlage der von der Vorgangsinformationeneingabeeinheit 11 eingegebenen Berührungsinformationen. Als Beispiel für die Auswahl sind Anzeigekomponenten, wie z.B. Tasten, denen jeweils ein innerer Auswahlwert zugeordnet wurde, wie in 3 eines Anzeigebildschirms von Anzeigekomponenten gezeigt, angeordnet, und der Auswahlwert wird mittels Berührungseingaben an den Anzeigekomponenten bestimmt.
  • Im nächsten Schritt ST411 wird der in Schritt ST410 bestimmte Auswahlwert A2 an die Anzeigesteuereinheit 14 gegeben, durch die der Anzeigeinhalt auf der Anzeigefeldeinheit 121 umgeschaltet und ein Bildschirm, der den Inhalten des Vorgangs entspricht, angezeigt wird.
  • Im nächsten Schritt ST412 wird der in Schritt ST410 bestimmte Auswahlwert A2 an die Benachrichtigungseinheit 13 gegeben, durch die der Benachrichtigungsinhalt umgeschaltet wird, es erfolgt eine Benachrichtigung über den Status nach dem Ergebnis des Vorgangs und es erfolgt eine Sprachansage zum Veranlassen eines Vorgangs.
  • 6 ist ein Flussdiagramm, das einen Vorgang einer Gestenmodusabweichungsbeurteilung zeigt, die in der Ausführungsform durch eine Gestenmodusbeurteilungseinheit 113 vorgenommen wird. In Schritt ST501 beurteilt die Gestenmodusbeurteilungseinheit 113, ob sich die Einrichtung in einem Gestenmodus befindet oder nicht.
  • Die Gestenmodusbeurteilungseinheit 113 beurteilt z. B., dass die Einrichtung sich nicht in einem Gestenmodus befindet, direkt nachdem der Auswahlwert A2 durch die Gesteneingabeinformationenbeurteilungseinheit 114 bestimmt wird. Zum Beispiel beurteilt die Gestenmodusbeurteilungseinheit 113, dass die Einrichtung in einem Gestenmodus ist, wenn der Benutzer gerade dabei ist, auf dem Berührungsfeld zu scrollen, wenn die Einrichtung im Wählmodus ist, etc.
  • Wenn in Schritt ST501 beurteilt wird, dass sich die Einrichtung in einem Gestenmodus befindet (JA in Schritt ST501), geht der Prozess weiter zum nächsten Schritt ST502 und die Gestenmodusbeurteilungseinheit 113 beurteilt, in welchem Gestenmodus sich die Einrichtung befindet: dem Schiebemodus als einen ersten Gestenmodus, dem Wählgestenmodus als einem zweiten Gestenmodus oder dem Berührungsgestenmodus.
  • Wenn das Ergebnis der Beurteilung in Schritt ST502 der Schiebemodus ist, geht der Prozess weiter zu Schritt ST503 und der Parameter des Schiebemodus als ein erster Parameter wird erworben. Wenn das Ergebnis der Beurteilung in Schritt ST502 die Wählgeste ist, geht der Prozess weiter zu Schritt ST504 und der Parameter des Wählmodus als ein zweiter Parameter wird erworben. Wenn das Ergebnis der Beurteilung in Schritt ST502 die Berührungsgeste ist, geht der Prozess weiter zu Schritt ST505 und der Parameter des Berührungsmodus, der der Berührungsgeste entspricht, wird erworben.
  • Jeder der Parameter des Schiebemodus, der Parameter des Wählmodus und der Parameter des Berührungsmodus wird auf Grundlage von einem oder einer Kombination aus zwei oder mehr der Bewegungsdistanz des Berührungsgestenvorgangs in einer vorgegebenen Zeit, der Geschwindigkeit des Berührungsgestenvorgangs, dem Krümmungsradius des Berührungsgestenvorgangs und der Berührungszeit des Berührungsgestenvorgangs bestimmt.
  • Nachdem der Parameter, der dem jeweiligen Gestenmodus entspricht, in Schritt ST503 - ST505 erworben wird, geht der Prozess weiter zum nächsten Schritt ST506 und es wird beurteilt, ob eine vorgegebene Zeit, seitdem die Art des Gestenmodus in Schritt ST502 beurteilt wurde, verstrichen ist oder nicht. Wenn die vorgegebene Zeit verstrichen ist (JA in Schritt ST506), geht der Prozess weiter zum nächsten Schritt ST507 und die Modusabweichungsbeurteilung zum Beurteilen, ob die Geste abgewichen ist oder nicht, wird unter Verwendung der erworbenen Parameter des Gestenmodus vorgenommen.
  • Wenn in Schritt ST501 beurteilt wird, dass sich die Einrichtung nicht in einem Gestenmodus befindet (NEIN in Schritt ST501), geht der Prozess weiter zu Schritt ST508, der Außer-Modus-Parameter 112 als dritter Parameter wird erworben und die Modusabweichungsbeurteilung wird im nächsten Schritt ST509 vorgenommen.
  • Wirkung
  • Wie vorstehend beschrieben, wird mit der Berührungsfeldeingabeeinrichtung 100 gemäß der Ausführungsform die Art des Gestenmodus in der Ausführung von der Gestenmodusbeurteilungseinheit 113 beurteilt, ein Parameter, der der beurteilten Art des Gestenmodus entspricht, wird erworben, und die Modusabweichungsbeurteilung erfolgt unter Verwendung des erworbenen Parameters. Entsprechend kann die Fehlinterpretation des aktuellen Modus als ein anderer Modus während eines Vorgangs in einem bestimmten Modus verhindert werden, der Eingabevorgang durch Gesten wird erleichtert und die Bedienbarkeit für den Benutzer wird verbessert.
  • Mit der Berührungsfeldeingabeeinrichtung 100 gemäß der Ausführungsform bleibt der Modus nach Einsetzen eines bestimmten Modus zumindest für eine vorgegebene Zeit erhalten und danach wird die Modusabweichungsbeurteilung vorgenommen. Entsprechend kann eine unbeabsichtigte Abweichung vom aktuellen Modus während eines Vorgangs in einen bestimmten Modus verhindert werden.
  • Bezugszeichenliste
  • 11: Vorgangsinformationeneingabeeinheit, 12: Vorgangsbeurteilungseinheit, 12a: Anzeigekomponenteneingabebeurteilungseinheit, 12b: Vollbildschirmeingabebeurteilungseinheit, 13: Benachrichtigungseinheit, 14: Anzeigesteuereinheit, 100: Berührungsfeldeingabeeinrichtung, 110: Berührungsgestenbeurteilungseinrichtung, 111: In-Modus-Parameter, 111a: Schiebemodus-Parameter, 111b: Wählmodus-Parameter, 112: Außer-Modus-Parameter, 113: Gestenmodusbeurteilungseinheit, 114: Gesteneingabeinformationenbeurteilungseinheit, 120: Berührungsfeld, 121: Anzeigefeldeinheit, 122: Vorgangsfeldeinheit, 301: Prozessor, 302: Speicher, 303: Lautsprecher, A0: Vorgangsinformationen, 401, 403: Bildschirmbeispiel, 405: Abbruchbereich, A1: Eingabeinformationen, A2: Auswahlwert, A3: Benachrichtigungsinformationen, A4: Vorgangsbeurteilungsinformationen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2012528405 [0004]

Claims (11)

  1. Berührungsgestenbeurteilungseinrichtung, die Vorgangsinformationen von einem Berührungsfeld empfängt, das ein Vorgangsbild auf einem Bildschirm anzeigt, einen Berührungsgestenvorgang eines Benutzers empfängt und die Vorgangsinformationen entsprechend des Berührungsgestenvorgangs ausgibt, und Ausgabeinformationen auf Grundlage der Vorgangsinformationen erzeugt, wobei die Berührungsgestenbeurteilungseinrichtung umfasst: eine Vorgangsbeurteilungseinheit, die die Ausgabeinformationen auf Grundlage der Vorgangsinformationen für eine Anzeige auf dem Berührungsfeld erzeugt; und eine Anzeigesteuereinheit, die die Ausgabeinformationen empfängt und das Berührungsfeld veranlasst, ein Bild, das den Ausgabeinformationen entspricht, als das Vorgangsbild anzuzeigen, wobei die Vorgangsbeurteilungseinheit eine Vollbildschirmeingabebeurteilungseinheit umfasst, die die Ausgabeinformationen auf Grundlage der Vorgangsinformationen bestimmt, die einem Berührungsgestenvorgang entsprechen, der in einem Vollbildschirmeingabemodus durchgeführt wird, in dem Eingabeinhalt auf Grundlage eines Berührungsgestenvorgangs, der auf einem Vollbildschirm des Berührungsfelds durchgeführt wird, identifiziert wird, die Vollbildschirmeingabebeurteilungseinheit umfasst: eine Gestenmodusbeurteilungseinheit, die beurteilt, ob ein Gestenmodus des Berührungsgestenvorgangs ein erster Gestenmodus oder ein zweiter Gestenmodus ist; einen ersten Parameter, der den ersten Gestenmodus betrifft; und einen zweiten Parameter, der den zweiten Gestenmodus betrifft und sich von dem ersten Parameter unterscheidet, und die Gestenmodusbeurteilungseinheit eine Modusabweichungsbeurteilung der Beurteilung von Abweichung vom ersten Gestenmodus unter Verwendung des ersten Parameters vornimmt, wenn der Gestenmodus des Berührungsgestenvorgangs beurteilt wird, der erste Gestenmodus zu sein, und eine Modusabweichungsbeurteilung der Beurteilung von Abweichung vom zweiten Gestenmodus unter Verwendung des zweiten Parameters vornimmt, wenn der Gestenmodus des Berührungsgestenvorgangs beurteilt wird, der zweite Gestenmodus zu sein.
  2. Berührungsgestenbeurteilungseinrichtung nach Anspruch 1, wobei die Modusabweichungsbeurteilung nach Ablauf einer vorgegebenen Zeit seit der Beurteilung des Gestenmodus des Berührungsgestenvorgangs gemacht wird.
  3. Berührungsgestenbeurteilungseinrichtung nach Anspruch 1 oder 2, wobei die Vollbildschirmeingabebeurteilungseinheit ferner einen dritten Parameter als einen Parameter umfasst, der einen Vorgang betrifft, der sich nicht im Gestenmodus befindet, und die Gestenmodusbeurteilungseinheit eine Beurteilung vornimmt, ob der Benutzer im Gestenmodus ist oder nicht und die Modusabweichungsbeurteilung unter Verwendung des dritten Parameters vornimmt, wenn der Benutzer beurteilt wird, nicht im Gestenmodus zu sein.
  4. Berührungsgestenbeurteilungseinrichtung nach Anspruch 3, wobei jeder der ersten bis dritten Parameter auf Grundlage von einem oder einer Kombination aus zwei oder mehr einer Bewegungsdistanz des Berührungsgestenvorgangs in einer vorgegebenen Zeit, einer Geschwindigkeit des Berührungsgestenvorgangs, einem Krümmungsradius des Berührungsgestenvorgangs und einer Berührungszeit des Berührungsgestenvorgangs bestimmt wird.
  5. Berührungsgestenbeurteilungseinrichtung nach einem der Ansprüche 1 bis 4, wobei die Vorgangsbeurteilungseinheit ferner umfasst: eine Anzeigekomponenteneingabebeurteilungseinheit, die die Ausgabeinformationen auf Grundlage der Vorgangsinformationen bestimmt, die einem Berührungsgestenvorgang entsprechen, der in einem Anzeigekomponenteneingabemodus durchgeführt wird, in dem der Eingabeinhalt auf Grundlage eines Berührungsgestenvorgangs, der auf einer auf dem Berührungsfeld als das Vorgangsbild angezeigten Anzeigekomponente durchgeführt wird, identifiziert wird; und eine Vorgangsmodusumschalteinheit, die das Umschalten zwischen dem Anzeigekomponenteneingabemodus und dem Vollbildschirmeingabemodus vornimmt.
  6. Berührungsgestenbeurteilungseinrichtung nach einem der Ansprüche 1 bis 5, ferner eine Vorgangsinformationeneingabeeinheit umfassend, die die vom Berührungsfeld ausgegebenen Vorgangsinformationen empfängt und Eingabeinformationen entsprechend der empfangenen Vorgangsinformationen an die Vorgangsbeurteilungseinheit ausgibt.
  7. Berührungsgestenbeurteilungseinrichtung nach einem der Ansprüche 1 bis 6, ferner eine Benachrichtigungseinheit umfassend, die eine Benachrichtigung mit Benachrichtigungsinhalt gemäß den Ausgabeinformationen erstellt oder ein Signal der Benachrichtigung mit Benachrichtigungsinhalt gemäß den Ausgabeinformationen ausgibt.
  8. Berührungsgestenbeurteilungsverfahren des Empfangens von Vorgangsinformationen von einem Berührungsfeld, das ein Vorgangsbild auf einem Bildschirm anzeigt, einen Berührungsgestenvorgang eines Benutzers empfängt und die Vorgangsinformationen entsprechend des Berührungsgestenvorgangs ausgibt, und des Erzeugens von Ausgabeinformationen auf Grundlage der Vorgangsinformationen, umfassend: einen Vorgangsbeurteilungsschritt des Erzeugens von Ausgabeinformationen für eine Anzeige auf dem Berührungsfeld, auf Grundlage der Vorgangsinformationen; und einen Anzeigesteuerschritt des Empfangens von Ausgabeinformationen und des Veranlassens des Berührungsfeldes, ein Bild, das den Ausgabeinformationen entspricht, als das Vorgangsbeispiel anzuzeigen, wobei der Vorgangsbeurteilungsschritt einen Vollbildschirmeingabebeurteilungsschritt des Bestimmens der Ausgabeinformationen auf Grundlage der Vorgangsinformationen umfasst, die einem Berührungsgestenvorgang entsprechen, der in einem Vollbildschirmeingabemodus durchgeführt wird, in dem Eingabeinhalt auf Grundlage eines Berührungsgestenvorgangs, der auf einem Vollbildschirm des Berührungsfelds durchgeführt wird, identifiziert wird, der Vollbildschirmeingabebeurteilungsschritt einen Gestenmodusbeurteilungsschritt umfasst, der beurteilt, ob ein Gestenmodus des Berührungsgestenvorgangs ein erster Gestenmodus oder ein zweiter Gestenmodus ist, und der Gestenmodusbeurteilungsschritt auf Grundlage eines ersten Parameters ausgeführt wird, der den ersten Gestenmodus betrifft, und eines zweiten Parameters, der den zweiten Gestenmodus betrifft, und sich vom ersten Parameter unterscheidet, eine Modusabweichungsbeurteilung der Beurteilung von Abweichung vom ersten Gestenmodus unter Verwendung des ersten Parameters vornimmt, wenn der Gestenmodus des Berührungsgestenvorgangs beurteilt wird, der erste Gestenmodus zu sein und eine Modusabweichungsbeurteilung der Beurteilung von Abweichung vom zweiten Gestenmodus unter Verwendung des zweiten Parameters vornimmt, wenn der Gestenmodus des Berührungsgestenvorgangs beurteilt wird, der zweite Gestenmodus zu sein.
  9. Berührungsgestenbeurteilungsprogramm zum Empfangen von Vorgangsinformationen von einem Berührungsfeld, das ein Vorgangsbild auf einem Bildschirm anzeigt, einen Berührungsgestenvorgang eines Benutzers empfängt und die Vorgangsinformationen entsprechend des Berührungsgestenvorgangs ausgibt, und zum Erzeugen von Ausgabeinformationen auf Grundlage der Vorgangsinformationen, wobei das Berührungsgestenbeurteilungsprogramm einen Computer veranlasst, zum Ausführen: eines Vorgangsbeurteilungsprozesses des Erzeugens der Ausgabeinformationen für eine Anzeige auf dem Berührungsfeld, auf Grundlage der Vorgangsinformationen; und eines Anzeigesteuerprozesses des Empfangens von Ausgabeinformationen und des Veranlassens des Berührungsfeldes, ein Bild, das den Ausgabeinformationen entspricht, als das Vorgangsbild anzuzeigen, wobei der Vorgangsbeurteilungsprozess einen Vollbildschirmeingabebeurteilungsprozess des Bestimmens der Ausgabeinformationen auf Grundlage der Vorgangsinformationen umfasst, die einem Berührungsgestenvorgang entsprechen, der in einem Vollbildschirmeingabemodus durchgeführt wird, in dem der Eingabeinhalt auf Grundlage eines Berührungsgestenvorgangs, der auf einem Vollbildschirm des Berührungsfelds durchgeführt wird, identifiziert wird, der Vollbildschirmeingabebeurteilungsprozess einen Gestenmodusbeurteilungsprozess umfasst, der beurteilt, ob ein Gestenmodus des Berührungsgestenvorgangs ein erster Gestenmodus oder ein zweiter Gestenmodus ist, und der Gestenmodusbeurteilungsprozess auf Grundlage eines ersten Parameters ausgeführt wird, der den ersten Gestenmodus betrifft, und eines zweiten Parameters, der den zweiten Gestenmodus betrifft, und sich vom ersten Parameter unterscheidet und einen Modusabweichungsbeurteilungprozess der Beurteilung von Abweichung vom ersten Gestenmodus unter Verwendung des ersten Parameters ausführt, wenn der Gestenmodus des Berührungsgestenvorgangs beurteilt wird, der erste Gestenmodus zu sein, und eine Modusabweichungsbeurteilung der Beurteilung von Abweichung vom zweiten Gestenmodus unter Verwendung des zweiten Parameters vornimmt, wenn der Gestenmodus des Berührungsgestenvorgangs beurteilt wird, der zweite Gestenmodus zu sein.
  10. Berührungsfeldeingabeeinrichtung, umfassend: ein Berührungsfeld, das ein Vorgangsbild auf einem Bildschirm anzeigt, einen Berührungsgestenvorgang eines Benutzers empfängt und die Vorgangsinformationen entsprechend des Berührungsgestenvorgangs ausgibt; und eine Berührungsgestenbeurteilungseinrichtung, die die Vorgangsinformationen empfängt und eine Anzeige auf dem Berührungsfeld auf Grundlage der Vorgangsinformationen steuert; wobei die Berührungsgestenbeurteilungseinrichtung umfasst: eine Vorgangsbeurteilungseinheit, die die Ausgabeinformationen für eine Anzeige auf dem Berührungsfeld auf Grundlage der Vorgangsinformationen erzeugt; und eine Anzeigesteuereinheit, die die Ausgabeinformationen empfängt und das Berührungsfeld veranlasst, ein Bild, das den Ausgabeinformationen entspricht, als das Vorgangsbild anzuzeigen, die Vorgangsbeurteilungseinheit eine Vollbildschirmeingabebeurteilungseinheit umfasst, die die Ausgabeinformationen auf Grundlage der Vorgangsinformationen bestimmt, die einem Berührungsgestenvorgang entsprechen, der in einem Vollbildschirmeingabemodus durchgeführt wird, in dem Eingabeinhalt auf Grundlage eines Berührungsgestenvorgangs, der auf einem Vollbildschirm des Berührungsfelds durchgeführt wird, identifiziert wird, die Vollbildschirmeingabebeurteilungseinheit umfasst: eine Gestenmodusbeurteilungseinheit, die beurteilt, ob ein Gestenmodus des Berührungsgestenvorgangs ein erster Gestenmodus oder ein zweiter Gestenmodus ist; einen ersten Parameter, der den ersten Gestenmodus betrifft; und einen zweiten Parameter, der den zweiten Gestenmodus betrifft und sich von dem ersten Parameter unterscheidet, und die Gestenmodusbeurteilungseinheit eine Modusabweichungsbeurteilung der Beurteilung von Abweichung vom ersten Gestenmodus unter Verwendung des ersten Parameters vornimmt, wenn der Gestenmodus des Berührungsgestenvorgangs beurteilt wird, der erste Gestenmodus zu sein, und eine Modusabweichungsbeurteilung der Beurteilung von Abweichung vom zweiten Gestenmodus unter Verwendung des zweiten Parameters vornimmt, wenn der Gestenmodus des Berührungsgestenvorgangs beurteilt wird, der zweite Gestenmodus zu sein.
  11. Berührungsfeldeingabeeinrichtung nach Anspruch 10, wobei das Berührungsfeld umfasst: eine Vorgangsfeldeinheit, die den Berührungsgestenvorgang empfängt und die Vorgangsinformationen entsprechend des Berührungsgestenvorgangs ausgibt; und eine Anzeigefeldeinheit, die in Überlagerung mit der Vorgangsfeldeinheit angeordnet ist und das Vorgangsbild auf dem Bildschirm anzeigt.
DE112017006949.1T 2017-03-15 2017-03-15 Berührungsgestenbeurteilungseinrichtung, Berührungsgestenbeurteilungsverfahren,Berührungsgestenbeurteilungsprogramm und Berührungsfeldeingabeeinrichtung Ceased DE112017006949T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/010345 WO2018167865A1 (ja) 2017-03-15 2017-03-15 タッチジェスチャ判定装置、タッチジェスチャ判定方法、タッチジェスチャ判定プログラム、及びタッチパネル入力装置

Publications (1)

Publication Number Publication Date
DE112017006949T5 true DE112017006949T5 (de) 2019-10-31

Family

ID=60265772

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017006949.1T Ceased DE112017006949T5 (de) 2017-03-15 2017-03-15 Berührungsgestenbeurteilungseinrichtung, Berührungsgestenbeurteilungsverfahren,Berührungsgestenbeurteilungsprogramm und Berührungsfeldeingabeeinrichtung

Country Status (5)

Country Link
JP (1) JP6227213B1 (de)
KR (1) KR102136526B1 (de)
CN (1) CN110402427B (de)
DE (1) DE112017006949T5 (de)
WO (1) WO2018167865A1 (de)

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8106856B2 (en) * 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
JP2008070968A (ja) * 2006-09-12 2008-03-27 Funai Electric Co Ltd 表示処理装置
WO2010067537A1 (ja) * 2008-12-08 2010-06-17 シャープ株式会社 操作受付装置及びコンピュータプログラム
US8427440B2 (en) * 2009-05-05 2013-04-23 Microsoft Corporation Contact grouping and gesture recognition for surface computing
WO2010138743A2 (en) 2009-05-27 2010-12-02 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
CN102713822A (zh) * 2010-06-16 2012-10-03 松下电器产业株式会社 信息输入装置、信息输入方法以及程序
CN102694942B (zh) * 2011-03-23 2015-07-15 株式会社东芝 图像处理装置、操作方法显示方法及画面显示方法
JP6032420B2 (ja) * 2012-04-02 2016-11-30 カシオ計算機株式会社 印刷情報出力装置、印刷情報出力方法、プログラム及び携帯電子機器
JP5852514B2 (ja) * 2012-06-13 2016-02-03 株式会社東海理化電機製作所 タッチセンサ
JP5772773B2 (ja) * 2012-09-19 2015-09-02 コニカミノルタ株式会社 画像処理装置、操作標準化方法および操作標準化プログラム
CN102890616B (zh) * 2012-09-26 2016-03-30 杨生虎 触摸屏的快捷输入方法及系统
JP5700020B2 (ja) * 2012-10-10 2015-04-15 コニカミノルタ株式会社 画像処理装置、プログラム及び操作イベント判別方法
JP5862587B2 (ja) * 2013-03-25 2016-02-16 コニカミノルタ株式会社 ジェスチャ判別装置、ジェスチャ判別方法、およびコンピュータプログラム
US9910579B2 (en) * 2013-04-15 2018-03-06 Microsoft Technology Licensing, Llc Detection of pan and scaling during multi-finger touch interactions
JP6269537B2 (ja) * 2015-03-06 2018-01-31 京セラドキュメントソリューションズ株式会社 表示入力装置、それを備えた画像形成装置、表示入力装置の制御方法およびプログラム
CN106095307B (zh) * 2016-06-01 2019-05-31 努比亚技术有限公司 旋转手势识别装置及方法

Also Published As

Publication number Publication date
CN110402427A (zh) 2019-11-01
JP6227213B1 (ja) 2017-11-08
WO2018167865A1 (ja) 2018-09-20
JPWO2018167865A1 (ja) 2019-03-22
KR102136526B1 (ko) 2020-07-22
CN110402427B (zh) 2022-05-31
KR20190109551A (ko) 2019-09-25

Similar Documents

Publication Publication Date Title
DE10310794B4 (de) Bedieneinrichtung und Kommunikationsgerät
EP3373123A1 (de) Verfahren und vorrichtung zur darstellung von empfohlenen bedienhandlungen eines vorschlagssystems und interaktion mit dem vorschlagssystem
DE102013211011B4 (de) Entsperrungsverfahren und Mobilgerät, das dasselbe verwendet
DE202016001214U1 (de) Benutzerschnittstelle für Zahlungen
DE202012005481U1 (de) Bewegen eines graphischen Selektors
DE112007001143T5 (de) Anzeigesystem und Verfahren zum Beschränken dessen Bedienung
DE102009013922A1 (de) Verfahren zur Bedienung eines Spacemenüs und ein elektronisches Gerät mit einem funktionalen Spacemenü
DE102012020607B4 (de) Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements
DE202009018624U1 (de) Berührungsereignismodell
DE202008005344U1 (de) Elektronische Vorrichtung mit schaltbarer Benutzerschnittstelle und elektronische Vorrichtung mit zugreifbarer Berührbedienung
DE102014211342A1 (de) Anwenderschnittstelle und Verfahren zum Anpassen einer semantischen Skalierung einer Kachel
EP2924551B1 (de) Verfahren und Vorrichtung zum Bereitstellen einer graphischen Benutzerschnittstelle in einem Fahrzeug
DE202017105614U1 (de) Systeme und Computerprogrammprodukte für eine Touchscreen-Benutzeroberfläche eines kollaborativen Bearbeitungstools
DE102017218120A1 (de) Verfahren zur Bereitstellung einer haptischen Rückmeldung an einen Bediener einer berührungssensitiven Anzeigeeinrichtung
WO2017144298A1 (de) Benutzerschnittstelle mit mehreren anzeigen und verfahren zur positionierung von inhalten auf mehreren anzeigen
DE102011056940A1 (de) Verfahren zum Betrieb einer mehrfachberührungsfähigen Anzeige und Vorrichtung mit einer mehrfachberührungsfähigen Anzeige
DE102015218963A1 (de) Steuerverfahren, Steuervorrichtung und elektronische Vorrichtung
DE102014019005A1 (de) Verfahren zum Betreiben einer Bedienvorrichtung eines Kraftfahrzeugs in unterschiedlichen Bedienmodi sowie Bedienvorrichtung und Kraftfahrzeug
DE112014005034T5 (de) Elektronische Vorrichtung und Verfahren zum Ausführen einer Anwendung darauf
DE102016006762A1 (de) Informationsverarbeitungsvorrichtung zum editieren elektronischer daten durch berührung
EP3234749B1 (de) Anwenderschnittstelle und verfahren zur individualisierung eines anzeigeinhaltes in einem fortbewegungsmittel
CN106527868B (zh) 一种应用程序的任务管理方法及装置
EP3246803A1 (de) Touchpad mit gestensteuerung für wallscreen
DE102016204692A1 (de) Steuerung der Mehrfachauswahl auf berührungsempfindlichen Flächen
WO2017140569A1 (de) Kraftfahrzeug-bedienvorrichtung und verfahren zum betreiben einer bedienvorrichtung, um eine wechselwirkung zwischen einer virtuellen darstellungsebene und einer hand zu bewirken

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R084 Declaration of willingness to licence
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final