DE102013221548A1 - Gerät und verfahren zum steuern einer mit einem touchscreen ausgestatteten benutzerschnittstelle - Google Patents

Gerät und verfahren zum steuern einer mit einem touchscreen ausgestatteten benutzerschnittstelle Download PDF

Info

Publication number
DE102013221548A1
DE102013221548A1 DE102013221548.7A DE102013221548A DE102013221548A1 DE 102013221548 A1 DE102013221548 A1 DE 102013221548A1 DE 102013221548 A DE102013221548 A DE 102013221548A DE 102013221548 A1 DE102013221548 A1 DE 102013221548A1
Authority
DE
Germany
Prior art keywords
image data
touch screen
touch
expected
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102013221548.7A
Other languages
English (en)
Inventor
Sang Eun Jin
Hyun Woo Bang
Kee Hong Youn
Sung-min Cho
Jun Bong Song
Kyung Won Yun
Dong Youb Baek
Byung Joo Lee
Jae Hyuck Bae
Jung Man Chung
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Motor Co
SNU R&DB Foundation
Original Assignee
Hyundai Motor Co
SNU R&DB Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyundai Motor Co, SNU R&DB Foundation filed Critical Hyundai Motor Co
Publication of DE102013221548A1 publication Critical patent/DE102013221548A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Ein Gerät und ein Verfahren zum Steuern einer Benutzerschnittstelle mit einem Touchscreen sind offenbart, das eine Eingabe- und Ausgabeeinheit mit einem Touchscreen, eine Kamera, die installiert ist, um von der Eingabe- und Ausgabeeinheit getrennt zu sein und zumindest einen Teil bzw. eine Art der Bilddaten erhält, die einem Raum innerhalb eines kritischen Abstands von einer Vorderseite des Touchscreens entsprechen, und eine Steuerung enthält, die eine erwartete Berührungsposition eines Objektes verifiziert, wenn eine Bewegung des Objektes in dem Raum infolge einer Analyse der Bilddaten erfasst wird, und die Eingabe- und Ausgabeeinheit steuert, um einen Bereich zu vergrößern und auszugeben, der der erwarteten Berührungsposition entspricht.

Description

  • HINTERGRUND
  • Technisches Gebiet
  • Die vorliegende Offenbarung betrifft ein Gerät und ein Verfahren zum Steuern einer Benutzerschnittstelle mit einem Touchscreen und genauer ein Gerät und ein Verfahren zum Steuern einer Benutzerschnittstelle mit einem Touchscreen, bei dem ein Bereich, in dem eine Berührung erzeugt werden wird, vor der Erzeugung einer Berührung auf einem Touchscreen durch Einrichten einer Tiefenerkennungskamera verifiziert wird und der verifizierte Bereich vergrößert und an einen Bildschirm ausgegeben wird.
  • Beschreibung der verwandten Technik
  • Im Allgemeinen enthält ein Texteingabeverfahren eines tragbaren Endgeräts, das einen Touchscreen verwendet, ein Handschrifterkennungsverfahren und ein Eingabeverfahren mittels virtueller Tastatur. Das Handschrifterkennungsverfahren ist ein Verfahren, das nach dem Erkennen einer Handschrift einer Person durch einen Touchscreen in einen Datencode umwandelt, und das Eingabeverfahren mittels virtueller Tastatur ist ein Verfahren, das Auswahlinformationen gemäß einer Berührung eines Berührungswerkzeugs empfängt, das zum Verwenden einer Berührung, wie beispielsweise ein Finger oder ein Stift, durch das Pop-up eines Tastatur-Eingabefensters auf dem Touchscreen fähig ist, um ein Transportfähigkeitsproblem einer Tastatur und einer Mouse bei der tragbaren Vorrichtung zu bewältigen.
  • Beispiele eines Endgeräts, das mit solch einem Touchscreen ausgestattet ist, enthalten ein elektronisches Notebook, ein Mobilkommunikationsendgerät, einen Personal Digital Assistant (PDA), einen tragbaren Multimedia-Player (PMP; engl. Portable Mutlimedia Player) und eine Navigationsvorrichtung.
  • Bei dem Eingabeverfahren mittels virtueller Tastatur ist jedoch eine Größe einer Taste der virtuellen Tastatur klein, da dasselbe ein Texteingabefenster und die virtuelle Tastatur gleichzeitig auf einem Bildschirm anzeigen muss. Aufgrund dessen weist dasselbe ein Problem des häufigen Verursachens eines Tippfehlers durch Berühren einer benachbarten Taste bei einem Vorgang des Berührens der Taste auf der virtuellen Tastatur auf. Insbesondere tritt beim Auswählen einer Taste mit einem Berührungswerkzeug mit einem geräumigen Berührungsbereich oder, wenn die virtuelle Tastatur auf einem kleinen Bildschirm angezeigt wird, der Eingabefehler häufig auf, der dem Berührungsfehler entspricht.
  • Wenn eine Navigationsvorrichtung mit dem Touchscreen ausgestattet ist, kann dieselbe, da ein Fahrer die Navigationsvorrichtung häufig während der Fahrt betätigt, die Konzentration des Fahrers verringern und zum Verursachen eines Unfalls führen.
  • ZUSAMMENFASSUNG
  • Die offenbarten Ausführungsformen erfolgten in Anbetracht der obigen Probleme und liefern ein Gerät und ein Verfahren zum Steuern einer Benutzerschnittstelle mit einem Touchscreen, bei dem ein Bereich, in dem eine Berührung erzeugt werden wird, vor der Erzeugung einer Berührung auf einem Touchscreen durch Einrichten einer Tiefenerkennungskamera verifiziert wird und der verifizierte Bereich vergrößert und an einen Bildschirm ausgegeben wird.
  • Nach einem Aspekt der vorliegenden Erfindung enthält ein Gerät zum Steuern einer Benutzerschnittstelle mit einem Touchscreen eine Eingabe- und Ausgabeeinheit mit einem Touchscreen, eine Kamera, die installiert ist, um von der Eingabe- und Ausgabeeinheit getrennt zu sein, und zumindest einen Teil bzw. eine Art von Bilddaten erhält, die einem Raum innerhalb eines kritischen Abstands von einer Vorderseite des Touchscreens entsprechen, und eine Steuerung, die eine erwartete Berührungsposition des Objektes verifiziert, wenn eine Bewegung des Objektes in dem Raum infolge einer Analyse der Bilddaten erfasst wird, und die Eingabe- und Ausgabeeinheit steuert, um einen Bereich zu vergrößern und auszugeben, der der erwarteten Berührungsposition entspricht.
  • Die Kamera ist eine Tiefenerkennungskamera. Die Steuerung analysiert den/die zumindest eine(n) Teil bzw. Art der Bilddaten, die von jedem regulären Intervall von dem Raum innerhalb des kritischen Abstands erhalten werden. Die Steuerung teilt die Bilddaten in Hintergrundbilddaten und Objektbilddaten, wenn eine Bewegung des Objektes in dem Raum durch Analysieren der Bilddaten verifiziert wird. Die Steuerung verifiziert ein Pixel, das einer Position des Objektes entspricht, unter einer Vielzahl von Pixeln, die die Objektbilddaten bilden. Die Steuerung verifiziert eine erwartete Berührungsposition, an der das Objekt den Touchscreen berühren soll, durch Abbilden des Pixels der verifizierten Objektbilddaten auf ein Pixel, das einen Bildschirm bildet, der auf dem Touchscreen ausgegeben wird. Die Steuerung vergrößert einen Bildschirm und zeigt denselben an, der auf einem Bereich, der der verifizierten erwarteten Berührungsposition entspricht, mit einem spezifischen Verhältnis angezeigt wird, und erzeugt ein Eingangssignal, das dem vergrößerten Bildschirm entspricht, wenn eine Berührung auf dem vergrößerten Bildschirm erzeugt wird.
  • Nach einem anderen Aspekt der vorliegenden Erfindung enthält ein Verfahren zum Steuern einer Benutzerschnittstelle mit einem Touchscreen das Betätigen einer Kamera gemäß einem Signal, das von einer Eingabe- und Ausgabeeinheit mit einem Touchscreen empfangen wird, durch eine Steuerung, das Analysieren von zumindest einem Teil bzw. einer Art der Bilddaten, die einem Raum innerhalb eines kritischen Abstands von einer Vorderseite des Touchscreens entsprechen und von der Kamera empfangen werden, das Verifizieren einer erwarteten Berührungsposition des Objektes, wenn eine Bewegung eines Objektes in dem Raum infolge der Analyse erfasst wird, und das Vergrößern und Ausgeben eines Bereiches, der der erwarteten Berührungsposition entspricht.
  • Das Analysieren der Bilddaten enthält das Analysieren von zumindest einem Teil bzw. einer Art der Bilddaten, die in jedem bestimmten Intervall von dem Raum innerhalb des kritischen Abstands erhalten werden. Das Analysieren der Bilddaten enthält das Teilen der Bilddaten in Hintergrundbilddaten und Objektbilddaten, wenn eine Bewegung des Objektes in dem Raum erfasst wird. Das Verifizieren der erwarteten Berührungsposition des Objektes enthält das Verifizieren eines Pixels, das einer Position des Objektes entspricht, unter einer Vielzahl von Pixeln, die die Objektbilddaten bilden, und das Verifizieren einer erwarteten Berührungsposition, an der das Objekt den Touchscreen berühren soll, durch Abbilden eines Pixels der verifizierten Objektbilddaten auf ein Pixel, das den Touchscreen bildet. Das Vergrößern und Ausgeben eines Bereiches, der der erwarteten Berührungsposition entspricht, enthält das Vergrößern und Anzeigen eines Bildschirms, der auf einem Bereich, der der verifizierten erwarteten Berührungsposition entspricht, mit einem spezifischen Verhältnis angezeigt wird.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die Aufgaben, Merkmale und Vorteile der vorliegenden Offenbarung werden aus der folgenden detaillierten Beschreibung in Verbindung mit den beiliegenden Zeichnungen offensichtlicher sein, in denen:
  • 1 eine Darstellung ist, die ein Gerät zum Steuern einer Benutzerschnittstelle mit einem Touchscreen nach einer beispielhaften Ausführungsform der vorliegenden Offenbarung veranschaulicht;
  • 2 ein Blockdiagramm ist, das ein Element eines Gerätes zum Steuern einer Benutzerschnittstelle mit einem Touchscreen nach einer beispielhaften Ausführungsform der vorliegenden Offenbarung veranschaulicht;
  • 3 eine Darstellung zum Erläutern eines Verfahrens zum Extrahieren eines Bereiches, in dem eine Berührung erwartet wird, nach einer beispielhaften Ausführungsform der vorliegenden Offenbarung ist;
  • 4 ein Ablaufplan zum Erläutern eines Verfahrens zum Steuern einer Benutzerschnittstelle mit einem Touchscreen nach einer beispielhaften Ausführungsform der vorliegenden Offenbarung ist; und
  • 5 eine beispielhafte Darstellung ist, die einen Bildschirm zum Steuern einer Benutzerschnittstelle mit einem Touchscreen nach einer beispielhaften Ausführungsform der vorliegenden Offenbarung veranschaulicht.
  • DETAILLIERTE BESCHREIBUNG BEISPIELHAFTER AUSFÜHRUNGSFORMEN
  • Beispielhafte Ausführungsformen der vorliegenden Offenbarung werden in Bezug auf die beiliegenden Zeichnungen detailliert beschrieben. Überall in den Zeichnungen werden die gleichen Bezugsnummern verwendet, um auf gleiche oder ähnliche Teile Bezug zu nehmen. Detaillierte Beschreibungen allgemein bekannter Funktionen und Strukturen, die hierin aufgenommen sind, können ausgelassen sein, um ein Verschleiern des Gegenstands der vorliegenden Offenbarung zu vermeiden.
  • Die hierin verwendete Terminologie dient nur zum Zweck des Beschreibens bestimmter Ausführungsformen und soll die Offenbarung nicht beschränken. Wie hierin verwendet, sollen die Singularformen „ein/eine” und „der/die/das” auch die Pluralformen enthalten, sofern der Kontext dies nicht anderweitig klar erkennen lässt. Es wird zudem klar sein, dass die Ausdrücke „weist auf” und/oder „aufweisend”, wenn in dieser Beschreibung verwendet, das Vorhandensein der genannten Merkmale, ganzen Zahlen, Schritte, Operationen, Elemente und/oder Bauteile spezifizieren, aber nicht das Vorhandensein oder den Zusatz von einem/einer oder mehreren anderen Merkmalen, ganzen Zahlen, Schritten, Operationen, Elementen, Bauteilen und/oder Gruppen derselben ausschließen. Wie hierin verwendet, enthält der Ausdruck „und/oder” irgendeine oder alle Kombinationen aus einem oder mehreren der assoziierten, aufgelisteten Elemente.
  • Zudem ist klar, dass die nachstehenden Verfahren durch zumindest eine Steuerung ausgeführt werden. Der Ausdruck „Steuerung” bezieht sich auf eine Hardwarevorrichtung, die einen Speicher und einen Prozessor enthält. Der Speicher ist zum Speichern von Programmbefehlen vorgesehen und der Prozessor ist insbesondere zum Ausführen der Programmbefehle vorgesehen, um einen oder mehrere Prozesse durchzuführen, die weiter untern beschrieben werden.
  • Zudem kann die Steuerung der vorliegenden Offenbarung als nicht-transitorische computerlesbare Medien auf einem computerlesbaren Datenträger ausgeführt werden, der ausführbare Programmbefehle enthält, die durch einen Prozessor, eine Steuerung oder Ähnliches ausgeführt werden. Beispiele computerlesbarer Datenträger enthalten Festwertspeicher, Direktzugriffsspeicher, Compact-Disc-Festwertspeicher (CD-ROMS), Magnetbänder, Disketten, Speichersticks, Chipkarten und optische Datenspeichervorrichtungen, sind aber nicht darauf beschränkt. Das computerlesbare Aufnahmemedium kann auch in netzwerkgekoppelten Computersystemen verteilt sein, so dass das computerlesbare Medium auf verteilte Weise gespeichert und ausgeführt wird, z. B. durch einen Telematikserver oder ein Controller Area Network (CAN).
  • 1 ist eine Darstellung, die ein Gerät zum Steuern einer Benutzerschnittstelle mit einem Touchscreen nach einer beispielhaften Ausführungsform der vorliegenden Offenbarung veranschaulicht. 2 ist ein Blockdiagramm, das ein Element eines Geräts zum Steuern einer Benutzerschnittstelle mit einem Touchscreen nach einer beispielhaften Ausführungsform der vorliegenden Offenbarung veranschaulicht. 3 ist eine Darstellung, die ein Verfahren zum Extrahieren eines Bereiches, in dem eine Berührung erwartet wird, nach einer beispielhaften Ausführungsform der vorliegenden Offenbarung erläutert.
  • In Bezug auf die 1 bis 3 enthält das Gerät zum Steuern einer Benutzerschnittstelle (nachstehend als Steuereinrichtung 100 bezeichnet) mit einem Touchscreen eine Kamera 10, eine Eingabe- und Ausgabeeinheit 20, eine Steuerung 30 und eine Speichereinheit 40.
  • Es wird erwünscht eine Tiefenerkennungskamera für die Kamera zu verwenden. Wie in 1 veranschaulicht, ist die Kamera 10 auf dem oberen Teil der Eingabe- und Ausgabeeinheit 20 installiert und erhält Bilddaten eines Objektes, das auf die Eingabe- und Ausgabeeinheit 20 zugreift. Die Kamera 10 erhält in Echtzeit die Bilddaten, die dem Raum entsprechen, in dem ein kritischer Abstand separiert ist oder der innerhalb des kritischen Abstands von einer Vorderseite des Touchscreens ist, die die Eingabe- und Ausgabeeinheit 20, insbesondere eine Eingabeeinheit ist, und stellt dieselben der Steuerung 30 bereit. Zu dieser Zeit erhält die Kamera 10 die Bilddaten des Bereiches, der einem regelmäßigen Intervall von dem Raum innerhalb des kritischen Abstands entspricht, in Echtzeit und kann dieselben der Steuerung 30 bereitstellen.
  • Die Eingabe- und Ausgabeeinheit 20 kann eine Eingabeeinheit und eine Ausgabeeinheit enthalten. Die Eingabeeinheit erfasst eine Eingabe eines Benutzers und erzeugt ein entsprechendes Eingabesignal, um dasselbe der Steuerung 30 bereitzustellen. Es wird erwünscht, dass die Eingabeeinheit als Touchscreen ausgebildet ist, wie in den 1 und 3 veranschaulicht, und zudem ein Gerät, wie beispielsweise eine Kleintastatur (keypad) und ein Touchpad, enthalten kann.
  • Die Ausgabeeinheit gibt verschiedene Informationen gemäß einer Betätigung der Steuereinrichtung 100 unter der Steuerung der Steuerung 30 aus. Die Ausgabevorrichtung ist eine Vorrichtung, wie beispielsweise eine Flüssigkristallanzeige (LCD; engl. Liquid Crystal Display), eine Dünnschichttransistor-Flüssigkristallanzeige (TFT-LCD; engl. Thin Film Transistor Liquid Crystal Display) und eine organische Leuchtdiode (OLED; engl. Organic Light Emitting Diode), und ein flexibles Display kann für die Ausgabeeinheit verwendet werden, und wenn die Eingabeeinheit der Touchscreen ist, wird erwünscht, dass dieselbe als die Ausgabeeinheit des Touchscreens dient.
  • Die Steuerung 30 verifiziert eine erwartete Berührungsposition eines Objektes, wenn eine Bewegung des Objektes in einem Raum innerhalb des kritischen Abstands von der Vorderseite des Touchscreens durch das Analysieren von Bilddaten erfasst wird, die von der Kamera 10 erhalten werden, und vergrößert den Bereich, der der Position entspricht, und gibt denselben aus.
  • Detaillierter kann die Steuerung 30, da die Kamera 10, die in der Steuereinrichtung 100 eingerichtet ist, eine Tiefenerkennungskamera ist, einen separierten Abstand zwischen jedem Pixel verifizieren, das die von der Kamera 10 erhaltenen Bilddaten und den Touchscreen bildet.
  • Mit anderen Worten legt die Steuerung 30 die Bilddaten eines Falles, wenn die Bewegung des Objektes nicht vor dem Touchscreen besteht, als Hintergrundbilddaten fest und speichert dieselben in der Speichereinheit 40. Die Steuerung 30 erkennt, dass die Bewegung des Objekts in den verifizierten Bilddaten besteht, wenn die Bilddaten, die sich von den Hintergrundbilddaten unterscheiden, durch Vergleichen der Bilddaten, die in Echtzeit von der Kamera 10 erhalten werden, und der Hintergrundbilddaten verifiziert werden. Die Steuerung 30 teilt die verifizierten Bilddaten in die Hintergrundbilddaten und die Objektbilddaten und erhält Rauminformationen des Objektes, das den Raum innerhalb des kritischen Abstands von der Vorderseite des Touchscreens durchquert, durch Verifizieren eines vertikalen/horizontalen Pixels, das die Objektbilddaten bildet.
  • Wenn die Bilddaten des Bereiches, der dem regelmäßigen Intervall in dem Raum innerhalb des kritischen Abstands entspricht, von der Kamera 10 empfangen werden, analysiert die Steuerung 30 zudem sequentiell die Bilddaten von dem Bereich, der von dem Touchscreen am weitesten entfernt ist, zu dem Bereich, der dem Touchscreen am nächsten ist. Dadurch kann die Steuerung 30 eine Verlaufsrichtung des Objektes akkurater vorhersagen.
  • Die Speichereinheit 40 speichert die Hintergrundbilddaten unter der Steuerung der Steuerung 30 und speichert verschiedene Programme, um die Steuereinrichtung 100 zu steuern.
  • In Bezug auf 3 erhält die Steuerung 30 Abstandsinformationen innerhalb einer Ebene eines Raumes, in dem die entsprechende Reihe, in der eine Bewegung des Objektes (O) erfasst wird, angegeben wird, wie in einem Spalt- bzw. Schlitzarray (slit array) der 3 veranschaulicht, als eine Wertanordnung, die den Bilddaten entspricht. Beim Schematisieren dieser Anordnung, kann dieselbe als Arraydaten in 3 angegeben werden. Mit anderen Worten kann, wenn das Objekt (O) auf einen Ort in 3 zugreift, der Punkt, auf den das Objekt zugriff, als Punkt P der Schlitzarraydaten angegeben werden. zu dieser Zeit kann der Punkt P Rauminformationen sein, die einer Position des Objektes (O) entsprechen, das den Raum innerhalb des kritischen Abstands von der Vorderseite des Touchscreens durchquert.
  • Basierend auf den Rauminformationen des erhaltenen Objektes (O) verifiziert die Steuerung 30 die erwartete Berührungsposition desselben. Die Steuerung 30 extrahiert die erwartete Berührungsposition, die das Objekt berühren soll, durch Abbilden eines Pixels, das der verifizierten erwarteten Berührungsposition entspricht, auf ein Pixel, das einen Bildschirm bildet, der auf dem Touchscreen angezeigt wird. Die Steuerung 30 vergrößert den Bildschirm und gibt denselben aus, der auf dem Bereich, der der extrahierten erwarteten Berührungsposition entspricht, mit einem spezifischen Verhältnis angezeigt wird. Hier kann das Objekt (O) ein Finger eines Benutzers und vorzugsweise ein anfassbares Objekt, wie beispielsweise ein Touchpen, sein.
  • Zudem wird in 3 beschrieben, dass ein Schlitzarray analysiert wird. Die Steuerung 30 analysiert jedoch sequenziell die Bilddaten von dem Bereich, der vom Touchscreen am weitesten entfernt ist, zu dem Bereich, der dem Touchscreen am nächsten ist, unter zumindest einem Teil bzw. einer Art der Bilddaten, die von der Kamera 10 empfangen werden. In diesem Fall kann dieselbe, da es möglich ist die Bewegung des Objektes sequenziell ab dann zu verifizieren, wenn das Objekt von dem Touchscreen weit entfernt ist, wie in 3 veranschaulicht, die Verlaufsrichtung des Objektes schneller als das Analysieren eines Schlitzarrays verifizieren.
  • Zudem wird in einer beispielhaften Ausführungsform der vorliegenden Offenbarung beschrieben, dass die Kamera 10 auf der Eingabe- und Ausgabeeinheit 20 positioniert ist. Dieselbe ist jedoch nicht darauf beschränkt und kann ungeachtet der Position gemäß der Bevorzugung des Fahrers installiert werden.
  • 4 ist ein Ablaufplan, der ein Verfahren zum Steuern einer Benutzerschnittstelle mit einem Touchscreen nach einer beispielhaften Ausführungsform der vorliegenden Offenbarung erläutert. 5 ist eine beispielhafte Darstellung, die einen Bildschirm zum Steuern einer Benutzerschnittstelle mit einem Touchscreen nach einer beispielhaften Ausführungsform der vorliegenden Offenbarung veranschaulicht.
  • In Bezug auf die 4 und 5 betätigt die Steuerung 30 die Kamera 10 durch Übergehen in eine Betriebsart zum Steuern einer Benutzerschnittstelle gemäß einer Eingabe von außen (S11). Die Steuerung 30 verifiziert, ob die Bewegung des Objektes in den Bilddaten besteht, durch Analysieren der Bilddaten, die von der Kamera 10 erhalten werden, (S13). Genauer kann die Steuerung 30 einen separierten Abstand zwischen jedem Pixel verifizieren, das die von der Kamera 10 erhaltenen Bilddaten und den Touchscreen bildet. Die Steuerung 30 akkumuliert kontinuierlich die Bilddaten, wenn keine Bewegung des Objektes vor dem Touchscreen besteht, und legt dieselben als Hintergrundbilddaten fest. Zudem vergleicht die Steuerung 30 die Bilddaten, die von der Kamera 10 in Echtzeit erhalten werden, und die Hintergrunddaten und fährt mit dem Schritt S15 fort, wenn dieselbe erkennt, dass die Bewegung des Objektes besteht, wenn der Unterschied zwischen den erhaltenen Bilddaten und den Hintergrunddaten verifiziert ist.
  • Die Steuerung 30 teilt die erhaltenen Bilddaten in Hintergrundbilddaten und Objektbilddaten und erhält die Rauminformationen des Objektes, das den Raum innerhalb des kritischen Abstands von der Vorderseite des Touchscreens durchquert, durch Verifizieren des horizontalen/vertikalen Pixels, das die Objektbilddaten bildet. Hier wird die Beschreibung zum Erhalten der Rauminformationen des Objektes ausgelassen, da dieselbe bereits in den 1 bis 3 detailliert beschrieben ist.
  • Die Steuerung 30 analysiert nacheinander die getrennten Objektbilddaten und verifiziert das Pixel, das der Position entspricht, an der das Objekt besteht, um die erwartete Berührungsposition zu verifizieren (S15). Die Steuerung 30 extrahiert die erwartete Berührungsposition, an der das Objekt berühren soll, durch Abbilden des Pixels, das der verifizierten erwarteten Berührungsposition entspricht, auf das Pixel, das den Bildschirm bildet, der auf dem Touchscreen angezeigt wird, (S17). Die Steuerung 30 vergrößert den Bildschirm und gibt denselben aus, der auf dem Bereich, der der extrahierten erwarteten Berührungsposition entspricht, mit einem bestimmten Verhältnis angezeigt wird, (S19). Dies kann als 5 angezeigt werden.
  • Wie oben beschrieben wurde, verhindern die offenbarten Ausführungsformen die Verringerung der Konzentration des Fahrers und weisen eine bemerkenswerte Wirkung zum Minimieren einer Inzidenzrate eines Unfalls, der aufgrund einer Navigationsvorrichtungsbetätigung während des Fahrens verursacht werden kann, durch Vergrößern und Ausgeben des Bereiches auf, den der Fahrer berühren soll, bevor das Objekt, wie beispielsweise ein Finger des Fahrers oder ein Touchpen, den Touchscreen erreicht.
  • Ähnlich verifizieren die offenbarten Ausführungsformen einen Bereich, in dem die Berührung erzeugt werden wird, vor der Erzeugung der Berührung auf dem Touchscreen durch Einrichten einer Tiefenerkennungskamera und weisen eine Wirkung zum Minimieren eines Eingabefehlers durch Vergrößern und Ausgeben eines Bildschirms des verifizierten Bereiches auf.
  • Zwar wurden beispielhafte Ausführungsformen der vorliegenden Offenbarung bevorstehend detailliert beschrieben, aber es sollte eindeutig klar sein, dass viele Variationen und Modifikationen der hierin gelehrten grundlegenden erfinderischen Konzepte, die sich jemandem mit Fähigkeiten in der vorliegenden Technik zeigen können, noch innerhalb des Wesens und Bereiches der vorliegenden Offenbarung liegen werden, die in den beiliegenden Ansprüchen definiert sind.
  • Bezugszeichenliste
  • 10
    KAMERA
    20
    EINGABE- UND AUSGABEEINHEIT
    30
    STEUERUNG
    40
    SPEICHEREINHEIT
    S11
    BETÄTIGE KAMERA
    S13
    ERFASSE BEWEGUNG?
    S15
    VERIFIZIERE ERWARTETE BERÜHRUNGSPOSITION
    S17
    EXTRAHIERE BEREICH
    S19
    VERGRÖßERE BEREICH UND GEBE DENSELBEN AUS

Claims (17)

  1. Gerät zum Steuern einer Benutzerschnittstelle mit einem Touchscreen, wobei das Gerät Folgendes aufweist: eine Eingabe- und Ausgabeeinheit mit einem Touchscreen; eine Kamera, die installiert ist, um von der Eingabe- und Ausgabeeinheit getrennt zu sein, und zumindest einen Teil bzw. eine Art der Bilddaten erhält, die einem Raum innerhalb eines kritischen Abstands von einer Vorderseite des Touchscreens entsprechen; und eine Steuerung, die eine erwartete Berührungsposition eines Objektes verifiziert, wenn eine Bewegung des Objektes in dem Raum infolge einer Analyse der zumindest einen Bilddaten erfasst wird, und die Eingabe- und Ausgabeeinheit steuert, um einen Bereich zu vergrößern und auszugeben, der der erwarteten Berührungsposition entspricht.
  2. Gerät nach Anspruch 1, wobei die Kamera eine Tiefenerkennungskamera ist.
  3. Gerät nach Anspruch 2, wobei die Steuerung die zumindest einen Bilddaten analysiert, die in regelmäßigen Intervallen von dem Raum innerhalb des kritischen Abstands erhalten werden.
  4. Gerät nach Anspruch 3, wobei die Steuerung die zumindest einen Bilddaten in Hintergrundbilddaten und Objektbilddaten teilt, wenn eine Bewegung des Objektes in dem Raum durch Analysieren der zumindest einen Bilddaten verifiziert wird.
  5. Gerät nach Anspruch 4, wobei die Steuerung ein Pixel, das einer Position des Objektes entspricht, unter einer Vielzahl von Pixeln verifiziert, die die Objektbilddaten bilden.
  6. Gerät nach Anspruch 5, wobei die Steuerung eine erwartete Berührungsposition, an der das Objekt den Touchscreen berühren soll, durch Abbilden des Pixels der verifizierten Objektbilddaten auf ein Pixel verifiziert, das einen Bildschirm bildet, der auf dem Touchscreen ausgegeben wird.
  7. Gerät nach Anspruch 6, wobei die Steuerung einen Bildschirm vergrößert und anzeigt, der auf einem Bereich, der der verifizierten erwarteten Berührungsposition entspricht, mit einem spezifischen Verhältnis angezeigt wird, und ein Eingangssignal erzeugt, das dem vergrößerten Bildschirm entspricht, wenn eine Berührung auf dem vergrößerten Bildschirm erzeugt wird.
  8. Verfahren zum Steuern einer Benutzerschnittstelle mit einem Touchscreen, wobei das Verfahren Folgendes aufweist: Betätigen einer Kamera gemäß einem Signal, das von einer Eingabe- und Ausgabeeinheit mit einem Touchscreen empfangen wird, durch eine Steuerung; Analysieren der zumindest einen Bilddaten, die einem Raum innerhalb eines kritischen Abstands von einer Vorderseite des Touchscreens entsprechen und von der Kamera empfangen werden, durch die Steuerung; Verifizieren einer erwarteten Berührungsposition eines Objektes durch die Steuerung, wenn eine Bewegung des Objektes in dem Raum infolge der Analyse erfasst wird; und Vergrößern und Ausgeben eines Bereiches durch die Steuerung, der der erwarteten Berührungsposition entspricht.
  9. Verfahren nach Anspruch 8, wobei das Analysieren der zumindest einen Bilddaten das Analysieren der zumindest einen Bilddaten aufweist, die in regelmäßigen Intervallen von dem Raum innerhalb des kritischen Abstands erhalten werden.
  10. Verfahren nach Anspruch 8, wobei das Analysieren der zumindest einen Bilddaten das Trennen der zumindest einen Bilddaten in Hintergrundbilddaten und Objektbilddaten aufweist, wenn eine Bewegung des Objektes in dem Raum erfasst wird.
  11. Verfahren nach Anspruch 10, wobei das Verifizieren der erwarteten Berührungsposition des Objektes Folgendes aufweist: Verifizieren eines Pixels, das einer Position des Objektes entspricht, unter einer Vielzahl von Pixeln, die die Objektbilddaten bilden; und Verifizieren der erwarteten Berührungsposition, an der das Objekt den Touchscreen berühren soll, durch Abbilden eines Pixels der verifizierten Objektbilddaten auf ein Pixel, das den Touchscreen bildet.
  12. Verfahren nach Anspruch 11, wobei das Vergrößern und Ausgeben des Bereiches, der der erwarteten Berührungsposition entspricht, das Vergrößern und Anzeigen eines Bildschirms aufweist, der auf einem Bereich, der der verifizierten erwarteten Berührungsposition entspricht, mit einem spezifischen Verhältnis angezeigt wird.
  13. Nicht-transitorisches computerlesbares Medium mit Programmbefehlen zum Steuern einer Benutzerschnittstelle mit einem Touchscreen, die eine Eingabe- und Ausgabeeinheit mit einem Touchscreen und eine Kamera enthält, die installiert ist, um von der Eingabe- und Ausgabeeinheit getrennt zu sein, wobei das computerlesbare Medium Folgendes aufweist: Programmbefehle, die die zumindest einen Bilddaten analysieren, die einem Raum innerhalb eines kritischen Abstands von einer Vorderseite des Touchscreens entsprechen und von der Kamera empfangen werden; Programmbefehle, die eine erwartete Berührungsposition eines Objektes verifizieren, wenn eine Bewegung des Objektes in dem Raum infolge der Analyse erfasst wird; und Programmbefehle, die einen Bereich, der der erwarteten Berührungsposition entspricht, vergrößern und ausgeben.
  14. Computerlesbares Medium nach Anspruch 13, wobei die Programmbefehle, die die zumindest einen Bilddaten analysieren, Programmbefehle aufweisen, die die zumindest einen Bilddaten analysieren, die in regelmäßigen Intervallen von dem Raum innerhalb des kritischen Abstands erhalten werden.
  15. Verfahren nach Anspruch 13, wobei die Programmbefehle, die die zumindest einen Bilddaten analysieren, Programmbefehle aufweisen, die die zumindest einen Bilddaten in Hintergrundbilddaten und Objektbilddaten trennen, wenn eine Bewegung des Objektes in dem Raum erfasst wird.
  16. Verfahren nach Anspruch 15, wobei die Programmbefehle, die die erwartete Berührungsposition des Objektes verifizieren, Folgendes aufweisen: Programmbefehle, die ein Pixel, das einer Position des Objektes entspricht, unter einer Vielzahl von Pixeln verifizieren, die die Objektbilddaten bilden; und Programmbefehle, die die erwartete Berührungsposition, an der das Objekt den Touchscreen berühren soll, durch Abbilden eines Pixels der verifizierten Objektbilddaten auf ein Pixel verifizieren, das den Touchscreen bildet.
  17. Verfahren nach Anspruch 16, wobei die Programmbefehle, die den Bereich vergrößern und ausgeben, der der erwarteten Berührungsposition entspricht, Programmbefehle aufweisen, die einen Bildschirm vergrößern und ausgeben, der auf einem Bereich, der der verifizierten erwarteten Berührungsposition entspricht, mit einem spezifischen Verhältnis angezeigt wird.
DE102013221548.7A 2013-07-05 2013-10-23 Gerät und verfahren zum steuern einer mit einem touchscreen ausgestatteten benutzerschnittstelle Pending DE102013221548A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130079071A KR101500098B1 (ko) 2013-07-05 2013-07-05 터치스크린을 구비한 유저인터페이스 제어 장치 및 방법
KR10-2013-0079071 2013-07-05

Publications (1)

Publication Number Publication Date
DE102013221548A1 true DE102013221548A1 (de) 2015-01-08

Family

ID=52106343

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013221548.7A Pending DE102013221548A1 (de) 2013-07-05 2013-10-23 Gerät und verfahren zum steuern einer mit einem touchscreen ausgestatteten benutzerschnittstelle

Country Status (4)

Country Link
US (1) US9235284B2 (de)
KR (1) KR101500098B1 (de)
CN (1) CN104281381B (de)
DE (1) DE102013221548A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102347248B1 (ko) * 2014-11-26 2022-01-04 삼성전자주식회사 터치 제스쳐 인식 방법 및 장치
KR102564025B1 (ko) 2018-11-23 2023-08-04 현대자동차주식회사 하이브리드 차량 제어 장치 및 그 방법

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080029028A (ko) 2006-09-28 2008-04-03 삼성전자주식회사 터치 스크린을 갖는 단말기의 문자 입력 방법
KR20090017828A (ko) 2007-08-16 2009-02-19 엘지전자 주식회사 인터페이스 제어 방법 및 인터페이스 제어 장치
KR101403079B1 (ko) * 2007-08-22 2014-06-02 엘지전자 주식회사 터치스크린에서 화면 줌 방법 및 이를 이용한 단말기
KR101495350B1 (ko) * 2008-06-24 2015-02-24 엘지전자 주식회사 근접 터치 감지 기능을 갖는 휴대 단말기
CN101539838A (zh) * 2009-05-04 2009-09-23 深圳华为通信技术有限公司 一种触摸屏用户输入的方法和装置
US8982160B2 (en) * 2010-04-16 2015-03-17 Qualcomm, Incorporated Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size
JP2012212240A (ja) 2011-03-30 2012-11-01 Aisin Aw Co Ltd タッチパネルシステム
CN102799344B (zh) * 2011-05-27 2014-11-19 株式会社理光 虚拟触摸屏系统以及方法
US8884928B1 (en) * 2012-01-26 2014-11-11 Amazon Technologies, Inc. Correcting for parallax in electronic displays

Also Published As

Publication number Publication date
KR101500098B1 (ko) 2015-03-06
US20150009153A1 (en) 2015-01-08
US9235284B2 (en) 2016-01-12
CN104281381B (zh) 2019-08-23
CN104281381A (zh) 2015-01-14
KR20150005296A (ko) 2015-01-14

Similar Documents

Publication Publication Date Title
DE102013114174B4 (de) Anzeigevorrichtung mit integriertem berührungsempflindlichem Bildschirm
DE112013004801T5 (de) Multimodaler Berührungsbildschirmemulator
DE102013211011B4 (de) Entsperrungsverfahren und Mobilgerät, das dasselbe verwendet
DE112014003563B4 (de) Vorrichtung und Verfahren zur Gestenbestimmung, Gestenbedienungsvorrichtung, Programm und Aufzeichnungsmedium
DE102014002848B4 (de) Austausch von Zeichenfolgen
DE202011110907U1 (de) Markierungsmenüs für Mehrfachberührung und richtungsabhängige musterbildende Gesten
DE102015110495A1 (de) Informationsverarbeitungsvorrichtung, die ein bestimmtes objekt in einem aufgenommenen bild erkennt, und verfahren zu deren steuerung
DE102010038655A1 (de) Verfahren und Vorrichtung für das Zoomen mit einer einzigen Berührung unter Verwendung einer Spiraldrehung
US20140208263A1 (en) System and method for dynamically displaying characters over a screen of a computerized mobile device
DE202008000261U1 (de) Vielfach-Berührungsdatenfussionssystem
DE112013006066T5 (de) Die Druckempfindlichkeit auf Multi-Touch-Einheiten emulieren
DE112010002760T5 (de) Benutzerschnittstelle
DE102009023875A1 (de) Gestenerkennungsschittstellensystem mit vertikaler Anzeigefläche
DE102015112910A1 (de) Sichere Handschrifteingabe in Passwortfelder
DE202017105614U1 (de) Systeme und Computerprogrammprodukte für eine Touchscreen-Benutzeroberfläche eines kollaborativen Bearbeitungstools
DE112018002775T5 (de) Verfahren und vorrichtung zum erfassen von ebenen und/oder quadtrees zur verwendung als ein virtuelles substrat
DE102014105214A1 (de) Verfahren und Vorrichtung zur Lokalisierung eines Berührungspunkts, und elektronische Einrichtung
DE102008061039A1 (de) Verfahren zur optischen Multitouchsteuerung für grafische Benutzerschnittstelle
US20200125481A1 (en) Screen recording preparation method for evaluating software usability, computing system, computer program and computer-readable storage medium implementing the method
CN107608596A (zh) 一种电子书翻页的方法、终端及存储介质
DE112018002678T5 (de) Designüberprüfungsgerät, Designprüfverfahren und Programm
DE112016002275T5 (de) Koordinierte benutzerwortauswahl zum übersetzen und erhalten von kontextinformtionen für das ausgewählte wort
DE112011105894T5 (de) Eingabemethode auf der Grundlage eines Standorts einer Handbewegung
DE102014209839A1 (de) Tastfeld und Tasterfassungsverfahren für dieses
US20200302173A1 (en) Image processing device, image processing method, and image processing system

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication