DE102018100809A1 - Verfahren, vorrichtung und endgerät zum anzeigen einer virtuellen tastatur - Google Patents

Verfahren, vorrichtung und endgerät zum anzeigen einer virtuellen tastatur Download PDF

Info

Publication number
DE102018100809A1
DE102018100809A1 DE102018100809.0A DE102018100809A DE102018100809A1 DE 102018100809 A1 DE102018100809 A1 DE 102018100809A1 DE 102018100809 A DE102018100809 A DE 102018100809A DE 102018100809 A1 DE102018100809 A1 DE 102018100809A1
Authority
DE
Germany
Prior art keywords
key
triggered
virtual keyboard
animation
triggering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018100809.0A
Other languages
English (en)
Inventor
Weilong ZHAO
Ryohta Nomura
Seiichi Kawano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Publication of DE102018100809A1 publication Critical patent/DE102018100809A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0237Character input methods using prediction or retrieval techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

Verfahren, Vorrichtung und Endgerät zum Anzeigen einer virtuellen Tastatur werden bereitgestellt. Das Verfahren zum Anzeigen einer virtuellen Tastatur enthält: Anzeigen der virtuellen Tastatur auf einem berührungsgesteuerten Bildschirm, wobei die virtuelle Tastatur eine Mehrzahl von Tasten mit einem dreidimensionalen (3D) Darstellungseffekt aufweist; Erfassen eines auslösenden Ereignisses auf dem berührungsgesteuerten Bildschirm, wobei das auslösende Ereignis durch eine auslösende Bedienhandlung auf dem berührungsgesteuerten Bildschirm ausgelöst wird; Bestimmen einer ausgelösten Taste der virtuellen Tastatur auf der Grundlage einer Position des auslösenden Ereignisses; Ausführen einer Auslöseanimation der ausgelösten Taste, wobei die Auslöseanimation eine gerenderte Animation ist, die einen Auslöseprozess einer physischen Taste simuliert; und Eingeben von Tasteninformationen, die der ausgelösten Taste entsprechen.

Description

  • VERWEISE AUF VERWANDTE PATENTANMELDUNGEN
  • Diese Anmeldung beansprucht Priorität der chinesischen Patentanmeldung Nr. 201710188828.8 , eingereicht am 27. März 2017, deren Inhalt durch Verweis vollständig hierin mit aufgenommen sei.
  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft allgemein das technische Gebiet der natürlichen Sprachverarbeitung und betrifft spezifischer ein Verfahren, eine Vorrichtung und ein Endgerät zum Anzeigen einer virtuellen Tastatur.
  • HINTERGRUND
  • Virtuelle Berührungsbildschirmtastaturen werden häufig in smarten mobilen Endgeräten wie Mobiltelefonen oder Tablets verwendet. Eine virtuelle Berührungsbildschirmtastatur kann integrierte Funktionen sowohl für auf einer virtuellen Tastatur basierende als auch für handschriftbasierte Eingabemethoden aufweisen. Virtuelle Berührungsbildschirmtastaturen können leicht benutzbar, intelligent und an den Menschen angepasst sein, wodurch sie unterschiedliche Eingabeerfordernisse des Benutzers befriedigen und bei mobilen Endgeräten mit großen Bildschirmen den Verzicht auf physische Tastaturen ermöglichen.
  • Allerdings sind aufgrund der geringen Größe des mobilen Endgeräts und der entsprechenden geringen Größe des berührungsgesteuerten Bildschirms die Tasten der virtuellen Tastatur oft kleiner als die Tasten einer physischen Tastatur. Daraus folgt, dass der Benutzer bei Verwendung einer virtuellen Tastatur zunächst die Positionen der jeweiligen Tasten genau ermitteln und dann auf die Tasten drücken oder klicken muss. Dadurch wird die Geschwindigkeit und Präzision der Informationseingabe extrem verringert.
  • KURZDARSTELLUNG DER OFFENBARUNG
  • Ein Aspekt der vorliegenden Offenbarung stellt ein Verfahren zum Anzeigen einer virtuellen Tastatur bereit, enthaltend: Anzeigen der virtuellen Tastatur auf einem berührungsgesteuerten Bildschirm, wobei die virtuelle Tastatur eine Mehrzahl von Tasten mit einem dreidimensionalen (3D) Darstellungseffekt aufweist; Erfassen eines auslösenden Ereignisses auf dem berührungsgesteuerten Bildschirm, wobei das auslösende Ereignis durch eine auslösende Bedienhandlung auf dem berührungsgesteuerten Bildschirm ausgelöst wird; Bestimmen einer ausgelösten Taste der virtuellen Tastatur auf der Grundlage einer Position des auslösenden Ereignisses; Ausführen einer Auslöseanimation der ausgelösten Taste; und Eingeben von Tasteninformationen, die der ausgelösten Taste entsprechen. Die Auslöseanimation ist eine gerenderte Animation, die einen Auslöseprozess einer physischen Taste simuliert.
  • Ein anderer Aspekt der vorliegenden Offenbarung stellt eine Vorrichtung zum Anzeigen einer virtuellen Tastatur bereit, enthaltend: einen Speicher und einen Prozessor, der mit dem Speicher gekoppelt ist. Der Speicher speichert computerlesbare Programmbefehle und der Prozessor, als Reaktion auf das Ausführen der computerlesbaren Programmbefehle: zeigt eine virtuelle Tastatur auf einem berührungsgesteuerten Bildschirm an, wobei die virtuelle Tastatur eine Mehrzahl von Tasten mit einem dreidimensionalen (3D) Darstellungseffekt aufweist; erfasst ein auslösendes Ereignis auf dem berührungsgesteuerten Bildschirm, wobei das auslösende Ereignis durch eine auslösende Bedienhandlung auf dem berührungsgesteuerten Bildschirm ausgelöst wird; bestimmt eine ausgelöste Taste der virtuellen Tastatur auf der Grundlage einer Position des auslösenden Ereignisses; führt eine Auslöseanimation der ausgelösten Taste aus, wobei die Auslöseanimation eine gerenderte Animation ist, die einen Auslöseprozess einer physischen Taste simuliert; und gibt Tasteninformationen ein, die der ausgelösten Taste entsprechen.
  • Ein anderer Aspekt der vorliegenden Offenbarung stellt ein Endgerät zum Anzeigen einer virtuellen Tastatur bereit, enthaltend: einen berührungsgesteuerten Bildschirm und eine Vorrichtung. Die Vorrichtung enthält ferner einen Speicher und einen Prozessor, der mit dem Speicher gekoppelt ist. Der Speicher speichert computerlesbare Programmbefehle und der Prozessor, als Reaktion auf das Ausführen der computerlesbaren Programmbefehle: zeigt eine virtuelle Tastatur auf einem berührungsgesteuerten Bildschirm an; erfasst ein auslösendes Ereignis auf dem berührungsgesteuerten Bildschirm, wobei das auslösende Ereignis durch eine auslösende Bedienhandlung auf dem berührungsgesteuerten Bildschirm ausgelöst wird; bestimmt eine ausgelöste Taste der virtuellen Tastatur auf der Grundlage einer Position des auslösenden Ereignisses; führt eine Auslöseanimation der ausgelösten Taste aus; und gibt Tasteninformationen ein, die der ausgelösten Taste entsprechen. Die virtuelle Tastatur weist eine Mehrzahl von Tasten mit einem dreidimensionalen (3D) Darstellungseffekt auf. Die Auslöseanimation ist eine gerenderte Animation, die einen Auslöseprozess einer physischen Taste simuliert.
  • Weitere Aspekte der vorliegenden Offenbarung sind dem Fachmann anhand der Beschreibung, der Patentansprüche und der Zeichnungen der vorliegenden Offenbarung verständlich.
  • Figurenliste
  • Weitere Ziele und Vorteile der vorliegenden Offenbarung werden dem Fachmann durch genaues Lesen der technischen Lösungen in den Ausführungsformen der vorliegenden Offenbarung ersichtlich. Die beigefügten Zeichnungen dienen nur beschreibenden Zwecken und sollten nicht als Beschränkungen der vorliegenden Offenbarung angesehen werden. Innerhalb der beigefügten Zeichnungen werden die gleichen oder ähnlichen Bezugszeichen durchgängig mit Bezug auf die gleichen oder ähnlichen Teile verwendet.
    • 1 stellt ein Ablaufdiagramm eines Beispiels für ein Verfahren zum Anzeigen einer virtuellen Tastatur nach einigen Ausführungsformen der vorliegenden Offenbarung dar;
    • 2 stellt ein Beispiel einer in einem Mobiltelefon verwendbaren virtuellen Tastatur nach einigen Ausführungsformen der vorliegenden Offenbarung dar;
    • 3 stellt ein Ablaufdiagramm eines anderen Beispiels für ein Verfahren zum Anzeigen einer virtuellen Tastatur nach einigen Ausführungsformen der vorliegenden Offenbarung dar;
    • 4 stellt ein Beispiel einer virtuellen Taste nach einigen Ausführungsformen der vorliegenden Offenbarung vor und nach dem Druck auf diese Taste dar;
    • 5 stellt ein Diagramm dar, das ein Beispiel einer Anzeigevorrichtung für eine virtuelle Tastatur nach einigen Ausführungsformen der vorliegenden Offenbarung zeigt;
    • 6 stellt ein Diagramm dar, das ein anderes Beispiel einer Anzeigevorrichtung für eine virtuelle Tastatur nach einigen Ausführungsformen der vorliegenden Offenbarung zeigt; und
    • 7 stellt ein Diagramm dar, das ein Beispiel eines Teils einer virtuellen Tastatur nach einigen Ausführungsformen der vorliegenden Offenbarung zeigt, die einen dreidimensionalen (3D) Darstellungseffekt aufweist.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Verschiedene Aspekte und Merkmale der vorliegenden Offenbarung werden im Folgenden unter Bezugnahme auf die beigefügten Zeichnungen beschrieben. Es versteht sich, dass verschiedene Modifikationen der offenbarten Ausführungsformen durchgeführt werden können. Demzufolge sollte die Spezifikation nicht als beschränkend aufgefasst werden, sondern soll nur der Illustration von Beispielen der Ausführungsformen dienen. Vom jeweiligen Fachmann ausführbare weitere Modifikationen sollen sämtlich als in Geist und Umfang der vorliegenden Spezifikation enthalten angesehen werden.
  • Die vorliegende Offenbarung stellt ein Verfahren, eine Vorrichtung und ein Endgerät zum Anzeigen einer virtuellen Tastatur bereit. Die vorliegende Offenbarung stellt Verbesserungen für virtuelle Tastaturen bereit, die mit berührungsgesteuerten Bildschirmen verwendet werden. Beispielsweise kann sich bei der Anzeige und Benutzung der virtuellen Tastaturen die Effektivität der Dateneingabe verbessern.
  • 1 stellt ein Ablaufdiagramm eines Beispiels für ein Verfahren zum Anzeigen einer virtuellen Tastatur nach einigen Ausführungsformen der vorliegenden Offenbarung dar.
  • In S101 wird eine virtuelle Tastatur auf einem berührungsgesteuerten Bildschirm angezeigt.
  • Beispielsweise kann die virtuelle Tastatur in Verbindung mit einem berührungsgesteuerten Bildschirm benutzt werden. Auf der Grundlage eines Dateneingabebefehls kann die virtuelle Tastatur an einer bestimmten Position des berührungsgesteuerten Bildschirms angezeigt werden, indem sie beispielsweise aufklappt.
  • Der berührungsgesteuerte Bildschirm kann in einer Vorrichtung, einem Endgerät oder beliebigen geeigneten elektronischen Geräten enthalten sein. Zum Beispiel zeigt 2 eine virtuelle Tastatur, die bei einem Mobiltelefon anwendbar ist. Bezug nehmend auf 2 kann ein Mobiltelefon 1 einen berührungsgesteuerten Bildschirm 2 enthalten, und der berührungsgesteuerte Bildschirm 2 kann eine virtuelle Tastatur 3 anzeigen, auf der der Benutzer Informationen eingeben kann.
  • Die virtuelle Tastatur 3 kann im unteren Bereich des berührungsgesteuerten Bildschirms 2 angeordnet sein, parallel zu einer Längsseite (oder längeren Seite) des berührungsgesteuerten Bildschirms 2 im Querformatmodus. Alternativ kann die virtuelle Tastatur 3 im unteren Bereich des berührungsgesteuerten Bildschirms 2 parallel zu einer Schmalseite (oder kürzeren Seite) des berührungsgesteuerten Bildschirms 2 im Hochformatmodus angeordnet sein. Jede andere geeignete Position kann zum Anordnen der virtuellen Tastatur 3 verwendet werden.
  • Der hier verwendete Begriff „Querformatmodus“ bezieht sich auf einen Anzeigemodus, bei dem die Längsseite (oder längere Seite) des berührungsgesteuerten Bildschirms horizontal und die Schmalseite (oder kürzere Seite) vertikal angeordnet ist, und der Begriff „Hochformatmodus“ bezieht sich auf einen Anzeigemodus, bei dem die Längsseite (oder längere Seite) des berührungsgesteuerten Bildschirms vertikal und die Schmalseite (oder kürzere Seite) horizontal angeordnet ist.
  • Ferner kann der Dateneingabebefehl eine „Berührung“ innerhalb des Bereichs einer Suchleiste auf einer Benutzeroberfläche (UI-User Interface) sein oder ein Klick auf ein Suchsymbol oder Eingabesymbol auf dem berührungsgesteuerten Bildschirm, wobei die „Berührung“ dann stattfindet, wenn der Benutzer den Bildschirm mittels eines Fingers oder mehrerer Finger oder eines Werkzeugs, beispielsweise eines Stifts, kontaktiert. Allerdings soll die vorliegende Offenbarung auf keinerlei bestimmte Formen von Dateneingabebefehlen beschränkt sein.
  • Ferner kann die Anzeigegröße der virtuellen Tastatur auf der Grundlage der Größe des berührungsgesteuerten Bildschirms angepasst werden. Bei einem Beispiel könnte die virtuelle Tastatur eine QWERTY-Tastatur sein, und wenn in Geräten wie dem Mobiltelefon, E-Book oder Tablet der Bildschirm zum Anzeigen der virtuellen Tastatur relativ klein ist, könnte die Größe der virtuellen Tastatur so konfiguriert sein, dass sie sich mit der Größe des Bildschirms verändert. Mit anderen Worten, je größer der Bildschirm, desto größer die entsprechend angezeigt virtuelle Tastatur. Optional könnte sich die Größe der virtuellen Tastatur auch bei einer Änderung des Anzeigemodus des Bildschirms, z. B. vom Querformatmodus in den Hochformatmodus, entsprechend ändern.
  • Bei einigen anderen Beispielen könnte sich die Größe der virtuellen Tastatur nicht ändern, wenn sich die Größe des Bildschirms ändert. Beispielsweise könnte es nötig sein, dass der Bildschirm eine ausreichende Größe aufweist, wenn er in einer Vorrichtung mit großem Bildschirm (z. B. einem Geldautomaten, ATM, usw.) verwendet wird. In einer solchen Situation kann die Größe der auf dem Bildschirm integrierten virtuellen Tastatur gleich oder ähnlich der Größe einer physischen Tastatur sein, welche sich nicht bei einer Änderung der Bildschirmgröße ändert.
  • Ferner kann die virtuelle Tastatur einen auf einem Bildschirm, z. B. einem berührungsgesteuerten Bildschirm, gezeigten dreidimensionalen (3D) Darstellungseffekt aufweisen. Beispielsweise stellt 7 ein Diagramm dar, das einen Teil einer virtuellen Tastatur zeigt, die einen 3D-Darstellungseffekt aufweist. Wie in 7 gezeigt, können Tasten der virtuellen Tastatur jeweils einen Schatten (auch als „dunkles Feld“ oder „Schattenbereich“ bezeichnet) aufweisen. Der Schatten kann durch eine dicke Linie an einer Unterseite jeder Taste repräsentiert sein, um einen stereoskopischen Eindruck der Taste zu verstärken. Die Stärke und Breite der dicken Linie an der Unterseite jeder Taste kann auf der Grundlage des Layouts der virtuellen Tastatur konfiguriert werden. Optional kann der Schatten je nach den momentanen Anforderungen andere Formen und Positionen aufweisen.
  • In S102 wird ein auslösendes Ereignis des berührungsgesteuerten Bildschirms erfasst.
  • Der berührungsgesteuerte Bildschirm kann auch als ein Berührungsbildschirm oder als ein berührungsgesteuertes Bedienfeld bezeichnet werden. Der berührungsgesteuerte Bildschirm kann beispielsweise eine Flüssigkristallanzeigevorrichtung (LCD-Vorrichtung) des Induktions-Typs sein, die eine Fähigkeit zum Empfangen von Eingabesignalen wie Berührung oder Kontakt aufweist. Unterschiedliche Berührungsbildschirme können vom Umfang der vorliegenden Offenbarung umfasst sein. Dazu gehören: auf Druckvektorsensoren basierende Berührungsbildschirme, auf Widerständen basierende Berührungsbildschirme, auf Kondensatoren basierende Berührungsbildschirme, auf Infrarot-Technik (IR-Technik) basierende Berührungsbildschirme und auf akustischen Oberflächenwellen (SAW-Surface Acoustic Wave) basierende Berührungsbildschirme. Je nach den Funktionsprinzipien der Berührungsbildschirme und dem zur Informationsübermittlung verwendeten Medium können die Berührungsbildschirme alternativ enthalten: resistiver Berührungsbildschirm, kapazitiver Berührungsbildschirm, Infrarot-Berührungsbildschirm und SAW-Berührungsbildschirm.
  • Allerdings soll die vorliegende Offenbarung keinerlei Beschränkung der Arten von berührungsgesteuerten Bildschirmen vornehmen, und der Benutzer kann ein entsprechendes auslösendes Ereignis durch das Ausführen einer berührungsgesteuerten Bedienhandlung auf dem berührungsgesteuerten Bildschirm auslösen. In manchen Ausführungsformen kann das auslösende Ereignis durch eine berührungsgesteuerte Bedienhandlung (z. B. Klicken oder Schieben) ausgelöst werden, die der Benutzer innerhalb des Anzeigebereichs (z. B. auf Tasten) der virtuellen Tastatur ausführt, so dass der Zeicheninhalt, den der Nutzer eingeben möchte, mittels der virtuellen Tastatur erfasst werden kann. Bei der berührungsgesteuerten Bedienhandlung kann es sich beispielsweise um einen Klick oder Doppelklick auf eine Taste, um Klicks auf eine Mehrzahl von Tasten oder um ein Schieben oder Wischen über die virtuelle Tastatur mittels eines Fingers oder eines Stifts zur Eingabe eines oder mehrerer Zeichen handeln.
  • In S103 werden eine oder mehrere ausgelöste Tasten der virtuellen Tastatur auf der Grundlage einer Position des auslösenden Ereignisses bestimmt.
  • In manchen Ausführungsformen kann die virtuelle Tastatur auf dem berührungsgesteuerten Bildschirm eine relativ feste Position haben. Damit kann auf der Grundlage der Position des durch die Bedienhandlung des Benutzers auf dem berührungsgesteuerten Bildschirm erzeugten auslösenden Ereignisses bestimmt werden, ob das auslösende Ereignis innerhalb der virtuellen Tastatur stattfindet, und die durch das auslösende Ereignis ausgelöste(n) spezifische(n) Taste(n) kann oder können bestimmt werden. Der berührungsgesteuerte Bildschirm kann eine Selbstpositionierungs-Funktion aufweisen und alle geeigneten Methoden zur Bestimmung der auf der virtuellen Tastatur ausgelösten Taste(n) können in die vorliegende Offenbarung aufgenommen sein.
  • In S104 wird eine Auslöseanimation für eine ausgelöste Taste ausgeführt.
  • Nachdem eine ausgelöste Taste bestimmt wurde, kann eine dynamische Vorführung des Drückens der Taste ausgeführt werden, d. h. eine Auslöseanimation der ausgelösten Taste wird ausgeführt. Die Auslöseanimation kann eine gerenderte Animation sein, die einen Auslöseprozess einer physischen Taste simuliert. Beispielsweise kann die Auslöseanimation eine Animation sein, die einen Vorgang des Herunterdrückens der Taste, einen Vorgang des Nach-Oben-Springens oder eine Kombination beider darstellt. Allerdings ist die vorliegende Offenbarung nicht darauf beschränkt und der Benutzer kann entsprechend seiner Bediengewohnheiten oder dem momentanen Bedarf spezifische Konfigurationen durchführen.
  • Ferner kann die Korrelation zwischen dem Ausführen der Auslöseanimation der virtuellen Tastatur und dem benutzerseitigen Ausführen der auslösenden Bedienhandlung (z. B. Drücken oder Klicken einer einzelnen Taste) durch den Benutzer definiert und konfiguriert werden. Der Benutzer kann zum Beispiel konfigurieren, ob das Ausführen der Auslöseanimation der virtuellen Tastatur und das benutzerseitige Ausführen der auslösenden Bedienhandlung korrelieren oder nicht.
  • Wenn der Benutzer die Konfiguration so vornimmt, dass die Ausführung der Auslöseanimation und die Ausführung der auslösenden Bedienhandlung korrelieren, kann die Ausführungsgeschwindigkeit der Auslöseanimation von der Geschwindigkeit abhängen, mit der der Benutzer die auslösende Bedienhandlung ausführt. Wenn man als Beispiel die Bedienhandlung des „Taste-Herunterdrückens“ betrachtet, kann bei benutzerseitiger Ausführung des Bedienhandlung des „Taste-Herunterdrückens“ auf einer bestimmten Taste die Geschwindigkeit der Animation, die das Drücken der Taste darstellt, auf der Grundlage der vom Benutzer ausgeübten Kraft bei der Bedienhandlung des „Taste-Herunterdrückens“ angepasst werden. Dadurch kann visuell nachempfunden werden, ob die benutzerseitige Bedienhandlung ein kurzer Klick oder eine lange Berührung ist. Der kurze Klick könnte einer Animation entsprechen, die zeigt, wie die Taste schnell gedrückt wird, und die lange Berührung könnte einer Animation entsprechen, die zeigt, wie die Taste langsam gedrückt wird.
  • Optional kann der Benutzer die Konfiguration so vornehmen, dass die Ausführung der Auslöseanimation und die Ausführung der auslösenden Bedienhandlung nicht korrelieren. In einer solchen Situation könnte die Auslöseanimation mit dem auslösenden Ereignis korrelieren. Beispielsweise wird die Auslöseanimation als Reaktion auf ein auslösendes Ereignis ausgeführt.
  • Wenn die Ausführung der Auslöseanimation so konfiguriert ist, dass sie mit der Ausführung einer auslösenden Bedienhandlung korreliert, kann prinzipiell eine große Menge an Systemressourcen verbraucht werden, da die auslösende Bedienhandlung in Echtzeit erkannt werden muss, um die Anzeige der Auslöseanimation zu steuern. Dementsprechend darf der Benutzer auf der Grundlage der spezifischen Konfiguration des smarten Endgeräts oder des intelligenten Geräts die Wahl treffen, ob die Ausführung der Auslöseanimation der virtuellen Tastatur und die benutzerseitige Ausführung der auslösenden Bedienhandlung korrelieren sollen oder nicht.
  • Ferner ist die Auslöseanimation so konfiguriert, dass sie einer einzelnen Taste entspricht, und jede Taste weist eine entsprechende Auslöseanimation auf. Dementsprechend kann die virtuelle Tastatur bei im Wesentlichen gleichzeitiger Ausführung einer Mehrzahl von auslösenden Bedienhandlungen durch den Nutzer in der Lage sein, die Auslöseanimationen der Mehrzahl von auslösenden Bedienhandlungen im Wesentlichen gleichzeitig auszuführen, so dass als Reaktion auf die benutzerseitigen Bedienhandlungen ein Maximum an visueller Reaktion und Rückmeldung bereitgestellt wird.
  • In S105 werden Tasteninformationen eingegeben, die der ausgelösten Taste entsprechen.
  • Nachdem die ausgelöste Taste bestimmt und die entsprechende Auslöseanimation ausgeführt wurde, können die der ausgelösten Taste entsprechenden Tasteninformationen (oder Zeicheninformationen) an einer entsprechenden Position eingegeben oder gespeichert werden. Häufig ist die Beziehung der Tasten auf der virtuellen Tastatur zu den Tasteninformationen oder Zeichen eine Eins-zu-eins-Entsprechung. Mit zunehmender Verbreitung von drucksensitiven oder kraftsensitiven berührungsgesteuerten Bildschirmen können allerdings mit unterschiedlichem Druck oder unterschiedlicher Kraft ausgeführte benutzerseitige berührungsgesteuerte Bedienhandlungen auf einem bestimmten Punkt des berührungsgesteuerten Bildschirms unterschiedlichen Ergebnissen der Bedienhandlung entsprechen. Beispielsweise kann das unterschiedlich starke Drücken einer Taste unterschiedlichen Tasteninformationen entsprechen.
  • Die Druckstärke des Benutzers beim Ausführen einer auslösenden Bedienhandlung kann durch den drucksensitiven oder kraftsensitiven berührungsgesteuerten Bildschirm erfasst werden und unterschiedliche Druckstärken können unterschiedlichen Tasteninformationen entsprechen. In einem Beispiel werden zwei verschiedene Eingabeergebnisse erzielt, wenn der Benutzer auf einem kraftsensitiven berührungsgesteuerten Bildschirm eine Taste mit unterschiedlicher Druckstärke drückt: das Aufnehmen eines Großbuchstabens oder eines Kleinbuchstabens. Der Großbuchstabe kann beispielsweise erzielt werden, wenn die Druckstärke einem vorgegebenen Schwellwert entspricht oder diesen überschreitet.
  • Prinzipiell kann das Anzeigeverfahren der virtuellen Tastatur eine 3D-Darstellung der virtuellen Tastatur auf dem berührungsgesteuerten Bildschirm des intelligenten Geräts oder smarten Endgeräts bereitstellen. Ferner können, wenn der Benutzer eine Bedienhandlung ausführt, eine oder mehrere Auslöseanimation(en) auf der oder den virtuellen Taste(n) als Reaktion auf die benutzerseitige Bedienhandlung ausgeführt werden. Die Animation kann dem Benutzer ermöglichen, als Antwort auf die auslösende Bedienhandlung virtuell eine Rückmeldung zu erhalten, wodurch sich für den Benutzer die Bedienungspräzision bei der Verwendung der virtuellen Tastatur zur Informationseingabe verbessert.
  • In Bezug auf die eingegebenen Inhalte kann der Benutzer ferner über eine Bedienhandlung auf derselben virtuellen Taste die Eingabeinhalte bestimmen, wodurch sich die Verwendbarkeit der virtuellen Tastatur verbessert und dem Benutzer die präzise Eingabe des gewünschten Zeicheninhalts ermöglicht wird.
  • Die vorliegende Offenbarung stellt ferner ein anderes Beispiel eines Verfahrens zum Anzeigen einer virtuellen Tastatur bereit. Während der Benutzung der virtuellen Tastatur durch den Benutzer können dynamische Darstellungseffekte einer virtuellen Tastatur bereitgestellt werden. Das durch das Auslösen der virtuellen Tastatur erzeugte Ergebnis der Zeicheneingabe kann ebenfalls bereitgestellt werden.
  • 3 stellt ein Ablaufdiagramm eines anderen Beispiels für ein Verfahren zum Anzeigen einer virtuellen Tastatur dar.
  • In S201 wird ein auslösendes Ereignis auf einem berührungsgesteuerten Bildschirm erfasst.
  • Beispielsweise kann das durch eine benutzerseitige Bedienhandlung erzeugte auslösende Ereignis erfasst werden, während eine virtuelle Tastatur auf dem berührungsgesteuerten Bildschirm angezeigt wird. Wenn die Auslöseposition des auslösenden Ereignisses ferner innerhalb des Anzeigebereichs der virtuellen Tastatur auf dem berührungsgesteuerten Bildschirm liegt, wird die benutzerseitige Bedienhandlung als eine effektive Bedienhandlung auf der virtuellen Tastatur aufgefasst.
  • Wenn der Benutzer die virtuelle Tastatur zur Dateneingabe verwendet, enthält die benutzerseitige Bedienhandlung eine kombinierte Eingabe unter Verwendung einer Anzahl von Tasten. Oft wird die virtuelle Tastatur beispielsweise vom Benutzer verwendet, um Informationen einschließlich einer Mehrzahl von Zeichen einzugeben. In Bezug auf eine solche Verwendung der virtuellen Tastatur stellt die vorliegende Offenbarung während der Benutzung der virtuellen Tastatur durch den Benutzer beispielsweise zwei dynamische Darstellungsmodi der virtuellen Tastaturen bereit. Dabei sollte beachtet werden, dass kontinuierliche auslösende Ereignisse in beiden dynamischen Darstellungsmodi auftreten können. Der Benutzer kann kontinuierliche auslösende Bedienhandlungen auf der virtuellen Tastatur ausführen, wobei die Zeitintervalle zwischen aufeinander folgenden auslösenden Ereignissen unter einem vorgegebenen Schwellwert liegen. Unter diesen Bedingungen können die folgenden dynamischen Darstellungsmodi selektiv ausgelöst werden. Die Konfiguration dieser Bedingungen, also die unter einem vorgegebenen Schwellwert liegenden Zeitintervalle zwischen aufeinander folgenden kontinuierlichen auslösenden Ereignissen, ermöglicht dem Benutzer beim Durchführen schneller Eingaben das präzisere Erkennen der zu bedienenden Taste(n). Der Wert des vorgegebenen Schwellwerts kann verwendet werden, um die Normalgeschwindigkeit bei schnellen Eingaben durch den Benutzer zu bestimmen, und kann auf der Grundlage der Bedürfnisse oder Gewohnheiten des Benutzers angepasst werden.
  • In Modus 1: Wenn erkannt wird, dass der Benutzer eine schnelle Eingabe vornimmt, kann der Anzeigebereich der Tasten auf der virtuellen Tastatur vergrößert werden. Die spezifische Implementierung kann enthalten: Wenn der gesamte Anzeigebereich der virtuellen Tastatur auf dem berührungsgesteuerten Bildschirm vergrößert werden kann, Vergrößern des gesamten Anzeigebereichs der virtuellen Tastatur, so dass der Anzeigebereich jeder einzelnen Taste vergrößert wird; und wenn der Anzeigebereich der virtuellen Tastatur auf dem berührungsgesteuerten Bildschirm nicht vergrößert werden kann, könnte der 3D-Effekt der virtuellen Tasten angepasst werden, beispielsweise indem die Breite des flachen Abschnitts in 2 oder 3 zur Darstellung des 3D-Effekts der Tasten verringert wird. Durch die Abschwächung des gesamten 3D-Effekts der virtuellen Tasten kann der Anzeigebereich jeder einzelnen Taste vergrößert werden.
  • Prinzipiell kann der Benutzer im Darstellungsmodus 1 durch das Vergrößern des Anzeigebereichs der Taste die Möglichkeit erhalten, während des schnellen Eingabeprozesses den Erkennungsbereich der benutzerseitigen Bedienhandlung zu vergrößern. Dementsprechend kann die virtuelle Tastatur die benutzerseitige Bedienhandlung sogar dann präzise erkennen, wenn die Position der benutzerseitigen Bedienhandlung leichte Abweichungen aufweist, und dadurch die vom Benutzer benötigten Zeichendaten eingeben.
  • In Modus 2: Der gesamte Anzeigebereich der virtuellen Tastatur muss nicht bestimmt oder angepasst werden; allerdings kann der Anzeigebereich einer oder mehrerer einzelner Tasten auf der virtuellen Tastatur angepasst werden, um ähnliche Ziele wie im Darstellungsmodus 1 zu erreichen. Die spezifische Implementierung kann enthalten: Erfassen einer ausgelösten Taste einer aktuellen benutzerseitigen Bedienhandlung, und durch Datenanalyse wird eine mit der ausgelösten Taste in einer Korrelationsbeziehung stehende Taste vorausgesagt. Die Anzahl der auf der Grundlage der ausgelösten Taste vorausgesagten Tasten muss ferner nicht auf eine Taste begrenzt sein. Anders ausgedrückt kann die Anzahl der in einer Korrelationsbeziehung mit der ausgelösten Taste stehenden Tasten eins oder mehr betragen.
  • Ferner kann der Anzeigebereich der einen oder mehreren Taste(n), die mit der ausgelösten Taste in einer Korrelationsbeziehung stehen, angepasst werden. Beispielsweise kann die spezifische Anpassung des Anzeigebereichs der einen oder mehreren in einer Korrelationsbeziehung mit der ausgelösten Taste stehenden Taste(n) ein Vergrößern des Anzeigebereichs der einen oder mehreren in der Korrelationsbeziehung mit der ausgelösten Taste stehenden Taste(n) enthalten und dementsprechend ein Verkleinern des Anzeigebereichs der Tasten ohne Korrelationsbeziehung mit der ausgelösten Taste, von denen die einen oder mehreren Taste(n) mit vergrößertem Anzeigebereich umgeben sind. Somit werden die Positionen der Tasten, welche die Korrelationsbeziehung mit der ausgelösten Taste aufweisen, hervorgehoben.
  • Alternativ können die Anzeigebereiche der einen oder mehreren in einer Korrelationsbeziehung mit der ausgelösten Taste stehenden Taste(n) vergrößert werden, indem der 3D-Effekt dieser Taste(n) abgeschwächt wird, ohne dass der Anzeigebereich der diese Taste(n) umgebenden Tasten, die keine Korrelationsbeziehung mit der ausgelösten Taste aufweisen, verkleinert wird. Während eine oder mehrere mit der ausgelösten Taste korrelierte Taste(n) hervorgehoben sind, ist der Benutzer prinzipiell immer noch in der Lage, die Positionen anderer Tasten, die mit der ausgelösten Taste nicht korreliert sind, schnell aufzufinden. Weitere Bedienhandlungen an den nicht korrelierten Tasten werden also nicht beeinträchtigt.
  • Die oben erwähnten Beispiele dynamischer Darstellungsmodi der virtuellen Tastatur können so konfiguriert werden, dass sie mittels schneller Eingaben vorgenommene benutzerseitige Bedienhandlungen vereinfachen. Die dynamischen Darstellungsmodi werden dem Benutzer zur Auswahl angeboten. Der Benutzer muss solche Darstellungsmodi nicht unbedingt verwenden, sondern kann beispielsweise einen normalen Darstellungsmodus zur Durchführung von Dateneingaben benutzen.
  • In S202 wird eine ausgelöste Taste auf der virtuellen Tastatur auf der Grundlage einer Position des auslösenden Ereignisses bestimmt und eine Auslöseanimation der ausgelösten Taste ausgeführt.
  • Während S201 die dynamischen Darstellungseffekte von Tasten auf der virtuellen Tastatur illustriert, stellt S202 den dynamischen Darstellungseffekt einer einzelnen Taste dar, nachdem diese auf der virtuellen Tastatur ausgelöst wurde. S202 illustriert also die Auslöseanimation, die für eine entsprechende Taste ausgeführt wird, nachdem eine einzelne Taste ausgelöst wurde.
  • Wie bereits beschrieben, ist die Auslöseanimation vor allem dazu konfiguriert, den Auslöseprozess einer physischen Taste zu simulieren. Der Auslöseprozess kann beispielsweise das Herunterdrücken und/oder das Nach-Oben-Springen der Taste beinhalten. Die Auslöseanimation könnte also den Vorgang des Herunterdrückens oder den Vorgang des Nach-Oben-Springens oder eine Kombination beider Vorgänge einer physischen Taste simulieren. Bei Tasten mit dem 3D-Darstellungseffekt können ferner die virtuellen Effekte der Animationen, die jeweils den Vorgang des Herunterdrückens oder den Vorgang des Nach-Oben-Springens jeder Taste simulieren, umkehrbar sein, was durch eine umkehrbare Vorgehensweise mittels eines oder mehrerer Programme implementiert werden kann.
  • Der Animationseffekt des Vorgangs des Drückens einer Taste wird im weiteren Verlauf zum Zweck der Anschaulichkeit als Beispiel verwendet.
  • Wenn die virtuelle Tastatur eine nutzerseitige Bedienhandlung des Herunterdrückens auf einer bestimmten Taste erfasst, kann eine Animation des Drückens ausgeführt werden. Die Darstellungseffekte der Taste können also vor und nach dem Drücken verschieden sein. 4 illustriert ein Beispiel einer virtuellen Taste, bevor und nachdem sie gedrückt wurde. Wie in 4 dargestellt, repräsentiert „a“ den Darstellungszustand der Taste „A“, bevor sie gedrückt wurde, und „b“ repräsentiert den Darstellungszustand der Taste „A“, nachdem sie gedrückt wurde.
  • Beispielsweise kann der Schatten der Taste „A“ einen ersten Schattenbereich an der Unterseite der Taste „A“ und einen zweiten Schattenbereich an der rechten Seite der Taste „A“ beinhalten, und sowohl der erste Schattenbereich als auch der zweite Schattenbereich können jeweils ein Parallelogramm sein. Ferner kann eine erste Seite des ersten Schattenbereichs so konfiguriert sein, dass sie im Wesentlichen die gleiche Länge wie eine Seite der Taste „A“ aufweist, und eine zweite Seite des ersten Schattenbereichs mit einer vergleichsweise kurzen Länge kann mit der ersten Seite des ersten Schattenbereichs einen angemessenen Winkel bilden. Die Konfiguration des zweiten Schattenbereichs ähnelt der des ersten Schattenbereichs.
  • Wenn die Taste „A“ vom Zustand „a“ in den Zustand „b“ wechselt, d. h. die Taste „A“ gedrückt wird, könnten die Schattenbereiche der Taste „A“ schmaler werden, und die Größe der Taste „A“ könnte kleiner werden. Mit anderen Worten, wenn die Taste „A“ vom Zustand „a“ in den Zustand „b“ wechselt, könnte die erste Seite des ersten Schattenbereichs eine verringerte Länge aufweisen, aber immer noch im Wesentlichen gleich lang wie eine entsprechende Seite der Taste „A“ sein, woraus sich ergibt, dass sich auch die entsprechende Seite der Taste „A“ verkürzt. Ferner kann auch die zweite Seite des ersten Schattenbereichs kürzer werden. Die Veränderung des zweiten Schattenbereichs ist ähnlich und kann aus den Illustrationen der Veränderung des ersten Schattenbereichs abgeleitet werden, so dass dazu hier keine Beschreibungen bereitgestellt werden.
  • Ferner wird auch die Größe der Taste „A“ verringert, wenn die Taste „A“ vom Zustand „a“ in den Zustand „b“ wechselt, da sich die Seiten der Taste „A“ verkürzen und die gesamte Form der Taste „A“ im Wesentlichen gleich bleibt, wodurch für den Benutzer die visuelle Illusion entsteht, dass die Taste „A“ heruntergedrückt wurde und das Symbol der Taste „A“ von seiner ursprünglichen Position um einen gewissen Abstand (z. B. ungefähr 2 mm) verschoben ist.
  • Die Animation des Drückens kann sich auf die Bewegung des Symbols einer Taste um einen ersten vorgegebenen Abstand nach unten und die Bewegung des Symbols der Taste um einen zweiten vorgegebenen Abstand nach rechts beziehen. Da sich der Anzeigebereich des Tastensymbols verkleinert, kann der Benutzer ferner virtuell fühlen, dass die Taste gedrückt wurde. Optional kann der Abstand, um den das Tastensymbol nach unten bewegt wird, gleich oder ungleich dem Abstand sein, um den das Tastensymbol nach rechts bewegt wird. Mit anderen Worten kann der erste vorgegebene Abstand gleich oder ungleich dem zweiten vorgegebenen Abstand sein.
  • Ferner kann je nach den Erfordernissen des Animationseffekts das Tastensymbol entweder nur nach unten bewegt werden oder das Tastensymbol nur nach rechts bewegt werden oder das Symbol der Taste verkleinert werden. Optional können jeweils zwei beliebige dieser Effekte (z. B. Bewegung des Tastensymbols nach unten oder nach rechts und Verringerung der Tastensymbolgröße) kombiniert werden, um das visuelle Gefühl zu erzeugen, dass die Taste heruntergedrückt ist.
  • Wiederum auf 4 bezogen, könnte der Zustand der Taste „A“ umkehrbar vom Zustand „b“ in den Zustand „a“ wechseln, wenn die Taste „A“ nach oben springt. Prinzipiell können in der vorliegenden Offenbarung für den Vorgang des Herunterdrückens bzw. den Vorgang des Nach-Oben-Springens umkehrbare Auslöseanimationen konfiguriert werden.
  • Die Bedienhandlungen, mit denen der Benutzer eine Taste auslöst, können in zwei Arten unterteilt werden: Klicken und langes Drücken; und es kann erkannt werden, ob der Benutzer ein Klicken oder ein langes Drücken ausführt, so dass die Eingabe unterschiedlicher Bedienhandlungen zu unterschiedlichen Ergebnissen führen kann. In einigen anderen Ausführungsformen könnte zwischen Klicken und langem Drücken nicht unterschieden werden, und die aus der Kombination von Herunterdrücken und Nach-Oben-Springen bestehende Animation könnte dazu konfiguriert sein, das Klicken einer Taste durch den Benutzer anzuzeigen.
  • Um den Benutzer besser darüber zu unterrichten, dass die virtuelle Tastatur ohne Verzögerung auf die benutzerseitige Bedienhandlung reagiert hat, könnte während der Ausführung der Auslöseanimation einer Taste ein Benutzerführungston und/oder eine haptische Rückmeldung in Entsprechung zum Tastendruck ausgeführt werden. Der Benutzerführungston könnte auf der Grundlage der Benutzerpräferenzen konfiguriert sein, und unterschiedliche Benutzerführungstöne könnten für unterschiedliche Tasten oder unterschiedliche benutzerseitige auslösende Bedienhandlungen konfiguriert sein.
  • Die haptische Rückmeldung könnte ferner auf smarten Mobilendgeräten angewendet werden; beispielsweise könnte die haptische Rückmeldung eine Vibrationsrückmeldung im Mobiltelefon sein. Ähnlich wie beim Benutzerführungston könnte die haptische Rückmeldung ebenfalls durch den Benutzer für unterschiedliche Tasten konfiguriert werden, so dass der Benutzer deutlicher über die aktuell ausgelöste Taste informiert wird.
  • Der Benutzerführungston und die haptische Rückmeldung können gemeinsam oder einzeln auf das gleiche Benutzerendgerät angewendet werden. Optional können auf der Grundlage einer Benutzerauswahl entsprechende Funktionen, die den Benutzerführungston und die haptische Rückmeldung auslösen, gestartet bzw. abgeschaltet werden.
  • In S203 werden die Tasteninformationen eingegeben, die der Taste entsprechen.
  • Auf der Grundlage der Erkennung der Bedienhandlung des Benutzers werden die Zeicheninformationen eingegeben, die der oder den vom Benutzer gedrückten Taste(n) entsprechen. In einer bereits beschriebenen Ausführungsform können auf dem drucksensitiven oder kraftsensitiven berührungsgesteuerten Bildschirm auf der Grundlage der vom Benutzer auf den Bildschirm ausgeübten Druckkraft unterschiedliche Zeicheninformationen eingegeben werden, die einer gedrückten Taste entsprechen. Das heißt, eine einzige Taste kann einer bestimmten Menge von Zeicheninformationen entsprechen.
  • Weiterhin können in S203 die der Taste entsprechenden Zeicheninformationen durch das Erkennen der benutzerseitigen Bedienhandlung, beispielsweise Klicken und langes Drücken, bestimmt werden. Mit anderen Worten können unterschiedliche benutzerseitige Bedienhandlungen an einer bestimmten Taste des berührungsgesteuerten Bildschirms unterschiedlichen Zeicheninformationen entsprechen. Bei einer Ausführungsform könnten ein einzelner Klick und ein schneller Doppelklick auf dieselbe Taste jeweils unterschiedlichen Zeicheninformationen entsprechen. Beispielsweise könnte der einzelne Klick auf die Taste „A“ der virtuellen Tastatur dem Kleinbuchstaben „a“ entsprechen und der Doppelklick auf die Taste „A“ könnte dem Großbuchstaben „A“ entsprechen. Bei einer anderen Ausführungsform könnten ein kurzer Klick und ein langer Druck auf dieselbe Taste jeweils unterschiedlichen Zeicheninformationen entsprechen. Beispielsweise könnte der kurze Klick auf die Taste „A“ der virtuellen Tastatur dem Kleinbuchstaben „a“ entsprechen und der lange Druck auf die Taste „A“ könnte dem Großbuchstaben „A“ entsprechen.
  • Solche Umsetzungen stellen keine Ansprüche an den berührungsgesteuerten Bildschirm; mit anderen Worten, das hier offenbarte Verfahren muss nicht notwendigerweise einen berührungsgesteuerten Bildschirm erfordern, der kraftsensitiv oder drucksensitiv ist, sondern kann unter Verwendung normaler berührungsgesteuerter Bildschirme umgesetzt werden. Um ferner die Anwendung einer solchen virtuellen Tastatur zu erleichtern, kann sich, wenn eine einzelne Taste einer bestimmten Menge von Zeicheninformationen entspricht, diese bestimmte Menge von Zeicheninformationen auf zwei Zeichen beziehen, wodurch sich die schnelle Auswahl durch den Benutzer vereinfacht. In anderen Fällen kann sich die bestimmte Menge von Zeicheninformationen in Übereinstimmung mit unterschiedlichen Ausführungsformen der vorliegenden Offenbarung auf mehrere Zeichen, d .h. mehr als zwei, beziehen.
  • Die vorliegende Offenbarung stellt ein Beispiel einer Anzeigevorrichtung der virtuellen Tastatur bereit. Die Vorrichtung kann zur Umsetzung der offenbarten Verfahren zum Anzeigen einer virtuellen Tastatur verwendet werden, z. B. wie in 1-4 dargestellt.
  • 5 stellt ein Diagramm dar, das ein Beispiel einer Anzeigevorrichtung einer virtuellen Tastatur zeigt. Unter Bezugnahme auf 5 kann die Anzeigevorrichtung enthalten: eine Anzeigeeinheit 51, eine Erfassungseinheit 52, eine Bestimmungseinheit 53, eine Ausführungseinheit 54 und eine Eingabeeinheit 55. Die Anzeigevorrichtung kann ferner auf einem smarten Endgerät angewendet werden, das über einen berührungsgesteuerten Bildschirm verfügt.
  • Beispielsweise kann die Anzeigeeinheit 51 bereitgestellt sein, um eine virtuelle Tastatur auf einem berührungsgesteuerten Bildschirm anzuzeigen, wobei die Tasten auf der virtuellen Tastatur einen 3D-Darstellungseffekt aufweisen. Die Erfassungseinheit 52 kann bereitgestellt sein, um ein auslösendes Ereignis auf dem berührungsgesteuerten Bildschirm zu erfassen, wobei das auslösende Ereignis auf dem berührungsgesteuerten Bildschirm durch einen Benutzer ausgelöst wird. Die Bestimmungseinheit 53 kann bereitgestellt sein, um auf der Grundlage einer Position des durch die Erfassungseinheit 52 erfassten auslösenden Ereignisses eine ausgelöste Taste auf der virtuellen Tastatur zu bestimmen.
  • Ferner kann die Ausführungseinheit 54 bereitgestellt sein, um eine Auslöseanimation der durch die Bestimmungseinheit 53 bestimmten Taste auszuführen, wobei die Auslöseanimation eine gerenderte Animation ist, die den Auslöseprozess einer physischen Taste simuliert. Die Eingabeeinheit 55 kann bereitgestellt sein, um Tasteninformationen, die der durch die Bestimmungseinheit 53 bestimmten ausgelösten Taste entsprechen, einzugeben.
  • Die Vorrichtung kann ferner andere Komponenten enthalten. So stellt beispielsweise 6 ein Diagramm dar, das ein anderes Beispiel von Komponenten einer Anzeigevorrichtung für eine virtuelle Tastatur zeigt. Im Vergleich mit der in 5 dargestellten Vorrichtung kann die in 6 dargestellte Vorrichtung zusätzlich eine erste Modifizierungseinheit 56, eine zweite Modifizierungseinheit 57 und eine Auslöseeinheit 58 enthalten. Ferner kann die Eingabeeinheit 55 ein Erfassungsmodul 551 und ein Bestimmungsmodul 552 enthalten.
  • Die erste Modifizierungseinheit 56 kann bereitgestellt sein, um den Anzeigebereich der Tasten auf der virtuellen Tastatur zu vergrößern, wenn die Erfassungseinheit 52 kontinuierliche auslösende Ereignisse erfasst und die Zeitintervalle zwischen aufeinander folgenden auslösenden Ereignissen unter einem vorgegebenen Schwellwert liegen. Die zweite Modifizierungseinheit 57 kann bereitgestellt sein, um, wenn die Erfassungseinheit 52 die kontinuierlichen auslösenden Ereignisse erfasst und die Zeitintervalle zwischen aufeinander folgenden auslösenden Ereignissen unter dem vorgegebenen Schwellwert liegen, auf der Grundlage einer momentan ausgelösten Taste mindestens eine Taste zu bestimmen, die mit der ausgelösten Taste korreliert, und um ferner die bestimmte(n) Taste(n) für die Anzeige zu vergrößern.
  • Ferner kann die Auslöseeinheit 58 bereitgestellt sein, um einen der Taste entsprechenden Benutzerführungston auszulösen und/oder eine der Taste entsprechende haptische Rückmeldung zu starten, wenn die Ausführungseinheit 54 die Auslöseanimation ausführt.
  • Ferner kann die von der Ausführungseinheit 54 ausgeführte gerenderte Animation enthalten: eine gerenderte Animation des Herunterdrückens einer Taste, eine gerenderte Animation des Nach-Oben-Springens der Taste oder eine Kombination beider. Ferner kann die von der Ausführungseinheit 54 ausgeführte gerenderte Animation des Herunterdrückens der Taste enthalten: Bewegen des Symbols der Taste um einen ersten vorgegebenen Abstand nach unten; und/oder Bewegen des Symbols der Taste um einen zweiten vorgegebenen Abstand nach rechts; und/oder Anpassen der Größe des Symbols der Taste für die Anzeige. Der erste vorgegebene Abstand kann gleich oder ungleich dem zweiten vorgegebenen Abstand sein.
  • Ferner kann, wie in 6 dargestellt, die Eingabeeinheit 55 ein Erfassungsmodul 551 und ein Bestimmungsmodul 552 enthalten. Das Erfassungsmodul 551 kann bereitgestellt sein, um die Druckkraft eines auslösenden Ereignisses zu erfassen. Da unterschiedliche Druckkräfte verschiedenen Tasteninformationen entsprechen können, kann ferner das Bestimmungsmodul 552 bereitgestellt sein, um auf der Grundlage der vom Erfassungsmodul 551 erfassten Druckkraft die Tasteninformationen zu bestimmen, die der Taste entsprechen.
  • Ferner stellt die vorliegende Offenbarung ein Anzeigeendgerät der virtuellen Tastatur bereit, wobei die offenbarte Anzeigevorrichtung der virtuellen Tastatur in dem Endgerät konfiguriert werden kann. Das Endgerät kann ferner ein smartes Endgerät sein, welches einen berührungsgesteuerten Bildschirm enthält, und zu den smarten Endgeräten können smarte Mobiltelefone, Tablets und verschiedene andere berührungsempfindliche Dienstendgerätevorrichtungen gehören, ohne auf diese beschränkt zu sein.
  • Die offenbarten Anzeigeverfahren, Vorrichtungen und Endgeräte stellen prinzipiell eine Verbesserung des Darstellungseffekts der virtuellen Tastatur bereit. Neben der Modifikation der statischen Anzeige der virtuellen Tastatur, um den 3D-Effekt zu integrieren, wird die dynamische Anzeige der virtuellen Tastatur während der Benutzung der virtuellen Tastatur verbessert. Dementsprechend kann während der Verwendung der virtuellen Tastatur durch den Benutzer die Reaktion der virtuellen Tastatur auf eine benutzerseitige Bedienhandlung an einer Taste vom Benutzer deutlicher wahrgenommen werden, indem der Benutzer den Unterschied in der Darstellung der Taste vor und nach dem Auslösen klarer erkennen kann, wodurch sich die Präzision des Benutzers bei der Verwendung der virtuellen Tastatur zur Informationseingabe erhöht.
  • Während sich der Benutzer in einem Zustand der schnellen Eingabe befindet, verbessert sich ferner durch die Weiterentwicklung der Anzeige der virtuellen Tastatur die Präzision bei der Tastenerkennung durch den Benutzer noch weiter, wodurch sich die Geschwindigkeit des Benutzers beim Eingeben von Informationen erhöht. Während für den Benutzer, der die virtuelle Tastatur verwendet, ein attraktives virtuelles Erlebnis bereitgestellt wird, können dem Benutzer zudem andere Arten von Rückmeldungen auf die Bedienhandlungen des Benutzers, z. B. Töne und haptische Rückmeldungen, bereitgestellt werden. Dementsprechend kann das Benutzererlebnis mit der virtuellen Tastatur stärker dem mit einer physischen Tastatur ähneln oder diesem gleichen, und dadurch werden technische Probleme gelöst, darunter negative Nutzererfahrung mit der virtuellen Tastatur, langsame Eingabegeschwindigkeit und geringe Eingabepräzision.
  • Die Anzeigevorrichtung der virtuellen Tastatur kann einen Prozessor und einen Speicher enthalten. Die offenbarte Anzeigeeinheit, Erfassungseinheit, Bestimmungseinheit, Ausführungseinheit und Eingabeeinheit können sämtlich in dem Speicher gespeichert sein. Der Speicher speichert computerlesbare Programmbefehle zur Ausführung der offenbarten Verfahren zum Anzeigen einer virtuellen Tastatur. Ferner kann der Prozessor in dem Speicher gespeicherte computerlesbare Programmbefehle ausführen, um entsprechende Funktionen umzusetzen.
  • Der Prozessor kann außerdem einen Kernel enthalten, welcher eine entsprechende Programmiereinheit aus dem Speicher entnehmen kann. Es können ein oder mehrere Kernel enthalten sein, und durch Anpassung von Kernelparametern kann der dynamische Eingabeeffekt der virtuellen Tastatur umgesetzt werden, wodurch sich die Effektivität der Informationseingabe auf der virtuellen Tastatur verbessert.
  • Der Speicher kann in dem computerlesbaren Medium einen flüchtigen Speicher, einen Direktzugriffsspeicher (RAM-Random Accessible Memory) und/oder einen nichtflüchtigen Speicher, beispielsweise einen Nur-Lese-Speicher (ROM-Read-only Memory) oder Flash-Speicher, enthalten. Der Speicher kann mindestens einen Speicherbaustein enthalten.
  • Die vorliegende Offenbarung stellt ferner ein Computerprogrammprodukt bereit, und wenn dieses Computerprogrammprodukt in einer Datenverarbeitungsvorrichtung ausgeführt wird, kann es zur Ausführung einer Initialisierung der Programmcodes des folgenden Verfahrens verwendbar sein: Anzeigen einer virtuellen Tastatur auf einem berührungsgesteuerten Bildschirm, wobei Tasten auf der virtuellen Tastatur einen 3D-Darstellungseffekt aufweisen; Erfassen eines auslösenden Ereignisses auf dem berührungsgesteuerten Bildschirm, wobei das auslösende Ereignis eine auslösende Bedienhandlung eines Benutzers auf dem berührungsgesteuerten Bildschirm enthält; Bestimmen einer ausgelösten Taste auf der virtuellen Tastatur auf der Grundlage einer Position des auslösenden Ereignisses; Ausführen einer Auslöseanimation der Taste, wobei die Auslöseanimation eine gerenderte Animation ist, die das Auslösen der Taste simuliert; und Eingeben von Tasteninformationen, die der Taste entsprechen.
  • Es versteht sich für den Fachmann, dass Ausführungsformen der vorliegenden Patentanmeldung als Verfahren, als Vorrichtung oder als Computerprogrammprodukt bereitgestellt werden können. Ausführungsformen der vorliegenden Anmeldung können daher in Form einer Hardware-Ausführungsform, einer Software-Implementation oder einer Kombination aus Software und Hardware umgesetzt werden. Außerdem können Ausführungsformen der vorliegenden Anmeldung in Form eines Computerprogrammprodukts umgesetzt werden, welches auf einem oder mehreren computerlesbaren Speichermedien (einschließlich, aber nicht beschränkt auf, Plattenspeicher, CD-ROM, optische Speicher usw.) implementiert ist, die computerlesbare Programmcodes beinhalten.
  • Bei einer typischen Konfiguration enthält die Computervorrichtung einen oder mehrere Prozessoren (CPUs), Eingabe-/Ausgabeschnittstellen, Netzwerkschnittstellen und einen Speicher. Der Speicher kann ein computerlesbares Medium enthalten, zum Beispiel einen flüchtigen Speicher, einen Direktzugriffsspeicher (RAM) und/oder einen nichtflüchtigen Speicher, beispielsweise Nur-Lese-Speicher (ROM) oder Flash-Speicher. Speicher dient als Beispiel für ein computerlesbares Medium. Das computerlesbare Medium enthält sowohl permanente als auch nichtpermanente Medien sowie Wechselmedien und fest eingebaute Medien, die zum Erzielen einer Informationsspeicherung mit beliebigen Verfahren oder Technologien umgesetzt sein können. Bei der Information kann es sich um computerlesbare Befehle, Datenstrukturen, Programmmodule oder andere Daten handeln. Beispiele von Computerspeichermedien enthalten, aber sind nicht beschränkt auf, Phasenwechselspeicher (PRAM-Phase Change Memory), statische Direktzugriffsspeicher (SRAM-Static Random Access Memory), dynamische Direktzugriffsspeicher (DRAM-Dynamic Random Access Memory), andere Arten von Direktzugriffsspeichern (RAM), Nur-Lese-Speicher (ROM), elektrisch löschbare programmierbare Nur-Lese-Speicher (EEPROM—Electrically Erasable Programmable Read-only Memory), Flash-Speicher oder andere Speichertechnologien, optische Nur-Lese-Speicher-Disks (CD-ROM—Read-only Optical Disk Read-only Memory), Digital Versatile Discs (DVD) oder andere optische Speichervorrichtungen, Magnetbandkassetten, Magnetbandspeichermedien oder andere magnetische Speichervorrichtungen, oder beliebige andere Nicht-Übertragungsmedien, die zum Speichern von Informationen für den Zugriff durch eine Computervorrichtung verwendet werden können. So wie hier definiert enthält das computerlesbare Medium keine temporären computerlesbaren Medien (d. h. Zwischenmedien) wie modulierte Datensignale und Datenträger.
  • Es sollte beachtet werden, dass die Begriffe „umfassend“ und „enthaltend“ und beliebige Abwandlungen derselben dazu dienen sollen, eine nicht ausschließliche Einschließung abzudecken, so dass Prozesse, Verfahren, Artikel oder Vorrichtungen, die eine Liste von Elementen umfassen, nicht ausschließlich diese Elemente enthalten, sondern auch andere Elemente enthalten können, die nicht explizit aufgeführt oder in solchen Prozessen, Verfahren, Artikeln oder Vorrichtungen stets enthalten sind. Wenn einem Element ein „umfasst ... ein“ vorangestellt ist, schließt dies nicht ohne weitere Beschränkungen die Existenz zusätzlicher identischer Elemente in den Prozessen, Verfahren, Artikeln oder Vorrichtungen aus, die dieses Element umfassen.
  • Die fortlaufende Nummerierung der Ausführungsformen der vorliegenden Erfindung dient nur der Vereinfachung der Beschreibung und impliziert keine vorrangige Stellung einzelner Ausführungsformen.
  • Durch die vorstehende Beschreibung der Umsetzungsweisen ist es für den Fachmann klar ersichtlich, dass die vorliegende Offenbarung durch Software in Verbindung mit einer notwendigen universellen Hardwareplattform umgesetzt werden kann und offensichtlich ebenso durch Hardware umgesetzt werden kann, wobei in vielen Fällen die Softwareumsetzung vorzuziehen ist. Auf der Grundlage eines solchen Verständnisses können die technischen Lösungen der vorliegenden Erfindung oder der Teil, der zur vorhandenen Technik Beiträge leistet, im Wesentlichen in Form eines Softwareprodukts verkörpert werden. Die Vorrichtung zur Evaluierung eines Sucheingabesystems ist mittels mehrerer Befehle implementiert. Die Befehle sind auf einem Speichermedium (zum Beispiel einem ROM/RAM, einer magnetischen Disk oder einer optischen Disk) gespeichert und bewirken, dass eine Endgerätevorrichtung (die ein mobiles Telefon, ein Computer, ein Server oder ein Netzwerkgerät sein kann) das Verfahren entsprechend der Ausführungsformen der vorliegenden Erfindung ausführt.
  • Die obigen Beschreibungen sind lediglich bevorzugte Ausführungsformen der vorliegenden Offenbarung und sollen nicht der Beschränkung des Umfangs der vorliegenden Offenbarung dienen. Jedwede äquivalente Modifikation, die an der Struktur oder den Prozessen auf der Basis des Inhalts dieser Spezifikation und der beigefügten Zeichnungen zur direkten oder indirekten Verwendung in anderen verwandten technischen Gebieten vorgenommen wird, wird vom Schutzumfang der vorliegenden Offenbarung eingeschlossen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • CN 201710188828 [0001]

Claims (18)

  1. Verfahren zum Anzeigen einer virtuellen Tastatur, umfassend: Anzeigen der virtuellen Tastatur auf einem berührungsgesteuerten Bildschirm, wobei die virtuelle Tastatur eine Mehrzahl von Tasten mit einem dreidimensionalen (3D) Darstellungseffekt aufweist; Erfassen eines auslösenden Ereignisses auf dem berührungsgesteuerten Bildschirm, wobei das auslösende Ereignis durch eine auslösende Bedienhandlung auf dem berührungsgesteuerten Bildschirm ausgelöst wird; Bestimmen einer ausgelösten Taste der virtuellen Tastatur auf der Grundlage einer Position des auslösenden Ereignisses; Ausführen einer Auslöseanimation der ausgelösten Taste, wobei die Auslöseanimation eine gerenderte Animation ist, die einen Auslöseprozess einer physischen Taste simuliert; und Eingeben von Tasteninformationen, die der ausgelösten Taste entsprechen.
  2. Verfahren nach Anspruch 1, ferner umfassend: als Reaktion auf kontinuierliche auslösende Ereignisse, wenn die Zeitintervalle zwischen aufeinander folgenden auslösenden Ereignissen unter einem vorgegebenen Schwellwert liegen: Vergrößern eines Anzeigebereichs der Mehrzahl von Tasten der virtuellen Tastatur; oder Bestimmen, auf der Grundlage einer momentan ausgelösten Taste, mindestens einer Taste, die mit der ausgelösten Taste korreliert, und Vergrößern der mindestens einen Taste für die Anzeige.
  3. Verfahren nach Anspruch 1, ferner umfassend: Auslösen, als Reaktion auf das Ausführen der Auslöseanimation, eines Benutzerführungstons oder mehrerer Benutzerführungstöne, der oder die der ausgelösten Taste entsprechen, und einer haptischen Rückmeldung, die der ausgelösten Taste entspricht.
  4. Verfahren nach Anspruch 1, wobei das Ausführen der Auslöseanimation der ausgelösten Taste umfasst: Anzeigen einer gerenderten Animation oder mehrerer gerenderter Animationen einer Taste, die heruntergedrückt wird, und einer Taste, die nach oben springt, wobei die gerenderte Animation einer Taste, die heruntergedrückt wird, eines oder mehrere der folgenden Elemente umfasst: Bewegen eines Symbols der ausgelösten Taste um einen ersten vorgegebenen Abstand nach unten; Bewegen des Symbols der ausgelösten Taste um einen zweiten vorgegebenen Abstand nach rechts; und Anpassen einer Größe des Symbols der ausgelösten Taste für die Anzeige.
  5. Verfahren nach Anspruch 1, wobei das Eingeben der Tasteninformationen, die der ausgelösten Taste entsprechen, umfasst: Erfassen einer Druckstärke des auslösenden Ereignisses; und Bestimmen, auf der Grundlage der Druckstärke, der Tasteninformationen, die der ausgelösten Taste entsprechen.
  6. Verfahren nach Anspruch 5, wobei: verschiedene Druckstärken verschiedenen Tasteninformationen entsprechen und, wenn die ausgelöste Taste eine Buchstabentaste ist, die Tasteninformationen einen Großbuchstaben und einen Kleinbuchstaben der Buchstabentaste enthalten.
  7. Vorrichtung zum Anzeigen einer virtuellen Tastatur, umfassend: einen Speicher; und einen Prozessor, der mit dem Speicher gekoppelt ist, wobei der Speicher computerlesbare Programmbefehle speichert und der Prozessor als Reaktion auf das Ausführen der computerlesbaren Programmbefehle: eine virtuelle Tastatur auf einem berührungsgesteuerten Bildschirm anzeigt, wobei die virtuelle Tastatur eine Mehrzahl von Tasten mit einem dreidimensionalen (3D) Darstellungseffekt aufweist; ein auslösendes Ereignis auf dem berührungsgesteuerten Bildschirm erfasst, wobei das auslösende Ereignis durch eine auslösende Bedienhandlung auf dem berührungsgesteuerten Bildschirm ausgelöst wird; eine ausgelöste Taste der virtuellen Tastatur auf der Grundlage einer Position des auslösenden Ereignisses bestimmt; eine Auslöseanimation der ausgelösten Taste ausführt, wobei die Auslöseanimation eine gerenderte Animation ist, die einen Auslöseprozess einer physischen Taste simuliert; und Tasteninformationen eingibt, die der ausgelösten Taste entsprechen.
  8. Vorrichtung nach Anspruch 7, wobei als Reaktion auf kontinuierliche auslösende Ereignisse, wenn die Zeitintervalle zwischen aufeinander folgenden auslösenden Ereignissen unter einem vorgegebenen Schwellwert liegen, der Prozessor ferner: einen Anzeigebereich der Mehrzahl von Tasten der virtuellen Tastatur vergrößert; oder auf der Grundlage einer momentan ausgelösten Taste mindestens eine Taste bestimmt, die mit der ausgelösten Taste korreliert, und die mindestens eine Taste für die Anzeige vergrößert.
  9. Vorrichtung nach Anspruch 7, wobei der Prozessor ferner: als Reaktion auf das Ausführen der Auslöseanimation einen Benutzerführungston oder mehrere Benutzerführungstöne, der oder die der ausgelösten Taste entsprechen, und eine haptische Rückmeldung, die der ausgelösten Taste entspricht, auslöst.
  10. Vorrichtung nach Anspruch 7, wobei der Prozessor ferner: eine gerenderte Animation oder mehrere gerenderte Animationen einer Taste, die heruntergedrückt wird, und einer Taste, die nach oben springt, anzeigt, wobei die gerenderte Animation einer Taste, die heruntergedrückt wird, eines oder mehrere der folgenden Elemente umfasst: Bewegen eines Symbols der ausgelösten Taste um einen ersten vorgegebenen Abstand nach unten; Bewegen des Symbols der ausgelösten Taste um einen zweiten vorgegebenen Abstand nach rechts; und Anpassen einer Größe des Symbols der ausgelösten Taste für die Anzeige.
  11. Vorrichtung nach Anspruch 7, wobei der Prozessor ferner: eine Druckstärke des auslösenden Ereignisses erfasst; und auf der Grundlage der Druckstärke die Tasteninformationen bestimmt, die der ausgelösten Taste entsprechen.
  12. Vorrichtung nach Anspruch 11, wobei: verschiedene Druckstärken verschiedenen Tasteninformationen entsprechen und, wenn die ausgelöste Taste eine Buchstabentaste ist, die Tasteninformationen einen Großbuchstaben und einen Kleinbuchstaben der Buchstabentaste enthalten.
  13. Endgerät zum Anzeigen einer virtuellen Tastatur, umfassend: einen berührungsgesteuerten Bildschirm; und eine Vorrichtung, enthaltend einen Speicher und einen Prozessor, der mit dem Speicher gekoppelt ist, wobei der Speicher computerlesbare Programmbefehle speichert und der Prozessor als Reaktion auf das Ausführen der computerlesbaren Programmbefehle: eine virtuelle Tastatur auf einem berührungsgesteuerten Bildschirm anzeigt, wobei die virtuelle Tastatur eine Mehrzahl von Tasten mit einem dreidimensionalen (3D) Darstellungseffekt aufweist; ein auslösendes Ereignis auf dem berührungsgesteuerten Bildschirm erfasst, wobei das auslösende Ereignis durch eine auslösende Bedienhandlung auf dem berührungsgesteuerten Bildschirm ausgelöst wird; eine ausgelöste Taste der virtuellen Tastatur auf der Grundlage einer Position des auslösenden Ereignisses bestimmt; eine Auslöseanimation der ausgelösten Taste ausführt, wobei die Auslöseanimation eine gerenderte Animation ist, die einen Auslöseprozess einer physischen Taste simuliert; und Tasteninformationen eingibt, die der ausgelösten Taste entsprechen.
  14. Endgerät nach Anspruch 13, wobei als Reaktion auf kontinuierliche auslösende Ereignisse, wenn die Zeitintervalle zwischen aufeinander folgenden auslösenden Ereignissen unter einem vorgegebenen Schwellwert liegen, der Prozessor ferner: einen Anzeigebereich der Mehrzahl von Tasten der virtuellen Tastatur vergrößert; oder auf der Grundlage einer momentan ausgelösten Taste mindestens eine Taste bestimmt, die mit der ausgelösten Taste korreliert, und die mindestens eine Taste für die Anzeige vergrößert.
  15. Endgerät nach Anspruch 13, wobei der Prozessor ferner: als Reaktion auf das Ausführen der Auslöseanimation einen Benutzerführungston oder mehrere Benutzerführungstöne, der oder die der ausgelösten Taste entsprechen, und eine haptische Rückmeldung, die der ausgelösten Taste entspricht, auslöst.
  16. Endgerät nach Anspruch 13, wobei der Prozessor ferner: eine gerenderte Animation oder mehrere gerenderte Animationen einer Taste, die heruntergedrückt wird, und einer Taste, die nach oben springt, anzeigt, wobei die gerenderte Animation einer Taste, die heruntergedrückt wird, eines oder mehrere der folgenden Elemente umfasst: Bewegen eines Symbols der ausgelösten Taste um einen ersten vorgegebenen Abstand nach unten; Bewegen des Symbols der ausgelösten Taste um einen zweiten vorgegebenen Abstand nach rechts; Anpassen einer Größe des Symbols der ausgelösten Taste für die Anzeige.
  17. Endgerät nach Anspruch 13, wobei der Prozessor ferner: eine Druckstärke des auslösenden Ereignisses erfasst; und auf der Grundlage der Druckstärke die Tasteninformationen bestimmt, die der ausgelösten Taste entsprechen.
  18. Endgerät nach Anspruch 17, wobei: verschiedene Druckstärken verschiedenen Tasteninformationen entsprechen und, wenn die ausgelöste Taste eine Buchstabentaste ist, die Tasteninformationen einen Großbuchstaben und einen Kleinbuchstaben der Buchstabentaste enthalten.
DE102018100809.0A 2017-03-27 2018-01-16 Verfahren, vorrichtung und endgerät zum anzeigen einer virtuellen tastatur Pending DE102018100809A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201710188828.8A CN106959814A (zh) 2017-03-27 2017-03-27 一种虚拟键盘的显示方法、装置及终端
CN201710188828.8 2017-03-27

Publications (1)

Publication Number Publication Date
DE102018100809A1 true DE102018100809A1 (de) 2018-09-27

Family

ID=59471196

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018100809.0A Pending DE102018100809A1 (de) 2017-03-27 2018-01-16 Verfahren, vorrichtung und endgerät zum anzeigen einer virtuellen tastatur

Country Status (3)

Country Link
US (1) US20180275869A1 (de)
CN (1) CN106959814A (de)
DE (1) DE102018100809A1 (de)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106959814A (zh) 2017-03-27 2017-07-18 联想(北京)有限公司 一种虚拟键盘的显示方法、装置及终端
CN107340886B (zh) * 2017-08-04 2023-04-18 腾讯科技(深圳)有限公司 一种软键盘状态确定方法、装置、介质及终端
CN107506134A (zh) * 2017-08-29 2017-12-22 北京小米移动软件有限公司 虚拟键盘按键背景显示方法与装置
US11614793B2 (en) * 2018-02-28 2023-03-28 Logitech Europe S.A. Precision tracking of user interaction with a virtual input device
CN109587544A (zh) * 2018-09-27 2019-04-05 杭州家娱互动网络科技有限公司 一种图标渲染方法、装置及电子设备
CN109710164A (zh) * 2018-12-19 2019-05-03 北京金山安全软件有限公司 一种数字输入键盘的生成方法及相关设备
CN110531862B (zh) * 2019-09-16 2023-12-22 百度时代网络技术(北京)有限公司 一种输入交互方法及装置
CN110764858A (zh) * 2019-10-18 2020-02-07 北京百度网讯科技有限公司 显示方法、显示装置和电子设备
CN111580739B (zh) * 2020-06-08 2021-07-23 宁波视睿迪光电有限公司 按键的触控区域的动态调整方法、装置及虚拟键盘
CN111796149B (zh) * 2020-06-15 2023-05-09 深圳市极致汇仪科技有限公司 一种实体按键触控化的矢量网络分析仪
CN111880882A (zh) * 2020-07-27 2020-11-03 广州华多网络科技有限公司 界面特效显示、处理、响应方法及其装置、设备和介质
CN112925417B (zh) * 2021-02-25 2022-04-12 吉林大学 一种用于信息识别的虚拟键盘按键触觉传输方法
CN113721828B (zh) * 2021-07-29 2024-05-28 北京搜狗科技发展有限公司 一种虚拟键盘显示方法、装置和电子设备
CN113822795B (zh) * 2021-09-17 2024-02-09 惠州视维新技术有限公司 基于毫米波雷达的虚拟按键投影方法、装置及电子设备
CN114721892B (zh) * 2022-06-08 2022-08-30 深圳市宇泰光电科技有限公司 一种触摸屏设备测试系统和测试方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106959814A (zh) 2017-03-27 2017-07-18 联想(北京)有限公司 一种虚拟键盘的显示方法、装置及终端

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090102805A1 (en) * 2007-10-18 2009-04-23 Microsoft Corporation Three-dimensional object simulation using audio, visual, and tactile feedback
CN101183296A (zh) * 2007-12-12 2008-05-21 魏新成 通过手机触摸屏上显示的虚拟双拼键盘输入汉字
US8750938B2 (en) * 2008-09-29 2014-06-10 Microsoft Corporation Glow touch feedback for virtual input devices
US20110179355A1 (en) * 2010-01-15 2011-07-21 Sony Ericsson Mobile Communications Ab Virtual information input arrangement
CN102262497B (zh) * 2010-05-25 2012-12-05 中国移动通信集团公司 一种放大触摸屏内触摸按键的方法及设备
US9417754B2 (en) * 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
CN104020858A (zh) * 2013-03-01 2014-09-03 鸿富锦精密工业(深圳)有限公司 虚拟键盘提供装置
CN104360810B (zh) * 2014-10-17 2017-10-17 广东欧珀移动通信有限公司 一种虚拟按键的显示方法和电子设备
CN104808943A (zh) * 2015-04-29 2015-07-29 努比亚技术有限公司 虚拟键盘的输入实现方法、装置及便携终端
CN104917890A (zh) * 2015-05-29 2015-09-16 努比亚技术有限公司 一种移动终端及其音量调节方法
US20180196567A1 (en) * 2017-01-09 2018-07-12 Microsoft Technology Licensing, Llc Pressure sensitive virtual keyboard

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106959814A (zh) 2017-03-27 2017-07-18 联想(北京)有限公司 一种虚拟键盘的显示方法、装置及终端

Also Published As

Publication number Publication date
CN106959814A (zh) 2017-07-18
US20180275869A1 (en) 2018-09-27

Similar Documents

Publication Publication Date Title
DE102018100809A1 (de) Verfahren, vorrichtung und endgerät zum anzeigen einer virtuellen tastatur
DE102015120864B4 (de) Mobile elektronische Vorrichtung, Verfahren zum Anzeigen der Benutzeroberfläche und Aufzeichnungsmedium dafür
DE102017120515A1 (de) Informationsverarbeitungsverfahren, Elektronikgerät und Informationsverarbeitungsvorrichtung
DE102013111978B4 (de) Identifikation und Verwendung von Gesten in der Nähe eines Sensors
DE102012109058B4 (de) Steuerverfahren und elektronische Einrichtung
DE102006060068B4 (de) Anzeigegerät und Verfahren, das für kleine Handgeräte angepasst ist
DE112008004156B4 (de) System und verfahren für einen gestenbasierten editiermodus und computerlesbares medium hierfür
DE60209776T2 (de) Anzeigensystem mit taktiler führung
DE202011106885U1 (de) Modusumschaltung
DE202008005344U1 (de) Elektronische Vorrichtung mit schaltbarer Benutzerschnittstelle und elektronische Vorrichtung mit zugreifbarer Berührbedienung
DE202015006055U1 (de) Benutzeroberfläche zum Empfangen von Benutzereingaben
DE202016001819U1 (de) Berührungseingabe-Cursor-Manipulation
DE202016001845U1 (de) Berührungseingabe-Cursor-Manipulation
DE102015116477A1 (de) Datenverarbeitungsverfahren und Elektronikgerät
DE102010036906A1 (de) Konfigurierbares Pie-Menü
DE202005021427U1 (de) Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung
DE112009001281T5 (de) Navigieren zwischen Aktivitäten in einem Computergerät
DE202007013923U1 (de) Mehrfachereignis-Eingabesystem
DE202011110722U1 (de) Tragbare elektronische Vorrichtung mit scrollbarem Bereich
DE112013002412T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche zum Bereitstellen von Rückmeldung für das Wechseln von Aktivierungszuständen eines Benutzerschnittstellenobjekts
DE102010060975A1 (de) Virtuelles Touchpad für eine Berührungsanordnung
DE202011109296U1 (de) Vorrichtung zur Bereitstellung eines visuellen Übergangs zwischen Bildschirmen
DE112013006066T5 (de) Die Druckempfindlichkeit auf Multi-Touch-Einheiten emulieren
DE102009014555A1 (de) Verfahren zum Unterstützen der Steuerung der Bewegung eines Positionsanzeigers mittels eines Tastfelds
DE112012000299T5 (de) Verfahren und Vorrichtung zur Textauswahl

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: ZIEBIG HENGELHAUPT INTELLECTUAL PROPERTY ATTOR, DE

Representative=s name: ZIEBIG & HENGELHAUPT PATENTANWAELTE PARTG MBB, DE

R016 Response to examination communication