DE202017104090U1 - Grafische Tastaturanwendung mit integrierter Suche - Google Patents

Grafische Tastaturanwendung mit integrierter Suche Download PDF

Info

Publication number
DE202017104090U1
DE202017104090U1 DE202017104090.9U DE202017104090U DE202017104090U1 DE 202017104090 U1 DE202017104090 U1 DE 202017104090U1 DE 202017104090 U DE202017104090 U DE 202017104090U DE 202017104090 U1 DE202017104090 U1 DE 202017104090U1
Authority
DE
Germany
Prior art keywords
search
keyboard
application
computing device
graphical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202017104090.9U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE202017104090U1 publication Critical patent/DE202017104090U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0238Programmable keyboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2455Query execution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • G06F16/24578Query processing with adaptation to user needs using ranking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/248Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/25Integrating or interfacing systems involving database management systems
    • G06F16/252Integrating or interfacing systems involving database management systems between a Database Management System and a front-end application
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90324Query formulation using system suggestions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90324Query formulation using system suggestions
    • G06F16/90328Query formulation using system suggestions using search space presentation or visualization, e.g. category or range presentation and selection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/34Network arrangements or protocols for supporting network services or applications involving the movement of software or configuration parameters 

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Nicht-transitorisches computerlesbares Speichermedium, das mit Anweisungen kodiert ist, die, wenn sie ausgeführt werden, einen oder mehrere Prozessoren eines Computergeräts dazu veranlassen, die folgenden Schritte durchzuführen: Ausgeben zur Anzeige einer grafischen Tastatur, die eine Vielzahl von Tasten enthält, durch eine Tastaturanwendung, die auf einem Computergerät ausgeführt wird; Empfangen, durch die Tastaturanwendung, eines Hinweises auf eine Auswahl einer oder mehrerer Tasten aus der Vielzahl von Tasten; Empfangen, durch die Tastaturanwendung, eines Hinweises auf eine Auswahl eines Suchelements, das von der Tastaturanwendung innerhalb der grafischen Tastatur ausgegeben wird; in Reaktion auf das Empfangen des Hinweises auf die Auswahl des Suchelements: Aufrufen einer Suche durch die Tastaturanwendung und basierend auf einer basierend auf der Auswahl der einen oder der mehreren Tasten bestimmten Suchanfrage; in Reaktion auf das Aufrufen der Suche, Empfangen von Suchergebnissen durch die Tastaturanwendung; und Ausgeben zur Anzeige innerhalb der grafischen Tastatur, durch die Tastaturanwendung, eines grafischen Hinweises auf mindestens einen Teil der Suchergebnisse und eines Suchvorschlagsbereichs, der eine oder mehrere vorgeschlagene Suchanfragen beinhaltet, die basierend auf der Auswahl der einen oder der mehreren Tasten bestimmt werden, wobei der grafische Hinweis auf die Suchergebnisse anstelle zumindest eines Teils der Vielzahl von Tasten ausgegeben wird.

Description

  • HINTERGRUND
  • Obwohl einige mobile Computergeräte in der Lage sind, mehrere Anwendungen gleichzeitig auszuführen, können manche mobile Computergeräte nur eine grafische Benutzeroberfläche (GUI) einer einzelnen Anwendung auf einmal darstellen. Um mit mehreren Anwendungen gleichzeitig zu interagieren, muss ein Benutzer eines mobilen Computergeräts möglicherweise zwischen verschiedenen Anwendungs-GUIs hin- und herschalten. Zum Beispiel muss ein Benutzer eines mobilen Computergeräts möglicherweise damit aufhören, Text in einer Textnachrichten-Anwendung einzugeben, und eine Eingabe bereitstellen, um das Gerät dazu zu veranlassen, zu einer Suchanwendung umzuschalten, um nach einer bestimmten Information zu suchen, die er nutzen kann, wenn er eine Nachricht verfasst oder anderweitig Text eingibt. Unter Schutz gestellt werden und Gegenstand des Gebrauchsmusters sind, entsprechend den Vorschriften des Gebrauchsmustergesetzes, lediglich Vorrichtungen wie in den beigefügten Schutzansprüchen definiert, jedoch keine Verfahren. Soweit nachfolgend in der Beschreibung gegebenenfalls auf Verfahren Bezug genommen wird, dienen diese Bezugnahmen lediglich der beispielhaften Erläuterung der in den beigefügten Schutzansprüchen unter Schutz gestellten Vorrichtung oder Vorrichtungen.
  • KURZDARSTELLUNG
  • In einem Beispiel beinhaltet ein Verfahren das Ausgeben zur Anzeige, durch eine Tastaturanwendung, die auf einem Computergerät ausgeführt wird, einer grafischen Tastatur, einschließlich einer Vielzahl von Tasten und eines Suchelements, Empfangen, durch die Tastaturanwendung, eines Hinweises auf eine Auswahl des Suchelements, und, in Reaktion auf das Empfangen des Hinweises auf die Auswahl des Suchelements, das Ausgeben zur Anzeige, innerhalb der grafischen Tastatur, eines Suchvorschlagsbereichs, der eine oder mehrere vorgeschlagene Suchanfragen beinhaltet. Das Verfahren kann auch ein Bestimmen, durch die Tastaturanwendung, einer Suchanfrage, basierend auf einem Hinweis auf eine vom Computergerät erkannte Benutzereingabe, ein Aufrufen einer Suche, durch die Tastaturanwendung und basierend auf der Suchanfrage, in Reaktion auf das Aufrufen der Suche, ein Empfangen, durch die Tastaturanwendung, von Suchergebnissen und das Ausgeben, zur Anzeige innerhalb der grafischen Tastatur und anstelle zumindest eines Teils der Vielzahl von Tasten, eines grafischen Hinweises auf zumindest einen Teil der Suchergebnisse enthalten.
  • In einem weiteren Beispiel beinhaltet ein Computergerät einen oder mehrere Prozessoren, einen Speicher, der eine oder mehrere Anwendungen, einschließlich einer Tastaturanwendung, speichert, sowie eine präsenzempfindliche Anzeige. Der eine oder die mehreren Prozessoren führen die Tastaturanwendung aus, um eine grafische Tastatur, einschließlich einer Vielzahl von Tasten und eines Suchelements, zur Anzeige durch die präsenzempfindliche Anzeige auszugeben, einen Hinweis auf eine Auswahl des Suchelements zu empfangen und, in Reaktion auf das Empfangen des Hinweises auf die Auswahl des Suchelements, einen Suchvorschlagsbereich, einschließlich einer oder mehrerer vorgeschlagener Suchanfragen, zur Anzeige durch die präsenzempfindliche Anzeige und innerhalb der grafischen Tastatur auszugeben. Der eine oder die mehreren Prozessoren können die Tastaturanwendung zudem ausführen, um basierend auf einem Hinweis auf eine vom Computergerät erkannte Benutzereingabe eine Suchanfrage zu bestimmen, basierend auf der Suchanfrage eine Suche aufzurufen, in Reaktion auf das Aufrufen der Suche Suchergebnisse zu empfangen, und zur Anzeige durch die präsenzempfindliche Anzeige innerhalb der grafischen Tastatur und anstelle zumindest eines Teils der Vielzahl von Tasten einen grafischen Hinweis auf zumindest einen Teil der Suchergebnisse auszugeben.
  • In einem weiteren Beispiel, ein computerlesbares Speichermedium, auf dem Anweisungen kodiert sind, die, wenn die ausgeführt werden, einen oder mehrere Prozessoren eines Computergeräts dazu veranlassen, eine grafische Tastatur, einschließlich einer Vielzahl von Tasten und eines Suchelements, zur Anzeige auszugeben, einen Hinweis auf eine Auswahl des Suchelements zu empfangen und, in Reaktion auf das Empfangen des Hinweises auf die Auswahl des Suchelements, einen Suchvorschlagsbereich, inklusive einer oder mehrerer vorgeschlagenen Suchanfragen, zur Anzeige innerhalb der grafischen Tastatur auszugeben. Die Anweisungen können den einen oder die mehreren Prozessoren des Weiteren dazu veranlassen, basierend auf einem Hinweis auf eine vom Computergerät erkannte Benutzereingabe eine Suchanfrage zu bestimmen, basierend auf der Suchanfrage eine Suche aufzurufen, in Reaktion auf das Aufrufen der Suche Suchergebnisse zu empfangen, und zur Anzeige innerhalb der grafischen Tastatur und anstelle zumindest eines Teils der Vielzahl von Tasten einen grafischen Hinweis auf zumindest einen Teil der Suchergebnisse auszugeben.
  • Die Details von einem oder mehreren Beispielen der Offenbarung sind in den zugehörigen Zeichnungen und der nachfolgenden Beschreibung dargelegt. Andere Merkmale, Gegenstände und Vorteile der Erfindung werden aus der Beschreibung und den Zeichnungen, sowie aus den Ansprüchen, ersichtlich.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt ein konzeptuelles Diagramm, das ein exemplarisches Computergerät veranschaulicht, das dafür konfiguriert ist, eine grafische Tastatur mit integrierten Suchfunktionen gemäß einem oder mehreren Aspekten der vorliegenden Offenbarung darzustellen.
  • 2 zeigt ein Blockdiagramm, das ein exemplarisches Computergerät veranschaulicht, das dafür konfiguriert ist, eine grafische Tastatur mit integrierten Suchfunktionen gemäß einem oder mehreren Aspekten der vorliegenden Offenbarung darzustellen.
  • 3 zeigt ein Blockdiagramm, das ein exemplarisches Computergerät veranschaulicht, das grafischen Inhalt zur Anzeige auf einem entfernten Gerät gemäß einer oder mehreren Techniken der vorliegenden Offenbarung ausgibt.
  • 4 zeigt ein konzeptuelles Diagramm, das eine exemplarische grafische Benutzeroberfläche 414 eines exemplarischen Computergeräts veranschaulicht, das dafür konfiguriert ist, eine grafische Tastatur mit integrierten Suchfunktionen gemäß einem oder mehreren Aspekten der vorliegenden Offenbarung darzustellen.
  • 5 zeigt ein Ablaufdiagramm, das exemplarische Operationen eines Computergeräts veranschaulicht, das dafür konfiguriert ist, eine grafische Tastatur mit integrierten Suchfunktionen gemäß einem oder mehreren Aspekten der vorliegenden Offenbarung darzustellen.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Im Allgemeinen richtet sich diese Offenbarung auf Techniken, die es einer Tastaturanwendung, die auf einem Computergerät ausgeführt wird, zu ermöglichen, eine Suche durchzuführen und Ergebnisse der Suche innerhalb einer grafischen Tastatur der Tastaturanwendung anzuzeigen. Beispielsweise kann ein Benutzer mit einer grafischen Tastatur interagieren, die, durch die Tastaturanwendung, auf einer präsenzempfindlichen Anzeige (z. B. einem Touchscreen) dargestellt wird. Die Interaktion kann in Verbindung mit einer Kommunikationsanwendung oder Ähnlichem stattfinden, verschieden von einer Suchanwendung, zum Beispiel als Teil einer Benutzeroberfläche (GUI) einer Textnachrichten- oder Chat-Anwendung. Wenn der Benutzer daran interessiert ist, eine Suche durchzuführen, kann der Benutzer eine vorgeschlagene Suchanfrage auswählen oder eine Suchanfrage angeben und die Tastaturanwendung dazu veranlassen, die Suche zu initiieren (die optional auf die auf dem Computergerät gespeicherten Inhalte und/oder durch eine Suchmaschine auf Inhalte, die entfernt vom Computergerät gespeichert sind, angewendet werden kann). In einigen Beispielen kann das Computergerät die Suchergebnisse als Teil oder anstelle eines Teils der Tastatur (z. B. anstelle der grafischen Tasten) innerhalb oder neben der Tastaturanwendung darstellen.
  • Durch das Bereitstellen einer GUI, die eine grafische Tastatur mit integrierten Suchfähigkeiten beinhaltet, kann ein exemplarisches Computergerät einem Benutzer eine Möglichkeit bereitstellen, schnell Suchergebnisse zu erhalten, die für die Eingabe, die der Benutzer bereits auf der grafischen Tastatur vorgenommen hat, relevant sind, ohne dafür zwischen mehreren verschiedenen Anwendungen und Anwendungs-GUIs hin- und herschalten zu müssen oder bereits auf der grafischen Tastatur eingegebenen Text erneut tippen zu müssen. Auf diese Weise können Techniken aus dieser Offenbarung die Zeit und die Anzahl von Benutzereingaben reduzieren, die nötig sind, um Suchergebnisse zu erhalten, was die Benutzererfahrung vereinfachen und den Stromverbrauch des Computergeräts verringern kann.
  • In der gesamten Offenbarung werden Beispiele beschrieben, bei denen eine Anwendung, ein Computergerät und/oder ein Computersystem nur dann Informationen analysieren (z. B. Text, der auf einer grafischen Tastatur eingegeben wird, Kontext, Standorte, Geschwindigkeiten, Suchanfragen usw.), die mit einem Computergerät und einem Benutzer eines Computergeräts verknüpft sind, wenn der Benutzer des Computergeräts seine Erlaubnis zum Analysieren der Informationen gibt. So wird dem Benutzer zum Beispiel in den nachfolgend beschriebenen Situationen, bevor ein Computergerät mit dem Benutzer verknüpfte Informationen sammelt oder verwendet, unter Umständen eine Möglichkeit gegeben, eine Eingabe zu machen, um zu steuern, ob die Anwendung, das Computergerät und/oder das Computersystem Benutzerinformationen (wie z. B. Informationen zu Text, der auf einer grafischen Tastatur eingegeben wird usw.) sammeln und verwenden dürfen, oder um festzulegen, ob und/oder wie die Anwendung, das Computergerät und/oder das Computersystem Inhalte empfangen können, die für den Benutzer möglicherweise relevant sind. Außerdem können bestimmte Daten auf eine oder mehrere Arten behandelt werden, bevor sie von der Anwendung, vom Computergerät und/oder vom Computersystem gespeichert oder verwendet werden, sodass persönlich identifizierbare Informationen entfernt werden. So kann beispielsweise die Identität eines Benutzers so behandelt werden, dass keine persönlichen Informationen von dem Benutzer bestimmt werden können, oder ein geografischer Standort eines Benutzers kann beim Empfangen von Standortinformationen (wie z. B. auf eine Stadt, eine Postleitzahl oder eine Landesebene) verallgemeinert werden, sodass ein bestimmter Standort eines Benutzers nicht bestimmt werden kann. Daher kann der Benutzer die Kontrolle darüber haben, wie Informationen über den Benutzer gesammelt und von dem Computergerät und Computersystem verwendet werden.
  • 1 zeigt ein konzeptuelles Diagramm, das ein exemplarisches Computergerät 110 veranschaulicht, das dafür konfiguriert ist, eine grafische Tastatur mit integrierten Suchfunktionen gemäß einem oder mehreren Aspekten der vorliegenden Offenbarung auszugeben. Computergerät 110 kann ein Mobilgerät, wie z. B. ein Smartphone, ein Tablet-Computer, ein Laptop-Computer, eine computergestützte Uhr, eine computergestützte Brille, computergestützte Handschuhe oder eine andere Art von tragbarem Computergerät sein. Zusätzliche Beispiele für Computergerät 110 beinhalten Desktop-Computer, Fernseher, Persönliche Digitale Assistenten (PDA), tragbare Spielsysteme, Mediaplayer, E-Book-Reader, mobile Fernsehplattformen, Navigations- und Entertainmentsysteme in Autos, Cockpitanzeigen in Fahrzeugen (z. B. Autos, Flugzeuge oder andere Fahrzeuge) oder jedwede andere Art von tragbaren und nicht tragbaren, mobilen oder nicht mobilen Computergeräten, die eine grafische Tastatur zur Anzeige ausgeben können.
  • Computergerät 110 beinhaltet eine präsenzempfindliche Anzeige (PSD) 112, ein Benutzeroberflächen(UI)-Modul 120 und eine Tastaturanwendung 122. Module 120 und 122 können beschriebene Vorgänge unter Verwendung von Software, Hardware, Firmware oder einer Kombination aus Software, Hardware und Firmware ausführen, die im Computergerät 110 resident ist und/oder darauf ausgeführt wird. Beispielsweise können ein oder mehrere Prozessoren von Computergerät 110 Anweisungen ausführen, die in einem Speicher oder auf einem nicht transitorischen Speichermedium von Computergerät 110 gespeichert sind, um die Vorgänge der Module 120 und 122 durchzuführen. Computergerät 110 kann die Module 120 und 122 als virtuelle Maschinen, die auf zugrundeliegender Hardware ausgeführt werden, ausführen. Als weitere Beispiele können Module 120 und 122 als ein oder mehrere Dienste eines Betriebssystems oder einer Computerplattform ausgeführt werden, oder Module 120 und 122 können als ein oder mehrere ausführbare Programme auf einer Anwendungsebene einer Computerplattform ausgeführt werden.
  • PSD 112 des Computergeräts 110 kann als entsprechendes Eingabe- und/oder Ausgabegerät für das Computergerät 110 fungieren. PSD 112 kann unter Verwendung verschiedener Technologien implementiert werden. PSD 112 kann beispielsweise unter Verwendung von präsenzempfindlichen Eingabebildschirmen, wie z. B. resistiven Touchscreens, SAW-Touchscreens („Surface Acoustic Wave”, Touchscreens mit akustischer Oberflächenwellentechnologie), kapazitiven Touchscreens, projektiv-kapazitiven Touchscreens, druckempfindlichen Bildschirmen, APR-Touchscreens („Acoustic Pulse Recognition”, Touchscreens mit akustischer Impulserkennung) oder anderer präsenzempfindlicher Anzeigetechnologie als Eingabegerät fungieren. PSD 112 kann zudem unter Verwendung eines Anzeigegeräts oder mehrerer Anzeigegeräte, wie z. B. LCDs („Liquid Crystal Display”, Flüssigkristallanzeigen), Punktmatrixanzeigen, LED-Anzeigen („Light Emitting Diode”, Leuchtdiodenanzeigen), OLED-Anzeigen („Organic Light Emitting Diode”, organische Leuchtdiodenanzeigen), E-Papier-Anzeigen oder ähnlichen Monochrom- oder Farbanzeigen, die sichtbare Informationen für einen Benutzer eines Computergeräts 110 ausgeben können, als Ausgabegerät (z. B. Anzeige) fungieren.
  • PSD 112 kann eine Eingabe (z. B. taktile und nicht taktile Eingaben) von einem Benutzer von Computergerät 110 erkennen. PSD 112 kann eine Eingabe erkennen, indem es eine oder mehrere Gesten von einem Benutzer erkennt (z. B. ein Berühren, Zeigen und/oder Wischen mit einem Finger oder einem Stylus-Stift an oder in der Nähe von einer Stelle von PSD 112). PSD 112 kann als Benutzeroberfläche (z. B. Benutzeroberfläche 114), die möglicherweise mit vom Computergerät 110 bereitgestellter Funktionalität verknüpft ist, Informationen für einen Benutzer ausgeben. Die Benutzeroberflächen können mit Computerplattformen, Betriebssystemen, Anwendungen und/oder Diensten verbunden sein, die auf Computergerät 110 ausgeführt werden oder auf die von diesem zugegriffen werden kann (z. B. elektronische Textnachrichten-Anwendungen, Chatanwendungen, Internetbrowser-Anwendungen, mobile oder Desktop-Betriebssysteme, Anwendungen sozialer Medien, elektronische Spiele und andere Arten von Anwendungen). Zum Beispiel kann PSD 112, wie in 1 gezeigt, Benutzeroberfläche 114 darstellen, die eine grafische Benutzeroberfläche einer Chatanwendung ist, die auf Computergerät 110 ausgeführt wird und verschiedene grafische Elemente beinhaltet, die an verschiedenen Stellen von PSD 112 angezeigt werden.
  • Obwohl in 1 als Chat-Benutzeroberfläche dargestellt, kann Benutzeroberfläche 114 jedwede grafische Benutzeroberfläche sein, die eine grafische Tastatur mit integrierten Suchfunktionen beinhaltet. Im Beispiel von 1 beinhaltet Benutzeroberfläche 114 einen Ausgabebereich 116A, eine grafische Tastatur 116B und einen Texteingabebereich 116C. Ein Benutzer von Computergerät 110 kann eine Eingabe auf der grafischen Tastatur 116B vornehmen, um Textzeichen innerhalb von Eingabebereich 116C zu erzeugen, die den Inhalt der elektronischen Nachrichten bilden, die innerhalb des Ausgabebereichs 116A angezeigt werden. Die innerhalb des Ausgabebereichs 116A angezeigten Nachrichten bilden eine Chat-Konversation zwischen einem Benutzer von Computergerät 110 und einem Benutzer eines anderen Computergeräts.
  • UI-Modul 120 verwaltet Benutzerinteraktionen mit PSD 112 und anderen Komponenten des Computergeräts 110. Anders gesagt, kann UI-Modul 120 als Vermittler zwischen verschiedenen Komponenten von Computergerät 110 agieren, um Bestimmungen basierend auf einer von PSD 112 erkannten Benutzereingabe vorzunehmen und Ausgaben, z. B. in Reaktion auf die Benutzereingabe, an PSD 112 zu erzeugen. UI-Modul 120 kann Anweisungen von einer Anwendung, einem Dienst, einer Plattform oder einem anderen Modul von Computergerät 110 empfangen, um PSD 112 dazu zu veranlassen, eine Benutzeroberfläche (z. B. Benutzeroberfläche 114) auszugeben. UI-Modul 120 kann Eingaben verwalten, die durch Computergerät 110 empfangen werden, während ein Benutzer die auf PSD 112 dargestellte Benutzeroberfläche betrachtet und mit ihr interagiert, und die Benutzeroberfläche in Reaktion auf das Empfangen zusätzlicher Anweisungen von der Anwendung, dem Dienst, der Plattform oder dem anderen Modul von Computergerät 110, das die Benutzereingabe verarbeitet, aktualisieren.
  • Tastaturanwendung 122 stellt eine Anwendung, einen Dienst oder eine Komponente dar, die auf Computergerät 110 ausgeführt wird, oder auf die von diesem zugegriffen werden kann, die Computergerät 110 eine grafische Tastatur mit integrierten Suchfunktionen bereitstellt. Tastaturanwendung 122 kann zwischen einem Betrieb im Texteingabemodus hin- und herschalten, bei dem Tastaturanwendung 122 ähnlich einer herkömmlichen grafischen Tastatur funktioniert, und einem Suchmodus, in dem Tastaturanwendung 122 verschiedene integrierte Suchfunktionen durchführt oder mit einer oder mehreren Suchanwendungen oder -funktionen kommuniziert. Tastaturanwendung 122 kann zum Beispiel Suchanfragen empfangen oder Suchergebnisse anstelle zumindest eines Teils der grafischen Tastatur 116B zur Anzeige ausgeben (z. B. anstelle einer oder mehrerer Tasten aus der Vielzahl von grafischen Tasten 118A).
  • In einigen Beispielen kann Tastaturanwendung 122 eine eigenständige Anwendung, Dienst oder Modul sein, das auf Computergerät 110 ausgeführt wird. In anderen Beispielen kann Tastaturanwendung 122 eine Subkomponente oder Erweiterung sein, die als Dienst für andere Anwendungen oder Gerätefunktionen agiert. Zum Beispiel kann Tastaturanwendung 122 in eine Chat- oder Textnachrichten-Anwendung integriert sein, die auf Computergerät 110 ausgeführt wird. Als weiteres Beispiel kann Tastaturanwendung 122 eine eigenständige Anwendung oder Subroutine sein, die von einer Anwendung oder einer Betriebsplattform von Computergerät 110 jedes Mal dann aufgerufen wird, wenn eine Anwendung oder eine Betriebsplattform eine Eingabefunktionalität mit einer grafischen Tastatur benötigt. In einigen Beispielen kann Computergerät 110 Tastaturanwendung 122 aus einem Anwendungsspeicher eines Dienstanbieters (z. B. einem Online-Anwendungs-Store, der über das Internet zugänglich ist) herunterladen und installieren. In anderen Beispielen kann Tastaturanwendung 122 bei der Herstellung von Computergerät 110 vorinstalliert werden.
  • Bei Betrieb im Texteingabemodus kann Tastaturanwendung 122 von Computergerät 110 herkömmliche Vorgänge einer zur Texteingabe verwendeten grafischen Tastatur durchführen, wie z. B.: Erzeugen eines grafischen Tastatur-Layouts mit einer Vielzahl von Tasten 118A zur Anzeige auf PSD 112, Verknüpfen von auf PSD 112 erkannten Eingaben mit Auswahlen von grafischen Tasten 118A, Bestimmen von Zeichen basierend auf den ausgewählten grafischen Tasten 118A und Vorhersagen oder Autokorrigieren von Wörtern und/oder Sätzen basierend auf den Zeichen, die aus den ausgewählten grafischen Tasten 118A bestimmt werden.
  • Die grafische Tastatur 116B beinhaltet grafische Elemente, die als grafische Tasten 118A angezeigt werden. Tastaturanwendung 122 kann Informationen an UI-Modul 120 ausgeben, die das Layout der grafischen Tastatur 116B innerhalb der Benutzeroberfläche 114 spezifizieren. Zum Beispiel können die Informationen Anweisungen beinhalten, die Positionen, Größen, Farben, Zeichen und andere Eigenschaften der grafischen Tasten 118A spezifizieren. Basierend auf den von Tastaturanwendung 122 empfangenen Informationen kann UI-Modul 120 PSD 112 dazu veranlassen, die grafische Tastatur 116B als Teil von Benutzeroberfläche 114 anzuzeigen.
  • Jede Taste aus den grafischen Tasten 118A kann einem oder mehreren jeweiligen Zeichen (z. B. einem Buchstaben, einer Zahl, einem Interpunktionszeichen oder einem anderen Zeichen) zugeordnet sein, die innerhalb der Taste angezeigt werden. Ein Benutzer von Computergerät 110 kann eine Eingabe an Positionen von PSD 112 vornehmen, an denen eine oder mehrere grafische Tasten 118A angezeigt werden, um Inhalte (z. B. Zeichen, Suchergebnisse usw.) in den Texteingabebereich 116C einzugeben (z. B. zum Verfassen von Nachrichten, die verschickt und innerhalb des Ausgabebereichs 116A angezeigt werden, oder zum Eingeben einer Suchanfrage, die Computergerät 110 von innerhalb der grafischen Tastatur 116B ausführt). Tastaturanwendung 122 kann Informationen von UI-Modul 120 empfangen, die auf Positionen hinweisen, die einer von PSD 112 erkannten Eingabe zugeordnet sind, die in Bezug zu den Positionen jeder der grafischen Tasten stehen. Unter Verwendung eines Raum- und/oder Sprachmodells kann Tastaturanwendung 122 die Eingaben in Auswahlen von Tasten und Zeichen, Wörtern und Sätzen übersetzen.
  • Zum Beispiel kann PSD 112 eine Benutzereingabe erkennen, während ein Benutzer von Computergerät 110 Eingaben an oder in der Nähe einer Position von PSD 112 vornimmt, an der PSD 112 grafische Tasten 118A darstellt. UI-Modul 120 kann, von PSD 112, einen Hinweis auf die von PSD 112 erkannten Benutzereingaben empfangen und, an Tastaturanwendung 122, Informationen über die Benutzereingabe ausgeben. Informationen über die Benutzereingabe können einen Hinweis auf ein oder mehrere Berührungsereignisse beinhalten (z. B. Positionen und andere Informationen über die Eingabe), die von PSD 112 erkannt werden.
  • Basierend auf den vom UI-Modul 120 empfangenen Informationen kann Tastaturanwendung 122 erkannte Benutzereingaben bei PSD 112 mit Auswahlen von grafischen Tasten 118A verbinden, Zeichen basierend auf den ausgewählten grafischen Tasten 118A bestimmen und Wörter und/oder Sätze vorhersagen oder autokorrigieren, die basierend auf den ausgewählten grafischen Tasten 118A zugeordneten Zeichen bestimmt werden. Zum Beispiel kann Tastaturanwendung 122 ein Raummodell beinhalten, das basierend auf den Positionen der Tasten 118A und auf den Informationen über die Eingabe die am wahrscheinlichsten ausgewählte(n) Taste oder Tasten 118A bestimmen kann. In Reaktion auf das Bestimmen der am wahrscheinlichsten ausgewählten Taste(n) 118A kann Tastaturanwendung 122 ein oder mehrere Zeichen, Wörter und/oder Sätze bestimmen. Zum Beispiel kann jeder der einen oder mehreren grafischen Tasten 118A, die von einer Benutzereingabe bei PSD 112 ausgewählt werden, ein einzelnes Zeichen oder einen Tastaturvorgang darstellen. Tastaturanwendung 122 kann eine Zeichenfolge bestimmen, die basierend auf der einen oder den mehreren ausgewählten grafischen Tasten 118A ausgewählt wird. In einigen Beispielen kann Tastaturanwendung 122 ein Sprachmodell auf die Zeichenfolge anwenden, um einen oder mehrere wahrscheinliche mögliche Buchstaben, Morpheme, Wörter und/oder Sätze zu bestimmen, die ein Benutzer einzugeben versucht, basierend auf der Auswahl der grafischen Tasten 118A.
  • Tastaturanwendung 122 kann die Zeichenfolge und/oder die Folge von wahrscheinlichen Wörtern und Sätzen an UI-Modul 120 senden, und UI-Modul 120 kann PSD 112 dazu veranlassen, die Zeichen und/oder möglichen Wörter, die aus einer Auswahl von einer oder mehreren grafischen Tasten 118A bestimmt werden, als Text innerhalb eines Eingabebereichs 116C darzustellen. In einigen Beispielen, wenn sie als herkömmliche Tastatur zur Durchführung von Texteingabe-Vorgängen fungiert, und in Reaktion auf das Empfangen einer Benutzereingabe an den grafischen Tasten 118A (z. B. wenn ein Benutzer auf der grafischen Tastatur 116B schreibt, um Text in den Eingabebereich 116C einzugeben), kann Tastaturanwendung 122 UI-Modul 120 dazu veranlassen, die möglichen Wörter und/oder Sätze als einen oder mehrere auswählbare Rechtschreibvorschläge und/oder auswählbare Wort- oder Satzvorschläge innerhalb des Vorschlagsbereichs 118B anzuzeigen.
  • Zusätzlich zum Durchführen herkömmlicher Vorgänge einer grafischen Tastatur, die zur Texteingabe verwendet wird, bietet Tastaturanwendung 122 von Computergerät 110 auch eine integrierte Suchfähigkeit. Das heißt, dass Tastaturanwendung 122, statt zu erfordern, dass ein Benutzer von Computergerät 110 von der Benutzeroberfläche 114, die grafische Tastatur 116B und den Ausgabebereich 116A bereitstellt, (z. B. zu einer anderen Anwendung oder einem anderen Dienst, die auf Computergerät 110 ausgeführt werden oder auf die von diesem zugegriffen werden kann) weg zu navigieren, im Suchmodus operieren kann, in den Tastaturanwendung 122 Suchvorgänge ausführen und Suchergebnisse an einer oder mehreren Positionen, sowie in einem oder mehreren Formaten, wie z. B. innerhalb des gleichen Bereichs von PSD 112, in dem die grafische Tastatur 116B angezeigt wird, darstellen kann.
  • Wie oben angegeben, kann Tastaturanwendung 122 als eigenständige Anwendung, Dienst, oder Modul betrieben werden, die auf Computergerät 110, oder als einzelne integrierte Subkomponente desselben, ausgeführt werden. Wenn zum Beispiel Tastaturanwendung 122 eine eigenständige Anwendung oder Subroutine ist, die durch eine Anwendung oder Betriebsplattform von Computergerät 110 immer dann aufgerufen wird, wenn eine Anwendung oder Betriebsplattform eine grafische Tastatureingabefunktionalität benötigt, kann Tastaturanwendung 122 der aufrufenden Anwendung oder Betriebsplattform eine Texteingabefähigkeit und Suchfähigkeit bereitstellen.
  • Tastaturanwendung 122 kann des Weiteren im Suchmodus betrieben werden. In einigen Beispielen kann Tastaturanwendung 122, wenn sie im Suchmodus betrieben wird, die grafische Tastatur 116B dazu veranlassen, Suchelement 118C einzuschließen. Suchelement 118C stellt ein auswählbares Element der grafischen Tastatur 116B zum Aufrufen einer oder mehrerer der verschiedenen Suchfunktionen der grafischen Tastatur 116B, wie z. B. das Aufrufen des Suchmodus, dar. Beispielsweise kann ein Benutzer durch Auswählen von Suchelement 118C (z. B. durch Antippen oder Gestikulieren an einer Stelle oder innerhalb eines Bereichs von PSD 112, in dem Suchelement 118C angezeigt wird) Computergerät 110 dazu veranlassen, die verschiedenen integrierten Suchfunktionen aufzurufen, ohne dass der Benutzer spezifisch zu einer getrennten Anwendung, einem getrennten Dienst oder einer anderen getrennten Funktion navigieren muss, die auf Computergerät 110 ausgeführt wird oder auf die von diesem aus zugegriffen werden kann.
  • UI-Modul 120 kann Informationen an Tastaturanwendung 122 ausgeben, die darauf hinweisen, dass ein Benutzer von Computergerät 110 ggf. Suchelement 118C ausgewählt hat. In Reaktion auf das Bestimmen, dass Suchelement 118C ausgewählt wurde, kann Tastaturanwendung 122 dazu übergehen, im Suchmodus betrieben zu werden. In einigen Beispielen kann Tastaturanwendung 122, während Tastaturanwendung 122 im Suchmodus betrieben wird, weiterhin eine Texteingabe über die grafischen Tasten 118A erlauben.
  • Tastaturanwendung 122 kann die grafische Tastatur 116B dafür rekonfigurieren, Suchfunktionen im Gegensatz zu Vorgängen auszuführen, die vor allem der Texteingabe im Texteingabebereich 116C zugeordnet sind. Zum Beispiel kann Tastaturanwendung 122, in Reaktion auf das Empfangen einer Auswahl von Suchelement 118C, die grafische Tastatur 116B modifizieren, um Suchvorschlagsbereich 118D einzuschließen, der eine oder mehrere vorgeschlagene Suchanfragen beinhaltet. Tastaturanwendung 122 kann Vorschlagsbereich 118B dafür konfigurieren, vorgeschlagene Inhalte (z. B. vorhergesagte Suchanfragen, vorhergesagte Emoticons oder sogenannte „Emojis” oder andere vorgeschlagene Inhalte) als auswählbare Elemente innerhalb von Vorschlagsbereich 118B anstatt vorhergesagter Zeichen, Wörter oder Sätze oder anderen primär linguistischen Informationen darzustellen, die Tastaturanwendung 122 aus einem Sprachmodell, Lexikon oder Wörterbuch ableitet. Anders gesagt, kann Computergerät 110, anstatt Rechtschreib- oder Wortvorschläge innerhalb von Vorschlagsbereich 118B bereitzustellen, innerhalb von Vorschlagsbereich 118B vorgeschlagene Inhalte im Zusammenhang mit der Suche darstellen, von denen Computergerät 110 bestimmt, dass sie einem Benutzer beim Vornehmen einer Eingabe im Zusammenhang mit elektronischen Mitteilungen hilfreich sein können. In Beispielen, in denen Tastaturanwendung 122 vor der Auswahl von Suchelement 118C und nach dem Empfangen der Auswahl von Suchelement 118C eine vorgeschlagene Suchanfrage innerhalb von Vorschlagsbereich 118B dargestellt hat, kann Tastaturanwendung 122 die vorgeschlagene Suchanfrage als eine der vorgeschlagenen Suchanfragen innerhalb des Suchvorschlagsbereichs 118D beinhalten.
  • Als weiteres Beispiel kann Tastaturanwendung 122 in Reaktion auf den Hinweis, dass ein Benutzer ggf. Suchelement 118C ausgewählt hat, Vorschlagsbereich 118B dafür konfigurieren, Suchanfragen, die unter Verwendung der grafischen Tasten 118A eingegeben werden, zusätzlich zu oder anstelle von vorhergesagten Zeichen, Wörtern oder Sätzen oder anderen primär linguistischen Informationen darzustellen, die Tastaturanwendung 122 aus einem Sprachmodell, Lexikon oder Wörterbuch ableitet. Anders gesagt, kann Computergerät 110 in einigen Fällen, anstatt Rechtschreib- oder Wortvorschläge aus einem Wörterbuch innerhalb von Vorschlagsbereich 118B bereitzustellen, innerhalb von Vorschlagsbereich 118B unter Verwendung der grafischen Tasten 118A eingegebene Suchanfragen darstellen.
  • In einigen Beispielen kann Tastaturanwendung 122 Vorschlagsbereich 118B dafür konfigurieren, Suchanfragen mit einem anderen Format als dem von vorhergesagten Zeichen, Wörtern oder Sätzen anzuzeigen, sodass ein Benutzer Suchanfragen von vorhergesagten Zeichen, Wörtern oder Sätzen visuell unterscheiden kann. Beispielsweise kann Tastaturanwendung 122 Vorschlagsbereich 118B dafür konfigurieren, Suchanfragen mit einer bestimmten Textfarbe, einer bestimmten Schrift, Schriftgröße usw. anzuzeigen, oder neben oder innerhalb eines unterscheidbaren Benutzeroberflächen-Elements, wie z. B. einem Textfeld anzuzeigen, um eine Suchanfrage von vorhergesagten Zeichen, Wörtern oder Sätzen visuell zu unterscheiden.
  • Tastaturanwendung 122 kann, anstelle von oder zusätzlich zu dem Konfigurieren von Vorschlag 118B, um Suchanfragen darzustellen, Suchvorschlagsbereich 118D innerhalb der grafischen Tastatur 116B beinhalten. Vorschlagsbereich 118D kann vorgeschlagene Suchanfragen als auswählbare Elemente oberhalb der grafischen Tasten 118A beinhalten. Anders gesagt, kann Tastaturanwendung 122 in einigen Beispielen die grafische Tastatur 116B dafür konfigurieren, Suchvorschlagsbereich 118D zwischen dem Eingabebereich 116C und den grafischen Tasten 118A zu beinhalten. Im in 1 dargestellten Beispiel ist der Suchvorschlagsbereich 118D auch in der Nähe von (z. B. neben, über, unter, auf einer Seite von usw.) dem Vorschlagsbereich 118B angeordnet, der den Eingabefokus haben kann. In einigen Beispielen, in denen die Benutzeroberfläche 114 ggf. anders konfiguriert ist, kann der Suchvorschlagsbereich 118D zwischen den grafischen Tasten 118A und dem Eingabebereich 116C angeordnet sein, darunter auch in einem Beispiel, in dem der Suchvorschlagsbereich unter den grafischen Tasten und über dem Eingabebereich angeordnet ist. In noch weiteren Beispielen kann der Suchvorschlagsbereich zwischen dem Vorschlagsbereich 118B und dem Eingabebereich 116C angeordnet sein, darunter auch in einem Beispiel, in dem der Suchvorschlagsbereich unter dem Vorschlagsbereich und über dem Eingabebereich angeordnet ist. Andere alternative Anordnungen der grafischen Benutzeroberfläche sind möglich, darunter auch Anordnungen, in denen der Suchvorschlagsbereich nicht zwischen den grafischen Tasten und dem Eingabebereich oder zwischen dem Vorschlagsbereich und dem Eingabebereich angeordnet ist.
  • In einigen Beispielen kann eine von Computergerät 110 erkannte Eingabe an eine oder mehrere spezifische Benutzeroberflächen-Komponente(n) ausgegeben werden, die als eingabefokussiert festgelegt sind. Beispielsweise kann UI-Modul 120, während PSD 112 eine Benutzereingabe an oder in der Nähe von einer Position auf PSD 112 erkennt, in der PSD 112 die grafische Tastatur 116B darstellt, einen Hinweis auf eine Eingabe empfangen und Informationen über die Eingabe an Tastaturanwendung 122 ausgeben. In einigen Beispielen, in denen Tastaturanwendung 122 bestimmt, dass der Benutzer eine Eingabe an den grafischen Tasten 118A vornimmt, die einer Zeichenkette entspricht, kann Tastaturanwendung 122 UI-Modul 120 dazu veranlassen, die Benutzeroberfläche 114 zu aktualisieren, damit sie diese Zeichenkette innerhalb der Benutzeroberfläche 114 beinhaltet. Wo diese Zeichenkette ggf. innerhalb der Benutzeroberfläche angeordnet ist oder angezeigt wird, kann dadurch bestimmt werden, welche Oberflächen-Komponente(n) Eingabefokus ha(t/ben). Benutzeroberfläche 114 beinhaltet beispielsweise mehrere Benutzeroberflächen-Komponenten, einschließlich Eingabebereich 116C, Vorschlagsbereich 118B, Suchelement 118C und Ausgabebereich 116A. In einem Beispiel, in dem Vorschlagsbereich 118B Eingabefokus hat, kann Computergerät 110 die der Eingabe entsprechende Zeichenkette innerhalb von Vorschlagsbereich 118B formatieren und anzeigen.
  • Zuweilen hat in einigen Beispielen keine der Oberflächen-Komponenten einen Eingabefokus. In anderen Beispielen hat zu einem gegebenen Zeitpunkt nur eine Oberflächen-Komponente einen Eingabefokus, und nur gewisse Arten von Benutzeroberflächen-Komponenten, wie z. B. Textfelder oder Eingabefelder, haben ggf. die Erlaubnis oder sind dazu geeignet, einen Eingabefokus zu haben. Computergerät 110 kann in einigen Beispielen bestimmen, welche Benutzeroberflächen-Komponente einen Eingabefokus hat, indem es erkennt, welche geeignete Oberflächen-Komponente zuletzt eine Berührungseingabe durch den Benutzer empfangen hat. Anders gesagt, wenn PSD 112 eine Benutzereingabe an einer Position von PSD 112 erkennt, die einer bestimmten Benutzeroberflächen-Komponente entspricht, kann Computergerät 110 dieser Benutzeroberflächen-Komponente einen Eingabefokus zuweisen (wenn es dieser erlaubt ist oder dieselbe dazu geeignet ist, Eingabefokus zu haben). In anderen Beispielen bestimmt Computergerät 110, welche Benutzeroberflächen-Komponente Eingabefokus hat, indem es erkennt, welche Benutzeroberflächen-Komponente zuletzt eine Eingabe von einem Cursor empfangen hat. In noch weiteren Beispielen kann Computergerät 110 basierend auf einer Einstellung, die durch eine Anwendung, die auf Computergerät 110 ausgeführt wird, konfiguriert wird, bestimmen, welche Benutzeroberflächen-Komponente Eingabefokus hat. Für einige Benutzeroberflächen-Komponenten, wie z. B. Eingabebereich 116C oder Vorschlagsbereich 118B kann ein blinkender Cursor 119 in einigen Beispielen innerhalb der Oberflächen-Komponente angezeigt werden, um einen visuellen Hinweis bereitzustellen, dass diese Eingabefokus hat.
  • Im Suchmodus kann Tastaturanwendung 122 von UI-Modul 120 einen Hinweis auf eine Benutzereingabe empfangen, die eine oder mehrere grafische Tasten 118A auswählt oder auszuwählen versucht. Tastaturanwendung 122 kann ein Raummodell, ein Sprachmodell oder beide beinhalten, die basierend auf den Positionen der Tasten 118A Informationen über die Eingabe und eine Zeichenfolge, den oder die wahrscheinlichsten Buchstaben, Morpheme, Wörter und/oder Sätze bestimmen, die ein Benutzer basierend auf der Auswahl der Tasten 118A einzugeben versucht: Tastaturanwendung 122 kann UI-Modul 120 dazu veranlassen, mögliche Buchstaben, Wörter und/oder Sätze innerhalb des Vorschlagsbereichs 118B als Suchanfrage auszugeben. In einigen Beispielen kann Tastaturanwendung 122 UI-Modul 120 dazu veranlassen, mehrere mögliche Buchstaben, Morpheme, Wörter und/oder Sätze auszugeben, z. B. indem Vorschlagsbereich 118B erweitert wird, um mehrere mögliche Buchstaben, Morpheme, Wörter und/oder Sätze als einzelne Textzeilen darzustellen.
  • Tastaturanwendung 122 kann von UI-Modul 120 einen Hinweis auf eine Benutzereingabe empfangen, die auf die Vervollständigung der Suchanfrage hinweist, was dem Umstand entsprechen kann, dass ein Benutzer ein Oberflächen-Element, wie z. B. eine der grafischen Tasten 118A (z. B. die EINGABE/SUCHEN-Taste, die in 1 veranschaulicht wird); einer der möglichen Buchstaben, Morpheme, Wörter und/oder Sätze, die im Vorschlagsbereich 118B angezeigt werden usw., auswählt, das/die auf PSD 112 angezeigt wird/werden. In Reaktion darauf kann Tastaturanwendung 122 die Suchanfrage bestimmen, z. B. als die Buchstaben, Morpheme, Wörter und/oder Sätze, die zu dem Zeitpunkt der Benutzereingabe, die auf die Vervollständigung der Suchanfrage hinweist, in Vorschlagsbereich 118B angezeigt werden, oder als der ausgewählte oder die mehreren möglichen Buchstaben, Morpheme, Wörter und/oder Sätze, die in einem erweiterten Vorschlagsbereich 118B angezeigt werden.
  • Tastaturanwendung 122 kann basierend auf der Benutzereingabe eine Suchanfrage bestimmen. In einigen Beispielen kann die Benutzereingabe eine Auswahl einer oder mehrerer grafischer Tasten 118A einer grafischen Tastatur 116B beinhalten. Zum Beispiel kann Tastaturanwendung 122 von dem UI-Modul 120 Hinweise auf eine Benutzereingabe, die auf eine Suchanfrage hinweist, an Positionen von PSD 112 empfangen, die der grafischen Tastatur 116B entsprechen. Als weiteres Beispiel kann die Benutzereingabe eine Auswahl eines Suchvorschlags beinhalten, die der Suchvorschlagsbereich 118D beinhaltet. Das bedeutet, dass Tastaturanwendung 122 von dem UI-Modul 120 einen Hinweis auf die Benutzereingabe an einer Position von PSD 112 empfangen kann, die einer der vorgeschlagenen Suchanfragen entspricht, die der Suchvorschlagsbereich 118D beinhaltet.
  • In einigen Beispielen kann Tastaturanwendung 122, anstatt von UI-Modul 120 einen Hinweis auf eine Benutzereingabe zu empfangen, die Suchelement 118C auswählt, um den Suchmodus aufzurufen, und dann von UI-Modul 120 einen Hinweis auf eine Benutzereingabe zu empfangen, die eine oder mehrere grafische Tasten 118A auswählt oder auszuwählen versucht, eine vorhergesagte Suchanfrage basierend auf dem Inhalt von Ausgabebereich 116A, Texteingabebereich 116C oder beiden bestimmen. Beispielsweise ist, wie in 1 veranschaulicht, Ausgabebereich 116A eine Anwendung, wie z. B. eine Textnachrichten- oder Chatanwendung, und stellt Mitteilungen des Benutzers von Computergerät 110 (unter „DU”) und Mitteilungen eines Benutzers eines anderen Computergeräts (unter „FREUND”) dar. In anderen Beispielen kann Ausgabebereich 116A eine andere Anwendungsbenutzeroberfläche, wie z. B. eine Notizblock-Anwendung, ein Webbrowser, eine Suchanwendung, eine Kartenanwendung, eine E-Mail-Anwendung, eine Textbearbeitungsanwendung oder jedwede andere Anwendung, sein, für die die grafische Tastatur 116B eine Texteingabe bereitstellt.
  • In einigen Beispielen kann Tastaturanwendung 122 eine vorhergesagte Suchanfrage basierend auf dem Inhalt der Kommunikation des Benutzers von Computergerät 110 bestimmen. Zum Beispiel veranschaulicht 1 den Inhalt der Mitteilung des Benutzers von Computergerät 110 als „Heute Abendessen?” Basierend auf dem Inhalt dieser Mitteilung hat Tastaturanwendung 122 eine vorhergesagte Suchanfrage „Restaurants” bestimmt. Im Allgemeinen kann Tastaturanwendung 122 eine oder mehrere vorgeschlagene Suchanfragen basierend auf einem oder mehreren Einträgen eines Suchverlaufs eines Benutzers, der dem Computergerät zugeordnet ist, einer aktuellen Textnachrichtenkonversation oder einem aktuellen Kontext des Computergeräts bestimmen. Tastaturanwendung 122 kann einen Hinweis auf die vorhergesagte Suchanfrage an UI-Modul 120 ausgeben, das veranlassen kann, dass die vorhergesagte Suchanfrage „Restaurants” in Vorschlagsbereich 118B und/oder Suchvorschlagsbereich 118D ausgegeben wird.
  • In einigen Beispielen kann Tastaturanwendung 122 nur Inhalte der Mitteilung des Benutzers von Computergerät 110 analysieren, um eine vorhergesagte Suchanfrage zu bestimmen. Anders gesagt, kann in einigen Beispielen Tastaturanwendung 122 darauf verzichten, Inhalte der Mitteilung eines Benutzers eines anderen Computergeräts zu analysieren, um eine vorhergesagte Suchanfrage zu bestimmen. In anderen Beispielen kann Tastaturanwendung 122 Inhalte der Mitteilung eines Benutzers eines anderen Computergeräts (von Computergerät 110 empfangen) analysieren, um eine vorhergesagte Suchanfrage zu bestimmen.
  • Computergerät 110 kann eine vorhergesagte Suchanfrage basierend auf den Inhalten der Mitteilung des Benutzers von Computergerät 110, Inhalten der Mitteilung des Benutzers des anderen Computergeräts oder beiden nur dann bestimmen, wenn das Computergerät vom Benutzer des jeweiligen Computergeräts eine Erlaubnis erhält, die Informationen zu analysieren. So wird dem Benutzer, bevor Computergerät 110 ggf. mit dem Benutzer von Computergerät 110 oder einem Benutzer eines anderen Computergeräts verknüpfte Informationen sammelt oder verwendet, unter Umständen eine Möglichkeit gegeben, eine Eingabe zu machen, um zu steuern, ob Programme oder Funktionen von Computergerät 110 Benutzerinformationen (wie z. B. Informationen zum aktuellen Standort des Benutzers, die aktuelle Geschwindigkeit, Textkonversationen usw.) sammeln und verwenden dürfen, oder um festzulegen, ob und/oder wie Computergerät 110 Inhalte empfangen kann, die möglicherweise für den Benutzer relevant sind. Außerdem können bestimmte Daten auf eine oder mehrere Arten behandelt werden, bevor sie von Computergerät 110 gespeichert oder verwendet werden, sodass persönlich identifizierbare Informationen entfernt werden. So kann beispielsweise die Identität eines Benutzers so behandelt werden, dass keine persönlichen Informationen von dem Benutzer bestimmt werden können, oder ein geografischer Standort eines Benutzers kann verallgemeinert werden, wo Standortinformationen (wie z. B. eine Stadt, eine Postleitzahl oder eine Landesebene) empfangen werden, sodass ein bestimmter Standort eines Benutzers nicht bestimmt werden kann. Somit kann der Benutzer die Kontrolle darüber haben, wie die Informationen über den Benutzer gesammelt und von Computergerät 110 verwendet werden.
  • In einigen Beispielen kann Tastaturanwendung 122 Anweisungen an UI-Modul 120 übertragen, um zu veranlassen, dass die vorhergesagte Suchanfrage mit einem anderen Aussehen angezeigt werden als vorhergesagte Zeichen, Wörter oder Sätze. Beispielsweise kann Tastaturanwendung 122 Anweisungen an UI-Modul 120 übertragen, um zu veranlassen, dass die vorhergesagte Suchanfrage mit einer vorbestimmten Textfarbe, Schrift oder Schriftgröße usw. oder neben oder innerhalb eines unterscheidbaren Benutzeroberflächen-Elements, wie z. B. einem Textfeld, einer Unterstreichung, einem Icon oder Bild usw., angezeigt wird, um eine Suchanfrage visuell von vorhergesagten Zeichen, Wörtern oder Sätzen zu unterscheiden. Dies kann es einem Benutzer von Computergerät 110 gestatten, zwischen einer vorhergesagten Suchanfrage und vorhergesagten Zeichen, Wörtern oder Sätzen leicht zu unterscheiden.
  • Wenn der Benutzer sich dazu entscheidet, eine Suche durchzuführen, kann der Benutzer Vorschlagsbereich 118B oder die vorhergesagte Suchanfrage auswählen, die bei Vorschlagsbereich 118B angezeigt wird. Tastaturanwendung 122 kann einen Hinweis auf die Auswahl von Vorschlagsbereich 118B oder der bei Vorschlagsbereich 118B angezeigten vorhergesagten Suchanfrage von UI-Modul 120 empfangen und kann bestimmen, dass die Suchanfrage die bei Vorschlagsbereich 118B angezeigte vorhergesagte Suchanfrage ist. In Fällen, in denen die vorgeschlagenen Suchanfragen innerhalb von Suchvorschlagsbereich 118D enthalten sind, kann der Benutzer eine Eingabe an einer Position von PSD 122 innerhalb des Suchvorschlagsbereichs 118D vornehmen, die mit einer der vorgeschlagenen Suchanfragen verknüpft ist. Tastaturanwendung 122 kann bestimmen, dass die mit der Eingabe verknüpfte vorgeschlagene Suchanfrage die Suchanfrage ist, die der Benutzer ausführen möchte.
  • Computergerät 110 kann die Suchanfrage dann an ein Suchsystem übermitteln. In Reaktion auf das Empfangen der Suchanfrage und basierend auf den Inhalten der Suchanfrage kann das Suchsystem eine Suche durchführen. Die Suche kann beispielsweise eine Suche in Webseiten, eine Suche in einem semantischen Netzwerk, einschließlich Objekten, Fakten und Beziehungen zwischen den Objekten, eine Videosuche, eine ortsgebundene Suche in Bezug auf den Standort des Benutzers von Computergerät 110 usw. beinhalten. Das Suchsystem kann dann mindestens ein Suchergebnis an Computergerät 110 übermitteln, und Computergerät 110 kann das mindestens eine Suchergebnis empfangen. Die Suchergebnisse können Textinformationen, Bilder, Videos, Hyperlinks usw. beinhalten.
  • Tastaturanwendung 122 von Computergerät 110 kann die Suchergebnisse empfangen und UI-Modul 120 dazu veranlassen, eine visuelle Darstellung zumindest eines Teils der Suchergebnisse anstelle zumindest eines Teils der grafischen Tastatur 116B auszugeben. Zum Beispiel kann Tastaturanwendung 122 UI-Modul 120 dazu veranlassen, die visuelle Darstellung zumindest eines Teils der Suchergebnisse anstelle zumindest einiger der grafischen Tasten 118A auszugeben.
  • In einigen Beispielen kann Tastaturanwendung 122 von Computergerät 110 UI-Modul 120 dazu veranlassen, die visuelle Darstellung als kartenbasiertes Benutzeroberflächen-Element auszugeben. Das kartenbasierte Benutzeroberflächen-Element kann beispielsweise einer Notizkarte ähnlich sehen, und kann eine Darstellung eines bestimmten Suchergebnisses aus den Suchergebnissen beinhalten. Die Darstellung des bestimmten Suchergebnisses kann beispielsweise zumindest eines der Folgenden: einen Text, ein Bild, ein Icon oder Ähnliches, beinhalten.
  • Tastaturanwendung 122 kann ein entsprechendes kartenbasiertes Benutzeroberflächen-Element für jedes entsprechende Suchergebnis aus den Suchergebnissen erzeugen. Tastaturanwendung 122 kann UI-Modul 120 dazu veranlassen, zumindest ein kartenbasiertes Benutzeroberflächen-Element simultan zur Anzeige auszugeben, und UI-Modul 120 kann dazu konfiguriert sein, zwischen den jeweiligen kartenbasierten Benutzeroberflächen-Elementen, in Reaktion auf das Bestimmen einer Benutzergeste, z. B. einer Wischgeste, hin- und herzuschalten. Zum Beispiel kann Tastaturanwendung 122 von UI-Modul 120 einen Hinweis auf eine Wischgeste empfangen, die innerhalb des Teils der Suchergebnisse beginnt, der innerhalb der grafischen Tastatur angezeigt wird, und kann, in Reaktion darauf, einen grafischen Hinweis auf einen anderen Teil der Suchergebnisse innerhalb der grafischen Tastatur und anstelle des Teils der Suchergebnisse, der vorher angezeigt wurde, zur Anzeige ausgeben. Auf diese Weise kann Tastaturanwendung 122 es einem Benutzer ermöglichen, innerhalb der grafischen Tastatur 116B zwischen Suchergebnissen hin- und herzuschalten.
  • In einigen Beispielen kann Tastaturanwendung 122 dafür konfiguriert sein, basierend auf einem von UI-Modul 120 empfangenen Hinweis auf eine Benutzereingabe eine Auswahl eines vorbestimmten Teils der visuellen Darstellung eines Suchergebnisses zu bestimmen. In Reaktion auf das Bestimmen der Auswahl kann Tastaturanwendung 122 dafür konfiguriert sein, automatisch, ohne weitere Eingabe, einen Hinweis auf Informationen im Zusammenhang mit dem Suchergebnis an UI-Modul 120 auszugeben, das dafür konfiguriert ist, die Informationen im Zusammenhang mit dem Suchergebnis in Texteingabebereich 116C einzufügen. Die Informationen im Zusammenhang mit dem Suchergebnis können beispielsweise Text, einen Hyperlink, ein Bild, ein Icon usw. beinhalten. Auf diese Weise ist Computergerät 110 dafür konfiguriert, eine Einzelgesten-Eingabe von Informationen aus dem Suchergebnis in den Texteingabebereich 116C einzugeben, und somit ein leichtes und effizientes Eingeben von Information aus dem Suchergebnis in die Anwendung, für die die grafische Tastatur 116B verwendet wird, um Text einzugeben, zu ermöglichen.
  • Auf diese Weise können die Techniken der Offenbarung es einem Computergerät ermöglichen, eine grafische Tastatur mit integrierten Suchfunktionen bereitzustellen, die anstelle zumindest eines Teils der grafischen Tastatur eine Anzeige einer visuellen Darstellung zumindest eines Teils der Suchergebnisse beinhaltet. Des Weiteren kann die visuelle Darstellung in einigen Beispielen ein kartenbasiertes Benutzeroberflächen-Element beinhalten, und Computergerät 110 kann dafür konfiguriert sein, verschiedene kartenbasierte Benutzeroberflächen-Elemente auszugeben, die verschiedenen Suchergebnissen entsprechen, die basierend auf der Suchanfrage bestimmt werden, in Reaktion auf das Empfangen eines Hinweises auf eine Benutzereingabe, wie z. B. eine Wischgeste. Zusätzlich kann Computergerät 110 dafür konfiguriert sein, basierend auf einer Benutzereingabe eine Auswahl eines vorbestimmten Teils der visuellen Darstellung des zumindest einen Teils (z. B. ein Suchergebnis) der Suchergebnisse zu bestimmen und automatisch, ohne weitere Benutzereingabe, Informationen im Zusammenhang mit dem zumindest einen Teil (z. B. ein Suchergebnis) der Suchergebnisse in Texteingabebereich 116C einzufügen, der neben der grafischen Tastatur 116B angezeigt wird.
  • 2 zeigt ein Blockdiagramm, das Computergerät 210 als exemplarisches Computergerät veranschaulicht, das dafür konfiguriert ist, eine grafische Tastatur mit integrierten Suchfunktionen gemäß einem oder mehreren Aspekten der vorliegenden Offenbarung darzustellen. Computergerät 210 aus 2 wird im Folgenden als Beispiel für Computergerät 110 aus 1 beschrieben. 2 veranschaulicht nur ein bestimmtes Beispiel für Computergerät 210, während jedoch viele andere Beispiele des Computergeräts 210 in anderen Fällen verwendet werden können und eine Teilmenge der Komponenten beinhalten können, die im exemplarischen Computergerät 210 beinhaltet sind, oder zusätzliche Komponenten beinhalten können, die in 2 nicht dargestellt werden.
  • Wie im Beispiel in 2 dargestellt, beinhaltet das Computergerät 210 PSD 212, einen oder mehrere Prozessoren 240, eine oder mehrere Kommunikationseinheiten 242, eine oder mehrere Eingabekomponenten 244, eine oder mehrere Ausgabekomponenten 246 und eine oder mehrere Speicherkomponenten 248. PSD 212 beinhaltet Anzeigekomponente 202 und eine präsenzempfindliche Eingabekomponente 204. Die Speicherkomponenten 248 des Computergeräts 210 können ein UI-Modul 220, eine Tastaturanwendung 222 und ein oder mehrere Anwendungsmodule 224 beinhalten. Tastaturanwendung 222 kann ein Raummodell(„SM”)-Modul 226, ein Sprachmodell(„LM”)-Modul 228 und Suchmodul 230 beinhalten. Die Anwendungsmodule 224 können Suchanwendung 232 und Textnachrichten-Anwendung 234 beinhalten. Die Kommunikationskanäle 250 können mit jeder der Komponenten 212, 240, 242, 244, 246 und 248 zwecks der Kommunikation zwischen den Komponenten (physikalisch, kommunikativ und/oder operativ) verbunden sein. In einigen Beispielen können die Kommunikationskanäle 250 einen Systembus, eine Netzwerkverbindung, eine prozessübergreifende Kommunikationsdatenstruktur oder jedwedes andere Verfahren zur Kommunikation von Daten beinhalten.
  • Eine oder mehrere Kommunikationseinheiten 242 des Computergeräts 210 können über ein drahtgebundenes und/oder drahtloses oder mehrere drahtgebundene und/oder drahtlose Netzwerke mit externen Geräten kommunizieren, indem sie Netzwerksignale über das eine Netzwerk oder die mehreren Netzwerke sendet/senden und/oder empfängt/empfangen. Beispiele der Kommunikationseinheit 242 können eine Netzwerkschnittstellenkarte (z. B. eine Ethernetkarte), einen optischen Sendeempfänger, einen Hochfrequenz-Sendeempfänger, einen GPS-Empfänger oder jede andere Art von Vorrichtung beinhalten, die Informationen senden und/oder empfangen kann. Andere Beispiele von Kommunikationseinheiten 242 können Kurzwellenradios, Mobilfunkdatenradios, drahtlose Netzwerkradios, sowie Universal Serial Bus(USB)-Schnittstellen, beinhalten.
  • Eine oder mehrere Eingabekomponenten 244 des Computergeräts 210 können eine Eingabe empfangen. Beispiele einer Eingabe sind taktile, auditive und Videoeingaben. Die Eingabekomponenten 242 des Computergeräts 210 können in einem Beispiel ein präsenzempfindliches Eingabegerät (z. B. einen berührungsempfindlichen Bildschirm, eine PSD), eine Maus, eine Tastatur, ein Sprachreaktionssystem, eine Videokamera, ein Mikrofon oder jedwede andere Art von Gerät zum Erkennen einer Eingabe von Mensch oder Maschine beinhalten. In einigen Beispielen können die Eingabekomponenten 242 eine oder mehrere Sensorkomponenten, einen oder mehrere Standortsensoren (GPS-Komponenten, WLAN-Komponenten, Mobilfunkkomponenten), einen oder mehrere Temperatursensoren, einen oder mehrere Bewegungssensoren (z. B. Geschwindigkeitssensoren, Gyroskope), einen oder mehrere Drucksensoren (z. B. Barometer), einen oder mehrere Umgebungslichtsensoren und einen oder mehrere andere Sensoren (z. B. Mikrofon, Kamera, Infrarot-Näherungssensor, Hygrometer und Ähnliches) beinhalten. Andere Sensoren können einen Herzfrequenzsensor, ein Magnetometer, einen Glukosesensor, einen Hygrometer-Sensor, einen olfaktorischen Sensor, einen Kompass-Sensor, einen Schrittzähler-Sensor beinhalten, um nur einige nicht einschränkende Beispiele aufzuführen.
  • Eine oder mehrere Ausgabekomponenten 246 des Computergeräts 110 können Ausgaben erzeugen. Beispiele von Ausgaben sind taktile, Audio- und Videoausgaben. Die Ausgabekomponenten 246 des Computergeräts 210 können in einem Beispiel ein PSD, eine Soundkarte, eine Videografikadapterkarte, einen Lautsprecher, einen Kathodenstrahlröhren(CRT)-Monitor, eine Flüssigkristallanzeige (LCD) oder jedwede andere Art von Gerät zum Erzeugen von Ausgaben für Mensch oder Maschine beinhalten.
  • PSD 212 des Computergeräts 210 ähnelt PSD 112 von Computergerät 110 und beinhaltet eine Anzeigekomponente 202 und eine präsenzempfindliche Eingabekomponente 204. Anzeigekomponente 202 kann ein Bildschirm sein, auf dem Informationen von PSD 212 angezeigt werden, und die präsenzempfindliche Eingabekomponente 204 kann ein Objekt an und/oder in der Nähe der Anzeigekomponente 202 erkennen. Als ein exemplarischer Bereich kann die präsenzempfindliche Eingabekomponente 204 ein Objekt, wie z. B. einen Finger oder einen Stylus-Stift, erkennen, das sich in einem Abstand von zwei Zoll oder weniger zur Anzeigekomponente 202 befindet. Die präsenzempfindliche Eingabekomponente 204 kann eine Stelle (z. B. eine [x, y]-Koordinate) auf der Anzeigekomponente 202 ermitteln, an der das Objekt erkannt wurde. In einem anderen exemplarischen Bereich kann die präsenzempfindliche Eingabekomponente 204 ein Objekt erfassen, das sechs Zoll oder weniger von der Anzeigekomponente 202 entfernt ist, wobei andere Bereiche ebenfalls möglich sind. Die präsenzempfindliche Eingabekomponente 204 kann die Position auf der Anzeigekomponente 202, die durch den Finger des Benutzers ausgewählt wurde, unter Verwendung von kapazitiven, induktiven und/oder optischen Erkennungstechniken bestimmen. In einigen Beispielen stellt die präsenzempfindliche Eingabekomponente, wie in Bezug auf die Anzeigekomponente 202 beschrieben, 204 auch eine Ausgabe für einen Benutzer unter Verwendung von taktilen, Audio- oder Video-Stimuli bereit. Im Beispiel aus 2 kann PSD 212 eine Benutzeroberfläche (wie z. B. die grafische Benutzeroberfläche 114 aus 1) darstellen.
  • Obwohl als eine interne Komponente des Computergeräts 210 veranschaulicht, kann PSD 212 auch eine externe Komponente darstellen, die einen Datenpfad mit dem Computergerät 210 zum Übertragen und/oder Empfangen von Eingaben und Ausgaben teilt. In einem Beispiel stellt PSD 212 beispielsweise eine integrierte Komponente des Computergeräts 210 dar, die innerhalb der externen Verpackung des Computergeräts 210 (z. B. ein Bildschirm eines Mobiltelefons) angeordnet und physisch damit verbunden ist. In einem weiteren Beispiel stellt PSD 212 eine externe Komponente des Computergeräts 210 dar, die außerhalb der Verpackung des Computergeräts 210 angeordnet und physisch davon getrennt ist (z. B. ein Monitor, ein Projektor usw., der einen drahtgebundenen und/oder drahtlosen Datenpfad mit dem Computergerät 210 teilt).
  • PSD 212 des Computergeräts 210 kann zweidimensionale und/oder dreidimensionale Gesten als Eingabe von einem Benutzer des Computergeräts 210 erkennen. Ein Sensor von PSD 212 kann beispielsweise die Bewegung eines Benutzers (z. B. die Bewegung einer Hand, eines Arms, eines Stiftes usw.) innerhalb eines Grenzabstands des Sensors von PSD 212 erkennen. PSD 212 kann eine zwei- oder dreidimensionale Vektordarstellung der Bewegung bestimmen und die Vektordarstellung mit einer Gesteneingabe (z. B. ein Winken mit der Hand, ein Zusammenführen der Finger, ein Klatschen, eine Stiftberührung usw.) korrelieren, die über mehrere Dimensionen verfügt. Mit anderen Worten kann PSD 212 eine multidimensionale Geste erkennen, ohne dass der Benutzer diese Gesten auf oder in der Nähe von einem Bildschirm oder einer Oberfläche, auf dem bzw. der die PSD 212 Informationen zum Anzeigen ausgibt, ausführen muss. Stattdessen kann PSD 212 eine multidimensionale Geste erkennen, die an einem Sensor oder in der Nähe eines Sensors ausgeführt wird, der sich in der Nähe des Bildschirms bzw. der Oberfläche befinden kann oder nicht, auf dem bzw. der PSD 212 Informationen zum Anzeigen ausgibt.
  • Ein oder mehrere Prozessoren 240 können Funktionen implementieren und/oder mit dem Computergerät 210 verknüpfte Anweisungen ausführen. Beispiele der Prozessoren 240 beinhalten Anwendungsprozessoren, Anzeige-Controller, Zusatzprozessoren, ein oder mehrere Sensorhubs und jegliche andere Hardware, die dafür konfiguriert ist, als Prozessor, Verarbeitungseinheit oder Verarbeitungsgerät zu fungieren. Die Module 220, 222, 224, 226, 228, 230, 232 und 234 können von den Prozessoren 240 verwendet werden, um verschiedene Aktionen, Vorgänge oder Funktionen des Computergeräts 210 auszuführen. So können die Prozessoren 240 des Computergeräts 210 beispielsweise Anweisungen abrufen und ausführen, die von den Speicherkomponenten 248 gespeichert wurden und die die Prozessoren 240 dazu veranlassen, die Operationsmodule 220, 222, 224, 226, 228, 230, 232 und 234 auszuführen. Bei Ausführung durch die Prozessoren 240 veranlassen die Anweisungen das Computergerät 210 dazu, Informationen in den Speicherkomponenten 248 zu speichern.
  • Eine oder mehrere Speicherkomponenten 248 innerhalb des Computergeräts 210 können Informationen zum Verarbeiten während des Betriebs des Computergeräts 210 speichern (z. B. kann das Computergerät 210 Daten speichern, auf die die Module 220, 222, 224, 226, 228, 230, 232 und 234 während der Ausführung auf dem Computergerät 210 zugreifen). In einigen Beispielen ist die Speicherkomponente 248 ein temporärer Speicher, was bedeutet, dass der Hauptzweck der Speicherkomponente 248 nicht die Langzeitspeicherung ist. Die Speicherkomponenten 248 auf dem Computergerät 210 können zur Kurzzeitspeicherung von Informationen als flüchtiger Speicher konfiguriert sein und behalten deshalb keine gespeicherten Inhalte, wenn sie ausgeschaltet werden. Beispiele von flüchtigen Speichern beinhalten Arbeitsspeicher (RAM), dynamische Arbeitsspeicher (DRAM), statische Arbeitsspeicher (SRAM) und andere Formen von flüchtigen Speichern, die auf dem Gebiet bekannt sind.
  • Die Speicherkomponenten 248 beinhalten in einigen Beispielen zudem ein oder mehrere computerlesbare Speichermedien. Die Speicherkomponenten 248 beinhalten in einigen Beispielen ein oder mehrere nicht flüchtige computerlesbare Speichermedien. Die Speicherkomponenten 248 können zur Speicherung größerer Mengen an Informationen konfiguriert sein, als in der Regel in flüchtigen Speichern gespeichert wird. Die Speicherkomponenten 248 können weiterhin zur Langzeitspeicherung von Informationen als nicht flüchtiger Speicherplatz und zum Halten von Informationen nach Stromeinschalt-/Ausschaltzyklen konfiguriert sein. Beispiele von nicht flüchtigen Speichern beinhalten magnetische Festplatten, optische Festplatten, Disketten, Flashspeicher oder Formen von elektrisch programmierbaren Speichern (EPROM) oder von elektrisch überschreibbaren und programmierbaren (EEPROM) Speichern. Die Speicherkomponenten 248 können Programmanweisungen und/oder Informationen (z. B. Daten) speichern, die mit den Modulen 220, 222, 224, 226, 228, 230, 232, und 234 verknüpft sind. Die Speicherkomponenten 248 können einen Speicher beinhalten, der so konfiguriert ist, dass er Daten oder andere Informationen, die mit den Modulen 220, 222, 224, 226, 228, 230, 232, und 234 verknüpft sind, speichert.
  • UI-Modul 220 kann die gesamte Funktionalität von UI-Modul 120 von Computergerät 110 aus 1 beinhalten und ähnliche Vorgänge wie UI-Modul 120 zum Verwalten einer Benutzeroberfläche (z. B. Benutzeroberfläche 114) durchführen, die Computergerät 210 an der präsenzempfindlichen Anzeige 212 zur Handhabung von Eingaben eines Benutzers bereitstellt. Zum Beispiel kann UI-Modul 220 von Computergerät 210 eine Anfrage nach einem Tastatur-Layout (z. B. eine englischsprachiges QWERTY-Tastatur usw.) an Tastaturanwendung 222 stellen. UI-Modul 220 kann eine Anfrage nach einem Tastatur-Layout über die Kommunikationskanäle 250 an Tastaturanwendung 222 übermitteln. Tastaturanwendung 222 kann die Anfrage empfangen und dem UI-Modul 220 mit Daten antworten, die mit dem Tastatur-Layout verknüpft sind. UI-Modul 220 kann die Tastatur-Layoutdaten über die Kommunikationskanäle 250 empfangen und die Daten benutzen, um eine Benutzeroberfläche zu erstellen. UI-Modul 220 kann einen Anzeigebefehl und Daten über die Kommunikationskanäle 250 übermitteln, um PSD 212 dazu zu veranlassen, die Benutzeroberfläche auf PSD 212 darzustellen.
  • In einigen Beispielen kann UI-Modul 220 bei PSD 212 einen Hinweis auf eine oder mehrere Benutzereingaben erkennen und Informationen zu den Benutzereingaben an Tastaturanwendung 222 ausgeben. PSD 212 kann beispielsweise eine Benutzereingabe erkennen und Daten über die Benutzereingabe an UI-Modul 220 senden. UI-Modul 220 kann ein oder mehrere Berührungsereignisse basierend auf der erkannten Eingabe erzeugen. Ein Berührungsereignis kann Informationen beinhalten, die die Benutzereingabe, wie z. B. eine Ortskomponente (z. B. [x, y]-Koordinaten) der Benutzereingabe, eine Zeitkomponente (z. B. wann die Benutzereingabe empfangen wurde), eine Kraftkomponente (z. B. ein Druck, der durch die Benutzereingabe ausgeübt wurde) oder andere Daten (z. B. Geschwindigkeit, Beschleunigung, Richtung, Dichte usw.) über die Benutzereingabe charakterisieren.
  • Basierend auf Ortsinformationen der Berührungsereignisse, die aus der Benutzereingabe erzeugt wurden, kann UI-Modul 220 bestimmen, dass die erkannte Benutzereingabe mit der grafischen Tastatur verknüpft ist. UI-Modul 220 kann einen Hinweis auf das eine oder die mehreren Berührungsereignisse zur weiteren Interpretation an Tastaturanwendung 222 senden. Tastaturanwendung 222 kann basierend auf den von UI-Modul 220 empfangenen Berührungsereignissen bestimmen, dass die erkannte Benutzereingabe eine anfängliche Auswahl einer oder mehrerer Tasten der grafischen Tastatur darstellt.
  • Anwendungsmodule 224 stellen alle verschiedenen Einzelanwendungen und -dienste dar, die auf Computergerät 210 ausgeführt werden oder auf die von diesem aus zugegriffen werden kann, die sich auf eine grafische Tastatur stützen, die integrierte Suchfunktionen besitzt. Ein Benutzer des Computergeräts 210 kann mit einer grafischen Benutzeroberfläche interagieren, die mit einem oder mehreren Anwendungsmodulen 224 verknüpft ist, um das Computergerät 210 zum Durchführen einer Funktion zu veranlassen. Während die Anwendungsmodule 224 in 2 als Suchanwendung 232, Textnachrichten-Anwendung 234 und Anwendungsmodule 224 enthaltend dargestellt werden, können zahlreiche Beispiele von Anwendungsmodulen 224 existieren und eine Fitness-Anwendung, eine Kalenderanwendung, eine persönliche Assistenz- oder Prognosemaschine, eine Suchanwendung, eine Karten- oder Navigationsanwendung, eine Transportdienstanwendung (z. B. eine Bus- oder Zugverfolgungsanwendung), eine Soziale-Netzwerkanwendung, eine Spielanwendung, eine E-Mail-Anwendung, eine Chat- oder Textnachrichten-Anwendung, eine Internetbrowser-Anwendung oder jedwede andere Anwendung, die am Computergerät 210 ausgeführt werden kann, beinhalten.
  • Tastaturanwendung 222 kann die gesamte Funktionalität von Tastaturanwendung 122 von Computergerät 110 aus 1 beinhalten und kann ähnliche Vorgänge wie Tastaturanwendung 122 ausführen, um eine grafische Tastatur bereitzustellen, die integrierte Suchfunktionen besitzt. Tastaturanwendung 222 kann verschiedene Submodule, wie z. B. SM-Modul 226, LM-Modul 228 und Suchmodul 230, beinhalten, die die Funktionalität von Tastaturanwendung 222 ausführen können.
  • SM-Modul 226 kann ein oder mehrere Berührungsereignisse als Eingabe empfangen und ein Zeichen oder eine Zeichenkette, die wahrscheinlich das eine oder die mehreren Berührungsereignisse darstellen, zusammen mit einem Grad an Gewissheit oder einer Bewertung durch das Raummodell ausgeben, die darauf hinweisen, wie wahrscheinlich oder mit welcher Genauigkeit das eine oder die mehreren Zeichen die Berührungsereignisse definieren. Anders gesagt, kann SM-Modul 226 auf Berührungsereignisse als eine Auswahl von einer oder mehreren Tasten schließen und kann basierend auf der Auswahl der einen oder der mehreren Tasten ein Zeichen oder eine Zeichenkette ausgeben.
  • Wenn Tastaturanwendung 222 im Texteingabemodus und nicht im Suchmodus betrieben wird, kann LM-Modul 228 ein Zeichen oder eine Zeichenkette als Eingabe empfangen und ein(e/n) oder mehrere mögliche Zeichen, Wörter oder Sätze ausgeben, die LM-Modul 228 aus einem Wörterbuch als möglichen Ersatz für eine Zeichenkette identifiziert, die LM-Modul 228 als Eingabe für einen gegebenen Sprachkontext (z. B. einen schriftlichen Satz) empfängt. Tastaturanwendung 222 kann UI-Modul 220 dazu veranlassen, eines oder mehrere der möglichen Wörter in Vorschlagsbereich 118B und/oder 118D von Benutzeroberfläche 114 darzustellen.
  • Das Lexikon von Computergerät 210 kann eine Liste von Wörtern innerhalb eines Vokabulars einer geschriebenen Sprache (z. B. ein Wörterbuch) beinhalten. Beispielsweise kann das Lexikon eine Wortdatenbank beinhalten (z. B. Wörter in einem Standardwörterbuch und/oder Wörter, die durch einen Benutzer oder Computergerät 210 zu einem Wörterbuch hinzugefügt wurden). LM 228 kann ein Nachschlagen einer Zeichenkette im Lexikon durchführen, um ein(e/n) oder mehrere Buchstaben, Wörter und/oder Sätze zu identifizieren, die Teile oder die Gesamtheit der Zeichen der Zeichenkette beinhalten. Zum Beispiel kann LM-Modul 228 eine Sprachmodell-Wahrscheinlichkeit oder einen ähnlichen Koeffizienten (z. B. einen Jaccard-Ähnlichkeitskoeffizienten) einem oder mehreren möglichen Wörtern zuweisen, die sich in einem Lexikon von Computergerät 210 befinden, die zumindest einige Zeichen beinhalten, die dem/der eingegebenen Zeichen oder Zeichenkette entsprechen. Die Sprachmodell-Wahrscheinlichkeit, die jedem aus dem einen oder den mehreren möglichen Wörtern zugewiesen wird, weist auf einen Ähnlichkeitsgrad oder einen Wahrscheinlichkeitsgrad hin, dass das mögliche Wort normalerweise vor, nach und/oder in einer Wortreihe (z. B. einem Satz) steht, die aus der Texteingabe erzeugt wird, die durch die präsenzempfindliche Eingabekomponente 204 vor und/oder nach dem Empfangen der aktuellen Zeichenkette, die durch LM-Modul 228 analysiert wird, erkannt wird. In Reaktion auf das Bestimmen des einen oder der mehreren möglichen Wörter kann LM-Modul 228 das eine oder die mehreren möglichen Wörter aus Lexikon-Datenspeichern 260A ausgeben, die die höchsten Ähnlichkeitskoeffizienten besitzen.
  • Suchmodul 230 von Tastaturanwendung 222 kann integrierte Suchfunktionen für Tastaturanwendung 222 ausführen. Das heißt, dass Tastaturanwendung 222, wenn sie aufgerufen wird (z. B. in Reaktion darauf, dass ein Benutzer von Computergerät 210 ein auswählbares Element 218C von Benutzeroberfläche 114 auswählt), im Suchmodus betrieben werden kann, wobei Tastaturanwendung 222 es Computergerät 210 ermöglicht, Suchfunktionen von innerhalb der grafischen Tastatur 118A auszuführen.
  • Wenn Tastaturanwendung 222 im Suchmodus betrieben wird, kann Suchmodul 230 ein Zeichen oder eine Zeichenkette oder andere Informationen als Eingabe empfangen und einen oder mehrere Suchvorschläge ausgeben, die das Suchmodul 230 basierend auf der Eingabe identifiziert. Die Informationen, die das Suchmodul 230 als Eingabe empfängt, können Zeichen oder eine Zeichenkette beinhalten und in einigen Beispielen auch Informationen über den aktuellen Zustand der Anwendung, die der Benutzer verwendet, sowie andere Informationen, wie z. B. Informationen von der Anwendung, die sich auf Tastaturanwendung 222 stützt (z. B. neuere Texte, Bilder, Geolokalisierungsdaten und Ähnliches), sowie kontextuelle Informationen, die mit dem Benutzer und Computergerät 210 verknüpft sind, beinhalten. Suchmodul 230 kann diese Informationen verwenden, um eine oder mehrere vorgeschlagene Suchanfragen zu erzeugen. Tastaturanwendung 222 kann UI-Modul 220 dazu veranlassen, eine oder mehrere der vorgeschlagenen Suchanfragen innerhalb des Suchvorschlagsbereichs 118D der Benutzeroberfläche 114 darzustellen.
  • In einigen Beispielen kann sich Suchmodell 230 des Weiteren auf einen aktuellen Kontext von Computergerät 210 stützen, um eine vorgeschlagene Suchanfrage zu bestimmen. Wie hier verwendet, spezifiziert ein aktueller Kontext die Eigenschaften der physischen und/oder virtuellen Umgebung eines Computergeräts, wie z. B. Computergerät 210, und eines Benutzers eines Computergeräts zu einem bestimmten Zeitpunkt. Zusätzlich wird der Begriff „kontextuelle Information” verwendet, um jedwede Information zu beschreiben, die von einem Computergerät verwendet werden kann, um die virtuellen und/oder physischen Umgebungseigenschaften zu definieren, die das Computergerät und der Benutzer des Computergeräts zu einem bestimmten Zeitpunkt erfahren können.
  • Beispiele für kontextuelle Informationen sind zahlreich und können Folgendes beinhalten: von Sensoren erhaltene Sensorinformationen (z. B. Positionssensoren, Geschwindigkeitssensoren, Gyroskope, Barometer, Umgebungslichtsensoren, Näherungssensoren, Mikrofone und jedwede andere Sensoren) von Computergerät 210, Kommunikationsinformationen (z. B. textbasierte Kommunikationen, hörbare Kommunikationen, Videokommunikationen usw.), die durch Kommunikationsmodule von Computergerät 210 gesendet und empfangen werden und Anwendungsnutzungsinformationen, die mit Anwendungen, die auf Computergerät 210 ausgeführt werden, verknüpft sind (z. B. Anwendungsdaten, die mit Anwendungen verknüpft sind, Internet-Suchverläufe, Textkommunikationen, Sprach- und Videokommunikationen, Kalenderinformationen, Soziale-Netzwerk-Posts und damit zusammenhängende Informationen usw.). Weitere Beispiele für kontextuelle Informationen beinhalten Signale und Informationen, die von Sendegeräten erhalten werden, die extern zu Computergerät 210 sind.
  • In einigen Beispielen kann Computergerät 210 eine Suche in Reaktion auf verschiedene Arten von Eingaben initiieren. Beispielsweise kann Tastaturanwendung 222 eine Suche in Reaktion auf das Erkennen einer Benutzereingabe an einer Position, an der PSD 212 innerhalb von Suchvorschlagsbereich 118D eine vorgeschlagene Suchanfrage darstellt, oder an einer anderen Position initiieren. Diese Eingabe kann im Allgemeinen dem Umstand entsprechen, dass der Benutzer eine der angezeigten vorgeschlagenen Suchanfragen auswählt. In einem weiteren Beispiel kann Tastaturanwendung 222, während sie im Suchmodus läuft, eine Suche in Reaktion auf das Erkennen einer Benutzereingabe an Positionen, an denen PSD 212 die grafischen Tasten 118A darstellt, gefolgt von einer Eingabe an einer Position, an der PSD 212 eine „Eingabe”- oder „Suche”- oder „Senden”-Taste anzeigt, initiieren. Eine solche Eingabe kann im Allgemeinen dem Umstand entsprechen, dass der Benutzer eine Suchanfrage unter Verwendung der grafischen Tastatur 116B eingibt und „Eingabe” drückt, ohne eine vorgeschlagene Suchanfrage auszuwählen.
  • In Reaktion auf das Erkennen einer Benutzereingabe, die Computergerät 210 dazu veranlasst, eine Suche zu initiieren, kann Suchmodul 230 innerhalb der Tastaturanwendung 222 eine Suche aufrufen. Tastaturanwendung 222 kann eine Suche unter Verwendung jedweder von verschiedenen Techniken aufrufen. Beispielsweise kann Tastaturanwendung 222 die Suche durch ein Senden, an Suchanwendung 232, eines Hinweises auf die Suchanfrage aufrufen. In solchen Beispielen kann Tastaturanwendung 222 Suchergebnisse von Suchanwendung 232 empfangen. Als weiteres Beispiel kann Tastaturanwendung 222 die Suche durch ein Ausführen einer Suche in Inhalten, die auf dem Computergerät gespeichert sind, aufrufen, sodass die Suchergebnisse nur Informationen beinhalten, die auf dem Computergerät gespeichert sind. Die auf dem Computergerät gespeicherten Informationen beinhalten eine oder mehrere der Folgenden: Kontaktinformationen, Bildinformationen, Audioinformationen, Videoinformationen, Nachrichtenverlaufsinformationen, Suchverlaufsinformationen (z. B. frühere Suchanfragen, die in das Computergerät eingegeben wurden, frühere Suchanfragen, die durch einen Benutzer eingegeben wurden, der mit dem Computergerät verknüpft ist, während dieser ein anderes Computergerät verwendet hat usw.), Anwendungsnutzungsinformationen (z. B. Nutzungsfrequenz, Nutzungsdauer, Nutzungsort, Nutzungsmuster usw.), Gerätenutzungsinformationen (z. B. Nutzungsfrequenz, Nutzungsdauer, Nutzungsort, Nutzungsmuster usw.) usw.
  • In verschiedenen Fällen kann Tastaturanwendung 222 die Suche durch das Verwenden einer Suchfunktion, die von einer anderen Anwendung bereitgestellt wird, welche aktuell auf Computergerät 210 ausgeführt wird, aufrufen. Die andere Anwendung kann als aktuell auf Computergerät 210 ausgeführt werdend betrachtet werden, wenn sie, zum Beispiel, zumindest einen Teil der grafischen Benutzeroberfläche bereitstellt, die aktuell durch Computergerät 210 angezeigt wird. Als weiteres Beispiel kann die andere Anwendung als aktuell auf Computergerät 210 ausgeführt werdend betrachtet werden, wenn zumindest ein Teil der Anwendung in einem flüchtigen Speicher von Computergerät 210 resident ist. In einigen Fällen kann Tastaturanwendung 222 Informationen (z. B. eingegebene Zeichen, Emojis, Suchergebnisse usw.) für die andere Anwendung bereitstellen. Wenn zum Beispiel Textnachrichten-Anwendung 234 zusätzlich zu der Textnachrichten-Funktionalität Suchfunktionalität beinhaltet, kann Tastaturanwendung 222 einen Hinweis auf die Suchanfrage für Textnachrichten-Anwendung 234 bereitstellen und Suchergebnisse von Textnachrichten-Anwendung 234 empfangen. In Fällen, in denen Tastaturanwendung 222 Suchfunktionalität nutzt, die von der anderen Anwendung bereitgestellt wird, kann Tastaturanwendung 222 die Suche durch beispielsweise ein Senden der Suchanfrage an die andere Anwendung aufrufen, die aktuell auf dem Computergerät ausgeführt wird. In solchen Fällen kann Tastaturanwendung 222 Suchergebnisse von der anderen Anwendung empfangen.
  • Als weiteres Beispiel kann Tastaturanwendung 222 die Suche durch Senden zumindest eines Hinweises auf die Suchanfrage an ein entferntes Suchsystem aufrufen. Das entfernte Suchsystem kann beispielsweise eine Datenbank, ein Serversystem, ein cloudbasiertes Computersystem oder jedwedes andere System sein, das dazu in der Lage ist, eine Suche nach Informationen durchzuführen. Der Begriff „entfernt” weist darauf hin, dass sich das Suchsystem von Computergerät 210 unterscheidet und nicht in diesem enthalten ist, jedoch von dem Computergerät 210 über, beispielsweise, die Kommunikationseinheiten 242 erreichbar ist. In Fällen, in denen Tastaturanwendung 222 die Suche durch Senden des Hinweises auf die Suchanfrage an das entfernte System aufruft, kann Tastaturanwendung 222 die Suchergebnisse von dem entfernten Suchsystem empfangen.
  • Obwohl die Techniken als separate Arten beschrieben wurden, auf welche die Suche von Tastaturanwendung 222 aufgerufen wird, kann die Tastaturanwendung jedwede Kombination der oben beschriebenen Techniken zum Aufrufen einer Suche verwenden. Zum Beispiel kann die Tastaturanwendung eine Suche in Inhalten ausführen, die auf einem Computergerät gespeichert sind, während sie zudem einen Hinweis auf die Suchanfrage an ein entferntes Suchsystem sendet. In solchen Beispielen können die Suchergebnisse Informationen, die auf Computergerät 210 gespeichert sind, und/oder vom entfernten Suchsystem empfangene Suchergebnisse beinhalten. Unabhängig davon, wie die Tastatur die Suche aufruft, kann Tastaturanwendung 222, wenn Suchergebnisse verfügbar werden, UI-Modul 220 dazu veranlassen, dem Benutzer Informationen zu den Suchergebnissen darzustellen, indem, in einigen Beispielen, Informationen zu Suchergebnissen auf der Benutzeroberfläche 114 angezeigt werden.
  • Tastaturanwendung 222 kann UI-Modul 220 dazu veranlassen, einen Teil der Suchergebnisinformationen darzustellen. Wenn zum Beispiel mehr Suchergebnisse vorliegen als simultan von Computergerät 210 angezeigt werden können, kann Tastaturanwendung 222 einen Teil der auszugebenden Suchergebnisse zur Anzeige auswählen. Um den Teil der auszugebenden Suchergebnisse auszuwählen, kann Tastaturanwendung 222 die Suchergebnisse basierend auf einem oder mehreren Kriterien in eine Rangliste einordnen. Tastaturanwendung 222 kann beispielsweise die Suchergebnisse derart in eine Rangliste einordnen, dass die höher eingeordneten Suchergebnisse als relevanter für einen aktuellen Kontext von Computergerät 210 bestimmt werden als die niedriger eingeordneten Suchergebnisse. Als weiteres Beispiel kann Tastaturanwendung 222 die Suchergebnisse derart in eine Rangliste einordnen, dass die höher eingeordneten Suchergebnisse als relevanter für einen Benutzer von Computergerät 220 bestimmt werden als die niedriger eingeordneten Suchergebnisse.
  • 3 zeigt ein Blockdiagramm, das ein exemplarisches Computergerät veranschaulicht, das grafische Inhalte zur Anzeige auf einem entfernten Gerät gemäß einer oder mehreren Techniken der vorliegenden Offenbarung ausgibt. Grafische Inhalte können im Allgemeinen jedwede visuelle Informationen beinhalten, die zur Anzeige ausgegeben werden können, wie z. B. Text, Bilder, eine Gruppe von bewegten Bildern, um nur einige Beispiele zu nennen. Das in 3 gezeigte Beispiel beinhaltet Computergerät 310, PSD 312, Kommunikationseinheit 342, Mobilgerät 386 und die visuelle Anzeigekomponente 390. In einigen Beispielen kann PSD 312, wie in 12 beschrieben, eine präsenzempfindliche Anzeige sein. Obwohl in 1 und 2 exemplarisch als eigenständiges Computergerät 110 dargestellt, kann ein Computergerät, wie z. B. Computergerät 310, im Allgemeinen jedwede Komponente oder System sein, das einen Prozessor oder eine andere geeignete Computerumgebung zum Ausführen von Softwareanweisungen beinhaltet, und muss z. B. keine präsenzempfindliche Anzeige beinhalten.
  • Wie im Beispiel von 3 dargestellt, kann Computergerät 310 ein Prozessor sein, der Funktionen, wie in Bezug auf Prozessoren 240 in 2 beschrieben, beinhaltet. In solchen Beispielen kann Computergerät 310 mit PSD 312 durch einen Kommunikationskanal 362A operativ verbunden sein, der ein Systembus oder eine andere geeignete Verbindung sein kann. Computergerät 310 kann zudem mit Kommunikationseinheit 342, die nachfolgend weiter beschrieben wird, durch einen Kommunikationskanal 362B operativ verbunden sein, der auch ein Systembus oder eine andere geeignete Verbindung sein kann. Obwohl in 3 separat als Beispiel dargestellt, kann Computergerät 310 mit PSD 312 und Kommunikationseinheit 342 durch eine beliebige Anzahl von einem oder mehreren Kommunikationskanälen operativ verbunden sein.
  • In anderen Beispielen, wie z. B. zuvor durch das tragbare Computergerät 110 in 12 veranschaulicht, kann sich ein Computergerät auf ein tragbares oder mobiles Gerät, wie z. B. Mobiltelefone (einschließlich Smartphones), tragbare Computergeräte (einschließlich intelligente Uhren und Kopfhörer), Laptopcomputer usw. beziehen. In einigen Beispielen kann ein Computergerät ein Desktopcomputer, ein Tablet-Computer, eine intelligente Fernsehplattform, eine Kamera, ein persönlicher digitaler Assistent (PDA), ein Server oder Mainframe sein.
  • PSD 312 beinhaltet eine Anzeigekomponente 302 und eine präsenzempfindliche Eingabekomponente 304. Die Anzeigekomponente 302 kann z. B. Daten von Computergerät 310 empfangen und die grafischen Inhalte anzeigen. In einigen Beispielen kann die präsenzempfindliche Anzeigekomponente 304 eine oder mehrere Benutzereingaben (z. B. ununterbrochene Gesten, Mehrfachberührungsgesten, Einzelberührungsgesten usw.) an PSD 312 mithilfe kapazitiver, induktiver und/oder optischer Erkennungstechniken bestimmen und Hinweise auf solche Benutzereingaben unter Verwendung von Kommunikationskanal 362A an Computergerät 310 senden. In einigen Beispielen kann die präsenzempfindliche Eingabekomponente 304 physikalisch oben auf der Anzeigekomponente 302 positioniert sein, sodass, wenn ein Benutzer eine Eingabeeinheit über einem grafischen Element positioniert, das durch die Anzeigekomponente 302 angezeigt wird, die Position, an der sich die präsenzempfindliche Eingabekomponente 304 befindet, der Position der Anzeigekomponente 302 entspricht, an der das grafische Element angezeigt wird.
  • Wie in 3 dargestellt, kann Computergerät 310 zudem Kommunikationseinheit 342 beinhalten und/oder operativ damit verbunden sein. Kommunikationseinheit 342 kann, wie in 2 beschrieben, Funktionen der Kommunikationseinheit 242 beinhalten. Beispiele der Kommunikationseinheit 342 können eine Netzwerkschnittstellenkarte, eine Ethernetkarte, einen optischen Sendeempfänger, einen Hochfrequenz-Sendeempfänger oder jedwede andere Art von Vorrichtung beinhalten, die Informationen senden und empfangen kann. Andere Beispiele solcher Kommunikationseinheiten können Bluetooth, 3G und WLAN-Radios, Universal Serial Bus(USB)-Schnittstellen usw. beinhalten. Computergerät 310 kann zudem eine oder mehrere andere Geräte beinhalten (z. B. Eingabegeräte, Ausgabegeräte, Arbeitsspeicher, Datenspeichergeräte usw.), die in 3 der Kürze halber und Veranschaulichung nicht dargestellt sind, oder operativ mit denselben verbunden sein.
  • 3 veranschaulicht auch Mobilgerät 386 und visuelle Anzeigekomponente 390. Mobilgerät 386 und visuelle Anzeigekomponente 390 können jeweils Rechner- und Konnektivitätsfähigkeiten aufweisen. Beispiele für Mobilgerät 386 können E-Reader-Geräte, Convertible-Notebook-Geräte, Hybrid-Slate-Geräte usw. beinhalten. Beispiele für die visuelle Anzeigekomponente 390 können andere Geräte, wie z. B. Fernseher, Computerbildschirme usw., beinhalten. In einigen Beispielen kann die visuelle Anzeigekomponente 390 eine Fahrzeug-Cockpitanzeige oder eine Navigationsanzeige (z. B. in einem Auto, Flugzeug oder einem anderen Fahrzeug) sein. In einigen Beispielen kann die visuelle Anzeigekomponente 390 eine Heimautomatisierungsanzeige oder eine andere Art von Anzeige sein, die von Computergerät 310 getrennt ist.
  • Wie in 3 dargestellt, kann Mobilgerät 386 eine präsenzempfindliche Anzeige 388 beinhalten. Die visuelle Anzeigekomponente 390 kann eine präsenzempfindliche Anzeige 392 beinhalten. Die präsenzempfindlichen Anzeigen 388, 392 können, wie in dieser Offenbarung beschrieben, eine Untergruppe von Funktionen oder die gesamte Funktionalität der präsenzempfindlichen Anzeige 112, 212 und/oder 312 beinhalten. In einigen Beispielen können die präsenzempfindlichen Anzeigen 388, 392 zusätzliche Funktionen beinhalten. In jedem Fall kann die präsenzempfindliche Anzeige 392 z. B. Daten von Computergerät 310 empfangen und die grafischen Inhalte anzeigen. In einigen Beispielen kann die präsenzempfindliche Anzeige 392 eine oder mehrere Benutzereingaben (z. B. ununterbrochene Gesten, Mehrfachberührungsgesten, Einzelberührungsgesten usw.) an einem Projektorbildschirm unter Verwendung kapazitiver, induktiver und/oder optischer Erkennungstechniken ermitteln und Hinweise auf solche Benutzereingaben unter Verwendung einer oder mehrerer Kommunikationseinheiten an Computergerät 310 senden.
  • Wie oben in einigen Beispielen beschrieben, kann Computergerät 310 grafische Inhalte zur Anzeige auf PSD 312 ausgeben, das mit dem Computergerät 310 durch einen Systembus oder einen anderen geeigneten Kommunikationskanal verbunden ist. Computergerät 310 kann zudem grafische Inhalte zur Anzeige an einem oder mehreren entfernten Geräten, wie z. B. Mobilgerät 386 und visuelle Anzeigekomponente 390, ausgeben. Computergerät 310 kann beispielsweise eine oder mehrere Anweisungen zum Erzeugen und/oder Modifizieren von grafischen Inhalten gemäß Techniken der vorliegenden Offenbarung ausführen. Computergerät 310 kann die Daten, die die grafischen Inhalte beinhalten, an eine Kommunikationseinheit von Computergerät 310, wie z. B. Kommunikationseinheit 342, ausgeben. Kommunikationseinheit 342 kann die Daten an eine oder mehrere der entfernten Geräte, wie z. B. Mobilgerät 386 und/oder visuelle Anzeigekomponente 390, ausgeben. Auf diese Weise kann Computergerät 310 die grafischen Inhalte zur Anzeige an eines oder mehrere der entfernten Geräte ausgeben. In einigen Beispielen können eines oder mehrere der entfernten Geräte die grafischen Inhalte an eine präsenzempfindliche Anzeige ausgeben, die in den jeweiligen entfernten Geräten beinhaltet und/oder operativ mit denselben verbunden ist.
  • In einigen Beispielen kann Computergerät 310 möglicherweise keine grafischen Inhalte an PSD 312 ausgeben, das operativ mit Computergerät 310 verbunden ist. In anderen Beispielen kann Computergerät 310 grafische Inhalte zur Anzeige auf sowohl PSD 312, das mit Computergerät 310 durch Kommunikationskanal 362A operativ verbunden ist, als auch auf einem oder mehreren entfernten Geräten ausgeben. In diesen Beispielen können die grafischen Inhalte im Wesentlichen gleichzeitig auf jedem jeweiligen Gerät angezeigt werden. In einigen Beispielen können sich grafische Inhalte, die durch Computergerät 310 erzeugt und zur Anzeige auf PSD 312 ausgegeben wurden, von der Ausgabe zur Anzeige von grafischen Inhalten, die zur Anzeige an ein oder mehrere entfernte Geräte ausgegeben wurde, unterscheiden.
  • Das Computergerät 310 kann Daten unter Verwendung von geeigneten Kommunikationstechniken senden und empfangen. Computergerät 310 kann beispielsweise unter Verwendung von Netzwerkverbindung 373A operativ mit dem externen Netzwerk 374 verbunden sein. Jedes der in 3 veranschaulichten entfernten Geräte kann durch eine der jeweiligen Netzwerkverbindungen 373B oder 373C operativ mit dem externen Netzwerk 374 verbunden sein. Das externe Netzwerk 374 kann Netzwerk-Hubs, Netzwerkschalter, Netzwerk-Router usw. beinhalten, die operativ miteinander verbunden sind, wodurch sie den Austausch von Informationen zwischen Computergerät 310 und den in 3 veranschaulichten entfernten Geräten ermöglichen. In einigen Beispielen können die Netzwerkverbindungen 373A373C Ethernet, ATM oder andere Netzwerkverbindungen sein. Derartige Verbindungen können drahtlose und/oder drahtgebundene Verbindungen sein.
  • In einigen Beispielen kann Computergerät 310 unter Verwendung der direkten Gerätekommunikation 378 operativ mit einem oder mehreren der in 3 beinhalteten entfernten Geräte verbunden sein. Die direkte Gerätekommunikation 378 kann Kommunikationen beinhalten, durch die das Computergerät 310 Daten unter Verwendung von drahtgebundener oder drahtloser Kommunikation direkt mit einem entfernten Gerät sendet und empfängt. Das heißt, dass in einigen Bespielen von direkter Gerätekommunikation 378 Daten, die direkt durch Computergerät 310 gesendet werden, möglicherweise nicht durch ein oder mehrere zusätzliche Geräte weitergeleitet werden, bevor sie am entfernten Gerät empfangen werden, und umgekehrt. Beispiele von direkter Gerätekommunikation 378 können Bluetooth, Nahfeldkommunikation, Universal Serial Bus, WLAN, Infrarot usw. beinhalten. Eines oder mehrere der entfernten Geräte, die in 3 veranschaulicht werden, können mit dem Computergerät 310 operativ durch Kommunikationsverbindungen 376A376C verbunden sein. In einigen Beispielen können die Kommunikationsverbindungen 376A376C Verbindungen unter Verwendung von Bluetooth, Nahfeldkommunikation, Universal Serial Bus, Infrarot usw. sein. Derartige Verbindungen können drahtlose und/oder drahtgebundene Verbindungen sein.
  • Gemäß Techniken der Offenbarung kann Computergerät 310 unter Verwendung des externen Netzwerks 374 operativ mit der visuellen Anzeigekomponente 390 verbunden sein. Computergerät 310 kann eine grafische Tastatur zur Anzeige auf PSD 312 ausgeben. Computergerät 310 kann zum Beispiel Daten an Kommunikationseinheit 342 senden, die eine Darstellung der grafischen Tastatur beinhalten. Kommunikationseinheit 342 kann die Daten, die die Darstellung der grafischen Tastatur beinhalten, unter Verwendung des externen Netzwerks 374 zur visuellen Anzeigekomponente 390 senden. Die visuelle Anzeigekomponente 390 kann, in Reaktion auf das Empfangen der Daten unter Verwendung des externen Netzwerks 374, PSD 312 dazu veranlassen, die grafische Tastatur auszugeben. In Reaktion auf das Empfangen einer Benutzereingabe an PSD 312 zum Auswählen einer oder mehrerer Tasten der Tastatur kann das visuelle Anzeigegerät 130 einen Hinweis auf die Benutzereingabe unter Verwendung des externen Netzwerks 374 an Computergerät 310 senden. Kommunikationseinheit 342 kann den Hinweis auf die Benutzereingabe empfangen und den Hinweis an Computergerät 310 senden.
  • Computergerät 310 kann basierend auf der Benutzereingabe eine oder mehrere Tasten oder Benutzeroberflächen-Elemente (z. B. eine vorgeschlagene oder vorhergesagte Suchanfrage) auswählen. Computergerät 310 kann basierend auf der Auswahl von einer oder mehreren Tasten oder Benutzeroberflächen-Elementen eine Suchanfrage bestimmen. In einigen Beispielen kann Computergerät 310 die Suchanfrage an ein Suchsystem übermitteln. In Reaktion auf das Empfangen der Suchanfrage kann das Suchsystem basierend auf der Suchanfrage zumindest ein Suchergebnis bestimmen. Das Suchsystem kann das zumindest eine Suchergebnis an Computergerät 310 übermitteln, das das zumindest eine Suchergebnis empfangen kann. Computergerät 310 kann eine Darstellung einer aktualisierten grafischen Benutzeroberfläche, einschließlich einer aktualisierten grafischen Tastatur ausgeben, in der zumindest ein Teil der Suchergebnisse (z. B. ein Suchergebnis) anstelle zumindest eines Teils der grafischen Tastatur (z. B. zumindest einer grafischen Taste der grafischen Tastatur) angezeigt wird. Kommunikationseinheit 342 kann die Darstellung der aktualisierten grafischen Benutzeroberfläche empfangen und die Darstellung an die visuelle Anzeigekomponente 390 senden, sodass die visuelle Anzeigekomponente 390 PSD 312 dazu veranlassen kann, die aktualisierte grafische Tastatur auszugeben, einschließlich des Anzeigens zumindest eines Teils der Suchergebnisse (z. B. eines Suchergebnisses) anstelle zumindest eines Teils der grafischen Tastatur (z. B. zumindest einer grafischen Taste der grafischen Tastatur).
  • 4 zeigt ein konzeptuelles Diagramm, das eine exemplarische grafische Benutzeroberfläche 414 eines exemplarischen Computergeräts veranschaulicht, das dafür konfiguriert ist, gemäß einem oder mehreren Aspekten der vorliegenden Offenbarung eine grafische Tastatur mit integrierten Suchfunktionen darzustellen. In anderen Fällen können jedoch auch viele andere Beispiele von grafischen Benutzeroberflächen verwendet werden. Die grafische Benutzeroberfläche 414 kann einer grafischen Benutzeroberfläche entsprechen, die von Computergeräten 110 oder 210, jeweils aus 1 und 2, angezeigt wird. 4 wird nachfolgend im Kontext von Computergerät 110 beschrieben.
  • Die grafische Benutzeroberfläche 414 beinhaltet eine Ansicht der grafischen Tastatur 416B, in der zumindest ein Teil der Vielzahl von Tasten (in diesem Beispiel alle Tasten) mit zumindest einem Teil der Suchergebnisse ersetzt wurde, die in Reaktion auf eine Suchanfrage angegeben werden. Die grafische Benutzeroberfläche 414 beinhaltet einen Ausgabebereich 416A, Texteingabebereich 416C und die grafische Tastatur 416B. Die grafische Tastatur 416B beinhaltet Vorschlagsbereich 418B, Suchelement 418C und Suchergebnisbereich 418D. In der in 4 veranschaulichten Ansicht, ist Vorschlagsbereich 418B dafür konfiguriert, eine eingegebene Suchanfrage „Sandwich-Lokal” anzuzeigen.
  • Suchergebnisbereich 418D zeigt eine visuelle Darstellung zumindest eines Suchergebnisses an, das von Computergerät 110 in Reaktion auf die Suchanfrage empfangen wird. In einigen Beispielen kann die visuelle Darstellung des zumindest einen Suchergebnisses ein kartenbasiertes Oberflächen-Element 420A sein. Das kartenbasierte Benutzeroberflächen-Element 420A kann einer Notizkarte ähneln und kann eine visuelle Darstellung eines bestimmten Suchergebnisses aus den Suchergebnissen beinhalten. Die Darstellung des bestimmten Suchergebnisses kann beispielsweise zumindest eines der Folgenden: Text, Bild, Icon oder Ähnliches beinhalten. Zum Beispiel beinhaltet das kartenbasierte Benutzeroberflächen-Element 420A Text, der auf eine Antwort auf die Suchanfrage hinweist. In 4 beinhaltet der Text, der auf eine Antwort auf die Suchanfrage hinweist, einen Namen eines Restaurants („Sandwich-Lokal”), eine Restaurantbewertung (5 Sterne), eine Anzahl von Kundenbewertungen („1.821”), eine Adresse („Adressenweg 123”), eine Restaurantkategorie („Sandwiches”) und ein Bild (wie z. B. ein Bild des Sandwich-Lokals).
  • Das kartenbasierte Benutzeroberflächen-Element 420A beinhaltet einen ersten vorbestimmten Teil 422A und einen zweiten vorbestimmten Teil 422B. Der erste vorbestimmte Teil 422A des kartenbasierten Benutzeroberflächen-Elements 420A (die visuelle Darstellung eines ersten Suchergebnisses) kann eine Darstellung von Inhalten des bestimmten Suchergebnisses, wie z. B. Text, ein mit dem bestimmten Suchergebnis verknüpftes Bild, ein mit dem bestimmten Suchergebnis verknüpftes Icon usw., beinhalten. In 4 beinhaltet der Text, der auf eine Antwort auf die Suchanfrage hinweist, einen Namen eines Restaurants („Sandwich-Lokal”), eine Restaurantbewertung (5 Sterne), eine Anzahl von Kundenbewertungen („1.821”), eine Adresse („Adressenweg 123”), eine Restaurantkategorie („Sandwiches”) und ein Bild (wie z. B. ein Bild des Sandwich-Lokals).
  • In einigen Beispielen kann Tastatur-Modul 122 dafür konfiguriert sein, basierend auf einem Hinweis auf eine Benutzereingabe an PSD 112, die von UI-Modul 120 empfangen wird (z. B. ein Hinweis auf ein Berührungsereignis), eine Auswahl des ersten vorbestimmten Teils 422A zu bestimmen. In Reaktion auf das Bestimmen der Auswahl des ersten vorbestimmten Teils 422A, kann Tastatur-Modul 122 dafür konfiguriert sein, automatisch, ohne weitere Benutzereingabe, einen Hinweis auf Informationen im Zusammenhang mit dem Suchergebnis an UI-Modul 120 auszugeben und UI-Modul 120 dazu zu veranlassen, die Informationen im Zusammenhang mit dem Suchergebnis in Textbearbeitungsbereich 416C einzufügen. Somit ist Tastatur-Modul 122 dafür konfiguriert, Einzelgesteneingaben von Informationen aus dem Suchergebnis in den Textbearbeitungsbereich 416C zu erlauben, und eine leichte und effiziente Eingabe von Informationen aus dem Suchergebnis in die Anwendung, für die die grafische Tastatur 416B verwendet wird, um Text einzugeben, zu ermöglichen.
  • Die Informationen im Zusammenhang mit dem Suchergebnis können beispielsweise Textinformationen in Bezug auf das ausgewählte Suchergebnis beinhalten. Wie zum Beispiel in 4 dargestellt, beinhalten die Informationen im Zusammenhang mit dem ausgewählten Suchergebnis eine Textantwort auf die Suchanfrage („Sandwich-Lokal Adressenweg 123”). Im Beispiel aus 4 beinhalten die Informationen im Zusammenhang mit dem ausgewählten Suchergebnis zudem einen Hyperlink zu einer Webseite, die eine Wegbeschreibung zum Sandwich-Lokal bereitstellt, was dem Benutzer von Computergerät 110 oder dem Benutzer des anderen Computergeräts (z. B. „FREUND” in 4) gestattet, den Hyperlink auszuwählen, um auf eine Wegbeschreibung zum Sandwich-Lokal zuzugreifen, sobald die Inhalte in Texteingabebereich 416C an Ausgabebereich 416A übergeben werden. In anderen Beispielen können die Informationen im Zusammenhang mit dem ausgewählten Suchergebnis ein Bild (wie z. B. ein Bild des Sandwich-Lokals), ein Icon usw. beinhalten.
  • Das kartenbasierte Benutzeroberflächen-Element 420A beinhaltet zudem einen zweiten vorbestimmten Teil 422B, der mit einer oder mehreren Handlungen verknüpft ist, die von einer anderen Anwendung als der grafischen Tastatur 416B ausgeführt werden. Beispielsweise beinhaltet der zweite vorbestimmte Teil 422B mehrere Benutzeroberflächen-Elemente (z. B. Icons, Bilder, Text usw.), die mit entsprechenden Handlungen verknüpft sind, die, wenn sie von einem Benutzer ausgewählt werden, UI-Modul 120 dazu veranlassen, das Berührungsereignis an ein anderes Anwendungs-Modul auszugeben, um die erwähnte entsprechende Handlung auszuführen.
  • Im Beispiel aus 4 beinhalten die Benutzeroberflächen-Elemente Telefon-Icon 424A, Navigations-Icon 424B und Gehe-zu-Icon 424C. Telefon-Icon 424A ist mit einer Handlung verknüpft, die dazu dient, eine Telefon-Anwendung zu öffnen und Sandwich-Lokal (d. h. das mit dem Suchergebnis verknüpfte Lokal) anzurufen. Navigations-Icon 424B ist mit einer Handlung verknüpft, die dazu dient, eine Navigations- oder Kartenanwendung zu öffnen und eine Wegbeschreibung zum Sandwich-Lokal (d. h. das mit dem Suchergebnis verknüpfte Lokal) abzurufen. Gehe-zu-Icon 424C ist mit einer Handlung verknüpft, die dazu dient, eine neue Anwendung zu öffnen, die mit dem im kartenbasierten Benutzeroberflächen-Element 420A angezeigten Suchergebnis in Zusammenhang steht, wie z. B. eine Suchanwendung oder eine Webseite, von der die Informationen im Suchergebnis abgerufen wurden.
  • In Reaktion auf das Empfangen eines Berührungsereignisses von PSD 112, können UI-Modul 120 oder Tastatur-Modul 122 eine Auswahl eines oder mehrerer Icons 424A424C im zweiten vorbestimmten Teil 422B bestimmen und einen Hinweis auf die Auswahl des einen aus den Icons 424A424C an die verknüpfte Anwendung übermitteln, die die Handlung durchführen kann, die mit dem Ausgewählten aus den Icons 424A424C verknüpft ist. Auf diese Weise kann Tastatur-Modul 122 zusätzlich dazu, dass es das Einfügen von Informationen im Zusammenhang mit dem Suchergebnis in die Anwendung, für die die grafische Tastatur 416B verwendet wird, um Text einzugeben, erlaubt, einem Benutzer Verknüpfungen mit von anderen Anwendungen durchgeführten Handlungen darstellen.
  • In einigen Beispielen kann Computergerät 110 vom Suchsystem mehr als ein Suchergebnis in Reaktion auf eine Suchanfrage empfangen. Tastatur-Modul 122 kann ein entsprechendes kartenbasiertes Benutzeroberflächen-Element für jedes jeweilige Suchergebnis aus den Suchergebnissen erzeugen. In einigen Beispielen kann Tastatur-Modul 122 Suchergebnisbereich 418D dazu veranlassen, mehr als ein Suchergebnis (z. B. mehr als ein kartenbasiertes Benutzeroberflächen-Element 420A) anzuzeigen. Wie zum Beispiel in 4 dargestellt, kann Tastatur-Modul 122 Suchergebnisbereich 418D dazu veranlassen, ein erstes kartenbasiertes Benutzeroberflächen-Element 420A und einen Teil eines zweiten kartenbasierten Benutzeroberflächen-Elements 420B anzuzeigen. Die Anzeige des Teils des zweiten kartenbasierten Benutzeroberflächen-Elements 420B kann einen Benutzer von Computergerät 110 visuell darauf hinweisen, dass zusätzliche Suchergebnisse existieren und durch Navigieren zum zweiten kartenbasierten Benutzeroberflächen-Element 420B betrachtet werden können. Tastatur-Modul 122 kann UI-Modul 120 beispielsweise dazu veranlassen, vom kartenbasierten Benutzeroberflächen-Element 420A zum zweiten kartenbasierten Benutzeroberflächen-Element 420B umzuschalten, in Reaktion auf das Bestimmen einer auf Berührungsereignissen basierenden Benutzergerste, z. B. eines Wischens von rechts nach links in 4. Auf diese Weise kann Tastatur-Modul 122 es einem Benutzer ermöglichen, zwischen Suchergebnissen innerhalb von Suchergebnisbereich 418D der grafischen Tastatur 116B hin- und herzuschalten. In einigen Beispielen kann Tastatur-Modul 122 es einem Benutzer ermöglichen, zwischen kartenbasierten Benutzeroberflächen-Elementen mithilfe von Wischen in verschiedene Richtungen (z. B. rechts und links) hin- und herzuschalten, wobei die kartenbasierten Oberflächen-Elemente konzeptionell kreisförmig angeordnet sein können.
  • 5 zeigt ein Ablaufdiagramm, das exemplarische Vorgänge eines Computergeräts veranschaulicht, das dafür konfiguriert ist, eine grafische Tastatur mit integrierten Suchfunktionen gemäß einem oder mehreren Aspekten der vorliegenden Offenbarung darzustellen. Die Vorgänge aus 5 können von einem oder mehreren Prozessoren eines Computergeräts, wie z. B. von Computergerät 110 aus 1 oder Computergerät 210 aus 2, durchgeführt werden. Lediglich aus Veranschaulichungszwecken wird 5 nachfolgend innerhalb des Kontextes von Computergerät 110 aus 1 beschrieben.
  • Im Betrieb kann Tastaturanwendung 122 von Computergerät 110 eine grafische Tastatur 116B ausgeben, die eine Vielzahl von Tasten 118A und ein Suchelement 118C beinhaltet (500). Die grafische Tastatur 116B kann in verschiedenen Fällen auch Vorschlagsbereich 118B, Suchvorschlagsbereich 118D und/oder einen Suchergebnisbereich beinhalten. In einigen Beispielen kann die grafische Tastatur 116B Teil einer grafischen Benutzeroberfläche einer anderen Anwendung (z. B. Teil einer grafischen Benutzeroberfläche 114) sein, die auf Computergerät 110 ausgeführt wird. Das heißt, dass PSD 112 von Computergerät 110 die grafische Benutzeroberfläche 114 für eine Anwendung, wie z. B. eine Textnachrichten-Anwendung anzeigen kann, die die grafische Tastatur 116B, die durch Tastaturanwendung 122 ausgegeben wird, beinhaltet.
  • Tastaturanwendung 122 kann einen Hinweis auf eine Auswahl eines Suchelements 118C empfangen, das innerhalb der grafischen Tastatur 116B enthalten ist (502). Zum Beispiel kann ein Benutzer eine Eingabe an einer Position von PSD 112 vornehmen, die mit Suchelement 116C verknüpft ist. UI-Modul 120 kann einen Hinweis auf die Auswahl von Suchelement 118C für Tastaturanwendung 122 bereitstellen.
  • In Reaktion auf das Empfangen des Hinweises auf die Auswahl des Suchelements kann Tastaturanwendung 122 zur Anzeige innerhalb der grafischen Tastatur 116B Suchvorschlagsbereich 118D, darunter auch eine oder mehrere vorgeschlagene Suchanfragen (504), ausgeben. Tastaturanwendung 122 kann bestimmen, welche Suchanfragen basierend auf einem Kontext von Computergerät 110, einem Suchverlauf eines mit Computergerät 110 verknüpften Benutzers, Texteingaben, die an Computergerät 110 vorgenommen werden (z. B. wie innerhalb von Texteingabebereich 116C von Benutzeroberfläche 114 angezeigt), einer vorgeschlagenen Suchanfrage, die innerhalb von Vorschlagsbereich 118B enthalten ist, vorgeschlagenen Wörtern, die innerhalb von Vorschlagsbereich 118B enthalten sind usw., als die eine oder die mehreren vorgeschlagenen Suchanfragen eingeschlossen werden sollen.
  • Tastaturanwendung 122 kann basierend auf einem Hinweis auf eine Benutzereingabe, die durch das Computergerät erkannt wurde, eine Suchanfrage bestimmen (506). Beispielsweise kann ein Benutzer eine vorgeschlagene Suchanfrage auswählen, die innerhalb von Suchvorschlagsbereich 118D enthalten ist, er kann eine oder mehrere Tasten aus der Vielzahl von Tasten 118A als Textsuche auswählen oder einen Satz als Suchanfrage sprechen. In Fällen, in denen der Benutzer eine vorgeschlagene Suchanfrage auswählt, bestimmt Tastaturanwendung 122, dass die ausgewählte Suchanfrage die Suchanfrage ist. In Fällen, in denen der Benutzer über eine Auswahl eines Teils der Vielzahl von Tasten 118A eine Suchanfrage bereitstellt oder eine Spracheingabe vornimmt, bestimmt Tastaturanwendung 122 die Suchanfrage basierend auf den ausgewählten Tasten oder der Spracheingabe.
  • Sobald Tastaturanwendung 122 die Suchanfrage bestimmt, kann Tastaturanwendung 122 basierend auf der Suchanfrage eine Suche aufrufen (508). Um die Suche aufzurufen, kann Tastaturanwendung 122 direkt eine Suche ausführen, und anfordern, dass eine Suchanwendung, die auf Computergerät 110 installiert ist, eine Suche ausführt, und anfordern, dass eine andere Anwendung, die Suchfunktionalität beinhaltet, eine Suche ausführt, und anfordern, dass ein entferntes Suchsystem eine Suche, oder jedwede Kombination hiervon, durchführt. In verschiedenen Fällen kann ein Benutzer kontrollieren, ob Tastaturanwendung 122 anfordern darf, dass eine andere Anwendung oder das entfernte Suchsystem eine Suche durchführt, um so die Verbreitung der bestimmten Suchanfrage zu begrenzen.
  • Unabhängig davon, wie Tastaturanwendung 122 die Suche aufruft, empfängt Tastaturanwendung 122 in Reaktion auf das Aufrufen der Suche Suchergebnisse (510). Die Suchergebnisse können (z. B. in Fällen, in denen Tastaturanwendung 122 eine Suche nach lokalen Informationen durchführt) von einer Datenbank oder einem anderen Datenspeicher, der sich auf Computergerät 110 befindet, empfangen werden, von einer anderen Anwendung, die auf Computergerät 110 ausgeführt wird, vom entfernten Suchsystem oder von jedweder Kombination derselben, empfangen werden.
  • Tastaturanwendung 122 kann, zur Anzeige innerhalb der grafischen Tastatur 116B und anstelle zumindest eines Teils der Vielzahl von Tasten 118A, einen grafischen Hinweis auf zumindest einen Teil der Suchergebnisse ausgeben (512). In einigen Beispielen kann der grafische Hinweis auf das zumindest eine Suchergebnis ein kartenbasiertes Benutzeroberflächen-Element sein, das einer Notizkarte ähneln kann, und eine visuelle Darstellung eines bestimmten Suchergebnisses aus den Suchergebnissen beinhalten kann. Tastatur-Modul 122 kann es einem Benutzer ermöglichen, zwischen kartenbasierten Benutzeroberflächen-Elementen mithilfe von Wischen in verschiedene Richtungen (z. B. rechts und links) hin- und herzuschalten, wobei die kartenbasierten Benutzeroberflächen-Elemente konzeptionell kreisförmig angeordnet sein können.
  • Die folgenden nummerierten Abschnitte können einen oder mehrere Aspekte der Offenbarung veranschaulichen:
  • Beispiel 1. Verfahren, umfassend: Ausgeben zur Anzeige, durch eine Tastaturanwendung, die auf einem Computergerät ausgeführt wird, einer grafischen Tastatur, einschließlich einer Vielzahl von Tasten und eines Suchelements; Empfangen, durch die Tastaturanwendung, eines Hinweises auf eine Auswahl des Suchelements; in Reaktion auf das Empfangen des Hinweises auf die Auswahl des Suchelements, Ausgeben zur Anzeige innerhalb der grafischen Tastatur, durch die Tastaturanwendung, eines Suchvorschlagsbereichs, einschließlich einer oder mehrerer vorgeschlagener Suchanfragen; Bestimmen, durch die Tastaturanwendung, einer Suchanfrage, basierend auf einem Hinweis auf eine Benutzereingabe, die durch das Computergerät erkannt wurde; Aufrufen, durch die Tastaturanwendung und basierend auf der Suchanfrage, einer Suche; in Reaktion auf das Aufrufen der Suche, Empfangen, durch die Tastaturanwendung, von Suchergebnissen; und Ausgeben zur Anzeige innerhalb der grafischen Tastatur und anstelle zumindest eines Teils der Vielzahl von Tasten, durch die Tastaturanwendung, eines grafischen Hinweises auf zumindest einen Teil der Suchergebnisse.
  • Beispiel 2. Verfahren nach Beispiel 1, wobei: ein Aufrufen der Suche das Senden, durch die Tastaturanwendung und an eine Suchanwendung, die durch das Computergerät ausführbar ist, eines Hinweises auf die Suchanfrage umfasst, und die Suchergebnisse von der Suchanwendung empfangen werden.
  • Beispiel 3. Verfahren nach jedwedem der Beispiele 1–2, wobei: ein Aufrufen der Suche das Ausführen, durch die Tastaturanwendung, einer Suche in auf dem Computergerät gespeicherten Inhalten umfasst, und die Suchergebnisse nur auf dem Computergerät gespeicherte Informationen beinhalten
  • Beispiel 4. Verfahren nach Beispiel 3, wobei die auf dem Computergerät gespeicherten Informationen eines oder mehreres der Folgenden: Kontaktinformationen, Bildinformationen, Audioinformationen, Videoinformationen, Nachrichtenverlaufsinformationen, Suchverlaufsinformationen, Anwendungsnutzungsinformationen oder Gerätenutzungsinformationen beinhalten.
  • Beispiel 5. Verfahren nach jedwedem der Beispiele 1–4, des Weiteren umfassend: ein Ausführen, durch das Computergerät, während des Ausführens der Tastaturanwendung, einer anderen Anwendung, wobei die andere Anwendung, die aktuell auf dem Computergerät ausgeführt wird, zumindest einen Teil einer aktuell angezeigten grafischen Benutzeroberfläche ausgibt, wobei die andere Anwendung Suchfunktionalität beinhaltet, und wobei die Tastaturanwendung der anderen Anwendung Informationen zur Anzeige innerhalb der grafischen Benutzeroberfläche bereitstellt, wobei ein Aufrufen der Suche das Senden, durch die Tastaturanwendung und an die andere Anwendung, die aktuell auf dem Computergerät ausgeführt wird, der Suchanfrage umfasst, und wobei die Suchergebnisse durch die Tastaturanwendung von der anderen Anwendung empfangen werden.
  • Beispiel 6. Verfahren nach jedwedem der Beispiele 1–5, wobei: ein Aufrufen der Suche das Senden eines Hinweises auf die Suchanfrage an ein entferntes Suchsystem umfasst, und die Suchergebnisse vom entfernten Suchsystem empfangen werden.
  • Beispiel 7. Verfahren nach jedwedem der Beispiele 1–6, wobei ein Aufrufen der Suche Folgendes umfasst: Ausführen, durch die Tastaturanwendung, einer Suche in auf dem Computergerät gespeicherten Inhalten; und Senden eines Hinweises auf die Suchanfrage an ein entferntes Suchsystem, und wobei zumindest ein Teil der Suchergebnisse vom entfernten Suchsystem empfangen wird.
  • Beispiel 8. Verfahren nach Beispiel 7, des Weiteren umfassend: Einordnen in eine Rangliste, durch die Tastaturanwendung, der Suchergebnisse und Auswählen, durch die Tastaturanwendung und basierend auf der Rangliste, des Teils der Suchergebnisse, der ausgegeben werden soll.
  • Beispiel 9. Verfahren nach jedwedem der Beispiele 1–8, des Weiteren umfassend: Empfangen, durch die Tastaturanwendung, eines Hinweises auf eine vom Benutzer eingegebene Auswahl eines bestimmten Suchergebnisses aus den Suchergebnissen; und Aktualisieren, durch die Tastaturanwendung zur Anzeige, der grafischen Tastatur, sodass sie einen Hinweis auf das bestimmte Suchergebnis innerhalb eines Texteingabebereichs der grafischen Tastatur beinhaltet.
  • Beispiel 10. Verfahren nach jedwedem der Beispiele 1–9, des Weiteren umfassend: Empfangen, durch die Tastaturanwendung, eines Hinweises auf eine Wischgeste, die innerhalb des Teils der Suchergebnisse begonnen wurde, der innerhalb der grafischen Tastatur angezeigt wird; und Ausgeben zur Anzeige innerhalb der grafischen Tastatur und anstelle des vorher angezeigten Teils der Suchergebnisse, durch die grafische Tastatur, eines grafischen Hinweises auf einen anderen Teil der Suchergebnisse.
  • Beispiel 11. Verfahren nach jedwedem der Beispiele 1–10, wobei die durch das Computergerät erkannte Benutzereingabe eine Auswahl einer oder mehrerer Tasten aus der Vielzahl von Tasten beinhaltet, und wobei das Bestimmen der Suchanfrage das Bestimmen der Suchanfrage basierend auf der Auswahl der einen oder mehreren Tasten umfasst.
  • Beispiel 12. Verfahren nach jedwedem der Beispiele 1–11, wobei: die durch das Computergerät erkannte Benutzereingabe eine Auswahl einer der einen oder mehreren vorgeschlagenen Suchanfragen umfasst, die im Suchvorschlagsbereich enthalten sind, und die Suchanfrage der einen aus der einen oder den mehreren vorgeschlagenen Suchanfragen entspricht, die durch die Benutzereingabe ausgewählt wird.
  • Beispiel 13. Verfahren nach jedwedem der Beispiele 1–12, des Weiteren umfassend: Bestimmen, durch die Tastaturanwendung, der einen oder mehreren vorgeschlagenen Suchanfragen, basierend auf einem oder mehreren aus einem Suchverlauf eines dem Computergerät zugeordneten Benutzers, einer aktuellen Textnachrichtenkonversation oder einem aktuellen Kontext des Computergeräts.
  • Beispiel 14. Verfahren nach jedwedem der Beispiele 1–13, des Weiteren umfassend: Bestimmen, vor dem Empfangen einer Auswahl eines Suchelements, durch die Tastaturanwendung und basierend auf einer vorhergehenden Auswahl einer oder mehrerer Tasten aus der Vielzahl von Tasten, einer Suchanfrage; und Ausgeben zur Anzeige, durch die Tastaturanwendung, der vorgeschlagenen Suchanfrage im Vorschlagsbereich der grafischen Tastatur.
  • Beispiel 15. Verfahren nach Beispiel 14, des Weiteren umfassend: Ausgeben zur Anzeige, nach dem Empfangen des Hinweises auf die Auswahl des Suchelements, durch die Tastaturanwendung, der vorgeschlagenen Suchanfrage als eine aus der einen oder den mehreren vorgeschlagenen Suchanfragen, die im Suchvorschlagsbereich enthalten sind.
  • Beispiel 16. Verfahren nach jedwedem der Beispiele 1–15, wobei die Tastaturanwendung aus einem Online-Anwendungs-Store heruntergeladen wird.
  • Beispiel 17. Verfahren nach jedwedem der Beispiele 1–16, wobei: die Tastaturanwendung als Erweiterung einer anderen Anwendung ausgeführt wird, die aktuell auf dem Computergerät ausgeführt wird, und die grafische Tastatur innerhalb einer grafischen Benutzeroberfläche der anderen Anwendung zur Anzeige ausgegeben wird.
  • Beispiel 18. Computergerät, umfassend: einen oder mehrere Prozessoren, einen Speicher, auf dem eine oder mehrere Anwendungen, einschließlich einer Tastaturanwendung, gespeichert sind; und eine präsenzempfindliche Anzeige, wobei der eine oder die mehreren Prozessoren die Tastaturanwendung ausführen, um: eine grafische Tastatur, einschließlich einer Vielzahl von Tasten und eines Suchelements zur Anzeige durch die präsenzempfindliche Anzeige auszugeben; einen Hinweis auf eine Auswahl des Suchelements zu empfangen; in Reaktion auf das Empfangen des Hinweises auf die Auswahl des Suchelements einen Suchvorschlagsbereich, einschließlich einer oder mehrerer vorgeschlagenen Suchanfragen, zur Anzeige durch die präsenzempfindliche Anzeige und innerhalb der grafischen Tastatur auszugeben; basierend auf einem Hinweis auf eine durch das Computergerät erkannte Benutzereingabe eine Suchanfrage zu bestimmen; in Reaktion auf das Aufrufen der Suche Suchergebnisse zu empfangen; und zur Anzeige durch die präsenzempfindliche Anzeige, innerhalb der grafischen Tastatur und anstelle zumindest eines Teils der Vielzahl von Tasten, einen grafischen Hinweis auf zumindest einen Teil der Suchergebnisse auszugeben.
  • Beispiel 19. Computergerät nach Beispiel 18, wobei der eine oder die mehreren Prozessoren die Tastaturanwendung ausführen, um, vor dem Empfangen einer Auswahl eines Suchelements: basierend auf einer vorhergehenden Auswahl einer oder mehrerer Tasten aus der Vielzahl von Tasten, eine vorgeschlagene Suchanfrage zu bestimmen; und zur Anzeige durch die präsenzempfindliche Anzeige, die vorgeschlagene Suchanfrage im Vorschlagsbereich der grafischen Tastatur auszugeben.
  • Beispiel 20. Computergerät nach Beispiel 19, wobei der eine oder die mehreren Prozessoren die Tastaturanwendung ausführen, um, nach dem Empfangen des Hinweises auf die Auswahl des Suchelements: die vorgeschlagene Suchanfrage als eine aus der einen oder den mehreren vorgeschlagenen Suchanfragen, die im Suchvorschlagsbereich enthalten sind, zur Anzeige durch die präsenzempfindliche Anzeige auszugeben.
  • Beispiel 21. Computerlesbares Speichermedium auf dem Anweisungen kodiert sind, die, wenn sie ausgeführt werden, einen oder mehrere Prozessoren eines Computergeräts dazu veranlassen: eine grafische Tastatur, einschließlich einer Vielzahl von Tasten und eines Suchelements, zur Anzeige auszugeben; einen Hinweis auf eine Auswahl des Suchelements zu empfangen; in Reaktion auf das Empfangen des Hinweises auf die Auswahl des Suchelements einen Suchvorschlagsbereich, einschließlich einer oder mehrerer vorgeschlagener Suchanfragen, zur Anzeige innerhalb der grafischen Tastatur auszugeben; basierend auf einem Hinweis auf eine vom Computergerät erkannte Benutzereingabe, eine Suchanfrage zu bestimmen; basierend auf der Suchanfrage eine Suche aufzurufen; in Reaktion auf das Aufrufen der Suche Suchergebnisse zu empfangen; und einen grafischen Hinweis auf zumindest einen Teil der Suchergebnisse zur Anzeige innerhalb der grafischen Tastatur und anstelle zumindest eines Teils der Vielzahl von Tasten auszugeben.
  • Beispiel 22. System, das Mittel zur Durchführung von jedwedem der Verfahren der Beispiele 1–17 umfasst.
  • Beispiel 23. Computergerät, das Mittel zur Durchführung von jedwedem der Verfahren der Beispiele 1–17 umfasst.
  • Beispiel 24. Computerlesbares Speichermedium, das Mittel zur Durchführung von jedwedem der Verfahren der Beispiele 1–17 umfasst.
  • In der gesamten Offenbarung sind Beispiele beschrieben, in denen ein Computergerät und/oder ein Computersystem lediglich dann mit einem Computergerät und einem Benutzer eines Computergeräts verknüpfte Informationen (z. B. Kontext, Standorte, Geschwindigkeiten, Suchanfragen usw.) analysiert, wenn das Computergerät eine Erlaubnis vom Benutzer des Computergeräts zum Analysieren der Informationen empfängt. So wird dem Benutzer in nachfolgend beschriebenen Situationen, bevor das Computergerät oder Computersystem mit dem Benutzer verknüpfte Informationen sammeln kann oder verwenden darf, unter Umständen eine Möglichkeit gegeben, eine Eingabe vorzunehmen, um zu steuern, ob Programme oder Funktionen des Computergeräts und/oder des Computersystems Benutzerinformationen (wie z. B. Informationen zum aktuellen Standort des Benutzers, die aktuelle Geschwindigkeit usw.) sammeln und verwenden dürfen, oder um festzulegen, ob und/oder wie das Gerät und/oder System Inhalte empfangen kann, die für den Benutzer ggf. relevant sind. Außerdem können bestimmte Daten auf eine oder mehrere Arten behandelt werden, bevor sie gespeichert oder vom Computergerät und/oder Computersystem verwendet werden, sodass persönlich identifizierbare Informationen entfernt werden. So kann beispielsweise die Identität eines Benutzers so behandelt werden, dass keine persönlichen Informationen von dem Benutzer bestimmt werden können, oder ein geografischer Standort eines Benutzers, wenn Standortinformationen empfangen werden, (beispielsweise auf eine Stadt, eine Postleitzahl oder eine Landesebene) verallgemeinert werden kann, sodass ein bestimmter Standort eines Benutzers nicht bestimmt werden kann. Deshalb kann der Benutzer darüber die Kontrolle haben, wie die Informationen über den Benutzer gesammelt und vom Computergerät und Computersystem verwendet werden.
  • In einem oder mehreren Beispielen können die beschriebenen Funktionen in Hardware, Software, Firmware oder jeder beliebigen Kombination davon implementiert sein. Wenn sie in Software implementiert sind, können die Funktionen als eine oder mehrere Anweisungen oder Codes auf einem computerlesbaren Medium gespeichert oder über dieses übertragen werden und von einer hardwarebasierten Verarbeitungseinheit ausgeführt werden. Computerlesbare Medien können computerlesbare Speichermedien beinhalten, die physischen Medien, wie z. B. Datenspeichermedien, oder Kommunikationsmedien, darunter auch Medien entsprechen, die die Übertragung eines Computerprogramms von einem Ort zum anderen, z. B. gemäß einem Kommunikationsprotokoll, erleichtern. Auf diese Weise können computerlesbare Medien im Allgemeinen (1) physischen computerlesbaren Speichermedien entsprechen, welche nicht transitorisch oder (2) ein Kommunikationsmedium, wie beispielsweise ein Signal oder eine Trägerwelle, sind. Datenspeichermedien können beliebige verfügbare Medien sein, auf die von einem oder mehreren Computern oder einem oder mehreren Prozessoren zugegriffen werden kann, um Anweisungen, Code und/oder Datenstrukturen zur Implementierung der in dieser Offenbarung beschriebenen Techniken abzurufen. Ein Computerprogrammprodukt kann ein computerlesbares Medium beinhalten.
  • Beispielsweise und nicht beschränkend können derartige computerlesbare Speichermedien RAM-, ROM-, EEPROM-, CD-ROM- oder andere optische Plattenspeicher, Magnetplattenspeicher oder andere magnetische Speichergeräte, Flash-Speicher oder ein beliebiges anderes Medium umfassen, das verwendet werden kann, um den gewünschten Programmcode in Form von Anweisungen oder Datenstrukturen zu speichern und auf die von einem Computer zugegriffen werden kann. Zudem wird jede Verbindung als ein computerlesbares Medium bezeichnet. Wenn beispielsweise Anweisungen von einer Webseite, einem Server oder einer anderen entfernten Quelle unter Verwendung eines Koaxialkabels, eines Glasfaserkabels, eines Twisted-Pair-Kabels, einer digitalen Teilnehmerleitung (DSL) oder drahtloser Technologien, wie beispielsweise Infrarot, Radio und Mikrowelle übertragen werden, dann sind Koaxialkabel, Glasfaserkabel, Twisted-Pair-Kabel, DSL oder drahtlose Technologien, wie beispielsweise Infrarot, Radio und Mikrowelle in der Definition von Medium mit eingeschlossen. Es sollte jedoch klar sein, dass computerlesbare Speichermedien und Datenspeichermedien keine Verbindungen, Trägerwellen, Signale oder andere physische Medien beinhalten, sondern stattdessen auf nichtflüchtige, physische Speichermedien ausgerichtet sind. Festplatten und Disketten, wie sie hierin verwendet werden, beinhalten Compact Disc (CD), Laserdisc, optische Disc, Digital Versatile Disc (DVD), Diskette und Blu-ray Disc, wobei Disketten typischerweise Daten magnetisch wiedergeben, während Discs Daten optisch mit Lasern wiedergeben. Kombinationen der Vorstehenden sollten ebenfalls in den Umfang von computerlesbaren Medien eingeschlossen sein.
  • Anweisungen können durch einen oder mehrere Prozessoren, wie z. B. einen oder mehrere digitale Signalprozessoren (DSPs), Universalmikroprozessoren, anwendungsorientierte integrierte Schaltungen (ASICs), feldprogrammierbare Gate-Arrays (FPGAs) oder beliebige andere gleichwertige integrierte oder diskrete Logikschaltungen ausgeführt werden. Dementsprechend kann sich der Begriff „Prozessor”, wie er hierin verwendet wird, auf eine beliebige der vorgenannten Strukturen oder jede andere Struktur beziehen, die für die Implementierung der beschriebenen Techniken geeignet ist. Darüber hinaus kann in einigen Aspekten die beschriebene Funktionalität innerhalb dedizierter Hardware- und/oder Softwaremodule bereitgestellt werden. Auch könnten die Techniken vollständig in einer oder mehreren Schaltungen oder Logikelementen implementiert werden.
  • Die Techniken der vorliegenden Offenbarung können in einer breiten Vielfalt von Geräten oder Vorrichtungen implementiert werden, darunter auch in einem drahtlosen Handapparat, einer integrierten Schaltung (IC) oder einer Reihe von ICs (z. B. einem Chipsatz). In dieser Offenbarung werden verschiedene Komponenten, Module oder Einheiten beschrieben, um funktionelle Aspekte von Vorrichtungen zu betonen, die dafür konfiguriert sind, die offenbarten Techniken auszuführen, jedoch nicht notwendigerweise eine Realisierung durch verschiedene Hardware-Einheiten erfordern. Vielmehr können, wie vorstehend beschrieben, verschiedene Einheiten in einer Hardware-Einheit kombiniert oder durch eine Sammlung von interoperativen Hardware-Einheiten, einschließlich eines oder mehrerer Prozessoren, wie vorstehend beschrieben, in Verbindung mit geeigneter Software und/oder Firmware bereitgestellt werden.
  • Es wurden verschiedene Beispiele beschrieben. Diese und andere Beispiele liegen innerhalb des Umfangs der folgenden Ansprüche.

Claims (19)

  1. Nicht-transitorisches computerlesbares Speichermedium, das mit Anweisungen kodiert ist, die, wenn sie ausgeführt werden, einen oder mehrere Prozessoren eines Computergeräts dazu veranlassen, die folgenden Schritte durchzuführen: Ausgeben zur Anzeige einer grafischen Tastatur, die eine Vielzahl von Tasten enthält, durch eine Tastaturanwendung, die auf einem Computergerät ausgeführt wird; Empfangen, durch die Tastaturanwendung, eines Hinweises auf eine Auswahl einer oder mehrerer Tasten aus der Vielzahl von Tasten; Empfangen, durch die Tastaturanwendung, eines Hinweises auf eine Auswahl eines Suchelements, das von der Tastaturanwendung innerhalb der grafischen Tastatur ausgegeben wird; in Reaktion auf das Empfangen des Hinweises auf die Auswahl des Suchelements: Aufrufen einer Suche durch die Tastaturanwendung und basierend auf einer basierend auf der Auswahl der einen oder der mehreren Tasten bestimmten Suchanfrage; in Reaktion auf das Aufrufen der Suche, Empfangen von Suchergebnissen durch die Tastaturanwendung; und Ausgeben zur Anzeige innerhalb der grafischen Tastatur, durch die Tastaturanwendung, eines grafischen Hinweises auf mindestens einen Teil der Suchergebnisse und eines Suchvorschlagsbereichs, der eine oder mehrere vorgeschlagene Suchanfragen beinhaltet, die basierend auf der Auswahl der einen oder der mehreren Tasten bestimmt werden, wobei der grafische Hinweis auf die Suchergebnisse anstelle zumindest eines Teils der Vielzahl von Tasten ausgegeben wird.
  2. Nicht-transitorisches computerlesbares Speichermedium nach Anspruch 1, wobei: das Aufrufen der Suche das Senden eines Hinweises auf die Suchanfrage, durch die Tastaturanwendung und an eine durch das Computergerät ausführbare Suchanwendung, umfasst, und die Suchergebnisse von der Suchanwendung empfangen werden.
  3. Nicht-transitorisches computerlesbares Speichermedium nach Anspruch 1, wobei: das Aufrufen der Suche das Ausführen, durch die Tastaturanwendung, einer Suche in Inhalten umfasst, die auf dem Computergerät gespeichert sind, und die Suchergebnisse nur Informationen beinhalten, die auf dem Computergerät gespeichert sind.
  4. Nicht-transitorisches computerlesbares Speichermedium nach Anspruch 1, wobei die Anweisungen, wenn sie ausgeführt werden, den einen oder die mehreren Prozessoren eines Computergeräts dazu veranlassen, die folgenden weiteren Schritte durchzuführen: während die Tastaturanwendung ausgeführt wird, Ausführen, durch das Computergerät, einer anderen Anwendung, wobei die andere Anwendung, die aktuell auf dem Computergerät ausgeführt wird, zumindest einen Teil einer aktuell angezeigten grafischen Benutzeroberfläche ausgibt, wobei die andere Anwendung eine Suchfunktion beinhaltet, und wobei die Tastaturanwendung der anderen Anwendung Informationen zur Anzeige innerhalb der grafischen Benutzeroberfläche bereitstellt, wobei das Aufrufen der Suche das Senden, durch die Tastaturanwendung und an die andere Anwendung, die aktuell auf dem Computergerät ausgeführt wird, der Suchanfrage umfasst, und wobei die Suchergebnisse durch die Tastaturanwendung von der anderen Anwendung empfangen werden.
  5. Nicht-transitorisches computerlesbares Speichermedium nach Anspruch 1, wobei: das Aufrufen der Suche das Senden eines Hinweises auf die Suchanfrage an ein entferntes Suchsystem umfasst und die Suchergebnisse vom entfernten Suchsystem empfangen werden.
  6. Nicht-transitorisches computerlesbares Speichermedium nach Anspruch 1, wobei das Aufrufen der Suche Folgendes umfasst: Ausführen, durch die Tastaturanwendung, einer Suche in Inhalten, die auf dem Computergerät gespeichert sind; und Senden eines Hinweises auf die Suchanfrage an ein entferntes Suchsystem, und wobei zumindest ein Teil der Suchergebnisse vom entfernten Suchsystem empfangen wird.
  7. Nicht-transitorisches computerlesbares Speichermedium nach Anspruch 6, wobei die Anweisungen, wenn sie ausgeführt werden, den einen oder die mehreren Prozessoren eines Computergeräts dazu veranlassen, die folgenden weiteren Schritte durchzuführen: die Suchergebnisse durch die Tastaturanwendung in eine Rangfolge einzuordnen; und den auszugebenden Teil der Suchergebnisse durch die Tastaturanwendung und basierend auf der Rangfolge auszuwählen.
  8. Nicht-transitorisches computerlesbares Speichermedium nach jedwedem der Ansprüche 1–7, wobei die Anweisungen, wenn sie ausgeführt werden, den einen oder die mehreren Prozessoren eines Computergeräts dazu veranlassen, die folgenden weiteren Schritte auszuführen: Empfangen, durch die Tastaturanwendung, eines Hinweises auf eine vom Benutzer eingegebene Auswahl eines bestimmten Suchergebnisses aus den Suchergebnissen; und Aktualisieren zur Anzeige, durch die Tastaturanwendung, der grafischen Tastatur, sodass diese einen Hinweis auf das bestimmte Suchergebnis innerhalb eines Texteingabebereichs der grafischen Tastatur beinhaltet.
  9. Nicht-transitorisches computerlesbares Speichermedium nach jedwedem der Ansprüche 1–8, wobei die Anweisungen, wenn sie ausgeführt werden, den einen oder die mehreren Prozessoren eines Computergeräts dazu veranlassen die folgenden weiteren Schritte durchzuführen: Empfangen, durch die Tastaturanwendung, eines Hinweises auf eine Wischgeste, die innerhalb des Teils der Suchergebnisse beginnt, der innerhalb der grafischen Tastatur angezeigt wird; und Ausgeben, durch die grafische Tastatur, eines grafischen Hinweises auf einen anderen Teil der Suchergebnisse zur Anzeige innerhalb der grafischen Tastatur und anstelle des vorher angezeigten Teils der Suchergebnisse.
  10. Nicht-transitorisches computerlesbares Speichermedium nach jedwedem der Ansprüche 1–9, wobei die Anweisungen, wenn sie ausgeführt werden, den einen oder die mehreren Prozessoren eines Computergeräts dazu veranlassen, die folgenden weiteren Schritte durchzuführen: Empfangen, durch die Tastaturanwendung, eines Hinweises auf eine vom Computergerät erkannte Benutzereingabe, die eine aus der einen oder den mehreren vorgeschlagenen Suchanfragen auswählt, die im Suchvorschlagsbereich enthalten sind, und Aufrufen, durch die Tastaturanwendung und basierend auf der einen oder den mehreren durch die Benutzereingabe ausgewählten Suchanfragen, einer anderen Suche.
  11. Nicht-transitorisches computerlesbares Speichermedium nach jedwedem der Ansprüche 1–10, wobei die Anweisungen, wenn sie ausgeführt werden, den einen oder die mehreren Prozessoren eines Computergeräts dazu veranlassen, die folgenden weiteren Schritte durchzuführen: Bestimmen, durch die Tastaturanwendung, der einen oder der mehreren vorgeschlagenen Suchanfragen, basierend auf einem Suchverlauf eines Benutzers, der dem Computergerät zugeordnet ist, einer aktuellen Textnachrichten-Konversation oder einem aktuellen Kontext des Computergeräts; und Ausgeben, durch die grafische Tastaturanwendung und innerhalb des Suchvorschlagsbereichs, mindestens einer aus der einen oder den mehreren vorgeschlagenen Suchen.
  12. Nicht-transitorisches computerlesbares Speichermedium nach jedwedem der Ansprüche 1–11, wobei die Anweisungen, wenn sie ausgeführt werden, den einen oder die mehreren Prozessoren eines Computergeräts dazu veranlassen, die folgenden weiteren Schritte durchzuführen: nach dem Empfangen des Hinweises auf die Auswahl des Suchelements, Ausgeben zur Anzeige, durch die Tastaturanwendung der vorgeschlagenen Suche als eine aus der einen oder den mehreren vorgeschlagenen Suchen, die im Suchvorschlagsbereich enthalten sind.
  13. Nicht-transitorisches computerlesbares Speichermedium nach jedwedem der Ansprüche 1–12, wobei: die Tastaturanwendung als Erweiterung einer anderen Anwendung ausgeführt wird, die aktuell auf dem Computergerät ausgeführt wird, und die grafische Tastatur innerhalb einer grafischen Benutzeroberfläche der anderen Anwendung zur Anzeige ausgegeben wird.
  14. Nicht-transitorisches computerlesbares Speichermedium nach jedwedem der Ansprüche 1–13, wobei die Tastaturanwendung aus einem Online-Anwendungs-Store heruntergeladen wird.
  15. Nicht-transitorisches computerlesbares Speichermedium nach jedwedem der Ansprüche 1–14, wobei: die Tastaturanwendung als Erweiterung einer anderen Anwendung ausgeführt wird, die aktuell auf dem Computergerät ausgeführt wird, und die grafische Tastatur innerhalb einer grafischen Benutzeroberfläche der anderen Anwendung zur Anzeige ausgegeben wird.
  16. Computergerät, umfassend: einen oder mehrere Prozessoren; einen Speicher, der eine oder mehrere Anwendungen, einschließlich einer Tastaturanwendung, speichert; und eine präsenzempfindliche Anzeige, wobei der eine oder die mehreren Prozessoren die Tastaturanwendung ausführen, um: eine grafische Tastatur, einschließlich einer Vielzahl von Tasten, zur Anzeige durch die präsenzempfindliche Anzeige auszugeben; einen Hinweis auf eine Auswahl einer oder mehrerer Tasten aus der Vielzahl von Tasten zu empfangen einen Hinweis auf eine Auswahl eines Suchelements, das innerhalb der grafischen Tastatur enthalten ist, zu empfangen; in Reaktion auf das Empfangen des Hinweises auf die Auswahl des Suchelements: eine Suche aufzurufen, die auf einer Suchanfrage basiert, die basierend auf der Auswahl der einen oder der mehreren Tasten bestimmt wird; in Reaktion auf das Aufrufen der Suche Suchergebnisse zu empfangen; und Ausgabe zur Anzeige durch die präsenzempfindliche Anzeige und innerhalb der grafischen Tastatur eines grafischen Hinweises auf zumindest einen Teil der Suchergebnisse und eines Suchvorschlagsbereichs, der eine oder mehrere vorgeschlagene Suchanfragen beinhaltet, die basierend auf der Auswahl der einen oder der mehreren Tasten bestimmt werden, wobei der grafische Hinweis auf zumindest den Teil der Suchergebnisse anstelle zumindest eines Teils der Vielzahl von Tasten ausgegeben wird.
  17. Computergerät nach Anspruch 16, wobei der eine oder die mehreren Prozessoren die Tastaturanwendung ausführen, um: einen Hinweis auf eine Benutzereingabe zu empfangen, die eine aus der einen oder den mehreren vorgeschlagenen Suchanfragen auswählt, die im Suchvorschlagsbereich enthalten sind, und basierend auf der einen oder den mehreren vorgeschlagenen Suchanfragen, die durch die Benutzereingabe ausgewählt werden, eine andere Suche aufzurufen.
  18. Computergerät nach Anspruch 17, wobei der eine oder die mehreren Prozessoren die Tastaturanwendung ausführen, um nach dem Empfangen des Hinweises auf die Auswahl des Suchelements: die vorgeschlagene Suche als eine aus der einen oder den mehreren vorgeschlagenen Suchen, die im Suchvorschlagsbereich enthalten sind, zur Anzeige durch die präsenzempfindliche Anzeige auszugeben.
  19. Computergerät, umfassend: Nicht-transitorisches computerlesbares Speichermedium nach jedwedem der Ansprüche 1–15, und Mittel zum Lesen des nicht-transitorisches computerlesbaren Speichermediums und zum Ausführen der darauf kodierten Anweisungen.
DE202017104090.9U 2016-04-20 2017-04-19 Grafische Tastaturanwendung mit integrierter Suche Active DE202017104090U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/134,319 2016-04-20
US15/134,319 US10140017B2 (en) 2016-04-20 2016-04-20 Graphical keyboard application with integrated search

Publications (1)

Publication Number Publication Date
DE202017104090U1 true DE202017104090U1 (de) 2017-08-09

Family

ID=57794388

Family Applications (2)

Application Number Title Priority Date Filing Date
DE202017104090.9U Active DE202017104090U1 (de) 2016-04-20 2017-04-19 Grafische Tastaturanwendung mit integrierter Suche
DE102017108324.3A Pending DE102017108324A1 (de) 2016-04-20 2017-04-19 Grafische Tastaturanwendung mit integrierter Suche

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE102017108324.3A Pending DE102017108324A1 (de) 2016-04-20 2017-04-19 Grafische Tastaturanwendung mit integrierter Suche

Country Status (5)

Country Link
US (2) US10140017B2 (de)
CN (1) CN107305493A (de)
DE (2) DE202017104090U1 (de)
GB (1) GB2551253A (de)
WO (1) WO2017184212A1 (de)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10976923B2 (en) 2016-02-11 2021-04-13 Hyperkey, Inc. Enhanced virtual keyboard
CN109074207A (zh) 2016-02-11 2018-12-21 海佩吉公司 社交键盘
US20170364260A1 (en) * 2016-02-11 2017-12-21 Hyperkey, Inc. Enhanced keyboard including multiple application execution
US10140017B2 (en) 2016-04-20 2018-11-27 Google Llc Graphical keyboard application with integrated search
US10305828B2 (en) 2016-04-20 2019-05-28 Google Llc Search query predictions by a keyboard
US10222957B2 (en) 2016-04-20 2019-03-05 Google Llc Keyboard with a suggested search query region
US10078673B2 (en) 2016-04-20 2018-09-18 Google Llc Determining graphical elements associated with text
US9965530B2 (en) 2016-04-20 2018-05-08 Google Llc Graphical keyboard with integrated search features
US10409488B2 (en) * 2016-06-13 2019-09-10 Microsoft Technology Licensing, Llc Intelligent virtual keyboards
US10664157B2 (en) 2016-08-03 2020-05-26 Google Llc Image search query predictions by a keyboard
US10409487B2 (en) * 2016-08-23 2019-09-10 Microsoft Technology Licensing, Llc Application processing based on gesture input
US20180101599A1 (en) * 2016-10-08 2018-04-12 Microsoft Technology Licensing, Llc Interactive context-based text completions
JP7005932B2 (ja) * 2017-04-28 2022-01-24 富士通株式会社 検索プログラム、検索装置及び検索方法
US10482504B2 (en) * 2017-08-24 2019-11-19 William McMichael Systems and methods for analyzing input data and presenting information
KR102355152B1 (ko) 2017-12-21 2022-01-25 삼성전자주식회사 콘텐트 검색을 위한 방법 및 그 전자 장치
KR20190126734A (ko) * 2018-05-02 2019-11-12 삼성전자주식회사 문맥적 추천
CN108763428A (zh) * 2018-05-24 2018-11-06 合肥亿腾工程咨询有限公司 一种基于搜索引擎的信息技术咨询系统
US11815936B2 (en) 2018-08-22 2023-11-14 Microstrategy Incorporated Providing contextually-relevant database content based on calendar data
US11714955B2 (en) 2018-08-22 2023-08-01 Microstrategy Incorporated Dynamic document annotations
KR102634375B1 (ko) * 2018-08-31 2024-02-06 구글 엘엘씨 동적 키보드 인터페이스내의 애니메이션 이미지 포지셔닝 방법 및 시스템
US11682390B2 (en) 2019-02-06 2023-06-20 Microstrategy Incorporated Interactive interface for analytics
JP7263857B2 (ja) * 2019-03-14 2023-04-25 オムロン株式会社 文字入力装置、文字入力方法、及び、文字入力プログラム
US11347756B2 (en) 2019-08-26 2022-05-31 Microsoft Technology Licensing, Llc Deep command search within and across applications
US11379529B2 (en) 2019-09-09 2022-07-05 Microsoft Technology Licensing, Llc Composing rich content messages
JP7250180B2 (ja) * 2019-10-15 2023-03-31 グーグル エルエルシー グラフィカルユーザインターフェース内への内容の音声制御入力
US11561968B2 (en) * 2020-02-20 2023-01-24 Microstrategy Incorporated Systems and methods for retrieving relevant information content while typing
US11900046B2 (en) * 2020-08-07 2024-02-13 Microsoft Technology Licensing, Llc Intelligent feature identification and presentation
US11853381B2 (en) * 2020-11-13 2023-12-26 Google Llc Hybrid fetching using a on-device cache
KR20230148336A (ko) * 2021-03-03 2023-10-24 킨드레드 소울 리미티드 모바일 디바이스 상의 사용자 입력을 인터셉트하기 위한 방법 및 시스템
US11790107B1 (en) 2022-11-03 2023-10-17 Vignet Incorporated Data sharing platform for researchers conducting clinical trials
US12007870B1 (en) 2022-11-03 2024-06-11 Vignet Incorporated Monitoring and adjusting data collection from remote participants for health research

Family Cites Families (95)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6104397A (en) 1997-06-30 2000-08-15 Sun Microsystems, Inc. Method and system for generating improved progress indicators
US7599847B2 (en) 2000-06-09 2009-10-06 Airport America Automated internet based interactive travel planning and management system
US20090006543A1 (en) 2001-08-20 2009-01-01 Masterobjects System and method for asynchronous retrieval of information based on incremental user input
US7363295B2 (en) 2004-04-19 2008-04-22 Yahoo! Inc. Techniques for inline searching in an instant messenger environment
US8028250B2 (en) 2004-08-31 2011-09-27 Microsoft Corporation User interface having a carousel view for representing structured data
US7788248B2 (en) 2005-03-08 2010-08-31 Apple Inc. Immediate search feedback
US7590699B2 (en) 2005-06-23 2009-09-15 Microsoft Corporation Instant messaging with built-in search
US7676517B2 (en) * 2005-10-14 2010-03-09 Microsoft Corporation Search results injected into client applications
US7925716B2 (en) 2005-12-05 2011-04-12 Yahoo! Inc. Facilitating retrieval of information within a messaging environment
US20070300177A1 (en) 2006-06-23 2007-12-27 Microsoft Corporation User interface for specifying multi-valued properties
US8280921B2 (en) 2006-07-18 2012-10-02 Chacha Search, Inc. Anonymous search system using human searchers
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US20080201434A1 (en) 2007-02-16 2008-08-21 Microsoft Corporation Context-Sensitive Searches and Functionality for Instant Messaging Applications
US20080244446A1 (en) 2007-03-29 2008-10-02 Lefevre John Disambiguation of icons and other media in text-based applications
CN105204617B (zh) * 2007-04-11 2018-12-14 谷歌有限责任公司 用于输入法编辑器集成的方法和系统
CN101329674A (zh) * 2007-06-18 2008-12-24 北京搜狗科技发展有限公司 一种提供个性化搜索的系统和方法
CN101183281B (zh) * 2007-12-26 2011-04-13 腾讯科技(深圳)有限公司 一种输入法中候选词的相关词输入的方法及系统
US8745018B1 (en) * 2008-07-10 2014-06-03 Google Inc. Search application and web browser interaction
CN101661490B (zh) * 2008-08-28 2013-01-02 国际商业机器公司 搜索引擎、其客户端及搜索网页的方法
CN101876878A (zh) 2009-04-29 2010-11-03 深圳富泰宏精密工业有限公司 单词预测输入系统及方法
US10705692B2 (en) 2009-05-21 2020-07-07 Sony Interactive Entertainment Inc. Continuous and dynamic scene decomposition for user interface
CN101571758B (zh) * 2009-06-04 2012-12-12 腾讯科技(深圳)有限公司 一种输入法系统和方法
CN101593073A (zh) * 2009-07-10 2009-12-02 张向阳 一种集成在输入法中的广告呈现设备
CA2717553C (en) 2009-10-13 2015-06-30 Research In Motion Limited User interface for a touchscreen display
US20110112824A1 (en) 2009-11-06 2011-05-12 Craig Peter Sayers Determining at least one category path for identifying input text
US20110191321A1 (en) 2010-02-01 2011-08-04 Microsoft Corporation Contextual display advertisements for a webpage
US9129012B2 (en) 2010-02-03 2015-09-08 Google Inc. Information search system with real-time feedback
US8650210B1 (en) 2010-02-09 2014-02-11 Google Inc. Identifying non-search actions based on a search query
US8782556B2 (en) 2010-02-12 2014-07-15 Microsoft Corporation User-centric soft keyboard predictive technologies
US8621379B2 (en) 2010-03-12 2013-12-31 Apple Inc. Device, method, and graphical user interface for creating and using duplicate virtual keys
US9483175B2 (en) 2010-07-26 2016-11-01 Apple Inc. Device, method, and graphical user interface for navigating through a hierarchy
US8918734B2 (en) 2010-07-28 2014-12-23 Nuance Communications, Inc. Reduced keyboard with prediction solutions when input is a partial sliding trajectory
CN102346557B (zh) * 2010-07-28 2016-08-03 深圳市世纪光速信息技术有限公司 一种输入法和输入法系统
US20120047025A1 (en) 2010-08-19 2012-02-23 Google Inc. Query stem advertising
CN103348353B (zh) 2010-10-06 2016-07-06 西里克斯系统公司 基于移动设备的物理位置对资源访问进行中介调节
US8515984B2 (en) 2010-11-16 2013-08-20 Microsoft Corporation Extensible search term suggestion engine
US10346479B2 (en) 2010-11-16 2019-07-09 Microsoft Technology Licensing, Llc Facilitating interaction with system level search user interface
KR20140001957A (ko) 2010-11-20 2014-01-07 뉘앙스 커뮤니케이션즈, 인코포레이티드 입력된 텍스트를 이용하여 상황 정보에 액세스하여 이를 처리하기 위한 시스템들 및 방법들
CN102567433A (zh) * 2010-12-07 2012-07-11 中国电信股份有限公司 基于输入法的处理方法、装置和移动终端
US9104992B2 (en) 2010-12-17 2015-08-11 Microsoft Technology Licensing, Llc Business application publication
US9111238B2 (en) 2010-12-17 2015-08-18 Microsoft Technology Licensing, Llc Data feed having customizable analytic and visual behavior
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US20120256840A1 (en) 2011-04-10 2012-10-11 Mahmoud Razzaghi Virtual keyboard
US9176944B1 (en) 2011-08-23 2015-11-03 Google Inc. Selectively processing user input
CN102955658B (zh) 2011-08-25 2017-03-22 腾讯科技(深圳)有限公司 交互界面中的页面切换方法及装置
WO2013054957A1 (en) 2011-10-13 2013-04-18 Lg Electronics Inc. Input interface controlling apparatus and method thereof
US9652448B2 (en) 2011-11-10 2017-05-16 Blackberry Limited Methods and systems for removing or replacing on-keyboard prediction candidates
US8914451B2 (en) 2012-02-17 2014-12-16 Blackberry Limited Electronic device configured with messaging composition interface
US9310888B2 (en) 2012-03-16 2016-04-12 Microsoft Technology Licensing, Llc Multimodal layout and rendering
US8850349B2 (en) * 2012-04-06 2014-09-30 Google Inc. Smart user-customized graphical keyboard
US9685160B2 (en) 2012-04-16 2017-06-20 Htc Corporation Method for offering suggestion during conversation, electronic device using the same, and non-transitory storage medium
US20130285916A1 (en) 2012-04-30 2013-10-31 Research In Motion Limited Touchscreen keyboard providing word predictions at locations in association with candidate letters
US9460237B2 (en) 2012-05-08 2016-10-04 24/7 Customer, Inc. Predictive 411
US8484573B1 (en) 2012-05-23 2013-07-09 Google Inc. Predictive virtual keyboard
US9582146B2 (en) 2012-05-29 2017-02-28 Nokia Technologies Oy Causing display of search results
US9116552B2 (en) 2012-06-27 2015-08-25 Blackberry Limited Touchscreen keyboard providing selection of word predictions in partitions of the touchscreen keyboard
US20140115070A1 (en) 2012-10-22 2014-04-24 Nokia Corporation Apparatus and associated methods
US9305114B2 (en) 2012-12-17 2016-04-05 Microsoft Technology Licensing, Llc Building long search queries
US10228819B2 (en) 2013-02-04 2019-03-12 602531 British Cilumbia Ltd. Method, system, and apparatus for executing an action related to user selection
WO2014139120A1 (en) 2013-03-14 2014-09-18 Microsoft Corporation Search intent preview, disambiguation, and refinement
US20140282203A1 (en) 2013-03-15 2014-09-18 Research In Motion Limited System and method for predictive text input
CN104133815B (zh) * 2013-05-02 2018-09-04 张岩 输入和搜索的方法及系统
CN103309460A (zh) * 2013-05-09 2013-09-18 靳友鹏 一种将文字输入法与搜索引擎融合使用的方法
US8997013B2 (en) * 2013-05-31 2015-03-31 Google Inc. Multiple graphical keyboards for continuous gesture input
US9529856B2 (en) 2013-06-03 2016-12-27 Google Inc. Query suggestion templates
US9613132B2 (en) 2013-06-28 2017-04-04 Yandex Europe Ag Method of and system for displaying a plurality of user-selectable refinements to a search query
US20150100537A1 (en) 2013-10-03 2015-04-09 Microsoft Corporation Emoji for Text Predictions
US9461945B2 (en) 2013-10-18 2016-10-04 Jeffrey P. Phillips Automated messaging response
KR102157264B1 (ko) 2013-10-30 2020-09-17 삼성전자주식회사 디스플레이 장치 및 그 ui 제공 방법
KR20150081181A (ko) 2014-01-03 2015-07-13 삼성전자주식회사 디스플레이 장치 및 이의 추천 문자 제공 방법
KR102225031B1 (ko) 2014-01-14 2021-03-09 엘지전자 주식회사 단말기 및 그 동작 방법
US10050926B2 (en) 2014-02-05 2018-08-14 Facebook, Inc. Ideograms based on sentiment analysis
US20150242086A1 (en) 2014-02-21 2015-08-27 Markport Limited Drag and drop event system and method
US9471570B2 (en) 2014-04-30 2016-10-18 Excalibur Ip, Llc Method and system for user selection of query suggestions
KR20150126213A (ko) 2014-05-02 2015-11-11 삼성전자주식회사 정보 검색 시스템 및 방법
KR102177607B1 (ko) 2014-05-16 2020-11-11 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US9671956B2 (en) 2014-06-18 2017-06-06 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Presenting search term suggestions on graphical user interfaces
US9043196B1 (en) 2014-07-07 2015-05-26 Machine Zone, Inc. Systems and methods for identifying and suggesting emoticons
US9930167B2 (en) 2014-07-07 2018-03-27 Verizon Patent And Licensing Inc. Messaging application with in-application search functionality
US20160034977A1 (en) 2014-08-01 2016-02-04 Yahoo! Inc. System and method for embedded search within messaging applications
CN105335415A (zh) * 2014-08-04 2016-02-17 北京搜狗科技发展有限公司 基于输入预测的搜索方法和输入法系统
US10824654B2 (en) 2014-09-18 2020-11-03 Snap Inc. Geolocation-based pictographs
US10275152B2 (en) 2014-10-28 2019-04-30 Idelan, Inc. Advanced methods and systems for text input error correction
CN104699744A (zh) * 2014-12-04 2015-06-10 百度在线网络技术(北京)有限公司 信息搜索方法及装置
CN104503995A (zh) * 2014-12-04 2015-04-08 百度在线网络技术(北京)有限公司 输入法的实现方法和装置
US20160224524A1 (en) 2015-02-03 2016-08-04 Nuance Communications, Inc. User generated short phrases for auto-filling, automatically collected during normal text use
US10547571B2 (en) 2015-05-06 2020-01-28 Kakao Corp. Message service providing method for message service linked to search service and message server and user terminal to perform the method
CN105095426A (zh) * 2015-07-17 2015-11-25 百度在线网络技术(北京)有限公司 搜索结果处理方法及装置
CN105224099A (zh) * 2015-09-17 2016-01-06 广州市久邦数码科技有限公司 一种基于输入法的搜索方法及其系统
US10496275B2 (en) 2015-10-12 2019-12-03 Microsoft Technology Licensing, Llc Multi-window keyboard
US9965530B2 (en) 2016-04-20 2018-05-08 Google Llc Graphical keyboard with integrated search features
US10222957B2 (en) 2016-04-20 2019-03-05 Google Llc Keyboard with a suggested search query region
US10305828B2 (en) 2016-04-20 2019-05-28 Google Llc Search query predictions by a keyboard
US10078673B2 (en) 2016-04-20 2018-09-18 Google Llc Determining graphical elements associated with text
US10140017B2 (en) 2016-04-20 2018-11-27 Google Llc Graphical keyboard application with integrated search

Also Published As

Publication number Publication date
WO2017184212A1 (en) 2017-10-26
GB201706161D0 (en) 2017-05-31
US20170308291A1 (en) 2017-10-26
US10140017B2 (en) 2018-11-27
GB2551253A (en) 2017-12-13
DE102017108324A1 (de) 2017-10-26
US20170308247A1 (en) 2017-10-26
CN107305493A (zh) 2017-10-31

Similar Documents

Publication Publication Date Title
DE202017104090U1 (de) Grafische Tastaturanwendung mit integrierter Suche
DE202017105673U1 (de) Ikonografische Symbolvorhersagen für eine Konversation
DE202016008310U1 (de) Vorhersagen von Suchanfragen durch eine Tastatur
DE202017104110U1 (de) Bildsuchanfragevorhersagen durch eine Tastatur
EP3400539B1 (de) Bestimmung von mit text assoziierten grafischen elementen
DE202017106558U1 (de) Anwendungserweiterung zum Erzeugen automatischer Suchabfragen
US9977595B2 (en) Keyboard with a suggested search query region
US9946773B2 (en) Graphical keyboard with integrated search features
US20170308289A1 (en) Iconographic symbol search within a graphical keyboard
DE202011110334U1 (de) System zum Orthogonales Ziehen auf Scrollbalken
KR102204888B1 (ko) 키보드에 의한 자동 번역
US10614595B2 (en) Assigning textures to graphical keyboards based on thematic textures of applications
DE202011110335U1 (de) System zum An-die-Oberfläche-Bringen von außerhalb des Bildschirms sichtbaren Objekten

Legal Events

Date Code Title Description
R081 Change of applicant/patentee

Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US

Free format text: FORMER OWNER: GOOGLE, INC., MOUNTAIN VIEW, CALIF., US

R082 Change of representative

Representative=s name: BETTEN & RESCH PATENT- UND RECHTSANWAELTE PART, DE

R207 Utility model specification
R081 Change of applicant/patentee

Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US

Free format text: FORMER OWNER: GOOGLE INC., MOUNTAIN VIEW, CALIF., US

R082 Change of representative

Representative=s name: BETTEN & RESCH PATENT- UND RECHTSANWAELTE PART, DE

R150 Utility model maintained after payment of first maintenance fee after three years
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0017300000

Ipc: G06F0016000000

R151 Utility model maintained after payment of second maintenance fee after six years