DE112013004816B4 - Computervorrichtung mit kraftausgelösten nicht-visuellen Antworten - Google Patents

Computervorrichtung mit kraftausgelösten nicht-visuellen Antworten Download PDF

Info

Publication number
DE112013004816B4
DE112013004816B4 DE112013004816.7T DE112013004816T DE112013004816B4 DE 112013004816 B4 DE112013004816 B4 DE 112013004816B4 DE 112013004816 T DE112013004816 T DE 112013004816T DE 112013004816 B4 DE112013004816 B4 DE 112013004816B4
Authority
DE
Germany
Prior art keywords
computing device
input
force
generating
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112013004816.7T
Other languages
English (en)
Other versions
DE112013004816T5 (de
Inventor
Ullas Gargi
Richard Carl Gossweiler III
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE112013004816T5 publication Critical patent/DE112013004816T5/de
Application granted granted Critical
Publication of DE112013004816B4 publication Critical patent/DE112013004816B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9537Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1636Sensing arrangement for detection of a tap gesture on the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Abstract

Verfahren, umfassend:Empfangen, durch eine Computervorrichtung, einer Angabe einer erfassten Kraft, die auf die Computervorrichtung wirkt;Bestimmen, durch die Computervorrichtung, dass die erfasste Kraft mit einer entsprechenden Eingabe übereinstimmt, die die Computervorrichtung mit einer entsprechenden Funktion assoziiert, die durch die Computervorrichtung ausführbar ist;Empfangen, durch die Computervorrichtung, einer Spracheingabe; undnach dem Bestimmen, dass die erfasste Kraft mit der entsprechenden Eingabe übereinstimmt:Durchführen, durch eine auf der Computervorrichtung ausgeführten Anwendung, und zumindest teilweise auf der Spracheingabe basierend von der entsprechenden Funktion; undErzeugen, durch die Computervorrichtung und basierend auf der entsprechenden Funktion, einer Audioausgabe.

Description

  • HINTERGRUND
  • Viele Computervorrichtungen, wie Smartphones und Tabletcomputer, weisen Touchscreens auf, die grafische Ausgaben vorsehen und Benutzer in die Lage versetzen, Eingaben über Berührgesten und/oder virtuelle Hardwaretastaturen oder -Knöpfe einzugeben. Mobile Computervorrichtungen können ebenso Audioausgaben vorsehen und den Benutzer in die Lage versetzen, Eingaben über virtuelle oder Hardwaretastaturen und -Knöpfe einzugeben. Mobile Computervorrichtungen können eine Vielfalt von Funktionen einschließlich Telefonie, E-Mail, Textnachrichtendienst, Webbrowsing usw. vorsehen.
  • Eine Tastatur und Berührgesteneingaben und grafische Ausgaben können die primären Modi einer Benutzerinteraktion mit einer mobilen Computervorrichtung sein. Ein Benutzer kann typischerweise die Interaktionen mit einer Computervorrichtung - wie einem Smartphone oder einem Tabletcomputer - beginnen, indem die Computervorrichtung dort positioniert wird, wo der Benutzer ihre Anzeige sehen und Gesteneingaben in virtuelle Piktogramme oder Tasten eingeben kann, die auf der Anzeige dargestellt sind.
  • US2011029869A1 betrifft ein Verfahren und ein System zum Ausführen einer Aktion, insbesondere zum Ausführen der Aktion in einem Gerät und, in einem besonderen Beispiel, in einem Handgerät wie einem mobilen Telekommunikationsgerät oder dergleichen. US2010073329A1 betrifft Benutzerschnittstellen für Datenverarbeitungsgeräte, wie z. B. mobile Geräte in Form von Smartphones, und beschreibt Systeme und Techniken, die ein Benutzer verwenden kann, um Informationen in ein mobiles Datenverarbeitungsgerät einzugeben. US2010088061A1 betrifft allgemein Eingabesteuerungen auf mobilen Handgeräten und insbesondere virtuelle Tasten auf einem mobilen Handgerät mit einem oder mehreren Bewegungssensoren, wie einem Gyroskop oder einem Beschleunigungsmesser.
  • KURZFASSUNG DER ERFINDUNG
  • In einem einzelnen Beispiel umfasst das Verfahren Empfangen, durch eine Computervorrichtung, einer Angabe einer erfassten Kraft, die auf die Computervorrichtung wirkt. Das Verfahren umfasst weiterhin Bestimmen, durch die Computervorrichtung, dass die erfasste Kraft mit einer entsprechenden Eingabe übereinstimmt, die die Computervorrichtung mit einer entsprechenden Funktion assoziiert, die durch die Computervorrichtung ausführbar ist. Das Verfahren umfasst weiterhin Erzeugen, durch die Computervorrichtung und in Antwort auf das Bestimmen, dass die erfasste Kraft mit der entsprechenden Eingabe übereinstimmt, einer nicht-visuellen Ausgabe auf der Grundlage der entsprechenden Funktion.
  • In einem weiteren Beispiel umfasst eine Computervorrichtung zumindest einen Prozessor. Der zumindest eine Prozessor ist konfiguriert, um eine Angabe einer erfassten Kraft zu empfangen, die auf die Computervorrichtung wirkt. Der zumindest eine Prozessor ist weiterhin konfiguriert, um zu bestimmen, dass erfasste Kraft mit einer entsprechenden Eingabe übereinstimmt, die der zumindest einen Prozessor mit einer entsprechenden Funktion assoziiert, die durch den zumindest einen Prozessor ausführbar ist. Der zumindest eine Prozessor ist weiterhin konfiguriert, um in Antwort auf das Bestimmen, dass die erfasste Kraft mit der entsprechenden Eingabe übereinstimmt, eine nicht-visuelle Ausgabe auf der Grundlage der entsprechenden Funktion zu erzeugen.
  • In einem weiteren Beispiel umfasst ein computerlesbares Speichermedium Anweisungen, die durch den zumindest einen Prozessor ausführbar sind, um durch den zumindest einen Prozessor eine Angabe einer erfassten Kraft zu empfangen, die auf die Computervorrichtung wirkt. Die Anweisungen sind weiterhin durch den zumindest einen Prozessor ausführbar, um durch den zumindest einen Prozessor zu bestimmen, dass die erfasste Kraft mit einer entsprechenden Eingabe übereinstimmt, die der zumindest eine Prozessor mit einer entsprechenden Funktion assoziiert, die durch den zumindest einen Prozessor ausführbar ist. Die Anweisungen sind weiterhin durch den zumindest einen Prozessor ausführbar, um in Antwort auf das Bestimmen, dass die erfasste Kraft mit der entsprechenden Eingabe übereinstimmt und durch den zumindest einen Prozessor, eine nicht-visuelle Ausgabe auf der Grundlage der entsprechenden Funktion zu erzeugen.
  • Die Einzelheiten eines oder mehrerer Ausführungsbeispiele sind nachstehend in den beiliegenden Zeichnungen und der Beschreibung dargelegt. Andere Merkmale, Aufgaben und Vorteile werden aus der Beschreibung und den Zeichnungen sowie aus den Patentansprüchen offensichtlich werden.
  • Figurenliste
  • Es zeigen:
    • 1 eine perspektivische Darstellung, die einen Benutzer zeigt, der mit einer Beispielcomputervorrichtung interagiert, die konfiguriert ist, um nicht-visuelle Ausgaben in Antwort auf kraftbasierte Eingaben gemäß Ausgestaltungen der Offenbarung zu erzeugen;
    • 2 eine schematische Darstellung, die eine beispielhafte mobile Computervorrichtung zeigt, die konfiguriert ist, um nicht-visuelle Ausgaben in Antwort auf kraftbasierte Eingaben gemäß Ausgestaltungen der vorliegenden Offenbarung zu erzeugen;
    • 3 bis 6 Beispielgraphen einer Beschleunigung über der Zeit entsprechend kraftbasierten Eingaben gemäß Erfassung durch eine Beschleunigungsmesseinrichtung, die betriebsfähig mit einer mobilen Computervorrichtung verbunden ist, gemäß Ausgestaltungen der vorliegenden Offenbarung;
    • 7 eine Computervorrichtung mit einer graphischen Benutzerschnittstelle (GUI, graphical user interface) und zum Ausgeben von GUI-Inhalt für einen repräsentativen Abschnitt einer beispielhaften Benutzerkonfigurationsabschnittstelle für eine nicht-visuelle E/A-Anwendung, die nicht-visuelle Ausgaben in Antwort auf kraftbasierte Eingaben erzeugt, gemäß Ausgestaltung der vorliegenden Offenbarung; und
    • 8 ein Ablaufdiagramm, das einen Beispielvorgang zeigt, der durch eine Computervorrichtung durchgeführt werden kann, um nicht-visuelle Ausgaben in Antwort auf Eingaben zu erzeugen, die erfassten Kräften entsprechen, gemäß Ausgestaltungen der Offenbarung.
  • Die verschiedenen beschriebenen Merkmale sind nicht maßstabsgetreu aufgetragen und sind in einer vereinfachten Form gezeichnet, in der ein oder mehrere Merkmale, die für die vorliegende Anmeldung relevant sind, betont sind. Gleiche Bezugszeichen bezeichnen gleiche Elemente durch die Figuren und den Text hindurch.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Techniken und Verfahren sind hier offenbart, durch die eine Computervorrichtung kraftausgelöste nicht-visuelle Antworten auf Benutzereingaben bereitstellen kann. In einigen Implementierungen können solche Antworten durch die mobile Computervorrichtung ausgegeben werden, ohne dass der Benutzer auf einen Berührschirm oder eine Tastatur zugreift, und ohne dass der Benutzer die Computervorrichtung ansehen oder zur Hand nehmen müsste. Techniken dieser Offenbarung können ebenso neue Gelegenheiten für tragbare Computer und zum Interagieren mit einer Vorrichtung ohne das Stören einer persönlichen sozialen Interaktion bereitstellen. Techniken dieser Offenbarung können ebenso eine Vorrichtungszugänglichkeit für Benutzer mit sensorischen Beeinträchtigungen bereitstellen, oder innerhalb des Kontextes des Betriebs eines Fahrzeugs oder einer anderen Maschine.
  • Diese Offenbarung ist weiterhin auf eine Computervorrichtung gerichtet, die beschleunigungsbasierte oder pressungsbasierte Eingaben empfängt, die in Antwort darauf nicht-visuelle Ausgaben ausgibt, wie Audio- oder Vibrationsausgaben. Diese nicht-visuellen Ausgaben, die in Antwort auf den Empfang von beschleunigungsbasierten oder pressungsbasierten Eingaben (zusammenfassend als „kraftbasierte Eingaben“ bezeichnet) können im Allgemeinen als kraftausgelöste nicht-visuelle Antworten bezeichnet werden. In einigen Beispielen kann die Computervorrichtung nicht-visuelle Antworten ausgeben, während ein präsenzempfindlicher Schirm der Vorrichtung aus oder gesperrt ist. Das Erzeugen von kraftausgelösten nicht-visuellen Antworten kann einen Benutzer in die Lage versetzen, auf eine Funktionalität einer Computervorrichtung zuzugreifen, ohne den Prozess zum Entsperren oder Einschalten des Vorrichtungsschirms zu durchlaufen und ohne die Computervorrichtung direkt zur Hand zu nehmen. Ein Benutzer kann die Funktionen der Computervorrichtung verwenden, während die Computervorrichtung in der Tasche des Benutzers verbleibt, wobei der Benutzer die Vorrichtung zum Beispiel durch das Tuch der Hose des Benutzers antippt. Ein Benutzer kann ebenso eine Computervorrichtung antippen oder pressen, um bestimmte Merkmale zu aktivieren, ohne die Computervorrichtung ansehen zu müssen, zum Beispiel in einer Situation, in der der Benutzer ein Fahrzeug führt. Kraftausgelöste nicht-visuelle Antworten können in einigen Beispielen ebenso als ein Zugänglichkeitsmerkmal für Benutzer dienen, die eine visuelle Beeinträchtigung aufweisen.
  • Eine Computervorrichtung kann irgendwelche kraftbasierten Eingaben verwenden, die durch irgendeine Art von Kraftsensor erfasst werden können, wie eine Beschleunigungsmesseinrichtung oder einen Komprimierungs-/Presssensor. Eine Computervorrichtung kann auf kraftbasierte Eingaben in Form irgendeiner Eingabe antworten, die durch eine Beschleunigungsmesseinrichtung, einen Komprimierungs-/Presssensor oder andere Sensoren erfassbar ist. Diese kraftbasierten Eingaben können ein Antippen, Pressen, Schütteln oder Rotieren der Computervorrichtung erfassen. Die Computervorrichtung kann ebenso diese kraftbasierten Eingaben mit Eingaben aus einem Sensor mit globalem Positionierungssystem (GPS), einem Sensor für eine Zell/WiFi-Position, einem Berührschirm, einem Lichtsensor, einem Magnetfeldsensor, einem Nahfeldkommunikations-(NFC, near field communication)-Anhängersensor usw. kombinieren (zusammenfassend als „nicht-kraftbasierte Eingaben bezeichnet). Eine Computervorrichtung kann auf eine Kombination kraftbasierter Eingaben und nicht-kraftbasierter Eingaben antworten, um zusätzliche Modi der Interaktion zum Antworten auf kraftbasierte Eingaben vorzusehen.
  • Als ein Beispiel einer nicht-visuellen Ausgabe, die eine Computervorrichtung in Antwort auf kraftbasierte Eingaben erzeugen kann, kann eine Computervorrichtung auf eine Antippeingabe unter Verwendung einer Sprachsynthese antworten, um eine Sprachaudioausgabe zu erzeugen. Diese kraftausgelöste Sprachaudioausgabe kann die momentane Tageszeit, Kalenderereignisse für den Tag, Nachrichtenüberschriften, eine Wettervorhersage, ausgewählte Börsenkurse oder Marktindizes oder den Namen und die Telefonnummer eines Anrufers umfassen, falls der Benutzer die Computervorrichtung antippt, während er zum Beispiel einen ankommenden Telefonanruf erhält. Die Computervorrichtung kann auf einen Telefonanruf antworten, der über ein traditionelles Telefonienetzwerk oder über ein paketbasiertes Netzwerk übermittelt wird, wie zum Beispiel eine webbasierte Anwendung über das Internet. Die Computervorrichtung kann verschiedene Antworten auf verschiedene Antippeingaben während eines ankommenden Telefonanrufs bereitstellen. In einem einzelnen Beispiel, falls ein Ruf ankommt, kann die Computervorrichtung auf einen einzelnen Antippvorgang durch Antworten auf den Ruf auf einem Lautsprecher antworten, kann auf zwei Antippvorgänge durch Erzeugen einer Sprachsyntheseausgabe antworten, die den Namen des Rufers und dessen Telefonnummer angibt, oder kann auf drei Antippvorgänge antworten, indem der ankommende Ruf stummgeschaltet wird, zum Beispiel indem ein Klingeln oder eine Vibrationsausgabe gestoppt wird.
  • Eine Computervorrichtung kann ebenso verschiedene Antworten auf eine Antippeingabe oder eine andere kraftbasierte Eingabe nachfolgend einer Audio- oder Vibrationsausgabe bereitstellen, die die Ankunft einer neuen E-Mail, einer Textnachricht oder einer Benachrichtigung eines sozialen Netzwerks angibt. Eine Computervorrichtung kann zum Beispiel auf verschiedene Antippeingaben oder andere kraftbasierte Eingaben antworten, indem eine Sprachsyntheseausgabe erzeugt wird, die den Sender der Nachricht identifiziert, oder die die Nachricht dem Benutzer vorliest, oder indem Vibrationsausgaben oder andere Ausgaben, die identifizieren, ob der Anrufer oder der Nachrichtensender sich auf einer Liste hochwertiger Kontakte befindet. In anderen Beispielen kann eine Computervorrichtung auf verschiedene Antippeingaben oder andere kraftbasierte Eingaben antworten, indem eine interaktive Anwendung unter Verwendung von Sprachsyntheseaudioausgaben in Antwort auf Spracheingaben verwendet wird, wie für eine Websuche, eine Kartensuche oder eine Straßennavigation.
  • In anderen Beispielen kann eine Computervorrichtung andere Arten von nicht-visuellen Antworten neben den Audio- und Vibrationsausgaben in Antwort auf kraftbasierte Eingabe - potenziell in Kombination mit den Audio- und Vibrationsausgaben - erzeugen. In verschiedenen Beispielen kann eine Computervorrichtung auf verschiedene kraftbasierte Eingaben durch Erzeugen einer Ausgabe antworten, um in einen Ort auf einer ortsbasierten App einzuchecken; um eine lokale Gruppe gemeinsamer Verwendung zu öffnen, um Dateien oder andere Daten in anderen lokalen Computervorrichtungen gemeinsam zu verwenden; eine Positionsverfolgungsroute (mit einer Verfolgung durch ein GPS, eine WiFi-Navigation usw.) in einer Routenverfolgungsanwendung zu beginnen oder zu beenden; um einen Ort für eine geographische App zu markieren; um mit entfernten Steuerapps zu interagieren, wie um das Auto des Benutzers zu entriegeln und verriegeln oder den Motor zu starten, oder um den Fernseher des Benutzers ein- oder auszuschalten; oder um einen Audiorecorder mit einer Transkription zu starten, was das Einsparen eines Notepads oder einer Wordverarbeitungsapp oder das Öffnen einer E-Mail-App und das Transkribieren eines E-Mail-Nachrichtenentwurfs umfassen kann.
  • Eine Computervorrichtung kann einen initialen voreingestellten Satz von nicht-visuellen Antworten entsprechend verschiedenen kraftbasierten Eingaben aufweisen. Eine Computervorrichtung kann ebenso die nicht-visuellen Antworten in die Lage versetzen, die sie entsprechend verschiedenen kraftbasierten Eingaben erzeugt, um durch den Benutzer konfigurierbar zu sein. In einem einzelnen Beispiel kann eine Computervorrichtung eine initiale Voreinstellung aufweisen, um auf einen einzelnen Antippvorgang durch Erzeugen einer Sprachsyntheseausgabe zu antworten, die die momentane Tageszeit angibt, um auf zwei Vorgänge durch Erzeugen einer Sprachsyntheseausgabe zu antworten, die verbleibende Ereignisse für den Tag aus einer Kalenderanwendung angibt, und um auf die drei Antippvorgänge durch Erzeugen einer Sprachsyntheseausgabe zu antworten, die eine momentane lokale Wettervorhersage angibt. Die Computervorrichtung kann Optionen für einen Benutzer vorsehen, um die Antworten, die durch diese Ausgaben erzeugt sind, zu rekonfigurieren, und um jedwede anderen entsprechenden Funktionen für Eingabemuster in die Beschleunigungsmesseinrichtung, einen Kompressionssensor oder einen anderen Kraftsensor - potenziell ebenso abhängig von anderen Sensoreingaben oder -zuständen - zu setzen. Ein Beispiel einer Computervorrichtung, die Merkmale wie jene vorstehend beschriebenen implementiert, ist in 1 gezeigt.
  • 1 zeigt eine perspektivische Darstellung, die einen Benutzer 1 zeigt, der mit einer beispielhaften Computervorrichtung 10 interagiert, die so konfiguriert ist, um nicht-visuelle Ausgaben in Antwort auf kraftbasierte Eingaben gemäß Ausgestaltungen der vorliegenden Offenbarung zu erzeugen. Die Computervorrichtung 10 befindet sich in dieser Ansicht innerhalb der Tasche des Benutzers. Wie in dem Beispiel gemäß 1 gezeigt, tippt der Benutzer auf die Computervorrichtung 10 innerhalb der Taschen des Benutzers, wobei die Computervorrichtung 10 dies als eine Antippeingabe 14 erfasst und interpretiert. Die Antippeingabe 14 kann ein einzelnes Antippen, zwei oder mehr Antippen, ein Pressen, eine Schwingungsbeschleunigung, die angibt, dass die mobile Computervorrichtung geschüttelt wird, oder ein anderes Muster an Kraft oder Bewegung umfassen, die auf die Computervorrichtung 10 wirkt. Die Computervorrichtung 10 kann die Antippeingabe 14 mit gespeicherten kraftbasierten Eingabeparametern vergleichen, die mit einer oder mehreren entsprechenden Funktionen assoziiert sein können, die durch die mobile Computervorrichtung 10 ausführbar sind.
  • Die Antippeingabe 14 kann eine Sequenz sein, die zum Beispiel sowohl ein einzelnes Tippen als auch ein nachfolgendes Doppeltippen umfassen kann. In diesem Beispiel kann die Computervorrichtung 10 eine einzelne Antippeingabe mit einer entsprechenden Funktion zur Ausgabe einer momentanen Zeit unter Verwendung von Daten aus einer Uhranwendung assoziieren, während die Computervorrichtung 10 eine Doppelantippeingabe mit einer entsprechenden Funktion zur Ausgabe von Informationen aus oder bezüglich unlängst empfangener E-Mails unter Verwendung von Daten aus einer E-Mailanwendung assoziieren kann. In Antwort auf die Bestimmung, dass die erfassten Kräfte mit den entsprechenden Eingaben übereinstimmen, d. h. die gespeicherten Eingabeparameter, die mit den entsprechenden Funktionen assoziiert sind, führt die Computervorrichtung 10 die entsprechenden Funktionen aus, d. h. in diesem Beispiel Ausgeben der momentanen Zeit und Informationen bezüglich unlängst empfangener E-Mails. Das Ausführen der entsprechenden Funktionen umfasst, dass die Computervorrichtung 10 nicht-visuelle Ausgaben auf der Grundlage der entsprechenden Funktionen erzeugt, wie die Computervorrichtung 10, die in diesem Beispiel eine Sprachsyntheseaudioausgabe 16 der momentanen Zeit und mit Informationen bezüglich unlängst empfangener E-Mails erzeugt. In anderen Beispielen kann die Computervorrichtung 10 auf ein einzelnes Tippen oder ein Doppeltippen oder eine andere kraftbasierte Eingabe antworten, indem eine Sprachsyntheseaudioausgabe zum Beispiel mit Informationen aus unlängst empfangenen Textnachrichten unter Verwendung von Daten aus einer Textnachrichtenanwendung oder aus unlängst empfangenen Aktualisierungen eines sozialen Netzwerks unter Verwendung von Daten aus einer Anwendung eines sozialen Netzwerks erzeugt wird.
  • In einem weiteren Beispiel kann die Computervorrichtung 10 verschiedene Eingaben aus nachfolgenden Antippeingaben innerhalb einer Zeitspanne nach einer initialen Antippeingabe oder nach einer Antwort auf die erste Eingabe durch die Computervorrichtung 10 interpretieren. Der Benutzer kann zum Beispiel die Computervorrichtung 10 antippen, um eine erste Eingabe einzugeben, um die Computervorrichtung 10 zu veranlassen, um eine Audioausgabe zu erzeugen, wie die momentane Zeit. Der Benutzer kann daraufhin einen oder mehrere weitere Antippvorgänge innerhalb einer Zeitspanne nach der initialen Audioausgabe eingeben, wie ein nachfolgender einzelner Antippvorgang, um die Computervorrichtung 10 zu veranlassen, um eine Audioausgabe mit Kalenderinformationen für bevorstehende Termine zu erzeugen. Diese Eingabe und Ausgabeantworten können derart erweitert werden, dass eine weitere einzelne Antippeingabe innerhalb einer bestimmten Zeitspanne nach der Kalenderaudioausgabe die Computervorrichtung 10 veranlassen kann, eine weitere andere Ausgabe zu erzeugen, wie Informationen bezüglich unlängst empfangener E-Mails oder momentaner Börsenmarktdaten. Die Computervorrichtung 10 kann ebenso die Eingaben und Ausgaben für diese Sequenzen von kraftbasierten Eingaben befähigen, benutzerkonfigurierbar zu sein. Die Computervorrichtung 10 kann in einigen Beispielen eine Zeitspanne zum Akzeptieren eines nachfolgenden Antippvorgangs definieren, so dass diese nicht zu bald nach einem vorigen Antippvorgang beginnt, um eine Verwechslung mit einer doppelten Antippeingabe zu vermeiden, und so dass diese nicht zu lange verlängert wird, um eine Verwechslung mit einer späteren nicht-zusammenhängenden Antippeingaben oder Zufallsbewegungen zu verhindern.
  • Die Computervorrichtung 10 kann eine Logikschaltung umfassen, um zwischen bestimmten Tippeingaben oder anderen kraftbasierten Benutzereingaben oder gewöhnlichen Bewegungen zu unterscheiden, die nicht als kraftbasierte Benutzereingaben beabsichtigt sind, die wiederum beabsichtigen, nicht-visuelle Ausgaben herbeizuführen. Die Computervorrichtung 10 kann ebenso irgendeine verschiedene Ausgestaltungen eines Kontext als einen Teil zur Unterscheidung beabsichtigter kraftbasierter Benutzereingaben von Nichteingabebewegungen zu unterscheiden. Die Computervorrichtung 10 kann zum Beispiel davon absehen, erfasste Kräfte zur Erzeugung von Audioausgaben zu verarbeiten, wenn ein Stummschalter auf der Computervorrichtung 10 auf Stummschalten gestellt ist. Als ein weiteres Beispiel kann die Computervorrichtung 10 bestimmen, ob die Kraft wirkt, während eine präsenzempfindliche Anzeige (die in 1 nicht gezeigt ist), die betriebsfähig mit der mobilen Computervorrichtung verbunden ist, sich in einem aktivierten Zustand oder einem deaktivierten Zustand befindet, zum Beispiel ob die präsenzempfindliche Anzeige entweder aus oder gesperrt ist oder während ein Kopfhörer oder eine andere externe Audiovorrichtung in einen Audioanschluss eingesteckt ist, so dass die Computervorrichtung 10 ihre voreingestellten Audiolautsprecher in einem deaktivierten Zustand aufweist.
  • Die Computervorrichtung 10 kann ebenso davon absehen, erfasste Kräfte zur Erzeugung von Audioausgaben zu verarbeiten, falls die Computervorrichtung 10 bestimmt, dass eine gegebene Ausgabekomponente, wie die präsenzempfindliche Anzeige oder das voreingestellte Audioausgabesystem sich in einem inaktivierten Zustand befinden. In dem vorstehend beschriebenen Beispiel, das eine präsenzempfindliche Anzeige involviert, falls die Computervorrichtung 10 bestimmt, dass die Kraft bewirkte, während die präsenzempfindliche Anzeige sich in einem deaktivierten Zustand befand, kann dann die Computervorrichtung 10 in Antwort darauf die entsprechende Funktion ausführen und die nicht-visuelle Ausgabe erzeugen. Die Computervorrichtung 10 kann die präsenzempfindliche Anzeige in dem deaktivierten Zustand halten, während die nicht-visuelle Ausgabe erzeugt wird. In dem vorstehend beschriebenen Beispiel, das Kopfhörer involviert, kann die Computervorrichtung 10 Audioausgaben womöglich lediglich auf die Bestimmung hin erzeugen, dass die Kraft wirkte, während der Kopfhörer in den Audioanschluss eingesteckt war. Die Computervorrichtung 10 kann zum Beispiel Audioausgaben auf der Grundlage einer Text-zu-Sprache-Verarbeitung von E-Mails erzeugen, um E-Mails laut für den Benutzer vorzulesen, falls in diesem Beispiel lediglich ein Kopfhörer in die Computervorrichtung 10 zu dem Zeitpunkt eingesteckt ist, zu dem der Benutzer die geeigneten Tippeingaben eingibt.
  • Die Computervorrichtung 10 basiert ihre Ausgaben teilweise darauf, ob eine präsenzempfindliche Anzeige sich in einem deaktivierten Zustand befindet oder ob ein Kopfhörer in einen Audioanschluss eingesteckt ist, so sind dies verdeutlichende Beispiele kontextsensitiver Ausgabemodi. Die Computervorrichtung 10 kann eine Vielfalt anderer kontextsensitiver Ausgabemodi anwenden, um zu bestimmen, welcher Ausgabekanal für Ausgaben in Antwort auf kraftbasierte Benutzereingaben zu verwenden ist. Andere kontextsensitive Ausgabemodi können zum Beispiel die Präsenz oder das Fehlen eines ausgewählten Bluetooth, NFC, Wifi oder elektromagnetischen Signals umfassen. In verschiedenen Beispielen kann die Computervorrichtung 10 eine kommunikationsfähige Verbindung mit einem nahegelegenen Autostereosystem, Heimstereosystem oder anderem Audioabspielsystem über Bluetooth oder eine andere kommunikative Anbindung einrichten, und kann ihre Audioausgaben über die Kommunikationsanbindung senden, um durch das verbundene Audiosystem ausgegeben zu werden. Als ein weiteres Beispiel eines kontextsensitiven Ausgabemodus kann die Computervorrichtung 10 durch eine oder mehrere aus einer Beschleunigungsmesseinrichtung, Wifi-Netzwerken, einem GPS-Sensor usw. erfassen, ob sie sich mit Geschwindigkeiten und Bewegungseigenschaften eines Motorfahrzeugs bewegt, und kann Audioausgaben teilweise auf der Grundlage der Erfassung erzeugen, dass ein Kraftfahrzeugkontext oder ein „Fahrtmodus“ anwendbar ist.
  • Verschiedene kontextsensitive Ausgabemodi können in einigen Beispielen kombiniert werden. Die Computervorrichtung 10 kann zum Beispiel konfiguriert werden, um ein Bluetoothsignal aus dem eigenen Auto des Benutzers zu erkennen und lediglich eine Erzeugung von Audioausgaben - in Antwort entweder auf das Bluetoothsignal aus dem Auto des Benutzers hin oder wenn sich die Computervorrichtung 10 in einem bewegten Fahrzeug befindet und Kopfhörer in den Audioanschluss eingesteckt sind - beginnen. Die Computervorrichtung 10 kann somit die Erzeugung von Audioausgaben laut nach außen hin vermeiden, während der Benutzer in einem Bus oder einer Straßenbahn fährt. Die Computervorrichtung 10 kann ebenso den Benutzer zu einer Bestätigung auffordern, bevor mit Audioausgaben geantwortet wird, wie durch Fragen „ist es in Ordnung, E-Mails laut vorzulesen?“ und durch Fortsetzen lediglich dann, falls sie eine bestimmte bestätigende kraftbasierte Benutzereingabe in Antwort darauf erhält, wie zum Beispiel ein doppeltes Antippen. Die Computervorrichtung 10 kann in verschiedenen Beispielen jede dieser Einstellungen befähigen, durch den Benutzer konfiguriert zu werden.
  • Die Computervorrichtung 10 kann deshalb kraftbasierte Benutzereingaben akzeptieren und durch Erzeugung von Audioausgaben oder anderen nicht-visuellen Ausgaben antworten. Als ein weiteres Beispiel einer nicht-visuellen Ausgabe kann die Computervorrichtung 10 Vibrationsausgaben in Antwort auf spezifische kraftbasierte Benutzereingaben erzeugen, wie entweder eine oder zwei Vibrationen zur Kommunikation von Informationen. Die Computervorrichtung 10 kann zum Beispiel konfiguriert sein, so dass wenn der Benutzer eine spezifische kraftbasierte Eingabe eingibt, wie einen Satz von zwei Tippvorgängen, dann die Computervorrichtung 10 prüft, ob ein bestimmter Kontakt, zu dem der Benutzer eine Kalendereinladung in einer Kalenderanwendung sendete, eine Antwort sendete, um die Kalendereinladung zu akzeptieren. Die Computervorrichtung 10 kann zum Beispiel konfiguriert sein, um auf diese kraftbasierte Eingabe durch Ausgeben einer einzelnen Spanne einer Vibration zu antworten, falls der Kontakt eine Antwort sendete, um die Kalendereinladung zu akzeptieren, eines Satzes von zwei Spannen der Vibration, falls der Kontakt noch nicht geantwortet hat, oder eines Satzes von drei Spannen der Vibration, falls der Kontakt antwortete, um die Kalendereinladung abzulehnen.
  • Das Erzeugen von Vibrationsausgaben als nicht-visuelle Ausgaben in Antwort auf kraftbasierte Benutzereingaben kann die Computervorrichtung 10 in die Lage versetzen, einfache und subtile Modi der Benutzerinteraktion bereitzustellen, die praktischer und/oder sozialverträglicher als das Eingeben von Eingaben und das Ansehen von Ausgaben auf einem Anzeigeschirm in einigen Zusammenhängen sein kann. Die Computervorrichtung 10 kann eine Fähigkeit für den Benutzer vorsehen, um kraftbasierte Eingaben und entsprechende nicht-visuelle Ausgaben zu konfigurieren, um jedwede eines weiten Bereichs spezifischer Informationen und/oder zur Interaktion mit irgendeiner Art von Softwareanwendung zu involvieren.
  • Die Computervorrichtung 10 kann eine Anzahl verschiedener Sensoren umfassen oder mit diesen betriebsfähig verbunden sein, die in der Lage sein können, Kräfte zu erfassen, die auf die Computervorrichtung wirken, wie eine Beschleunigungsmesseinrichtung, ein Kompressionssensor oder ein akustischer Sensor beispielsweise, und kann Eingaben aus einem oder mehreren Sensoren bei der Bestimmung verwenden, ob eine erfasste Kraft mit einer kraftbasierten Eingabe in Einklang steht und mit dieser übereinstimmt. Die Computervorrichtung 10 kann die Eigenschaften erfasster Kräfte über der Zeit evaluieren, und kann verschiedene Schritte des Filterns und Verarbeitens erfasster Kräfte anwenden, wie durch anfängliches Überwachen von Sensoreingaben für jedwede potenziell deutliche Krafterfassungsereignis, und kann eine weitere Verarbeitung oder Analyse bezüglich potenziell bedeutsamer Krafterfassungsereignisse durchführen, um zu bestimmen, ob diese mit einem gespeicherten Profil für eine entsprechende kraftbasierte Eingabe übereinstimmen. Die Computervorrichtung 10 kann ebenso potenziell signifikante Krafterzeugungsereignisse mit anderen Ausgestaltungen ihres betrieblichen Kontextes vergleichen, so wie wenn die Kraft durch einen ankommenden Telefonanruf erfasst wurde, auf den nicht geantwortet wurde, oder bald nachdem die Computervorrichtung 10 einen Alarm für eine ankommende Textnachricht oder E-Mail erzeugte, wie nachstehend ausführlicher beschrieben ist.
  • Die Computervorrichtung 10 kann auf vielfältige Arten und Weisen implementiert werden, wie beispielsweise als ein Smartphone, ein Tabletcomputer, ein Laptopcomputer, ein Netbook, eine tragbare Computervorrichtung oder andere mobile Computervorrichtungen. Die Computervorrichtung 10 kann sich ebenso mit einem drahtgebundenen oder drahtlosen Netzwerk unter Verwendung einer Netzwerkschnittstelle verbinden. Zusätzliche Einzelheiten des Beispiels der Computervorrichtungen sind in weiteren Einzelheiten nachstehend unter Bezugnahme auf die jeweiligen Figuren beschrieben.
  • 2 zeigt eine schematische Darstellung, die eine beispielhafte mobile Computervorrichtung 10 zeigt, die konfiguriert ist, um nicht-visuelle Ausgaben in Antwort auf kraftbasierte Eingaben gemäß Ausgestaltungen der vorliegenden Offenbarung zu erzeugen. Die Computervorrichtung 10 in 2 ist eine beispielhafte Implementierung der Computervorrichtung 10 in 1. Computervorrichtungen der vorliegenden Offenbarung können auf vielfältige Arten und Weisen implementiert werden, wie als ein Smartphone, ein Tabletcomputervorrichtung, eine tragbare Computervorrichtung usw., und können zusätzliche Komponenten jenseits jener der in 2 gezeigten umfassen oder können eine oder mehrere der in 2 gezeigten Komponenten auslassen.
  • Die Computervorrichtung 10, wie in 2 gezeigt, umfasst in diesem Beispiel eine Beschleunigungsmesseinrichtung 222, einen Komprimierungssensor 224 und einen akustischen Sensor 226. Andere Beispiele von Computervorrichtungen können irgendeinen oder mehrere dieser oder anderer Sensoren umfassen, die in der Lage sind, eine Beschleunigung, eine Vibration oder einen anderen Indikator einer wirkenden Kraft zu erfassen. Die Computervorrichtung 10 umfasst ebenso einen oder mehrere Prozessoren, einen Speicher 202, eine Netzwerkschnittstelle 204, eine oder mehrere Datenspeichervorrichtungen 206, eine Stromquelle 208, ein oder mehrere Mikrofone 210, einen oder mehrere Lautsprecher 212, eine oder mehrere Kameras 214 und eine präsenzempfindliche Anzeige 12, die ein Berührschirm oder eine andere präsenzempfindliche Anzeige sein kann. Jede der Komponenten 222, 224, 226, 200, 202, 204, 206, 208, 210, 212, 214 und 12 können miteinander (physikalisch, kommunikationsfähig und/oder betriebsfähig) in irgendeiner Vielfalt physikalischer und/oder kommunikativer Kommunikationseinrichtungen für eine Zwischenkomponentenkommunikation zwischenverbunden sein.
  • Die Computervorrichtung 10 weist ein Betriebssystem 190 auf, das auf der einen oder den mehreren Speichervorrichtungen 206 gespeichert ist und das auf einem oder mehreren Prozessoren 200 ausgeführt werden kann. Das Betriebssystem 190 kann in verschiedenen Beispielen Steueraspekte des Betriebs von Komponenten der Computervorrichtung 10 steuern und den Betrieb von Softwareanwendungen höheren Niveaus erleichtern. Die Computervorrichtung 10 weist in diesem Beispiel Anwendungen 185 auf, die eine nicht-visuelle Eingabe/Ausgabe-(E/A)-Anwendung 120 umfassen können, die durch die Computervorrichtung 10 ausführbar ist. Die nicht-visuelle E/A-Anwendung 120 kann ausführbare Anweisungen umfassen, um einen Teil oder die Gesamtheit der Erfassung von Kräften durchzuführen oder zu vereinfachen, die auf die Computervorrichtung 10 wirken, um zu bestimmen, ob die wirkenden Kräfte mit gespeicherten Parametern für kraftbasierte Eingaben übereinstimmen, Daten oder Ausgaben aus anderen Quellen oder Anwendungen nach Bedarf zu sammeln, um auf die kraftbasierten Eingaben zu antworten, und nicht-visuelle Antworten auf kraftbasierte Eingaben auszugeben, oder jedwede andere Ausgestaltungen dieser Offenbarung, auf die zusammenfassend als eine „nicht-visuelle E/A“ als ein abgekürzter Bezugsausdruck Bezug genommen werden kann. Das Betriebssystem 190 erleichtert in einem Beispiel die Interaktion der nicht-visuellen E/A-Anwendung 120 mit einigen oder allen aus der Beschleunigungsmesseinrichtung 222, einem Komprimierungssensor 204 und einem akustischen Sensor 202, Prozessoren 200, dem Speicher 200, der Netzwerkschnittstelle 204, der Datenspeichervorrichtung 206, der Stromquelle 208, einem oder mehreren Mikrofone 210, einem oder mehreren Lautsprechern 212, einer oder mehreren Kameras 211 und der präsenzempfindliche Anzeige 12.
  • Wie in 2 gezeigt ist, kann die nicht-visuelle E/A-Anwendung 120 ein Eingabemodul 122 und ein Ausgabemodul 124 umfassen. Das Eingabemodul 122 kann zum Beispiel Abschnitte von ausführbarem Kode umfassen, der zur Erfassung von Kräften erforderlich ist, die wiederum auf die Computervorrichtung 10 wirken, und die bestimmen, ob die wirkenden Kräfte mit entsprechenden kraftbasierten Eingaben übereinstimmen, und kann die Ausgabeeinheit 24 zum Beispiel weiterhin Abschnitte aus ausführbarem Kode umfassen, der verantwortlich ist, um die entsprechenden Funktionen durchzuführen und nicht-visuelle Ausgaben auf der Grundlage der entsprechenden Funktionen zu erzeugen.
  • Die nicht-visuelle E/A-Anwendung 120, das Eingabemodul 122 und das Ausgabemodul 124 können jeweils Programmanweisungen und/oder Daten umfassen, die durch die Computervorrichtung 10 oder durch zumindest einen des einen oder der mehreren Prozessoren 200 der Computervorrichtung 10 ausführbar sind. Die nicht-visuelle E/A-Anwendung 120, das Eingabemodul 122 und/oder das Ausgabemodul 124 können computerausführbare Softwareanweisungen umfassen, die die Computervorrichtung 10 veranlassen, irgendeine oder mehrere der Operationen und Maßnahmen durchzuführen, die in der vorliegenden Offenbarung beschrieben sind. In verschiedenen Beispielen kann das Betriebssystem 190 und die Browseranwendung 120 Kode und/oder Daten umfassen, die in der einen oder den mehreren Datenspeichervorrichtungen 206 gespeichert sind und die durch einen oder mehrere Prozessoren 200 gelesen und ausgeführt werden, und kann in dem Prozess zumindest zeitweilig in dem Speicher 202 gespeichert werden.
  • In dieser beispielhaften Implementierung der Computervorrichtung 10 kann das Betriebssystem 190 einen Betriebssystemkernel 192 umfassen, der zum Beispiel verschiedene Vorrichtungstreiber, Kernelerweiterungen und Kernelmodule umfassen kann. Das Betriebssystem 190 kann ebenso einen Satz von Bibliotheken 180 umfassen oder mit diesen interagieren, die wiederum verschiedene mehr oder weniger standardisierte, spezialisierte, Open Source- und/oder proprietäre Bibliotheken umfassen können. Diese können eine spezialisierte Bibliothek, wie ein nicht-visuelles E/A-Rahmenwerk 182 umfassen, das nicht-visuelle E/A-Funktionen gemäß irgendeiner der hier beschriebenen Beispiele durchführen oder unterstützen kann.
  • In einer verdeutlichenden Implementierung der Computervorrichtung 10 kann das Betriebssystem 190 ebenso eine Laufzeit 194 umfassen oder mit dieser interagieren, die wiederum verschiedene Kernbibliotheken 196 und/oder eine virtuelle Maschine 198 umfassen kann, die wiederum die virtuelle Dalvik-Maschine in einer beispielhaften Implementierung sein kann. Die virtuelle Maschine 198 kann bestimmte Aspekte und Eigenschaften der Computervorrichtung 10 abstrahieren und Anwendungen 185 höherer Ebene ermöglichen, auf der virtuellen Maschine 198 zu laufen, so dass der Softwarekode in den Anwendungen 185 höherer Ebene in Bytekode kompiliert werden kann, der durch die virtuelle Maschine 198 auszuführen ist. Die Computervorrichtung 10 kann ebenso ein Anwendungsrahmenwerk 130, das auf der Laufzeit 194 abläuft, und Bibliotheken 180 aufweisen, die Ressourcen umfassen können, um die Ausführung der Anwendungen 185 zu erleichtern, die auf dem Anwendungsrahmenwerk 130 ausgeführt werden. Weitere Ausführungsbeispiele können andere Elemente eines Softwarestacks zwischen dem Betriebssystemkernel 192 und den Anwendungen 185 höherer Ebene umfassen.
  • Das Anwendungsrahmenwerk 130 kann zum Beispiel eine nicht-visuelle E/A-Verwaltungseinrichtung 132 umfassen, die selbst wiederum ausführbare Anweisungen zum Durchführen oder Vereinfachen eines Teils oder der Gesamtheit der Erfassung von Kräften, die auf die Computervorrichtung 10 wirken, die bestimmt, ob die wirkenden Kräfte mit gespeicherten Parametern für kraftbasierte Eingaben übereinstimmen, die Daten oder Ausgaben aus anderen Quellen oder Anwendungen nach Bedarf sammelt, um auf die kraftbasierten Eingaben zu antworten, und die nicht-visuelle Antworten auf die kraftbasierten Eingaben ausgibt, oder jedwede andere Ausgestaltungen in dieser Offenbarung. Die Computervorrichtung 10 kann irgendwelche dieser oder andere nicht-visuelle E/A-Funktionen durchführen oder erleichtern mit irgendeiner oder allen der nicht-visuellen E/A-Anwendung 120, der nicht-visuellen E/A-Verwaltungseinrichtung 132 in dem Anwendungsrahmenwerk 130, dem nicht-visuellen E/A-Rahmenwerk 182 in den Bibliotheken 180 oder in irgendeinem anderen Element des Softwarestacks, das in der Computervorrichtung 10 umfasst ist oder mit diesem betriebsfähig verbunden ist.
  • In verschiedenen Beispielen können ausführbare Anweisungen für Anwendungen oder Softwareelemente, wie eine nicht-visuelle E/A-Anwendung 120, in C geschrieben werden, der als nativer Kode durch die Computervorrichtung 10 ausführbar sein kann; oder kann in Java geschrieben werden, und wird dann in Bytekode kompiliert, der durch die virtuelle Maschine ausführbar ist, um durch die virtuelle Maschine 198 ausgeführt zu werden. In einem gezeigten Beispiel können die Bibliotheken 180 die Standard-C-Bibliothek (libc) umfassen, die eine native Unterstützung für C-Funktionen vorsieht. In verschiedenen Implementierungen kann das Betriebssystem 190 und/oder die virtuelle Maschine 198 in der Lage sein, Kode auszuführen, der in verschiedenen anderen Sprachen, wie zum Beispiel Objekt-C, C-#, C++, Go, JavaScript, Dart, Python, Ruby oder Clojure geschrieben ist, zum Beispiel nativ oder in einen Bytekode kompiliert, der durch die virtuelle Maschine ausführbar ist, oder kompiliert in eine Assemblersprache oder Maschinenkode, der nativ für die CPU der Computervorrichtung 10 ist. Verschiedene Beispiele verwenden womöglich keine virtuelle Maschine, und verwenden Anwendungen, die nativ auf der Computervorrichtung 10C laufen oder die eine andere Technik verwenden, wie einen Compiler, einen Übersetzer oder eine Abstraktionsschicht zur Interpretation einer Sprache höherer Ebene in Kode, der nativ auf der Computervorrichtung 10 läuft.
  • Das GUI-Rahmenwerk 182, die Bibliotheken 180 oder in einer anderen Ausgestaltung das Betriebssystem 190 oder der Softwarestapel, der den Anwendungen 185 unterlagert ist, können Kode umfassen, um einen Teil oder die Gesamtheit der Funktionalität zum Durchzuführen nicht-visueller E/A, zum Beispiel die Erfassung kraftbasierter Eingaben und das Erzeugen nicht-visueller Ausgaben auf der Grundlage von Funktionen, die mit den entsprechenden kraftbasierten Eingaben übereinstimmen, gemäß irgendeiner der hier beschriebenen Beispiele durchzuführen und können diese Funktionalität auf einer darunter liegenden Ebene für Anwendungen 185 abstrahieren. Der Kode zur Implementierung der Funktionalität irgendeiner der Ausgestaltungen dieser Offenbarung kann deshalb in irgendeiner Ebene oder einem Abschnitt des gesamten Softwarestacks umfasst sein, der auf der Computervorrichtung 10 läuft, oder der betriebsfähig für die Computervorrichtung 10 zugreifbar ist, wie in einer Webanwendung oder in einem anderen Programm, das auf Ressourcen außerhalb der Computervorrichtung 10 ausgeführt wird, das aber mit der Computervorrichtung 10 interagiert, wie zum Beispiel über HTTP über eine drahtlose Verbindung.
  • In verschiedenen Beispielen kann die Computervorrichtung 10 ebenso verschiedene Anwendungsprogrammierschnittstellen (APIs, application programming interfaces) aufweisen, die für das Betriebssystem 190 nativ sind und die auf dem Betriebssystem 190 laufen, und die beabsichtigen, Ressourcen bereitzustellen, die Anwendungen höherer Ebene automatisieren oder erleichtern, die auf die eine oder mehreren APIs zugreifen. Diese eine oder mehreren APIs können Objektbibliotheken und andere Bibliotheken, Werkzeugsätze oder Rahmenwerke umfassen und können mit einer nativen Programmierungsumgebung zum Schreiben von Anwendungen assoziiert sein. Die Computervorrichtung 10C kann ebenso eine verschiedene spezifische Organisation von APIs, Bibliotheken, Rahmenwerken, der Laufzeit und/oder der virtuellen Maschine aufweisen, die mit dem Betriebssystem 190 assoziiert oder auf diesem aufgebaut ist, die von der in 2 gezeigten Beispielorganisation verschieden sind.
  • Anwendungen höherer Ebene, wie eine nicht-visuelle E/A-Anwendung 120, kann deshalb irgendeine aus verschiedenen Abstraktionen, Eigenschaften, Bibliotheken oder Funktionen unterer Ebenen verwenden, die durch irgendeines des Betriebssystems 190 , des BS-Kernels 192, der Bibliotheken 180, dem nicht-visuellen E/A-Rahmenwerk 182 , der Laufzeit 194, der Kernbibliotheken 196, der virtuellen Maschine 198 oder anderen Compilern, Übersetzern, Rahmenwerken, APIs oder anderen Arten von Ressourcen oder irgendeiner Kombination derer vorgesehen werden, mit denen die Computervorrichtung 10 konfiguriert ist, um Funktionen, wie das Erfassen von kraftbasierten Eingaben und das Erzeugen nicht-visueller Ausgaben auf der Grundlage von Funktionen, die mit den entsprechenden kraftbasierten Eingaben übereinstimmen, und andere Funktionen zu ermöglichen, die hier beschrieben sind.
  • Der eine oder die mehreren Prozessoren 200 können in verschiedenen Beispielen konfiguriert sein, um eine Funktionalität und/oder Prozessanweisungen zur Ausführung innerhalb der Computervorrichtung 10 zu implementieren. Die Prozessoren 200 können zum Beispiel in der Lage sein, in einem Speicher 202 gespeicherte Anweisungen oder auf Datenspeichervorrichtungen 206 gespeicherte Anweisungen zu verarbeiten. Die Computervorrichtung 10 kann mehrere Prozessoren umfassen, und kann bestimmte Tasks unter verschiedenen Prozessoren aufteilen. Die Prozessoren 200 können zum Beispiel eine zentrale Verarbeitungseinheit (CPU) umfassen, die einen oder mehrere Verarbeitungskerne umfassen kann. Die Prozessoren 200 können ebenso eine oder mehrere graphische Verarbeitungseinheiten (GPUs, graphics processing units) und/oder zusätzliche Prozessoren umfassen. Die Prozessoren 200 können für eine Multi-Thread-Verarbeitung konfiguriert sein. Die Prozessoren 200 und/oder das Betriebssystem 190 können Tasks unter verschiedenen Prozessoren oder Prozessorkernen gemäß bestimmten Kriterien aufteilen, wie eine Optimierung der Benutzererfahrung. Verschiedene Tasks oder Abschnitte von Tasks können ebenso unter verschiedenen Schichten der Software und Hardware aufgeteilt werden.
  • Der Speicher 202 kann in verschiedenen Beispielen konfiguriert sein, um Informationen innerhalb der Computervorrichtung 10 während des Betriebes zu speichern. Der Speicher 202 kann in verschiedenen Beispielen ein computerlesbares Speichermedium sein. In verschiedenen Beispielen ist der Speicher ein zeitweiliger Speicher, und verlässt sich die Computervorrichtung 10 mehr auf eine oder mehrere Datenspeichervorrichtungen anstelle des Speichers 202 zur langfristigen Speicherung. Der Speicher 202 kann in verschiedenen Beispielen ein flüchtiger Speicher sein, was bedeutet, dass der Speicher 202 gespeicherte Inhalte womöglich nicht für eine lange Dauer beibehält, wenn er erst einmal nicht mehr Strom führt, wie wenn die Computervorrichtung 10 abgeschaltet wird. Beispiele flüchtiger Speicher, die den Speicher 202 charakterisieren können, umfassen Speicher mit wahlfreiem Zugriff (RAM, random access memories), dynamische Speicher mit wahlfreiem Zugriff (DRAM), statische Speicher mit wahlfreiem Zugriff (SRAM) und andere Formen flüchtiger Speicher. In verschiedenen Beispielen kann der Speicher 202 verwendet werden, um Programmanweisungen zur Ausführung durch die Prozessoren 200 zu speichern. Der Speicher 202 kann in verschiedenen Beispielen durch Software oder Anwendungen verwendet werden, die auf der Computervorrichtung 10 laufen, um zeitweilig Daten und/oder Softwarekode während der Ausführung einer Anwendung zu speichern.
  • Eine oder mehrere Datenspeichervorrichtungen 206 können in verschiedenen Beispielen ein computerlesbares Speichermedium oder mehrere computerlesbare Speichermedien umfassen. Die Datenspeichervorrichtungen 206 können konfiguriert sein, um größere Beträge an Informationen zu speichern, als der Speicher 202 dies kann. Die Datenspeichervorrichtungen 206 können weiterhin für eine langfristige Speicherung von Informationen konfiguriert sein. In verschiedenen Beispielen umfassen die Datenspeichervorrichtungen 206 nicht-flüchtige Speicherelemente. Beispiele derartiger nichtflüchtiger Speicherelemente umfassen magnetische Festplatten, optische Platten, Disketten, Flashspeicher oder Formen von elektrisch programmierbaren Speichern (EPROM) oder elektrisch löschbaren und programmierbaren (EEPROM) Speichern. In verschiedenen Beispielen kann der Speicher 202 ebenso für eine langfristige Datenspeicherung konfiguriert sein, und irgendeine einer Vielfalt von Technologien kann die Grenzen zwischen dem Speicher und dem Datenspeicher und zwischen flüchtig und nicht-flüchtig verwischen. Der Speicher 202 und die Datenspeichervorrichtungen 206 können ebenso irgendeine aus verschiedenen Caches, Puffern und anderen zeitweiligen Speichern umfassen, die auf verschiedenen Ebenen einer Verarbeitungsarchitektur eingefasst sein können und mit verschiedenen Latenzen und Kapazitätsprofilen einschließlich eines dedizierten Caches, der exklusiv für einen Verarbeitungskern oder einen Verarbeitungschip vorliegt.
  • Die Computervorrichtung 10 kann in verschiedenen Beispielen eine Netzwerkschnittstelle 204 umfassen. Die Computervorrichtung 10C verwendet in einem einzelnen Beispiel die Netzwerkschnittstelle 204, um mit externen Vorrichtungen zu kommunizieren, wie Servern oder Datenzentren, über ein oder mehrere Netzwerke, die ein oder mehrere drahtlose Netzwerke umfassen können. Die Netzwerkschnittstelle 204 kann eine Netzwerkschnittstellenkarte, wie eine Ethernetkarte, ein optischer Sendeempfänger, ein Funkfrequenzsendeempfänger oder irgendeine andere Art von Komponente sein oder diese umfassen, die konfiguriert ist, um Informationen zu senden und zu empfangen. Andere Beispiele derartiger Netzwerkschnittstellen können Bluetooth® , 3G-, 4G-, LTE- und WiFi® -Funktechnologien umfassen, die für mobile Computervorrichtungen konfiguriert sind, sowie USB. In verschiedenen Beispielen kann die Computervorrichtung 10 eine Netzwerkschnittstelle 204 verwenden, um drahtlos mit einer externen Vorrichtung zu kommunizieren, wie einem Server oder einem Datenzentrum, der oder das Daten für die Computervorrichtung 10 bereitstellen kann.
  • Die Computervorrichtung 10 kann in verschiedenen Beispielen ebenso eine oder mehrere Eingabe- und/oder Ausgabevorrichtungen umfassen, wie eine präsenzempfindliche Anzeige 12C. Die präsenzempfindliche Anzeige 12C kann einen Flüssigkristallanzeige-(LCD, liquid crystal display)-Anzeigeschirm oder einen Anzeigeschirm umfassen, der eine andere Art graphischer Ausgabetechnologie verwendet. Die präsenzempfindliche Anzeige 12C kann ebenso ein Berührschirm sein, der eine elektrisch kapazitive Schicht umfasst, die auf die Präsenz einer Berührung empfindlich reagiert und die konfiguriert ist, um die Positionen der Berührgesteneingaben zu übersetzen, und die Bewegungen von Berührgesteneingaben, wenn sie ihre Position über die Zeit ändern, in Signale zu übersetzen, um einen Treiber für den Berührschirm oder ein anderes Merkmal zum Empfangen der Informationen bezüglich der Gesteneingaben bereitzustellen. Die präsenzempfindliche Anzeige 12 kann in anderen Beispielen ebenso eine andere Art präsenzempfindlicher Anzeige sein.
  • Die Computervorrichtung 10 kann ebenso eine Vielfalt anderer Eingabe- und/oder Ausgabevorrichtungen umfassen, oder konfiguriert sein, um mit diesen verbunden zu sein, wie physikalischen Knöpfen, einer physikalischen Tastatur, einer Maus, einem Touchpad, einem Trackball, einem Benutzersprachschnittstellensystem, einer Vibrationskomponente, einer Soundkarte, einer Videographikadapterkarte oder jedweder anderen Art von Vorrichtung zur Erfassung und/oder Übersetzung von Eingaben von einem Benutzer oder zum Umwandeln eines Signals in eine Form einer graphischen, einer Audio-, einer taktilen Ausgabe oder einer anderen Form von Benutzerausgabe, die durch einen Benutzer wahrgenommen werden kann.
  • Die Computervorrichtung 10C kann in verschiedenen Beispielen eine oder mehrere Stromquellen 208 umfassen, die wiederaufladbar sein können und der Computervorrichtung 10C Strom zuführen. Die Stromquelle 208 kann in verschiedenen Beispielen eine Lithium-Ionen-Batterie, eine Nickel-Kadmium-Batterie, eine Nickel-Metallhydrid-Batterie oder eine andere geeignete Stromquelle sein.
  • Die Computervorrichtung 10 kann ebenso einen oder mehrere kraftempfindliche Sensoren umfassen, wie eine Beschleunigungsmesseinrichtung 222, einen Komprimierungssensor 224, einen akustischen Sensor 226, ein Gyroskop oder andere Arten von Sensoren, die in der Lage sind, eine Beschleunigung, eine Komprimierung, eine Vibration, eine Rotation oder einen anderen Indikator von Kraft zu erfassen, die auf die Computervorrichtung 10 wirkt. Die Beschleunigungsmesseinrichtung 222 kann jedwede Beschleunigung der Computervorrichtung 10 messen, und kann deshalb irgendeine Nettokraft erfassen, die auf die Computervorrichtung 10 wirkt, einschließlich einer Nettokraft von einem Benutzer, der die Computervorrichtung 10 irgendwo antippt, einschließlich des Falls durch eine Tasche, eine Handtasche oder ein anderes zwischenliegendes Material hindurch. Der Kompressionssensor 224 kann eine Komprimierungskraft auf die Computervorrichtung 10 oder auf einen oder mehrere Abschnitte der Oberfläche der Computervorrichtung 10 erfassen und kann eine wirkende Kraft in Form einer Komprimierung oder einer Zusammenpressmaßnahme erfassen, die auf die Computervorrichtung 10 wirkt. Der akustische Sensor 222 kann eine wirkende Kraft in Form einer mechanischen oder akustischen Schwingung erfassen, die Schwingungen umfassen können, die durch dazwischen liegende Materialien zwischen einer Oberfläche, auf die ein Benutzer Kraft ausübt, und der Computervorrichtung 10 gesendet werden. Die Computervorrichtung 10 kann zum Beispiel in der Tasche eines Benutzers oder in einer Armbanduhr oder in Form eines Armbands vorliegen und erfassen, wenn der Benutzer einen weiteren Bereich auf dem Körper des Benutzers antippt durch akustische Schwingungen, die von dem angetippten Bereich durch den Körper des Benutzers (zum Beispiel durch das Skelettsystem des Benutzers) zu der Computervorrichtung 10 gesendet werden. Die Computervorrichtung 10 kann mehrere Beschleunigungsmesseinrichtungen 222, Komprimierungssensoren 224 und/oder akustische Sensoren 226 umfassen und kann einen oder mehrere von einer dieser Arten von Sensoren oder einen oder mehrere von mehreren Arten dieser Sensoren verwenden, von denen jeder eine verlässliche Erfassung und Verarbeitung derartiger kraftbasierter Eingabesignale erleichtern kann.
  • 3 bis 6 zeigen beispielhafte Graphen 30, 40, 50 und 60 jeweils der Kraft oder der Beschleunigung über der Zeit entsprechend kraftbasierten Eingaben, wie sie durch eine Beschleunigungsmesseinrichtung, einen Komprimierungssensor, einen akustischen Sensor, ein Gyroskop oder einen anderen Sensor erfasst werden können, der betriebsfähig mit einer mobilen Computervorrichtung verbunden ist, gemäß Ausgestaltungen der vorliegenden Offenbarung. Jeder der Graphen 30, 40, 50 und 60 zeigt eine Messung einer Kraft über der Zeit, wie durch einen Sensor, wie eine Beschleunigungsmesseinrichtung 222 usw. erfasst, auf die Computervorrichtung 10. Der Kraftsensor kann die erfassten Kraftdaten, die durch die Graphen 30, 40, 50 und 60 dargestellt sind, zu anderen Elementen der Computervorrichtung 10 gemäß 2 kommunizieren, wie dem/den Prozessor(en) 200, um die Daten, die durch die Graphen 30, 40 , 50 und 60 dargestellt sind, mit Parametern für gespeicherte kraftbasierten Eingaben zu vergleichen, um zu bestimmen, ob die erfassten Kraftdaten mit einer der entsprechenden Eingaben übereinstimmen. Während die Graphen 30, 40, 50 und 60 nicht mit Einheiten bezeichnet sind, sind die Einzelheiten der Einheiten für ein geeignetes Benutzereingabeprofil der Kraft über der Zeit für eine kraftbasierte Eingabe womöglich gemäß Ingenieurskenntnissen für Benutzerschnittstellen kalibriert und können gespeicherte Parameter für kraftbasierte Benutzereingaben gemäß typischem Benutzerverhalten zum Tippen oder anderen Eingaben und den Systemantworten einer gegebenen Computervorrichtung auf derartige kraftbasierte Benutzereingaben kalibriert sein.
  • 3 zeigt ein Muster einer wirkenden Kraft, die durch die Computervorrichtung 10 über der Zeit erfasst wird, die für die meiste Zeit nahe Null beträgt (einschließlich kleinerer Vibrationen oder Umgebungsbewegungen mit niedrigem Pegel), die aber zwei nahe, unterscheidbare Spitzenwerte in der Kraft bei dem Signal 32 umfasst, die mit einer Sequenz von zwei Tipp-Vorgängen durch einen Benutzer auf die Computervorrichtung 10 konsistent sind, gleich ob direkt oder durch ein zwischenliegendes Material. Die Computervorrichtung 10 kann anfänglich kleinere Bewegungen ausfiltern, wie jene auf dem Graph 30 außerhalb des Signals 32, da diese zu klein sind, um als eine Benutzereingabe registriert zu werden, so dass die Computervorrichtung 10 in einigen Beispielen nicht zu viel Verarbeitungsaktivität und Strom bei der Durchführung einer wesentlichen Verarbeitung von Kraftsignalen und zur Verarbeitung von falschen Positiven als Benutzereingaben investiert. Falls ein Signal für eine wirkende Kraft von der richtigen Stärke und Dauer ist, um ein gutes Kandidatensignal zu sein, dann kann die Computervorrichtung 10 zum Beispiel das Signal gemäß aussagekräftigerer mathematischer Verfahren verarbeiten, um mit gespeicherten Parametern von Benutzereingabesignalen verglichen zu werden, die auf einem analytischen Regelsystem oder einem System basiert, das durch Maschinenlerntechniken auf Proben von Benutzereingaben trainiert ist. Die Computervorrichtung 10 kann ebenso weitere Schritte in Antwort auf ein Kandidatensignal durchführen, wie das Vergleichen anderer Ausgestaltungen des momentanen Betriebskontextes der Computervorrichtung 10, wie zum Beispiel ob ein Telefonanruf momentan ankommt oder ob die Anzeige aktiviert wird.
  • Die Computervorrichtung 10 kann einen Satz gespeicherter Parameter für eine kraftbasierte Benutzereingabe einer Doppelantippsequenz aufweisen, die dem wirkenden Kraftsignal 32 entspricht, das in 3 gezeigt ist. Die insbesondere entsprechende Eingabe, d. h. der insbesondere entsprechende Satz gespeicherter Parameter, der mit den Sensordaten des Signals 32 übereinstimmt, kann in irgendeine Anwendung eingegeben werden. Die insbesondere entsprechende Eingabe kann zum Beispiel ebenso eine anfängliche Voreinstellungseingabe aufweisen, die durch das Betriebssystem 190 bestimmt werden kann oder durch einen Anbieter der Computervorrichtung 10 vorab ausgewählt ist, und kann frei benutzerkonfigurierbar auf irgendeine Art von Eingabe sein, die ein Benutzer auswählt. Die im Besonderen entsprechende Eingabe kann ebenso anders basierend auf dem momentanen Betriebskontext ausgewählt werden, zum Beispiel wenn das Signal 32 erfasst wird, so dass das Signal 32 als eine einzelne Eingabe in einem voreingestellten Kontext interpretiert werden kann, oder als eine zweite Eingabe, wenn ein neuer Telefonanruf ankommt, oder als eine dritte Eingabe, wenn gleichzeitig Daten aus anderen Sensoren zeigen, dass der Benutzer momentan ein Auto fährt. Insbesondere kann eine Voreinstellung in einem voreingestellten Kontext zum Beispiel darin bestehen, auf eine Doppeltippeingabe des Signals 32 zu antworten durch Erzeugung einer Audioausgabe der momentanen Zeit und Informationen bezüglich jedweder unlängst empfangener E-Mails oder Textnachrichten. Falls ein neuer Telefonanruf momentan ankommt, während die Computervorrichtung 10 die Doppeltippeingabe des Signals 32 empfängt, dann kann die Voreinstellung in diesem Kontext darin bestehen, eine Audioausgabe zu erzeugen, die zum Beispiel den Anrufenden identifiziert. Falls die Computervorrichtung 10 die Doppeltippeingabe des Signals 32 empfängt, während sie erfasst, dass der Benutzer momentan ein Auto fährt, wie durch eine Kommunikation mit dem Auto oder durch Erfassung einer Bewegung bei typischen Autogeschwindigkeiten über Positionssensoren (zum Beispiel GPS- und/oder WiFi-Positionssensoren) und durch Erkennen, dass jenes bestimmte Auto dem Benutzer gehört, kann die Computervorrichtung 10 zum Beispiel durch Erzeugung von Audioausgaben für eine Straßennavigation mit Sprachbenutzerschnittstelle antworten. Jedwede anderen entsprechenden Funktionen und Ausgaben können ebenso in irgendeinem dieser Kontexte verwendet oder ausgewählt werden, um auf die kraftbasierte Benutzereingabe entsprechend der erfassten Kraft des Signals 32 zu antworten.
  • In ähnlicher Weise kann irgendeine voreingestellte oder benutzerkonfigurierbare Funktion und Ausgabe ausgewählt werden, um anderen Benutzereingaben zu entsprechen, wie jenen, die durch das Signal 42 in dem Graph 40 gemäß 4 (entsprechend einer Benutzersequenz von drei Tippvorgängen), das Signal 52 in dem Graph 50 gemäß 5 (entsprechend einem Schüttelvorgang der Computervorrichtung 10 durch den Benutzer), das Signal 62 in dem Graph 60 gemäß 6 (entsprechend einem einzelnen Tippvorgang durch den Benutzer) oder andere Signale dargestellt sind. Als ein weiteres Beispiel kann die Computervorrichtung 10 ebenso Tippvorgänge auf verschiedene Abschnitte ihrer selbst als verschiedene Eingaben interpretieren, zum Beispiel kann sie zwischen einem Tippvorgang auf ihre Frontseite oder Rückseite oder auf eine Seitenkante oder eine Ecke unterscheiden und kann verschiedene nicht-visuelle Antworten auf der Grundlage jener verschiedener Eingaben anwenden. Die Computervorrichtung 10 kann zum Beispiel unter diesen Eingaben durch Eingaben in Beschleunigungsmesseinrichtungen in verschiedenen Ausrichtungen oder verschiedenen Positionen innerhalb des Körpers der Computervorrichtung 10 unterscheiden. Die in 3 bis 6 gezeigten Signale sind Beispiele, aber jedwede andere Art oder Muster von Signal kann ebenso als ein Benutzereingabeparameter gespeichert werden und kann als eine entsprechende Benutzereingabe interpretiert werden. Weitere Beispiele können ebenso Signale aus verschiedenen Arten von kraftbasierten Sensoren umfassen, wie ein Signal, das einem oder mehreren Pressvorgängen oder Komprimierungen von einem oder mehreren Komprimierungssensoren entspricht. In Anbetracht einer erfassten Kraft, die einem einzelnen Tippvorgang wie in 6 entspricht, kann die Computervorrichtung 10 in einigen Beispielen voreingestellte Antworten auf diese Eingabe womöglich lediglich in einem speziellen betrieblichen Kontext anwenden, wie während eines ankommenden Telefonanrufs (zum Beispiel wenn das Telefon klingelt), kann aber womöglich keine Maßnahme in dem voreingestellten Betriebskontext anwenden, da eine einzelne zeitweilige Kraft womöglich von Zeit zu Zeit aus gewöhnlichen Bewegungen entstehen kann, so dass das Vermeiden einer Antwort in normalen Kontexten dabei hilft, Umgebungsbewegungen als falsche Positive zu interpretieren, wenn dies keine Eingaben sind, die durch den Benutzer beabsichtigt sind.
  • 7 zeigt die Computervorrichtung 10 mit einer graphischen Benutzerschnittstelle (GUI, graphical user interface) 20 und zum Ausgeben von GUI-Inhalt für einen repräsentativen Abschnitt einer beispielhaften Benutzerkonfigurationsschnittstelle 22 für eine nicht-visuelle E/A-Anwendung 120, die nicht-visuelle Ausgaben in Antwort auf kraftbasierte Eingaben erzeugt, gemäß Ausgestaltungen der vorliegenden Offenbarung. Die Computervorrichtung 10 gibt die GUI 20 auf der präsenzempfindlichen Anzeige 12 wieder, die ein Berührschirm sein kann. Wie auf der präsenzempfindlichen Anzeige 12 gezeigt, umfasst die Benutzerkonfigurationsschnittstelle 22 eine Vielfalt von Betriebskontexten und eine Vielfalt von kraftbasierten Benutzereingaben, die unter jedem Betriebskontext aufgelistet sind, zusammen mit den entsprechenden nicht-visuellen Ausgabefunktionen, die jeder entsprechenden kraftbasierten Eingabe zugewiesen sein können. Wie in 7 gezeigt, umfassen die Beispieleinstellungen, die momentan durch die Benutzerkonfigurationsschnittstelle 22 dargestellt sind, einen voreingestellten Kontext und einen "ankommenden Ruf'-Kontext. Wie weiter in 7 gezeigt, umfassen nicht-visuelle Ausgabefunktionen, die verschiedenen kraftbasierten Eingaben unter dem voreingestellten Kontext zugewiesen sind, eine Audioausgabe der momentanen Zeit für ein einzelnes Antippen (entsprechend dem erfassten Kraftsignal 62 in 6); eine Audioausgabe von Informationen bezüglich unlängst empfangener Telefonanrufe, Textnachrichten und E-Mails, entsprechend einer Doppeltippeingabe (entsprechend dem erfassten Kraftsignal 32 in 3); und eine Audioausgabe von Informationen bezüglich bevorstehender Kalenderpunkte in Antwort auf eine dreifache Antippeingabe (entsprechend dem erfassten Kraftsignal 42 in 4). 7 zeigt ebenso, dass eine einzelne Zusammenpresseingabe und eine Schütteleingabe unter dem voreingestellten Kontext momentan nicht zugewiesen sind, und dass ein einzelnes Tippen unter dem Kontext eines momentan ankommenden Telefonanrufs dem Erzeugen einer Audioausgabe zugewiesen ist, die den Anrufenden identifiziert.
  • Die Benutzerkonfigurationsschnittstelle 22 kann ebenso nach unten scrollen, um viele zusätzliche Eingabe/Ausgabezuweisungen unter dem ankommenden Rufkontext oder irgendeinem von verschiedenen anderen Betriebskontexten zu enthüllen. Die Benutzerkonfigurationsschnittstelle 22 kann ebenso Optionen für den Benutzer umfassen, um zusätzliche Eingaben hinzuzufügen und entsprechende Funktionen und Ausgaben zuzuweisen. Der Benutzer kann in die Lage versetzt werden, zusätzliche Eingaben aus einer Liste auszuwählen, oder eine neue kraftbasierte Eingabe kinematisch mit der Computervorrichtung 10 zu definieren, die ein beliebiges Muster der Kraft aufnimmt, die der Benutzer auf sie ausübt, um eine neue benutzerdefinierte kraftbasierte Eingabe zu erzeugen. Die Computervorrichtung 10 kann ebenso den Benutzer befähigen, um irgendeine nicht-visuelle Ausgabe zu definieren, die in Antwort auf eine ausgewählte Eingabe zu erzeugen ist, und kann Werkzeuge bereitstellen, um einem Benutzer zu ermöglichen, Funktionen irgendeiner Anwendung in das nicht-visuelle E/A-System dieser Offenbarung zu integrieren und irgendeine Funktion irgendeiner Anwendung als eine Ausgabe zuzuweisen, mit der das nicht-visuelle E/A-System in Antwort auf eine kraftbasierte Benutzereingabe integriert und erzeugt.
  • Für eine oder mehrere vorab gespeicherte oder benutzerdefinierte nicht-visuelle E/A-Auswahlen kann die Computervorrichtung 10 eine Vielzahl von Kraftparametern speichern, die mit einer Vielzahl von Krafteingaben assoziiert sind, so dass das Bestimmen, dass die erfasste Kraft mit der entsprechenden Eingabe übereinstimmt, ein Vergleichen der erfassten Kraft mit Kraftsignalparametern umfasst, die mit der Vielzahl von Krafteingaben assoziiert sind, wie unter Bezugnahme auf 3 bis 6 beschrieben wurde.
  • Die Computervorrichtung 10 kann ebenso eine Vielfalt von einer oder mehreren zusätzlichen Eingaben ermöglichen, die verschiedene zusätzliche Betriebskontexte angeben, die im Zusammenhang mit der kraftbasierten Eingabe zu unterscheiden und zu bestimmen sind. Die Computervorrichtung 10 kann ebenso eine Angabe der einen oder mehreren zusätzlichen Eingaben innerhalb eines definierten Zeitintervalls des Empfangs der Angabe der erfassten Kraft empfangen, die auf die Computervorrichtung 10 wirkt, und eine nicht-visuelle Ausgabe auf der Grundlage zumindest teilweise der einen oder mehreren zusätzlichen Eingaben erzeugen. Die Computervorrichtung 10 kann zum Beispiel erfassen, ob eine Eingabe aus einer präsenzempfindlichen Anzeige vorliegt, die einen großen Kontaktbereich mit der präsenzempfindlichen Anzeige angibt, so als ob der Benutzer seine Handfläche oder eine große Fläche seiner Hand auf den Berührschirm wirken lässt, um ein Antippen anzuwenden, was zum Beispiel ein nützlicher zusätzlicher Indikator für die Absicht des Benutzers sein kann, kraftbasierte Eingaben einzugeben. Als ein weiteres Beispiel kann die Computervorrichtung 10 eine Eingabe aus einem Lichtsensor erfassen und bestimmen, ob die Lichtsensoreingabe einen Lichtpegel unterhalb einer ausgewählten Schwelle angibt. Die Computervorrichtung 10 kann dann einen anderen Betriebskontext anwenden, wenn sich der Benutzer im Dunkeln befindet, so wie wenn sich der Benutzer nachts im Bett befindet. Eine beispielhafte differenzierte E/A-Antwort in diesem Zusammenhang könnte darin bestehen, eine ausgewählte kraftbasierte Eingabe zum Stummschalten der Computervorrichtung zu interpretieren, oder um eine Audioausgabe zu erzeugen, die bestätigt, dass zum Beispiel ein Wecker eingeschaltet ist, und die Zeit, für die er eingestellt ist.
  • Als ein weiteres Beispiel der Verschiebung von nicht-visuellen E/A-Antworten durch den Betriebskontext kann die Computervorrichtung 10 eine Eingabe aus einem Magnetfeldsensor vergleichen und verschiedene nicht-visuelle Ausgaben auf der Grundlage einer Fortbewegungsrichtung anwenden, die durch den Magnetfeldsensor angegeben ist, wie während einer Navigationsfunktion mit Sprachbenutzerschnittstelle. Als ein weiteres Beispiel kann die Computervorrichtung 10 eine oder mehrere zusätzliche Eingaben aus einem Nahfeldkommunikations-(NFC)-Anhängersensor erfassen und die nicht-visuellen E/A-Antworten basierend auf dem erfassten NFC-Anhänger modifizieren.
  • Zusätzlich kann irgendeine einer breiten Vielfalt nicht-visueller Ausgaben in Antwort auf eine kraftbasierte Benutzereingabe erzeugt werden. Einige Beispiele können eine Krafteingabe verwenden, um eine Sprachbenutzerschnittstelle zu initiieren, so dass der Benutzer die Computervorrichtung antippen und dann eine Spracheingabe tätigen kann, und es kann die Computervorrichtung mit einer Audioausgabe antworten, einschließlich für Funktionen, die eine Suche und eine Navigation involvieren. In diesem Fall kann die Computervorrichtung die Spracheingabe als einen Teil der Durchführung der entsprechenden Funktion in Antwort darauf erfassen, dass die entsprechende kraftbasierte Benutzereingabe erfasst wird, die den Sprachbenutzerschnittstellenmodus initiiert. Die Computervorrichtung 10 kann zum Beispiel eine Spracheingabe empfangen und eine Sprach-zu-Textfunktion bezüglich der Spracheingabe durchführen, um eine Textanfrage basierend auf der Spracheingabe zu erzeugen. In einem einzelnen Beispiel kann die Computervorrichtung 10 dann die Textanfrage in eine Suchanwendung eingeben, wobei das Erzeugen der nicht-visuellen Ausgabe ein Erzeugen einer Sprachsyntheseaudioausgabe der Ergebnisse der Websuche umfasst. Als ein weiteres Beispiel kann die Computervorrichtung dann einen momentanen Ort auf der Grundlage zumindest teilweise eines oder mehrerer Positionssensoren bestimmen und eine ortsbasierte Suche basierend zumindest teilweise auf der Textanfrage und auf dem momentanen Ort durchführen, wodurch das Erzeugen der nicht-visuellen Ausgabe ein Erzeugen einer Sprachsyntheseaudioausgabe der Ergebnisse der ortsbasierten Suche umfasst. Als ein weiteres Beispiel kann die Computervorrichtung 10 dann einen momentanen Ort zumindest teilweise basierend auf einem oder mehreren Positionssensoren bestimmen und mit einer Navigationsanwendung eine ortsbasierte Navigationsroutensuche basierend zumindest teilweise auf der Textanfrage und auf dem momentanen Ort durchführen, wobei das Erzeugen der nicht-visuellen Ausgabe ein Erzeugen einer Sprachsyntheseaudioausgabe der Ergebnisse der ortsbasierten Navigationsroutensuche umfasst.
  • Die Computervorrichtung 10 kann ebenso irgendeine einer Vielzahl anderer nicht-visueller Ausgaben, einer Zeichnung auf irgendeiner einer Vielzahl von Anwendungen, Datenquellen oder anderen Ressourcen erteilen. Die Computervorrichtung 10 kann zum Beispiel eine Sprachsyntheseaudioausgabe von Nachrichten unter Verwendung von Daten aus einer Nachrichtenanwendung erzeugen, oder von finanziellen Informationen unter Verwendung von Daten aus einer finanziellen Anwendung, oder mit dem Identifizieren von Informationen bezüglich eines ankommenden Telefonanrufs unter Verwendung von Daten von einer Telefonanwendung. Die Computervorrichtung 10 kann dann verschiedene andere Formen des Empfangens einer Spracheingabe, des Durchführens einer Sprache-zu-Textfunktion bezüglich der Spracheingabe, um einen Text basierend auf der Spracheingabe zu erzeugen, und Eingebens des Textes in eine Anwendung anwenden, um eine Form von antwortender Ausgabe oder Daten aus der Anwendung basierend auf der Spracheingabe hervorzurufen.
  • Die Computervorrichtung 10 kann ebenso eine Vielfalt ortsbasierter Funktionen in nicht-visuellen E/A-Antworten einsetzen. Die Computervorrichtung 10 kann zum Beispiel eine entsprechende Funktion in Antwort auf die Erfassung einer kraftbasierten Benutzereingabe ausführen, wenn die entsprechende Funktion ein Bestimmen eines momentanen Orts basierend zumindest teilweise auf einer oder mehreren Sensorpositionen und ein Durchführen einer zusätzlichen Funktion oder ein Erzeugen einer Ausgabe basierend zumindest teilweise auf dem Ort umfasst. Dies kann zum Beispiel ein Starten oder Stoppen einer aufgezeichneten Strecke bei dem momentanen Ort in einer Routenverfolgungsanwendung, das Bereitstellen von lokalem Werbeinhalt, der für den momentanen Ort relevant ist, Bereitstellen eines Benutzercheckins in dem momentanen Ort in einer ortsbasierten Anwendung eines sozialen Netzwerks oder das Markieren des momentanen Orts in einer Geocaching-Anwendung umfassen.
  • Die Computervorrichtung 10 kann ebenso Spracheingaben in irgendeine einer Vielzahl von Anwendungen aufzeichnen und eingeben, als einen Teil der Ausführung einer entsprechenden Funktion in Antwort auf die Erfassung einer kraftbasierten Benutzereingabe. Dies kann beispielsweise eine Interaktion mit einer E-Mailanwendung, einer Textnachrichtenanwendung oder einer Wortverarbeitungsanwendung umfassen. Die Computervorrichtung 10 kann zum Beispiel zusätzliche Funktionen durchführen, wie ein Senden einer E-Mail oder einer Textnachricht, die den eingegebenen Text umfasst, basierend auf der Spracheingabe, oder ein Speichern des Textes in einer Wortverarbeitungsdatei.
  • 8 zeigt ein Ablaufdiagramm, das einen Beispielprozess 300 oder ein Verfahren zeigt, der oder das durch die Computervorrichtung durchgeführt werden kann oder in diese eingebettet ist, wie in der Computervorrichtung 10 gemäß 1, 2 und 7 und/oder irgendeinem oder mehreren Prozessoren der Vorrichtung, um ein nicht-visuelles E/A-System zu implementieren, um nicht-visuelle Ausgaben in Antwort auf Eingaben zu erzeugen, die erfassten Kräften entsprechen, gemäß irgendeinem der vorstehend beschriebenen Beispielen. Der Prozess 300 ist lediglich ein Beispiel, und andere Implementierungen können mehr oder weniger Aspekte als jene umfassen, die in 8 dargestellt sind.
  • In dem Prozess 300 kann eine Computervorrichtung 10 oder (ein) Prozessor(en) 200 der Vorrichtung Anweisungen ausführen, wie jene einer nicht-visuellen E/A-Anwendung 120. In diesem Beispiel erfasst ein Sensor (zum Beispiel eine Beschleunigungsmesseinrichtung 222, ein Komprimierungssensor 224, ein akustischer Sensor 226) der Computervorrichtung 10 oder der betriebsfähig mit der Computervorrichtung 10 verbunden ist, eine Kraft, die auf die Computervorrichtung 10 wirkt, und übermittelt ein digitales Signal oder andere Daten, die die erfasste Kraft angeben. Die Computervorrichtung 10 oder der/die Prozessor(en) 200 empfängt diese Angabe einer Kraft, die auf die Computervorrichtung 10 wirkt (302). Die Computervorrichtung 10 oder einer oder mehrere Prozessor(en) 200 der Computervorrichtung 10 bestimmt, dass die erfasste Kraft mit einer entsprechenden Eingabe übereinstimmt, die die Computervorrichtung 10 mit einer entsprechenden Funktion assoziiert, die durch die Computervorrichtung 10 ausführbar ist (304). Die erfasste Kraft kann zum Beispiel durch Kraftparameter charakterisiert sein, die konsistent mit einem Benutzertippvorgang, Pressvorgang oder Schüttelvorgang der Computervorrichtung 10 sind, mit einem oder mehreren Tippvorgängen, Pressvorgängen oder Schüttelvorgängen vorliegen, und die innerhalb eines Zeitintervalls bezüglich einander liegen können. Die Computervorrichtung 10 kann verschiedene Krafteingaben mit verschiedenen Kraftparametern mit verschiedenen entsprechenden Funktionen assoziieren, so dass jede der entsprechenden Funktionen durch eine andere Krafteingabe angegeben werden kann, wie vorstehend unter Bezugnahme auf 3 bis 7 beschrieben wurde. Die Computervorrichtung 10 oder ein oder mehrere Prozessor(en) 200 erzeugt dann in Antwort auf das Bestimmen, dass die erfasste Kraft mit der entsprechenden Eingabe übereinstimmt, eine nicht-visuelle Ausgabe basierend auf der entsprechenden Funktion (306). Die Computervorrichtung kann weiterhin irgendeine der Funktionen durchführen und verarbeitet wie vorstehend unter Bezugnahme auf 1 bis 7 beschrieben.
  • Beispiel 1. Ein Verfahren umfasst: Empfangen, durch eine Computervorrichtung, einer Angabe einer erfassten Kraft, die auf die Computervorrichtung wirkt; Bestimmen, durch die Computervorrichtung, dass die erfasste Kraft mit einer entsprechenden Eingabe übereinstimmt, die die Computervorrichtung mit einer entsprechenden Funktion assoziiert, die durch die Computervorrichtung ausführbar ist; und Erzeugen, durch die Computervorrichtung und in Antwort auf das Bestimmen, dass die erfasste Kraft mit der entsprechenden Eingabe übereinstimmt, einer nicht-visuellen Ausgabe basierend auf der entsprechenden Funktion.
  • Beispiel 2. Das Verfahren gemäß Anspruch 1 weiterhin umfassend: Bestimmen, durch die Computervorrichtung, dass die Kraft auf die Computervorrichtung wirkt, während eine präsenzempfindliche Anzeige, die betriebsfähig mit der Computervorrichtung verbunden ist, sich in einem deaktivierten Zustand befindet; und Erzeugen, durch die Computervorrichtung und in Antwort auf die Bestimmung, dass die Kraft mit der entsprechenden Eingabe übereinstimmt und dass die Kraft auf die Computervorrichtung wirkte, während die präsenzempfindliche Anzeige in dem deaktivierten Zustand war, der nicht-visuellen Ausgabe.
  • Beispiel 3. Das Verfahren gemäß zumindest einem der Beispiele 1 bis 2, weiterhin umfassend Empfangen, durch die Computervorrichtung, der Angabe der erfassten Kraft aus einem Sensor, der betriebsfähig mit der Computervorrichtung verbunden ist, wobei der Sensor zumindest eines aus einer Beschleunigungsmesseinrichtung, einem Komprimierungssensor und einem akustischen Sensor umfasst.
  • Beispiel 4. Das Verfahren gemäß zumindest einem der Beispiele 1 bis 3, wobei die entsprechende Eingabe, die die Computervorrichtung mit der entsprechenden Funktion assoziiert, mit einem einzelnen Tippvorgang konsistent ist.
  • Beispiel 5. Das Verfahren gemäß zumindest einem der Beispiele 1 bis 3, wobei die entsprechende Eingabe, die die Computervorrichtung mit der entsprechenden Funktion assoziiert, mit einem nachfolgenden Tippvorgang innerhalb eines Zeitintervalls nach einer vorherigen Ausgabe konsistent ist.
  • Beispiel 6. Das Verfahren gemäß zumindest einem der Beispiele 1 bis 3, wobei die entsprechende Eingabe, die die Computervorrichtung mit der entsprechenden Funktion assoziiert, mit einem Pressvorgang konsistent ist.
  • Beispiel 7. Das Verfahren gemäß zumindest einem der Beispiele 1 bis 3, wobei die entsprechende Eingabe, die die Computervorrichtung mit der entsprechenden Funktion assoziiert, konsistent mit einer schwingenden Beschleunigung ist, die angibt, dass die Computervorrichtung geschüttelt wird.
  • Beispiel 8. Das Verfahren gemäß zumindest einem der Beispiele 1 bis 7, weiterhin umfassend Speichern, durch die Computervorrichtung, einer Vielzahl von Kraftparametern, die mit einer Vielzahl von Krafteingaben assoziiert ist, wobei das Bestimmen, dass die erfasste Kraft mit der entsprechenden Eingabe übereinstimmt, ein Vergleichen der erfassten Kraft mit Kraftparametern unter der Vielzahl von Kraftparametern umfasst, die mit der Vielzahl von Krafteingaben assoziiert ist.
  • Beispiel 9. Das Verfahren gemäß zumindest einem der Beispiele 1 bis 8, weiterhin umfassend: Empfangen, durch die Computervorrichtung, einer Angabe, von einer oder mehreren zusätzlichen Eingaben innerhalb eines definierten Zeitintervalls des Empfangs der Angabe der erfassten Kraft, die auf die Computervorrichtung wirkt, wobei das Erzeugen der nicht-visuellen Ausgabe durch die Computervorrichtung ebenso zumindest teilweise auf der einen oder den mehreren zusätzlichen Eingaben basiert.
  • Beispiel 10. Das Verfahren gemäß Beispiel 9, wobei der eine oder die mehreren zusätzlichen Eingaben zumindest eines umfassen aus einer Eingabe aus einem Positionssensor, die zumindest eine Position und eine Geschwindigkeit angibt; einer Eingabe aus einer Netzwerkschnittstelle, die zumindest eine aus einer Position und einer Geschwindigkeit ausgibt; einer Eingabe aus einer Global positionierungssystemschnittstelle, die zumindest eine einer Position und einer Geschwindigkeit angibt; einer Eingabe aus einem Lichtsensor, die einen Lichtpegel angibt; und einer Eingabe aus einem Magnetfeldsensor, der zumindest eine aus einer Geschwindigkeit und einer Ausrichtung angibt.
  • Beispiel 11. Das Verfahren gemäß zumindest einem der Beispiele 1 bis 10, weiterhin umfassend: Empfangen, durch die Computervorrichtung, einer Spracheingabe; Durchführen, durch die Computervorrichtung, einer Sprache-zu-Textfunktion bezüglich der Spracheingabe, um eine Textanfrage auf der Grundlage der Spracheingabe zu erzeugen; und Eingeben, durch die Computervorrichtung, der Textanfrage in eine Websuchanwendung, wobei das Erzeugen der nicht-visuellen Ausgabe ein Erzeugen einer Sprachsyntheseaudioausgabe der Ergebnisse der Websuche umfasst.
  • Beispiel 12. Das Verfahren gemäß zumindest einem der Beispiele 1 bis 10, weiterhin umfassend: Empfangen, durch die Computervorrichtung, einer Spracheingabe; Durchführen, durch die Computervorrichtung, einer Sprache-zu-Textfunktion bezüglich der Spracheingabe, um eine Textanfrage auf der Grundlage der Spracheingabe zu erzeugen; Bestimmen, durch die Computervorrichtung, eines momentanen Ortes auf der Grundlage zumindest teilweise eines oder mehrerer Positionssensoren; und Durchführen, durch die Computervorrichtung, einer ortsbasierten Suche auf der Grundlage zumindest teilweise der Textanfrage und auf dem momentanen Ort, wobei das Erzeugen der nicht-visuellen Ausgabe ein Erzeugen einer Sprachsyntheseaudioausgabe der Ergebnisse der ortsbasierten Suche umfasst.
  • Beispiel 13. Das Verfahren gemäß zumindest einem der Beispiele 1 bis 10, weiterhin umfassend: Empfangen, durch die Computervorrichtung, einer Spracheingabe; Durchführen, durch die Computervorrichtung, einer Sprache-zu-Textfunktion bezüglich der Spracheeingabe, um eine Textanfrage auf der Grundlage der Spracheingabe zu erzeugen; Bestimmen, durch die Computervorrichtung, eines momentanen Orts auf der Grundlage zumindest teilweise eines oder mehrerer Positionssensoren; und Durchführen, mit einer Navigationsanwendung und durch die Computervorrichtung, einer ortsbasierten Navigationsroutensuche auf der Grundlage zumindest teilweise der Textanfrage und auf dem momentanen Ort, wobei das Erzeugen der nicht-visuellen Ausgabe ein Erzeugen einer Sprachsyntheseaudioausgabe der Ergebnisse der ortsbasierten Navigationsroutensuche umfasst.
  • Beispiel 14. Das Verfahren gemäß zumindest einem der Beispiele 1 bis 10, wobei das Erzeugen der nicht-visuellen Ausgabe ein Erzeugen einer Sprachsyntheseaudioausgabe umfasst, die zumindest eines umfasst aus: einer momentanen Zeit unter Verwendung von Daten aus einer Uhranwendung; Nachrichten unter Verwendung von Daten aus einer Nachrichtenanwendung; und Finanzinformationen unter Verwendung von Daten aus einer Finanzdatenanwendung.
  • Beispiel 15. Das Verfahren gemäß zumindest einem der Beispiele 1 bis 10, wobei das Erzeugen der nicht-visuellen Ausgabe ein Erzeugen einer Sprachsyntheseaudioausgabe mit einem Identifizieren von Informationen bezüglich eines ankommenden Telefonanrufs unter Verwendung von Daten aus einer Telefonieanwendung umfasst.
  • Beispiel 16. Das Verfahren gemäß einem der beiden Beispiele 1 bis 10, wobei das Erzeugen der nicht-visuellen Ausgabe ein Erzeugen einer Sprachsyntheseaudioausgabe mit Informationen aus einer oder mehreren E-Mailnachrichten unter Verwendung von Daten aus einer E-Mailanwendung umfasst.
  • Beispiel 17. Das Verfahren gemäß einem der Beispiele 1 bis 10, wobei das Erzeugen der nicht-visuellen Ausgabe ein Erzeugen einer Sprachsyntheseaudioausgabe mit Informationen aus einer oder mehreren Textnachrichten unter Verwendung von Daten aus einer Textnachrichtenanwendung umfasst.
  • Beispiel 18. Das Verfahren gemäß zumindest einem der Beispiele 1 bis 10, wobei das Erzeugen der nicht-visuellen Ausgabe ein Erzeugen einer Sprachsyntheseaudioausgabe mit Informationen aus einer oder mehreren Nachrichten eines sozialen Netzwerks unter Verwendung von Daten aus einer Anwendung eines sozialen Netzwerks umfasst.
  • Beispiel 19. Das Verfahren gemäß zumindest einem der Beispiele 1 bis 10, weiterhin umfassend: Bestimmen eines momentanen Ortes auf der Grundlage zumindest teilweise eines oder mehrerer Positionssensoren, wobei das Erzeugen der nicht-visuellen Ausgabe ein Beginnen oder Beenden einer aufgenommenen Nachverfolgung auf dem momentanen Ort in einer Routenverfolgungsanwendung umfasst.
  • Beispiel 20. Das Verfahren gemäß zumindest einem der Beispiele 1 bis 10, weiterhin umfassend: Bestimmen eines momentanen Ortes auf der Grundlage zumindest teilweise eines oder mehrerer Positionssensoren, wobei das Erzeugen der nicht-visuellen Ausgabe ein Bereitstellen eines Benutzercheck-ins an dem momentanen Ort in eine Anwendung eines sozialen Netzwerks umfasst.
  • Beispiel 21. Das Verfahren gemäß zumindest einem der Beispiele 1 bis 10, weiterhin umfassend: Bestimmen eines momentanen Orts auf der Grundlage zumindest teilweise eines oder mehrerer Positionssensoren, wobei das Erzeugen der nicht-visueller Ausgabe ein Markieren des momentanen Ortes in einer Anwendung umfasst, die Positionen nachverfolgt.
  • Beispiel 22. Das Verfahren gemäß zumindest einem der Beispiele 1 bis 10, weiterhin umfassend Empfangen einer Spracheingabe; und Durchführen einer Sprache-zu-Textfunktion bezüglich der Spracheingabe, um einen Textsatz auf der Grundlage der Spracheingabe zu erzeugen, wobei das Erzeugen der nicht-visuellen Ausgabe ein Eingeben des Textsatzes in eine Anwendung umfasst.
  • Beispiel 23. Das Verfahren gemäß Beispiel 22, wobei die Anwendung zumindest eines umfasst aus: einer E-Mailanwendung, einer Textnachrichtenanwendung und einer Wortverarbeitungsanwendung, und wobei das Verfahren zumindest eines umfasst aus: Senden einer E-Mail, die den Text umfasst, Senden einer Textnachricht, die den Text umfasst, und Speichern des Textes in einer Wortverarbeitungsdatei.
  • Beispiel 24. Das Verfahren gemäß zumindest einem der Beispiele 1 bis 23, weiterhin umfassend: Bestimmen eines momentanen Orts auf der Grundlage zumindest teilweise eines oder mehrerer Positionssensoren, wobei das Erzeugen der nicht-visuellen Ausgabe ein Bereitstellen eines lokalen Werbeinhaltes umfasst, der für den momentanen Ort relevant ist.
  • Beispiel 25. Computervorrichtung, umfassend eine Einrichtung zur Durchführung irgendeines der Verfahren gemäß den Beispielen 1 bis 24.
  • Beispiel 26. Ein Computerlesbares Speichermedium, das Anweisungen umfasst, die durch zumindest einen Prozessor ausführbar sind, um das Verfahren gemäß zumindest einem der Beispiele 1 bis 24 durchzuführen.
  • Verschiedene Techniken, die hier beschrieben sind, können in Software implementiert werden, die in jedweder einer Vielfalt von Sprachen geschrieben sind, die eine Vielfalt von Werkzeugsätzen, Rahmenwerken, APIs, Programmierumgebungen, virtuellen Maschinen, Bibliotheken und anderen Computerressourcen verwenden, wie vorstehend beschrieben wurde. Der Softwarekode kann zum Beispiel in Java, C, Objekt-C, C++, Go, JavaScript, Dart, Python, Ruby, Clojure, Assemblersprache, Maschinenkode oder jedweder anderen Sprache geschrieben werden. Als ein spezifisches verdeutlichendes Beispiel können Ausgestaltungen der Offenbarung, die vorstehend beschrieben sind, in einem Softwaremodul implementiert werden, das zum Beispiel in Java geschrieben ist, das wiederum auf einer virtuellen Maschine 198 gemäß 7 ausführbar ist.
  • Ausgestaltungen der Offenbarung können ebenso in jedweder Computervorrichtung oder jedwedem Betriebssystem anwendbar und implementiert sein, und können jedwede anderen APIs, Rahmenwerke oder Werkzeugsätze verwenden. Hier beschriebene Ausgestaltungen zur Dekodierung und Verarbeitung von Daten für kraftbasierte Eingaben und nicht-visuelle Ausgaben können mit jedwedem anderen Datenspeicher oder Anwendung interagieren. Bei Implementierung in Software oder Firmware können verschiedene hier offenbarte Techniken zumindest teilweise durch ein computerlesbares Datenspeichermedium realisiert werden, das Anweisungen umfasst, die bei Ausführung einen Prozessor veranlassen, eines oder mehrere der vorstehend beschriebenen Verfahren durchzuführen. Das computerlesbare Datenspeichermedium kann zum Beispiel derartige Anweisungen zur Ausführung durch einen Prozessor speichern.
  • Ein computerlesbares Speichermedium kann einen Teil eines Computerprogrammprodukts bilden, das Packmaterialien umfassen kann. Ein computerlesbares Medium kann ein Computerdatenspeichermedium umfassen, wie einen Speicher mit wahlfreiem Zugriff (RAM), einen Festwertspeicher (ROM), einen nicht-flüchtigen Speicher mit wahlfreiem Zugriff (NVRAM, non-volatile random access memory), einen elektrisch löschbaren und programmierbaren Festwertspeicher (EEPROM, electrically erasable programmable read-only memory), einen Flash-Speicher, magnetische oder optische Datenspeichermedien und dergleichen. In verschiedenen Beispielen kann ein Herstellungsartikel ein oder mehrere computerlesbare Speichermedien umfassen.
  • In verschiedenen Beispielen können die Datenspeichervorrichtungen und/oder der Speicher computerlesbare Speichermedien umfassen, die nicht-vergängliche Medien umfassen. Der Ausdruck „nicht-vergänglich“ kann angeben, dass das Speichermedium kein Ausführungsbeispiel in einer Trägerwelle oder einem fortgepflanzten Signal findet. In bestimmten Beispielen kann ein nicht-vergängliches Speichermedium Daten speichern, die sich über die Zeit ändern können (zum Beispiel in einem RAM oder einem Cache). Datenspeichervorrichtungen können jedwede einer Vielfalt aus einem flüchtigen Speicher umfassen, der womöglich periodisch elektrisch aufgefrischt werden muss, um Daten im Speicher zu halten, es ist aber für den Fachmann ersichtlich, dass dies ebenso ein Beispiel eines physikalischen, materiellen, nicht-vergänglichen computerlesbaren Datenspeichermediums bildet. Ausführbare Anweisungen werden auf einem nicht-vergänglichen Medium gespeichert, wenn Programmkode geladen, gespeichert, weitergeleitet, gepuffert oder gecacht wird, auf einem nicht-vergänglichen physikalischen Medium oder einer solchen Vorrichtung, einschließlich solcher Fälle, falls dies lediglich für eine nur kurze zeitliche Dauer oder lediglich in einem flüchtigen Speicherformat erfolgt. Maschinenlesbarer Kode kann auf den Datenspeichermedien und/oder dem Speicher gespeichert werden, und kann ausführbare Anweisungen umfassen, die durch zumindest einen Prozessor ausführbar sind. „Maschinenlesbarer Kode“ und „ausführbare Anweisungen“ können sich auf jedwede Form von Softwarekode beziehen, einschließlich Maschinenkode, Assembleranweisungen oder Assemblersprache, Bytekode, Softwarekode in C oder Softwarekode, der in jedweder Programmiersprache höherer Ebene geschrieben ist, der in ausführbare Anweisungen kompiliert oder übersetzt werden kann, die durch zumindest einen Prozessor ausführbar sein können, einschließlich Softwarekode, der in Sprachen geschrieben ist, die Kode als zu verarbeitende Daten behandeln, oder die dem Kode ermöglichen, wiederum Kode zu manipulieren oder zu erzeugen.
  • Der Kode oder die Anweisungen können Software und/oder Firmware sein, die durch eine Verarbeitungsschaltung ausgeführt wird, die einen oder mehrere Prozessoren umfasst, wie einen oder mehrere digitale Signalprozessoren (DSPs), Allzweckmikroprozessoren, anwendungsspezifische integrierte Schaltungen (ASICs), feldprogrammierbare Gatearrays (FPGAs) oder andere äquivalente integrierte oder diskrete Logikschaltungen. Demgemäß kann sich der Ausdruck „Prozessor“, wie er hier verwendet wird, auf jedwede der vorstehend beschriebenen Strukturen oder jedwede andere Strukturen beziehen, die zur Implementierung der hier beschriebenen Techniken geeignet sind. Zudem kann in einigen Ausführungsbeispielen eine Funktionalität, die in dieser Offenbarung beschrieben ist, innerhalb von Softwaremodulen oder Hardwaremodulen bereitgestellt werden.
  • Die verschiedenen Ausführungsbeispiele, die vorstehend beschrieben wurden und in 1 bis 8 dargestellt sind, sowie zusätzliche Ausführungsbeispiele, befinden sich innerhalb des Schutzbereichs von einem oder mehreren der nachfolgenden Patentansprüche.

Claims (15)

  1. Verfahren, umfassend: Empfangen, durch eine Computervorrichtung, einer Angabe einer erfassten Kraft, die auf die Computervorrichtung wirkt; Bestimmen, durch die Computervorrichtung, dass die erfasste Kraft mit einer entsprechenden Eingabe übereinstimmt, die die Computervorrichtung mit einer entsprechenden Funktion assoziiert, die durch die Computervorrichtung ausführbar ist; Empfangen, durch die Computervorrichtung, einer Spracheingabe; und nach dem Bestimmen, dass die erfasste Kraft mit der entsprechenden Eingabe übereinstimmt: Durchführen, durch eine auf der Computervorrichtung ausgeführten Anwendung, und zumindest teilweise auf der Spracheingabe basierend von der entsprechenden Funktion; und Erzeugen, durch die Computervorrichtung und basierend auf der entsprechenden Funktion, einer Audioausgabe.
  2. Verfahren gemäß Anspruch 1 weiterhin umfassend: Bestimmen, durch die Computervorrichtung, dass die erfasste Kraft auf die Computervorrichtung wirkt, während eine präsenzempfindliche Anzeige, die betriebsfähig mit der Computervorrichtung verbunden ist, sich in einem deaktivierten Zustand befindet; und Erzeugen, durch die Computervorrichtung und in Antwort auf die Bestimmung, dass die erfasste Kraft mit der entsprechenden Eingabe übereinstimmt und dass die erfasste Kraft auf die Computervorrichtung wirkte, während die präsenzempfindliche Anzeige in dem deaktivierten Zustand war, der nicht-visuellen Ausgabe.
  3. Verfahren gemäß zumindest einem der Ansprüche 1 bis 2, wobei die entsprechende Eingabe, die die Computervorrichtung mit der entsprechenden Funktion assoziiert, mit einem nachfolgenden Tippvorgang innerhalb eines Zeitintervalls nach einer vorherigen Ausgabe konsistent ist.
  4. Verfahren gemäß zumindest einem der Ansprüche 1 bis 3, weiterhin umfassend Speichern, durch die Computervorrichtung, einer Vielzahl von Kraftparametern, die mit einer Vielzahl von Krafteingaben assoziiert ist, wobei das Bestimmen, dass die erfasste Kraft mit der entsprechenden Eingabe übereinstimmt, ein Vergleichen der erfassten Kraft mit Kraftparametern unter der Vielzahl von Kraftparametern umfasst, die mit der Vielzahl von Krafteingaben assoziiert ist.
  5. Verfahren gemäß zumindest einem der Ansprüche 1 bis 4, weiterhin umfassend: Empfangen, durch die Computervorrichtung, einer Angabe, von einer oder mehreren zusätzlichen Eingaben innerhalb eines definierten Zeitintervalls des Empfangs der Angabe der erfassten Kraft, die auf die Computervorrichtung wirkt, wobei das Erzeugen der nicht-visuellen Ausgabe durch die Computervorrichtung ebenso zumindest teilweise auf der einen oder den mehreren zusätzlichen Eingaben basiert.
  6. Verfahren gemäß Anspruch 5, wobei die eine oder die mehreren zusätzlichen Eingaben zumindest eine umfassen aus: einer Eingabe aus einem Positionssensor, die zumindest eine Position und eine Geschwindigkeit angibt; einer Eingabe aus einer Netzwerkschnittstelle, die zumindest eine aus einer Position und einer Geschwindigkeit angibt; einer Eingabe aus einer Globalpositionierungssystemschnittstelle, die zumindest eine einer Position und einer Geschwindigkeit angibt; einer Eingabe aus einem Lichtsensor, die einen Lichtpegel angibt; und einer Eingabe aus einem Magnetfeldsensor, der zumindest eine aus einer Geschwindigkeit und einer Ausrichtung angibt.
  7. Verfahren gemäß zumindest einem der Ansprüche 1 bis 6, weiterhin umfassend: Durchführen, durch die Computervorrichtung, einer Sprache-zu-Textfunktion bezüglich der Spracheingabe, um eine Textanfrage auf der Grundlage der Spracheingabe zu erzeugen; und Eingeben, durch die Computervorrichtung, der Textanfrage in eine Websuchanwendung, wobei das Erzeugen der Audioausgabe ein Erzeugen einer Sprachsyntheseaudioausgabe der Ergebnisse der Websuche umfasst.
  8. Verfahren gemäß zumindest einem der Ansprüche 1 bis 6. weiterhin umfassend: Durchführen, durch die Computervorrichtung, einer Sprache-zu-Textfunktion bezüglich der Spracheeingabe, um eine Textanfrage auf der Grundlage der Spracheingabe zu erzeugen; Bestimmen, durch die Computervorrichtung, eines momentanen Orts auf der Grundlage zumindest teilweise eines oder mehrerer Positionssensoren; und Durchführen, mit einer Navigationsanwendung und durch die Computervorrichtung, einer ortsbasierten Navigationsroutensuche auf der Grundlage zumindest teilweise der Textanfrage und auf dem momentanen Ort, wobei das Erzeugen der Audioausgabe ein Erzeugen einer Sprachsyntheseaudioausgabe der Ergebnisse der ortsbasierten Navigationsroutensuche umfasst.
  9. Verfahren gemäß zumindest einem der Ansprüche 1 bis 6, wobei das Erzeugen der Audioausgabe ein Erzeugen einer Sprachsyntheseaudioausgabe umfasst, die zumindest eines umfasst aus: einer momentanen Zeit unter Verwendung von Daten aus einer Uhranwendung; Nachrichten unter Verwendung von Daten aus einer Nachrichtenanwendung; und Finanzinformationen unter Verwendung von Daten aus einer Finanzdatenanwendung.
  10. Verfahren gemäß zumindest einem der Ansprüche 1 bis 6, weiterhin umfassend: Bestimmen eines momentanen Ortes auf der Grundlage zumindest teilweise eines oder mehrerer Positionssensoren, wobei das Erzeugen der nicht-visuellen Ausgabe ein Beginnen oder Beenden einer aufgenommenen Nachverfolgung auf dem momentanen Ort in einer Routenverfolgungsanwendung umfasst.
  11. Verfahren gemäß zumindest einem der Ansprüche 1 bis 6, weiterhin umfassend: Bestimmen eines momentanen Ortes auf der Grundlage zumindest teilweise eines oder mehrerer Positionssensoren, wobei das Erzeugen der nicht-visuellen Ausgabe ein Bereitstellen eines Benutzercheck-ins an dem momentanen Ort in eine Anwendung eines sozialen Netzwerks umfasst.
  12. Verfahren gemäß zumindest einem der Ansprüche 1 bis 6, weiterhin umfassend: Bestimmen eines momentanen Orts auf der Grundlage zumindest teilweise eines oder mehrerer Positionssensoren, wobei das Erzeugen der nicht-visueller Ausgabe ein Markieren des momentanen Ortes in einer Anwendung umfasst, die Positionen nachverfolgt.
  13. Verfahren gemäß zumindest einem der Ansprüche 1 bis 6, weiterhin umfassend: Bestimmen eines momentanen Orts auf der Grundlage zumindest teilweise eines oder mehrerer Positionssensoren, wobei das Erzeugen der nicht-visuellen Ausgabe ein Bereitstellen eines lokalen Werbeinhaltes umfasst, der für den momentanen Ort relevant ist.
  14. Computervorrichtung, umfassend eine Einrichtung zur Durchführung irgendeines der Verfahren gemäß den Ansprüchen 1 bis 13.
  15. Computerlesbares Speichermedium, das Anweisungen umfasst, die durch zumindest einen Prozessor ausführbar sind, um das Verfahren gemäß zumindest einem der Ansprüche 1 bis 13 durchzuführen.
DE112013004816.7T 2012-10-24 2013-10-22 Computervorrichtung mit kraftausgelösten nicht-visuellen Antworten Active DE112013004816B4 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261718059P 2012-10-24 2012-10-24
US61/718,059 2012-10-24
US13/732,946 2013-01-02
US13/732,946 US9152247B2 (en) 2012-10-24 2013-01-02 Computing device with force-triggered non-visual responses
PCT/US2013/066158 WO2014066373A1 (en) 2012-10-24 2013-10-22 Computing device with force-triggered non-visual responses

Publications (2)

Publication Number Publication Date
DE112013004816T5 DE112013004816T5 (de) 2015-10-01
DE112013004816B4 true DE112013004816B4 (de) 2022-11-10

Family

ID=50484882

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112013004816.7T Active DE112013004816B4 (de) 2012-10-24 2013-10-22 Computervorrichtung mit kraftausgelösten nicht-visuellen Antworten

Country Status (5)

Country Link
US (3) US9152247B2 (de)
CN (2) CN107544670B (de)
DE (1) DE112013004816B4 (de)
GB (1) GB2522579B (de)
WO (1) WO2014066373A1 (de)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6721705B2 (en) 2000-02-04 2004-04-13 Webley Systems, Inc. Robust voice browser system and voice activated device controller
US7516190B2 (en) 2000-02-04 2009-04-07 Parus Holdings, Inc. Personal voice-based information retrieval system
US9152247B2 (en) * 2012-10-24 2015-10-06 Google Inc. Computing device with force-triggered non-visual responses
US9936335B2 (en) * 2012-12-13 2018-04-03 Microsoft Technology Licensing, Llc Mobile computing device application sharing
US9842584B1 (en) * 2013-03-14 2017-12-12 Amazon Technologies, Inc. Providing content on multiple devices
US9542040B2 (en) * 2013-03-15 2017-01-10 Smart Technologies Ulc Method for detection and rejection of pointer contacts in interactive input systems
US20140306893A1 (en) * 2013-04-11 2014-10-16 Rashed Siddiqui Computer Pointing Device based on Hand/Foot Directional Pressure
CN104142791A (zh) * 2013-05-09 2014-11-12 腾讯科技(深圳)有限公司 资源更换方法、装置及终端
US9564145B2 (en) * 2013-07-07 2017-02-07 Dsp Group Ltd. Speech intelligibility detection
KR102179056B1 (ko) * 2013-07-19 2020-11-16 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
CN105493477A (zh) * 2013-08-29 2016-04-13 索尼公司 腕带式信息处理装置、信息处理系统、信息处理方法以及程序
KR20180128091A (ko) 2013-09-03 2018-11-30 애플 인크. 자기 특성을 갖는 사용자 인터페이스 객체를 조작하는 사용자 인터페이스
CN104468679B (zh) * 2013-09-24 2018-03-02 腾讯科技(深圳)有限公司 分享地理位置的方法、终端及系统
US9588591B2 (en) * 2013-10-10 2017-03-07 Google Technology Holdings, LLC Primary device that interfaces with a secondary device based on gesture commands
US10019075B2 (en) * 2013-10-24 2018-07-10 Chunsheng ZHU Control input apparatus
CN106133644B (zh) * 2014-04-01 2019-03-15 索尼公司 使投影用户界面协调
US9575508B2 (en) * 2014-04-21 2017-02-21 Apple Inc. Impact and contactless gesture inputs for docking stations
US9852559B2 (en) 2014-06-02 2017-12-26 Schlage Lock Company Llc System and method for signifying intent for lock operation
EP2986012A1 (de) * 2014-08-14 2016-02-17 mFabrik Holding Oy Steuern des Inhalts auf einer Anzeigevorrichtung
CN104657072B (zh) * 2015-01-15 2018-06-12 小米科技有限责任公司 一种触发执行操作指令的方法和装置
US9788277B2 (en) * 2015-01-15 2017-10-10 Mediatek Inc. Power saving mechanism for in-pocket detection
CN105306669A (zh) * 2015-05-28 2016-02-03 广东维沃软件技术有限公司 一种事件提醒方法及移动终端
US10572147B2 (en) * 2016-03-28 2020-02-25 Verizon Patent And Licensing Inc. Enabling perimeter-based user interactions with a user device
KR20180133457A (ko) * 2016-04-06 2018-12-14 오티스 엘리베이터 컴파니 사전 설정 엘리베이터 호출
US10595012B2 (en) * 2016-12-02 2020-03-17 Google Llc Representations of event notifications in virtual reality
US10002243B1 (en) * 2017-03-24 2018-06-19 Wipro Limited System and method for powering on electronic devices
US11126258B2 (en) 2017-10-14 2021-09-21 Qualcomm Incorporated Managing and mapping multi-sided touch
US11435830B2 (en) 2018-09-11 2022-09-06 Apple Inc. Content-based tactile outputs
US10332367B1 (en) * 2018-10-17 2019-06-25 Capital One Services, Llc Systems and methods for using haptic vibration for inter device communication
US11006200B2 (en) * 2019-03-28 2021-05-11 Sonova Ag Context dependent tapping for hearing devices
US10996761B2 (en) * 2019-06-01 2021-05-04 Apple Inc. User interfaces for non-visual output of time
IT201900016142A1 (it) * 2019-09-12 2021-03-12 St Microelectronics Srl Sistema e metodo di rilevamento di passi a doppia convalida
US10757499B1 (en) * 2019-09-25 2020-08-25 Sonos, Inc. Systems and methods for controlling playback and other features of a wireless headphone
USD954019S1 (en) 2020-06-05 2022-06-07 Sonos, Inc. Headphone
CN216531736U (zh) 2020-10-08 2022-05-13 搜诺思公司 音频回放耳机系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100073329A1 (en) 2008-09-19 2010-03-25 Tiruvilwamalai Venkatram Raman Quick Gesture Input
US20100088061A1 (en) 2008-10-07 2010-04-08 Qualcomm Incorporated Generating virtual buttons using motion sensors
US20110029869A1 (en) 2008-02-29 2011-02-03 Mclennan Hamish Method and system responsive to intentional movement of a device

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPQ439299A0 (en) * 1999-12-01 1999-12-23 Silverbrook Research Pty Ltd Interface system
US7422145B2 (en) 2006-05-08 2008-09-09 Nokia Corporation Mobile communication terminal and method
EP1930835A1 (de) 2006-12-08 2008-06-11 Research In Motion Limited System und Verfahren zum Sperren und Öffnen des Zugriffs auf ein elektronisches Gerät
US7890778B2 (en) * 2007-01-06 2011-02-15 Apple Inc. Power-off methods for portable electronic devices
US8855719B2 (en) 2009-05-08 2014-10-07 Kopin Corporation Wireless hands-free computing headset with detachable accessories controllable by motion, body gesture and/or vocal commands
JP2009278294A (ja) 2008-05-13 2009-11-26 Sony Ericsson Mobilecommunications Japan Inc 情報処理装置、情報処理方法、情報処理プログラム、及び携帯端末装置
KR20110031797A (ko) * 2009-09-21 2011-03-29 삼성전자주식회사 휴대 단말기의 입력 장치 및 방법
US10254824B2 (en) * 2009-10-16 2019-04-09 Immersion Corporation Systems and methods for output of content based on sensing an environmental factor
US20120031645A1 (en) * 2010-08-03 2012-02-09 Steven Tartaglia System, method and apparatus for connecting battery cells
US8854318B2 (en) * 2010-09-01 2014-10-07 Nokia Corporation Mode switching
US8587542B2 (en) * 2011-06-01 2013-11-19 Motorola Mobility Llc Using pressure differences with a touch-sensitive display screen
US20120316456A1 (en) * 2011-06-10 2012-12-13 Aliphcom Sensory user interface
US9116546B2 (en) * 2012-08-29 2015-08-25 Immersion Corporation System for haptically representing sensor input
US9152247B2 (en) * 2012-10-24 2015-10-06 Google Inc. Computing device with force-triggered non-visual responses

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110029869A1 (en) 2008-02-29 2011-02-03 Mclennan Hamish Method and system responsive to intentional movement of a device
US20100073329A1 (en) 2008-09-19 2010-03-25 Tiruvilwamalai Venkatram Raman Quick Gesture Input
US20100088061A1 (en) 2008-10-07 2010-04-08 Qualcomm Incorporated Generating virtual buttons using motion sensors

Also Published As

Publication number Publication date
GB2522579A (en) 2015-07-29
DE112013004816T5 (de) 2015-10-01
GB2522579B (en) 2020-08-19
CN107544670A (zh) 2018-01-05
US20170046125A1 (en) 2017-02-16
WO2014066373A1 (en) 2014-05-01
US20160011656A1 (en) 2016-01-14
US10338884B2 (en) 2019-07-02
CN107544670B (zh) 2020-07-31
US9152247B2 (en) 2015-10-06
CN104737101B (zh) 2017-07-18
GB201508047D0 (en) 2015-06-24
CN104737101A (zh) 2015-06-24
US20140111415A1 (en) 2014-04-24
US9519345B2 (en) 2016-12-13

Similar Documents

Publication Publication Date Title
DE112013004816B4 (de) Computervorrichtung mit kraftausgelösten nicht-visuellen Antworten
US11627001B2 (en) Collaborative document editing
DE102017106423A1 (de) Kontexabhängige Task-Shortcuts
CN109154935B (zh) 一种用于分析用于任务完成的捕获的信息的方法、系统及可读存储设备
DE102016214955A1 (de) Latenzfreier digitaler Assistent
US9858259B2 (en) Automatic capture of information from audio data and computer operating context
DE112016003459T5 (de) Sprecherkennung
US20130339831A1 (en) Dynamic reports connected to project data
DE112016001104T5 (de) Aktivierung von virtuellen Assistenten
DE202016001024U1 (de) Navigations-Benutzerschnittstelle
CN104049745A (zh) 输入控制方法和支持该输入控制方法的电子装置
DE112009000003T5 (de) Programmierschnittstelle für ein Berührungsereignismodell
EP2891041B1 (de) Benutzerschnittstellenvorrichtung bei einem benutzerendgerät und verfahren zur unterstützung dafür
DE112016002945T5 (de) Systeme und verfahren zur kontextentdeckung von gerätefunktionen
CN106502493A (zh) 一种分屏显示方法及终端
DE112016002384T5 (de) Hilfsschicht mit automatisierter Extraktion
CN104035977B (zh) 网页加载方法及装置
DE112010003717T5 (de) Verfahren zum Interagieren mit einer tragbaren elektronischen Vorrichtung
CN110088781B (zh) 用于上下文记忆捕获和召回的系统和方法
DE102018105287A1 (de) Verfahren und Vorrichtung zum Ermöglichen kontextbasierter Stimmantworten auf Always-on-Display-Benachrichtigungen
CN110932964A (zh) 一种信息的处理方法及装置
US9965484B1 (en) Template-driven data extraction and insertion
US10924602B2 (en) Electronic device and method for controlling same
CN111325014A (zh) 一种汇报内容生成方法及电子设备
US20240143356A1 (en) Interplay between digital assistive technology

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: VENNER SHIPLEY LLP, DE

Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE

R081 Change of applicant/patentee

Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US

Free format text: FORMER OWNER: GOOGLE INC., MOUNTAIN VIEW, CALIF., US

R082 Change of representative

Representative=s name: VENNER SHIPLEY LLP, DE

Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE

R082 Change of representative

Representative=s name: VENNER SHIPLEY GERMANY LLP, DE

Representative=s name: VENNER SHIPLEY LLP, DE

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final