DE112011100035T5 - Vorrichtung und Verfahren zum Übermitteln von Emotion in einer Messaging-Anwendung - Google Patents
Vorrichtung und Verfahren zum Übermitteln von Emotion in einer Messaging-Anwendung Download PDFInfo
- Publication number
- DE112011100035T5 DE112011100035T5 DE112011100035T DE112011100035T DE112011100035T5 DE 112011100035 T5 DE112011100035 T5 DE 112011100035T5 DE 112011100035 T DE112011100035 T DE 112011100035T DE 112011100035 T DE112011100035 T DE 112011100035T DE 112011100035 T5 DE112011100035 T5 DE 112011100035T5
- Authority
- DE
- Germany
- Prior art keywords
- text
- emotional
- mobile device
- context
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 230000008451 emotion Effects 0.000 title claims abstract description 36
- 230000002996 emotional effect Effects 0.000 claims abstract description 242
- 238000004891 communication Methods 0.000 claims description 67
- 238000001514 detection method Methods 0.000 claims description 20
- 230000004044 response Effects 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 4
- 230000003993 interaction Effects 0.000 claims description 2
- 230000033001 locomotion Effects 0.000 description 41
- 230000006870 function Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 8
- 230000036772 blood pressure Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000008921 facial expression Effects 0.000 description 6
- 231100000430 skin reaction Toxicity 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 230000001413 cellular effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000002085 persistent effect Effects 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 206010040914 Skin reaction Diseases 0.000 description 3
- 230000036651 mood Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 230000035483 skin reaction Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000016571 aggressive behavior Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 239000012530 fluid Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 238000010897 surface acoustic wave method Methods 0.000 description 2
- WURBVZBTWMNKQT-UHFFFAOYSA-N 1-(4-chlorophenoxy)-3,3-dimethyl-1-(1,2,4-triazol-1-yl)butan-2-one Chemical compound C1=NC=NN1C(C(=O)C(C)(C)C)OC1=CC=C(Cl)C=C1 WURBVZBTWMNKQT-UHFFFAOYSA-N 0.000 description 1
- 206010044565 Tremor Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- AMGQUBHHOARCQH-UHFFFAOYSA-N indium;oxotin Chemical compound [In].[Sn]=O AMGQUBHHOARCQH-UHFFFAOYSA-N 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003387 muscular Effects 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/12—Messaging; Mailboxes; Announcements
- H04W4/14—Short messaging services, e.g. short message services [SMS] or unstructured supplementary service data [USSD]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Telephone Function (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Die vorliegende Offenbarung sieht eine Vorrichtung und ein Verfahren vor zum Übermitteln von Emotionen in einer Messaging-Anwendung einer mobilen elektronischen Vorrichtung. Ein emotionaler Kontext von Text, der in der Messaging-Anwendung eingegeben wird, wird bestimmt und ein impliziter emotionaler Text wird für zumindest einen Teil des eingegebenes Texts in Übereinstimmung mit dem bestimmten emotionalen Kontext dargestellt. Der emotionale Kontext kann aus erfassten Sensordaten bestimmt werden, die von einem oder mehreren Sensor(en) erfasst werden.
Description
- QUERVERWEIS ZU VERWANDTEN ANMELDUNGEN
- Diese Anmeldung beansprucht Vorteil und Priorität zu der U.S.-Patentanmeldung Nr. 13/007,285, angemeldet am 14. Januar 2011, mit dem Titel DEVICE, SYSTEM AND METHOD OF CONVEYING EMOTION IN A MESSAGING APPLICATION.
- Der Inhalt der obigen Patentanmeldung wird hiermit ausdrücklich durch Bezugnahme in diese detaillierte Beschreibung aufgenommen.
- TECHNISCHES GEBIET
- Die vorliegende Offenbarung betrifft im Allgemeinen mobile elektronische Vorrichtungen und insbesondere ein Verfahren und eine Vorrichtung zum Übermitteln von Emotion in einer Messaging-Anwendung.
- HINTERGRUND
- Es gibt einen Wunsch, Emotionen wie Verspieltheit, Angst, Aggression, Fröhlichkeit usw. über eine Textkommunikation zu kommunizieren. Schnelle (Quick) Messaging-Anwendungen, die auf mobilen elektronischen Vorrichtungen laufen, setzen typischerweise auf die Verwendung von Emoticons bzw. Gefühlssymbolen, um Emotion zu kommunizieren, die mit einem Text assoziiert ist, der in der Messaging-Anwendung eingegeben wird. Emoticons bezeichnen üblicherweise eine bildliche Repräsentation eines Gesichtsausdrucks, der durch Interpunktion und Buchstaben dargestellt wird, der die Stimmung des Verfassers, Emotion, oder Tenor des einfachen oder Basis-Texts übermittelt, den dieser begleitet. Beispiele für Emoticons umfassen ein Smiley-Gesicht, ein stirnrunzelndes Gesicht, ein fröhliches Gesicht, usw.
- Ein Benutzer einer Messaging-Anwendung wählt ein gewünschtes Emoticon aus einer Liste oder einem Gitter bzw. einer Galerie von verfügbaren, vordefinierten und gespeicherten Emoticons aus. Während die Verfügbarkeit von Emoticons eine Möglichkeit bietet, die Stimmung oder das Temperament des Verfassers hinsichtlich eines eingegebenen Texts auszudrücken, lenkt die Verwendung von Emoticons von der Flüssigkeit und Spontaneität der Kommunikation ab. Getrennt von einer Texteingabe muss ein Benutzer durch eine Liste oder eine Galerie von verfügbaren Emoticons scrollen, um eine gewünschte Schriftart, Gesichtsausdruck, Animation, usw. auszuwählen. Darüber hinaus kann die gewünschte zu übermittelnde Emotion in dem vorgegebenen Satz der verfügbaren Emoticons nicht verfügbar sein. Der Prozess zum Auswählen eines oder mehrerer Emoticons, um eine Emotion anzuzeigen, die mit dem eingegebenen Text assoziiert ist, unterbricht notwendigerweise ein Erstellen und Senden einer Nachricht in der Messaging Anwendung.
- Verbesserungen in Messaging-Anwendungen von mobilen elektronischen Vorrichtungen sind wünschenswert.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
- Beispielhafte Ausführungsbeispiele der vorliegenden Erfindung werden im Folgenden unter Bezugnahme auf die beigefügten Zeichnungen beschrieben derart, dass gleiche Bezugszeichen gleiche Elemente bezeichnen, und wobei:
-
1A –1C Darstellungen einer schnellen Messaging-Anwendung sind, die impliziten emotionalen Text auf einer Berührungsbildschirm- bzw. Touchscreen-Anzeige einer mobilen elektronischen Vorrichtung einsetzt, in Übereinstimmung mit verschiedenen Ausführungsbeispielen der vorliegenden Offenbarung; -
2 eine Darstellung einer schnellen Messaging-Anwendung ist, die impliziten emotionalen Text auf einer Anzeige einer mobilen elektronischen Vorrichtung einsetzt, in Übereinstimmung mit verschiedenen Ausführungsbeispielen der vorliegenden Offenbarung; -
3 eine Darstellung einer mobilen elektronischen Vorrichtung in Übereinstimmung mit verschiedenen Ausführungsbeispielen der vorliegenden Offenbarung ist; -
4 eine Blockdiagramm-Darstellung der mobilen elektronischen Vorrichtung von4 ist, in Übereinstimmung mit verschiedenen Ausführungsbeispielen der vorliegenden Offenbarung; -
5A –5B eine Darstellung einer mobilen elektronischen Vorrichtung ist, die einen „virtuelle Tastatur”-Modus und eine berührungsempfindliche Eingabeoberfläche einsetzt, in Übereinstimmung mit verschiedenen weiteren Ausführungsbeispielen der vorliegenden Offenbarung; -
6 eine Blockdiagramm-Darstellung der mobilen elektronischen Vorrichtung der5A –5B , ist in Übereinstimmung mit den verschiedenen weiteren Ausführungsbeispielen der vorliegenden Offenbarung; -
7 eine Darstellung eines Bewegungserfassungs-Teilsystems ist, in Übereinstimmung mit verschiedenen Ausführungsbeispielen der vorliegenden Offenbarung; -
8 eine Darstellung eines Netzwerksystems ist, das erste und zweite mobile elektronische Vorrichtungen umfasst, in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung; -
9 –13 Ablaufdiagramme von verschiedenen Verfahren zur Übermittlung von Emotion in einer Messaging-Anwendung sind, die auf einer mobilen elektronischen Vorrichtung ausgeführt werden, in Übereinstimmung mit verschiedenen Ausführungsbeispielen der vorliegenden Offenbarung. - DETAILLIERTE BESCHREIBUNG
- Es gibt einen Wunsch, Emotionen wie Verspieltheit, Angst, Aggression, Fröhlichkeit, usw., über eine Textkommunikation zu kommunizieren. Die Verwendung und der Nutzen von Emoticons bzw. Gefühlssymbolen sind begrenzt und bieten nicht das Ausmaß von Ausdruckskraft und Flüssigkeit von Emotion, wie von den verschiedenen hier beschriebenen Ausführungsbeispielen vorgesehen wird. Es ist wünschenswert, eine aussagekräftigere und flüssigere Kommunikation von Emotion assoziiert mit einem Text in einer Messaging Anwendung zu haben. Die verschiedenen hier beschriebenen Ausführungsbeispiele sehen eine flüssige, intuitive, einfache und unterhaltsame Weise vor, um eine Text-Emotion zu kommunizieren.
- Die Offenbarung betrifft im Allgemeinen ein Übermitteln von Emotion in einer Messaging Anwendung einer mobilen elektronischen Vorrichtung, und im Folgenden wird ein Verfahren und eine Vorrichtung zum Übermitteln von Emotion in einer Messaging-Anwendung beschrieben. Das Verfahren und die Vorrichtung der vorliegenden Offenbarung ermöglichen, dass Emotionen nahtlos als ein impliziter emotionaler Text in einer Messaging-Anwendung übermittelt werden, die auf einer mobilen Vorrichtung läuft, wie eine mobile Messaging Plattform, wie die schnelle Messaging-Anwendung BlackBerry-Messenger von Research In Motion, Waterloo, Kanada, oder ähnliches. Sensoreingabedaten werden analysiert, um den impliziten emotionalen Text von Text zu bestimmen, der in eine Messaging Anwendung der mobilen Vorrichtung eingegeben wird. Biometrische Sensoren, wie Drucksensoren, Beschleunigungsmesser, Video-Sensoren, galvanische Hautreaktions-Sensoren, können verwendet werden, um biometrische Daten eines Benutzers der mobilen Vorrichtung zu erfassen, einschließlich Blutdruck, Herzfrequenz, Steuerung der Muskulatur, Zittern, Gesichtsausdrücke, galvanische Hautreaktion, usw., die nützlich sein können bei einem Bestimmen des emotionalen Zustands des Benutzers. In Kombination mit derartigen biometrischen Sensoren oder alternativ können Sensoren, wie Beschleunigungsmesser, Neigungssensoren, Bewegungssensoren, Magnetometer, Gyroskope oder dergleichen, verwendet werden, um Nutzungsdaten über eine Benutzung der mobilen Vorrichtung zu sammeln, um wiederum einen impliziten emotionalen Kontext des Texts zu bestimmen, der in eine Messaging-Anwendung der mobilen Vorrichtung eingegeben wird. Der emotionale Kontext des eingegebenen Texts kann bestimmt werden in einem Texteingabemodus der mobilen Vorrichtung, wie während ein Benutzer den Text eingibt, oder er kann bestimmt werden, nachdem der Text eingegeben wurde. Wie zu sehen sein wird, kann der bestimmte implizite emotionale Text dargestellt werden durch ein Anzeigeelement der mobilen Vorrichtung oder durch ein Anzeigeelement einer entfernten Vorrichtung, mobil oder nicht, mit der die mobile Vorrichtung in Kommunikation ist. Der implizite emotionale Text kann eine oder mehrere Komponenten haben, einschließlich eine Schriftart-Komponente, eine Animationskomponente und eine Farbkomponente, die mit dem bestimmen emotionalen Kontext des eingegebenen Texts assoziiert sind. Auf diese Weise können Emotionen wie Humor, Angst, Wut, Fröhlichkeit, Liebe, Überraschung und andere leicht und einfach in einem Messaging-Anwendungs-Format kommuniziert werden.
- In Übereinstimmung mit einem Ausführungsbeispiel der vorliegenden Offenbarung ist ein Verfahren vorgesehen zum Übermitteln von Emotion in einer Messaging-Anwendung, wobei das Verfahren aufweist: Bestimmen eines emotionalen Kontexts von Text, der in der Messaging-Anwendung einer mobilen Vorrichtung eingegeben wird; Ändern der Art und Weise, wie zumindest ein Teil des Texts dargestellt wird, von einem einfachen bzw. Basis-Text, in dem Text normalerweise in einem Texteingabemodus der mobilen Vorrichtung dargestellt wird, zu einem impliziten emotionalen Text in Übereinstimmung mit dem bestimmten emotionalen Kontext des Texts; und Darstellen des impliziten emotionalen Texts für zumindest den Teil des eingegebenen Texts in einem Anzeigeelement. In Übereinstimmung mit verschiedenen Ausführungsbeispielen kann das Bestimmen des emotionalen Kontexts weiter aufweisen: Bestimmen, ob ein aktueller emotionaler Zustand, der mit dem zumindest einen Teil des Texts assoziiert ist, der in der Messaging-Anwendung der mobilen Vorrichtung eingegeben wird, verschieden ist von einem früheren emotionalen Zustand von Text, der in der Messaging-Anwendung eingebeben wird; und Darstellen des zumindest Teils des Texts als modifizierten Text mit einem emotionalen Kontext, der durch die Differenz zwischen dem aktuellen emotionalen Zustand und dem früheren emotionalen Zustand bestimmt wird, wenn die Differenz zwischen dem aktuellen emotionalen Zustand und dem früheren emotionalen Zustand nicht innerhalb eines normalen emotionalen Bereichs liegt.
- In Übereinstimmung mit einem weiteren Ausführungsbeispiel der vorliegenden Offenbarung ist ein Verfahren zum Übermitteln von Emotion in einer Messaging-Anwendung vorgesehen, das aufweist: Bestimmen eines emotionalen Kontexts von Text, der in der Messaging-Anwendung einer mobilen Vorrichtung eingegeben wird; und Darstellen in der Messaging-Anwendung eines impliziten emotionalen Texts für zumindest einen Teil des Texts, der in der Messaging-Anwendung eingegeben wird, in Übereinstimmung mit dem bestimmten emotionalen Kontext, wobei der implizite emotionale Text für den zumindest Teil des Texts verschieden ist von einem Basistext, in dem Text in der Messaging-Anwendung der mobilen Vorrichtung dargestellt wird.
- In Übereinstimmung mit einem weiteren Ausführungsbeispiel der vorliegenden Offenbarung ist eine mobile Vorrichtung vorgesehen, die aufweist: einen Prozessor zum Steuern eines Betriebs der mobilen Vorrichtung; ein Sensorerfassungselement, das mit dem Prozessor gekoppelt ist und konfiguriert ist, Daten zu erfassen, die repräsentativ sind für einen emotionalen Kontext von Text, der in einer Messaging-Anwendung der mobilen Vorrichtung eingegeben wird; wobei der Prozessor konfiguriert ist, den emotionalen Kontext aus den erfassten Daten zu bestimmen und die Weise zu ändern, wie zumindest ein Teil des Texts normalerweise in einem Texteingabemodus der mobilen Vorrichtung präsentiert wird, in einen impliziten emotionalen Text in Übereinstimmung mit dem bestimmten emotionalen Kontext des Texts.
- In Übereinstimmung mit anderen Ausführungsbeispielen der vorliegenden Offenbarung ist ein Verfahren zum Übermitteln von Emotion in einer Messaging-Anwendung vorgesehen, das aufweist: Erfassen von Sensordaten; Bestimmen eines emotionalen Zustands, der mit Text assoziiert ist, der in der Messaging-Anwendung einer mobilen Vorrichtung eingegeben wird, durch Analysieren der erfassten Sensordaten; Zuordnen des bestimmten emotionalen Zustands zu einem impliziten emotionalen Text; und Darstellen, in der Messaging-Anwendung, des impliziten emotionalen Texts für zumindest einen Teil des eingegebenen Texts in Übereinstimmung mit dem bestimmten emotionalen Zustand.
- In Übereinstimmung mit noch einem weiteren Ausführungsbeispiel der vorliegenden Offenbarung ist ein Verfahren zum Übermitteln von Emotion in einer Messaging-Anwendung vorgesehen, das aufweist: Erfassen von Beschleunigungsmesser-Daten einer mobilen Vorrichtung; Bestimmen eines emotionalen Zustands, der mit den erfassten Beschleunigungsmesser-Daten assoziiert ist, durch Analysieren der erfassten Beschleunigungsmesser-Daten; Zuordnen des bestimmten emotionalen Zustands, der mit den erfassten Beschleunigungsmesser-Daten assoziiert ist, zu einem impliziten emotionalen Text; und Darstellen des impliziten emotionalen Texts für zumindest einen ausgewählten Teil des Texts, der in der Messaging-Anwendung eingegeben wird, in Übereinstimmung mit dem bestimmten emotionalen Zustand.
- In Übereinstimmung mit einem weiteren Ausführungsbeispiel der vorliegenden Offenbarung ist eine mobile Vorrichtung vorgesehen, die aufweist: einen Prozessor zum Steuern eines Betriebs der mobilen Vorrichtung; ein Sensorerfassungselement, das mit dem Prozessor gekoppelt ist und konfiguriert ist, Daten zu erfassen, die mit Text assoziiert sind, der in einer Messaging-Anwendung der mobilen Vorrichtung eingegeben wird; und ein Anzeigeelement, das mit dem Prozessor gekoppelt ist und unter dessen Steuerung steht; wobei der Prozessor konfiguriert ist, einen emotionalen Zustand zu bestimmen, der mit dem eingegebenen Text assoziiert ist, durch Analysieren der erfassten Sensordaten, den bestimmten emotionalen Zustand einem impliziten emotionalen Text zuzuordnen, und den impliziten emotionalen Text in der Messaging-Anwendung über das Anzeigeelement für zumindest einen Teil des eingegebenen Texts darzustellen in Übereinstimmung mit dem bestimmten emotionalen Zustand.
- In Übereinstimmung mit weiteren Ausführungsbeispielen der vorliegenden Offenbarung ist ein Computerprogrammprodukt vorgesehen, das ein computerlesbares Medium aufweist, das Anweisungen in Form eines ausführbaren Programmcodes speichert, um die mobile elektronische Vorrichtung zu veranlassen, die beschriebenen Verfahren durchzuführen.
- Zur Vereinfachung und Übersichtlichkeit der Darstellung können Bezugszeichen bei den Figuren wiederholt werden, um entsprechende oder analoge Elemente anzuzeigen. Eine Vielzahl von Details wird dargelegt, um ein Verständnis der hier beschriebenen Ausführungsbeispiele vorzusehen. Die Ausführungsbeispiele können ohne diese Details praktiziert werden. In anderen Instanzen werden allgemein bekannte Verfahren, Vorgänge und Komponenten nicht im Detail beschrieben, um ein Verschleiern der beschriebenen Ausführungsbeispiele zu vermeiden. Die Beschreibung soll nicht den Umfang der hier beschriebenen Ausführungsbeispiele beschränken.
- Wie hier verwendet, ist eine mobile elektronische Vorrichtung, die manchmal als eine handgehaltene elektronische Vorrichtung oder einfach als eine elektronische Vorrichtung bezeichnet wird, eine Zweiweg-Kommunikationsvorrichtung, die zumindest Daten- und möglicherweise auch Sprachkommunikationsfähigkeiten hat und die Fähigkeit zur Kommunikation mit anderen mobilen Vorrichtungen oder Computersystemen, zum Beispiel über das Internet. Abhängig von der Funktionalität, die von der mobilen elektronischen Vorrichtung in den verschiedenen hier beschriebenen Ausführungsbeispielen vorgesehen ist, kann die Vorrichtung eine Datenkommunikationsvorrichtung, eine Mehrfach-Modus-Kommunikationsvorrichtung, die sowohl für Daten- als auch Sprachkommunikation konfiguriert ist, ein Smartphone, ein Mobiltelefon oder ein PDA (Personal Digital Assistant), betriebsfähig für eine drahtlose Kommunikation, oder ein Computersystem mit einem drahtlosen Modem sein. Andere Beispiele für mobile elektronische Vorrichtungen umfassen mobile oder handgehaltene drahtlose Kommunikationsvorrichtungen wie Pager, zellulare Telefone, zellulare Smartphones, drahtlose Organizer, drahtlos betriebsfähige Notebook-Computer, und so weiter. Die mobile elektronische Vorrichtung kann auch eine tragbare elektronische Vorrichtung ohne drahtlose Kommunikationsfähigkeiten sein, wie eine handgehaltene elektronische Spielevorrichtung, ein digitales Fotoalbum, eine Digitalkamera oder eine andere Vorrichtung.
- Unter Bezugnahme nun auf die
1A –1C werden drei Screenshots einer Berührungsbildschirmanzeige und Schnittstelle einer mobilen Vorrichtung gezeigt. In der1A ist zu sehen, dass ein Benutzer den folgenden Text „I can't, work is frantic (Ich kann nicht, Arbeit ist hektisch)” in eine Messaging-Anwendung eingegeben hat in Antwort auf die Frage „Do you want to meet for lunch? (Willst Du dich zum Mittagessen treffen?)”. Auf dem Anzeigebildschirm ist zu sehen, dass das Wort „frantic!” klar kommuniziert, dass der Verfasser tatsächlich hektisch (frantic) ist; die Buchstaben des Worts sind alle großgeschrieben, größer und können in einer Farbe sein, die einen hektischen Zustand bezeichnet, wie Rot. Das Wort frantic! ist ein impliziter emotionaler Text, impliziert aus Daten, die von einem oder mehreren Sensoren der mobilen elektronischen Vorrichtung empfangen und analysiert werden, um einen emotionalen Kontext zu bestimmen, wie beschrieben wird. Die gesammelten Daten können biometrische Daten sein, wie Puls, Blutdruck, Hautwiderstand, die unfreiwillige biometrische Information über die Stimmung oder Emotion des Benutzers der mobilen Vorrichtung liefern, oder die erfassten Daten können Nutzungsdaten sein, die eine Nutzungsinformation darüber liefern, wie der Benutzer die mobile Vorrichtung benutzt. Eine Kombination dieser zwei kann verwendet werden, wenn dies gewünscht wird. In dem Fall der biometrischen Daten, die unfreiwillige, physiologische Daten über den Benutzer repräsentieren, ist die Erhebung derartiger Daten für den Benutzer eindeutig transparent und steigert sicherlich die Flüssigkeit einer schnellen Messaging Erfahrung. - Betrachtet wird nun das folgende Beispiel, in dem der implizite emotionale Text aus analysierten Nutzungsdaten bestimmt wird. In
1A wird gezeigt, dass der Benutzer nach einem Eintippen von „frantic!” ein Trackpad gedrückt hält und dann die mobile Vorrichtung auf eine heftige aggressive Art und Weise schüttelt. Diese aggressive Nutzung der mobilen Vorrichtung wird durch die zackigen vertikalen Linien angezeigt, markiert als „HEKTISCHE BEWEGUNG bzw. FRANTIC MOTION”, auf beiden Seiten der mobilen Vorrichtung in der1A . Die Nutzungsdaten (schütteln der mobilen Vorrichtung heftig und aggressiv) werden durch einen oder mehrere Sensor(en) der mobilen Vorrichtung erfasst, wie ein Beschleunigungsmesser, und durch einen Prozessor der mobilen Vorrichtung analysiert, um den impliziten emotionalen Text zu erzeugen: nur Großbuchstaben, Farbe rot (zum Beispiel), in Kursivschrift und eine aggressivere Schriftart. Es ist zu sehen, dass sich der implizite emotionale Text von frantic! deutlich unterscheidet von dem Basistext „I can't, work is”. In diesem Beispiel hat der implizite emotionale Text eine Schriftartkomponente (eine aggressive Schrift) und eine Farbkomponente (rot), die deutlich verschieden ist von dem Basistext in der Messaging-Anwendung. Es ist zwar in der Zeichnung nicht zu sehen, der implizite emotionale Text kann zusätzlich eine Animationskomponente umfassen, zum Beispiel, dass sich das Wort FRANTIC! hektisch (frantic!) bewegt. - In der nächsten Zeichnung von
1B hat der Benutzer eine Nachricht geschrieben „I'm feeling better already (Ich fühle mich schon besser)”, was in dem Basistext der Messaging-Anwendung gezeigt wird. In1C geht der Benutzer zurück und wählt das Wort „better (besser)” aus durch dessen Berührung auf dem Berührungsbildschirm und bewegt dann die Vorrichtung sanft vor und zurück. Diese sanfte Benutzung der mobilen Vorrichtung wird angezeigt durch die glatten gewellten vertikalen Linien auf beiden Seiten der mobilen Vorrichtung, markiert als „GENTLE MOTION bzw. SANFTE BEWEGUNG”; diese sanfte Bewegung unterscheidet sich deutlich von der hektischen Bewegung der mobilen Vorrichtung in1A . Dies hat den Effekt eines Änderns der Schriftart des Worts „better (besser)” von einer Basisschriftart in einen impliziten emotionalen Text mit einer weicheren Schriftart und einer beruhigenderen Schriftfarbe, wie einem hellen blau statt der härteren schwarzen Schriftfarbe. Die implizite emotionale Textdarstellung von „better (besser)” hat eine Schriftartkomponente und eine Farbkomponente, wie gezeigt. - Eine Sammlung von Daten, Nutzungsdaten oder biometrische Daten oder beide, kann in Reaktion auf ein auslösendes Ereignis beginnen, oder es kann sein, dass Sensordaten immer in einem Texteingabemodus oder auf andere Weise gesammelt werden; dies kann zum Beispiel der Fall sein bei einer Erfassung von biometrischen Daten, die keine affirmative Handlung oder Entscheidung des Benutzers erfordern, um mit deren Sammlung zu beginnen. Ein auslösendes Ereignis kann sein ein Start eines Texteingabemodus der mobilen Vorrichtung, ein Erfassen, dass der Benutzer der mobilen Vorrichtung ein Navigationselement der mobilen Vorrichtung aktiviert, um einen Teil eines eingegebenen Texts auszuwählen. Das Navigationselement kann ein optionaler Joystick (OJ – optional joystick) der mobilen Vorrichtung, ein Trackball der mobilen Vorrichtung, ein Berührungsbildschirm der mobilen Vorrichtung, usw. sein.
- In dem obigen Beispiel kann die Auswahl eines Teils des Texts („frantic!” in Figur
1A und „better” in1C ) durch den Benutzer als ein Auslöseereegnis für die Sensoren der mobilen Vorrichtung wirken, um die Nutzungsdaten zu erfassen, aus denen der implizite emotionale Text bestimmt wird. Oder es muss kein Auslöseereignis erforderlich sein. Nutzungsdaten können jederzeit während des Betriebs der mobilen Vorrichtung oder während eines Texteingabemodus der mobilen Vorrichtung erfasst werde. -
2 sieht ein beispielhaftes Ausführungsbeispiel vor, bei dem der Übergang von einem ersten zu einem zweiten impliziten emotionalen Text nahtlos ohne Beteiligung des Benutzers erreicht wird, basierend auf einem Erfassen und Analysieren gesammelter biometrischer Daten des Benutzers. Impliziter emotionaler Text1 für „I'm happy (Ich bin fröhlich)” zeigt eine zartere, fröhlichere Schriftart (wie rosa oder gelb) und eventuell Schriftfarbe als der implizite emotionale Text2 für „now I'm angry (jetzt bin ich wütend)”, der eine wütende, aggressivere Emotion übermittelt durch die Verwendung einer „wütenden” Schriftart, größeren Größe, und möglicherweise Schriftfarbe (beispielsweise rot). -
3 ist eine Darstellung einer mobilen elektronischen Vorrichtung300 in Übereinstimmung mit verschiedenen hier offenbarten Ausführungsbeispielen. Die mobile elektronische Vorrichtung300 hat einen Bildschirm310 zum Anzeigen von Information, eine Tastatur320 zum Eingeben von Information, wie zum Verfassen von Email-Nachrichten, und eine Zeigevorrichtung330 , wie ein Trackball, Trackwheel, Touchpad und dergleichen, zum Navigieren durch Elemente auf dem Bildschirm310 . In diesem beispielhaften Ausführungsbeispiel hat die Vorrichtung300 auch eine Taste340 zum Initiieren einer Telefonanwendung (nicht dargestellt) und eine Taste350 zum Beenden von Telefonanrufen. -
4 ist ein Blockdiagramm einer beispielhaften funktionalen Darstellung der mobilen elektronischen Vorrichtung300 von3 in Übereinstimmung mit verschiedenen hier offenbarten Ausführungsbeispielen. Die mobile elektronische Vorrichtung300 umfasst mehrere Komponenten, wie einen Prozessor402 , der den gesamten Betrieb der mobilen elektronischen Vorrichtung300 steuert. Kommunikationsfunktionen, einschließlich Daten- und Sprachkommunikation, werden durch ein Kommunikationsteilsystem404 durchgeführt. Das Kommunikationsteilsystem404 empfängt Daten von einem drahtlosen Weitbereichsnetzwerk850 und sendet Daten an dieses in einer Langstrecken-Kommunikation. Ein Beispiel der von dem Kommunikationsteilsystem gesendeten oder durch dieses empfangenen Daten umfasst Email-Nachrichten, SMS (Short Messaging System), Webinhalt und elektronischen Inhalt, ist aber nicht darauf beschränkt. Das drahtlose Netzwerk850 ist zum Beispiel ein zellulares Netzwerk. In einigen beispielhaften Ausführungsbeispielen ist das Netzwerk850 ein WiMaxTM-Netzwerk, ein drahtloses lokales Netzwerk (WLAN – wireless local area network), das mit dem Internet verbunden ist, oder jedes andere geeignete Kommunikationsnetzwerk. In anderen beispielhaften Ausführungsbeispielen werden andere drahtlose Netzwerke in Betracht gezogen, einschließlich, aber nicht darauf beschränkt, drahtlose Datennetzwerke, drahtlose Sprachnetzwerke und Netzwerke, die sowohl Sprach- als auch Datenkommunikationen unterstützen. - Eine Stromquelle
442 , wie eine oder mehrere wiederaufladbare Batterie(n), ein Anschluss an eine externe Stromversorgung, eine Brennstoffzelle oder eine Solarzelle, versorgt die mobile elektronische Vorrichtung300 mit Energie. - Der Prozessor
402 interagiert mit anderen funktionalen Komponenten, wie RAM (random access memory)408 , Speicher410 , einem Anzeigebildschirm310 (wie zum Beispiel eine LCD), der betriebsfähig mit einer elektronischen Steuervorrichtung416 verbunden ist, so dass sie zusammen ein Anzeigeteilsystem418 , ein Eingabe/Ausgabe(I/O – Input/Output)-Teilsystem424 , einen Datenanschluss426 , einen Lautsprecher428 , ein Mikrophon430 , ein Nahbereichs-Kommunikationsteilsystem432 , ein Sensorerfassungs-Teilsystem460 und andere Teilsysteme434 aufweisen. Es ist anzumerken, dass die elektronische Steuervorrichtung416 des Anzeigeteilsystems418 nicht physikalisch mit dem Anzeigebildschirm310 integriert sein muss. - Die Hilfs-Eingabe/Ausgabe-Teilsysteme
424 können Eingabevorrichtungen umfassen, wie eine oder mehrere Steuerungstaste(n), eine Tastatur oder ein Tastenfeld, ein Navigations-Tool (Eingabevorrichtung) oder beides. Das Navigations-Tool kann ein klickbarer/drückbarer Trackball oder Scrollrad oder ein Touchpad sein. Eine Benutzerinteraktion mit einer grafischen Benutzerschnittstelle wird durch das Eingabe/Ausgabe-Teilsystem424 durchgeführt. - Die mobile elektronische Vorrichtung
300 umfasst auch eine oder mehrere Uhren, einschließlich einer Systemuhr (nicht gezeigt) und einer Schlafuhr (nicht gezeigt). In anderen Ausführungsbeispielen arbeitet eine einzelne Uhr als sowohl Systemuhr als auch Schlafuhr. Die Schlafuhr ist eine Uhr mit geringerer Leistung und geringerer Frequenz. - Zur Identifizierung eines Teilnehmers für einen Netzwerkzugriff verwendet die mobile elektronische Vorrichtung
300 eine SIM(Subscriber Identity Module)- oder eine RUIM(Removable User Identity Module)-Karte438 zur Kommunikation mit einem Netzwerk, wie dem drahtlosen Netzwerk850 . Alternativ ist eine Benutzeridentifikationsinformation in dem Speicher410 programmiert. - Die mobile elektronische Vorrichtung
300 umfasst ein Betriebssystem446 und Software-Programme, Teilroutinen oder Komponenten448 , die von dem Prozessor402 ausgeführt werden und typischerweise in einem persistenten, aktualisierbaren Speicher gespeichert sind, wie dem Speicher410 . In einigen beispielhaften Ausführungsbeispielen umfassen Software-Programme448 zum Beispiel „Personal Information Management”-Anwendungen, Kommunikations-Anwendungen, Messaging-Anwendungen, Spiele und dergleichen. - Ein elektronischer Inhalt-Manager
480 ist in dem Speicher410 der Vorrichtung300 enthalten. Der elektronische Inhalt-Manager480 ermöglicht der Vorrichtung300 , elektronischen Inhalt zu holen, herunterzuladen, zu senden, zu empfangen und anzuzeigen, wie detailliert unten beschrieben wird. - Ein elektronischer Inhalt-Repository-Speicher
490 ist ebenfalls in dem Speicher410 der Vorrichtung300 enthalten. Der/Die elektronische Inhalt-Repository-Speicher oder -Datenbank490 speichert elektronischen Inhalt, wie elektronische Bücher, Videos, Musik, Multimedia, Fotos und dergleichen. - Zusätzliche Anwendungen oder Programme werden auf die mobile elektronische Vorrichtung
300 zum Beispiel über einen Datenanschluss426 geladen. In einigen Ausführungsbeispielen werden Programme über das drahtlose Netzwerk850 , das Hilfs-Eingabe/Ausgabe-Teilsystem424 , das Nahbereichs-Kommunikationsteilsystem432 oder jedes andere geeignete Teilsystem434 geladen. - Wie weiter beschrieben wird, kann das Sensorerfassungs-Teilsystem
460 Sensoren umfassen, die in der Lage sind, einen aktuellen emotionalen Zustand zu erfassen, der mit einem Text assoziiert ist, der in eine Messaging-Anwendung eingegeben wird, die von der mobilen elektronischen Vorrichtung300 ausgeführt wird. Der emotionale Zustand kann bestimmt werden durch einen erfassten emotionalen Zustand eines Benutzers der mobilen Vorrichtung, in diesem Fall können die Sensoren biometrische Sensoren des Typs sein, der verschiedene physiologische Informationen über einen Benutzer erfassen kann, wie Blutdruck-Sensoren, Herzfrequenz-Sensoren, Beschleunigungsmesser-Sensoren (die zum Beispiel Schütteln, Zittern oder andere Bewegungen erfassen können), Video-Sensoren, die betriebsfähig sind zum Erfassen von Gesichtsausdrücken eines Benutzers, und galvanische Hautreaktions(Galvanic skin response)-Sensoren. Biometrische Daten, die von derartigen biometrischen Sensoren erfasst werden, können als unfreiwillig, automatisch und nicht innerhalb einer Steuerung durch den Benutzer sein. Der emotionale Zustand kann auch durch eine Nutzung der mobilen elektronischen Vorrichtung bestimmt werden und kann weiter unter der direkten Steuerung des Benutzers sein. Sensoren, die Nutzungsdaten erfassen können, umfassen Bewegungs-Sensoren oder -Teilsysteme, wie Beschleunigungsmesser und Bewegungssensoren, Gyroskope, Neigungssensoren und Magnetometer. Es ist offensichtlich, dass Sensoren, die zur Erfassung von biometrischer oder Nutzungsinformation verwendet werden, in jeder gewünschten Konfiguration verwendet werden können, einschließlich einzeln oder in Kombination, und alle diese Konfigurationen sind vorstellbar, wenn auf ein Sensorerfassungs-Teilsystem460 Bezug genommen wird. - Die hier offenbarten Ausführungsbeispiele können zusätzlich durch eine oder mehrere mobile elektronische Vorrichtungen implementiert werden, die einen „virtuelle Tastatur”-Modus und eine berührungsempfindliche Eingabeoberfläche einsetzen, wie in Zusammenhang mit den
1A –1C zum Beispiel diskutiert wird. Die vorliegende Offenbarung beschreibt eine mobile elektronische Vorrichtung mit einem Berührungsbildschirm und ein Verfahren zur Verwendung eines Berührungsbildschirms einer handgehaltenen elektronischen Vorrichtung. Die handgehaltene elektronische Vorrichtung kann einen oder mehrere aus einem Tastatur-Modus und einem Eingabe-Verifizierungs-Modus haben, und kann betriebsfähig sein, zwischen diesen Modi zu wechseln, zum Beispiel basierend auf einer jeweiligen Vorrichtungseinstellung oder einer Benutzereingabe. In dem Tastatur-Modus wird ein Tastatur-Benutzer-Schnittstellenelement auf dem Berührungsbildschirm dargestellt (als eine virtuelle Tastatur bezeichnet). Der Berührungsbildschirm wird verwendet, um Berührungseingaben zu empfangen, die aus der Anwendung einer Berührungskraft auf die Eingabeoberfläche des Berührungsbildschirms resultieren. - Unter Bezugnahme nun auf die
5A und5B umfasst die mobile elektronische Vorrichtung502 ein starres Gehäuse504 zur Aufnahme der Komponenten der mobilen elektronischen Vorrichtung502 , das konfiguriert ist, in einer Hand des Benutzers gehalten zu werden, während die mobile elektronische Vorrichtung502 benutzt wird. Das Gehäuse504 hat gegenüberliegende obere und untere Enden, die durch die Bezugszeichen522 beziehungsweise524 bezeichnet werden, und linke und rechte Seiten, die durch die Bezugszeichen526 beziehungsweise528 bezeichnet werden, die sich quer zu den oberen und unteren Enden522 ,524 erstrecken. In den gezeigten Ausführungsbeispielen der5A und5B ist das Gehäuse504 (und die Vorrichtung502 ) länglich mit einer Länge, die zwischen den oberen und unteren Enden522 ,524 länger definiert ist als eine Breite, die zwischen den linken und rechten Seiten526 ,528 definiert ist. Andere Dimensionen der Vorrichtung sind ebenfalls möglich. - Die mobile elektronische Vorrichtung
502 weist eine Berührungsbildschirmanzeige506 auf, die in einer Vorderseite505 des Gehäuses504 angebracht ist, ein Bewegungserfassungs-Teilsystem649 mit einem Erfassungselement zum Erfassen einer Bewegung und/oder Ausrichtung der mobilen elektronischen Vorrichtung502 . Die berührungsempfindliche Anzeige506 kann jede geeignete berührungsempfindliche Anzeige sein, wie eine kapazitive, resistive, Infrarot, berührungsempfindliche SAW(surface acoustic wave)-Anzeige, Dehnungsmesser, optische Abbildung, dispersive Signal-Technologie, Akustikimpuls-Erkennung, und so weiter, wie in der Technik bekannt ist. Eine kapazitive berührungsempfindliche Anzeige kann eine kapazitive berührungsempfindliche Überlagerung haben. Die Überlagerung kann eine Baugruppe aus mehreren Schichten in einem Stapel sein, einschließlich zum Beispiel ein Substrat, eine Erdungsabschirmungsschicht, eine Sperrschicht, eine oder mehrere kapazitive Berührungs-Sensor-Schichten, die durch ein Substrat oder eine andere Barriere getrennt sind, und eine Abdeckung. Die kapazitiven Berührungs-Sensor-Schichten können aus jedem geeigneten Material sein, wie gemustertes Indium-Zinn-Oxid (ITO). - Das Bewegungserfassungs-Teilsystem
649 wird verwendet, wenn die Vorrichtung502 in einem Tastatur-Modus, Eingabeverifizierungs-Modus, Kalibrierungsmodus oder in anderen Modi ist, die eine Eingabe von einem Bewegungssensor verwenden. Zusätzlich, wie hier beschrieben wird, kann das Bewegungserfassungssystem verwendet werden zum Erfassen einer Bewegung der Vorrichtung502 , um einen emotionalen Kontext von Text zu bestimmen, der in eine Messaging-Anwendung eingegeben wird, die auf der mobilen Vorrichtung502 läuft. Ferner können andere Typen von Sensorerfassungs-Teilsystemen680 von6 eingesetzt werden zum Bestimmen eines emotionalen Kontexts von Text. Obwohl das Gehäuse504 als eine einzelne Einheit gezeigt wird, kann es unter anderen möglichen Konfigurationen zwei oder mehr Gehäuseelemente haben, die miteinander verbunden sind (wie eine Flip-Telefon-Konfiguration oder ein zweischaliger Laptop-Computer zum Beispiel), oder kann ein „Slider-Telefon” sein, bei dem sich die Tastatur in einem ersten Körper befindet, der verschiebbar verbunden ist mit einem zweiten Körper, in dem sich der Anzeigebildschirm befindet, wobei die Vorrichtung derart konfiguriert ist, dass der erste Körper, in dem sich die Tastatur befindet, zur Benutzung aus dem zweiten Körper herausgeschoben werden kann. - Die Berührungsbildschirmanzeige
506 umfasst eine berührungsempfindliche Eingabeoberfläche508 , die über einer Anzeigevorrichtung642 von6 liegt, wie ein Flüssigkristallanzeige(LCD – liquid crystal display)-Bildschirm. Die Berührungsbildschirmanzeige506 kann konfiguriert sein, die Position und möglicherweise den Druck von einem oder mehreren Objekten gleichzeitig zu erfassen. In einigen Ausführungsbeispielen weist die Berührungsbildschirmanzeige506 einen kapazitiven Berührungsbildschirm oder einen resistiven Berührungsbildschirm auf, wie in der Technik bekannt ist. - Unter Bezugnahme nun auf das Blockdiagramm
600 von6 ist zu sehen, dass das Kommunikationsteilsystem611 einen Empfänger614 , einen Sender616 , und zugehörige Komponenten umfasst, wie ein oder mehrere Antennenelemente618 und620 , lokale Oszillatoren (LOs – local oscillators)622 und ein Verarbeitungsmodul, wie einen digitalen Signalprozessor (DSP – digital signal processor)624 . Die Antennenelemente618 und621 können eingebettet oder intern zu der mobilen elektronischen Vorrichtung502 sein und eine einzelne Antenne kann sowohl von dem Empfänger als auch dem Sender verwendet werden, wie in der Technik bekannt ist. Wie für Fachleute auf dem Gebiet der Kommunikation offensichtlich ist, hängt die bestimmte Ausgestaltung des Kommunikationsteilsystems621 von dem drahtlosen Netzwerk604 ab, in dem die mobile elektronische Vorrichtung502 arbeiten soll. - Die mobile elektronische Vorrichtung
502 kann mit einer aus einer Vielzahl von festen Transceiver-Basisstationen (nicht dargestellt) des drahtlosen Netzwerks604 innerhalb ihres geographischen Abdeckungsbereichs kommunizieren. Die mobile elektronische Vorrichtung502 kann Kommunikationssignale über das drahtlose Netzwerk604 senden und empfangen, nachdem die erforderlichen Netzwerk-Registrierungs- oder Aktivierungs-Verfahren abgeschlossen sind. Signale, die von der Antenne618 über das drahtlose Netzwerk604 empfangen werden, werden in den Empfänger614 eingegeben, der solche allgemeinen Empfängerfunktionen durchführen kann wie Signalverstärkung, Frequenzabwärtswandlung, Filterung, Kanalauswahl, usw., sowie Analog-Digital-Wandlung (ADC – analog-to-digital conversion). Die ADC eines empfangenen Signals ermöglicht, dass komplexere Kommunikationsfunktionen, wie Demodulation und Decodierung, in dem DSP624 durchgeführt werden können. Auf ähnliche Weise werden zu sendende Signale verarbeitet, einschließlich Modulation und Codierung zum Beispiel, durch den DSP624 . Diese DSP-verarbeiteten Signale werden in den Sender616 eingegeben für eine Digital-Analog-Wandlung (DAC – digital-to-analog conversion), Frequenzaufwärtswandlung, Filterung, Verstärkung und Übertragung an das drahtlose Netzwerk604 über die Antenne620 . Der DSP624 verarbeitet nicht nur Kommunikationssignale, sondern kann auch eine Empfänger- und Sender-Steuerung vorsehen. Zum Beispiel können die Verstärkungen, die auf Kommunikationssignale in dem Empfänger614 und dem Sender616 angewendet werden, adaptiv gesteuert werden durch automatische Verstärkungssteuerungs(AGC – automatic gain control)-Algorithmen, die in dem DSP624 implementiert sind. - Es ist offensichtlich, dass eine Vielzahl von möglichen drahtlosen Netzwerk-Konfigurationen zur Verwendung mit der mobilen elektronischen Vorrichtung
502 eingesetzt werden kann. Die verschiedenen Typen von drahtlosen Netzwerken604 , die implementiert werden können, umfassen zum Beispiel Daten-zentrische drahtlose Netzwerke, Sprach-zentrische drahtlose Netzwerke und Dual-Modus-Netzwerke, die sowohl Sprach- als auch Datenkommunikationen über dieselben physikalischen Basisstationen unterstützen können. Neue Standards werden weiterhin definiert, aber es wird angenommen, dass sie Ähnlichkeiten zu dem hier beschriebenen Netzwerkverhalten haben, und es ist für Fachleute auch offensichtlich, dass die hier beschriebenen Ausführungsbeispiele andere geeignete Standards verwenden sollen, die in der Zukunft entwickelt werden. - Die mobile elektronische Vorrichtung
502 umfasst einen Prozessor640 , der den gesamten Betrieb der mobilen elektronischen Vorrichtung502 steuert. Der Prozessor640 interagiert mit dem Kommunikationsteilsystem611 , das Kommunikationsfunktionen durchführt. Der Prozessor640 interagiert mit Vorrichtungsteilsystemen, wie der berührungsempfindlichen Eingabeoberfläche508 , der Anzeigevorrichtung642 , wie ein Flüssigkristallanzeige(LCD – liquid crystal display)-Bildschirm, ein Flash-Speicher644 , RAM (random access memory)646 , ROM (read only memory)648 , Hilfs-Eingabe/Ausgabe(I/O – input/output)-Teilsysteme650 , ein Datenanschluss652 , wie ein serieller Datenanschluss (zum Beispiel ein USB(Universal Serial Bus)-Datenanschluss), ein Lautsprecher656 , ein Mikrofon658 , ein Navigations-Tool570 , wie ein Scrollrad (Thumbwheel) oder Trackball, ein Nahbereichs-Kommunikationsteilsystem662 , und andere Vorrichtungs-Teilsysteme, die allgemein mit664 bezeichnet werden. Einige der in6 gezeigten Teilsysteme führen Kommunikations-bezogene Funktionen durch, während andere Teilsysteme „residente” Funktionen oder Funktionen auf der Vorrichtung vorsehen. - Der Prozessor
640 arbeitet unter gespeicherter Programmsteuerung und führt Software-Module621 aus, die in einem Speicher gespeichert sind, wie persistenter Speicher zum Beispiel, in dem Flash-Speicher644 . Die Software-Module600 weisen eine Betriebssystemsoftware623 , Software-Anwendungen625 , ein „virtuelle Tastatur”-Modul626 , und ein Eingabeverifizierungs-Modul628 auf. Für Fachleute ist offensichtlich, dass die Software-Module621 oder Teile davon temporär in einen volatilen Speicher, wie RAM646 , geladen werden können. Der RAM646 wird verwendet zum Speichern von Laufzeitdatenvariablen und anderen Typen von Daten oder Information, wie für Fachleute offensichtlich ist. Obgleich spezifische Funktionen für verschiedene Typen von Speicher beschrieben werden, ist dies nur ein Beispiel, und für Fachleute ist offensichtlich, dass eine andere Zuweisung von Funktionen zu Typen von Speicher ebenfalls verwendet werden kann. - Die Software-Anwendungen
625 können eine Vielzahl von Anwendungen umfassen, einschließlich zum Beispiel eine Adressbuch-Anwendung, eine Messaging-Anwendung, eine Kalender-Anwendung und/oder eine Notepad-Anwendung. In einigen Ausführungsbeispielen umfassen die Software-Anwendungen625 eine oder mehrere aus einer Web-Browser-Anwendung (d. h. für eine Web-fähige mobile Kommunikationsvorrichtung), einer Email-Nachricht-Anwendung, einer Push-Inhalt-Anzeige-Anwendung, einer Sprachkommunikations(d. h. Telefon)-Anwendung, einer Karten-Anwendung und einer Media-Player-Anwendung. Jede der Software-Anwendungen625 kann eine Layout-Information umfassen, die die Platzierung von bestimmten Feldern und grafischen Elementen (zum Beispiel Textfelder, Eingabefelder, Icons, usw.) in der Benutzerschnittstelle (d. h. die Anzeigevorrichtung642 ) gemäß der Anwendung definiert. - In einigen Ausführungsbeispielen können die Hilfs-Eingabe/Ausgabe(E/A bzw. I/O)-Teilsysteme
650 eine externe Kommunikationsverbindung oder -schnittstelle aufweisen, zum Beispiel eine Ethernet-Verbindung. Die mobile elektronische Vorrichtung502 kann andere drahtlose Kommunikationsschnittstellen zum Kommunizieren mit anderen Typen von drahtlosen Netzwerken aufweisen, zum Beispiel ein drahtloses Netzwerk wie ein OFDM(orthogonal frequency division multiplexed)-Netzwerk oder ein GPS-Transceiver zur Kommunikation mit einem GPS-Satelliten-Netzwerk (nicht gezeigt). Die Hilfs-Eingabe/Ausgabe-Teilsysteme650 können eine Vibrationsvorrichtung aufweisen zum Vorsehen von Vibrations-Benachrichtigungen in Reaktion auf verschiedene Ereignisse auf der mobilen elektronischen Vorrichtung502 , wie ein Empfang einer elektronischen Kommunikation oder ein eingehender Telefonanruf. - In einigen Ausführungsbeispielen umfasst die mobile elektronische Vorrichtung
502 auch eine entfernbare Speicherkarte630 (typischerweise einen Flash-Speicher aufweisend) und eine Speicherkarte-Schnittstelle632 . Ein Netzwerkzugang ist typischerweise mit einem Teilnehmer oder einem Benutzer der mobilen elektronischen Vorrichtung502 über die Speicherkarte630 assoziiert, die eine SIM(Subscriber identity Module)-Karte sein kann zur Verwendung in einem GSM-Netzwerk, oder ein anderer Typ von Speicherkarte zur Verwendung in dem relevanten drahtlosen Netzwerk-Typ. Die Speicherkarte630 ist in die Speicherkarte-Schnittstelle632 der mobilen elektronischen Vorrichtung502 eingefügt oder mit dieser verbunden, um in Verbindung mit dem drahtlosen Netzwerk604 zu arbeiten. - Die mobile elektronische Vorrichtung
502 speichert Daten627 in einem löschbaren persistenten Speicher, der in einem beispielhaften Ausführungsbeispiel der Flash-Speicher644 ist. In verschiedenen Ausführungsbeispielen umfassen die Daten627 Dienstdaten, die Information aufweisen, die von der mobilen elektronischen Vorrichtung502 erforderlich ist, um eine Kommunikation mit dem drahtlosen Netzwerk604 herzustellen und zu führen. Die Daten627 können auch Benutzeranwendungsdaten umfassen, wie Email-Nachrichten, Adressbuch- und Kontaktinformation, Kalender- und Schedule-Information, Notepad-Dokumente, Bilddateien und andere häufig gespeicherte Benutzerinformation, die auf der mobilen elektronischen Vorrichtung502 durch ihren Benutzer gespeichert wird, und andere Daten. Die Daten627 , die in dem persistenten Speicher (zum Beispiel Flash-Speicher644 ) der mobilen elektronischen Vorrichtung502 gespeichert werden, können zumindest teilweise in eine Anzahl von Datenbanken organisiert werden, die jeweils Datenelemente des gleichen Datentyps enthalten oder mit derselben Anwendung assoziiert sind. Zum Beispiel können Email-Nachrichten, Kontaktdatensätze und Aufgabenelemente in einzelnen Datenbanken in dem Speicher der Vorrichtung gespeichert werden. - Der serielle Datenanschluss
652 kann für eine Synchronisation mit einem Host-Computersystem eines Benutzers verwendet werden (nicht gezeigt). Der serielle Datenanschluss652 ermöglicht einem Benutzer, Präferenzen über eine externe Vorrichtung oder Software-Anwendung zu setzen und erweitert die Möglichkeiten der mobilen elektronischen Vorrichtung502 durch Liefern von Information oder Software-Downloads an die mobile elektronische Vorrichtung502 , anders als über das drahtlose Netzwerk604 . Der alternative Download-Pfad kann zum Beispiel verwendet werden, um einen Verschlüsselungsschlüssel auf die mobile elektronische Vorrichtung502 über eine direkte, zuverlässige und vertrauenswürdige Verbindung zu laden, um somit eine sichere Vorrichtungskommunikation vorzusehen. - In einigen Ausführungsbeispielen ist die mobile elektronische Vorrichtung
502 mit einer Dienst-Routing-API (Application Programming Interface) versehen, die eine Anwendung mit der Möglichkeit bietet, einen Verkehr über eine serielle Daten(d. h. USB)- oder Bluetooth®-Verbindung an das Host-Computersystem zu leiten unter Verwendung von Standard-Konnektivitäts-Protokollen. Wenn ein Benutzer seine mobile elektronische Vorrichtung502 über ein USB-Kabel oder eine Bluetooth®-Verbindung mit dem Host-Computersystem verbindet, wird Verkehr, der für das drahtlose Netzwerk604 bestimmt war, automatisch an die mobile elektronische Vorrichtung502 geleitet unter Verwendung des USB-Kabels oder der Bluetooth®-Verbindung. Ähnlich wird Verkehr, der für das drahtlose Netzwerk604 bestimmt ist, automatisch über das USB-Kabel oder die Bluetooth®-Verbindung an das Host-Computersystem gesendet zur Verarbeitung. - Die mobile elektronische Vorrichtung
502 umfasst auch eine Batterie638 als eine Stromquelle, die typischerweise eine oder mehrere wiederaufladbare Batterien) ist, die geladen werden können zum Beispiel über eine Ladeschaltung, die mit einer Batterieschnittstelle verbunden ist, wie der serielle Datenanschluss652 . Die Batterie638 liefert elektrischen Strom für zumindest einen Teil der elektrischen Schaltung in der mobilen elektronischen Vorrichtung502 , und die Batterieschnittstelle636 sieht eine mechanische und elektrische Verbindung für die Batterie638 vor. Die Batterieschnittstelle636 ist mit einem Regulator (nicht gezeigt) gekoppelt, der eine Leistung V+ für die Schaltung der mobilen elektronischen Vorrichtung502 liefert. - Das Nahbereichs-Kommunikationsteilsystem
662 ist eine zusätzliche optionale Komponente, die eine Kommunikation zwischen der mobilen elektronischen Vorrichtung502 und verschiedenen Systemen oder Vorrichtungen vorsieht, die nicht notwendigerweise ähnliche Vorrichtungen sein müssen. Zum Beispiel kann das Teilsystem662 umfassen eine Infrarot-Vorrichtung und zugehörige Schaltungen und Komponenten oder einen Drahtlos-Bus-Protokoll-konformen Kommunikationsmechanismus, wie ein Bluetooth®-Kommunikationsmodul, um eine Kommunikation mit ähnlich aktivierten Systemen und Vorrichtungen vorzusehen (Bluetooth® ist eine eingetragene Marke von Bluetooth SIG, Inc.). - Ein vorgegebener Satz von Anwendungen, die grundlegende Vorrichtungsoperationen steuern, einschließlich Daten- und möglicherweise Sprachkommunikations-Anwendungen, wird normalerweise auf der mobilen elektronischen Vorrichtung
502 während oder nach der Herstellung installiert. Zusätzliche Anwendungen und/oder Aktualisierungen des Betriebssystems623 oder von Software-Anwendungen625 können ebenfalls auf die mobile elektronische Vorrichtung502 geladen werden über das drahtlose Netzwerk604 , das Hilfs-Eingabe/Ausgabe-Teilsystem650 , den seriellen Anschluss652 , das Nahbereichs-Kommunikationsteilsystem662 , oder ein anderes geeignetes Teilsystem664 über andere drahtlose Kommunikationsschnittstellen. Die heruntergeladenen Programme oder Code-Module können dauerhaft installiert werden, zum Beispiel in den Programmspeicher (d. h. den Flash-Speicher644 ) geschrieben werden oder in den RAM646 geschrieben werden und von diesem ausgeführt zur Ausführung durch den Prozessor640 in der Laufzeit. Eine derartige Flexibilität bei der Installation von Anwendungen erhöht die Funktionalität der mobilen elektronischen Vorrichtung502 und kann erweiterte Funktionen auf der Vorrichtung, Kommunikations-bezogene Funktionen oder beides bieten. Zum Beispiel können sichere Kommunikationsanwendungen ermöglichen, dass elektronische Handelsfunktionen und andere derartige finanzielle Transaktionen unter Verwendung der mobilen elektronischen Vorrichtung502 durchgeführt werden können. - Die mobile elektronische Vorrichtung
502 kann eine PIM(personal information manager)-Anwendung umfassen mit der Fähigkeit, Datenelemente zu organisieren und zu verwalten, die einen Benutzer betreffen, wie Instant Messaging, Email, Kalender-Ereignisse, Voice-Mail, Termine und Aufgabenelemente, aber nicht darauf beschränkt. Die PIM-Anwendung hat die Fähigkeit zum Senden und Empfangen von Datenelementen über das drahtlose Netzwerk604 . In einigen beispielhaften Ausführungsbeispielen werden PIM-Datenelemente über das drahtlose Netzwerk604 nahtlos kombiniert, synchronisiert und aktualisiert mit den entsprechenden Datenelementen des Benutzers, die auf dem Host-Computersystem des Benutzers gespeichert sind und/oder mit diesem assoziiert sind, wodurch ein gespiegelter Host-Computer in Bezug auf diese Datenelemente erzeugt wird. - Die mobile elektronische Vorrichtung
502 kann zwei grundsätzliche Kommunikationsmodi vorsehen: einen Datenkommunikationsmodus und einen optionalen Sprachkommunikationsmodus. In dem Datenkommunikationsmodus wird ein empfangenes Datensignal, wie eine Textnachricht, eine Email-Nachricht oder ein Webseiten-Download, von dem Kommunikationsteilsystem611 verarbeitet und in den Prozessor640 eingegeben für eine weitere Verarbeitung. Zum Beispiel kann eine heruntergeladene Webseite weiter durch eine Browser-Anwendung verarbeitet werden oder eine Email-Nachricht kann durch eine Email-Nachricht-Anwendung verarbeitet werden und an die Anzeige642 ausgegeben werden. Ein Benutzer der mobilen elektronischen Vorrichtung502 kann auch Datenelemente, wie zum Beispiel Email-Nachrichten, erstellen unter Verwendung der berührungsempfindlichen Eingabeoberfläche508 und/oder eines Navigations-Tools570 in Verbindung mit der Anzeigevorrichtung642 und möglicherweise der Hilfs-Eingabe/Ausgabe-Vorrichtung650 . Diese erstellten Elemente können durch das Kommunikationsteilsystem611 über das drahtlose Netzwerk604 übertragen werden. - In dem Sprachkommunikationsmodus bietet die mobile elektronische Vorrichtung
502 Telefonfunktionen und arbeitet als ein typisches zellulares Telefon. Der Gesamtbetrieb ist ähnlich, außer dass die empfangenen Signale an den Lautsprecher656 ausgegeben werden und Signale für die Übertragung durch einen Transducer erzeugt werden, wie dem Mikrofon622 . Die Telefonfunktionen werden durch eine Kombination von Software/Firmware (d. h. das Sprachkommunikationsmodul) und Hardware (d. h. das Mikrofon622 , der Lautsprecher656 und Eingabevorrichtungen) vorgesehen. Alternative Sprach- oder Audio-Eingabe/Ausgabe-Teilsysteme, wie ein Sprachnachrichtaufzeichnungs-Teilsystem, können ebenfalls auf der mobilen elektronischen Vorrichtung502 implementiert werden. Obwohl eine Sprach- oder Audio-Signalausgabe typischerweise primär durch den Lautsprecher656 erreicht wird, kann auch die Anzeigevorrichtung642 verwendet werden, um eine Anzeige der Identität eines Anrufers, die Dauer eines Sprachanrufs oder andere Sprachanruf-betreffende Information vorzusehen. - Zusätzlich zu dem Bewegungserfassungs-Teilsystem
649 , das verwendet wird, wenn die Vorrichtung502 in einem Tastatur-Modus, Eingabeverifizierungs-Modus, Kalibrier-Modus oder anderen Modi ist, die eine Eingabe von einem Bewegungssensor benutzen, oder um einen emotionalen Kontext des Texts zu bestimmen, der in eine Messaging-Anwendung der mobilen Vorrichtung502 eingegeben wird, können andere Typen von Sensorerfassungs-Teilsystemen680 von6 eingesetzt werden zum Bestimmen eines emotionalen Kontexts von Text. Wie oben beschrieben, kann eine große Vielzahl von Sensoren eines Sensorerfassungs-Teilsystems680 verwendet werden, um einen aktuellen emotionalen Zustand zu erfassen, der zu einem Text gehört, der in eine Messaging-Anwendung eingegeben wird, die von der mobilen elektronischen Vorrichtung502 ausgeführt wird. Der emotionale Zustand kann bestimmt werden durch einen erfassten emotionalen Zustand eines Benutzers der mobilen Vorrichtung, in diesem Fall können die Sensoren biometrische Sensoren des Typs sein, der verschiedene physiologische Informationen über einen Benutzer erfassen kann, wie Blutdruck-Sensoren, Herzfrequenz-Sensoren, Beschleunigungsmesser-Sensoren (die zum Beispiel Schütteln, Zittern oder andere Bewegungen erfassen können), Video-Sensoren, die betriebsfähig sind zum Erfassen von Gesichtsausdrücken eines Benutzers, und galvanische Hautreaktions(Galvanic skin response)-Sensoren. Biometrische Daten, die von solchen biometrischen Sensoren erfasst werden, können als autonom angesehen werden und nicht innerhalb einer Steuerung durch den Benutzer sein. Der emotionale Zustand kann auch durch eine Nutzung der mobilen elektronischen Vorrichtung bestimmt werden und kann weiter unter der direkten Steuerung des Benutzers sein. Sensoren, die Nutzungsdaten erfassen können, umfassen Bewegungs-Sensoren oder -Teilsysteme, wie Beschleunigungsmesser und Bewegungssensoren, Gyroskope, Neigungssensoren und Magnetometer. Es ist offensichtlich, dass Sensoren, die zur Erfassung von biometrischer oder Nutzungsinformation verwendet werden, in jeder gewünschten Konfiguration verwendet werden können, einschließlich einzeln oder in Kombination, und alle diese Konfigurationen sind vorstellbar, wenn auf ein Sensorerfassungs-Teilsystem680 Bezug genommen wird. - Wiederum mit Bezug auf
6 wird nun das Bewegungserfassungs-Teilsystem649 beschrieben. Das Bewegungserfassungs-Teilsystem649 weist einen Bewegungssensor auf, der mit dem Prozessor640 verbunden ist, der durch eine oder eine Kombination aus einer Überwachungsschaltung und einer Betriebssoftware gesteuert wird. Der Bewegungssensor ist typischerweise ein Beschleunigungsmesser. Jedoch kann ein Sensor wie ein Dehnungsmesser, Druckmesser oder piezoelektrischer Sensor zur Erfassung einer Bewegung in anderen Ausführungsbeispielen verwendet werden. Der Prozessor640 kann mit einem Beschleunigungsmesser interagieren, um eine Richtung von Gravitationskräften oder Gravitations-induzierten Reaktionskräften zu erfassen. - Wie für Fachleute offensichtlich ist, ist ein Beschleunigungsmesser ein Sensor, der eine Beschleunigung von einer Bewegung (zum Beispiel Bewegung der mobilen elektronischen Vorrichtung
502 oder eines Teils davon aufgrund der Berührungskraft) und einer Gravitation, die durch ein Erfassungselement erfasst wird, in ein elektrisches Signal umwandelt (was eine entsprechende Änderung der Ausgabe erzeugt), und ist in Konfigurationen mit einer, zwei oder drei Achsen verfügbar. Beschleunigungsmesser können digitale oder analoge Ausgabesignale erzeugen. Somit kann ein Beschleunigungsmesser mit einem Beschleunigungsmesser interagieren, um eine Richtung von Gravitationskräften oder Gravitationsinduzierten Reaktionskräften zu erfassen. Im Allgemeinen sind zwei Typen von Ausgaben verfügbar abhängig davon, ob ein analoger oder ein digitaler Beschleunigungsmesser verwendet wird: (1) eine analoge Ausgabe, die eine Pufferung und eine Analog-Digital-(A/D – analog-to-digital)-Umwandlung erfordert; und (2) eine digitale Ausgabe, die typischerweise verfügbar ist in einer Industrie-Standard-Schnittstelle, wie eine SPI (Serial Peripheral Interface) oder eine I2C(Inter-Integrated Circuit)-Schnittstelle. - Die Ausgabe eines Beschleunigungsmessers wird typischerweise in Bezug auf die Gravitationsbeschleunigungskonstante auf der Erdoberfläche gemessen, als g bezeichnet, die ungefähr 9,81 m/s.sup.2 (32,2 ft/s.sup.2) als Standarddurchschnitt beträgt. Der Beschleunigungsmesser kann fast jeder Typ sein, einschließlich, aber nicht darauf beschränkt, ein kapazitiver, piezoelektrischer, piezoresistiver, oder Gas-basierter Beschleunigungsmesser. Der Bereich von Beschleunigungsmessern variiert bis zu Tausenden von g, jedoch können für tragbare elektronische Vorrichtungen Beschleunigungsmesser für „niedriges g” verwendet werden. Beispielhafte Beschleunigungsmesser für niedriges g, die verwendet werden können, sind MEMS-Digital-Beschleunigungsmesser von Analog Devices, Inc. (ADI), Freescale Semiconductor, Inc. (Freescale) und STMicroelectronics N. V. aus Genf, Schweiz. Beispielhafte Niedrig-g-MEMS-Beschleunigungsmesser sind Modell LIS331DL, LIS3021DL und LIS3344AL Beschleunigungsmesser von STMicroelectronics N. V. Das Modell LIS3344AL ist ein analoger Beschleunigungsmesser mit einer Ausgabedatenrate von bis zu 2 kHz, der gute Reaktionscharakteristiken in analogen Sensor-basierten Bewegungserfassungs-Teilsystemen zeigt.
- Der Beschleunigungsmesser befindet sich typischerweise in einem Bereich der mobilen elektronischen Vorrichtung
102 , in dem die virtuelle Tastatur am wahrscheinlichsten in zumindest einigen der Tastatur-Modi angezeigt wird. Zum Beispiel ist die Tastatur in einem unteren oder mittleren Bereich der mobilen elektronischen Vorrichtung502 . Dies ermöglicht verbesserte Empfindlichkeiten des Beschleunigungsmessers bei einem Bestimmen oder Verifizieren von Eingaben auf einer virtuellen Tastatur durch Positionieren des Beschleunigungsmessers in der Nähe der Stelle, auf die wahrscheinlich die externe Kraft durch den Benutzer angewendet wird. Jede Messachse des Beschleunigungsmessers (zum Beispiel 1, 2 oder 3 Achsen) ist typischerweise mit einer Achse der mobilen elektronischen Vorrichtung502 ausgerichtet. Zum Beispiel können für einen 3-Achsen-Beschleunigungsmesser die x-Achse und die y-Achse mit einer horizontalen Ebene der mobilen elektronischen Vorrichtung502 ausgerichtet sein, während die z-Achse mit einer vertikalen Ebene der Vorrichtung502 ausgerichtet sein kann. In solchen Ausführungsbeispielen, wenn die Vorrichtung502 horizontal positioniert ist (wie auf einer ebenen Fläche mit dem Anzeigebildschirm642 nach oben), sollten die x- und y-Achsen ungefähr 0 g messen und die z-Achse sollte ungefähr 1 g messen. - Um die Empfindlichkeit des Beschleunigungsmessers zu verbessern, können seine Ausgaben kalibriert werden, um einzelne Achsenverschiebungen und Empfindlichkeitsschwankungen auszugleichen. Kalibrierungen können auf der Systemebene durchgeführt werden, um eine Ende-zu-Ende-Kalibrierung vorzusehen. Kalibrierungen können auch durchgeführt werden durch Sammeln einer großen Anzahl von Messungen mit der mobilen elektronischen Vorrichtung
502 in verschiedenen Ausrichtungen. - Unter Bezugnahme kurz auf
7 wird ein Bewegungserfassungs-Teilsystem649 in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung beschrieben. Die Schaltung700 weist einen digitalen 3-Achsen-Beschleunigungsmesser710 auf, der mit der Unterbrechungs- und seriellen Schnittstelle einer Steuervorrichtung (MCU)712 verbunden ist. Die Steuervorrichtung712 kann der Prozessor640 der Vorrichtung502 sein. Der Betrieb der Steuervorrichtung712 wird durch Software gesteuert, die in einem internen Speicher der Steuervorrichtung712 gespeichert sein kann. Die Betriebseinstellungen des Beschleunigungsmessers710 werden durch die Steuervorrichtung712 unter Verwendung von Steuersignalen gesteuert, die von der Steuervorrichtung712 über die serielle Schnittstelle an den Beschleunigungsmesser710 gesendet werden. Die Steuervorrichtung712 kann die Bewegungserfassung in Übereinstimmung mit der Beschleunigung bestimmen, die von dem Beschleunigungsmesser710 gemessen wird, oder unverarbeitete Beschleunigungsdaten, die von dem Beschleunigungsmesser710 gemessen werden, können an den Prozessor640 der Vorrichtung502 über die serielle Schnittstelle gesendet werden, wo eine Bewegungserfassung durch das Betriebssystem623 oder ein anderes Software-Modul621 bestimmt wird. In anderen Ausführungsbeispielen kann eine andere digitale Beschleunigungsmesser-Konfiguration verwendet werden, oder ein geeigneter analoger Beschleunigungsmesser und eine Steuerungsschaltung können verwendet werden. -
8 ist eine Darstellung eines beispielhaften Netzwerksystems800 mit ersten und zweiten mobilen elektronischen Vorrichtungen810 in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung. Die ersten und zweiten mobilen elektronischen Vorrichtungen810 haben jeweils eine drahtlose Verbindung805 , wie eine drahtlose Weitbereichsverbindung, mit einem Weitbereichsnetzwerk850 . In diesem Ausführungsbeispiel weist das Weitbereichsnetzwerk850 eine Vielzahl von Basisstationen auf. Der Einfachheit halber wird nur eine Basisstation851 gezeigt. Die Basisstation851 ist betriebsfähig mit einer Basisstation-Steuervorrichtung853 verbunden, die wiederum mit einem Kernnetzwerk855 verbunden ist. Das Kernnetzwerk855 ist mit einem Netzwerk860 verbunden, das ein öffentliches Netzwerk, wie das Internet, oder ein privates Firmennetzwerk sein kann. Die mobilen elektronischen Vorrichtungen810 stellen jeweilige drahtlose Verbindungen805 mit der Basisstation851 her und haben dementsprechend einen Zugang zu dem öffentlichen Netzwerk860 und können Daten mit verschiedenen Entitäten austauschen, die mit dem öffentlichen Netzwerk860 verbunden sind, wie ein Inhalt-Server880 . - Der Inhalt-Server
880 ermöglicht einen Zugriff für die Vorrichtungen810 auf einen Inhalt-Repository-Speicher885 . Der Inhalt-Repository-Speicher885 hat einen elektronischen Inhalt darauf gespeichert, wobei der Inhalt zum Herunterladen durch Desktop-Computer, Laptop-Computer, mobile elektronische Vorrichtungen und dergleichen verfügbar ist. Elektronischer Inhalt, der in dem Inhalt-Repository-Speicher885 gespeichert ist, umfasst elektronische Bücher, Videos, Musik, Fotos und dergleichen. Clients können Inhalt von dem Inhalt-Repository-Speicher885 herunterladen durch Anforderungen an den Inhalt-Server880 mit einem entsprechenden Abonnement oder gratis, wenn der heruntergeladene Inhalt in dem öffentlichen Bereich ist. Die Vorrichtungen810 können elektronischen Inhalt von dem Server880 und dem Inhalt-Repository-Speicher885 über die drahtlose Verbindung805 herunterladen. -
9 ist ein Flussdiagramm, das ein Verfahren900 zum Übermitteln von Emotion in Übereinstimmung mit bestimmten hier offenbarten Ausführungsbeispielen darstellt. In Block910 wird ein emotionaler Kontext von Text, der in der Messaging-Anwendung einer mobilen Vorrichtung eingegeben wird, bestimmt. Der Text kann von einem Benutzer in einem Texteingabemodus der mobilen Vorrichtung eingegeben werden. Der emotionale Kontext des Texts kann bestimmt werden während des Texteingabemodus der mobilen Vorrichtung, während zum Beispiel der Text eingegeben wird, oder nachdem der Text eingegeben wurde, wie es der Fall sein kann, wenn die Vorrichtung nicht länger in dem Texteingabemodus ist. - Wie oben diskutiert, kann ein Bestimmen des emotionalen Kontexts des Texts auf erfassten biometrischen Daten oder erfassten Nutzungsdaten von einem oder mehreren Sensor(en) basieren. In dem beispielhaften Ausführungsbeispiel von biometrischen Daten werden biometrische Daten über einen Benutzer der mobilen Vorrichtung erfasst und analysiert, um den emotionalen Kontext des Texts zu bestimmen. Die biometrischen Daten können über den Benutzer erfasst werden, wenn der Benutzer einen Text in einem Texteingabemodus der mobilen Vorrichtung eingibt, wenn gewünscht. Die biometrischen Daten werden von einem oder mehreren biometrischen Sensor(en) erfasst, die einzeln oder in jeder gewünschten Kombination einen Blutdruck-Sensor, einen Herzfrequenz-Sensor, einen Beschleunigungsmesser-Sensor, einen Video-Sensor und einen galvanische Hautreaktions-Sensor umfassen können. Der eine oder mehrere biometrische Sensor(en) kann/können sich auf der mobilen elektronischen Vorrichtung oder anderweitig befinden. Zum Beispiel ist vorstellbar, dass eine Videokamera, die auf das Gesicht eines Benutzers gerichtet ist, biometrische Information über den Benutzer sammeln kann, sich nicht auf der mobilen Vorrichtung befindet; sondern stattdessen auf einem Personalcomputer oder einer anderen Kommunikationsvorrichtung in Kommunikation mit der mobilen Vorrichtung. Die biometrischen Daten können erfasst werden in Reaktion auf ein Auslöseereignis, obwohl dies keine Voraussetzung ist, insbesondere, da die Sammlung von insbesondere biometrischen Daten laufend und unbekannt (nahtlos) für den Benutzer sein kann. Ein Auslöseereignis für die Sammlung von biometrischen Daten kann ein Start des Texteingabemodus der mobilen Vorrichtung sein oder ein Erfassen, dass ein Benutzer der mobilen Vorrichtung ein Navigationselement der mobilen Vorrichtung aktiviert, um einen Teil eines eingegebenen Texts auszuwählen. Ein Navigationselement der mobilen Vorrichtung kann ein optionaler Joystick (OJ – optional joystick) der mobilen Vorrichtung, ein Trackball der mobilen Vorrichtung oder ein Berührungsbildschirm der mobilen Vorrichtung sein.
- Alternativ kann der emotionale Kontext des Texts aus erfassten Nutzungsdaten bestimmt werden, die Information über eine Benutzung der mobilen Vorrichtung durch einen Benutzer liefern. Die erfassten Nutzungsdaten werden analysiert, um den emotionalen Kontext des Texts zu bestimmen. Die Nutzungsdaten werden von einem oder mehreren Sensoren erfasst, wie ein Gyroskop, ein Beschleunigungsmesser oder ein anderer Bewegungssensor, ein Neigungssensor, ein Bewegungssensor und ein Magnetometer. Die Nutzungsdaten können erfasst werden während des Texteingabemodus der mobilen Vorrichtung oder in Reaktion auf ein Auslöseereignis, wie oben beschrieben wird.
- In dem in den
1A –1C gezeigten Beispiel waren die Nutzungsdaten Bewegungsdaten, die von einem oder mehreren Beschleunigungsmesser(n) während des Texteingabemodus der mobilen Vorrichtung gesammelt wurden. Ein Benutzer verwendete ein Navigationselement (den Trackball), um auszuwählen, dass ein Teil des eingegebenen Texts durch impliziten emotionalen Text dargestellt wird. - In Block
920 wird ein impliziter emotionaler Text für zumindest einen Teil des Texts, der in der Messaging-Anwendung eingegeben wird, in Übereinstimmung mit dem bestimmten emotionalen Kontext dargestellt. Der implizite emotionale Text für den zumindest Teil des Texts unterscheidet sich von einem Basistext, in dem Text in der Messaging-Anwendung der mobilen Vorrichtung dargestellt wird. Dies kann zum Beispiel stattfinden, wenn der bestimmte emotionale Kontext des Texts nicht in einen normalen emotionalen Bereich von Text fällt, der in der Messaging-Anwendung eingegeben wird. Es war zu sehen, dass zumindest ein Teil des eingegebenen Texts ausgewählt werden kann, als impliziter emotionaler Text dargestellt zu werden, falls gewünscht, und dann dargestellt werden. Oder, wie in2 gezeigt wird, der eingegebene Text muss nicht ausgewählt werden und der implizite emotionale Text in Übereinstimmung mit dem bestimmten emotionalen Kontext wird automatisch auf der Anzeige der mobilen Vorrichtung dargestellt. Zum Beispiel wird eine mobile Vorrichtung mit einer berührungsempfindlichen Eingabeoberfläche einer Berührungsbildschirmanzeige betrachtet. Der Benutzer kann den Text über die berührungsempfindliche Eingabeoberfläche der Berührungsbildschirmanzeige der mobilen Vorrichtung während eines „virtuelle Tastatur”-Modus der mobilen Vorrichtung eingeben, und der implizite emotionale Text kann in der berührungsempfindlichen Eingabeoberfläche der Berührungsbildschirmanzeige der mobilen Vorrichtung dargestellt werden. Alternativ kann ein Darstellen des impliziten emotionalen Texts ein Darstellen des impliziten emotionalen Texts in einem zweiten Anzeigeelement einer zweiten Vorrichtung referenzieren, die in Kommunikation mit der mobilen Vorrichtung ist, an die der implizite emotionale Text gesendet wurde und von dieser empfangen wurde. - Der dargestellte implizite emotionale Text kann eine oder mehrere Komponenten haben, einschließlich eine Schriftart-Komponente, eine Animationskomponente und eine Farbkomponente, die mit dem bestimmten emotionalen Kontext des eingegebenen Texts assoziiert sind. Der implizite emotionale Text unterscheidet sich von einem Basistext, in dem Text normalerweise in einem Texteingabemodus der mobilen Vorrichtung dargestellt wird. Der eingegebene Text kann als einfacher Text vor einer Bestimmung des emotionalen Kontexts des eingegebenen Texts dargestellt werden (Referenz
1A –1C ) und als eine Funktion des bestimmten emotionalen Kontexts, übergegangen von dem einfachen Text zu einem impliziten emotionalen Text in Übereinstimmung mit dem bestimmten emotionalen Kontext des eingegebenen Texts. Und ein impliziter emotionaler Text kann sich von einem früheren emotionalen Kontext eines früher eingegebenen Texts unterscheiden. Wenn der emotionale Kontext verschieden ist von dem früheren emotionalen Kontext, ist der implizite emotionale Text, der in Übereinstimmung mit dem bestimmten emotionalen Kontext dargestellt wird, verschieden von einem früheren impliziten emotionalen Text, der mit dem früheren emotionalen Kontext assoziiert ist, der vorher dargestellt wurde. Der frühere Text kann von einem Benutzer während eines Texteingabemodus der mobilen Vorrichtung eingegeben worden sein. - Der implizite emotionale Text kann ein benutzerdefinierter Text sein, der früher von dem Benutzer definiert wurde und für einen Abruf durch den Prozessor gespeichert wurde, wenn bestimmt wird, dass er am besten die Emotion darstellt, die aus den Sensordaten entnommen wird.
- Nun wird Bezug genommen auf den Ablauf
1000 von10 , in dem ein alternatives Verfahren in Übereinstimmung mit verschiedenen Ausführungsbeispielen gezeigt wird. Während der Ablauf900 von9 einfach ein Darstellen eines impliziten emotionalen Texts in Übereinstimmung mit dem bestimmten emotionalen Text zeigt, zeigt der Ablauf1000 , dass sich die Art ändert, wie zumindest ein Teil eines eingegebenen Texts dargestellt wird. - In Block
1010 wird ein emotionaler Kontext des Texts bestimmt, der in der Messaging-Anwendung einer mobilen Vorrichtung eingegeben wird. In Block1020 ändert sich die Art, wie zumindest ein Teil des Texts dargestellt wird, von einem Basistext, in dem Text normalerweise in einem Texteingabemodus der mobilen Vorrichtung dargestellt wird, zu einem impliziten emotionalen Text in Übereinstimmung mit den bestimmten emotionalen Kontext des Texts. Dies wird anschaulich in den1A –1C gezeigt. In Block1030 wird der implizite emotionale Text für zumindest den Teil des eingegebenen Texts in einem Anzeigeelement dargestellt. Wie diskutiert, kann dieses Anzeigeelement eine Anzeige der mobilen elektronischen Vorrichtung oder einer anderen Kommunikationsvorrichtung sein, wie eine entfernte mobile Vorrichtung, mit der der Benutzer der mobilen Vorrichtung über eine schnelle Messaging-Anwendung in Kommunikation ist. - Wie zuvor beschrieben, kann der emotionale Kontext des eingegebenen Texts während des Texteingabemodus der mobilen Vorrichtung bestimmt werden. Wenn bestimmt wird, dass der bestimmte emotionale Kontext für den zumindest Teil des Texts nicht in einem normalen emotionalen Bereich ist, dann ist der bestimmte emotionale Kontext des zumindest Teils des Texts verschieden von einem früheren emotionalen Kontext des eingegebenen Texts. Der implizite emotionale Text des zumindest Teils des eingegebenen Texts wird demgemäß als modifizierter emotionaler Text dargestellt, bestimmt durch die Differenz zwischen dem früheren emotionalen Kontext und dem bestimmten emotionalen Kontext.
- Der implizite emotionale Text kann auf einer berührungsempfindlichen Eingabeoberfläche einer Berührungsbildschirmanzeige der mobilen Vorrichtung dargestellt werden, wie oben beschrieben wird. Der Benutzer kann den Text über die berührungsempfindliche Eingabeoberfläche der Berührungsbildschirmanzeige der mobilen Vorrichtung während eines „virtuelle Tastatur”-Modus der mobilen Vorrichtung eingeben.
- Wiederum kann der implizite emotionale Text für zumindest den Teil in einem zweiten Anzeigeelement einer zweiten Vorrichtung angezeigt werden, die in Kommunikation mit der mobilen Vorrichtung ist, an die der implizite emotionale Text gesendet und von dieser empfangen wird. Der eingegebene Text kann als einfacher Text vor einem Bestimmen des emotionalen Kontexts des eingegebenen Texts dargestellt werden. Dann kann, als eine Funktion des bestimmten emotionalen Kontexts, ein Übergang von dem einfachen Text zu einem Darstellen des impliziten emotionalen Texts in Übereinstimmung mit dem bestimmten emotionalen Kontext des eingegebenen Texts stattfinden.
- Auch kann der eingegebene Text weiterhin als einfacher Text dargestellt werden, wenn der bestimmte emotionale Kontext in einem normalen emotionalen Bereich ist; dies kann zum Beispiel der Fall sein, wenn die biometrische Information eines Benutzers etwas Aufregung anzeigt, aber noch immer in einem normalen Emotionsbereich. Dann wird das Verfahren betrachtet, in dem ein Bestimmen des emotionalen Kontexts weiter ein Bestimmen aufweist, ob ein aktueller emotionaler Zustand, der mit zumindest einem Teil des Texts assoziiert ist, der in der Messaging-Anwendung der mobilen Vorrichtung eingegeben wird, verschieden ist von einem früheren emotionalen Zustand von Text, der in der Messaging-Anwendung eingegeben wird; und Darstellen des zumindest Teils des Texts als modifizierten Text mit einem emotionalen Kontext, der durch die Differenz zwischen dem aktuellen emotionalen Zustand und dem früheren emotionalen Zustand bestimmt wird, wenn die Differenz zwischen dem aktuellen emotionalen Zustand und dem früheren emotionalen Zustand nicht innerhalb eines normalen emotionalen Bereichs ist. Der zumindest Teil des Texts kann als nicht-modifizierter Basistext dargestellt werden, wenn eine Differenz zwischen dem aktuellen emotionalen Zustand und dem früheren emotionalen Zustand innerhalb des normalen emotionalen Bereichs ist.
- Der Ablauf
1100 von11 zeigt die Abfrage, ob der bestimmte emotionale Zustand oder Kontext in einen normalen Bereich fällt. In Block1110 wird der aktuelle emotionale Zustand, der mit dem eingegebenen Text assoziiert ist, durch einen oder mehrere Sensor(en) erfasst. Die Abfrage in Entscheidungsblock1120 ist, ob der aktuelle erfasste Zustand von einem früheren Zustand verschieden ist. Wenn nein, kehrt der Ablauf zu Block1110 zurück. Wenn ja, dann ist die Abfrage in Block1130 , ob der aktuelle Zustand in einem normalen Bereich von Emotion ist. Wenn ja, dann wird in Block1140 der Text als nicht-modifizierter Basistext eingegeben. Wenn nein, dann wird in Block1150 die Differenz von einem früheren emotionalen Zustand berechnet und in Block1160 verwendet ein Algorithmus diese bestimmte Differenz, um die Basisschriftart in einen erzeugten impliziten emotionalen Text zu ändern. - Unter Bezugnahme nun auf
12 wird ein Ablauf1200 gezeigt, der ein Verfahren zum Übermitteln von Messaging-Anwendung-Emotion in Übereinstimmung mit verschiedenen Ausführungsbeispielen beschreibt. In Block1210 werden Sensordaten erfasst. Die Sensordaten können erfasst werden während eines Texteingabemodus der mobilen Vorrichtung und die Sensordaten können in der Messaging-Anwendung erfasst werden. Ferner kann der Text in der Messaging Anwendung von einem Benutzer der mobilen Vorrichtung eingegeben werden und während eines Texteingabemodus der mobilen Vorrichtung. - Wie beschrieben, die Sensordaten können biometrische Daten sein, die von einem oder mehreren biometrischen Sensor(en) erfasst werden. Während vorstellbar ist, dass die biometrischen Sensoren, die ein Blutdruck-Sensor, ein Herzfrequenz-Sensor, ein Beschleunigungsmesser-Sensor, ein Video-Sensor, ein galvanische Hautreaktions-Sensor, usw. sein können, ein Teil der mobilen Vorrichtung sind, ist dies nicht erforderlich. Zum Beispiel kann ein Video-Sensor zu der mobilen Vorrichtung gehören, muss dies aber nicht, um biometrische Gesichtsausdrücke eines Benutzers der mobilen Vorrichtung zu erfassen. Die Sensordaten können Nutzungsdaten über eine Nutzung der mobilen Vorrichtung durch einen Benutzer sein und können von Sensoren vorgesehen werden, wie einem Gyroskop, einem Beschleunigungsmesser oder anderem Bewegungssensor, einem Neigungssensor, einem Bewegungssensor und einem Magnetometer. Wie oben können die Sensoren Sensordaten in Reaktion auf ein Auslöseereignis erfassen.
- Ein emotionaler Zustand, der mit einem eingegebenen Text assoziiert ist, wird durch ein Analysieren der erfassten Sensordaten in Block
1220 bestimmt. Dies kann bestimmt werden während eines Texteingabemodus der mobilen Vorrichtung, ist aber nicht erforderlich. Ein Algorithmus des Prozessors bestimmt den emotionalen Zustand durch Analysieren der erfassten Sensordaten. Die Abfrage in Block1230 ist, ob der bestimmte emotionale Zustand in einen normalen emotionalen Bereich fällt. Wenn ja, wird der Text als Basistext in der Messaging-Anwendung in Block1260 dargestellt. Wenn nein, dann wird in Block1240 der bestimmte emotionale Zustand durch den Algorithmus einem impliziten emotionalen Text zugeordnet. Diese Zuordnung umfasst ein Berechnen der Differenz zwischen dem bestimmten emotionalen Zustand und Verwenden des Grads von Emotion, angezeigt durch die Differenz, um den impliziten emotionalen Text zu erzeugen. Eine größere bestimmte Differenz zwischen dem bestimmten emotionalen Zustand und einem Basistext liefert einen impliziten emotionalen Text, der mehr Emotion zeigt. Sensordaten, die einen ekstatischen Benutzer anzeigen, haben einen übertriebeneren impliziten emotionalen Text als Sensordaten, die lediglich geringere Fröhlichkeit anzeigen. Der implizite emotionale Text wird in der Messaging-Anwendung in Block1250 für zumindest einen Teil des eingegebenen Texts dargestellt. - Der Ablauf
1300 von13 zeigt die Verwendung von Beschleunigungsmesser-Daten, die von einem oder mehreren Beschleunigungsmessern einer mobilen Vorrichtung erfasst werden. Es ist anzumerken, dass die Beschleunigungsmesser-Daten entweder biometrische Daten oder Nutzungsdaten sein können, da vorstellbar ist, dass ein Beschleunigungsmesser-Erfassungselement verwendet werden kann, um biometrische oder Nutzungs-Information zu erfassen. In Block1310 werden Beschleunigungsmesser-Daten einer mobilen Vorrichtung durch ein oder mehrere Beschleunigungsmesser-Elemente erfasst. Dies kann erreicht werden, indem ein Benutzer etwas in eine schnelle Messaging Anwendung eingibt und dann den Trackball oder optionalen Joystick (Trackpad) gedrückt hält, um Beschleunigungsmesser-Daten zu erfassen. In Block1320 wird ein emotionaler Zustand, der mit den erfassten Beschleunigungsmesser-Daten assoziiert ist, bestimmt durch Analysieren der erfassten Beschleunigungsmesser-Daten. Die Abfrage in Block1330 ist, ob der emotionale Zustand, der mit den erfassten Beschleunigungsmesser-Daten assoziiert ist, in einen normalen emotionalen Bereich fällt. Wenn ja, Anzeigen, dass ein Basistext angezeigt werden soll, und der Ablauf geht weiter bei Block1360 . - Wenn jedoch der emotionale Zustand nicht normal ist, wird in Block
1340 der bestimmte emotionale Zustand, der mit den erfassten Beschleunigungsmesser-Daten assoziiert ist, einem impliziten emotionalen Text zugeordnet, wie beschrieben. Dies kann zum Beispiel erreicht werden durch Nehmen von Beschleunigungsmesser-Daten aus einer kleinen Probe, um eine Schriftart und Animation auszuwählen. Die Animation kann eine Zuordnung der Beschleunigungsmesser-Daten sein oder es kann ein Auswählen der besten Übereinstimmung mit bestimmten Parametern eines Algorithmus sein, um ein zuvor definiertes Animationsmuster auszuwählen. Somit können eine Schriftart und eine Animation dem Text zugeordnet werden basierend auf einem Algorithmus, der Aspekte der Beschleunigungsmesser-Daten analysiert. Harte und schnelle Übergänge können durch eine hektischer aussehende Schriftart dargestellt werden, mit einem Animationscharakter, der hart und schnell sein kann. Ein langsameres Beschleunigungsmuster kann mit einem langsameren Animations-tempo in einer weichen angenehmen Schriftart dargestellt werden. Die Richtung der Beschleunigungsmesser-Bewegungen können die Animation beeinflussen, wobei eine Vorwärts- und Rückwärtsbewegung die Schrift pulsieren lässt (kleiner und größer werdend), wobei seitliche Bewegungen die Schrift wellenartig bewegen oder vibrieren lassen oder eine Welle oder Vibration durch den Text gehen lassen. Wie beschrieben, kann der implizite emotionale Text auch eine Farbkomponente haben, wobei rot erfassten schnellen harten Bewegungen zugeordnet ist. - Der implizite emotionale Text für zumindest einen ausgewählten Teil des Texts, der in der Messaging Anwendung eingegeben wird, wird in Block
1350 in Übereinstimmung mit dem bestimmten emotionalen Zustand dargestellt. - Während die Blöcke, die die Verfahren aufweisen, in einer bestimmten Reihenfolge gezeigt werden, ist für Fachleute offensichtlich, dass viele der Blöcke untereinander austauschbar sind und in anderer Reihenfolge ablaufen können als die gezeigte, ohne die Endergebnisse der Verfahren wesentlich zu beeinflussen.
- Die oben beschriebenen Implementierungen der vorliegenden Offenbarung sollen nur Beispiele sein. Fachleute können Änderungen, Modifikationen und Variationen der bestimmten beispielhaften Ausführungsbeispiele bewirken, ohne von dem beabsichtigten Umfang der vorliegenden Offenbarung abzuweichen. Ferner können ausgewählte Merkmale von einem oder mehreren der oben beschriebenen Ausführungsbeispiele kombiniert werden, um alternative beispielhafte Ausführungsbeispiele zu erzeugen, die hier nicht ausdrücklich beschrieben werden.
- Die vorliegende Offenbarung kann in anderen spezifischen Formen eingesetzt werden, ohne von ihrem Sinn oder wesentlichen Charakteristiken abzuweichen. Die beschriebenen Ausführungsbeispiele sollen in jeder Hinsicht nur als illustrativ und nicht einschränkend betrachtet werden. Der Umfang der Offenbarung wird daher durch die angefügten Ansprüche angezeigt und nicht durch die obige Beschreibung. Alle Änderungen, die in die Bedeutung und den Bereich von Gleichwertigkeiten der Ansprüche fallen, sind in ihrem Umfang aufgenommen.
Claims (26)
- Verfahren zum Übermitteln von Emotion in einer Messaging-Anwendung, das aufweist: Bestimmen eines emotionalen Kontexts von Text, der in der Messaging-Anwendung einer mobilen Vorrichtung eingegeben wird; Ändern der Art, wie zumindest ein Teil des Texts dargestellt wird von einem Basistext, in dem Text normalerweise in einem Texteingabemodus der mobilen Vorrichtung dargestellt wird, zu einem impliziten emotionalen Text in Übereinstimmung mit dem bestimmten emotionalen Kontext des Texts; und Darstellen des impliziten emotionalen Texts für zumindest den Teil des eingegebenen Texts einem Anzeigeelement.
- Verfahren gemäß Anspruch 1, das weiter aufweist ein Bestimmen des emotionalen Kontexts von Text, der während des Texteingabemodus der mobilen Vorrichtung eingegeben wird.
- Verfahren gemäß Anspruch 1, das weiter aufweist: Bestimmen, dass der bestimmte emotionale Kontext des zumindest Teils des Texts verschieden ist von einem früheren emotionalen Kontext des eingegebenen Texts; und Darstellen des impliziten emotionalen Texts des zumindest Teils des eingegebenen Texts als modifizierten emotionalen Text, der bestimmt wird durch die Differenz zwischen dem früheren emotionalen Kontext und dem bestimmten emotionalen Kontext.
- Verfahren gemäß Anspruch 1, wobei das Darstellen weiter aufweist ein Darstellen des impliziten emotionalen Texts auf einer berührungsempfindlichen Eingabeoberfläche einer Berührungsbildschirmanzeige der mobilen Vorrichtung.
- Verfahren gemäß Anspruch 1, wobei das Darstellen weiter aufweist ein Darstellen des impliziten emotionalen Texts für zumindest den Teil in einem zweiten Anzeigeelement einer zweiten Vorrichtung, die in Kommunikation mit der mobilen Vorrichtung ist, an die der implizite emotionale Text gesendet und von dieser empfangen wird.
- Verfahren gemäß Anspruch 1, das weiter aufweist: Darstellen des eingegebenen Texts als einfachen Text vor einem Bestimmen des emotionalen Kontexts des eingegebenen Texts; und als eine Funktion des bestimmten emotionalen Kontexts, Übergehen von einem Darstellen des einfachen Texts zu einem Darstellen des impliziten emotionalen Texts in Übereinstimmung mit dem bestimmten emotionalen Kontext des eingegebenen Texts.
- Verfahren gemäß Anspruch 1, wobei das Bestimmen des emotionalen Kontexts weiter aufweist: Bestimmen, ob sich ein aktueller emotionaler Zustand, der mit dem zumindest Teil eines Texts assoziiert ist, der in der Messaging-Anwendung der mobilen Vorrichtung eingegeben wird, von einem früheren emotionalen Zustand eines Texts unterscheidet, der in der Messaging-Anwendung eingegeben wird; und Darstellen des zumindest Teils des Texts als modifizierten Text mit einem emotionalen Kontext, der bestimmt wird durch die Differenz zwischen dem aktuellen emotionalen Zustand und dem früheren emotionalen Zustand, wenn die Differenz zwischen dem aktuellen emotionalen Zustand und dem früheren emotionalen Zustand nicht in einem normalen emotionalen Bereich ist.
- Verfahren gemäß Anspruch 7, das weiter aufweist: Darstellen des zumindest Teils des Texts als nicht-modifizierten Basistext, wenn eine Differenz zwischen dem aktuellen emotionalen Zustand und dem früheren emotionalen Zustand in dem normalen emotionalen Bereich ist.
- Computerlesbares Medium mit computerlesbarem Code, der durch zumindest einen Prozessor der tragbaren elektronischen Vorrichtung ausgeführt werden kann, um das Verfahren gemäß Anspruch 1 durchzuführen.
- Verfahren zum Übermitteln von Emotion in einer Messaging-Anwendung, das aufweist: Bestimmen eines emotionalen Kontexts von Text, der in der Messaging-Anwendung einer mobilen Vorrichtung eingegeben wird; und Darstellen, in der Messaging-Anwendung, eines impliziten emotionalen Texts für zumindest einen Teil des Texts, der in der Messaging-Anwendung eingegeben wird, in Übereinstimmung mit dem bestimmten emotionalen Kontext, wobei der implizite emotionale Text für den zumindest Teil des Texts verschieden ist von einem Basistext, in dem Text in der Messaging-Anwendung der mobilen Vorrichtung dargestellt wird.
- Verfahren gemäß Anspruch 10, das weiter aufweist: Auswählen des zumindest Teils des eingegebenen Texts, um Emotion in der Messaging-Anwendung zu übermitteln; und Darstellen des impliziten emotionalen Texts für den ausgewählten zumindest Teil des Texts.
- Verfahren gemäß Anspruch 10, wobei das Bestimmen des emotionalen Kontexts des Texts aufweist ein Erfassen und Analysieren eines oder mehrerer aus biometrischen Daten eines Benutzers der mobilen Vorrichtung und Nutzungsdaten über eine Nutzung der mobilen Vorrichtung durch den Benutzer, um den emotionalen Kontext des Texts zu bestimmen.
- Verfahren gemäß Anspruch 10, wobei das Darstellen weiter aufweist ein Darstellen des impliziten emotionalen Texts in einem Anzeigeelement der mobilen Vorrichtung.
- Verfahren gemäß Anspruch 13, das weiter aufweist ein Darstellen des impliziten emotionalen Texts auf einer berührungsempfindlichen Eingabeoberfläche einer Berührungsbildschirmanzeige der mobilen Vorrichtung.
- Verfahren gemäß Anspruch 10, wobei das Darstellen weiter aufweist ein Darstellen des impliziten emotionalen Texts in einem zweiten Anzeigeelement einer zweiten Vorrichtung, die in Kommunikation mit der mobilen Vorrichtung ist, an die der implizite emotionale Text gesendet und von dieser empfangen wird.
- Verfahren gemäß Anspruch 10, das weiter aufweist: Bestimmen, ob sich der emotionale Kontext des Texts von einem früheren emotionalen Kontext eines früher eingegebenen Texts unterscheidet; und wenn sich der emotionale Kontext von dem früheren emotionalen Kontext unterscheidet, ist der implizite emotionale Text, der in Übereinstimmung mit dem bestimmten emotionalen Kontext dargestellt wird, verschieden von einem früheren impliziten emotionalen Text, der mit dem früheren emotionalen Kontext assoziiert ist, der vorher dargestellt wurde.
- Verfahren gemäß Anspruch 10, das weiter aufweist: Eingeben, durch einen Benutzer, des Texts über eine berührungsempfindliche Eingabeoberfläche einer Berührungsbildschirmanzeige der mobilen Vorrichtung während eines „virtuelle Tastatur”-Modus der mobilen Vorrichtung; und Darstellen des impliziten emotionalen Texts auf der berührungsempfindlichen Eingabeoberfläche der Berührungsbildschirmanzeige der mobilen Vorrichtung.
- Verfahren gemäß Anspruch 10, das weiter aufweist: Darstellen des eingegebenen Texts als einfachen Text vor einem Bestimmen des emotionalen Kontexts des eingegebenen Texts; als eine Funktion des bestimmten emotionalen Kontexts, Übergehen von einem Darstellen des einfachen Texts zu einem Darstellen des impliziten emotionalen Texts in Übereinstimmung mit dem bestimmten emotionalen Kontext des eingegebenen Texts.
- Computerlesbares Medium mit computerlesbarem Code, der durch zumindest einen Prozessor der tragbaren elektronischen Vorrichtung ausgeführt werden kann, um das Verfahren gemäß Anspruch 10 durchzuführen.
- Mobile Vorrichtung, die aufweist: einen Prozessor zum Steuern eines Betriebs der mobilen Vorrichtung; und ein Sensorerfassungselement, das mit dem Prozessor gekoppelt und konfiguriert ist, Daten zu erfassen, die für einen emotionalen Kontext von Text repräsentativ sind, der in einer Messaging Anwendung der mobilen Vorrichtung eingegeben wird; wobei der Prozessor konfiguriert ist, den emotionalen Kontext aus den erfassten Daten zu bestimmen und die Art, wie zumindest ein Teil des Texts normalerweise in einem Texteingabemodus der mobilen Vorrichtung dargestellt wird, zu einem impliziten emotionalen Text zu ändern in Übereinstimmung mit dem bestimmten emotionalen Kontext des Texts.
- Mobile Vorrichtung gemäß Anspruch 20, wobei der Prozessor das Sensorerfassungselement steuert, Daten zu erfassen, die für den emotionalen Kontext repräsentativ sind, in Reaktion auf ein Auslöseereignis.
- Mobile Vorrichtung gemäß Anspruch 20, wobei das Sensorerfassungselement einen oder mehrere aus einem oder mehreren biometrischen Sensor(en) aufweist, der/die konfiguriert ist/sind, biometrische Daten eines Benutzers der mobilen Vorrichtung zu erfassen, und einem oder mehreren Sensor(en), der/die konfiguriert ist/sind, Nutzungsdaten einer Nutzung der mobilen Vorrichtung durch den Benutzer zu erfassen.
- Mobile Vorrichtung gemäß Anspruch 20, wobei die Vorrichtung weiter eine Benutzerschnittstelle aufweist, die mit dem Prozessor gekoppelt ist und von diesem gesteuert wird, die konfiguriert ist, eine Benutzerinteraktion mit der mobilen Vorrichtung zu ermöglichen, wobei ein Benutzer den zumindest Teil des Texts zur Darstellung auswählt und der bestimmte emotionale Text durch die mobile Vorrichtung über die Benutzerschnittstelle ausgewählt und empfangen wird.
- Mobile Vorrichtung gemäß Anspruch 20, wobei die mobile Vorrichtung weiter ein Anzeigeelement aufweist, wobei der Prozessor weiter konfiguriert ist zum Bestimmen, ob sich ein aktueller emotionaler Zustand, der mit dem zumindest Teil eines Text assoziiert ist, der in der Messaging-Anwendung der mobilen Vorrichtung eingegeben wird, von einem früheren emotionalen Zustand eines Texts unterscheidet, der in der Messaging-Anwendung eingegeben wird, und zum Darstellen des zumindest Teils des Texts in dem Anzeigeelement als modifizierten Text mit einem emotionalen Kontext, der bestimmt wird durch die Differenz zwischen dem aktuellen emotionalen Zustand und dem früheren emotionalen Zustand, wenn die Differenz zwischen dem aktuellen emotionalen Zustand und dem früheren emotionalen Zustand nicht in einem normalen emotionalen Bereich ist.
- Mobile Vorrichtung gemäß Anspruch 20, wobei der dargestellte implizite emotionale Text eine oder mehrere aus einer Schriftart-Komponente, einer Animationskomponente und einer Farbkomponente aufweist, die mit dem bestimmten emotionalen Kontext des eingegebenen Texts assoziiert sind.
- Mobile Vorrichtung gemäß Anspruch 20, wobei die Vorrichtung weiter eine Berührungsbildschirmanzeige mit einer berührungsempfindlichen Eingabeoberfläche aufweist und der Prozessor konfiguriert ist, die Berührungsbildschirmanzeige zu steuern, um den impliziten emotionalen Text in der berührungsempfindlichen Eingabeoberfläche der Berührungsbildschirmanzeige anzuzeigen.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/007,285 US20120182309A1 (en) | 2011-01-14 | 2011-01-14 | Device and method of conveying emotion in a messaging application |
US13/007,285 | 2011-01-14 | ||
PCT/CA2011/050063 WO2012094726A1 (en) | 2011-01-14 | 2011-02-03 | Device and method of conveying emotion in a messaging application |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112011100035T5 true DE112011100035T5 (de) | 2013-04-25 |
Family
ID=46490438
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112011100035T Withdrawn DE112011100035T5 (de) | 2011-01-14 | 2011-02-03 | Vorrichtung und Verfahren zum Übermitteln von Emotion in einer Messaging-Anwendung |
Country Status (4)
Country | Link |
---|---|
US (1) | US20120182309A1 (de) |
CA (1) | CA2764441A1 (de) |
DE (1) | DE112011100035T5 (de) |
WO (1) | WO2012094726A1 (de) |
Families Citing this family (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9336192B1 (en) | 2012-11-28 | 2016-05-10 | Lexalytics, Inc. | Methods for analyzing text |
US10528135B2 (en) * | 2013-01-14 | 2020-01-07 | Ctrl-Labs Corporation | Wearable muscle interface systems, devices and methods that interact with content displayed on an electronic display |
WO2014186370A1 (en) | 2013-05-13 | 2014-11-20 | Thalmic Labs Inc. | Systems, articles and methods for wearable electronic devices that accommodate different user forms |
CN103369477B (zh) * | 2013-07-02 | 2016-12-07 | 华为技术有限公司 | 显示媒体信息方法、装置、客户端,图形控件显示方法和装置 |
US11921471B2 (en) | 2013-08-16 | 2024-03-05 | Meta Platforms Technologies, Llc | Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source |
US10188309B2 (en) | 2013-11-27 | 2019-01-29 | North Inc. | Systems, articles, and methods for electromyography sensors |
US20150124566A1 (en) | 2013-10-04 | 2015-05-07 | Thalmic Labs Inc. | Systems, articles and methods for wearable electronic devices employing contact sensors |
US10042422B2 (en) | 2013-11-12 | 2018-08-07 | Thalmic Labs Inc. | Systems, articles, and methods for capacitive electromyography sensors |
US9191790B2 (en) * | 2013-11-14 | 2015-11-17 | Umar Blount | Method of animating mobile device messages |
US10199008B2 (en) | 2014-03-27 | 2019-02-05 | North Inc. | Systems, devices, and methods for wearable electronic devices as state machines |
US9880632B2 (en) | 2014-06-19 | 2018-01-30 | Thalmic Labs Inc. | Systems, devices, and methods for gesture identification |
US9874744B2 (en) | 2014-06-25 | 2018-01-23 | Thalmic Labs Inc. | Systems, devices, and methods for wearable heads-up displays |
JP6454106B2 (ja) * | 2014-09-04 | 2019-01-16 | 株式会社コロプラ | 感情テキスト表示プログラム、方法およびシステム |
US20160072756A1 (en) * | 2014-09-10 | 2016-03-10 | International Business Machines Corporation | Updating a Sender of an Electronic Communication on a Disposition of a Recipient Toward Content of the Electronic Communication |
SG11201706548QA (en) | 2015-02-17 | 2017-09-28 | Thalmic Labs Inc | Systems, devices, and methods for eyebox expansion in wearable heads-up displays |
US10078435B2 (en) | 2015-04-24 | 2018-09-18 | Thalmic Labs Inc. | Systems, methods, and computer program products for interacting with electronically displayed presentation materials |
US10175488B2 (en) | 2015-05-04 | 2019-01-08 | North Inc. | Systems, devices, and methods for spatially-multiplexed holographic optical elements |
EP3304172A4 (de) | 2015-05-28 | 2019-01-02 | North Inc. | Systeme, vorrichtungen und verfahren zur integration von augenverfolgender und -abtastender laserprojektion in am körper tragbaren headup-anzeigen |
US10108333B2 (en) * | 2015-06-26 | 2018-10-23 | International Business Machines Corporation | Inferring insights from enhanced user input |
WO2017041010A1 (en) | 2015-09-04 | 2017-03-09 | Thalmic Labs Inc. | Systems, articles, and methods for integrating holographic optical elements with eyeglass lenses |
CN106502712A (zh) | 2015-09-07 | 2017-03-15 | 北京三星通信技术研究有限公司 | 基于用户操作的app改进方法和系统 |
WO2017059285A1 (en) | 2015-10-01 | 2017-04-06 | Thalmic Labs Inc. | Systems, devices, and methods for interacting with content displayed on head-mounted displays |
US9904051B2 (en) | 2015-10-23 | 2018-02-27 | Thalmic Labs Inc. | Systems, devices, and methods for laser eye tracking |
US10802190B2 (en) | 2015-12-17 | 2020-10-13 | Covestro Llc | Systems, devices, and methods for curved holographic optical elements |
US10467329B2 (en) * | 2016-01-04 | 2019-11-05 | Expressy, LLC | System and method for employing kinetic typography in CMC |
US10303246B2 (en) | 2016-01-20 | 2019-05-28 | North Inc. | Systems, devices, and methods for proximity-based eye tracking |
US10151926B2 (en) | 2016-01-29 | 2018-12-11 | North Inc. | Systems, devices, and methods for preventing eyebox degradation in a wearable heads-up display |
JP2019518979A (ja) | 2016-04-13 | 2019-07-04 | ノース インコーポレイテッドNorth Inc. | レーザプロジェクタの焦点を合わせるためのシステム、デバイス、及び方法 |
US10277874B2 (en) | 2016-07-27 | 2019-04-30 | North Inc. | Systems, devices, and methods for laser projectors |
US10459221B2 (en) | 2016-08-12 | 2019-10-29 | North Inc. | Systems, devices, and methods for variable luminance in wearable heads-up displays |
WO2018045303A1 (en) * | 2016-09-02 | 2018-03-08 | Bose Corporation | Application-based messaging system using headphones |
US10345596B2 (en) | 2016-11-10 | 2019-07-09 | North Inc. | Systems, devices, and methods for astigmatism compensation in a wearable heads-up display |
WO2018098579A1 (en) | 2016-11-30 | 2018-06-07 | Thalmic Labs Inc. | Systems, devices, and methods for laser eye tracking in wearable heads-up displays |
US10365492B2 (en) | 2016-12-23 | 2019-07-30 | North Inc. | Systems, devices, and methods for beam combining in wearable heads-up displays |
US10718951B2 (en) | 2017-01-25 | 2020-07-21 | North Inc. | Systems, devices, and methods for beam combining in laser projectors |
US10140274B2 (en) | 2017-01-30 | 2018-11-27 | International Business Machines Corporation | Automated message modification based on user context |
EP3697297A4 (de) | 2017-10-19 | 2020-12-16 | Facebook Technologies, Inc. | Systeme und verfahren zur identifizierung biologischer strukturen in zusammenhang mit signalen neuromuskulären ursprungs |
US11300788B2 (en) | 2017-10-23 | 2022-04-12 | Google Llc | Free space multiple laser diode modules |
US11907423B2 (en) | 2019-11-25 | 2024-02-20 | Meta Platforms Technologies, Llc | Systems and methods for contextualized interactions with an environment |
US11961494B1 (en) | 2019-03-29 | 2024-04-16 | Meta Platforms Technologies, Llc | Electromagnetic interference reduction in extended reality environments |
US11159585B2 (en) | 2018-03-14 | 2021-10-26 | At&T Intellectual Property I, L.P. | Content delivery and consumption with affinity-based remixing |
US11797087B2 (en) | 2018-11-27 | 2023-10-24 | Meta Platforms Technologies, Llc | Methods and apparatus for autocalibration of a wearable electrode sensor system |
US11410486B2 (en) * | 2020-02-04 | 2022-08-09 | Igt | Determining a player emotional state based on a model that uses pressure sensitive inputs |
US11868531B1 (en) | 2021-04-08 | 2024-01-09 | Meta Platforms Technologies, Llc | Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof |
DE102021112061A1 (de) * | 2021-05-08 | 2022-11-10 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Kommunikationseinheit zur Augmentation einer Kommunikation |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL122632A0 (en) * | 1997-12-16 | 1998-08-16 | Liberman Amir | Apparatus and methods for detecting emotions |
US7181693B1 (en) * | 2000-03-17 | 2007-02-20 | Gateway Inc. | Affective control of information systems |
US20010049596A1 (en) * | 2000-05-30 | 2001-12-06 | Adam Lavine | Text to animation process |
GB2376379A (en) * | 2001-06-04 | 2002-12-11 | Hewlett Packard Co | Text messaging device adapted for indicating emotions |
US7853863B2 (en) * | 2001-12-12 | 2010-12-14 | Sony Corporation | Method for expressing emotion in a text message |
US7607097B2 (en) * | 2003-09-25 | 2009-10-20 | International Business Machines Corporation | Translating emotion to braille, emoticons and other special symbols |
JP2005115896A (ja) * | 2003-10-10 | 2005-04-28 | Nec Corp | 通信装置及び通信方法 |
ITMI20051812A1 (it) * | 2005-09-29 | 2007-03-30 | Pasqua Roberto Della | Servizio di messaggistica istantanea con categorizzazione delle icone emozionali |
US20080027984A1 (en) * | 2006-07-31 | 2008-01-31 | Motorola, Inc. | Method and system for multi-dimensional action capture |
WO2008054062A1 (en) * | 2006-11-01 | 2008-05-08 | Polidigm Co., Ltd | Icon combining method for sms message |
US8677281B2 (en) * | 2007-02-09 | 2014-03-18 | Intel-Ge Care Innovations Llc | System, apparatus and method for emotional experience time sampling via a mobile graphical user interface |
US20090125806A1 (en) * | 2007-11-13 | 2009-05-14 | Inventec Corporation | Instant message system with personalized object and method thereof |
EP2323351A4 (de) * | 2008-09-05 | 2015-07-08 | Sk Telecom Co Ltd | Mobilkommunikationsendgerät zur ausgabe von vibrationsinformationen sowie verfahren dafür |
KR101528848B1 (ko) * | 2008-11-26 | 2015-06-15 | 엘지전자 주식회사 | 휴대단말기 및 그 제어방법 |
US20100177116A1 (en) * | 2009-01-09 | 2010-07-15 | Sony Ericsson Mobile Communications Ab | Method and arrangement for handling non-textual information |
-
2011
- 2011-01-14 US US13/007,285 patent/US20120182309A1/en not_active Abandoned
- 2011-02-03 WO PCT/CA2011/050063 patent/WO2012094726A1/en active Application Filing
- 2011-02-03 CA CA2764441A patent/CA2764441A1/en not_active Abandoned
- 2011-02-03 DE DE112011100035T patent/DE112011100035T5/de not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
US20120182309A1 (en) | 2012-07-19 |
CA2764441A1 (en) | 2012-07-14 |
WO2012094726A1 (en) | 2012-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112011100035T5 (de) | Vorrichtung und Verfahren zum Übermitteln von Emotion in einer Messaging-Anwendung | |
DE112011100033T5 (de) | Vorrichtung und Verfahren zum Übermitteln von Emotion in einer Messaging-Anwendung | |
CN108351750B (zh) | 用于处理与触摸输入相关联的强度信息的设备、方法、以及图形用户界面 | |
CN109716264B (zh) | 显示自定义的电子消息图形 | |
US10225291B2 (en) | Managing messages between users for collaborative editing of electronic documents | |
CN108885616B (zh) | 用于导航与协作编辑的电子文档相关联的评论的用户界面 | |
US10088979B2 (en) | Recasting a form-based user interface into a mobile device user interface using common data | |
CN105593811B (zh) | 经用户可选择图标的基于情境的消息创建 | |
DE202016001024U1 (de) | Navigations-Benutzerschnittstelle | |
DE202017104110U1 (de) | Bildsuchanfragevorhersagen durch eine Tastatur | |
CN108369455A (zh) | 用于提供触觉反馈的设备、方法和图形用户界面 | |
CN108701013A (zh) | 多任务环境中的智能数字助理 | |
US20110131521A1 (en) | Method and apparatus for providing user interface | |
CN109844711A (zh) | 用于向设备上显示的内容加注释的统一注释层的设备、方法和图形用户界面 | |
CN105229631A (zh) | 阅读内容的收集、跟踪和呈现 | |
CN112154411B (zh) | 使用音频数据进行设备控制 | |
CN107735833A (zh) | 自动口音检测 | |
CN107077292A (zh) | 剪贴信息提供方法和装置 | |
DE112011102650T5 (de) | Eingabe in gesperrtes Computergerät | |
CN104007892A (zh) | 用于控制多个对象的显示的方法及其移动终端 | |
DE112013002381T5 (de) | Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bewegung und Ablegen eines Benutzerschnittstellenobjekts | |
DE112008003578T5 (de) | Fühlbare Rückmeldung in einer elektronischen Vorrichtung | |
KR20150017015A (ko) | 이미지 카드 공유 방법 및 이를 위한 전자 기기 | |
EP3617652A1 (de) | Navigationsverfahren und zugehöriges produkte | |
US11037602B2 (en) | Advanced video editing techniques using sampling patterns |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R082 | Change of representative |
Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN, DE |
|
R081 | Change of applicant/patentee |
Owner name: BLACKBERRY LIMITED, WATERLOO, CA Free format text: FORMER OWNER: RESEARCH IN MOTION LIMITED, WATERLOO, ONTARIO, CA Effective date: 20140926 |
|
R082 | Change of representative |
Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN, DE Effective date: 20140926 Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN PATENTANWA, DE Effective date: 20140926 |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |