DE112011100035T5 - Vorrichtung und Verfahren zum Übermitteln von Emotion in einer Messaging-Anwendung - Google Patents

Vorrichtung und Verfahren zum Übermitteln von Emotion in einer Messaging-Anwendung Download PDF

Info

Publication number
DE112011100035T5
DE112011100035T5 DE112011100035T DE112011100035T DE112011100035T5 DE 112011100035 T5 DE112011100035 T5 DE 112011100035T5 DE 112011100035 T DE112011100035 T DE 112011100035T DE 112011100035 T DE112011100035 T DE 112011100035T DE 112011100035 T5 DE112011100035 T5 DE 112011100035T5
Authority
DE
Germany
Prior art keywords
text
emotional
mobile device
context
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112011100035T
Other languages
English (en)
Inventor
Jason T. Griffin
Steven Henry Fyke
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BlackBerry Ltd
Original Assignee
Research in Motion Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Research in Motion Ltd filed Critical Research in Motion Ltd
Publication of DE112011100035T5 publication Critical patent/DE112011100035T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements
    • H04W4/14Short messaging services, e.g. short message services [SMS] or unstructured supplementary service data [USSD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die vorliegende Offenbarung sieht eine Vorrichtung und ein Verfahren vor zum Übermitteln von Emotionen in einer Messaging-Anwendung einer mobilen elektronischen Vorrichtung. Ein emotionaler Kontext von Text, der in der Messaging-Anwendung eingegeben wird, wird bestimmt und ein impliziter emotionaler Text wird für zumindest einen Teil des eingegebenes Texts in Übereinstimmung mit dem bestimmten emotionalen Kontext dargestellt. Der emotionale Kontext kann aus erfassten Sensordaten bestimmt werden, die von einem oder mehreren Sensor(en) erfasst werden.

Description

  • QUERVERWEIS ZU VERWANDTEN ANMELDUNGEN
  • Diese Anmeldung beansprucht Vorteil und Priorität zu der U.S.-Patentanmeldung Nr. 13/007,285, angemeldet am 14. Januar 2011, mit dem Titel DEVICE, SYSTEM AND METHOD OF CONVEYING EMOTION IN A MESSAGING APPLICATION.
  • Der Inhalt der obigen Patentanmeldung wird hiermit ausdrücklich durch Bezugnahme in diese detaillierte Beschreibung aufgenommen.
  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft im Allgemeinen mobile elektronische Vorrichtungen und insbesondere ein Verfahren und eine Vorrichtung zum Übermitteln von Emotion in einer Messaging-Anwendung.
  • HINTERGRUND
  • Es gibt einen Wunsch, Emotionen wie Verspieltheit, Angst, Aggression, Fröhlichkeit usw. über eine Textkommunikation zu kommunizieren. Schnelle (Quick) Messaging-Anwendungen, die auf mobilen elektronischen Vorrichtungen laufen, setzen typischerweise auf die Verwendung von Emoticons bzw. Gefühlssymbolen, um Emotion zu kommunizieren, die mit einem Text assoziiert ist, der in der Messaging-Anwendung eingegeben wird. Emoticons bezeichnen üblicherweise eine bildliche Repräsentation eines Gesichtsausdrucks, der durch Interpunktion und Buchstaben dargestellt wird, der die Stimmung des Verfassers, Emotion, oder Tenor des einfachen oder Basis-Texts übermittelt, den dieser begleitet. Beispiele für Emoticons umfassen ein Smiley-Gesicht, ein stirnrunzelndes Gesicht, ein fröhliches Gesicht, usw.
  • Ein Benutzer einer Messaging-Anwendung wählt ein gewünschtes Emoticon aus einer Liste oder einem Gitter bzw. einer Galerie von verfügbaren, vordefinierten und gespeicherten Emoticons aus. Während die Verfügbarkeit von Emoticons eine Möglichkeit bietet, die Stimmung oder das Temperament des Verfassers hinsichtlich eines eingegebenen Texts auszudrücken, lenkt die Verwendung von Emoticons von der Flüssigkeit und Spontaneität der Kommunikation ab. Getrennt von einer Texteingabe muss ein Benutzer durch eine Liste oder eine Galerie von verfügbaren Emoticons scrollen, um eine gewünschte Schriftart, Gesichtsausdruck, Animation, usw. auszuwählen. Darüber hinaus kann die gewünschte zu übermittelnde Emotion in dem vorgegebenen Satz der verfügbaren Emoticons nicht verfügbar sein. Der Prozess zum Auswählen eines oder mehrerer Emoticons, um eine Emotion anzuzeigen, die mit dem eingegebenen Text assoziiert ist, unterbricht notwendigerweise ein Erstellen und Senden einer Nachricht in der Messaging Anwendung.
  • Verbesserungen in Messaging-Anwendungen von mobilen elektronischen Vorrichtungen sind wünschenswert.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Beispielhafte Ausführungsbeispiele der vorliegenden Erfindung werden im Folgenden unter Bezugnahme auf die beigefügten Zeichnungen beschrieben derart, dass gleiche Bezugszeichen gleiche Elemente bezeichnen, und wobei:
  • 1A1C Darstellungen einer schnellen Messaging-Anwendung sind, die impliziten emotionalen Text auf einer Berührungsbildschirm- bzw. Touchscreen-Anzeige einer mobilen elektronischen Vorrichtung einsetzt, in Übereinstimmung mit verschiedenen Ausführungsbeispielen der vorliegenden Offenbarung;
  • 2 eine Darstellung einer schnellen Messaging-Anwendung ist, die impliziten emotionalen Text auf einer Anzeige einer mobilen elektronischen Vorrichtung einsetzt, in Übereinstimmung mit verschiedenen Ausführungsbeispielen der vorliegenden Offenbarung;
  • 3 eine Darstellung einer mobilen elektronischen Vorrichtung in Übereinstimmung mit verschiedenen Ausführungsbeispielen der vorliegenden Offenbarung ist;
  • 4 eine Blockdiagramm-Darstellung der mobilen elektronischen Vorrichtung von 4 ist, in Übereinstimmung mit verschiedenen Ausführungsbeispielen der vorliegenden Offenbarung;
  • 5A5B eine Darstellung einer mobilen elektronischen Vorrichtung ist, die einen „virtuelle Tastatur”-Modus und eine berührungsempfindliche Eingabeoberfläche einsetzt, in Übereinstimmung mit verschiedenen weiteren Ausführungsbeispielen der vorliegenden Offenbarung;
  • 6 eine Blockdiagramm-Darstellung der mobilen elektronischen Vorrichtung der 5A5B, ist in Übereinstimmung mit den verschiedenen weiteren Ausführungsbeispielen der vorliegenden Offenbarung;
  • 7 eine Darstellung eines Bewegungserfassungs-Teilsystems ist, in Übereinstimmung mit verschiedenen Ausführungsbeispielen der vorliegenden Offenbarung;
  • 8 eine Darstellung eines Netzwerksystems ist, das erste und zweite mobile elektronische Vorrichtungen umfasst, in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung;
  • 913 Ablaufdiagramme von verschiedenen Verfahren zur Übermittlung von Emotion in einer Messaging-Anwendung sind, die auf einer mobilen elektronischen Vorrichtung ausgeführt werden, in Übereinstimmung mit verschiedenen Ausführungsbeispielen der vorliegenden Offenbarung.
  • DETAILLIERTE BESCHREIBUNG
  • Es gibt einen Wunsch, Emotionen wie Verspieltheit, Angst, Aggression, Fröhlichkeit, usw., über eine Textkommunikation zu kommunizieren. Die Verwendung und der Nutzen von Emoticons bzw. Gefühlssymbolen sind begrenzt und bieten nicht das Ausmaß von Ausdruckskraft und Flüssigkeit von Emotion, wie von den verschiedenen hier beschriebenen Ausführungsbeispielen vorgesehen wird. Es ist wünschenswert, eine aussagekräftigere und flüssigere Kommunikation von Emotion assoziiert mit einem Text in einer Messaging Anwendung zu haben. Die verschiedenen hier beschriebenen Ausführungsbeispiele sehen eine flüssige, intuitive, einfache und unterhaltsame Weise vor, um eine Text-Emotion zu kommunizieren.
  • Die Offenbarung betrifft im Allgemeinen ein Übermitteln von Emotion in einer Messaging Anwendung einer mobilen elektronischen Vorrichtung, und im Folgenden wird ein Verfahren und eine Vorrichtung zum Übermitteln von Emotion in einer Messaging-Anwendung beschrieben. Das Verfahren und die Vorrichtung der vorliegenden Offenbarung ermöglichen, dass Emotionen nahtlos als ein impliziter emotionaler Text in einer Messaging-Anwendung übermittelt werden, die auf einer mobilen Vorrichtung läuft, wie eine mobile Messaging Plattform, wie die schnelle Messaging-Anwendung BlackBerry-Messenger von Research In Motion, Waterloo, Kanada, oder ähnliches. Sensoreingabedaten werden analysiert, um den impliziten emotionalen Text von Text zu bestimmen, der in eine Messaging Anwendung der mobilen Vorrichtung eingegeben wird. Biometrische Sensoren, wie Drucksensoren, Beschleunigungsmesser, Video-Sensoren, galvanische Hautreaktions-Sensoren, können verwendet werden, um biometrische Daten eines Benutzers der mobilen Vorrichtung zu erfassen, einschließlich Blutdruck, Herzfrequenz, Steuerung der Muskulatur, Zittern, Gesichtsausdrücke, galvanische Hautreaktion, usw., die nützlich sein können bei einem Bestimmen des emotionalen Zustands des Benutzers. In Kombination mit derartigen biometrischen Sensoren oder alternativ können Sensoren, wie Beschleunigungsmesser, Neigungssensoren, Bewegungssensoren, Magnetometer, Gyroskope oder dergleichen, verwendet werden, um Nutzungsdaten über eine Benutzung der mobilen Vorrichtung zu sammeln, um wiederum einen impliziten emotionalen Kontext des Texts zu bestimmen, der in eine Messaging-Anwendung der mobilen Vorrichtung eingegeben wird. Der emotionale Kontext des eingegebenen Texts kann bestimmt werden in einem Texteingabemodus der mobilen Vorrichtung, wie während ein Benutzer den Text eingibt, oder er kann bestimmt werden, nachdem der Text eingegeben wurde. Wie zu sehen sein wird, kann der bestimmte implizite emotionale Text dargestellt werden durch ein Anzeigeelement der mobilen Vorrichtung oder durch ein Anzeigeelement einer entfernten Vorrichtung, mobil oder nicht, mit der die mobile Vorrichtung in Kommunikation ist. Der implizite emotionale Text kann eine oder mehrere Komponenten haben, einschließlich eine Schriftart-Komponente, eine Animationskomponente und eine Farbkomponente, die mit dem bestimmen emotionalen Kontext des eingegebenen Texts assoziiert sind. Auf diese Weise können Emotionen wie Humor, Angst, Wut, Fröhlichkeit, Liebe, Überraschung und andere leicht und einfach in einem Messaging-Anwendungs-Format kommuniziert werden.
  • In Übereinstimmung mit einem Ausführungsbeispiel der vorliegenden Offenbarung ist ein Verfahren vorgesehen zum Übermitteln von Emotion in einer Messaging-Anwendung, wobei das Verfahren aufweist: Bestimmen eines emotionalen Kontexts von Text, der in der Messaging-Anwendung einer mobilen Vorrichtung eingegeben wird; Ändern der Art und Weise, wie zumindest ein Teil des Texts dargestellt wird, von einem einfachen bzw. Basis-Text, in dem Text normalerweise in einem Texteingabemodus der mobilen Vorrichtung dargestellt wird, zu einem impliziten emotionalen Text in Übereinstimmung mit dem bestimmten emotionalen Kontext des Texts; und Darstellen des impliziten emotionalen Texts für zumindest den Teil des eingegebenen Texts in einem Anzeigeelement. In Übereinstimmung mit verschiedenen Ausführungsbeispielen kann das Bestimmen des emotionalen Kontexts weiter aufweisen: Bestimmen, ob ein aktueller emotionaler Zustand, der mit dem zumindest einen Teil des Texts assoziiert ist, der in der Messaging-Anwendung der mobilen Vorrichtung eingegeben wird, verschieden ist von einem früheren emotionalen Zustand von Text, der in der Messaging-Anwendung eingebeben wird; und Darstellen des zumindest Teils des Texts als modifizierten Text mit einem emotionalen Kontext, der durch die Differenz zwischen dem aktuellen emotionalen Zustand und dem früheren emotionalen Zustand bestimmt wird, wenn die Differenz zwischen dem aktuellen emotionalen Zustand und dem früheren emotionalen Zustand nicht innerhalb eines normalen emotionalen Bereichs liegt.
  • In Übereinstimmung mit einem weiteren Ausführungsbeispiel der vorliegenden Offenbarung ist ein Verfahren zum Übermitteln von Emotion in einer Messaging-Anwendung vorgesehen, das aufweist: Bestimmen eines emotionalen Kontexts von Text, der in der Messaging-Anwendung einer mobilen Vorrichtung eingegeben wird; und Darstellen in der Messaging-Anwendung eines impliziten emotionalen Texts für zumindest einen Teil des Texts, der in der Messaging-Anwendung eingegeben wird, in Übereinstimmung mit dem bestimmten emotionalen Kontext, wobei der implizite emotionale Text für den zumindest Teil des Texts verschieden ist von einem Basistext, in dem Text in der Messaging-Anwendung der mobilen Vorrichtung dargestellt wird.
  • In Übereinstimmung mit einem weiteren Ausführungsbeispiel der vorliegenden Offenbarung ist eine mobile Vorrichtung vorgesehen, die aufweist: einen Prozessor zum Steuern eines Betriebs der mobilen Vorrichtung; ein Sensorerfassungselement, das mit dem Prozessor gekoppelt ist und konfiguriert ist, Daten zu erfassen, die repräsentativ sind für einen emotionalen Kontext von Text, der in einer Messaging-Anwendung der mobilen Vorrichtung eingegeben wird; wobei der Prozessor konfiguriert ist, den emotionalen Kontext aus den erfassten Daten zu bestimmen und die Weise zu ändern, wie zumindest ein Teil des Texts normalerweise in einem Texteingabemodus der mobilen Vorrichtung präsentiert wird, in einen impliziten emotionalen Text in Übereinstimmung mit dem bestimmten emotionalen Kontext des Texts.
  • In Übereinstimmung mit anderen Ausführungsbeispielen der vorliegenden Offenbarung ist ein Verfahren zum Übermitteln von Emotion in einer Messaging-Anwendung vorgesehen, das aufweist: Erfassen von Sensordaten; Bestimmen eines emotionalen Zustands, der mit Text assoziiert ist, der in der Messaging-Anwendung einer mobilen Vorrichtung eingegeben wird, durch Analysieren der erfassten Sensordaten; Zuordnen des bestimmten emotionalen Zustands zu einem impliziten emotionalen Text; und Darstellen, in der Messaging-Anwendung, des impliziten emotionalen Texts für zumindest einen Teil des eingegebenen Texts in Übereinstimmung mit dem bestimmten emotionalen Zustand.
  • In Übereinstimmung mit noch einem weiteren Ausführungsbeispiel der vorliegenden Offenbarung ist ein Verfahren zum Übermitteln von Emotion in einer Messaging-Anwendung vorgesehen, das aufweist: Erfassen von Beschleunigungsmesser-Daten einer mobilen Vorrichtung; Bestimmen eines emotionalen Zustands, der mit den erfassten Beschleunigungsmesser-Daten assoziiert ist, durch Analysieren der erfassten Beschleunigungsmesser-Daten; Zuordnen des bestimmten emotionalen Zustands, der mit den erfassten Beschleunigungsmesser-Daten assoziiert ist, zu einem impliziten emotionalen Text; und Darstellen des impliziten emotionalen Texts für zumindest einen ausgewählten Teil des Texts, der in der Messaging-Anwendung eingegeben wird, in Übereinstimmung mit dem bestimmten emotionalen Zustand.
  • In Übereinstimmung mit einem weiteren Ausführungsbeispiel der vorliegenden Offenbarung ist eine mobile Vorrichtung vorgesehen, die aufweist: einen Prozessor zum Steuern eines Betriebs der mobilen Vorrichtung; ein Sensorerfassungselement, das mit dem Prozessor gekoppelt ist und konfiguriert ist, Daten zu erfassen, die mit Text assoziiert sind, der in einer Messaging-Anwendung der mobilen Vorrichtung eingegeben wird; und ein Anzeigeelement, das mit dem Prozessor gekoppelt ist und unter dessen Steuerung steht; wobei der Prozessor konfiguriert ist, einen emotionalen Zustand zu bestimmen, der mit dem eingegebenen Text assoziiert ist, durch Analysieren der erfassten Sensordaten, den bestimmten emotionalen Zustand einem impliziten emotionalen Text zuzuordnen, und den impliziten emotionalen Text in der Messaging-Anwendung über das Anzeigeelement für zumindest einen Teil des eingegebenen Texts darzustellen in Übereinstimmung mit dem bestimmten emotionalen Zustand.
  • In Übereinstimmung mit weiteren Ausführungsbeispielen der vorliegenden Offenbarung ist ein Computerprogrammprodukt vorgesehen, das ein computerlesbares Medium aufweist, das Anweisungen in Form eines ausführbaren Programmcodes speichert, um die mobile elektronische Vorrichtung zu veranlassen, die beschriebenen Verfahren durchzuführen.
  • Zur Vereinfachung und Übersichtlichkeit der Darstellung können Bezugszeichen bei den Figuren wiederholt werden, um entsprechende oder analoge Elemente anzuzeigen. Eine Vielzahl von Details wird dargelegt, um ein Verständnis der hier beschriebenen Ausführungsbeispiele vorzusehen. Die Ausführungsbeispiele können ohne diese Details praktiziert werden. In anderen Instanzen werden allgemein bekannte Verfahren, Vorgänge und Komponenten nicht im Detail beschrieben, um ein Verschleiern der beschriebenen Ausführungsbeispiele zu vermeiden. Die Beschreibung soll nicht den Umfang der hier beschriebenen Ausführungsbeispiele beschränken.
  • Wie hier verwendet, ist eine mobile elektronische Vorrichtung, die manchmal als eine handgehaltene elektronische Vorrichtung oder einfach als eine elektronische Vorrichtung bezeichnet wird, eine Zweiweg-Kommunikationsvorrichtung, die zumindest Daten- und möglicherweise auch Sprachkommunikationsfähigkeiten hat und die Fähigkeit zur Kommunikation mit anderen mobilen Vorrichtungen oder Computersystemen, zum Beispiel über das Internet. Abhängig von der Funktionalität, die von der mobilen elektronischen Vorrichtung in den verschiedenen hier beschriebenen Ausführungsbeispielen vorgesehen ist, kann die Vorrichtung eine Datenkommunikationsvorrichtung, eine Mehrfach-Modus-Kommunikationsvorrichtung, die sowohl für Daten- als auch Sprachkommunikation konfiguriert ist, ein Smartphone, ein Mobiltelefon oder ein PDA (Personal Digital Assistant), betriebsfähig für eine drahtlose Kommunikation, oder ein Computersystem mit einem drahtlosen Modem sein. Andere Beispiele für mobile elektronische Vorrichtungen umfassen mobile oder handgehaltene drahtlose Kommunikationsvorrichtungen wie Pager, zellulare Telefone, zellulare Smartphones, drahtlose Organizer, drahtlos betriebsfähige Notebook-Computer, und so weiter. Die mobile elektronische Vorrichtung kann auch eine tragbare elektronische Vorrichtung ohne drahtlose Kommunikationsfähigkeiten sein, wie eine handgehaltene elektronische Spielevorrichtung, ein digitales Fotoalbum, eine Digitalkamera oder eine andere Vorrichtung.
  • Unter Bezugnahme nun auf die 1A1C werden drei Screenshots einer Berührungsbildschirmanzeige und Schnittstelle einer mobilen Vorrichtung gezeigt. In der 1A ist zu sehen, dass ein Benutzer den folgenden Text „I can't, work is frantic (Ich kann nicht, Arbeit ist hektisch)” in eine Messaging-Anwendung eingegeben hat in Antwort auf die Frage „Do you want to meet for lunch? (Willst Du dich zum Mittagessen treffen?)”. Auf dem Anzeigebildschirm ist zu sehen, dass das Wort „frantic!” klar kommuniziert, dass der Verfasser tatsächlich hektisch (frantic) ist; die Buchstaben des Worts sind alle großgeschrieben, größer und können in einer Farbe sein, die einen hektischen Zustand bezeichnet, wie Rot. Das Wort frantic! ist ein impliziter emotionaler Text, impliziert aus Daten, die von einem oder mehreren Sensoren der mobilen elektronischen Vorrichtung empfangen und analysiert werden, um einen emotionalen Kontext zu bestimmen, wie beschrieben wird. Die gesammelten Daten können biometrische Daten sein, wie Puls, Blutdruck, Hautwiderstand, die unfreiwillige biometrische Information über die Stimmung oder Emotion des Benutzers der mobilen Vorrichtung liefern, oder die erfassten Daten können Nutzungsdaten sein, die eine Nutzungsinformation darüber liefern, wie der Benutzer die mobile Vorrichtung benutzt. Eine Kombination dieser zwei kann verwendet werden, wenn dies gewünscht wird. In dem Fall der biometrischen Daten, die unfreiwillige, physiologische Daten über den Benutzer repräsentieren, ist die Erhebung derartiger Daten für den Benutzer eindeutig transparent und steigert sicherlich die Flüssigkeit einer schnellen Messaging Erfahrung.
  • Betrachtet wird nun das folgende Beispiel, in dem der implizite emotionale Text aus analysierten Nutzungsdaten bestimmt wird. In 1A wird gezeigt, dass der Benutzer nach einem Eintippen von „frantic!” ein Trackpad gedrückt hält und dann die mobile Vorrichtung auf eine heftige aggressive Art und Weise schüttelt. Diese aggressive Nutzung der mobilen Vorrichtung wird durch die zackigen vertikalen Linien angezeigt, markiert als „HEKTISCHE BEWEGUNG bzw. FRANTIC MOTION”, auf beiden Seiten der mobilen Vorrichtung in der 1A. Die Nutzungsdaten (schütteln der mobilen Vorrichtung heftig und aggressiv) werden durch einen oder mehrere Sensor(en) der mobilen Vorrichtung erfasst, wie ein Beschleunigungsmesser, und durch einen Prozessor der mobilen Vorrichtung analysiert, um den impliziten emotionalen Text zu erzeugen: nur Großbuchstaben, Farbe rot (zum Beispiel), in Kursivschrift und eine aggressivere Schriftart. Es ist zu sehen, dass sich der implizite emotionale Text von frantic! deutlich unterscheidet von dem Basistext „I can't, work is”. In diesem Beispiel hat der implizite emotionale Text eine Schriftartkomponente (eine aggressive Schrift) und eine Farbkomponente (rot), die deutlich verschieden ist von dem Basistext in der Messaging-Anwendung. Es ist zwar in der Zeichnung nicht zu sehen, der implizite emotionale Text kann zusätzlich eine Animationskomponente umfassen, zum Beispiel, dass sich das Wort FRANTIC! hektisch (frantic!) bewegt.
  • In der nächsten Zeichnung von 1B hat der Benutzer eine Nachricht geschrieben „I'm feeling better already (Ich fühle mich schon besser)”, was in dem Basistext der Messaging-Anwendung gezeigt wird. In 1C geht der Benutzer zurück und wählt das Wort „better (besser)” aus durch dessen Berührung auf dem Berührungsbildschirm und bewegt dann die Vorrichtung sanft vor und zurück. Diese sanfte Benutzung der mobilen Vorrichtung wird angezeigt durch die glatten gewellten vertikalen Linien auf beiden Seiten der mobilen Vorrichtung, markiert als „GENTLE MOTION bzw. SANFTE BEWEGUNG”; diese sanfte Bewegung unterscheidet sich deutlich von der hektischen Bewegung der mobilen Vorrichtung in 1A. Dies hat den Effekt eines Änderns der Schriftart des Worts „better (besser)” von einer Basisschriftart in einen impliziten emotionalen Text mit einer weicheren Schriftart und einer beruhigenderen Schriftfarbe, wie einem hellen blau statt der härteren schwarzen Schriftfarbe. Die implizite emotionale Textdarstellung von „better (besser)” hat eine Schriftartkomponente und eine Farbkomponente, wie gezeigt.
  • Eine Sammlung von Daten, Nutzungsdaten oder biometrische Daten oder beide, kann in Reaktion auf ein auslösendes Ereignis beginnen, oder es kann sein, dass Sensordaten immer in einem Texteingabemodus oder auf andere Weise gesammelt werden; dies kann zum Beispiel der Fall sein bei einer Erfassung von biometrischen Daten, die keine affirmative Handlung oder Entscheidung des Benutzers erfordern, um mit deren Sammlung zu beginnen. Ein auslösendes Ereignis kann sein ein Start eines Texteingabemodus der mobilen Vorrichtung, ein Erfassen, dass der Benutzer der mobilen Vorrichtung ein Navigationselement der mobilen Vorrichtung aktiviert, um einen Teil eines eingegebenen Texts auszuwählen. Das Navigationselement kann ein optionaler Joystick (OJ – optional joystick) der mobilen Vorrichtung, ein Trackball der mobilen Vorrichtung, ein Berührungsbildschirm der mobilen Vorrichtung, usw. sein.
  • In dem obigen Beispiel kann die Auswahl eines Teils des Texts („frantic!” in Figur 1A und „better” in 1C) durch den Benutzer als ein Auslöseereegnis für die Sensoren der mobilen Vorrichtung wirken, um die Nutzungsdaten zu erfassen, aus denen der implizite emotionale Text bestimmt wird. Oder es muss kein Auslöseereignis erforderlich sein. Nutzungsdaten können jederzeit während des Betriebs der mobilen Vorrichtung oder während eines Texteingabemodus der mobilen Vorrichtung erfasst werde.
  • 2 sieht ein beispielhaftes Ausführungsbeispiel vor, bei dem der Übergang von einem ersten zu einem zweiten impliziten emotionalen Text nahtlos ohne Beteiligung des Benutzers erreicht wird, basierend auf einem Erfassen und Analysieren gesammelter biometrischer Daten des Benutzers. Impliziter emotionaler Text 1 für „I'm happy (Ich bin fröhlich)” zeigt eine zartere, fröhlichere Schriftart (wie rosa oder gelb) und eventuell Schriftfarbe als der implizite emotionale Text 2 für „now I'm angry (jetzt bin ich wütend)”, der eine wütende, aggressivere Emotion übermittelt durch die Verwendung einer „wütenden” Schriftart, größeren Größe, und möglicherweise Schriftfarbe (beispielsweise rot).
  • 3 ist eine Darstellung einer mobilen elektronischen Vorrichtung 300 in Übereinstimmung mit verschiedenen hier offenbarten Ausführungsbeispielen. Die mobile elektronische Vorrichtung 300 hat einen Bildschirm 310 zum Anzeigen von Information, eine Tastatur 320 zum Eingeben von Information, wie zum Verfassen von Email-Nachrichten, und eine Zeigevorrichtung 330, wie ein Trackball, Trackwheel, Touchpad und dergleichen, zum Navigieren durch Elemente auf dem Bildschirm 310. In diesem beispielhaften Ausführungsbeispiel hat die Vorrichtung 300 auch eine Taste 340 zum Initiieren einer Telefonanwendung (nicht dargestellt) und eine Taste 350 zum Beenden von Telefonanrufen.
  • 4 ist ein Blockdiagramm einer beispielhaften funktionalen Darstellung der mobilen elektronischen Vorrichtung 300 von 3 in Übereinstimmung mit verschiedenen hier offenbarten Ausführungsbeispielen. Die mobile elektronische Vorrichtung 300 umfasst mehrere Komponenten, wie einen Prozessor 402, der den gesamten Betrieb der mobilen elektronischen Vorrichtung 300 steuert. Kommunikationsfunktionen, einschließlich Daten- und Sprachkommunikation, werden durch ein Kommunikationsteilsystem 404 durchgeführt. Das Kommunikationsteilsystem 404 empfängt Daten von einem drahtlosen Weitbereichsnetzwerk 850 und sendet Daten an dieses in einer Langstrecken-Kommunikation. Ein Beispiel der von dem Kommunikationsteilsystem gesendeten oder durch dieses empfangenen Daten umfasst Email-Nachrichten, SMS (Short Messaging System), Webinhalt und elektronischen Inhalt, ist aber nicht darauf beschränkt. Das drahtlose Netzwerk 850 ist zum Beispiel ein zellulares Netzwerk. In einigen beispielhaften Ausführungsbeispielen ist das Netzwerk 850 ein WiMaxTM-Netzwerk, ein drahtloses lokales Netzwerk (WLAN – wireless local area network), das mit dem Internet verbunden ist, oder jedes andere geeignete Kommunikationsnetzwerk. In anderen beispielhaften Ausführungsbeispielen werden andere drahtlose Netzwerke in Betracht gezogen, einschließlich, aber nicht darauf beschränkt, drahtlose Datennetzwerke, drahtlose Sprachnetzwerke und Netzwerke, die sowohl Sprach- als auch Datenkommunikationen unterstützen.
  • Eine Stromquelle 442, wie eine oder mehrere wiederaufladbare Batterie(n), ein Anschluss an eine externe Stromversorgung, eine Brennstoffzelle oder eine Solarzelle, versorgt die mobile elektronische Vorrichtung 300 mit Energie.
  • Der Prozessor 402 interagiert mit anderen funktionalen Komponenten, wie RAM (random access memory) 408, Speicher 410, einem Anzeigebildschirm 310 (wie zum Beispiel eine LCD), der betriebsfähig mit einer elektronischen Steuervorrichtung 416 verbunden ist, so dass sie zusammen ein Anzeigeteilsystem 418, ein Eingabe/Ausgabe(I/O – Input/Output)-Teilsystem 424, einen Datenanschluss 426, einen Lautsprecher 428, ein Mikrophon 430, ein Nahbereichs-Kommunikationsteilsystem 432, ein Sensorerfassungs-Teilsystem 460 und andere Teilsysteme 434 aufweisen. Es ist anzumerken, dass die elektronische Steuervorrichtung 416 des Anzeigeteilsystems 418 nicht physikalisch mit dem Anzeigebildschirm 310 integriert sein muss.
  • Die Hilfs-Eingabe/Ausgabe-Teilsysteme 424 können Eingabevorrichtungen umfassen, wie eine oder mehrere Steuerungstaste(n), eine Tastatur oder ein Tastenfeld, ein Navigations-Tool (Eingabevorrichtung) oder beides. Das Navigations-Tool kann ein klickbarer/drückbarer Trackball oder Scrollrad oder ein Touchpad sein. Eine Benutzerinteraktion mit einer grafischen Benutzerschnittstelle wird durch das Eingabe/Ausgabe-Teilsystem 424 durchgeführt.
  • Die mobile elektronische Vorrichtung 300 umfasst auch eine oder mehrere Uhren, einschließlich einer Systemuhr (nicht gezeigt) und einer Schlafuhr (nicht gezeigt). In anderen Ausführungsbeispielen arbeitet eine einzelne Uhr als sowohl Systemuhr als auch Schlafuhr. Die Schlafuhr ist eine Uhr mit geringerer Leistung und geringerer Frequenz.
  • Zur Identifizierung eines Teilnehmers für einen Netzwerkzugriff verwendet die mobile elektronische Vorrichtung 300 eine SIM(Subscriber Identity Module)- oder eine RUIM(Removable User Identity Module)-Karte 438 zur Kommunikation mit einem Netzwerk, wie dem drahtlosen Netzwerk 850. Alternativ ist eine Benutzeridentifikationsinformation in dem Speicher 410 programmiert.
  • Die mobile elektronische Vorrichtung 300 umfasst ein Betriebssystem 446 und Software-Programme, Teilroutinen oder Komponenten 448, die von dem Prozessor 402 ausgeführt werden und typischerweise in einem persistenten, aktualisierbaren Speicher gespeichert sind, wie dem Speicher 410. In einigen beispielhaften Ausführungsbeispielen umfassen Software-Programme 448 zum Beispiel „Personal Information Management”-Anwendungen, Kommunikations-Anwendungen, Messaging-Anwendungen, Spiele und dergleichen.
  • Ein elektronischer Inhalt-Manager 480 ist in dem Speicher 410 der Vorrichtung 300 enthalten. Der elektronische Inhalt-Manager 480 ermöglicht der Vorrichtung 300, elektronischen Inhalt zu holen, herunterzuladen, zu senden, zu empfangen und anzuzeigen, wie detailliert unten beschrieben wird.
  • Ein elektronischer Inhalt-Repository-Speicher 490 ist ebenfalls in dem Speicher 410 der Vorrichtung 300 enthalten. Der/Die elektronische Inhalt-Repository-Speicher oder -Datenbank 490 speichert elektronischen Inhalt, wie elektronische Bücher, Videos, Musik, Multimedia, Fotos und dergleichen.
  • Zusätzliche Anwendungen oder Programme werden auf die mobile elektronische Vorrichtung 300 zum Beispiel über einen Datenanschluss 426 geladen. In einigen Ausführungsbeispielen werden Programme über das drahtlose Netzwerk 850, das Hilfs-Eingabe/Ausgabe-Teilsystem 424, das Nahbereichs-Kommunikationsteilsystem 432 oder jedes andere geeignete Teilsystem 434 geladen.
  • Wie weiter beschrieben wird, kann das Sensorerfassungs-Teilsystem 460 Sensoren umfassen, die in der Lage sind, einen aktuellen emotionalen Zustand zu erfassen, der mit einem Text assoziiert ist, der in eine Messaging-Anwendung eingegeben wird, die von der mobilen elektronischen Vorrichtung 300 ausgeführt wird. Der emotionale Zustand kann bestimmt werden durch einen erfassten emotionalen Zustand eines Benutzers der mobilen Vorrichtung, in diesem Fall können die Sensoren biometrische Sensoren des Typs sein, der verschiedene physiologische Informationen über einen Benutzer erfassen kann, wie Blutdruck-Sensoren, Herzfrequenz-Sensoren, Beschleunigungsmesser-Sensoren (die zum Beispiel Schütteln, Zittern oder andere Bewegungen erfassen können), Video-Sensoren, die betriebsfähig sind zum Erfassen von Gesichtsausdrücken eines Benutzers, und galvanische Hautreaktions(Galvanic skin response)-Sensoren. Biometrische Daten, die von derartigen biometrischen Sensoren erfasst werden, können als unfreiwillig, automatisch und nicht innerhalb einer Steuerung durch den Benutzer sein. Der emotionale Zustand kann auch durch eine Nutzung der mobilen elektronischen Vorrichtung bestimmt werden und kann weiter unter der direkten Steuerung des Benutzers sein. Sensoren, die Nutzungsdaten erfassen können, umfassen Bewegungs-Sensoren oder -Teilsysteme, wie Beschleunigungsmesser und Bewegungssensoren, Gyroskope, Neigungssensoren und Magnetometer. Es ist offensichtlich, dass Sensoren, die zur Erfassung von biometrischer oder Nutzungsinformation verwendet werden, in jeder gewünschten Konfiguration verwendet werden können, einschließlich einzeln oder in Kombination, und alle diese Konfigurationen sind vorstellbar, wenn auf ein Sensorerfassungs-Teilsystem 460 Bezug genommen wird.
  • Die hier offenbarten Ausführungsbeispiele können zusätzlich durch eine oder mehrere mobile elektronische Vorrichtungen implementiert werden, die einen „virtuelle Tastatur”-Modus und eine berührungsempfindliche Eingabeoberfläche einsetzen, wie in Zusammenhang mit den 1A1C zum Beispiel diskutiert wird. Die vorliegende Offenbarung beschreibt eine mobile elektronische Vorrichtung mit einem Berührungsbildschirm und ein Verfahren zur Verwendung eines Berührungsbildschirms einer handgehaltenen elektronischen Vorrichtung. Die handgehaltene elektronische Vorrichtung kann einen oder mehrere aus einem Tastatur-Modus und einem Eingabe-Verifizierungs-Modus haben, und kann betriebsfähig sein, zwischen diesen Modi zu wechseln, zum Beispiel basierend auf einer jeweiligen Vorrichtungseinstellung oder einer Benutzereingabe. In dem Tastatur-Modus wird ein Tastatur-Benutzer-Schnittstellenelement auf dem Berührungsbildschirm dargestellt (als eine virtuelle Tastatur bezeichnet). Der Berührungsbildschirm wird verwendet, um Berührungseingaben zu empfangen, die aus der Anwendung einer Berührungskraft auf die Eingabeoberfläche des Berührungsbildschirms resultieren.
  • Unter Bezugnahme nun auf die 5A und 5B umfasst die mobile elektronische Vorrichtung 502 ein starres Gehäuse 504 zur Aufnahme der Komponenten der mobilen elektronischen Vorrichtung 502, das konfiguriert ist, in einer Hand des Benutzers gehalten zu werden, während die mobile elektronische Vorrichtung 502 benutzt wird. Das Gehäuse 504 hat gegenüberliegende obere und untere Enden, die durch die Bezugszeichen 522 beziehungsweise 524 bezeichnet werden, und linke und rechte Seiten, die durch die Bezugszeichen 526 beziehungsweise 528 bezeichnet werden, die sich quer zu den oberen und unteren Enden 522, 524 erstrecken. In den gezeigten Ausführungsbeispielen der 5A und 5B ist das Gehäuse 504 (und die Vorrichtung 502) länglich mit einer Länge, die zwischen den oberen und unteren Enden 522, 524 länger definiert ist als eine Breite, die zwischen den linken und rechten Seiten 526, 528 definiert ist. Andere Dimensionen der Vorrichtung sind ebenfalls möglich.
  • Die mobile elektronische Vorrichtung 502 weist eine Berührungsbildschirmanzeige 506 auf, die in einer Vorderseite 505 des Gehäuses 504 angebracht ist, ein Bewegungserfassungs-Teilsystem 649 mit einem Erfassungselement zum Erfassen einer Bewegung und/oder Ausrichtung der mobilen elektronischen Vorrichtung 502. Die berührungsempfindliche Anzeige 506 kann jede geeignete berührungsempfindliche Anzeige sein, wie eine kapazitive, resistive, Infrarot, berührungsempfindliche SAW(surface acoustic wave)-Anzeige, Dehnungsmesser, optische Abbildung, dispersive Signal-Technologie, Akustikimpuls-Erkennung, und so weiter, wie in der Technik bekannt ist. Eine kapazitive berührungsempfindliche Anzeige kann eine kapazitive berührungsempfindliche Überlagerung haben. Die Überlagerung kann eine Baugruppe aus mehreren Schichten in einem Stapel sein, einschließlich zum Beispiel ein Substrat, eine Erdungsabschirmungsschicht, eine Sperrschicht, eine oder mehrere kapazitive Berührungs-Sensor-Schichten, die durch ein Substrat oder eine andere Barriere getrennt sind, und eine Abdeckung. Die kapazitiven Berührungs-Sensor-Schichten können aus jedem geeigneten Material sein, wie gemustertes Indium-Zinn-Oxid (ITO).
  • Das Bewegungserfassungs-Teilsystem 649 wird verwendet, wenn die Vorrichtung 502 in einem Tastatur-Modus, Eingabeverifizierungs-Modus, Kalibrierungsmodus oder in anderen Modi ist, die eine Eingabe von einem Bewegungssensor verwenden. Zusätzlich, wie hier beschrieben wird, kann das Bewegungserfassungssystem verwendet werden zum Erfassen einer Bewegung der Vorrichtung 502, um einen emotionalen Kontext von Text zu bestimmen, der in eine Messaging-Anwendung eingegeben wird, die auf der mobilen Vorrichtung 502 läuft. Ferner können andere Typen von Sensorerfassungs-Teilsystemen 680 von 6 eingesetzt werden zum Bestimmen eines emotionalen Kontexts von Text. Obwohl das Gehäuse 504 als eine einzelne Einheit gezeigt wird, kann es unter anderen möglichen Konfigurationen zwei oder mehr Gehäuseelemente haben, die miteinander verbunden sind (wie eine Flip-Telefon-Konfiguration oder ein zweischaliger Laptop-Computer zum Beispiel), oder kann ein „Slider-Telefon” sein, bei dem sich die Tastatur in einem ersten Körper befindet, der verschiebbar verbunden ist mit einem zweiten Körper, in dem sich der Anzeigebildschirm befindet, wobei die Vorrichtung derart konfiguriert ist, dass der erste Körper, in dem sich die Tastatur befindet, zur Benutzung aus dem zweiten Körper herausgeschoben werden kann.
  • Die Berührungsbildschirmanzeige 506 umfasst eine berührungsempfindliche Eingabeoberfläche 508, die über einer Anzeigevorrichtung 642 von 6 liegt, wie ein Flüssigkristallanzeige(LCD – liquid crystal display)-Bildschirm. Die Berührungsbildschirmanzeige 506 kann konfiguriert sein, die Position und möglicherweise den Druck von einem oder mehreren Objekten gleichzeitig zu erfassen. In einigen Ausführungsbeispielen weist die Berührungsbildschirmanzeige 506 einen kapazitiven Berührungsbildschirm oder einen resistiven Berührungsbildschirm auf, wie in der Technik bekannt ist.
  • Unter Bezugnahme nun auf das Blockdiagramm 600 von 6 ist zu sehen, dass das Kommunikationsteilsystem 611 einen Empfänger 614, einen Sender 616, und zugehörige Komponenten umfasst, wie ein oder mehrere Antennenelemente 618 und 620, lokale Oszillatoren (LOs – local oscillators) 622 und ein Verarbeitungsmodul, wie einen digitalen Signalprozessor (DSP – digital signal processor) 624. Die Antennenelemente 618 und 621 können eingebettet oder intern zu der mobilen elektronischen Vorrichtung 502 sein und eine einzelne Antenne kann sowohl von dem Empfänger als auch dem Sender verwendet werden, wie in der Technik bekannt ist. Wie für Fachleute auf dem Gebiet der Kommunikation offensichtlich ist, hängt die bestimmte Ausgestaltung des Kommunikationsteilsystems 621 von dem drahtlosen Netzwerk 604 ab, in dem die mobile elektronische Vorrichtung 502 arbeiten soll.
  • Die mobile elektronische Vorrichtung 502 kann mit einer aus einer Vielzahl von festen Transceiver-Basisstationen (nicht dargestellt) des drahtlosen Netzwerks 604 innerhalb ihres geographischen Abdeckungsbereichs kommunizieren. Die mobile elektronische Vorrichtung 502 kann Kommunikationssignale über das drahtlose Netzwerk 604 senden und empfangen, nachdem die erforderlichen Netzwerk-Registrierungs- oder Aktivierungs-Verfahren abgeschlossen sind. Signale, die von der Antenne 618 über das drahtlose Netzwerk 604 empfangen werden, werden in den Empfänger 614 eingegeben, der solche allgemeinen Empfängerfunktionen durchführen kann wie Signalverstärkung, Frequenzabwärtswandlung, Filterung, Kanalauswahl, usw., sowie Analog-Digital-Wandlung (ADC – analog-to-digital conversion). Die ADC eines empfangenen Signals ermöglicht, dass komplexere Kommunikationsfunktionen, wie Demodulation und Decodierung, in dem DSP 624 durchgeführt werden können. Auf ähnliche Weise werden zu sendende Signale verarbeitet, einschließlich Modulation und Codierung zum Beispiel, durch den DSP 624. Diese DSP-verarbeiteten Signale werden in den Sender 616 eingegeben für eine Digital-Analog-Wandlung (DAC – digital-to-analog conversion), Frequenzaufwärtswandlung, Filterung, Verstärkung und Übertragung an das drahtlose Netzwerk 604 über die Antenne 620. Der DSP 624 verarbeitet nicht nur Kommunikationssignale, sondern kann auch eine Empfänger- und Sender-Steuerung vorsehen. Zum Beispiel können die Verstärkungen, die auf Kommunikationssignale in dem Empfänger 614 und dem Sender 616 angewendet werden, adaptiv gesteuert werden durch automatische Verstärkungssteuerungs(AGC – automatic gain control)-Algorithmen, die in dem DSP 624 implementiert sind.
  • Es ist offensichtlich, dass eine Vielzahl von möglichen drahtlosen Netzwerk-Konfigurationen zur Verwendung mit der mobilen elektronischen Vorrichtung 502 eingesetzt werden kann. Die verschiedenen Typen von drahtlosen Netzwerken 604, die implementiert werden können, umfassen zum Beispiel Daten-zentrische drahtlose Netzwerke, Sprach-zentrische drahtlose Netzwerke und Dual-Modus-Netzwerke, die sowohl Sprach- als auch Datenkommunikationen über dieselben physikalischen Basisstationen unterstützen können. Neue Standards werden weiterhin definiert, aber es wird angenommen, dass sie Ähnlichkeiten zu dem hier beschriebenen Netzwerkverhalten haben, und es ist für Fachleute auch offensichtlich, dass die hier beschriebenen Ausführungsbeispiele andere geeignete Standards verwenden sollen, die in der Zukunft entwickelt werden.
  • Die mobile elektronische Vorrichtung 502 umfasst einen Prozessor 640, der den gesamten Betrieb der mobilen elektronischen Vorrichtung 502 steuert. Der Prozessor 640 interagiert mit dem Kommunikationsteilsystem 611, das Kommunikationsfunktionen durchführt. Der Prozessor 640 interagiert mit Vorrichtungsteilsystemen, wie der berührungsempfindlichen Eingabeoberfläche 508, der Anzeigevorrichtung 642, wie ein Flüssigkristallanzeige(LCD – liquid crystal display)-Bildschirm, ein Flash-Speicher 644, RAM (random access memory) 646, ROM (read only memory) 648, Hilfs-Eingabe/Ausgabe(I/O – input/output)-Teilsysteme 650, ein Datenanschluss 652, wie ein serieller Datenanschluss (zum Beispiel ein USB(Universal Serial Bus)-Datenanschluss), ein Lautsprecher 656, ein Mikrofon 658, ein Navigations-Tool 570, wie ein Scrollrad (Thumbwheel) oder Trackball, ein Nahbereichs-Kommunikationsteilsystem 662, und andere Vorrichtungs-Teilsysteme, die allgemein mit 664 bezeichnet werden. Einige der in 6 gezeigten Teilsysteme führen Kommunikations-bezogene Funktionen durch, während andere Teilsysteme „residente” Funktionen oder Funktionen auf der Vorrichtung vorsehen.
  • Der Prozessor 640 arbeitet unter gespeicherter Programmsteuerung und führt Software-Module 621 aus, die in einem Speicher gespeichert sind, wie persistenter Speicher zum Beispiel, in dem Flash-Speicher 644. Die Software-Module 600 weisen eine Betriebssystemsoftware 623, Software-Anwendungen 625, ein „virtuelle Tastatur”-Modul 626, und ein Eingabeverifizierungs-Modul 628 auf. Für Fachleute ist offensichtlich, dass die Software-Module 621 oder Teile davon temporär in einen volatilen Speicher, wie RAM 646, geladen werden können. Der RAM 646 wird verwendet zum Speichern von Laufzeitdatenvariablen und anderen Typen von Daten oder Information, wie für Fachleute offensichtlich ist. Obgleich spezifische Funktionen für verschiedene Typen von Speicher beschrieben werden, ist dies nur ein Beispiel, und für Fachleute ist offensichtlich, dass eine andere Zuweisung von Funktionen zu Typen von Speicher ebenfalls verwendet werden kann.
  • Die Software-Anwendungen 625 können eine Vielzahl von Anwendungen umfassen, einschließlich zum Beispiel eine Adressbuch-Anwendung, eine Messaging-Anwendung, eine Kalender-Anwendung und/oder eine Notepad-Anwendung. In einigen Ausführungsbeispielen umfassen die Software-Anwendungen 625 eine oder mehrere aus einer Web-Browser-Anwendung (d. h. für eine Web-fähige mobile Kommunikationsvorrichtung), einer Email-Nachricht-Anwendung, einer Push-Inhalt-Anzeige-Anwendung, einer Sprachkommunikations(d. h. Telefon)-Anwendung, einer Karten-Anwendung und einer Media-Player-Anwendung. Jede der Software-Anwendungen 625 kann eine Layout-Information umfassen, die die Platzierung von bestimmten Feldern und grafischen Elementen (zum Beispiel Textfelder, Eingabefelder, Icons, usw.) in der Benutzerschnittstelle (d. h. die Anzeigevorrichtung 642) gemäß der Anwendung definiert.
  • In einigen Ausführungsbeispielen können die Hilfs-Eingabe/Ausgabe(E/A bzw. I/O)-Teilsysteme 650 eine externe Kommunikationsverbindung oder -schnittstelle aufweisen, zum Beispiel eine Ethernet-Verbindung. Die mobile elektronische Vorrichtung 502 kann andere drahtlose Kommunikationsschnittstellen zum Kommunizieren mit anderen Typen von drahtlosen Netzwerken aufweisen, zum Beispiel ein drahtloses Netzwerk wie ein OFDM(orthogonal frequency division multiplexed)-Netzwerk oder ein GPS-Transceiver zur Kommunikation mit einem GPS-Satelliten-Netzwerk (nicht gezeigt). Die Hilfs-Eingabe/Ausgabe-Teilsysteme 650 können eine Vibrationsvorrichtung aufweisen zum Vorsehen von Vibrations-Benachrichtigungen in Reaktion auf verschiedene Ereignisse auf der mobilen elektronischen Vorrichtung 502, wie ein Empfang einer elektronischen Kommunikation oder ein eingehender Telefonanruf.
  • In einigen Ausführungsbeispielen umfasst die mobile elektronische Vorrichtung 502 auch eine entfernbare Speicherkarte 630 (typischerweise einen Flash-Speicher aufweisend) und eine Speicherkarte-Schnittstelle 632. Ein Netzwerkzugang ist typischerweise mit einem Teilnehmer oder einem Benutzer der mobilen elektronischen Vorrichtung 502 über die Speicherkarte 630 assoziiert, die eine SIM(Subscriber identity Module)-Karte sein kann zur Verwendung in einem GSM-Netzwerk, oder ein anderer Typ von Speicherkarte zur Verwendung in dem relevanten drahtlosen Netzwerk-Typ. Die Speicherkarte 630 ist in die Speicherkarte-Schnittstelle 632 der mobilen elektronischen Vorrichtung 502 eingefügt oder mit dieser verbunden, um in Verbindung mit dem drahtlosen Netzwerk 604 zu arbeiten.
  • Die mobile elektronische Vorrichtung 502 speichert Daten 627 in einem löschbaren persistenten Speicher, der in einem beispielhaften Ausführungsbeispiel der Flash-Speicher 644 ist. In verschiedenen Ausführungsbeispielen umfassen die Daten 627 Dienstdaten, die Information aufweisen, die von der mobilen elektronischen Vorrichtung 502 erforderlich ist, um eine Kommunikation mit dem drahtlosen Netzwerk 604 herzustellen und zu führen. Die Daten 627 können auch Benutzeranwendungsdaten umfassen, wie Email-Nachrichten, Adressbuch- und Kontaktinformation, Kalender- und Schedule-Information, Notepad-Dokumente, Bilddateien und andere häufig gespeicherte Benutzerinformation, die auf der mobilen elektronischen Vorrichtung 502 durch ihren Benutzer gespeichert wird, und andere Daten. Die Daten 627, die in dem persistenten Speicher (zum Beispiel Flash-Speicher 644) der mobilen elektronischen Vorrichtung 502 gespeichert werden, können zumindest teilweise in eine Anzahl von Datenbanken organisiert werden, die jeweils Datenelemente des gleichen Datentyps enthalten oder mit derselben Anwendung assoziiert sind. Zum Beispiel können Email-Nachrichten, Kontaktdatensätze und Aufgabenelemente in einzelnen Datenbanken in dem Speicher der Vorrichtung gespeichert werden.
  • Der serielle Datenanschluss 652 kann für eine Synchronisation mit einem Host-Computersystem eines Benutzers verwendet werden (nicht gezeigt). Der serielle Datenanschluss 652 ermöglicht einem Benutzer, Präferenzen über eine externe Vorrichtung oder Software-Anwendung zu setzen und erweitert die Möglichkeiten der mobilen elektronischen Vorrichtung 502 durch Liefern von Information oder Software-Downloads an die mobile elektronische Vorrichtung 502, anders als über das drahtlose Netzwerk 604. Der alternative Download-Pfad kann zum Beispiel verwendet werden, um einen Verschlüsselungsschlüssel auf die mobile elektronische Vorrichtung 502 über eine direkte, zuverlässige und vertrauenswürdige Verbindung zu laden, um somit eine sichere Vorrichtungskommunikation vorzusehen.
  • In einigen Ausführungsbeispielen ist die mobile elektronische Vorrichtung 502 mit einer Dienst-Routing-API (Application Programming Interface) versehen, die eine Anwendung mit der Möglichkeit bietet, einen Verkehr über eine serielle Daten(d. h. USB)- oder Bluetooth®-Verbindung an das Host-Computersystem zu leiten unter Verwendung von Standard-Konnektivitäts-Protokollen. Wenn ein Benutzer seine mobile elektronische Vorrichtung 502 über ein USB-Kabel oder eine Bluetooth®-Verbindung mit dem Host-Computersystem verbindet, wird Verkehr, der für das drahtlose Netzwerk 604 bestimmt war, automatisch an die mobile elektronische Vorrichtung 502 geleitet unter Verwendung des USB-Kabels oder der Bluetooth®-Verbindung. Ähnlich wird Verkehr, der für das drahtlose Netzwerk 604 bestimmt ist, automatisch über das USB-Kabel oder die Bluetooth®-Verbindung an das Host-Computersystem gesendet zur Verarbeitung.
  • Die mobile elektronische Vorrichtung 502 umfasst auch eine Batterie 638 als eine Stromquelle, die typischerweise eine oder mehrere wiederaufladbare Batterien) ist, die geladen werden können zum Beispiel über eine Ladeschaltung, die mit einer Batterieschnittstelle verbunden ist, wie der serielle Datenanschluss 652. Die Batterie 638 liefert elektrischen Strom für zumindest einen Teil der elektrischen Schaltung in der mobilen elektronischen Vorrichtung 502, und die Batterieschnittstelle 636 sieht eine mechanische und elektrische Verbindung für die Batterie 638 vor. Die Batterieschnittstelle 636 ist mit einem Regulator (nicht gezeigt) gekoppelt, der eine Leistung V+ für die Schaltung der mobilen elektronischen Vorrichtung 502 liefert.
  • Das Nahbereichs-Kommunikationsteilsystem 662 ist eine zusätzliche optionale Komponente, die eine Kommunikation zwischen der mobilen elektronischen Vorrichtung 502 und verschiedenen Systemen oder Vorrichtungen vorsieht, die nicht notwendigerweise ähnliche Vorrichtungen sein müssen. Zum Beispiel kann das Teilsystem 662 umfassen eine Infrarot-Vorrichtung und zugehörige Schaltungen und Komponenten oder einen Drahtlos-Bus-Protokoll-konformen Kommunikationsmechanismus, wie ein Bluetooth®-Kommunikationsmodul, um eine Kommunikation mit ähnlich aktivierten Systemen und Vorrichtungen vorzusehen (Bluetooth® ist eine eingetragene Marke von Bluetooth SIG, Inc.).
  • Ein vorgegebener Satz von Anwendungen, die grundlegende Vorrichtungsoperationen steuern, einschließlich Daten- und möglicherweise Sprachkommunikations-Anwendungen, wird normalerweise auf der mobilen elektronischen Vorrichtung 502 während oder nach der Herstellung installiert. Zusätzliche Anwendungen und/oder Aktualisierungen des Betriebssystems 623 oder von Software-Anwendungen 625 können ebenfalls auf die mobile elektronische Vorrichtung 502 geladen werden über das drahtlose Netzwerk 604, das Hilfs-Eingabe/Ausgabe-Teilsystem 650, den seriellen Anschluss 652, das Nahbereichs-Kommunikationsteilsystem 662, oder ein anderes geeignetes Teilsystem 664 über andere drahtlose Kommunikationsschnittstellen. Die heruntergeladenen Programme oder Code-Module können dauerhaft installiert werden, zum Beispiel in den Programmspeicher (d. h. den Flash-Speicher 644) geschrieben werden oder in den RAM 646 geschrieben werden und von diesem ausgeführt zur Ausführung durch den Prozessor 640 in der Laufzeit. Eine derartige Flexibilität bei der Installation von Anwendungen erhöht die Funktionalität der mobilen elektronischen Vorrichtung 502 und kann erweiterte Funktionen auf der Vorrichtung, Kommunikations-bezogene Funktionen oder beides bieten. Zum Beispiel können sichere Kommunikationsanwendungen ermöglichen, dass elektronische Handelsfunktionen und andere derartige finanzielle Transaktionen unter Verwendung der mobilen elektronischen Vorrichtung 502 durchgeführt werden können.
  • Die mobile elektronische Vorrichtung 502 kann eine PIM(personal information manager)-Anwendung umfassen mit der Fähigkeit, Datenelemente zu organisieren und zu verwalten, die einen Benutzer betreffen, wie Instant Messaging, Email, Kalender-Ereignisse, Voice-Mail, Termine und Aufgabenelemente, aber nicht darauf beschränkt. Die PIM-Anwendung hat die Fähigkeit zum Senden und Empfangen von Datenelementen über das drahtlose Netzwerk 604. In einigen beispielhaften Ausführungsbeispielen werden PIM-Datenelemente über das drahtlose Netzwerk 604 nahtlos kombiniert, synchronisiert und aktualisiert mit den entsprechenden Datenelementen des Benutzers, die auf dem Host-Computersystem des Benutzers gespeichert sind und/oder mit diesem assoziiert sind, wodurch ein gespiegelter Host-Computer in Bezug auf diese Datenelemente erzeugt wird.
  • Die mobile elektronische Vorrichtung 502 kann zwei grundsätzliche Kommunikationsmodi vorsehen: einen Datenkommunikationsmodus und einen optionalen Sprachkommunikationsmodus. In dem Datenkommunikationsmodus wird ein empfangenes Datensignal, wie eine Textnachricht, eine Email-Nachricht oder ein Webseiten-Download, von dem Kommunikationsteilsystem 611 verarbeitet und in den Prozessor 640 eingegeben für eine weitere Verarbeitung. Zum Beispiel kann eine heruntergeladene Webseite weiter durch eine Browser-Anwendung verarbeitet werden oder eine Email-Nachricht kann durch eine Email-Nachricht-Anwendung verarbeitet werden und an die Anzeige 642 ausgegeben werden. Ein Benutzer der mobilen elektronischen Vorrichtung 502 kann auch Datenelemente, wie zum Beispiel Email-Nachrichten, erstellen unter Verwendung der berührungsempfindlichen Eingabeoberfläche 508 und/oder eines Navigations-Tools 570 in Verbindung mit der Anzeigevorrichtung 642 und möglicherweise der Hilfs-Eingabe/Ausgabe-Vorrichtung 650. Diese erstellten Elemente können durch das Kommunikationsteilsystem 611 über das drahtlose Netzwerk 604 übertragen werden.
  • In dem Sprachkommunikationsmodus bietet die mobile elektronische Vorrichtung 502 Telefonfunktionen und arbeitet als ein typisches zellulares Telefon. Der Gesamtbetrieb ist ähnlich, außer dass die empfangenen Signale an den Lautsprecher 656 ausgegeben werden und Signale für die Übertragung durch einen Transducer erzeugt werden, wie dem Mikrofon 622. Die Telefonfunktionen werden durch eine Kombination von Software/Firmware (d. h. das Sprachkommunikationsmodul) und Hardware (d. h. das Mikrofon 622, der Lautsprecher 656 und Eingabevorrichtungen) vorgesehen. Alternative Sprach- oder Audio-Eingabe/Ausgabe-Teilsysteme, wie ein Sprachnachrichtaufzeichnungs-Teilsystem, können ebenfalls auf der mobilen elektronischen Vorrichtung 502 implementiert werden. Obwohl eine Sprach- oder Audio-Signalausgabe typischerweise primär durch den Lautsprecher 656 erreicht wird, kann auch die Anzeigevorrichtung 642 verwendet werden, um eine Anzeige der Identität eines Anrufers, die Dauer eines Sprachanrufs oder andere Sprachanruf-betreffende Information vorzusehen.
  • Zusätzlich zu dem Bewegungserfassungs-Teilsystem 649, das verwendet wird, wenn die Vorrichtung 502 in einem Tastatur-Modus, Eingabeverifizierungs-Modus, Kalibrier-Modus oder anderen Modi ist, die eine Eingabe von einem Bewegungssensor benutzen, oder um einen emotionalen Kontext des Texts zu bestimmen, der in eine Messaging-Anwendung der mobilen Vorrichtung 502 eingegeben wird, können andere Typen von Sensorerfassungs-Teilsystemen 680 von 6 eingesetzt werden zum Bestimmen eines emotionalen Kontexts von Text. Wie oben beschrieben, kann eine große Vielzahl von Sensoren eines Sensorerfassungs-Teilsystems 680 verwendet werden, um einen aktuellen emotionalen Zustand zu erfassen, der zu einem Text gehört, der in eine Messaging-Anwendung eingegeben wird, die von der mobilen elektronischen Vorrichtung 502 ausgeführt wird. Der emotionale Zustand kann bestimmt werden durch einen erfassten emotionalen Zustand eines Benutzers der mobilen Vorrichtung, in diesem Fall können die Sensoren biometrische Sensoren des Typs sein, der verschiedene physiologische Informationen über einen Benutzer erfassen kann, wie Blutdruck-Sensoren, Herzfrequenz-Sensoren, Beschleunigungsmesser-Sensoren (die zum Beispiel Schütteln, Zittern oder andere Bewegungen erfassen können), Video-Sensoren, die betriebsfähig sind zum Erfassen von Gesichtsausdrücken eines Benutzers, und galvanische Hautreaktions(Galvanic skin response)-Sensoren. Biometrische Daten, die von solchen biometrischen Sensoren erfasst werden, können als autonom angesehen werden und nicht innerhalb einer Steuerung durch den Benutzer sein. Der emotionale Zustand kann auch durch eine Nutzung der mobilen elektronischen Vorrichtung bestimmt werden und kann weiter unter der direkten Steuerung des Benutzers sein. Sensoren, die Nutzungsdaten erfassen können, umfassen Bewegungs-Sensoren oder -Teilsysteme, wie Beschleunigungsmesser und Bewegungssensoren, Gyroskope, Neigungssensoren und Magnetometer. Es ist offensichtlich, dass Sensoren, die zur Erfassung von biometrischer oder Nutzungsinformation verwendet werden, in jeder gewünschten Konfiguration verwendet werden können, einschließlich einzeln oder in Kombination, und alle diese Konfigurationen sind vorstellbar, wenn auf ein Sensorerfassungs-Teilsystem 680 Bezug genommen wird.
  • Wiederum mit Bezug auf 6 wird nun das Bewegungserfassungs-Teilsystem 649 beschrieben. Das Bewegungserfassungs-Teilsystem 649 weist einen Bewegungssensor auf, der mit dem Prozessor 640 verbunden ist, der durch eine oder eine Kombination aus einer Überwachungsschaltung und einer Betriebssoftware gesteuert wird. Der Bewegungssensor ist typischerweise ein Beschleunigungsmesser. Jedoch kann ein Sensor wie ein Dehnungsmesser, Druckmesser oder piezoelektrischer Sensor zur Erfassung einer Bewegung in anderen Ausführungsbeispielen verwendet werden. Der Prozessor 640 kann mit einem Beschleunigungsmesser interagieren, um eine Richtung von Gravitationskräften oder Gravitations-induzierten Reaktionskräften zu erfassen.
  • Wie für Fachleute offensichtlich ist, ist ein Beschleunigungsmesser ein Sensor, der eine Beschleunigung von einer Bewegung (zum Beispiel Bewegung der mobilen elektronischen Vorrichtung 502 oder eines Teils davon aufgrund der Berührungskraft) und einer Gravitation, die durch ein Erfassungselement erfasst wird, in ein elektrisches Signal umwandelt (was eine entsprechende Änderung der Ausgabe erzeugt), und ist in Konfigurationen mit einer, zwei oder drei Achsen verfügbar. Beschleunigungsmesser können digitale oder analoge Ausgabesignale erzeugen. Somit kann ein Beschleunigungsmesser mit einem Beschleunigungsmesser interagieren, um eine Richtung von Gravitationskräften oder Gravitationsinduzierten Reaktionskräften zu erfassen. Im Allgemeinen sind zwei Typen von Ausgaben verfügbar abhängig davon, ob ein analoger oder ein digitaler Beschleunigungsmesser verwendet wird: (1) eine analoge Ausgabe, die eine Pufferung und eine Analog-Digital-(A/D – analog-to-digital)-Umwandlung erfordert; und (2) eine digitale Ausgabe, die typischerweise verfügbar ist in einer Industrie-Standard-Schnittstelle, wie eine SPI (Serial Peripheral Interface) oder eine I2C(Inter-Integrated Circuit)-Schnittstelle.
  • Die Ausgabe eines Beschleunigungsmessers wird typischerweise in Bezug auf die Gravitationsbeschleunigungskonstante auf der Erdoberfläche gemessen, als g bezeichnet, die ungefähr 9,81 m/s.sup.2 (32,2 ft/s.sup.2) als Standarddurchschnitt beträgt. Der Beschleunigungsmesser kann fast jeder Typ sein, einschließlich, aber nicht darauf beschränkt, ein kapazitiver, piezoelektrischer, piezoresistiver, oder Gas-basierter Beschleunigungsmesser. Der Bereich von Beschleunigungsmessern variiert bis zu Tausenden von g, jedoch können für tragbare elektronische Vorrichtungen Beschleunigungsmesser für „niedriges g” verwendet werden. Beispielhafte Beschleunigungsmesser für niedriges g, die verwendet werden können, sind MEMS-Digital-Beschleunigungsmesser von Analog Devices, Inc. (ADI), Freescale Semiconductor, Inc. (Freescale) und STMicroelectronics N. V. aus Genf, Schweiz. Beispielhafte Niedrig-g-MEMS-Beschleunigungsmesser sind Modell LIS331DL, LIS3021DL und LIS3344AL Beschleunigungsmesser von STMicroelectronics N. V. Das Modell LIS3344AL ist ein analoger Beschleunigungsmesser mit einer Ausgabedatenrate von bis zu 2 kHz, der gute Reaktionscharakteristiken in analogen Sensor-basierten Bewegungserfassungs-Teilsystemen zeigt.
  • Der Beschleunigungsmesser befindet sich typischerweise in einem Bereich der mobilen elektronischen Vorrichtung 102, in dem die virtuelle Tastatur am wahrscheinlichsten in zumindest einigen der Tastatur-Modi angezeigt wird. Zum Beispiel ist die Tastatur in einem unteren oder mittleren Bereich der mobilen elektronischen Vorrichtung 502. Dies ermöglicht verbesserte Empfindlichkeiten des Beschleunigungsmessers bei einem Bestimmen oder Verifizieren von Eingaben auf einer virtuellen Tastatur durch Positionieren des Beschleunigungsmessers in der Nähe der Stelle, auf die wahrscheinlich die externe Kraft durch den Benutzer angewendet wird. Jede Messachse des Beschleunigungsmessers (zum Beispiel 1, 2 oder 3 Achsen) ist typischerweise mit einer Achse der mobilen elektronischen Vorrichtung 502 ausgerichtet. Zum Beispiel können für einen 3-Achsen-Beschleunigungsmesser die x-Achse und die y-Achse mit einer horizontalen Ebene der mobilen elektronischen Vorrichtung 502 ausgerichtet sein, während die z-Achse mit einer vertikalen Ebene der Vorrichtung 502 ausgerichtet sein kann. In solchen Ausführungsbeispielen, wenn die Vorrichtung 502 horizontal positioniert ist (wie auf einer ebenen Fläche mit dem Anzeigebildschirm 642 nach oben), sollten die x- und y-Achsen ungefähr 0 g messen und die z-Achse sollte ungefähr 1 g messen.
  • Um die Empfindlichkeit des Beschleunigungsmessers zu verbessern, können seine Ausgaben kalibriert werden, um einzelne Achsenverschiebungen und Empfindlichkeitsschwankungen auszugleichen. Kalibrierungen können auf der Systemebene durchgeführt werden, um eine Ende-zu-Ende-Kalibrierung vorzusehen. Kalibrierungen können auch durchgeführt werden durch Sammeln einer großen Anzahl von Messungen mit der mobilen elektronischen Vorrichtung 502 in verschiedenen Ausrichtungen.
  • Unter Bezugnahme kurz auf 7 wird ein Bewegungserfassungs-Teilsystem 649 in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung beschrieben. Die Schaltung 700 weist einen digitalen 3-Achsen-Beschleunigungsmesser 710 auf, der mit der Unterbrechungs- und seriellen Schnittstelle einer Steuervorrichtung (MCU) 712 verbunden ist. Die Steuervorrichtung 712 kann der Prozessor 640 der Vorrichtung 502 sein. Der Betrieb der Steuervorrichtung 712 wird durch Software gesteuert, die in einem internen Speicher der Steuervorrichtung 712 gespeichert sein kann. Die Betriebseinstellungen des Beschleunigungsmessers 710 werden durch die Steuervorrichtung 712 unter Verwendung von Steuersignalen gesteuert, die von der Steuervorrichtung 712 über die serielle Schnittstelle an den Beschleunigungsmesser 710 gesendet werden. Die Steuervorrichtung 712 kann die Bewegungserfassung in Übereinstimmung mit der Beschleunigung bestimmen, die von dem Beschleunigungsmesser 710 gemessen wird, oder unverarbeitete Beschleunigungsdaten, die von dem Beschleunigungsmesser 710 gemessen werden, können an den Prozessor 640 der Vorrichtung 502 über die serielle Schnittstelle gesendet werden, wo eine Bewegungserfassung durch das Betriebssystem 623 oder ein anderes Software-Modul 621 bestimmt wird. In anderen Ausführungsbeispielen kann eine andere digitale Beschleunigungsmesser-Konfiguration verwendet werden, oder ein geeigneter analoger Beschleunigungsmesser und eine Steuerungsschaltung können verwendet werden.
  • 8 ist eine Darstellung eines beispielhaften Netzwerksystems 800 mit ersten und zweiten mobilen elektronischen Vorrichtungen 810 in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung. Die ersten und zweiten mobilen elektronischen Vorrichtungen 810 haben jeweils eine drahtlose Verbindung 805, wie eine drahtlose Weitbereichsverbindung, mit einem Weitbereichsnetzwerk 850. In diesem Ausführungsbeispiel weist das Weitbereichsnetzwerk 850 eine Vielzahl von Basisstationen auf. Der Einfachheit halber wird nur eine Basisstation 851 gezeigt. Die Basisstation 851 ist betriebsfähig mit einer Basisstation-Steuervorrichtung 853 verbunden, die wiederum mit einem Kernnetzwerk 855 verbunden ist. Das Kernnetzwerk 855 ist mit einem Netzwerk 860 verbunden, das ein öffentliches Netzwerk, wie das Internet, oder ein privates Firmennetzwerk sein kann. Die mobilen elektronischen Vorrichtungen 810 stellen jeweilige drahtlose Verbindungen 805 mit der Basisstation 851 her und haben dementsprechend einen Zugang zu dem öffentlichen Netzwerk 860 und können Daten mit verschiedenen Entitäten austauschen, die mit dem öffentlichen Netzwerk 860 verbunden sind, wie ein Inhalt-Server 880.
  • Der Inhalt-Server 880 ermöglicht einen Zugriff für die Vorrichtungen 810 auf einen Inhalt-Repository-Speicher 885. Der Inhalt-Repository-Speicher 885 hat einen elektronischen Inhalt darauf gespeichert, wobei der Inhalt zum Herunterladen durch Desktop-Computer, Laptop-Computer, mobile elektronische Vorrichtungen und dergleichen verfügbar ist. Elektronischer Inhalt, der in dem Inhalt-Repository-Speicher 885 gespeichert ist, umfasst elektronische Bücher, Videos, Musik, Fotos und dergleichen. Clients können Inhalt von dem Inhalt-Repository-Speicher 885 herunterladen durch Anforderungen an den Inhalt-Server 880 mit einem entsprechenden Abonnement oder gratis, wenn der heruntergeladene Inhalt in dem öffentlichen Bereich ist. Die Vorrichtungen 810 können elektronischen Inhalt von dem Server 880 und dem Inhalt-Repository-Speicher 885 über die drahtlose Verbindung 805 herunterladen.
  • 9 ist ein Flussdiagramm, das ein Verfahren 900 zum Übermitteln von Emotion in Übereinstimmung mit bestimmten hier offenbarten Ausführungsbeispielen darstellt. In Block 910 wird ein emotionaler Kontext von Text, der in der Messaging-Anwendung einer mobilen Vorrichtung eingegeben wird, bestimmt. Der Text kann von einem Benutzer in einem Texteingabemodus der mobilen Vorrichtung eingegeben werden. Der emotionale Kontext des Texts kann bestimmt werden während des Texteingabemodus der mobilen Vorrichtung, während zum Beispiel der Text eingegeben wird, oder nachdem der Text eingegeben wurde, wie es der Fall sein kann, wenn die Vorrichtung nicht länger in dem Texteingabemodus ist.
  • Wie oben diskutiert, kann ein Bestimmen des emotionalen Kontexts des Texts auf erfassten biometrischen Daten oder erfassten Nutzungsdaten von einem oder mehreren Sensor(en) basieren. In dem beispielhaften Ausführungsbeispiel von biometrischen Daten werden biometrische Daten über einen Benutzer der mobilen Vorrichtung erfasst und analysiert, um den emotionalen Kontext des Texts zu bestimmen. Die biometrischen Daten können über den Benutzer erfasst werden, wenn der Benutzer einen Text in einem Texteingabemodus der mobilen Vorrichtung eingibt, wenn gewünscht. Die biometrischen Daten werden von einem oder mehreren biometrischen Sensor(en) erfasst, die einzeln oder in jeder gewünschten Kombination einen Blutdruck-Sensor, einen Herzfrequenz-Sensor, einen Beschleunigungsmesser-Sensor, einen Video-Sensor und einen galvanische Hautreaktions-Sensor umfassen können. Der eine oder mehrere biometrische Sensor(en) kann/können sich auf der mobilen elektronischen Vorrichtung oder anderweitig befinden. Zum Beispiel ist vorstellbar, dass eine Videokamera, die auf das Gesicht eines Benutzers gerichtet ist, biometrische Information über den Benutzer sammeln kann, sich nicht auf der mobilen Vorrichtung befindet; sondern stattdessen auf einem Personalcomputer oder einer anderen Kommunikationsvorrichtung in Kommunikation mit der mobilen Vorrichtung. Die biometrischen Daten können erfasst werden in Reaktion auf ein Auslöseereignis, obwohl dies keine Voraussetzung ist, insbesondere, da die Sammlung von insbesondere biometrischen Daten laufend und unbekannt (nahtlos) für den Benutzer sein kann. Ein Auslöseereignis für die Sammlung von biometrischen Daten kann ein Start des Texteingabemodus der mobilen Vorrichtung sein oder ein Erfassen, dass ein Benutzer der mobilen Vorrichtung ein Navigationselement der mobilen Vorrichtung aktiviert, um einen Teil eines eingegebenen Texts auszuwählen. Ein Navigationselement der mobilen Vorrichtung kann ein optionaler Joystick (OJ – optional joystick) der mobilen Vorrichtung, ein Trackball der mobilen Vorrichtung oder ein Berührungsbildschirm der mobilen Vorrichtung sein.
  • Alternativ kann der emotionale Kontext des Texts aus erfassten Nutzungsdaten bestimmt werden, die Information über eine Benutzung der mobilen Vorrichtung durch einen Benutzer liefern. Die erfassten Nutzungsdaten werden analysiert, um den emotionalen Kontext des Texts zu bestimmen. Die Nutzungsdaten werden von einem oder mehreren Sensoren erfasst, wie ein Gyroskop, ein Beschleunigungsmesser oder ein anderer Bewegungssensor, ein Neigungssensor, ein Bewegungssensor und ein Magnetometer. Die Nutzungsdaten können erfasst werden während des Texteingabemodus der mobilen Vorrichtung oder in Reaktion auf ein Auslöseereignis, wie oben beschrieben wird.
  • In dem in den 1A1C gezeigten Beispiel waren die Nutzungsdaten Bewegungsdaten, die von einem oder mehreren Beschleunigungsmesser(n) während des Texteingabemodus der mobilen Vorrichtung gesammelt wurden. Ein Benutzer verwendete ein Navigationselement (den Trackball), um auszuwählen, dass ein Teil des eingegebenen Texts durch impliziten emotionalen Text dargestellt wird.
  • In Block 920 wird ein impliziter emotionaler Text für zumindest einen Teil des Texts, der in der Messaging-Anwendung eingegeben wird, in Übereinstimmung mit dem bestimmten emotionalen Kontext dargestellt. Der implizite emotionale Text für den zumindest Teil des Texts unterscheidet sich von einem Basistext, in dem Text in der Messaging-Anwendung der mobilen Vorrichtung dargestellt wird. Dies kann zum Beispiel stattfinden, wenn der bestimmte emotionale Kontext des Texts nicht in einen normalen emotionalen Bereich von Text fällt, der in der Messaging-Anwendung eingegeben wird. Es war zu sehen, dass zumindest ein Teil des eingegebenen Texts ausgewählt werden kann, als impliziter emotionaler Text dargestellt zu werden, falls gewünscht, und dann dargestellt werden. Oder, wie in 2 gezeigt wird, der eingegebene Text muss nicht ausgewählt werden und der implizite emotionale Text in Übereinstimmung mit dem bestimmten emotionalen Kontext wird automatisch auf der Anzeige der mobilen Vorrichtung dargestellt. Zum Beispiel wird eine mobile Vorrichtung mit einer berührungsempfindlichen Eingabeoberfläche einer Berührungsbildschirmanzeige betrachtet. Der Benutzer kann den Text über die berührungsempfindliche Eingabeoberfläche der Berührungsbildschirmanzeige der mobilen Vorrichtung während eines „virtuelle Tastatur”-Modus der mobilen Vorrichtung eingeben, und der implizite emotionale Text kann in der berührungsempfindlichen Eingabeoberfläche der Berührungsbildschirmanzeige der mobilen Vorrichtung dargestellt werden. Alternativ kann ein Darstellen des impliziten emotionalen Texts ein Darstellen des impliziten emotionalen Texts in einem zweiten Anzeigeelement einer zweiten Vorrichtung referenzieren, die in Kommunikation mit der mobilen Vorrichtung ist, an die der implizite emotionale Text gesendet wurde und von dieser empfangen wurde.
  • Der dargestellte implizite emotionale Text kann eine oder mehrere Komponenten haben, einschließlich eine Schriftart-Komponente, eine Animationskomponente und eine Farbkomponente, die mit dem bestimmten emotionalen Kontext des eingegebenen Texts assoziiert sind. Der implizite emotionale Text unterscheidet sich von einem Basistext, in dem Text normalerweise in einem Texteingabemodus der mobilen Vorrichtung dargestellt wird. Der eingegebene Text kann als einfacher Text vor einer Bestimmung des emotionalen Kontexts des eingegebenen Texts dargestellt werden (Referenz 1A1C) und als eine Funktion des bestimmten emotionalen Kontexts, übergegangen von dem einfachen Text zu einem impliziten emotionalen Text in Übereinstimmung mit dem bestimmten emotionalen Kontext des eingegebenen Texts. Und ein impliziter emotionaler Text kann sich von einem früheren emotionalen Kontext eines früher eingegebenen Texts unterscheiden. Wenn der emotionale Kontext verschieden ist von dem früheren emotionalen Kontext, ist der implizite emotionale Text, der in Übereinstimmung mit dem bestimmten emotionalen Kontext dargestellt wird, verschieden von einem früheren impliziten emotionalen Text, der mit dem früheren emotionalen Kontext assoziiert ist, der vorher dargestellt wurde. Der frühere Text kann von einem Benutzer während eines Texteingabemodus der mobilen Vorrichtung eingegeben worden sein.
  • Der implizite emotionale Text kann ein benutzerdefinierter Text sein, der früher von dem Benutzer definiert wurde und für einen Abruf durch den Prozessor gespeichert wurde, wenn bestimmt wird, dass er am besten die Emotion darstellt, die aus den Sensordaten entnommen wird.
  • Nun wird Bezug genommen auf den Ablauf 1000 von 10, in dem ein alternatives Verfahren in Übereinstimmung mit verschiedenen Ausführungsbeispielen gezeigt wird. Während der Ablauf 900 von 9 einfach ein Darstellen eines impliziten emotionalen Texts in Übereinstimmung mit dem bestimmten emotionalen Text zeigt, zeigt der Ablauf 1000, dass sich die Art ändert, wie zumindest ein Teil eines eingegebenen Texts dargestellt wird.
  • In Block 1010 wird ein emotionaler Kontext des Texts bestimmt, der in der Messaging-Anwendung einer mobilen Vorrichtung eingegeben wird. In Block 1020 ändert sich die Art, wie zumindest ein Teil des Texts dargestellt wird, von einem Basistext, in dem Text normalerweise in einem Texteingabemodus der mobilen Vorrichtung dargestellt wird, zu einem impliziten emotionalen Text in Übereinstimmung mit den bestimmten emotionalen Kontext des Texts. Dies wird anschaulich in den 1A1C gezeigt. In Block 1030 wird der implizite emotionale Text für zumindest den Teil des eingegebenen Texts in einem Anzeigeelement dargestellt. Wie diskutiert, kann dieses Anzeigeelement eine Anzeige der mobilen elektronischen Vorrichtung oder einer anderen Kommunikationsvorrichtung sein, wie eine entfernte mobile Vorrichtung, mit der der Benutzer der mobilen Vorrichtung über eine schnelle Messaging-Anwendung in Kommunikation ist.
  • Wie zuvor beschrieben, kann der emotionale Kontext des eingegebenen Texts während des Texteingabemodus der mobilen Vorrichtung bestimmt werden. Wenn bestimmt wird, dass der bestimmte emotionale Kontext für den zumindest Teil des Texts nicht in einem normalen emotionalen Bereich ist, dann ist der bestimmte emotionale Kontext des zumindest Teils des Texts verschieden von einem früheren emotionalen Kontext des eingegebenen Texts. Der implizite emotionale Text des zumindest Teils des eingegebenen Texts wird demgemäß als modifizierter emotionaler Text dargestellt, bestimmt durch die Differenz zwischen dem früheren emotionalen Kontext und dem bestimmten emotionalen Kontext.
  • Der implizite emotionale Text kann auf einer berührungsempfindlichen Eingabeoberfläche einer Berührungsbildschirmanzeige der mobilen Vorrichtung dargestellt werden, wie oben beschrieben wird. Der Benutzer kann den Text über die berührungsempfindliche Eingabeoberfläche der Berührungsbildschirmanzeige der mobilen Vorrichtung während eines „virtuelle Tastatur”-Modus der mobilen Vorrichtung eingeben.
  • Wiederum kann der implizite emotionale Text für zumindest den Teil in einem zweiten Anzeigeelement einer zweiten Vorrichtung angezeigt werden, die in Kommunikation mit der mobilen Vorrichtung ist, an die der implizite emotionale Text gesendet und von dieser empfangen wird. Der eingegebene Text kann als einfacher Text vor einem Bestimmen des emotionalen Kontexts des eingegebenen Texts dargestellt werden. Dann kann, als eine Funktion des bestimmten emotionalen Kontexts, ein Übergang von dem einfachen Text zu einem Darstellen des impliziten emotionalen Texts in Übereinstimmung mit dem bestimmten emotionalen Kontext des eingegebenen Texts stattfinden.
  • Auch kann der eingegebene Text weiterhin als einfacher Text dargestellt werden, wenn der bestimmte emotionale Kontext in einem normalen emotionalen Bereich ist; dies kann zum Beispiel der Fall sein, wenn die biometrische Information eines Benutzers etwas Aufregung anzeigt, aber noch immer in einem normalen Emotionsbereich. Dann wird das Verfahren betrachtet, in dem ein Bestimmen des emotionalen Kontexts weiter ein Bestimmen aufweist, ob ein aktueller emotionaler Zustand, der mit zumindest einem Teil des Texts assoziiert ist, der in der Messaging-Anwendung der mobilen Vorrichtung eingegeben wird, verschieden ist von einem früheren emotionalen Zustand von Text, der in der Messaging-Anwendung eingegeben wird; und Darstellen des zumindest Teils des Texts als modifizierten Text mit einem emotionalen Kontext, der durch die Differenz zwischen dem aktuellen emotionalen Zustand und dem früheren emotionalen Zustand bestimmt wird, wenn die Differenz zwischen dem aktuellen emotionalen Zustand und dem früheren emotionalen Zustand nicht innerhalb eines normalen emotionalen Bereichs ist. Der zumindest Teil des Texts kann als nicht-modifizierter Basistext dargestellt werden, wenn eine Differenz zwischen dem aktuellen emotionalen Zustand und dem früheren emotionalen Zustand innerhalb des normalen emotionalen Bereichs ist.
  • Der Ablauf 1100 von 11 zeigt die Abfrage, ob der bestimmte emotionale Zustand oder Kontext in einen normalen Bereich fällt. In Block 1110 wird der aktuelle emotionale Zustand, der mit dem eingegebenen Text assoziiert ist, durch einen oder mehrere Sensor(en) erfasst. Die Abfrage in Entscheidungsblock 1120 ist, ob der aktuelle erfasste Zustand von einem früheren Zustand verschieden ist. Wenn nein, kehrt der Ablauf zu Block 1110 zurück. Wenn ja, dann ist die Abfrage in Block 1130, ob der aktuelle Zustand in einem normalen Bereich von Emotion ist. Wenn ja, dann wird in Block 1140 der Text als nicht-modifizierter Basistext eingegeben. Wenn nein, dann wird in Block 1150 die Differenz von einem früheren emotionalen Zustand berechnet und in Block 1160 verwendet ein Algorithmus diese bestimmte Differenz, um die Basisschriftart in einen erzeugten impliziten emotionalen Text zu ändern.
  • Unter Bezugnahme nun auf 12 wird ein Ablauf 1200 gezeigt, der ein Verfahren zum Übermitteln von Messaging-Anwendung-Emotion in Übereinstimmung mit verschiedenen Ausführungsbeispielen beschreibt. In Block 1210 werden Sensordaten erfasst. Die Sensordaten können erfasst werden während eines Texteingabemodus der mobilen Vorrichtung und die Sensordaten können in der Messaging-Anwendung erfasst werden. Ferner kann der Text in der Messaging Anwendung von einem Benutzer der mobilen Vorrichtung eingegeben werden und während eines Texteingabemodus der mobilen Vorrichtung.
  • Wie beschrieben, die Sensordaten können biometrische Daten sein, die von einem oder mehreren biometrischen Sensor(en) erfasst werden. Während vorstellbar ist, dass die biometrischen Sensoren, die ein Blutdruck-Sensor, ein Herzfrequenz-Sensor, ein Beschleunigungsmesser-Sensor, ein Video-Sensor, ein galvanische Hautreaktions-Sensor, usw. sein können, ein Teil der mobilen Vorrichtung sind, ist dies nicht erforderlich. Zum Beispiel kann ein Video-Sensor zu der mobilen Vorrichtung gehören, muss dies aber nicht, um biometrische Gesichtsausdrücke eines Benutzers der mobilen Vorrichtung zu erfassen. Die Sensordaten können Nutzungsdaten über eine Nutzung der mobilen Vorrichtung durch einen Benutzer sein und können von Sensoren vorgesehen werden, wie einem Gyroskop, einem Beschleunigungsmesser oder anderem Bewegungssensor, einem Neigungssensor, einem Bewegungssensor und einem Magnetometer. Wie oben können die Sensoren Sensordaten in Reaktion auf ein Auslöseereignis erfassen.
  • Ein emotionaler Zustand, der mit einem eingegebenen Text assoziiert ist, wird durch ein Analysieren der erfassten Sensordaten in Block 1220 bestimmt. Dies kann bestimmt werden während eines Texteingabemodus der mobilen Vorrichtung, ist aber nicht erforderlich. Ein Algorithmus des Prozessors bestimmt den emotionalen Zustand durch Analysieren der erfassten Sensordaten. Die Abfrage in Block 1230 ist, ob der bestimmte emotionale Zustand in einen normalen emotionalen Bereich fällt. Wenn ja, wird der Text als Basistext in der Messaging-Anwendung in Block 1260 dargestellt. Wenn nein, dann wird in Block 1240 der bestimmte emotionale Zustand durch den Algorithmus einem impliziten emotionalen Text zugeordnet. Diese Zuordnung umfasst ein Berechnen der Differenz zwischen dem bestimmten emotionalen Zustand und Verwenden des Grads von Emotion, angezeigt durch die Differenz, um den impliziten emotionalen Text zu erzeugen. Eine größere bestimmte Differenz zwischen dem bestimmten emotionalen Zustand und einem Basistext liefert einen impliziten emotionalen Text, der mehr Emotion zeigt. Sensordaten, die einen ekstatischen Benutzer anzeigen, haben einen übertriebeneren impliziten emotionalen Text als Sensordaten, die lediglich geringere Fröhlichkeit anzeigen. Der implizite emotionale Text wird in der Messaging-Anwendung in Block 1250 für zumindest einen Teil des eingegebenen Texts dargestellt.
  • Der Ablauf 1300 von 13 zeigt die Verwendung von Beschleunigungsmesser-Daten, die von einem oder mehreren Beschleunigungsmessern einer mobilen Vorrichtung erfasst werden. Es ist anzumerken, dass die Beschleunigungsmesser-Daten entweder biometrische Daten oder Nutzungsdaten sein können, da vorstellbar ist, dass ein Beschleunigungsmesser-Erfassungselement verwendet werden kann, um biometrische oder Nutzungs-Information zu erfassen. In Block 1310 werden Beschleunigungsmesser-Daten einer mobilen Vorrichtung durch ein oder mehrere Beschleunigungsmesser-Elemente erfasst. Dies kann erreicht werden, indem ein Benutzer etwas in eine schnelle Messaging Anwendung eingibt und dann den Trackball oder optionalen Joystick (Trackpad) gedrückt hält, um Beschleunigungsmesser-Daten zu erfassen. In Block 1320 wird ein emotionaler Zustand, der mit den erfassten Beschleunigungsmesser-Daten assoziiert ist, bestimmt durch Analysieren der erfassten Beschleunigungsmesser-Daten. Die Abfrage in Block 1330 ist, ob der emotionale Zustand, der mit den erfassten Beschleunigungsmesser-Daten assoziiert ist, in einen normalen emotionalen Bereich fällt. Wenn ja, Anzeigen, dass ein Basistext angezeigt werden soll, und der Ablauf geht weiter bei Block 1360.
  • Wenn jedoch der emotionale Zustand nicht normal ist, wird in Block 1340 der bestimmte emotionale Zustand, der mit den erfassten Beschleunigungsmesser-Daten assoziiert ist, einem impliziten emotionalen Text zugeordnet, wie beschrieben. Dies kann zum Beispiel erreicht werden durch Nehmen von Beschleunigungsmesser-Daten aus einer kleinen Probe, um eine Schriftart und Animation auszuwählen. Die Animation kann eine Zuordnung der Beschleunigungsmesser-Daten sein oder es kann ein Auswählen der besten Übereinstimmung mit bestimmten Parametern eines Algorithmus sein, um ein zuvor definiertes Animationsmuster auszuwählen. Somit können eine Schriftart und eine Animation dem Text zugeordnet werden basierend auf einem Algorithmus, der Aspekte der Beschleunigungsmesser-Daten analysiert. Harte und schnelle Übergänge können durch eine hektischer aussehende Schriftart dargestellt werden, mit einem Animationscharakter, der hart und schnell sein kann. Ein langsameres Beschleunigungsmuster kann mit einem langsameren Animations-tempo in einer weichen angenehmen Schriftart dargestellt werden. Die Richtung der Beschleunigungsmesser-Bewegungen können die Animation beeinflussen, wobei eine Vorwärts- und Rückwärtsbewegung die Schrift pulsieren lässt (kleiner und größer werdend), wobei seitliche Bewegungen die Schrift wellenartig bewegen oder vibrieren lassen oder eine Welle oder Vibration durch den Text gehen lassen. Wie beschrieben, kann der implizite emotionale Text auch eine Farbkomponente haben, wobei rot erfassten schnellen harten Bewegungen zugeordnet ist.
  • Der implizite emotionale Text für zumindest einen ausgewählten Teil des Texts, der in der Messaging Anwendung eingegeben wird, wird in Block 1350 in Übereinstimmung mit dem bestimmten emotionalen Zustand dargestellt.
  • Während die Blöcke, die die Verfahren aufweisen, in einer bestimmten Reihenfolge gezeigt werden, ist für Fachleute offensichtlich, dass viele der Blöcke untereinander austauschbar sind und in anderer Reihenfolge ablaufen können als die gezeigte, ohne die Endergebnisse der Verfahren wesentlich zu beeinflussen.
  • Die oben beschriebenen Implementierungen der vorliegenden Offenbarung sollen nur Beispiele sein. Fachleute können Änderungen, Modifikationen und Variationen der bestimmten beispielhaften Ausführungsbeispiele bewirken, ohne von dem beabsichtigten Umfang der vorliegenden Offenbarung abzuweichen. Ferner können ausgewählte Merkmale von einem oder mehreren der oben beschriebenen Ausführungsbeispiele kombiniert werden, um alternative beispielhafte Ausführungsbeispiele zu erzeugen, die hier nicht ausdrücklich beschrieben werden.
  • Die vorliegende Offenbarung kann in anderen spezifischen Formen eingesetzt werden, ohne von ihrem Sinn oder wesentlichen Charakteristiken abzuweichen. Die beschriebenen Ausführungsbeispiele sollen in jeder Hinsicht nur als illustrativ und nicht einschränkend betrachtet werden. Der Umfang der Offenbarung wird daher durch die angefügten Ansprüche angezeigt und nicht durch die obige Beschreibung. Alle Änderungen, die in die Bedeutung und den Bereich von Gleichwertigkeiten der Ansprüche fallen, sind in ihrem Umfang aufgenommen.

Claims (26)

  1. Verfahren zum Übermitteln von Emotion in einer Messaging-Anwendung, das aufweist: Bestimmen eines emotionalen Kontexts von Text, der in der Messaging-Anwendung einer mobilen Vorrichtung eingegeben wird; Ändern der Art, wie zumindest ein Teil des Texts dargestellt wird von einem Basistext, in dem Text normalerweise in einem Texteingabemodus der mobilen Vorrichtung dargestellt wird, zu einem impliziten emotionalen Text in Übereinstimmung mit dem bestimmten emotionalen Kontext des Texts; und Darstellen des impliziten emotionalen Texts für zumindest den Teil des eingegebenen Texts einem Anzeigeelement.
  2. Verfahren gemäß Anspruch 1, das weiter aufweist ein Bestimmen des emotionalen Kontexts von Text, der während des Texteingabemodus der mobilen Vorrichtung eingegeben wird.
  3. Verfahren gemäß Anspruch 1, das weiter aufweist: Bestimmen, dass der bestimmte emotionale Kontext des zumindest Teils des Texts verschieden ist von einem früheren emotionalen Kontext des eingegebenen Texts; und Darstellen des impliziten emotionalen Texts des zumindest Teils des eingegebenen Texts als modifizierten emotionalen Text, der bestimmt wird durch die Differenz zwischen dem früheren emotionalen Kontext und dem bestimmten emotionalen Kontext.
  4. Verfahren gemäß Anspruch 1, wobei das Darstellen weiter aufweist ein Darstellen des impliziten emotionalen Texts auf einer berührungsempfindlichen Eingabeoberfläche einer Berührungsbildschirmanzeige der mobilen Vorrichtung.
  5. Verfahren gemäß Anspruch 1, wobei das Darstellen weiter aufweist ein Darstellen des impliziten emotionalen Texts für zumindest den Teil in einem zweiten Anzeigeelement einer zweiten Vorrichtung, die in Kommunikation mit der mobilen Vorrichtung ist, an die der implizite emotionale Text gesendet und von dieser empfangen wird.
  6. Verfahren gemäß Anspruch 1, das weiter aufweist: Darstellen des eingegebenen Texts als einfachen Text vor einem Bestimmen des emotionalen Kontexts des eingegebenen Texts; und als eine Funktion des bestimmten emotionalen Kontexts, Übergehen von einem Darstellen des einfachen Texts zu einem Darstellen des impliziten emotionalen Texts in Übereinstimmung mit dem bestimmten emotionalen Kontext des eingegebenen Texts.
  7. Verfahren gemäß Anspruch 1, wobei das Bestimmen des emotionalen Kontexts weiter aufweist: Bestimmen, ob sich ein aktueller emotionaler Zustand, der mit dem zumindest Teil eines Texts assoziiert ist, der in der Messaging-Anwendung der mobilen Vorrichtung eingegeben wird, von einem früheren emotionalen Zustand eines Texts unterscheidet, der in der Messaging-Anwendung eingegeben wird; und Darstellen des zumindest Teils des Texts als modifizierten Text mit einem emotionalen Kontext, der bestimmt wird durch die Differenz zwischen dem aktuellen emotionalen Zustand und dem früheren emotionalen Zustand, wenn die Differenz zwischen dem aktuellen emotionalen Zustand und dem früheren emotionalen Zustand nicht in einem normalen emotionalen Bereich ist.
  8. Verfahren gemäß Anspruch 7, das weiter aufweist: Darstellen des zumindest Teils des Texts als nicht-modifizierten Basistext, wenn eine Differenz zwischen dem aktuellen emotionalen Zustand und dem früheren emotionalen Zustand in dem normalen emotionalen Bereich ist.
  9. Computerlesbares Medium mit computerlesbarem Code, der durch zumindest einen Prozessor der tragbaren elektronischen Vorrichtung ausgeführt werden kann, um das Verfahren gemäß Anspruch 1 durchzuführen.
  10. Verfahren zum Übermitteln von Emotion in einer Messaging-Anwendung, das aufweist: Bestimmen eines emotionalen Kontexts von Text, der in der Messaging-Anwendung einer mobilen Vorrichtung eingegeben wird; und Darstellen, in der Messaging-Anwendung, eines impliziten emotionalen Texts für zumindest einen Teil des Texts, der in der Messaging-Anwendung eingegeben wird, in Übereinstimmung mit dem bestimmten emotionalen Kontext, wobei der implizite emotionale Text für den zumindest Teil des Texts verschieden ist von einem Basistext, in dem Text in der Messaging-Anwendung der mobilen Vorrichtung dargestellt wird.
  11. Verfahren gemäß Anspruch 10, das weiter aufweist: Auswählen des zumindest Teils des eingegebenen Texts, um Emotion in der Messaging-Anwendung zu übermitteln; und Darstellen des impliziten emotionalen Texts für den ausgewählten zumindest Teil des Texts.
  12. Verfahren gemäß Anspruch 10, wobei das Bestimmen des emotionalen Kontexts des Texts aufweist ein Erfassen und Analysieren eines oder mehrerer aus biometrischen Daten eines Benutzers der mobilen Vorrichtung und Nutzungsdaten über eine Nutzung der mobilen Vorrichtung durch den Benutzer, um den emotionalen Kontext des Texts zu bestimmen.
  13. Verfahren gemäß Anspruch 10, wobei das Darstellen weiter aufweist ein Darstellen des impliziten emotionalen Texts in einem Anzeigeelement der mobilen Vorrichtung.
  14. Verfahren gemäß Anspruch 13, das weiter aufweist ein Darstellen des impliziten emotionalen Texts auf einer berührungsempfindlichen Eingabeoberfläche einer Berührungsbildschirmanzeige der mobilen Vorrichtung.
  15. Verfahren gemäß Anspruch 10, wobei das Darstellen weiter aufweist ein Darstellen des impliziten emotionalen Texts in einem zweiten Anzeigeelement einer zweiten Vorrichtung, die in Kommunikation mit der mobilen Vorrichtung ist, an die der implizite emotionale Text gesendet und von dieser empfangen wird.
  16. Verfahren gemäß Anspruch 10, das weiter aufweist: Bestimmen, ob sich der emotionale Kontext des Texts von einem früheren emotionalen Kontext eines früher eingegebenen Texts unterscheidet; und wenn sich der emotionale Kontext von dem früheren emotionalen Kontext unterscheidet, ist der implizite emotionale Text, der in Übereinstimmung mit dem bestimmten emotionalen Kontext dargestellt wird, verschieden von einem früheren impliziten emotionalen Text, der mit dem früheren emotionalen Kontext assoziiert ist, der vorher dargestellt wurde.
  17. Verfahren gemäß Anspruch 10, das weiter aufweist: Eingeben, durch einen Benutzer, des Texts über eine berührungsempfindliche Eingabeoberfläche einer Berührungsbildschirmanzeige der mobilen Vorrichtung während eines „virtuelle Tastatur”-Modus der mobilen Vorrichtung; und Darstellen des impliziten emotionalen Texts auf der berührungsempfindlichen Eingabeoberfläche der Berührungsbildschirmanzeige der mobilen Vorrichtung.
  18. Verfahren gemäß Anspruch 10, das weiter aufweist: Darstellen des eingegebenen Texts als einfachen Text vor einem Bestimmen des emotionalen Kontexts des eingegebenen Texts; als eine Funktion des bestimmten emotionalen Kontexts, Übergehen von einem Darstellen des einfachen Texts zu einem Darstellen des impliziten emotionalen Texts in Übereinstimmung mit dem bestimmten emotionalen Kontext des eingegebenen Texts.
  19. Computerlesbares Medium mit computerlesbarem Code, der durch zumindest einen Prozessor der tragbaren elektronischen Vorrichtung ausgeführt werden kann, um das Verfahren gemäß Anspruch 10 durchzuführen.
  20. Mobile Vorrichtung, die aufweist: einen Prozessor zum Steuern eines Betriebs der mobilen Vorrichtung; und ein Sensorerfassungselement, das mit dem Prozessor gekoppelt und konfiguriert ist, Daten zu erfassen, die für einen emotionalen Kontext von Text repräsentativ sind, der in einer Messaging Anwendung der mobilen Vorrichtung eingegeben wird; wobei der Prozessor konfiguriert ist, den emotionalen Kontext aus den erfassten Daten zu bestimmen und die Art, wie zumindest ein Teil des Texts normalerweise in einem Texteingabemodus der mobilen Vorrichtung dargestellt wird, zu einem impliziten emotionalen Text zu ändern in Übereinstimmung mit dem bestimmten emotionalen Kontext des Texts.
  21. Mobile Vorrichtung gemäß Anspruch 20, wobei der Prozessor das Sensorerfassungselement steuert, Daten zu erfassen, die für den emotionalen Kontext repräsentativ sind, in Reaktion auf ein Auslöseereignis.
  22. Mobile Vorrichtung gemäß Anspruch 20, wobei das Sensorerfassungselement einen oder mehrere aus einem oder mehreren biometrischen Sensor(en) aufweist, der/die konfiguriert ist/sind, biometrische Daten eines Benutzers der mobilen Vorrichtung zu erfassen, und einem oder mehreren Sensor(en), der/die konfiguriert ist/sind, Nutzungsdaten einer Nutzung der mobilen Vorrichtung durch den Benutzer zu erfassen.
  23. Mobile Vorrichtung gemäß Anspruch 20, wobei die Vorrichtung weiter eine Benutzerschnittstelle aufweist, die mit dem Prozessor gekoppelt ist und von diesem gesteuert wird, die konfiguriert ist, eine Benutzerinteraktion mit der mobilen Vorrichtung zu ermöglichen, wobei ein Benutzer den zumindest Teil des Texts zur Darstellung auswählt und der bestimmte emotionale Text durch die mobile Vorrichtung über die Benutzerschnittstelle ausgewählt und empfangen wird.
  24. Mobile Vorrichtung gemäß Anspruch 20, wobei die mobile Vorrichtung weiter ein Anzeigeelement aufweist, wobei der Prozessor weiter konfiguriert ist zum Bestimmen, ob sich ein aktueller emotionaler Zustand, der mit dem zumindest Teil eines Text assoziiert ist, der in der Messaging-Anwendung der mobilen Vorrichtung eingegeben wird, von einem früheren emotionalen Zustand eines Texts unterscheidet, der in der Messaging-Anwendung eingegeben wird, und zum Darstellen des zumindest Teils des Texts in dem Anzeigeelement als modifizierten Text mit einem emotionalen Kontext, der bestimmt wird durch die Differenz zwischen dem aktuellen emotionalen Zustand und dem früheren emotionalen Zustand, wenn die Differenz zwischen dem aktuellen emotionalen Zustand und dem früheren emotionalen Zustand nicht in einem normalen emotionalen Bereich ist.
  25. Mobile Vorrichtung gemäß Anspruch 20, wobei der dargestellte implizite emotionale Text eine oder mehrere aus einer Schriftart-Komponente, einer Animationskomponente und einer Farbkomponente aufweist, die mit dem bestimmten emotionalen Kontext des eingegebenen Texts assoziiert sind.
  26. Mobile Vorrichtung gemäß Anspruch 20, wobei die Vorrichtung weiter eine Berührungsbildschirmanzeige mit einer berührungsempfindlichen Eingabeoberfläche aufweist und der Prozessor konfiguriert ist, die Berührungsbildschirmanzeige zu steuern, um den impliziten emotionalen Text in der berührungsempfindlichen Eingabeoberfläche der Berührungsbildschirmanzeige anzuzeigen.
DE112011100035T 2011-01-14 2011-02-03 Vorrichtung und Verfahren zum Übermitteln von Emotion in einer Messaging-Anwendung Withdrawn DE112011100035T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/007,285 US20120182309A1 (en) 2011-01-14 2011-01-14 Device and method of conveying emotion in a messaging application
US13/007,285 2011-01-14
PCT/CA2011/050063 WO2012094726A1 (en) 2011-01-14 2011-02-03 Device and method of conveying emotion in a messaging application

Publications (1)

Publication Number Publication Date
DE112011100035T5 true DE112011100035T5 (de) 2013-04-25

Family

ID=46490438

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112011100035T Withdrawn DE112011100035T5 (de) 2011-01-14 2011-02-03 Vorrichtung und Verfahren zum Übermitteln von Emotion in einer Messaging-Anwendung

Country Status (4)

Country Link
US (1) US20120182309A1 (de)
CA (1) CA2764441A1 (de)
DE (1) DE112011100035T5 (de)
WO (1) WO2012094726A1 (de)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9336192B1 (en) 2012-11-28 2016-05-10 Lexalytics, Inc. Methods for analyzing text
US10528135B2 (en) * 2013-01-14 2020-01-07 Ctrl-Labs Corporation Wearable muscle interface systems, devices and methods that interact with content displayed on an electronic display
WO2014186370A1 (en) 2013-05-13 2014-11-20 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices that accommodate different user forms
CN103369477B (zh) * 2013-07-02 2016-12-07 华为技术有限公司 显示媒体信息方法、装置、客户端,图形控件显示方法和装置
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US10188309B2 (en) 2013-11-27 2019-01-29 North Inc. Systems, articles, and methods for electromyography sensors
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
US9191790B2 (en) * 2013-11-14 2015-11-17 Umar Blount Method of animating mobile device messages
US10199008B2 (en) 2014-03-27 2019-02-05 North Inc. Systems, devices, and methods for wearable electronic devices as state machines
US9880632B2 (en) 2014-06-19 2018-01-30 Thalmic Labs Inc. Systems, devices, and methods for gesture identification
US9874744B2 (en) 2014-06-25 2018-01-23 Thalmic Labs Inc. Systems, devices, and methods for wearable heads-up displays
JP6454106B2 (ja) * 2014-09-04 2019-01-16 株式会社コロプラ 感情テキスト表示プログラム、方法およびシステム
US20160072756A1 (en) * 2014-09-10 2016-03-10 International Business Machines Corporation Updating a Sender of an Electronic Communication on a Disposition of a Recipient Toward Content of the Electronic Communication
SG11201706548QA (en) 2015-02-17 2017-09-28 Thalmic Labs Inc Systems, devices, and methods for eyebox expansion in wearable heads-up displays
US10078435B2 (en) 2015-04-24 2018-09-18 Thalmic Labs Inc. Systems, methods, and computer program products for interacting with electronically displayed presentation materials
US10175488B2 (en) 2015-05-04 2019-01-08 North Inc. Systems, devices, and methods for spatially-multiplexed holographic optical elements
EP3304172A4 (de) 2015-05-28 2019-01-02 North Inc. Systeme, vorrichtungen und verfahren zur integration von augenverfolgender und -abtastender laserprojektion in am körper tragbaren headup-anzeigen
US10108333B2 (en) * 2015-06-26 2018-10-23 International Business Machines Corporation Inferring insights from enhanced user input
WO2017041010A1 (en) 2015-09-04 2017-03-09 Thalmic Labs Inc. Systems, articles, and methods for integrating holographic optical elements with eyeglass lenses
CN106502712A (zh) 2015-09-07 2017-03-15 北京三星通信技术研究有限公司 基于用户操作的app改进方法和系统
WO2017059285A1 (en) 2015-10-01 2017-04-06 Thalmic Labs Inc. Systems, devices, and methods for interacting with content displayed on head-mounted displays
US9904051B2 (en) 2015-10-23 2018-02-27 Thalmic Labs Inc. Systems, devices, and methods for laser eye tracking
US10802190B2 (en) 2015-12-17 2020-10-13 Covestro Llc Systems, devices, and methods for curved holographic optical elements
US10467329B2 (en) * 2016-01-04 2019-11-05 Expressy, LLC System and method for employing kinetic typography in CMC
US10303246B2 (en) 2016-01-20 2019-05-28 North Inc. Systems, devices, and methods for proximity-based eye tracking
US10151926B2 (en) 2016-01-29 2018-12-11 North Inc. Systems, devices, and methods for preventing eyebox degradation in a wearable heads-up display
JP2019518979A (ja) 2016-04-13 2019-07-04 ノース インコーポレイテッドNorth Inc. レーザプロジェクタの焦点を合わせるためのシステム、デバイス、及び方法
US10277874B2 (en) 2016-07-27 2019-04-30 North Inc. Systems, devices, and methods for laser projectors
US10459221B2 (en) 2016-08-12 2019-10-29 North Inc. Systems, devices, and methods for variable luminance in wearable heads-up displays
WO2018045303A1 (en) * 2016-09-02 2018-03-08 Bose Corporation Application-based messaging system using headphones
US10345596B2 (en) 2016-11-10 2019-07-09 North Inc. Systems, devices, and methods for astigmatism compensation in a wearable heads-up display
WO2018098579A1 (en) 2016-11-30 2018-06-07 Thalmic Labs Inc. Systems, devices, and methods for laser eye tracking in wearable heads-up displays
US10365492B2 (en) 2016-12-23 2019-07-30 North Inc. Systems, devices, and methods for beam combining in wearable heads-up displays
US10718951B2 (en) 2017-01-25 2020-07-21 North Inc. Systems, devices, and methods for beam combining in laser projectors
US10140274B2 (en) 2017-01-30 2018-11-27 International Business Machines Corporation Automated message modification based on user context
EP3697297A4 (de) 2017-10-19 2020-12-16 Facebook Technologies, Inc. Systeme und verfahren zur identifizierung biologischer strukturen in zusammenhang mit signalen neuromuskulären ursprungs
US11300788B2 (en) 2017-10-23 2022-04-12 Google Llc Free space multiple laser diode modules
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US11159585B2 (en) 2018-03-14 2021-10-26 At&T Intellectual Property I, L.P. Content delivery and consumption with affinity-based remixing
US11797087B2 (en) 2018-11-27 2023-10-24 Meta Platforms Technologies, Llc Methods and apparatus for autocalibration of a wearable electrode sensor system
US11410486B2 (en) * 2020-02-04 2022-08-09 Igt Determining a player emotional state based on a model that uses pressure sensitive inputs
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof
DE102021112061A1 (de) * 2021-05-08 2022-11-10 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Kommunikationseinheit zur Augmentation einer Kommunikation

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL122632A0 (en) * 1997-12-16 1998-08-16 Liberman Amir Apparatus and methods for detecting emotions
US7181693B1 (en) * 2000-03-17 2007-02-20 Gateway Inc. Affective control of information systems
US20010049596A1 (en) * 2000-05-30 2001-12-06 Adam Lavine Text to animation process
GB2376379A (en) * 2001-06-04 2002-12-11 Hewlett Packard Co Text messaging device adapted for indicating emotions
US7853863B2 (en) * 2001-12-12 2010-12-14 Sony Corporation Method for expressing emotion in a text message
US7607097B2 (en) * 2003-09-25 2009-10-20 International Business Machines Corporation Translating emotion to braille, emoticons and other special symbols
JP2005115896A (ja) * 2003-10-10 2005-04-28 Nec Corp 通信装置及び通信方法
ITMI20051812A1 (it) * 2005-09-29 2007-03-30 Pasqua Roberto Della Servizio di messaggistica istantanea con categorizzazione delle icone emozionali
US20080027984A1 (en) * 2006-07-31 2008-01-31 Motorola, Inc. Method and system for multi-dimensional action capture
WO2008054062A1 (en) * 2006-11-01 2008-05-08 Polidigm Co., Ltd Icon combining method for sms message
US8677281B2 (en) * 2007-02-09 2014-03-18 Intel-Ge Care Innovations Llc System, apparatus and method for emotional experience time sampling via a mobile graphical user interface
US20090125806A1 (en) * 2007-11-13 2009-05-14 Inventec Corporation Instant message system with personalized object and method thereof
EP2323351A4 (de) * 2008-09-05 2015-07-08 Sk Telecom Co Ltd Mobilkommunikationsendgerät zur ausgabe von vibrationsinformationen sowie verfahren dafür
KR101528848B1 (ko) * 2008-11-26 2015-06-15 엘지전자 주식회사 휴대단말기 및 그 제어방법
US20100177116A1 (en) * 2009-01-09 2010-07-15 Sony Ericsson Mobile Communications Ab Method and arrangement for handling non-textual information

Also Published As

Publication number Publication date
US20120182309A1 (en) 2012-07-19
CA2764441A1 (en) 2012-07-14
WO2012094726A1 (en) 2012-07-19

Similar Documents

Publication Publication Date Title
DE112011100035T5 (de) Vorrichtung und Verfahren zum Übermitteln von Emotion in einer Messaging-Anwendung
DE112011100033T5 (de) Vorrichtung und Verfahren zum Übermitteln von Emotion in einer Messaging-Anwendung
CN108351750B (zh) 用于处理与触摸输入相关联的强度信息的设备、方法、以及图形用户界面
CN109716264B (zh) 显示自定义的电子消息图形
US10225291B2 (en) Managing messages between users for collaborative editing of electronic documents
CN108885616B (zh) 用于导航与协作编辑的电子文档相关联的评论的用户界面
US10088979B2 (en) Recasting a form-based user interface into a mobile device user interface using common data
CN105593811B (zh) 经用户可选择图标的基于情境的消息创建
DE202016001024U1 (de) Navigations-Benutzerschnittstelle
DE202017104110U1 (de) Bildsuchanfragevorhersagen durch eine Tastatur
CN108369455A (zh) 用于提供触觉反馈的设备、方法和图形用户界面
CN108701013A (zh) 多任务环境中的智能数字助理
US20110131521A1 (en) Method and apparatus for providing user interface
CN109844711A (zh) 用于向设备上显示的内容加注释的统一注释层的设备、方法和图形用户界面
CN105229631A (zh) 阅读内容的收集、跟踪和呈现
CN112154411B (zh) 使用音频数据进行设备控制
CN107735833A (zh) 自动口音检测
CN107077292A (zh) 剪贴信息提供方法和装置
DE112011102650T5 (de) Eingabe in gesperrtes Computergerät
CN104007892A (zh) 用于控制多个对象的显示的方法及其移动终端
DE112013002381T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bewegung und Ablegen eines Benutzerschnittstellenobjekts
DE112008003578T5 (de) Fühlbare Rückmeldung in einer elektronischen Vorrichtung
KR20150017015A (ko) 이미지 카드 공유 방법 및 이를 위한 전자 기기
EP3617652A1 (de) Navigationsverfahren und zugehöriges produkte
US11037602B2 (en) Advanced video editing techniques using sampling patterns

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN, DE

R081 Change of applicant/patentee

Owner name: BLACKBERRY LIMITED, WATERLOO, CA

Free format text: FORMER OWNER: RESEARCH IN MOTION LIMITED, WATERLOO, ONTARIO, CA

Effective date: 20140926

R082 Change of representative

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN, DE

Effective date: 20140926

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN PATENTANWA, DE

Effective date: 20140926

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee