DE112016002588T5 - Kontextgetriebenes nachrichtenübermittlungssystem - Google Patents
Kontextgetriebenes nachrichtenübermittlungssystem Download PDFInfo
- Publication number
- DE112016002588T5 DE112016002588T5 DE112016002588.2T DE112016002588T DE112016002588T5 DE 112016002588 T5 DE112016002588 T5 DE 112016002588T5 DE 112016002588 T DE112016002588 T DE 112016002588T DE 112016002588 T5 DE112016002588 T5 DE 112016002588T5
- Authority
- DE
- Germany
- Prior art keywords
- source
- origin
- send
- message
- response message
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/21—Monitoring or handling of messages
- H04L51/224—Monitoring or handling of messages providing notification on incoming messages, e.g. pushed notifications of received messages
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
- G06Q10/107—Computer-aided management of electronic mailing [e-mailing]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/7243—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/7243—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
- H04M1/72436—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. SMS or e-mail
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/02—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
- H04M1/72454—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
Abstract
Description
- ALLGEMEINER STAND DER TECHNIK
- Einige Computergeräte sind mit einer Spracherkennungs-Funktionalität ausgestattet, um gesprochene Sprache in Schrift umzuwandeln. Ein Computergerät kann zum Beispiel mit Spracherkennungs-Funktionalität ausgestattet sein, die eine Audioeingabe (z. B. eine Stimme eines Benutzers) empfangen und schriftlichen Inhalt (z. B. eine SMS-Nachricht, E-Mail, Suchanfrage, einen Gerätebefehl usw.) basierend auf der Audioeingabe bestimmen kann. Einige Computergeräte sind mit Sprachsynthese-Funktionalität ausgestattet, um geschriebenen Text in gesprochenes Wort umzuwandeln. Zum Beispiel kann ein Computergerät mit Sprachsynthese-Funktionalität ausgestattet sein, die Textinhalte empfangen und Audiodaten ausgeben kann, die die Textinhalte angeben.
- Ein Benutzer kann einem Computergerät befehlen, eine Audioeingabe zu suchen, damit das Computergerät die Audioeingabe empfängt und die Audioeingabe in Text umwandelt. Es kann notwendig sein, dass der Benutzer die Inhalte der Nachricht bestätigt und dem Computergerät befiehlt, die Nachricht zu senden. Es kann notwendig sein, dass der Benutzer diese Schritte jedes Mal durchgeht, wenn der Benutzer eine Nachricht senden möchte.
- Ebenso kann ein Computergerät eine Textkommunikation empfangen und den Benutzer fragen, ob der Benutzer die Inhalte der Kommunikation hören möchte. Das Computergerät kann dem Benutzer jedes Mal eine Eingabeaufforderung anzeigen, wenn eine Textkommunikation empfangen wird, bevor es den Text in Sprache umwandelt.
- KURZDARSTELLUNG DER OFFENBARUNG
- In einem Beispiel kann ein Verfahren ein Empfangen, durch ein mit einem Benutzer assoziiertes Computergerät, einer Nachricht von einer Herkunftsquelle und ein Empfangen, durch das Computergerät, einer Audioeingabe beinhalten. Das Verfahren kann ein Bestimmen, durch das Computergerät und zumindest teilweise auf der Audioeingabe und Kontextinformationen basierend, einer Wahrscheinlichkeit beinhalten, dass der Benutzer die Absicht hat, eine Antwortnachricht an die Herkunftsquelle zu senden. Das Verfahren kann des Weiteren in Reaktion auf ein Bestimmen, dass die Wahrscheinlichkeit, dass der Benutzer die Absicht hat, die Antwortnachricht an die Herkunftsquelle zu senden, einen Wahrscheinlichkeitsschwellenwert erreicht, ein Bestimmen, durch das Computergerät, beinhalten, dass der Benutzer die Absicht hat, die Antwortnachricht an die Herkunftsquelle zu senden. Das Verfahren kann zudem in Reaktion auf ein Bestimmen, dass der Benutzer die Absicht hat, die Antwortnachricht an die Herkunftsquelle zu senden, ein Erzeugen, durch das Computergerät und basierend auf der Audioeingabe, der Antwortnachricht und ein Senden, durch das Computergerät, der Antwortnachricht an die Herkunftsquelle beinhalten.
- In einem anderen Beispiel kann ein Gerät ein Audioausgabegerät, ein Audioeingabegerät, eine Kommunikationseinheit und ein Nachrichtenverwaltungsmodul, betreibbar durch den zumindest einen Prozessor, beinhalten. Das Nachrichtenverwaltungsmodul kann über die Kommunikationseinheit eine Nachricht von einer Herkunftsquelle empfangen. Das Nachrichtenverwaltungsmodul kann auch über das Audioeingabegerät eine Audioeingabe empfangen. Das Nachrichtenverwaltungsmodul kann des Weiteren zumindest teilweise auf der Audioeingabe und den Kontextinformationen basierend eine Wahrscheinlichkeit bestimmen, dass ein mit dem Gerät assoziierter Benutzer die Absicht hat, eine Antwortnachricht an die Herkunftsquelle zu senden. Das Nachrichtenverwaltungsmodul kann in Reaktion auf ein Bestimmen, dass die Wahrscheinlichkeit, dass der Benutzer die Absicht hat, die Antwortnachricht an die Herkunftsquelle zu senden, einen Wahrscheinlichkeitsschwellenwert erreicht, bestimmen, dass der Benutzer die Absicht hat, die Antwortnachricht an die Herkunftsquelle zu senden. Das Nachrichtenverwaltungsmodul kann zudem in Reaktion auf ein Bestimmen, dass der Benutzer die Absicht hat, die Antwortnachricht an die Herkunftsquelle zu senden, basierend auf der Audioeingabe die Antwortnachricht erzeugen und die Antwortnachricht über die Kommunikationseinheit an die Herkunftsquelle senden.
- In einem weiteren Beispiel kann ein computerlesbares Speichermedium Anweisungen beinhalten, die, wenn sie ausgeführt werden, einen oder mehrere Prozessoren eines Computersystems konfigurieren, eine Nachricht von einer Herkunftsquelle zu empfangen, eine Audioeingabe zu empfangen, zumindest teilweise auf der Audioeingabe und Kontextinformationen basierend eine Wahrscheinlichkeit zu bestimmen, dass ein mit dem Computersystem assoziierter Benutzer beabsichtigt, eine Antwortnachricht an die Herkunftsquelle zu senden und in Reaktion auf das Bestimmen, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Antwortnachricht an die Herkunftsquelle zu senden, einen Wahrscheinlichkeitsschwellenwert erreicht, zu bestimmen, dass der Benutzer beabsichtigt, die Antwortnachricht an die Herkunftsquelle zu senden. Die Anweisungen konfigurieren, wenn sie ausgeführt werden, des Weiteren den einen oder die mehreren Prozessoren, in Reaktion auf ein Bestimmen, dass der Benutzer beabsichtigt, die Antwortnachricht an die Herkunftsquelle zu senden, basierend auf der Audioeingabe die Antwortnachricht zu erzeugen und die Antwortnachricht an die Herkunftsquelle zu senden.
- In einem anderen Beispiel kann ein Verfahren das Ausgeben eines Audiosignals durch ein mit einem Benutzer assoziiertes Computergerät beinhalten, das eine Textnachricht von einer Herkunftsquelle repräsentiert. Das Verfahren kann ein Empfangen, durch das Computergerät, von Audiodaten beinhalten, die eine Sprachäußerung vom Benutzer repräsentieren. Das Verfahren kann ebenfalls beinhalten, ohne zusätzliche Eingaben vom Benutzer durch das Computergerät eine Wahrscheinlichkeit zu bestimmen, dass der Benutzer beabsichtigt, eine Antwort zu senden, zumindest teilweise auf den Audiodaten und einem oder mehreren aus Frequenz eingehender Nachrichten von der Herkunftsquelle, Frequenz von ausgehenden Nachrichten an die Herkunftsquelle, Zeit seit der letzten empfangenen Nachricht von der Herkunftsquelle oder Zeit seit der letzten gesendeten Nachricht an die Herkunftsquelle basierend. Das Verfahren kann des Weiteren, in Reaktion auf ein Bestimmen, dass die Wahrscheinlichkeit einen Schwellenwert erreicht und ohne zusätzliche Eingaben vom Benutzer, ein Übertragen einer Transkription zumindest eines Teils der Audiodaten an die Herkunftsquelle beinhalten.
- Die Details von einem oder mehreren Beispielen der Offenbarung sind in den zugehörigen Zeichnungen und der Beschreibung nachfolgend ausgeführt. Andere Merkmale, Gegenstände und Vorteile der Erfindung werden aus der Beschreibung und den Zeichnungen sowie aus den Ansprüchen ersichtlich.
- Figurenliste
-
-
1 zeigt ein konzeptuelles Diagramm, das ein exemplarisches System zum Senden und Empfangen von textbasierten Nachrichten gemäß einem oder mehreren Aspekten der vorliegenden Offenbarung veranschaulicht. -
2 zeigt ein Blockdiagramm, das ein exemplarisches Computergerät, das zum Senden und Empfangen von textbasierten Nachrichten konfiguriert ist, gemäß einem oder mehreren Aspekten der vorliegenden Offenbarung veranschaulicht. - FIGs. 3A-3H zeigen konzeptuelle Diagramme, die einen exemplarischen Betrieb des Computergeräts veranschaulichen.
-
4 zeigt ein Ablaufdiagramm, das einen exemplarischen Betrieb des Computergeräts veranschaulicht. -
5 zeigt ein Ablaufdiagramm, das einen exemplarischen Betrieb des Computergeräts veranschaulicht. - AUSFÜHRLICHE BESCHREIBUNG
- Im Allgemeinen können Techniken aus dieser Offenbarung es einem Computergerät ermöglichen, automatisch zu bestimmen, dass ein Benutzer eine textvermittelte Konversation führt, und die textvermittelte Konversation erleichtern. In einigen Beispielen kann das Computergerät automatisch Sprachsynthese-Umwandlungen an eingehenden Kommunikationen durchführen und automatisch Spracherkennungs-Umwandlungen an ausgehenden Kommunikationen durchführen. In mehreren Fällen können es Techniken aus dieser Offenbarung einem Computergerät ermöglichen, intelligent einen beabsichtigten Empfänger einer ausgehenden Kommunikation zu bestimmen. Ein Computergerät kann eine Wahrscheinlichkeit bestimmen, dass der Benutzer beabsichtigt, eine Nachricht an einen bestimmten Empfänger zu senden, und basierend auf der Wahrscheinlichkeit bestimmen, ob eine Nachricht an den bestimmten Empfänger gesendet wird. Auf diese Weise können Techniken aus dieser Offenbarung, anstatt zu erfordern, dass der Benutzer dem Computergerät den Befehl erteilt, eine Nachricht zu senden, den Empfänger und den Inhalt der Nachricht zu bestätigen, es dem Computergerät ermöglichen, die Konversation automatisch zu erkennen und automatisch einen beabsichtigten Empfänger einer ausgehenden Kommunikation zu bestimmen, was den Umfang der Benutzerinteraktion reduzieren kann, die nötig ist, damit der Benutzer an der Konversation teilnehmen kann.
-
1 zeigt ein konzeptuelles Diagramm, das gemäß einem oder mehreren Aspekten der vorliegenden Offenbarung System100 als ein exemplarisches System zum Senden und Empfangen von textbasierten Nachrichten veranschaulicht. System100 beinhaltet Computergerät110 , Informationsserversystem („ISS“) 160 und Nachrichtenübermittlungsgeräte115A -115N (kollektiv als „Nachrichtenübermittlungsgeräte 115“), die über Netzwerk130 kommunikativ gekoppelt sind. - Nachrichtenübermittlungsgeräte
115 repräsentieren jeweils ein Computergerät, wie z. B. ein Mobiltelefon, einen Laptop-Computer, einen Desktop-Computer oder eine andere Art von Computergerät, das konfiguriert ist, Informationen über ein Netzwerk, wie z. B. Netzwerk130 , zu senden und zu empfangen. Nachrichtenübermittlungsgeräte115 beinhalten textbasierte Nachrichtenübermittlungsanwendungen zum Senden und Empfangen von textbasierten Nachrichten, wie z. B. E-Mail, Kurzmitteilungsdienst (SMS), Multimedia-Mitteilungsdienst (MMS), Sofortmitteilungen (IM) oder andere Arten von textbasierten Nachrichten. Die Nachrichtenübermittlungsgeräte115 bilden eine Gruppe von Nachrichtenübermittlungsgeräten, von denen aus die jeweiligen mit den Nachrichtenübermittlungsgeräten115A -115N assoziierten Benutzer textbasierte Nachrichten an Computergerät110 senden und textbasierte Nachrichten von Computergerät110 empfangen können. - Computergerät
110 kann ein Mobilgerät, wie z. B. ein Mobiltelefon, ein Tablet-Computer, ein Laptop-Computer, eine computergestützte Uhr, eine computergestützte Brille, computergestützte Handschuhe oder eine andere Art von tragbarem Computergerät sein. Zusätzliche Beispiele von Computergerät110 beinhalten Desktop-Computer, Fernseher, persönliche digitale Assistenten (PDA), tragbare Spielsysteme, Mediaplayer, E-Book-Reader, mobile Fernsehplattformen, Automobil-Navigations- und Entertainment-Systeme oder beliebige andere Arten von tragbaren und nicht tragbaren Computergeräten, die konfiguriert sind, um Informationen über ein Netzwerk, wie beispielsweise das Netzwerk130 , zu senden und zu empfangen. - Computergerät
110 beinhaltet ein Benutzeroberflächengerät112 , ein Benutzeroberflächen (UI)-Modul111 und ein Nachrichtenverwaltungsmodul (MMM)120 . Module111 ,120 können beschriebene Vorgänge unter Verwendung von Software, Hardware, Firmware oder einer Kombination aus Software, Hardware und Firmware ausführen, die im Computergerät110 resident ist und/oder darauf ausgeführt wird. Computergerät110 kann die Module111 ,120 mit mehreren Prozessoren oder mehreren Geräten ausführen. Computergerät110 kann die Module111 ,120 als virtuelle Maschinen, die auf zugrundeliegender Hardware ausgeführt werden, ausführen. Die Module111 ,120 können als ein oder mehrere Dienste eines Betriebssystems oder einer Computerplattform ausgeführt werden. Die Module111 ,120 können als ein oder mehrere ausführbare Programme auf einer Anwendungsebene einer Computerplattform ausgeführt werden. - UID
112 des Computergeräts110 kann als entsprechendes Eingabe- und/oder Ausgabegerät für das Computergerät110 fungieren. UID112 kann unter Verwendung verschiedener Technologien implementiert sein. UID112 kann beispielsweise unter Verwendung von präsenzempfindlichen Eingabebildschirmen, wie z. B. resistiven Touchscreens, SAW-Touchscreens (Surface Acoustic Wave, akustische Oberflächenwelle), kapazitiven Touchscreens, projektiv-kapazitiven Touchscreens, druckempfindlichen Bildschirmen, APR-Touchscreens (Acoustic Pulse Recognition, akustische Impulserkennung) oder anderer präsenzempfindlicher Anzeigetechnologie, als Eingabegerät fungieren. Zusätzlich kann UID112 Mikrofontechnologien, Infrarot-Sensortechnologien oder andere Eingabegerätetechnologie für die Verwendung beim Empfangen von Benutzereingaben beinhalten. - UID
112 kann zudem unter Verwendung eines Anzeigegeräts oder mehrerer Anzeigegeräte, wie z. B. LCDs („Liquid Crystal Display“, Flüssigkristallanzeigen), Punktmatrixanzeigen, LED-Anzeigen („Light Emitting Diode“, Leuchtdiodenanzeigen), OLED-Anzeigen („Organic Light Emitting Diode“, organische Leuchtdiodenanzeigen), E-Papier-Anzeigen oder ähnlichen Monochrom- oder Farbanzeigen, die sichtbare Informationen für einen Benutzer eines Computergeräts110 ausgeben können, als Ausgabegerät (z. B. Anzeigegerät) fungieren. Zusätzlich kann UID112 Lautsprechertechnologien, haptische Rückkopplungstechnologien oder andere Ausgabegerätetechnologie zur Verwendung bei der Ausgabe von Informationen an einen Benutzer beinhalten. - UID
112 kann jeweils präsenzempfindliche Anzeigen beinhalten, die eine taktile Eingabe von einem Benutzer des jeweiligen Computergeräts110 empfangen können. UID112 kann Angaben von taktilen Eingaben empfangen, indem es eine oder mehrere Gesten von einem Benutzer erkennt (z. B. von dem Benutzer, der mit einem Finger oder einem Stift eine oder mehrere Stellen von UID112 berührt oder darauf zeigt). UID112 kann einem Benutzer Ausgaben präsentieren, z. B. auf jeweiligen präsenzempfindlichen Anzeigen. UID112 kann die Ausgabe als jeweilige grafische Benutzeroberflächen (z. B. Benutzeroberfläche114 ) darstellen, die der von dem Computergerät110 bereitgestellten Funktionalität zugeordnet sein können. Beispielsweise kann UID112 verschiedene Benutzeroberflächen (z. B. Benutzeroberfläche114 ) präsentieren, die sich auf textbasierte Nachrichten oder andere Merkmale von Computerplattformen, Betriebssystemen, Anwendungen und/oder Diensten beziehen, die an oder von Computergerät110 ausgeführt werden oder zugänglich sind (z. B. elektronische Nachrichtenanwendungen, Internetbrowser-Anwendungen, mobile oder Desktop-Betriebssysteme usw.). UID112 kann Audiosignale, beispielsweise unter Verwendung eines Lautsprechers, an einen Benutzer ausgeben. Zum Beispiel kann UID112 Audiosignale ausgeben, die den Inhalt einer textbasierten Nachricht angeben. - UI-Modul
111 verwaltet Benutzerinteraktionen mit UID112 und anderen Komponenten des Computergeräts110 . UI-Modul111 kann UID112 veranlassen, eine Benutzeroberfläche, wie z. B. Benutzeroberfläche114 (oder andere exemplarische Benutzeroberflächen), zur Anzeige auszugeben, wenn ein Benutzer von Computergerät110 Ausgaben betrachtet und/oder Eingaben an UID112 vornimmt. UI-Modul111 und UID112 können eine oder mehrere Angaben von Eingaben von Benutzern zu unterschiedlichen Zeitpunkten erhalten, wenn die Benutzer mit der grafischen Benutzeroberfläche interagieren und wenn sich die Benutzer und Computergerät110 an unterschiedlichen Standorten befmden. UI-Modul111 und UID112 können an UIDs112 erkannte Eingaben interpretieren und Informationen zu den an UID112 erkannten Eingaben an eine/einen/ein oder mehrere verknüpfte Plattformen, Betriebssysteme, Anwendungen und/oder Dienste weiterleiten, die auf Computergerät110 ausgeführt werden, um z. B. Computergerät110 zu veranlassen, Funktionen auszuführen. - UI-Modul
111 kann Informationen und Anweisungen von einer/einem oder mehreren verknüpften Plattformen, Betriebssystemen, Anwendungen und/oder Diensten empfangen, die an Computergerät110 und/oder einem oder mehreren Remote-Computersystemen, wie z. B. ISS160 , ausgeführt werden. Zusätzlich kann UI-Modul111 als ein Zwischenelement zwischen der/dem einen oder den mehreren verknüpften Plattformen, Betriebssystemen, Anwendungen und/oder Diensten agieren, die am Computergerät110 und den unterschiedlichen Ausgabegeräten des Computergeräts110 (z. B. Lautsprecher, LED-Anzeigen, Audio- oder elektrostatische haptische Ausgabegeräte usw.) ausgeführt werden, um eine Ausgabe (z. B. eine Grafik, einen Lichtblitz, einen Ton, eine haptische Reaktion usw.) mit dem Computergerät110 zu produzieren. - Das ISS
160 repräsentiert jedes Remote-Computersystem, wie z. B. eine oder mehrere Desktop-Computer, Laptops, Mainframes, Server, Cloud-Computing-Systeme usw., die zum Senden und Empfangen von Informationen in und aus einem Netzwerk, wie z. B. Netzwerk130 , in der Lage sind. ISS160 hostet (oder bietet zumindest Zugriff auf) Spracherkennungsdienste zum Umwandeln von Sprache in textbasierte Nachrichten und Sprachsynthesedienste zum Umwandeln von textbasierten Nachrichten in Audiodaten. In einigen Beispielen repräsentiert ISS160 ein Cloud-Computersystem, das Spracherkennungs- und Sprachsynthesedienste durch Netzwerk130 für ein oder mehrere Computergeräte110 bereitstellt, die über Zugriff auf die durch ISS160 bereitgestellte Cloud auf die Spracherkennungs- und Sprachsynthesedienste zugreifen. - Das Netzwerk
130 repräsentiert ein beliebiges öffentliches oder privates Kommunikationsnetz, beispielsweise ein Mobilfunknetz, Wi-Fi und/oder einen anderen Netzwerktyp zum Übertragen von Daten zwischen Computersystemen, Servern und Computergeräten. Netzwerk130 kann einen oder mehrere Netzwerk-Hubs, Netzwerk-Switches, Netzwerk-Router oder beliebige andere Netzwerkgeräte beinhalten, die operativ miteinander gekoppelt sind, wodurch der Austausch von Informationen zwischen dem ISS160 , Computergerät110 und den Nachrichtenübermittlungsgeräten115 bereitgestellt wird. Computergerät110 , Nachrichtenübermittlungsgeräte115 und ISS160 können Daten unter Verwendung von beliebigen geeigneten Kommunikationstechniken über das Netzwerk130 senden und empfangen. - ISS
160 , Computergerät110 und Nachrichtenübermittlungsgeräte115 können jeweils operativ unter Verwendung entsprechender Netzwerkverbindungen mit Netzwerk130 gekoppelt sein. ISS160 , Computergerät110 und Nachrichtenübermittlungsgeräte115 können operativ unter Verwendung verschiedener Netzwerkverbindungen mit Netzwerk130 gekoppelt sein. Die Verbindungen, die ISS160 , Computergerät110 und Nachrichtenübermittlungsgeräte mit dem Netzwerk130 verbinden, können Ethernet, ATM oder andere Arten von Netzwerkverbindungen sein, zudem kann es sich bei diesen Verbindungen um drahtlose und/oder drahtgebundene Verbindungen handeln. - Gemäß Techniken der vorliegenden Offenbarung kann System
100 automatisch die Konversation erkennen und automatisch einen beabsichtigten Empfänger einer ausgehenden Kommunikation bestimmen. Zum Beispiel können ein oder mehrere Nachrichtenübermittlungsgeräte115 über Netzwerk130 eine Nachricht an Computergerät110 senden. Computergerät110 empfängt die Nachricht und kann in Reaktion darauf eine Angabe der Nachricht ausgeben. Computergerät110 kann bestimmen, ob es eine visuelle (z. B. grafische) oder akustische Angabe der Nachricht ausgibt. Computergerät110 kann bestimmen, ob es eine Angabe der Nachricht ohne zusätzliche Eingaben (z. B. akustische oder gestikbasierte Eingaben) vom Benutzer ausgibt. - In Reaktion auf ein Bestimmen, eine Audioangabe der Nachricht auszugeben, kann Computergerät
110 die textbasierte Nachricht in Audiodaten umwandeln, die die Nachricht angeben, indem sie Sprachsyntheseverarbeitung an der Nachricht durchführen. In einigen Beispielen kann Computergerät110 , um die textbasierte Nachricht in Audiodaten umzuwandeln, zumindest einen Teil der Nachricht zur Sprachsyntheseverarbeitung an ISS160 senden. Sprachsynthesemodul164 von ISS160 kann zumindest einen Teil der Nachricht in Audiodaten umwandeln, während ISS160 die Audiodaten an Computergerät110 senden kann. In mehreren Fällen können Computergerät110 und ISS160 jeweils Sprachsyntheseverarbeitung an zumindest einem Teil der Nachricht durchführen, um die textbasierte Nachricht in Audiodaten umzuwandeln, die den Inhalt der Nachricht angeben. Computergerät110 kann die Audiodaten über UID112 ausgeben. - Nachdem Computergerät
110 Audiodaten ausgibt, die die empfangene Nachricht angeben, kann Computergerät110 erkennen, dass ein Benutzer spricht (z. B. in einer Konversation mit einer anderen Person, beim Bereitstellen einer Audioeingabe an Computergerät110 , beim Mitsingen eines Lieds im Radio, usw.). Computergerät110 kann Audiodaten der Sprache über UID112 empfangen und basierend auf den Audiodaten bestimmen, ob es eine textbasierte Antwortnachricht sendet. Computergerät110 kann bestimmen, ob es ohne zusätzliche Eingaben (z. B. akustische oder gestikbasierte Eingaben) vom Benutzer eine textbasierte Antwortnachricht sendet. - Wenn Computergerät
110 bestimmt, dass der Benutzer beabsichtigt hat, eine Antwortnachricht zu senden, kann Computergerät110 die Audiodaten in Textdaten umwandeln, die die Audiodaten angeben, indem es Spracherkennungsverarbeitung an den Audiodaten durchführt. In einigen Beispielen kann Computergerät110 zumindest einen Teil der Audiodaten zur Spracherkennungsverarbeitung an ISS160 senden. Spracherkennungsmodul162 kann zumindest einen Teil der Audiodaten in Textdaten umwandeln, während ISS160 die Textdaten an Computergerät110 senden kann. In einigen Beispielen können sowohl Computergerät110 als auch ISS160 Spracherkennungsverarbeitung an zumindest einem Teil der Audiodaten durchführen und die Audiodaten in Textdaten umwandeln, die die Audiodaten angeben. Computergerät110 kann unter Verwendung der Textdaten eine textbasierte Antwortnachricht erzeugen. Computergerät110 kann die Antwortnachricht an ein bestimmtes Nachrichtenübermittlungsgerät115 senden. - Computergerät
110 kann eine textbasierte Nachricht von Nachrichtenübermittlungsgerät115A empfangen. Nachrichtenübermittlungsgerät115A kann mit einem Kontakt in der Kontaktliste von Computergerät115S (z. B. Aaron) assoziiert sein. Computergerät110 kann über UI114 einen grafischen Hinweis auf die Nachricht ausgeben. Zum Beispiel kann Computergerät110 UI114 veranlassen, die Nachricht auszugeben: „Ankommende Nachricht von Aaron: ,Kommst du heute Abend zu Jimmy?‘“ Ebenso kann Computergerät110 eine textbasierte Nachricht von einem zweiten Nachrichtenübermittlungsgerät115B empfangen, die mit einem Kontakt in der Kontaktliste für Computergerät110 (z. B. Jimmy) assoziiert sein kann. Computergerät110 kann UI114 veranlassen, die Nachricht auszugeben: „Ankommende Nachricht von Jimmy: ,Kommst du heute Abend?‘“ - In einigen Beispielen kann MMM
120 bestimmen, eine Audioangabe der empfangenen Nachrichten auszugeben. In einigen Beispielen bestimmt MMM120 , ob es eine Audioangabe der Nachricht ohne zusätzliche Eingaben vom Benutzer ausgibt. In Reaktion auf ein Bestimmen, einen Audioangabe der ersten Nachricht auszugeben, kann Computergerät110 das UID112 (z. B. einen Lautsprecher) veranlassen, die Audiodaten auszugeben: „Ankommende Nachricht von Aaron: ,Kommst du heute Abend zu Jimmy?‘“ In Reaktion auf ein Bestimmen, eine Audioangabe der zweiten Nachricht auszugeben, kann Computergerät110 UID112 (z. B. einen Lautsprecher) veranlassen, die Audiodaten auszugeben: „Ankommende Nachricht von Jimmy: ,Kommst du heute Abend?‘“ - Nachdem Computergerät
110 die Audiodaten ausgibt, die die erste empfangene Nachricht und/oder die zweite empfangene Nachricht angeben, kann ein Benutzer von Computergerät110 eine Antwort sprechen. Zum Beispiel kann der Benutzer auf die erste Nachricht antworten, indem er „Ja.“ sagt. Computergerät110 kann die Antwort des Benutzers erkennen und kann über UID112 (z. B. ein Mikrofon) Audiodaten empfangen, die die Antwort angeben. MMM120 kann bestimmen, ob es eine textbasierte Antwortnachricht an Nachrichtenübermittlungsgerät115A sendet. In einigen Beispielen kann MMM120 ohne zusätzliche Eingaben vom Benutzer die Bestimmung treffen, ob es eine Antwortnachricht sendet. In Reaktion auf ein Bestimmen, eine Antwortnachricht an Nachrichtenübermittlungsgerät115A zu senden, kann Computergerät110 basierend auf Audiodaten eine textbasierte Antwortnachricht erzeugen. Computergerät110 kann die Antwortnachricht an Nachrichtenübermittlungsgerät115A senden. In einigen Beispielen kann Computergerät110 einen visuellen oder akustischen Hinweis ausgeben, dass die Antwortnachricht gesendet wurde. Zum Beispiel kann das Computergerät die Audiodaten „Nachricht an Aaron gesendet“ ausgeben. - Ein Benutzer von Computergerät
110 kann auf die zweite empfangene Nachricht antworten, zum Beispiel indem er „Ja.“ sagt. Computergerät110 kann die Antwort des Benutzers erkennen, und MMM120 kann bestimmen, ob es eine textbasierte Antwortnachricht an eine oder beide der Nachrichtenübermittlungsgeräte115A ,115B sendet. In einigen Beispielen kann MMM120 die Bestimmung ohne zusätzliche Eingaben vom Benutzer treffen. In einigen Beispielen kann MMM120 bestimmen, eine Antwortnachricht an nur ein Nachrichtenübermittlungsgerät (z. B. Nachrichtenübermittlungsgerät115B ) zu senden. Computergerät110 kann basierend auf den Audiodaten eine textbasierte Antwortnachricht erzeugen. Computergerät110 kann die Antwortnachricht an Nachrichtenübermittlungsgerät115B senden. In einigen Beispielen kann Computergerät110 einen visuellen oder akustischen Hinweis ausgeben, dass die Antwortnachricht gesendet wurde. Zum Beispiel kann Computergerät110 die Audiodaten „Nachricht an Jimmy gesendet.“ ausgeben. - Techniken dieser Offenbarung können den Austausch von textbasierten Nachrichten vereinfachen und beschleunigen. Indem sie automatisch bestimmen, ob ein Benutzer eine textbasierte Konversation führt, können Techniken dieser Offenbarung umständliche und zeitaufwendige Eingabeaufforderungen, Stimmbestätigungen und Berührungseingaben reduzieren oder eliminieren, die anderenfalls nötig wären, um eine textbasierte Nachricht zu senden oder eine empfangene textbasierte Nachricht zu hören. Techniken dieser Offenbarung können es einem Computergerät ermöglichen, effizient Kommunikationen zu verarbeiten, indem sie die Konversation von einem mühsamen transaktionsorientierten Ansatz in einen natürlicheren dialogorientierten Ansatz überführen.
-
2 zeigt ein konzeptuelles Diagramm, das ein exemplarisches Computergerät veranschaulicht, das konfiguriert ist, textbasierte Nachrichten zu senden und zu empfangen. Computergerät210 aus2 wird nachfolgend innerhalb des Kontextes von1 beschrieben.2 veranschaulicht nur ein bestimmtes Beispiel von Computergerät210 , während viele andere Beispiele von Computergerät210 in anderen Fällen verwendet werden können. Andere Beispiele des Computergeräts210 können eine Teilmenge der Komponenten beinhalten, die in dem exemplarischen Computergerät210 enthalten sind, oder können zusätzliche Komponenten beinhalten, die nicht in2 dargestellt werden. - Wie im Beispiel aus
2 dargestellt, beinhaltet Computergerät210 ein Benutzeroberflächengerät (UID)212 , einen oder mehrere Prozessoren240 , eine oder mehrere Eingabegeräte242 , eine oder mehrere Kommunikationseinheiten244 , eine oder mehrere Ausgabegeräte246 und ein oder mehrere Speichergeräte248 . Speichergerät248 von Computergerät210 beinhaltet zudem Nachrichtenverwaltungsmodul220 . MMM220 kann Anwendungsmodule222A -222N (kollektiv als „Anwendungsmodule 222“ bezeichnet), Spracherkennungsmodul224 , Sprachsynthesemodul226 und Konversationsverwaltungsmodul (CMM)228 beinhalten. Ein oder mehrere Kommunikationskanäle250 können jede der Komponenten212 ,240 ,242 ,244 ,246 und248 zwecks Kommunikation zwischen den Komponenten (physisch, kommunikativ und/oder operativ) verbinden. In einigen Beispielen können die Kommunikationskanäle250 einen Systembus, eine Netzwerkverbindung, eine prozessübergreifende Kommunikationsdatenstruktur oder eine andere Technik zur Kommunikation von Daten beinhalten. - Ein oder mehrere Eingabegeräte
242 des Computergeräts210 können Eingaben empfangen. Beispiele von Eingaben sind taktile, Bewegungs-, Audio- und Videoeingaben. Die Eingabegeräte242 des Computergeräts210 können in einem Beispiel eine präsenzempfindliche Anzeige213 , einen berührungsempfindlichen Bildschirm, eine Maus, eine Tastatur, ein Sprachreaktionssystem, eine Videokamera, ein Mikrofon (z. B. Mikrofon243 ) oder eine andere Art von Gerät zum Erkennen von Eingaben von Mensch oder Maschine beinhalten. - Ein oder mehrere Ausgabegeräte
246 von Computergerät210 können Ausgaben erzeugen. Beispiele von Ausgaben sind taktile, elektromagnetische, Audio- und Videoausgaben. Die Ausgabegeräte246 von Computergerät210 beinhalten in einem Beispiel eine präsenzempfindliche Anzeige, Lautsprecher (z. B. Lautsprecher247 ), einen Kathodenstrahlröhren (CRT)-Monitor, eine Flüssigkristallanzeige (LCD) oder eine andere Art von Gerät zum Erzeugen von Ausgaben an Mensch oder Maschine. Die Ausgabegeräte246 können eine oder mehrere aus einer Soundkarte oder einer Videografikadapterkarte verwenden, um jeweils akustische oder visuelle Ausgaben zu produzieren. - Eine oder mehrere Kommunikationseinheiten
244 von Computergerät210 können über ein oder mehrere Netzwerke mit externen Geräten kommunizieren, indem sie Netzwerksignale über das eine oder die mehreren Netzwerke senden und/oder empfangen. Die Kommunikationseinheiten244 können sich mit jedwedem öffentlichen oder privaten Kommunikationsnetzwerk verbinden. So kann beispielsweise das Computergerät210 Kommunikationseinheit244 verwenden, um Funksignale in einem Funknetz, wie z. B. einem Mobilfunknetz, zu senden und/oder zu empfangen. Gleichermaßen können Kommunikationseinheiten244 Satellitensignale in einem globalen Navigationssatellitensystem (GNSS)-Netzwerk, wie z. B. dem globalen Positionsbestimmungssystem (GPS) übertragen und/oder empfangen. Beispiele der Kommunikationseinheit244 können eine Netzwerkschnittstellenkarte (z. B. eine Ethernetkarte), einen optischen Sendeempfänger, einen Hochfrequenz-Sendeempfänger, einen GPS-Empfänger oder eine beliebige andere Art von Gerät beinhalten, das Informationen senden oder empfangen kann. Andere Beispiele von Kommunikationseinheiten244 können Kurzwellenradios, Mobilfunkdatenradios, drahtlose Ethernet-Netzwerkradios (z. B. WLAN), sowie Universal Serial Bus (USB)-Schnittstellen, beinhalten. - Ein oder mehrere Speichergeräte
248 innerhalb von Computergerät210 können Informationen zur Verarbeitung während des Betriebs des Computergeräts210 speichern. In einigen Beispielen fungiert das Speichergerät248 als ein temporärer Speicher, was bedeutet, dass Speichergerät248 nicht zur Langzeitspeicherung verwendet wird. Die Speichergeräte248 des Computergeräts210 können zur Kurzzeitspeicherung von Informationen als flüchtige Speicher konfiguriert sein, weshalb, wenn diese ausgeschaltet werden, die gespeicherten Inhalte verloren gehen. Beispiele von flüchtigen Speichern beinhalten Arbeitsspeicher (RAM), dynamische Arbeitsspeicher (DRAM), statische Arbeitsspeicher (SRAM) und andere Formen von flüchtigen Speichern, die auf dem Fachgebiet bekannt sind. - Die Speichergeräte
248 beinhalten in einigen Beispielen zudem ein oder mehrere computerlesbare Speichermedien. Die Speichergeräte248 können größere Mengen von Informationen als flüchtige Speicher speichern. Die Speichergeräte248 können des Weiteren zur Langzeitspeicherung von Informationen als nicht flüchtiger Speicherplatz und zum Beibehalten von Informationen nach Stromeinschalt-/Ausschaltzyklen konfiguriert sein. Beispiele von nicht flüchtigen Speichern beinhalten magnetische Festplatten, optische Festplatten, Disketten, Flashspeicher oder Formen von elektrisch programmierbaren Speichern (EPROM) oder von elektrisch überschreibbaren und programmierbaren (EEPROM) Speichern. Die Speichergeräte248 können Programmanweisungen und/oder Daten in Verbindung mit den Modulen220 ,222 ,224 ,226 und228 speichern. - Ein oder mehrere Prozessoren
240 können Funktionen implementieren und/oder Anweisungen innerhalb des Computergeräts210 ausführen. Die Prozessoren240 von Computergerät210 können zum Beispiel Anweisungen empfangen und ausführen, die durch die Speichergeräte248 gespeichert wurden, die die Funktionalität von Nachrichtenverwaltungsmodul220 , Anwendungsmodulen222 , Spracherkennungsmodul224 , Sprachsynthesemodul226 und CMM228 ausführen. Diese durch die Prozessoren240 ausgeführten Anweisungen können Computergerät210 dazu veranlassen, während der Programmausführung in den Speichergeräten248 Informationen zu speichern. Die Prozessoren240 können in Modulen220 ,222 ,224 ,226 und228 Anweisungen ausführen, um eine Audioeingabe in Text umzuwandeln und basierend auf den Audioeingaben eine textbasierte Nachricht zu senden oder um eine textbasierte Nachricht in Sprache umzuwandeln und basierend auf der Textnachricht eine Audioausgabe auszugeben. Das bedeutet, dass Module220 ,222 ,224 ,226 und228 durch die Prozessoren240 betrieben werden können, um mehrere Aktionen, einschließlich Umwandeln empfangener Audiodaten und Senden der transkribierten Daten an ein Remote-Gerät sowie Umwandeln empfangener Textdaten in Audiodaten und Ausgeben der Audiodaten, durchzuführen. - Anwendungsmodule
222 können jedwede andere Anwendung beinhalten, die Computergerät210 zusätzlich zu den anderen, spezifisch in dieser Offenbarung beschriebenen Modulen ausführen kann. Zum Beispiel können die Anwendungsmodule222 Nachrichtenübermittlungsanwendungen (z. B. E-Mail, SMS, MMS, IM oder andere textbasierte Nachrichtenübermittlungsanwendungen), einen Webbrowser, einen Media-Player, ein Dateisystem, ein Kartenprogramm oder jedwede andere Anzahl von Anwendungen oder Merkmalen beinhalten, die Computergerät210 beinhalten kann. - Gemäß den Techniken dieser Offenbarung kann Computergerät
210 eine Wahrscheinlichkeit bestimmen, dass der Benutzer beabsichtigt, eine Audionachricht zu hören, die eine empfangene textbasierte Nachricht angibt. Computergerät210 kann eine textbasierte Nachricht über Kommunikationseinheit244 empfangen. CMM228 kann basierend auf einer Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Audioversion der Nachricht zu hören, bestimmen, ob es eine Audioangabe der Nachricht ausgibt. - CMM
228 kann basierend auf Kontextinformationen die Wahrscheinlichkeit bestimmen, dass ein Benutzer von Computergerät110 beabsichtigt, eine Audioversion einer textbasierten Nachricht zu hören. Kontextinformationen können als nicht einschränkende Beispiele die Frequenz von eingehenden Nachrichten von einem bestimmten Nachrichtenübermittlungsgerät115 (z. B. Nachrichtenübermittlungsgerät115A ), die Frequenz ausgehender Nachrichten an Nachrichtenübermittlungsgerät115A , verstrichene Zeit seit der letzten von Nachrichtenübermittlungsgerät115A empfangenen Nachricht, verstrichene Zeit seit der letzten an Nachrichtenübermittlungsgerät115A gesendeten Nachricht beinhalten. Zum Beispiel kann der Benutzer von Computergerät210 über eine vorbestimmte Zeitspanne häufig SMS-Nachrichten mit Nachrichtenübermittlungsgerät115A austauschen. Aufgrund der Frequenz von SMS-Nachrichten zwischen dem Benutzer und Nachrichtenübermittlungsgerät115A kann CMM228 bestimmen, dass eine hohe Wahrscheinlichkeit besteht, dass der Benutzer beabsichtigt, eine Audioversion der Nachricht zu hören. Der Benutzer von Computergerät210 kann über eine vorbestimmte Zeitspanne sporadisch SMS-Nachrichten mit einem anderen der Nachrichtenübermittlungsgeräte115 (z. B. Nachrichtenübermittlungsgerät115N ) austauschen. Basierend auf dem sporadischen Nachrichtenaustausch mit Nachrichtenübermittlungsgerät115N kann CMM228 bestimmen, dass eine niedrige Wahrscheinlichkeit besteht, dass der Benutzer beabsichtigt, eine Audioversion der Nachricht von Nachrichtenübermittlungsgerät115N zu hören. - Die zum Bestimmen der Wahrscheinlichkeit verwendeten Kontextinformationen können zudem eines oder mehrere der Folgenden: den Standort eines Benutzers, eine Tageszeit, Kalendereinträge eines Kalenders des Benutzers, die Information, ob eine Nachricht an einen Kontakt in der Kontaktliste des Benutzers gesendet (oder von diesem empfangen) wird oder ob der Benutzer kürzlich eine Telefonkonversation mit einem Benutzer eines bestimmten Nachrichtenübermittlungsgeräts
115 geführt hat, beinhalten. In einigen Beispielen können die Kontextinformationen außerdem eine oder mehrere Aktionen beinhalten, die vom Benutzer ausgeführt werden, wie z. B. ein Verwenden einer Anwendung (z. B. Verwenden eines Internetbrowsers, Abspielen von Musik, Verwenden von Navigationsprogrammen, Aufnehmen eines Fotos, usw.), Stummschalten von Computergerät210 , Senden oder Empfangen einer Sprachnachricht (z. B. eines Telefonanrufs oder eines Videochats), Senden oder Empfangen einer textbasierten Nachricht, Sprechen eines Befehls an Computergerät210 oder jedwede andere Aktion, die angeben kann, ob ein Benutzer von Computergerät220 beabsichtigt, eine Audioversion einer empfangenen textbasierten Nachricht zu hören. - CMM
228 kann basierend auf einer Art von Kontextinformation die Wahrscheinlichkeit bestimmen, dass der Benutzer beabsichtigt, eine empfangene Nachricht zu hören. Wenn der Benutzer zum Beispiel beginnt, Musik auf Computergerät210 abzuspielen, kann CMM228 bestimmen, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Nachricht zu hören, niedrig ist. In einigen Beispielen kann CMM228 basierend auf mehreren Arten von Kontextinformation die Wahrscheinlichkeit bestimmen, dass der Benutzer beabsichtigt, eine Nachricht zu hören. Zum Beispiel kann CMM228 basierend darauf, ob sich der Absender in der Kontaktliste des Benutzers befindet, und dass der Benutzer eine gewisse Anzahl von Nachrichten innerhalb einer gegebenen Zeitspanne mit diesem ausgetauscht hat, die Wahrscheinlichkeit bestimmen, dass der Benutzer beabsichtigt, eine empfangene Nachricht zu hören. - In einigen Beispielen kann CMM
228 Arten von Kontextinformation unabhängig voneinander betrachten. Zum Beispiel kann CMM228 , sofern CMM228 basierend auf der Frequenz eingehender Nachrichten von Nachrichtenübermittlungsgerät115 und basierend darauf, ob sich eine mit dem Nachrichtenübermittlungsgerät115 assoziierte dritte Partei in der Kontaktliste des Benutzers befindet, die Wahrscheinlichkeit bestimmt, dass der Benutzer beabsichtigt, eine Audioversion der Nachricht zu hören, eine höhere Wahrscheinlichkeit bestimmen, wenn die Frequenz der eingehenden Nachrichten einen Schwellenwert erreicht oder wenn die dritte Partei sich in der Kontaktliste des Benutzers befindet. CMM228 kann jedoch in einigen Beispielen die Wahrscheinlichkeit mit einer Gewichtung bestimmen. Zum Beispiel kann CMM228 eine hohe Wahrscheinlichkeit bestimmen, obwohl die Frequenz der Nachrichten niedrig ist, sich die dritte Partei, die Nachrichten sendet und/oder empfängt, jedoch in der Kontaktliste des Benutzers befindet. Im Gegensatz dazu kann CMM228 trotz einer hohen Frequenz von Nachrichten eine niedrige Wahrscheinlichkeit bestimmen, wenn die dritte Partei, die Nachrichten sendet und/oder empfängt sich nicht in der Kontaktliste des Benutzers befmdet. - CMM
228 kann bestimmen, ob der Benutzer beabsichtigt, eine Audioversion einer empfangenen Nachricht zu hören, indem es die Wahrscheinlichkeit, dass ein Benutzer beabsichtigt, die Nachricht zu hören, mit einem Wahrscheinlichkeitsschwellenwert vergleicht. In einigen Beispielen kann CMM228 die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Nachricht zu hören, mit verschiedenen Wahrscheinlichkeitsschwellenwerten vergleichen. Jeder der verschiedenen Wahrscheinlichkeitsschwellenwerte kann einem anderen Konversationsstatus entsprechen, und CMM228 kann abhängig vom Konversationsstatus verschiedene Aktionen ausführen. - CMM
228 kann einen Konversationsstatus zwischen einem Benutzer von Computergerät210 und Nachrichtenübermittlungsgerät115 basierend auf der Wahrscheinlichkeit bestimmen, dass der Benutzer beabsichtigt, eine textbasierte Nachricht zu hören. Zum Beispiel kann CMM228 bestimmen, dass der Benutzer keine Konversation mit einem Benutzer von Nachrichtenübermittlungsgerät115 führt, was nachfolgend als „Ruhezustand“ bezeichnet wird. In einigen Beispielen kann CMM228 bestimmen, dass ein Benutzer in geringem Ausmaß eine Konversation mit einem Benutzer von Nachrichtenübermittlungsgerät115 führt, was nachfolgend als „kurz zurückliegender Zustand“ bezeichnet wird. Des Weiteren kann CMM228 in einigen Beispielen bestimmen, dass ein Benutzer eine intensive Konversation mit einem Benutzer von Nachrichtenübermittlungsgerät115 führt, was nachfolgend als „aktiver Zustand“ bezeichnet wird. - In einigen Beispielen kann CMM
228 einen Konversationsstatus zwischen dem Benutzer von Computergerät210 und einem bestimmten Nachrichtenübermittlungsgerät115 auf individueller Grundlage bestimmen. Mit anderen Worten kann sich der Konversationsstatus zwischen dem Benutzer und einem ersten Nachrichtenübermittlungsgerät115 vom Konversationsstatus zwischen dem Benutzer und einem zweiten Nachrichtenübermittlungsgerät115 unterscheiden. Zum Beispiel kann CMM228 bestimmen, dass sich eine Konversation zwischen dem Benutzer und einem bestimmten Nachrichtenübermittlungsgerät115 in einem kurz zurückliegenden Zustand befindet, und dass sich eine Konversation zwischen dem Benutzer und einem anderen Nachrichtenübermittlungsgerät115 in einem aktiven Zustand befmdet. In einigen Beispielen kann CMM228 den Konversationsstatus zwischen dem Benutzer von Computergerät210 und einer bestimmten Gruppe von Nachrichtenübermittlungsgeräten115 auf Gruppenbasis bestimmen. Zum Beispiel kann Computergerät210 den Konversationsstatus zwischen dem Benutzer von Computergerät210 und einer Gruppe von Nachrichtenübermittlungsgeräten115 (z. B. Kontakten, die an einer Gruppennachricht teilnehmen) bestimmen, sodass der Konversationsstatus derselbe für alle Gruppenmitglieder ist. In einigen Beispielen kann das Konversationsverwaltungsmodul einen Konversationsstatus zwischen dem Benutzer von Computergerät210 und allen Kontakten auf globaler Basis bestimmen. Zum Beispiel kann CMM228 bestimmen, dass der Konversationsstatus ein Ruhezustand für alle Konversationen ist (z. B. kann der Benutzer das Computergerät210 in einen „Bitte nicht stören-Modus“ versetzen). - CMM
228 kann bestimmen, dass sich der Konversationsstatus in einem aktiven Zustand befindet, wenn die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Audioversion einer empfangenen Nachricht zu hören, einen ersten Wahrscheinlichkeitsschwellenwert und einen zweiten Wahrscheinlichkeitsschwellenwert erreicht (z. B. die Wahrscheinlichkeit höher als sowohl der erste Wahrscheinlichkeitsschwellenwert und der zweite Wahrscheinlichkeitsschwellenwert ist). Wenn CMM228 bestimmt, dass sich die Konversation in einem aktiven Zustand befindet, ist es möglich, dass der Benutzer keine Befehle geben muss, um eine Nachricht zu senden oder zu hören. Zum Beispiel kann der Benutzer in einem aktiven Zustand eine Nachricht von einem bestimmten Nachrichtenübermittlungsgerät115 empfangen, und Computergerät210 kann Sprachsyntheseverarbeitung an der empfangenen Nachricht durchführen, ohne eine Anfrage nach Anweisungen an den Benutzer auszugeben. Sprachsynthese (TTS)-Modul226 kann die Nachricht in Audiodaten umwandeln, woraufhin Computergerät210 die Audiodaten über Lautsprecher247 ausgeben kann. - CMM
228 kann bestimmen, dass sich der Konversationsstatus in einem kurz zurückliegenden Zustand befindet, wenn die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Audioversion einer empfangenen Nachricht zu hören, einen ersten Wahrscheinlichkeitsschwellenwert nicht erreicht, jedoch einen zweiten Wahrscheinlichkeitsschwellenwert erreicht (z. B. die Wahrscheinlichkeit zwischen einem ersten Wahrscheinlichkeitsschwellenwert und einem zweiten Wahrscheinlichkeitsschwellenwert liegt). Wenn sich der Konversationsstatus in einem kurz zurückliegenden Zustand befindet, ist es möglich, dass lediglich vom Benutzer verlangt wird, geringfügige Befehle zu erteilen, um eine Nachricht zu senden oder zu hören. In einigen Beispielen kann TTS-Modul226 in einem kurz zurückliegenden Zustand Sprachsyntheseverarbeitung an der Nachricht durchführen, um die Audiodaten in Textdaten umzuwandeln. Computergerät210 kann die Audiodaten mit einem geringen Nachrichtenkontext, wie z. B. dem Namen des Absenders, ausgeben. Wenn Computergerät210 zum Beispiel eine SMS empfängt, kann TTS-Modul226 die textbasierte Nachricht in eine Audioausgabe umwandeln, sodass das Computergerät den Nachrichtenkontext „Jimmy sagte“ und die Audiodaten „Hey. Kollege, wohin gehst du heute Abend?“ ausgibt. - CMM
228 kann bestimmen, dass sich der Konversationsstatus in einem Ruhezustand befindet, wenn die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Audioversion einer empfangenen Nachricht zu hören, weder einen noch den anderen Wahrscheinlichkeitsschwellenwert erreicht (z. B. die Wahrscheinlichkeit geringer als sowohl der erste Wahrscheinlichkeitsschwellenwert als auch der zweite Wahrscheinlichkeitsschwellenwert ist). Wenn CMM228 bestimmt, dass der Konversationsstatus ein Ruhezustand ist, ist es möglich, dass vom Benutzer verlangt wird, eine Aktion auszuführen, um eine Nachricht zu senden oder eine empfangene Nachricht zu hören. Computergerät210 kann eine Anfrage nach zusätzlichen Anweisungen vom Benutzer ausgeben. Zum Beispiel kann Computergerät210 in einem Ruhezustand eine textbasierte Nachricht von einem bestimmten Nachrichtenübermittlungsgerät115 empfangen und kann Audiodaten ausgeben, die anfragen, ob der Benutzer die Nachricht hören möchte. Zum Beispiel kann Computergerät210 die Audionachricht ausgeben: „Nachricht von Jimmy empfangen. Möchten Sie die Nachricht hören?“ - CMM
228 kann den Konversationsstatus basierend auf der Wahrscheinlichkeit bestimmen, dass der Benutzer beabsichtigt, eine empfangene textbasierte Nachricht zu hören. In einigen Beispielen kann CMM228 den Konversationszustand basierend auf der Wahrscheinlichkeit bestimmen, dass der Benutzer beabsichtigt, eine Nachricht zu senden. - In einigen Beispielen kann ein Benutzer von Computergerät
210 eine Nachricht sprechen. Computergerät210 kann die Audioeingabe vom Benutzer über Mikrofon243 empfangen. CMM228 kann eine Wahrscheinlichkeit bestimmen, dass der Benutzer beabsichtigt, eine textbasierte Nachricht an ein bestimmtes Nachrichtenübermittlungsgerät115 zu senden. Die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Nachricht zu senden, kann auf Kontextinformationen basieren, wie z. B. den Kontextinformationen, die verwendet werden um zu bestimmen, ob der Benutzer beabsichtigt, eine Audioversion einer empfangenen textbasierten Nachricht zu hören. Als zusätzliches Beispiel können Kontextinformationen die positive Konnotation oder Stärke eines durch den Benutzer gegebenen Befehls an Computergerät210 beinhalten. Zum Beispiel kann ein Befehl: „Jimmy anschreiben“ weniger positiv konnotiert sein, als ein Befehl: ..mit Jimmy sprechen“, sodass der erste Befehl möglicherweise eine niedrigere Wahrscheinlichkeit als der zweite Befehl angeben kann. - CMM
228 kann bestimmen, ob der Benutzer beabsichtigt, eine Nachricht zu senden, indem es die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Nachricht zu senden, mit einem Wahrscheinlichkeitsschwellenwert vergleicht. In einigen Beispielen kann CMM228 die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Nachricht zu senden, mit verschiedenen Wahrscheinlichkeitsschwellenwerten vergleichen. Jeder der verschiedenen Wahrscheinlichkeitsschwellenwerte kann einem anderen Konversationsstatus entsprechen, und CMM kann abhängig vom Konversationsstatus verschiedene Aktionen ausführen. - In einigen Beispielen kann CMM
228 bestimmen, dass sich die Konversation in einem aktiven Zustand befindet. In einem aktiven Zustand kann der Benutzer eine Nachricht senden, indem er die Nachricht, die der Benutzer senden möchte, ohne jedweden Befehl, wie z. B. „sag“, „schreibe“, „sende“ oder andere Befehle, laut ausspricht. Zum Beispiel kann der Benutzer „Ich bin in fünf Minuten da“ sagen, ohne spezifisch anzugeben: „Sende eine Nachricht an Jimmy“. Computergerät210 kann Audiodaten von einem Benutzer empfangen. Spracherkennungsmodul224 kann Spracherkennungs- (STT)-Verarbeitung an den Audiodaten durchführen und die Audiodaten in Textdaten umwandeln. CMM228 kann basierend auf den Textdaten eine textbasierte Nachricht erzeugen, woraufhin Computergerät210 die Nachricht automatisch an ein bestimmten Nachrichtenübermittlungsgerät115 (z. B. ein mit Jimmy assoziiertes Nachrichtenübermittlungsgerät115 ) senden kann. - Wenn CMM
228 bestimmt, dass sich der Konversationsstatus in einem kurz zurückliegenden Zustand befindet, kann der Benutzer in der Lage sein, mit minimalen Befehlen eine Nachricht an ein bestimmtes Nachrichtenübermittlungsgerät115 zu senden. Zum Beispiel kann der Benutzer eine Nachricht sprechen, die einen Nachrichtenbefehl (z. B. „sag“, „schreibe“, „sende“) und den Nachrichteninhalt („Ich bin in fünf Minuten da.“) beinhaltet. Computergerät210 kann den Nachrichtenbefehl und den Nachrichteninhalt über Mikrofon243 empfangen. STT-Modul224 kann die Audioeingabe in Textdaten umwandeln. CMM228 kann basierend auf den Textdaten eine textbasierte Nachricht so erzeugen, dass Kommunikationsmodul244 ggf. eine textbasierte Nachricht (wobei die Nachricht „Ich bin in fünf Minuten da.“ lautet) sendet, ohne dass der Benutzer den Inhalt der Nachricht oder die Absicht des Benutzers, die Nachricht zu senden, bestätigen muss. - In einigen Beispielen kann CMM
228 bestimmen, dass sich die Konversation in einem Ruhezustand befindet. Wenn Computergerät210 eine Audioeingabe von einem Benutzer empfängt, wenn sich eine Konversation in einem Ruhezustand befmdet, kann Computergerät210 eine Anfrage nach zusätzlichen Informationen vom Benutzer ausgeben. Zum Beispiel kann Computergerät210 in einem Ruhezustand eine Nachricht ausgeben, die den Benutzer auffordert, zu bestätigen, ob der Benutzer eine Nachricht senden möchte. Computergerät210 kann eine Audioeingabe empfangen, die die Absicht des Benutzers, eine Nachricht zu senden, bestätigt und kann eine Audioeingabe empfangen, die eine zu sendende Nachricht angibt. STT-Modul224 kann Spracherkennungsverarbeitung an der Audioeingabe durchführen und die Audiodaten in Textdaten umwandeln. CMM228 kann basierend auf den Textdaten eine textbasierte Nachricht erzeugen, woraufhin Computergerät210 die Nachricht an ein bestimmtes Nachrichtenübermittlungsgerät115 senden kann. - Computergerät
210 kann dem Benutzer einen visuellen oder akustischen Hinweis auf den Konversationsstatus bereitstellen. Zum Beispiel kann Computergerät210 den Benutzer über Klangsignale (z. B. eine Reihe von Pieptönen oder Sprachsynthese-Benachrichtigungen) auf den Konversationsstatus hinweisen. In einigen Beispielen kann Computergerät210 den Benutzer über eine visuelle Benachrichtigung (z. B. ein auf Bildschirm114 angezeigtes Statussymbol) auf den Konversationsstatus hinweisen. - CMM
228 kann für eingehende Nachrichten im Vergleich zu ausgehenden Nachrichten verschiedene Konversationsstatus bestimmen. Zum Beispiel kann CMM228 eine hohe Wahrscheinlichkeit bestimmen, dass der Benutzer beabsichtigt, empfangene Nachrichten von einem bestimmten Nachrichtenübermittlungsgerät115 zu hören. CMM228 kann jedoch bestimmen, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Nachricht zu senden, geringer ist als die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine empfangene Nachricht zu hören. Infolgedessen kann Computergerät210 in einigen Beispielen automatisch eine Audioversion einer empfangenen Nachricht ausgeben, kann jedoch eine Anfrage nach zusätzlichen Anweisungen vom Benutzer ausgeben, bevor es eine ausgehende Nachricht sendet. - FIGs. 3A-3H zeigen konzeptuelle Diagramme, die einen exemplarischen Betrieb von Computergerät
210 veranschaulichen. Computergerät210 kann eine textbasierte Nachricht von einer Herkunftsquelle empfangen. CMM228 kann eine Wahrscheinlichkeit bestimmen, dass der Benutzer von Computergerät210 beabsichtigt, die empfangene Nachricht zu hören. CMM228 kann die Wahrscheinlichkeit basierend auf einer oder mehreren Arten von Kontextinformationen bestimmen. Wenn die Kontextinformationen zum Beispiel die Frequenz eingehender Nachrichten von der Herkunftsquelle beinhaltet und die Frequenz von eingehenden Nachrichten niedrig ist, kann CMM228 bestimmen, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt zu hören, einen Wahrscheinlichkeitsschwellenwert nicht erreicht. Infolgedessen kann CMM228 bestimmen, dass sich die Konversation in einem Ruhezustand befindet. Computergerät210 kann eine Nachricht ausgeben, um den Benutzer über die eingehende Nachricht zu benachrichtigen (3A ). Computergerät210 kann zum Beispiel eine Nachricht ausgeben, die anfragt, ob der Benutzer die Nachricht hören möchte. In einigen Beispielen bestätigt der Benutzer seine Absicht, die Nachricht zu hören, indem er „ja“, „Nachricht lesen“, „ok“ sagt oder eine beliebige andere Antwort gibt, die angibt, dass der Benutzer die Nachricht hören möchte. - Computergerät
210 kann Audiodaten vom Benutzer über Mikrofon243 empfangen, die angeben, dass der Benutzer den Inhalt der Nachricht hören möchte. TTS-Modul226 kann Sprachsyntheseverarbeitung an der empfangenen textbasierten Nachricht durchführen und die Textdaten in Audiodaten umwandeln. In Reaktion auf ein Empfangen eines Befehls vom Benutzer kann Computergerät210 die Audiodaten ausgeben, die den Inhalt der textbasierten Nachricht angeben (3B ). Da CMM228 bestimmt hat, dass sich der Konversationsstatus in einem Ruhezustand befindet, kann Computergerät210 Nachrichtenkontext, wie z. B. den Namen des Kontakts, der die Nachricht gesendet hat, ausgeben. Beispielsweise kann Computergerät210 den Nachrichtenkontext (z. B. „Jimmy sagte“) gefolgt von den Audiodaten (z. B. „Hey Kollege! Wo gehst du heute Abend hin?“) ausgeben. In einigen Beispielen kann Computergerät210 nach dem Ausgeben der Audiodaten eine Anfrage nach zusätzlichen Befehlen vom Benutzer ausgeben. - In einigen Beispielen kann der Benutzer Computergerät
210 befehlen, einen Antwortnachricht an die Herkunftsquelle zu senden. Zum Beispiel kann der Benutzer antworten, „sag Jimmy“ oder beliebige andere Wörter sagen, die angeben, dass der Benutzer eine Antwortnachricht an die Herkunftsquelle senden möchte. Mikrofon243 von Computergerät210 kann die durch den Benutzer gesprochene Audioeingabe empfangen. CMM228 kann die Wahrscheinlichkeit bestimmen, dass der Benutzer beabsichtigt, eine Antwortnachricht an die Herkunftsquelle zu senden. In einigen Beispielen, wenn Computergerät210 nur eine textbasierte Nachricht von der Herkunftsquelle empfangen hat und der Benutzer einen Befehl gibt, auf die Nachricht zu antworten, kann CMM228 bestimmen, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Antwortnachricht zu senden, einen Wahrscheinlichkeitsschwellenwert nicht erreicht und dass sich die Konversation immer noch in einem Ruhezustand befindet. Infolgedessen kann Computergerät210 eine Anfrage nach einer Antwortnachricht ausgeben (3C ). Computergerät210 kann die Antwortnachricht über Mikrofon243 als Audioeingabe empfangen. STT-Modul224 kann Spracherkennungsverarbeitung an der Audioeingabe durchführen und die Audiodaten in Textdaten umwandeln. Da sich der Konversationsstatus immer noch in einem Ruhezustand befmdet, kann Computergerät210 eine Anfrage an den Benutzer ausgeben, zu bestätigen, ob die Antwortnachricht gesendet werden soll (3D ). In einigen Beispielen kann Computergerät210 die Antwortnachricht an die Herkunftsquelle senden und eine Nachricht ausgeben, um dem Benutzer zu bestätigen, dass die Antwortnachricht gesendet wurde (3E ). - Wie in
3F gezeigt, kann die Herkunftsquelle dem Benutzer eine zweite textbasierte Nachricht senden. CMM228 kann basierend auf Kontextinformationen (z. B. einer Zunahme in der Nachrichtenfrequenz zwischen dem Benutzer und der Herkunftsquelle) bestimmen, dass sich die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die empfangene Nachricht zu hören, erhöht hat. CMM228 kann bestimmen, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Nachricht zu hören, einen ersten Wahrscheinlichkeitsschwellenwert erreicht, jedoch einen zweiten Wahrscheinlichkeitsschwellenwert nicht erreicht (z. B. die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Nachricht zu hören, zwischen einem ersten Wahrscheinlichkeitsschwellenwert und einem zweiten Wahrscheinlichkeitsschwellenwert liegt). Infolgedessen kann CMM228 bestimmen, dass sich der Konversationsstatus zwischen dem Benutzer und der Herkunftsquelle in einem kurz zurückliegenden Zustand befindet. In einem kurz zurückliegenden Zustand kann TTS-Modul226 Sprachsyntheseverarbeitung an der empfangenen Nachricht durchführen und die Textdaten in Audiodaten umwandeln. Computergerät210 kann die Textdaten automatisch ausgeben. Beispielsweise kann Computergerät210 den Nachrichtenkontext (z. B. „Jimmy sagte“) gefolgt von den Audiodaten (z. B. „Bringst du Snacks mit?“) ausgeben. - In einigen Beispielen kann der Benutzer auf die Nachricht von der Herkunftsquelle antworten, indem er eine Antwortnachricht spricht. Computergerät
210 kann die der Antwortnachricht des Benutzers entsprechenden Audiodaten über Mikrofon243 empfangen. Zum Beispiel kann der Benutzer sagen: „Sag Jimmy, ich bringe Kekse mit“. CMM228 kann bestimmen, dass die Antwort einen Befehl, eine Nachricht zu senden (z. B. „Sag Jimmy Bescheid“), beinhaltet. CMM228 kann bestimmen, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Nachricht zu senden, einen ersten Wahrscheinlichkeitsschwellenwert erreicht, weil die Nachricht einen Befehl beinhaltet, jedoch einen zweiten Wahrscheinlichkeitsschwellenwert nicht erreicht. Infolgedessen kann CMM228 bestimmen, dass sich die Konversation zwischen dem Benutzer und der Herkunftsquelle in einem kurz zurückliegenden Zustand befindet. STT-Modul226 kann Spracherkennungsverarbeitung an den empfangenen Audiodaten durchführen und die Audiodaten in Textdaten umwandeln. CMM228 kann basierend auf den Textdaten eine textbasierte Antwortnachricht erzeugen, woraufhin Computergerät210 die textbasierte Antwortnachricht an die Herkunftsquelle senden kann. - Computergerät
210 kann eine dritte eingehende Nachricht von der Herkunftsquelle empfangen, und CMM228 kann die Wahrscheinlichkeit bestimmen, dass der Benutzer beabsichtigt, die empfangene Nachricht zu hören. Zum Beispiel kann CMM228 basierend auf der Frequenz ausgetauschter Nachrichten zwischen dem Benutzer und der Herkunftsquelle bestimmen, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Nachricht zu hören, einen Wahrscheinlichkeitsschwellenwert erreicht, sodass sich die Konversation in einem aktiven Zustand befindet. TTS-Modul226 kann die Textdaten in Audiodaten umwandeln. Computergerät210 kann die Audiodaten (z. B. „Super, wir sehen uns gleich!“) automatisch ausgeben (3H ). - Für nachfolgende Nachrichten zwischen dem Benutzer und der Herkunftsquelle kann CMM
228 die Wahrscheinlichkeit bestimmen, dass der Benutzer beabsichtigt, eine Nachricht zu senden oder eine empfangene Nachricht zu hören. Wenn CMM228 bestimmt, dass sich der Konversationsstatus verändert hat, kann Computergerät210 Eingabeaufforderungen und Nachrichtenkontext gemäß den jeweiligen Konversationsstatus, wie oben beschrieben, ausgeben. - In einigen Beispielen kann ein Benutzer eine textbasierte Konversation mit einem bestimmten Nachrichtenübermittlungsgerät
115 initiieren. Der Benutzer kann die Konversation mit einer physischen Eingabe an Computergerät210 (z. B. durch Drücken auf die präsenzempfindliche Anzeige5 ) initiieren oder durch Sprechen eines Sprachbefehls. Computergerät210 kann den Sprachbefehl in Form einer Audioeingabe über Mikrofon243 empfangen. CMM228 kann basierend auf dem Sprachbefehl und anderen Kontextinformationen die Wahrscheinlichkeit bestimmen, dass der Benutzer beabsichtigt, eine textbasierte Nachricht zu senden. Zum Beispiel kann der Benutzer sagen: „Jimmy schreiben“, sodass CMM228 die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, dem Empfänger (z. B. Jimmy) eine Nachricht zu senden, und einen entsprechenden Konversationsstatus bestimmen kann. Die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Nachricht zu senden, und der entsprechende Konversationsstatus können von der positiven Konnotation des ursprünglichen Befehls abhängen. Wenn der Benutzer zum Beispiel sagt: „Jimmy schreiben“, kann CMM228 eine Wahrscheinlichkeit bestimmen, wenn der Benutzer jedoch sagt „Mit Jimmy sprechen“, kann CMM228 eine andere Wahrscheinlichkeit bestimmen. CMM228 kann bestimmen, dass die Wahrscheinlichkeit, dass ein Benutzer beabsichtigt, eine Nachricht an den Empfänger zu senden, wenn der Benutzer „Jimmy schreiben“ sagt, höher als ein erster Wahrscheinlichkeitsschwellenwert, jedoch niedriger als ein zweiter Wahrscheinlichkeitsschwellenwert ist. CMM228 kann jedoch bestimmen, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Nachricht an den Empfänger zu senden, höher als sowohl der erste Wahrscheinlichkeitsschwellenwert und der zweite Wahrscheinlichkeitsschwellenwert ist, wenn der Benutzer sagt: „mit Jimmy sprechen“. Infolgedessen kann CMM228 abhängig von der positiven Konnotation des empfangenen Befehls verschiedene Konversationsstatus bestimmen. - In einigen Beispielen kann CMM
228 basierend auf expliziten Aktionen oder Befehlen durch den Benutzer bestimmen, dass eine Konversation beendet ist (z. B. ist die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Nachricht zu hören, sehr niedrig). Zum Beispiel kann der Benutzer einen Knopf an Computergerät210 (z. B. auf der präsenzempfindlichen Anzeige5 ) drücken, um die Konversation zu beenden. In einigen Beispielen kann CMM228 basierend auf mehr als einer Art von Kontextinformation, wie z. B. dem Inhalt einer Nachricht, bestimmen, dass eine Konversation beendet ist. Zum Beispiel kann der Benutzer „Tschüss“ oder „Konversation beenden“ sagen. Wenn CMM228 bestimmt, dass die Konversation beendet ist, kann Computergerät210 einen kompletten Satz von Befehlen und Bestätigungen vom Benutzer verlangen, um zusätzliche Nachrichten zu senden oder empfangene Nachrichten zu hören. - In einigen Beispielen kann CMM
228 bestimmen, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Nachricht zu senden oder eine Nachricht zu hören von niedrig (d. h. der Konversationsstatus ein Ruhezustand ist) zu hoch (d. h. der Konversationsstatus ein aktiver Zustand ist) übergegangen ist oder umgekehrt, ohne einen Zwischenbereich zu durchlaufen. Anders gesagt, kann der Konversationsstatus den kurz zurückliegenden Zustand überspringen, wenn die Wahrscheinlichkeit plötzlich stark steigt oder sinkt. - CMM
228 kann einen temporären oder vorübergehenden Konversationsstatus bestimmen. Zum Beispiel kann der Benutzer eine kurze Konversation mit einem bestimmten Nachrichtenübermittlungsgerät115 initiieren (d. h. die Konversation befindet sich temporär in einem aktiven Zustand), indem er für eine bestimmten Zeitspanne auf die mit dem Nachrichtenübermittlungsgerät115 assoziierten Kontaktinformationen drückt oder indem er die mit dem Nachrichtenübermittlungsgerät assoziierten Kontaktinformationen auf Bildschirm114 darstellen lässt. In einigen Beispielen kann CMM228 bestimmen, dass die Konversation für eine bestimmte Zeitspanne im temporären Zustand verbleibt oder so lange, wie die Kontaktinformationen angezeigt werden. - In einigen Beispielen kann ein Benutzer mehrere Konversationen mit verschiedenen Nachrichtenübermittlungsgeräten
115 führen. Zum Beispiel kann Computergerät210 eine Nachricht von einem ersten Nachrichtenübermittlungsgerät115 und eine Nachricht von einem zweiten Nachrichtenübermittlungsgerät115 empfangen. In Reaktion auf ein Empfangen von Audiodaten vom Benutzer kann CMM228 die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Nachricht an ein erstes Nachrichtenübermittlungsgerät115 zu senden, und die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Nachricht an ein zweites Nachrichtenübermittlungsgerät115 zu senden, bestimmen. In einigen Beispielen kann CMM228 den Inhalt der Audiodaten analysieren und bestimmen, ob der Inhalt der Audiodaten für die Konversation mit dem ersten Nachrichtenübermittlungsgerät oder die mit dem zweiten Nachrichtenübermittlungsgerät relevanter ist. - CMM
228 kann bestimmen, welches Nachrichtenübermittlungsgerät115 die Nachricht empfangen soll, indem es die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Nachricht an das erste Nachrichtenübermittlungsgerät115 zu senden, mit der Wahrscheinlichkeit vergleicht, dass der Benutzer beabsichtigt, eine Nachricht an ein zweites Nachrichtenübermittlungsgerät115 zu senden, und bestimmt, welche Wahrscheinlichkeit höher ist. Wenn die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Nachricht an das erste Nachrichtenübermittlungsgerät115 zu senden, höher ist als die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Nachricht an das zweite Nachrichtenübermittlungsgerät115 zu senden, kann CMM228 bestimmen, dass der Benutzer beabsichtigt, die Nachricht an das erste Nachrichtenübermittlungsgerät115 zu senden. - In einigen Beispielen kann CMM
228 bestimmen, welches Nachrichtenübermittlungsgerät115 die Nachricht erhalten soll, indem es die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Nachricht an das erste Nachrichtenübermittlungsgerät115 zu senden, mit der Wahrscheinlichkeit vergleicht, dass der Benutzer beabsichtigt, eine Nachricht an das zweite Nachrichtenübermittlungsgerät115 zu senden, und jede der Wahrscheinlichkeiten mit einem Wahrscheinlichkeitsschwellenwert vergleicht. Wenn zum Beispiel die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Nachricht an das erste Nachrichtenübermittlungsgerät115 zu senden, einen Wahrscheinlichkeitsschwellenwert erreicht, und die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Nachricht an das zweite Nachrichtenübermittlungsgerät115 zu senden, einen Wahrscheinlichkeitsschwellenwert erreicht, kann CMM228 bestimmen, dass der Benutzer beabsichtigt, die Nachricht an das mit der höheren Wahrscheinlichkeit assoziierte Nachrichtenübermittlungsgerät115 zu senden. - In einigen Beispielen kann CMM
228 die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Nachricht an das erste Nachrichtenübermittlungsgerät115 zu senden, mit einem Wahrscheinlichkeitsschwellenwert vergleichen und kann die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Nachricht an das zweite Nachrichtenübermittlungsgerät115 zu senden, mit dem Wahrscheinlichkeitsschwellenwert vergleichen. Wenn CMM228 zum Beispiel bestimmt, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Nachricht an das erste Nachrichtenübermittlungsgerät115 zu senden, einen Wahrscheinlichkeitsschwellenwert erreicht und dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Nachricht an das zweite Nachrichtenübermittlungsgerät115 zu senden, einen Wahrscheinlichkeitsschwellenwert erreicht, kann CMM228 bestimmen, dass Computergerät210 die Nachricht sowohl an das erste als auch das zweite Nachrichtenübermittlungsgerät115 senden sollte. Wenn jedoch die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Nachricht an das erste Nachrichtenübermittlungsgerät115 zu senden, einen Wahrscheinlichkeitsschwellenwert erreicht und die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Nachricht an das zweite Nachrichtenübermittlungsgerät115 zu senden, einen Wahrscheinlichkeitsschwellenwert erreicht, kann Computergerät210 eine Anfrage an den Benutzer ausgeben zu bestätigen, welches Nachrichtenübermittlungsgerät115 die ausgehende Nachricht empfangen soll. - Wenn die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Nachricht an das erste Nachrichtenübermittlungsgerät
115 zu senden, einen Wahrscheinlichkeitsschwellenwert erreicht und die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Nachricht an das zweite Nachrichtenübermittlungsgerät115 zu senden, einen Wahrscheinlichkeitsschwellenwert nicht erreicht, kann CMM228 in einigen Beispielen eine Anfrage an den Benutzer ausgeben, zu bestätigen, ob eine Nachricht gesendet werden soll. CMM228 kann zudem eine Anfrage an den Benutzer ausgeben, zu bestätigen, welches Nachrichtenübermittlungsgerät115 die Nachricht empfangen soll. - In einigen Beispielen kann sich der Wahrscheinlichkeitsschwellenwert zum Senden einer Nachricht verändern, wenn der Benutzer mehrere Konversationen führt. Zum Beispiel kann der Wahrscheinlichkeitsschwellenwert zum Senden einer Nachricht im aktiven Zustand ein erster Wahrscheinlichkeitsschwellenwert sein, wenn der Benutzer nur eine Konversation führt. Der Wahrscheinlichkeitsschwellenwert zum Senden einer Nachricht im aktiven Zustand kann jedoch auf einen zweiten Wahrscheinlichkeitsschwellenwert ansteigen, wenn der Benutzer mehr als eine Konversation führt (d. h. wenn es zumindest eine andere Konversation gibt, die sich nicht in einem Ruhezustand befindet).
-
4 zeigt ein Ablaufdiagramm, das einen exemplarischen Betrieb von Computergerät210 veranschaulicht. In einigen Beispielen kann Computergerät210 eine textbasierte Nachricht von einer Herkunftsquelle empfangen (400 ). Die textbasierte Nachricht kann eine E-Mail, Sofortnachricht, SMS oder eine andere Art von textbasierter Nachricht beinhalten. CMM228 kann die Wahrscheinlichkeit bestimmen, dass der Benutzer beabsichtigt, eine Audioversion der Nachricht zu hören, und kann die Wahrscheinlichkeit mit einem Wahrscheinlichkeitsschwellenwert vergleichen. In einigen Beispielen kann TTS-Modul226 Sprachsyntheseverarbeitung an der empfangenen Nachricht durchführen und die Textdaten in Audiodaten umwandeln. Computergerät210 kann die Audiodaten ausgeben. - Computergerät
210 kann eine Audioeingabe empfangen (410 ). Beispielsweise kann der Benutzer eine Nachricht sprechen, die durch Mikrofon243 von Computergerät210 empfangen wird. CMM228 kann die Wahrscheinlichkeit bestimmen, dass der Benutzer beabsichtigt, eine Antwortnachricht an die Herkunftsquelle zu senden (420 ). Die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Antwortnachricht an die Herkunftsquelle zu senden, kann auf expliziten Befehlen oder Kontextinformationen basieren. Beispielsweise können Kontextinformationen die Frequenz von Nachrichten bestimmen, die an die Herkunftsquelle gesendet werden und durch diese empfangen werden. CMM228 kann bestimmen, ob die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Antwortnachricht an die Herkunftsquelle zu senden, einen Wahrscheinlichkeitsschwellenwert erreicht. CMM228 kann einen Konversationsstatus (z. B. Ruhezustand, kurz zurückliegender Zustand oder aktiver Zustand) bestimmen, indem es die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Antwortnachricht zu senden, mit einem ersten Wahrscheinlichkeitsschwellenwert und einem zweiten Wahrscheinlichkeitsschwellenwert vergleicht. - In Reaktion auf ein Bestimmen, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Antwortnachricht zu senden, einen Wahrscheinlichkeitsschwellenwert erreicht, kann Computergerät
210 basierend auf der Audioeingabe die Antwortnachricht erzeugen (430 ). Computergerät210 kann zum Beispiel Spracherkennungsverarbeitung an der Audioeingabe durchführen und die Audiodaten in Textdaten umwandeln. CMM228 kann basierend auf den Textdaten eine textbasierte Antwortnachricht erzeugen. Computergerät210 kann die Antwortnachricht an die Herkunftsquelle senden (440 ). - In einigen Beispielen kann ein Verfahren ein Ausgeben eines Audiosignals durch ein mit einem Benutzer assoziiertes Computergerät beinhalten, das eine Textnachricht von einer Herkunftsquelle repräsentiert. Das Verfahren kann ein Empfangen von Audiodaten durch das Computergerät beinhalten, die eine Sprachäußerung vom Benutzer repräsentieren. Das Verfahren kann zudem ein Bestimmen durch das Computergerät, ohne zusätzliche Eingaben (z. B. akustische oder gestenbasierte Eingaben) vom Benutzer, einer Wahrscheinlichkeit beinhalten, dass der Benutzer beabsichtigt, eine Antwort zu senden, zumindest teilweise basierend auf den Audiodaten und einem oder mehreren aus der Frequenz eingehender Nachrichten von der Herkunftsquelle, der Frequenz ausgehender Nachrichten an die Herkunftsquelle, der verstrichenen Zeit seit der letzten von der Herkunftsquelle empfangenen Nachricht oder der verstrichenen Zeit seit der letzten an die Herkunftsquelle gesendeten Nachricht. Das Verfahren kann des Weiteren ein Übertragen, in Reaktion auf ein Bestimmen, dass die Wahrscheinlichkeit einen Wahrscheinlichkeitsschwellenwert erreicht und ohne zusätzliche Eingaben (z. B. akustische oder gestenbasierte Eingaben) vom Benutzer, einer Transkription zumindest eines Teils der Audiodaten an die Herkunftsquelle beinhalten.
-
5 zeigt ein Ablaufdiagramm, das einen exemplarischen Betrieb von Computergerät210 veranschaulicht. In einigen Beispielen kann ein Benutzer mehrere Konversationen mit verschiedenen Entstehungsquellen führen. Computergerät210 kann zum Beispiel eine textbasierte Nachricht von einer ersten Herkunftsquelle (d. h. einem ersten Nachrichtenübermittlungsgerät115 ) empfangen (500 ). Das Computergerät kann eine textbasierte Nachricht von einer zweiten Herkunftsquelle (d. h. einem Nachrichtenübermittlungsgerät115 ) empfangen (510 ). Die textbasierte Nachricht von der ersten Herkunftsquelle und die textbasierte Nachricht von der zweiten Herkunftsquelle können verschiedene Arten von Nachrichten beinhalten. Die textbasierte Nachricht von der ersten Herkunftsquelle kann zum Beispiel eine SMS-Nachricht beinhalten, und die textbasierte Nachricht von der zweiten Herkunftsquelle kann eine Sofortnachricht beinhalten. CMM228 kann eine Wahrscheinlichkeit bestimmen, dass der Benutzer beabsichtigt, eine Audioversion der Nachricht von der ersten Herkunftsquelle zu hören. CMM228 kann die Wahrscheinlichkeit, dass ein Benutzer beabsichtigt, die Audioversion der Nachricht zu hören, mit einem Wahrscheinlichkeitsschwellenwert vergleichen. In Reaktion auf ein Bestimmen, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Audioversion der Nachricht zu hören, einen Wahrscheinlichkeitsschwellenwert erreicht, kann TTS-Modul226 die Textdaten in Audiodaten umwandeln, woraufhin Computergerät210 die Audiodaten ausgeben kann. Ebenso kann Computergerät210 eine Wahrscheinlichkeit bestimmen, dass der Benutzer beabsichtigt, eine Audioversion der Nachricht von der zweiten Herkunftsquelle zu hören, und die Wahrscheinlichkeit mit einem Wahrscheinlichkeitsschwellenwert vergleichen. In Reaktion auf ein Bestimmen, dass die Wahrscheinlichkeit einen Wahrscheinlichkeitsschwellenwert erreicht, kann Computergerät210 die Textdaten in Audiodaten umwandeln und die Audiodaten ausgeben. - Computergerät
210 kann eine Audioeingabe empfangen (510 ). Nachdem Computergerät210 zum Beispiel die Nachricht von der ersten Herkunftsquelle und die Nachricht von der zweiten Herkunftsquelle empfängt, kann der Benutzer eine Nachricht sprechen. Das Computergerät kann die Nachricht vom Benutzer über Mikrofon243 als Audioeingabe empfangen. - CMM
228 kann eine Wahrscheinlichkeit bestimmen, dass der Benutzer beabsichtigt, eine Antwortnachricht an die erste Herkunftsquelle zu senden (530 ). Die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Antwortnachricht an die erste Herkunftsquelle zu senden, kann auf einem expliziten Befehl und/oder Kontextinformationen basieren. Ein expliziter Befehl kann eine Aussage, wie z. B. „Sag Aaron“, beinhalten. Kontextinformationen können die Frequenz der zwischen Computergerät210 und der ersten Herkunftsquelle ausgetauschten Nachrichten, die verstrichene Zeit seit der letzten zwischen Computergerät210 und der ersten Herkunftsquelle ausgetauschten Nachricht oder eine andere Art von Kontextinformation beinhalten. - CMM
228 kann eine Wahrscheinlichkeit bestimmen, dass der Benutzer beabsichtigt, eine Antwortnachricht an die zweite Herkunftsquelle zu senden (540 ). Die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Antwortnachricht an die zweite Herkunftsquelle zu senden, kann auf einem expliziten Befehl und/oder Kontextinformationen basieren. Ein expliziter Befehl kann eine Aussage, wie z. B. „Sag Jimmy“, beinhalten. Kontextinformationen können die Frequenz von zwischen Computergerät210 und der zweiten Herkunftsquelle ausgetauschten Nachrichten, die verstrichene Zeit seit der letzten zwischen Computergerät210 und der zweiten Herkunftsquelle ausgetauschten Nachricht oder eine andere Art von Kontextinformation beinhalten. - CMM
228 kann bestimmen, ob der Benutzer beabsichtigt, die Antwortnachricht an die erste Herkunftsquelle, die zweite Herkunftsquelle, sowohl die erste als auch die zweite Herkunftsquelle oder keine der Entstehungsquellen zu senden (550 ). In einigen Beispielen kann CMM228 die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Nachricht an die erste Herkunftsquelle zu senden, mit der Wahrscheinlichkeit vergleichen, dass der Benutzer beabsichtigt, eine Nachricht an die zweite Herkunftsquelle zu senden, bestimmen, welche Wahrscheinlichkeit höher ist, und Computergerät210 veranlassen, die Antwortnachricht an die Herkunftsquelle mit der höheren Wahrscheinlichkeit zu senden. - In einigen Beispielen kann CMM
228 die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die erste Herkunftsquelle zu senden, mit einem Wahrscheinlichkeitsschwellenwert vergleichen und die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die zweite Herkunftsquelle zu senden, mit dem Wahrscheinlichkeitsschwellenwert vergleichen. Wenn CMM228 zum Beispiel bestimmt, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die erste Herkunftsquelle zu senden, einen Wahrscheinlichkeitsschwellenwert erreicht, und dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an das zweite Nachrichtenübermittlungsgerät115 zu senden, einen Wahrscheinlichkeitsschwellenwert erreicht, kann CMM228 bestimmen, dass der Benutzer beabsichtigt, die Antwortnachricht sowohl an die erste als auch die zweite Herkunftsquelle zu senden. Wenn die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Nachricht an eine erste Herkunftsquelle zu senden, einen Wahrscheinlichkeitsschwellenwert erreicht, und die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Nachricht an die zweite Herkunftsquelle zu senden, einen Wahrscheinlichkeitsschwellenwert erreicht, kann Computergerät210 eine Anfrage an den Benutzer ausgeben, zu bestätigen, welche Herkunftsquelle die Antwortnachricht empfangen soll. Wenn die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die erste Herkunftsquelle zu senden, einen Wahrscheinlichkeitsschwellenwert nicht erreicht, und die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an das zweite Nachrichtenübermittlungsgerät115 zu senden, einen Wahrscheinlichkeitsschwellenwert nicht erreicht, kann Computergerät210 in einigen Beispielen eine Anfrage an den Benutzer ausgeben, zu bestätigen, ob eine Nachricht gesendet werden soll. Computergerät210 kann zudem eine Anfrage an den Benutzer ausgeben, zu bestätigen, welche Herkunftsquelle die Nachricht empfangen soll. - In einigen Beispielen kann CMM
228 bestimmen, ob der Benutzer beabsichtigt, die Antwortnachricht an die erste oder die zweite Herkunftsquelle zu senden, indem es die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Nachricht an die erste Herkunftsquelle zu senden, mit der Wahrscheinlichkeit vergleicht, dass der Benutzer beabsichtigt, eine Nachricht an die zweite Herkunftsquelle zu senden, und die jeweiligen Wahrscheinlichkeiten mit einem Wahrscheinlichkeitsschwellenwert vergleicht. Wenn zum Beispiel die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die erste Herkunftsquelle zu senden, einen Wahrscheinlichkeitsschwellenwert erreicht, und die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die zweite Herkunftsquelle zu senden, einen Wahrscheinlichkeitsschwellenwert erreicht, kann CMM228 bestimmen, dass der Benutzer beabsichtigt, die Nachricht an die mit der höheren Wahrscheinlichkeit assoziierte Herkunftsquelle zu senden. - Computergerät
210 kann basierend auf der Audioeingabe die Antwortnachricht erzeugen (560 ). Beispielsweise kann STT-Modul224 die Audiodaten in Textdaten umwandeln, die die vom Benutzer empfangenen Audiodaten angeben. In einigen Beispielen kann Computergerät210 zumindest einen Teil der Audiodaten zur Spracherkennungsverarbeitung an ISS160 senden, sodass ISS160 Textdaten erzeugen und die Textdaten an Computergerät210 senden kann. CMM228 kann basierend auf den Textdaten eine textbasierte Antwortnachricht erzeugen. - Nachdem Computergerät
210 die Antwortnachricht erzeugt, kann Computergerät210 die Antwortnachricht senden (570 ). Die Antwortnachricht kann an die durch CMM228 bestimmte(n) Herkunftsquelle(n) gesendet werden. - An diese Beschreibung angehängt findet sich eine Vielzahl von Ansprüchen, die auf mehrere Ausführungsformen des offenbarten Gegenstands gerichtet sind. Es versteht sich, dass sich Ausführungsformen des offenbarten Gegenstands auch innerhalb des Umfangs mehrerer Kombinationen besagter Ansprüche befinden können, wie z. B. Abhängigkeiten und mehrfache Abhängigkeiten derselben untereinander. Somit bilden sämtliche Abhängigkeiten und mehrfachen Abhängigkeiten durch Bezugnahme explizit oder anderweitig einen Teil dieser Beschreibung.
- In einem oder mehreren Beispielen können die beschriebenen Funktionen in Hardware, Software, Firmware oder einer beliebigen Kombination derselben implementiert sein. Sofern in Software implementiert, können die Funktionen als eine oder mehrere Anweisungen oder Codes auf einem computerlesbaren Medium gespeichert oder über dieses übertragen und von einer hardwarebasierten Verarbeitungseinheit ausgeführt werden. Computerlesbare Medien können computerlesbare Speichermedien beinhalten, die physischen Medien, wie z. B. Datenspeichermedien, oder Kommunikationsmedien, darunter auch Medien entsprechen, die die Übertragung eines Computerprogramms von einem Standort zum anderen, z.B. gemäß einem Kommunikationsprotokoll, erleichtern. Auf diese Weise können computerlesbare Medien im Allgemeinen physischen computerlesbaren (
1 ) Speichermedien, die nicht flüchtig sind oder (2 ) einem Kommunikationsmedium, wie beispielsweise einem Signal oder einer Trägerwelle, entsprechen. Datenspeichermedien können beliebige verfügbare Medien sein, auf die von einem oder mehreren Computern oder einem oder mehreren Prozessoren zugegriffen werden kann, um Anweisungen, Code und/oder Datenstrukturen zur Implementierung der in dieser Offenbarung beschriebenen Techniken abzurufen. Ein Computerprogrammprodukt kann ein computerlesbares Medium beinhalten. - Beispielsweise und nicht beschränkend können derartige computerlesbare Speichermedien RAM-, ROM-, EEPROM-, CD-ROM- oder andere optische Plattenspeicher, Magnetplattenspeicher oder andere magnetische Speichergeräte, Flash-Speicher oder ein beliebiges anderes Medium umfassen, das verwendet werden kann, um den gewünschten Programmcode in Form von Anweisungen oder Datenstrukturen zu speichern, auf die von einem Computer zugegriffen werden kann. Zudem wird jede Verbindung als ein computerlesbares Medium bezeichnet. Wenn beispielsweise Anweisungen von einer Webseite, einem Server oder einer anderen entfernten Quelle unter Verwendung eines Koaxialkabels, eines Glasfaserkabels, eines Twisted-Pair-Kabels, einer digitalen Teilnehmerleitung (DSL) oder drahtloser Technologien, wie beispielsweise Infrarot, Radio und Mikrowelle, übertragen werden, sind Koaxialkabel, Glasfaserkabel, Twisted-Pair-Kabel, DSL oder drahtlose Technologien, wie beispielsweise Infrarot, Radio und Mikrowelle, in der Definition von Medium mit eingeschlossen. Es sollte jedoch klar sein, dass computerlesbare Speichermedien und Datenspeichermedien keine Verbindungen, Trägerwellen, Signale oder andere physische Medien beinhalten, sondern stattdessen auf nicht flüchtige, physische Speichermedien ausgerichtet sind. Festplatten und Disketten, wie sie hierin verwendet werden, beinhalten Compact Disc (CD), Laserdisc, optische Disc, Digital Versatile Disc (DVD), Diskette und Blu-ray Disc, wobei Disketten typischerweise Daten magnetisch wiedergeben, während Discs Daten optisch mit Lasern wiedergeben. Kombinationen der vorstehenden Datenträger sollten ebenfalls in den Umfang von computerlesbaren Medien eingeschlossen sein.
- Anweisungen können durch einen oder mehrere Prozessoren, wie beispielsweise einen oder mehrere digitale Signalprozessoren (DSPs), Universalmikroprozessoren, anwendungsorientierte integrierte Schaltungen (ASICs), feldprogrammierbare Universalschaltungen (FPGAs) oder beliebige andere gleichwertige integrierte oder diskrete Logikschaltungen ausgeführt werden. Dementsprechend kann sich der Begriff „Prozessor“, wie er hierin verwendet wird, auf eine beliebige der vorgenannten Strukturen oder eine andere Struktur beziehen, die für die Implementierung der hierin beschriebenen Techniken geeignet ist. Darüber hinaus kann in einigen Aspekten die hierin beschriebene Funktionalität innerhalb dedizierter Hardware- und/oder Softwaremodule bereitgestellt werden. Zudem könnten die Techniken vollständig in einer oder mehreren Schaltungen oder Logikelementen implementiert werden.
- Die Techniken der vorliegenden Offenbarung können in einer breiten Vielfalt von Geräten oder Vorrichtungen implementiert sein, darunter auch in einem drahtlosen Mobilteil, einer integrierten Schaltung (IC) oder einem Satz von ICs (z. B. einem Chipsatz). In dieser Offenbarung werden verschiedene Komponenten, Module oder Einheiten beschrieben, um funktionelle Aspekte von Geräten zu betonen, die konfiguriert sind, die offenbarten Techniken auszuführen, jedoch nicht notwendigerweise eine Realisierung durch verschiedene Hardware-Einheiten erfordern. Vielmehr können, wie vorstehend beschrieben, verschiedene Einheiten in einer Hardware-Einheit kombiniert oder durch eine Sammlung von interoperativen Hardware-Einheiten, einschließlich eines oder mehrerer Prozessoren, wie vorstehend beschrieben, in Verbindung mit geeigneter Software und/oder Firmware bereitgestellt werden.
- Es wurden mehrere Beispiele beschrieben. Diese und andere Beispiele liegen innerhalb des Umfangs der folgenden Ansprüche.
Claims (15)
- Verfahren, umfassend: Empfangen, durch ein mit einem Benutzer assoziiertes Computergerät, einer Nachricht von einer Herkunftsquelle; Empfangen, durch das Computergerät, einer Audioeingabe; Bestimmen, durch das Computergerät und zumindest teilweise auf der Audioeingabe und Kontextinformationen basierend, einer Wahrscheinlichkeit, dass der Benutzer beabsichtigt, eine Antwortnachricht an die Herkunftsquelle zu senden; Bestimmen, durch das Computergerät, in Reaktion auf ein Bestimmen, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die Herkunftsquelle zu senden, einen Wahrscheinlichkeitsschwellenwert erreicht, dass der Benutzer beabsichtigt, die Antwortnachricht an die Herkunftsquelle zu senden; und in Reaktion auf ein Bestimmen, dass der Benutzer beabsichtigt, die Antwortnachricht an die Herkunftsquelle zu senden: Erzeugen, durch das Computergerät und basierend auf der Audioeingabe, der Antwortnachricht; und Senden, durch das Computergerät, der Antwortnachricht an die Herkunftsquelle.
- Verfahren nach
Anspruch 1 , ferner umfassend: in Reaktion auf ein Bestimmen, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die Herkunftsquelle zu senden, den Wahrscheinlichkeitsschwellenwert nicht erreicht: Ausgeben, durch das Computergerät, einer Anfrage nach zusätzlichen Aktionen durch einen Benutzer; Empfangen, durch das Computergerät und vom Benutzer, einer zweiten Audioeingabe, die die Absicht des Benutzers, eine Nachricht zu senden, angibt; und Senden, durch das Computergerät und zumindest teilweise basierend auf der zweiten Audioeingabe, der Antwortnachricht an die Herkunftsquelle. - Verfahren nach einem der
Ansprüche 1 -2 , wobei die Herkunftsquelle eine erste Herkunftsquelle ist, das Verfahren ferner umfassend: vor Empfangen der Audioeingabe, Empfangen, durch das Computergerät, einer Nachricht von einer zweiten Herkunftsquelle; Bestimmen, durch das Computergerät und zumindest teilweise basierend auf der Audioeingabe und Kontextinformationen, einer Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die zweite Herkunftsquelle zu senden; Bestimmen, durch das Computergerät und basierend auf der Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die erste Herkunftsquelle zu senden, und der Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die zweite Herkunftsquelle zu senden, ob der Benutzer beabsichtigt, die Antwortnachricht an die erste Herkunftsquelle oder an die zweite Herkunftsquelle zu senden; und in Reaktion auf ein Bestimmen, dass der Benutzer beabsichtigt, die Antwortnachricht an die zweite Herkunftsquelle zu senden: Erzeugen der Antwortnachricht durch das Computergerät und basierend auf der Audioeingabe; und Senden der Antwortnachricht an die zweite Herkunftsquelle durch das Computergerät. - Verfahren nach
Anspruch 3 , wobei ein Bestimmen, dass der Benutzer beabsichtigt, die Antwortnachricht an die erste Herkunftsquelle zu senden, des Weiteren in Reaktion auf ein Bestimmen erfolgt, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die erste Herkunftsquelle zu senden, den Wahrscheinlichkeitsschwellenwert erreicht, aber dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die zweite Herkunftsquelle zu senden, den Wahrscheinlichkeitsschwellenwert nicht erreicht, und wobei ein Bestimmen, dass der Benutzer beabsichtigt, die Antwortnachricht an die zweite Herkunftsquelle zu senden, des Weiteren in Reaktion auf ein Bestimmen erfolgt, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die zweite Herkunftsquelle zu senden, den Wahrscheinlichkeitsschwellenwert erreicht, aber dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die erste Herkunftsquelle zu senden, den Wahrscheinlichkeitsschwellenwert nicht erreicht. - Verfahren nach
Anspruch 3 , wobei ein Bestimmen, dass der Benutzer beabsichtigt, die Antwortnachricht an die erste Herkunftsquelle zu senden, des Weiteren in Reaktion auf ein Bestimmen erfolgt, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die erste Herkunftsquelle zu senden, den Wahrscheinlichkeitsschwellenwert erreicht und höher ist als die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die zweite Herkunftsquelle zu senden, und wobei ein Bestimmen, dass der Benutzer beabsichtigt, die Antwortnachricht an die zweite Herkunftsquelle zu senden, des Weiteren in Reaktion auf ein Bestimmen erfolgt, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die zweite Herkunftsquelle zu senden, den Wahrscheinlichkeitsschwellenwert erreicht und höher ist als die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die erste Herkunftsquelle zu senden. - Verfahren nach einem der
Ansprüche 1 -5 , ferner umfassend: Bestimmen, durch das Computergerät, einer Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Nachricht von der Herkunftsquelle zu hören; und in Reaktion auf ein Bestimmen, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Nachricht von der Herkunftsquelle zu hören, einen Wahrscheinlichkeitsschwellenwert für ein Hören der Nachrichten erreicht: Erzeugen, durch das Computergerät und basierend auf der Nachricht von der Herkunftsquelle, von Audiodaten; und Ausgeben, durch das Computergerät, der Audiodaten. - Verfahren nach einem der
Ansprüche 1 -6 , wobei die Kontextinformationen eines oder mehrere aus den Folgenden beinhalten: Frequenz eingehender Nachrichten von der Herkunftsquelle, Frequenz ausgehender Nachrichten an die Herkunftsquelle, verstrichene Zeit seit der letzten von der Herkunftsquelle empfangenen Nachricht oder verstrichene Zeit seit der letzten an die Herkunftsquelle gesendeten Nachricht. - Verfahren nach einem der
Ansprüche 1 -7 , wobei die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die Herkunftsquelle zu senden, nicht auf einem Benutzerbefehl basiert. - Gerät, umfassend: ein Audioausgabegerät; ein Audioeingabegerät; eine Kommunikationseinheit; ein Nachrichtenverwaltungsmodul, das durch zumindest einen Prozessor betreibbar ist, um: über die Kommunikationseinheit eine Nachricht von einer Herkunftsquelle zu empfangen; über das Audioeingabegerät eine Audioeingabe zu empfangen; zumindest teilweise basierend auf der Audioeingabe und Kontextinformationen eine Wahrscheinlichkeit zu bestimmen, dass ein mit dem Gerät assoziierter Benutzer beabsichtigt, eine Antwortnachricht an die Herkunftsquelle zu senden; in Reaktion auf ein Bestimmen, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die Herkunftsquelle zu senden, einen Wahrscheinlichkeitsschwellenwert erreicht, zu bestimmen, dass der Benutzer beabsichtigt, die Antwortnachricht an die Herkunftsquelle zu senden; und in Reaktion auf ein Bestimmen, dass der Benutzer beabsichtigt, die Antwortnachricht an die Herkunftsquelle zu senden: basierend auf der Audioeingabe die Antwortnachricht zu erzeugen; und über die Kommunikationseinheit die Antwortnachricht an die Herkunftsquelle zu senden.
- Gerät nach
Anspruch 9 , wobei das Nachrichtenverwaltungsmodul des Weiteren durch den zumindest einen Prozessor betreibbar ist, um: in Reaktion auf ein Bestimmen, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die Herkunftsquelle zu senden, den Wahrscheinlichkeitsschwellenwert nicht erreicht: über das Audioausgabegerät eine Anfrage nach einer zusätzlichen Aktion durch einen Benutzer auszugeben; über das Audioeingabegerät eine zweite Audioeingabe zu empfangen, die die Absicht des Benutzers, eine Nachricht zu senden, angibt; und über die Kommunikationseinheit und zumindest teilweise auf der zweiten Audioeingabe basierend die Antwortnachricht an die Herkunftsquelle zu senden. - Gerät nach einem der
Ansprüche 9 -10 , wobei die Herkunftsquelle eine erste Herkunftsquelle ist, wobei das Nachrichtenverwaltungsmodul des Weiteren durch den zumindest einen Prozessor betreibbar ist, um: vor einem Empfangen der Audioeingabe über die Kommunikationseinheit eine Nachricht von einer zweiten Herkunftsquelle zu empfangen; zumindest teilweise basierend auf der Audioeingabe und Kontextinformationen eine Wahrscheinlichkeit zu bestimmen, dass der Benutzer beabsichtigt, die Antwortnachricht an die zweite Herkunftsquelle zu senden; basierend auf der Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die erste Herkunftsquelle zu senden, und der Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die zweite Herkunftsquelle zu senden, zu bestimmen, ob der Benutzer beabsichtigt, die Antwortnachricht an die erste Herkunftsquelle oder an die zweite Herkunftsquelle zu senden; und in Reaktion auf ein Bestimmen, dass der Benutzer beabsichtigt, die Antwortnachricht an die zweite Herkunftsquelle zu senden: basierend auf der Audioeingabe die Antwortnachricht zu erzeugen; und die Antwortnachricht über das Kommunikationsnetzwerk an die zweite Herkunftsquelle zu senden. - Gerät nach
Anspruch 11 , wobei ein Bestimmen, dass der Benutzer beabsichtigt, die Antwortnachricht an die erste Herkunftsquelle zu senden, des Weiteren in Reaktion auf ein Bestimmen erfolgt, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die erste Herkunftsquelle zu senden, den Wahrscheinlichkeitsschwellenwert erreicht, aber die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die zweite Herkunftsquelle zu senden, den Wahrscheinlichkeitsschwellenwert nicht erreicht; und wobei ein Bestimmen, dass der Benutzer beabsichtigt, die Antwortnachricht an die zweite Herkunftsquelle zu senden, des Weiteren in Reaktion auf ein Bestimmen erfolgt, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die zweite Herkunftsquelle zu senden, den Wahrscheinlichkeitsschwellenwert erreicht, aber die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die erste Herkunftsquelle zu senden, den Wahrscheinlichkeitsschwellenwert nicht erreicht. - Gerät nach
Anspruch 11 , wobei ein Bestimmen, dass der Benutzer beabsichtigt, die Antwortnachricht an die erste Herkunftsquelle zu senden, des Weiteren in Reaktion auf ein Bestimmen erfolgt, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die erste Herkunftsquelle zu senden, den Wahrscheinlichkeitsschwellenwert erreicht und höher ist als die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die zweite Herkunftsquelle zu senden, und wobei ein Bestimmen, dass der Benutzer beabsichtigt, die Antwortnachricht an die zweite Herkunftsquelle zu senden, des Weiteren in Reaktion auf ein Bestimmen erfolgt, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die zweite Herkunftsquelle zu senden, den Wahrscheinlichkeitsschwellenwert erreicht und höher ist als die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Antwortnachricht an die erste Herkunftsquelle zu senden. - Gerät nach einem der
Ansprüche 9 -13 , wobei das Nachrichtenverwaltungsmodul des Weiteren von dem zumindest einen Prozessor betreibbar ist, um: eine Wahrscheinlichkeit zu bestimmen, dass der Benutzer beabsichtigt, die Nachricht von der Herkunftsquelle zu hören; und in Reaktion auf ein Bestimmen, dass die Wahrscheinlichkeit, dass der Benutzer beabsichtigt, die Nachricht von der Herkunftsquelle zu hören, einen Wahrscheinlichkeitsschwellenwert für ein Hören der Nachrichten erreicht: basierend auf der Nachricht von der Herkunftsquelle Audiodaten zu erzeugen; und die Audiodaten über das Audioausgabegerät auszugeben. - Computerlesbares Speichermedium, das Anweisungen umfasst, die, wenn sie ausgeführt werden, einen oder mehrere Prozessoren eines Computersystems konfigurieren, eines der Verfahren der
Ansprüche 1 -8 durchzuführen.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/736,226 US9807045B2 (en) | 2015-06-10 | 2015-06-10 | Contextually driven messaging system |
US14/736,226 | 2015-06-10 | ||
PCT/US2016/030855 WO2016200517A1 (en) | 2015-06-10 | 2016-05-04 | Contextually driven messaging system |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112016002588T5 true DE112016002588T5 (de) | 2018-05-24 |
Family
ID=55971213
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112016002588.2T Pending DE112016002588T5 (de) | 2015-06-10 | 2016-05-04 | Kontextgetriebenes nachrichtenübermittlungssystem |
Country Status (4)
Country | Link |
---|---|
US (2) | US9807045B2 (de) |
DE (1) | DE112016002588T5 (de) |
GB (1) | GB2556988A (de) |
WO (1) | WO2016200517A1 (de) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9807045B2 (en) | 2015-06-10 | 2017-10-31 | Google Inc. | Contextually driven messaging system |
US10127525B2 (en) * | 2015-06-25 | 2018-11-13 | International Business Machines Corporation | Enhanced e-mail return receipts based on cognitive consideration |
CN105869654B (zh) | 2016-03-29 | 2020-12-04 | 阿里巴巴集团控股有限公司 | 音频消息的处理方法及装置 |
US10332523B2 (en) | 2016-11-18 | 2019-06-25 | Google Llc | Virtual assistant identification of nearby computing devices |
KR102662173B1 (ko) * | 2017-01-11 | 2024-04-30 | 매직 립, 인코포레이티드 | 의료 보조기 |
US10547708B2 (en) | 2017-10-25 | 2020-01-28 | International Business Machines Corporation | Adding conversation context from detected audio to contact records |
US10674001B1 (en) | 2018-12-10 | 2020-06-02 | Amazon Technologies, Inc. | Voice-enabled communication configurations |
US11431664B2 (en) * | 2019-02-18 | 2022-08-30 | State Farm Mutual Automobile Insurance Company | Outbound dialer and messaging system and user interface for group messaging |
CN110245922A (zh) * | 2019-06-21 | 2019-09-17 | Oppo广东移动通信有限公司 | 一种日程管理方法、装置及计算机可读存储介质 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8364136B2 (en) * | 1999-02-01 | 2013-01-29 | Steven M Hoffberg | Mobile system, a method of operating mobile system and a non-transitory computer readable medium for a programmable control of a mobile system |
US6757362B1 (en) * | 2000-03-06 | 2004-06-29 | Avaya Technology Corp. | Personal virtual assistant |
US7158935B1 (en) * | 2000-11-15 | 2007-01-02 | At&T Corp. | Method and system for predicting problematic situations in a automated dialog |
US7409335B1 (en) * | 2001-06-29 | 2008-08-05 | Microsoft Corporation | Inferring informational goals and preferred level of detail of answers based on application being employed by the user |
US7792701B2 (en) * | 2004-02-13 | 2010-09-07 | International Business Machines Corporation | Method and computer program product for providing accessibility services on demand |
US8204884B2 (en) * | 2004-07-14 | 2012-06-19 | Nice Systems Ltd. | Method, apparatus and system for capturing and analyzing interaction based content |
NO20052215L (no) * | 2005-05-06 | 2006-11-07 | Fast Search & Transfer Asa | Fremgangsmate til bestemmelse av kontekstuell sammendragsinformasjon over dokumenter |
US8041570B2 (en) * | 2005-05-31 | 2011-10-18 | Robert Bosch Corporation | Dialogue management using scripts |
WO2007044806A2 (en) * | 2005-10-11 | 2007-04-19 | Aol Llc | Ordering of conversations based on monitored recipient user interaction with corresponding electronic messages |
CN101099147B (zh) * | 2005-11-11 | 2010-05-19 | 松下电器产业株式会社 | 对话支持装置 |
WO2007091096A1 (en) * | 2006-02-10 | 2007-08-16 | Spinvox Limited | A mass-scale, user-independent, device-independent, voice message to text conversion system |
US20130215116A1 (en) * | 2008-03-21 | 2013-08-22 | Dressbot, Inc. | System and Method for Collaborative Shopping, Business and Entertainment |
US10496753B2 (en) * | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US8359020B2 (en) * | 2010-08-06 | 2013-01-22 | Google Inc. | Automatically monitoring for voice input based on context |
US8880406B2 (en) * | 2011-03-28 | 2014-11-04 | Epic Systems Corporation | Automatic determination of and response to a topic of a conversation |
US9191616B2 (en) * | 2011-05-26 | 2015-11-17 | Microsoft Technology Licensing, Llc | Local participant identification in a web conferencing system |
US8849812B1 (en) * | 2011-08-31 | 2014-09-30 | BloomReach Inc. | Generating content for topics based on user demand |
CN108337380B (zh) * | 2011-09-30 | 2022-08-19 | 苹果公司 | 自动调整用户界面以用于免提交互 |
US8694633B2 (en) * | 2012-06-05 | 2014-04-08 | Forget You Not, LLC | Curating communications |
US20140095504A1 (en) * | 2012-09-28 | 2014-04-03 | United Video Properties, Inc. | Systems and methods for cataloging user-generated content |
US8713433B1 (en) * | 2012-10-16 | 2014-04-29 | Google Inc. | Feature-based autocorrection |
US8930481B2 (en) * | 2012-12-31 | 2015-01-06 | Huawei Technologies Co., Ltd. | Message processing method, terminal and system |
US10176167B2 (en) * | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US8738723B1 (en) * | 2013-12-10 | 2014-05-27 | Google Inc. | Predictive forwarding of notification data |
US9413891B2 (en) * | 2014-01-08 | 2016-08-09 | Callminer, Inc. | Real-time conversational analytics facility |
US9715875B2 (en) * | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US20160132501A1 (en) * | 2014-11-07 | 2016-05-12 | Google Inc. | Determining answers to interrogative queries using web resources |
US9807045B2 (en) | 2015-06-10 | 2017-10-31 | Google Inc. | Contextually driven messaging system |
-
2015
- 2015-06-10 US US14/736,226 patent/US9807045B2/en active Active
-
2016
- 2016-05-04 GB GB1715625.8A patent/GB2556988A/en not_active Withdrawn
- 2016-05-04 WO PCT/US2016/030855 patent/WO2016200517A1/en active Application Filing
- 2016-05-04 DE DE112016002588.2T patent/DE112016002588T5/de active Pending
-
2017
- 2017-10-25 US US15/793,683 patent/US10129198B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2016200517A1 (en) | 2016-12-15 |
US10129198B2 (en) | 2018-11-13 |
US9807045B2 (en) | 2017-10-31 |
US20180048610A1 (en) | 2018-02-15 |
GB201715625D0 (en) | 2017-11-08 |
GB2556988A (en) | 2018-06-13 |
US20160366084A1 (en) | 2016-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112016002588T5 (de) | Kontextgetriebenes nachrichtenübermittlungssystem | |
DE102017012415B4 (de) | Identifikation eines virtuellen Assistenten von nahgelegenen Rechenvorrichtungen | |
US10489112B1 (en) | Method for user training of information dialogue system | |
DE112016003459B4 (de) | Sprecherkennung | |
US10204618B2 (en) | Terminal and method for voice control on terminal | |
CN105378708B (zh) | 环境感知对话策略和响应生成 | |
US20170344889A1 (en) | Integrated virtual cognitive agents and message communication architecture | |
DE202017004558U1 (de) | Intelligenter automatisierter Assistent | |
DE112019004505T5 (de) | Synchrone Kommunikation unter Verwendung von Sprache und Text | |
US8312082B2 (en) | Automated social networking based upon meeting introductions | |
DE102017106423A1 (de) | Kontexabhängige Task-Shortcuts | |
DE102016214955A1 (de) | Latenzfreier digitaler Assistent | |
DE202017000991U1 (de) | Identifikation von Spracheingaben zum Bereitstellen von Anmeldeinformationen | |
DE102015100900A1 (de) | Einstellen einer Spracherkennung unter Verwendung einer Kontextinformation | |
DE212015000207U1 (de) | Verbesserung der automatischen Spracherkennung basierend auf Benutzerrückmeldungen | |
US11069359B2 (en) | Context-aware real-time meeting audio transcription | |
US11250053B2 (en) | Systems and methods for transcript processing | |
DE102018114658A1 (de) | Eingabe während einer Unterhaltungssitzung | |
WO2023033952A1 (en) | Contextual messaging in video conference | |
CN116569197A (zh) | 在协作会话中的用户提升 | |
CN111966257A (zh) | 信息处理方法、装置及电子设备 | |
DE112018007785T5 (de) | Grafische benutzeroberfläche für ein sprachdialogsystem | |
US8775163B1 (en) | Selectable silent mode for real-time audio communication system | |
US20170278507A1 (en) | Sonification of Words and Phrases Identified by Analysis of Text | |
JP2012253478A (ja) | 会議支援システム、会議支援装置、会議支援方法およびコンピュータープログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R081 | Change of applicant/patentee |
Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US Free format text: FORMER OWNER: GOOGLE LLC, MOUNTAIN VIEW, CALIF., US |
|
R082 | Change of representative |
Representative=s name: VENNER SHIPLEY LLP, DE Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE |
|
R081 | Change of applicant/patentee |
Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US Free format text: FORMER OWNER: GOOGLE INC., MOUNTAIN VIEW, CALIF., US |
|
R082 | Change of representative |
Representative=s name: VENNER SHIPLEY LLP, DE Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE |
|
R082 | Change of representative |
Representative=s name: VENNER SHIPLEY GERMANY LLP, DE Representative=s name: VENNER SHIPLEY LLP, DE |