DE212017000029U1 - Natürliche Sprachverarbeitung für den Sitzungsaufbau mit Serviceprovidern - Google Patents

Natürliche Sprachverarbeitung für den Sitzungsaufbau mit Serviceprovidern Download PDF

Info

Publication number
DE212017000029U1
DE212017000029U1 DE212017000029.5U DE212017000029U DE212017000029U1 DE 212017000029 U1 DE212017000029 U1 DE 212017000029U1 DE 212017000029 U DE212017000029 U DE 212017000029U DE 212017000029 U1 DE212017000029 U1 DE 212017000029U1
Authority
DE
Germany
Prior art keywords
processing system
data processing
content
data
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE212017000029.5U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE212017000029U1 publication Critical patent/DE212017000029U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
    • H04L67/63Routing a service request depending on the request content or context
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/174Form filling; Merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/186Templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/53Network services using third party service providers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/42348Location-based services which utilize the location information of a target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0242Determining effectiveness of advertisements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Information Transfer Between Computers (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

System zum Routen von paketierten Aktionen über ein Computernetzwerk, umfassend:
eine Prozessorkomponente für natürliche Sprache, die durch ein Datenverarbeitungssystem ausgeführt wird, um über eine Schnittstelle des Datenverarbeitungssystems Datenpakete zu empfangen, die ein durch einen Sensor eines Clientgeräts erkanntes Eingabeaudiosignal umfassen;
Prozessorkomponente für natürliche Sprache, um das Eingabeaudiosignal zu parsen, um eine Anfrage, einen Inhaltsanbieter und ein Auslöserschlüsselwort entsprechend der Anfrage zu identifizieren,
eine Direktaktions-Anwendungsprogrammierschnittstelle des Datenverarbeitungssystems, um basierend auf dem Auslöserschlüsselwort eine Aktionsdatenstruktur in Reaktion auf die Anfrage zu generieren;
die Direktaktions-Anwendungsprogrammierschnittstelle, um die Aktionsdatenstruktur an ein Drittanbietergerät zu übertragen, um das Drittanbietergerät dazu zu veranlassen, eine Konversations-Anwendungsprogrammierschnittstelle aufzurufen und eine Kommunikationssitzung zwischen dem Drittanbietergerät und dem Clientgerät herzustellen; und
das Datenverarbeitungssystem, um von dem Drittanbietergerät einen Hinweis zu empfangen, dass das Drittanbietergerät die Kommunikationssitzung mit dem Clientgerät hergestellt hat.

Description

  • HINTERGRUND
  • Paketbasierte oder anderweitige übermäßige Netzwerkübertragungen von Netzwerkverkehrsdaten zwischen Computergeräte können ein Computergerät daran hindern, die Netzwerkverkehrsdaten richtig zu verarbeiten, einen Vorgang, der mit den Netzwerkverkehrsdaten verbunden ist, abzuschließen oder zeitgerecht auf die Netzwerkverkehrsdaten anzusprechen. Die übermäßigen Netzwerkübertragungen von Netzwerkverkehrsdaten können auch ein Datenrouting verkomplizieren oder die Qualität der Antwort verschlechtern, wenn sich das ansprechende Computergerät an oder über ihrer Verarbeitungskapazität befindet, was in einer ineffizienten Bandbreitennutzung resultieren kann. Die Steuerung von Netzwerkübertragungen, die Inhaltselementobjekten entsprechen, kann durch die große Anzahl von Inhaltselementobjekten verkompliziert werden, die Netzwerkübertragungen von Netzwerkverkehrsdaten zwischen Computergeräte initiieren können.
  • ZUSAMMENFASSUNG
  • Die vorliegende Offenbarung betrifft im Allgemeinen Verbessern der Effizienz und der Effektivität von Informationsübertragung und Verarbeiten über ungleichartige Computerressourcen. Bei ungleichartigen Computerressourcen ist es eine Herausforderung, audiobasierte Inhaltselemente in einer sprachbasierten Computerumgebung effizient zu verarbeiten und beständig und genau zu parsen. Die ungleichartigen Computerressourcen können beispielsweise keinen Zugriff auf die gleichen Sprach- oder Bildmodelle aufweisen oder können Zugriff auf veraltete oder unsynchronisierte Sprachmodelle aufweisen, was es zu einer Herausforderung machen kann, die audiobasierten Anweisungen genau und beständig zu parsen.
  • Systeme und Verfahren der vorliegenden Offenbarung betreffen im Allgemeinen ein Datenverarbeitungssystem, das paketierte Aktionen über ein Netzwerk routet. Das Datenverarbeitungssystem kann die sprachbasierte Eingabe unter Verwendung von Sprachmodellen verarbeiten, die basierend auf aggregierter Sprache trainiert werden, um die sprachbasierten Anweisungen zu parsen und eine Aktionsdatenstruktur zu erzeugen. Das Datenverarbeitungssystem kann die Aktionsdatenstruktur an eine oder mehrere Komponenten des Datenverarbeitungssystems oder Geräte von Drittanbietern übertragen, sodass das Drittanbietergerät die Aktionsdatenstruktur verarbeiten kann, ohne die sprachbasierte Eingabe verarbeiten zu müssen. Durch Verarbeiten der sprachbasierten Eingabe für eine Vielzahl von Drittanbietergeräten kann das Datenverarbeitungssystem die Zuverlässigkeit, Effizienz und Genauigkeit verbessern, mit der sprachbasierte Anweisungen verarbeitet und ausgeführt werden.
  • Mindestens ein Aspekt betrifft ein System zum Routen von paketierten Aktionen über ein Computernetzwerk. Das System kann eine Prozessorkomponente für natürliche Sprache („NLP“) beinhalten, die durch ein Datenverarbeitungssystem ausgeführt wird. Die NLP-Komponente für natürliche Sprache kann über eine Schnittstelle des Datenverarbeitungssystems Datenpakete empfangen, die ein durch einen Sensor eines Computergeräts erkanntes Eingabeaudiosignal beinhalten. Die NLP-Komponente kann das Eingabeaudiosignal parsen, um eine Anfrage und ein Auslöserschlüsselwort entsprechend der Anfrage zu identifizieren. Das Datenverarbeitungssystem kann eine direkte Anwendungsprogrammierschnittstelle („API“) beinhalten. Das Direktaktions-API kann basierend auf dem Auslöserschlüsselwort eine Aktionsdatenstruktur in Reaktion auf die Anfrage generieren. Die Direktaktions-API kann die Aktionsdatenstruktur an ein Drittanbietergerät übertragen, um das Drittanbietergerät dazu zu veranlassen, eine Konversations-Anwendungsprogrammierschnittstelle aufzurufen und eine Kommunikationssitzung zwischen dem Drittanbietergerät und dem Clientgerät herzustellen. Das Datenverarbeitungssystem kann von dem Drittanbietergerät einen Hinweis empfangen, dass das Drittanbietergerät die Kommunikationssitzung mit dem Clientgerät hergestellt hat.
  • Weiterhin ist ein Verfahren zum Routen von paketierten Aktionen über ein Computernetzwerk offenbart. Das Verfahren kann beinhalten, dass das Datenverarbeitungssystem über eine Schnittstelle des Datenverarbeitungssystems Datenpakete empfängt, die ein durch einen Sensor eines Computergeräts erkanntes Eingabeaudiosignal beinhalten. Das Verfahren kann Parsen des Eingabeaudiosignals durch das Datenverarbeitungssystem beinhalten, um eine Anfrage, einen Inhaltsanbieter und ein Auslöserschlüsselwort gemäß der Anfrage zu identifizieren. Das Verfahren kann beinhalten, dass das Datenverarbeitungssystem basierend auf dem Auslöserschlüsselwort eine Aktionsdatenstruktur in Reaktion auf die Anfrage generiert. Das Verfahren kann beinhalten, dass das Datenverarbeitungssystem die Aktionsdatenstruktur an ein Drittanbietergerät überträgt, um das Drittanbietergerät dazu zu veranlassen, eine Konversations-Anwendungsprogrammierschnittstelle aufzurufen und eine Kommunikationssitzung zwischen dem Drittanbietergerät und dem Clientgerät herzustellen. Das Verfahren kann beinhalten, dass das Datenverarbeitungssystem von dem Drittanbietergerät einen Hinweis empfängt, dass das Drittanbietergerät die Kommunikationssitzung mit dem Clientgerät hergestellt hat.
  • Diese und andere Aspekte und Implementierungen werden unten näher erörtert. Die vorstehenden Informationen und die folgende ausführliche Beschreibung beinhalten veranschaulichende Beispiele verschiedener Aspekte und Implementierungen und stellen einen Überblick oder einen Rahmen für das Verständnis des Wesens und Charakters der beanspruchten Aspekte und Implementierungen bereit. Die Zeichnungen bieten eine Veranschaulichung und ein weiteres Verständnis der verschiedenen Aspekte und Implementierungen und sind in diese Spezifikation einbezogen und stellen einen Teil derselben dar.
  • Figurenliste
  • Die begleitenden Zeichnungen sollen nicht maßstabsgetreu sein. Gleiche Bezugsnummern und Bezeichnungen in den verschiedenen Zeichnungen verweisen auf ähnliche Elemente. Aus Gründen der Übersichtlichkeit ist möglicherweise nicht jede Komponente in jeder Zeichnung beschriftet. In den Zeichnungen ist:
    • 1 eine Veranschaulichung eines Systems zum Routen von paketierten Aktionen über ein Computernetzwerk.
    • 2 eine Veranschaulichung eines Vorgangs eines Systems zum Routen von paketierten Aktionen über ein Computernetzwerk.
    • 3 eine Veranschaulichung eines Vorgangs eines Systems zum Routen von paketierten Aktionen über ein Computernetzwerk.
    • 4 eine Veranschaulichung eines Verfahrens zum Routen von paketierten Aktionen über ein Computernetzwerk.
    • 5 ein Blockdiagramm, das eine allgemeine Architektur für ein Computersystem veranschaulicht, das zum Implementieren von Elementen der hierin beschriebenen und veranschaulichten Systeme und Verfahren eingesetzt werden kann.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Nachfolgend finden sich ausführlichere Beschreibungen von verschiedenen Konzepten, die Verfahren, Vorrichtungen und Systeme zum Routen von paketierten Aktionen über ein Computernetzwerk betreffen, und von Implementierungen davon. Die verschiedenen Konzepte, die vorstehend vorgestellt wurden und nachstehend ausführlicher erörtert werden, können in irgendeiner von zahlreichen Arten implementiert werden.
  • Die vorliegende Offenbarung betrifft im Allgemeinen Verbessern der Effizienz und der Effektivität von Informationsübertragung und Verarbeiten über ungleichartige Computerressourcen. Bei ungleichartigen Computerressourcen ist es eine Herausforderung, audiobasierte Inhaltselemente in einer sprachbasierten Computerumgebung effizient zu verarbeiten und beständig und genau zu parsen. Die ungleichartigen Computerressourcen können beispielsweise keinen Zugriff auf die gleichen Sprach- oder Bildmodelle aufweisen oder können Zugriff auf veraltete oder unsynchronisierte Sprachmodelle aufweisen, was es zu einer Herausforderung machen kann, die audiobasierten Anweisungen genau und beständig zu parsen.
  • Systeme und Verfahren der vorliegenden Offenbarung betreffen im Allgemeinen ein Datenverarbeitungssystem, das paketierte Aktionen über ein Netzwerk routet. Das Datenverarbeitungssystem kann die sprachbasierte Eingabe unter Verwendung von spezifischen Sprachmodellen verarbeiten, die basierend auf aggregierter Sprache trainiert werden, um die sprachbasierten Anweisungen zu parsen und eine Aktionsdatenstruktur zu erstellen. Das Datenverarbeitungssystem kann die Aktionsdatenstruktur an eine oder mehrere Komponenten des Datenverarbeitungssystems oder Geräte von Drittanbietern übertragen, sodass das Drittanbietergerät die Aktionsdatenstruktur verarbeiten kann, ohne die sprachbasierte Eingabe verarbeiten zu müssen. Durch Verarbeiten der sprachbasierten Eingabe für eine Vielzahl von Drittanbietergeräten kann das Datenverarbeitungssystem die Zuverlässigkeit, Effizienz und Genauigkeit verbessern, mit der sprachbasierte Anweisungen verarbeitet und ausgeführt werden.
  • Die vorliegende Lösung kann Ressourcenverbrauch, Prozessorauslastung, Batterieverbrauch, Bandbreitennutzung, die Größe einer Audiodatei oder die Zeitdauer, die von einem Lautsprecher durch das Parsen sprachbasierter Befehle von einem Endbenutzer verbraucht wird, Konstruieren einer Aktionsdatenstruktur unter Verwendung einer Vorlage, und Routen der Aktionsdatenstruktur zu einem entsprechenden Drittanbieter reduzieren.
  • 1 veranschaulicht ein exemplarisches System 100 zum Routen von paketierten Aktionen über ein Computernetzwerk. Das System 100 kann eine Inhaltsauswahlinfrastruktur beinhalten. Das System 100 kann ein Datenverarbeitungssystem 102 beinhalten. Das Datenverarbeitungssystem 102 kann mit einem oder mehreren von einem Inhaltsanbietercomputergerät 106, Dienstanbietercomputergerät 108 oder Client-Computergerät 104 über ein Netzwerk 105 kommunizieren. Das Netzwerk 105 kann Computernetzwerke wie das Internet, lokale Netzwerke, Großraumnetzwerke, regionale Netzwerke oder andere Bereichsnetzwerke, Intranets, Satellitennetzwerke oder andere Kommunikationsnetzwerke wie mobile Sprach- oder Daten-Mobiltelefonnetze beinhalten. Das Netzwerk 105 kann zum Zugreifen auf Informationsressourcen wie Webseiten, Websites, Domänennamen oder Uniform Resource Locators (URLs) verwendet werden, die auf mindestens einem Computergerät 104 wie einem Laptop, Desktop, Tablet, persönlichen digitalen Assistenten, Smartphone, tragbaren Computern oder einem Lautsprecher präsentiert, ausgegeben, wiedergegeben oder angezeigt werden können. Über das Netzwerk 105 kann ein Benutzer des Computergeräts 104 beispielsweise auf Informationen oder Daten zugreifen, die von einem Serviceanbieter 108 oder einem Inhaltsanbieter 106 bereitgestellt werden. Das Computergerät 104 kann eine Anzeige beinhalten oder auch nicht; beispielsweise kann das Computergerät begrenzte Arten von Benutzerschnittstellen wie ein Mikrofon und einen Lautsprecher beinhalten. In einigen Fällen kann die primäre Benutzerschnittstelle des Computergeräts 104 ein Mikrofon und ein Lautsprecher sein.
  • Das Netzwerk 105 kann ein Anzeigenetzwerk, wie z. B. eine im Internet verfügbare Untergruppe von Informationsquellen, beinhalten oder bilden, die mit einem Inhaltsanordnungs- oder Suchmaschinenergebnissystem verknüpft sind, oder die auswählbar sind, sodass sie Drittinhaltselemente als Teil einer Inhaltselementanordnungskampagne beinhalten. Das Netzwerk 105 kann durch das Datenverarbeitungssystem 102 verwendet werden, um auf Informationsressourcen wie Webseiten, Internetpräsenzen, Domänennamen oder URL-Adressen zuzugreifen, die durch das Client-Computergerät 104 präsentiert, ausgegeben, wiedergegeben oder angezeigt werden können. Über das Netzwerk 105 kann ein Benutzer des Client-Computergeräts 104 beispielsweise auf Informationen oder Daten zugreifen, die durch das Inhaltsanbietercomputergerät 106 oder das Serviceanbieter-Computergerät 108 bereitgestellt werden.
  • Das Netzwerk 105 kann eine beliebige Art oder Form von Netzwerk sein und eines der folgenden beinhalten: ein Point-to-Point-Netzwerk, ein Broadcast-Netzwerk, ein Großraumnetzwerk, ein lokales Netzwerk, ein Telekommunikationsnetzwerk, ein Datenkommunikationsnetzwerk, ein Computernetzwerk, ein ATM-Netzwerk (Asynchroner Transfermodus), ein SONET-Netzwerk (Synchrones Optisches Netzwerk), ein SDH-Netzwerk (Synchrone Digitale Hierarchie), ein Drahtlosnetzwerk oder ein kabelgebundenes Netzwerk. Das Netzwerk 105 kann eine Drahtlosverbindung, wie z. B. einen Infrarotkanal oder ein Satellitenfrequenzband, beinhalten. Die Topologie des Netzwerks 105 kann eine Bus-, Stern- oder Ringnetzwerktopologie beinhalten. Das Netzwerk kann mobile Telefonnetzwerke unter Verwendung von einem beliebigen Protokoll oder beliebigen Protokollen beinhalten, die zur Kommunikation mit mobilen Geräten geeignet sind, darunter Advanced Mobile Phone Protocol („AMPS“), Time Division Multiple Access („TDMA“), Code-Division Multiple Access („CDMA“), Global System for Mobile Communication („GSM“), General Packet Radio Dienstleistungen („GPRS“) und Universal Mobile Telecommunications System („UMTS“). Verschiedene Arten von Daten können über verschiedene Protokolle übertragen werden oder es können gleiche Arten von Daten über verschiedene Protokolle übertragen werden.
  • Das System 100 kann mindestens ein Datenverarbeitungssystem 102 beinhalten. Das Datenverarbeitungssystem 102 kann mindestens ein logisches Gerät wie ein Computergerät mit einem Prozessor zur Kommunikation über das Netzwerk 105 z. B. mit dem Computergerät 104, dem Inhaltsanbietergerät 106 (Inhaltsanbieter 106) oder der dem Dienstanbietergerät 108 (oder Dienstanbieter 108) beinhalten. Das Datenverarbeitungssystem 102 kann mindestens eine Berechnungsressource, einen Server, Prozessor oder Speicher beinhalten. Beispielsweise kann das Datenverarbeitungssystem 102 eine Vielzahl von Computerressourcen oder Server beinhalten, die sich in mindestens einem Datenzentrum befinden. Das Datenverarbeitungssystem 102 kann mehrere logisch gruppierte Server beinhalten und verteilte Berechnungstechniken erleichtern. Die logische Gruppe von Servern kann als ein Rechenzentrum, eine Serverfarm oder eine Computerfarm bezeichnet werden. Die Server können auch auf verschiedene Standorte verteilt sein. Ein Rechenzentrum oder eine Computerfarm kann als eine einzelne Entität verwaltet werden oder die Computerfarm kann eine Vielzahl von Computerfarmen beinhalten. Die Server in einer Computerfarm können heterogen sein - ein oder mehrere der Server oder Computer können gemäß einem oder mehreren Typen von Betriebssystemplattformen betrieben werden.
  • Server in der Computerfarm können in Rack-Systemen hoher Dichte zusammen mit zugehörigen Speichersystemen aufbewahrt werden und sich in einem Enterprise-Datenzentrum befinden. Wenn Server auf diese Weise konsolidiert werden, lassen sich zum Beispiel die Systemverwaltung, Datensicherheit, physische Sicherheit des Systems sowie Systemleistung verbessern, indem in lokalisierten Hochleistungsnetzwerken nach Servern und Hochleistungsspeichersystemen gesucht wird. Die Zentralisierung aller oder einiger der Datenverarbeitungssystem- 102 -Komponenten, einschließlich Server und Speichersysteme und das Koppeln dieser mit verbesserten Systemmanagementwerkzeugen ermöglicht eine effizientere Verwendung von Serverressourcen, was Strom- und Verarbeitungsanfragen spart und die Bandbreitenverwendung reduziert.
  • Das System 100 kann mindestens ein Dienstanbietergerät 108 beinhalten, darauf zugreifen oder anderweitig damit interagieren. Das Dienstanbietergerät 108 kann mindestens ein logisches Gerät wie ein Computergerät mit einem Prozessor zur Kommunikation über das Netzwerk 105 z. B. mit dem Computergerät 104, dem Datenverarbeitungssystem 102 oder dem Inhaltsanbieter 106 beinhalten. Das Dienstanbietergerät 108 kann mindestens eine Berechnungsressource, einen Server, Prozessor oder Speicher beinhalten. Beispielsweise kann das Dienstanbietergerät 108 mehrere in mindestens einem Datenzentrum lokalisierte Berechnungsressourcen oder Server beinhalten. Das Dienstanbietergerät 108 kann eine oder mehrere Komponenten oder Funktionalitäten des Datenverarbeitungssystems 102 beinhalten.
  • Das Inhaltsanbietercomputergerät 106 kann audiobasierte Inhaltselemente zum Anzeigen durch das Client-Computergerät 104 als ein Audioausgangsinhaltselement bereitstellen. Das Inhaltselement kann ein Angebot für eine Ware oder eine Dienstleistung, wie z. B. eine sprachbasierte Meldung wie folgt beinhalten: „Möchten Sie, dass ich für Sie ein Taxi bestelle?“ Beispielsweise kann das Inhaltsanbietercomputergerät 155 einen Arbeitsspeicher beinhalten, um eine Reihe von Audioinhaltselementen zu speichern, die in Reaktion auf eine sprachbasierte Anfrage bereitgestellt werden. Die Inhaltsanbietercomputergerät 106 kann auch audiobasierte Inhaltselemente (oder andere Inhaltselemente) an das Datenverarbeitungssystem 102 bereitstellen, wo diese in dem Datenbehälter 124 gespeichert werden können. Das Datenverarbeitungssystem 102 kann die Audioinhaltselemente auswählen und die Audioinhaltselemente an das Client-Computergerät 104 bereitstellen (oder das Inhaltsanbietercomputergerät 104 anweisen, sie bereitzustellen). Die audiobasierten Inhaltselemente können ausschließlich Audio sein oder sie können mit Text-, Bild- oder Videodaten kombiniert sein.
  • Das Dienstanbietergerät 108 kann das Verbinden oder anderweitige Kommunizieren mit mindestens einer Dienstanbieterprozessorkomponente 142 für natürliche Sprache und einer Dienstanbieterschnittstelle 144 beinhalten. Das Dienstanbietercomputergerät 108 kann mindestens eine Dienstanbieterprozessorkomponente (NLP) 142 für natürliche Sprache und mindestens eine Dienstanbieterschnittstelle 144 beinhalten. Die Dienstanbieter-NLP-Komponente 142 (oder andere Komponenten wie z. B. eine Direktaktions-API des Dienstanbietercomputergeräts 108) kann das Client-Computergerät 104 (über das Datenverarbeitungssystem 102 oder durch Umgehen des Datenverarbeitungssystems 102) ansteuern, um eine Hin- und Rück-Echtzeitsprachen- oder audiobasierte Konversation (z. B. eine Sitzung) zwischen dem Client-Computergerät 104 und dem Dienstanbietercomputergerät 108 zu erzeugen. Der Dienstanbieter-NLP 142 kann eine oder mehrere Funktionen oder Merkmale wie die NLP-Komponente 112 des Datenverarbeitungssystems 102 beinhalten. Die Dienstanbieterschnittstelle 144 kann beispielsweise Datennachrichten an die Direktaktions-API 116 des Datenverarbeitungssystems 102 empfangen oder an diese bereitstellen. Das Dienstanbietercomputergerät 108 und das Inhaltsanbietercomputergerät 106 können mit der gleichen Entität verknüpft sein. Beispielsweise kann das Dienstanbietercomputergerät 106 Inhalte für einen Fahrgemeinschaftsdienst erzeugen, speichern oder bereitstellen, und das Dienstanbietercomputergerät 108 kann eine Sitzung mit dem Client-Computergerät 106 herstellen, um die Bereitstellung eines Taxis oder Autos des Fahrgemeinschaftsdienstes zu veranlassen, den Endbenutzer des Client-Computers 104 abzuholen. Das Datenverarbeitungssystem 102 kann über die Direktaktions-API 116, die NLP-Komponente 112 oder andere Komponenten auch die Sitzung mit dem Computergerät des Kunden herstellen, einschließlich oder unter Umgehung des Computergeräts 104 des Dienstanbieters, um z. B. die Bereitstellung eines Taxis oder Autos des Fahrgemeinschaftsdienstes zu veranlassen.
  • Das Computergerät 104 kann Verbinden oder anderweitiges Kommunizieren mit mindestens einem Sensor 134, Wandler 136, Audiotreiber 138 oder Vorprozessor 140 beinhalten. Der Sensor 134 kann z. B. einen Umgebungslichtsensor, Näherungssensor, Temperatursensor, Beschleunigungssensor, ein Gyroskop, einen Bewegungsdetektor, GPS-Sensor, Ortungssensor, ein Mikrofon oder einen Berührungssensor beinhalten. Der Wandler 136 kann einen Lautsprecher oder ein Mikrofon beinhalten. Der Audiotreiber 138 kann eine Softwareschnittstelle an den Hardwarewandler 136 bereitstellen. Der Audiotreiber kann die Audiodatei oder andere Befehle ausführen, die durch das Datenverarbeitungssystem 102 bereitgestellt werden, um den Wandler 136 zu steuern, eine entsprechende akustische Welle oder Schallwelle zu erzeugen. Der Vorprozessor 140 kann so konfiguriert sein, dass er ein Schlüsselwort erkennt und basierend auf dem Schlüsselwort eine Aktion ausführt. Der Vorprozessor 140 kann einen oder mehrere Begriffe herausfiltern oder die Begriffe vor dem Senden der Begriffe an das Datenverarbeitungssystem 102 für ein weiteres Verarbeiten modifizieren. Der Vorprozessor 140 kann die analogen Audiosignale, die durch das Mikrofon detektiert werden, in ein digitales Audiosignal umwandeln und ein oder mehrere Datenpakete, die das digitale Audiosignal transportieren, über das Netzwerk 105 an das Datenverarbeitungssystem 102 senden. In einigen Fällen kann der Vorprozessor 140 Datenpakete, die einige oder alle der eingegebenen Audiosignale in Reaktion auf das Erkennen einer Anweisung eine solche Übertragung auszuführen, übertragen. Der Befehl kann beispielsweise ein Auslöserschlüsselwort oder ein anderes Schlüsselwort oder eine Genehmigung beinhalten, Datenpakete, die das Eingabeaudiosignal beinhalten, an das Datenverarbeitungssystem 102 zu senden.
  • Das Client-Computergerät 104 kann mit einem Endbenutzer verknüpft sein, der Sprachabfragen als Audioeingabe in das Client-Computergerät 104 (über den Sensor 134) eingibt, und eine Audioausgabe in Form einer computergenerierten Stimme empfängt, die von dem Datenverarbeitungssystem 102 (oder dem Inhaltsanbietercomputergerät 106 oder dem Dienstanbietercomputergerät 108) an das Client-Computergerät 104 bereitgestellt, und von dem Wandler 136 (z. B. einem Lautsprecher) ausgegeben werden kann. Die computergenerierte Stimme kann Aufzeichnungen von einer realen Person oder einer computergenerierten Sprache beinhalten.
  • Das Datenbehälter 124 kann eine oder mehrere lokale oder verteilte Datenbanken beinhalten und kann ein Datenbankmanagementsystem beinhalten. Das Datenbehälter 124 kann Computerdatenspeicher oder Arbeitsspeicher beinhalten, und kann einen oder mehrere Parameter 126, eine oder mehrere Richtlinien 128, Interaktionsmodi 130 und Vorlagen 132 mit anderen Daten speichern. Die Parameter 126, Richtlinien 128 und Vorlagen 132 können Informationen, wie z. B. Regeln über eine sprachbasierte Sitzung zwischen dem Client-Computergerät 104 und dem Datenverarbeitungssystem 102 (oder dem Dienstanbietercomputergerät 108) beinhalten. Die Inhaltsdaten 130 können Inhaltselemente für eine Audioausgabe oder verknüpfte Metadaten sowie eingegebene Audionachrichten, die Teil von einer oder mehreren Kommunikationssitzungen mit dem Client-Computergerät 104 sein können, beinhalten.
  • Das Datenverarbeitungssystem 102 kann ein Inhaltsplatzierungssystem beinhalten, das mindestens eine Rechenressource oder einen Server aufweist. Das Datenverarbeitungssystem 102 kann das Verbinden oder anderweitige Kommunizieren mit mindestens einer Schnittstelle 110 beinhalten. Das Datenverarbeitungssystem 102 kann das Verbinden oder anderweitige Kommunizieren mit mindestens einer Prozessorkomponente 112 für natürliche Sprache beinhalten. Das Datenverarbeitungssystem 102 kann mindestens eine Anwendungsprogrammierschnittstelle („API“) 116 für eine direkte Aktion beinhalten, damit eine Schnittstelle ausbilden oder anderweitig damit kommunizieren. Das Datenverarbeitungssystem 102 kann mindestens einen Sitzungshandler 114 beinhalten, eine Schnittstelle damit ausbilden oder anderweitig damit kommunizieren. Das Datenverarbeitungssystem 102 kann Verbinden oder anderweitiges Kommunizieren mit mindestens einer Inhaltsauswahlkomponente 118 beinhalten. Das Datenverarbeitungssystem 102 kann mindestens einen Audiosignalgenerator 122 beinhalten, eine Schnittstelle damit ausbilden oder anderweitig damit kommunizieren. Das Datenverarbeitungssystem 102 kann Verbinden oder anderweitiges Kommunizieren mit mindestens einem Datenbehälter 124 beinhalten. Das mindestens eine Datenbehälter 124 kann eine oder mehrere Datenstrukturen oder Datenbanken, Parameter 126, Richtlinien 128, Inhaltsdaten 130 oder Vorlagen 132 beinhalten oder speichern. Parameter 126 können beispielsweise Schwellenwerte, Distanzen, Zeitintervalle, Zeitspannen, Punktzahlen oder Gewichte beinhalten. Inhaltsdaten 130 können zum Beispiel Inhaltskampagnendaten, Inhaltsgruppen, Inhaltsauswahlkriterien, Inhaltselementobjekte oder andere Informationen beinhalten, die von einem Inhaltsanbieter 106 bereitgestellt oder vom Datenverarbeitungssystem empfangen oder ermittelt werden, um die Inhaltsauswahl zu erleichtern. Die Inhaltsdaten 130 können beispielsweise eine frühere Leistung einer Inhaltskampagne beinhalten.
  • Die Schnittstelle 110, die Prozessorkomponente 112 für natürliche Sprache, der Sitzungshandler 114, die Direktaktions-API 116, die Inhaltsauswahlkomponente 118 oder die Audiosignalgeneratorkomponente 122 können jeweils mindestens eine Verarbeitungseinheit oder eine andere Logikvorrichtung, wie z. B. eine programmierbare Logik-Array-Engine, oder ein Modul beinhalten, das konfiguriert ist, um mit dem Datenbankbehälter oder der Datenbank 124 zu kommunizieren. Die Schnittstelle 110, die Prozessorkomponente 112 für natürliche Sprache, der Sitzungshandler 114, die Direktaktions-API 116, die Inhaltsauswahlkomponente 118, Audiosignalgeneratorkomponente 122 und das Datenbehälter 124 können separate Komponenten, eine einzelne oder Teil des Datenverarbeitungssystems 102 sein. Das System 100 und dessen Komponenten, wie beispielsweise ein Datenverarbeitungssystem 102, können Hardware-Elemente wie einen oder mehrere Prozessoren, logische Geräte oder Schaltungen beinhalten.
  • Das Datenverarbeitungssystem 102 kann anonyme Informationen über Computernetzwerkaktivitäten erhalten, die mit mehreren Computergeräten 104 verknüpft sind. Ein Benutzer eines Computergeräts 104 kann das Datenverarbeitungssystem 102 gezielt dazu autorisieren, Informationen über Netzwerkaktivitäten, die dem Computergerät 104 des Benutzers entsprechen, zu erlangen. Das Datenverarbeitungssystem 102 kann beispielsweise den Benutzer des Computergeräts 104 zum Zustimmen veranlassen, um eine oder mehrere Informationen über Netzwerkaktivitätsarten zu erlangen. Die Identität des Benutzers des Computergeräts 104 kann anonym bleiben und das Computergerät 104 kann mit einer eindeutigen Kennung (z. B. einer eindeutigen Kennung für den Benutzer oder das Computergerät, das durch das Datenverarbeitungssystem oder einen Benutzer des Computergeräts bereitgestellt ist) verknüpft sein. Das Datenverarbeitungssystem kann jeder Beobachtung eine entsprechende eindeutige Kennung zuweisen.
  • Ein Inhaltsanbieter 106 kann eine elektronische Inhaltskampagne einrichten. Die elektronische Inhaltskampagne kann als Inhaltsdaten 130 in Datenbehälter 124 gespeichert werden. Eine elektronische Inhaltskampagne kann sich auf eine oder mehrere Inhaltsgruppen beziehen, die einem gemeinsamen Thema entsprechen. Eine Inhaltskampagne kann eine hierarchische Datenstruktur beinhalten, die Inhaltsgruppen, Inhaltselementdatenobjekte und Inhaltsauswahlkriterien beinhaltet. Zur Erstellung einer Inhaltskampagne kann der Inhaltsanbieter 106 spezifische Werte für Inhaltskampagnenparameter auf der Kampagnenebene festlegen. Die Kampagnenebenenparameter können zum Beispiel beinhalten: einen Kampagnennamen, ein bevorzugtes Inhaltsnetzwerk für die Platzierung von Inhaltselementobjekten, einen Wert für Ressourcen zur Verwendung für die Inhaltskampagne, Start- und Enddaten für die Inhaltskampagne, eine Dauer der Inhaltskampagne, einen Zeitplan für die Platzierung von Inhaltselementobjekten, Sprache, geografische Standorte und die Art von Computergeräten, auf denen Inhaltselementobjekte bereitgestellt werden sollen. In einigen Fällen kann sich ein Aufruf darauf beziehen, dass ein Inhaltselementobjekt von seiner Quelle (z. B. Datenverarbeitungssystem 102 oder Inhaltsanbieter 106) abgerufen wird, und ist zählbar. In einigen Fällen können angesichts der Möglichkeit von betrügerischen Klicks computergesteuerte Aktivitäten gefiltert und als ein Eindruck ausgeschlossen werden. Daher kann sich in manchen Fällen ein Eindruck auf eine Messung von Antworten von einem Webserver hinsichtlich einer Seitenabfrage durch einen Browser beziehen, der von automatischer Aktivität und Fehlercodes gefiltert und an einem Punkt so nah wie möglich an einer Gelegenheit aufgezeichnet wird, das Inhaltselementobjekt zur Anzeige auf dem Computergerät 104 wiederzugeben. In einigen Fällen kann sich ein Eindruck auf einen sichtbaren oder hörbaren Eindruck beziehen; z. B. ist das Inhaltselementobjekt zumindest teilweise (z. B. 20 %, 30 %, 30 %, 40 %, 50 %, 60 %, 70 % oder mehr) auf einem Anzeigegerät des Client-Computergeräts 104 sichtbar oder über einen Lautsprecher 136 des Computergeräts 104 hörbar. Ein Klick oder eine Auswahl kann sich auf eine Benutzerinteraktion mit dem Inhaltselementobjekt, wie beispielsweise auf eine Sprachantwort auf einen hörbaren Eindruck, einen Mausklick, eine Berührungsinteraktion, eine Geste, ein Schütteln, eine Audiointeraktion oder einen Tastaturklick, beziehen. Eine Konversation kann sich auf einen Benutzer beziehen, der hinsichtlich des Inhaltselementobjekts eine gewünschte Aktion ausführt (z. B. Kauf eines Produkts oder Service, Teilnahme an einer Umfrage, Besuch eines physischen Geschäfts, das dem Inhaltselement entspricht, oder Abschließen einer elektronischen Transaktion).
  • Der Inhaltsanbieter 106 kann außerdem eine oder mehrere Inhaltsgruppen für eine Inhaltskampagne festlegen. Eine Inhaltsgruppe umfasst ein oder mehrere Inhaltselementobjekte und entsprechende Inhaltsauswahlkriterien, wie Schlüsselwörter, Worte, Begriffe, Ausdrücke, geografische Orte, Computergerätetyp, Tageszeit, Interesse, Thema oder Vertikale. Inhaltsgruppen unter der gleichen Inhaltskampagne können die gleichen Kampagnenebenenparameter teilen, können jedoch auf bestimmte Inhaltsgruppenebenenparameter zugeschnittene Beschreibungen, wie beispielsweise Schlüsselwörter, negative Schlüsselwörter (z. B. diese Anordnung des Blocks des Inhaltselements bei Vorhandensein des negativen Schlüsselworts bei Hauptinhalt), Angebote für Schlüsselwörter oder Parameter aufweisen, die mit dem Angebot oder der Inhaltskampagne verknüpft sind.
  • Zur Erstellung einer neuen Inhaltsgruppe kann der Inhaltsanbieter Werte für Parameter auf der Inhaltsgruppenebene der Inhaltsgruppe bereitstellen. Die Inhaltsgruppenebenenparameter beinhalten beispielsweise einen Inhaltsgruppennamen oder ein Inhaltsgruppenthema und Angebote für unterschiedliche Inhaltsplatzierungsmöglichkeiten (z. B. automatische Anordnung oder verwaltete Anordnung) oder Ergebnisse (z. B. Klicks, Eindrücke oder Konvertierungen). Ein Inhaltsgruppenname oder Inhaltsgruppenthema kann aus einem oder mehreren Begriffen bestehen, die der Inhaltsanbieter 106 verwenden kann, um ein Thema oder einen Gegenstand zu erfassen, für das/den Inhaltselementobjekte der Inhaltsgruppe zur Anzeige ausgewählt werden sollen. Beispielsweise kann ein Autohändler eine unterschiedliche Inhaltsgruppe für jede Fahrzeugmarke erzeugen, die er führt, und kann weiter eine unterschiedliche Inhaltsgruppe für jedes Modell eines Fahrzeugs erzeugen, das es führt. Beispiele für inhaltliche Gruppenthemen, die das Autohaus verwenden kann, können beispielsweise „Marke A Sportwagen“, „Marke B Sportwagen“, „Marke C Limousine“, „Marke C Lkw“, „Marke C Hybrid“ oder „Marke D Hybrid“ beinhalten. Ein exemplarisches Inhaltskampagnenthema kann „Hybrid“ sein und kann beispielsweise Inhaltsgruppen sowohl für „Marke C Hybrid“ als auch „Marke D Hybrid“ beinhalten.
  • Das Inhaltsanbietercomputergerät 106 kann ein oder mehrere Schlüsselwörter und Inhaltselementobjekte für jede Inhaltsgruppe bereitstellen. Schlüsselwörter können Begriffe beinhalten, die für das Produkt oder die Dienstleistungen relevant sind, das oder die mit dem Inhaltselementobjekt verknüpft sind oder von diesem identifiziert werden. Ein Schlüsselwort kann einen oder mehrere Begriffe oder Phrasen beinhalten. Beispiele, die das Autohaus als Schlüsselwörter für eine Inhaltsgruppe oder Inhaltskampagne verwenden kann, beinhalten „Sportwagen“, „V-6-Motor“, „Allradantrieb“, „Kraftstoffeffizienz“. In einigen Fällen können negative Schlüsselwörter durch den Inhaltsanbieter spezifiziert werden, um eine Inhaltsplatzierung bei bestimmten Begriffen oder Schlüsselwörtern zu vermeiden, zu verhindern, zu blockieren oder zu deaktivieren. Der Inhaltsanbieter kann einen Typ der Übereinstimmung festlegen, z. B. genaue Übereinstimmung, Phrasenübereinstimmung oder allgemeine Übereinstimmung, der zur Auswahl von Inhaltselementobjekten verwendet wird.
  • Der Inhaltsanbieter 106 kann ein oder mehrere von dem Datenverarbeitungssystem 102 zu verwendende Schlüsselwörter bereitstellen, um ein Inhaltselementobjekt auszuwählen, das durch den Inhaltsanbieter 106 bereitgestellt wird. Der Inhaltsanbieter 106 kann ein oder mehrere Schlüsselwörter zum Anbieten identifizieren und weiter Angebotsbeträge für verschiedene Schlüsselwörter bereitstellen. Der Inhaltsanbieter 106 kann durch das Datenverarbeitungssystem 102 zu verwendende zusätzliche Inhaltsauswahlkriterien bereitstellen, um Inhaltselementobjekte auszuwählen. Mehrere Inhaltsanbieter 106 können mit den gleichen oder unterschiedlichen Schlüsselwörtern ein Angebot machen und das Datenverarbeitungssystem 102 kann einen Inhaltsauswahlprozess oder eine Werbeauktion in Reaktion auf das Empfangen eines Hinweises auf ein Schlüsselwort einer elektronischen Nachricht ausführen.
  • Der Inhaltsanbieter 106 kann dem Datenverarbeitungssystem 102 ein oder mehrere Inhaltselementobjekte zur Auswahl bereitstellen. Das Datenverarbeitungssystem 102 kann (z. B. über die Inhaltsauswahlkomponente 118) die Inhaltselementobjekte auswählen, wenn eine Inhaltsplatzierungsmöglichkeit verfügbar wird, die mit der Ressourcenzuordnung, dem Inhaltszeitplan, den maximalen Angeboten, Schlüsselwörtern und anderen Auswahlkriterien übereinstimmt, die für die Inhaltsgruppe spezifiziert sind. Unterschiedliche Arten von Inhaltselementobjekten können in eine Inhaltsgruppe, wie beispielsweise ein Sprachinhaltselement, Audioinhaltselement, ein Textinhaltselement, ein Bildinhaltselement, Videoinhaltselement, Multimediainhaltselement oder ein Inhaltselementlink, eingebunden werden. Nach dem Auswählen eines Inhaltselements kann das Datenverarbeitungssystem 102 das Inhaltselementobjekt zum Wiedergeben auf einem Computergerät 104 oder einem Anzeigegerät des Computergeräts 104 senden. Wiedergeben kann das Anzeigen des Inhaltselements auf einem Anzeigegerät oder das Abspielen des Inhaltselements über einen Lautsprecher des Computergeräts 104 beinhalten. Das Datenverarbeitungssystem 102 kann für ein Computergerät 104 Anweisungen zum Wiedergeben des Inhaltselementobjekts bereitstellen. Das Datenverarbeitungssystem 102 kann das Computergerät 104 oder einen Audiotreiber 138 des Computergeräts 104 anweisen, Audiosignale oder Schallwellen zu generieren.
  • Das Datenverarbeitungssystem 102 kann eine Schnittstellenkomponente 110 beinhalten, die konzipiert, konfiguriert, aufgebaut oder betriebsfähig ist, Informationen unter Verwendung von beispielsweise Datenpaketen zu empfangen und zu übertragen. Die Schnittstelle 110 kann Informationen unter Verwendung eines oder mehrerer Protokolle wie einem Netzwerkprotokoll übertragen und empfangen. Die Schnittstelle 110 kann eine Hardwareschnittstelle, eine Softwareschnittstelle, eine verdrahtete Schnittstelle oder eine drahtlose Schnittstelle beinhalten. Die Schnittstelle 110 kann das Übersetzen oder Formatieren von Daten von einem Format in ein anderes erleichtern. Die Schnittstelle 110 kann beispielsweise eine Anwendungsprogrammierschnittstelle beinhalten, die Definitionen zum Kommunizieren zwischen verschiedenen Komponenten wie Softwarekomponenten umfasst.
  • Das Datenverarbeitungssystem 102 kann eine Anwendung, ein Script oder ein Programm beinhalten, das auf dem Client-Computergerät 104 installiert ist, wie beispielsweise eine Anwendung, um Eingabeaudiosignale an die Schnittstelle 110 des Datenverarbeitungssystems 102 zu übermitteln, und um Komponenten des Client-Computergeräts anzusteuern, um ausgegebene Audiosignale wiederzugeben. Das Datenverarbeitungssystem 102 kann Datenpakete oder ein anderes Signal empfangen, das ein Audioeingabesignal beinhaltet oder identifiziert. Beispielsweise kann das Datenverarbeitungssystem 102 die NLP-Komponente 112 ausführen oder ausführen lassen, um das Audiosignal zu empfangen oder zu erhalten, und das Audiosignal zu parsen. Die NLP-Komponente 112 kann beispielsweise Interaktionen zwischen einem Menschen und einem Computer bereitstellen. Die NLP-Komponente 112 kann mit Techniken zum Verstehen natürlicher Sprache konfiguriert sein und dem Datenverarbeitungssystem 102 ermöglichen, eine Bedeutung von einer menschlichen Eingabe oder Eingabe in natürlicher Sprache abzuleiten. Die NLP-Komponente 112 kann Technik, die auf Maschinenlernen, wie z. B. statistischem Maschinenlernen, basiert, beinhalten oder damit konfiguriert sein. Die NLP-Komponente 112 kann Entscheidungsbäume, statistische Modelle oder Wahrscheinlichkeitsmodelle verwenden, um das Eingabeaudiosignal zu parsen. Die NLP-Komponente 112 kann beispielsweise Funktionen ausführen, wie z. B. Eigennamenerkennung (z. B. bei einem gegebenen Text-Stream zu bestimmen, welche Elemente im Text Eigennamen wie Personen oder Orte abbilden und von welcher Art jeder dieser Namen ist, wie beispielsweise Person, Ort oder Organisation), Generieren in natürlicher Sprache (z. B. Informationen von Computerdatenbanken oder semantische Absichten in verständliche menschliche Sprache umwandeln), Verstehen von natürlicher Sprache (z. B. Text in förmlichere Darstellungen wie Prädikatenlogikstrukturen, die ein Computermodul manipulieren kann, umwandeln), Maschinenübersetzung (z. B. automatisch Text von einer menschlichen Sprache in eine andere übersetzen), morphologisches Segmentieren (z. B. Worte in individuelle Morpheme trennen und die Klasse der Morpheme identifizieren, was basierend auf der Komplexität der Morphologie oder dem Wortaufbau der betrachteten Sprache eine Herausforderung sein kann), das Beantworten von Fragen (z. B. das Bestimmen einer Antwort auf eine humansprachliche Frage, die spezifisch oder offen sein kann), semantisches Verarbeiten (z. B. das Verarbeiten, das nach dem Identifizieren eines Wortes und der Codierung seiner Bedeutung erfolgen kann, um das identifizierte Wort mit anderen Worten mit ähnlichen Bedeutungen in Beziehung zu setzen).
  • Die NLP-Komponente 112 wandelt das Audioeingabesignal durch Vergleichen des Eingabesignals mit einer gespeicherten repräsentativen Reihe von Audiowellenformen (z. B. in dem Datenbehälter 124) und Auswählen der größten Übereinstimmungen in erkannten Text um. Die Reihe von Audiowellenformen kann in dem Datenbehälter 124 oder einer anderen Datenbank gespeichert sein, die dem Datenverarbeitungssystem 102 zugänglich ist. Die repräsentativen Wellenformen werden über eine große Menge von Benutzern erzeugt und können dann mit Sprachproben vom Benutzer erweitert werden. Nachdem das Audiosignal in erkannten Text umgewandelt wurde, bringt die NLP-Komponente 112 den Text mit Worten in Übereinstimmung, die beispielsweise via Training über Benutzer oder durch manuelle Beschreibung mit Aktionen verknüpft sind, die das Datenverarbeitungssystem 102 bereitstellen kann.
  • Das Audioeingabesignal kann durch den Sensor 134 oder den Wandler 136 (z. B. ein Mikrofon) von dem Client-Computergerät 104 erkannt werden. Über den Wandler 136, den Audiotreiber 138 oder andere Komponenten kann das Client-Computergerät 104 das Audioeingabesignal dem Datenverarbeitungssystem 102 (z. B. über das Netzwerk 105) bereitstellen, wo es (z. B. durch die Schnittstelle 110) empfangen werden kann, und der NLP-Komponente 112 bereitgestellt, oder in dem Datenbehälter 124 gespeichert werden kann.
  • Die NLP-Komponente 112 kann das Eingabeaudiosignal erhalten. Von dem Eingabeaudiosignal kann die NLP-Komponente 112 mindestens eine Anfrage oder mindestens ein Auslöserschlüsselwort identifizieren, das der Anfrage entspricht. Die Anfrage kann Absicht oder Gegenstand des Eingabeaudiosignals anzeigen. Das Auslöserschlüsselwort kann eine Aktionsart anzeigen, die wahrscheinlich vorzunehmen ist. Die NLP-Komponente 112 kann beispielsweise das Eingabeaudiosignal parsen, um mindestens eine Anfrage zu identifizieren, am Abend zum Abendessen und ins Kino zu gehen. Das Auslöserschlüsselwort kann mindestens ein Wort, einen Ausdruck, einen Wortstamm oder ein partielles Wort oder eine Ableitung beinhalten, das bzw. die eine vorzunehmende Aktion anzeigen. Das Auslöserschlüsselwort „gehen“ oder „gehen zu“ von dem Eingabeaudiosignal kann beispielsweise eine Notwendigkeit für Transport anzeigen. Bei diesem Beispiel drückt das Eingabeaudiosignal (oder die identifizierte Anfrage) nicht direkt eine Absicht für einen Transport aus, das Auslöserschlüsselwort zeigt jedoch an, dass ein Transport eine Zusatzaktion für mindestens eine andere Aktion ist, die durch die Anfrage angezeigt wird.
  • Die NLP-Komponente 112 kann das Eingabeaudiosignal parsen, um die Anfrage und das Auslöserschlüsselwort zu identifizieren, zu bestimmen, abzurufen oder anderweitig zu erlangen. Die NLP-Komponente 112 kann zum Beispiel eine semantische Verarbeitungstechnik auf das Eingabeaudiosignal anwenden, um das Auslöserschlüsselwort oder die Anfrage zu identifizieren. Die NLP-Komponente 112 kann die semantische Verarbeitungstechnik auf das Eingabeaudiosignal anwenden, um eine Auslöserphrase zu identifizieren, die ein oder mehrere Auslöserschlüsselwörter, wie z. B. ein erstes Auslöserschlüsselwort und ein zweites Auslöserschlüsselwort, umfasst. Beispielsweise kann das Eingabeaudiosignal den Satz „Ich brauche jemanden, um meine Wäsche zu waschen und meine Trockenreinigung durchzuführen“, beinhalten. Die NLP-Komponente 112 kann eine semantische Verarbeitungstechnik oder eine andere Verarbeitungstechnik natürlicher Sprache auf die Datenpakete anwenden, die den Satz „wasche meine Wäsche“ und „führe meine Trockenreinigung durch“ beinhalten, um die Auslöserphrasen zu identifizieren. Die NLP-Komponente 112 kann ferner mehrere Auslöserschlüsselwörter, wie z. B. Wäsche und Trockenreinigung, identifizieren. Die NLP-Komponente 112 kann beispielsweise bestimmen, dass die Auslöserphrase das Auslöserschlüsselwort und ein zweites Auslöserschlüsselwort beinhaltet.
  • Die NLP-Komponente 112 kann das Eingabeaudiosignal filtern, um das Auslöserschlüsselwort zu identifizieren. Beispielsweise können die Datenpakete, die das Eingabeaudiosignal tragen, „Es wäre großartig, wenn ich jemanden finden könnte, der mir helfen könnte, zum Flughafen zu kommen“, beinhalten, in welchem Fall die NLP-Komponente 112 einen oder mehrere Begriffe wie folgt herausfiltern kann: „Es“, „wäre“, „großartig“, „wenn“, „ich“, „jemanden“, „finden“, „könnte“, „der“, „könnte“ oder „helfen“. Durch Herausfiltern dieser Begriffe kann die NLP-Komponente 112 die Auslöserschlüsselwörter genauer und zuverlässiger identifizieren, beispielsweise „zum Flughafen kommen“ und bestimmen, dass es sich hierbei um eine Anfrage nach einem Taxi oder einem Fahrgemeinschaftsdienst handelt.
  • In einigen Fällen kann die NLP-Komponente bestimmen, dass die Datenpakete, die das Eingabeaudiosignal übertragen, eine oder mehrere Anfragen beinhalten. Beispielsweise kann das Eingabeaudiosignal den Satz „Ich brauche jemanden, um meine Wäsche zu waschen und meine Trockenreinigung durchzuführen“, beinhalten. Die NLP-Komponente 112 kann bestimmen, dass dies eine Anfrage nach Waschen der Wäsche und Durchführen der Trockenreinigung ist. Die NLP-Komponente 112 kann bestimmen, dass es sich hierbei um eine einzelne Anfrage nach einem Dienstleister handelt, die Waschen der Wäsche und Durchführen der Trockenreinigung bereitstellen kann. Die NLP-Komponente 112 kann feststellen, dass es sich um zwei Anfragen handelt: eine erste Anfrage an einen Dienstleister, der Wäschereidienstleistungen erbringt, und eine zweite Anfrage an einen Dienstleister, der Trockenreinigungsdienstleistungen erbringt. In einigen Fällen kann die NLP-Komponente 112 die mehreren bestimmten Anfragen in einer einzelnen Anfrage kombinieren und die einzelne Anfrage an das Dienstanbietergerät 108 übertragen. In einigen Fällen kann die NLP-Komponente 112 die individuellen Anfragen an jeweilige Dienstanbietergeräte 108 übertragen oder beide Anfragen separat an das gleiche Dienstanbietergerät 108 übertragen.
  • Das Datenverarbeitungssystem 102 kann eine Direktaktions-API 116 beinhalten, die dazu konzipiert und aufgebaut ist, basierend auf dem Auslöserschlüsselwort eine Aktionsdatenstruktur in Reaktion auf die Anfrage zu generieren. Prozessoren des Datenverarbeitungssystems 102 können die Direktaktions-API 116 aufrufen, um Scripts auszuführen, die eine Datenstruktur für ein Dienstanbietergerät 108 generieren, um einen Dienst oder ein Produkt, wie beispielsweise ein Auto von einem Fahrgemeinschaftsdienst, anzufordern oder zu bestellen. Die Direktaktions-API 116 kann Daten von dem Datenbehälter 124 sowie Daten empfangen, die mit Zustimmung des Endbenutzers von dem Client-Computergerät 104 empfangen werden, um Ort, Zeit, Benutzerkonten, logistische oder andere Informationen zu bestimmen, um dem Dienstanbietergerät 108 zu ermöglichen, einen Vorgang, wie z. B. ein Auto aus dem Fahrgemeinschaftsdienst zu reservieren, auszuführen. Unter Verwendung der Direktaktions-API 116 kann das Datenverarbeitungssystem 102 auch mit dem Dienstanbietergerät 108 kommunizieren, um die Umwandlung abzuschließen, indem es in diesem Beispiel die Reservierung für die Abholung für die Fahrgemeinschaft vornimmt.
  • Die Direktaktions-API 116 kann eine bestimmte Aktion ausführen, um die von dem Datenverarbeitungssystem 102 bestimmte Absicht des Endbenutzers zu erfüllen. In Abhängigkeit von der Aktion, die in deren Eingaben spezifiziert ist, kann die Direktaktions-API 116 einen Code oder ein Dialogscript ausführen, das die Parameter identifiziert, die erforderlich sind, um eine Benutzeranfrage zu erfüllen. Ein solcher Code kann zusätzliche Informationen, z. B. in dem Datenbehälter 124, nachschlagen, wie z. B. den Namen eines Hausautomatisierungsdienstes, oder kann Audioeingaben zum Wiedergeben auf dem Client-Computergerät 104 bereitstellen, um dem Endbenutzer Fragen, wie z. B. nach dem beabsichtigten Ziel eines angeforderten Taxis, zu stellen. Die Direktaktions-API 116 kann die notwendigen Parameter bestimmen und die Informationen in eine Aktionsdatenstruktur packen, die dann an eine andere Komponente, wie z. B. die Inhaltsauswahlkomponente 118 oder an das zu erfüllende Dienstanbietercomputergerät 108, gesendet werden kann.
  • Die Direktaktions-API 116 kann eine Anweisung oder einen Befehl von der NLP-Komponente 112 oder einer anderen Komponente des Datenverarbeitungssystems 102 empfangen, um die Aktionsdatenstruktur zu generieren oder zu konstruieren. Die Direktaktions-API 116 kann eine Art von Aktion bestimmen, um eine Vorlage aus dem Vorlagenbehälter 132 auszuwählen, das in dem Datenbehälter 124 gespeichert ist. Arten von Aktionen können z. B. Dienste, Produkte, Reservierungen oder Tickets beinhalten. Arten von Aktionen können ferner Arten von Diensten oder Produkten beinhalten. Beispielsweise können Arten von Diensten einen Fahrgemeinschaftsdienst, einen Lebensmittellieferdienst, einen Wäschedienst, einen Zimmerreinigungsdienst, Reparaturdienste oder Haushaltsdienste beinhalten. Arten von Produkten können beispielsweise Kleidung, Schuhe, Spielzeug, Elektronik, Computer, Bücher oder Schmuck beinhalten. Arten von Reservierungen können beispielsweise Reservierungen für Restaurants oder Friseurtermine beinhalten. Arten von Tickets können beispielsweise Kinokarten, Eintrittskarten für Sportveranstaltungen oder Flugtickets beinhalten. In einigen Fällen können die Arten von Diensten, Produkten, Reservierungen oder Tickets basierend auf Preis, Standort, Versandart, Verfügbarkeit oder anderen Attributen kategorisiert werden.
  • Die Direktaktions-API 116 kann nach dem Identifizieren der Art von Anfrage auf die entsprechende Vorlage von einem Vorlagenbehälter 132 zugreifen. Vorlagen können Felder in einem strukturierten Datensatz beinhalten, die von der Direktaktions-API 116 befüllt werden können, um den Vorgang, der von dem Dienstanbietergerät 108 angefordert wird (wie z. B. das Senden eines Taxis, um einen Endbenutzer an einem Abholort abzuholen und den Endbenutzer zu einem Zielort zu transportieren), zu unterstützen. Die Direktaktions-API 116 kann einen Nachschlagevorgang in dem Vorlagenbehälter 132 ausführen, um die Vorlage auszuwählen, die mit einem oder mehreren Merkmalen des Auslöserschlüsselwortes und der Anfrage übereinstimmt. Wenn beispielsweise die Anfrage einer Anfrage nach einem Auto oder einer Anfahrt zu einem Zielstandort entspricht, kann das Datenverarbeitungssystem 102 eine Fahrgemeinschaftsdienstvorlage auswählen. Die Fahrgemeinschaftsdienstvorlage kann ein oder mehrere der folgenden Felder beinhalten: Geräte-ID, Abholstandort, Zielstandort, Anzahl der Passagiere oder Art des Dienstes. Die Direktaktions-API 116 kann die Felder mit Werten befüllen. Um die Felder mit Werten zu füllen, kann die Direktaktions-API 116 zum Erhalten von Informationen von einem oder mehreren Sensoren 134 des Computergeräts 104 oder einer Benutzerschnittstelle des Computergeräts 104 diese pingen, abfragen oder anderweitig erhalten. Beispielsweise kann die Direktaktions-API 116 den Quellstandort unter Verwendung eines Standortsensors, wie z. B. eines GPS-Sensors, erkennen. Die Direktaktions-API 116 kann weitere Informationen erhalten, indem sie eine Umfrage, Aufforderung oder Abfrage an das Ende des Benutzers des Computergeräts 104 sendet. Die Direktaktions-API kann die Umfrage, Aufforderung oder Anfrage über die Schnittstelle 110 des Datenverarbeitungssystems 102 und eine Benutzerschnittstelle des Computergeräts 104 (z. B. Audioschnittstelle, sprachbasierte Benutzerschnittstelle, Anzeige oder Touchscreen) einsenden. Somit kann die Direktaktions-API 116 eine Vorlage für die Aktionsdatenstruktur basierend auf dem Auslöserschlüsselwort oder der Anfrage auswählen, ein oder mehrere Felder in der Vorlage mit Informationen befüllen, die von einem oder mehreren Sensoren 134 erkannt, oder über eine Benutzerschnittstelle erhalten werden, und die Aktionsdatenstruktur generieren, erzeugen oder anderweitig konstruieren, um die Ausführung eines Vorgangs durch das Inhaltsanbietergerät 108 zu erleichtern.
  • Das Datenverarbeitungssystem 102 kann die Vorlage basierend auf der Vorlagendatenstruktur 132 basierend auf verschiedenen Faktoren, einschließlich z. B. einem oder mehreren von dem Auslöserschlüsselwort, der Anfrage, des Drittanbietergeräts 108, der Art des Drittanbietergeräts 108, einer Kategorie, in die das Drittanbietergerät 108 fällt (z. B. Taxidienst, Wäschedienst, Blumendienst, Einzelhandelsdienst oder Lieferung von Lebensmitteln), Standort- oder anderen Sensorinformationen, auswählen.
  • Um die Vorlage basierend auf dem Auslöserschlüsselwort auszuwählen, kann das Datenverarbeitungssystem 102 (z. B. über die Direktaktions-API 116) einen Nachschlage- oder anderen Anfragevorgang an der Vorlagendatenbank 132 unter Verwendung des Auslöserschlüsselwortes ausführen, um eine Vorlagendatenstruktur zu identifizieren oder entspricht dem Auslöserschlüsselwort anderweitig. Beispielsweise kann jede Vorlage in der Vorlagendatenbank 132 mit einem oder mehreren Auslöserschlüsselwörtern verknüpft sein, um anzugeben, dass die Vorlage zum Generieren einer Aktionsdatenstruktur in Reaktion auf das Auslöserschlüsselwort konfiguriert ist, das das Drittanbietergerät 108 zum Einrichten einer Kommunikationssitzung verarbeiten kann.
  • In einigen Fällen kann das Datenverarbeitungssystem 102 ein Drittanbietergerät 108 basierend auf dem Auslöserschlüsselwort identifizieren. Um den Drittanbieter 108 basierend auf dem Auslöserschlüsselwort zu identifizieren, kann das Datenverarbeitungssystem 102 ein Nachschlagen in dem Datenbehälter 124 durchführen, um ein Drittanbietergerät 108 zu identifizieren, das dem Auslöserschlüsselwort zugeordnet ist. Wenn beispielsweise das Auslöserschlüsselwort „Fahren“ oder „Gehen“ beinhaltet, kann das Datenverarbeitungssystem 102 (z. B. über die Direktaktions-API 116) das Drittanbietergerät 108 entsprechend Taxidienstunternehmen A identifizieren. Das Datenverarbeitungssystem 102 kann die Vorlage aus der Vorlagendatenbank 132 unter Verwendung des identifizierten Drittanbietergeräts 108 auswählen. Beispielsweise kann die Vorlagendatenbank 132 ein Zuordnen oder eine Korrelation zwischen Drittanbietergeräten 108 oder Entitäten zu Vorlagen beinhalten, die so konfiguriert sind, dass sie eine Aktionsdatenstruktur erzeugen, die auf das Auslöserschlüsselwort reagiert, das das Drittanbietergerät 108 verarbeiten kann, um eine Kommunikationssitzung herzustellen. In einigen Fällen kann die Vorlage für das Drittanbietergerät 108 oder für eine Kategorie von Drittanbietergeräten 108 individuell angepasst werden. Das Datenverarbeitungssystem 102 kann basierend auf der Vorlage für den Drittanbieter 108 die Aktionsdatenstruktur generieren.
  • Um die Aktionsdatenstruktur zu konstruieren oder zu generieren, kann das Datenverarbeitungssystem 102 ein oder mehrere Felder in der ausgewählten Vorlage identifizieren, um sie mit Werten zu füllen. Die Felder können mit numerischen Werten, Zeichenfolgen, Unicode-Werten, Boolescher Logik, Binärwerten, Hexadezimalwerten, Kennungen, Standortkoordinaten, geografischen Bereichen, Zeitstempeln oder anderen Werten gefüllt werden. Die Felder oder die Datenstruktur selbst können zur Aufrechterhaltung der Datensicherheit verschlüsselt oder maskiert sein.
  • Nach dem Bestimmen der Felder in der Vorlage kann das Datenverarbeitungssystem 102 die Werte für die Felder identifizieren, um die Felder der Vorlage zu füllen, um die Aktionsdatenstruktur zu erzeugen. Das Datenverarbeitungssystem 102 kann die Werte für die Felder erhalten, abrufen, bestimmen oder auf andere Weise identifizieren, indem eine Suche oder ein anderer Anfragevorgang an dem Datenbehälter 124 durchgeführt wird.
  • In einigen Fällen kann das Datenverarbeitungssystem 102 bestimmen, dass die Informationen oder Werte für die Felder in dem Datenbehälter 124 fehlen. Das Datenverarbeitungssystem 102 kann bestimmen, dass die in dem Datenbehälter 124 gespeicherten Informationen oder Werte, veraltet, schlecht oder auf andere Weise nicht geeignet sind, um die Aktionsdatenstruktur in Reaktion auf das Auslöserschlüsselwort und die Anfrage zu konstruieren, die durch die NLP-Komponente 112 identifiziert werden (z. B. ist der Standort des Client-Computergeräts 104 ggf. der alte Standort und nicht der aktuelle Standort; ein Konto kann abgelaufen sein; das Zielrestaurant kann an einen neuen Standort umgezogen sein; Informationen über physische Aktivität; oder Transportmittel).
  • Wenn das Datenverarbeitungssystem 102 bestimmt, dass es in dem Arbeitsspeicher des Datenverarbeitungssystems 102 derzeit keinen Zugriff auf die Werte oder Informationen für das Feld der Vorlage hat, kann das Datenverarbeitungssystem 102 die Werte oder Informationen erfassen. Das Datenverarbeitungssystem 102 kann die Information erfassen oder erhalten, indem es einen oder mehrere verfügbare Sensoren des Client-Computergeräts 104 abfragt oder pollt, den Endbenutzer des Client-Computergeräts 104 nach den Informationen fragt oder auf eine Online-Web-basierte Ressource unter Verwendung eines HTTP-Protokolls zugreift. Beispielsweise kann das Datenverarbeitungssystem 102 bestimmen, dass es sich nicht am aktuellen Standort des Client-Computergeräts 104 befindet, welcher ggf. ein benötigtes Feld der Vorlage ist. Das Datenverarbeitungssystem 102 kann das Client-Computergerät 104 nach Standortinformationen abfragen. Das Datenverarbeitungssystem 102 kann das Client-Computergerät 104 auffordern, die Standortinformation unter Verwendung eines oder mehrerer Ortungssensoren 134, wie z. B. eines globalen Positionsbestimmungssystem-Sensors, WLAN-Triangulation, Mobilfunkmast-Triangulation, Bluetooth-Funkbaken, IP-Adresse oder einer anderen Standorterfassungstechnik bereitzustellen.
  • Die Direktaktions-API 116 kann die Aktionsdatenstruktur an ein Drittanbietergerät (z. B. Dienstanbietergerät 108) übertragen, um das Drittanbietergerät 108 dazu zu veranlassen, eine Konversations-Anwendungsprogrammierschnittstelle (z. B. Dienstanbieter-NLP-Komponente 142) aufzurufen und eine Kommunikationssitzung zwischen dem Drittanbietergerät 108 und dem Clientgerät 104 herzustellen. In Reaktion auf das Erstellen der Kommunikationssitzung zwischen dem Dienstanbietergerät 108 und dem Client-Computergerät 1004 kann das Dienstanbietergerät 108 Datenpakete direkt an das Client-Computergerät 104 über das Netzwerk 105 übertragen. In einigen Fällen kann das Drittanbietergerät 108 Datenpakete an das Client-Computergerät 104 über das Datenverarbeitungssystem 102 und das Netzwerk 105 übertragen.
  • In einigen Fällen kann das Drittanbietergerät 108 mindestens einen Abschnitt der Gesprächs-API 142 ausführen. Beispielsweise kann das Drittanbietergerät 108 bestimmte Aspekte der Kommunikationssitzung oder Arten von Anfragen behandeln. Das Drittanbietergerät 108 kann die durch das Datenverarbeitungssystem 102 ausgeführte NLP-Komponente 112 einsetzen, um das Verarbeiten der Audiosignale, die mit der Kommunikationssitzung verknüpft sind, und Generieren von Antworten auf Anfragen zu erleichtern. In einigen Fällen kann das Datenverarbeitungssystem 102 die Gesprächs-API 142 beinhalten, die für den Drittanbieter 108 konfiguriert ist. In einigen Fällen routet das Datenverarbeitungssystem Datenpakete zwischen dem Client-Computergerät und dem Drittanbietergerät, um die Kommunikationssitzung herzustellen. Das Datenverarbeitungssystem 102 kann von dem Drittanbietergerät 108 einen Hinweis empfangen, dass das Drittanbietergerät die Kommunikationssitzung mit dem Clientgerät 104 hergestellt hat. Der Hinweis kann eine Kennung des Client-Computergeräts 104, einen entsprechenden Zeitstempel, wann die Kommunikationssitzung hergestellt wurde, oder andere mit der Kommunikationssitzung verknüpfte Informationen wie die mit der Kommunikationssitzung verknüpfte Datenstruktur beinhalten.
  • In einigen Fällen kann die Gesprächs-API ein zweiter NLP sein, der eine oder mehrere Komponenten oder Funktionen des ersten NLP 112 beinhaltet. Der zweite NLP 142 kann mit dem ersten NLP 112 interagieren oder diesen einsetzen. In einigen Fällen kann das System 100 einen durch das Datenverarbeitungssystem 102 ausgeführten einzelnen NLP 112 beinhalten. Der einzelne NLP 112 kann sowohl das Datenverarbeitungssystem 102 als auch das Drittanbietergerät 108 unterstützen. In einigen Fällen generiert die Direktaktions-API 116 eine Aktionsdatenstruktur oder konstruiert diese, um das Ausführen eines Dienstes zu erleichtern, und die Gesprächs-API generiert Antworten oder Anfragen, um eine Kommunikationssitzung mit einem Endbenutzer zu unterstützen oder um zusätzliche Informationen zu erhalten, um die Erfahrung des Endbenutzers oder Leistungen des Dienstes zu verbessern oder zu fördern.
  • Das Datenverarbeitungssystem 102 kann eine Sitzungshandlerkomponente 114 beinhalten, ausführen, darauf zugreifen oder anderweitig mit derselben kommunizieren, um eine Kommunikationssitzung zwischen dem Client-Computergerät 104 und dem Datenverarbeitungssystem 102 herzustellen. Die Kommunikationssitzung kann eine oder mehrere Datenübertragungen zwischen dem Clientgerät 104 und dem Datenverarbeitungssystem 102 bezeichnen, was das Eingabeaudiosignal beinhaltet, das durch einen Sensor 134 des Clientgeräts 104 detektiert wird, und dass das Ausgabesignal durch das Datenverarbeitungssystem 102 an das Clientgerät 104 übertragen wird. Das Datenverarbeitungssystem 102 (z. B. über die Sitzungshandlerkomponente 114) kann die Kommunikationssitzung in Reaktion auf den Empfang des Eingabeaudiosignals einrichten. Das Datenverarbeitungssystem 102 kann eine Dauer für die Kommunikationssitzung einstellen. Das Datenverarbeitungssystem 102 kann einen Zeitgeber oder einen Zähler für die für die Kommunikationssitzung eingestellte Dauer einstellen. In Reaktion auf den Ablauf des Zeitgebers kann das Datenverarbeitungssystem 102 die Kommunikationssitzung beenden.
  • Die Kommunikationssitzung kann eine netzwerkbasierte Kommunikationssitzung bezeichnen, in der das Clientgerät 104 authentifizierende Information oder Anmeldedaten bereitstellt, um die Sitzung herzustellen. In einigen Fällen bezeichnet die Kommunikationssitzung ein Thema oder einen Kontext von Audiosignalen, die durch Datenpakete während der Sitzung übertragen werden. Eine erste Kommunikationssitzung kann beispielsweise Audiosignale bezeichnen, die zwischen dem Clientgerät 104 und dem Datenverarbeitungssystem 102 übertragen werden, die sich auf ein Rezept beziehen (z. B. Schlüsselwörter, Aktionsdatenstrukturen oder Inhaltselementobjekte beinhalten); während eine zweite Kommunikationssitzung Audiosignale bezeichnen kann, die zwischen dem Clientgerät 104 und dem Datenverarbeitungssystem 102 übertragen werden, die sich auf einen Dienst für Wäsche- und Trockenreinigung beziehen. Bei diesem Beispiel kann das Datenverarbeitungssystem 102 bestimmen, dass sich der Kontext der Audiosignale unterscheidet (z. B. über die NLP-Komponente 112) und die zwei Reihen von Audiosignalen in unterschiedliche Kommunikationssitzungen trennt. Der Sitzungshandler 114 kann die erste Sitzung, die mit dem Fahrdienst verbunden ist, in Reaktion auf das Identifizieren einer oder mehrerer mit dem Dienst für Trocken- und Wäschereinigung verknüpfter Audiosignale beenden. Daher kann das Datenverarbeitungssystem 102 die zweite Sitzung für die Audiosignale, die mit dem Dienst für Trocken- und Wäschereinigung verknüpft sind, in Reaktion auf Erkennen des Kontextes der Audiosignale initiieren oder einrichten.
  • Das Datenverarbeitungssystem 102 kann eine Inhaltsauswahlkomponente 118 beinhalten, ausführen oder anderweitig damit kommunizieren, um das Auslöserschlüsselwort zu empfangen, das durch den Prozessor für natürliche Sprache identifiziert wird, und basierend auf dem Auslöserschlüsselwort ein Inhaltselement über einen Echtzeit-Inhaltsauswahlprozess auswählen. Der Inhaltsauswahlprozess kann auf das Auswählen finanzierter Inhaltselementobjekte, die durch dritte Inhaltsanbieter 106 bereitgestellt werden, verweisen oder diese beinhalten. Der Echtzeit-Inhaltsauswahlprozess kann einen Dienst beinhalten, bei dem durch mehrere Inhaltsanbieter bereitgestellte Inhaltselemente geparst, verarbeitet, gewichtet oder abgeglichen werden, um ein oder mehrere an das Computergerät 104 bereitzustellende Inhaltselemente auszuwählen. Die Inhaltsauswahlkomponente 118 kann den Inhaltsauswahlprozess in Echtzeit ausführen. Das Ausführen des Inhaltsauswahlprozesses in Echtzeit kann das Ausführen des Inhaltsauswahlprozesses in Reaktion auf die Inhaltsanfrage, der über das Client-Computergerät 104 empfangen wurde, bezeichnen. Der Echtzeit-Inhaltsauswahlprozess kann innerhalb eines Zeitintervalls ausgeführt (z. B. initiiert oder abgeschlossen) werden, in dem die Anfrage (z. B. 5 Sekunden, 10 Sekunden, 20 Sekunden, 30 Sekunden, 1 Minute, 2 Minuten, 3 Minuten, 5 Minuten, 10 Minuten oder 20 Minuten) empfangen wird. Der Echtzeit-Inhaltsauswahlprozess kann während einer Kommunikationssitzung mit dem Client-Computergerät 104 oder innerhalb eines Zeitintervalls, nachdem die Kommunikationssitzung beendet wurde, ausgeführt werden.
  • Das Datenverarbeitungssystem 102 kann beispielsweise eine Inhaltsauswahlkomponente 118 beinhalten, die konzipiert, aufgebaut, konfiguriert oder betriebsfähig ist, Inhaltselementobjekte auszuwählen. Zur Auswahl von Inhaltselementen zur Anzeige in einer sprachbasierten Umgebung kann das Datenverarbeitungssystem 102 (z. B. über eine NLP-Komponente 112) das Eingabeaudiosignal parsen, um Schlüsselwörter (z. B. ein Auslöserschlüsselwort) zu identifizieren, und die Schlüsselwörter verwenden, um auf Basis einer allgemeinen Übereinstimmung, genauen Übereinstimmung oder Phrasenübereinstimmung ein passendes Inhaltselement auszuwählen. Beispielsweise kann die Inhaltsauswahlkomponente 118 Themen von Kandidateninhaltselement analysieren, parsen oder anderweitig verarbeiten, um zu bestimmen, ob das Thema der Kandidateninhaltselemente mit dem Thema der Schlüsselwörter oder Phrasen des durch das Mikrofon des Client-Computergeräts 104 erkannten Eingabeaudiosignals übereinstimmt. Die Inhaltsauswahlkomponente 118 kann Sprache, Audio, Begriffe, Zeichen, Text, Symbole oder Bilder der Kandidateninhaltselemente unter Verwendung einer Bildverarbeitungstechnik, Zeichenerkennungstechnik, Verarbeitungstechnik für natürliche Sprache oder unter Verwendung von Datenbanknachschlagevorgängen identifizieren, analysieren oder erkennen. Die Kandidateninhaltselemente können auf den Gegenstand der Kandidateninhaltselemente hinweisende Metadaten beinhalten, wobei in diesem Fall die Inhaltsauswahlkomponente 118 die Metadaten verarbeiten kann, um zu bestimmen, ob der Gegenstand des Kandidateninhaltselements dem Eingabeaudiosignal entspricht.
  • Inhaltsanbieter 106 können bei der Einrichtung einer Inhaltskampagne, die Inhaltselemente beinhaltet, zusätzliche Indikatoren bereitstellen. Der Inhaltsanbieter 106 kann Informationen auf jener Inhaltskampagnen- oder Inhaltsgruppenebene bereitstellen, die die Inhaltsauswahlkomponente 118 möglicherweise ermittelt, indem sie unter Verwendung von Informationen über den Kandidateninhaltselemente einen Nachschlagevorgang ausführt. Das Kandidateninhaltselement kann zum Beispiel eine eindeutige Kennung beinhalten, die einer Inhaltsgruppe, einer Inhaltskampagne oder einem Inhaltsanbieter zugeordnet sein kann. Die Inhaltsauswahlkomponente 118 kann auf Basis der in der Datenstruktur der Inhaltskampagne in Datenbehälter 124 gespeicherten Daten Informationen über den Inhaltsanbieter 106 ermitteln.
  • Das Datenverarbeitungssystem 102 kann über ein Computernetzwerk eine Anfrage nach Inhalt empfangen, der auf einem Computergerät 104 angezeigt werden soll. Das Datenverarbeitungssystem 102 kann die Anfrage identifizieren, indem es ein Eingabeaudiosignal verarbeitet, das von einem Mikrofon des Client-Computers 104 erkannt wird. Die Anfrage kann Auswahlkriterien der Anfrage beinhalten, wie beispielsweise den Vorrichtungstyp, Standort und ein mit der Anfrage verknüpftes Schlüsselwort. Die Anfrage kann die Aktionsdatenstruktur oder Aktionsdatenstruktur beinhalten.
  • In Reaktion auf die Anfrage kann das Datenverarbeitungssystem 102 ein Inhaltselementobjekt aus dem Datenbehälter 124 oder einer mit dem Inhaltsanbietercomputergerät 106 verknüpften Datenbank auswählen und das Inhaltselement zum Präsentieren über das Computergerät 104 über das Netzwerk 105 bereitstellen. Das Inhaltselementobjekt kann durch ein Inhaltsanbietergerät 108, das sich von dem Dienstanbietergerät 108 unterscheidet, bereitgestellt werden. Das Inhaltselement kann einer Art von Dienstleistung entsprechen, die sich von einer Art von Dienstleistung der Aktionsdatenstruktur unterscheidet (z. B. Taxidienst gegenüber Speisenlieferdienst). Das Computergerät 104 kann mit dem Inhaltselementobjekt interagieren. Das Computergerät 104 kann eine Audioantwort bezüglich des Inhaltselements empfangen. Das Computergerät 104 kann einen Hinweis empfangen, um einen Hyperlink oder eine andere Schaltfläche zu wählen, die mit dem Inhaltselementobjekt verknüpft ist, das das Computergerät 104 veranlasst oder ermöglicht, den Dienstanbieter 108 zu identifizieren, eine Dienstleistung von dem Dienstanbieter 108 anzufordern, den Dienstanbieter 108 anzuweisen, eine Dienstleistung auszuführen, Informationen an den Dienstanbieter 108 zu übertragen oder das Dienstanbietergerät 108 anderweitig abzufragen.
  • Das Datenverarbeitungssystem 102 kann eine Audiosignalgeneratorkomponente 122 beinhalten, ausführen oder mit dieser kommunizieren, um ein Ausgabesignal zu generieren. Das Ausgabesignal kann einen oder mehrere Abschnitte beinhalten. Beispielsweise kann das Ausgabesignal einen ersten Abschnitt und einen zweiten Abschnitt beinhalten. Der erste Abschnitt des Ausgabesignals kann der Aktionsdatenstruktur entsprechen. Der zweite Abschnitt des Ausgabesignals kann dem Inhaltselement entsprechen, das von der Inhaltsauswahlkomponente 118 während des Echtzeit-Inhaltsauswahlprozesses ausgewählt wurde.
  • Die Audiosignalgeneratorkomponente 122 kann das Ausgabesignal mit einem ersten Abschnitt generieren, der einen Klang entsprechend der ersten Datenstruktur aufweist. Beispielsweise kann die Audiosignalgeneratorkomponente 122 den ersten Teil des Ausgabesignals basierend auf einem oder mehreren Werten erzeugen, die durch die Direktaktions-API 116 in die Felder der Aktionsdatenstruktur eingetragen werden. In einem Taxidienstbeispiel können die Werte für die Felder beispielsweise 123 Main Street für den Abholstandort, 1234 Main Street für den Zielstandort, 2 für die Anzahl der Passagiere und Economy für das Dienstleistungsniveau beinhalten. Die Audiosignalgeneratorkomponente 122 kann den ersten Abschnitt des Ausgabesignals generieren, um zu bestätigen, dass der Endbenutzer des Computergeräts 104 mit dem Übertragen der Anfrage an den Dienstanbieter 108 fortfahren möchte. Der erste Abschnitt kann folgende Ausgabe beinhalten: „Möchten Sie ein Economy-Auto bei dem Taxidienst A bestellen, um zwei Personen an der 123 Main Street abzuholen und an der 1234 Main Street abzusetzen?“
  • In manchen Fällen kann der erste Abschnitt Informationen beinhalten, die von dem Dienstanbietergerät 108 empfangen wurden. Die Informationen, die von dem Dienstanbietergerät 108 empfangen werden, können an die Aktionsdatenstruktur individuell angepasst oder zugeschnitten werden. Beispielsweise kann das Datenverarbeitungssystem 102 (z. B. über die Direktaktions-API 116) die Aktionsdatenstruktur an den Dienstanbieter 108 übertragen, bevor es den Dienstanbieter 108 mit dem Ausführen des Vorgangs beauftragt. Stattdessen kann das Datenverarbeitungssystem 102 das Dienstanbietergerät 108 anweisen, eine Erst- oder Vorverarbeitung der Aktionsdatenstruktur auszuführen, um vorläufige Informationen über den Vorgang zu generieren. In dem Beispiel des Taxidienstes kann die Vorverarbeitung der Aktionsdatenstruktur die Identifizierung verfügbarer Taxis, die dem Dienstleistungsniveau entsprechen, das sich um den Abholort herum befindet, die Schätzung einer Zeitspanne für das nächstgelegene verfügbare Taxi, um den Abholort zu erreichen, Schätzen einer Ankunftszeit am Zielort und Schätzen eines Preises für den Taxidienst beinhalten. Die geschätzten vorläufigen Werte können einen festen Wert, eine Schätzung, die aufgrund verschiedener Bedingungen geändert werden kann, oder eine Reihe von Werten beinhalten. Das Dienstanbietergerät 108 kann die vorläufigen Informationen über das Netzwerk 104 an das Datenverarbeitungssystem 102 oder direkt an das Client-Computergerät 104 zurückgeben. Das Datenverarbeitungssystem 102 kann die vorläufigen Ergebnisse des Dienstanbietergeräts 108 in das Ausgabesignal einfließen lassen und das Ausgabesignal an das Computergerät 104 übertragen. Das Ausgabesignal kann z. B. lauten: „Taxidienst A kann Sie in 10 Minuten an der 123 Main Street abholen und an der 1234 Main Street um 9 Uhr morgens für 10 Dollar absetzen. Möchten Sie diese Strecke bestellen?“ Dies kann den ersten Abschnitt des Ausgabesignals ausbilden.
  • In einigen Fällen kann das Datenverarbeitungssystem 102 einen zweiten Teil des Ausgabesignals ausbilden. Der zweite Abschnitt des Ausgabesignals kann ein Inhaltselement beinhalten, das von der Inhaltsauswahlkomponente 118 während eines Echtzeit-Inhaltsauswahlprozesses ausgewählt wurde. Der erste Abschnitt kann sich von dem zweiten Abschnitt unterscheiden. Beispielsweise kann der erste Abschnitt Informationen beinhalten, die der Aktionsdatenstruktur entsprechen, die direkt auf die Datenpakete reagieren, die das Eingabeaudiosignal tragen, das von dem Sensor 134 des Client-Computergeräts 104 erkannt wird, während der zweite Abschnitt ein Inhaltselement beinhalten kann, das von einer Inhaltsauswahlkomponente 104 ausgewählt wurde, die tangenzial relevant für die Aktionsdatenstruktur sein kann, oder gesponserten Inhalt beinhalten, der von einem Inhaltsanbietergerät 106 bereitgestellt wird. Beispielsweise kann der Endbenutzer des Computergeräts 104 bei Taxidienstunternehmen A ein Taxi anfordern. Das Datenverarbeitungssystem 102 kann den ersten Abschnitt des Ausgabesignals mit Informationen über das Taxi von dem Taxidienstunternehmen A generieren. Das Datenverarbeitungssystem 102 kann jedoch den zweiten Abschnitt des Ausgabesignals generieren, indem es ein Inhaltselement beinhaltet, das anhand der Schlüsselwörter „Taxidienst“ und Informationen aus der Aktionsdatenstruktur ausgewählt wird, die für den Endbenutzer von Interesse sein könnten. Beispielsweise kann der zweite Abschnitt ein Inhaltselement oder Informationen beinhalten, die von einem anderen Taxidienstunternehmen, wie z. B. Taxidienstunternehmen B, bereitgestellt werden. Auch wenn der Benutzer nicht ausdrücklich das Taxidienstunternehmen B angefordert hat, kann das Datenverarbeitungssystem 102 dennoch einen Inhalt von Taxidienstunternehmen B bereitstellen, da der Benutzer sich für einen Vorgang mit dem Taxidienstunternehmen B entscheiden kann.
  • Das Datenverarbeitungssystem 102 kann Informationen aus der Aktionsdatenstruktur an das Taxidienstunternehmen B übermitteln, um eine Abholzeit, Ankunftszeit am Zielort und einen Preis für die Strecke zu bestimmen. Das Datenverarbeitungssystem 102 kann diese Informationen empfangen und den zweiten Abschnitt des Ausgabesignals wie folgt generieren: „Taxidienstunternehmen B kann Sie in 2 Minuten an der 123 Main Street abholen und an der 1234 Main Street um 8:52 Uhr morgens für 15 Dollar absetzen. Sind Sie stattdessen an dieser Strecke interessiert?“ Der Endbenutzer des Computergeräts 104 kann dann die Strecke, die von Taxidienstunternehmen A oder die Strecke, die von Taxidienstunternehmen B angeboten wird, auswählen.
  • Bevor das Datenverarbeitungssystem 102 in dem zweiten Teil des Ausgangssignals das gesponserte Inhaltselement bereitstellt, das dem Dienst von Taxidienstunternehmen B entspricht, kann es dem Endbenutzercomputergerät mitteilen, dass der zweite Teil einem Inhaltsobjekt entspricht, das während eines Echtzeit-Inhaltsauswahlprozesses (z. B. durch die Inhaltsauswahlkomponente 118) ausgewählt wurde. Allerdings kann das Datenverarbeitungssystem 102 begrenzten Zugriff auf verschiedene Arten von Schnittstellen haben, um die Benachrichtigung des Endbenutzers des Datenverarbeitungsgeräts 104 zu ermöglichen. Beispielsweise kann das Computergerät 104 kein Anzeigegerät beinhalten, oder das Anzeigegerät kann deaktiviert oder ausgeschaltet sein. Das Anzeigegerät des Computergeräts 104 verbraucht möglicherweise mehr Ressourcen als der Lautsprecher des Computergeräts 104, sodass es weniger effizient sein kann, das Anzeigegerät des Computergeräts 104 einzuschalten, als wenn der Lautsprecher des Computergeräts 104 zur Übermittlung der Benachrichtigung verwendet wird. So kann das Datenverarbeitungssystem 102 in einigen Fällen die Effizienz und Effektivität der Informationsübertragung über eine oder mehrere Schnittstellen oder eine oder mehrere Arten von Computernetzwerken verbessern. Beispielsweise kann das Datenverarbeitungssystem 102 (z. B. über die Komponente 122 des Audiosignalgenerators) den Abschnitt des Ausgabeaudiosignals, der das Inhaltselement beinhaltet, so modulieren, dass der Endbenutzer die Anzeige oder Benachrichtigung erhält, dass dieser Abschnitt des Ausgabesignals das gesponserte Inhaltselement umfasst.
  • Das Datenverarbeitungssystem 102 (z. B. über Schnittstelle 110 und Netzwerk 105) kann Datenpakete übertragen, die das von der Audiosignalgeneratorkomponente 122 generierte Ausgabesignal umfassen. Das Ausgabesignal kann die Audiotreiberkomponente 138 des, bzw. die durch das Computergerät 104 ausgeführt wird, veranlassen, einen Lautsprecher (z. B. Wandler 136) des Client-Computergeräts 104 anzusteuern, um eine dem Ausgabesignal entsprechende akustische Welle zu erzeugen.
  • 2 ist eine Veranschaulichung des Systems 100 zum Routen von paketierten Aktionen über ein Computernetzwerk. Das System kann eine oder mehrere Komponenten des in 1 dargestellten Systems 100 beinhalten. Bei 205 kann das Client-Computergerät 104 Datenpakete mit dem Eingabeaudiosignal übertragen, das von einem Mikrofon oder einem anderen Sensor des Computergeräts 104 erkannt wird. Das Client-Computergerät 104 kann das Eingabeaudiosignal an das Datenverarbeitungssystem 102 übertragen. Das Datenverarbeitungssystem 102 kann das Eingabeaudiosignal parsen, um ein Schlüsselwort, eine Anfrage oder andere Informationen zu identifizieren, um eine Aktionsdatenstruktur zu generieren, die auf die Anfrage reagiert.
  • Bei ACT 210 kann das Datenverarbeitungssystem 102 die Aktionsdatenstruktur an das Dienstanbietergerät 108 (oder Drittanbietergerät 108) übertragen. Das Datenverarbeitungssystem 102 kann die Aktionsdatenstruktur über ein Netzwerk übertragen. Das Dienstanbietergerät 108 kann eine Schnittstelle beinhalten, die so konfiguriert ist, dass sie die vom Datenverarbeitungssystem 102 übertragene Aktionsdatenstruktur empfängt und verarbeitet.
  • Das Dienstanbietergerät 108 kann (z. B. über eine Konversations-API) auf die Aktionsdatenstruktur bei ACT 215 reagieren. Die Antwort des Dienstanbietergeräts 108 kann einen Hinweis auf eine auszuführende Dienstleistung entsprechend der Aktionsdatenstruktur beinhalten. Die Antwort kann eine Bestätigung beinhalten, mit der Durchführung des Vorgangs fortzufahren. Die Antwort kann eine Anfrage nach weiteren Informationen beinhalten, um den Vorgang entsprechend der Aktionsdatenstruktur auszuführen. Beispielsweise kann die Aktionsdatenstruktur für eine Strecke sein, und der Dienstanbieter 108 kann mit einer Anfrage nach weiteren Informationen, wie z. B. eine Anzahl von Fahrgästen für die Strecke, ein von dem Fahrgast gewünschter Wagentyp, gewünschte Annehmlichkeiten im Auto oder bevorzugter Abholort, antworten. Die Anfrage von Zusatzinformationen kann Informationen beinhalten, die möglicherweise nicht in der Aktionsdatenstruktur vorhanden sind. Beispielsweise kann die Aktionsdatenstruktur Basisinformationen zum Ausführen des Vorgangs enthalten, wie z. B. den Abholort, den Zielort und die Anzahl der Fahrgäste. Die Basisinformationen können die Standarddatensätze sein, die von einer Vielzahl von Dienstanbietern 108 innerhalb der Taxidienstkategorie verwendet werden. Ein bestimmter Taxidienstanbieter 108 kann sich jedoch dafür entscheiden, den Betrieb anzupassen und zu verbessern, indem er zusätzliche Informationen oder Präferenzen von dem Client-Computergerät 104 anfordert.
  • Das Dienstanbietergerät 108 kann ein oder mehrere Datenpakete mit der Antwort an das Datenverarbeitungssystem 102 bei ACT 215 übertragen. Das Datenverarbeitungssystem 102 kann die Datenpakete parsen und eine Quelle der Datenpakete und ein Ziel für die Datenpakete identifizieren. Bei ACT 220 kann das Datenverarbeitungssystem 102 die Datenpakete entsprechend weiterleiten bzw. an das Client-Computergerät 104 weiterleiten. Das Datenverarbeitungssystem 102 kann die Datenpakete über das Netzwerk 105 routen oder weiterleiten.
  • Bei ACT 225 kann das Client-Computergerät 220 basierend auf der weitergeleiteten Antwort eine Anweisung oder einen Befehl an das Datenverarbeitungssystem 102 übertragen. Beispielsweise kann die Antwort, die an 225 weitergeleitet wird, eine Anfrage für eine Anzahl von Passagieren und eine Bestätigung zum Fortfahren mit der Planung der Taxifahrt sein. Die Anweisung bei 225 kann die Anzahl von Fahrgästen und die Anweisung beinhalten, mit der Planung der Abholung fortzufahren. Das Clientgerät 104 kann ein oder mehrere Datenpakete mit der Anweisung an das Datenverarbeitungssystem 102 übertragen. Das Datenverarbeitungssystem 102 kann die Datenpakete mit den Anweisungen zu dem Dienstanbietergerät 108 bei ACT 230 routen oder weiterleiten.
  • In manchen Fällen kann das Datenverarbeitungssystem 102 die Datenpakete an ACT 220 oder ACT 230 weiterleiten (z. B. ohne Manipulation der Datenpakete). In einigen Fällen kann das Datenverarbeitungssystem 102 die Datenpakete verarbeiten, um Informationen herauszufiltern oder die Datenpakete mit Informationen kapseln, um das Verarbeiten der Datenpakete durch das Dienstanbietergerät 108 oder das Client-Computergerät 104 zu erleichtern. Beispielsweise kann das Datenverarbeitungssystem 102 die Identität des Client-Computers 104 gegenüber dem Dienstanbietergerät 108 maskieren, verstecken oder schützen. So kann das Datenverarbeitungssystem 102 Identifizierungsinformationen unter Verwendung einer Hash-Funktion verschlüsseln, sodass der Dienstanbieter 108 eine Gerätekennung oder einen Benutzernamen des Client-Computers 104 nicht direkt identifizieren kann. Das Datenverarbeitungssystem 102 kann eine Zuordnung der Proxy-Kennung, die dem Dienstanbietergerät 108 zur Verwendung während der Kommunikationssitzung bereitgestellt wird, zu der Kennung oder dem Benutzernamen des Client-Computers 104 beibehalten.
  • 3 ist eine Veranschaulichung des Systems 100 zum Routen von paketierten Aktionen über ein Computernetzwerk. Das System kann eine oder mehrere Komponenten des in 1 dargestellten Systems 100 beinhalten. Bei 305 kann das Client-Computergerät 104 Datenpakete mit dem Eingabeaudiosignal übertragen, das von einem Mikrofon oder einem anderen Sensor des Computergeräts 104 erkannt wird. Das Client-Computergerät 104 kann das Eingabeaudiosignal an das Datenverarbeitungssystem 102 übertragen. Das Datenverarbeitungssystem 102 kann das Eingabeaudiosignal parsen, um ein Schlüsselwort, eine Anfrage oder andere Informationen zu identifizieren, um eine Aktionsdatenstruktur zu generieren, die auf die Anfrage reagiert.
  • Bei ACT 310 kann das Datenverarbeitungssystem 102 die Aktionsdatenstruktur an das Dienstanbietergerät 108 (oder Drittanbietergerät 108) übertragen. Das Datenverarbeitungssystem 102 kann die Aktionsdatenstruktur über ein Netzwerk übertragen. Das Dienstanbietergerät 108 kann eine Schnittstelle beinhalten, die so konfiguriert ist, dass sie die vom Datenverarbeitungssystem 102 übertragene Aktionsdatenstruktur empfängt und verarbeitet.
  • Das Dienstanbietergerät 108 kann (z. B. über eine Konversations-API) auf die Aktionsdatenstruktur bei ACT 315 reagieren. Die Antwort des Dienstanbietergeräts 108 kann einen Hinweis auf eine auszuführende Dienstleistung entsprechend der Aktionsdatenstruktur beinhalten. Die Antwort kann eine Bestätigung beinhalten, mit der Durchführung des Vorgangs fortzufahren. Die Antwort kann eine Anfrage nach weiteren Informationen beinhalten, um den Vorgang entsprechend der Aktionsdatenstruktur auszuführen. Beispielsweise kann die Aktionsdatenstruktur für eine Strecke sein, und der Dienstanbieter 108 kann mit einer Anfrage nach weiteren Informationen, wie z. B. eine Anzahl von Fahrgästen für die Strecke, ein von dem Fahrgast gewünschter Wagentyp, gewünschte Annehmlichkeiten im Auto oder bevorzugter Abholort, antworten. Die Anfrage von Zusatzinformationen kann Informationen beinhalten, die möglicherweise nicht in der Aktionsdatenstruktur vorhanden sind. Beispielsweise kann die Aktionsdatenstruktur Basisinformationen zum Ausführen des Vorgangs enthalten, wie z. B. den Abholort, den Zielort und die Anzahl der Fahrgäste. Die Basisinformationen können die Standarddatensätze sein, die von einer Vielzahl von Dienstanbietern 108 innerhalb der Taxidienstkategorie verwendet werden. Ein bestimmter Taxidienstanbieter 108 kann sich jedoch dafür entscheiden, den Betrieb anzupassen und zu verbessern, indem er zusätzliche Informationen oder Präferenzen von dem Client-Computergerät 104 anfordert.
  • Das Dienstanbietergerät 108 kann ein oder mehrere Datenpakete mit der Antwort direkt an das Client-Computergerät 104 über ein Netzwerk 105 übertragen. Statt die Antwort beispielsweise durch das Datenverarbeitungssystem 102 zu routen, kann das Dienstanbietergerät 108 über eine Konversations-API, die durch das Dienstanbietergerät 108 ausgeführt wird, direkt auf das Client-Computergerät 104 antworten. Dies kann es dem Dienstanbieter ermöglichen, die Kommunikationssitzung individuell anzupassen.
  • Bei ACT 320 kann das Client-Computergerät 104 basierend auf der Antwort eine Anweisung oder einen Befehl an das Dienstanbietergerät 108 übertragen. Beispielsweise kann die Antwort, die an 315 bereitgestellt wird, eine Anfrage für eine Anzahl von Passagieren und eine Bestätigung zum Fortfahren mit der Planung der Taxifahrt sein. Die Anweisung bei 320 kann die Anzahl von Fahrgästen und die Anweisung beinhalten, mit der Planung der Abholung fortzufahren. Das Clientgerät 104 kann ein oder mehrere Datenpakete mit der Anweisung durch das Dienstanbietergerät 108 übertragen, anstatt die Datenpakete durch das Datenverarbeitungssystem 102 zu routen.
  • Das Datenverarbeitungssystem 102 kann es dem Dienstanbietergerät 108 und dem Client-Computergerät 104 ermöglichen, eine von dem Datenverarbeitungssystem 102 unabhängige Kommunikationssitzung herzustellen, indem es Kommunikationskennungen an die jeweiligen Geräte weiterleitet. Beispielsweise kann das Datenverarbeitungssystem 102 eine Kennung des Geräts 104 an das Gerät 108 weiterleiten, und das Datenverarbeitungssystem 102 kann eine Kennung des Geräts 108 an das Gerät 104 weiterleiten. Somit kann das Gerät 108 die Kommunikationssitzung direkt mit dem Gerät 104 herstellen.
  • In einigen Fällen kann das Gerät 108 oder Gerät 104 Informationen, wie z. B. Statusinformationen, über die Kommunikationssitzung separat an das Datenverarbeitungssystem 102 weiterleiten. Beispielsweise kann das Gerät 108 dem Datenverarbeitungssystem einen Hinweis darauf geben, dass das Gerät 108 die Kommunikationssitzung mit dem Clientgerät 104 erfolgreich hergestellt hat.
  • 4 ist eine Veranschaulichung eines exemplarischen Verfahrens zur dynamischen Modulation von paketierten Audiosignalen. Das Verfahren 400 kann von einer oder mehreren Komponenten, System oder Element von System 100 oder System 500 ausgeführt werden. Das Verfahren 400 kann ein Datenverarbeitungssystem beinhalten, das ein Eingabeaudiosignal (ACT 405) empfängt. Das Datenverarbeitungssystem kann das Eingabeaudiosignal von einem Client-Computergerät empfangen. Beispielsweise kann eine Prozessorkomponente für natürliche Sprache, die durch das Datenverarbeitungssystem ausgeführt wird, das Eingabeaudiosignal von einem Client-Computergerät über eine Schnittstelle des Datenverarbeitungssystems empfangen. Das Datenverarbeitungssystem kann Datenpakete empfangen, die das von einem Sensor des Client-Computers (oder Clientgeräts) erkannte Eingabeaudiosignal tragen oder beinhalten.
  • Bei ACT 410 kann das Verfahren 400 das Datenverarbeitungssystem beinhalten, das das Eingabeaudiosignal parst. Die Prozessorkomponente für natürliche Sprache kann das Eingabeaudiosignal parsen, um eine Anfrage, einen Inhaltsanbieter und ein Auslöserschlüsselwort entsprechend der Anfrage zu identifizieren. Beispielsweise kann das Audiosignal, das von dem Clientgerät erkannt wird, Folgendes beinhalten: „Okay Gerät, ich brauche eine Mitfahrgelegenheit von Taxidienstunternehmen A, um zur 1234 Main Street zu gelangen.“ In diesem Audiosignal kann das anfängliche Auslöserschlüsselwort „OK Gerät“ beinhalten, was dem Clientgerät angeben kann, ein Eingabeaudiosignal an das Datenverarbeitungssystem zu übertragen. Ein Vorprozessor des Clientgeräts kann die Begriffe „OK Gerät“ vor dem Senden des verbleibenden Audiosignals an das Datenverarbeitungssystem herausfiltern. In einigen Fällen kann das Clientgerät zusätzliche Begriffe herausfiltern oder Schlüsselwörter generieren, die zur weiteren Verarbeitung an das Datenverarbeitungssystem zu übertragen sind.
  • Das Datenverarbeitungssystem kann ein Auslöserschlüsselwort in dem Eingabeaudiosignal identifizieren. Das Auslöserschlüsselwort kann z. B. „gehen zu“ oder „fahren“ oder Variationen dieser Begriffe beinhalten. Das Auslöserschlüsselwort kann eine Art von Dienstleistung oder Produkt angeben. Das Datenverarbeitungssystem kann eine Anfrage in dem Eingabeaudiosignal identifizieren. Die Anfrage kann basierend auf den Begriffen „Ich brauche“ bestimmt werden. Das Auslöserschlüsselwort und die Anfrage können unter Verwendung einer semantischen Verarbeitungstechnik oder anderen Technik für die Verarbeitung natürlicher Sprache bestimmt werden.
  • Bei ACT 415 kann das Verfahren 400 auch das Datenverarbeitungssystem beinhalten, das eine Aktionsdatenstruktur generiert. Das Datenverarbeitungssystem kann die Aktionsdatenstruktur basierend auf dem Auslöserschlüsselwort, der Anfrage, dem Gerät eines Drittanbieters oder anderen Informationen generieren. Die Aktionsdatenstruktur kann in Reaktion auf die Anfrage vorhanden sein. Wenn beispielsweise der Endbenutzer des Client-Computers ein Taxi von Taxidienstunternehmen A anfordert, kann die Aktionsdatenstruktur Informationen beinhalten, um einen Taxidienst von Taxidienstunternehmen A anzufordern. Das Datenverarbeitungssystem kann eine Vorlage für Taxidienstunternehmen A auswählen und Felder in der Vorlage mit Werten füllen, die es dem Taxidienstunternehmen A ermöglichen, ein Taxi zu dem Benutzer des Client-Computergeräts zu schicken, um den Benutzer abzuholen und zum gewünschten Zielort zu transportieren.
  • Bei ACT 420 kann das Verfahren 400 beinhalten, dass das Datenverarbeitungssystem die Aktionsdatenstruktur an das Dienstanbietergerät überträgt, um das Drittanbietergerät zu veranlassen. Das Drittgerät kann die empfangene Aktionsdatenstruktur parsen oder verarbeiten und bestimmen, dass es eine Konversations-API aufruft und eine Kommunikationssitzung zwischen dem Drittanbietergerät und dem Clientgerät herstellt. Das Dienstanbietergerät 108 kann basierend auf dem Inhalt der Aktionsdatenstruktur bestimmen, ob es die Konversations-API aufrufen oder anderweitig ausführen oder verwenden soll. Beispielsweise kann das Dienstanbietergerät 108 bestimmen, dass zusätzliche Informationen das Ausführen eines Vorgangs gemäß der Aktionsdatenstruktur erleichtern können. Das Dienstanbietergerät 108 kann bestimmen, dass die Kommunikation mit dem Client-Computergerät 104 aufgrund einer fehlerhaften Ausführung des Vorgangs ein höheres Dienstleistungsniveau erreichen oder die Ressourcenauslastung verringern kann. Das Dienstanbietergerät 108 kann bestimmen, ob der Vorgang für das Client-Computergerät 104 individuell angepasst werden soll, indem es zusätzliche Informationen erhält.
  • Bei ACT 425 kann das Verfahren 400 beinhalten, dass das Datenverarbeitungssystem von dem Drittanbietergerät einen Hinweis empfängt, dass das Drittanbietergerät die Kommunikationssitzung mit dem Clientgerät hergestellt hat. Die Anzeige kann einen Zeitstempel beinhalten, der dem Zeitpunkt entspricht, zu dem die Kommunikationssitzung hergestellt wurde, eine eindeutige Kennung der Kommunikationssitzung (z. B. ein Tupel, der aus der Gerätekennung, dem Zeit- und Datumsstempel der Kommunikationssitzung und der Kennung des Dienstanbietergeräts besteht).
  • 5 zeigt ein Blockdiagramm eines exemplarischen Computersystems 500. Das Computersystem oder das Computergerät 500 kann das System 100 oder dessen Komponenten, wie z. B. das Datenverarbeitungssystem 102, beinhalten oder es kann verwendet werden, um diese zu implementieren. Das Datenverarbeitungssystem 102 kann einen intelligenten persönlichen Assistenten oder einen sprachbasierten digitalen Assistenten beinhalten. Das Computersystem 500 beinhaltet einen Bus 505 oder eine andere Kommunikationskomponente zur Übertragung von Informationen sowie einen Prozessor 510 oder eine Verarbeitungsschaltung, die mit dem Bus 505 gekoppelt sind und der Verarbeitung von Informationen dienen. Das Computersystem 500 kann außerdem einen oder mehrere Prozessoren 510 oder Verarbeitungsschaltungen beinhalten, die mit dem Bus gekoppelt sind und der Verarbeitung von Informationen dienen. Das Computersystem 500 beinhaltet ferner Hauptspeicher 515, wie z. B. Random Access Memory (RAM) oder ein anderes dynamisches Speichergerät, das mit dem Bus 505 gekoppelt ist, um Daten zu speichern, sowie Anweisungen, die vom Prozessor 510 ausgeführt werden sollen. Der Hauptspeicher 515 kann der Datenbehälter 145 sein bzw. diesen Datenbehälter beinhalten. Der Hauptspeicher 515 kann bei Ausführung von Befehlen durch den Prozessor 510 ferner zum Speichern von Positionsdaten, temporären Variablen oder anderen mittelfristigen Informationen verwendet werden. Das Computersystem 500 kann ferner einen Nur-Lese-Speicher (ROM) 520 oder ein anderes statisches Speichergerät beinhalten, das mit dem Bus 505 gekoppelt ist, um statische Informationen und Befehle für den Prozessor 510 zu speichern. Ein Speichergerät 525, wie z. B. ein Solid-State-Gerät, eine magnetische oder optische Platte, kann mit dem Bus 505 gekoppelt werden, um Informationen und Anweisungen dauerhaft zu speichern. Das Speichergerät 525 kann den Datenbehälter 145 beinhalten oder Teil desselben sein.
  • Das Computersystem 500 kann über den Bus 505 mit einer Anzeige 535 wie einer Flüssigkristallanzeige (LCD) oder aktiven Matrixanzeige gekoppelt sein, sodass sich einem Benutzer Informationen anzeigen lassen. Mit dem Bus 505 kann ein Eingabegerät 530, wie z. B. eine Tastatur mit alphanumerischen und anderen Tasten gekoppelt sein, damit sich ausgewählte Informationen und Anweisungen an den Prozessor 510 übermitteln lassen. Das Eingabegerät 530 kann eine Touchscreenanzeige 535 beinhalten. Das Eingabegerät 530 kann außerdem eine Cursorsteuerung wie eine Maus, einen Trackball oder Pfeiltasten auf der Tastatur beinhalten, sodass sich Richtungsdaten und ausgewählte Anweisungen an den Prozessor 510 übermitteln und die Bewegung des Cursors auf der Anzeige 535 steuern lassen. Die Anzeige 535 kann beispielsweise ein Teil des Datenverarbeitungssystems 102, des Client-Computergeräts 150 oder einer anderen Komponente von 1 sein.
  • Die hierin beschriebenen Prozesse, Systeme und Verfahren können vom Computersystem 500 als Folge davon implementiert werden, dass der Prozessor 510 einen im Hauptspeicher 515 enthaltenen Satz von Anweisungen ausführt. Diese Anweisungen können von einem computerlesbaren Medium (wie z. B. Speichergerät 525) in den Hauptspeicher 515 gelesen werden. Die Ausführung des im Hauptspeicher 515 enthaltenen Satzes von Anweisungen veranlasst das Computersystem 500, die hierin beschriebenen und dargestellten Prozesse auszuführen. Außerdem können in einer Multi-Prozessor-Anordnung ein oder mehrere Prozessoren dazu genutzt werden, die im Hauptspeicher 515 enthaltenen Anweisungen auszuführen. Festverdrahtete Schaltungen können anstelle von oder in Kombination mit Software-Anweisungen zusammen mit den hierin beschriebenen Systemen und Verfahren verwendet werden. Die hierin beschriebenen Systeme und Verfahren sind nicht auf eine spezifische Kombination aus Hardwareschaltungen und Software beschränkt.
  • Obwohl ein exemplarisches Computersystem in 5 beschrieben worden ist, kann der Gegenstand, einschließlich der in dieser Spezifikation beschriebenen Vorgänge, in anderen Arten von digitalen elektronischen Schaltungen oder in Computersoftware, Firmware oder Hardware implementiert werden, einschließlich der in dieser Spezifikation offenbarten Strukturen und ihrer strukturellen Entsprechungen oder in Kombinationen von einer oder mehrerer derselben.
  • Für Situationen, in denen die Systeme, die hier erläutert werden, persönliche Informationen über Benutzer sammeln, oder ggf. persönliche Informationen nutzen, kann für die Benutzer eine Möglichkeit bereitgestellt werden, zu kontrollieren, ob Programme oder Funktionen, die ggf. persönliche Informationen (z. B. Informationen über das soziale Netzwerk eines Benutzers, soziale Handlungen oder Aktivitäten, eine Benutzerpräferenz oder den Standort eines Benutzers) sammeln, oder um zu kontrollieren, ob und/oder wie Inhalt von einem Inhaltsserver oder einem anderen Datenverarbeitungssystem empfangen wird, der für den Benutzer ggf. relevanter ist. Zusätzlich können gewisse Daten auf eine oder mehrere Weisen anonymisiert werden, bevor sie gespeichert oder verwendet werden, sodass personenbezogene Daten entfernt werden, wenn Parameter generiert werden. Eine Benutzeridentität kann beispielsweise anonymisiert werden, sodass keine persönlichen identifizierbaren Informationen für den Benutzer bestimmt werden können, oder ein geografischer Standort des Benutzers verallgemeinert werden kann, wobei Standortinformationen (wie beispielsweise eine Stadt, Postleitzahl oder Bundesland) entnommen werden, sodass ein bestimmter Standort eines Benutzers nicht festgestellt werden kann. Somit kann der Benutzer Kontrolle darüber haben, wie Informationen über ihn oder sie gesammelt und von einem Inhaltsserver verwendet werden.
  • Der Gegenstand und die in dieser Spezifikation beschriebenen Vorgänge können in digitalen elektronischen Schaltkreisanordnungen oder in Computersoftware, Firmware oder Hardware, darunter auch in den in dieser Spezifikation offenbarten Strukturen und deren strukturellen Entsprechungen oder in Kombinationen von einer oder mehrerer derselben, implementiert werden. Der in dieser Beschreibung beschriebene Gegenstand kann als ein oder mehrere Computerprogramme implementiert werden, z. B. als eine oder mehrere Schaltungen von Computerprogrammanweisungen, die auf einem oder mehreren Computerspeichermedien codiert sind, um von Datenverarbeitungsvorrichtungen ausgeführt zu werden bzw. den Betrieb derselben zu steuern. Alternativ oder ergänzend dazu können die Programmanweisungen in einem künstlich erzeugten, sich ausbreitenden Signal, wie beispielsweise einem maschinell erzeugten elektrischen, optischen oder elektromagnetischen Signal, codiert sein, das erzeugt wird, um Informationen zur Übertragung an eine geeignete Empfängervorrichtung zu codieren, damit diese von einer Datenverarbeitungsvorrichtung ausgeführt werden. Ein Computerspeichermedium kann ein computerlesbares Speichergerät, ein computerlesbares Speichersubstrat, ein frei adressierbares oder serielles Zugriffsspeicher-Array oder -Gerät oder eine Kombination derselben sein bzw. darin enthalten sein. Obwohl ein Computerspeichermedium kein sich ausbreitendes Signal ist, kann es sich bei einem Computerspeichermedium jedoch um eine Quelle oder ein Ziel von Computerprogrammanweisungen handeln, die in einem künstlich erzeugten sich ausbreitenden Signal codiert sind. Bei dem Computerspeichermedium kann es sich außerdem um eine oder mehrere separate Komponenten oder Medien (z. B. mehrere CDs, Datenträger oder andere Speichergeräte) handeln bzw. darin enthalten sein. Die in dieser Spezifikation beschriebenen Vorgänge können als Vorgänge implementiert werden, die durch eine Datenverarbeitungsvorrichtung an Daten ausgeführt werden, die auf einem oder mehreren computerlesbaren Speichergerät(en) gespeichert oder von anderen Quellen empfangen werden.
  • Die Begriffe „Datenverarbeitungssystem“, „Computergerät“, „Komponente“ oder „Datenverarbeitungsvorrichtung“ beinhalten verschiedene Vorrichtungen, Geräte und Maschinen zur Verarbeitung von Daten, einschließlich beispielsweise eines programmierbaren Prozessors, eines Computers, eines oder mehrerer Systeme auf einem Chip oder mehrerer derselben oder Kombinationen der vorstehenden. Die Vorrichtung kann eine Spezial-Logikschaltung, wie z. B. eine FPGA (feldprogrammierbare Universalschaltung) oder eine ASIC (anwendungsspezifische integrierte Schaltung), beinhalten. Das Gerät kann zusätzlich zur Hardware auch Code beinhalten, der eine Ausführungsumgebung für das entsprechende Computerprogramm, wie z. B. Code, erzeugt, der Prozessorfirmware, einen Protokollstapel, ein Datenbankverwaltungssystem, ein Betriebssystem, eine plattformübergreifende Laufzeitumgebung, einen virtuellen Computer oder eine Kombination derselben darstellt. Das Gerät und die Ausführungsumgebung können verschiedene Computermodell-Infrastrukturen, wie z. B. Webdienste, sowie verteilte Rechen- und räumlich verteilte Rechen-Infrastrukturen realisieren. Beispielsweise kann die Direktaktions-API 116, Inhaltsauswahlkomponente 118 oder NLP-Komponente 112, und können andere Datenverarbeitungssystem- 102 - Komponenten eine oder mehrere Datenverarbeitungsvorrichtungen, Systeme, Computergeräte oder Prozessoren beinhalten oder teilen.
  • Ein Computerprogramm (auch bekannt als ein Programm, Software, Softwareanwendung, App, Script oder Code) kann in irgendeiner Form von Programmiersprache, darunter auch in kompilierter Sprachen oder interpretierten Sprachen, deklarativen oder prozeduralen Sprachen geschrieben sein, und kann in beliebiger Form eingesetzt werden, darunter auch als Einzelprogramm oder als Modul, Komponente, Unterprogramm, Objekt oder eine andere Einheit, die zur Verwendung in einer Computerumgebung geeignet ist. Ein Computerprogramm kann einer Datei in einem Dateisystem entsprechen. Ein Computerprogramm kann in einem Teil einer Datei, die andere Programme oder Daten enthält (z. B. ein oder mehrere Scripts, die in einem Dokument in Auszeichnungssprache gespeichert sind), in einer einzelnen Datei speziell für das betreffende Programm oder in mehreren koordinierten Dateien (z. B. Dateien, die ein oder mehrere Module, Unterprogramme oder Teile von Code speichern) gespeichert sein. Ein Computerprogramm kann auf einem Computer oder auf mehreren Computern bereitgestellt und ausgeführt werden, die sich an einem Standort oder an mehreren Standorten verteilt befinden und über ein Kommunikationsnetzwerk miteinander verbunden sind.
  • Die in dieser Beschreibung beschriebenen Prozesse und Logikabläufe können durch einen oder mehrere programmierbare Prozessoren ausgeführt werden, die ein oder mehrere Computerprogramme (z. B. Komponenten des Datenverarbeitungssystems 102) ausführen, um Aktionen durch Verarbeiten von eingegebenen Daten und Erzeugen von Ausgaben auszuführen. Die Prozesse und Logikabläufe können auch als, Spezial-Logikschaltungen, wie z. B. eine FPGA (feldprogrammierbare Universalschaltung) oder eine ASIC (anwendungsspezifische integrierte Schaltung), implementiert werden und Vorrichtungen können ebenfalls als diese implementiert werden. Zu den zum Speichern von Computerprogrammanweisungen und Daten geeigneten Medien gehören sämtliche Arten von Festspeichern, Medien und Speichergeräten, einschließlich Halbleiterspeicherelementen, darunter auch EPROM, EEPROM und Flash-Speichergeräte; magnetische Festplatten, wie z. B. interne Festplatten oder Wechselplatten; magnetooptische Festplatten, und CD-ROM- und DVD-ROM-Laufwerke. Der Prozessor und der Speicher können durch eine Spezial-Logikschaltung ergänzt oder in dieselbe integriert werden.
  • Der hierin beschriebene Gegenstand kann in einem Computersystem implementiert sein, das eine Backendkomponente, wie z. B. einen Datenserver oder eine Middlewarekomponente, wie z. B. einen Anwendungsserver oder eine Frontendkomponente, wie z. B. einen Client-Computer beinhaltet, der eine grafische Benutzerschnittstelle oder einen Webbrowser aufweist, durch den ein Benutzer mit einer in dieser Beschreibung beschriebenen Implementierung des Gegenstandes interagieren kann, oder eine Kombination aus einer oder mehreren dieser Backend-, Middleware- oder Frontendkomponenten beinhaltet. Die Komponenten des Systems können durch eine beliebige Form oder ein beliebiges Medium digitaler Datenkommunikation, wie z. B. ein Kommunikationsnetzwerk, miteinander verbunden sein. Beispiele für Kommunikationsnetzwerke beinhalten ein lokales Netzwerk („LAN“) und ein Großraumnetzwerk („WAN“), ein Inter-Netzwerk (z. B. das Internet) und Peer-to-Peer-Netzwerke (z. B. ad hoc Peer-to-Peer-Netzwerke).
  • Das Computersystem, wie etwa System 100 oder System 500 kann aus Clients und Servern bestehen. Ein Client und ein Server befinden sich im Allgemeinen entfernt voneinander und interagieren typischerweise über ein Kommunikationsnetzwerk (z. B. das Netzwerk 165). Die Beziehung zwischen Client und Server entsteht aufgrund von Computerprogrammen, die auf den jeweiligen Computern ausgeführt werden und eine Client-Server-Beziehung zueinander aufweisen. Bei einigen Implementierungen sendet ein Server Daten (z. B. ein Inhaltselement darstellende Datenpakete) an ein Clientgerät (z. B. zu Zwecken des Anzeigens von Daten und Empfangens von Benutzereingaben von einem Nutzer, der mit dem Clientgerät interagiert). In dem Clientgerät generierte Daten (z. B. ein Ergebnis der Benutzerinteraktion) können von dem Clientgerät an dem Server empfangen werden (z. B. empfangen durch das Datenverarbeitungssystem 102 von dem Computergerät 150 oder dem Inhaltsanbietercomputergerät 155 oder dem Dienstanbietercomputergerät 160).
  • Obwohl die Vorgänge in den Zeichnungen in einer bestimmten Reihenfolge dargestellt sind, ist es nicht erforderlich, dass diese Vorgänge in der dargestellten bestimmten Reihenfolge oder in fortlaufender Reihenfolge durchgeführt werden, und es ist nicht erforderlich, dass alle veranschaulichten Vorgänge durchgeführt werden. Hierin beschriebene Aktionen können in einer unterschiedlichen Reihenfolge durchgeführt werden.
  • Die Trennung verschiedener Systemkomponenten erfordert keine Trennung bei sämtlichen Implementierungen und die beschriebenen Programmkomponenten können in einem einzigen Hardware- oder Softwareprodukt enthalten sein. Die NLP-Komponente 112 oder die Inhaltsauswahlkomponente 118 kann beispielsweise eine einzelne Komponente, eine App oder ein Programm oder eine Logikvorrichtung mit einer oder mehreren Verarbeitungsschaltungen oder Teil von einem oder mehreren Servern des Datenverarbeitungssystems 102 sein.
  • Nachdem nunmehr einige veranschaulichende Implementierungen beschrieben wurden, ist es offensichtlich, dass das Vorstehende zur Veranschaulichung und nicht als Einschränkung dient, und lediglich auf exemplarische Art und Weise präsentiert wurde. Insbesondere können, obgleich viele der hierin präsentierten Beispiele spezifische Kombinationen von Verfahrensvorgängen oder Systemelementen beinhalten, diese Vorgänge und Elemente auf andere Weisen kombiniert werden, um dieselben Ziele zu erreichen. Vorgänge, Elemente und Merkmale, die im Zusammenhang mit einer Implementierung erörtert werden, sollen nicht von einer ähnlichen Rolle in anderen Implementierungen oder Implementierungen ausgeschlossen sein.
  • Die hier verwendete Ausdrucksweise und Terminologie dient dem Zweck der Beschreibung und sollte nicht als einschränkend betrachtet werden. Die Verwendung der Wörter „einschließlich“, „umfassend“, „aufweisend“, „enthaltend“, „einbeziehend“, „gekennzeichnet durch“, „dadurch gekennzeichnet, dass“ und Variationen derselben, soll hier bedeuten, dass die danach aufgelisteten Gegenstände, Äquivalente derselben und zusätzliche Gegenstände sowie alternative Implementierungen, die ausschließlich aus den danach aufgelisteten Gegenständen bestehen, enthalten sind. In einer Implementierung bestehen die hierin beschriebenen Systeme und Verfahren aus einem, aus jeder Kombination von mehr als einem oder aus allen der hierin beschriebenen Elementen, Wirkungsweisen oder Komponenten.
  • Jegliche Bezugnahmen auf Implementierungen oder Elemente oder Wirkungsweisen der Systeme und Verfahren, auf die hierin im Singular verwiesen wird, können auch Implementierungen umfassen, die eine Vielzahl dieser Elemente einschließen, während jegliche Bezugnahmen auf eine Implementierung oder ein Element oder eine Wirkungsweise beliebiger Art, auf die hierin im Plural verwiesen wird, auch Implementierungen umfassen können, die nur ein einzelnes Element einschließen. Bezugnahmen auf die Singular- oder die Pluralform sind nicht gedacht, die vorliegend offenbarten Systeme und Verfahren, deren Komponenten, Wirkungsweisen oder Elemente auf einzelne oder mehrfache Konfigurationen einzuschränken. Bezugnahmen auf eine Wirkungsweise oder ein Element jeglicher Art, auf Basis von Informationen, Wirkungsweisen oder Elementen einer beliebigen Art können Implementierungen beinhalten, deren Wirkungsweise oder deren Element zumindest teilweise auf Informationen, Wirkungsweisen oder Elementen jeglicher Art basiert.
  • Jegliche der hierin offenbarten Implementierungen können mit beliebigen anderen Implementierungen oder Ausführungsformen kombiniert werden, wobei die Bezugnahmen auf „eine Implementierung“, „einige Implementierungen“, „die eine Implementierung“ oder dergleichen einander nicht zwangsläufig ausschließen und angeben sollen, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder eine bestimmte Charakteristik, die im Zusammenhang mit der Implementierung beschrieben wird, in mindestens einer Implementierung oder Ausführungsform enthalten sein kann. Derartige Begriffe in der hierin verwendeten Form beziehen sich nicht notwendigerweise auf dieselbe Implementierung. Jede Implementierung kann einschließlich oder ausschließlich und auf jede Weise, die mit den hierin offenbarten Aspekten und Implementierungen im Einklang steht, mit jeder anderen Implementierung kombiniert werden.
  • Verweise auf „oder“ können als einschließend ausgelegt werden, sodass alle Begriffe, die mithilfe von „oder“ beschrieben werden, einen beliebigen einzelnen, mehr als einen oder alle beschriebenen Begriffe angeben können. Eine Bezugnahme auf „mindestens eines von ‚A‘ und ‚B‘ kann beispielsweise nur ‚A‘, nur ‚B‘ sowie sowohl ‚A‘ und ‚B‘ beinhalten. Diese Bezugnahmen, die in Verbindung mit „umfassend“ oder anderer offener Terminologie verwendet werden, können zusätzliche Elemente einschließen.
  • Wenn technische Merkmale in den Zeichnungen, der ausführlichen Beschreibung oder einem beliebigen Anspruch von Bezugszeichen gefolgt werden, wurden die Bezugszeichen eingebunden, um die Verständlichkeit der Zeichnungen, ausführlichen Beschreibung oder Ansprüche zu erhöhen. Dementsprechend haben weder solche Bezugszeichen noch deren Abwesenheit eine einschränkende Wirkung auf den Umfang der Anspruchselemente.
  • Die hierin beschriebenen Systeme und Verfahren können zudem durch andere Ausführungsformen realisiert werden, ohne von deren wesentlichen Merkmalen abzuweichen. Das Datenverarbeitungssystem 102 kann beispielsweise ein Inhaltselement für eine anschließende Aktion (z. B. für die dritte Aktion 215) basierend teilweise auf Daten von einer vorausgehenden Aktion in der Folge von Aktionen des Threads 200 auswählen, wie beispielsweise Daten von der zweiten Aktion 210, die anzeigen, dass die zweite Aktion 210 abgeschlossen ist oder dabei ist, zu beginnen. Die vorhergehenden Implementierungen werden eher als veranschaulichend denn als einschränkend für die hierin beschriebenen Systeme und Verfahren betrachtet. Der Geltungsbereich der hierin beschriebenen Systeme und Verfahren wird daher eher durch die beigefügten Ansprüche als durch die vorangehende Beschreibung angegeben, wobei Änderungen, welche innerhalb der Bedeutungen und des Bereichs der Äquivalenz der Ansprüche fallen, daher hierin eingeschlossen sind.

Claims (11)

  1. System zum Routen von paketierten Aktionen über ein Computernetzwerk, umfassend: eine Prozessorkomponente für natürliche Sprache, die durch ein Datenverarbeitungssystem ausgeführt wird, um über eine Schnittstelle des Datenverarbeitungssystems Datenpakete zu empfangen, die ein durch einen Sensor eines Clientgeräts erkanntes Eingabeaudiosignal umfassen; Prozessorkomponente für natürliche Sprache, um das Eingabeaudiosignal zu parsen, um eine Anfrage, einen Inhaltsanbieter und ein Auslöserschlüsselwort entsprechend der Anfrage zu identifizieren, eine Direktaktions-Anwendungsprogrammierschnittstelle des Datenverarbeitungssystems, um basierend auf dem Auslöserschlüsselwort eine Aktionsdatenstruktur in Reaktion auf die Anfrage zu generieren; die Direktaktions-Anwendungsprogrammierschnittstelle, um die Aktionsdatenstruktur an ein Drittanbietergerät zu übertragen, um das Drittanbietergerät dazu zu veranlassen, eine Konversations-Anwendungsprogrammierschnittstelle aufzurufen und eine Kommunikationssitzung zwischen dem Drittanbietergerät und dem Clientgerät herzustellen; und das Datenverarbeitungssystem, um von dem Drittanbietergerät einen Hinweis zu empfangen, dass das Drittanbietergerät die Kommunikationssitzung mit dem Clientgerät hergestellt hat.
  2. System nach Anspruch 1, umfassend das Datenverarbeitungssystem zum: Auswählen einer Vorlage basierend auf dem Auslöserschlüsselwort, aus einer in dem Arbeitsspeicher gespeicherten Datenbank; und Generieren der Aktionsdatenstruktur basierend auf der Vorlage.
  3. System nach Anspruch 1, umfassend das Datenverarbeitungssystem zum: Identifizieren des Drittanbieters basierend auf dem Auslöserschlüsselwort; Auswählen einer Vorlage basierend auf dem Drittanbieter, aus einer in dem Arbeitsspeicher gespeicherten Datenbank; und Generieren der Aktionsdatenstruktur basierend auf der Vorlage für den Drittanbieter.
  4. System nach Anspruch 1, umfassend das Datenverarbeitungssystem zum: Auswählen einer Vorlage basierend auf dem Auslöserschlüsselwort, aus einer in dem Arbeitsspeicher gespeicherten Datenbank; Identifizieren eines Feldes in der Vorlage; Empfangen eines Wertes von dem Client-Computergerät entsprechend dem Feld in der Vorlage; und Füllen des Feldes in der Vorlage mit dem Wert, der von dem Client-Computergerät empfangen wurde, um die Aktionsdatenstruktur zu generieren.
  5. System nach Anspruch 1, umfassend das Datenverarbeitungssystem zum: Auswählen einer Vorlage basierend auf mindestens einem von dem Auslöserschlüsselwort und dem Drittanbieter, aus einer in dem Speicher gespeicherten Datenbank; Identifizieren eines Feldes in der Vorlage; Anfordern eines Wertes von dem Client-Computergerät entsprechend dem Feld in der Vorlage; und Füllen des Feldes in der Vorlage mit dem Wert, der von dem Client-Computergerät empfangen wurde, um die Aktionsdatenstruktur zu generieren.
  6. System nach Anspruch 5, wobei der Sensor mindestens einen von einem GPS-Sensor und einem Beschleunigungssensor umfasst.
  7. System nach Anspruch 1, umfassend: eine durch das Datenverarbeitungssystem ausgeführte Inhaltsauswahlkomponente zum Empfangen des Auslöserschlüsselworts, das durch den Prozessor für natürliche Sprache identifiziert wird, und basierend auf dem Auslöserschlüsselwort Auswählen eines Inhaltselements über einen Echtzeit-Inhaltsauswahlprozess.
  8. System nach Anspruch 1, umfassend: eine durch das Datenverarbeitungssystem ausgeführte Inhaltsauswahlkomponente zum Empfangen des Auslöserschlüsselworts, das durch den Prozessor für natürliche Sprache identifiziert wird, und basierend auf dem Auslöserschlüsselwort Auswählen eines Inhaltselements über einen Echtzeit-Inhaltsauswahlprozess, wobei das Inhaltselement durch ein Inhaltsanbietergerät bereitgestellt wird, das sich von dem Drittanbietergerät unterscheidet.
  9. System nach Anspruch 1, umfassend: eine durch das Datenverarbeitungssystem ausgeführte Inhaltsauswahlkomponente zum Empfangen des Auslöserschlüsselworts, das durch den Prozessor für natürliche Sprache identifiziert wird, und basierend auf dem Auslöserschlüsselwort Auswählen eines Inhaltselements über einen Echtzeit-Inhaltsauswahlprozess, wobei das Inhaltselement durch einen Inhaltsanbieter bereitgestellt wird, der sich von dem Drittanbietergerät unterscheidet, wobei das Inhaltselement einer Art von Dienst entspricht, die sich von einer Art von Dienst der Aktionsdatenstruktur unterscheidet.
  10. System nach Anspruch 1, umfassend das Datenverarbeitungssystem zum: Übertragen der Aktionsdatenstruktur an ein Drittanbietergerät, um das Drittanbietergerät zu veranlassen, die Konversations-Anwendungsprogrammierschnittstelle aufzurufen, die durch das Drittanbietergerät ausgeführt wird.
  11. System nach Anspruch 1, umfassend das Datenverarbeitungssystem zum: Übertragen der Aktionsdatenstruktur an das Drittanbietergerät, um das Drittanbietergerät zu veranlassen, die für das Drittanbietergerät konfigurierte und von dem Datenverarbeitungssystem ausgeführte Konversations-Anwendungsprogrammierschnittstelle aufzurufen, wobei das Datenverarbeitungssystem Datenpakete zwischen dem Client-Computergerät und dem Drittanbietergerät routet, um die Kommunikationssitzung herzustellen.
DE212017000029.5U 2016-12-30 2017-08-31 Natürliche Sprachverarbeitung für den Sitzungsaufbau mit Serviceprovidern Active DE212017000029U1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/395,689 US10972530B2 (en) 2016-12-30 2016-12-30 Audio-based data structure generation
US15/395,689 2016-12-30
PCT/US2017/049713 WO2018125299A1 (en) 2016-12-30 2017-08-31 Natural language processing for session establishment with service providers

Publications (1)

Publication Number Publication Date
DE212017000029U1 true DE212017000029U1 (de) 2019-07-10

Family

ID=59895377

Family Applications (2)

Application Number Title Priority Date Filing Date
DE212017000029.5U Active DE212017000029U1 (de) 2016-12-30 2017-08-31 Natürliche Sprachverarbeitung für den Sitzungsaufbau mit Serviceprovidern
DE112017000122.6T Pending DE112017000122T5 (de) 2016-12-30 2017-08-31 Natürliche Sprachverarbeitung für den Sitzungsaufbau mit Serviceprovidern

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE112017000122.6T Pending DE112017000122T5 (de) 2016-12-30 2017-08-31 Natürliche Sprachverarbeitung für den Sitzungsaufbau mit Serviceprovidern

Country Status (8)

Country Link
US (2) US10972530B2 (de)
EP (2) EP3360314B1 (de)
JP (2) JP6563519B2 (de)
KR (2) KR102165262B1 (de)
CN (2) CN108551766B (de)
DE (2) DE212017000029U1 (de)
ES (1) ES2884090T3 (de)
WO (1) WO2018125299A1 (de)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10972530B2 (en) 2016-12-30 2021-04-06 Google Llc Audio-based data structure generation
US11087424B1 (en) 2011-06-24 2021-08-10 Google Llc Image recognition-based content item selection
US8688514B1 (en) 2011-06-24 2014-04-01 Google Inc. Ad selection using image data
US11093692B2 (en) 2011-11-14 2021-08-17 Google Llc Extracting audiovisual features from digital components
US10586127B1 (en) 2011-11-14 2020-03-10 Google Llc Extracting audiovisual features from content elements on online documents
US11030239B2 (en) 2013-05-31 2021-06-08 Google Llc Audio based entity-action pair based selection
JP2019086903A (ja) * 2017-11-02 2019-06-06 東芝映像ソリューション株式会社 音声対話端末、および音声対話端末制御方法
WO2019125486A1 (en) * 2017-12-22 2019-06-27 Soundhound, Inc. Natural language grammars adapted for interactive experiences
US11900928B2 (en) 2017-12-23 2024-02-13 Soundhound Ai Ip, Llc System and method for adapted interactive experiences
US10942039B2 (en) * 2018-08-06 2021-03-09 Comcast Cable Communications, Llc Methods and systems for managing communication sessions
CN109144967B (zh) * 2018-08-13 2021-01-12 爱智慧(广州)科技有限公司 一种用于改进分布式计算系统的维护系统及方法
WO2020086050A1 (en) 2018-10-22 2020-04-30 Google Llc Network source identification via audio signals
CN110310641B (zh) * 2019-02-26 2022-08-26 杭州蓦然认知科技有限公司 一种用于语音助手的方法及装置
EP4134842A1 (de) * 2019-07-17 2023-02-15 Google LLC Systeme und verfahren zum verifizieren von auslöserschlüsselwörtern in akustikbasierten digitalen assistentenanwendungen
FR3100206A1 (fr) * 2019-08-28 2021-03-05 Psa Automobiles Sa Dispositif pour mettre en œuvre un assistant personnel virtuel dans un véhicule automobile avec contrôle par la voix d’un utilisateur, et véhicule automobile l’incorporant
KR20220062360A (ko) * 2019-11-27 2022-05-16 구글 엘엘씨 동적으로 업데이트되는 자연어 처리를 통한 애플리케이션과의 인터페이스
CN111600926B (zh) * 2020-04-01 2021-03-23 北京创世云科技有限公司 一种数据处理方法、装置及电子设备
JP2023526070A (ja) * 2020-05-15 2023-06-20 サノフイ 情報システムおよび電子デバイス
CN113282833B (zh) * 2021-06-15 2023-03-24 支付宝(杭州)信息技术有限公司 车票处理方法及装置
US20230037961A1 (en) * 2021-08-05 2023-02-09 Lenovo (Singapore) Pte. Ltd. Second trigger phrase use for digital assistant based on name of person and/or topic of discussion

Family Cites Families (201)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0408348B1 (de) 1989-07-11 1995-02-22 Lee S. Weinblatt Verfahren und Vorrichtung zur Überwachung der Werbewirksamkeit
DE69327948T2 (de) 1993-04-30 2000-10-26 Ibm Bereich-layout in einer Sicht auf einem grafischen Anzeigeschirm
AU668043B2 (en) 1993-05-21 1996-04-18 Sega Enterprises, Ltd. Image processing device and method
US5418713A (en) 1993-08-05 1995-05-23 Allen; Richard Apparatus and method for an on demand data delivery system for the preview, selection, retrieval and reproduction at a remote location of previously recorded or programmed materials
JP3419046B2 (ja) 1993-09-27 2003-06-23 セイコーエプソン株式会社 映像表示装置
US5498002A (en) 1993-10-07 1996-03-12 Gechter; Jerry Interactive electronic games and screen savers with multiple characters
US5760838A (en) 1994-09-30 1998-06-02 Intel Corporation Method and system for configuring a display
JPH08263251A (ja) 1995-03-23 1996-10-11 Fuji Photo Film Co Ltd 画像表示方法および装置
US5682511A (en) 1995-05-05 1997-10-28 Microsoft Corporation Graphical viewer interface for an interactive network system
US5845263A (en) 1995-06-16 1998-12-01 High Technology Solutions, Inc. Interactive visual ordering system
US20030040957A1 (en) 1995-07-27 2003-02-27 Willam Y. Conwell Advertising employing watermarking
KR100197835B1 (ko) 1995-09-01 1999-06-15 윤종용 더블스크린을 이용한 정보신호 표시장치
US5572643A (en) 1995-10-19 1996-11-05 Judson; David H. Web browser with dynamic display of information objects during linking
US5748173A (en) 1996-02-29 1998-05-05 University Of Pittsburgh Hybrid display for simultaneous side-by-side review of radiographs
US5778181A (en) 1996-03-08 1998-07-07 Actv, Inc. Enhanced video programming system and method for incorporating and displaying retrieved integrated internet information segments
US5774664A (en) 1996-03-08 1998-06-30 Actv, Inc. Enhanced video programming system and method for incorporating and displaying retrieved integrated internet information segments
US6018768A (en) 1996-03-08 2000-01-25 Actv, Inc. Enhanced video programming system and method for incorporating and displaying retrieved integrated internet information segments
US5813014A (en) 1996-07-10 1998-09-22 Survivors Of The Shoah Visual History Foundation Method and apparatus for management of multimedia assets
US6570587B1 (en) 1996-07-26 2003-05-27 Veon Ltd. System and method and linking information to a video
AU6037198A (en) 1997-01-27 1998-08-26 Benjamin Slotznick System for delivering and simultaneously displaying primary and secondary information, and for displaying only the secondary information during interstitial space
JP3673615B2 (ja) 1997-06-19 2005-07-20 キヤノン株式会社 画像処理装置及びその制御方法
CA2311920C (en) 1997-08-08 2005-05-03 Qorvis Media Group, Inc. A reconfigurable audiovisual previewing system and method of operation
US6026373A (en) 1997-10-30 2000-02-15 Ncr Corporation Method of sending messages to an electronic price label
US6185558B1 (en) 1998-03-03 2001-02-06 Amazon.Com, Inc. Identifying the items most relevant to a current query based on items selected in connection with similar queries
US6510553B1 (en) 1998-10-26 2003-01-21 Intel Corporation Method of streaming video from multiple sources over a network
US6760916B2 (en) 2000-01-14 2004-07-06 Parkervision, Inc. Method, system and computer program product for producing and distributing enhanced media downstreams
GB9902235D0 (en) 1999-02-01 1999-03-24 Emuse Corp Interactive system
US6275806B1 (en) 1999-08-31 2001-08-14 Andersen Consulting, Llp System method and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters
US6353398B1 (en) 1999-10-22 2002-03-05 Himanshu S. Amin System for dynamically pushing information to a user utilizing global positioning system
US7630986B1 (en) 1999-10-27 2009-12-08 Pinpoint, Incorporated Secure data interchange
US7124101B1 (en) 1999-11-22 2006-10-17 Accenture Llp Asset tracking in a network-based supply chain environment
KR20000017807A (ko) 1999-12-16 2000-04-06 김강욱 네트워크를 기반으로 하는 광고 운영 시스템 및 그 방법
US6505169B1 (en) 2000-01-26 2003-01-07 At&T Corp. Method for adaptive ad insertion in streaming multimedia content
US6642940B1 (en) 2000-03-03 2003-11-04 Massachusetts Institute Of Technology Management of properties for hyperlinked video
US7870579B2 (en) 2000-04-07 2011-01-11 Visible Worl, Inc. Systems and methods for managing and distributing media content
US20020032603A1 (en) 2000-05-03 2002-03-14 Yeiser John O. Method for promoting internet web sites
US6684249B1 (en) 2000-05-26 2004-01-27 Sonicbox, Inc. Method and system for adding advertisements over streaming audio based upon a user profile over a world wide area network of computers
WO2002017090A1 (en) 2000-08-24 2002-02-28 Friedman, Mark, M. A method and system for automatically connecting real-world entities directly to corresponding network-based data sources or services
US6857007B1 (en) 2000-08-30 2005-02-15 Bloomfield Enterprises, Llc Personal digital assistant facilitated communication system
US6823495B1 (en) 2000-09-14 2004-11-23 Microsoft Corporation Mapping tool graphical user interface
JP4236372B2 (ja) 2000-09-25 2009-03-11 インターナショナル・ビジネス・マシーンズ・コーポレーション 空間情報利用システムおよびサーバシステム
JP2002163109A (ja) * 2000-11-28 2002-06-07 Sanyo Electric Co Ltd ユーザ支援装置およびシステム
US6636590B1 (en) 2000-10-30 2003-10-21 Ingenio, Inc. Apparatus and method for specifying and obtaining services through voice commands
US7409700B1 (en) 2000-11-03 2008-08-05 The Walt Disney Company System and method for enhanced broadcasting and interactive
CA2327192A1 (en) 2000-11-30 2002-05-30 Ibm Canada Limited-Ibm Canada Limitee System and method for presenting marketing content on a web page
WO2002095527A2 (en) 2001-04-24 2002-11-28 Walker Digital, Llc Method and apparatus for generating and marketing supplemental information
US20050005308A1 (en) 2002-01-29 2005-01-06 Gotuit Video, Inc. Methods and apparatus for recording and replaying sports broadcasts
US20030018541A1 (en) 2001-07-17 2003-01-23 Nohr Steven Paul System and method for delivering virtual content associated with physical objects, images and events
AU2002318948C1 (en) 2001-08-02 2009-08-13 Opentv, Inc. Post production visual alterations
WO2003021916A2 (en) 2001-08-29 2003-03-13 Digeo, Inc. System and method for capturing video frames for focused navigation within a user interface
US20050188400A1 (en) 2001-08-31 2005-08-25 Drew Topel Process for modification of Ad content by localization
US6947531B1 (en) 2001-12-27 2005-09-20 Sprint Spectrum L.P. System and method for advertising supported communications
US6901411B2 (en) 2002-02-11 2005-05-31 Microsoft Corporation Statistical bigram correlation model for image retrieval
US20050114198A1 (en) 2003-11-24 2005-05-26 Ross Koningstein Using concepts for ad targeting
JP2004038252A (ja) * 2002-06-28 2004-02-05 Toshiba Solutions Corp 情報提供支援システム及び情報提供支援方法
US20040044569A1 (en) 2002-08-30 2004-03-04 Roberts William Anthony Systems and method for providing targeted message in a media player
US7831476B2 (en) 2002-10-21 2010-11-09 Ebay Inc. Listing recommendation in a network-based commerce system
US7302254B2 (en) 2002-11-08 2007-11-27 Openwave Systems Inc. MMS based photo album publishing system
US7944449B2 (en) 2003-05-14 2011-05-17 Pixar Methods and apparatus for export of animation data to non-native articulation schemes
US9117220B2 (en) 2003-06-16 2015-08-25 Meetup, Inc. Web-based interactive meeting facility with revenue generation through sponsorship
JP2005073236A (ja) 2003-08-06 2005-03-17 Matsushita Electric Ind Co Ltd 中継サーバ、中継サーバのサービス管理方法、サービス提供システム、およびプログラム
US7647242B2 (en) 2003-09-30 2010-01-12 Google, Inc. Increasing a number of relevant advertisements using a relaxed match
JP2005115867A (ja) 2003-10-10 2005-04-28 Sony Corp 私的情報蓄積装置及び私的情報蓄積方法、並びに、私的情報管理装置及び私的情報管理方法
JP2005149126A (ja) 2003-11-14 2005-06-09 Sony Corp 情報取得システム、情報取得方法、及び情報処理プログラム
US20050187823A1 (en) 2004-02-23 2005-08-25 Howes Jeffrey V. Method and system for geographically-targeted internet advertising
US20050220439A1 (en) 2004-03-19 2005-10-06 Carton Owen A Interactive multimedia system and method
US7853255B2 (en) 2004-04-16 2010-12-14 Broadcom Corporation Digital personal assistance via a broadband access gateway
US7707110B2 (en) 2004-05-04 2010-04-27 First Data Corporation System and method for conducting transactions with different forms of payment
US8065611B1 (en) 2004-06-30 2011-11-22 Google Inc. Method and system for mining image searches to associate images with concepts
US20050288096A1 (en) 2004-06-23 2005-12-29 Walker Digital, Llc Methods and apparatus for facilitating a payout at a gaming device using audio / video content
CA2571509A1 (en) 2004-06-24 2006-01-05 Amir Lavi System for facilitating search over a network
US20060004627A1 (en) 2004-06-30 2006-01-05 Shumeet Baluja Advertisements for devices with call functionality, such as mobile phones
US20060064411A1 (en) 2004-09-22 2006-03-23 William Gross Search engine using user intent
US8200231B2 (en) 2004-12-22 2012-06-12 Metro Enterprises, Inc. Process for dynamic routing of customer contacts to service providers in real time
US8141111B2 (en) 2005-05-23 2012-03-20 Open Text S.A. Movie advertising playback techniques
US20080109306A1 (en) 2005-06-15 2008-05-08 Maigret Robert J Media marketplaces
US7627515B2 (en) 2005-06-28 2009-12-01 Microsoft Corporation Price determination for items of low demand
JP2007072712A (ja) 2005-09-06 2007-03-22 Nippon Telegr & Teleph Corp <Ntt> 利用情報を用いたサービス部品発見システム及び方法
US8195133B2 (en) 2005-09-14 2012-06-05 Jumptap, Inc. Mobile dynamic advertisement creation and placement
US7548915B2 (en) 2005-09-14 2009-06-16 Jorey Ramer Contextual mobile content placement on a mobile communication facility
US10657538B2 (en) 2005-10-25 2020-05-19 Sony Interactive Entertainment LLC Resolution of advertising rules
US7904505B2 (en) 2005-11-02 2011-03-08 At&T Intellectual Property I, L.P. Service to push author-spoken audio content with targeted audio advertising to users
US7668821B1 (en) 2005-11-17 2010-02-23 Amazon Technologies, Inc. Recommendations based on item tagging activities of users
US7529540B2 (en) 2005-11-29 2009-05-05 International Business Machines Corporation Method and system for invoking push-to-service offerings
US8301499B2 (en) 2005-12-29 2012-10-30 Ebay Inc. Product-based advertising
US20070174258A1 (en) 2006-01-23 2007-07-26 Jones Scott A Targeted mobile device advertisements
US7523132B2 (en) 2006-02-06 2009-04-21 Itaggit, Inc. Data tag creation from a physical item data record to be attached to a physical item
CA2641853C (en) 2006-02-10 2016-02-02 Spinvox Limited A mass-scale, user-independent, device-independent, voice messaging system
JP4187011B2 (ja) 2006-06-01 2008-11-26 ソニー株式会社 情報処理システム、情報処理装置および方法、並びにプログラム
US7660815B1 (en) 2006-06-30 2010-02-09 Amazon Technologies, Inc. Method and system for occurrence frequency-based scaling of navigation path weights among online content sources
CN100456298C (zh) 2006-07-12 2009-01-28 百度在线网络技术(北京)有限公司 广告信息检索系统及广告信息检索方法
US7831472B2 (en) 2006-08-22 2010-11-09 Yufik Yan M Methods and system for search engine revenue maximization in internet advertising
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US20080066107A1 (en) 2006-09-12 2008-03-13 Google Inc. Using Viewing Signals in Targeted Video Advertising
US20080086368A1 (en) 2006-10-05 2008-04-10 Google Inc. Location Based, Content Targeted Online Advertising
US8090222B1 (en) 2006-11-15 2012-01-03 Google Inc. Selection of an image or images most representative of a set of images
US8635203B2 (en) 2006-11-16 2014-01-21 Yahoo! Inc. Systems and methods using query patterns to disambiguate query intent
US8126766B2 (en) 2006-11-29 2012-02-28 Yahoo! Inc. Interactive user interface for collecting and processing nomenclature and placement metrics for website design
US20080281674A1 (en) 2007-02-13 2008-11-13 Google Inc. Determining metrics associated with advertising specialist
US8650265B2 (en) 2007-02-20 2014-02-11 Yahoo! Inc. Methods of dynamically creating personalized Internet advertisements based on advertiser input
US20080222132A1 (en) 2007-03-07 2008-09-11 Jiangyi Pan Personalized shopping recommendation based on search units
US20080235087A1 (en) 2007-03-20 2008-09-25 Sbc Knowledge Ventures L.P. System and method for presenting alternative advertising data
US7774348B2 (en) 2007-03-28 2010-08-10 Yahoo, Inc. System for providing geographically relevant content to a search query with local intent
US20130290172A1 (en) 2007-04-02 2013-10-31 Alex Mashinsky System and method for crowdsourcing, selecting, transacting gifts and financial discounts in physical stores and e-commerce environments
US8667532B2 (en) 2007-04-18 2014-03-04 Google Inc. Content recognition for targeting video advertisements
US20080268876A1 (en) 2007-04-24 2008-10-30 Natasha Gelfand Method, Device, Mobile Terminal, and Computer Program Product for a Point of Interest Based Scheme for Improving Mobile Visual Searching Functionalities
US7970868B2 (en) 2007-04-26 2011-06-28 Rakesh Garg Customizable, smart-tag based content delivery and notification system, program, and method for connecting entities on the world wide web
US7890380B2 (en) 2007-05-07 2011-02-15 At&T Intellectual Property I, L.P. Method, system, and computer readable medium for implementing sales of products using a trace of an object
US7970649B2 (en) 2007-06-07 2011-06-28 Christopher Jay Wu Systems and methods of task cues
US7979459B2 (en) 2007-06-15 2011-07-12 Microsoft Corporation Scalable model-based product matching
US20080319844A1 (en) 2007-06-22 2008-12-25 Microsoft Corporation Image Advertising System
US20180300745A1 (en) 2007-08-16 2018-10-18 Google Inc. Advertising
JP2009048446A (ja) 2007-08-21 2009-03-05 Nippon Telegr & Teleph Corp <Ntt> 要求サービス提案装置、システム、方法、及びプログラム
US8588816B2 (en) 2007-12-21 2013-11-19 Qualcomm Incorporated Systems and methods for targeted advertising on wireless devices based on device location and current user interests
US10504124B2 (en) 2008-04-21 2019-12-10 Verizon Patent And Licensing Inc. Aggregation and use of information relating to a users context for personalized advertisements
US8452108B2 (en) 2008-06-25 2013-05-28 Gannon Technologies Group Llc Systems and methods for image recognition using graph-based pattern matching
US8391618B1 (en) 2008-09-19 2013-03-05 Adobe Systems Incorporated Semantic image classification and search
US20100153861A1 (en) 2008-09-26 2010-06-17 Deep Rock Drive Partners Inc. Interactive events
JP4496264B2 (ja) 2008-10-24 2010-07-07 株式会社東芝 電子機器及び映像表示方法
US8265167B2 (en) 2008-10-31 2012-09-11 Sprint Communications Company L.P. Application specific video format
US8145561B1 (en) 2009-01-05 2012-03-27 Sprint Communications Company L.P. Phone usage pattern as credit card fraud detection trigger
WO2010116333A1 (en) 2009-04-07 2010-10-14 Alon Atsmon System and process for builiding a catalog using visual objects
US8396287B2 (en) 2009-05-15 2013-03-12 Google Inc. Landmarks from digital photo collections
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US8463783B1 (en) 2009-07-06 2013-06-11 Google Inc. Advertisement selection data clustering
US20150278878A1 (en) 2009-09-10 2015-10-01 Google Inc. System and method of displaying advertisements
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US20110208822A1 (en) 2010-02-22 2011-08-25 Yogesh Chunilal Rathod Method and system for customized, contextual, dynamic and unified communication, zero click advertisement and prospective customers search engine
KR101597247B1 (ko) 2010-03-29 2016-02-25 네이버 주식회사 실시간 키워드 연동형 광고 노출 시스템 및 방법
JP5057184B2 (ja) 2010-03-31 2012-10-24 アイシン・エィ・ダブリュ株式会社 画像処理システム及び車両制御システム
US8533043B2 (en) 2010-03-31 2013-09-10 Yahoo! Inc. Clickable terms for contextual advertising
US9652462B2 (en) 2010-04-29 2017-05-16 Google Inc. Identifying responsive resources across still images and videos
US20110295847A1 (en) 2010-06-01 2011-12-01 Microsoft Corporation Concept interface for search engines
KR101883018B1 (ko) 2010-07-21 2018-07-27 톰슨 라이센싱 3d 통신 시스템에서 보조 콘텐츠를 제공하기 위한 방법 및 장치
US20120059713A1 (en) 2010-08-27 2012-03-08 Adchemy, Inc. Matching Advertisers and Users Based on Their Respective Intents
US20120072280A1 (en) 2010-09-20 2012-03-22 Lin Jennifer W Tracking Conversions
WO2012051215A2 (en) 2010-10-15 2012-04-19 Google Inc. System and method for presenting content on a retailer's content page using manufacturers' product information
JP5587137B2 (ja) 2010-10-29 2014-09-10 キヤノン株式会社 測定装置及び測定方法
US20120150657A1 (en) 2010-12-14 2012-06-14 Microsoft Corporation Enabling Advertisers to Bid on Abstract Objects
US9130988B2 (en) 2010-12-21 2015-09-08 Microsoft Technology Licensing, Llc Scareware detection
US20120224768A1 (en) 2011-03-04 2012-09-06 Olive Root, LLC System and method for visual search
US8346815B2 (en) 2011-05-12 2013-01-01 Google Inc. Dynamic image display area and image display within web search results
US8553981B2 (en) 2011-05-17 2013-10-08 Microsoft Corporation Gesture-based visual search
US8583471B1 (en) 2011-06-13 2013-11-12 Facebook, Inc. Inferring household income for users of a social networking system
US10972530B2 (en) 2016-12-30 2021-04-06 Google Llc Audio-based data structure generation
US8688514B1 (en) 2011-06-24 2014-04-01 Google Inc. Ad selection using image data
US10192176B2 (en) * 2011-10-11 2019-01-29 Microsoft Technology Licensing, Llc Motivation of task completion and personalization of tasks and lists
US9811850B2 (en) 2012-04-08 2017-11-07 Microsoft Technology Licensing, Llc User task completion via open market of actions and/or providers
US9141196B2 (en) 2012-04-16 2015-09-22 Qualcomm Incorporated Robust and efficient learning object tracker
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US8943065B2 (en) 2012-05-23 2015-01-27 Oracle International Corporation Catalog performance and integrity analysis
KR101909250B1 (ko) * 2012-06-07 2018-10-17 주식회사 케이티 단말의 음성 정보에 기초하여 서비스 타입을 결정하는 음성 인식 서버, 서비스 타입에 따라 단말로 컨텐츠를 제공하는 컨텐츠 서버, 단말 및 방법
US9304738B1 (en) 2012-06-14 2016-04-05 Goolge Inc. Systems and methods for selecting content using weighted terms
ES2689471T3 (es) 2012-07-10 2018-11-14 Adeka Corporation Gránulo mixto
US20160063106A1 (en) 2012-08-08 2016-03-03 Google Inc. Related Entity Search
US20170323230A1 (en) 2012-08-21 2017-11-09 Google Inc. Evaluating keyword performance
DE212014000045U1 (de) * 2013-02-07 2015-09-24 Apple Inc. Sprach-Trigger für einen digitalen Assistenten
US9535887B2 (en) 2013-02-26 2017-01-03 Google Inc. Creation of a content display area on a web page
US9305545B2 (en) * 2013-03-13 2016-04-05 Samsung Electronics Co., Ltd. Speech recognition vocabulary integration for classifying words to identify vocabulary application group
WO2014139120A1 (en) 2013-03-14 2014-09-18 Microsoft Corporation Search intent preview, disambiguation, and refinement
US20140278528A1 (en) * 2013-03-14 2014-09-18 Vikram Simha Apparatus and method for a digital medical assistant
US20150287410A1 (en) * 2013-03-15 2015-10-08 Google Inc. Speech and semantic parsing for content selection
US20140324851A1 (en) 2013-04-30 2014-10-30 Wal-Mart Stores, Inc. Classifying e-commerce queries to generate category mappings for dominant products
US10740396B2 (en) 2013-05-24 2020-08-11 Sap Se Representing enterprise data in a knowledge graph
US20140351241A1 (en) 2013-05-24 2014-11-27 Sap Ag Identifying and invoking applications based on data in a knowledge graph
US20160212455A1 (en) 2013-09-25 2016-07-21 Intel Corporation Dynamic product placement in media content
US10614153B2 (en) * 2013-09-30 2020-04-07 Google Llc Resource size-based content item selection
US10088972B2 (en) * 2013-12-31 2018-10-02 Verint Americas Inc. Virtual assistant conversations
US9195997B2 (en) 2014-01-10 2015-11-24 Google Inc. Generating content campaign snapshots
CN106462559B (zh) 2014-02-07 2019-10-15 谷歌有限责任公司 任意大小内容项生成
US9172764B2 (en) 2014-03-05 2015-10-27 Ricoh Company, Ltd. Generating a platform for social interaction
CN105025051A (zh) * 2014-04-24 2015-11-04 深圳市赛格导航科技股份有限公司 一种云端语音服务提供方法和系统
US9659106B2 (en) 2014-06-19 2017-05-23 Go Daddy Operating Company, LLC Software application customized for target market
US9189514B1 (en) 2014-09-04 2015-11-17 Lucas J. Myslinski Optimized fact checking method and system
US10290028B2 (en) 2014-10-08 2019-05-14 Streamoid Technologies Private Limited Computer implemented system for managing advertisements and a method thereof
US9959129B2 (en) * 2015-01-09 2018-05-01 Microsoft Technology Licensing, Llc Headless task completion within digital personal assistants
US20160210689A1 (en) 2015-01-16 2016-07-21 Google Inc. Content item configuration optimization
US11093971B2 (en) 2015-02-27 2021-08-17 Keypoint Technologies India Pvt Ltd. Contextual discovery
US20180234550A1 (en) * 2015-03-12 2018-08-16 2402326 Ontario Inc. O/A Nuage Telecom Inc. Cloud computing telecommunications platform
WO2016172367A1 (en) * 2015-04-21 2016-10-27 UberGrape GmbH DBA ChatGrape Systems and methods for integrating external resources from third-party services
US9767483B2 (en) 2015-07-22 2017-09-19 Adobe Systems Incorporated Enabling access to third-party digital assets for systems that market content to target audiences
CN105141987B (zh) 2015-08-14 2019-04-05 京东方科技集团股份有限公司 广告植入方法和广告植入系统
US20170061515A1 (en) 2015-08-24 2017-03-02 Google Inc. Systems and methods for setting allocations and prices for content in an online marketplace
US10366404B2 (en) 2015-09-10 2019-07-30 The Nielsen Company (Us), Llc Methods and apparatus to group advertisements by advertisement campaign
US20170092278A1 (en) 2015-09-30 2017-03-30 Apple Inc. Speaker recognition
US9928840B2 (en) 2015-10-16 2018-03-27 Google Llc Hotword recognition
US9747926B2 (en) 2015-10-16 2017-08-29 Google Inc. Hotword recognition
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US11100076B2 (en) * 2016-03-08 2021-08-24 Hartford Fire Insurance Company Processing system for automated electronic record creation and transmission
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US9875740B1 (en) 2016-06-20 2018-01-23 A9.Com, Inc. Using voice information to influence importance of search result categories
US10056078B1 (en) 2016-06-28 2018-08-21 Amazon Technology, Inc. Output of content based on speech-based searching and browsing requests
US9972318B1 (en) * 2016-09-21 2018-05-15 Amazon Technologies, Inc. Interpreting voice commands
US20180097940A1 (en) * 2016-09-30 2018-04-05 Genesys Telecommunications Laboratories, Inc. System and method for dynamic generation and optimization of process flows for a customer contact center
US10276263B2 (en) * 2016-10-27 2019-04-30 Snaps Solutions, Llc Systems and methods for surfacing contextually relevant content into the workflow of a third party system via a cloud-based micro-services architecture
US10068573B1 (en) 2016-12-21 2018-09-04 Amazon Technologies, Inc. Approaches for voice-activated audio commands
US10439977B2 (en) * 2016-12-27 2019-10-08 Facebook, Inc. Access controls for units of content in a messaging service
US10319375B2 (en) * 2016-12-28 2019-06-11 Amazon Technologies, Inc. Audio message extraction
US10565256B2 (en) 2017-03-20 2020-02-18 Google Llc Contextually disambiguating queries
US11183181B2 (en) 2017-03-27 2021-11-23 Sonos, Inc. Systems and methods of multiple voice services

Also Published As

Publication number Publication date
KR102015069B1 (ko) 2019-08-27
JP2019506759A (ja) 2019-03-07
WO2018125299A1 (en) 2018-07-05
US11949733B2 (en) 2024-04-02
JP7163253B2 (ja) 2022-10-31
EP3360314A1 (de) 2018-08-15
CN113918896A (zh) 2022-01-11
KR20190099350A (ko) 2019-08-26
KR20180090957A (ko) 2018-08-14
ES2884090T3 (es) 2021-12-10
DE112017000122T5 (de) 2018-10-31
JP2019194918A (ja) 2019-11-07
EP3360314B1 (de) 2021-06-23
CN108551766B (zh) 2021-09-24
US20180191808A1 (en) 2018-07-05
JP6563519B2 (ja) 2019-08-21
EP3905653A1 (de) 2021-11-03
KR102165262B1 (ko) 2020-10-13
US10972530B2 (en) 2021-04-06
CN108551766A (zh) 2018-09-18
US20210160308A1 (en) 2021-05-27

Similar Documents

Publication Publication Date Title
DE212017000029U1 (de) Natürliche Sprachverarbeitung für den Sitzungsaufbau mit Serviceprovidern
DE212017000329U1 (de) Selektives Sensorabfragen
DE112017000131T5 (de) Rückmeldungssteuerung für Datenübertragungen
DE212017000032U1 (de) Modulation von paketierten Audiosignalen
DE212017000042U1 (de) Datenstruktur-Pooling von sprachaktivierten Datenpaketen
DE212017000055U1 (de) Gerätekennungsabhängige Vorgangsverarbeitung von paketbasierter Datenkommunikation
DE102017131378A1 (de) Modifikation einer audiobasierten Computerprogrammausgabe
DE212017000068U1 (de) Einrichten von audio-basierten Netzwerksitzungen mit nicht registrierten Ressourcen
DE212017000059U1 (de) Sequenzabhängige Vorgangsverarbeitung von paketbasierten Datennachrichtenübertragungen
DE112016001313T5 (de) Systeme und verfahren zum aktivieren von benutzer-sprachinteraktionen mit einem host-computergerät
DE112017000177T5 (de) Authentifizierung von paketierten Audiosignalen
DE212017000286U1 (de) Multimodale Übertragung von paketierten Daten
DE212017000053U1 (de) Sequenzabhängige Datennachrichtenkonsolidierung in einer sprachaktivierten Computernetzwerkumgebung
DE202017107939U1 (de) Ausgleichen von Modifikationen einer audiobasierten Computerprogrammausgabe
DE102017131383A1 (de) Ausgleichen von Modifikationen einer audiobasierten Computerprogrammausgabe
DE102017131381A1 (de) Validieren der Modifikation einer audiobasierten Computerprogrammausgabe
DE112015005293T5 (de) Präsentation von Informationskarten für Ereignisse, die mit Entitäten verbunden sind

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE

R207 Utility model specification
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0017200000

Ipc: G06F0040000000

R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years