DE212017000032U1 - Modulation von paketierten Audiosignalen - Google Patents

Modulation von paketierten Audiosignalen Download PDF

Info

Publication number
DE212017000032U1
DE212017000032U1 DE212017000032.5U DE212017000032U DE212017000032U1 DE 212017000032 U1 DE212017000032 U1 DE 212017000032U1 DE 212017000032 U DE212017000032 U DE 212017000032U DE 212017000032 U1 DE212017000032 U1 DE 212017000032U1
Authority
DE
Germany
Prior art keywords
processing system
data processing
audio
audio signal
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE212017000032.5U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE212017000032U1 publication Critical patent/DE212017000032U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/162Interface to dedicated audio devices, e.g. audio drivers, interface to CODECs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/018Audio watermarking, i.e. embedding inaudible data in the audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1069Session establishment or de-establishment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/40Network security protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440236Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by media transcoding, e.g. video is transformed into a slideshow of still pictures, audio is converted into text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Security & Cryptography (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Information Transfer Between Computers (AREA)
  • Telephonic Communication Services (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

System zum Modulieren paketierter Audiosignale, umfassend:
eine Prozessorkomponente für natürliche Sprache, die durch ein Datenverarbeitungssystem ausgeführt wird, um über eine Schnittstelle des Datenverarbeitungssystems Datenpakete zu empfangen, die ein durch einen Sensor eines Client-Geräts erkanntes Eingabeaudiosignal umfassen;
Parsen des Eingabeaudiosignals durch die Prozessorkomponente für natürliche Sprache, um eine Anfrage und ein der Anfrage entsprechendes Auslöserschlüsselwort zu identifizieren,
eine Direktaktions-Anwendungsprogrammierschnittstelle des Datenverarbeitungssystems, um basierend auf dem Auslöserschlüsselwort eine erste Aktionsdatenstruktur in Reaktion auf die Anfrage zu erzeugen;
eine durch das Datenverarbeitungssystem ausgeführte Inhaltsauswahlkomponente zum Empfangen des Auslöserschlüsselwortes, das durch den Prozessor für natürliche Sprache identifiziert wird, und, basierend auf dem Auslöserschlüsselwort, Auswählen eines Inhaltselements über einen Echtzeit-Inhaltsauswahlprozess;
eine Audiosignalgeneratorkomponente, die durch das Datenverarbeitungssystem ausgeführt wird, um ein Ausgabesignal zu erzeugen, das einen ersten Abschnitt umfasst, der der ersten Aktionsdatenstruktur entspricht und mit einer ersten Audiomodulation erzeugt wurde, und einen zweiten Abschnitt, der dem Inhaltselement entspricht und mit einer zweiten Audiomodulation erzeugt wurde, die sich von der ersten Audiomodulation unterscheidet; und
eine Schnittstelle des Datenverarbeitungssystems, um Datenpakete zu übertragen, die das von der Audiosignalgeneratorkomponente erzeugte Ausgabesignal umfassen, um eine durch das Clientgerät ausgeführte Audiotreiberkomponente dazu zu veranlassen, einen Lautsprecher des Clientgeräts anzusteuern, um eine akustische Welle zu erzeugen, die dem Ausgabesignal entspricht.

Description

  • HINTERGRUND
  • Paketbasierte oder anderweitige überhöhte Netzwerkübertragungen von Netzwerkverkehrsdaten zwischen Computergeräten können ein Computergerät daran hindern, die Netzwerkverkehrsdaten richtig zu verarbeiten, einen Vorgang, der mit den Netzwerkverkehrsdaten verbunden ist, abzuschließen oder zeitgerecht auf die Netzwerkverkehrsdaten zu reagieren. Die überhöhten Netzwerkübertragungen von Netzwerkverkehrsdaten können zudem ein Datenrouting erschweren oder die Qualität der Antwort verschlechtern, falls das reagierende Computergerät an oder über dessen Verarbeitungskapazität gelangt, was eine ineffiziente Bandbreitenauslastung zur Folge haben kann. Die Steuerung von Netzwerkübertragungen, die Inhaltselementobjekten entsprechen, kann durch die große Anzahl von Inhaltselementobjekten erschwert werden, die Netzwerkübertragungen von Netzwerkverkehrsdaten zwischen Computergeräten initiieren können.
  • KURZDARSTELLUNG
  • Die vorliegende Offenbarung ist auf die Verbesserung der Effizienz und Effektivität der Informationsübertragung über eine oder mehrere Schnittstellen oder eine oder mehrere Arten von Computernetzwerken gerichtet. Computersysteme können zum Beispiel Zugriff auf eine begrenzte Anzahl von Schnittstellen oder begrenzte Arten von Schnittstellen haben, oder es kann eine begrenzte Anzahl verfügbarer Schnittstellen zu einer bestimmten Zeit geben. Es kann für ein System schwierig sein, Informationen in Reaktion auf die zurzeit verfügbaren Schnittstellen effizient zu übertragen, da bestimmte Arten von Schnittstellen. mehr Computerressourcen oder Batterie verbrauchen können.
  • Die Systeme und Verfahren der vorliegenden Offenbarung sind im Allgemeinen auf ein Datenverarbeitungssystem gerichtet, das Audioausgaben auf Basis des Kontexts einer Kommunikationssitzung dynamisch moduliert. Das Datenverarbeitungssystem kann den Ton, die Frequenz, die Mittenfrequenz und die Amplitude modulieren, ein Wasserzeichen anwenden, überlagern oder anderweitig modulieren oder einen Abschnitt der Audioausgabe anpassen, um den Kontext oder Typ des Abschnitts der Audioausgabe anzugeben. Das Datenverarbeitungssystem kann eine erste Audiomodulation für einen ersten Abschnitt des Ausgabeaudiosignals verwenden und eine zweite Audiomodulation für einen zweiten Abschnitt des Audiosignals basierend darauf, dass der Kontext für den zweiten Abschnitt sich vom ersten Abschnitt unterscheidet. Der zweite Abschnitt kann beispielsweise Audio beinhalten, der einem Inhaltselement entspricht, der von einem Drittpartei-Inhaltsanbieter bereitgestellt und durch das Datenverarbeitungssystem während eines Echtzeit-Auswahlprozesses ausgewählt wird.
  • Mindestens ein Aspekt ist auf ein System zum Durchführen dynamischer Modulation paketierter Audiosignale gerichtet. Das System kann eine Prozessorkomponente für natürliche Sprache, eine Schnittstelle, eine Direktaktions-Anwendungsprogrammierschnittstelle, eine Inhaltsauswahl- und eine Audiosignalgeneratorkomponente beinhalten, die durch ein Datenverarbeitungssystem ausgeführt werden. Die Prozessorkomponente für natürliche Sprache kann über die Schnittstelle Datenpakete empfangen, die ein durch einen Sensor eines Clientgeräts erkanntes Eingabeaudiosignal umfassen. Die Prozessorkomponente für natürliche Sprache kann das Eingabeaudiosignal parsen, um eine Anfrage und ein Auslöserschlüsselwort zu identifizieren, das der Anfrage entspricht. Die Direktaktions-Anwendungsprogrammierschnittstelle kann, basierend auf dem Auslöserschlüsselwort, eine erste Aktionsdatenstruktur in Reaktion auf die Anfrage erzeugen. Die Inhaltsauswahlkomponente kann das Auslöserschlüsselwort, das durch den Prozessor für natürliche Sprache identifiziert wird, empfangen und, basierend auf dem Auslöserschlüsselwort, ein Inhaltselement über einen Echtzeit-Inhaltsauswahlprozess auswählen. Die Audiosignalgeneratorkomponente kann ein Ausgabesignal erzeugen, das einen ersten Abschnitt beinhaltet, der der ersten Aktionsdatenstruktur entspricht und mit der ersten Audiomodulation erzeugt wurde, und einen zweiten Abschnitt beinhaltet, der dem Inhaltselement entspricht und mit der zweiten Audiomodulation erzeugt wurde, die sich von der ersten Audiomodulation unterscheidet. Die Schnittstelle des Datenverarbeitungssystems kann Datenpakete übertragen, die das von der Audiosignalgeneratorkomponente erzeugte Ausgangssignal umfassen. Die Schnittstelle kann die Datenpakete übertragen, um eine durch das Client-Computergerät ausgeführte Audiotreiberkomponente zu veranlassen, einen Lautsprecher des Client-Computergeräts anzusteuern, um eine akustische Welle zu erzeugen, die dem Ausgabesignal entspricht.
  • Mindestens ein offenbarter Aspekt ist ein Verfahren zum Durchführen dynamischer Modulation paketierter Audiosignale. Das Verfahren kann eine Prozessorkomponente für natürliche Sprache beinhalten, die durch ein Datenverarbeitungssystem ausgeführt wird, das, über eine Schnittstelle des Datenverarbeitungssystems, Datenpakete empfängt, die ein durch einen Sensor eines Client-Computergeräts erkanntes Eingabeaudiosignal beinhalten. Das Verfahren kann das Parsen des Eingabeaudiosignals durch die Prozessorkomponente für natürliche Sprache beinhalten, um eine Anfrage und ein Auslöserschlüsselwort zu identifizieren, das der Anfrage entspricht. Das Verfahren kann eine Direktaktions-Anwendungsprogrammierschnittstelle des Datenverarbeitungssystems beinhalten, das, basierend auf dem Auslöserschlüsselwort, eine erste Aktionsdatenstruktur in Reaktion auf die Anfrage erzeugen kann. Das Verfahren kann eine Inhaltsauswahlkomponente beinhalten, die durch das Datenverarbeitungssystem ausgeführt wird, das das Auslöserschlüsselwort empfängt, das durch den Prozessor für natürliche Sprache identifiziert wird. Das Verfahren kann das Auswählen, basierend auf dem Auslöserschlüsselwort, eines Inhaltselements durch die Inhaltsauswahlkomponente über einen Echtzeit-Inhaltsauswahlprozess beinhalten. Das Verfahren kann eine Audiosignalgeneratorkomponente beinhalten, die durch ein Datenverarbeitungssystem ausgeführt wird, das ein Ausgabesignal erzeugt, das einen ersten Abschnitt umfasst, der der ersten Aktionsdatenstruktur entspricht und mit der ersten Audiomodulation erzeugt wurde, und einen zweiten Abschnitt, der dem Inhaltselement entspricht und mit der zweiten Audiomodulation erzeugt wurde, die sich von der ersten Audiomodulation unterscheidet. Das Verfahren kann die Schnittstelle des Datenverarbeitungssystems beinhalten, das Datenpakete überträgt, die das von der Audiosignalgeneratorkomponente erzeugte Ausgabesignal umfassen, um eine durch das Clientgerät ausgeführte Audiotreiberkomponente zu veranlassen, einen Lautsprecher des Clientgeräts anzusteuern, um eine akustische Welle zu erzeugen, die dem Ausgabesignal entspricht.
  • Diese und andere Aspekte und Implementierungen werden nachfolgend näher erläutert. Die vorstehenden Informationen und die folgende ausführliche Beschreibung beinhalten veranschaulichende Beispiele verschiedener Aspekte und Implementierungen und stellen einen Überblick oder einen Rahmen für das Verständnis des Wesens und Charakters der beanspruchten Aspekte und Implementierungen bereit. Die Zeichnungen bieten eine Veranschaulichung und ein weiteres Verständnis der verschiedenen Aspekte und Implementierungen und sind in diese Spezifikation einbezogen und stellen einen Teil derselben dar.
  • Figurenliste
  • Die begleitenden Zeichnungen sollen nicht maßstabsgetreu sein. In den unterschiedlichen Zeichnungen werden gleiche Bezugszeichen und Bezeichnungen für gleiche Elemente verwendet. Aus Gründen der Übersichtlichkeit ist möglicherweise nicht jede Komponente in jeder Zeichnung beschriftet. In den Zeichnungen:
    • 1 zeigt eine Veranschaulichung eines Systems zur Modulation von paketierten Audiosignalen.
    • 2 zeigt eine Veranschaulichung eines Betriebs eines Systems zur Modulation von paketierten Audiosignalen.
    • 3 zeigt eine Veranschaulichung eines Betriebs eines Systems zur Modulation von paketierten Audiosignalen.
    • 4 zeigt eine Veranschaulichung eines Verfahrens zur Durchführung dynamischer Modulation von paketierten Audiosignalen gemäß einer Implementierung.
    • 5 zeigt ein Blockdiagramm, das eine allgemeine Architektur für ein Computersystem veranschaulicht, das zum Implementieren von Elementen der hierin beschriebenen und veranschaulichten Systeme und Verfahren eingesetzt werden kann.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Nachfolgend finden sich ausführlichere Beschreibungen verschiedener Konzepte, die sich auf Verfahren, Vorrichtungen und Systeme zur Modulation von paketierten Audiosignalen und deren Implementierungen beziehen. Die verschiedenen Konzepte, die vorstehend vorgestellt wurden und nachstehend ausführlicher erläutert werden, können auf beliebige von zahlreichen Weisen implementiert werden.
  • Die vorliegende Offenbarung ist im Allgemeinen auf ein Datenverarbeitungssystem zur Durchführung der Modulation von paketierten Audiosignalen gerichtet. Das Datenverarbeitungssystem kann die Effizienz und Effektivität der Informationsübertragung über eine oder mehrere Schnittstellen oder eine oder mehrere Arten von Computernetzwerken verbessern. Computersysteme können zum Beispiel Zugriff auf eine begrenzte Anzahl von Schnittstellen oder begrenzte Arten von Schnittstellen haben, oder es kann eine begrenzte Anzahl verfügbarer Schnittstellen zu einer bestimmten Zeit geben. Es kann für ein System schwierig sein, Informationen in Reaktion auf die zurzeit verfügbaren Schnittstellen effizient zu übertragen, da bestimmte Arten von Schnittstellen mehr Computerressourcen oder Batterie verbrauchen können.
  • Die Systeme und Verfahren der vorliegenden Offenbarung sind im Allgemeinen auf ein Datenverarbeitungssystem gerichtet, das Audioausgaben auf Basis des Kontexts einer Kommunikationssitzung dynamisch moduliert. Das Datenverarbeitungssystem kann den Ton, die Frequenz, die Mittenfrequenz und die Amplitude modulieren, ein Wasserzeichen anwenden, überlagern oder anderweitig modulieren oder einen Abschnitt der Audioausgabe anpassen, um den Kontext oder Typ des Abschnitts der Audioausgabe anzugeben. Das Datenverarbeitungssystem kann eine erste Audiomodulation für einen ersten Abschnitt des Ausgabeaudiosignals verwenden und eine zweite Audiomodulation für einen zweiten Abschnitt des Audiosignals basierend darauf, dass der Kontext für den zweiten Abschnitt sich vom ersten Abschnitt unterscheidet. Der zweite Abschnitt kann beispielsweise Audio beinhalten, der einem Inhaltselement entspricht, der von einem Drittpartei-Inhaltsanbieter bereitgestellt und durch das Datenverarbeitungssystem während eines Echtzeit-Auswahlprozesses ausgewählt wird.
  • Die vorliegende Lösung kann Ressourcenverbrauch, Prozessorauslastung, Batterieverbrauch, Bandbreitenauslastung, die Größe einer Audiodatei oder die Zeitdauer, die von einem Lautsprecher durch Modulation eines Abschnitts einer Audioausgabedatei verbraucht wird, um einen Angabe bereitzustellen, verringern. In manchen Fällen kann das Datenverarbeitungssystem den Abschnitt der Audiodatei modulieren, statt einen zusätzlichen Audioinhalt zur Audiodatei hinzuzufügen. Durch Modulieren des Abschnitts der Audiodatei kann das Datenverarbeitungssystem Ressourcenverbrauch verringern, indem es, im Vergleich zur Bereitstellung einer Angabe, die der Audiodatei angehängt oder auf getrennte Weise bereitgestellt wird, weniger Datenübertragungen bereitstellt oder weniger Audiosignale erzeugt.
  • 1 veranschaulicht ein exemplarisches System 100 zum Durchführen dynamischer Modulation von paketierten Audiosignalen. Das System 100 kann eine Inhaltsauswahlinfrastruktur beinhalten. Das System 100 kann ein Datenverarbeitungssystem 102 beinhalten. Das Datenverarbeitungssystem 102 kann über ein Netzwerk 105 mit einem oder mehreren von einem Inhaltsanbieter-Computergerät 106, Dienstanbieter-Computergerät 108 oder Client-Computergerät 104 kommunizieren. Das Netzwerk 105 kann Computernetzwerke, wie z. B. das Internet, lokale Netzwerke, Großraumnetzwerke, regionale Netzwerke oder andere Bereichsnetzwerke, Intranets, Satellitennetzwerke oder andere Kommunikationsnetzwerke wie mobile Sprach- oder Daten-Mobiltelefonnetze beinhalten. Das Netzwerk 105 kann zum Zugreifen auf Informationsressourcen, wie z. B. Webseiten, Internetpräsenzen, Domänennamen oder URLs (Uniform Resource Locators) verwendet werden, die auf mindestens einem Computergerät 104 wie einem Laptop, Desktop, Tablet, persönlichen digitalen Assistenten, Smartphone, tragbaren Computern oder einem Lautsprecher präsentiert, ausgegeben, wiedergegeben oder angezeigt werden können. Über das Netzwerk 105 kann ein Benutzer des Computergeräts 104 beispielsweise auf Informationen oder Daten zugreifen, die von einem Dienstanbieter 108 oder Inhaltsanbieter 106 bereitgestellt werden. Das Computergerät 104 kann eine Anzeige beinhalten oder auch nicht; beispielsweise kann das Computergerät begrenzte Arten von Benutzerschnittstellen, wie z. B. ein Mikrofon und einen Lautsprecher beinhalten. In einigen Fällen kann die primäre Benutzerschnittstelle des Computergeräts 104 ein Mikrofon und ein Lautsprecher sein.
  • Das Netzwerk 105 kann ein Anzeigenetzwerk, wie z. B. eine im Internet verfügbare Untergruppe von Informationsquellen, umfassen oder bilden, die mit einem Inhaltsplatzierungs- oder Suchmaschinenergebnissystem verknüpft sind, oder die auswählbar sind, sodass sie Drittanbieterinhaltselemente als Teil einer Inhaltselementanordnungskampagne beinhalten. Das Netzwerk 105 kann durch das Datenverarbeitungssystem 102 verwendet werden, um auf Informationsressourcen wie Webseiten, Internetpräsenzen, Domänennamen oder URL-Adressen zuzugreifen, die durch das Client-Computergerät 104 präsentiert, ausgegeben, wiedergegeben oder angezeigt werden können. Über das Netzwerk 105 kann ein Benutzer des Client-Computergeräts 104 beispielsweise auf Informationen oder Daten zugreifen, die durch das Inhaltsanbieter-Computergerät 106 oder das Dienstanbieter-Computergerät 108 bereitgestellt werden.
  • Das Netzwerk 105 kann eine beliebige Art oder Form von Netzwerk sein und eines der folgenden beinhalten: ein Point-to-Point-Netzwerk, ein Broadcast-Netzwerk, ein Großraumnetzwerk, ein lokales Netzwerk, ein Telekommunikationsnetzwerk, ein Datenkommunikationsnetzwerk, ein Computernetzwerk, ein ATM-Netzwerk (Asynchroner Transfermodus), ein SONET-Netzwerk (Synchrones Optisches Netzwerk), ein SDH-Netzwerk (Synchrone Digitale Hierarchie), ein Drahtlosnetzwerk oder ein kabelgebundenes Netzwerk. Das Netzwerk 105 kann eine Drahtlosverbindung, wie z. B. einen Infrarotkanal oder ein Satellitenfrequenzband, beinhalten. Die Topologie des Netzwerks 105 kann eine Bus-, Stern- oder Ringnetzwerktopologie beinhalten. Das Netzwerk kann mobile Telefonnetzwerke unter Verwendung von einem beliebigen Protokoll oder beliebigen Protokollen beinhalten, die zur Kommunikation mit Mobilgeräten geeignet sind, darunter Advanced Mobile Phone Protocol („AMPS“), Time Division Multiple Access („TDMA“), Code-Division Multiple Access („CDMA“), Global System for Mobile Communication („GSM“), General Packet Radio Services („GPRS“) und Universal Mobile Telecommunications System („UMTS“). Verschiedene Arten von Daten können über verschiedene Protokolle übertragen werden oder es können gleiche Arten von Daten über verschiedene Protokolle übertragen werden.
  • Das System 100 kann mindestens ein Datenverarbeitungssystem 102 beinhalten. Das Datenverarbeitungssystem 102 kann mindestens eine logische Vorrichtung wie ein Computergerät mit einem Prozessor zur Kommunikation über das Netzwerk 105, z. B. mit dem Computergerät 104, dem Inhaltsanbietergerät 106 (Inhaltsanbieter 106) oder dem Dienstanbietergerät 108 (oder Dienstanbieter 108), beinhalten. Das Datenverarbeitungssystem 102 kann mindestens eine Rechenressource, einen Server, Prozessor oder Speicher beinhalten. Das Datenverarbeitungssystem 102 kann zum Beispiel eine Vielzahl von Computerressourcen oder Servern beinhalten, die sich in mindestens einem Rechenzentrum befinden. Das Datenverarbeitungssystem 102 kann mehrere logisch gruppierte Server beinhalten und verteilte Rechentechniken erleichtern. Die logische Gruppe von Servern kann als Rechenzentrum, Serverfarm oder Computerfarm bezeichnet werden. Die Server können zudem auf verschiedene Standorte verteilt sein. Ein Rechenzentrum oder eine Computerfarm kann als eine einzelne Entität verwaltet werden oder die Computerfarm kann eine Vielzahl von Computerfarmen beinhalten. Die Server in einer Computerfarm können heterogen sein - ein oder mehrere der Server oder Computer können gemäß einem oder mehreren Typen von Betriebssystemplattformen betrieben werden.
  • Server in der Computerfarm können in Rack-Systemen hoher Dichte zusammen mit zugehörigen Speichersystemen aufbewahrt werden und sich in einem Enterprise-Rechenzentrum befinden. Wenn Server auf diese Weise konsolidiert werden, lassen sich zum Beispiel die Systemverwaltung, Datensicherheit, physische Sicherheit des Systems sowie Systemleistung verbessern, indem in lokalisierten Hochleistungsnetzwerken nach Servern und Hochleistungsspeichersystemen gesucht wird. Die Zentralisierung aller oder einiger der Komponenten des Datenverarbeitungssystems 102, einschließlich Server und Speichersysteme, und das Koppeln dieser mit verbesserten System-Management-Tools ermöglicht eine effizientere Verwendung von Server-Ressourcen, wodurch Strom- und Verarbeitungsanforderungen gespart und die Bandbreitenauslastung verringert werden.
  • Das System 100 kann mindestens ein Dienstanbietergerät 108 beinhalten, darauf zugreifen oder anderweitig damit interagieren. Das Dienstanbietergerät 108 kann mindestens eine logische Vorrichtung, wie z. B. ein Computergerät mit einem Prozessor, zur Kommunikation über das Netzwerk 105, z. B. mit dem Computergerät 104, dem Datenverarbeitungssystem 102 oder dem Inhaltsanbieter 106, beinhalten. Das Dienstanbietergerät 108 kann mindestens eine Rechenressource, einen Server, Prozessor oder Speicher beinhalten. Das Dienstanbietergerät 108 kann beispielsweise mehrere in mindestens einem Rechenzentrum befindliche Rechenressourcen oder Server beinhalten. Das Dienstanbietergerät 108 kann eine oder mehrere Komponenten oder Funktionalitäten des Datenverarbeitungssystems 102 beinhalten.
  • Das Inhaltsanbieter-Computergerät 106 kann audiobasierte Inhaltselemente zum Anzeigen durch das Client-Computergerät 104 als Audioausgangsinhaltselement bereitstellen. Das Inhaltselement kann ein Angebot für eine Ware oder eine Dienstleistung beinhalten, wie beispielsweise eine sprachbasierte Nachricht, die besagt: „Möchten Sie, dass ich für Sie ein Taxi bestelle?“ Beispielsweise kann das Inhaltsanbieter-Computergerät 155 einen Speicher zum Speichern einer Reihe von Audioinhaltselementen, die in Reaktion auf eine sprachbasierte Abfrage bereitgestellt werden können, beinhalten. Die Inhaltsanbieter-Computergerät 106 kann außerdem audiobasierte Inhaltselemente (oder andere Inhaltselemente) für das Datenverarbeitungssystem 102 bereitstellen, wo diese im Datenbehälter 124 gespeichert werden können. Das Datenverarbeitungssystem 102 kann die Audioinhaltselemente auswählen und die Audioinhaltselemente für das Client-Computergerät 104 bereitstellen (oder das Inhaltsanbieter-Computergerät 104 anweisen, dieselben bereitzustellen). Die audiobasierten Inhaltselemente können ausschließlich Audio sein oder mit Text-, Bild- oder Videodaten kombiniert sein.
  • Das Dienstanbietergerät 108 kann das Verbinden oder anderweitige Kommunizieren mit mindestens einer Dienstanbieter-Prozessorkomponente 142 für natürliche Sprache und einer Dienstanbieterschnittstelle 144 beinhalten. Das Dienstanbieter-Computergerät 108 kann mindestens eine Prozessorkomponente für natürliche Sprache (NLP) 142 des Dienstanbieters und mindestens eine Dienstanbieterschnittstelle 144 beinhalten. Die Dienstanbieter-NLP-Komponente 142 (oder andere Komponenten, wie z. B. eine Direktaktions-API des Dienstanbieter-Computergeräts 108) kann das Client-Computergerät 104 (über das Datenverarbeitungssystem 102 oder durch Umgehen des Datenverarbeitungssystems 102) ansteuern, um eine hin und her gehende sprach- oder audiobasierte Konversation in Echtzeit (z. B. eine Sitzung) zwischen dem Client-Computergerät 104 und dem Dienstanbieter-Computergerät 108 zu erzeugen. Der Dienstanbieter-NLP 142 kann eine oder mehrere Funktionen oder Merkmale wie die NLP-Komponente 112 des Datenverarbeitungssystems 102 beinhalten. Die Dienstanbieterschnittstelle 144 kann beispielsweise Datennachrichten von der Direktaktions-API 116 des Datenverarbeitungssystems 102 empfangen oder für diese bereitstellen. Das Dienstanbieter-Computergerät 108 und das Inhaltsanbieter-Computergerät 106 können mit der gleichen Entität verknüpft sein. Das Dienstanbieter-Computergerät 106 kann beispielsweise Inhalte für einen Fahrgemeinschaftsdienst erzeugen, speichern oder bereitstellen, und das Dienstanbieter-Computergerät 108 kann eine Sitzung mit dem Client-Computergerät 106 herstellen, um die Bereitstellung eines Taxis oder Autos des Fahrgemeinschaftsdienstes zu veranlassen, den Endbenutzer des Client-Computergeräts 104 abzuholen. Das Datenverarbeitungssystem 102 kann über die Direktaktions-API 116, die NLP-Komponente 112 oder andere Komponenten auch die Sitzung mit dem Client-Computergerät herstellen, einschließlich oder unter Umgehung des Computergeräts 104 des Dienstanbieters, um z. B. die Bereitstellung eines Taxis oder Autos des Fahrgemeinschaftsdienstes zu veranlassen.
  • Das Computergerät 104 kann das Verbinden oder anderweitige Kommunizieren mit mindestens einem Sensor 134, Wandler 136, Audiotreiber 138 oder Vorprozessor 140 beinhalten. Der Sensor 134 kann z. B. einen Umgebungslichtsensor, Näherungssensor, Temperatursensor, Beschleunigungssensor, ein Gyroskop, einen Bewegungsdetektor, GPS-Sensor, Ortungssensor, ein Mikrofon oder einen Berührungssensor beinhalten. Der Wandler 136 kann einen Lautsprecher oder ein Mikrofon beinhalten. Der Audiotreiber 138 kann eine Softwareschnittstelle an den Hardwarewandler 136 bereitstellen. Der Audiotreiber kann die Audiodatei oder andere Befehle ausführen, die durch das Datenverarbeitungssystem 102 bereitgestellt werden, um den Wandler 136 zu steuern, eine entsprechende akustische Welle oder Schallwelle zu erzeugen. Der Vorprozessor 140 kann konfiguriert sein, ein Schlüsselwort zu erkennen und basierend auf dem Schlüsselwort eine Aktion auszuführen. Der Vorprozessor 140 kann einen oder mehrere Begriffe herausfiltern oder die Begriffe vor dem Senden der Begriffe an das Datenverarbeitungssystem 102 für ein weiteres Verarbeiten modifizieren. Der Vorprozessor 140 kann die analogen Audiosignale, die durch das Mikrofon festgestellt werden, in ein digitales Audiosignal umwandeln und ein oder mehrere Datenpakete, die das digitale Audiosignal transportieren, über das Netzwerk 105 an das Datenverarbeitungssystem 102 senden. In einigen Fällen kann der Vorprozessor 140 Datenpakete, die einige oder alle der eingegebenen Audiosignale in Reaktion auf das Feststellen eines Befehls, eine solche Übertragung auszuführen, übertragen. Der Befehl kann beispielsweise ein Auslöserschlüsselwort oder ein anderes Schlüsselwort oder eine Genehmigung beinhalten, Datenpakete, die das eingegebene Audiosignal umfassen, an das Datenverarbeitungssystem 102 zu senden.
  • Das Client-Computergerät 104 kann mit einem Endbenutzer verknüpft sein, der Sprachanfragen als Audioeingabe in das Client-Computergerät 104 (über den Sensor 134) eingibt, und eine Audioausgabe in Form einer computergenerierten Stimme empfängt, die von dem Datenverarbeitungssystem 102 (oder dem Inhaltsanbieter-Computergerät 106 oder dem Dienstanbieter-Computergerät 108) für das Client-Computergerät 104 bereitgestellt und von dem Wandler 136 (z. B. einem Lautsprecher) ausgegeben werden kann. Die computergenerierte Stimme kann Aufzeichnungen von einer realen Person oder einer computergenerierten Sprache beinhalten.
  • Der Datenbehälter 124 kann eine oder mehrere lokale oder verteilte Datenbanken sowie ein Datenbankmanagementsystem beinhalten. Der Datenbehälter 124 kann Computerdatenspeicher oder Arbeitsspeicher beinhalten und einen oder mehrere Parameter 126, eine oder mehrere Richtlinien 128, Interaktionsmodi 130 und Vorlagen 132 neben anderen Daten speichern. Die Parameter 126, Richtlinien 128 und Vorlagen 132 können Informationen, wie z. B. Regeln über eine sprachbasierte Sitzung zwischen dem Client-Computergerät 104 und dem Datenverarbeitungssystem 102 (oder dem Dienstanbieter-Computergerät 108), beinhalten. Die Inhaltsdaten 130 können Inhaltselemente für eine Audioausgabe oder verknüpfte Metadaten sowie eingegebene Audionachrichten, die Teil von einer oder mehreren Kommunikationssitzungen mit dem Client-Computergerät 104 sein können, beinhalten.
  • Das Datenverarbeitungssystem 102 kann ein Inhaltsplatzierungssystem beinhalten, das mindestens eine Rechenressource oder einen Server aufweist. Das Datenverarbeitungssystem 102 kann das schnittstellenmäßige Verbinden oder anderweitige Kommunizieren mit mindestens einer Schnittstelle 110 beinhalten. Das Datenverarbeitungssystem 102 kann das schnittstellenmäßige Verbinden oder anderweitige Kommunizieren mit mindestens einer Prozessorkomponente für natürliche Sprache 112 beinhalten. Das Datenverarbeitungssystem 102 kann mindestens ein Sitzungshandhabungselement 114 beinhalten, sich schnittstellenmäßig damit verbinden oder anderweitig damit kommunizieren. Das Datenverarbeitungssystem 102 kann mindestens eine Anwendungsprogrammierschnittstelle („API“) 116 für eine direkte Aktion beinhalten, sich schnittstellenmäßig damit verbinden oder anderweitig damit kommunizieren. Das Datenverarbeitungssystem 102 kann das schnittstellenmäßige Verbinden oder anderweitige Kommunizieren mit mindestens einer Inhaltsauswahlkomponente 118 beinhalten. Das Datenverarbeitungssystem 102 kann das schnittstellenmäßige Verbinden oder anderweitige Kommunizieren mit mindestens einer Richtlinien-Engine 120 beinhalten. Das Datenverarbeitungssystem 102 kann mindestens einen Audiosignalgenerator 122 beinhalten, sich schnittstellenmäßig damit verbinden oder anderweitig damit kommunizieren. Das Datenverarbeitungssystem 102 kann das schnittstellenmäßige Verbinden oder anderweitige Kommunizieren mit mindestens einem Datenbehälter 124 beinhalten. Der mindestens eine Datenbehälter 124 kann eine oder mehrere Datenstrukturen oder Datenbanken, Parameter 126, Richtlinien 128, Inhaltsdaten 130 oder Vorlagen 132 beinhalten oder speichern. Parameter 126 können beispielsweise Schwellenwerte, Entfernungen, Zeitintervalle, Zeitspannen, Bewertungen oder Gewichte beinhalten. Inhaltsdaten 130 können beispielsweise Inhaltskampagnendaten, Inhaltsgruppen, Inhaltsauswahlkriterien, Inhaltselementobjekte oder andere Informationen beinhalten, die von einem Inhaltsanbieter 106 bereitgestellt oder vom Datenverarbeitungssystem empfangen oder ermittelt werden, um die Inhaltsauswahl zu erleichtern. Die Inhaltsdaten 130 können beispielsweise eine frühere Leistung einer Inhaltskampagne beinhalten.
  • Die Schnittstelle 110, die Prozessorkomponente für natürliche Sprache 112, das Sitzungshandhabungselement 114, die Direktaktions-API 116, die Inhaltsauswahlkomponente 118, die Richtlinien-Engine 120 oder die Audiosignalgeneratorkomponente 122 können jeweils mindestens eine Verarbeitungseinheit oder eine andere logische Vorrichtung, wie z. B. eine programmierbare Logik-Array-Engine, oder ein Modul beinhalten, das konfiguriert ist, um mit dem Datenbankbehälter oder der Datenbank 124 zu kommunizieren. Die Schnittstelle 110, die Prozessorkomponente für natürliche Sprache 112, das Sitzungshandhabungselement 114, die Direktaktions-API 116, die Inhaltsauswahlkomponente 118, die Richtlinien-Engine 120, die Audiosignalgeneratorkomponente 122 und der Datenbehälter 124 können separate Komponenten, eine einzelne Komponente oder Teil des Datenverarbeitungssystems 102 sein. Das System 100 und dessen Komponenten, wie beispielsweise ein Datenverarbeitungssystem 102, können Hardware-Elemente wie einen oder mehrere Prozessoren, logische Vorrichtungen oder Schaltungen beinhalten.
  • Das Datenverarbeitungssystem 102 kann anonyme Informationen über Computernetzwerkaktivitäten erhalten, die mit mehreren Computergeräten 104 verknüpft sind. Ein Benutzer eines Computergeräts 104 kann das Datenverarbeitungssystem 102 gezielt dazu autorisieren, Informationen über Netzwerkaktivitäten, die dem Computergerät 104 des Benutzers entsprechen, zu erhalten. Das Datenverarbeitungssystem 102 kann beispielsweise den Benutzer des Computergeräts 104 zum Zustimmen veranlassen, um eine oder mehrere Informationen über Netzwerkaktivitätsarten zu erhalten. Die Identität des Benutzers des Computergeräts 104 kann anonym bleiben und das Computergerät 104 kann mit einer eindeutigen Kennung (z. B. einer eindeutigen Kennung für den Benutzer oder das Computergerät, die durch das Datenverarbeitungssystem oder einen Benutzer des Computergeräts bereitgestellt wird) verknüpft sein. Das Datenverarbeitungssystem kann jeder Beobachtung eine entsprechende eindeutige Kennung zuweisen.
  • Ein Inhaltsanbieter 106 kann eine elektronische Inhaltskampagne einrichten. Die elektronische Inhaltskampagne kann in Form von Inhaltsdaten 130 im Datenbehälter 124 gespeichert werden. Eine elektronische Inhaltskampagne kann sich auf eine oder mehrere Inhaltsgruppen beziehen, die einem gemeinsamen Thema entsprechen. Eine Inhaltskampagne kann eine hierarchische Datenstruktur beinhalten, die Inhaltsgruppen, Inhaltselementdatenobjekte und Inhaltsauswahlkriterien beinhaltet. Zur Erstellung einer Inhaltskampagne kann der Inhaltsanbieter 106 spezifische Werte für Kampagnenebenenparameter der Inhaltskampagne festlegen. Die Kampagnenebenenparameter können zum Beispiel beinhalten: einen Kampagnennamen, ein bevorzugtes Inhaltsnetzwerk für die Platzierung von Inhaltselementobjekten, einen Wert für Ressourcen zur Verwendung für die Inhaltskampagne, Start- und Enddaten für die Inhaltskampagne, eine Dauer der Inhaltskampagne, einen Zeitplan für die Platzierung von Inhaltselementobjekten, Sprache, geografische Standorte und die Art von Computergeräten, auf denen Inhaltselementobjekte bereitgestellt werden sollen. In einigen Fällen kann sich ein Eindruck darauf beziehen, dass ein Inhaltselementobjekt von dessen Quelle (z. B. Datenverarbeitungssystem 102 oder Inhaltsanbieter 106) abgerufen wird und zählbar ist. In einigen Fällen können angesichts der Möglichkeit von betrügerischen Klicks computergesteuerte Aktivitäten gefiltert und als Eindruck ausgeschlossen werden. Daher kann sich in einigen Fällen ein Eindruck auf eine Messung von Antworten von einem Webserver hinsichtlich einer Seitenanfrage durch einen Browser beziehen, der von automatischer Aktivität und Fehlercodes gefiltert und an einem Punkt so nah wie möglich an einer Gelegenheit aufgezeichnet wird, das Inhaltselementobjekt zur Anzeige auf dem Computergerät 104 wiederzugeben. In einigen Fällen kann sich ein Eindruck auf einen sichtbaren oder hörbaren Eindruck beziehen; z. B. ist das Inhaltselementobjekt zumindest teilweise (z. B. 20 %, 30 %, 30 %, 40 %, 50 %, 60 %, 70 % oder mehr) auf einem Anzeigegerät des Client-Computergeräts 104 sichtbar oder über einen Lautsprecher 136 des Computergeräts 104 hörbar. Ein Klick oder eine Auswahl kann sich auf eine Benutzerinteraktion mit dem Inhaltselementobjekt beziehen, wie beispielsweise auf eine Sprachantwort auf einen hörbaren Eindruck, einen Mausklick, eine Berührungsinteraktion, eine Geste, ein Schütteln, eine Audiointeraktion oder eine Tastatureingabe. Eine Umwandlung kann sich auf einen Benutzer beziehen, der hinsichtlich des Inhaltselementobjekts eine gewünschte Aktion ausführt (z. B. Kauf eines Produkts oder Service, Teilnahme an einer Umfrage, Besuch eines physischen Geschäfts, das dem Inhaltselement entspricht, oder Abschließen einer elektronischen Transaktion).
  • Der Inhaltsanbieter 106 kann außerdem eine oder mehrere Inhaltsgruppen für eine Inhaltskampagne einrichten. Eine Inhaltsgruppe beinhaltet ein oder mehrere Inhaltselementobjekte und entsprechende Inhaltsauswahlkriterien, wie Schlüsselwörter, Worte, Begriffe, Ausdrücke, geografische Standorte, Computergerätetyp, Tageszeit, Interesse, Thema oder Vertikale. Inhaltsgruppen unter der gleichen Inhaltskampagne können die gleichen Kampagnenebenenparameter teilen, können jedoch für bestimmte Inhaltsgruppenebenenparameter zugeschnittene Beschreibungen aufweisen, wie beispielsweise Schlüsselwörter, negative Schlüsselwörter (z. B. diese Anordnung des Blocks des Inhaltselements bei Vorhandensein des negativen Schlüsselworts im Hauptinhalt), Angebote für Schlüsselwörter oder Parameter, die mit dem Angebot oder der Inhaltskampagne verknüpft sind.
  • Zur Erstellung einer neuen Inhaltsgruppe kann der Inhaltsanbieter Werte für Parameter auf der Inhaltsgruppenebene der Inhaltsgruppe bereitstellen. Die Inhaltsgruppenebenenparameter beinhalten, beispielsweise einen Inhaltsgruppennamen oder ein Inhaltsgruppenthema und Angebote für unterschiedliche Inhaltsplatzierungsmöglichkeiten (z. B. automatische Anordnung oder verwaltete Anordnung) oder Ergebnisse (z. B. Klicks, Eindrücke oder Konvertierungen). Ein Inhaltsgruppenname oder Inhaltsgruppenthema kann aus einem oder mehreren Begriffen bestehen, die der Inhaltsanbieter 106 verwenden kann, um ein Thema oder einen Gegenstand zu erfassen, für das/den Inhaltselementobjekte der Inhaltsgruppe zur Anzeige ausgewählt werden sollen. Ein Autohändler kann beispielsweise eine unterschiedliche Inhaltsgruppe für jede Fahrzeugmarke erzeugen, die er führt, und kann des Weiteren eine unterschiedliche Inhaltsgruppe für jedes Modell eines Fahrzeugs erzeugen, das er führt. Beispiele für inhaltliche Gruppenthemen, die der Autohändler verwenden kann, können beispielsweise „Marke A Sportwagen“, „Marke B Sportwagen“, „Marke C Limousine“, „Marke C Lkw“, „Marke C Hybrid“ oder „Marke D Hybrid“ beinhalten. Ein exemplarisches Inhaltskampagnenthema kann „Hybrid“ sein und kann beispielsweise Inhaltsgruppen sowohl für „Marke C Hybrid“ als auch „Marke D Hybrid“ beinhalten.
  • Das Inhaltsanbieter-Computergerät 106 kann ein oder mehrere Schlüsselwörter und Inhaltselementobjekte für jede Inhaltsgruppe bereitstellen. Schlüsselwörter können Begriffe beinhalten, die für das Produkt oder die Dienstleistungen relevant sind, das/die mit dem Inhaltselementobjekt verknüpft sind oder von diesem identifiziert werden. Ein Schlüsselwort kann eine/n oder mehrere Begriffe oder Phrasen beinhalten. Der Autohändler kann beispielsweise „Sportwagen“, „Sechszylindermotor“, „Allradantrieb“, „Kraftstoffeffizienz“ als Schlüsselwörter für eine Inhaltsgruppe oder Inhaltskampagne einbeziehen. In einigen Fällen können negative Schlüsselwörter durch den Inhaltsanbieter spezifiziert werden, um eine Inhaltsplatzierung bei bestimmten Begriffen oder Schlüsselwörtern zu vermeiden, zu verhindern, zu blockieren oder zu deaktivieren. Der Inhaltsanbieter kann einen Typ der Übereinstimmung festlegen (z. B. genaue Übereinstimmung, Phrasenübereinstimmung oder allgemeine Übereinstimmung), der zur Auswahl von Inhaltselementobjekten verwendet wird.
  • Der Inhaltsanbieter 106 kann ein oder mehrere von dem Datenverarbeitungssystem 102 zu verwendende Schlüsselwörter bereitstellen, um ein Inhaltselementobjekt auszuwählen, das durch den Inhaltsanbieter 106 bereitgestellt wird. Der Inhaltsanbieter 106 kann ein oder mehrere Schlüsselwörter zum Anbieten identifizieren und ferner Angebotsbeträge für verschiedene Schlüsselwörter bereitstellen. Der Inhaltsanbieter 106 kann durch das Datenverarbeitungssystem 102 zu verwendende zusätzliche Inhaltsauswahlkriterien bereitstellen, um Inhaltselementobjekte auszuwählen. Mehrere Inhaltsanbieter 106 können mit den gleichen oder unterschiedlichen Schlüsselwörtern ein Angebot machen und das Datenverarbeitungssystem 102 kann einen Inhaltsauswahlprozess oder eine Werbeauktion in Reaktion auf das Empfangen einer Angabe eines Schlüsselworts einer elektronischen Nachricht ausführen.
  • Der Inhaltsanbieter 106 kann dem Datenverarbeitungssystem 102 ein oder mehrere Inhaltselementobjekte zur Auswahl bereitstellen. Das Datenverarbeitungssystem 102 kann (z. B. über die Inhaltsauswahlkomponente 118) die Inhaltselementobjekte auswählen, wenn eine Inhaltsplatzierungsmöglichkeit verfügbar wird, die mit der Ressourcenzuordnung, dem Inhaltszeitplan, den maximalen Angeboten, Schlüsselwörtern und anderen Auswahlkriterien übereinstimmt, die für die Inhaltsgruppe angegeben sind. Unterschiedliche Arten von Inhaltselementobjekten können in eine Inhaltsgruppe einbezogen werden, wie beispielsweise ein Sprachinhaltselement, Audioinhaltselement, Textinhaltselement, Bildinhaltselement, Videoinhaltselement, Multimediainhaltselement oder einen Inhaltselementlink. Nach dem Auswählen eines Inhaltselements kann das Datenverarbeitungssystem 102 das Inhaltselementobjekt zum Wiedergeben auf einem Computergerät 104 oder einem Anzeigegerät des Computergeräts 104 senden. Das Wiedergeben kann das Anzeigen des Inhaltselements auf einem Anzeigegerät oder das Abspielen des Inhaltselements über einen Lautsprecher des Computergeräts 104 beinhalten. Das Datenverarbeitungssystem 102 kann für ein Computergerät 104 Anweisungen zum Wiedergeben des Inhaltselementobjekts bereitstellen. Das Datenverarbeitungssystem 102 kann die Computergerät 104 oder einen Audiotreiber 138 des Computergeräts 104 anweisen, Audiosignale oder Schallwellen zu erzeugen.
  • Das Datenverarbeitungssystem 102 kann eine Schnittstellenkomponente 110 beinhalten, die konzipiert, konfiguriert, aufgebaut oder betriebsfähig ist, Informationen unter Verwendung von beispielsweise Datenpaketen zu empfangen und zu senden. Die Schnittstelle 110 kann Informationen unter Verwendung eines oder mehrerer Protokolle, wie z. B. einem Netzwerkprotokoll, senden und empfangen. Die Schnittstelle 110 kann eine Hardwareschnittstelle, eine Softwareschnittstelle, eine drahtgebundene Schnittstelle oder eine drahtlose Schnittstelle beinhalten. Die Schnittstelle 110 kann das Übersetzen oder Formatieren von Daten von einem Format in ein anderes erleichtern. Die Schnittstelle 110 kann beispielsweise eine Anwendungsprogrammierschnittstelle beinhalten, die Definitionen zum Kommunizieren zwischen verschiedenen Komponenten, wie z. B. Softwarekomponenten, beinhaltet.
  • Das Datenverarbeitungssystem 102 kann eine Anwendung, ein Script oder ein Programm beinhalten, die/das auf dem Client-Computergerät 104 installiert ist, wie z. B. eine Anwendung, um Eingabeaudiosignale an die Schnittstelle 110 des Datenverarbeitungssystems 102 zu kommunizieren, und um Komponenten des Client-Computergeräts anzusteuern, um Ausgabeaudiosignale wiederzugeben. Das Datenverarbeitungssystem 102 kann Datenpakete oder ein anderes Signal empfangen, das ein Audioeingabesignal beinhaltet oder identifiziert. Beispielsweise kann das Datenverarbeitungssystem 102 die NLP-Komponente 112 ausführen oder ausführen lassen, um das Audiosignal zu empfangen oder zu erhalten, und das Audiosignal zu parsen. Die NLP-Komponente 112 kann beispielsweise Interaktionen zwischen einem Menschen und einem Computer bereitstellen. Die NLP-Komponente 112 kann mit Techniken zum Verstehen natürlicher Sprache konfiguriert sein und kann dem Datenverarbeitungssystem 102 ermöglichen, eine Bedeutung von einer menschlichen oder Eingabe in natürlicher Sprache abzuleiten. Die NLP-Komponente 112 kann Technik, die auf maschinellem Lernen, wie z. B. statistischem maschinellem Lernen, basiert, beinhalten oder damit konfiguriert sein. Die NLP-Komponente 112 kann Entscheidungsbäume, statistische Modelle oder Wahrscheinlichkeitsmodelle verwenden, um das Eingabeaudiosignal zu parsen. Die NLP-Komponente 112 kann beispielsweise Funktionen wie Eigennamenerkennung ausführen (z. B. bei einem bestimmten Text-Stream zu ermitteln, welche Elemente im Text Eigennamen, wie z. B. Personen oder Orte, abbilden und welcher Art jeder dieser Namen entspricht, wie z. B. Person, Ort oder Organisation), Erzeugung von natürlicher Sprache (z. B. Informationen von Computerdatenbanken oder semantische Absichten in verständliche menschliche Sprache umzuwandeln), Verstehen von natürlicher Sprache (z. B. Text in förmlichere Darstellungen, wie z. B. Prädikatenlogikstrukturen, die ein Computermodul manipulieren kann, umzuwandeln), Maschinenübersetzung (z. B. automatisch Text von einer menschlichen Sprache in eine andere zu übersetzen), morphologisches Segmentieren (z. B. Worte in individuelle Morpheme zu trennen und die Klasse der Morpheme zu identifizieren, was basierend auf der Komplexität der Morphologie oder dem Wortaufbau der betrachteten Sprache schwierig sein kann), das Beantworten von Fragen (z. B. das Bestimmen einer Antwort auf eine Frage in menschlicher Sprache, die spezifisch oder offen sein kann), semantisches Verarbeiten (z. B. das Verarbeiten, das nach dem Identifizieren eines Wortes und der Codierung seiner Bedeutung erfolgen kann, um das identifizierte Wort mit anderen Worten mit ähnlichen Bedeutungen in Beziehung zu setzen).
  • Die NLP-Komponente 112 wandelt das Audioeingabesignal durch Vergleichen des Eingabesignals mit einer gespeicherten repräsentativen Reihe von Audiowellenformen (z. B. im Datenbehälter 124) und Auswählen der größten Übereinstimmungen in erkannten Text um. Die Reihe von Audiowellenformen kann im Datenbehälter 124 oder einer anderen Datenbank gespeichert sein, die dem Datenverarbeitungssystem 102 zugänglich ist. Die repräsentativen Wellenformen werden über eine große Menge von Benutzern erzeugt und können dann mit Sprachproben vom Benutzer erweitert werden. Nachdem das Audiosignal in erkannten Text umgewandelt wurde, bringt die NLP-Komponente 112 den Text mit Worten in Übereinstimmung, die beispielsweise via Training über Benutzer oder durch manuelle Beschreibung mit Aktionen verknüpft sind, die das Datenverarbeitungssystem 102 bereitstellen kann.
  • Das Audioeingabesignal kann durch den Sensor 134 oder den Wandler 136 (z. B. ein Mikrofon) von dem Client-Computergerät 104 festgestellt werden. Über den Wandler 136, den Audiotreiber 138 oder andere Komponenten kann das Client-Computergerät 104 das Audioeingabesignal dem Datenverarbeitungssystem 102 (z. B. über das Netzwerk 105) bereitstellen, wo es (z. B. durch die Schnittstelle 110) empfangen werden kann, und der NLP-Komponente 112 bereitgestellt, oder in dem Datenbehälter 124 gespeichert werden kann.
  • Die NLP-Komponente 112 kann das Eingabeaudiosignal erhalten. Von dem Eingabeaudiosignal kann die NLP-Komponente 112 mindestens eine Anfrage oder mindestens ein Auslöserschlüsselwort identifizieren, das der Anfrage entspricht. Die Anfrage kann Absicht oder Gegenstand des Eingabeaudiosignals anzeigen. Das Auslöserschlüsselwort kann eine Aktionsart anzeigen, die voraussichtlich vorzunehmen ist. Die NLP-Komponente 112 kann beispielsweise das Eingabeaudiosignal parsen, um mindestens eine Anfrage zu identifizieren, am Abend aus essen und ins Kino zu gehen. Das Auslöserschlüsselwort kann mindestens ein Wort, eine Phrase, einen Wortstamm oder ein Wortteil oder eine Ableitung beinhalten, das bzw. die eine vorzunehmende Aktion anzeigen. Das Auslöserschlüsselwort „gehen“ oder „gehen zu“ von dem Eingabeaudiosignal kann beispielsweise eine Notwendigkeit für einen Transport anzeigen. In diesem Beispiel drückt das Eingabeaudiosignal (oder die identifizierte Anfrage) nicht direkt eine Transportabsicht aus, das Auslöserschlüsselwort zeigt jedoch an, dass ein Transport eine Zusatzaktion für mindestens eine andere Aktion ist, die durch die Anfrage angezeigt wird.
  • Die NLP-Komponente 112 kann das Eingabeaudiosignal parsen, um die Anfrage und das Auslöserschlüsselwort zu identifizieren, zu bestimmen, abzurufen oder anderweitig zu erhalten. Die NLP-Komponente 112 kann zum Beispiel eine semantische Verarbeitungstechnik auf das Eingabeaudiosignal anwenden, um das Auslöserschlüsselwort oder die Anfrage zu identifizieren. Die NLP-Komponente 112 kann die semantische Verarbeitungstechnik auf das Eingabeaudiosignal anwenden, um eine Auslöserphrase zu identifizieren, die ein oder mehrere Auslöserschlüsselwörter, wie z. B. ein erstes Auslöserschlüsselwort und ein zweites Auslöserschlüsselwort, beinhaltet. Beispielsweise kann das eingegebene Audiosignal den Satz „Ich brauche jemanden, um meine Wäsche zu waschen und meine Trockenreinigung durchzuführen“, beinhalten. Die NLP-Komponente 112 kann eine semantische Verarbeitungstechnik oder eine andere Verarbeitungstechnik für natürliche Sprache auf die Datenpakete anwenden, die den Satz „meine Wäsche waschen“ und „meine Trockenreinigung durchführen“ beinhalten, um die Auslöserphrasen zu identifizieren. Die NLP-Komponente 112 kann ferner mehrere Auslöserschlüsselwörter, wie z. B. Wäsche und Trockenreinigung, identifizieren. Die NLP-Komponente 112 kann beispielsweise bestimmen, dass die Auslöserphrase das Auslöserschlüsselwort und ein zweites Auslöserschlüsselwort beinhaltet.
  • Die NLP-Komponente 112 kann das Eingabeaudiosignal filtern, um das Auslöserschlüsselwort zu identifizieren. Beispielsweise können die Datenpakete, die das Audioeingangssignal tragen, „Es wäre großartig, wenn ich jemanden finden könnte, der mir helfen könnte, zum Flughafen zu kommen“, beinhalten, in welchem Fall die NLP-Komponente 112 einen oder mehrere Begriffe wie folgt herausfiltern kann: „Es“, „wäre“, „großartig“, „wenn“, „ich“, „jemanden“, „finden“, „könnte“, „der“, „könnte“ oder „helfen“. Durch Herausfiltern dieser Begriffe kann die NLP-Komponente 112 die Auslöserschlüsselwörter genauer und zuverlässiger identifizieren, beispielsweise „zum Flughafen kommen“ und bestimmen, dass es sich hierbei um eine Anfrage für ein Taxi oder einen Fahrgemeinschaftsdienst handelt.
  • In einigen Fällen kann die NLP-Komponente bestimmen, dass die Datenpakete, die das Eingabeaudiosignal übertragen, eine oder mehrere Anfragen beinhalten. Beispielsweise kann das eingegebene Audiosignal den Satz „Ich brauche jemanden, um meine Wäsche zu waschen und meine Trockenreinigung durchzuführen“, beinhalten. Die NLP-Komponente 112 kann ermitteln, dass es sich hierbei um eine Anfrage für einen Wäschereidienst oder einen Trockenreinigungsdienst handelt. Die NLP-Komponente 112 kann ermitteln, dass es sich hierbei um eine einzelne Anfrage für einen Dienstleister handelt, der sowohl Wäschereidienst als auch Trockenreinigungsdienst bereitstellen kann. Die NLP-Komponente 112 kann ermitteln, dass es sich um zwei Anfragen handelt: eine erste Anfrage für einen Dienstleister, der Wäschereidienste erbringt, und eine zweite Anfrage für einen Dienstleister, der Trockenreinigungsdienste erbringt. In einigen Fällen kann die NLP-Komponente 112 die mehreren ermittelten Anfragen in einer einzelnen Anfrage kombinieren und die einzelne Anfrage an das Dienstanbietergerät 108 übertragen. In einigen Fällen kann die NLP-Komponente 112 die individuellen Anfragen an jeweilige Dienstanbietergeräte 108 übertragen oder beide Anfragen separat an das gleiche Dienstanbietergerät 108 übertragen.
  • Das Datenverarbeitungssystem 102 kann eine Direktaktions-API 116 beinhalten, die so gestaltet und aufgebaut ist, dass sie basierend auf dem Auslöserschlüsselwort eine erste Aktionsdatenstruktur in Reaktion auf die Anfrage erzeugt. Prozessoren des Datenverarbeitungssystems 102 können die Direktaktions-API 116 aufrufen, um Scripts auszuführen, die eine Datenstruktur für ein Dienstanbietergerät 108 erzeugen, um einen Dienst oder ein Produkt, wie beispielsweise ein Auto von einem Fahrgemeinschaftsdienst, anzufordern oder zu bestellen. Die Direktaktions-API 116 kann Daten von dem Datenbehälter 124 sowie Daten empfangen, die mit Zustimmung des Endbenutzers von dem Client-Computergerät 104 empfangen werden, um Ort, Zeit, Benutzerkonten, logistische oder andere Informationen zu ermitteln, um dem Dienstanbietergerät 108 zu ermöglichen, einen Vorgang, wie z. B. ein Auto aus dem Fahrgemeinschaftsdienst zu reservieren, durchzuführen. Unter Verwendung der Direktaktions-API 116 kann das Datenverarbeitungssystem 102 auch mit dem Dienstanbietergerät 108 kommunizieren, um die Umwandlung abzuschließen, indem es in diesem Beispiel die Reservierung für die Fahrgemeinschaftsabholung vornimmt.
  • Die Direktaktions-API 116 kann eine Anweisung oder einen Befehl von der NLP-Komponente 112 oder einer anderen Komponente des Datenverarbeitungssystems 102 empfangen, um die erste Aktionsdatenstruktur zu erzeugen oder zu konstruieren. Die Direktaktions-API 116 kann eine Art von Aktion bestimmen, um eine Vorlage aus dem Vorlagenbehälter 132 auszuwählen, der in dem Datenbehälter 124 gespeichert ist. Arten von Aktionen können z. B. Dienstleistungen, Produkte, Reservierungen oder Tickets beinhalten. Arten von Aktionen können des Weiteren Arten von Dienstleistungen oder Produkten beinhalten. Beispielsweise können Arten von Dienstleistungen einen Fahrgemeinschaftsdienst, einen Lebensmittellieferdienst, einen Wäschereidienst, einen Zimmerreinigungsdienst, Reparaturdienste oder Haushaltsdienste beinhalten. Arten von Produkten können beispielsweise Kleidung, Schuhe, Spielzeug, Elektronik, Computer, Bücher oder Schmuck beinhalten. Arten von Reservierungen können beispielsweise Reservierungen für Restaurants oder Friseurtermine beinhalten. Arten von Tickets können beispielsweise Kinokarten, Eintrittskarten für Sportveranstaltungen oder Flugtickets beinhalten. In einigen Fällen können die Arten von Dienstleistungen, Produkten, Reservierungen oder Tickets basierend auf Preis, Standort, Versandart, Verfügbarkeit oder anderen Attributen kategorisiert werden.
  • Die Direktaktions-API 116 kann eine bestimmte Aktion ausführen, um die von dem Datenverarbeitungssystem 102 bestimmte Absicht des Endbenutzers zu erfüllen. In Abhängigkeit von der Aktion, die in deren Eingaben angegeben ist, kann die Direktaktions-API 116 einen Code oder ein Dialogscript ausführen, das die Parameter identifiziert, die erforderlich sind, um eine Benutzeranfrage zu erfüllen. Dieser Code kann zusätzliche Informationen, z. B. in dem Datenbehälter 124, wie z. B. den Namen eines Hausautomatisierungsdienstes, nachschlagen oder kann Audioausgaben zum Wiedergeben auf dem Client-Computergerät 104 bereitstellen, um dem Endbenutzer Fragen, wie z. B. nach dem beabsichtigten Ziel eines angeforderten Taxis, zu stellen. Die Direktaktions-API 116 kann die notwendigen Parameter ermitteln und die Informationen in eine Aktionsdatenstruktur packen, die dann an eine andere Komponente, wie z. B. die Inhaltsauswahlkomponente 118 oder an das zu erfüllende Dienstanbieter-Computergerät 108, gesendet werden kann.
  • Die Direktaktions-API 116 kann nach dem Identifizieren der Art von Anfrage auf die entsprechende Vorlage zugreifen, die in dem Vorlagenbehälter 132 gespeichert ist. Vorlagen können Felder in einem strukturierten Datensatz beinhalten, die von der Direktaktions-API 116 gefüllt werden können, um den Vorgang zu unterstützen, der von dem Dienstanbietergerät 108 angefordert wird (wie z. B. das Senden eines Taxis, um einen Endbenutzer an einem Abholort abzuholen und den Endbenutzer zu einem Zielort zu transportieren). Die Felder können mit numerischen Werten, Zeichenfolgen, Unicode-Werten, Boolescher Logik, Binärwerten, Hexadezimalwerten, Kennungen, Standortkoordinaten, geografischen Bereichen, Zeitstempeln oder anderen Werten gefüllt werden. Die Felder oder die Datenstruktur selbst können zur Aufrechterhaltung der Datensicherheit verschlüsselt oder maskiert sein.
  • Die Direktaktions-API 116 kann einen Nachschlage- oder anderen Abfragevorgang in dem Vorlagenbehälter 132 ausführen, um die Vorlage auszuwählen, die zu einem oder mehreren Merkmalen des Auslöserschlüsselwortes und der Anfrage passt. Wenn beispielsweise die Anfrage einer Anfrage für ein Auto oder einer Fahrt zu einem Zielort entspricht, kann das Datenverarbeitungssystem 102 eine Fahrgemeinschaftsdienstvorlage auswählen. Die Fahrgemeinschaftsdienstvorlage kann ein oder mehrere der folgenden Felder beinhalten: Gerätekennung, Abholort, Zielort, Anzahl der Passagiere oder Art des Dienstes. Die Direktaktions-API 116 kann die Felder mit Werten füllen. Um die Felder mit Werten zu füllen, kann die Direktaktions-API 116 Informationen von einem oder mehreren Sensoren 134 des Computergeräts 104 oder einer Benutzerschnittstelle des Computergeräts 104 anpingen, anfragen oder anderweitig erhalten. Beispielsweise kann die Direktaktions-API 116 den Quellstandort unter Verwendung eines Standortsensors, wie z. B. eines GPS-Sensors, erkennen. Die Direktaktions-API 116 kann weitere Informationen erhalten, indem sie eine Umfrage, Aufforderung oder Abfrage an das Ende des Benutzers des Computergeräts 104 sendet. Die Direktaktions-API kann die Umfrage, Aufforderung oder Abfrage über die Schnittstelle 110 des Datenverarbeitungssystems 102 und eine Benutzerschnittstelle des Computergeräts 104 (z. B. Audioschnittstelle, sprachbasierte Benutzerschnittstelle, Anzeige oder Touchscreen) senden. Somit kann die Direktaktions-API 116 eine Vorlage für die ersten Aktionsdatenstruktur basierend auf dem Auslöserschlüsselwort oder der Anfrage auswählen, ein oder mehrere Felder in der Vorlage mit Informationen füllen, die von einem oder mehreren Sensoren 134 erkannt oder über eine Benutzerschnittstelle erhalten werden, und die erste Aktionsdatenstruktur erzeugen, erstellen oder anderweitig konstruieren, um die Durchführung eines Vorgangs durch das Inhaltsanbietergerät 108 zu erleichtern.
  • Das Datenverarbeitungssystem 102 kann eine Inhaltsauswahlkomponente 118 beinhalten, ausführen oder anderweitig damit kommunizieren, um das Auslöserschlüsselwort zu empfangen, das durch den Prozessor für natürliche Sprache identifiziert wird, und basierend auf dem Auslöserschlüsselwort ein Inhaltselement über einen Echtzeit-Inhaltsauswahlprozess auswählen. Der Inhaltsauswahlprozess kann sich auf das Auswählen gesponserter Inhaltselementobjekte, die durch dritte Inhaltsanbieter 106 bereitgestellt werden, beziehen oder diese beinhalten. Der Echtzeit-Inhaltsauswahlprozess kann einen Dienst beinhalten, bei dem durch mehrere Inhaltsanbieter bereitgestellte Inhaltselemente geparst, verarbeitet, gewichtet oder abgeglichen werden, um ein oder mehrere für das Computergerät 104 bereitzustellende Inhaltselemente auszuwählen. Die Inhaltsauswahlkomponente 118 kann den Inhaltsauswahlprozess in Echtzeit ausführen. Das Ausführen des Inhaltsauswahlprozesses in Echtzeit kann auf das Ausführen des Inhaltsauswahlprozesses in Reaktion auf die Inhaltsanfrage, die über das Client-Computergerät 104 empfangen wurde, verweisen. Der Echtzeit-Inhaltsauswahlprozess kann innerhalb eines Zeitintervalls durchgeführt (z. B. initiiert oder abgeschlossen) werden, in dem die Anfrage (z. B. 5 Sekunden, 10 Sekunden, 20 Sekunden, 30 Sekunden, 1 Minute, 2 Minuten, 3 Minuten, 5 Minuten, 10 Minuten oder 20 Minuten) empfangen wird. Der Echtzeit-Inhaltsauswahlprozess kann während einer Kommunikationssitzung mit dem Client-Computergerät 104 oder innerhalb eines Zeitintervalls, nachdem die Kommunikationssitzung beendet wurde, durchgeführt werden.
  • Das Datenverarbeitungssystem 102 kann beispielsweise eine Inhaltsauswahlkomponente 118 beinhalten, die konzipiert, aufgebaut, konfiguriert oder betriebsfähig ist, Inhaltselementobjekte auszuwählen. Zur Auswahl von Inhaltselementen für die Anzeige in einer sprachbasierten Umgebung kann das Datenverarbeitungssystem 102 (z. B. über eine NLP-Komponente 112) das Eingabeaudiosignal parsen, um Schlüsselwörter (z. B. ein Auslöserschlüsselwort) zu identifizieren, und die Schlüsselwörter verwenden, um auf Basis einer allgemeinen Übereinstimmung, genauen Übereinstimmung oder Phrasenübereinstimmung ein passendes Inhaltselement auszuwählen. Die Inhaltsauswahlkomponente 118 kann beispielsweise Gegenstände von Kandidateninhaltselementen analysieren, parsen oder anderweitig verarbeiten, um zu ermitteln, ob der Gegenstand der Kandidateninhaltselemente mit dem Gegenstand der Schlüsselwörter oder Phrasen des durch das Mikrofon des Client-Computergeräts 104 erkannten Eingabeaudiosignals übereinstimmt. Die Inhaltsauswahlkomponente 118 kann Sprache, Audio, Begriffe, Zeichen, Text, Symbole oder Bilder der Kandidateninhaltselemente unter Verwendung einer Bildverarbeitungstechnik, Zeichenerkennungstechnik, Verarbeitungstechnik für natürliche Sprache oder von Datenbanknachschlagevorgängen identifizieren, analysieren oder erkennen. Die Kandidateninhaltselemente können Metadaten beinhalten, die auf den Gegenstand der Kandidateninhaltselemente hinweisen, wobei in diesem Fall die Inhaltsauswahlkomponente 118 die Metadaten verarbeiten kann, um zu ermitteln, ob der Gegenstand des Kandidateninhaltselements dem Eingabeaudiosignal entspricht.
  • Inhaltsanbieter 106 können bei der Einrichtung einer Inhaltskampagne, die Inhaltselemente beinhaltet, zusätzliche Indikatoren bereitstellen. Der Inhaltsanbieter kann Informationen auf der Inhaltskampagnen- oder Inhaltsgruppenebene bereitstellen, die die Inhaltsauswahlkomponente 118 identifizieren kann, indem sie unter Verwendung von Informationen über das Kandidateninhaltselement einen Nachschlagevorgang ausführt. Der Inhaltselementkandidat kann zum Beispiel eine eindeutige Kennung beinhalten, die einer Inhaltsgruppe, einer Inhaltskampagne oder einem Inhaltsanbieter zugeordnet sein kann. Die Inhaltsauswahlkomponente 118 kann auf Basis der in der Datenstruktur der Inhaltskampagne im Datenbehälter 124 gespeicherten Daten Informationen über den Inhaltsanbieter 106 ermitteln.
  • Das Datenverarbeitungssystem 102 kann über ein Computernetzwerk eine Anfrage nach Inhalt empfangen, der auf einem Computergerät 104 präsentiert werden soll. Das Datenverarbeitungssystem 102 kann die Anfrage identifizieren, indem es ein Eingabeaudiosignal verarbeitet, das von einem Mikrofon des Client-Computergeräts 104 erkannt wird. Die Anfrage kann Auswahlkriterien der Anfrage beinhalten, wie beispielsweise den Gerätetyp, den Standort und ein mit der Anfrage verknüpftes Schlüsselwort.
  • In Reaktion auf die Anfrage kann das Datenverarbeitungssystem 102 ein Inhaltselementobjekt aus dem Datenbehälter 124 oder einer mit dem Inhaltsanbieter-Computergerät 106 verknüpften Datenbank auswählen und das Inhaltselement zum Präsentieren über das Computergerät 104 über das Netzwerk 105 bereitstellen. Die Computergerät 104 kann mit dem Inhaltselementobjekt interagieren. Die Computergerät 104 kann eine Audioantwort bezüglich des Inhaltselements empfangen. Das Computergerät 104 kann eine Angabe empfangen, um einen Hyperlink oder eine andere Schaltfläche auszuwählen, der/die mit dem Inhaltselementobjekt verknüpft ist, was das Computergerät 104 veranlasst oder demselben ermöglicht, den Dienstanbieter 108 zu identifizieren, einen Dienst von dem Dienstanbieter 108 anzufordern, den Dienstanbieter 108 anzuweisen, einen Dienst durchzuführen, Informationen an den Dienstanbieter 108 zu übertragen oder das Dienstanbietergerät 108 anderweitig abzufragen.
  • Das Datenverarbeitungssystem 102 kann eine Audiosignalgeneratorkomponente 122 beinhalten, ausführen oder mit derselben kommunizieren, um ein Ausgabesignal zu erzeugen. Das Ausgabesignal kann einen oder mehrere Abschnitte beinhalten. Das Ausgabesignal kann beispielsweise einen ersten Abschnitt und einen zweiten Abschnitt beinhalten. Der erste Abschnitt des Ausgabesignals kann der ersten Aktionsdatenstruktur entsprechen. Der zweite Abschnitt des Ausgabesignals kann dem Inhaltselement entsprechen, das von der Inhaltsauswahlkomponente 118 während des Echtzeit-Inhaltsauswahlprozesses ausgewählt wurde.
  • Die Audiosignalgeneratorkomponente 122 kann das Ausgabesignal mit einem ersten Abschnitt erzeugen, der einen Ton entsprechend der ersten Datenstruktur aufweist. Die Audiosignalgeneratorkomponente 122 kann beispielsweise den ersten Abschnitt des Ausgabesignals basierend auf einem oder mehreren Werten erzeugen, die durch die Direktaktions-API 116 in die Felder der ersten Aktionsdatenstruktur eingetragen werden. In einem Taxidienstbeispiel können die Werte für die Felder beispielsweise 123 Main Street für den Abholort, 1234 Main Street für den Zielort, 2 für die Anzahl der Passagiere und Economy für das Serviceniveau beinhalten. Die Audiosignalgeneratorkomponente 122 kann den ersten Abschnitt des Ausgabesignals erzeugen, um zu bestätigen, dass der Endbenutzer des Computergeräts 104 mit dem Übertragen der Anfrage an den Dienstanbieter 108 fortfahren möchte. Der erste Abschnitt kann folgende Ausgabe beinhalten: „Möchten Sie ein Economy-Auto bei dem Taxidienst A bestellen, um zwei Personen an der 123 Main Street abzuholen und an der 1234 Main Street abzusetzen?“
  • In einigen Fällen kann der erste Abschnitt Informationen beinhalten, die von dem Dienstanbietergerät 108 empfangen wurden. Die Informationen, die von dem Dienstanbietergerät 108 empfangen werden, können an die erste Aktionsdatenstruktur angepasst oder zugeschnitten werden. Das Datenverarbeitungssystem 102 kann beispielsweise (z. B. über die Direktaktions-API 116) die erste Aktionsdatenstruktur an den Dienstanbieter 108 übertragen, bevor es den Dienstanbieter 108 mit dem Durchführen des Vorgangs beauftragt. Stattdessen kann das Datenverarbeitungssystem 102 das Dienstanbietergerät 108 anweisen, eine Erst- oder Vorverarbeitung der ersten Aktionsdatenstruktur durchzuführen, um vorläufige Informationen über den Vorgang zu erzeugen. In dem Beispiel des Taxidienstes kann die Vorverarbeitung der ersten Aktionsdatenstruktur die Identifizierung verfügbarer Taxis, die dem Dienstleistungsniveau entsprechen, die sich um den Abholort herum befinden, die Schätzung einer Zeitspanne für das nächstgelegene verfügbare Taxi, um den Abholort zu erreichen, Schätzen einer Ankunftszeit am Zielort und Schätzen eines Preises für den Taxidienst beinhalten. Die geschätzten vorläufigen Werte können einen festen Wert, eine Schätzung, die aufgrund verschiedener Bedingungen geändert werden kann, oder einen Bereich von Werten beinhalten. Das Dienstanbietergerät 108 kann die vorläufigen Informationen über das Netzwerk 104 an das Datenverarbeitungssystem 102 oder direkt an das Client-Computergerät 104 ausgeben. Das Datenverarbeitungssystem 102 kann die vorläufigen Ergebnisse vom Dienstanbietergerät 108 in das Ausgabesignal einfließen lassen und das Ausgabesignal an das Computergerät 104 übertragen. Das Ausgabesignal kann z. B. lauten: „Taxidienst A kann Sie in 10 Minuten an der 123 Main Street abholen und an der 1234 Main Street um 9 Uhr morgens für 10 Dollar absetzen. Möchten Sie diese Fahrt bestellen?“ Dies kann den ersten Abschnitt des Ausgabesignals bilden.
  • In einigen Fällen kann das Datenverarbeitungssystem 102 einen zweiten Abschnitt des Ausgabesignals bilden. Der zweite Abschnitt des Ausgabesignals kann ein Inhaltselement beinhalten, das von der Inhaltsauswahlkomponente 118 während eines Echtzeit-Inhaltsauswahlprozesses ausgewählt wurde. Der erste Abschnitt kann sich von dem zweiten Abschnitt unterscheiden. Der erste Abschnitt kann beispielsweise Informationen beinhalten, die der ersten Aktionsdatenstruktur entsprechen, die direkt auf die Datenpakete reagieren, die das Eingabeaudiosignal übertragen, das von dem Sensor 134 des Client-Computergeräts 104 erkannt wird, während der zweite Abschnitt ein Inhaltselement beinhalten kann, das von einer Inhaltsauswahlkomponente 104 ausgewählt wurde, die tangential relevant für die erste Aktionsdatenstruktur sein kann, oder gesponserten Inhalt beinhalten, der von einem Inhaltsanbietergerät 106 bereitgestellt wird. Der Endbenutzer des Computergeräts 104 kann beispielsweise bei Taxidienstunternehmen A ein Taxi anfordern. Das Datenverarbeitungssystem 102 kann den ersten Abschnitt des Ausgabesignals mit Informationen über das Taxi von dem Taxidienstunternehmen A erzeugen. Das Datenverarbeitungssystem 102 kann jedoch den zweiten Abschnitt des Ausgabesignals erzeugen, sodass es ein Inhaltselement beinhaltet, das auf Basis der Schlüsselwörter „Taxidienst“ und Informationen aus der ersten Aktionsdatenstruktur ausgewählt wird, die für den Endbenutzer von Interesse sein könnten. Der zweite Abschnitt kann beispielsweise ein Inhaltselement oder Informationen beinhalten, die von einem anderen Taxidienstunternehmen, wie z. B. Taxidienstunternehmen B, bereitgestellt werden. Auch wenn der Benutzer das Taxidienstunternehmen B nicht ausdrücklich angefordert hat, kann das Datenverarbeitungssystem 102 dennoch einen Inhalt von Taxidienstunternehmen B bereitstellen, da der Benutzer sich für einen Vorgang mit dem Taxidienstunternehmen B entscheiden kann.
  • Das Datenverarbeitungssystem 102 kann Informationen aus der ersten Aktionsdatenstruktur an das Taxidienstunternehmen B übertragen, um eine Abholzeit, Ankunftszeit am Zielort und einen Preis für die Fahrt zu ermitteln. Das Datenverarbeitungssystem 102 kann diese Informationen empfangen und den zweiten Abschnitt des Ausgabesignals wie folgt erzeugen: „Taxidienstunternehmen B kann Sie in 2 Minuten an der 123 Main Street abholen und an der 1234 Main Street um 8:52 Uhr morgens für 15 Dollar absetzen. Sind Sie stattdessen an dieser Fahrt interessiert?“ Der Endbenutzer des Computergeräts 104 kann dann die Fahrt, die von Taxidienstunternehmen A oder die Fahrt, die von Taxidienstunternehmen B angeboten wird, auswählen.
  • Bevor das Datenverarbeitungssystem 102 in dem zweiten Abschnitt des Ausgabesignals das gesponserte Inhaltselement bereitstellt, das dem Dienst von Taxidienstunternehmen B entspricht, kann es dem Endbenutzercomputergerät mitteilen, dass der zweite Abschnitt einem Inhaltsobjekt entspricht, das während eines Echtzeit-Inhaltsauswahlprozesses (z. B. durch die Inhaltsauswahlkomponente 118) ausgewählt wurde. Allerdings kann das Datenverarbeitungssystem 102 begrenzten Zugriff auf verschiedene Arten von Schnittstellen haben, um die Benachrichtigung des Endbenutzers des Datenverarbeitungsgeräts 104 zu ermöglichen. Beispielsweise beinhaltet das Computergerät 104 ggf. kein Anzeigegerät, oder das Anzeigegerät kann deaktiviert oder ausgeschaltet sein. Das Anzeigegerät des Computergeräts 104 verbraucht möglicherweise mehr Ressourcen als der Lautsprecher des Computergeräts 104, sodass es weniger effizient sein kann, das Anzeigegerät des Computergeräts 104 einzuschalten, als wenn der Lautsprecher des Computergeräts 104 zur Übermittlung der Benachrichtigung verwendet wird. So kann das Datenverarbeitungssystem 102 in einigen Fällen die Effizienz und Effektivität der Informationsübertragung über eine oder mehrere Schnittstellen oder eine oder mehrere Arten von Computernetzwerken verbessern. Das Datenverarbeitungssystem 102 kann beispielsweise (z. B. über die Audiosignalgeneratorkomponente 122) den Abschnitt des Ausgabeaudiosignals, der das Inhaltselement umfasst, so modulieren, dass der Endbenutzer die Angabe oder Benachrichtigung erhält, dass dieser Abschnitt des Ausgabesignals das gesponserte Inhaltselement umfasst.
  • Die Audiosignalgeneratorkomponente 122 kann das Ausgabesignal mithilfe einer oder mehrerer Audiomodulationstechniken erzeugen. Eine Audiomodulationstechnik kann beispielsweise eine Frequenzverschiebung, Amplitudenverschiebung, Audioüberlagerung oder ein Audio-Wasserzeichen beinhalten. Die Audiomodulationstechnik kann in einigen Fällen das Anwenden einer Modulation oder das Ändern eines Abschnitts des ursprünglichen Ausgabesignals oder das Nicht-Ändern oder -Modulieren des ursprünglichen Audiosignals (z. B. die Abwesenheit der Änderung oder Modulation an einem Abschnitt des ursprünglichen Ausgabesignals) beinhalten.
  • Das Datenverarbeitungssystem 102 kann den ersten Abschnitt des Ausgabesignals mit einer ersten Audiomodulation erzeugen. Das Datenverarbeitungssystem 102 kann den zweiten Abschnitt des Ausgabesignals mit einer zweiten Audiomodulation erzeugen. Die erste Audiomodulation kann sich von der zweiten Audiomodulation unterschieden, um anzugeben, dass der erste Abschnitt des Ausgabesignals einer anderen Art entspricht als der zweite Abschnitt des Ausgabesignals. Die erste Audiomodulation des ersten Abschnitts des Ausgabesignals kann beispielsweise angeben, dass der erste Abschnitt ein organisches Ergebnis des Eingabeaudiosignals des Endbenutzers ist oder direkt darauf reagiert. Die zweite Audiomodulation des zweiten Abschnitts des Ausgabesignals kann angeben, dass der zweite Abschnitt ein gesponsertes Inhaltselement ist, das von einem Inhaltsauswahlelement während eines Echtzeit-Inhaltsauswahlprozesses ausgewählt wurde.
  • Die erste Audiomodulation kann eine voreingestellte Audiomodulation beinhalten. Die voreingestellte Audiomodulation kann sich in manchen Fällen darauf beziehen, den Ton nicht zu modulieren. Die voreingestellte Modulation kann sich zum Beispiel auf eine Null-Frequenzverschiebung, keine Tonhöhenverschiebung, keine Änderung bei der Amplitude oder kein Audio-Wasserzeichen beziehen. In manchen Fällen kann der erste Abschnitt durch Verringern oder Erhöhen von Tonhöhe, Frequenz, Ton, Amplitude (z. B. Lautstärke) oder Anwenden eines Wasserzeichens moduliert werden.
  • Die Audiosignalgeneratorkomponente 122 kann mindestens einen Abschnitt des Ausgabesignals modulieren, indem sie eine Frequenz des Abschnitts des Ausgabesignals verschiebt. Die Audiosignalgeneratorkomponente 122 kann eine Frequenz des Abschnitts des Ausgabesignals erhöhen oder verringern. Die Audiosignalgeneratorkomponente 122 kann die Frequenz des Audiosignals erhöhen, um ein resultierendes Ausgabesignal mit einer höheren Frequenz, einem höheren Ton oder einer höheren Tonhöhe im Vergleich zum ursprünglichen Ausgabesignal zu erzeugen. Die Audiosignalgeneratorkomponente 122 kann die Frequenz des Audiosignals verringern, um ein resultierendes Ausgabesignal mit einer niedrigeren Frequenz, einem niedrigeren Ton oder einer niedrigeren Tonhöhe im Vergleich zum ursprünglichen Ausgabesignal zu erzeugen. Die Audiosignalgeneratorkomponente kann den Bass oder die Höhen des Ausgabesignals anpassen.
  • Die Audiosignalgeneratorkomponente 122 kann einen Mischer oder einen Frequenzmischer beinhalten. Ein Mischer kann sich auf eine nicht lineare elektrische Schaltung beziehen, die neue Frequenzen aus zwei Signalen erstellt, die auf sie angewandt werden. Zwei Signale mit Frequenzen f1 und f2 können beispielsweise auf einen Mischer angewandt werden und der Mischer kann neue Signale bei der Summe f1 + f2 und der Differenz f1 - f2 der ursprünglichen Frequenzen produzieren, so genannte Überlagerungen.
  • Die Audiosignalgeneratorkomponente 122 kann einen Tonhöhenverschieber, einen Tonhöhen-Bender oder Auto-Tuner beinhalten, die die Tonhöhe des Tons erhöhen oder verringern können, der in mindestens einem Abschnitt des Ausgabesignals aufgezeichnet wurde. Der Tonhöhenverschieber kann sich auf eine Klangeffekteinheit beziehen, die die Tonhöhe eines Audiosignals um ein vorher eingestelltes oder vorher festgelegtes Intervall erhöht oder verringert. Der Tonhöhenverschieber, der für das Erhöhen der Tonhöhe um ein Viertel eingestellt ist, kann beispielsweise jede Note um drei diatonische Intervalle über den tatsächlich wiedergegebenen Noten erhöhen. Der Tonhöhenverschieber kann die Tonhöhe um eine oder zwei Oktaven oder einen Bereich der Intervalländerungen erhöhen oder verringern. Der Tonhöhenverschieber kann einen Harmonisierer beinhalten, der die „verschobene“ Tonhöhe mit der ursprünglichen Tonhöhe kombiniert, um eine Harmonie von zwei oder mehr Noten zu schaffen.
  • In einigen Fällen kann das Ausgabesignal eine digitale Aufzeichnung beinhalten. Die Audiosignalgeneratorkomponente 122 kann eine Tonhöhenverschiebung bei der digitalen Aufzeichnung durch digitale Signalverarbeitung durchführen. Die Audiosignalgeneratorkomponente 122 kann die Tonhöhenwerte bei der Nachbearbeitung oder in Echtzeit verschieben. Die Audiosignalgeneratorkomponente 122 kann beispielsweise das Ausgabesignal mit dem tonhöhenverschobenenen Abschnitt erzeugen und kann Datenpakete, die das Ausgabesignal mit den tonhöhenverschobenen Werten beinhalten, an das Client-Computergerät 104 zur Wiedergabe übertragen. In einigen Fällen kann die Audiosignalgeneratorkomponente 122 das Ausgabesignal mit Anweisungen an das Client-Computergerät 104 übertragen, die Tonhöhenwerte während der Wiedergabe in Echtzeit zu verschieben. Das Client-Computergerät 104 kann Datenpakete empfangen, die das Ausgabesignal in der Nutzlast übertragen, sowie Anweisungen zum Verschieben der Tonhöhenwerte nach oben oder nach unten und den Umfang der Verschiebung der Tonhöhe. Das Client-Computergerät 104 kann das Ausgabesignal und Tonhöhenanweisungen vom Datenverarbeitungssystem 102 (z. B. über Netzwerk 105) empfangen. Das Client-Computergerät 104 kann (z. B. über den Audiotreiber 138) die Frequenz des Abschnitts des Ausgabesignals verschieben, während der Lautsprecher (z. B. 136) des Client-Computergeräts 102 den Ton wiedergibt.
  • Die Audiosignalgeneratorkomponente 122 kann einen Verstärker beinhalten, um die Amplitude der Ausgabe zu erhöhen. Die Audiosignalgeneratorkomponente 122 kann digitale Signalverarbeitungstechniken anwenden, um die Amplitude mindestens eines Abschnitts des Ausgabesignals zu erhöhen. Die Audiosignalgeneratorkomponente 122 kann Anweisungen an den Audiotreiber 138 übertragen, die Amplitude mindestens eines Abschnitts des Tons zu erhöhen, der vom Wandler 136 oder Lautsprecher erzeugt wird. Die Audiosignalgeneratorkomponente 122 kann eine Audiodatei erzeugen, die eine oder mehrere Arten von Modulationen an einem oder mehreren Abschnitten des Ausgabesignals umfasst.
  • Die Audiosignalgeneratorkomponente 122 kann ein Audio-Wasserzeichen auf mindestens einen Abschnitt des Ausgabesignals anwenden. Ein Audio-Wasserzeichen kann sich auf den Prozess des Einbettens von Informationen in ein Signal (z. B. Audiosignal) auf eine Weise beziehen, die schwer zu entfernen ist. Das Wasserzeichen kann beispielsweise über das Frequenzspektrum angewandt werden, sodass das Entfernen des Wasserzeichens das ursprüngliche Audiosignal soweit stören würde, dass das ursprüngliche Audiosignal nicht wünschenswert oder geeignet ist. Wenn das Signal kopiert wird, werden die Informationen auch in der Kopie übertragen. Das Audio-Wasserzeichen kann eine Kennung, eine eindeutige Kennung oder ein anderes Signal oder Informationen beinhalten, die schwer zu entfernen sind. In manchen Fällen kann das Audio-Wasserzeichen über das Frequenzspektrum des Ausgabesignals angewandt werden. Das Audio-Wasserzeichen kann ein Signal innerhalb des hörbaren Frequenzbereichs (z. B. 20 Hz bis 20.000 Hz) beinhalten.
  • Die Audiosignalgeneratorkomponente 122 kann eine Audioüberlagerung auf mindestens einen Abschnitt des Ausgabesignals anwenden. Die Audioüberlagerung kann einen Ton, eine Note, eine Phrase, ein Instrumentalstück, einen Takt oder eine andere Audioüberlagerung beinhalten. Die Audioüberlagerung kann dieselbe oder eine andere Amplitude wie der Abschnitt des Ausgabesignals aufweisen. Die Audioüberlagerung kann beispielsweise vom Endbenutzer des Computergeräts 104 als Hintergrundaudio oder -ton wahrgenommen werden. Die Audioüberlagerung kann Erklärungen wie „Dieses Inhaltselement wird vom Inhaltsanbieter bereitgestellt“ beinhalten.
  • Somit kann, durch Modulieren eines Abschnitts der Ausgabe, die dem Inhaltselement entspricht, das Datenverarbeitungssystem 102 (z. B. über die Audiosignalgeneratorkomponente 122) effizient zusätzliche Informationen über das Inhaltselement über die Audioschnittstelle übertragen. Das ursprüngliche Inhaltselement kann moduliert sein. Das ursprüngliche Inhaltselement kann möglicherweise keine Angabe oder hörbare Angabe beinhalten, dass das Inhaltselement einem gesponserten Inhaltselement entspricht. Das Datenverarbeitungssystem 102 kann den Abschnitt, der dem Inhaltselement entspricht, modulieren, da das ursprüngliche Inhaltselement keine solche Benachrichtigung oder Angabe beinhalten kann. Das Modulieren des ursprünglichen Inhaltselements kann effizienter als das oder eine Verbesserung gegenüber dem Hinzufügen eines zusätzlichen Audioclips zum hörbaren Inhaltselement sein, da dies zusätzliche Datenübertragung erfordern, zusätzliche Lautsprecher und Batterieressourcen, zusätzliche Verarbeitungsressourcen belegen und anderweitig ein Zeitintervall belegen kann, das größer ist als das ursprüngliche hörbare Inhaltselement.
  • Das Datenverarbeitungssystem 102 (z. B. über Schnittstelle 110 und Netzwerk 105) kann Datenpakete übertragen, die das von der Audiosignalgeneratorkomponente 122 erzeugte Ausgabesignal umfassen. Das Ausgabesignal kann die Audiotreiberkomponente 138 des Computergeräts 104, bzw. die durch dieses ausgeführt wird, veranlassen, einen Lautsprecher (z. B. Wandler 136) des Clientgeräts 104 anzusteuern, um eine dem Ausgabesignal entsprechende akustische Welle zu erzeugen.
  • Das Datenverarbeitungssystem 102 kann eine Richtlinien-Engine-Komponente 120 beinhalten, auf diese zugreifen, sie ausführen oder anderweitig damit kommunizieren, um, basierend auf dem Inhaltselement, das über den Echtzeit-Inhaltsauswahlprozess ausgewählt wurde, die Audiosignalgeneratorkomponente 122 anzuweisen, eine Modulation auf mindestens einen Abschnitt des Ausgabesignals anzuwenden. Die Richtlinien-Engine-Komponente 120 kann zum Beispiel bestimmen, eine Modulation auf den zweiten Abschnitt des Ausgabesignals anzuwenden und den ersten Abschnitt des Ausgabesignals nicht zu modulieren. Die Richtlinien-Engine-Komponente 120 kann zum Beispiel bestimmen, die erste Modulation auf den ersten Abschnitt des Ausgabesignals und die zweite Modulation, die sich von der ersten Modulation unterscheidet, auf den zweiten Abschnitt des Ausgabesignals anzuwenden.
  • Die Richtlinien-Engine-Komponente 120 kann eine oder mehrere Regeln, Entscheidungsbäume, heuristische Techniken oder Techniken des maschinellen Lernens beinhalten oder nutzen, um zu bestimmen, einen Abschnitt des Ausgabesignals zu modulieren, sowie die Art der Modulation. Die Richtlinien-Engine-Komponente 120 kann beispielsweise eine Regel nutzen, die das Anwenden einer Modulation auf einen Abschnitt des Ausgabesignals anweist, der einem Inhaltselement entspricht, und einen Abschnitt des Ausgabesignals nicht zu modulieren, der der ersten Aktionsdatenstruktur entspricht. Die Richtlinien-Engine-Komponente 120 kann eine Regel nutzen, die das Anwenden einer ersten Modulation auf den ersten Abschnitt des Ausgabesignals anweist, der die ersten Aktionsdatenstrukturen beinhaltet oder diesen entspricht, und eine zweite Modulation auf die zweiten Abschnitte des Ausgabesignals anzuwenden, der das Inhaltselementobjekt beinhaltet oder diesem entspricht, das durch die Inhaltsauswahlkomponente 118 während des Echtzeit-Inhaltauswahlprozesses ausgewählt wurde.
  • Die Richtlinien-Engine-Komponente 120 kann eine oder mehrere Regeln beinhalten oder nutzen. Die Regeln können im Datenbehälter 124 in einer Richtliniendatenstruktur 128 gespeichert sein. Regeln können Wenn/Dann-Anweisungen, Bedingungsanweisungen, ereignisgesteuerte Regeln, standortbasierte Regeln oder Boolesche Logik beinhalten. Regeln können beispielsweise das Modulieren des Abschnitts beinhalten, wenn er einem Inhaltselement entspricht, das von einem Inhaltselementanbieter-Gerät 106 bereitgestellt wird; das Modulieren des Abschnitts, wenn dieser dem Inhaltselement entspricht und das Inhaltselement nicht vorher dem Computergerät 104 bereitgestellt wurde; das Modulieren des Abschnitts, wenn er dem Inhaltselement entspricht und das Inhaltselement nicht vorher dem Computergerät 104 während eines Zeitintervalls (z. B. die letzten 10 Minuten; die letzten 30 Minuten; die letzte 1 Stunde; die letzten 2 Stunden; die letzten 4 Stunden; die letzten 8 Stunden; die letzten 24 Stunden; die letzten 72 Stunden oder mehr) bereitgestellt wurde; das Modulieren des Abschnitts, wenn dieser dem Inhaltselement entspricht und das Inhaltselement nicht vorher dem Computergerät 104 während einer Kommunikationssitzung (z. B. einer Gesprächssitzung, wie durch das Sitzungshandhabungselement 114 ermittelt) bereitgestellt wurde; das Modulieren des Abschnitts, wenn dieser nicht vorher dem Computergerät 104 präsentiert wurde, während das Computergerät 104 sich an einem aktuellen Ort oder einem anderen vorher festgelegten Ort befand; oder das Modulieren des Abschnitts, wenn dieser nicht vorher dem Computergerät 104 präsentiert wurde, während sich das Computergerät 104 an einem aktuellen Ort oder einem vorher festgelegten Ort während des Zeitintervalls befand.
  • Wenn sich das Computergerät 104 beispielsweise in 123 Main Street befand und den zweiten Abschnitt des Ausgabesignals moduliert mit der zweiten Modulation empfing, um anzugeben, dass dieser einem Inhaltselementobjekt entspricht, das durch die Inhaltsauswahlkomponente 118 während eines Echtzeit-Inhaltsauswahlprozesses ausgewählt wurde, kann die Richtlinien-Engine-Komponente 120, auf Basis einer Regel, die aus der Richtliniendatenstruktur 128 ausgewählt oder abgefragt wurde, die im Datenbehälter 124 gespeichert ist, die zweite Modulation nicht anwenden, wenn der zweite Abschnitt dem Computergerät 104 bereitgestellt werden soll, während sich dieses am selben Ort wie zu einer vorherigen Zeit befindet, als das Inhaltselement dem Computergerät 104 präsentiert wurde, und innerhalb von 15 Minuten, als das Inhaltselement vorher auf dem Computergerät 104 präsentiert wurde.
  • Das Datenverarbeitungssystem 102 kann eine Sitzungshandhabungselementkomponente 114 beinhalten, ausführen, darauf zugreifen oder anderweitig mit derselben kommunizieren, um eine Kommunikationssitzung zwischen dem Client-Computergerät 104 und dem Datenverarbeitungssystem 102 herzustellen. Die Kommunikationssitzung kann sich auf eine oder mehrere Datenübertragungen zwischen dem Clientgerät 104 und dem Datenverarbeitungssystem 102 beziehen, die das Eingabeaudiosignal beinhalten, das durch einen Sensor 134 des Clientgeräts 104 erkannt wird, und das Ausgabesignal, das durch das Datenverarbeitungssystem 102 an das Clientgerät 104 übertragen wird. Das Datenverarbeitungssystem 102 kann (z. B. über die Sitzungshandhabungselementkomponente 114) die Kommunikationssitzung in Reaktion auf das Empfangen des Audioeingangssignals herstellen. Das Sitzungshandhabungselement 114 kann der Kommunikationssitzung eine eindeutige Kennung zuweisen. Das Datenverarbeitungssystem kann beispielsweise eine eindeutige Kennung für die Kommunikationssitzung auf Basis eines Tupels erzeugen, der aus einer Vielzahl von Werten, wie z. B. einem Zeitstempel, der dem Zeitpunkt des Herstellens der Kommunikationssitzung entspricht, einer eindeutigen Kennung der Kommunikationssitzung, einem Zeit- und Datumsstempel der Kommunikationssitzung und einer Kennung des Dienstanbietergeräts, gebildet wird. Das Datenverarbeitungssystem 102 kann eine Dauer für die Kommunikationssitzung einstellen. Das Datenverarbeitungssystem 102 kann einen Zeitgeber oder einen Zähler für die für die Kommunikationssitzung eingestellte Dauer einstellen. In Reaktion auf den Ablauf des Zeitgebers kann das Datenverarbeitungssystem 102 die Kommunikationssitzung beenden.
  • Die Kommunikationssitzung kann sich auf eine netzwerkbasierte Kommunikationssitzung beziehen, in der das Clientgerät 104 authentifizierende Information oder Anmeldedaten bereitstellt, um die Sitzung herzustellen. In einigen Fällen bezieht sich die Kommunikationssitzung auf ein Thema oder einen Kontext von Audiosignalen, die durch Datenpakete während der Sitzung übertragen werden. Eine erste Kommunikationssitzung kann sich beispielsweise auf Audiosignale beziehen, die zwischen dem Clientgerät 104 und dem Datenverarbeitungssystem 102 übertragen werden, die sich auf einen Taxidienst beziehen (z. B. Schlüsselwörter, erste Aktionsdatenstrukturen oder Inhaltselementobjekte beinhalten); und eine zweite Kommunikationssitzung kann sich auf Audiosignale beziehen, die zwischen dem Clientgerät 104 und dem Datenverarbeitungssystem 102 übertragen werden, die sich auf einen Wäscherei- und Trockenreinigungsdienst beziehen. In diesem Beispiel kann das Datenverarbeitungssystem 102 ermitteln, dass sich der Kontext der Audiosignale unterscheidet (z. B. über die NLP-Komponente 112), und die zwei Sätze von Audiosignalen in unterschiedliche Kommunikationssitzungen trennen. Das Sitzungshandhabungselement 114 kann die erste Sitzung, die mit dem Fahrdienst verbunden ist, in Reaktion auf das Identifizieren einer oder mehrerer Audiosignale, die Trockenreinigungs- und Wäschereidienst verbunden sind, beenden. Daher kann das Datenverarbeitungssystem 102 die zweite Sitzung für die Audiosignale, die mit dem Trockenreinigungs- und Wäschereidienst verbunden sind, in Reaktion auf Erkennen des Kontextes der Audiosignale initiieren oder herstellen.
  • Das Sitzungshandhabungselement 114 kann einen Übergang von einer ersten Art von Netzwerkaktivität (z. B. Taxidienst), die in der Kommunikationssitzung erfolgte, zu einer zweiten Art von Netzwerkaktivität (z. B. Wäschereidienst) erkennen. Das Sitzungshandhabungselement 114 kann, in Reaktion auf den Übergang, die Kommunikationssitzung beenden. Das Sitzungshandhabungselement 114 kann beispielsweise eine zweite Kommunikationssitzung zwischen dem Clientgerät und dem Datenverarbeitungssystem herstellen. Die zweite Kommunikationssitzung kann die zweite Art von Netzwerkaktivität (z. B. Wäschereidienst) und ein zweites Eingabeaudiosignal (z. B. eine Anfrage für den Wäschereidienst) beinhalten.
  • Das Sitzungshandhabungselement 114 kann Kommunikationssitzungen mithilfe verschiedener Parameter initiieren, herstellen oder beenden, die in einer Parameterdatenstruktur 126 oder Richtlinien gespeichert sind, die in Richtliniendatenstruktur 128 gespeichert sind. Parameter können beispielsweise Zeitintervalle, Ortsgrenzen, Entfernungen, Relevanzbewertungen, semantische Vektorentfernungen, Anzahl der Audiosignale oder hin und her gehende Kommunikationen zwischen dem Clientgerät 104 und dem Datenverarbeitungssystem 102, eine Anzahl von Wörtern, die zwischen dem Datenverarbeitungssystem 102 und dem Clientgerät 104 übertragen werden, oder eine Anzahl von Sätzen oder Abfragen, die zwischen dem Datenverarbeitungssystem 102 und dem Clientgerät 104 übertragen werden, beinhalten. Richtlinien können beispielsweise das Beenden einer Kommunikationssitzung in Reaktion auf eine Bedingung, ein Ereignis oder einen Auslöser beinhalten, die/das/der auf Basis eines Parameters festgelegt werden kann. Die Richtlinie kann beispielsweise das Beenden der Kommunikationssitzung in Reaktion darauf beinhalten, dass das Clientgerät 104 einen Ort auf Basis von Grenzen verlässt, die als 100 Meter rund um den Ort des Benutzers definiert sind, als die Kommunikationssitzung hergestellt wurde.
  • Auch wenn das Modulieren von Abschnitten des Ausgabesignals, die dem Inhaltselementobjekt entsprechen, Ressourcenverbrauch im Vergleich zum Bereitstellen einer zusätzlichen Audio- oder Videobenachrichtigung neben dem Inhaltselement verringern kann, kann das Datenverarbeitungssystem 102 (z. B. über Richtlinien-Engine-Komponente 120 und Sitzungshandhabungselementkomponente 114) Ressourcenverbrauch durch das Bestimmen verringern, den Abschnitt des Ausgabesignals, der dem Inhaltselement entspricht, nicht zu modulieren, wenn das über den Echtzeit-Inhaltsauswahlprozess ausgewählte Inhaltselement dem Clientgerät während der Kommunikationssitzung vorher präsentiert wurde. Da das Inhaltselement während derselben Kommunikationssitzung vorher präsentiert wurde, kann das Datenverarbeitungssystem 102 bestimmen, dass es nicht nötig ist, dieselbe Angabe über Modulation bereitzustellen, und auf die Modulation zu verzichten, wodurch Ressourcenverbrauch durch die Audiosignalgeneratorkomponente 122 zum Anwenden einer Modulationstechnik (z. B. einer Tonhöhenverschiebung, einer Amplitudenänderung, einer Audioüberlagerung oder eines Audio-Wasserzeichens) vermieden wird.
  • Wenn das Datenverarbeitungssystem 102 jedoch ermittelt, dass das Inhaltselement dem Clientgerät 104 während der Kommunikationssitzung vorher nicht bereitgestellt wurde, kann das Datenverarbeitungssystem 102, in Reaktion darauf, dass das Inhaltselement während der Kommunikationssitzung vorher nicht bereitgestellt wurde, die Audiosignalgeneratorkomponente 122 anweisen, den zweiten Abschnitt des Audiosignals mit der zweiten Audiomodulation zu erzeugen, die sich von der ersten Audiomodulation unterscheidet.
  • In einigen Fällen kann die Kommunikationssitzung mehrere Eingabeaudiosignale beinhalten, die durch das Mikrofon des Client-Computergeräts 104 erkannt wurden. Die Inhaltsauswahlkomponente 118 kann, basierend auf einem zweiten Eingabeaudiosignal, ein zweites Inhaltselement auswählen. Das Datenverarbeitungssystem 102 kann beispielsweise bestimmen (z. B. über die Richtlinien-Engine-Komponente 120), ob eine Modulationstechnik auf einen Abschnitt des Ausgabesignals angewandt wird, der dem zweiten Inhaltselement entspricht. Die Richtlinien-Engine 120 kann beispielsweise ermitteln, dass sich das zweite Inhaltselement von einem oder mehreren Inhaltselementen unterscheidet, die vorher ausgewählt und dem Clientgerät während der Kommunikationssitzung bereitgestellt wurde. Das Inhaltselement kann sich unterscheiden, wenn es für eine andere Dienstleistung oder ein anderes Produkt ist oder von einem andern Inhaltsanbietergerät 106 bereitgestellt wurde. Da sich das zweite Inhaltselement vom ersten Inhaltselement unterscheidet, kann das Datenverarbeitungssystem 102 bestimmen, eine Angabe durch Modulieren der Audioausgabe bereitzustellen, die dem zweiten Inhaltselement entspricht. Um den Ressourcenverbrauch zu verringern, kann das Datenverarbeitungssystem 102 die Ausgabe nicht modulieren, wenn das zweite Inhaltselement mit einem Inhalt übereinstimmt oder diesem ähnlich ist, der während der Kommunikationssitzung vorher bereitgestellt wurde (z. B. für dieselbe Dienstleistung oder dasselbe Produkt oder durch dasselbe Inhaltsanbietergerät 108 bereitgestellt).
  • Für den Fall, dass sich das zweite Inhaltselement von einigen oder allen Inhaltselementen unterscheidet, die während der Kommunikationssitzung vorher präsentiert wurden, kann das Datenverarbeitungssystem 102 die Audiosignalgeneratorkomponente 122 anweisen, ein zweites Ausgabesignal zu erzeugen, das einen dritten Abschnitt umfasst, der dem zweiten Inhaltselement entspricht, das von der Inhaltsauswahlkomponente ausgewählt wurde. Die Audiosignalgeneratorkomponente 122 kann den dritten Abschnitt, der mit derselben Modulation erzeugt wurde, die zum Erzeugen des zweiten Abschnitts des Ausgabesignals verwendet wurde, der dem ersten Inhaltselement entspricht, oder einer anderen Modulation, erzeugen.
  • In einigen Fällen kann das Datenverarbeitungssystem 102 ermitteln, dass das zweite Inhaltselement mindestens einem Inhaltselement entspricht, das während der Kommunikationssitzung vorher ausgewählt wurde, und, in Reaktion auf das eine oder die mehreren Inhaltselemente, die während der Kommunikationssitzung vorher bereitgestellt wurden, die Audiosignalgeneratorkomponente 122 anweisen, ein Ausgabesignal zu erzeugen, das einen Abschnitt umfasst, der dem zweiten Inhaltselement entspricht und mit der ersten Audiomodulation erzeugt wurde, die bei dem ersten Abschnitt verwendet wurde, der der Datenstruktur entspricht. Das Datenverarbeitungssystem 102 kann beispielsweise, in diesem Fall, bestimmen, das zweite Inhaltselement nicht vom ersten Abschnitt zu unterscheiden, der der Datenstruktur entspricht, und daher dieselbe Modulationstechnik oder voreingestellte Modulationstechnik (z. B. keine Modulation) anzuwenden.
  • In einigen Fällen kann das Datenverarbeitungssystem die Kommunikationssitzung als gesponserte Inhaltselemente enthaltend markieren oder kennzeichnen. Nach der Kennzeichnung der Kommunikationssitzung als mindestens ein gesponsertes Inhaltselement enthaltend, kann das Datenverarbeitungssystem bestimmen, einige oder alle Ausgabesignale zu modulieren, die während der gekennzeichneten Kommunikationssitzung bereitgestellt werden. Das Datenverarbeitungssystem kann die Kennzeichnung der Kommunikationssitzung auf Basis eines Zeitintervalls oder in Reaktion darauf, dass das Datenverarbeitungssystem ein organisches Ergebnis oder nicht gesponsertes Element bereitstellt, entfernen. Das Datenverarbeitungssystem kann die Kennzeichnung der Kommunikationssitzung auf Basis einer Änderung beim Kontext der Kommunikationssitzung entfernen. Sobald die Kennzeichnung der Kommunikationssitzung entfernt wurde, kann das Datenverarbeitungssystem das Modulieren der Ausgabeaudiosignale stoppen. Das Datenverarbeitungssystem kann Audiosignale modulieren, die einem einzelnen gesponserten Inhaltselement oder mehreren gesponserten Inhaltselementen entsprechen.
  • 2 zeigt eine Veranschaulichung des Systems 100 zur Modulation von paketierten Audiosignalen. Das System kann eine oder mehrere Komponenten des in 1 dargestellten Systems 100 beinhalten. Bei 205 kann das Client-Computergerät 104 Datenpakete mit dem Eingabeaudiosignal übertragen, das von einem Mikrofon oder einem anderen Sensor des Computergeräts 104 erkannt wird. Das Client-Computergerät 104 kann das Eingabeaudiosignal an das Datenverarbeitungssystem 102 übertragen. Das Datenverarbeitungssystem 102 kann mit dem Dienstanbietergerät 108 und dem Inhaltsanbietergerät 106 kommunizieren oder sonst schnittstellenmäßig verbunden sein, um den ersten Abschnitt des Audiosignals bei 210 zu erzeugen und den zweiten Abschnitt des Audiosignals bei 215 zu erzeugen. Der erste Abschnitt des Ausgabesignals kann einer Aktionsdatenstruktur in Reaktion auf das Eingabeaudiosignal entsprechen. Der erste Abschnitt des Ausgabesignals kann Informationen beinhalten oder anderweitig mit dem Dienstanbietergerät 108 verknüpft sein. Der erste Abschnitt des Ausgabesignals kann beispielsweise eine Abfrage zum Bestätigen der Anfrage im Eingabeaudiosignal beinhalten. Der zweite Abschnitt des Ausgabesignals kann ein Inhaltselementobjekt beinhalten, das vom Inhaltsanbietergerät 106 bereitgestellt wird. Das Inhaltselementobjekt kann durch das Datenverarbeitungssystem 102 während eines Echtzeit-Inhaltsauswahlprozesses ausgewählt werden, der auf einem oder mehreren Schlüsselwörtern des Eingabeaudiosignals basiert, die bei 205 empfangen werden. Bei 220 kann das Datenverarbeitungssystem 102 ferner eine erste Audiomodulation auf den ersten Abschnitt des Ausgabesignals und eine zweite Audiomodulation auf den zweiten Abschnitt des Audiosignals bei 225 anwenden. Bei 230 und 235 kann das Datenverarbeitungssystem 102 den ersten Abschnitt des Ausgabesignals mit der ersten Modulation und den zweiten Abschnitt des Audiosignals mit der zweiten Modulation in ein modulierte Ausgabesignal (das als Ausgabesignal bezeichnet werden kann) zusammenführen, kombinieren, miteinander verbinden oder anderweitig nebeneinanderstellen. Das Datenverarbeitungssystem 102 kann eine Audiodatei mit dem ersten Abschnitt und dem zweiten Abschnitt für die Übertragung an das Client-Computergerät 104 erzeugen. Das Datenverarbeitungssystem 102 kann das modulierte Ausgabesignal zum Client-Computergerät 104 streamen, um das Client-Computergerät 104 zu veranlassen, das Ausgabesignal wiederzugeben.
  • 3 zeigt eine Veranschaulichung des Systems 100 zur Modulation von paketierten Audiosignalen. Das System kann eine oder mehrere Komponenten des in 1 dargestellten Systems 100 beinhalten. Bei 305 kann das Client-Computergerät 104 ein erstes Eingabeaudiosignal an das Datenverarbeitungssystem 102 übertragen. Das erste Eingabeaudiosignal kann durch ein Mikrofon des Client-Computergeräts 104 erkannt werden. Das Datenverarbeitungssystem 102 kann eine erste Kommunikationssitzung 325 in Reaktion auf das Empfangen des ersten Eingabeaudiosignals herstellen. Das Datenverarbeitungssystem 102 kann mit einem Dienstanbieter-Computergerät 108 oder einem Inhaltsanbieter-Computergerät 106 kommunizieren, um ein erstes Ausgabesignal bei 310 zu erzeugen. Das erste Ausgabesignal kann einen ersten Abschnitt mit einer ersten Modulation beinhalten, der dem Dienstanbieter 108 entspricht, der eine Dienstleistung bereitstellt, die auf das Eingabeaudiosignal reagiert. Das erste Ausgabesignal kann einen zweiten Abschnitt mit einer zweiten Audiomodulation beinhalten, der einem Inhaltselementobjekt entspricht, das durch das Inhaltsanbietergerät 106 bereitgestellt und durch das Datenverarbeitungssystem 102 während eines Echtzeit-Inhaltsauswahlprozesses ausgewählt wurde. Das Datenverarbeitungssystem 102 kann das erste Ausgabesignal zum Client-Computergerät 104 über ein Netzwerk übertragen.
  • Bei 315 kann das Datenverarbeitungssystem 102 ein zweites Eingabeaudiosignal vom Client-Computergerät 104 empfangen. Das Datenverarbeitungssystem 104 kann das zweite Eingabeaudiosignal parsen und ermitteln, dass das zweites Eingabeaudiosignal zur ersten Kommunikationssitzung 325 gehört. Das Sitzungshandhabungselement des Datenverarbeitungssystems 102 kann beispielsweise bestimmen, die erste Kommunikationssitzung aufrechtzuerhalten oder die erste Kommunikationssitzung nicht zu beenden. Das Datenverarbeitungssystem 102 kann mit dem Dienstanbieter-Computergerät 108 oder dem Inhaltsanbieter-Computergerät 106 interagieren, um ein zweites Ausgabesignal bei 320 zu erzeugen. Das zweite Ausgabesignal kann einen dritten Abschnitt mit der ersten Audiomodulation beinhalten. Der dritte Abschnitt kann dem Dienstanbietergerät 108 entsprechen. Das zweite Ausgabesignal kann einen vierten Abschnitt mit der ersten Audiomodulation beinhalten. Der vierte Abschnitt kann ein Inhaltselementobjekt entsprechen, das vom Inhaltsanbietergerät 106 bereitgestellt wird. Das Datenverarbeitungssystem 102 kann die erste Modulation auf den ersten Abschnitt anwenden, da das Datenverarbeitungssystem 102 ermitteln kann, dass ein Inhaltselement vom Inhaltsanbietergerät 106 dem Client-Computergerät 104 während derselben Kommunikationssitzung 325 vorher bereitgestellt wurde. Somit kann das Datenverarbeitungssystem 102 Ressourcenverbrauch durch Nicht-Modulieren des vierten Abschnitts des zweiten Ausgabesignals verringern, da das Datenverarbeitungssystem 102 ermitteln kann, dass eine modulationsbasierte Angabe des Inhaltselements in derselben Kommunikationssitzung früher bereitgestellt wurde. Das Datenverarbeitungssystem 102 kann dann Datenpakte übertragen, die das zweite Ausgabesignal zum Client-Computergerät 104 übertragen.
  • Das Datenverarbeitungssystem kann beispielsweise einen intelligenten persönlichen Assistenten oder einen sprachbasierten digitalen Assistenten beinhalten. Ein Endbenutzer kann das Datenverarbeitungssystem verbal fragen, wie das Wetter ist. Das Datenverarbeitungssystem kann über Audio mit den Wetterinformationen in einem ersten Abschnitt des hörbaren Ausgabesignals antworten. Somit kann der erste Abschnitt ein organisches Ergebnis oder eine Antwort auf die Abfrage des Benutzers beinhalten. Angehängt an den ersten Abschnitt des hörbaren Signals kann das Datenverarbeitungssystem ein gesponsertes Inhaltselement bereitstellen, das während eines Inhaltsauswahlprozesses ausgewählt wurde. Das Datenverarbeitungssystem kann Audio des zweiten Abschnitts modulieren, um anzugeben, dass der zweite Abschnitt ein gesponsertes Inhaltselement enthält. Das gesponserte Inhaltselement kann beispielsweise ein Audioinhaltselement für einen Fahrgemeinschaftsdienst sein.
  • 4 zeigt eine Veranschaulichung eines exemplarischen Verfahrens zur dynamischen Modulation von paketierten Audiosignalen. Das Verfahren 400 kann von einer oder mehreren Komponenten, System oder Element von System 100 oder System 500 ausgeführt werden. Das Verfahren 400 kann ein Datenverarbeitungssystem beinhalten, das ein Eingabeaudiosignal (ACT 405) empfängt. Das Datenverarbeitungssystem kann das Eingabeaudiosignal von einem Client-Computergerät empfangen. Die Prozessorkomponente für natürliche Sprache, die durch das Datenverarbeitungssystem ausgeführt wird, kann beispielsweise das Eingabeaudiosignal von einem Client-Computergerät über eine Schnittstelle des Datenverarbeitungssystems empfangen. Das Datenverarbeitungssystem kann Datenpakete empfangen, die das von einem Sensor des Client-Computers (oder Client-Geräts) erkannte Eingabeaudiosignal übertragen oder beinhalten.
  • Bei ACT 410 kann das Verfahren 400 das Datenverarbeitungssystem beinhalten, das das Eingabeaudiosignal parst. Die Prozessorkomponente für natürliche Sprache kann das Eingabeaudiosignal parsen, um eine Anfrage und ein Auslöserschlüsselwort zu identifizieren, das der Anfrage entspricht. Das Audiosignal, das von dem Clientgerät erkannt wird, kann beispielsweise Folgendes beinhalten: „Okay Gerät, ich brauche eine Mitfahrgelegenheit von Taxidienstunternehmen A, um zur 1234 Main Street zu gelangen.“ In diesem Audiosignal kann das anfängliche Auslöserschlüsselwort „OK Gerät“ beinhalten, was dem Clientgerät angeben kann, ein Eingabeaudiosignal an das Datenverarbeitungssystem zu übertragen. Ein Vorprozessor des Clientgeräts kann die Begriffe „OK Gerät“ vor dem Senden des verbleibenden Audiosignals an das Datenverarbeitungssystem herausfiltern. In einigen Fällen kann das Clientgerät zusätzliche Begriffe herausfiltern oder Schlüsselwörter erzeugen, die zur weiteren Verarbeitung an das Datenverarbeitungssystem übertragen werden.
  • Das Datenverarbeitungssystem kann ein Auslöserschlüsselwort in dem Eingabeaudiosignal identifizieren. Das Auslöserschlüsselwort kann z. B. „gehen zu“ oder „fahren“ oder Variationen dieser Begriffe beinhalten. Das Auslöserschlüsselwort kann eine Art von Dienstleistung oder Produkt angeben. Das Datenverarbeitungssystem kann eine Anfrage in dem Eingabeaudiosignal identifizieren. Die Anfrage kann basierend auf den Begriffen „Ich brauche“ bestimmt werden. Das Auslöserschlüsselwort und die Anfrage können unter Verwendung einer semantischen Verarbeitungstechnik oder anderen Technik für die Verarbeitung natürlicher Sprache bestimmt werden.
  • Bei ACT 415 kann das Verfahren 400 das Datenverarbeitungssystem beinhalten, das eine erste Aktionsdatenstruktur erzeugt. Das Datenverarbeitungssystem kann die erste Aktionsdatenstruktur auf Basis des Auslöserschlüsselwortes erzeugen. Die erste Aktionsdatenstruktur kann in Reaktion auf die Anfrage vorhanden sein. Wenn beispielsweise der Endbenutzer des Client-Computergeräts ein Taxi von Taxidienstunternehmen A anfordert, kann die erste Aktionsdatenstruktur Informationen beinhalten, um einen Taxidienst von Taxidienstunternehmen A anzufordern. Das Datenverarbeitungssystem kann eine Vorlage für Taxidienstunternehmen A auswählen und Felder in der Vorlage mit Werten füllen, die es dem Taxidienstunternehmen A ermöglichen, ein Taxi zu dem Benutzer des Client-Computergeräts zu schicken, um den Benutzer abzuholen und zum gewünschten Zielort zu transportieren.
  • Bei ACT 420 kann das Verfahren 400 das Datenverarbeitungssystem beinhalten, das das Auslöserschlüsselwort empfängt und ein Inhaltselementobjekt auswählt. Das Datenverarbeitungssystem kann das Auslöserschlüsselwort empfangen, das durch den Prozessor für natürliche Sprache identifiziert wurde. Das Datenverarbeitungssystem kann, auf Basis des Auslöserschlüsselwortes, ein Inhaltselement über einen Echtzeit-Inhaltsauswahlprozess auswählen. Das Inhaltselementobjekt kann durch einen Inhaltsanbieter bereitgestellt werden. Das Inhaltselementobjekt kann durch einen Inhaltsanbieter bereitgestellt werden, der sich vom Inhaltsanbietergerät unterscheidet, an das das Datenverarbeitungssystem die erste Aktionsdatenstruktur überträgt. Das Datenverarbeitungssystem kann das Inhaltselementobjekt von einem Inhaltsanbieter auswählen, der sich von dem Dienstanbieter unterscheidet, der durch Verwendung des Clientgeräts in dem Eingabeaudiosignal angefordert wurde. Der Benutzer kann beispielsweise einen Taxidienst von Taxidienstunternehmen A anfordern, aber das Inhaltselementobjekt, das durch das Datenverarbeitungssystem während des Echtzeit-Inhaltsauswahlprozesses ausgewählt wurde, kann von Taxidienstunternehmen B sein.
  • Bei ACT 425 kann das Verfahren 400 das Datenverarbeitungssystem beinhalten, das ein Ausgabesignal erzeugt, dass einen ersten Abschnitt umfasst, der der ersten Datenstruktur entspricht, und einen zweiten Abschnitt, der dem Inhaltselement entspricht. In einigen Fällen kann der erste Abschnitt nicht moduliert sein, während der zweite Abschnitt moduliert ist. In einigen Fällen sind der erste Abschnitt und der zweite Abschnitt mit verschiedenen Modulationen moduliert, um den ersten Abschnitt vom zweiten Abschnitt zu unterschieden. Das Datenverarbeitungssystem kann beispielsweise die Tonhöhe des ersten Abschnitts verringern und die Tonhöhe des zweiten Abschnitts erhöhen; das Datenverarbeitungssystem kann die Lautstärke des ersten Abschnitts erhöhen und die Lautstärke des zweiten Abschnitts verringern; das Datenverarbeitungssystem kann die Lautstärke des ersten Abschnitts erhöhen und die Tonhöhe des zweiten Abschnitts erhöhen; oder das Datenverarbeitungssystem kann die Tonhöhe des ersten Abschnitts erhöhen und eine Audioüberlagerung oder ein Wasserzeichen auf den zweiten Abschnitt anwenden.
  • Bei ACT 430 kann das Verfahren 400 das Datenverarbeitungssystem beinhalten, das das Ausgabesignal des Client-Computergeräts überträgt. Des Datenverarbeitungssystems kann Datenpakete übertragen, die das von der Audiosignalgeneratorkomponente erzeugte Ausgabesignal umfassen, um eine durch das Clientgerät ausgeführte Audiotreiberkomponente zu veranlassen, einen Lautsprecher des Clientgeräts anzusteuern, um eine akustische Welle zu erzeugen, die dem Ausgabesignal entspricht.
  • 5 zeigt ein Blockdiagramm eines exemplarischen Computersystems 500. Das Computersystem oder das Computergerät 500 kann das System 100 oder dessen Komponenten, wie z. B. das Datenverarbeitungssystem 102, beinhalten oder es kann verwendet werden, um diese zu implementieren. Das Computersystem 500 beinhaltet einen Bus 505 oder eine andere Kommunikationskomponente zur Übertragung von Informationen sowie einen Prozessor 510 oder eine Verarbeitungsschaltung, die mit dem Bus 505 gekoppelt sind und der Verarbeitung von Informationen dienen. Das Computersystem 500 kann außerdem einen oder mehrere Prozessoren 510 oder Verarbeitungsschaltungen beinhalten, die mit dem Bus gekoppelt sind und der Verarbeitung von Informationen dienen. Das Computersystem 500 beinhaltet ferner Hauptspeicher 515, wie z. B. Direktzugriffsspeicher (RAM) oder ein anderes dynamisches Speichergerät, das mit dem Bus 505 gekoppelt ist, um Daten zu speichern, sowie Anweisungen, die vom Prozessor 510 ausgeführt werden sollen. Der Hauptspeicher 515 kann der Datenbehälter 145 sein bzw. denselben beinhalten. Der Hauptspeicher 515 kann bei Ausführung von Anweisungen durch den Prozessor 510 ferner zum Speichern von Positionsdaten, temporären Variablen oder anderen mittelfristigen Informationen verwendet werden. Das Computersystem 500 kann ferner einen Nur-LeseSpeicher (ROM) 520 oder ein anderes statisches Speichergerät beinhalten, das mit dem Bus 505 gekoppelt ist, um statische Informationen und Anweisungen für den Prozessor 510 zu speichern. Ein Speichergerät 525, wie z. B. ein Solid-State-Gerät, eine magnetische oder optische Platte, kann mit dem Bus 505 gekoppelt werden, um Informationen und Anweisungen dauerhaft zu speichern. Das Speichergerät 525 kann den Datenbehälter 145 beinhalten bzw. Teil desselben sein.
  • Das Computersystem 500 kann über den Bus 505 mit einer Anzeige 535, wie z. B. einer Flüssigkristallanzeige (LCD) oder aktiven Matrixanzeige, gekoppelt sein, sodass sich einem Benutzer Informationen anzeigen lassen. Mit dem Bus 505 kann ein Eingabegerät 530, wie z. B. eine Tastatur mit alphanumerischen und anderen Tasten, gekoppelt sein, damit sich ausgewählte Informationen und Befehle an den Prozessor 510 übermitteln lassen. Das Eingabegerät 530 kann eine Touchscreen-Anzeige 535 beinhalten. Das Eingabegerät 530 kann außerdem eine Cursorsteuerung, wie z. B. eine Maus, einen Trackball oder Pfeiltasten auf der Tastatur beinhalten, sodass sich Richtungsdaten und ausgewählte Befehle an den Prozessor 510 übertragen und die Bewegung des Cursors auf der Anzeige 535 steuern lassen. Die Anzeige 535 kann beispielsweise ein Teil des Datenverarbeitungssystems 102, des Client-Computergeräts 150 oder einer anderen Komponente von 1 sein.
  • Die hierin beschriebenen Prozesse, Systeme und Verfahren können vom Computersystem 500 als Folge davon implementiert werden, dass der Prozessor 510 einen im Hauptspeicher 515 enthaltenen Anweisungssatz ausführt. Diese Anweisungen können von einem computerlesbaren Medium (wie z. B. Speichergerät 525) in den Hauptspeicher 515 gelesen werden. Die Ausführung des im Hauptspeicher 515 enthaltenen Anweisungssatzes veranlasst das Computersystem 500, die hierin beschriebenen und dargestellten Prozesse auszuführen. Außerdem können in einer Multi-Prozessor-Anordnung ein oder mehrere Prozessoren dazu genutzt werden, die im Hauptspeicher 515 enthaltenen Anweisungen auszuführen. Festverdrahtete Schaltungen können anstelle von oder in Kombination mit Software-Anweisungen zusammen mit den hierin beschriebenen Systemen und Verfahren verwendet werden. Die hierin beschriebenen Systeme und Verfahren sind nicht auf eine spezifische Kombination aus Hardwareschaltungen und Software beschränkt.
  • Obwohl ein exemplarisches Computersystem in 5 beschrieben worden ist, kann der Gegenstand, einschließlich der in dieser Spezifikation beschriebenen Vorgänge, in anderen Arten von digitalen elektronischen Schaltungen oder in Computersoftware, Firmware oder Hardware, darunter auch in den in dieser Spezifikation offenbarten Strukturen und deren strukturellen Entsprechungen oder in Kombinationen von einer oder mehrerer derselben, implementiert werden.
  • Für Situationen, in denen die hier erläuterten Systeme ggf. persönliche Informationen über Benutzer sammeln, oder persönliche Informationen nutzen, kann für die Benutzer eine Möglichkeit bereitgestellt werden, zu kontrollieren, ob Programme oder Funktionen, die persönliche Informationen (z. B. Informationen über das soziale Netzwerk eines Benutzers, soziale Handlungen oder Aktivitäten, eine Benutzerpräferenz oder den Standort eines Benutzers) sammeln, oder um zu kontrollieren, ob und/oder wie Inhalt von einem Inhaltsserver oder einem anderen Datenverarbeitungssystem empfangen wird, der für den Benutzer ggf. relevanter ist. Zusätzlich können gewisse Daten auf eine oder mehrere Weisen anonymisiert werden, bevor sie gespeichert oder verwendet werden, sodass personenbezogene Daten entfernt werden, wenn Parameter erzeugt werden. Eine Benutzeridentität kann beispielsweise anonymisiert werden, sodass keine personenbezogenen Informationen für den Benutzer bestimmt werden können, oder ein geografischer Standort des Benutzers verallgemeinert werden kann, wobei Standortinformationen (wie beispielsweise Stadt, Postleitzahl oder Bundesland) entnommen werden, sodass ein bestimmter Standort eines Benutzers nicht festgestellt werden kann. Somit kann der Benutzer Kontrolle darüber haben, wie Informationen über ihn oder sie gesammelt und von einem Inhaltsserver verwendet werden.
  • Der Gegenstand und die in dieser Spezifikation beschriebenen Vorgänge können in digitalen elektronischen Schaltkreisanordnungen oder in Computersoftware, Firmware oder Hardware, darunter auch in den in dieser Spezifikation offenbarten Strukturen und deren strukturellen Entsprechungen oder in Kombinationen von einer oder mehrerer derselben, implementiert werden. Der in dieser Beschreibung beschriebene Gegenstand kann als ein oder mehrere Computerprogramme implementiert werden, z. B. als eine oder mehrere Schaltungen von Computerprogrammanweisungen, die auf einem oder mehreren Computerspeichermedien codiert sind, um von Datenverarbeitungsvorrichtungen ausgeführt zu werden bzw. den Betrieb derselben zu steuern. Alternativ oder ergänzend dazu können die Programmanweisungen in einem künstlich erzeugten sich ausbreitenden Signal, wie beispielsweise einem maschinell erzeugten elektrischen, optischen oder elektromagnetischen Signal, codiert sein, das erzeugt wird, um Informationen zur Übertragung an eine geeignete Empfängervorrichtung zu codieren, damit diese von einer Datenverarbeitungsvorrichtung ausgeführt werden. Ein Computerspeichermedium kann ein computerlesbares Speichergerät, einen computerlesbaren Speicherträger, ein frei adressierbares oder seriellen Speicher-Array oder Speichergerät oder eine Kombination derselben sein bzw. darin enthalten sein. Obwohl ein Computerspeichermedium kein sich ausbreitendes Signal ist, kann ein Computerspeichermedium jedoch eine Quelle oder ein Ziel von Computerprogrammanweisungen sein, die in einem künstlich erzeugten sich ausbreiteten Signal codiert sind. Das Computerspeichermedium kann zudem eine oder mehrere separate Komponenten oder Medien sein (z. B. mehrere CDs, Datenträger oder andere Speichergeräte bzw. darin enthalten sein). Die in dieser Spezifikation beschriebenen Vorgänge können als Vorgänge implementiert werden, die durch eine Datenverarbeitungsvorrichtung an Daten ausgeführt werden, die auf einem oder mehreren computerlesbaren Speichergerät(en) gespeichert oder von anderen Quellen empfangen werden.
  • Die Begriffe „Datenverarbeitungssystem“, „Computergerät, „Komponente“ oder „Datenverarbeitungsvorrichtung“ umfassen verschiedene Geräte, Vorrichtungen und Maschinen zur Verarbeitung von Daten, einschließlich beispielsweise eines programmierbaren Prozessors, eines Computers, eines oder mehrerer Systeme auf einem Chip oder mehrerer derselben oder Kombinationen der vorstehenden. Die Vorrichtung kann eine Spezial-Logikschaltung, wie z. B. eine FPGA (feldprogrammierbare Universalschaltung) oder eine ASIC (anwendungsspezifische integrierte Schaltung), beinhalten. Das Gerät kann zusätzlich zur Hardware auch Code beinhalten, der eine Ausführungsumgebung für das entsprechende Computerprogramm erzeugt, wie zum Beispiel Code, der Prozessorfirmware, einen Protokollstapel, ein Datenbankverwaltungssystem, ein Betriebssystem, eine plattformübergreifende Laufzeitumgebung, einen virtuellen Computer oder eine Kombination daraus darstellt. Das Gerät und die Ausführungsumgebung können verschiedene Computermodell-Infrastrukturen, wie zum Beispiel Webdienste, sowie verteilte Rechen- und räumlich verteilte Recheninfrastrukturen realisieren. Die Direktaktions-API 135, Inhaltsauswahlkomponente 125, Vorhersagekomponente 120 oder NLP-Komponente 110 und andere Komponenten des Datenverarbeitungssystems 102 können eine oder mehrere Datenverarbeitungsvorrichtungen, Systeme, Computergeräte oder Prozessoren beinhalten oder teilen.
  • Ein Computerprogramm (auch bekannt als ein Programm, Software, Softwareanwendung, App, Script oder Code) kann in beliebiger Form von Programmiersprache, darunter auch in kompilierten Sprachen oder interpretierten Sprachen, deklarativen oder prozeduralen Sprachen geschrieben sein, und in beliebiger Form eingesetzt werden, darunter auch als Einzelprogramm oder als Modul, Komponente, Unterprogramm, Objekt oder eine andere Einheit, die zur Verwendung in einer Computerumgebung geeignet ist. Ein Computerprogramm kann einer Datei in einem Dateisystem entsprechen. Ein Computerprogramm kann in einem Teil einer Datei gespeichert sein, die andere Programme oder Daten enthält (z. B. ein oder mehrere Scripts, die in einem Dokument in Auszeichnungssprache gespeichert sind), in einer einzelnen Datei speziell für das betreffende Programm oder in mehreren koordinierten Dateien (z. B. Dateien, die ein oder mehrere Module, Unterprogramme oder Teile von Code speichern). Ein Computerprogramm kann auf einem Computer oder auf mehreren Computern bereitgestellt und ausgeführt werden, die sich an einem Standort oder an mehreren Standorten verteilt befinden und über ein Kommunikationsnetzwerk miteinander verbunden sind.
  • Die in dieser Beschreibung beschriebenen Prozesse und Logikabläufe können durch einen oder mehrere programmierbare Prozessoren ausgeführt werden, die ein oder mehrere Computerprogramme (z. B. Komponenten des Datenverarbeitungssystems 102) ausführen, um Aktionen durch Verarbeiten von eingegebenen Daten und Erzeugen von Ausgaben auszuführen. Die Prozesse und Logikabläufe können auch als, Spezial-Logikschaltungen, wie z. B. eine FPGA (feldprogrammierbare Universalschaltung) oder eine ASIC (anwendungsspezifische integrierte Schaltung), implementiert werden, zudem können Vorrichtungen als diese implementiert werden. Zu den zum Speichern von Computerprogrammanweisungen und Daten geeigneten Medien gehören sämtliche Arten von Festspeichern, Medien und Speichergeräten, einschließlich Halbleiterspeicherelementen, darunter auch EPROM, EEPROM und Flash-Speichergeräte; magnetische Festplatten, wie z. B. interne Festplatten oder Wechselplatten; magneto-optische Festplatten, und CD-ROM- und DVD-ROM-Laufwerke. Der Prozessor und der Speicher können durch eine Spezial-Logikschaltung ergänzt oder in dieselbe integriert werden.
  • Der hierin beschriebene Gegenstand kann in einem Computersystem implementiert sein, das eine Backend-Komponente, wie z. B. einen Datenserver, oder eine Middleware-Komponente, wie z. B. einen Anwendungsserver, oder eine Frontend-Komponente, wie z. B. einen Clientcomputer beinhaltet, der eine grafische Benutzeroberfläche oder einen Webbrowser aufweist, durch den ein Benutzer mit einer in dieser Beschreibung beschriebenen Implementierung des Gegenstandes interagieren kann, oder eine Kombination aus einer oder mehreren jener Backend-, Middleware- oder Frontend-Komponenten beinhaltet. Die Komponenten des Systems können durch eine beliebige Form oder ein beliebiges Medium digitaler Datenkommunikation, wie z. B. ein Kommunikationsnetzwerk, miteinander verbunden sein. Beispiele für Kommunikationsnetzwerke beinhalten ein lokales Netzwerk („LAN“) und ein Großraumnetzwerk („WAN“), ein Inter-Netzwerk (z. B. das Internet) und Peer-to-Peer-Netzwerke (z. B. ad hoc Peer-to-Peer-Netzwerke).
  • Das Computersystem, wie z. B. System 100 oder System 500, kann Clients und Server beinhalten. Ein Client und ein Server befinden sich im Allgemeinen entfernt voneinander und interagieren typischerweise über ein Kommunikationsnetzwerk (z. B. das Netzwerk 165). Die Beziehung zwischen Client und Server entsteht aufgrund von Computerprogrammen, die auf den jeweiligen Computern ausgeführt werden und eine Client-Server-Beziehung zueinander aufweisen. In einigen Implementierungen sendet ein Server Daten (z. B. ein Inhaltselement darstellende Datenpakete) an ein Client-Gerät (z. B. zu Zwecken des Anzeigens von Daten und Empfangens von Benutzereingaben von einem Benutzer, der mit dem Client-Gerät interagiert). In dem Clientgerät erzeugte Daten (z. B. ein Ergebnis der Benutzerinteraktion) können von dem Clientgerät an dem Server empfangen werden (z. B. empfangen durch das Datenverarbeitungssystem 102 von dem Computergerät 150 oder dem Inhaltsanbieter-Computergerät 155 oder dem Dienstanbieter-Computergerät 160).
  • Obwohl die Vorgänge in den Zeichnungen in einer bestimmten Reihenfolge dargestellt sind, ist es nicht erforderlich, dass diese Vorgänge in der dargestellten bestimmten Reihenfolge oder in fortlaufender Reihenfolge durchgeführt werden, zudem ist es nicht erforderlich, dass alle veranschaulichten Vorgänge durchgeführt werden. Hierin beschriebene Aktionen können in einer unterschiedlichen Reihenfolge durchgeführt werden.
  • Die Trennung verschiedener Systemkomponenten erfordert keine Trennung bei sämtlichen Implementierungen und die beschriebenen Programmkomponenten können in einem einzigen Hardware- oder Softwareprodukt enthalten sein. Die NLP-Komponente 112 oder die Inhaltsauswahlkomponente 118 kann beispielsweise eine einzelne Komponente, eine App oder ein Programm oder eine logische Vorrichtung mit einer oder mehreren Verarbeitungsschaltungen oder Teil von einem oder mehreren Servern des Datenverarbeitungssystems 102 sein.
  • Nachdem nunmehr einige veranschaulichende Implementierungen beschrieben wurden, ist es offensichtlich, dass das Vorstehende der Veranschaulichung und nicht als Einschränkung dienen soll, und lediglich auf exemplarische Art und Weise präsentiert wurde. Insbesondere können, obgleich viele der hierin präsentierten Beispiele spezifische Kombinationen von Verfahrensvorgängen oder Systemelementen beinhalten, diese Vorgänge und Elemente auf andere Weisen kombiniert werden, um dieselben Ziele zu erreichen. Vorgänge, Elemente und Merkmale, die im Zusammenhang mit einer Implementierung erläutert werden, sollen nicht von einer ähnlichen Rolle in anderen Implementierungen oder Implementierungen ausgeschlossen sein.
  • Die hier verwendete Ausdrucksweise und Terminologie dient dem Zweck der Beschreibung und sollte nicht als Einschränkung betrachtet werden. Die Verwendung der Wörter „einschließlich“, „umfassend“, „aufweisend“, „enthaltend“, „einbeziehend“, „gekennzeichnet durch“, „dadurch gekennzeichnet, dass“ und Variationen derselben, soll hier bedeuten, dass die danach aufgelisteten Gegenstände, Äquivalente derselben und zusätzliche Gegenstände sowie alternative Implementierungen, die ausschließlich aus den danach aufgelisteten Gegenständen bestehen, enthalten sind. In einer Implementierung bestehen die hierin beschriebenen Systeme und Verfahren aus einem, aus jeder Kombination von mehr als einem oder aus allen der hierin beschriebenen Elemente, Wirkungsweisen oder Komponenten.
  • Jegliche Bezugnahmen auf Implementierungen oder Elemente oder Wirkungsweisen der Systeme und Verfahren, auf die hierin im Singular verwiesen wird, können auch Implementierungen umfassen, die eine Vielzahl dieser Elemente einschließen, während jegliche Bezugnahmen auf eine Implementierung oder ein Element oder eine Wirkungsweise beliebiger Art, auf die hierin im Plural verwiesen wird, auch Implementierungen umfassen können, die nur ein einzelnes Element einschließen. Bezugnahmen auf die Singular- oder die Pluralform sind nicht dazu gedacht, die vorliegend offenbarten Systeme und Verfahren, deren Komponenten, Wirkungsweisen oder Elemente auf einzelne oder mehrfache Konfigurationen einzuschränken. Bezugnahmen auf eine Wirkungsweise oder ein Element jeglicher Art, auf Basis von Informationen, Wirkungsweisen oder Elementen einer beliebigen Art können Implementierungen beinhalten, deren Wirkungsweise oder deren Element zumindest teilweise auf Informationen, Wirkungsweisen oder Elementen jeglicher Art basiert.
  • Jegliche der hierin offenbarten Implementierungen können mit beliebigen anderen Implementierungen oder Ausführungsformen kombiniert werden, wobei die Bezugnahmen auf „eine Implementierung“, „einige Implementierungen“, „die eine Implementierung“ oder dergleichen einander nicht zwangsläufig ausschließen und angeben sollen, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder eine bestimmte Charakteristik, die im Zusammenhang mit der Implementierung beschrieben wird, in mindestens einer Implementierung oder Ausführungsform enthalten sein kann. Derartige Begriffe in der hierin verwendeten Form beziehen sich nicht notwendigerweise auf dieselbe Implementierung. Jede Implementierung kann einschließlich oder ausschließlich und auf jede Weise, die mit den hierin offenbarten Aspekten und Implementierungen im Einklang steht, mit jeder anderen Implementierung kombiniert werden.
  • Verweise auf „oder“ können als einschließend ausgelegt werden, sodass alle Begriffe, die mithilfe von „oder“ beschrieben werden, einen beliebigen einzelnen, mehr als einen oder alle beschriebenen Begriffe angeben können. Eine Bezugnahme auf „mindestens eines von ‚A‘ und ‚B‘“ kann beispielsweise nur ‚A‘, nur ‚B‘ sowie sowohl ‚A‘ und ‚B‘ beinhalten. Diese Bezugnahmen, die in Verbindung mit „umfassend“ oder anderer offener Terminologie verwendet werden, können zusätzliche Elemente einbeziehen.
  • Wenn technische Merkmale in den Zeichnungen, der ausführlichen Beschreibung oder einem beliebigen Anspruch von Bezugszeichen gefolgt werden, wurden die Bezugszeichen eingebunden, um die Verständlichkeit der Zeichnungen, ausführlichen Beschreibung oder Ansprüche zu erhöhen. Dementsprechend haben weder jene Bezugszeichen noch deren Abwesenheit eine einschränkende Wirkung auf den Umfang der Anspruchselemente.
  • Die hierin beschriebenen Systeme und Verfahren können auch durch andere Ausführungsformen realisiert werden, ohne von deren wesentlichen Merkmalen abzuweichen. Das Datenverarbeitungssystem 102 kann beispielsweise ein Inhaltselement für eine anschließende Aktion (z. B. für die dritte Aktion 215) teilweise basierend auf Daten von einer vorausgehenden Aktion in der Folge von Aktionen des Threads 200 auswählen, wie beispielsweise Daten von der zweiten Aktion 210, die anzeigen, dass die zweite Aktion 210 abgeschlossen ist oder dabei ist, zu beginnen. Die vorhergehenden Implementierungen werden eher als veranschaulichend denn als einschränkend für die hierin beschriebenen Systeme und Verfahren betrachtet. Der Geltungsbereich der hierin beschriebenen Systeme und Verfahren wird daher eher durch die beigefügten Ansprüche als durch die vorangehende Beschreibung angegeben, wobei Änderungen, welche innerhalb der Bedeutungen und des Bereichs der Äquivalenz der Ansprüche fallen, daher hierin eingeschlossen sind.

Claims (11)

  1. System zum Modulieren paketierter Audiosignale, umfassend: eine Prozessorkomponente für natürliche Sprache, die durch ein Datenverarbeitungssystem ausgeführt wird, um über eine Schnittstelle des Datenverarbeitungssystems Datenpakete zu empfangen, die ein durch einen Sensor eines Client-Geräts erkanntes Eingabeaudiosignal umfassen; Parsen des Eingabeaudiosignals durch die Prozessorkomponente für natürliche Sprache, um eine Anfrage und ein der Anfrage entsprechendes Auslöserschlüsselwort zu identifizieren, eine Direktaktions-Anwendungsprogrammierschnittstelle des Datenverarbeitungssystems, um basierend auf dem Auslöserschlüsselwort eine erste Aktionsdatenstruktur in Reaktion auf die Anfrage zu erzeugen; eine durch das Datenverarbeitungssystem ausgeführte Inhaltsauswahlkomponente zum Empfangen des Auslöserschlüsselwortes, das durch den Prozessor für natürliche Sprache identifiziert wird, und, basierend auf dem Auslöserschlüsselwort, Auswählen eines Inhaltselements über einen Echtzeit-Inhaltsauswahlprozess; eine Audiosignalgeneratorkomponente, die durch das Datenverarbeitungssystem ausgeführt wird, um ein Ausgabesignal zu erzeugen, das einen ersten Abschnitt umfasst, der der ersten Aktionsdatenstruktur entspricht und mit einer ersten Audiomodulation erzeugt wurde, und einen zweiten Abschnitt, der dem Inhaltselement entspricht und mit einer zweiten Audiomodulation erzeugt wurde, die sich von der ersten Audiomodulation unterscheidet; und eine Schnittstelle des Datenverarbeitungssystems, um Datenpakete zu übertragen, die das von der Audiosignalgeneratorkomponente erzeugte Ausgabesignal umfassen, um eine durch das Clientgerät ausgeführte Audiotreiberkomponente dazu zu veranlassen, einen Lautsprecher des Clientgeräts anzusteuern, um eine akustische Welle zu erzeugen, die dem Ausgabesignal entspricht.
  2. System nach Anspruch 1, umfassend: die Prozessorkomponente für natürliche Sprache, um eine semantische Verarbeitungstechnik auf das Eingabeaudiosignal anzuwenden, um eine Auslöserphrase zu identifizieren, die das Auslöserschlüsselwort und ein zweites Auslöserschlüsselwort umfasst.
  3. System nach Anspruch 1, umfassend: die Prozessorkomponente für natürliche Sprache, um das Eingabeaudiosignal zu filtern, um das Auslöserschlüsselwort zu identifizieren.
  4. System nach Anspruch 1, umfassend: eine Richtlinien-Engine-Komponente, die durch das Datenverarbeitungssystem ausgeführt wird, um, auf Basis des Inhaltselements, das über den Echtzeit-Inhaltsauswahlprozess ausgewählt wurde, zu bestimmen, die Audiosignalgeneratorkomponente anzuweisen, die zweite Modulation zu verwenden, die sich von der ersten Audiomodulation unterscheidet.
  5. System nach Anspruch 1, umfassend: eine Sitzungshandhabungselementkomponente, die durch das Datenverarbeitungssystem ausgeführt wird, um eine Kommunikationssitzung zwischen dem Clientgerät und dem Datenverarbeitungssystem herzustellen, wobei die Kommunikationssitzung das Eingabeaudiosignal umfasst; und eine Richtlinien-Engine-Komponente, die durch das Datenverarbeitungssystem ausgeführt wird, um: zu ermitteln, dass der Inhalt, der über den Echtzeit-Inhaltsauswahlprozess ausgewählt wurde, nicht für das Clientgerät während der Kommunikation vorher präsentiert wurde; und in Reaktion darauf, dass das Inhaltselement während der Kommunikationssitzung nicht vorher präsentiert wurde, die Audiosignalgeneratorkomponente anzuweisen, den zweiten Abschnitt des Ausgabesignals mit der zweiten Audiomodulation zu erzeugen, die sich von der ersten Audiomodulation unterscheidet.
  6. System nach Anspruch 1, umfassend: eine Sitzungshandhabungselementkomponente, die durch das Datenverarbeitungssystem ausgeführt wird, um eine Kommunikationssitzung zwischen dem Clientgerät und dem Datenverarbeitungssystem herzustellen, wobei die Kommunikationssitzung das Eingabeaudiosignal und ein zweites Eingabeaudiosignal umfasst; und die Inhaltsauswahlkomponente, um, basierend auf dem zweiten Eingabeaudiosignal, ein zweites Inhaltselement auszuwählen; eine Richtlinien-Engine-Komponente, die durch das Datenverarbeitungssystem ausgeführt wird, um: zu ermitteln, dass sich das zweite Inhaltselement von einem oder mehreren Inhaltselementen unterschiedet, die vorher ausgewählt und dem Clientgerät während der Kommunikationssitzung bereitgestellt wurden; in Reaktion darauf, dass sich das zweite Inhaltselement von einem oder mehreren Inhaltselementen unterscheidet, die während der Kommunikationssitzung vorher präsentiert wurden, die Audiosignalgeneratorkomponente anzuweisen, ein zweites Ausgabesignal zu erzeugen, das einen dritten Abschnitt umfasst, der dem zweiten Inhaltselement entspricht, das durch die Inhaltsauswahlkomponente ausgewählt wurde, wobei der dritte Abschnitt mit der zweiten Audiomodulation erzeugt wird; und die Schnittstelle zum Übertragen, innerhalb der Kommunikationssitzung und an das Clientgerät, von Datenpaketen, die das zweite Ausgabesignal umfassen.
  7. System nach Anspruch 1, umfassend: eine Sitzungshandhabungselementkomponente, die durch das Datenverarbeitungssystem ausgeführt wird, um eine Kommunikationssitzung zwischen dem Clientgerät und dem Datenverarbeitungssystem herzustellen, wobei die Kommunikationssitzung das Eingabeaudiosignal umfasst; eine Richtlinien-Engine-Komponente, die durch das Datenverarbeitungssystem ausgeführt wird, um: zu ermitteln, dass der Echtzeit-Inhaltsauswahlprozess ein oder mehrere Inhaltselemente für das Clientgerät während der Kommunikationssitzung vorher ausgewählt und bereitgestellt hat; und in Reaktion darauf, dass ein oder mehrere Inhaltselemente während der Kommunikationssitzung vorher präsentiert wurden, die Audiosignalgeneratorkomponente anzuweisen, ein zweites Ausgabesignal zu erzeugen, das einen dritten Abschnitt umfasst, der einem zweiten Inhaltselement entspricht, das durch die Inhaltsauswahlkomponente ausgewählt wurde, wobei der dritte Abschnitt mit der zweiten Audiomodulation erzeugt wird; und die Schnittstelle zum Übertragen, innerhalb der Kommunikationssitzung und an das Clientgerät, von Datenpaketen, die das zweite Ausgabesignal umfassen.
  8. System nach Anspruch 7, umfassend: die Sitzungshandhabungselementkomponente, die durch das Datenverarbeitungssystem ausgeführt wird, um: nach Übertragung der Datenpakete, die das zweite Ausgabesignal umfassen, einen Übergang von einer ersten Art von Netzwerkaktivität, die in der Kommunikationssitzung erfolgte, zu einer zweiten Art von Netzwerkaktivität zu erkennen; In Reaktion auf den Übergang, die Kommunikationssitzung zu beenden; und eine zweite Kommunikationssitzung zwischen dem Clientgerät und dem Datenverarbeitungssystem herzustellen, wobei die zweite Kommunikationssitzung die zweite Art von Netzwerkaktivität und ein zweites Eingabeaudiosignal umfasst; die Richtlinien-Engine-Komponente, um zu ermitteln, dass mindestens ein Inhaltselement in der zweiten Kommunikationssitzung vorher nicht bereitgestellt wurde; und die Audiosignalgeneratorkomponente, um ein drittes Ausgabesignal zu erzeugen, das einen vierten Abschnitt umfasst, der einem dritten Inhaltselement entspricht, das durch die Inhaltsauswahlkomponente ausgewählt wurde, wobei der vierte Abschnitt mit der zweiten Audiomodulation in Reaktion auf die Ermittlung erzeugt wird, dass mindestens ein Inhaltselement in der zweiten Kommunikationssitzung vorher nicht bereitgestellt wurde.
  9. System nach Anspruch 1, umfassend: die Audiosignalgeneratorkomponente, um die zweite Audiomodulation zu erzeugen, die mindestens eines von einer Frequenzverschiebung und einer Amplitudenverschiebung umfasst.
  10. System nach Anspruch 1, umfassend: die Audiosignalerzeugerkomponente, um die zweite Audiomodulation zu erzeugen, die mindestens entweder eine Audioüberlagerung und/oder ein Audio-Wasserzeichen umfasst.
  11. System nach Anspruch 1, umfassend: die Audiosignalerzeugerkomponente, um den ersten Abschnitt mit der ersten Audiomodulation zu erzeugen, die eine voreingestellte Audiomodulation umfasst, den zweiten Abschnitt mit der zweiten Audiomodulation zu erzeugen, die größer ist als die voreingestellte Audiomodulation.
DE212017000032.5U 2016-12-30 2017-08-31 Modulation von paketierten Audiosignalen Active DE212017000032U1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/395,660 US10347247B2 (en) 2016-12-30 2016-12-30 Modulation of packetized audio signals
US15/395,660 2016-12-30
PCT/US2017/049758 WO2018125302A1 (en) 2016-12-30 2017-08-31 Modulation of packetized audio signals

Publications (1)

Publication Number Publication Date
DE212017000032U1 true DE212017000032U1 (de) 2019-07-10

Family

ID=59901582

Family Applications (2)

Application Number Title Priority Date Filing Date
DE112017000139.0T Pending DE112017000139T5 (de) 2016-12-30 2017-08-31 Modulation von paketierten Audiosignalen
DE212017000032.5U Active DE212017000032U1 (de) 2016-12-30 2017-08-31 Modulation von paketierten Audiosignalen

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE112017000139.0T Pending DE112017000139T5 (de) 2016-12-30 2017-08-31 Modulation von paketierten Audiosignalen

Country Status (9)

Country Link
US (3) US10347247B2 (de)
EP (2) EP3360128B1 (de)
JP (2) JP6704937B2 (de)
KR (2) KR102058131B1 (de)
CN (1) CN109074802B (de)
AU (2) AU2017386097B9 (de)
DE (2) DE112017000139T5 (de)
GB (2) GB2565175B (de)
WO (1) WO2018125302A1 (de)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10347247B2 (en) * 2016-12-30 2019-07-09 Google Llc Modulation of packetized audio signals
US11295738B2 (en) * 2016-12-30 2022-04-05 Google, Llc Modulation of packetized audio signals
US10489400B2 (en) * 2017-03-03 2019-11-26 International Business Machines Corporation Question pre-processing in a question and answer system
JP2018159759A (ja) * 2017-03-22 2018-10-11 株式会社東芝 音声処理装置、音声処理方法およびプログラム
US11393451B1 (en) * 2017-03-29 2022-07-19 Amazon Technologies, Inc. Linked content in voice user interface
US10614487B1 (en) * 2017-06-04 2020-04-07 Instreamatic, Inc. Server for enabling voice-responsive content as part of a media stream to an end user on a remote device
US10249209B2 (en) 2017-06-12 2019-04-02 Harmony Helper, LLC Real-time pitch detection for creating, practicing and sharing of musical harmonies
US11282407B2 (en) 2017-06-12 2022-03-22 Harmony Helper, LLC Teaching vocal harmonies
WO2018231209A1 (en) * 2017-06-13 2018-12-20 Google Llc Establishment of audio-based network sessions with non-registered resources
US10868846B2 (en) * 2017-08-16 2020-12-15 AdsWizz Inc. Delivering tailored audio segments within live audio streams
US10503468B2 (en) 2017-12-08 2019-12-10 Amazon Technologies, Inc. Voice enabling applications
US11182122B2 (en) * 2017-12-08 2021-11-23 Amazon Technologies, Inc. Voice control of computing devices
EP4354326A3 (de) 2018-04-25 2024-06-19 Google LLC Verzögerte zweifaktorauthentifizierung in einer vernetzten umgebung
US11113372B2 (en) * 2018-04-25 2021-09-07 Google Llc Delayed two-factor authentication in a networked environment

Family Cites Families (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7590538B2 (en) 1999-08-31 2009-09-15 Accenture Llp Voice recognition system for navigating on the internet
US6275806B1 (en) 1999-08-31 2001-08-14 Andersen Consulting, Llp System method and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters
US6684249B1 (en) * 2000-05-26 2004-01-27 Sonicbox, Inc. Method and system for adding advertisements over streaming audio based upon a user profile over a world wide area network of computers
JP2001338218A (ja) * 2000-05-29 2001-12-07 Isao:Kk 広告システム、広告方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体
US6857007B1 (en) 2000-08-30 2005-02-15 Bloomfield Enterprises, Llc Personal digital assistant facilitated communication system
US7573986B2 (en) * 2001-07-18 2009-08-11 Enterprise Integration Group, Inc. Method and system for interjecting comments to improve information presentation in spoken user interfaces
US7869998B1 (en) * 2002-04-23 2011-01-11 At&T Intellectual Property Ii, L.P. Voice-enabled dialog system
US8301436B2 (en) * 2003-05-29 2012-10-30 Microsoft Corporation Semantic object synchronous understanding for highly interactive interface
US20040260551A1 (en) * 2003-06-19 2004-12-23 International Business Machines Corporation System and method for configuring voice readers using semantic analysis
US20050050093A1 (en) * 2003-08-29 2005-03-03 International Business Machines Corporation Customized selection of a voice file for a web page
US7881934B2 (en) * 2003-09-12 2011-02-01 Toyota Infotechnology Center Co., Ltd. Method and system for adjusting the voice prompt of an interactive system based upon the user's state
US8583439B1 (en) * 2004-01-12 2013-11-12 Verizon Services Corp. Enhanced interface for use with speech recognition
US20050169283A1 (en) * 2004-01-30 2005-08-04 Lucent Technologies Inc. Internet access through conventional telephones
US7853255B2 (en) 2004-04-16 2010-12-14 Broadcom Corporation Digital personal assistance via a broadband access gateway
GB0416720D0 (en) * 2004-07-27 2004-09-01 British Telecomm Method and system for voice over IP streaming optimisation
US7742911B2 (en) * 2004-10-12 2010-06-22 At&T Intellectual Property Ii, L.P. Apparatus and method for spoken language understanding by using semantic role labeling
JP2006174277A (ja) 2004-12-17 2006-06-29 Casio Hitachi Mobile Communications Co Ltd 携帯端末、ステレオ再生方法およびステレオ再生プログラム
JP4623637B2 (ja) * 2005-01-25 2011-02-02 Kddi株式会社 広告表示確認システム
JP2006244431A (ja) * 2005-02-28 2006-09-14 Ibix Corp ネットワーク検索エンジンのアクセス促進システム
US20060277567A1 (en) * 2005-06-07 2006-12-07 Kinnear D S System and method for targeting audio advertisements
US8195133B2 (en) 2005-09-14 2012-06-05 Jumptap, Inc. Mobile dynamic advertisement creation and placement
US7904505B2 (en) 2005-11-02 2011-03-08 At&T Intellectual Property I, L.P. Service to push author-spoken audio content with targeted audio advertising to users
BRMU8702846U2 (pt) 2006-02-10 2010-06-15 Spinvox Ltd sistema de mensagem de voz em escala de massa, independente de usuário, independente de dispositivo
EP2044804A4 (de) 2006-07-08 2013-12-18 Personics Holdings Inc Persönliches hörhilfegerät und verfahren
US8244589B2 (en) * 2006-08-29 2012-08-14 Daevid Vincent Personalized audio controlled shopping information service for a mobile device
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
JP5220297B2 (ja) * 2006-10-17 2013-06-26 ヤフー株式会社 キーワードと条件に基づく広告配信方法
WO2008092085A2 (en) * 2007-01-25 2008-07-31 Eliza Corporation Systems and techniques for producing spoken voice prompts
US20110054899A1 (en) 2007-03-07 2011-03-03 Phillips Michael S Command and control utilizing content information in a mobile voice-to-speech application
KR101322486B1 (ko) * 2007-06-28 2013-10-25 주식회사 케이티 범용 대화서비스 장치 및 그 방법
US20090030901A1 (en) * 2007-07-23 2009-01-29 Agere Systems Inc. Systems and methods for fax based directed communications
US20100010817A1 (en) 2008-07-08 2010-01-14 Veeru Ramaswamy System and Method for Improving the Performance of Speech Analytics and Word-Spotting Systems
CN101346005A (zh) * 2008-08-19 2009-01-14 中兴通讯股份有限公司 全速率语音的处理方法及装置
DE102008052912A1 (de) 2008-10-23 2010-05-06 Abb Technology Ag Feldgerät, insbesondere Durchflussmessgerät
US8145561B1 (en) 2009-01-05 2012-03-27 Sprint Communications Company L.P. Phone usage pattern as credit card fraud detection trigger
US8428758B2 (en) 2009-02-16 2013-04-23 Apple Inc. Dynamic audio ducking
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8355910B2 (en) * 2010-03-30 2013-01-15 The Nielsen Company (Us), Llc Methods and apparatus for audio watermarking a substantially silent media content presentation
JP5175908B2 (ja) 2010-09-14 2013-04-03 株式会社東芝 情報処理装置及びプログラム
US9454962B2 (en) * 2011-05-12 2016-09-27 Microsoft Technology Licensing, Llc Sentence simplification for spoken language understanding
TW201322034A (zh) * 2011-11-23 2013-06-01 Inst Information Industry 結合搜尋引擎服務的廣告播放系統及方法
US10319363B2 (en) * 2012-02-17 2019-06-11 Microsoft Technology Licensing, Llc Audio human interactive proof based on text-to-speech and semantics
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9275411B2 (en) * 2012-05-23 2016-03-01 Google Inc. Customized voice action system
US9619812B2 (en) * 2012-08-28 2017-04-11 Nuance Communications, Inc. Systems and methods for engaging an audience in a conversational advertisement
KR102516577B1 (ko) 2013-02-07 2023-04-03 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
KR102228455B1 (ko) * 2013-08-05 2021-03-16 삼성전자주식회사 대화의 소재를 제공하는 장치, 서버 및 방법
WO2015068310A1 (ja) * 2013-11-11 2015-05-14 株式会社東芝 電子透かし検出装置、方法及びプログラム
TW201528803A (zh) * 2014-01-10 2015-07-16 Waystorm Co Ltd 行動廣告推送系統及其操作行動電子裝置的方法
US9183831B2 (en) * 2014-03-27 2015-11-10 International Business Machines Corporation Text-to-speech for digital literature
IN2014CH01843A (de) * 2014-04-07 2015-10-09 Ncr Corp
EP2945356A1 (de) * 2014-05-13 2015-11-18 Thomson Licensing Verfahren von und Vorrichtung zum Ersetzen einer Telefonwarteschleifenmusik
US10789041B2 (en) * 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US20170092278A1 (en) 2015-09-30 2017-03-30 Apple Inc. Speaker recognition
US9928840B2 (en) 2015-10-16 2018-03-27 Google Llc Hotword recognition
US9747926B2 (en) 2015-10-16 2017-08-29 Google Inc. Hotword recognition
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
WO2018067402A1 (en) * 2016-10-03 2018-04-12 Google Inc. Selection of computational agent for task performance
US11295738B2 (en) * 2016-12-30 2022-04-05 Google, Llc Modulation of packetized audio signals
US10347247B2 (en) * 2016-12-30 2019-07-09 Google Llc Modulation of packetized audio signals
US10395650B2 (en) * 2017-06-05 2019-08-27 Google Llc Recorded media hotword trigger suppression

Also Published As

Publication number Publication date
CN109074802A (zh) 2018-12-21
JP6704937B2 (ja) 2020-06-03
US10347247B2 (en) 2019-07-09
AU2017386097A1 (en) 2019-05-23
EP3360128A1 (de) 2018-08-15
KR102345614B1 (ko) 2021-12-30
EP3360128B1 (de) 2023-05-10
US20230111040A1 (en) 2023-04-13
JP2019506627A (ja) 2019-03-07
JP6977103B2 (ja) 2021-12-08
GB2605281B (en) 2023-05-03
JP2020129145A (ja) 2020-08-27
AU2017386097B9 (en) 2020-03-12
US20180190275A1 (en) 2018-07-05
AU2020203038B2 (en) 2021-07-01
US11948572B2 (en) 2024-04-02
GB2565175B (en) 2022-05-18
CN109074802B (zh) 2023-08-08
KR102058131B1 (ko) 2019-12-20
US11482216B2 (en) 2022-10-25
EP4181118A1 (de) 2023-05-17
KR20180091707A (ko) 2018-08-16
GB2605281A (en) 2022-09-28
DE112017000139T5 (de) 2018-10-31
GB2565175A (en) 2019-02-06
AU2020203038A1 (en) 2020-05-28
GB202204298D0 (en) 2022-05-11
KR20190141031A (ko) 2019-12-20
WO2018125302A1 (en) 2018-07-05
AU2017386097B2 (en) 2020-03-05
US20190304462A1 (en) 2019-10-03
GB201803881D0 (en) 2018-04-25

Similar Documents

Publication Publication Date Title
DE212017000032U1 (de) Modulation von paketierten Audiosignalen
DE212017000029U1 (de) Natürliche Sprachverarbeitung für den Sitzungsaufbau mit Serviceprovidern
DE112017000141T5 (de) Selektives sensorabfragen
DE112017000131T5 (de) Rückmeldungssteuerung für Datenübertragungen
DE212017000042U1 (de) Datenstruktur-Pooling von sprachaktivierten Datenpaketen
DE112017000169T5 (de) Gerätekennungsabhängige vorgangsverarbeitung von paketbasierter datenkommunikation
DE202017107937U1 (de) Modifikation einer audiobasierten Computerprogrammausgabe
US11295738B2 (en) Modulation of packetized audio signals
DE112017000104T5 (de) Sequenzabhängige datennachrichtenkonsolidierung in einer sprachaktivierten computernetzwerkumgebung
DE112017000177T5 (de) Authentifizierung von paketierten Audiosignalen
DE212017000068U1 (de) Einrichten von audio-basierten Netzwerksitzungen mit nicht registrierten Ressourcen
DE202017107939U1 (de) Ausgleichen von Modifikationen einer audiobasierten Computerprogrammausgabe
DE102017131383A1 (de) Ausgleichen von Modifikationen einer audiobasierten Computerprogrammausgabe
DE102017131381A1 (de) Validieren der Modifikation einer audiobasierten Computerprogrammausgabe

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE

Representative=s name: KILBURN & STRODE LLP, GB

Representative=s name: KILBURN & STRODE LLP, NL

R207 Utility model specification
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0017200000

Ipc: G06F0040000000

R082 Change of representative

Representative=s name: KILBURN & STRODE LLP, GB

Representative=s name: KILBURN & STRODE LLP, NL

R082 Change of representative

Representative=s name: KILBURN & STRODE LLP, GB

Representative=s name: KILBURN & STRODE LLP, NL

R082 Change of representative

Representative=s name: KILBURN & STRODE LLP, GB

Representative=s name: KILBURN & STRODE LLP, NL

R150 Utility model maintained after payment of first maintenance fee after three years
R082 Change of representative

Representative=s name: KILBURN & STRODE LLP, NL

R082 Change of representative

Representative=s name: KILBURN & STRODE LLP, NL

R151 Utility model maintained after payment of second maintenance fee after six years