DE102022202150A1 - System und verfahren zur kontextbewussten audioverstärkung - Google Patents

System und verfahren zur kontextbewussten audioverstärkung Download PDF

Info

Publication number
DE102022202150A1
DE102022202150A1 DE102022202150.9A DE102022202150A DE102022202150A1 DE 102022202150 A1 DE102022202150 A1 DE 102022202150A1 DE 102022202150 A DE102022202150 A DE 102022202150A DE 102022202150 A1 DE102022202150 A1 DE 102022202150A1
Authority
DE
Germany
Prior art keywords
customer
communication
audio
agent
audio enhancement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022202150.9A
Other languages
English (en)
Inventor
Shamik Shah
C. Valentine Matula
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Avaya Man Lp
Avaya Management LP
Original Assignee
Avaya Man Lp
Avaya Management LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Avaya Man Lp, Avaya Management LP filed Critical Avaya Man Lp
Publication of DE102022202150A1 publication Critical patent/DE102022202150A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • H04M3/5166Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing in combination with interactive voice response systems or voice portals, e.g. as front-ends
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • G10L21/007Changing voice quality, e.g. pitch or formants characterised by the process used
    • G10L21/013Adapting to target pitch
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/30Aspects of automatic or semi-automatic exchanges related to audio recordings in general
    • H04M2203/305Recording playback features, e.g. increased speed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/30Aspects of automatic or semi-automatic exchanges related to audio recordings in general
    • H04M2203/306Prerecordings to be used during a voice call

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Finance (AREA)
  • Evolutionary Computation (AREA)
  • Accounting & Taxation (AREA)
  • Marketing (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Telephonic Communication Services (AREA)

Abstract

Contact Center sind bestrebt, eine positive und produktive Interaktion zwischen Kunde und Agent zu gewährleisten, um das Problem eines Anrufs erfolgreich zu lösen. Während Audioinhalte wie Musik oder Nachrichten in der Warteschleife gang und gäbe sind, bietet die Auswahl von Audioerweiterungen, die in den Kunden-Agenten-Gesprächsverlauf eingefügt werden, dem Kunden und/oder Agenten Hinweise und Motivationen, um den erfolgreichen Abschluss des Gesprächs zu fördern. Es können Hinweise gegeben werden, um die Ankunft oder Abreise eines Agenten anzukündigen, einen Kunden virtuell von einem Ort zu einem anderen für einen anderen Teil der Interaktion zu bringen, Spannung und Vorfreude auf ein bevorstehendes Ereignis zu erzeugen, indem ein Audioerlebnis als Vorgeschmack auf das eigentliche Ereignis geboten wird, angespannte Nerven zu beruhigen oder zu einem anderen Zweck.

Description

  • COPYRIGHT-VERMERK
  • Ein Teil der Offenbarung dieser Patentschrift enthält Material, das dem Urheberrechtsschutz unterliegt. Der Urheberrechtsinhaber hat keine Einwände gegen die Faksimile-Reproduktion des Patentdokuments oder der Patentoffenbarung in der Form, wie sie in den Patentakten oder -unterlagen des Patent- und Markenamts erscheint, erhoben, behält sich aber ansonsten alle Urheberrechte vor.
  • BEREICH DER OFFENLEGUNG
  • Die Erfindung bezieht sich allgemein auf Systeme und Verfahren für die Mixed-Mode-Kommunikation und insbesondere auf Audioverbesserungen, die in einem Anruf bereitgestellt werden.
  • HINTERGRUND
  • Ein gemeinsames Ziel von Contact Centern, z. B. eines Contact Centers, das Bestandteil eines Unternehmens ist oder dieses unterstützt, besteht darin, alle verfügbaren Tools zu nutzen, um Kundeninteraktionen zum Erfolg zu führen, z. B. um ein Produkt zu verkaufen oder ein Problem zu lösen. Dabei wird der Erfolg oft an der Kundenzufriedenheit, den Umfrageergebnissen, der für die Interaktion benötigten Zeit und den für den Abschluss der Interaktion eingesetzten Ressourcen (z. B. zusätzliche Agenten) gemessen. Gleichzeitig möchte das Unternehmen die Leistung der Agenten maximieren und gleichzeitig die Zufriedenheit, Moral und positive Einstellung der Agenten aufrechterhalten. Außerdem werden die Erfahrungen und Erwartungen von Kunden und Agenten durch das geprägt, was sie sehen und hören. Persönliche Erfahrungen, wie z. B. persönliches Einkaufen, persönlicher Service (z. B. an Flughafenschaltern, in Juweliergeschäften usw.), Online-Videos, Fernsehen, Radio und Podcasts, TED-Talks usw. tragen zur Wahrnehmung dessen bei, was bei Kunden-Agenten-Interaktionen erwünscht oder erwartet wird und was nicht.
  • ZUSAMMENFASSUNG
  • Bisherige Lösungen nutzen häufig Audioverbesserungen, um eine bestimmte Stimmung zu erzeugen oder ein „Erlebnis“ während eines Selbstbedienungsabschnitts einer Interaktion zu bieten, z. B. wenn der Kunde in der Warteschleife ist oder durch eine interaktive Sprachausgabe (IVR) oder eine andere Interaktion mit einem automatischen System navigiert. Eine gängige Audioerweiterung ist Musik in der Warteschleife. Die Audioerweiterung wird oft durch eine systemweite Einstellung, ein Attribut eines Anrufs oder einen Arbeitsablauf bestimmt.
  • Audio- und andere Verbesserungen werden auch für das Agenten-Coaching während eines Anrufs genutzt. So werden in Callcentern häufig dynamische Agentenskripte, Bildschirmeinblendungen und Notizen angezeigt, die den Agenten Hinweise geben, die auf dem Kontext der Interaktion und/oder dem aktuellen Gespräch basieren, um den Kundenservice zu verbessern.
  • Während der Interaktion zwischen Kunde und Agent wird (zumindest absichtlich) nur die Sprache des Agenten und des Kunden oder unter bestimmten Umständen die des Agenten und/oder des Kunden wiedergegeben. Für den Kunden werden zusätzliche Audiosignale bereitgestellt, jedoch nicht während der Interaktion mit dem Agenten. Der Ton, der dem Agenten zur Verfügung gestellt wird, beschränkt sich auf den reinen Agenten-Ton (z. B. „Flüster“-Kanalnachrichten oder „Hinweise“ des Kundendienstes). Infolgedessen ist das Gespräch schlicht und oft langweilig. Es ist oft wünschenswert, die Stimmung des Kunden zu ändern, aber Audio, das sich auf die Stimme des Kunden und des Agenten oder auf Stille beschränkt, hat nur eine begrenzte Fähigkeit, das „Gefühl“ eines Gesprächs zu ändern und damit die Stimmung des Kunden zu verbessern.
  • Darüber hinaus kann eine bestimmte Audioverbesserung (z. B. Geräusche, Musik, Lautstärke, Einblenden, Ausblenden, Zeitpunkt der Einleitung, Zeitpunkt der Beendigung usw.) eine gewünschte Wirkung haben oder auch nicht haben. Durch den Einsatz eines künstlich intelligenten Agenten, z. B. eines neuronalen Netzes oder anderer maschineller Lernverfahren, können Audioverbesserungen ausgewählt und eingesetzt werden, um bestimmte Kunden, Kundensituationen, bestimmte Agenten und den Verlauf des Anrufs, wie er in früheren Anrufen und/oder im aktuellen Anruf beobachtet wurde, zu berücksichtigen und auf den aktuellen Anruf anzuwenden.
  • Diese und andere Anforderungen werden durch die verschiedenen Ausführungsformen und Konfigurationen der vorliegenden Erfindung erfüllt. Die vorliegende Erfindung kann eine Reihe von Vorteilen in Abhängigkeit von der jeweiligen Konfiguration bieten. Diese und andere Vorteile werden aus der Offenbarung der hierin enthaltenen Erfindung(en) ersichtlich sein.
  • In einer Ausführungsform wird die selektive Anwendung von Audioverbesserungen auf eine Kunden-Agenten-Kommunikation angewendet, um die menschliche Psychologie zu beeinflussen und die Stimmung und/oder die Entscheidungsfindung zu beeinflussen. Die Audioverbesserung(en) kann/können auf der Grundlage einer von einem Agenten mit künstlicher Intelligenz (KI) ermittelten Motivation und/oder gewünschten Wirkung für einen bestimmten Anruf ausgewählt werden, die auf einem oder mehreren Kundenattributen, einem Thema, einem Zweck, einer Vorgeschichte, Agentenattributen, einem gewünschten Ergebnis usw. beruhen kann.
  • In einer anderen Ausführungsform können die Audioverbesserungen Hintergrundmusik oder andere Geräusche umfassen (z. B. Naturgeräusche, Industriegeräusche, Verkehr, Hintergrundgespräche, Tiere usw.). Die Audioverbesserung(en) kann/können nur auf den Kundenbereich, nur auf den Agentenbereich oder sowohl auf den Agenten- als auch auf den Kundenbereich angewendet werden. Die auf den Agenten und den Kunden angewandte Audioverbesserung kann jedoch gleich oder unterschiedlich sein. Der Unterschied kann einen oder mehrere Punkte umfassen, wie z. B. Inhalt, Lautstärke, Zeitpunkt der Einleitung, Zeitpunkt der Beendigung, Einblendungsrate, Ausblendungsrate, usw.
  • Die Auswahl des Tons kann auf einer algorithmischen oder gespeicherten Regel oder auf einem oder mehreren KI-Faktoren beruhen, die auf dem Kontext des Anrufs, den Vorlieben oder expliziten Entscheidungen des Kunden, den Interessen des Kunden, die aus Ressourcen wie sozialen Medien, dem bisherigen Verlauf usw. erfasst werden können, und der Stimmung des Kunden, die aus der verwendeten Sprache, dem Tonfall, der Tonhöhe, regionalen oder anderen demografischen Details ermittelt werden kann, basieren.
  • In einem Beispiel können Hintergrundgeräusche eines Themenparks beim Kauf von Eintrittskarten für den Park dem Kunden und optional dem Agenten hinzugefügt werden. In ähnlicher Weise kann ein Zoo Tiergeräusche, Publikumsgeräusche bei Sportveranstaltungen, Film- oder Filmmusik oder Geräusche bei Kinokarten usw. verwenden.
  • Die Hintergrundmusik oder -geräusche können so ausgewählt werden, dass sie für den Kunden ein beruhigendes Erlebnis darstellen, und sie können auch verwendet werden, um eine gewünschte psychologische Wirkung auf den Kunden zu erzielen. Wenn der Kunde z. B. wütend/frustriert zu sein scheint, kann man eine ruhige Musik im Hintergrund laufen lassen, während der Kunde einen hitzigen Streit mit dem Agenten führt. Die Hintergrundmusik kann also nicht nur zur Untermalung des Gesprächs, sondern auch zur Steuerung des Gesprächs verwendet werden. Schnelles Tempo, Rockmusik oder ähnliches sollte während eines hitzigen Gesprächs vermieden werden, da dies die angespannte Situation noch verschlimmern könnte.
  • Ein anderes Beispiel: Wenn ein Kunde das Gespräch in die Länge zieht, obwohl es in eine Sackgasse geraten ist, kann schnelle Musik im Hintergrund eingespielt werden, um im Gehirn des Kunden ein Signal zur Eile auszulösen, ähnlich wie bei Preisverleihungen Musik abgespielt wird, um den Preisträger zu ermutigen, seine Dankesrede zu Ende zu bringen.
  • Musik kann hinzugefügt werden, um Hintergrundgeräusche des Agenten zu überlagern oder zu maskieren, oder um Stille zu überbrücken, z. B. als „Wohlfühlgeräusch“ während der Stille.
  • In einer anderen Ausführungsform kann das Einfügen von Audioverbesserungen auf den Agenten während eines Anrufs abzielen, z. B. um dem Agenten relevante psychologische Hinweise zu geben. So kann zum Beispiel Musik eingefügt werden, um im Gehirn des Agenten das Signal „Beeilung“ auszulösen. Ebenso kann eine ruhige Musik den Agenten helfen, sich zu entspannen, während sie mit einem verärgerten Kunden sprechen, und eine motivierende Musik würde den Enthusiasmus des Agenten steigern und/oder den Agenten helfen, ihr Ruhe- und Energieniveau für eine längere Zeit beizubehalten.
  • Während für den Kunden und den Agenten identische Audioverbesserungen bereitgestellt werden können, können in einer anderen Ausführungsform dem Kunden und dem Agenten während desselben Anrufs unterschiedliche Audioverbesserungen, wie z. B. Hintergrundmusik, angeboten werden. Weitere Unterschiede können die Lautstärke der Hintergrundmusik, der Zeitpunkt und/oder die Geschwindigkeit des Ein- und Ausblendens, Änderungen der Musik/Töne usw. sein. In einer anderen Ausführungsform kann die Musik bzw. der Ton leiser oder lauter werden, wenn ein anderer Mitarbeiter am Gespräch teilnimmt oder das Gespräch an einen anderen Mitarbeiter weitergegeben werden soll bzw. wurde. In einer anderen Ausführungsform kann die Warteschleifenmusik eingeblendet werden, so dass sie beginnt, während der Mitarbeiter noch mit dem Kunden spricht, und dann ihre volle Lautstärke erreicht, wenn der Anruf tatsächlich in die Warteschleife gelegt oder übergeben wird.
  • Die Anwendung einer bestimmten Audioverbesserung wird als erfolgreich angesehen, wenn die Interaktion zwischen Kunde und Agent positiv verändert wird, was durch eine oder mehrere verbesserte Kundenzufriedenheit, einen Verkaufsabschluss, die Lösung eines Problems, positivere Ergebnisse einer Kundenbefragung, positivere Ergebnisse einer Agentenbefragung, positiveres Echtzeit-Feedback von einem Agenten darüber, ob die Audioverbesserung nützlich oder vorteilhaft war, eine positive Bewertung nach dem Anruf durch Menschen und/oder eine positivere Bewertung nach dem Anruf oder in Echtzeit durch automatisierte Systeme (z. B. eine KI) bestimmt werden kann.
  • In einer Ausführungsform kann eine KI eine Audioverbesserung, wie z. B. Musik, völlig autonom auswählen. Die KI kann eine Audioverbesserung auf der Grundlage eines Hinweises oder einer begrenzten Eingabe des Agenten auswählen (z. B. das Tempo beschleunigen/den Anruf abschließen, das Tempo verlangsamen, den Kunden beruhigen usw.). Zusätzlich oder alternativ kann der Hinweis oder die begrenzte Eingabe von der künstlichen Intelligenz gegeben werden, z. B. um ein bestimmtes Musikgenre (z. B. Country-Musik, Klassik usw.) oder eine bestimmte Kategorie (z. B. beruhigend, energiegeladen usw.) auszuwählen und es dem menschlichen Agenten zu überlassen, die Auswahl der Musik, die zu einem Genre oder einer Kategorie gehört, zu treffen. Ähnlich wie bei der Auswahl von Musik oder anderen Klängen kann die künstliche Intelligenz die Lautstärke, das Ein- und Ausblenden, das Tempo oder einen anderen Pegel für die Audioverbesserung vollständig steuern, hoch- oder niedrigschwellig einstellen oder nur vorschlagen. Die KI kann den Audiopegel des Agenten und/oder des Kunden überwachen und den Audiopegel dynamisch anpassen, damit er absolut oder relativ zum Audiopegel des Agenten, des Kunden, einer Kombination davon und/oder anderen Hinweisen angemessen ist (z. B. um Umgebungsgeräusche zu überdecken, die versehentlich von einem Mikrofon aufgenommen werden können).
  • Die KI kann das Gespräch zwischen dem Agenten und dem Kunden durch die Umwandlung von Sprache in Text und die anschließende Kontextanalyse oder durch die Bestimmung eines Attributs des Gesprächs, wie z. B. des Energielevels, des Tempos, der Abwechslung usw., analysieren und die Ergebnisse zur Auswahl und/oder Steuerung der Entscheidung über die Einführung von Audio, des auszuwählenden Inhalts, des Lautstärkepegels usw. verwenden.
  • Wie bei der regelbasierten Audiosteuerung können auch bei der KI-gesteuerten Audiowiedergabe an den Kunden folgende Faktoren als Input dienen: der Kontext des Anrufs, der durch Echtzeitanalyse oder Vorabkommunikation (z. B. während einer IVR-Sitzung vor der Verbindung mit einem menschlichen Agenten) bereitgestellt wird und den Zweck des Anrufs angibt (z. B., (z. B. Hilfeanfrage, Reservierungsbuchung usw.); die ausdrückliche oder vorherige Angabe einer Präferenz/Wahl durch den Kunden; die Interessen des Kunden, die aus verschiedenen Ressourcen wie z. B. den sozialen Medien, der Vergangenheit usw. erfasst werden; und/oder die Stimmung des Kunden, die aus der Sprache, dem Tonfall, der Tonhöhe, der Stimme, den regionalen und anderen demografischen Details sowie der Mimik ermittelt wird, wenn der Anruf außerdem Video umfasst. Die KI kann die Audioverbesserung auf Wunsch des menschlichen Agenten oder automatisch und ohne Aufforderung oder andere Eingaben des Agenten vornehmen.
  • Beispielhafte Aspekte beziehen sich auf:
    • System, das Folgendes umfasst: eine Netzwerkschnittstelle zu einem Netzwerk; und einen Prozessor, der mit maschinenlesbaren Anweisungen konfiguriert ist, die in einem nicht flüchtigen Speicher aufbewahrt werden und den Prozessor veranlassen, Folgendes durchzuführen: Überwachen einer Kommunikation zwischen einem Agenten, der eine Agenten-Kommunikationsvorrichtung verwendet, und einem Kunden, der eine Kunden-Kommunikationsvorrichtung verwendet, wobei die Kommunikation kodierte Audiosignale umfasst, die über das Netzwerk übertragen werden; Zugreifen auf einen Zweck der Kommunikation; Auswählen einer Audioverbesserung aus einer Vielzahl von Audioverbesserungen, die einem Zweck der Kommunikation entspricht; und Einfügen der Audioverbesserung in die Kommunikation, um einen Teil der kodierten Audiosignale zu umfassen.
    • System, das Folgendes umfasst: eine Netzwerkschnittstelle zu einem Netzwerk; und einen Prozessor, der mit maschinenlesbaren Anweisungen konfiguriert ist, die in einem nicht flüchtigen Speicher aufbewahrt werden und den Prozessor veranlassen, Folgendes durchzuführen Überwachen einer Kommunikation zwischen einem Agenten, der eine Agenten-Kommunikationsvorrichtung verwendet, und einem Kunden, der eine Kunden-Kommunikationsvorrichtung verwendet, wobei die Kommunikation kodierte Audiosignale umfasst, die über das Netzwerk übertragen werden; Zugreifen auf einen Zweck der Kommunikation; Bereitstellen des Zwecks der Kommunikation für ein neuronales Netzwerk, das so trainiert ist, dass es eine Audioverbesserung aus einer Vielzahl von Audioverbesserungen auswählt, die einem Zweck der Kommunikation entspricht; Erhalten der Audioverbesserung von dem neuronalen Netzwerk; und Einfügen der Audioverbesserung in die Kommunikation, um einen Teil der kodierten Audiosignale zu umfassen.
  • Verfahren, das Folgendes umfasst: Überwachen einer Kommunikation zwischen einem Agenten, der eine Agenten-Kommunikationsvorrichtung verwendet, und einem Kunden, der eine Kunden-Kommunikationsvorrichtung verwendet, wobei die Kommunikation kodierte Audiosignale umfasst, die über ein Netzwerk übertragen werden; Zugreifen auf einen Zweck der Kommunikation; Auswählen einer Audioverbesserung aus einer Vielzahl von Audioverbesserungen, die einem Zweck der Kommunikation entspricht; und Einfügen der Audioverbesserung in die Kommunikation, um einen Teil der kodierten Audiosignale zu umfassen [0001] Jeder der obigen Aspekte:
    • wobei die kodierten Audiosignale die Audioverbesserung gleichzeitig mit der Sprache des Agenten und/oder des Kunden umfassen.
    • wobei die Audioverbesserung ferner ein Attribut der Audioverbesserung umfasst, das mindestens eines der folgenden Merkmale umfasst: Lautstärke, Tempo, Geschwindigkeit, Tonhöhe, Einblendrate, Ausblendrate, maximale Lautstärke oder minimale Lautstärke.
    • wobei die Anweisungen ferner den Prozessor veranlassen, Folgendes durchzuführen:
      • Zugreifen auf den Zweck der Kommunikation, was ferner das Bestimmen einer aktuellen Emotion des Kunden umfasst, wobei die aktuelle Emotion eine scheinbare Emotion ist, die von dem Kunden während der Kommunikation dargestellt wird; Bestimmen einer gewünschten Emotion des Kunden; und Auswählen der Audioverbesserung, die einem emotionsmindernden Attribut entspricht, das zuvor bestimmt wurde, um dazu zu führen, dass ein Subjekt, das die aktuelle Emotion hat, in die gewünschte Emotion übergeht.
    • wobei die Anweisungen den Prozessor veranlassen, die Audioverbesserung auszuwählen, und ferner den Prozessor veranlassen, die Audioverbesserung in Übereinstimmung mit einem demographischen Attribut des Kunden auszuwählen.
    • wobei die Anweisungen ferner den Prozessor veranlassen, Folgendes durchzuführen:
      • Zugreifen auf den Zweck der Kommunikation, der ferner darin besteht, den Kunden zu veranlassen, eine Aufgabe auszuführen; und Auswählen der Audioverbesserung, die einem zugehörigen Ton der Aufgabe entspricht.
    • wobei die Audioverbesserung entweder für das Kundenkommunikationsgerät oder das Agenten-Kommunikationsgerät und nicht für beide bereitgestellt wird.
    • wobei die Anweisungen ferner den Prozessor veranlassen, Folgendes durchzuführen:
      • Überwachen eines zweiten Teils der Kommunikation zwischen dem Agenten und dem Kunden, wobei der zweite Teil der Kommunikation gleichzeitig mit dem Einfügen der Audioverbesserung erfolgt; Aktualisieren des Zwecks der Kommunikation in Übereinstimmung mit dem Inhalt der vom Kunden gelieferten Kommunikation; bei Feststellung, dass der Inhalt der vom Kunden gelieferten Kommunikation mit der Audioverbesserung in Konflikt steht, Modifizieren der Audioverbesserung.
    • wobei die Anweisungen den Prozessor veranlassen, die Audioverbesserung zu modifizieren, die eines oder mehrere der folgenden Elemente umfasst: Beenden des Einfügens der Audioverbesserung, Ändern des Inhalts der Audioverbesserung, Ändern des Tempos der Audioverbesserung, Ändern der Lautstärke der Audioverbesserung oder Ändern der Tonhöhe der Audioverbesserung.
    • wobei das neuronale Netz darauf trainiert ist, eine Audioverbesserung auszuwählen, ferner umfassend: Zugreifen auf einen Satz vergangener Kommunikationen zwischen einer Anzahl früherer Kunden und einer entsprechenden Anzahl früherer Agenten; Anwenden einer oder mehrerer Transformationen auf jede vergangene Kommunikation des Satzes vergangener Kommunikationen, einschließlich eines oder mehrerer der folgenden Schritte:
      • Ersetzen eines Wortes durch ein synonymes Wort, Ersetzen eines Wortes durch eine synonyme Phrase, Ersetzen eines Zwecks der Kommunikation durch ein mit dem Zweck verbundenes Objekt, Ersetzen des mit dem Zweck der Kommunikation verbundenen Objekts durch einen Zweck, Einfügen mindestens eines redundanten Wortes oder Entfernen mindestens eines redundanten Wortes, um einen modifizierten Satz vergangener Kommunikationen zu erzeugen; Erzeugen eines ersten Trainingssatzes, der den Satz vergangener Kommunikationen, den modifizierten Satz vergangener Kommunikationen und
      • einen Satz verschiedener Zwecke umfasst, die zuvor als nicht mit dem Zweck in Beziehung stehend bestimmt wurden, Trainieren des neuronalen Netzes in einem ersten Zustand unter Verwendung des ersten Trainingssatzes; Erzeugen eines zweiten Trainingssatzes für einen zweiten Trainingszustand, der den ersten Trainingssatz und den Satz verschiedener Zwecke umfasst, die zuvor als nicht mit dem Zweck in Beziehung stehend bestimmt wurden und fälschlicherweise als mit dem Zweck in Beziehung stehend identifiziert wurden; und Trainieren des neuronalen Netzes in dem zweiten Zustand unter Verwendung des zweiten Trainingssatzes.
    • wobei die Audioverbesserung ferner ein Attribut der Audioverbesserung umfasst, das mindestens eines der folgenden Merkmale umfasst: Lautstärke, Tempo, Geschwindigkeit, Tonhöhe, Einblendrate, Ausblendrate, maximale Lautstärke oder minimale Lautstärke.
    • wobei die Anweisungen ferner den Prozessor veranlassen, Folgendes durchzuführen:
      • Zugreifen auf den Zweck der Kommunikation, was ferner das Bestimmen einer aktuellen Emotion des Kunden umfasst, wobei die aktuelle Emotion eine offensichtliche Emotion ist,
      • die von dem Kunden während der Kommunikation dargestellt wird; Bestimmen einer gewünschten Emotion des Kunden; und Modifizieren des Zwecks, um den Übergang des Kunden zu der gewünschten Emotion zu umfassen.
    • wobei die Anweisungen den Prozessor veranlassen, die Audioverbesserung auszuwählen, und ferner den Prozessor veranlassen, die Audioverbesserung in Übereinstimmung mit einem demographischen Attribut des Kunden auszuwählen.
    • wobei die Anweisungen ferner den Prozessor veranlassen, Folgendes durchzuführen: Zugreifen auf den Zweck der Kommunikation, der ferner darin besteht, den Kunden zu veranlassen, eine Aufgabe auszuführen; und Auswählen der Audioverbesserung, die einem zugehörigen Ton der Aufgabe entspricht.
    • wobei die Audioverbesserung entweder für das Kundenkommunikationsgerät oder das Agenten-Kommunikationsgerät und nicht für beide bereitgestellt wird.
    • wobei die Anweisungen ferner den Prozessor veranlassen, Folgendes durchzuführen: Überwachen eines zweiten Teils der Kommunikation zwischen dem Agenten und dem Kunden, wobei der zweite Teil der Kommunikation gleichzeitig mit dem Einfügen der Audioverbesserung erfolgt; Aktualisieren des Zwecks der Kommunikation in Übereinstimmung mit dem Inhalt der vom Kunden gelieferten Kommunikation; bei Feststellung, dass der Inhalt der vom Kunden gelieferten Kommunikation mit der Audioverbesserung in Konflikt steht, Modifizieren der Audioverbesserung.
    • wobei die Anweisungen den Prozessor veranlassen, die Audioverbesserung zu modifizieren, die eines oder mehrere der folgenden Elemente umfasst: Beenden des Einfügens der Audioverbesserung, Ändern des Inhalts der Audioverbesserung, Ändern des Tempos der Audioverbesserung, Ändern der Lautstärke der Audioverbesserung oder Ändern der Tonhöhe der Audioverbesserung.
    • wobei die Audioverbesserung ferner ein Attribut der Audioverbesserung umfasst, das mindestens eines der folgenden Merkmale umfasst: Lautstärke, Tempo, Geschwindigkeit, Tonhöhe, Einblendrate, Ausblendrate, maximale Lautstärke oder minimale Lautstärke.
  • Ein System auf einem Chip (SoC), das einen oder mehrere der oben genannten Aspekte beinhaltet.
  • Ein oder mehrere Mittel zur Durchführung eines oder mehrerer der oben genannten Aspekte.
  • Jeder Aspekt in Kombination mit einem oder mehreren anderen Aspekten.
  • Eines oder mehrere der hier offengelegten Merkmale.
  • Eines oder mehrere der hier im Wesentlichen dargelegten Merkmale.
  • Ein oder mehrere der hier im Wesentlichen offengelegten Merkmale in Kombination mit einem oder mehreren anderen, hier im Wesentlichen offengelegten Merkmalen.
  • Jeder der Aspekte/Merkmale/Verkörperungen in Kombination mit einem oder mehreren anderen Aspekten/Merkmalen/Verkörperungen.
  • Verwendung eines oder mehrerer der hier offengelegten Aspekte oder Merkmale.
  • Jeder der obigen Aspekte, wobei die Datenspeicherung eine nicht transitorische Speichervorrichtung umfasst, die mindestens eines der folgenden Elemente umfasst: einen On-Chip-Speicher innerhalb des Prozessors, ein Register des Prozessors, einen On-Board-Speicher, der sich zusammen mit dem Prozessor auf einer Verarbeitungsplatine befindet, einen Speicher, auf den der Prozessor über einen Bus zugreifen kann, ein magnetisches Medium, ein optisches Medium, ein Festkörpermedium, einen Eingabe-Ausgabe-Puffer, einen Speicher einer Eingabe-Ausgabe-Komponente, die mit dem Prozessor kommuniziert, einen Netzwerk-Kommunikationspuffer und eine vernetzte Komponente, die mit dem Prozessor über eine Netzwerkschnittstelle kommuniziert.
  • Jedes hier beschriebene Merkmal kann in Kombination mit einem oder mehreren anderen hier beschriebenen Merkmalen beansprucht werden, unabhängig davon, ob die Merkmale aus derselben beschriebenen Ausführungsform stammen.
  • Die Ausdrücke „mindestens eines“, „eines oder mehrere“, „oder“ und „und/oder“ sind unbestimmte Ausdrücke, die sowohl konjunktiv als auch disjunktiv verwendet werden können. Zum Beispiel bedeutet jeder der Ausdrücke „mindestens eines von A, B und C“, „mindestens eines von A, B oder C“, „eines oder mehrere von A, B und C“, „eines oder mehrere von A, B oder C“, „A, B und/oder C“ und „A, B oder C“ A allein, B allein, C allein, A und B zusammen, A und C zusammen, B und C zusammen oder A, B und C zusammen.
  • Der Begriff „eine“ oder „eine“ Einheit bezieht sich auf eine oder mehrere dieser Einheiten. Die Begriffe „eine“ (oder „ein“), „eine oder mehrere“ und „mindestens eine“ können hier austauschbar verwendet werden. Es ist auch zu beachten, dass die Begriffe „umfassend“, „einschließlich“ und „mit“ austauschbar verwendet werden können.
  • Der Begriff „automatisch“ und Variationen davon, wie er hier verwendet wird, bezieht sich auf jeden Prozess oder Vorgang, der typischerweise kontinuierlich oder halbkontinuierlich ist und ohne materielle menschliche Eingaben durchgeführt wird, wenn der Prozess oder Vorgang ausgeführt wird. Ein Prozess oder Vorgang kann jedoch automatisch sein, auch wenn die Durchführung des Prozesses oder Vorgangs materielle oder immaterielle menschliche Eingaben erfordert, wenn die Eingaben vor der Durchführung des Prozesses oder Vorgangs empfangen werden. Menschliche Eingaben gelten als wesentlich, wenn sie die Durchführung des Prozesses oder Vorgangs beeinflussen. Menschlicher Input, der der Durchführung des Verfahrens oder Vorgangs zustimmt, gilt nicht als „wesentlich“. "
  • Aspekte der vorliegenden Offenbarung können die Form einer Ausführungsform annehmen, die vollständig aus Hardware besteht, einer Ausführungsform, die vollständig aus Software besteht (einschließlich Firmware, residenter Software, Mikrocode usw.) oder einer Ausführungsform, die Software- und Hardwareaspekte kombiniert, die hier allgemein als „Schaltung“, „Modul“ oder „System“ bezeichnet werden können. Jede Kombination aus einem oder mehreren computerlesbaren Medien kann verwendet werden. Das computerlesbare Medium kann ein computerlesbares Signalmedium oder ein computerlesbares Speichermedium sein.
  • Ein computerlesbares Speichermedium kann beispielsweise, aber nicht ausschließlich, ein elektronisches, magnetisches, optisches, elektromagnetisches, Infrarot- oder Halbleitersystem, ein Apparat oder eine Vorrichtung oder jede geeignete Kombination der vorgenannten sein. Zu den spezifischeren Beispielen (eine nicht erschöpfende Liste) für das computerlesbare Speichermedium gehören: eine elektrische Verbindung mit einem oder mehreren Drähten, eine tragbare Computerdiskette, eine Festplatte, ein Direktzugriffsspeicher (RAM), ein Festwertspeicher (ROM), ein löschbarer programmierbarer Festwertspeicher (EPROM oder Flash-Speicher), eine optische Faser, ein tragbarer Compact-Disc-Festwertspeicher (CD-ROM), eine optische Speichervorrichtung, eine magnetische Speichervorrichtung oder jede geeignete Kombination der vorgenannten. Im Zusammenhang mit diesem Dokument kann ein computerlesbares Speichermedium jedes greifbare, nichtübertragbare Medium sein, das ein Programm zur Verwendung durch oder in Verbindung mit einem Befehlsausführungssystem, einem Gerät oder einer Vorrichtung enthalten oder speichern kann.
  • Ein computerlesbares Signalmedium kann ein übertragenes Datensignal mit einem darin verkörperten computerlesbaren Programmcode enthalten, beispielsweise im Basisband oder als Teil einer Trägerwelle. Ein solches übertragenes Signal kann eine beliebige Form annehmen, einschließlich, aber nicht beschränkt auf, elektromagnetische oder optische Signale oder eine geeignete Kombination davon. Ein computerlesbares Signalmedium kann ein beliebiges computerlesbares Medium sein, das kein computerlesbares Speichermedium ist und das ein Programm zur Verwendung durch oder in Verbindung mit einem Befehlsausführungssystem, -apparat oder -gerät übermitteln, verbreiten oder transportieren kann. Programmcode, der auf einem computerlesbaren Medium verkörpert ist, kann über jedes geeignete Medium übertragen werden, einschließlich, aber nicht beschränkt auf drahtlose, drahtgebundene, optische Faserkabel, RF, etc. oder jede geeignete Kombination der vorgenannten Medien.
  • Die Begriffe „bestimmen“, „berechnen“, „rechnen“ und Abwandlungen davon werden hier austauschbar verwendet und umfassen jede Art von Methodik, Prozess, mathematischer Operation oder Technik.
  • Der hier verwendete Begriff „Mittel“ ist in Übereinstimmung mit 35 U.S.C., Abschnitt 112(f) und/oder Abschnitt 112, Absatz 6 so weit wie möglich auszulegen. Dementsprechend umfasst ein Anspruch, der den Begriff „Mittel“ enthält, alle hierin dargelegten Strukturen, Materialien oder Handlungen sowie alle Äquivalente davon. Ferner umfassen die Strukturen, Materialien oder Handlungen und deren Äquivalente alle in der Zusammenfassung, der Kurzbeschreibung der Zeichnungen, der detaillierten Beschreibung, der Zusammenfassung und den Ansprüchen selbst beschriebenen.
  • Das Vorstehende ist eine vereinfachte Zusammenfassung der Erfindung, um ein Verständnis für einige Aspekte der Erfindung zu vermitteln. Diese Zusammenfassung ist weder ein umfassender noch ein erschöpfender Überblick über die Erfindung und ihre verschiedenen Ausführungsformen. Es ist weder beabsichtigt, wichtige oder kritische Elemente der Erfindung zu identifizieren noch den Umfang der Erfindung abzugrenzen, sondern ausgewählte Konzepte der Erfindung in vereinfachter Form als Einführung in die nachfolgende detailliertere Beschreibung darzustellen. Es wird deutlich, dass auch andere Ausführungsformen der Erfindung möglich sind, bei denen eines oder mehrere der oben dargelegten oder unten im Detail beschriebenen Merkmale allein oder in Kombination verwendet werden. Auch wenn die Offenbarung in Form von beispielhaften Ausführungsformen dargestellt wird, sollte man sich darüber im Klaren sein, dass ein einzelner Aspekt der Offenbarung separat beansprucht werden kann.
  • Figurenliste
  • Die vorliegende Offenbarung wird in Verbindung mit den beigefügten Abbildungen beschrieben:
    • In 1 ist ein erstes System gemäß den Ausführungsformen der vorliegenden Offenbarung dargestellt;
    • 2 zeigt ein zweites System, das mit Ausführungsformen der vorliegenden Offenbarung übereinstimmt;
    • 3 zeigt eine erste Datenstruktur in Übereinstimmung mit Ausführungsformen der vorliegenden Offenbarung;
    • 4 zeigt eine zweite Datenstruktur in Übereinstimmung mit Ausführungsformen der vorliegenden Offenbarung;
    • In 5 ist ein erstes Verfahren gemäß den Ausführungsformen der vorliegenden Offenbarung dargestellt;
    • 6 zeigt ein zweites Verfahren in Übereinstimmung mit Ausführungsformen der vorliegenden Offenbarung; und
    • 7 zeigt ein drittes System in Übereinstimmung mit Ausführungsformen der vorliegenden Offenbarung.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die nachfolgende Beschreibung enthält lediglich Ausführungsbeispiele und soll den Umfang, die Anwendbarkeit oder die Ausgestaltung der Ansprüche nicht einschränken. Vielmehr soll die nachfolgende Beschreibung dem Fachmann eine Anleitung zur Umsetzung der Ausführungsformen geben. Es versteht sich, dass verschiedene Änderungen in der Funktion und Anordnung der Elemente vorgenommen werden können, ohne vom Geist und Umfang der beigefügten Ansprüche abzuweichen.
  • Jede Bezugnahme in der Beschreibung, die eine numerische Referenznummer ohne eine alphabetische Unterreferenzkennung enthält, wenn eine Unterreferenzkennung in den Abbildungen vorhanden ist, ist, wenn sie im Plural verwendet wird, eine Bezugnahme auf zwei oder mehr Elemente mit einer gleichen Referenznummer. Wird ein solcher Verweis in der Einzahl, jedoch ohne Angabe der Unterreferenzkennung, gemacht, so ist dies ein Verweis auf eines der gleich nummerierten Elemente, jedoch ohne Beschränkung auf ein bestimmtes der Elemente. Jede gegenteilige ausdrückliche Verwendung in diesem Text oder eine weitere Qualifizierung oder Identifizierung hat Vorrang.
  • Die beispielhaften Systeme und Methoden dieser Offenbarung werden auch in Bezug auf Analysesoftware, Module und zugehörige Analyse-Hardware beschrieben. Um die vorliegende Offenbarung jedoch nicht unnötig zu vernebeln, wird in der folgenden Beschreibung auf bekannte Strukturen, Komponenten und Geräte verzichtet, die in den Figuren weggelassen, vereinfacht dargestellt oder anderweitig zusammengefasst werden können.
  • Zu Erklärungszwecken werden zahlreiche Details aufgeführt, um ein umfassendes Verständnis der vorliegenden Offenbarung zu ermöglichen. Es sollte jedoch gewürdigt werden, dass die vorliegende Offenbarung über die hier dargelegten spezifischen Details hinaus in vielfältiger Weise praktiziert werden kann.
  • 1 zeigt das Kommunikationssystem 100 in Übereinstimmung mit zumindest einigen Ausführungsformen der vorliegenden Offenbarung. Das Kommunikationssystem 100 kann ein verteiltes System sein und umfasst in einigen Ausführungsformen ein Kommunikationsnetz 104, das ein oder mehrere Kundenkommunikationsgeräte 108 mit einem Arbeitszuweisungsmechanismus 116 verbindet, der einem Unternehmen gehören und von diesem betrieben werden kann, das ein Kontaktzentrum 102 verwaltet, in dem eine Vielzahl von Ressourcen 112 verteilt ist, um eingehende Arbeitselemente (in Form von Kontakten) von Kundenkommunikationsgeräten 108 zu bearbeiten.
  • Das Contact Center 102 ist auf verschiedene Weise so ausgestaltet, dass es Nachrichten empfängt und/oder sendet, die mit Arbeitsaufgaben und der Verarbeitung und Verwaltung (z. B. Terminierung, Zuweisung, Weiterleitung, Erzeugung, Abrechnung, Empfang, Überwachung, Überprüfung usw.) der Arbeitsaufgaben durch eine oder mehrere Ressourcen 112 verbunden sind oder waren. Bei den Workitems handelt es sich im Allgemeinen um generierte und/oder empfangene Anfragen an eine Bearbeitungsressource 112, die als elektronische und/oder elektromagnetisch übermittelte Nachricht oder als Bestandteil einer solchen verkörpert sind. Das Kontaktzentrum 102 kann mehr oder weniger Komponenten als dargestellt enthalten und/oder mehr oder weniger Dienste als dargestellt anbieten. Die Grenze, die das Kontaktzentrum 102 kennzeichnet, kann eine physische Grenze (z. B. ein Gebäude, ein Campus usw.), eine rechtliche Grenze (z. B. eine Firma, ein Unternehmen usw.) und/oder eine logische Grenze (z. B. Ressourcen 112, die zur Erbringung von Dienstleistungen für Kunden eines Kunden des Kontaktzentrums 102 verwendet werden) sein.
  • Darüber hinaus kann der Rahmen, der das Kontaktzentrum 102 darstellt, wie abgebildet sein oder in anderen Ausführungsformen Änderungen und/oder mehr und/oder weniger Komponenten als abgebildet enthalten. In anderen Ausführungsformen können beispielsweise eine oder mehrere der Ressourcen 112, die Kundendatenbank 118 und/oder andere Komponenten über das Kommunikationsnetz 104 mit der Routing-Engine 132 verbunden sein, z. B. wenn diese Komponenten über ein öffentliches Netz (z. B. das Internet) verbunden sind. In einer anderen Ausführungsform kann das Kommunikationsnetzwerk 104 eine private Nutzung eines zumindest teilweise öffentlichen Netzwerks (z. B. VPN) sein, ein privates Netzwerk, das sich zumindest teilweise innerhalb des Contact Centers 102 befindet, oder eine Mischung aus privaten und öffentlichen Netzwerken, die für die elektronische Kommunikation der hier beschriebenen Komponenten genutzt werden können. Darüber hinaus ist zu beachten, dass Komponenten, die als extern dargestellt werden, wie z. B. der Social-Media-Server 130 und/oder andere externe Datenquellen 134, physisch und/oder logisch innerhalb des Contact Centers 102 liegen können, aber dennoch für andere Zwecke als extern betrachtet werden. Beispielsweise kann das Kontaktzentrum 102 den Social-Media-Server 130 (z. B. eine Website, die Benutzernachrichten von Kunden und/oder Ressourcen 112 empfangen kann) als ein Mittel zur Interaktion mit Kunden über deren Kundenkommunikationsgerät 108 betreiben.
  • Die Kundenkommunikationsgeräte 108 werden als extern zum Contact Center 102 dargestellt, da sie unter der direkteren Kontrolle ihres jeweiligen Benutzers oder Kunden stehen. Es sind jedoch auch Ausführungsformen denkbar, bei denen sich ein oder mehrere Kundenkommunikationsgeräte 108 physisch und/oder logisch innerhalb des Contact Centers 102 befinden und dennoch als extern zum Contact Center 102 betrachtet werden, z. B. wenn ein Kunde das Kundenkommunikationsgerät 108 an einem Kiosk verwendet und sich mit einem privaten Netzwerk des Contact Centers 102 (z. B. WiFi-Verbindung zu einem Kiosk usw.) verbindet, das innerhalb des Contact Centers 102 liegt oder von diesem kontrolliert wird.
  • Die Beschreibung des Kontaktzentrums 102 stellt mindestens eine Ausführungsform dar, wobei die folgenden Ausführungsformen leichter zu verstehen sind, ohne diese Ausführungsformen einzuschränken. Das Kontaktzentrum 102 kann weiter verändert, ergänzt und/oder entfernt werden, ohne den Umfang der hier beschriebenen Ausführungsformen zu verlassen und ohne den Umfang der Ausführungsformen oder Ansprüche einzuschränken, sofern dies nicht ausdrücklich vorgesehen ist.
  • Darüber hinaus kann das Kontaktzentrum 102 den Social Media Server 130 und/oder andere externe Datenquellen 134 einbeziehen und/oder nutzen, um einer Ressource 112 die Möglichkeit zu geben, Kontakte zu empfangen und/oder abzurufen und eine Verbindung zu einem Kunden des Kontaktzentrums 102 herzustellen. Andere externe Datenquellen 134 können Datenquellen wie Dienstleistungsbüros, Drittanbieter von Daten (z. B. Auskunfteien, öffentliche und/oder private Aufzeichnungen usw.) umfassen. Kunden können ihr jeweiliges Kundenkommunikationsgerät 108 zum Senden/Empfangen von Mitteilungen über den Social Media Server 130 verwenden.
  • In Übereinstimmung mit zumindest einigen Ausführungsformen der vorliegenden Offenbarung kann das Kommunikationsnetz 104 jede Art von bekanntem Kommunikationsmedium oder eine Sammlung von Kommunikationsmedien umfassen und jede Art von Protokollen verwenden, um elektronische Nachrichten zwischen Endpunkten zu transportieren. Das Kommunikationsnetz 104 kann drahtgebundene und/oder drahtlose Kommunikationstechnologien umfassen. Das Internet ist ein Beispiel für ein Kommunikationsnetz 104, das ein Internet-Protokoll (IP)-Netzwerk darstellt, das aus vielen Computern, Computernetzwerken und anderen Kommunikationsgeräten besteht, die sich überall auf der Welt befinden und durch viele Telefonsysteme und andere Mittel miteinander verbunden sind. Andere Beispiele für das Kommunikationsnetz 104 umfassen, ohne Einschränkung, ein Standard Plain Old Telephone System (POTS), ein Integrated Services Digital Network (ISDN), das Public Switched Telephone Network (PSTN), ein Local Area Network (LAN), ein Wide Area Network (WAN), ein Session Initiation Protocol (SIP)-Netzwerk, ein Voice over IP (VoIP)-Netzwerk, ein zelluläres Netzwerk und jede andere Art von paketvermitteltem oder leitungsvermitteltem Netzwerk, die in der Technik bekannt ist. Darüber hinaus ist es verständlich, dass das Kommunikationsnetzwerk 104 nicht auf einen bestimmten Netzwerktyp beschränkt sein muss und stattdessen aus einer Reihe verschiedener Netzwerke und/oder Netzwerktypen bestehen kann. Als ein Beispiel können Ausführungsformen der vorliegenden Offenbarung verwendet werden, um die Effizienz eines netzbasierten Kontaktzentrums 102 zu erhöhen. Beispiele für ein gitterbasiertes Kontaktzentrum 102 sind in der US-Patentveröffentlichung Nr. 2010/0296417 von Steiner ausführlicher beschrieben, deren gesamter Inhalt hiermit durch Bezugnahme aufgenommen wird. Darüber hinaus kann das Kommunikationsnetz 104 eine Reihe verschiedener Kommunikationsmedien umfassen, wie z. B. Koaxialkabel, Kupferkabel/-draht, Glasfaserkabel, Antennen zum Senden/Empfangen drahtloser Nachrichten und Kombinationen davon.
  • Die Kundenkommunikationsgeräte 108 können den Kundenkommunikationsgeräten entsprechen. In Übereinstimmung mit zumindest einigen Ausführungsformen der vorliegenden Offenbarung kann ein Kunde sein Kundenkommunikationsgerät 108 verwenden, um ein Arbeitselement zu initiieren. Illustrative Arbeitselemente umfassen unter anderem einen Kontakt, der an ein Kontaktzentrum 102 gerichtet ist und dort empfangen wird, eine Webseitenanforderung, die an eine Serverfarm (z. B. eine Sammlung von Servern) gerichtet ist und dort empfangen wird, eine Medienanforderung, eine Anwendungsanforderung (z. B. eine Anforderung von Anwendungsressourcen auf einem entfernten Anwendungsserver, wie einem SIP-Anwendungsserver) und Ähnliches. Das Workitem kann in Form einer Nachricht oder einer Sammlung von Nachrichten vorliegen, die über das Kommunikationsnetz 104 übertragen werden. Beispielsweise kann das Workitem als Telefonanruf, Paket oder Sammlung von Paketen (z. B. IP-Pakete, die über ein IP-Netzwerk übertragen werden), E-Mail-Nachricht, Instant Message, SMS-Nachricht, Fax und Kombinationen davon übertragen werden. In einigen Ausführungsformen muss die Kommunikation nicht unbedingt an den Arbeitszuweisungsmechanismus 116 gerichtet sein, sondern kann sich auf einem anderen Server im Kommunikationsnetz 104 befinden, wo sie vom Arbeitszuweisungsmechanismus 116 erfasst wird, der ein Workitem für die erfasste Kommunikation erzeugt, z. B. auf dem Social Media Server 130. Ein Beispiel für eine solche erfasste Kommunikation ist eine Social-Media-Kommunikation, die durch den Arbeitszuweisungsmechanismus 116 von einem Social-Media-Server 130 oder einem Netzwerk von Servern erfasst wird. Beispielhafte Architekturen für das Sammeln von Social-Media-Kommunikation und das Erzeugen von Arbeitselementen auf der Grundlage dieser Kommunikation sind in den US-Patentanmeldungen Nr. 12/784,369 , 12/706,942 und 12/707,277 beschrieben, die am 20. März 2010, 17. Februar 2010 bzw. 17. Februar 2010 eingereicht wurden und die hiermit in ihrer Gesamtheit durch Bezugnahme aufgenommen werden.
  • Das Format des Workitems kann von den Fähigkeiten des Kundenkommunikationsgeräts 108 und dem Format der Kommunikation abhängen. Insbesondere sind Workitems logische Darstellungen innerhalb eines Contact Centers 102 von Arbeiten, die in Verbindung mit der Bearbeitung einer im Contact Center 102 (und genauer gesagt im Arbeitszuweisungsmechanismus 116) empfangenen Kommunikation durchzuführen sind. Die Kommunikation kann im Arbeitszuteilungsmechanismus 116, einem mit dem Arbeitszuteilungsmechanismus 116 verbundenen Schalter oder Server oder ähnlichem empfangen und verwaltet werden, bis eine Ressource 112 dem diese Kommunikation repräsentierenden Work Item zugewiesen wird. Zu diesem Zeitpunkt übergibt der Arbeitszuweisungsmechanismus 116 das Workitem an eine Routing-Engine 132, um das Kundenkommunikationsgerät 108, das die Kommunikation initiiert hat, mit der zugewiesenen Ressource 112 zu verbinden.
  • Obwohl die Routing-Engine 132 als vom Arbeitszuweisungsmechanismus 116 getrennt dargestellt wird, kann die Routing-Engine 132 in den Arbeitszuweisungsmechanismus 116 integriert sein oder ihre Funktionalität kann von der Arbeitszuweisungs-Engine 120 ausgeführt werden.
  • In Übereinstimmung mit zumindest einigen Ausführungsformen der vorliegenden Offenlegung können die Kundenkommunikationsgeräte 108 jede Art von bekannten Kommunikationsgeräten oder eine Sammlung von Kommunikationsgeräten umfassen. Beispiele für ein geeignetes Kundenkommunikationsgerät 108 sind unter anderem ein Personal Computer, ein Laptop, ein Personal Digital Assistant (PDA), ein Mobiltelefon, ein Smartphone, ein Telefon oder Kombinationen davon. Im Allgemeinen kann jedes Kundenkommunikationsgerät 108 so angepasst werden, dass es Video-, Audio-, Text- und/oder Datenkommunikation mit anderen Kundenkommunikationsgeräten 108 sowie mit den Verarbeitungsressourcen 112 unterstützt. Die Art des Mediums, das von dem Kundenkommunikationsgerät 108 zur Kommunikation mit anderen Kundenkommunikationsgeräten 108 oder den Verarbeitungsressourcen 112 verwendet wird, kann von den auf dem Kundenkommunikationsgerät 108 verfügbaren Kommunikationsanwendungen abhängen.
  • In Übereinstimmung mit zumindest einigen Ausführungsformen der vorliegenden Offenbarung wird das Arbeitselement durch die kombinierten Bemühungen des Arbeitszuweisungsmechanismus 116 und der Routing-Engine 132 an eine Sammlung von Verarbeitungsressourcen 112 gesendet. Bei den Ressourcen 112 kann es sich entweder um vollständig automatisierte Ressourcen (z. B. Interactive Voice Response (IVR)-Einheiten, Mikroprozessoren, Server oder Ähnliches), um menschliche Ressourcen, die Kommunikationsgeräte verwenden (z. B. menschliche Mitarbeiter, die einen Computer, ein Telefon, einen Laptop usw. verwenden), oder um jede andere Ressource handeln, die bekanntermaßen im Contact Center 102 verwendet wird.
  • Wie bereits erwähnt, können der Arbeitszuteilungsmechanismus 116 und die Ressourcen 112 Eigentum einer gemeinsamen Einheit im Format eines Kontaktzentrums 102 sein und von dieser betrieben werden. In einigen Ausführungsformen kann der Arbeitszuweisungsmechanismus 116 von mehreren Unternehmen verwaltet werden, von denen jedes seine eigenen dedizierten Ressourcen 112 hat, die mit dem Arbeitszuweisungsmechanismus 116 verbunden sind.
  • In einigen Ausführungsformen umfasst der Arbeitszuweisungsmechanismus 116 eine Arbeitszuweisungsmaschine 120, die den Arbeitszuweisungsmechanismus 116 in die Lage versetzt, intelligente Routing-Entscheidungen für Arbeitselemente zu treffen. In einigen Ausführungsformen ist die Arbeitszuweisungsmaschine 120 so konfiguriert, dass sie Arbeitszuweisungsentscheidungen in einem warteschlangenlosen Contact Center 102 verwaltet und trifft, wie in der US-Patentanmeldung Serial No. 12/882,950 beschrieben, deren gesamter Inhalt hiermit durch Bezugnahme aufgenommen wird. In anderen Ausführungsformen kann die Arbeitszuweisungs-Engine 120 so konfiguriert sein, dass sie Arbeitszuweisungsentscheidungen in einem herkömmlichen warteschlangenbasierten (oder fähigkeitsbasierten) Contact Center 102 ausführt.
  • Die Arbeitszuweisungsmaschine 120 und ihre verschiedenen Komponenten können im Arbeitszuweisungsmechanismus 116 oder in einer Reihe verschiedener Server oder Verarbeitungsgeräte untergebracht sein. In einigen Ausführungsformen können Cloudbasierte Computing-Architekturen eingesetzt werden, wobei eine oder mehrere HardwareKomponenten des Arbeitszuweisungsmechanismus 116 in einer Cloud oder einem Netzwerk verfügbar gemacht werden, so dass sie als gemeinsame Ressourcen für eine Vielzahl verschiedener Benutzer dienen können. Der Arbeitszuweisungsmechanismus 116 kann auf die Kundendatenbank 118 zugreifen, um beispielsweise Datensätze, Profile, Kaufhistorie, frühere Arbeitsaufgaben und/oder andere Aspekte eines Kunden, die dem Kontaktzentrum 102 bekannt sind, abzurufen. Die Kundendatenbank 118 kann als Reaktion auf ein Arbeitselement und/oder eine Eingabe der Ressource 112, die das Arbeitselement bearbeitet, aktualisiert werden.
  • Es sollte verstanden werden, dass eine oder mehrere Komponenten des Kontaktzentrums 102 in ihrer Gesamtheit oder in Komponenten davon (z. B. hybrid) in einer Cloud-basierten Architektur implementiert sein können, zusätzlich zu den Ausführungsformen, die vollständig vor Ort sind. In einer Ausführungsform ist das Kundenkommunikationsgerät 108 über Komponenten, die vollständig von einem Cloud-basierten Dienstanbieter gehostet werden, mit einer der Ressourcen 112 verbunden, wobei die Hardwarekomponenten für die Verarbeitung und die Datenspeicherung dem Betreiber des Kontaktzentrums 102 vorbehalten sein können oder unter einer Vielzahl von Kunden des Dienstanbieters geteilt oder verteilt werden können, von denen einer das Kontaktzentrum 102 ist.
  • In einer Ausführungsform wird eine Nachricht vom Kundenkommunikationsgerät 108 erzeugt und über das Kommunikationsnetz 104 am Arbeitszuweisungsmechanismus 116 empfangen. Die Nachricht, die von einem Contact Center 102, z. B. am Arbeitszuweisungsmechanismus 116, empfangen wird, wird allgemein und hier als „Kontakt“ bezeichnet. Die Routing-Engine 132 leitet den Kontakt an mindestens eine der Ressourcen 112 zur Bearbeitung weiter.
  • Dabei ist ein „Anruf“ eine Echtzeit-Vollduplex-Kommunikation, die Audio umfasst und zwischen Geräten über ein Netz, wie das Kommunikationsnetz 104, geführt wird. Ein Anruf umfasst Audio, das von einem Gerät (oder einem Peripheriegerät dazu) erfasst und kodiert, über das Kommunikationsnetz 104 übertragen, dekodiert und von einem anderen Gerät (oder einem Peripheriegerät dazu) präsentiert wird. Ein Anruf kann optional auch Video umfassen, das über einen Videokanal übertragen wird, und/oder andere Kommunikationsformen (z. B. Text-Chat). Während Anrufe verschiedene menschengesteuerte und automatisierte Geräte in verschiedenen Topologien umfassen können, beziehen sich die hier beschriebenen Ausführungsformen ausschließlich auf Anrufe zwischen einem Menschen, der das Kundenkommunikationsgerät 108 verwendet, und einer oder mehreren Ressourcen 112, jedoch nur, wenn es sich um einen menschlichen Agenten handelt, der ein Agenten-Kommunikationsgerät verwendet. Während der Begriff „Kunde“ verwendet werden kann, wird ein solcher Begriff als eine Ausführungsform und als Mittel zur Unterscheidung eines menschlichen Benutzers von anderen Menschen, nämlich Agenten, und ohne Einschränkung der Rolle eines solchen Menschen bereitgestellt. Darüber hinaus können die hier beschriebenen Ausführungsformen eine automatisierte Ressource umfassen, z. B. zur Überwachung des Inhalts eines Anrufs (z. B. gesprochene Worte, Tonfall, Tempo, Emotionen usw.), der von einem Kunden und/oder Agenten geäußert wird, und zum Einfügen von Audioverbesserungen. Zusätzlich zum Kunden bleibt jedoch mindestens ein menschlicher Agent über seine jeweiligen Kommunikationsgeräte mit dem Gespräch verbunden. Anrufe zwischen einem Kunden, der ein Kundenkommunikationsgerät 108 verwendet, und einer Ressource 112, die ausschließlich als automatischer Agent oder andere computergesteuerte Ressource verkörpert wird, sind von den hier beschriebenen Ausführungsformen ausgeschlossen. Es sollte jedoch berücksichtigt werden, dass ein Anruf einen Kunden umfassen kann, der nur mit einer automatisierten Ressource während Teilen einer Kommunikation verbunden ist (z. B. in der Warteschlange für einen Agenten, in der Warteschleife, beim Navigieren in einem Entscheidungsbaum, IVR, Umfragen nach der Interaktion usw.), jedoch sind solche Teile hier von „Anruf“ ausgeschlossen.
  • 2 zeigt das System 200 in Übereinstimmung mit Ausführungsformen der vorliegenden Offenbarung. In einer Ausführungsform führt der Kunde 202 ein Gespräch mit dem Agenten 212, wobei er das Kundenkommunikationsgerät 108 bzw. das Agenten-Kommunikationsgerät 210 verwendet, um über das Kommunikationsnetz 104 zu kommunizieren. Agent 212 und Agentenkommunikationsgerät 210 sind eine Ausführungsform der Ressource 112, wenn sie mindestens einen menschlichen Agenten umfassen. Zum Beispiel kann der Kunde 202 eine Kundenansprache 204 liefern, die dem Agenten 212 als Kundenansprache 216 präsentiert wird, und der Agent 212 kann eine Agentenansprache 218 liefern, die dem Kunden 202 als Agentenansprache 226 präsentiert wird.
  • Ein Anruf kann eine Reihe von Zwecken haben. Ein Zweck kann die Motivation für einen Anruf sein, z.B. wenn der Kunde 202 technische Unterstützung anfordert, um ein Problem zu lösen, einen Flug zu buchen, den Kontostand zu prüfen usw. Darüber hinaus kann mindestens ein Zweck für den Anruf vom Contact Center 102, z. B. vom Server 208, bestimmt werden. So kann ein Zweck oder ein zusätzlicher Zweck darin bestehen, den Kundenservice zu verbessern, einen verärgerten Kunden zu beruhigen, einen Verkauf zu tätigen, einen Upsell zu tätigen, einen Anruf abzuschließen usw. In einer Ausführungsform überwacht der Server 208 den Inhalt der Kommunikation zwischen dem Kunden 202 und dem Agenten 212. Der Inhalt kann eines oder mehrere explizit gesprochene Wörter, Sprechtempo, Tonfall, Emotionen, Haltung, Geräusche, Beugungen, Akzent und/oder andere vokalisierte Inhalte oder Änderungen von vokalisierten Inhalten umfassen, die vom Kunden 202 und/oder Agenten 212 während eines Anrufs bereitgestellt werden. Zum Beispiel kann ein Anruf erfolgreich abgeschlossen worden sein, d.h. der Zweck, der den Anruf motiviert hat, wurde erfüllt, jedoch kann der Kunde 202 den Anruf in die Länge ziehen, indem er z.B. über irrelevante Themen spricht, wie z.B. über den Inhalt der Kundenansprache 204. Der Server 208 kann das Gespräch überwachen und unter anderem den Gesprächszustand 206 ermitteln und als Ergebnis den Gesprächszweck 214 bestimmen, um einen zusätzlichen Zweck, wie z. B. die Beendigung des Gesprächs, aufzunehmen. Dementsprechend wird auf den Datensatz 222 zugegriffen, der Audioerweiterungen (z. B. Toninhalt und/oder Attribute des Toninhalts) enthält, die in den Anruf als präsentierte Audioerweiterung 224 eingefügt werden.
  • Ein Vorteil der Audioverbesserung ist, dass Hinweise gegeben werden, um eine Handlung oder ein anderes Verhalten zu fördern. Um das obige Beispiel fortzusetzen, kann der Kunde 202, der vielleicht „vor sich erzählt“, eine Coda hören, die eingeblendet wird und allmählich an Lautstärke zunimmt, ähnlich wie bei einer Dankesrede eines Preisempfängers eine Coda als Signal dafür dienen kann, dass die ihm zugewiesene Zeit abgelaufen ist. Die Audioverbesserungen werden auf verschiedene Weise realisiert und in den folgenden Ausführungen ausführlicher erläutert und können Töne enthalten, die Aufregung, Ruhe, Dringlichkeit oder andere Aktionen oder Reaktionen hervorrufen. Audioverbesserungen können nur dem Kundenkommunikationsgerät 108, nur dem Agentenkommunikationsgerät 210 oder beiden Geräten präsentiert werden. Zum Beispiel kann Server 208 feststellen, dass der Agent 212 zu schnell spricht und/oder dass der Kunde 202 anzeigt, dass er in Eile ist, z. B. wenn die Anzahl der Wörter des Agenten 212 über einem vorher festgelegten Schwellenwert liegt oder wenn die Kundenrede 204 Wörter wie „Warten Sie“ oder „Ich brauche eine Minute, um darüber nachzudenken“ enthält. Dementsprechend kann der Server 208 feststellen, dass der Zweck des Anrufs darin besteht, das Tempo der von dem Agenten 212 bereitgestellten Inhalte zu verlangsamen, und infolgedessen einen Datensatz aus dem Datenspeicher 220 auswählen, was dazu führen kann, dass dem Agenten-Kommunikationsgerät 210 ausschließlich eine Audioverbesserung präsentiert wird, die ausgewählt wird, um das Tempo der Sprache des Agenten 212 zu verlangsamen, ohne den Agenten 212 explizit anzuweisen, langsamer zu sprechen. Wenn der Server 208 feststellt, dass der Agent 212 lethargisch ist, kann ein Zweck des Anrufs darin bestehen, den Agenten 212 zu aktivieren, und als Ergebnis präsentiert der Server 208 nur dem Agenten-Kommunikationsgerät 210 energetische Musik oder andere Klänge.
  • Ein weiterer Zweck kann darin bestehen, das Kundenerlebnis zu verbessern oder Upselling zu betreiben. Zum Beispiel kann der Kunde 202 bei Agent 212 Tickets für einen Freizeitpark buchen. Server 208 kann feststellen, dass ein Zusatz zur Reise, wie z. B. ein Frühstück mit Parkfiguren, verfügbar ist, in den Reiseplan des Kunden 202 passt oder anderweitig wünschenswert ist. Dementsprechend kann dem Anruf ein Zweck hinzugefügt werden, um den Kunden 202 auf die Möglichkeit hinzuweisen, mit den Figuren des Parks zu frühstücken. Infolgedessen kann das Kundenkommunikationsgerät 108 mit einer Audioerweiterung 224 versehen werden, die das Klirren von Geschirr oder die Darstellung einer Restaurantszene durch Figuren umfasst. Der Agent 212 und/oder die Audioverbesserung 224 können dann zusätzliche Informationen präsentieren, z. B. um den Kunden 202 zu einem Frühstück mit den Figuren einzuladen. Ein Teil oder die gesamte präsentierte Audioverbesserung 224 kann ausschließlich dem Kundenkommunikationsgerät 108 präsentiert werden, was durch ein Pop-up oder eine andere Nachricht auf dem Agenten-Kommunikationsgerät 210 angezeigt werden kann (z. B. „Dem Kunden werden klirrende Gerichte präsentiert. Beginnen Sie mit dem Frühstücksangebot in 3...2...1... jetzt.‟). Infolgedessen wird dem Kunden 202 ein Audioerlebnis präsentiert, das ausgewählt wurde, um Interesse, Vorfreude und Aufregung in Bezug auf das eigentliche Erlebnis zu erzeugen.
  • Contact Center verwenden häufig einen Workflow, um einen Kunden durch eine „Reise“ zu führen, um einen bestimmten Zweck für einen Anruf zu lösen. Eine komplizierte Aufgabe, wie z. B. die Beantragung eines Wohnbaudarlehens, kann mehrere Schritte erfordern, wie z. B. das Sammeln grundlegender Informationen, das Einholen überprüfbarer Informationen von Banken oder anderen Quellen, die Planung von Dienstleistungen (z. B. Inspektionen, Kreditabschlüsse usw.), Underwriting und/oder andere Aufgaben. Oft werden die verschiedenen Schritte einer Reise von verschiedenen Agenten bearbeitet. In bisherigen Contact Centern bedeutete dies, dass der Kunde in der Warteschleife gehalten wurde, bis der nächste Mitarbeiter verfügbar war. In einer anderen Ausführungsform kann der Server 208 feststellen, dass der Zweck eines Anrufs nun darin besteht, den Kunden 202 von einem Schritt zum nächsten zu „bringen“. Infolgedessen kann die präsentierte Audioverbesserung 224 Geräusche von Schritten umfassen, um eine tatsächliche Reise zu simulieren. Die Schritte können eingeblendet werden, um die Ankunft eines anderen Agenten im Gespräch anzukündigen, ausgeblendet werden, um die Abreise eines Agenten anzukündigen, oder konstant sein, um den Agenten mit dem Kunden 202 von einem virtuellen Ort zu einem anderen virtuellen Ort „gehen“ zu lassen. Andere Geräusche wie Klopfen, das Schließen von Türen, das Schließen von Türen usw. können allein, parallel oder in Reihe mit einer oder mehreren anderen Audioerweiterungen verwendet werden, um den Zweck weiter zu erfüllen.
  • Der Vorteil für den Kunden 202 besteht darin, dass er durch eine oder mehrere Audioerweiterungen ein „Erlebnis“ erhält, das als Hinweis auf einen aktuellen oder bevorstehenden Übergang dient und das Kundenerlebnis generell verbessert, anstatt den Kunden 202 einfach in die Warteschleife zu legen und zu warten, bis sich der nächste Mitarbeiter meldet.
  • Hintergrundgeräusche können in einen Anruf eingefügt werden, um den Kundenservice weiter zu verbessern und/oder als Hinweis auf den aktuellen Schritt in einer Reise. Zum Beispiel kann eine Audioverbesserung zunächst Schnarchen in Charakterstimmen während eines Schrittes eines Themenpark-Reservierungsprozesses bei der Auswahl von Hotelunterkünften umfassen und dann zu klirrendem Geschirr und anderen Restaurantgeräuschen und Geplänkel übergehen, wenn Restaurantreservierungen vorgenommen werden, und dann zu den Geräuschen des Parks, wenn Fahrten und Pässe gebucht werden. Dadurch erhalten der Kunde 202 und optional auch der Mitarbeiter 212 Hinweise auf einen aktuellen Schritt im Reservierungsprozess, ohne dass eine explizite Ansage (z. B. „Als Nächstes müssen wir Ihre Parkpässe buchen.“) das Gespräch zwischen dem Kunden 202 und dem Mitarbeiter 212 unterbricht, sondern vielmehr ein natürlicheres Gespräch fördert, das aufgrund des Hinweises wahrscheinlich zum nächsten Schritt der Reise übergeht.
  • In einer anderen Ausführungsform wird das Gespräch mit einer Audiountermalung versehen, die eine bestimmte Stimmung oder ein bestimmtes Gefühl erzeugen soll. So können beispielsweise während eines Anrufs, bei dem Tickets für eine Sportveranstaltung gebucht werden, die Geräusche einer Menschenmenge zu hören sein. Energiegeladene Musik kann zu leiserer Musik übergehen, wenn festgestellt wird, dass der Kunde 202 wütend, aufgebracht oder ungeduldig ist oder wird. In ähnlicher Weise können Audioverbesserungen Musik oder Nicht-Musik-Geräusche (z. B. ein sprudelnder Brunnen, Vogelgezwitscher usw.) umfassen, die allein oder parallel oder in Reihe zu anderen Audioverbesserungen hinzugefügt werden können. In ähnlicher Weise kann es sein, dass der Agent 212 einen besonders schwierigen Anruf hatte und seine Nerven stark strapaziert sind. Das Agenten-Kommunikationsgerät 210 kann dann mit einer Audioverbesserung versehen werden, die ausgewählt wurde, um den Agenten 212 zu beruhigen, zu motivieren oder auf andere Weise seinen mentalen Zustand zu verbessern.
  • Die Audioverbesserungen können Änderungen daran vornehmen. Bei der Buchung von Eintrittskarten für eine Sportveranstaltung kann eine Audioverbesserung beispielsweise Publikumsgeräusche und/oder allgemeine, mit der Veranstaltung verbundene Klänge umfassen. Wenn sich der Kauf dem Abschluss nähert, wird die Audioverbesserung geändert, so dass die Menschenmenge lebendiger wird und nach Abschluss des Kaufs ähnlich wie bei einem Torjubel der Mannschaft jubelt, wobei der Agent 212 nur die explizite Aufgabe der Informationserfassung und der Bearbeitung des Kaufs ausführen muss. Wenn jedoch festgestellt wird, dass eine Audioverbesserung nicht den gewünschten Effekt hat oder das Gegenteil bewirkt (z. B. wenn der Kunde 202 wütender oder gereizter wird), kann die Audioverbesserung geändert werden, um das Tempo zu verlangsamen, die Lautstärke zu verringern oder ganz abzuschalten. Änderungen an einer Audioverbesserung können eine oder mehrere Änderungen der Lautstärke, des Tempos, des Tempos, der Tonhöhe, der Einblendrate, der Ausblendrate, der maximalen Lautstärke oder der minimalen Lautstärke umfassen, wie sie dem Kundenkommunikationsgerät 108, dem Agentenkommunikationsgerät 210 oder sowohl dem Kundenkommunikationsgerät 108 als auch dem Agentenkommunikationsgerät 210 in Übereinstimmung mit mindestens einem Zweck eines Anrufs präsentiert werden.
  • In einer weiteren Ausführungsform kann eine bestimmte Audioverbesserung zumindest teilweise anhand demografischer Informationen ausgewählt werden. So kann Server 208 beispielsweise feststellen, dass der Zweck eines Anrufs darin besteht, den Kunden 202 zu beruhigen, und eine entsprechende Audioverbesserung auswählen. Die Auswahl kann außerdem auf dem Alter, der geografischen Region und/oder anderen demografischen Merkmalen basieren. Als Vorteil kann eine Audioverbesserung auf der Grundlage der Eignung für eine bestimmte Person, die das demografische Merkmal aufweist, ausgewählt oder genauer gesagt ausgewählt werden.
  • 3 zeigt die Datenstruktur 300 in Übereinstimmung mit Ausführungsformen der vorliegenden Offenbarung. In einer Ausführungsform wird eine Anzahl von Datensätzen 316 innerhalb der Datenstruktur 300 bereitgestellt, die in einem Datenspeicher, wie z. B. dem Datenspeicher 220, auf den ein Prozessor des Servers 208 zugreifen kann, verwaltet werden können. Zu den Datensätzen 316 gehören Beispiele, die durch die Datensätze 316A-i veranschaulicht werden (das „i“ wird hier klein geschrieben, um Verwechslungen mit der Zahl eins zu vermeiden, die sich ergeben könnte, wenn der Großbuchstabe „I“ verwendet worden wäre). Die Datenstruktur 300 umfasst eine Reihe von Feldern 302-314, die als Spalten dargestellt sind, insbesondere das Datensatzfeld 302, das Zweckfeld 304, das Inhaltsfeld 306, das Startvolumenfeld 308, das Volumenänderungsfeld 310, das Dauerfeld 312 und das nächste Feld 314. Es können zusätzliche, weniger und/oder andere Felder verwendet werden, ohne dass dies vom Anwendungsbereich der hier vorgestellten Ausführungsformen abweicht.
  • In einer Ausführungsform umfasst das Datensatzfeld 302 eine eindeutige Kennung für jeden Datensatz 316. Das Zweckfeld 304 enthält einen zugehörigen Zweck, der, wenn er in einem Anruf, z. B. von Server 208, festgestellt wird, dazu führen kann, dass der entsprechende Datensatz 316 ausgewählt wird, um einen Audioverbesserungsinhalt bereitzustellen, der im Inhaltsfeld 306 verwaltet oder identifiziert wird und von Server 208 an das Kundenkommunikationsgerät 108 und/oder das Agenten-Kommunikationsgerät 210 übermittelt wird. Die Präsentation einer bestimmten Audioverbesserung kann Standardattribute umfassen, wie z. B. eine Startlautstärke, die im Feld 308 für die Startlautstärke gepflegt wird, und die Änderung der Lautstärke und/oder die Rate der Lautstärkeänderung, falls vorhanden, die während der Einfügung der Audioverbesserung angewendet wird, wie im Feld 310 für die Lautstärkeänderung gepflegt. Es sollte verstanden werden, dass andere Verbesserungen (z.B. Ton, Tempo, etc.) zusätzlich oder alternativ zu Lautstärke und Lautstärkeänderungen angewendet werden können. Zusätzlich oder alternativ kann der Inhalt eines Datensatzes 316 in Reihe oder parallel zum Inhalt eines anderen Datensatzes bereitgestellt werden. Beispielsweise kann der Zweck eines Anrufs darin bestehen, einen neuen oder nächsten Agenten in den Anruf einzuführen, und es kann bestimmt werden, dass der Wert des Zweckfelds 304 für den Datensatz 316A mit dem Wert des Inhaltsfelds 306 übereinstimmt, um zu bewirken, dass Fußschritte in den Anruf eingefügt werden. Nach einer anfänglichen Lautstärke von drei (z. B. auf einer Skala von null bis zehn) wird die Lautstärke erhöht und insgesamt elf Sekunden lang abgespielt, wie im Feld 308 für die Anfangslautstärke, im Feld 310 für die Lautstärkeänderung und im Feld 312 für die Dauer angegeben. Während einige Audioerweiterungen eingefügt werden können (z. B. generiert oder in einer Schleife abgespielt), bis das Gespräch endet, haben andere Audioerweiterungen ein bestimmtes Ende (z. B. die Länge eines Liedes oder Tracks). Am Ende oder am Ende eines Dauerwerts im Dauerfeld 314 wird der nächste Datensatz ausgewählt, der im Feld 314 angegeben ist. Zum Beispiel, um die Geräusche von lauter werdenden Schritten einzufügen, die aufhören und von Geräuschen gefolgt werden, die mit dem Sitzen auf einem Stuhl verbunden sind (z. B. Quietschen, Rollen der Stuhlräder usw.)
  • Audioerweiterungen können in Reihe oder parallel eingefügt werden. So wird z. B. in Datensatz 316F einmal ein Türverriegelungston abgespielt und dann der im Inhaltsfeld 306 für Datensatz 316G (Datensatz „7“) und Datensatz 316H (Datensatz „8“) gepflegte Inhalt eingefügt. Es können auch Offsets implementiert werden, z. B. um eine teilweise Überlappung zu ermöglichen, so dass zwei oder mehr Audioverbesserungen gleichzeitig in einem Abschnitt und seriell in einem anderen Abschnitt bereitgestellt werden. Als weitere Option kann eine Verzögerung vorgesehen werden, damit eine Audioverbesserung eingefügt werden kann und nach Beendigung eine Verzögerung, bevor die nächste Audioverbesserung eingefügt wird.
  • 4 zeigt die Datenstruktur 400 in Übereinstimmung mit Ausführungsformen der vorliegenden Offenbarung. In einer Ausführungsform wird die Datenstruktur 400 in einem Datenspeicher 220 gespeichert, auf den ein Prozessor des Servers 208 zugreifen kann. Eine Audioverbesserung kann ein Attribut oder eine Attributänderung für ein bestimmtes Geräusch basierend auf einem zuvor bestimmten Zweck oder einem neu bestimmten Zweck umfassen. Die Datenstruktur 400 umfasst eine Reihe von Feldern 302-312, die als Spalten dargestellt sind, insbesondere das Datensatzfeld 402, das Zweckfeld 404, das Inhaltsfeld 406, das Startlautstärkefeld 408, das Lautstärkeänderungsfeld 410 und das Dauerfeld 412. Es können zusätzliche, weniger und/oder andere Felder verwendet werden, ohne dass dies vom Anwendungsbereich der hier vorgestellten Ausführungsformen abweicht.
  • Auf die Datenstruktur 400 kann zugegriffen werden, um Standardwerte für eine aktuelle Audioverbesserung zu ändern. Wenn der Server 208 beispielsweise feststellt, dass der Zweck eines Anrufs darin besteht, den Kunden 202 und/oder den Agenten 212 zu beruhigen, kann der im Inhaltsfeld 406 angegebene Inhalt abgespielt oder, falls er bereits abgespielt wird, so geändert werden, dass die Lautstärke erhöht wird, wenn der Stresspegel steigt. Audioverbesserungen können zusätzlich zu anderen Audioverbesserungen eingefügt werden, wie z. B. „ta da“, das durch Datensatz 416B angezeigt wird, einzeln eingefügt oder allmählich oder abrupt beendet werden. Wenn der Server 208 beispielsweise feststellt, dass der Zweck eines Anrufs darin besteht, den Kunden 202 oder den Agenten 212 zu „erregen“ oder weiter zu erregen, dann kann der Datensatz 416D ausgewählt werden, der die Lautstärke des im Inhaltsfeld 406 angegebenen Inhalts weiter erhöht. Wenn sich das Gespräch jedoch negativ entwickelt (z. B. Ärger, Irritation usw.), kann ein Ziel des Gesprächs darin bestehen, den negativen Aspekt des Gesprächs zu deeskalieren. Infolgedessen kann der Datensatz 416F ausgewählt werden, der, wie im Lautstärkeänderungsfeld 410 angegeben, sowohl die Lautstärke verringert als auch das Tempo halbiert. Zusätzlich oder alternativ kann der Datensatz 416G ausgewählt werden, um den Inhalt zu ändern, z. B. um „Datensatz 1“ abzuspielen (z. B. den Inhalt im Inhaltsfeld 406 für Datensatz 416A). Zusätzlich oder alternativ kann der Datensatz 416H ausgewählt werden, der die Audioverbesserung(en) vollständig beendet.
  • 5 zeigt den Prozess 500 in Übereinstimmung mit Ausführungsformen der vorliegenden Offenbarung. Der Prozess 500 kann als maschinenlesbare Anweisungen dargestellt werden, die, wenn sie von einem Prozessor gelesen werden, z. B. von einem Prozessor des Servers 208 und/oder des Agenten-Kommunikationsgeräts 210, den Prozessor veranlassen, die Schritte des Prozesses 500 durchzuführen. In einer Ausführungsform beginnt der Prozess 500 und Schritt 502 überwacht eine Kommunikation zwischen einem Kunden, z. B. dem Kunden 202, der das Kundenkommunikationsgerät 108 verwendet, und dem Agenten 212, der das Agenten-Kommunikationsgerät 210 verwendet. Die Kommunikation kann neu eingeleitet werden, so dass sie im Wesentlichen zeitgleich mit der Verbindung des Agenten-Kommunikationsgeräts 210 mit dem Anruf stattfindet. In anderen Ausführungsformen erfolgt der Schritt 502, nachdem der Anruf eingeleitet wurde und/oder während der gesamten Dauer des Anrufs.
  • Schritt 504 greift auf einen Zweck des Anrufs zu. Der Zweck kann vor dem Anruf mit dem Agenten 212 und/oder in Echtzeit auf der Grundlage des überwachten Inhalts des Anrufs bestimmt werden. Schritt 506 wählt eine Audioerweiterung für den Anruf aus, die im Schritt 508 in den Anruf eingefügt wird. Test 510 ermittelt, ob das Gespräch beendet ist, und kehrt, falls dies verneint wird, zu Schritt 502 zurück; andernfalls kann der Prozess 500 beendet und/oder für ein anderes Gespräch neu initiiert werden.
  • 6 zeigt den Prozess 600 in Übereinstimmung mit Ausführungsformen der vorliegenden Offenbarung. Der Prozess 600 kann als maschinenlesbare Anweisungen ausgeführt werden, die, wenn sie von einem Prozessor gelesen werden, wie z. B. einem Prozessor des Servers 208 und/oder des Agenten-Kommunikationsgeräts 210, den Prozessor veranlassen, die Schritte des Prozesses 600 durchzuführen. In einer Ausführungsform wird auf die Bestimmung, ob ein Anruf einen Zweck hat, als Ausgabe eines neuronalen Netzes zugegriffen, das darauf trainiert wurde, solche Bestimmungen vorzunehmen.
  • Ein neuronales Netz, wie es in der Technik bekannt ist und in einer Ausführungsform, konfiguriert selbst Schichten von logischen Knoten mit einem Eingang und einem Ausgang. Liegt ein Ausgang unter einem selbstbestimmten Schwellenwert, wird der Ausgang ausgelassen (d. h., die Eingänge befinden sich im inaktiven Antwortteil einer Skala und liefern keinen Ausgang), liegt der selbstbestimmte Schwellenwert über dem Schwellenwert, wird ein Ausgang bereitgestellt (d. h., die Eingänge befinden sich im aktiven Antwortteil einer Skala und liefern einen Ausgang), die besondere Platzierung der aktiven und inaktiven Abgrenzung wird als Trainingsschritt oder -schritte bereitgestellt. Mehrere Eingaben in einen Knoten erzeugen eine mehrdimensionale Ebene (z. B. eine Hyperebene), um eine Kombination von Eingaben, die aktiv oder inaktiv sind, abzugrenzen.
  • In einer Ausführungsform beginnt der Prozess 600 und Schritt 602 greift auf einen Satz vergangener Kommunikationen zu. Schritt 604 wendet eine oder mehrere Transformationen auf jede Kommunikation in der Menge der vergangenen Kommunikationen an. Die Transformationen können eines oder mehrere der folgenden Elemente umfassen: Ersetzen eines Wortes durch ein gleichbedeutendes Wort, Ersetzen eines Wortes durch eine gleichbedeutende Phrase, Ersetzen eines Zwecks der Kommunikation durch ein mit dem Zweck verbundenes Objekt, Ersetzen des mit dem Zweck der Kommunikation verbundenen Objekts durch einen Zweck, Einfügen mindestens eines redundanten Wortes, Entfernen mindestens eines redundanten Wortes, Einfügen einer abwesenden Emotion, Entfernen einer vorhandenen Emotion, Ändern einer Intensität einer vorhandenen Emotion, Einfügen einer Vokalisierung, Entfernen einer Vokalisierung und/oder Ändern einer Intensität einer Vokalisierung.
  • Als Nächstes wird in Schritt 606 der erste Trainingssatz aus dem Satz vergangener Kommunikationen, dem geänderten Satz vergangener Kommunikationen und einem Satz verschiedener Zwecke, die zuvor als nicht mit dem Zweck in Zusammenhang stehend bestimmt wurden, erstellt. In Schritt 608 wird dann das neuronale Netz mit dem ersten Trainingssatz trainiert. In Schritt 610 wird ein zweiter Trainingssatz aus dem ersten Trainingssatz und dem Satz von Zwecken erstellt, die zuvor als nicht mit dem Zweck in Verbindung stehend bestimmt und fälschlicherweise als mit dem Zweck in Verbindung stehend identifiziert wurden.
  • In 7 ist das Gerät 702 im System 700 gemäß den Ausführungsformen der vorliegenden Offenbarung dargestellt. In einer Ausführungsform kann der Server 208 und/oder das Agenten-Kommunikationsgerät 210 ganz oder teilweise als Gerät 702 ausgeführt sein, das verschiedene Komponenten und Verbindungen zu anderen Komponenten und/oder Systemen umfasst. Die Komponenten sind unterschiedlich ausgestaltet und können den Prozessor 704 umfassen. Der Begriff „Prozessor“, wie er hier verwendet wird, bezieht sich ausschließlich auf elektronische Hardwarekomponenten, die elektrische Schaltkreise mit Verbindungen (z. B. Pin-outs) umfassen, um kodierte elektrische Signale zu und von den elektrischen Schaltkreisen zu übertragen. Der Prozessor 704 kann ferner als ein einzelner elektronischer Mikroprozessor oder ein Multiprozessorgerät (z. B. Multicore) mit einer elektrischen Schaltung ausgeführt werden, die ferner eine oder mehrere Steuereinheiten, eine oder mehrere Eingabe-/Ausgabeeinheiten, eine oder mehrere arithmetische Logikeinheiten, Register, einen Primärspeicher und/oder andere Komponenten umfassen kann, die auf Informationen (z. B. Daten, Anweisungen usw.) zugreifen, wie sie über den Bus 714 empfangen werden, Anweisungen ausführen und Daten ausgeben, wiederum wie über den Bus 714. In anderen Ausführungsformen kann der Prozessor 704 ein gemeinsam genutztes Verarbeitungsgerät sein, das von anderen Prozessen und/oder Prozesseigentümern genutzt werden kann, z. B. in einer Verarbeitungsanordnung innerhalb eines Systems (z. B. Blade, Multiprozessorplatine usw.) oder eines verteilten Verarbeitungssystems (z. B. „Cloud“, Farm usw.). Es ist zu beachten, dass der Prozessor 704 ein nicht transitorisches Rechengerät ist (z. B. eine elektronische Maschine mit Schaltkreisen und Verbindungen zur Kommunikation mit anderen Komponenten und Geräten). Der Prozessor 704 kann einen virtuellen Prozessor betreiben, z. B. um Maschinenbefehle zu verarbeiten, die dem Prozessor nicht eigen sind (z. B. das VAX-Betriebssystem und den VAX-Maschinenbefehlscode in Intel® 9xx-Chipsatzcode übersetzen, damit VAX-spezifische Anwendungen auf einem virtuellen VAX-Prozessor ausgeführt werden können), doch sind derartige virtuelle Prozessoren, wie Fachleute wissen, Anwendungen, die von der Hardware ausgeführt werden, genauer gesagt von den zugrunde liegenden elektrischen Schaltungen und anderer Hardware des Prozessors (z. B. Prozessor 704). Der Prozessor 704 kann von virtuellen Prozessoren ausgeführt werden, z. B. wenn Anwendungen (d. h. Pod) von Kubernetes orchestriert werden. Virtuelle Prozessoren ermöglichen es, dass eine Anwendung mit einem scheinbar statischen und/oder dedizierten Prozessor dargestellt wird, der die Anweisungen der Anwendung ausführt, während die zugrunde liegenden nicht-virtuellen Prozessoren die Anweisungen ausführen und dynamisch und/oder auf mehrere Prozessoren aufgeteilt sein können.
  • Zusätzlich zu den Komponenten des Prozessors 704 kann das Gerät 702 einen Speicher 706 und/oder einen Datenspeicher 708 für die Speicherung von zugänglichen Daten wie Anweisungen, Werten usw. verwenden. Die Kommunikationsschnittstelle 710 ermöglicht die Kommunikation mit Komponenten wie dem Prozessor 704 über den Bus 714 mit Komponenten, die nicht über den Bus 714 zugänglich sind. Die Kommunikationsschnittstelle 710 kann in Form eines Netzwerkanschlusses, einer Karte, eines Kabels oder einer anderen konfigurierten Hardwarevorrichtung ausgeführt sein. Zusätzlich oder alternativ kann die menschliche Eingabe-/Ausgabeschnittstelle 712 mit einer oder mehreren Schnittstellenkomponenten verbunden werden, um Informationen (z. B. Anweisungen, Daten, Werte usw.) zu und/oder von einem menschlichen und/oder elektronischen Gerät zu empfangen und/oder zu präsentieren. Beispiele für Eingabe-/Ausgabegeräte 730, die an die Eingabe-/Ausgabeschnittstelle angeschlossen werden können, sind unter anderem Tastatur, Maus, Trackball, Drucker, Anzeigen, Sensoren, Schalter, Relais, Lautsprecher, Mikrofon, Standbild- und/oder Videokamera usw. In einer anderen Ausführungsform kann die Kommunikationsschnittstelle 710 die menschliche Eingabe-/Ausgabeschnittstelle 712 umfassen oder von ihr umfasst sein. Die Kommunikationsschnittstelle 710 kann so konfiguriert sein, dass sie direkt mit einer vernetzten Komponente kommuniziert oder ein oder mehrere Netzwerke nutzt, wie z. B. Netzwerk 720 und/oder Netzwerk 724.
  • Das Kommunikationsnetzwerk 104 kann ganz oder teilweise als Netzwerk 720 ausgeführt sein. Das Netzwerk 720 kann ein kabelgebundenes Netzwerk (z. B. Ethernet), ein drahtloses Netzwerk (z. B. WiFi, Bluetooth, Mobilfunk usw.) oder eine Kombination davon sein und ermöglicht dem Gerät 702 die Kommunikation mit der/den vernetzten Komponente(n) 722. In anderen Ausführungsformen kann das Netzwerk 720 ganz oder teilweise als Telefonnetz (z. B. öffentliches Telefonnetz (PSTN), Nebenstellenanlage (PBX), Mobilfunknetz usw.) ausgeführt sein.
  • Zusätzlich oder alternativ können auch ein oder mehrere andere Netzwerke verwendet werden. Beispielsweise kann das Netzwerk 724 ein zweites Netzwerk darstellen, das die Kommunikation mit den von der Vorrichtung 702 verwendeten Komponenten erleichtern kann. Das Netzwerk 724 kann beispielsweise ein internes Netzwerk eines Unternehmens oder einer anderen Organisation sein, wie z. B. des Kontaktzentrums 102, wobei den Komponenten vertraut wird (oder zumindest mehr) als den vernetzten Komponenten 722, die mit dem Netzwerk 720 verbunden sein können, das ein öffentliches Netzwerk (z. B. das Internet) umfasst, das möglicherweise nicht so vertrauenswürdig ist.
  • Zu den an das Netzwerk 724 angeschlossenen Komponenten können der Speicher 726, der Datenspeicher 728, die Eingabe-/Ausgabevorrichtung(en) 730 und/oder andere Komponenten gehören, die für den Prozessor 704 zugänglich sein können. Beispielsweise kann der Speicher 726 und/oder der Datenspeicher 728 den Speicher 706 und/oder den Datenspeicher 708 ganz oder für eine bestimmte Aufgabe oder einen bestimmten Zweck ergänzen oder ersetzen. Beispielsweise kann der Speicher 726 und/oder der Datenspeicher 728 ein externer Datenspeicher sein (z. B. eine Serverfarm, ein Array, eine „Wolke“ usw.) und es dem Gerät 702 und/oder anderen Geräten ermöglichen, auf die darauf befindlichen Daten zuzugreifen. In ähnlicher Weise kann der Prozessor 704 über die menschliche Eingabe-/Ausgabeschnittstelle 712 und/oder über die Kommunikationsschnittstelle 710 entweder direkt, über das Netzwerk 724, nur über das Netzwerk 720 (nicht dargestellt) oder über die Netzwerke 724 und 720 auf die Eingabe-/Ausgabevorrichtung(en) 730 zugreifen. Der Speicher 706, der Datenspeicher 708, der Speicher 726 und der Datenspeicher 728 umfassen jeweils einen nicht-übertragbaren Datenspeicher, der eine Datenspeichereinrichtung umfasst.
  • Es ist zu beachten, dass computerlesbare Daten von einer Vielzahl von Komponenten gesendet, empfangen, gespeichert, verarbeitet und dargestellt werden können. Es sollte auch beachtet werden, dass die dargestellten Komponenten andere Komponenten steuern können, unabhängig davon, ob sie hierin dargestellt sind oder nicht. Beispielsweise kann eine Eingabe-/Ausgabevorrichtung 730 ein Router, ein Switch, ein Port oder eine andere Kommunikationskomponente sein, so dass ein bestimmter Ausgang des Prozessors 704 die Eingabe-/Ausgabevorrichtung 730, die mit dem Netzwerk 720 und/oder dem Netzwerk 724 verbunden sein kann, aktiviert (oder deaktiviert), um die Kommunikation zwischen zwei oder mehreren Knoten im Netzwerk 720 und/oder im Netzwerk 724 zu ermöglichen (oder zu verbieten). So kann beispielsweise eine Verbindung zwischen einem bestimmten Kunden, der ein bestimmtes Kundenkommunikationsgerät 108 verwendet, mit einer bestimmten vernetzten Komponente 722 und/oder einer bestimmten Ressource 112 aktiviert (oder deaktiviert) werden. Ebenso kann eine bestimmte vernetzte Komponente 722 und/oder Ressource 112 für die Kommunikation mit einer bestimmten anderen vernetzten Komponente 722 und/oder Ressource 112, einschließlich, in bestimmten Ausführungsformen, des Geräts 702 oder umgekehrt, aktiviert (oder deaktiviert) werden. Gewöhnliche Fachleute wissen, dass andere Kommunikationsgeräte zusätzlich oder alternativ zu den hier beschriebenen verwendet werden können, ohne dass dies den Rahmen der Ausführungsformen sprengen würde.
  • In der vorangegangenen Beschreibung wurden die Verfahren zur Veranschaulichung in einer bestimmten Reihenfolge beschrieben. Es sei darauf hingewiesen, dass die Methoden in alternativen Ausführungsformen in einer anderen Reihenfolge als der beschriebenen durchgeführt werden können, ohne dass dies den Anwendungsbereich der Ausführungsformen beeinträchtigt. Es sollte auch beachtet werden, dass die oben beschriebenen Methoden als Algorithmen ausgeführt werden können, die von Hardwarekomponenten (z. B. Schaltkreisen) ausgeführt werden, die speziell für die Ausführung eines oder mehrerer der hier beschriebenen Algorithmen oder Teile davon entwickelt wurden. In einer anderen Ausführungsform kann die Hardwarekomponente einen Allzweck-Mikroprozessor (z. B. CPU, GPU) umfassen, der zunächst in einen SpezialMikroprozessor umgewandelt wird. In den Spezialmikroprozessor werden dann kodierte Signale geladen, die den nunmehrigen Spezialmikroprozessor veranlassen, maschinenlesbare Befehle zu erhalten, um den Mikroprozessor in die Lage zu versetzen, den maschinenlesbaren Satz von Befehlen zu lesen und auszuführen, die von den hier beschriebenen Algorithmen und/oder anderen Befehlen abgeleitet sind. Die maschinenlesbaren Anweisungen, die zur Ausführung des/der Algorithmus(s) oder von Teilen davon verwendet werden, sind nicht unbegrenzt, sondern verwenden einen endlichen Satz von Anweisungen, die dem Mikroprozessor bekannt sind. Die maschinenlesbaren Befehle können im Mikroprozessor als Signale oder Werte in signalerzeugenden Komponenten kodiert werden und umfassen in einer oder mehreren Ausführungsformen Spannungen in Speicherschaltungen, die Konfiguration von Schaltkreisen und/oder die selektive Verwendung bestimmter Logikgatterschaltungen. Zusätzlich oder alternativ können die maschinenlesbaren Anweisungen für den Mikroprozessor zugänglich sein und in einem Medium oder einer Vorrichtung als Magnetfelder, Spannungswerte, Ladungswerte, reflektierende/nicht reflektierende Teile und/oder physikalische Zeichen kodiert sein.
  • In einer anderen Ausführungsform umfasst der Mikroprozessor außerdem einen oder mehrere Mikroprozessoren, einen Multi-Core-Prozessor, mehrere Mikroprozessoren, ein verteiltes Verarbeitungssystem (z. B. Array(s), Blade(s), Serverfarm(s), „Cloud“, Mehrzweck-Prozessor-Array(s), Cluster usw.) und/oder kann mit einem Mikroprozessor, der andere Verarbeitungsvorgänge durchführt, zusammen untergebracht sein. Ein oder mehrere Mikroprozessoren können in ein einzelnes Verarbeitungsgerät (z. B. Computer, Server, Blade usw.) integriert sein oder sich ganz oder teilweise in einer separaten Komponente befinden, die über eine Kommunikationsverbindung (z. B. Bus, Netzwerk, Backplane usw. oder mehrere davon) verbunden ist.
  • Beispiele für Allzweck-Mikroprozessoren können eine Zentraleinheit (CPU) mit Datenwerten umfassen, die in einem Befehlsregister (oder einem anderen Schaltkreis, der Befehle speichert) kodiert sind, oder Datenwerte, die Speicherplätze umfassen, die ihrerseits Werte enthalten, die als Befehle verwendet werden. Die Speicherplätze können ferner einen Speicherplatz außerhalb der CPU umfassen. Solche CPU-externen Komponenten können in Form eines oder mehrerer feldprogrammierbarer Gate-Arrays (FPGA), Festwertspeicher (ROM), programmierbarer Festwertspeicher (PROM), löschbarer programmierbarer Festwertspeicher (EPROM), Direktzugriffsspeicher (RAM), buszugänglicher Speicher, netzzugänglicher Speicher usw. ausgeführt sein.
  • Diese maschinenausführbaren Anweisungen können auf einem oder mehreren maschinenlesbaren Datenträgern gespeichert werden, wie CD-ROMs oder anderen Arten von optischen Platten, Disketten, ROMs, RAMs, EPROMs, EEPROMs, magnetischen oder optischen Karten, Flash-Speicher oder anderen Arten von maschinenlesbaren Datenträgern, die zur Speicherung elektronischer Anweisungen geeignet sind. Alternativ können die Verfahren auch durch eine Kombination von Hardware und Software durchgeführt werden.
  • In einer anderen Ausführungsform kann ein Mikroprozessor ein System oder eine Sammlung von Verarbeitungshardwarekomponenten sein, z. B. ein Mikroprozessor auf einem Client-Gerät und ein Mikroprozessor auf einem Server, eine Sammlung von Geräten mit ihrem jeweiligen Mikroprozessor oder ein gemeinsam genutzter oder entfernter Verarbeitungsdienst (z. B. ein „cloud“-basierter Mikroprozessor). Ein System von Mikroprozessoren kann eine aufgabenspezifische Zuweisung von Verarbeitungsaufgaben und/oder gemeinsame oder verteilte Verarbeitungsaufgaben umfassen. In einer weiteren Ausführungsform kann ein Mikroprozessor Software ausführen, um die Dienste zur Emulation eines anderen Mikroprozessors oder anderer Mikroprozessoren bereitzustellen. Infolgedessen kann ein erster Mikroprozessor, der aus einem ersten Satz von Hardwarekomponenten besteht, virtuell die Dienste eines zweiten Mikroprozessors bereitstellen, wobei die dem ersten Mikroprozessor zugeordnete Hardware mit einem dem zweiten Mikroprozessor zugeordneten Befehlssatz arbeiten kann.
  • Während maschinenausführbare Anweisungen lokal auf einer bestimmten Maschine (z. B. einem Personalcomputer, einem mobilen Computer, einem Laptop usw.) gespeichert und ausgeführt werden können, kann die Speicherung von Daten und/oder Anweisungen und/oder die Ausführung zumindest eines Teils der Anweisungen über eine Verbindung zu einer entfernten Datenspeicher- und/oder Verarbeitungsvorrichtung oder einer Sammlung von Vorrichtungen erfolgen, die gemeinhin als „Cloud“ bezeichnet wird, aber auch ein öffentliches, privates, dediziertes, gemeinsam genutztes und/oder anderes Servicebüro, einen Computerdienst und/oder eine „Serverfarm“ umfassen kann.
  • Beispiele für die hier beschriebenen Mikroprozessoren sind unter anderem Qualcomm® Snapdragon® 800 und 801, Qualcomm® Snapdragon® 610 und 615 mit 4G LTE-Integration und 64-Bit-Computing, Apple® A7 Mikroprozessor mit 64-Bit-Architektur, Apple® M7-Mikroprozessoren, Samsung® Exynos®-Serie, die Intel® Core™-Mikroprozessorfamilie, die Intel® Xeon®-Mikroprozessorfamilie, die Intel® Atom™-Mikroprozessorfamilie, die Intel Itanium®-Mikroprozessorfamilie, Intel® Core® i5-4670K und i7-4770K 22nm Haswell, Intel® Core® i5-3570K 22nm Ivy Bridge, die AMD® FX™ Mikroprozessorfamilie, AMD® FX-4300, FX-6300 und FX-8350 32nm Vishera, AMD® Kaveri Mikroprozessoren, Texas Instruments® Jacinto C6000™ Automobil-Infotainment-Mikroprozessoren, Texas Instruments® OMAP™ mobile Mikroprozessoren für den Automobilbereich, ARM® Cortex™-M-Mikroprozessoren, ARM® Cortex-A und ARM926EJ-S™-Mikroprozessoren, andere industrieäquivalente Mikroprozessoren, und können Rechenfunktionen unter Verwendung aller bekannten oder künftig entwickelten Standards, Befehlssätze, Bibliotheken und/oder Architekturen ausführen.
  • Alle hier beschriebenen Schritte, Funktionen und Vorgänge können kontinuierlich und automatisch durchgeführt werden.
  • Die beispielhaften Systeme und Verfahren der vorliegenden Erfindung wurden in Bezug auf Kommunikationssysteme und -komponenten sowie Verfahren zur Überwachung, Verbesserung und Verschönerung von Kommunikationen und Nachrichten beschrieben. Um die vorliegende Erfindung jedoch nicht unnötig zu vernebeln, werden in der vorangehenden Beschreibung eine Reihe bekannter Strukturen und Vorrichtungen ausgelassen. Diese Auslassung ist nicht als Einschränkung des Umfangs der beanspruchten Erfindung zu verstehen. Spezifische Details werden dargelegt, um das Verständnis der vorliegenden Erfindung zu erleichtern. Es sollte jedoch gewürdigt werden, dass die vorliegende Erfindung in einer Vielzahl von Möglichkeiten über die hier dargelegten spezifischen Details hinaus praktiziert werden kann.
  • Auch wenn in den hier dargestellten Beispielen die verschiedenen Komponenten des Systems zusammen angeordnet sind, können sich bestimmte Komponenten des Systems an entfernten Stellen eines verteilten Netzes, z. B. in einem LAN und/oder im Internet, oder in einem eigenen System befinden. So können die Komponenten oder Teile davon (z. B. Mikroprozessoren, Speicher, Schnittstellen usw.) des Systems in einem oder mehreren Geräten wie einem Server, Servern, Computer, Rechengerät, Terminal, einer „Wolke“ oder einer anderen verteilten Verarbeitung kombiniert oder an einem bestimmten Knoten eines verteilten Netzes wie einem analogen und/oder digitalen Telekommunikationsnetz, einem paketvermittelten Netz oder einem leitungsvermittelten Netz untergebracht werden. In einer anderen Ausführungsform können die Komponenten physisch oder logisch über eine Vielzahl von Komponenten verteilt sein (z. B. kann ein Mikroprozessor einen ersten Mikroprozessor auf einer Komponente und einen zweiten Mikroprozessor auf einer anderen Komponente umfassen, die jeweils einen Teil einer gemeinsamen Aufgabe und/oder einer zugewiesenen Aufgabe ausführen). Aus der vorangegangenen Beschreibung und aus Gründen der Recheneffizienz wird deutlich, dass die Komponenten des Systems an einem beliebigen Ort innerhalb eines verteilten Netzwerks von Komponenten angeordnet werden können, ohne dass dies den Betrieb des Systems beeinträchtigt. Beispielsweise können sich die verschiedenen Komponenten in einer Vermittlungsstelle wie einer Telefonanlage und einem Medienserver, einem Gateway, in einem oder mehreren Kommunikationsgeräten, in den Räumlichkeiten eines oder mehrerer Benutzer oder einer Kombination davon befinden. In ähnlicher Weise können ein oder mehrere funktionale Teile des Systems zwischen einem oder mehreren Telekommunikationsgeräten und einem zugehörigen Computergerät verteilt sein.
  • Darüber hinaus kann es sich bei den verschiedenen Verbindungen, die die Elemente miteinander verbinden, um drahtgebundene oder drahtlose Verbindungen oder eine beliebige Kombination davon oder um andere bekannte oder später entwickelte Elemente handeln, die in der Lage sind, Daten an die und von den verbundenen Elementen zu liefern und/oder zu übermitteln. Bei diesen drahtgebundenen oder drahtlosen Verbindungen kann es sich auch um sichere Verbindungen handeln, über die verschlüsselte Informationen übertragen werden können. Als Übertragungsmedien für die Verbindungen können beispielsweise alle geeigneten Träger für elektrische Signale verwendet werden, einschließlich Koaxialkabel, Kupferdraht und Glasfaserkabel, und sie können die Form von akustischen oder Lichtwellen haben, wie sie bei der Datenkommunikation über Funk und Infrarot erzeugt werden.
  • Auch wenn die Flussdiagramme in Bezug auf eine bestimmte Abfolge von Ereignissen erörtert und illustriert wurden, sollte man sich darüber im Klaren sein, dass Änderungen, Ergänzungen und Auslassungen dieser Abfolge auftreten können, ohne den Betrieb der Erfindung wesentlich zu beeinträchtigen.
  • Eine Reihe von Variationen und Modifikationen der Erfindung können verwendet werden. Es wäre möglich, einige Merkmale der Erfindung vorzusehen, ohne andere vorzusehen.
  • In einer weiteren Ausführungsform können die Systeme und Verfahren dieser Erfindung in Verbindung mit einem Spezialcomputer, einem programmierten Mikroprozessor oder Mikrocontroller und peripheren integrierten Schaltungselementen, einem ASIC oder einer anderen integrierten Schaltung, einem Digitalsignalmikroprozessor, einer fest verdrahteten elektronischen oder logischen Schaltung wie einer Schaltung mit diskreten Elementen, einem programmierbaren Logikbaustein oder Gate-Array wie PLD, PLA, FPGA, PAL, einem Spezialcomputer, einem vergleichbaren Mittel oder dergleichen implementiert werden. Im Allgemeinen kann jede Vorrichtung oder jedes Mittel, das in der Lage ist, die hier dargestellte Methodik zu implementieren, zur Umsetzung der verschiedenen Aspekte dieser Erfindung verwendet werden. Beispielhafte Hardware, die für die vorliegende Erfindung verwendet werden kann, umfasst Computer, Handheld-Geräte, Telefone (z. B. zellulare, internetfähige, digitale, analoge, hybride und andere) und andere im Fachgebiet bekannte Hardware. Einige dieser Geräte umfassen Mikroprozessoren (z. B. einen einzelnen oder mehrere Mikroprozessoren), Speicher, nichtflüchtige Speicher, Eingabegeräte und Ausgabegeräte. Darüber hinaus können alternative Software-Implementierungen, einschließlich, aber nicht beschränkt auf, verteilte Verarbeitung oder komponenten/objektverteilte Verarbeitung, parallele Verarbeitung oder Verarbeitung durch virtuelle Maschinen, konstruiert werden, um die hier beschriebenen Methoden zu implementieren, wie sie von einer oder mehreren Verarbeitungskomponenten bereitgestellt werden.
  • In einer weiteren Ausführungsform können die offengelegten Methoden leicht in Verbindung mit Software unter Verwendung von objekt- oder objektorientierten Softwareentwicklungsumgebungen implementiert werden, die portablen Quellcode bereitstellen, der auf einer Vielzahl von Computer- oder Workstation-Plattformen verwendet werden kann. Alternativ dazu kann das offengelegte System teilweise oder vollständig in Hardware unter Verwendung von Standard-Logikschaltungen oder VLSI-Design implementiert werden. Ob Software oder Hardware verwendet wird, um die Systeme gemäß der vorliegenden Erfindung zu implementieren, hängt von den Geschwindigkeits- und/oder Effizienzanforderungen des Systems, der jeweiligen Funktion und den jeweiligen Software- oder Hardwaresystemen oder Mikroprozessor- oder Mikrocomputersystemen ab, die verwendet werden.
  • In einer weiteren Ausführungsform können die offengelegten Methoden teilweise in Software implementiert werden, die auf einem Speichermedium gespeichert und auf einem programmierten Universalcomputer in Zusammenarbeit mit einem Controller und einem Speicher, einem Spezialcomputer, einem Mikroprozessor oder dergleichen ausgeführt werden kann. In diesen Fällen können die Systeme und Methoden dieser Erfindung als ein in einen Personalcomputer eingebettetes Programm, wie z. B. ein Applet, ein JAVA®- oder CGI-Skript, als eine auf einem Server oder einer Computer-Workstation befindliche Ressource, als eine in ein spezielles Messsystem, eine Systemkomponente oder ähnliches eingebettete Routine implementiert werden. Das System kann auch implementiert werden, indem das System und/oder die Methode physisch in ein Software- und/oder Hardwaresystem integriert wird.
  • Die hierin enthaltenen Ausführungsformen, die Software umfassen, werden von einem oder mehreren Mikroprozessoren ausgeführt oder zur späteren Ausführung gespeichert und als ausführbarer Code ausgeführt. Der ausführbare Code wird so ausgewählt, dass er die Befehle ausführt, aus denen die jeweilige Ausführungsform besteht. Bei den ausgeführten Befehlen handelt es sich um einen begrenzten Satz von Befehlen, die aus dem diskreten Satz nativer Befehle ausgewählt werden, die der Mikroprozessor versteht und die vor der Ausführung in einem für den Mikroprozessor zugänglichen Speicher abgelegt werden. In einer anderen Ausführungsform wird menschenlesbare „Quellcode“-Software vor der Ausführung durch den einen oder die mehreren Mikroprozessoren zunächst in Systemsoftware umgewandelt, die einen plattformspezifischen (z. B. Computer, Mikroprozessor, Datenbank usw.) Satz von Befehlen enthält, die aus dem nativen Befehlssatz der Plattform ausgewählt wurden.
  • Obwohl die vorliegende Erfindung Komponenten und Funktionen beschreibt, die in den Ausführungsformen unter Bezugnahme auf bestimmte Standards und Protokolle implementiert sind, ist die Erfindung nicht auf solche Standards und Protokolle beschränkt. Andere ähnliche, hier nicht erwähnte Standards und Protokolle sind vorhanden und werden als in der vorliegenden Erfindung enthalten betrachtet. Darüber hinaus werden die hier erwähnten Normen und Protokolle und andere ähnliche, hier nicht erwähnte Normen und Protokolle regelmäßig durch schnellere oder effektivere Äquivalente ersetzt, die im Wesentlichen dieselben Funktionen haben. Solche Ersatznormen und -protokolle mit denselben Funktionen gelten als Äquivalente im Sinne der vorliegenden Erfindung.
  • Die vorliegende Erfindung umfasst in verschiedenen Ausführungsformen, Konfigurationen und Aspekten Komponenten, Verfahren, Prozesse, Systeme und/oder Vorrichtungen im Wesentlichen wie hierin dargestellt und beschrieben, einschließlich verschiedener Ausführungsformen, Unterkombinationen und Untergruppen davon. Diejenigen, die auf dem Gebiet der Technik bewandert sind, werden verstehen, wie man die vorliegende Erfindung herstellt und verwendet, nachdem sie die vorliegende Offenbarung verstanden haben. Die vorliegende Erfindung umfasst in verschiedenen Ausführungsformen, Konfigurationen und Aspekten die Bereitstellung von Vorrichtungen und Verfahren in Abwesenheit von Elementen, die hier nicht dargestellt und/oder beschrieben sind, oder in verschiedenen Ausführungsformen, Konfigurationen oder Aspekten der vorliegenden Erfindung, einschließlich der Abwesenheit solcher Elemente, die in früheren Vorrichtungen oder Verfahren verwendet wurden, z. B. zur Verbesserung der Leistung, zur Erzielung von Einfachheit und zur Verringerung der Kosten der Implementierung.
  • Die vorstehende Erörterung der Erfindung dient der Veranschaulichung und Beschreibung. Es ist nicht beabsichtigt, die Erfindung auf die hierin offenbarte(n) Form(en) zu beschränken. In der vorstehenden detaillierten Beschreibung sind beispielsweise verschiedene Merkmale der Erfindung in einer oder mehreren Ausführungsformen, Konfigurationen oder Aspekten zusammengefasst, um die Offenbarung zu vereinfachen. Die Merkmale der Ausführungsformen, Konfigurationen oder Aspekte der Erfindung können in alternativen Ausführungsformen, Konfigurationen oder Aspekten kombiniert werden, die von den oben beschriebenen abweichen. Diese Art der Offenbarung ist nicht so zu verstehen, dass die beanspruchte Erfindung mehr Merkmale erfordert, als in den einzelnen Ansprüchen ausdrücklich angegeben sind. Wie aus den folgenden Ansprüchen hervorgeht, liegen erfinderische Aspekte vielmehr in weniger als allen Merkmalen einer einzelnen oben offengelegten Ausführungsform, Konfiguration oder eines Aspekts. Daher werden die folgenden Ansprüche hiermit in diese detaillierte Beschreibung aufgenommen, wobei jeder Anspruch für sich genommen eine separate bevorzugte Ausführungsform der Erfindung darstellt.
  • Obwohl in der Beschreibung der Erfindung eine oder mehrere Ausführungsformen, Konfigurationen oder Aspekte sowie bestimmte Variationen und Modifikationen beschrieben sind, fallen auch andere Variationen, Kombinationen und Modifikationen in den Anwendungsbereich der Erfindung, z. B. solche, die nach dem Verständnis der vorliegenden Offenbarung dem Fachmann bekannt sind. Es ist beabsichtigt, Rechte zu erlangen, die alternative Ausführungsformen, Konfigurationen oder Aspekte im zulässigen Umfang einschließen, einschließlich alternativer, austauschbarer und/oder äquivalenter Strukturen, Funktionen, Bereiche oder Schritte zu den beanspruchten, unabhängig davon, ob solche alternativen, austauschbaren und/oder äquivalenten Strukturen, Funktionen, Bereiche oder Schritte hier offenbart sind oder nicht, und ohne die Absicht, irgendeinen patentierbaren Gegenstand öffentlich zu widmen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 12/784369 [0055]
    • US 12706942 [0055]
    • US 12707277 [0055]
    • US 12882950 [0061]

Claims (10)

  1. System , umfassend: eine Netzwerkschnittstelle zu einem Netzwerk; und einen Prozessor, der mit maschinenlesbaren Befehlen konfiguriert ist, die in einem nicht-flüchtigen Speicher aufbewahrt werden und den Prozessor veranlassen zum: Überwachen einer Kommunikation zwischen einem Agenten, der ein Agenten-Kommunikationsgerät verwendet, und einem Kunden, der ein KundenKommunikationsgerät verwendet, wobei die Kommunikation kodierte Audiosignale umfasst, die über das Netzwerk übertragen werden; Zugreifen auf einen Zweck der Kommunikation; Auswahl einer Audioverbesserung aus einer Vielzahl von Audioverbesserungen, die einem Zweck der Kommunikation entspricht; und Einfügen der Audioerweiterung in die Kommunikation, um einen Teil der kodierten Audiosignale zu umfassen.
  2. System nach Anspruch 1, wobei die kodierten Audiosignale die Audioanreicherung gleichzeitig mit der Sprache von mindestens einem der Agenten oder dem Kunden umfassen.
  3. System nach Anspruch 1, wobei die Audioverbesserung ferner ein Attribut der Audioverbesserung umfasst, das mindestens eines der folgenden umfasst: Lautstärke, Tempo, Geschwindigkeit, Tonhöhe, Einblendrate, Ausblendrate, maximale Lautstärke oder minimale Lautstärke.
  4. System nach Anspruch 1, wobei die Befehle ferner den Prozessor veranlassen zum: Zugreifen auf den Zweck der Kommunikation, umfassend ferner die Bestimmung einer aktuellen Emotion des Kunden, wobei die aktuelle Emotion eine offensichtliche Emotion ist, die der Kunde während der Kommunikation zeigt; Bestimmen einer gewünschten Emotion des Kunden; und Auswählen der Audioverbesserung, die einem emotionsmindernden Attribut entspricht, das zuvor ermittelt wurde, um ein Subjekt, das die aktuelle Emotion hat, in die gewünschte Emotion zu überführen.
  5. System nach Anspruch 1, wobei die Anweisungen den Prozessor veranlassen, die Audioverbesserung auszuwählen, und ferner den Prozessor veranlassen, die Audioverbesserung in Übereinstimmung mit einem demographischen Attribut des Kunden auszuwählen.
  6. System nach Anspruch 1, wobei die Befehle ferner den Prozessor veranlassen, eine Funktion auszuführen: der Zugriff auf den Zweck der Kommunikation umfasst ferner das Veranlassen des Kunden, eine Aufgabe auszuführen; und die Auswahl der Audioverbesserung, die einem zugehörigen Ton der Aufgabe entspricht.
  7. System nach Anspruch 1, wobei die Befehle ferner den Prozessor veranlassen, eine Funktion auszuführen: Überwachen eines zweiten Teils der Kommunikation zwischen dem Agenten und dem Kunden, wobei der zweite Teil der Kommunikation gleichzeitig mit dem Einsetzen der Audioerweiterung stattfindet; Aktualisierung des Zwecks der Mitteilung in Übereinstimmung mit dem Inhalt der vom Kunden bereitgestellten Mitteilung; und bei der Feststellung, dass der Inhalt der vom Kunden gelieferten Kommunikation mit der Audioanreicherung in Konflikt steht, die Audioanreicherung zu ändern.
  8. System nach Anspruch 7, wobei die Anweisungen den Prozessor veranlassen, die Audioverbesserung zu modifizieren, die eines oder mehrere der folgenden Elemente umfasst: Beenden des Einfügens der Audioverbesserung, Ändern des Inhalts der Audioverbesserung, Ändern des Tempos der Audioverbesserung, Ändern der Lautstärke der Audioverbesserung oder Ändern der Tonhöhe der Audioverbesserung.
  9. Ein System, das Folgendes umfasst: eine Netzwerkschnittstelle zu einem Netzwerk; und einen Prozessor, der mit maschinenlesbaren Befehlen konfiguriert ist, die in einem nicht-übertragbaren Speicher aufbewahrt werden und den Prozessor veranlassen, eine Leistung zu erbringen: Überwachen einer Kommunikation zwischen einem Agenten, der ein Agenten-Kommunikationsgerät verwendet, und einem Kunden, der ein KundenKommunikationsgerät verwendet, wobei die Kommunikation kodierte Audiosignale umfasst, die über das Netzwerk übertragen werden; Zugang zu einem Zweck der Kommunikation; Bereitstellen des Zwecks der Kommunikation für ein neuronales Netz, das darauf trainiert ist, aus einer Vielzahl von Audioverbesserungen eine auszuwählen, die einem Zweck der Kommunikation entspricht; Erhalten der Audioverbesserung von dem neuronalen Netzwerk; und Einfügen der Audioerweiterung in die Kommunikation, um einen Teil der kodierten Audiosignale zu umfassen.
  10. System nach Anspruch 9, wobei das neuronale Netz so trainiert ist, dass es eine Audioverbesserung auswählt, ferner umfassend: Zugriff auf einen Satz früherer Kommunikationen zwischen einer Anzahl früherer Kunden und einer entsprechenden Anzahl früherer Agenten; Anwenden einer oder mehrerer Transformationen auf jede vergangene Kommunikation des Satzes vergangener Kommunikationen, einschließlich eines oder mehrerer der folgenden: Ersetzen eines Wortes durch ein synonymes Wort, Ersetzen eines Wortes durch eine synonyme Phrase, Ersetzen eines Zwecks der Kommunikation durch ein mit dem Zweck verbundenes Objekt, Ersetzen des mit dem Zweck der Kommunikation verbundenen Objekts durch einen Zweck, Einfügen mindestens eines redundanten Wortes oder Entfernen mindestens eines redundanten Wortes, um einen modifizierten Satz vergangener Kommunikationen zu erzeugen; Erstellen eines ersten Trainingssatzes, der den Satz vergangener Kommunikationen, den modifizierten Satz vergangener Kommunikationen und einen Satz unterschiedlicher Zwecke umfasst, die zuvor als nicht mit dem Zweck verwandt bestimmt wurden, Training des neuronalen Netzes in einem ersten Zustand unter Verwendung des ersten Trainingssatzes; Erzeugen eines zweiten Trainingssatzes für einen zweiten Trainingszustand, der den ersten Trainingssatz und den Satz verschiedener Zwecke umfasst, die zuvor als nicht mit dem Zweck verwandt bestimmt wurden und fälschlicherweise als mit dem Zweck verwandt identifiziert werden; und Training des neuronalen Netzes im zweiten Zustand unter Verwendung des zweiten Trainingssatzes.
DE102022202150.9A 2021-03-15 2022-03-02 System und verfahren zur kontextbewussten audioverstärkung Pending DE102022202150A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/201,238 2021-03-15
US17/201,238 US11743380B2 (en) 2021-03-15 2021-03-15 System and method for context aware audio enhancement

Publications (1)

Publication Number Publication Date
DE102022202150A1 true DE102022202150A1 (de) 2022-09-15

Family

ID=83005698

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022202150.9A Pending DE102022202150A1 (de) 2021-03-15 2022-03-02 System und verfahren zur kontextbewussten audioverstärkung

Country Status (4)

Country Link
US (1) US11743380B2 (de)
JP (1) JP7392017B2 (de)
DE (1) DE102022202150A1 (de)
FR (1) FR3120725A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220270626A1 (en) * 2021-02-22 2022-08-25 Tencent America LLC Method and apparatus in audio processing
US20230153054A1 (en) * 2021-11-12 2023-05-18 Twitter, Inc. Audio processing in a social messaging platform

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5425130A (en) * 1990-07-11 1995-06-13 Lockheed Sanders, Inc. Apparatus for transforming voice using neural networks
US6125175A (en) * 1997-09-18 2000-09-26 At&T Corporation Method and apparatus for inserting background sound in a telephone call
US7085719B1 (en) * 2000-07-13 2006-08-01 Rockwell Electronics Commerce Technologies Llc Voice filter for normalizing an agents response by altering emotional and word content
US20040125965A1 (en) * 2002-12-27 2004-07-01 William Alberth Method and apparatus for providing background audio during a communication session
JP2004320573A (ja) 2003-04-18 2004-11-11 Matsushita Electric Ind Co Ltd コンピュータテレホニーシステム
JP4627154B2 (ja) 2004-06-10 2011-02-09 独立行政法人情報通信研究機構 人間の感情状態に応じた音楽出力装置及び音楽出力方法
JP2006171133A (ja) * 2004-12-14 2006-06-29 Sony Corp 楽曲データ再構成装置、楽曲データ再構成方法、音楽コンテンツ再生装置および音楽コンテンツ再生方法
US20070041582A1 (en) * 2005-08-22 2007-02-22 Lam Bin W Methods and systems for enabling users to inject sound effects into telephone conversations
US20070223668A1 (en) * 2006-02-10 2007-09-27 Phonebites, Inc. Inserting content into a connection using an intermediary
US7983910B2 (en) * 2006-03-03 2011-07-19 International Business Machines Corporation Communicating across voice and text channels with emotion preservation
US8229078B2 (en) * 2007-04-19 2012-07-24 At&T Mobility Ii Llc Background noise effects
US20100235218A1 (en) 2008-09-29 2010-09-16 Avaya Inc. Pre-qualified or history-based customer service
US8964958B2 (en) 2009-05-20 2015-02-24 Avaya Inc. Grid-based contact center
US20110125826A1 (en) 2009-11-20 2011-05-26 Avaya Inc. Stalking social media users to maximize the likelihood of immediate engagement
US20110125793A1 (en) 2009-11-20 2011-05-26 Avaya Inc. Method for determining response channel for a contact center from historic social media postings
US8634543B2 (en) 2010-04-14 2014-01-21 Avaya Inc. One-to-one matching in a contact center
WO2014028891A1 (en) 2012-08-17 2014-02-20 Be Labs, Llc Music generator
US9031838B1 (en) * 2013-07-15 2015-05-12 Vail Systems, Inc. Method and apparatus for voice clarity and speech intelligibility detection and correction
US9728202B2 (en) * 2013-08-07 2017-08-08 Vonage America Inc. Method and apparatus for voice modification during a call
US9578070B2 (en) * 2014-07-17 2017-02-21 Cellco Partnersip Method for inserting background audio into voice/video call
US9172805B1 (en) * 2014-12-03 2015-10-27 United Services Automobile Association (Usaa) Edge injected speech in call centers
US9596349B1 (en) * 2015-06-29 2017-03-14 State Farm Mutual Automobile Insurance Company Voice and speech recognition for call center feedback and quality assurance
US10382609B1 (en) * 2016-06-28 2019-08-13 Steve Antoine System for sharing sounds from a smartphone during a voice call
US10586079B2 (en) * 2016-12-23 2020-03-10 Soundhound, Inc. Parametric adaptation of voice synthesis
US11133010B1 (en) * 2018-01-23 2021-09-28 United Services Automobile Association (Usaa) Intelligent agent for interactive service environments
US10922738B2 (en) 2018-05-15 2021-02-16 Dell Products, L.P. Intelligent assistance for support agents
CN111489765A (zh) * 2019-01-28 2020-08-04 国家电网有限公司客户服务中心 一种基于智能语音技术的话务服务质检方法
US11120812B1 (en) * 2020-07-31 2021-09-14 Cresta Intelligence Inc. Application of machine learning techniques to select voice transformations

Also Published As

Publication number Publication date
JP2022141599A (ja) 2022-09-29
JP7392017B2 (ja) 2023-12-05
US20220294904A1 (en) 2022-09-15
US11743380B2 (en) 2023-08-29
FR3120725A1 (fr) 2022-09-16

Similar Documents

Publication Publication Date Title
US11295221B2 (en) Learning user preferences in a conversational system
DE60118844T2 (de) Sprachfilter zur Ersetzung von erkannten Worten einer Sprachmitteilung
DE102022202150A1 (de) System und verfahren zur kontextbewussten audioverstärkung
AU2014233357B2 (en) Intelligent automated agent for a contact center
DE102011107992A1 (de) System und Verfahren zum Anmelden zu Ereignissen auf der Grundlage von Schlagwörtern
DE102016209329B4 (de) Verfahren zur automatisierten Ermittlung von Parameterwerten für ein Hörhilfegerät
EP1361739A1 (de) Verfahren und System zur Verarbeitung von Sprachdaten mit vorausgehender Erkennung der Sprache
US9921574B1 (en) Dynamic interactive robot dialogue creation incorporating disparate information sources and collective feedback analysis
DE102011118780A1 (de) Verfahren und system für das erzeugen einerzusammenarbeitszeitachse, die anwendungsartefakte im kontext illustriert
CN104506412B (zh) 一种用户信息展示方法及相关设备、系统
DE202017104849U1 (de) Systeme und Medien zum Darstellen einer Benutzerschnittstelle, die für eine vorhergesagte Benutzeraktivität kundenspezifisch ist
CN110084616A (zh) 智能回访方法、装置、计算机装置及存储介质
DE102021203950A1 (de) System und verfahren für auf adaptiver emotion basierende automatisierte e-mails und/oder chat-antworten
DE112017000177T5 (de) Authentifizierung von paketierten Audiosignalen
Stewart Polls and elections: Do the presidential primary debates matter? Measuring candidate speaking time and audience response during the 2012 primaries
DE60214850T2 (de) Für eine benutzergruppe spezifisches musterverarbeitungssystem
JP2007334732A (ja) ネットワークシステム及びネットワーク情報送受信方法
EP1361737A1 (de) Verfahren und System zur Verarbeitung von Sprachdaten und Klassifizierung von Gesprächen
CN115982331A (zh) 会话场景中的信息交互方法、装置及设备
Kieras et al. Modeling Two‐Channel Speech Processing With the EPIC Cognitive Architecture
DE102022200763A1 (de) System und verfahren für kundenspezifische erinnerungen
DE112021005577T5 (de) Sprecherspezifisches verstärken von stimmen
Shune et al. Verbal play as an interactional discourse resource in early stage Alzheimer's disease
CN107844562B (zh) 智能化咨询服务方法
DE102021209084A1 (de) Kontaktzentrum für Prominente

Legal Events

Date Code Title Description
R012 Request for examination validly filed