DE102019111365A1 - Verfahren, Computerprogrammprodukt, System und Vorrichtung zum Modifizieren von akustischen Interaktionssignalen, die von mindestens einem Interaktionspartner erzeugt werden, hinsichtlich eines Interaktionsziels - Google Patents

Verfahren, Computerprogrammprodukt, System und Vorrichtung zum Modifizieren von akustischen Interaktionssignalen, die von mindestens einem Interaktionspartner erzeugt werden, hinsichtlich eines Interaktionsziels Download PDF

Info

Publication number
DE102019111365A1
DE102019111365A1 DE102019111365.2A DE102019111365A DE102019111365A1 DE 102019111365 A1 DE102019111365 A1 DE 102019111365A1 DE 102019111365 A DE102019111365 A DE 102019111365A DE 102019111365 A1 DE102019111365 A1 DE 102019111365A1
Authority
DE
Germany
Prior art keywords
interaction
unit
partner
audio signals
interaction partner
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019111365.2A
Other languages
English (en)
Inventor
Anmelder Gleich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE102019111365.2A priority Critical patent/DE102019111365A1/de
Priority to PCT/EP2020/062045 priority patent/WO2020221865A1/de
Publication of DE102019111365A1 publication Critical patent/DE102019111365A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M9/00Arrangements for interconnection not involving centralised switching
    • H04M9/08Two-way loud-speaking telephone systems with means for conditioning the signal, e.g. for suppressing echoes for one or both directions of traffic
    • H04M9/082Two-way loud-speaking telephone systems with means for conditioning the signal, e.g. for suppressing echoes for one or both directions of traffic using echo cancellers

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Telephonic Communication Services (AREA)

Abstract

Bereitgestellt wird ein Verfahren zum Modifizieren von akustischen Interaktionsparametern zumindest eines Interaktionssignals, welches von mindestens einem Interaktionspartner (02, 17) erzeugt wird, hinsichtlich eines Interaktionsziels, umfassend folgende Schritte:- Definieren mindestens eines Interaktionsziels, hinsichtlich welchem die akustischen Interaktionsparameter modifiziert werden sollen,- Erzeugen von einem oder mehreren dem Interaktionssignal entsprechenden Audiosignalen, die vom zumindest einen Interaktionspartner (02, 17) erzeugt wird, mittels eines Schallwandlers (14) oder eines Klangerzeugers,- maschinelle Analyse und maschinelle Bewertung der Audiosignale hinsichtlich des Interaktionsziels,- maschinelles Bestimmen von Schritten zum Modifizieren des Audiosignals hinsichtlich des Interaktionsziels;- Ausführen der maschinell bestimmten Schritte zum Modifizieren der Audiosignale, und- Weiterleiten der modifizierten Audiosignale an einen Interaktionspartner (02, 17). Darüber hinaus werden ein Computerprogrammprodukt, ein System und eine Vorrichtung zur Ausführung eines solchen Verfahrens vorgeschlagen.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren, ein Computerprogrammprodukt, ein System und eine Vorrichtung zum Modifizieren von akustischen Interaktionssignalen, die von mindestens einem Interaktionspartner erzeugt werden, hinsichtlich eines Interaktionsziels. Die vorliegende Erfindung dient dazu, auf Interaktionsprozesse mit akustischem Anteil derart einzuwirken, dass die Eintrittswahrscheinlichkeit des Interaktionsziels erhöht wird.
  • Das Verfolgen von Zielen ist eine wesentliche Triebkraft des Handelns von Akteuren, seien es natürliche Akteure wie beispielsweise Menschen oder Pflanzen, institutionelle Akteure wie beispielsweise Unternehmen oder Parteien oder technische Akteure wie beispielsweise Geräte oder Algorithmen.
  • Um das gewünschte Ziel zu erreichen, nehmen die Akteure im Rahmen von Interaktionsprozessen mit sich selbst oder mit anderen Akteuren Handlungen vor, von denen sie annehmen, sie würden das Erreichen des Ziels sicherstellen oder zumindest befördern. Die an einer bestimmten Handlung beteiligten Akteure werden im Folgenden als Interaktionspartner bezeichnet.
  • Während dieser Interaktionsprozesse spielt der Austausch von Signalen eine wesentliche Rolle - und akustische Signale, im Folgenden als Audiosignale bezeichnet, stehen dabei oftmals im Mittelpunkt, sei es beispielsweise im Rahmen von Live-Konzerten, Parlamentsdebatten, wissenschaftlichen Konferenzen, Hochschulvorlesungen, Arztbesuchen, Notfällen, Teamdiskussionen, Verhandlungen oder auch Telefonaten.
  • Audiosignale bzw. Klänge beeinflussen somit Wahrnehmung und Verhalten der Interaktionspartner. Was die Wissenschaft von Jahr zu Jahr besser erklären kann, weiß der Volksmund schon lange: Der Ton macht die Musik. Bereits vor aber spätestens mit dem Einzug der Elektronik in die musikalische Praxis hat sich deshalb eine umfangreiche Industrie mit einer Vielzahl klangverändernder Werkzeuge entwickelt, um Töne so zu gestalten, dass sie im Ergebnis die gewünschte Musik machen. Bei genauer Betrachtung der dabei stattfindenden Prozesse und des technischen Stands kristallisieren sich einige bemerkenswerte Phänomene heraus, die im Folgenden kurz skizziert werden sollen.
  • Einsatzbereich
  • Klangverändernde Werkzeuge kommen hauptsächlich bei der Musik-Produktion (beispielsweise in Studios und Konzertsälen) sowie beim Musik-Konsum (beispielsweise in Radio, Fernsehen oder Internet zum Einsatz). In eingeschränkter Form finden sie auch Anwendung bei sprachlichen Stimuli, wie beispielsweise Moderationen, Debatten, Konferenzen oder Reden. Ein wichtiger Bereich wird jedoch von den vielfältigen Vorteilen moderner Klangoptimierung bisher weitgehend ausgeschlossen: Die elektronisch-vermittelte/elektroakustische Kommunikation (beispielsweise via Telefon, Smartphone, Messenger-Diensten).
  • Die negative(n) Folge(n): Elektroakustische Kommunikationsvorgänge bleiben aufgrund klanglicher Defizite hinter ihren Erfolgsmöglichkeiten zurück, was sich letztlich auch in unternehmensrelevanten Kennziffern wie bspw. Umsatz, Kosten, Kunden- und Mitarbeiterzufriedenheit niederschlagen kann.
  • Akustische Wünsche versus nicht-akustische Ziele
  • Klangveränderungsmaßnahmen fokussieren zumeist die Befriedigung (kurzfristiger) akustischer Wünsche anstatt (längerfristiger) nicht-akustischer Ziele. Das bedeutet, dass beispielsweise eine Konsument beim abendlichen Musikhören im Bett eher selten denkt: „Ich weiß, dass der zu hohe Pegel meiner Hifi-Anlage mein Einschlafverhalten negativ beeinflusst und somit mein eigentliches Ziel, tagsüber konzentrierter arbeiten zu können, konterkariert.“, sondern eher denkt: „Ich finde die Musik zu laut.“ - und dann mittels der Lautstärkeregelung den Pegel um den gewünschten Wert absenkt. Folgerichtig unterstützen aktuell erhältliche Marktangebote den Interaktionspartner bei der Befriedigung akustischer Wünsche, nicht jedoch bei der Erreichung eventuell dahinter liegender nicht-akustischer Ziele. Ein Mischpult beispielsweise „weiß“ aufgrund seiner Schaltung, wie es dem akustischen Wunsch des Nutzers nach Veränderung des Klangbildes durch Anhebung oder Absenkung bestimmter Frequenzbereiche nachkommen kann. Es weiß aber nicht, mit welchen Klangeinstellungen es dem Nutzer helfen kann, sein eigentliches Ziel, nämlich, die Partygäste zum Tanzen zu animieren, zu erreichen.
  • Die negative(n) Folge(n): Positive und negative nicht-akustische Effekte klangverändernder Maßnahmen bleiben unerkannt, unberücksichtigt und ungenutzt.
  • Erkenntnis- und Beweisdefizite
  • Oftmals ist nicht bekannt, welche Interaktionsparamater in welchen Situationen bei welchen beteiligten Interaktionspartnern welche Ziele wie beeinflussen. Und selbst wenn Erkenntnisse vorliegen, sind diese möglicherweise veraltet oder aber kausal nicht belegt, sondern basieren lediglich auf Korrelationen. Im schlimmsten aber leider häufig anzutreffenden Fall fußen sie gar auf ungeprüften Hypothesen oder Induktionsschlüssen auf Grundlage von Einzelbeobachtungen. Eine systematische Analyse der Zusammenhänge von Eingangs- und Zielvariablen unter Durchführung kausaler Prüfungen in Prozessen mit hoher akustischer Relevanz findet somit bisher noch nicht in ausreichender Form statt.
  • Die negative(n) Folge(n): Es werden Signalveränderungen vorgenommen, die in Bezug auf die Zielerreichung nicht optimal oder gar kontraproduktiv sind; Wechselwirkungen und Zielkonflikte bleiben unerkannt, Interaktionspartner sind frustriert, weil die erhofften Erfolge ausbleiben, Investitionsentscheidungen werden bereut, weil man fälschlicherweise teuren und wenig effektiven (Klangveränderungs-)Maßnahmen den Vorzug gegeben hat gegenüber günstigeren und effektiveren.
  • Entscheidungsinstanz
  • Über Art und Umfang klangverändernder Maßnahmen entscheiden in der Regel Einzelpersonen oder kleinere Gruppen auf produzierender Seite (beispielsweise ein Produzententeam im Studio oder ein Tontechniker am Mischpult eines Konzertsaals). Als Entscheidungsgrundlagen dienen neben objektiven Messwerten (z. B. Frequenzanalysen) vor allem subjektive Wahrnehmung, Expertise und Präferenzen sowie die persönliche Biografie. Dies hat zur Folge, dass das klangliche Erleben der Darbietung einer klangerzeugenden Einheit durch eine Zuhörerschaft in erheblichem Maße von den klangbeeinflussenden Entscheidungen eines Dritten abhängt. Da dieser Dritte als akustischer Vermittler fungiert, liegt es wortwörtlich in seiner Hand, eine grandiose musikalische Darbietung genau so grandios zu Gehör zu bringen
    • - oder sie durch klangbeeinflussende Fehlentscheidungen zu zerstören:
      • d.1. Unteraspekt subjektive Wahrnehmung: Wenn ein solcher Dritter bspw. aufgrund berufsbedingter Lautstärkebelastung eine nicht auskorrigierte Hörschwäche im Bereich von 10 khz aufweist, könnte es sein, dass er im Rahmen seiner Klanggestaltung diese Schwäche unbewusst auszugleichen versucht mit dem Ergebnis, dass die von ihm vorgenommene Klanggestaltung zu höhenlastig ausfällt und damit bei allen Zuhörern mit gesundem Gehör zu einer belastenden Tortur werden kann.
      • d.2. Unteraspekt subjektive Expertise: Wenn ein solcher Dritter von der nicht gesicherten Hypothese ausgeht, dass Discobesucher immer erst ab einem Schalldruck von 100 dB zu tanzen beginnen, könnte es sein, dass er entsprechende Personen einer unnötig hohen Lautstärkebelastung aussetzt.
      • d.3. Unteraspekt subjektive Präferenzen: Wenn ein solcher Dritter Audiosignale grundsätzlich gerne stark komprimiert und mit einer deutlichen Anhebung im Frequenzbereich von 60 Hz versieht, könnte es sein, dass dies den Präferenzen der eigentlichen Zielgruppe diametral entgegensteht.
      • d.4. Unteraspekt persönliche Biografie: Wenn ein solcher Dritter eine bestimmte klangliche Darbietung bereits viele Male erlebt hat, könnte er der Versuchung erliegen, klangverändernde Maßnahmen zum Entgegenwirken empfundener Langeweile in deutlich höherer Intensität vorzunehmen, als es der eigentlichen Zielgruppe, die eine bestimmte Darbietung möglicherweise zum ersten Mal hört, angemessen wäre.
  • Die negative(n) Folge(n): Kunden sind unzufrieden, Musiker werden nicht mehr gebucht, Veranstaltungen nicht mehr besucht, Produkte nicht mehr erworben, Weiterempfehlungen bleiben aus und Chancen ungenutzt.
  • Arbeitsweise
  • Klangveränderungsmaßnahmen arbeiten insbesondere auf Seiten des Konsumenten selten dynamisch-regelnd, sondern zumeist statisch/steuernd. Das bedeutet, dass eine konfigurierte Klangveränderung anschließend auf alle Audioinhalte angewandt wird, unabhängig von Veränderungen des Ausgangsmaterials, des Konsumentens oder der Zielgruppe, der Umgebung oder der Zielstellung. Fährt man zum Beispiel bei starkem Regen mit 100 km/h auf der Landstraße und möchte dabei einem interessanten Radio-Interview folgen, muss man folglich die Radio-Lautstärke anheben, nur, um sie dann an der übernächsten Ampel bei strahlendem Sonnenschein wieder abzusenken.
  • Die negative(n) Folge(n): Der Konsument muss entweder ständig nachregeln, um die Klangveränderungsmaßnahmen den geänderten Bedingungen anzupassen oder aber er muss sich mit einer letztlich nur durchschnittlichen Verbesserung, und in manchen Fällen sogar mit einer Verschlechterung, abfinden.
  • Wirkungsmechanismen
  • Klangveränderungswerkzeuge fokussieren in der Regel direkte Wirkungsmechanismen, bei denen akustische Parameter über analoge/digitale/virtuelle Schaltungen direkt verändert werden. Wenn beispielsweise die von einem Mikrofon aufgenommene Gesangsstimme eines Sängers zu leise ist, lässt sich das entsprechende Mikrofonsignal mittels einer Verstärkerschaltung um den gewünschten dB-Wert erhöhen. Dies hat allerdings den Nachteil, dass nicht nur die Gesangsstimme verstärkt, sondern sämtlicher von dem Mikrofon aufgenommener Schall, wie beispielsweise die benachbarten Instrumente anderer Musiker (Schlagzeug, E-Gitarre mit Lautsprecher, etc.), Raumreflektionen oder auch das eigene verstärkte Ausgangssignal, was zu einer deutlich Klangverschlechterung (Signalverhallung, Kammfiltereffekte, akustische Rückkopplungen/Feedback etc.) führen kann.
  • Die negative(n) Folge(n): Die durch einen direkten elektro-akustischen Eingriff intendierte Klangverbesserung führt faktisch zu einer Klangverschlechterung. Effektivere, indirekte (beispielsweise mittels visueller Anweisungen) oder nicht-akustische (beispielsweise durch Regelung von Luftqualität oder Raumtemperatur) Wirkungsmöglichkeiten bleiben unberücksichtigt.
  • Abschottung
  • Klangveränderungswerkzeuge sind oftmals in geschlossene Systeme eingebettet und deshalb in Art und Umfang eingeschränkt. Wenn beispielsweise eine Hifi-Anlage nicht über einen Entzerrer oder eine Möglichkeit der entsprechenden Nachrüstung verfügt, bleibt dem Benutzer nichts anderes übrig, als dies zu akzeptieren oder aber ein Alternativ- oder Zusatzgerät zu erwerben, welches die gewünschten Ausstattungsmerkmale aufweist. Gerade bei Festinstallationen ist der entsprechende organisatorische und finanzielle Aufwand allerdings derart hoch, dass dies nicht infrage kommt.
  • Die negative(n) Folge(n): Klangoptimierungspotenziale bleiben ungenutzt.
  • Komplexität
  • Zur Umsetzung verschiedener Klangveränderungsmaßnahmen werden oftmals mehrere auf jeweils eine konkrete Klangveränderungsmaßnahme spezialisierte Geräte benötigt, was den finanziellen, materiellen, räumlichen und organisatorischen Aufwand ebenso erhöht wie das im nächsten Punkt thematisierte Ausfallrisiko.
  • Die negative(n) Folge(n): Man geht lieber auf Nummer sicher, beschränkt sich auf die vermutlich wirkungsvollsten Klangveränderungsmaßnahmen oder nimmt von seinem Vorhaben gleich ganz Abstand.
  • i) Ausfallrisiko
  • Entscheidet sich eine Person dafür, zur Realisierung von Klangveränderungsmaßnahmen zusätzliche Vorrichtungen in die entsprechende Signalkette zu integrieren, erhöht sie damit - insbesondere bei einer seriellen Verschaltung - das Ausfallrisiko der gesamten Signalkette. Dies stellt insbesondere bei zeitkritischen/Echtzeit-Anwendungen ein ernstes Problem dar.
  • Die negative(n) Folge(n): Signalketten fallen häufiger aus, teure Redundanzsysteme müssen finanziert und integriert werden, von Klangveränderungsmaßnahmen wird wieder Abstand genommen.
  • Inkompatibilitäten
  • Consumergeräte (beispielsweise MP3-Player) und Bürogeräte (beispielsweise Telefone) verfügen oftmals nicht über die notwendige Kompatibilität zu professioneller Audiotechnik (beispielsweise XLR, MADI, symmetrische Signalführung, Phantomspeisung, VST, ASIO, etc.). Bei der Verwendung von Adapterkabeln, um diese Kompatibilität herzustellen, können Signalstörungen und/oder Signalverluste auftreten.
  • Die negative(n) Folge(n): Klangoptimierung mittels professioneller Audiotechnik bleibt im Bereich „Consumer“ und „Office“ häufig außen vor.
  • Ersetzen des Natürlichen anstatt dessen Verbesserung
  • Insbesondere Technologien wie Digital Assistants oder Digital Robots (beispielsweise Google Duplex) sind so ausgelegt, Natürliches, beispielsweise einen Telefonmitarbeiter, nicht etwa dabei zu unterstützen besser zu werden, sondern ihn vollständig durch Digitaltechnologie zu ersetzen. Anstatt also möglicherweise negativ empfundene Aspekte wie intensiver Dialekt, verwaschene Artikulation oder monotone Sprechweise eines Telefonmitarbeiters mit technischen Mitteln abzumildern, wird dieser Telefonmitarbeiter gleich vollständig durch ein virtuelles Pendant in Form eines Digital Assistant/Agent zu ersetzen versucht.
  • Die negative(n) Folge(n): Menschen kommunizieren noch weniger mit Menschen und dafür noch mehr mit Maschinen, was die Gefahr von Filterblasen und Entfremdung der Menschen voneinander ebenso weiter erhöhen kann wie die Angst von Arbeitnehmern vor neuen Technologien und zukünftigem Arbeitsplatzverlust.
  • 1) Nicht-individuelle Adressierung
  • Klangveränderungen werden oftmals im Bewusstsein der Adressierung einer breit definierten Zielgruppe vorgenommen, ohne dass dabei individuelle Präferenzen und Charakteristiken verschiedener Zuhörer berücksichtigt werden. Beispiel: Die akustische Gestaltung eines Konzertsaals hat zur Folge, dass an gewissen Hörpositionen bestimmte akustische Signale stärker wahrnehmbar sind als andere, so dass das akustische Erlebnis je nach Hörposition variiert.
  • Die negative(n) Folge(n): Trotz identischer akustischer Quelle ergeben sich starke Diskrepanzen in der Beurteilung des akustischen Ereignisses.
  • Kein systematischer Lernprozess
  • In Bezug auf Klangveränderungsmaßnahmen mit ihren Vor- und Nachteilen bei bestimmten Zielstellungen finden systematische Lernprozesse zu selten statt. Zwar werden je nach Technologie über Sensoren entsprechende Vorgänge dokumentiert, aber mathematische Verfahren, wie z. B. maschinelles Lernen, zur Aufdeckung von Zusammenhängen und deren kausale Prüfung in randomisierten Experimenten ist dem Stand der Technik bisher nicht zu entnehmen.
  • Die negative(n) Folge(n): Fehler werden immer wieder gemacht, Potentiale bleiben ungenutzt, Ziele werden seltener erreicht.
  • Unidirektionales Sender-Empfänger-Paradigma
  • Klangveränderungsmaßnahmen folgen oftmals einem unidirektionalen Sender-Empfänger-Paradigma. Wenn sich zum Beispiel ein Telefon-Mitarbeiter eines Call-Centers von einem aggressiv auftretenden Kunden provozieren lässt und dadurch selbst auch immer lauter und aggressiver spricht, würde man nach einem unidirektionalen Paradigma mittels automatischer Lautstärkeanpassungen dafür sorgen, dass beim Kunden diese Lautstärkesteigerungen nur in reduziertem Maße ankommen. Ein bidirektionaler Ansatz, bei dem man auch durch Veränderungen auf Seiten des Kunden (beispielsweise Anpassung von Lautstärke und Stimmenfrequenz oder entspannende Hintergrundmusik) dafür sorgt, dass dieser vom Telefon-Mitarbeiter gar nicht mehr als (so) aggressiv wahrgenommen wird, wird oftmals nicht in Betracht gezogen.
  • Die negative(n) Folge(n): Rückkopplungen seitens des Empfängers an den Sender und damit die Transformation des Empfängers zum Sender und des Senders zum Empfänger und dadurch entstehende Effekte bleiben oftmals unberücksichtigt.
  • Somit wird deutlich, dass mit einer zielgerichteten Modifikation von Interaktionsparametern auch und gerade im Bereich elektronisch-vermittelter/ elektroakustischer Kommunikation die Chancen auf das Erreichen des gewünschten Ziels erheblich verbessert werden können. Die aus dem Stand der Technik in diesem Bereich bekannten Ansätze nutzen dieses Potential aber lediglich in deutlich verbesserbarem Maß aus, weil sie die soeben skizzierten Nachteile aufweisen.
  • Die US7085719 B1 („Voice filter for normalizing an agent's response by altering emotional and word content“) beschreibt die Veränderung des kommunikativen Auftritts eines Mitarbeiters durch die Veränderung emotionaler und sprachlicher Aspekte seiner Kommunikation je nach Zielsetzung der Organisation. Ist also das Ziel, dass ein Mitarbeiter am Telefon beispielsweise „Begeisterung“ versprüht, soll dies durch Anpassung bestimmter Wörter, Sprechgeschwindigkeit oder auch Erhöhung von Stimmenfrequenz und Stimmenlautstärke auf Seiten des Mitarbeiters erreicht werden.
  • Ähnliches beschreibt die US20120016674 Al („Modification of Speech Quality in Conversations Over Voice Channels“).
  • Die US 6404872 B1 („Method and apparatus for altering a speech signal during a telephone call“) wiederum beschreibt ein Verfahren, bei dem ein Anrufer vor Herstellung einer Verbindung zum Angerufenen mittels eines Menus eine von ihm gewünschte Sprachsignalveränderung auswählt, welche dann während des anschließenden Telefonats für seine Stimme aktiviert wird.
  • Ähnliches findet sich in der US7925304B1 („Audio manipulation systems and methods“), bei der ein Nutzer bestimmte Veränderungen seines Audiosignals während eines Telefonats auswählen und aktivieren kann.
  • Die US20080044048A1 („Modification of voice waveforms to change social signaling“) beschreibt ein Verfahren, bei dem das Sprachsignal eines Sprechers in Bezug auf die darin enthaltenen „sozialen Signalisierungen“ (beispielsweise „Überzeugungskraft“) analysiert und nach Wunsch des Interaktionspartners verändert wird.
  • Die Aufgabe der Erfindung besteht darin, ein Verfahren, ein Computerprogrammprodukt, ein System und eine Vorrichtung zur Durchführung dieses Verfahrens anzugeben, mit denen akustische Interaktionsparameter, die von mindestens einem Interaktionspartner erzeugt werden, hinsichtlich eines Interaktionsziels modifiziert und dabei die eingangs skizzierten negativen Folgen vermieden werden können.
  • Diese Aufgabe wird gelöst von einem Verfahren mit den Merkmalen des Patentanspruchs 1, einem Computerprogrammprodukt mit den Merkmalen des Patentanspruchs 7, einem System mit den Merkmalen des Patentanspruchs 8 und einer Vorrichtung nach Patentanspruch 18. Vorteilhafte Ausführungsformen der Erfindung sind Gegenstand der Unteransprüche.
  • Allgemein ist zunächst anzumerken, dass die nachfolgend erläuterte Erfindung grundsätzlich in allen Situationen zum Einsatz kommen kann, bei denen akustische Interaktionssignale zwischen Interaktionspartnern ausgetauscht werden, wie beispielsweise Vorlesungen, Konferenzen, Debatten, Live-Musik, Musik- und Videostreaming, Radio- und Fernsehübertragungen, Musikkonsum im Auto oder im Wohnzimmer oder am Handy. Die Darlegungen dieser Patentschrift konzentrieren sich aber zur besseren Nachvollziehbarkeit beispielhaft auf den Bereich der professionellen elektro-akustischen Kommunikation (beispielsweise Call-Center-Telefonie), weil hier bisher nur wenig zielorientierte Klangoptimierung stattfindet, obwohl gerade hier die gesamte Kommunikation ausschließlich auf dem Austausch akustischer Signale basiert und somit deren Qualität maßgeblich über Erfolg und Misserfolg des Kommunikationsvorgangs entscheidet, was sich letztlich in geschäftsrelevanten Kennziffern wie bspw. Umsatz, Kosten, Mitarbeiter- oder Kundenzufriedenheit niederschlägt.
  • Dieser Erfindung liegt folgende Perspektive zugrunde: Im Aufeinanderfolgen von Situationen findet eine Interaktion statt, in der ein Interaktionspartner mit sich und/oder anderen Interaktionspartnern im Rahmen von Aktivitäten Interaktionssignale austauscht, um ein bestimmtes Interaktionsziel zu erreichen. Die vorliegende Erfindung begreift sich als zusätzlichen Interaktionspartner, der die Ausprägungen der Merkmale der Interaktion - bestehend aus dem Interaktionsziel, Merkmalen der beteiligten Interaktionspartner und/oder Merkmalen ihrer Aktivitäten insbesondere der dabei erzeugten Interaktionssignale und/oder Merkmalen ihres Umfelds - vor, während und nach der Interaktion erfasst, analysiert, bewertet und mittels aktuatorischer und/oder Interaktionspartnerbezogener Handlungsanweisungen direkt oder indirekt derart beeinflusst, dass die Eintrittswahrscheinlichkeit hinsichtlich des Interaktionsziels erhöht wird. Die Interaktionssignale sollen im Rahmen der vorliegenden Erfindung in Form von Audiosignalen übertragen werden, welche akustische Interaktionsparameter aufweisen und daher entsprechend dem definierten Interaktionsziel, welches das Interaktionsziel sein kann oder dieses beeinflusst, modifiziert werden.
    Situation Situation Situation Situation Situation Situation Situation Situation
    Vor der Interaktion Interaktionsstart Interaktionsverlauf Interaktionsende Nach der Interaktion
    Interaktion
  • Das erfindungsgemäße Verfahren zum Modifizieren von akustischen Interaktionsparametern zumindest eines Interaktionssignals, welches von mindestens einem Interaktionspartner erzeugt wird, hinsichtlich eines Interaktionsziels, umfasst folgende Schritte, welche vorzugsweise in der angegebenen Reihenfolge ausgeführt werden:
    • - Definieren mindestens eines Interaktionsziels, hinsichtlich welchem die akustischen Interaktionsparameter modifiziert werden sollen,
    • - Erzeugen von einem oder mehreren dem Interaktionssignal entsprechenden Audiosignalen, die vom zumindest einen Interaktionspartner erzeugt wird, mittels eines Schallwandlers oder eines Klangerzeugers,
    • - maschinelle Analyse und maschinelle Bewertung der Audiosignale hinsichtlich des Interaktionsziels,
    • - maschinelles Bestimmen von Schritten zum Modifizieren des Audiosignals hinsichtlich des Interaktionsziels;
    • - Ausführen der maschinell bestimmten Schritte zum Modifizieren der Audiosignale, und
    • - Weiterleiten der modifizierten Audiosignale an einen Interaktionspartner.
  • Das Interaktionsziel ist dabei die konkrete Ausprägung eines mittels technischer oder sozio-technischer Sensoren messbaren Merkmals, beispielsweise Lautstärke, Absatzmenge, Umsatzhöhe, Zeitdauer eines Kundengesprächs, Kundenzufriedenheit, Kosten. Hierbei kann es sich auch um eine Randbedingung handeln.
  • Die beteiligten Interaktionspartner sind dabei insbesondere Entitäten, die Interaktionsparameter erzeugen, wahrnehmen, verarbeiten und/oder beeinflussen bzw. verändern (beispielsweise Mitarbeiter, Kunden, Dienstvorgesetzte, Geräte). Die Interaktionsparameter sind dabei insbesondere akustischer und/oder akustikrelevanter Natur (beispielsweise Sprechen, Lachen, Schweigen, Flüstern, Schreien, Singen, Klingen). Die Interaktionssignale, welche die Interaktionsparameter beinhalten, sind dabei insbesondere akustischer und/oder akustikrelevanter Natur (beispielsweise Direktschall, Stille, Reflektionen, Störgeräusche).
  • Üblicherweise sind mindestens zwei Interaktionspartner an einer Interaktion beteiligt, so dass die modifizierten Audiosignale an einen empfangenden Interaktionspartner weitergeleitet werden, der selbst das Interaktionssignal nicht erzeugt hat. Es ist aber auch möglich, das modifizierte Audiosignal an den Interaktionspartner weiterzuleiten, der das Interaktionssignal erzeugt hat, beispielsweise zu Test- oder Kontrollzwecken. Unter einem modifizierten Audiosignal soll auch ein Audiosignal verstanden werden, welches zwar analysiert und bewertet worden ist, die Analyse und die Bewertung aber zu dem Ergebnis geführt hat, dass keine Modifizierung notwendig ist, da das Audiosignal hinsichtlich des Interaktionsziels bereits optimal ist. In diesem Fall entsprechen sich das vom Interaktionspartner erzeugte Audiosignal und das modifizierte Audiosignal.
  • Der Schallwandler kann beispielsweise als ein Headsetmikrofon eines Call-Center-Mitarbeiters oder ein Telefon eines Anrufers ausgebildet sein, die in bekannter Weise aus dem akustischen Input, also dem, was der Mitarbeiter, Interaktionspartner oder Anrufer sagt oder anderweitig akustisch erzeugt und etwaigen Hintergrundgeräuschen, ein analoges oder digitales Audiosignal generieren. Das so generierte Audiosignal lässt sich mit den Interaktionsparametern definieren. Sollte das Audiosignal bereits als analoges oder digitales Audiosignal vorliegen, welches keiner weiteren Wandlung bedarf, z. B. weil es sich beim Interaktionspartner um ein technisches Gerät, wie z. B. einen Digitalsynthesizer oder einen Drumcomputer handelt, stellt der Interaktionspartner gleichzeitig auch den Klangerzeuger dar, so dass das Audiosignal über einen Audioausgang der Modifikation zugeführt werden.
  • Die maschinelle Analyse der erfassten Informationen umfasst alle heutzutage und zukünftig nach standardisierten, fachbekannten Vorgehensweisen ermittelbaren Interaktionsparameter. Im Falle von Audiosignalen umfasst die maschinelle Analyse dabei sowohl Low-Level-Audiodeskriptoren (auditive Merkmale mit niedrigem Abstraktionsniveau) als auch High-Level-Audiodeskriptoren (auditive Merkmale mit hohem Abstraktionsniveau) und kann dabei vorzugsweise eine Bestimmung eines, mehrerer oder aller der Parameter ADSR-Charakteristiken, Abtastfrequenz, Samplingtiefe, Lautstärke, Lautheit, Schalldruckpegel, Deutlichkeit, Dynamikumfang, Fluktuation, Formanten oder Formantenspektrum, Stimmabbrüche, Stimmqualität, Klirrfaktor, Klangtreue, Frequenzspektrum, Frequenzbewertung, THD, Frequenzgang, Phasenlage, Fundamentalfrequenz, Grenzfrequenzen, Korrelation, Mikroprosodie, Obertonspektrum, Prosodie, Scheitelfaktor, Rauigkeit, Sprechgeschwindigkeit, Übersprechen, Kanaltrennung, Timbre, Sprachverständlichkeit, Jitter, Shimmer, Harmonizität, Perturbation, Cepstrum, Spektrum, Signal-Rausch-Abstand, Seitwärts-/Rückwärtsdämpfung, Rauschen, Zeit-/Registerdurchsichtigkeit, Diffusität und Transienten sowie die in anderen Audio-Frameworks (beispielsweise dem MPEG-7-Standard; siehe https://mpeg.chiariglione.org/standards/mpeg-7/audio) beschriebenen Audio-Deskriptoren (beispielsweise LogAttackTime, AudioPowerType, Melodie, Timbre) durch eine Recheneinheit umfassen. Diese Daten lassen sich heutzutage nach standardisierten, fachbekannten Vorgehensweisen aus einem analogen Audiosignal, nötigenfalls nach Digitalisierung, ebenso wie aus einem digitalen Audiosignal gewinnen.
  • Die Recheneinheit verarbeitet die Audiosignale derart, dass ein Vergleich der erfassten insbesondere akustischen Interaktionsparameter mit den hinterlegten weiteren insbesondere akustischen Interaktionsparametern möglich ist, sofern nicht schon die ersten Signale so an die Recheneinheit weitergeleitet werden, dass keine Verarbeitung nötig ist, sondern die Recheneinheit direkt einen Vergleich durchführen kann.
  • Bei der maschinellen Bewertung der Analyseergebnisse, insbesondere der Audiosignalanalysen werden dann die Merkmalsausprägungen / Interaktionsparameterwerte, die bei den Analysen ermittelt wurden, als Daten mit einem Satz von Parameterwerten als Soll-Daten verglichen, mit welchen das Interaktionsziel definiert wird. Dies kann beispielsweise, wie unten noch detaillierter erläutert wird, durch den Zugriff einer Recheneinheit auf Datenbanken erfolgen, die den idealen Satz von Parameterwerten enthält, so dass die Recheneinheit über einen Vergleich Abweichungen zwischen den Ist-Parameterwerten und den Soll-Parameterwerten feststellen kann. Hierzu kann beispielsweise, wie unten noch detaillierter erläutert wird, durch den Zugriff einer Recheneinheit auf Datenbanken erfolgen, die entsprechende Regelwerke enthalten. Im Rahmen dieser Gegenüberstellung wird maschinell bewertet, ob für die gewonnenen Parameterwerte laut Regelwerk eine Veränderung einer oder mehrerer ermittelten Parameterwerte vom Ist- zum Soll-Zustand angezeigt ist, oder nicht. Anhand des Regelwerks werden somit in Abhängigkeit der Zielstellung und der aktuellen Situation die Audiosignale so modifiziert, dass die Zieleintrittswahrscheinlichkeit maximiert wird.
  • Basierend auf dieser Bewertung werden dann maschinell Maßnahmen ermittelt, die das Audiosignal an den Soll-Parameterwertesatz heranführen und umgesetzt. Bei einer zumindest auch erfolgenden sofortigen Beeinflussung des Audiosignals durch diese Maßnahmen wird dann das modifizierte Audiosignal an den Interaktionspartner weitergeleitet; bei einer lediglich in die Zukunft gerichteten Beeinflussung oder bereits optimalen Parametern hingegen das ursprüngliche Audiosignal.
  • Die maschinellen Maßnahmen zur Modifikation insbesondere von Audioparametern können dabei alle heutzutage und zukünftig standardisierten, fachbekannten Vorgehensweisen umfassen, wobei über Art, Intensität und die mögliche Kombination verschiedener Maßnahmen maschinell entschieden wird. Im Falle von Audioparametern können zur Modifikation unter anderem zum Einsatz kommen: Frequenzfilter, Pitch-Shifting, Time-Stretching, Formantenänderung, Vokaltrakt-Modifikatoren, Dynamikprozessoren (z. B. Kompressor, Expander, Gate, Limiter), Raumeffekte (Hall), Entzerrer, Modulationseffekte (z. B. Flanger, Phaser, Chorus, Tremolo), Verzögerungs- und Echoeffekte (z. B. Delays), Pegelmodifikatoren, Timbre-Modifikatoren, Signalsättigungs- und verzerrungseffekte (z. B. Verstärker-, Lautsprecher, Röhren-, Übertrager-, Tonband, Schallplatten- oder Bit-Crusher-Effekte), Exciter/Enhacer, Harmonizer, Spectral Processing, Binauraleffekte, Spatial-Effekte), Noise Reduction/Cancelling, De-Essing, Phasenbearbeitung, Mic-Modeler, Doubler. Folglich zählt auch eine vollständige Verfremdung des Signals bis hin zu dessen Auslöschung durch Reduktion der Amplituden auf Null zu Modifikationsmaßnahmen. Ebenso zählt zu Modifikationsmaßnahmen, wenn selbst erzeugte und/oder wiedergegebene Audiostimuli (z. B. Hintergrundmusik) dem Audiosignal oder evtl. vorhandener Stille hinzugefügt werden.
  • Für den Fall, dass aufgrund von Änderungen der Interaktionsparameter Modifikationen an Interaktionssignalen eines gerade aktiven Interaktionspartners vorgenommen werden müssen (z. B. ein Telefonmitarbeiter, der gerade zu leise spricht), können diese Modifikationen graduell und zeitlich gestreckt erfolgen, um den anderen Interaktionspartner nicht durch sprunghaft vorgenommene Signalveränderungen zu irritieren, in dem die Modifikationen über einen längeren Zeitraum in kleinen Einzelschritten statt mit einem Mal vorgenommen werden.
  • Als ganz konkretes, stark vereinfachtes Beispiel kann beispielsweise die Analyse des Audiosignals das Ergebnis liefern, dass der Call-Center-Mitarbeiter mit einer bestimmten Geschwindigkeit spricht. In einer Datenbank hinterlegte Sollparameterwerte, beispielsweise empirisch erhobene Erfahrungswerte oder experimentell ermittelte Kausalitäten für eine optimale Sprechgeschwindigkeit, zeigen, dass diese Sprechgeschwindigkeit vom Kunden als zu schnell empfunden wird und die Wahrscheinlichkeit für einen Verkaufserfolg senken würde. Als sofortige Maßnahme wird daher laut Regelwerk z. B. mittels Time-Stretching ein verlangsamtes Audiosignal als modifiziertes Audiosignal erzeugt und an den Interaktionspartner weitergeleitet. Gleichzeitig wird beispielsweise ein visueller Hinweis, z.B. auf einem Computer-Terminal, an dem der Call-Center-Mitarbeiter sitzt, oder ein akustischer Hinweis, der in sein Headset eingespeist wird, während er spricht, erzeugt, der ihn veranlassen soll, langsamer zu sprechen, was eine Maßnahme darstellt, um das Audiosignal für die Zukunft näher an die idealen Parameter heranzuführen und gegebenenfalls in vorteilhaften Varianten der Erfindung zu überwachen, ob diese Anweisung auch umgesetzt wird.
  • In einem weiteren konkreten, stark vereinfachten Beispiel können beispielsweise die Ergebnisse aus der Analyse der Audiosignale darauf hindeuten, dass der Interaktionspartner, hier der Gesprächspartner des Call-Center-Mitarbeiters, gerade sehr aufgeregt ist. Dies könnte dazu führen, dass das Soll-Audiosignal des Mitarbeiters zur Beruhigung des Gesprächspartners langsamer ausfallen sollte als im Normalfall.
  • Es wird also in beiden Fällen maschinell eine Beeinflussung des Audiosignals herbeigeführt, entweder durch unmittelbare Modifikation des Audiosignals oder durch Veränderung des Sprechverhaltens eines Interaktionspartners durch technische Mittel. Die Erfindung verändert Audiosignale nicht zwingend nur durch direkten akustischen Eingriff, sondern kann alternativ oder zusätzlich indirekte und/oder nicht unmittelbar akustische Eingriffsmöglichkeiten, beispielsweise durch visuelle Anweisungen oder Hinweise an den Interaktionspartner, der die akustischen Interaktionsparametern erzeugt, (z. B. Redner, Kollegen, Vorgesetzte, Publikum) beispielsweise nutzen, um eine Klangbeeinflussung vorzunehmen. Anders formuliert: Die Erfindung kann zur Erhöhung der Zieleintrittswahrscheinlichkeit nicht nur akustische Signale, sondern auch bspw. visuelle Signale analysieren, erzeugen oder verändern, um die Audiosignale hinsichtlich des Interaktionsziels zu modifizieren. So kann beispielsweise der visuelle Hinweis, dass der nächste Interaktionspartner eines Telefonmitarbeiter unverhältnismäßig lange 8 Minuten in der Warteschleife verharren musste und der Mitarbeiter bitte sein Bedauern darüber äußern möge, zu einer höheren Zieleintrittswahrscheinlichkeit der darauffolgenden Interaktion führen.
  • Bei einer weitergebildeten Ausführungsform kann das Verfahren folgende Schritte aufweisen:
    • - Überprüfen und speichern, ob der Interaktionspartner oder andere an der Interaktion beteiligte Interaktionspartner von ihm umzusetzende Schritte zur Modifikation des Audiosignals in Form von Handlungsanweisungen befolgt hat, und
    • - falls der betreffende Interaktionspartner die Interaktionspartnerbezogenen Handlungsanweisungen (nicht) befolgt hat, Ausgeben von Signalen mittels Ausgabeeinheiten, welche den betreffenden Interaktionspartner auf die (Nicht-) Befolgung der Interaktionspartnerbezogenen Handlungsanweisungen hinweisen.
  • Interaktionspartnerbezogene Handlungsanweisungen sind vor allem für Interaktionsmerkmale von Bedeutung, die zwar direkt maschinell z. B. über Sensoren erfasst werden, aber nicht direkt maschinell beeinflusst werden können. Zum Beispiel kann im Rahmen einer Echtzeitkommunikation „zu niedrige Sprechgeschwindigkeit“ zwar technisch erfasst, aber technisch nicht ohne das In-Kauf-Nehmen größerer Klangpausen erhöht werden, da schlichtweg zu wenig akustisches Material von der Klangquelle erzeugt wird. Hier ließe sich durch die Interaktionspartnerbezogene Handlungsanweisung „Bitte etwas schneller sprechen!“ Abhilfe schaffen.
  • Interaktionspartnerbezogene Handlungsanweisungen kann der Interaktionspartner vollständig/korrekt oder unvollständig/nicht korrekt durchführen oder sogar gänzlich ignorieren. Mit einem Überprüfungsmittel wird überprüft, ob der Interaktionspartner die Interaktionspartnerbezogenen Handlungsanweisungen korrekt befolgt oder nicht. Wenn dies (nicht) der Fall sein sollte, werden Interaktionspartner-wahrnehmbare Signale erzeugt, und ihn auf die (Nicht-)Befolgung der Interaktionspartnerbezogenen Handlungsanweisungen hinweisen. Hierzu kann beispielsweise eine entsprechende textliche oder graphische Mitteilung über die entsprechend ausgebildete Ausgabeeinheit angezeigt werden. Zudem kann die Ausgabeeinheit den betreffenden Interaktionspartner auf die (Nicht-)Befolgung der Interaktionspartnerbezogenen Handlungsanweisungen hinweisen. Die Ausgabeeinheit kann beispielsweise eine LED-Indikatorleiste umfassen, die Farbe entsprechend ändert oder beginnt zu blinken. Ebenso kann die Ausgabeeinheit einen Lautsprecher umfassen, der ein Audiosignal ausgibt, oder eine Vibrationseinheit, die haptische/taktile Signale ausgibt. Ebenso können diese Hinweise auch von anderen menschlichen Interaktionspartnern wie beispielsweise Dienstvorgesetzten nach entsprechender Interaktionspartnerbezogenen Handlungsanweisung durch das Verfahren erfolgen.
  • In einer vorteilhaften Weiterbildung des Verfahrens ist vorgesehen, dass mittels Sensoren Merkmalsausprägungen der beteiligten Interaktionspartner sowie der Umgebung des die akustischen Interaktionssignale erzeugenden Interaktionspartners ermittelt werden und dass die erfassten Daten in die maschinelle Bewertung der Audiosignale einbezogen werden.
  • Bei dieser weitergebildeten Ausführungsform kann das Verfahren daher folgende Schritte aufweisen:
    • - Erfassung der Merkmalsausprägungen der beteiligten Interaktionspartner und/oder ihres Umfelds
  • Vorzugsweise wird dabei der Zustand des Mikroumfelds des betreffenden Interaktionspartners, in welchem dieser agiert, so gut wie möglich erfasst. Hierzu steht heutzutage eine Vielzahl von Sensoren zur Verfügung, welche den Zustand des Mikroumfelds objektiv, valide und reliabel erfassen können. Nicht abschließend seien als Beispiele für derartige Sensoren Temperatursensoren, Luftfeuchtigkeitssensoren und Schallsensoren genannt. Unter einem Mikroumfeld soll das Umfeld verstanden werden, welches einen direkten Einfluss auf den betreffenden Interaktionspartner haben kann, mit den Sinnen des Interaktionspartners zumindest teilweise erfahrbar und mittels aktuatorischer und/oder Interaktionspartnerbezogener Handlungsanweisungen direkt oder indirekt beeinflussbar ist. Typischerweise sind dies die unmittelbare Arbeitsumgebung oder auch der Raum eines Gebäudes, in welchem sich der betreffende Interaktionspartner (ggf. zusammen mit anderen Interaktionspartnern wie beispielsweise Kollegen oder Dienstvorgesetzten) während der Interaktion aufhält.
  • Der Zustand des Interaktionspartners selbst kann auf vielfältige Weise erfasst werden, beispielsweise mit sogenannten „Wearables“, welche Sensoren aufweisen, die den Puls, den Hautwiderstand und/oder die Hauttemperatur messen, wobei auch diese Aufzählung nicht abschließend ist. Auch über Eingabegeräte, externe Hardware oder Software, die den aktuellen Status eines Mitarbeiters erfasst (beispielsweise „Macht gerade Pause“, „Befindet sich im Verkaufsgespräch“, „Hat morgen frei“, „Ist zur Annahme eines neuen Gesprächs bereit“) kann der Zustand des Interaktionspartners erfasst werden. Des Weiteren kann über den Zugriff auf Datenbanken ermittelt werden, ob und in welcher Form die beteiligten Interaktionspartner bereits in der Vergangenheit schon einmal miteinander interagiert hatten, denn diese vergangene Interaktion kann auf ihren aktuellen Zustand Auswirkungen haben. Über visuelle Sensoren (z. B. eine Webcam am Bildschirm eines Telefonmitarbeiters) können Augenbewegungen und Mimik erfasst und anschließend ausgewertet werden. Darüber hinaus kann auch über das vom Interaktionspartner erzeugte und vom Headset aufgenommene Audiosignal viel bezüglich des Zustands des Interaktionspartners erfahren werden. Dies gilt selbstverständlich ebenso für andere an der Interaktion beteiligte Interaktionspartner, beispielsweise Kunden.
  • Je mehr Parameter bezüglich des Zustands des Interaktionspartners und des Zustands des Mikroumfelds des Interaktionspartners erfasst werden, desto genauer können diese Zustände charakterisiert werden. Die so charakterisierten Zustände werden vorzugsweise von den Sensoren in Form von ersten Signalen einer Recheneinheit zugeführt, wozu Eingangsschnittstellen vorgesehen sein können. Die Recheneinheit kommuniziert vorzugsweise mit einer Datenbank. Auch dort sind vorzugsweise auf einen Interaktionspartner und/oder auf das Mikroumfeld des Interaktionspartners und/oder die Interaktion bezogene Zustände hinterlegt.
  • Die auf den Interaktionspartner bezogenen Zustände können vom selben Interaktionspartner, aber auch von anderen Interaktionspartnern stammen.
  • Die erhobenen Merkmalsausprägungen der beteiligten Interaktionspartner und ihres Mikroumfelds werden nach bekannten fachgerechten Verfahren analysiert, so dass neben Merkmalen wie Arbeitszeitdauer und Raumtemperatur auch Aspekte, wie z. B. Müdigkeit, Motivation, Zufriedenheit, stimmliche Gesundheit, Emotionen oder Persönlichkeit, gewonnen werden können.
  • Die vorzugsweise in der Datenbank hinterlegten weiteren Zustände enthalten vorzugsweise Informationen dahingehend, ob die weiteren Zustände zu einer Erhöhung der Eintrittswahrscheinlichkeit des Interaktionsziels geführt haben. Wenn beispielsweise die Eintrittswahrscheinlichkeit bei einer bestimmten Temperatur, einer bestimmten Luftfeuchtigkeit und/oder bei einem bestimmten Schallpegel oder einer bestimmten Kombination dieser Größen erhöht ist, der Vergleich mit dem erfassten Zustand aber deutliche Abweichungen in diesen Größen feststellt, so werden vorzugsweise von der Recheneinheit aktuatoren- und/oder interaktionspartnerbezogene Handlungsanweisungen generiert, um die Eintrittswahrscheinlichkeit des Interaktionsziels zu erhöhen.
  • Die so gewonnen Daten werden dann zusammen mit den eventuell ebenfalls vorhandenen Daten zu Merkmalen der Interaktionssignale bei der maschinellen Analyse, der maschinellen Bewertung und der maschinellen Generierung von Handlungsanweisungen berücksichtigt.
  • Die Handlungsanweisungen werden in entsprechende Signale umgewandelt und an entsprechende Aktuatoren/Ausgangsschnittstellen weitergeleitet. Hierzu können entsprechend ausgebildete Ausgangsschnittstellen vorgesehen sein.
  • Beispielsweise werden die Temperatur und die Luftfeuchtigkeit des Mikroumfelds mithilfe einer entsprechenden Ansteuerung der Klimaanlage verändert. Um einen zu hohen Schallpegel zu senken, kann beispielsweise eine Lärmkompensation ausgelöst werden oder eine Textanweisung auf dem Computerbildschirm benachbarter Kollegen, doch bitte etwas leiser zu sprechen, angezeigt werden. Diese von den Aktuatoren oder anderen Interaktionspartnern umgesetzten Handlungsanweisungen erhöhen basierend auf den in der Datenbank hinterlegten weiteren Zuständen die Eintrittswahrscheinlichkeit des vom Interaktionspartner definierten Ziels. Die Änderung der Temperatur, der Luftfeuchtigkeit und des Schallpegels haben z. B. eine Auswirkung auf den Puls, den Hautwiderstand und/oder die Hauttemperatur, so dass über den Zustand des Mikroumfelds des Interaktionspartners auch der Zustand des Interaktionspartners verändert werden kann.
  • In vielen Fällen hat der Zustand des Interaktionspartners oder der an der Interaktion beteiligten Interaktionspartner einen großen Einfluss auf die Eintrittswahrscheinlichkeit des definierten Interaktionsziels.
  • In einem ganz konkreten, aber stark vereinfachten Beispiel kann der Call-Center-Mitarbeiter also in einem überhitzten, stickigen Raum mit verbrauchter Luft sitzen, was durch Sensoren, die z. B. die Temperatur, Luftfeuchtigkeit und Luftqualität überwachen, gemessen werden kann. Wenn die Analyse und Bewertung des Audiosignals ergeben, dass dieses in Parametern, die für eine typische Reaktion des Call-Center-Mitarbeiters auf diese Bedingungen, beispielsweise eine Ermüdung, charakteristisch sind, vom Soll des Regelwerks abweicht, kann dann als Maßnahme auf eine Anpassung der Umgebungsbedingungen hingewirkt werden. Dies kann dann beispielsweise durch eine Ansteuerung der Klimaanlage und/oder eine Interaktionspartnerbezogene Handlungsanweisung an die Teamleitung, das Fenster zu öffnen, erfolgen.
  • Ein anderes Beispiel sind Hintergrundgeräusche, die durch das Headset-Mikrofon des Interaktionspartners oder eines anderen in der Umgebung des Interaktionspartners agierenden Akteurs oder durch ein separates Umgebungsmikrophon aufgezeichnet werden können, und zu einer zu geringen Lautstärke des eigentlichen Audiosignals oder einem zu geringen Signal-RauschVerhältnis führen. In diesem Fall können mit der Verwendung der Aufzeichnung des Umgebungsmikrophons durch Korrektur/Herausfiltern und/oder durch höhere Verstärkung des Audiosignals oder durch Einleiten von aktuatorgestützten und/oder interaktionspartnerbezogene Handlungsanweisungen Maßnahmen zur Reduktion der Hintergrundgeräusche ergriffen werden, beispielsweise das automatische Schließen eines Fenster bei Verkehrslärm oder einem Unwetter.
  • Ein weiterer wichtiger Faktor, der Auswirkungen auf den Zustand der Interaktionspartner und damit die Zieleintrittswahrscheinlichkeit haben kann, ist, mit welcher Erwartung die Interaktionspartner in die Interaktion gehen, vor allem was das Verhalten des jeweils anderen Interaktionspartners betrifft. Wenn beispielsweise ein Telefonmitarbeiter davon ausgeht, dass ein potentieller Kunde im gleich beginnenden Telefonat ohnehin nichts bei ihm kaufen wird, könnte er derart passiv und unmotiviert das Gespräch beginnen, dass der Kunde das Gefühl bekommt, der Mitarbeiter hätte kein Interesse an ihm und einem Vertragsabschluss - und dann tatsächlich auch nichts kauft, was den Mitarbeiter in seiner Erwartungshaltung wiederum bestärken würde. Diesem kann das vorliegende Verfahren entgegenwirken, indem es bspw. dem Interaktionspartner eine auf Basis mathematischer Verfahren ermittelte Eintrittswahrscheinlichkeit des Interaktionsziels vor Beginn der Interaktion akustisch oder visuell ausgibt - oder aber eben darauf verzichtet und stattdessen beispielsweise den Interaktionspartner darauf hinweist, dass er persönlich am möglicherweise negativen Ausgang der vergangenen Interaktion keinerlei messbaren Anteile hatte - die Ergebnisse also zufällig so ausgefallen sind. Je nach Prognose kann das Verfahren mittels aktuatorischer oder Interaktionspartnerbezogener Handlungsanweisungen darauf hinwirken, dass eine Interaktion erst gar nicht zustande kommt, da die geschätzte Zieleintrittswahrscheinlichkeit in Anbetracht der zu erwartenden zeitlichen und finanziellen Kosten dies nicht rechtfertigen könnte.
  • Neben den bereits diskutierten Merkmalen der Interaktionssignale, der Interaktionspartner und des Mikroumfelds können auch Eigenschaften des Makroumfelds einen Einfluss auf die Eintrittswahrscheinlichkeit des definierten Ziels haben. Will der Interaktionspartner beispielsweise einen Kunden wegen eines Verkaufsgesprächs anrufen, und stellt die Datenbank fest, dass am Ort des Kunden und/oder am Ort des Interaktionspartners extreme Wetterbedingungen herrschen und es außerdem momentan kurz nach Mitternacht Ortszeit ist, kann auch der Zustand des Makroumfelds zu einer Verringerung der Eintrittswahrscheinlichkeit des Interaktionsziels führen.
  • Im Gegensatz zum Mikroumfeld kann der Zustand des Makroumfelds zwar wahrgenommen, erfasst, analysiert und bewertet, in der Regel aber nicht mittels aktuatorischer oder Interaktionspartnerbezogener Handlungsanweisungen verändert werden, so dass in diesem Fall die Handlungsanweisung gegeben werden könnte, das Verkaufsgespräch zu einem späteren Zeitpunkt durchzuführen. Es kann automatisch eine Nachricht bezüglich der Terminverschiebung über ein Email-System an den Kunden verschickt werden. Es ist auch möglich, direkt auf einen weiteren Sensor zuzugreifen, um das Makroumfeld des Interaktionspartners zu erfassen.
  • Beispielsweise können, wie bereits beschrieben, die Wetterbedingungen oder die Uhrzeit am Ort des Kunden einen Einfluss auf die Eintrittswahrscheinlichkeit des definierten Interaktionsziels haben. Der externe Sensor kann derart ausgestaltet sein, dass er beispielsweise die Temperatur, den Luftdruck, die Windgeschwindigkeit, die Niederschlagsmenge und/oder andere relevante Wetterdaten erfasst und direkt an die Recheneinheit weiterleitet, ohne die Wetterdaten in eine externe Datenbank einzuspeisen. Auch andere messbare Parameter, die das Makroumfeld des Interaktionspartners oder seines Interaktionspartners charakterisieren (beispielsweise Wochentag, Feiertage, wirtschaftliche oder politische Situation) können mittels externer Sensoren erfasst werden.
  • In einer vorteilhaften Ausgestaltung des Verfahrens kann die maschinelle Bewertung insbesondere dadurch geschehen, dass ein Vergleich von Daten mit den in mindestens einer Datenbank, auf die die Recheneinheit zugreifen kann, enthaltenen Vergleichsdaten mittels einer Recheneinheit vorgenommen wird. Die Datenbank enthält dabei besonders bevorzugt Informationen über die Parameter des Audiosignals, die jeweils anzustreben sind. Diese können beispielsweise empirisch oder durch wissenschaftliche Studien bestimmt sein.
  • Das für die maschinelle Bewertung der Situation und der maschinellen Bestimmung von Schritten zur Erhöhung der Zieleintrittswahrscheinlichkeit notwendige Regelwerk kann entweder manuell vom Interaktionspartner, von Dritten (beispielsweise externen Dienstleistern) oder automatisch vom System erstellt und/oder bearbeitet werden.
  • Hierfür kann das System eine oder mehrere der folgenden Datenbanken und Funktionseinheiten aufweisen:
    • Entitätendatenbank Die Entitätendatenbank beinhaltet Informationen zu Entitäten. Entitäten können unter anderem charakterisiert werden durch ID, Zeitstempel, Autor, Typ (Interaktionspartner, Mikroumfeld, Makroumfeld...) und die sie beschreibenden Variablen.
    • Variablendatenbank Die Variablendatenbank beinhaltet Merkmale/Messgrößen von Entitäten. Variablen können unter anderem charakterisiert werden durch ID, Zeitstempel, Autor, Name, Erläuterung, Datenformat (numerisch, Text, ...), Wertebereich, Art (latent, manifest, ...), Art (abhängig, unabhängig, Störvariable/Kovariate), Beständigkeit (flüchtig, persistent), Skalenniveau (nominal-, ordinal-, metrisch-skaliert) und Messmethoden. Variablen können sich aus anderen Variablen konstituieren.
    • Sensorendatenbank Die Sensorendatenbank beinhaltet Methoden, um den Wert bzw. die Ausprägung einer Variablen zu erfassen. Messmethoden können unter anderem charakterisiert werden durch ID, Zeitstempel, Autor, Name, Erläuterung, Typ (naturwissenschaftlich/technisch, sozialwissenschaftlich/psychologisch, ...), Schnittstelle (Hardware, Software, ...), Aufwand/Kosten (zeitlich, finanziell, personell, materiell, ...), Aktivitätszeit (punktuell, permanent), Restriktionen (Zeitpunkt, Häufigkeit, ...), Validitätsgrad, Objektivitätsgrad, Reliabilitätsgrad und Handlungsvorschrift/Befehlskette.
    • Aktuatorendatenbank Die Aktuatorendatenbank beinhaltet Methoden, um auf den Wert bzw. die Ausprägung einer Variablen einzuwirken. Einwirkungsmethoden können unter anderem charakterisiert werden durch ID, Zeitstempel, Autor, Name, Erläuterung, Typ (technisch, sozial/kommunikativ), Schnittstelle (Hardware, Software, ...), Aufwand/Kosten (zeitlich, finanziell, personell, materiell, ...), Aktivitätszeit (punktuell, permanent), Restriktionen (Zeitpunkt, Häufigkeit, ...), Wirkungsgrad, Validitätsgrad, Objektivitätsgrad, Reliabilitätsgrad und Handlungsvorschrift/Befehlskette.
    • Auswertungsmethodendatenbank Die Auswertungsmethodendatenbank beinhaltet Methoden, um Werte bzw. Ausprägungen von Variablen und deren Beziehungen zu einander zu analysieren. Auswertungsmethoden können unter anderem charakterisiert werden durch ID, Zeitstempel, Autor, Name, Erläuterung, Typ (Deskriptiv, statistisch, multivariat, stochastisch, Modellierung, Neuronales Netz, maschinelles Lernen, künstliche Intelligenz, Big/Smart Data Analysetechniken, Data Science Ansätze, ...), Aufwand (zeitlich, finanziell, personell, materiell, ...), Aktivitätszeit (punktuell, permanent), Restriktionen (Zeitpunkt, Häufigkeit, ...) und Handlungsvorschrift/Befehlskette.
    • Forschungsmethodendatenbank Die Forschungsmethodendatenbank beinhaltet Methoden, um zu Wissen zu gelangen. Forschungsmethoden können unter anderem charakterisiert werden durch ID, Zeitstempel, Autor, Name, Erläuterung, Art (recherchierend, korrelativ, komparativ, experimentell-vollfaktoriell, experimentell-teilfaktoriell), Systematik (konfirmatorisch, explorativ, chaotisch-kreativ, deskriptiv, evaluatorisch, Skript, Algorithmus, Zufall), Messmethoden, Einwirkungsmethoden, Auswertungsmethoden, Aufwand/Kosten (zeitlich, finanziell, personell, materiell, ...), Aktivitätszeit (punktuell, permanent), Restriktionen (Zeitpunkt, Häufigkeit, ...), Quelle (intern, extern), Samplingprozedur, Variablen, Aktuatoren und Handlungsvorschrift/Befehlskette. Forschungsmethoden können auch vorrichtungsintern Verwendung finden, um bspw. Schlüsse für zukünftige Entscheidungen der Vorrichtung zu ziehen (beispielsweise Welche Forschungsmethodik hat sich wann wie bewährt? Welche Aktuatoren wirken wie zuverlässig? Ist es besser, jüngere und experimentell erhobene Daten höher zu gewichten als ältere und korrelativ erhobene Daten?).
    • Managementmethodendatenbank Die Managementmethodendatenbank beinhaltet Methoden, um das zentrale Ziel der Erfindung, nämlich die Eintrittswahrscheinlichkeit eines Interaktionsziels budgetkonform zu erhöhen, möglichst effizient und effektiv zu erreichen. Der Methodenkatalog umfasst unter anderem Methoden, um die Systembestandteile zu verwalten, zu steuern, zu kontrollieren und zu optimieren, um Eingaben entgegenzunehmen und Ausgaben zu generieren, um Daten einzusehen, Ziele zu definieren, Nutzungsrechte zuzuordnen, Parameter zu konfigurieren, Vorrichtungsprotokolle zu erstellen, Fehler zu behandeln, Budgets zu erfassen und effizient einzusetzen. Managementmethoden können unter anderem charakterisiert werden durch ID, Zeitstempel, Autor, Name, Erläuterung, Typ (Abhängig, unabhängig, interdependent, Statisch, dynamisch, statistisch, multivariat, stochastisch, Modellierung, Neuronales Netz, maschinelles Lernen, Künstliche Intelligenz, Big/Smart Data Analysetechniken, Data Science Ansätze, ...), Aufwand (zeitlich, finanziell, personell, materiell, ...), Aktivitätszeit (punktuell, permanent), Restriktionen (Zeitpunkt, Häufigkeit, ...) und Handlungsvorschrift/Befehlskette.
    • Kommunikationsmethodendatenbank Die Kommunikationsdatenbank beinhaltet Methoden, um mit anderen Interaktionspartnern zu kommunizieren. Kommunikationsmethoden können unter anderem charakterisiert werden durch ID, Zeitstempel, Autor, Name, Erläuterung, Format, Adressen, Zugangsdaten, Restriktionen.
    • Protokolldatenbank Die Protokolldatenbank beinhaltet alle protokollierten Ereignisse/Situationen. Ereignisse können unter anderem charakterisiert werden durch ID, Zeitstempel, Autor, Name, Erläuterung, Entitäten, Interaktion, Ziel, Variablen, Realitätsfokus (intern, extern), Messmethoden, Aktuatorenkonfiguration und Ergebnisse.
    • Wissensdatenbank In der Wissensdatenbank ist gespeichert, was das System über sich und die Welt weiß, beispielsweise was über die Beziehungen zwischen und die Rollen (Moderator, Mediator, ...) von Entitäten, Variablen und Aktuatoren bekannt ist, welche Handlungen welche Konsequenzen hatten, was Erfolge von Misserfolgen unterscheidet, welche Methoden wie gut funktionieren etc.. Wissen wird unter anderem charakterisiert durch ID, Zeitstempel, Autor, Name, Erläuterung, Art (Modell, Paradigma, deskriptives, internes, externes, Fakten, ...) Beteiligte, Ermittlung (korrelativ, kausal), Quelle (intern, extern), Durchschnittsalter, Kardinalität, Stärke und mathematischer Zusammenhang (linear, quadratisch, u-verteilt). Die Wissensdatenbank kann jederzeit Auskunft darüber geben, welchen Wert bestimmte Variablen aufweisen, welche Beziehungen zwischen Variablen bestehen und welche Rollen die Variablen dabei einnehmen.
    • Zieldatenbank Die Zieldatenbank dokumentiert, welche Ziele das System mit welchem Budget bis zu welchem Zeitpunkt für eine bestimmte Interaktion erreichen soll (das heißt, welche Variable(n) sich im Rahmen einer Interaktion wie ändern soll(en)), was ddas Verfahren unternommen hat, um diese Ziele zu erreichen und ob es damit Erfolg hatte. Ziele können unter anderem charakterisiert werden durch ID, Zeitstempel, Autor, Name, Erläuterung, Interaktion, Zielvariable, Art (Sollwert, Optimierung), Typ (absolut, relativ), Budgets für Aufzeichnung, Forschung und Zieleintrittswahrscheinlichkeit (beispielsweise zeitlich, finanziell, personell, materiell, ethisch), Startzeit, Zielzeit und Forschungsmethoden.
  • Die Recheneinheit kann folgende Einheiten umfassen:
    • Managementeinheit Die Managementeinheit sorgt dafür, dass das zentrale Ziel des Systems, nämlich die Eintrittswahrscheinlichkeit eines Interaktionsziels budgetkonform zu erhöhen, effizient und effektiv erreicht wird. Sie greift auf die in der Managementmethodendatenbank hinterlegten Methoden zurück und verwaltet, steuert und kontrolliert die Recheneinheiten und Datenbanken und fungiert als Interaktionspartnerschnittstelle. Über eine Ein- und Ausgabeeinheit nimmt sie Eingaben entgegen und ermöglicht Ausgaben. Sie erlaubt dem Interaktionspartner, die Vorrichtung zu konfigurieren, Daten einzusehen, Ziele zu definieren, Nutzungsrechte zuzuordnen, verschiedene Managementstrategien zu erstellen, zu laden, zu bearbeiten, zu speichern oder zu löschen, etc. Sie prüft und protokolliert die Arbeit der einzelnen Vorrichtungsbestandteile und sorgt dafür, dass sie mit den vorhandenen Budgets den größten Nutzen generieren. Sie beinhaltet außerdem Routinen zur Fehlerbehandlung und generiert mit Hilfe der Forschungseinheit interne Vorrichtungsparadigmen zur Selbstoptimierung/Vorrichtungsverbesserung. Hauptaufgabe der Managementeinheit ist es, im Zusammenspiel mit den anderen Vorrichtungsbestandteilen die Eintrittswahrscheinlichkeit des vom Nutzer definierten Ziels budgetkonform zu erhöhen.
    • Kognitionseinheit Die Kognitionseinheit generiert Wissen und Handlungsanweisungen, indem sie die in der Forschungsmethodenmethodendatenbank hinterlegten Methoden verwaltet und ausführt. Ihre Ergebnisse speichert sie in der Wissensdatenbank und generiert daraus wiederum Regeln für das Regelwerk.
    • Sensoreneinheit Die Sensoreneinheit erfasst Merkmalsausprägungen, indem sie die in einer Sensorendatenbank hinterlegten Methoden verwaltet und ausführt. Ihre Arbeit und Ergebnisse speichert sie in der Protokolldatenbank.
    • Aktuatoreneinheit Die Aktuatoreneinheit beeinflusst Merkmalsausprägungen, indem sie die in einer Aktuatorendatenbank hinterlegten Methoden verwaltet und ausführt. Ihre Arbeit protokolliert sie in der Protokolldatenbank.
    • Kommunikationseinheit Die Kommunikationseinheit ermöglicht den Austausch von Daten mit anderen Interaktionspartnern über die in der Kommunikationsmethodendatenbank hinterlegten Methoden. Im Gegensatz zu sensorischen, aktuatorischen oder kognitiven Maßnahmen, bei denen die entsprechenden Kompetenzen intern vorhanden, also Teil des Systems sind, liegen diese bei Kommunikationsvorgängen außerhalb des Systems. Beispiel: Temperaturmessung kann über interne Sensoren erfolgen oder aber über externe Sensoren, auf deren Ergebnisse dann mittels Kommunikationsmethoden zugegriffen wird.
    • Sensoren/Eingangsschnittstellen Sensoren umfassen die zur Erfassung von Merkmalsausprägungen notwendigen Messgeräte/Eingangsschnittstellen. Sie können unter anderem aktiver oder passiver, technischer oder sozio-technischer, digitaler oder virtueller Art sein.
    • Aktuatoren/Ausgangsschnittstellen Aktuatoren umfassen die zur Beeinflussung von Merkmalsauspärungen notwendigen Stellgeräte/Ausgangsschnittstellen. Sie können unter anderem aktiver oder passiver, technischer oder soziotechnisch, digitaler oder virtueller Art sein.
  • Es ist durchaus üblich, dass beispielsweise ein Call-Center-Mitarbeiter unterschiedliche Arten von Gesprächen zu führen hat, beispielsweise Verkaufsgespräche, die Annahme von Beschwerden oder technische Beratungsgespräche im Rahmen einer Support-Hotline. Im Fall der Annahme von Beschwerden könnte eine Optimierung des Klangs mit Parametern, die eine Maximierung des Eindrucks hervorrufen, dass der Gesprächspartner begeistert ist, möglicherweise nachteilig wirken, während diese Parameter in einem Verkaufsgespräch sehr wohl angebracht sein könnten. Andererseits wäre beispielsweise eine besänftigende Versicherung, dass man selbst auch mit solchen Problemen immer wieder zu kämpfen hat, vielleicht bei der Beschwerde-Hotline wohlangebracht, aber nicht unbedingt etwas, was dazu führt, dass man sich bei einer technischen Support-Hotline gut aufgehoben fühlt. Daher kann es vorteilhaft sein, wenn das Ziel der verschiedenen Gesprächsvarianten festgesetzt wird und die maschinelle Beeinflussung der Klangparameter daran angepasst werden kann, was beispielsweise durch eine entsprechende Strukturierung der Datenbank, die zur Bestimmung der idealen Parameter herangezogen wird, realisierbar ist.
  • Gemäß einer weiteren Ausbildung des Verfahrens werden die Audiosignale sofort oder zeitversetzt modifiziert. In der Regel ist man bestrebt, die Modifikation so schnell wie möglich umzusetzen, idealerweise in Echtzeit, da im Allgemeinen das Interaktionsziel mit einer höheren Wahrscheinlichkeit erreicht werden kann, je mehr Zeit hierzu zur Verfügung steht. Wenn beispielsweise der im Call-Center arbeitende Interaktionspartner zu leise spricht und der andere Interaktionspartner, in diesem Fall der Kunde, zu häufig nachfragen muss, verlängert sich die Zeitdauer des Gesprächs. Diese unerwünschte Verlängerung kann vermieden oder zumindest minimiert werden, wenn der Wert des Interaktionsparameters „Lautstärke“ erhöht wird, sobald festgestellt wird, dass der Wert zu niedrig ist und zu häufigen Nachfragen seitens des Kunden führt. Je eher die Modifikation durchgeführt wird, desto höher ist die Wahrscheinlichkeit, das Interaktionsziel „kurze Gesprächsdauer“ zu erreichen. Es kann aber durchaus gewünscht sein, eine Modifikation des Audiosignals zeitversetzt durchzuführen. Beispielsweise kann es für den Kunden als besonders angenehm empfunden werden, wenn die Lautstärke, mit welcher der im Call-Center arbeitende Interaktionspartner spricht, am Ende des Gesprächs erhöht wird. Wird festgestellt, dass am Anfang und der Mitte des Gesprächs der Wert des Interaktionsparameters „Lautstärke“ in Ordnung ist und daher nicht modifiziert werden muss, kann dieser Wert zeitversetzt modifiziert werden und zwar so, dass die Lautstärke am Ende des Gesprächs erhöht wird. Um zu erkennen, dass das Gespräch dem Ende entgegen geht, können z. B. die durchschnittliche Gesprächsdauer und/oder die Erwähnung von entsprechenden Signalwörtern verwendet werden.
  • In den meisten Fällen wird der Interaktionspartner, der das vorschlagsgemäße Verfahren anwendet, das Interaktionsziel selbst definieren, allerdings ist es auch möglich, dass er selbst keinen Einfluss auf die Definition des Interaktionsziels hat. So ist es beispielsweise möglich, dass das Interaktionsziel in der Datenbank und je nach Situationsbewertung maschinell ausgewählt wird. Zum Beispiel kann festgelegt sein, dass bei einer durchschnittlichen Warteschleifendauer eines Hotline-Anrufers von unter 1 Minute die Zielstellung lautet „Kunden zufrieden stellen“, darüber hinaus aber zunächst „Warteschleifendauer unter 1 Minute bringen“. Jedoch muss das Ziel zumindest einmal definiert werden, was beispielsweise ein anderer Interaktionspartner, beispielsweise die Geschäftsleitung eines Betriebs, tun kann. Die Recheneinheit kann Algorithmen aufweisen, um das Ziel an die jeweilige Interaktion anzupassen.
  • Wenn der Interaktionspartner das Ziel selbst definieren kann, kann er das Ziel mittels einer Eingabeeinheit (beispielsweise Tastatur, Touchscreen) eingeben. Zur Erfassung des Ziels können auch Sensoren (beispielsweise ein Mikrofon zwecks Sprachsteuerung) zum Einsatz kommen. Diese Sensoren können mit einer Recheneinheit verbunden sein, welche die für eine bestimmte Interaktion zu erreichenden Ziele in einer Datenbank speichert.
  • Nach einer weiteren Ausführungsform umfasst das Ausführen der maschinell bestimmten Schritte zur zeitversetzten Modifikation der Audiosignale eine Ausgabe einer verbalen oder non-verbalen Aufforderung an den die akustischen Interaktionsparameter erzeugenden Interaktionspartner und/oder die Änderung der Umgebungsbedingungen in der Umgebung des die akustischen Interaktionsparameter erzeugenden Interaktionspartners durch Ansteuerung von Aktuatoren.
  • Eine verbale Aufforderung kann beispielsweise als ein Textblock ausgebildet sein, der auf dem Bildschirm des im Call-Center arbeitenden Interaktionspartners erscheint. Diese Aufforderung kann beispielsweise lauten, lauter und/oder langsamer zu sprechen. Hierbei kann eine gewisse Zeit vergehen, bis der betreffende Interaktionspartner dieser Aufforderung nachkommt. Insofern handelt es sich um eine zeitversetzte Modifikation des Werts des Interaktionsparameters „Lautstärke“. Die Änderung der Umgebungsbedingungen in der Umgebung des die akustischen Interaktionsparameter erzeugenden Interaktionspartners wird sich in der Regel auch erst zeitversetzt auf die Modifikation des Audiosignals auswirken. Wenn ein zu hohes Hintergrundgeräusch festgestellt wird und daraufhin die Fenster geschlossen werden, ist der Zeitversatz relativ gering. Wenn aber die Stimme des betreffenden Interaktionspartners infolge einer zu geringen Luftfeuchtigkeit als zu heiser empfunden wird, wird die Erhöhung der Luftfeuchtigkeit im Raum, wo sich der betreffende Interaktionspartner aufhält, beispielsweise durch Einspritzen von Wassertropfen erst allmählich die Heiserkeit reduzieren. Insofern lassen sich einige Interaktionsparameter nur mit einer gewissen Trägheit und folglich zeitversetzt modifizieren.
  • Gemäß einer weiteren Ausführungsform kann das Verfahren folgende Schritte umfassen:
    • - Definieren eines Budgets oder mehrerer Budgetmerkmalsausprägungen, und
    • - Generieren von Handlungsanweisungen zum Erhöhen der Eintrittswahrscheinlichkeit des definierten Ziels unter Berücksichtigung des definierten Budgets.
  • Ein Budget kann unter anderem zeitliche, finanzielle, personelle, materielle, rechtliche und/oder ethische Vorgaben/Restriktionen haben. In den wenigsten Fällen kann das definierte Ziel mit unbegrenzten Ressourcen erreicht werden. Wenn beispielsweise, wie eingangs erwähnt, ein Unternehmen den Umsatz eines Produkts steigern will, hat das Unternehmen nur eine begrenzte Anzahl von Mitarbeitern zur Verfügung, um dieses Ziel zu erreichen. Weiterhin kann es notwendig sein, dass die Handlungsanweisungen innerhalb einer bestimmten Zeit bereits die Eintrittswahrscheinlichkeit eines Ziels steigern müssen, da man beispielsweise bei einem Verkaufsgespräch mit einem Kunden nur eine bestimmte Zeit zur Verfügung hat. Die ethischen Vorgaben/Restriktionen können den Handlungsanweisungen, die zum Erhöhen der Eintrittswahrscheinlichkeit generiert werden, Grenzen setzen. Wenn ein Mitarbeiter trotz erkrankter Stimme weitertelefonieren will, könnten Handlungsanweisungen, er solle statt der notwendigen Ruhe einfach bestimmte Substanzen einnehmen, außerhalb des ethischen Budgets liegen.
  • Bei einer weiteren Ausführungsform kann das Verfahren folgende Schritte umfassen:
    • - Erfassen nach Abschluss einer Interaktion, ob das Interaktionsziel erreicht wurde oder nicht, und
    • - Hinterlegen des Interaktionsprozesses, seines Verlaufs und seiner Ergebnisse in der Datenbank.
  • In dieser Ausführungsform des Verfahrens wird nach Abschluss einer Interaktion, an dem mindestens ein Interaktionspartner, üblicherweise aber mindestens zwei Interaktionspartner teilgenommen haben, erfasst, ob das Interaktionsziel erreicht worden ist oder nicht. Diese Erfassung kann erneut durch technische oder sozio-technische Sensoren erfolgen. Die Ergebnisse werden in der Datenbank hinterlegt, so dass mit jeder abgeschlossener Interaktion mehr Informationen vorliegen, bei welchen Interaktionen und welchen Zuständen der Interaktionspartner sowie des Mikroumfelds und des Makroumfelds der Interaktionspartner das definierte Ziel erreicht worden ist oder nicht. Dies kann beispielsweise dadurch erfolgen, dass im Falle des Interaktionsziels „Kunde gibt positive Bewertung ab“ ein Kunde nach Abschluss eines Telefonats mit einem Telefonmitarbeiter per Telefontastatur angibt, ob er zufrieden ist oder nicht. Bei elektronischen Verkaufssystemen wird häufig automatisch erfasst, ob ein Verkauf zustande gekommen ist, so dass diese Information direkt über Schnittstellen/Sensoren erfasst werden kann und dann als Zielerreichungsinformation dem Verfahren zur Verfügung steht.
  • Eine weitere vorteilhafte Ausführungsform des Verfahrens sieht vor, dass mindestens ein mathematischer Zusammenhang zwischen einem akustischen Interaktionsparameter und/oder einem Merkmal der beteiligten Interaktionspartner und/oder einer Umgebungsbedingung einerseits und dem Erreichen des Interaktionsziels anderseits ermittelt und in einer Datenbank hinterlegt wird. Auf diese Weise kann die Datenbank verbessert werden und es wird möglich, automatisierte Forschungsmethoden (beispielsweise randomisierte Experimente) zu Relevanz und Kausalität der einzelnen durch Analyse der Merkmalsausprägungen ermittelten Interaktionsparameter auf das Interaktionsziel durchzuführen, um Hypothesen experimentell zu testen.
  • Bei einer weiteren Ausführungsform kann das Verfahren folgende Schritte umfassen:
    • - Maschinelle Analyse der verfügbaren Daten abgeschlossener Interaktionen zur Auffindung mathematischer Zusammenhänge zwischen Interaktionsparametern (Merkmale der Interaktionssignale und/oder Interaktionspartner und/oder ihres Umfelds) und Zielerreichungen bzw. Zieleintrittswahrscheinlichkeiten, und
    • - Hinterlegung der Analyseergebnisse einschließlich mathematischer Kennzahlen (Irrtumswahrscheinlichkeit, Zusammenhangsmaß, Modelltyp, Sensibilität, Spezifizität etc.) sowie Informationen zu den Analysen selbst (Startzeitpunkt, Endzeitpunt, Methodik, etc.) in einer Datenbank.
  • In dieser Ausführungsform des Verfahrens werden die verfügbaren Daten abgeschlossener Interaktionen mittels einer Kognitionseinheit regelmäßig maschinellen Analysen unterzogen, um herauszufinden, welche Interaktionsparameter in welcher Kombination und mit welchen Werten in Zusammenhang mit den Eintrittswahrscheinlichkeiten bestimmter Interaktionsziele stehen.
  • Hierbei können sämtliche entsprechende fachbekannte Verfahren, wie z. B. Skalenniveau-Ermittlung, Datenbereinigung, Sensorbündelung, Variablengenerierung, deterministische Algorithmen, Regelwerke, (multivariate) statistische Verfahren, stochastische Verfahren, maschinelles Lernen, künstliche Neuronale Netze, Data Mining, Deep Learning, Support Vector Machines, Entscheidungsbäume, Bayes'sche Netzte, Supervised Learning, Unsupervised Learning, Reinforcement Learning, Logit Boost, Random Forest, PCA, MDS, Regression, ANOVA, Clustering etc., zum Einsatz kommen.
  • Die Kognitionseinheit ermittelt also über mathematische Verfahren, mit welchen Situationsparametern die Erreichung des Interaktionsziels in Zusammenhang steht und generiert entsprechende mathematische Modelle. Im nächsten Schritt ermittelt sie, auf welche dieser zielrelevanten Situationsparameter sie mittels aktuatorischer oder Interaktionspartnerbezogener Handlungsanweisungen Einfluss nehmen kann und aktiviert unter Berücksichtigung der jeweiligen Situation entsprechende Handlungsanweisungen zur Erhöhung der Zieleintrittswahrscheinlichkeit, fakultativ auch in Form eines randomisierten Experiments, um Kausalität und Effektivität der Handlungsanweisungen empirisch zu prüfen.
  • Bei einer weiteren Ausführungsform kann das Verfahren folgende Schritte umfassen:
    • - Durchführung randomisierter Experimente, um maschinell ermittelte oder von Interaktionspartnern definierte Zusammenhänge zwischen Interaktionsparametern und Interaktionszielerreichungswahrscheinlichkeiten auf Kausalität zu prüfen, und
    • - Hinterlegung der Ergebnisse einschließlich mathematischer Kennzahlen sowie Informationen zu den Experimenten selbst (Startzeitpunkt, Endzeitpunt, Methodik, etc.) in einer Datenbank.
  • In dieser Ausführungsform des Verfahrens werden die maschinell ermittelten oder von Interaktionspartnern definierten Zusammenhänge in randomisierten Experimenten auf Kausalität geprüft. Ihre Ergebnisse fließen bei der Ermittlung maschineller Schritte zur Modifikation von Interaktionen ein.
  • Hierzu folgendes Beispiel: Mittels einer oder mehrerer der oben benannten Verfahren wird erkannt, dass das Erreichen des Interaktionsziels bei Anrufern mit ausländischer Rufnummer u. a. in Zusammenhang mit dem Pegel des Audiosignals steht. Befindet sich dieser im Bereich von -20 und -5 dB, ist die Zieleintrittswahrscheinlichkeit höher, als wenn sich der Pegel außerhalb dieses Wertebereichs befindet. Da das System über Aktuatoren den Pegel beeinflussen kann, kann nun jeder Anrufer mit ausländischer Rufnummer randomisiert einer Kontrollgruppe (in der keine Pegelveränderung stattfindet) oder einer Testgruppe (in der zu niedrige Pegel erhöht und zu hohe Pegel verringert werden, so dass sie im Bereich von -20 und -5 dB liegen) zugewiesen werden. Dieses randomisierte Experiment kann dann so lange fortgesetzt werden, bis - nach einer evtl. vorab definierten Maximalanzahl von Interaktionen - ein bestimmtes Ergebnis eingetreten ist (Signifikanz, Effektstärke, Sensibilität, Spezifizität, ...). Sollte also nach beispielsweise 3.500 Interaktionen die Testgruppe mit 13% höheren Verkaufsabschlüssen signifikant über dem Ergebnis der Kontrollgruppe liegen, kann das System fortan für alle Gespräche mit ausländischer Rufnummer die entsprechende Pegeloptimierung aktivieren.
  • Die Ergebnisse der Analysen und/oder Bewertungen und/oder Modifikationsschritte können über Ausgabe- oder Kommunikationsmittel ausgewählten Interaktionspartnern mitgeteilt werden, so dass diese den Effekt des Verfahrens nachvollziehen und aufgrund dessen fundiert entscheiden können, ob sich dessen Einsatz aus ihrer Sicht gelohnt hat.
  • Das erfindungsgemäße Computerprogrammprodukt enthält eine auf einem maschinenlesbaren Träger gespeicherte Befehlsfolge zum Durchführen des erfindungsgemäßen Verfahrens, wenn das Computerprogrammprodukt auf einer Recheneinheit abläuft. Diese Ausgestaltung der Erfindung betrifft also eine Befehlsfolge in Form eines Computerprogramms zum Ausführen eines Verfahrens nach einer der vorherigen Ausführungsformen.
  • Das erfindungsgemäße System zur Durchführung eines erfindungsgemäßen Verfahrens weist auf:
    • - einen Schallwandler und/oder einen Klangerzeuger zum Erzeugen eines oder mehrerer Audiosignale basierend auf akustischen Interaktionssignalen, die von mindestens einem Interaktionspartner erzeugt werden,
    • - eine Recheneinheit, mit einer darauf gespeicherten Software zur maschinellen Analyse und maschinellen Bewertung der Audiosignale hinsichtlich des Interaktionsziels, zum maschinellen Bestimmen von Schritten zum Modifizieren des Audiosignals hinsichtlich des Interaktionsziels und zum Ausführen der maschinell bestimmten Schritte zum Modifizieren der Audiosignale,
    • - eine erste Einheit zur Weiterleitung der erzeugten Audiosignale an eine zweite Einheit und zum Empfang der modifizierten Audiosignale von der zweiten Einheit,
    • - wobei die erste Einheit einen Ausgang zum Weiterleiten eines weiterzuleitenden Audiosignals an einen Interaktionspartner aufweist und wobei die erste Einheit ferner eine Schaltung aufweist, die einen Wechsel des weiterzuleitenden Audiosignals zwischen dem erzeugten Audiosignal und einem modifizierten Audiosignal ermöglicht,
    • - und wobei die zweite Einheit als Steuer- und Audiosignalweiterleitungszentrale der ersten Einheit ausgestaltet ist.
  • Die technischen Effekte und Vorteile, die sich mit dem vorschlagsgemäßen Computerprogrammprodukt sowie mit dem vorschlagsgemäßen System erreichen lassen, entsprechen denjenigen, die für das vorliegende Verfahren erörtert worden sind.
  • Damit das vorschlagsgemäße Verfahren durchgeführt werden kann, müssen die Audiosignale in elektrischer Form vorliegen, insbesondere digital oder analog. Beispielsweise bei einem menschlichen Interaktionspartner werden die von ihm erzeugten akustischen Interaktionssignale mittels eines Schallwandlers in die elektrischen Audiosignale umgewandelt. In diesem Fall kann beispielsweise ein Mikrofon verwendet werden. Sinngemäß kann dies auch unter anderem bei einem klassischen Musikinstrument der Fall sein, wo der Schallwandler als ein Tonabnehmer ausgebildet ist. Bei elektrischen Keyboards hingegen werden die Töne, welche die Interaktionssignale darstellen, bereits digital erzeugt, so dass dann kein Schallwandler erforderlich ist. In diesem Fall erzeugt der Interaktionspartner direkt die Audiosignale, so dass der Interaktionspartner gleichzeitig auch der Klangerzeuger ist.
  • In einer vorteilhaften Weiterbildung des Systems umfasst dieses ferner Umgebungssensoren zum Erfassen von Umgebungsbedingungen in der Umgebung des die akustischen Interaktionsparameter erzeugenden Interaktionspartners, wobei die Recheneinheit mit den Umgebungssensoren in Signalkommunikation zum Verarbeiten der Umgebungssensorsignale steht, mindestens eine mit der Recheneinheit kommunizierende Datenbank, auf welcher auf ein Interaktionsziel, und/oder eine Interaktion und/oder auf die Interaktionspartner oder auf das Mikroumfeld der Interaktionspartner bezogene weitere Zustände hinterlegt sind, wobei die Recheneinheit programmiert und eingerichtet ist, um die Sensorsignale unter Verwendung von Informationen aus der Datenbank bei der maschinellen Bewertung des Audiosignals unter Verwendung der Ergebnisse der Analyse des Audiosignals, und/oder beim maschinellen Bestimmen von Schritten zur sofortigen und/oder künftigen Modifikation des Audiosignals zu berücksichtigen.
  • In einer Variante dieser Weiterbildung des Systems sind die Umgebungssensoren unter anderem dazu ausgebildet, den Zustand des Mikroumfeld der Interaktionspartner hinsichtlich der Position, der Temperatur, der Helligkeit, der Luftfeuchtigkeit, der Luftqualität, des Luftdrucks, der Pollenbelastung, des Lärmpegels, der Bewegung und/oder der UV-Einstrahlung zu erfassen. Die angegebenen Ausbildungen sind nicht abschließend. In den verschiedenen Ausbildungen können die Sensoren ein GPS-Modul, ein Thermometer, einen Helligkeitssensor, ein Hygrometer, einen Luftqualitätssensor, ein Barometer, ein Mikrofon, einen Bewegungssensor, ein Strahlungsmessgerät, eine Bilderkennung, Magnetometer, Abstandsmessgerät, ein Berührungssensor etc. umfassen. Mit diesen Sensoren kann der Zustand des Mikroumfelds der Interaktionspartner erfasst und quantifiziert werden. Je mehr unterschiedliche Parameter erfasst werden, desto genauer kann der Zustand des Mikroumfelds der Interaktionspartner definiert werden.
  • In einer anderen, alternativ oder kumulativ realisierbaren Variante sind die Umgebungssensoren dazu ausgebildet, den Zustand des Interaktionspartners unter anderem hinsichtlich des Blutdrucks, des Pulses, des Hautwiderstands, der Hauttemperatur, der Bewegung, der Stimmlage, der Sprechgeschwindigkeit, des aktuellen Arbeitsstatus, und/oder der Sitzhaltung zu erfassen, wobei diese Aufzählung nicht abschließend zu verstehen ist. In dieser Ausbildung können sogenannte „Wearables“ zum Einsatz kommen, welche den Blutdruck, den Puls, den Hautwiderstand, die Hauttemperatur und die Bewegung des Interaktionspartners erfassen und quantifizieren können. Die Stimmlage und die Sprechgeschwindigkeit können beispielsweise mit einem Mikrofon bestimmt werden. Mit modernen Bürostühlen kann die Sitzhaltung bestimmt werden. Je mehr unterschiedliche Parameter erfasst werden, desto genauer kann der Zustand des Interaktionspartners definiert werden.
  • Eine weitere Weiterbildung des Systems sieht vor, dass das System ferner eine Anzahl von Aktuatoren zum Herbeiführen einer zeitversetzten Modifikation des Audiosignals umfasst, wobei die Aktuatoren durch die Recheneinheit und/oder die zweite Einheit angesteuert werden. Die Aktuatoren können dazu ausgebildet sein, auf den Zustand des Mikroumfeld des Interaktionspartners unter anderem hinsichtlich der Position, der Temperatur, der Helligkeit, der Luftfeuchtigkeit, der Luftqualität, des Luftdrucks, der Pollenbelastung, des Lärmpegels, der Bewegung und/oder der UV-Einstrahlung einzuwirken. Es bietet sich an, insbesondere die Parameter zum Charakterisieren eines Zustands zu ermitteln, die auch von den entsprechend eingerichteten Aktuatoren im Mikroumfeld des Interaktionspartners verändert werden können. Beispielsweise können die Temperatur, die Luftfeuchtigkeit, die Luftqualität, der Luftdruck und die Pollenbelastung mit einer Klimaanlage beeinflusst werden.
  • Alternativ oder zusätzlich kann das System ferner eine Anzahl von Aktuatoren zum Herbeiführen einer künftigen Modifikation des Audiosignals umfassen, wobei die Aktuatoren durch die Recheneinheit und/oder die zweite Einheit (10b) angesteuert werden und dazu ausgebildet sind, unter anderem auf den Zustand des Interaktionspartners hinsichtlich des Blutdrucks, des Pulses, des Hautwiderstands, der Hauttemperatur, der Bewegung, der Stimmlage, der Sprechgeschwindigkeit und/oder der Sitzhaltung einzuwirken. Der Blutdruck, der Puls und der Hautwiderstand können beispielsweise mittels einer beruhigenden Hintergrundmusik zielführend beeinflusst werden. Die Stimmlage und die Sprechgeschwindigkeit können mittels Klangmanipulators verändert werden. Hat einer der Gesprächspartner eine Hörschwäche in einem bestimmten Frequenzbereich, kann diese mittels des Klangmanipulators berücksichtigt werden, wodurch seltener nachgefragt werden muss.
  • In einer anderen Weiterbildung der Erfindung ist vorgesehen, dass die Recheneinheit mit einer Anzahl weiterer Datenbanken und/oder weiterer Sensoren kommuniziert, mit welchen der Zustand eines Makroumfelds des Interaktionspartners erfassbar ist. Auch das Makroumfeld kann einen Einfluss auf die Eintrittswahrscheinlichkeit des definierten Ziels haben. Will der Interaktionspartner beispielsweise einen Kunden wegen eines Verkaufsgesprächs anrufen, und stellt die Datenbank fest, dass am Ort des Kunden und/oder am Ort des Interaktionspartners extreme Wetterbedingungen herrschen, kann auch der Zustand des Makroumfelds zu einer Verringerung der Eintrittswahrscheinlichkeit führen. Im Gegensatz zum Mikroumfeld kann der Zustand des Makroumfelds in der Regel nicht von den Aktuatoren verändert werden, so dass in diesem Fall die Handlungsanweisung gegeben werden könnte, ein geplantes Telefonat zu einem späteren Zeitpunkt durchzuführen. Es kann automatisch eine Nachricht bezüglich der Terminverschiebung über ein Email-System verschickt werden. Alternativ oder zusätzlich zum Zugriff auf die weiteren Datenbanken kann die Recheneinheit auch direkt auf die weiteren Sensoren zugreifen, um den Zustand des Makroumfelds zu erfassen.
  • Vorzugsweise weist das System eine Ausgabeeinheit zum Anzeigen und/oder Ausgeben von Interaktionspartnerbezogenen Handlungsanweisungen an den Interaktionspartner auf.
  • Wie bereits erörtert, werden die Interaktionspartnerbezogenen Handlungsanweisungen nicht von technischen Aktuatoren umgesetzt, sondern richten sich direkt an den Interaktionspartner, der somit als sozio-technischer Aktuator fungiert. Mittels der Ausgabeeinheit können die Interaktionspartnerbezogenen Handlungsanweisungen dem Interaktionspartner angezeigt werden, beispielsweise mittels einer Textnachricht. Weiterhin können die Interaktionspartnerbezogenen Handlungsanweisungen auch in Form einer Sprachnachricht oder eines Tonsignals ausgegeben werden.
  • Eine weitergebildete Ausbildung ist dadurch gekennzeichnet, dass die Software ein Überprüfungsmittel zum Überprüfen, ob der Interaktionspartner die Interaktionspartnerbezogenen Handlungsanweisungen befolgt hat, aufweist. Grundsätzlich kann dieser die Interaktionspartnerbezogenen Handlungsanweisungen ignorieren. Mit dem Überprüfungsmittel wird überprüft und gespeichert, ob der Interaktionspartner die Interaktionspartnerbezogenen Handlungsanweisungen befolgt oder nicht. Für den Fall, dass dies (nicht) der Fall sein sollte, werden Signale erzeugt, die den Interaktionspartner auf die (Nicht-)Befolgung der Interaktionspartnerbezogenen Handlungsanweisungen hinweisen. Hierzu kann eine entsprechende Textmitteilung über die Ausgabeeinheit angezeigt werden. Die Ausgabeeinheit kann zudem einen Lautsprecher oder auch eine LED-Indikatorleiste umfassen, welche die Farbe entsprechend ändert oder beginnt zu blinken. Auch die Ausgabe von haptischen Signalen ist möglich.
  • Eine weitere Ausbildung der Erfindung betrifft eine Vorrichtung zum Durchführen eines Verfahrens nach einem der zuvor diskutierten Ausgestaltungen, wobei die Vorrichtung eine oder mehrere Komponenten des Systems nach einem der erwähnten Ausführungsformen umfasst und Kommunikationsmittel aufweist, mit denen die in der Vorrichtung angeordneten Komponenten mit den übrigen Komponenten des Systems verbindbar oder verbunden sind. Eine wählbare Anzahl von Komponenten des Systems können in einer Vorrichtung zusammengefasst werden, die räumlich getrennt von den übrigen Komponenten des Systems angeordnet werden kann. Es ist beispielsweise möglich, die Vorrichtung so zu gestalten, dass sie nur die nötigsten Komponenten beinhaltet, die es ermöglichen, die einem oder mehreren Interaktionsparametern entsprechenden Audiosignale zu erzeugen. Die Vorrichtung kann klein ausgebildet sein, so dass sie dort, wo sie aufgestellt wird, wenig Platz einnimmt. Zudem können Komponenten, die sich negativ auf das Interaktionsziel auswirken können, beispielsweise, weil sie störende Geräusche oder Wärme erzeugen, dort angeordnet werden, wo sie keinen Einfluss auf den Interaktionspartner haben.
  • Beispielhafte Ausführungsformen der Erfindung werden im Folgenden unter Bezugnahme auf die beigefügten Figuren näher erläutert. Es zeigt:
    • 1: ein System zur Durchführung des erfindungsgemäßen Verfahrens,
    • 2: eine erste Variante des Aufbaus einer ersten Einheit des Systems aus 1,
    • 3: eine zweite Variante des Aufbaus einer ersten Einheit des Systems aus 1,
    • 4: eine erste Variante des Aufbaus einer zweiten Einheit aus 1,
    • 5: eine zweite Variante des Aufbaus einer zweiten Einheit aus 1, und
    • 6: ein schematisches Ablaufdiagramm einer Ausführungsform des Verfahrens.
  • In den 1 bis 5 dargestellte Verbindungslinien sind gemäß den folgenden Konventionen gestaltet:
    • • Mit Pfeilen versehene Linien geben die Flussrichtung des Audiosignals an. Dabei ist das originale Audiosignal gestrichelt dargestellt, während eine durchgezogene Linie ein verarbeitetes Audiosignal darstellt, das gegebenenfalls modifiziert ist, aber, falls keine sofortige Modifikation als notwendig ermittelt wurde, gegebenenfalls auch noch mit dem originalen Audiosignal übereinstimmen kann.
    • • Durchgezogene Linien ohne Pfeil zeigen an, dass die miteinander durch diese Linien verbundenen Komponenten in Signalkommunikation stehen und Steuer-, Regel- und/oder Interaktionssignale zwischen ihnen übermittelt oder ausgetauscht werden.
    • • Gepunktet dargestellte Linien werden verwendet, wenn Bezugszeichen einem Objekt zugeordnet werden müssen.
  • In 1 ist ein System 09 zur Modifikation eines akustischen Interaktionsparameters, welcher ein Interaktionssignal definiert, das von einem Interaktionspartner 02 erzeugt wurde, dargestellt, wobei ein Wert des Interaktionsparameters hinsichtlich eines Interaktionsziels hin modifiziert wird. Hierbei ist eine erste Einheit 10a an einem Arbeitsplatz 01 eines Interaktionspartners 02 installiert. Die erste Einheit 10a, welche weiter unten detaillierter beschrieben wird, befindet sich dabei im Audiosignalweg zwischen einem Schallwandler oder Klangerzeuger 14 zum Erzeugen eines Audiosignals (beispielsweise ein Headset) aus vom Interaktionspartner 02 hervorgebrachten Klängen und einem auditiven Arbeitsgerät 03 (beispielsweise Telefoniegerät).
  • Das originale Audiosignal des Interaktionspartners 02 wird über den Schallwandler 14 erfasst, jedoch - im Gegensatz zur Situation ohne die vorliegende Erfindung - nicht direkt an das auditive Arbeitsgerät 03 weitergeleitet, sondern zunächst an die erste Einheit 10a. Von dort wird das Audiosignal über die zweite Einheit 10b, die weiter unten noch detailliert beschrieben wird, und ein Audio-Computerinterface 12, das in einer anderen Ausführungsform auch in die zweite Einheit 10b integriert sein kann, in die Recheneinheit 13 geführt.
  • Durch die Recheneinheit 13, die in einer anderen Ausführungsform auch in die zweite Einheit 10b integriert sein kann, wird das Audiosignal mittels Software 71 analysiert, bewertet - beispielsweise durch Vergleich von bei der Analyse ermittelten Parametern mit in einer Datenbank für ein gegebenes Ziel als Soll-Parameter hinterlegten Werten - und gegebenenfalls, falls die Bewertung zu dem Ergebnis führt, dass Maßnahmen für die sofortige Modifikation des Audiosignals notwendig sind, zielgerichtet modifiziert und anschließend von der Recheneinheit 13 über das Audio-Computerinterface 12 und die zweite Einheit 10b wieder an die erste Einheit 10a zurückgeleitet, von wo es dann schließlich an das auditive Arbeitsgerät 03 übermittelt wird. Anzumerken ist dabei, dass die zielgerichtete Modifikation auch teilweise oder vollständig erst im Computerinterface 12 vorgenommen werden kann, das dann die entsprechenden Befehle und Parameter von der Recheneinheit 13 erhält.
  • Von dem Arbeitsgerät 03 wird das gegebenenfalls modifizierte Audiosignal dann, in diesem Beispiel über ein Zentralsystem für auditive Arbeitsgeräte 06 (beispielsweise Telefonanlage, Mischpult, Streaming-System, Lautsprechermanagementsystem) weiter zum Interaktionspartner 17 geleitet, d.h. dessen Endgerät, das aus dem gegebenenfalls modifizierten Audiosignal wieder das akustische Signal erzeugt, das der Kunde wahrnimmt.
  • In die Bewertung des Audiosignals durch die Recheneinheit 13 können auch Daten von Sensoren 15 eingehen, mit denen die Recheneinheit 13 in direkter Signalkommunikation oder in indirekter Signalkommunikation, die insbesondere über die zweite Einheit 10b erfolgen kann, steht. Diese können beispielsweise Daten zu Umgebungsbedingungen, denen der Interaktionspartner ausgesetzt ist, sein, beispielsweise Daten eines Temperatur- oder Luftfeuchtigkeitssensors oder das Signal eines Umgebungsmikrophons, und/oder Daten, die physiologische Zustände des Interaktionspartners repräsentieren und die beispielsweise mit einem Wearable oder einer Smartwatch erhoben werden können.
  • Bei bidirektionalem Audioweg kann die Modifikation nicht nur für Audiosignale vorgenommen werden, die vom Schallwandler 14 zum Interaktionspartner 17 geführt werden, sondern auch für solche, die den umgekehrten Weg nehmen. Dies kann es außerdem ermöglichen, Analysedaten zu gewinnen, die den Zustand des anderen Interaktionspartners (z. B. Kunden) repräsentieren und dazu führen, dass die in die Bewertung und Modifikation des Audiosignals einfließenden angestrebten Werte an diesen angepasst werden können.
  • Die Recheneinheit 13 kann über Schnittstellen mit dem Zentralsystem 06 für auditive Arbeitsgeräte (beispielsweise Telefonanlage), dem Zentralsystem 07 für visuelle Arbeitsgeräte (beispielsweise Netzwerkserver, IT-Administration) sowie dem CRM-System 08 (beispielsweise Buchungssystem) kommunizieren und somit ermitteln, welche Situationsmerkmale mit welchen Zielerreichungswahrscheinlichkeiten in Zusammenhang stehen.
  • Darüber hinaus kann die Recheneinheit 13 über Schnittstellen mit dem visuellen Arbeitsgerät 04 (beispielsweise Computer, Tablet, Fernseher, Smartphone) von 02 kommunizieren und somit über visuelle Anweisungen, die auf dem visuellen Arbeitsgerät 04 wiedergegeben werden und dadurch dem Interaktionspartner 02 zur Kenntnis gebracht werden, zukünftige Audiomodifikationen dadurch erreichen, dass dieser sein akustisches Signal, das von der Klangquelle 14 in das Audiosignal umgewandelt wird, entsprechend anpasst, z.B. indem er langsamer oder lebhafter spricht.
  • Noch eine andere Möglichkeit dazu, mittels der Recheneinheit 13 zukünftige Audiomodifikationen zu erreichen, falls dies durch die Bewertung des Audiosignals veranlasst ist, wird dadurch geschaffen, dass die Recheneinheit 13 über Schnittstellen oder über die zweite Einheit 10b mit Umgebungsgeräten 05 in der Umgebung des Interaktionspartners, beispielsweise Heizung, Lüftung, Klimaanlage, Beleuchtung, in Signalkommunikation steht und diese, beispielsweise mittels „smart home“- oder „smart office“-Technik, beeinflusst, um dadurch das akustische Signal, das der Interaktionspartner 02 generiert, zu beeinflussen.
  • Noch weiter existiert eine Schnittstelle zu externen Netzwerken 18 (beispielsweise Internet), um darüber weiterführende Informationen (beispielsweise über den Empfänger oder die Umweltbedingungen am Empfangsort) beziehen oder Daten mit Systembestandteilen der vorliegenden Erfindung an anderen Standorten auszutauschen - beispielsweise einer nur dort verfügbaren zusätzlichen Datenbank.
  • Auch die zweite Einheit 10b kann visuelle Anweisungen an den Interaktionspartner 02 über das visuelle Arbeitsgerät 04 ausgeben und über Schnittstellen mit kompatiblen Geräten kommunizieren, insbesondere mit Sensoren 15, die Parameter des Interaktionspartners 02 oder von dessen Umgebung am Arbeitsplatz 01 erfassen und mit Umgebungsgeräten 05 wie Beleuchtung, Belüftung, Heizung, Klimaanlage o.ä.. Die im Rahmen dieser Kommunikation abgerufenen Daten oder abgesandten Anweisungen können dabei von der Recheneinheit 13 verwendet oder erstellt werden; die zweite Einheit 10b kann diese Aufgaben aber unter Umständen auch unabhängig erledigen.
  • Insbesondere kann die Vorrichtung mit den Komponenten erste Einheit 10a und zweite Einheit 10b so ausgelegt werden, dass die Audiosignale mehrerer Interaktionspartner analysierbar und modifizierbar sind, ohne dass hierfür mehrere Recheneinheiten 13 notwendig wären. Außerdem können Bestandteile der Vorrichtung (beispielsweise Ein- und Ausgänge oder Stromversorgung) mehrfach ausgeführt sein, um bei Ausfall eines Bestandteils die Funktionsfähigkeit der Vorrichtung weiterhin zu gewährleisten.
  • Ein Ausführungsbeispiel für das System gemäß 1 weist eine erste Einheit 10a, wie sie in 2 dargestellt ist, und eine zweite Einheit 10b, wie sie in 5 dargestellt ist, auf. Beide Geräte weisen ein Gehäuse 20 auf, in welchem mindestens eine Elektronikplatine 23 angeordnet ist, sie können aber auch in einem gemeinsamen Gehäuse angeordnet werden. Auf dieser Elektronikplatine 23 befinden sich in der jeweils dargestellten Verteilung zwischen den beiden Geräten direkt oder indirekt elektrisch leitend - z.B. mittels Kabeln - verbundene Anschlüsse 24 und 25, die mindestens ein bidirektionales Eingangs- und ein Ausgangssignal sowie Steuer-, Regel- Interaktions- oder Kommunikationssignale übertragen können. Die Elektronikplatine stellt die Fixierung, Verbindung und Stromversorgung der Komponenten und Bauteile der Vorrichtung 10 sicher. Gehäuse 20 und Elektronikplatine 23 weisen Konformität mit sicherheitstechnischen und rechtlichen Bestimmungen auf und verfügen über Identifikationsmerkmale 22. Das Gehäuse weist interne und externe Befestigungsoptionen 24, 25 auf, so dass nicht nur die Elektronikplatinen 23 zuverlässig fixiert, sondern auch das Gehäuse zum Beispiel an der Unterseite eines Schreibtisches befestigt werden kann.
  • Die Elektronikplatinen 23 des Gesamtsystems weisen mindestens auf:
    • • eine Schaltung 26 zum Wechsel zwischen dem Originalsignal und mindestens einer Modifikation des Originalsignals,
    • • einen Anschluss 56 zur Energieversorgung,
    • • eine Energieversorgung 57,
    • • eine Schaltung 58 zur Spannungsanpassung,
    • • integrierte Schaltkreise/Recheneinheiten 59 zur Programmierung,
    • • eine Bedieneinheit 60 zur manuellen Auslösung von Steuersignalen, und
    • • eine Kognitionseinheit mit Regelwerk, Expertensystem und/oder künstlicher Intelligenz 61 zum automatischen Auslösen von Steuersignalen,
  • Zur Generierung mindestens einer Modifikation des Originalsignals kann die Elektronikplatine 23 beispielsweise eine Schaltung zur passiven Signalverarbeitung 31 aufweisen und somit eine Modifikation des Originalsignals „intern“ vornehmen.
  • Die alternative Ausführungsform des Systems mit einer ersten Einheit 10a, wie in 3 dargestellt, und einer zweiten Einheit 10b, wie sie in 4 dargestellt ist, unterscheidet sich von der Ausführungsform des Systems mit erster Einheit 10a gemäß 2 und 5 dadurch, dass die Elektronikplatine 23 - alternativ oder zusätzlich zu den Merkmalen der in 2 dargestellten ersten Einheit 10a - eine Schaltung 27 zur galvanischen Entkopplung von Signalen, eine Schaltung 28 zur Symmetrisierung und/oder Desymmetrisierung von Signalen, eine Schaltung 29 zur Verfügungsstellung und/oder Anpassung extern eingespeister Spannungen (z.B. eine Phantomspeisung für Kondensatormikrophone) und Anschlüsse 30, die vorzugsweise Signale übertragen können für mindestens 1x Send (Originalsignal Ausgang), mindestens 1x Return (Modifiziertes Signal Eingang) und mindestens eine Energiequelle (z.B. für Phantomspeisung) auf.
  • Hierdurch kann beispielsweise ein an Anschlüsse 24 angeschlossener Schallwandler mit der eventuell benötigten Phantomspeisung versorgt und das empfangene Originalsignal galvanisch entkoppelt, symmetriert, zur Weiterverarbeitung an ein externes Audiomodifikationsgerät geleitet, von diesem anschließend empfangen, erneut galvanisch entkoppelt und wieder desymmetriert werden.
  • 6 zeigt ein schematisches Ablaufdiagramm für ein Verfahren zum Modifizieren von akustischen Interaktionsparametern zumindest eines Interaktionssignals. Zunächst wird im optionalen Vorbereitungsschritt 110 ein Ziel ausgewählt. Beispielsweise nimmt ein Mitarbeiter eines Call-Centers einen Anruf eines Kunden entgegen, der sich für ein neues Produkt interessiert. Er wählt daraufhin das Ziel „Verkauf“ und beginnt das Gespräch mit dem Kunden.
  • Aus dem, was er dabei sagt, wird im Schritt 120 von der Klangquelle, d.h. in diesem Fall beispielsweise einem Headset des Mitarbeiters, ein digitales oder analoges Audiosignal erzeugt, das die elektronische Übermittlung und Verarbeitung der Stimme des Mitarbeiters ermöglicht. Vorzugsweise geschieht dies mit möglichst geringer Zeitverzögerung.
  • Dieses Audiosignal wird im Schritt 130 maschinell analysiert, indem beispielsweise und nicht abschließend die Parameter Lautstärke, Dynamikumfang, Fluktuation, Formanten, Formantenspektrum, Frequenzspektrum, Fundamentalfrequenz, Grenzfrequenzen, Mikroprosodie, Obertonspektrum, Scheitelfaktor, Signal-Rausch-Abstand und Transienten durch eine Recheneinheit nach standardisierten, fachbekannten Vorgehensweisen aus dem Audiosignal ermittelt werden.
  • Die Ergebnisse der Analyse werden anschließend im Schritt 140 maschinell bewertet. Konkret kann dies dadurch geschehen, dass die Recheneinheit aus einer Datenbank in Abhängigkeit vom gewählten Ziel als ideal angesehene Werte für die Parameter ermittelt und die Abweichungen der Analyseergebnisse von diesen Parameterwerten bestimmt. In die Bewertung können auch Analyseergebnisse von Audiosignalen, die vom Kunden des Call-Centers erzeugt wurden, einfließen. Beispielsweise könnten diese Analysedaten darauf hinweisen, dass der Kunde gerade verärgert ist, so dass der Klang der Antwort eventuell möglichst einfühlsam besänftigend wirken sollte, obwohl der dem gewählten Ziel („Verkauf“) entsprechende Klang normalerweise vielleicht eigentlich als freudig erregt wahrgenommen werden würde.
  • Im Schritt 150 werden durch die Recheneinheit maschinell Schritte zur sofortigen und/oder künftigen Modifikation des Audiosignals bestimmt, die dann im Schritt 160 -ebenfalls maschinell- ausgeführt werden. Sofortige Modifikationen werden durch eine Modifikation des Klangsignals durch Bearbeitung ausgeführt. Zeigt die Bewertung des Ergebnisses der Analyse beispielsweise, dass der Mitarbeiter des Call-Centers zu leise gesprochen hat, kann die Signalamplitude erhöht werden, beispielsweise durch Verstärkung. Auch Klangfarben, Sprachmelodie und viele weitere Parameter können durch adäquate Modifikation der Audiosignale beeinflusst werden.
  • In einer Datenbank können Parameterabweichungsmuster hinterlegt sein, die auf bestimmte Zustände des Mitarbeiters hindeuten, beispielsweise für Heiserkeit typische Änderungen der analysierten Parameter des Audiosignals. Wenn dieses Muster dann auftaucht, kann die Recheneinheit z.B. auf eine dem Mitarbeiter zugeordneten Bildschirm die Aufforderung, ein Glas Wasser zu trinken einblenden, was dann das zukünftige Audiosignal wieder dem Ideal annähern sollte.
  • Es kann für die Identifikation von nötigen oder brauchbaren Maßnahmen für eine zukünftige Modifikation des Audiosignals aber auch hilfreich sein, Sensoren auszulesen, die Umgebungsbedingungen oder Zustände des Mitarbeiters erfassen können und darauf basierende Maßnahmen für die sofortige oder zukünftige Modifikation des Audiosignals ableiten. Ein Beispiel dafür ist ein Umgebungsmikrophon als Sensor am Arbeitsplatz des Mitarbeiters, dessen Output bei einem zu hohen Niveau an Hintergrundgeräuschen als sofortige Modifikation vom Audiosignal nach geeigneter Skalierung abgezogen werden kann, wobei aber zusätzlich oder alternativ dazu durch Ansteuerung eines Aktuators, der offene Fenster im Call-Center schließt und dadurch das Hintergrundgeräuschniveau nachhaltig reduziert, eine zukünftige Modifikation des Audiosignals bewirkt werden kann.
  • Schließlich erfolgt im Schritt 170 das Weiterleiten des von der Klangquelle erzeugten Audiosignals an einen Interaktionspartner, falls nur Schritte zur künftigen Modifikation des Audiosignals ausgeführt werden oder falls keine Modifikation des Audiosignals notwendig ist und Weiterleiten des durch die Ausführung der Schritte zur sofortigen Modifikation des Audiosignals erhaltenen modifizierten Audiosignals an ein Interaktionspartner, falls Schritte zur sofortigen Modifikation des Audiosignals ausgeführt wurden.
  • Es versteht sich von selbst, dass dieses Verfahren quasikontinuierlich nicht nur während der Interaktion, sondern auch davor und danach durchgeführt wird, um den gewünschten Ausgang möglichst wahrscheinlich werden zu lassen. Beispielsweise könnte es die Zieleintrittswahrscheinlichkeit der nächsten Interaktion erhöhen, wenn einem Call-Center-Mitarbeiter nach Abschluss der vorherigen Interaktion entspannende Hintergrundmusik auf sein Headset gelegt und somit die eigentlich zu diesem Zeitpunkt vorhandene Stille, weil noch kein neuer Interaktionspartner zur Verfügung steht, modifiziert wird. Zudem kann das System mit einer Taktrate beispielsweise von einer Sekunde arbeiten, so dass sämtliche beschriebenen Schritte maschinell jede Sekunde wiederholt werden.
  • Das System und die Vorrichtung können folgende, nicht zeichnerisch dargestellte Merkmale, entweder separat oder in beliebiger Kombination aufweisen:
    System:
    Merkmal/Funktion Umsetzungen
    Arbeitsplatz Schreibtisch, Bühnenabschnitt, Studioraum, Büro, Loge, KfZ-Innenraum, Hörsaal, Wohnzimmer, Konzertsaal, Kinosaal, Parlamentsraum, Stadion, Rednerpult
    Visuelles Arbeitsgerät Computer, Tablet, Fernseher, Smartphone
    Umgebungsgeräte Beleuchtung, Belüftung, Heizung
    Zentralsystem für auditive Arbeitsgeräte Telefonanlage, Lautsprechermanagementsystem, Mischpult, Streaming-System
    Zentralsystem für visuelle Arbeitsgeräte Netzwerkserver
    Kundenmanagement-System Buchungssystem, CRM-, Verkaufs-, Kundenservice-System
    Signalwandler zur rechnergestützten Analyse und Modifikation des Audiosignals Soundkarte/Audio-Computerinterface (Signalverstärker, AD/DA Wandler, A-DAT-USB-Audio-Interface), extern oder integriert
    Recheneinheit zur Ausführung der Analyse- und Optimierungssoftware (beinhaltend Prozessor, Speicher, Controller, Bus, Eingangs- und Ausgangsschnittstellen, etc.) Externer Computer oder integriert
    Schallwandler- und/oder Schalltransport Headset mit RJ10-Kabel, Mikrofon, Lautsprecher, Audiokabel, Telefonkabel, Funkstrecke
    Multisensorisches und multiaktuatorisches Gerät zur Erfassung und Beeinflussung von Parametern der Klangausgabeeinheit Smartwatch mit Pulsmeter und Vibrationsmodul, Smart-Office-Geräte, Smart-Home-Geräte
    Separater Ort Netzwerkraum, Serverraum, Mischpultraum, Regieraum, Kontrollraum
    Externe Netzwerke Internet, Cloud-Services, Intranet, externe Datenbanken
    Vorrichtung (die in der rechten Spalte aufgeführten Einheiten können allein oder in Kombination in die in den 2 bis 5 gezeigten Varianten der ersten Einheit 10a und/oder der zweiten Einheit 10b integriert werden. Zur graphischen Darstellung ist in den 2 bis 5 das Feld Fl --- Fn vorgesehen.
    Merkmal/Funktion Umsetzungen
    Einheit, welches das Originalsignal aufnimmt und als ggf. verändertes Originalsignal wieder ausgibt. Vorrichtung, Teil ASEAE („Audiosignal Eingangs-Ausgangs-Einheit“) .
    Darunter wird eine Vorrichtungseinheit verstanden, die
    1. das von einem akustischen Sensor (z. B. Headsetmikrofon) erfasste Signal der Klangquelle (z. B. Telefonmitarbeiter) für ein Interaktionspartner (z. B. Kunden) bestimmte Signal 1 empfängt, möglichst unverfälscht, störungs- und verzögerungsfrei zur IASKE („Intelligente Audiosignal-Kontrolleinheit“) leitet, wo es analysiert und/oder bewertet und/oder modifiziert, und als Signal 2 zurückgeleitet wird.
    2. das von der IASKE stammende Signal 2 möglichst unverfälscht, störungs- und verzögerungsfrei an en ursprünglichen Interaktionspartner weiterzuleiten.
    3. einen schnellen Wechsel ermöglicht zwischen der Entscheidung, ob Signal 1 oder 2 an den Interaktionspartner weitergeleitet wird.
    Einheit, welche die Software zur Durchführung des Verfahrens ausführt und die eventuelle Veränderung des Audiosignals vornimmt. Vorrichtung, Teil IASKE („Intelligente Audiosignal-Kontrolleinheit“),
    Darunter wird eine Vorrichtungseinheit verstanden, die
    1. detektiert, ob ASEAEs verbunden sind
    2. die Schalter der ASEAEs ansteuert
    3. Audiosignalanalysen, -bewertungen und -modifikationen intern ausführt oder hierfür zu externen Geräten leitet und von diesen wieder empfängt.
    4. eine Benutzerschnittstelle über Taster, LEDs und/oder PC-Bedienbarkeit bietet
    5. Audiosignale von 2x D-Sub-15 auf 1x D-Sub-25 transformieren kann
    6. mittels proprietärem Protokoll vom PC aus über USB analysiert und gesteuert werden kann
    7. mittels einer speziellen Firmware situationsabhängige, intelligente Schaltvorgänge der ASEAE-Relais ermöglicht - auch ohne USB-Verbindung
    8. Steuerspannungen für ASEAE-Relaiszur Verfügung stellt mittels Step-Up-Converter von 5V auf 12V
    9. automatisch zwischen USB- oder Netzteilstromversorgung umschalten kann; Umsetzung des Verfahrens via Softphone, Smartphone-App, Java-Anwendung auf Telefonanlage, Computersoftware, DAW, DAW-Plugin (z. B. als VST-Plugin)
    Schutz der internen Komponenten und Bauteile (z. B. vor äußeren Einflüssen) Rechteckiges, verschraubtes, gekapseltes stabiles Metallgehäuse mit abgerundeten Ecken und internen und externen Befestigungsoptionen (Bohrungen oder dergleichen)
    Gehäuse aus Kunststoff, Holz, Glas, Keramik; Bausatz mit Abdeckhaube/Deckel, 19" Rackeinschub, Verriegelungseinheit, stapelbar, Befestigungsoptionen an verschiedenen Seiten montierbar
    Konformität mit sicherheitstechnischen und rechtlichen Bestimmungen Abgeschirmtes Metallgehäuse, bleifreies Lötzinn, Schutzdioden, elektromagnetische Verträglichkeit über EMV-gerechtes Platinenlayout & Schaltungsdesign, Konformität mit CE, ROHS, Niederspannung;
    interne Abschirmschicht, externe Abschirmschicht
    Identifikationsmerkmale (Laser-)Gravur, Seriennummer, Markenname, Markenlogo, Produktbezeichnung, Gerätebeschriftung, Anschlusssymbole, Bediensymbole, Hersteller;
    Farbdruck, RFID/NC, Kontaktadresse (z. B. Website-URL)
    Befestigung und Verbindung elektronischer Bauteile sowie deren Stromversorgung und Kommunikation Elektronikplatine;
    Drahtverbindungen
    Anschlüsse, die zu modifizierende bzw. bereits modifizierte Signale übertragen können für mindestens: - 1x Input (Originalsignal Eingang) - 1x Output (Modifiziertes Signal Ausgang) 2x Klinke, 2x RJ10, D-Sub-15-Anschluss;
    Cinch, XLR, D-Sub 9, D-Sub 15, D-Sub 25, D-Sub-50, USB, Firewire, DIN Stecker, Drahtlosverbindung, interne Verkabelung (z. B. mittels Flachbandkabel) etc.
    Anschluss, der Strom-, Steuer-, Regel-, Interaktions- und/oder Kommunikationssignale übertragen kann. Ix D-Sub 15, 1x USB;
    Cinch, XLR, D-Sub 9, D-Sub 15, D-Sub 25, D-Sub-50, USB, Firewire, DIN Stecker, Klinke, Ethernet/Netzwerk, TCP/IP, Thunderbolt, Drahtlosverbindung (Bluetooth, WLAN, UMTS, LTE, etc.), Steuerspannung, Midi etc.
    Schaltung zum Wechsel zwischen Originalsignal und mindestens einer Modifikation des Originalsignals (A/B) Relais;
    Transistoren, Optokoppler, mechani-
    sche Schalter, Potentiometer, Jumper, über in Anschlussbuchsen integrierte Schalter/Taster (z. B. Klinkeneinbaubuchsen mit Schließmechanismus), integrierte Schaltkreise, DSP
    Schaltung zur galvanischen Entkopplung von Stromkreisen/Leitern/Signalen Übertrager;
    Isolations- oder Trennverstärker
    Schaltung zur Symmetrierung und/oder Desymmetrierung von Signalen Übertrager;
    Elektrische Symmetrierstufe mit Transistoren, elektronische Differenzverstärker
    Schaltung zur Verfügungstellung und/oder Anpassung extern eingespeister Spannungen (z. B. Phantomspeisung für Kondensatormikrofone) Widerstände;
    Transformator, Transistor
    Anschlüsse, die Signale übertragen können für mindestens: 1x D-Sub 15, 1x D-Sub 25;
    - 1x Send (Originalsignal Ausgang) Cinch, XLR, D-Sub 9, D-Sub 15, D-Sub 25, D-Sub-50, USB, Firewire, DIN Stecker, Klinke, Drahtlose Signal- bzw. Energieübertragung
    - 1x Return (Modifiziertes Signal Eingang)
    - Energiequelle (z. B. für Phantomspeisung)
    Schaltung zur passiven Signalverarbeitung (wenn keine eigene Stromversorgung verfügbar ist), z. B. EQ/Filter, Signal-Abschwächer (Attenuator)/Trim, Phaser, Chorus, Compressor, Limiter, etc. Kondensatoren, Widerstände;
    Spulen, Dioden, Potentiometer, Trimmer, Oszillatoren
    Anschluss für Stromversorgung Netzteil-Anschluss, USB-Anschluss;
    Stromanschluss, XLR, Klinke
    Energie-/Strom-/Spannungsversorgung Internes Netzteil, Firewire, Thunderbolt, Power over Ethernet, Akku-/Batteriebetrieb, Solarzellen
    Schaltung zur Spannungsanpassung, - wandlung, -regelung Eingebauter Spannungswandler;
    Spannungsregler
    Programmierbarkeit Integrierte Schaltkreise (z. B. Recheneinheit, Controllereinheit, FPGAs, Bus, IOs, Taktgenerator, Speicher, etc.);
    Relais, Röhren, diskrete Logik-Gatter, etc.
    Manuelles Auslösen von Steuersignalen Bedieneinheit mit mechanischen Tastern, ferngesteuert per PC & USB;
    Schalter, Touchscreen, Fußschalter, Netzwerk, Firewire und dergleichen
    Automatisches Auslösen von Steuersignalen Kognitionseinheit, z. B. Regelwerk, künstliche Intelligenz, Expertensystem
    Visuelles Anzeigen bestimmter Geräte- oder Funktionsstatus oder Ausgabe von Anweisungen/Hinweisen an den Interaktionspartner LEDs;
    mechanisch (z. B. Farbelemente), LED-Indikatorleiste, Bodenbeleuchtung,
    Glühlampe, Signal-LED, Display, Touch-Screen, LCD, beleuchtete Taster
    Software zum Ausführen des Verfahrens
    Schaltung zur Signalabschwächung Dämpfungsglied / Spannungsteiler / PAD-Schaltung mittels Widerständen;
    Übertrager, Potentiometer, Trimmer, integrierter Schaltkreis
    Schaltung zur Signalverstärkung OP-Verstärker;
    Transistoren, Röhren, integrierter Schaltkreis
    Schaltung zur Störgeräuschreduzierung bei Schaltprozessen (z. B. bei Überbrückung) Dioden, Widerstände und Kondensatoren;
    Transistor
    Schaltung zur Leistungs-Anpassung an Eingangssignal Widerstände;
    Übertrager, Potentiometer, Trimmer
    Schaltung zur aktiven Signalverarbeitung (wenn Strom verfügbar) IC, EQ/Filter, Phaser, Chorus, Compressor, Verstärkung, FPAA (Field Programmable Analog Array)
    Schaltung zur Impedanzanpassung/Impedanzwandlung für Eingangssignal / Ausgangssignal Übertrager
    Schaltung zur Pin-Konfiguration um Kompatibilität mit verschiedenen Belegungsarten zu erhöhen Übertrager, Jumper;
    Transistoren, IC, Festverdrahtung
    Schaltung zur Eingangsanschlusswahl Steckersperre oder Steckerpriorität beim Einstecken mehrerer Eingangs- oder Ausgangsstecker;
    Transistoren, IC
    Schaltung zur Filterung unerwünschter Gleichspannungsanteile Kondensator;
    Dioden, Gleichrichter
    Schaltung zur Polaritätsveränderung des Signals/Phasenverschiebung, z. B. um 180° Übertrager, Jumper;
    Transistor
    Schaltung, mit deren Hilfe erfasst wird, ob ein Kabel angeschlossen ist. O-Ohm-Widerstand;
    Transistor
    Ground-Lift-Schaltung (GND versus LIFT) Kondensatoren, Widerstände
    Schalter, um bestimmte Funktionen/Schaltungen zu aktivieren, zu deaktivieren oder zu konfigurieren Relais;
    Transistoren, Optokoppler, mechanische Schalter (z. B. externer Fußschalter oder DIP-Schalter), Jumper, über in Anschlussbuchsen integrierte Schalter/Taster (z. B. Klinkeneinbaubuchsen mit Schließmechanismus)
    Akustisches Anzeigen bestimmter Geräte- oder Funktionsstatus mechanisch (z. B. Klicken), elektronisch (z. B. Piepen);
    Melodien, Sounds, Warntöne, Sprachmitteilung aufs Headset, etc.
    Gebündeltes Übertragen verschiedener Signale (z. B. Audiosignale, Strom oder Steuersignale) über ein einziges Kabel Verriegelbarer/arretierbarer Multi-Pin-Anschluss, z. B.
    - 8-polig RJ45
    - 9-polig D-Sub DE-9
    - 10-polig XLR
    - 15-polig D-Sub DA-15
    - 15-polig D-Sub DE-15 / VGA
    - 19-polig
    - 25-polig DVI 24+1
    - 25-polig D-Sub DB-25
    - 37-polig D-Sub DC-37
    - 50-polig D-Sub DD-50
    - DIN-Steckverbindungen
    Möglichkeit der schnellen Erweiterung bzw. Anpassung der Vorrichtung an lokale Anforderungen (Anschlüsse, Schaltung, etc.) Modularer Aufbau, alles verschraubt, nichts verklebt; Verwendung von Steckleisten, Mehrplatinendesign, internes Steckleistensystem, das einen schnellen Austausch der Elektronikplatine(n) ermöglicht
    Möglichkeit der Arretierung/Befestigung interner und externer Kabel Metallösen
    Möglichkeit der Fixierung der Vorrichtung z. B. an Wänden oder Tischplatten Sicherungsösen, Befestigungslöcher;
    Kensington-Lock
    Sicherer, kratzfreier Halt auf Oberflächen Gummifüße am Gehäuseboden;
    Filzgleiter, Gummibeschichtung
    Ansprechende Optik auch nach mehreren Installationsvorgängen Schutzlackierung
    Prüfmechanismus, ob Gehäuse geöffnet wurde Farblich individuelle Abdeckungen der Gehäuseschrauben, Verschlusssiegel;
    Elektronische Einbruchsüberwachung
    Geeignet für Einsatz an Multi-Mitarbeiterarbeitsplätzen / Großraumbüro Zentrale Stromversorgung, wenig Platzbedarf am Mitarbeiterarbeitsplatz, Möglichkeit der Befestigung am Schreibtisch, kabelgebundene Signalübertragung
    Fokus auf Verwendung mit Telefoniegeräten (Headsets, Tischtelefonen, Smartphones) insb. in Call-Centern Klinken- und RJ10-Anschlüsse;
    USB, XLR und dergleichen.
    Möglichkeit, mehrere Geräte miteinander zu koppeln Kaskadierungsanschluss
    Schutzoptionen, um ein versehentliches Betätigen von Bedienelementen (z. B. Schaltern) zu vermeiden Versenkungen, Arretierungen, etc.
    Eindringen von Wasser verhindern Wasserdichtes Gehäuse
    Eindringen von Staub verhindern Staubgeschütztes Gehäuse
    Interner Lautsprecher oder Anschluss für externen Lautsprecher
    Erfassung weiterer Messwerte über weitere Sensoren oder Anschlüsse, die die Anbindung weiterer Sensoren ermöglichen; Sensoren: Kamera, 3D, GPS, Vibration, Thermometer/Temperatur, Hygrometer/Feuchtigkeit, Barometer/Luftdruck, Helligkeit, Farbe, Bewegung, Magnetismus, IoT-Sensoren, 100mH Inductor (EMI), 2.4Ghz WiFi, RSSI, GridEye, Beschleunigung, Gas, Luftqualität, Ultraschall, UV, Berührung, Gyroskop, Neigung, Mikrowellen, Chemie.
    Erfassung der Innenraumtemperatur des Geräts Temperatursensor
    Trennung der Stromversorgung Netzschalter / An-/Aus-Schalter
    Wandlung von Analogsignalen zu Digitalsignalen Analog-Digital-Wandler
    Wandlung von Digitalsignalen zu Analogsignalen Digital-Analog-Wandler
    Unabhängiger Zeitgeber Echtzeituhr, Realtime Clock (RTC)
    Kompatibilität zu Digitalsignal-Anschlüssen
    Digitale Signalveränderung/- verarbeitung Digitaler Signalprozessor, FPGA
    Verfügt über künstliche Intelligenz CPU, GPU, Neuronaler Schaltkreis
    Eigene Speichereinheit ROM;
    RAM, HDD, SSD,
    Controllereinheit, die vielfältigste Aufgaben übernimmt (Anbindung an externen Rechner, Auswertung der Taster, Darstellung über LEDs, Schaltung der Relais, Prüfung, ob ASEAEs angeschlossen sind, selbständiges Schalten der Relais, falls Verbindung zum Rechner verloren geht, Umsetzung eines eigenen Protokolls) IC
    Kühlungs-/Belüftungseinheit für wärmeerzeugende Komponenten (z. B. ICs) Lüftungsschlitze; Lüfter
    Fingerabdrucksensor
    (Mesh-)WLAN-Router-Funktionalität
    Schaltung zur Signalunterbrechung bzw. Stummschaltung des Signals Transistoren, Optokoppler, mechanische Schalter, Potentiometer, Jumper, über in Anschlussbuchsen integrierte Schalter/Taster (z. B. Klinkeneinbaubuchsen mit Schließmechanismus), integrierte Schaltkreise, DSP
    Anschlüsse für externe Geräte (z. B. Displays, Tastatur, Audiogeräte) Thunderbolt-Anschluss;
    USB, DVI, VGA, Displayport, HDMI
    Kommunikationsanschlüsse (z. B. für Internetzugang) LAN, WLAN;
    RJ10, RJ45, WLAN, Bluetooth
    Lesegerät für externe Datenträger (z. B. SD-Karten) SD-Karten-Lesegerät;
    CompactFlash, MicroSD
    Überspannungsschutz, Schutz vor statischer Entladung Kondensatoren, Widerstände
  • Bezugszeichenliste
  • 01
    Arbeitsplatz (beispielsweise Bühnenabschnitt, Studioraum, Schreibtisch, Büro, Rednerpult, Fernseh- oder Radiostudio)
    02
    Interaktionspartner (beispielsweise Mitarbeiter, Anwender, Sprecher, Musiker, Instrument, Sänger, Radio, Computer)
    03
    Auditives Arbeitsgerät (beispielsweise Telefon, Mischpult, Effektgerät, Verstärker, Smartphone, Audiowandler, Audiogerät, Audioschnittstellen am Computer)
    04
    Visuelles Arbeitsgerät (beispielsweise Computer, Tablet, Fernseher, Smartphone)
    05
    Umgebungsgeräte (beispielsweise Beleuchtung, Belüftung, Heizung)
    06
    Zentralsystem für auditive Arbeitsgeräte (beispielsweise Telefonanlage, Lautsprechermanagementsystem)
    07
    Zentralsystem für visuelle Arbeitsgeräte (beispielsweise Netzwerkserver, IT-Administration)
    08
    CRM-System, Buchungs-, Verkaufs-, Kundenservicesystem (beispielsweise IT-Support, Produktverkauf)
    09
    Gesamtsystem zur zielorientierten Modifikation des Audiosignals einer Klangausgabeeinheit
    10a
    Erste Einheit
    10b
    Zweite Einheit
    12
    Audio-Computerinterface (Signalverstärker, AD/DA Wandler, Audio-Computer-Schnittstelle (beispielsweise USB-Audio)) zur rechnergestützten Analyse und Modifikation des Audiosignals
    13
    Recheneinheit zur Ausführung der Analyse- und Optimierungssoftware (beinhaltend Prozessor, Speicher, Controller, Bus, Eingangs- und Ausgangsschnittstellen, etc.)
    14
    Schwallwandler/Klangerzeuger zum Erzeugen eines Audiosignals (beispielsweise Mikrofon, Headset, Lautsprecher,
    15
    elektronischer Audiosignalgenerator) Sensoren zur Erfassung von Umgebungsparametern und/oder physiologischen Parametern des Interaktionspartners
    16
    Optionaler separater Ort (beispielsweise Serverraum, Netzwerkraum, Mischpultraum, Regieraum, Loge, KfZ-Innenraum, Hörsaal, Wohnzimmer)
    17
    Interaktionspartner, Empfänger/Klangwahrnehmungseinheit (beispielsweise Kunde, Zuhörer, Publikum, andere Geräte)
    18
    Externe Netzwerke (beispielsweise Cloud-Services, Internet, Expertensysteme, externe Datenbanken)
    20
    Schutz der internen Komponenten und Bauteile (beispielsweise vor äußeren Einflüssen)
    22
    Identifikationsmerkmale
    23
    Befestigung und Verbindung elektronischer Bauteile sowie deren Stromversorgung und Kommunikation
    24
    Anschlüsse, die zu modifizierende bzw. bereits modifizierte Signale übertragen können für mindestens: - 1x Input (Originalsignal Eingang) - 1x Output (Modifiziertes Signal Ausgang)
    25
    Anschluss, der Strom-, Steuer-, Regel-, Interaktions- und/oder Kommunikationssignale übertragen kann.
    26
    Schaltung zum Wechsel zwischen Originalsignal und mindestens einer Modifikation des Originalsignals (A/B)
    27
    Schaltung zur galvanischen Entkopplung von Stromkreisen/Leitern/Signalen
    28
    Schaltung zur Symmetrierung und/oder Desymmetrierung von Signalen
    29
    Schaltung zur Verfügungstellung und/oder Anpassung extern eingespeister Spannungen (beispielsweise Phantomspeisung für Kondensatormikrofone)
    30
    Anschlüsse, die Signale übertragen können für mindestens: - 1x Send (Originalsignal Ausgang)
    31
    - 1x Return (Modifiziertes Signal Eingang) - Energiequelle (beispielsweise für Phantomspeisung) Schaltung zur passiven Signalverarbeitung (wenn keine eigene Stromversorgung verfügbar ist), beispielsweise EQ/Filter, Signal-Abschwächer (Attenuator)/Trim, Phaser, Chorus, Compressor, Limiter, etc.
    56
    Anschluss für Stromversorgung
    57
    Energie-/Strom-/Spannungsversorgung
    58
    Schaltung zur Spannungsanpassung, -wandlung, -regelung
    59
    Programmierbarkeit
    71
    Software zum Ausführen des Verfahrens
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 7085719 B1 [0035]
    • US 20120016674 [0036]
    • US 6404872 B1 [0037]
    • US 7925304 B1 [0038]
    • US 20080044048 A1 [0039]

Claims (19)

  1. Verfahren zum Modifizieren von akustischen Interaktionsparametern zumindest eines Interaktionssignals, welches von mindestens einem Interaktionspartner (02, 17) erzeugt wird, hinsichtlich eines Interaktionsziels, umfassend folgende Schritte: - Definieren mindestens eines Interaktionsziels, hinsichtlich welchem die akustischen Interaktionsparameter modifiziert werden sollen, - Erzeugen von einem oder mehreren dem Interaktionssignal entsprechenden Audiosignalen, die vom zumindest einen Interaktionspartner (02, 17) erzeugt wird, mittels eines Schallwandlers (14) oder eines Klangerzeugers, - maschinelle Analyse und maschinelle Bewertung der Audiosignale hinsichtlich des Interaktionsziels, - maschinelles Bestimmen von Schritten zum Modifizieren des Audiosignals hinsichtlich des Interaktionsziels; - Ausführen der maschinell bestimmten Schritte zum Modifizieren der Audiosignale, und - Weiterleiten der modifizierten Audiosignale an einen Interaktionspartner (02, 17).
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die maschinelle Analyse der Audiosignale eine Bestimmung eines, mehrerer oder aller der Parameter ADSR-Charakteristiken, Abtastfrequenz, Samplingtiefe, Lautstärke, Lautheit, Schalldruckpegel, Deutlichkeit, Dynamikumfang, Fluktuation, Formanten oder Formantenspektrum, Stimmabbrüche, Stimmqualität, Klirrfaktor, Klangtreue, Frequenzspektrum, Frequenzbewertung, THD, Frequenzgang, Phasenlage, Fundamentalfrequenz, Grenzfrequenzen, Korrelation, Mikroprosodie, Obertonspektrum, Prosodie, Scheitelfaktor, Rauigkeit, Sprechgeschwindigkeit, Übersprechen, Kanaltrennung, Timbre, Sprachverständlichkeit, Jitter, Shimmer, Harmonizität, Perturbation, Cepstrum, Spektrum, Signal-Rausch-Abstand, Seitwärts-/Rückwärtsdämpfung, Rauschen, Zeit-/Registerdurchsichtigkeit, Diffusität und Transienten sowie die in anderen Audio-Frameworks beschriebenen Audio-Deskriptoren wie LogAttackTime, AudioPowerType, Melodie, Timbre durch eine Recheneinheit (13) umfasst.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass mittels Umgebungssensoren Umgebungsbedingungen in der Umgebung des die akustischen Interaktionsparameter erzeugenden Interaktionspartners (02, 17) ermittelt werden und dass die ermittelten Umgebungsbedingungen in die maschinelle Bewertung der Audiosignale einbezogen werden.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die maschinelle Bewertung der Audiosignale mindestens einen Vergleich von Daten mit den in mindestens einer Datenbank, auf die die Recheneinheit (13) zugreifen kann, enthaltenen Vergleichsdaten mittels einer Recheneinheit (13) umfasst.
  5. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Audiosignale sofort oder zeitversetzt modifiziert werden.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass das Ausführen der maschinell bestimmten Schritte zur zeitversetzten Modifikation der Audiosignale eine Ausgabe einer verbalen oder non-verbalen Aufforderung an den die akustischen Interaktionsparameter erzeugenden Interaktionspartner (02, 17) und/oder die Änderung der Umgebungsbedingungen in der Umgebung des die akustischen Interaktionsparameter erzeugenden Interaktionspartners (02, 17) durch Ansteuerung von Aktuatoren umfasst.
  7. Verfahren nach einem der Ansprüche 5 oder 6, dadurch gekennzeichnet, dass mindestens ein mathematischer Zusammenhang zwischen einem akustischen Interaktionsparameter und/oder einem Merkmal der beteiligten Interaktionspartner und/oder einer Umgebungsbedingung einerseits und dem Erreichen des Interaktionsziels andererseits ermittelt und in einer Datenbank hinterlegt wird.
  8. Computerprogrammprodukt, enthaltend eine auf einem maschinenlesbaren Datenträger gespeicherte Befehlsfolge zum Durchführen des Verfahrens nach einem der Ansprüche 1 bis 7, wenn das Computerprogrammprodukt auf einer Recheneinheit (13) abläuft.
  9. System (9) zum Durchführen eines Verfahrens nach einem der Ansprüche 1 bis 7, wobei das System (9) aufweist: - einen Schallwandler und/oder einen Klangerzeuger (14) zum Erzeugen eines oder mehrerer Audiosignale basierend auf akustischen Interaktionssignalen, die von mindestens einem Interaktionspartner (02, 17) erzeugt werden, - eine Recheneinheit (13), mit einer darauf gespeicherten Software (71) zur maschinellen Analyse und maschinellen Bewertung der Audiosignale hinsichtlich des Interaktionsziels, zum maschinellen Bestimmen von Schritten zum Modifizieren des Audiosignals hinsichtlich des Interaktionsziels und zum Ausführen der maschinell bestimmten Schritte zum Modifizieren der Audiosignale, - eine erste Einheit (10a) zur Weiterleitung der erzeugten Audiosignale an eine zweite Einheit (10b) und zum Empfang der modifizierten Audiosignale von der zweiten Einheit (10b), - wobei die erste Einheit (10a) einen Ausgang zum Weiterleiten eines weiterzuleitenden Audiosignals an einen Interaktionspartner (02, 17) aufweist und wobei die erste Einheit (10a) ferner eine Schaltung (26) aufweist, die einen Wechsel des weiterzuleitenden Audiosignals zwischen dem erzeugten Audiosignal und einem modifizierten Audiosignal ermöglicht, - und wobei die zweite Einheit (10b) als Steuer- und Audiosignalweiterleitungszentrale der ersten Einheit (10a) ausgestaltet ist.
  10. System nach Anspruch 9, dadurch gekennzeichnet, dass das System ferner umfasst: - Umgebungssensoren zum Erfassen von Umgebungsbedingungen in der Umgebung des die akustischen Interaktionsparameter erzeugenden Interaktionspartners (02, 17), wobei die Recheneinheit (13) mit den Umgebungssensoren in Signalkommunikation zum Verarbeiten der Umgebungssensorsignale steht, und - mindestens eine mit der Recheneinheit (13) kommunizierende Datenbank, auf welcher auf ein Ziel und/oder eine Interaktion und/oder auf die Interaktionspartner oder auf das Mikroumfeld der Interaktionspartner bezogene weitere Zustände hinterlegt sind, - wobei die Recheneinheit (13) programmiert und eingerichtet ist, um die Sensorsignale unter Verwendung von Informationen aus der Datenbank bei der maschinellen Bewertung des Audiosignals unter Verwendung der Ergebnisse der Analyse des Audiosignals, und/oder beim maschinellen Bestimmen von Schritten zur sofortigen und/oder künftigen Modifikation des Audiosignals zu berücksichtigen.
  11. System nach Anspruch 10, dadurch gekennzeichnet, dass die Umgebungssensoren dazu ausgebildet sind, den Zustand des Mikroumfelds der Interaktionspartner hinsichtlich der Position, der Temperatur, der Helligkeit, der Luftfeuchtigkeit, der Luftqualität, des Luftdrucks, der Pollenbelastung, der Staubbelastung, des Lärmpegels, der Bewegung und/oder der UV-Einstrahlung zu erfassen.
  12. System nach einem der Ansprüche 10 oder 11, dadurch gekennzeichnet, dass die Umgebungssensoren (22) dazu ausgebildet sind, den Zustand des Benutzers (15) hinsichtlich des Blutdrucks, des Pulses, des Hautwiderstands, der Hauttemperatur, der Bewegung, der Stimmlage, der Sprechgeschwindigkeit des aktuellen Arbeitsstatus und/oder der Sitzhaltung zu erfassen.
  13. System nach einem der Ansprüche 10 bis 12, dadurch gekennzeichnet, dass das System ferner umfasst: - eine Anzahl von Aktuatoren zum Herbeiführen einer zeitversetzten Modifikation der Audiosignale, wobei die Aktuatoren durch die Recheneinheit (13) und/oder die zweite Einheit (10b) angesteuert werden.
  14. System nach Anspruch 13, dadurch gekennzeichnet, dass die Aktuatoren (29) dazu ausgebildet sind, auf den Zustand des Mikroumfelds (24) des Benutzers (15) hinsichtlich der Position, der Temperatur, der Helligkeit, der Luftfeuchtigkeit, der Luftqualität, des Luftdrucks, der Pollenbelastung, der Staubbelastung, des Lärmpegels, der Bewegung und/oder der UV-Einstrahlung einzuwirken.
  15. System nach einem der Ansprüche 13 oder 14, dadurch gekennzeichnet, dass die Aktuatoren (29) dazu ausgebildet sind, auf den Zustand des Benutzers (15) hinsichtlich des Blutdrucks, des Pulses, des Hautwiderstands, der Hauttemperatur, der Bewegung, der Stimmlage, der Sprechgeschwindigkeit und/oder der Sitzhaltung einzuwirken.
  16. System nach einem der Ansprüche 10 bis 15, dadurch gekennzeichnet, dass die Recheneinheit (13) mit einer Anzahl weiteren Datenbanken und/ oder weiterer Sensoren kommuniziert, mit welchen der Zustand eines Makroumfelds des Benutzers erfassbar ist.
  17. System nach einem der Ansprüche 10 bis 16, dadurch gekennzeichnet, dass das System eine Ausgabeeinheit zum Anzeigen und/oder Ausgeben von benutzerbezogenen Handlungsanweisungen an den Benutzer aufweist.
  18. System nach Anspruch 17, dadurch gekennzeichnet, dass das System ein Überprüfungsmittel zum Überprüfen, ob der Benutzer die benutzerbezogenen Handlungsanweisungen befolgt hat, aufweist.
  19. Vorrichtung zum Durchführen eines Verfahrens nach einem der Ansprüche 1 bis 7, wobei die Vorrichtung eine oder mehrere Komponenten des Systems nach einem der Ansprüche 10 bis 18 umfasst und Kommunikationsmittel aufweist, mit denen die in der Vorrichtung angeordneten Komponenten mit den übrigen Komponenten des Systems verbindbar oder verbunden sind.
DE102019111365.2A 2019-05-02 2019-05-02 Verfahren, Computerprogrammprodukt, System und Vorrichtung zum Modifizieren von akustischen Interaktionssignalen, die von mindestens einem Interaktionspartner erzeugt werden, hinsichtlich eines Interaktionsziels Pending DE102019111365A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102019111365.2A DE102019111365A1 (de) 2019-05-02 2019-05-02 Verfahren, Computerprogrammprodukt, System und Vorrichtung zum Modifizieren von akustischen Interaktionssignalen, die von mindestens einem Interaktionspartner erzeugt werden, hinsichtlich eines Interaktionsziels
PCT/EP2020/062045 WO2020221865A1 (de) 2019-05-02 2020-04-30 Verfahren, computerprogrammprodukt, system und vorrichtung zum modifizieren von akustischen interaktionssignalen, die von mindestens einem interaktionspartner erzeugt werden, hinsichtlich eines interaktionsziels

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019111365.2A DE102019111365A1 (de) 2019-05-02 2019-05-02 Verfahren, Computerprogrammprodukt, System und Vorrichtung zum Modifizieren von akustischen Interaktionssignalen, die von mindestens einem Interaktionspartner erzeugt werden, hinsichtlich eines Interaktionsziels

Publications (1)

Publication Number Publication Date
DE102019111365A1 true DE102019111365A1 (de) 2020-11-05

Family

ID=70482661

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019111365.2A Pending DE102019111365A1 (de) 2019-05-02 2019-05-02 Verfahren, Computerprogrammprodukt, System und Vorrichtung zum Modifizieren von akustischen Interaktionssignalen, die von mindestens einem Interaktionspartner erzeugt werden, hinsichtlich eines Interaktionsziels

Country Status (2)

Country Link
DE (1) DE102019111365A1 (de)
WO (1) WO2020221865A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115683393A (zh) * 2022-11-08 2023-02-03 安徽得润电气技术有限公司 基于智能型可视化断点隔离箱用搭接点测温系统

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113207058B (zh) * 2021-05-06 2023-04-28 恩平市奥达电子科技有限公司 一种音频信号的传输处理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100088093A1 (en) * 2008-10-03 2010-04-08 Volkswagen Aktiengesellschaft Voice Command Acquisition System and Method
US20100260074A1 (en) * 2009-04-09 2010-10-14 Nortel Networks Limited Enhanced communication bridge
US10276185B1 (en) * 2017-08-15 2019-04-30 Amazon Technologies, Inc. Adjusting speed of human speech playback

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6404872B1 (en) 1997-09-25 2002-06-11 At&T Corp. Method and apparatus for altering a speech signal during a telephone call
US7085719B1 (en) 2000-07-13 2006-08-01 Rockwell Electronics Commerce Technologies Llc Voice filter for normalizing an agents response by altering emotional and word content
US9300790B2 (en) * 2005-06-24 2016-03-29 Securus Technologies, Inc. Multi-party conversation analyzer and logger
US7925304B1 (en) 2007-01-10 2011-04-12 Sprint Communications Company L.P. Audio manipulation systems and methods
US8484035B2 (en) 2007-09-06 2013-07-09 Massachusetts Institute Of Technology Modification of voice waveforms to change social signaling
US20120016674A1 (en) 2010-07-16 2012-01-19 International Business Machines Corporation Modification of Speech Quality in Conversations Over Voice Channels

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100088093A1 (en) * 2008-10-03 2010-04-08 Volkswagen Aktiengesellschaft Voice Command Acquisition System and Method
US20100260074A1 (en) * 2009-04-09 2010-10-14 Nortel Networks Limited Enhanced communication bridge
US10276185B1 (en) * 2017-08-15 2019-04-30 Amazon Technologies, Inc. Adjusting speed of human speech playback

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115683393A (zh) * 2022-11-08 2023-02-03 安徽得润电气技术有限公司 基于智能型可视化断点隔离箱用搭接点测温系统

Also Published As

Publication number Publication date
WO2020221865A1 (de) 2020-11-05

Similar Documents

Publication Publication Date Title
DE102009045187A1 (de) System und Verfahren zum Kommunizieren mit Telefonagenten in einem automatischen Call Center
DE102017127239A1 (de) Vom Server gelieferte visuelle Ausgabe an einer Sprachschnittstellenvorrichtung
DE102008008898B3 (de) Verfahren und Vorrichtung zum Überwachen einer Hörhilfe
DE102016209329B4 (de) Verfahren zur automatisierten Ermittlung von Parameterwerten für ein Hörhilfegerät
CN104937954A (zh) 用于自管理声音增强的方法和系统
CN103098492A (zh) 用于自我管理的声音增强的方法和系统
DE102019111365A1 (de) Verfahren, Computerprogrammprodukt, System und Vorrichtung zum Modifizieren von akustischen Interaktionssignalen, die von mindestens einem Interaktionspartner erzeugt werden, hinsichtlich eines Interaktionsziels
Keidser et al. Cognitive spare capacity: evaluation data and its association with comprehension of dynamic conversations
EP1808853B1 (de) Beschallungsanlage, Beschallungsverfahren und Computerprogramm zur Verbesserung der Sprachqualität und/oder Verständlichkeit von Sprachdurchsagen
EP2047668B1 (de) Verfahren, sprachdialogsystem und telekommunikationsendgerät zur multilingualen sprachausgabe
Callanan et al. Ergonomic impact of multi-rotor unmanned aerial vehicle noise in warehouse environments
Coelho et al. An initial study of voice characteristics of children using two different sound coding strategies in comparison to normal hearing children
EP4017031A1 (de) Hörsystem mit anwenderspezifischer programmierung
DE102019218808B3 (de) Verfahren zum Trainieren eines Hörsituationen-Klassifikators für ein Hörgerät
DE102019219567A1 (de) Verfahren zum Betrieb eines Hörsystems und Hörsystem
DE10113088A1 (de) Verfahren und Vorrichtung zum Betrieb eines Beschallungssystems
CH709679A2 (de) Verfahren zur Fernunterstützung von Schwerhörigen.
Aletta Descriptors and indicators for soundscape design: vibrancy as an example
DE102019133133A1 (de) Assistenzsystem, durch welches in einem Raum die Ausgabe von zumindest einem Medieninhalt gesteuert wird, Kraftfahrzeug und Betriebsverfahren für das Assistenzsystem
Bruyninckx An unquiet quiet: The history and “smart” politics of sound masking in the office
DE102007056466A1 (de) Verfahren zur individuellen Anpassung eines Hörgeräts
DE102018209821A1 (de) Verfahren zur automatisierten Erstellung eines Audionotizbuches eines Hörgeräteträgers sowie Hörgerätesystem
DE102009048071A1 (de) Verfahren und Vorrichtung zum Einstellen eines Hörgeräts unter Berücksichtigung einer Raumakustik
DE102022205123A1 (de) Verfahren zur Gesprächsassistenz und System zur Gesprächsassistenz
DE102017117570A1 (de) Verfahren, System, Anwendergerät sowie Computerprogramm zum Erzeugen einer auditiven Meldung in einem stationären Wohnraum

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R086 Non-binding declaration of licensing interest
R084 Declaration of willingness to licence
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G10L0019000000

Ipc: G10L0021000000

R016 Response to examination communication
R082 Change of representative

Representative=s name: WALTHER BAYER FABER PATENTANWAELTE PARTGMBB, DE