DE60213595T2 - Hintergrundlernen von sprecherstimmen - Google Patents

Hintergrundlernen von sprecherstimmen Download PDF

Info

Publication number
DE60213595T2
DE60213595T2 DE60213595T DE60213595T DE60213595T2 DE 60213595 T2 DE60213595 T2 DE 60213595T2 DE 60213595 T DE60213595 T DE 60213595T DE 60213595 T DE60213595 T DE 60213595T DE 60213595 T2 DE60213595 T2 DE 60213595T2
Authority
DE
Germany
Prior art keywords
speaker
utterances
training
model
models
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60213595T
Other languages
English (en)
Other versions
DE60213595D1 (de
Inventor
Chao-Shih Huang
Internationaal Octrooibureau B.V. Ya-Cherng CHU
Internationaal Octrooibureau B.V. Wei-Ho TSAI
Internationaal Octrooibureau B.V. Jyh-Min CHENG
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Application granted granted Critical
Publication of DE60213595D1 publication Critical patent/DE60213595D1/de
Publication of DE60213595T2 publication Critical patent/DE60213595T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • G10L15/07Adaptation to the speaker
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/04Training, enrolment or model building

Description

  • Die Erfindung bezieht sich die automatische Identifizierung von Sprechern durch Empfangen einer Testäußerung, Bestimmen eines Sprechermodells mit der höchsten Wahrscheinlichkeit aus einer Vielzahl von Sprechermodellen für die Testäußerung und Identifizieren des dem Sprachmodell mit der höchsten Wahrscheinlichkeit zugeordneten Sprechers als den Sprecher der Testäußerung.
  • Die Sprecheridentifizierung gewinnt immer mehr an Bedeutung. Üblicherweise wird die Sprecheridentifizierung zu Sicherheitszwecken eingesetzt, beispielsweise um die Identität eines Sprechers basierend auf Stimmmerkmalen zu überprüfen. Da immer mehr Anwendungen der Sprachsteuerung für Ausrüstungen der Nachrichtenelektronik entwickelt werden, kann die Sprecheridentifizierung auch eine wichtige Rolle bei der weiteren Vereinfachung der Interaktion mit Ausrüstungen der Nachrichtenelektronik spielen.
  • Bei herkömmlichen Aufgaben der Sprecheridentifizierung (Sprecher-ID) werden Modelle für spezifische Sprecher mit Hilfe von Registrierungsdaten von Nutzern trainiert. Normalerweise werden Hidden-Markov-Modelle (HMM) verwendet, um Teilworteinheiten wie Phoneme oder Diphone zu modellieren. Zur Erzielung einer guten Leistung benötigt ein zuverlässiges System eine große Menge von Registrierungsdaten, um die Stimmen der Sprecher zu charakterisieren. Es sind insbesondere Daten von einer Anzahl verschiedener Sitzungen wünschenswert, da sich die Stimmmerkmale der Sprecher von Sitzung zu Sitzung erheblich verändern. Jeder Sprecher trainiert sein eigenes Modell. Der Sprecher muss als solcher im System registriert sein, bevor das tatsächliche Training stattfindet.
  • Sind die Modelle einmal trainiert, wird eine Äußerung eines zu identifizierenden oder zu überprüfenden Sprechers mit allen Sprechermodellen verglichen. Die Identität des Sprechers wird durch das Auffinden des Modells mit der höchsten Wahrscheinlichkeit für die Äußerung und das Abrufen der Identität des dem Modell zugeordneten Sprechers bestimmt.
  • Da es für Benutzer lästig ist, viel Zeit damit zu verbringen, das System zu trainieren, besteht ein Bedarf daran, die Anforderungen an den Sprecher und die Menge der Trainingsdaten zu minimieren. An sich wurden verschiedene Lösungsansätze vorgeschlagen, die darauf abzielen, bessere Parameterschätzwerte der Sprechermodellierung zu erzeugen, wenn nur wenige Registrierungsdaten zur Verfügung stehen. Diese Systeme erfordern es jedoch nach wie vor, dass sich der Benutzer registriert und das System trainiert. Bei Systemen der Nachrichtenelektronik kann dies jedoch immer noch eine zu hohe Hürde für die Benutzer darstellen und die Akzeptanz des Systems beeinträchtigen. Außerdem ist das System dadurch für gelegentliche Benutzer, die mit der Registrierung nicht vertraut sind, schwer zu bedienen.
  • Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und ein System zu schaffen, die in der Lage sind, Sprecher automatisch zu identifizieren, ohne dass die Sprecher sich registrieren müssen, indem sie das System explizit trainieren.
  • Zur Lösung der Aufgabe der Erfindung wird eine Vielzahl von Sprechermodellen im Hintergrund erzeugt, indem
    • – Trainingsäußerungen von einer Vielzahl von Sprechern im Hintergrund empfangen werden, ohne dass die Sprecher, die die entsprechenden Trainingsäußerungen sprachen, vorher bekannt waren,
    • – blindes Zusammenfassen in Gruppen (engl. clustering) der Trainingsäußerungen auf der Grundlage eines vorher festgelegten Kriteriums und
    • – Trainieren für jedes der Cluster eines entsprechenden Sprechermodells, wobei jedes der Modelle einen Sprecher darstellt.
  • Bei dem erfindungsgemäßen Lösungsansatz können sprecherspezifische Modelle trainiert werden, ohne dass auf die Registrierungsdaten zurückgegriffen werden muss, sondern stattdessen offline ermittelte Sprache von Sprechern eingesetzt wird. Um dies zu erreichen ist das System mit der Fähigkeit versehen, verschiedene Sprecherstimmen automatisch ohne menschliches Eingreifen zu ermitteln, zu klassifizieren und zu lernen. Da das Lernen ein im Hintergrund ablaufender oder verborgener Vorgang ist, wird es als Hintergrundlernen bezeichnet. In der Beschreibung wird sich das Hintergrundlernen auf das Stapellernen (engl. batch learning) konzentrieren. Das Stapellernen wird zu einem Zeitpunkt durchgeführt, an dem genug Sprachdaten von allen zu identifizierenden Sprechern im Hintergrund ermittelt wurden. Das Hintergrundlernen wird vorteilhaft in einem Sprachsteuersystem eingesetzt. Die meisten sprecherunabhängigen Sprachsteuersysteme nach dem Stand der Technik können von einem Benutzer eingesetzt werden, ohne dass er das System zuerst trainieren muss. Während der Benutzer das Sprachsteuersystem einsetzt, werden die von dem Benutzer geäußerten Befehle aufgezeichnet und für das erfindungsgemäße Hintergrundlernen genutzt. Bei gewissen anderen Anwendungen kann es sogar möglich sein, dass in dem Falle, dass der Benutzer ein neues System erhält, das mit dem erfindungsgemäßen Hintergrundlernen ausgerüstet ist, das System automatisch beginnt, Äußerungen von Benutzern zu ermitteln, indem es beispielsweise jegliche Sprache, die über ein Mikrofon empfangen wird, aufzeichnet. Zu diesem Zweck kann das System mit Software ausgerüstet sein, die zwischen Sprache und anderen Lauten unterscheidet. Das System kann die Aufzeichnung ohne Eingreifen des Benutzers starten oder nachdem es von einem Benutzer aktiviert wurde. In beiden Fällen verfügt das System anfangs nicht über Informationen darüber, wer gerade die Äußerungen spricht. Für die Erfindung ist es ferner nicht erforderlich, dass die Benutzer vorher festgelegte Phrasen, beispielsweise Passwörter sprechen. Es wird angenommen, dass jede der ermittelten Äußerungen Sprachsegmente von einem einzigen Sprecher enthält. Mit anderen Worten: Attribute jeder Äußerung können ausschließlich als von nur einem Sprecher stammend beurteilt werden.
  • Hat das System einmal genug Daten gemäß einem vorher festgelegten Kriterium ermittelt, beinhaltet das Stapellernen das blinde Zusammenfassen in Clustern der Sprachdaten gemäß Sprechermerkmalen, die von einem vorher festgelegten Kriterium definiert werden. Danach folgt als Option das Trainieren sprecherspezifischer Modelle mit Hilfe selbst gekennzeichneter Daten. Dieses Stapellernverfahren wird eingesetzt, wenn ein System ohne Überwachung initiiert werden muss. Als Alternative kann das erfindungsgemäße Hintergrundlernen in Form eines „inkrementalen Lernens" eingesetzt werden. Dies ist verbunden mit dem Hinzufügen neuer Benutzer zu dem aktuellen System oder dem Ermitteln neuer Sprachdaten zum Anpassen früherer Sprechermodelle. Das System führt vorher eine Überprüfung durch um zu ermitteln, ob die neuen ermittelten Daten von bereits identifizierten Sprechern stammen. Ist dies der Fall, werden die Daten als Option dazu verwendet, frühere Sprechermodelle anzupassen. Sonst werden die Daten blind in Clustern zusammengefasst und dadurch neue Sprechermodelle erzeugt.
  • Auf diese Weise wird das schwierige Problem der Genauigkeit bzw. der Registrierung umgangen, und es werden somit die Anforderungen an den Benutzer reduziert.
  • Es ist anzumerken, dass in dem Dokument US 5.862.519 ein Verfahren zum blinden Zusammenfassen in Clustern von Sprache für ein System zur Sprecheridentifizierungs-/-überprüfung beschrieben wird. In diesem System wird das blinde Zusammenfassen in Clustern dazu verwendet, Äußerungen, typischerweise Passworte, automatisch in Teilworteinheiten zu segmentieren. Bei dem bekannten System wird die blinde Segmentierung dazu verwendet, eine unbekannte Passwortphrase basierend auf einer Homogenitätseigenschaft, bei der die Segmentgrenzen nicht bekannt sind, in Teilworteinheiten zu segmentieren. Die Passwortphrase kommt von einem angemeldeten Sprecher. Das bedeutet, dass der Sprecher dem System bekannt ist und das System momentan trainiert. In dem erfindungsgemäßen System wird die blinde Zusammenfassung in Clustern dazu verwendet, Äußerungen von demselben Sprecher zusammenzufassen, wobei die Äußerungen Teil einer Sammlung von Äußerungen mehrerer Sprecher sind. Eine Sammlung von Äußerungen wird blind in mehrere Sprechern zugeordnete Cluster unterteilt. Während der Zusammenfassung in Clustern existiert keine vorherige Kenntnis der Sprecher.
  • Gemäß der Maßnahme des abhängigen Anspruchs 2 wird ein Modell jeder im Hintergrund empfangenen Äußerung erstellt. Jede der Äußerungen wird ferner mit allen derartigen Modellen verglichen. Daraus ergibt sich für jede Äußerung ein Vektor der Wahrscheinlichkeiten. Die Unterscheidung wird verbessert, indem die Wahrscheinlichkeiten durch ein Ranking auf der Basis der Wahrscheinlichkeiten ersetzt werden. Der Abstand zwischen den Rankingvektoren bildet das allgemeine Kriterium für die Unterscheidung zwischen Äußerungen verschiedener Sprecher, da es sich herausgestellt hat, dass der Abstand zwischen Rankingvektoren geringer ist, wenn die Rankingvektoren zu Äußerungen desselben Sprechers gehören, als wenn die Rankingvektoren zu Äußerungen von verschiedenen Sprechern gehören. Auf der Grundlage dieses Kriteriums werden die Äußerungen in Clustern zusammengefasst. Für jedes der Cluster wird ein Modell erstellt. Von diesem Modell wird angenommen, dass es spezifisch für einen Sprecher ist. Es ist offensichtlich, dass, wenn das Ranking so aufgebaut ist, dass eine hohe Wahrscheinlichkeit einen hohen Wert in dem Ranking ergibt, Äußerungen desselben Sprechers sich als minimaler Abstand zwischen den Rankingvektoren darstellen. Ein geeignetes Ranking der Elemente des Wahrscheinlichkeitsvektors ergibt ein gutes Leistungsvermögen bezüglich der Unterscheidung.
  • Gemäß der Maßnahme in dem abhängigen Anspruch 3 wird in dem Ranking ein Schwellenwert basierend auf der erwarteten Anzahl von Äußerungen pro Cluster eingesetzt. Dies unterstützt den Vorgang des Zusammenfassens in Clustern.
  • Gemäß der Maßnahme des abhängigen Anspruchs 5 kann sich der Benutzer anhand seiner Stimme registrieren. Es wird automatisch das Modell mit der höchsten Wahr scheinlichkeit bestimmt und die Identität des Benutzers für dieses Modell gespeichert, wodurch die Registrierung schnell und einfach wird.
  • Gemäß der Maßnahme des abhängigen Anspruchs 6 wird während der Registrierung geprüft, ob das Modell bereits ausreichend trainiert wurde. Falls nicht, werden einige weitere Äußerungen empfangen und das teilweise erstellte Modell an die neuen Äußerungen angepasst. Auf dieses Weise ist die Registrierung auch schnell im Vergleich zu einem Anfang bei Null.
  • Gemäß der Maßnahme des abhängigen Anspruchs 7 wird die blinde Zusammenfassung in Clustern gestoppt, wenn ein Modell ausreichend dahingehend trainiert ist, dass ein Sprecher mit ausreichender Sicherheit identifiziert werden kann.
  • Gemäß der Maßnahme des abhängigen Anspruchs 8 wird der Sprecher, wenn ein Modell erst einmal ausreichend trainiert wurde, automatisch aufgefordert, seine Identität anzugeben, so dass der Sprecher von dem Moment an automatisch identifiziert werden kann. Auf diese Weise braucht der Sprecher sich nicht einmal mehr zu registrieren.
  • Wie in der Maßnahme des abhängigen Anspruchs 9 definiert, zieht die Identifizierung eines Sprechers das automatische Abrufen eines Personenprofils für die Interaktion mit einer Vorrichtung der Nachrichtenelektronik nach sich. Dies ermöglicht die personalisierte Nutzung von Ausrüstungen der Nachrichtenelektronik auf sehr benutzerfreundliche Weise.
  • Diese und weitere Aspekte der Erfindung sind in den Zeichnungen dargestellt und werden im Folgenden näher beschrieben. Es zeigen:
  • 1 ein Blockschaltbild des erfindungsgemäßen Systems zur Sprecheridentifizierung,
  • 2 die Unterscheidungsleistung der Wahrscheinlichkeitsvektoren,
  • 3 ein Blockschaltbild der blinden Zusammenfassung in Clustern,
  • 4 die Wirksamkeit der Zusammenfassung von Äußerungen in Clustern,
  • 5 die Sprecheridentifizierungsleistung des Systems und
  • 6 den Einsatz der Sprecheridentifizierung in einem Sprachsteuerungssystem.
  • 1 zeigt ein Blockschaltbild des erfindungsgemäßen Systems zur Sprecheridentifizierung. Das System umfasst drei Hauptblöcke, die zeitlich sequentiell funktionieren: das Hintergrundlernen 110, die Sprecherregistrierung 120 und die Sprecheridentifi zierung 130. Das Hintergrundlernen umfasst die Ermittlung von Sprachdaten 112, gefolgt von der blinden Zusammenfassung in Clustern 114 von Sprachäußerungen basierend auf Sprechermerkmalen. Das blinde Zusammenfassen in Clustern von Äußerungen zielt darauf ab, unbekannte Äußerungen zu gruppieren, wenn keine Vorabinformationen bezüglich der Sprecheridentitäten oder sogar der Sprecherpopulationsgröße zur Verfügung stehen. Einzelheiten dieser Komponente werden unten beschrieben. Sind die Cluster einmal zusammengefasst, stellt die Sprechermodellierung 116 sicher, dass Äußerungen in jeder dieser Cluster dazu verwendet werden, ein entsprechendes Modell betreffend einen möglichen Sprecher zu trainieren. Die Modelle werden vorzugsweise mit Hilfe des üblichen Verfahrens der Gauß'schen Mischmodellierung (engl. Gaussian mixture modeling, GMM) trainiert, bei der ein Satz von M Clustern durch GMMs c1 , λc2 , ... λcM } dargestellt wird. Dem Fachkundigen ist ersichtlich, dass auch andere, im Bereich der Sprachverarbeitung allgemein bekannte Modelle eingesetzt werden können. Es werden keine Einzelheiten spezifischer Modelle gegeben, da derartige Modelle allgemein bekannt sind. Die zur Durchführung der Erfindung verwendete Hardware an sich ist herkömmlicher Art, beispielsweise kann ein Mikroprozessor oder ein DSP (engl. digital signal processor) mit der geeigneten geladenen Software und als Option ein A/D-Wandler und ein Mikrofon zum Empfangen der Sprache eingesetzt werden. Die Software kann in einem Festwertspeicher eingebettet, d. h. gespeichert, sein oder von einem Hintergrundspeicher, beispielsweise einer Festplatte oder einer CD-ROM, oder über ein Netzwerk, beispielsweise das Internet, geladen werden.
  • Da das Hintergrundlernen unüberwacht erfolgt, liegen anfangs keine Informationen dazu vor, welches Modell welchem Sprecher zugeordnet ist. Zur Durchführung der anschließenden Sprecheridentifizierung, die den tatsächlichen Sprecher wirklich identifiziert, ist es erwünscht, jedes der Modelle mit seiner entsprechenden Sprecheridentität zu kennzeichnen, wie es in Block 122 dargestellt ist. Dies kann erfolgen, wenn der Sprecher eine formelle Registrierung durchführt. In dieser Phase fordert das System jeden der Sprecher auf, ein paar Registrierungsdaten, beispielsweise nur eine willkürliche Äußerung y, zu liefern. Das System teilt dem Sprecher auf der Grundlage dieser Registrierungsäußerung das am besten geeignete Modell zu. In anderen Worten, der Sprecher „nimmt" eines der Sprechermodelle mittels seiner Stimme „an". Zu diesem Zweck wird vorzugsweise eine Maximum-Likelihood-Entscheidungsregel verwendet, durch die das Sprechermodell mit der höchsten Wahrscheinlichkeit ausgewählt wird. Das System entscheidet zugunsten des Modells für den Sprecher Si, das Folgendes erfüllt:
    Figure 00070001
  • Es ist offensichtlich, dass es bei gewissen Anwendungen nicht erforderlich ist, die genaue Identität eines Sprechers zu kennen. Es kann ausreichen, dass das System in der Lage ist, zwischen Sprechern zu unterscheiden. Als solcher ist der Block 120 eine Option. Hat keine Registrierung stattgefunden, kann ein Sprecher einfach durch eine Nummer identifiziert werden, die jedem entsprechenden Sprechermodell zugeordnet ist.
  • Während der in Block 130 dargestellten Identifizierung nimmt das System im Block 132 als Eingabe eine unbekannte Testäußerung, sagen wir z, und erzeugt als Ausgabe die Identität des hypothetischen Sprechers, die Folgendes erfüllt:
    Figure 00070002
    wobei Q die Anzahl der Benutzer ist. Dies bedeutet, dass die Identität des dem Sprechermodell mit der höchsten Wahrscheinlichkeit zugeordneten Sprechers abgerufen wird.
  • Die Hinweise zur Zusammenfassung von Äußerungen in Clustern
  • Ein Satz von N Sprachäußerungen von P umgebenden Sprechern {S1, S2, ..., SP} sei bezeichnet mit {x1, x2, ..., xN}, wobei N > P und P vorher unbekannt sein kann. Das Ziel der Zusammenfassung der Äußerungen in Clustern besteht darin, eine Aufteilung der Äußerungen in einen Satz mit M Clustern zu erzeugen, so dass alle Äußerungen in einem Cluster vorzugsweise von nur einem Sprecher stammen. Idealerweise ist M = P, so dass alle Äußerungen von einem spezifischen Sprecher in einem einzigen Cluster gruppiert werden können. Zu diesem Zweck ist es eine Voraussetzung, relevante Aspekte von Sprechermerkmalen zu identifizieren, die jeder der Äußerungen innewohnen, und dadurch einige Messungen mit kleinem Unterschied zwischen den Äußerungen desselben Sprechers und mit größerem Unterschied zwischen den Äußerungen verschiedener Sprecher zu erzeugen. In Übereinstimmung mit dem Erfolg des Gauß'schen Mischklassifizierers in der textunabhängigen Sprecheridentifizierung haben die Erfinder erkannt, dass ein aus einer Äußerung gebildetes Gauß'sches Mischmodell (GMM) auch dazu verwendet werden kann, akustischen Raum, der einer Sprecheridentität entspricht, anstelle einer gesprochenen Nachricht zu charakterisieren. Zu diesem Zweck werden Sprachäußerungen zuerst von ihren digitalen Signalformdarstellungen in Ströme von Merkmalsvektoren umgewandelt und jede dieser Äußerungen wiederum durch eine Gauß'sche Mischdichte modelliert. Eine derartige Modellierung ist wohlbekannt und wird hier nicht ausführlich beschrieben. Der Parametersatz von aus den N Äußerungen gebildeten GMMs sei bezeichnet mit U1 , λU2 , ... λUN }. Anschließend wird die Wahrscheinlichkeit jeder Äußerung xi für jedes Modell λUj berechnet als Lij = log p(xiUj ), 1 ≤ i, j ≤ N. Experimente haben gezeigt, dass die Wahrscheinlichkeiten im Allgemeinen hoch sind, wenn Äußerungen und Testmodelle demselben Sprecher zugeordnet sind, und sonst gering sind, d. h. Lij > Lik, wenn S(xi) = S(xj) und S(xi) ≠ S(xk) (3)wobei S(xi) das Sprecherattribut von xi ist. Dieses Kriterium ist jedoch nicht immer gültig. Zur Erzielung eines zuverlässigeren Hinweises bei der Aufteilung von Sprachäußerungen wird es vorgezogen, einen Rankingmechanismus zu verwenden, wie er weiter unten definiert wird.
  • Li = [Li1 Li2 ... LiN]T sei ein N-dimensionaler Vektor. Es hat sich herausgestellt, dass Li und Lj in gewissem Sinne wesentlich „ähnlicher" sind, wenn xi und xj vom selben Sprecher stammen und ansonsten „unähnlich" sind. Um dies zu verdeutlichen, ist in 2 eine Graustufendarstellung der Modellwahrscheinlichkeiten gezeigt, wobei neun Äußerungen von drei Sprechern (drei Äußerungen pro Sprecher) analysiert wurden. Die neun Äußerungen sind vertikal und die neun Modelle horizontal dargestellt. Der schwarze Bereich stellt eine höhere Wahrscheinlichkeit und der weiße Bereich eine geringere Wahrscheinlichkeit dar. Es ist zu sehen, dass die Äußerungen von demselben Sprecher ein ähnlicheres „Wahrscheinlichkeitsmuster" als diejenigen der Äußerungen von verschiedenen Sprechern aufweisen. Ein Maß der „Unähnlichkeit" zwischen den Wahrscheinlichkeitsvektoren kann als solches als Kriterium während der Zusammenfassung in Clustern verwendet werden. Wenn das stochastische Modell λ die wichtigsten charakteristischen Merkmale von Sprecherstimmen erfassen kann, ist der Wert von Lij idealerweise groß, wenn xi und λi demselben Sprecher zugeordnet sind, und ansonsten klein. In der Praxis ist es jedoch schwierig sicherzustellen, dass Lij > Lik für alle Sprecher(xi) = Sprecher(xj) und Sprecher(xi) ≠ Sprecher(xk). Als Beispiel in 2 dargestellt werden x1 und x2 von demselben Sprecher erzeugt, während x8 von einem anderen Sprecher stammt; unglücklicherweise ist in diesem Fall L18 > L12. Daher ist es nicht zuverlässig einfach auf der Grundlage einer einzigen Modellwahrscheinlichkeit zu bestimmen, ob zwei Äußerungen von demselben Sprecher stammen. Zur Lösung dieses Problems wird die Ähnlichkeit von zwei Äußerungen gemessen, indem anstelle einer einzigen Modellwahrscheinlichkeit Äußerungen berücksichtigt wer den, die nicht zum Paar gehören. Das Grundprinzip basiert auf der visuellen Untersuchung des Wahrscheinlichkeitsmusters.
  • Wie in 2 dargestellt besteht eine allgemeine Eigenschaft, dass zwei Vektoren Li und Lj viel ähnlicher in einem Sinne sind, wenn die Äußerungen xi und xj von derselben gesprochenen Sprache und ansonsten „unähnlich" sind. Es stellt sich jedoch die Frage, wie eine derartige visuelle Eigenschaft charakterisiert werden kann. Aufgrund der Tatsache, dass der dynamische Wahrscheinlichkeitsbereich ziemlich groß ist, ist es ungeeignet, den Abstand von Äußerungspaaren direkt mit Hilfe des euklidischen Abstands von zwei L-Vektoren zu messen. Es sei beispielsweise angenommen, dass die Äußerungen y1 und y2 von demselben Sprecher erzeugt werden und y3 von einem anderen Sprecher erzeugt wird. Die resultierenden L-Vektoren sind wahrscheinlich wie folgt (beim Einsatz einer logarithmischen Wahrscheinlichkeit): L1 =[L11L12L13]T = [–1000 –1111 –3222]T L2 = [L21L22L23 T] = [–5111 –4000 –8222]T L3 = [L31L32L33]T = [–900 –800 –300]T
  • Obwohl L12 > L13 und L21 > L23, ∥ L1 – L2 ∥ > ∥ L1 – L3 ∥.
  • Der bevorzugte, weiter unten ausführlicher beschriebene Lösungsansatz zum Zusammenfassen von Sprachäußerungen in Clustern beseitigt diese Probleme.
  • Der Vorgang des Zusammenfassens von Äußerungen in Clustern
  • Als erstes werden für jede Äußerung xi ihre Modellwahrscheinlichkeiten Lij, 1 ≤ j ≤ N gemäß der Regel sortiert, dass ein höherer Rankingwert für eine höhere Priorität zugewiesen wird. Das Ranking der Wahrscheinlichkeiten Lij bezieht sich auf die Wahrscheinlichkeiten der anderen Elemente des Wahrscheinlichkeitsvektors Li. Der Wahrscheinlichkeitsvektor Li an sich für die Trainingsäußerung xi ergibt einen entsprechenden Rankingvektor Fi. Bei einem bevorzugten Ausführungsbeispiel wird ein dazwischen liegender Rankingvektor Ri berechnet, wobei die Vektorelementwerte Rij aus den Ganzzahlen 1 bis N in Abhängigkeit von der Wahrscheinlichkeit Lij mit Bezug auf die Wahrscheinlichkeiten der anderen Elemente des Wahrscheinlichkeitsvektors Li gewählt werden. Bei dem bevorzugten Ausführungsbeispiel ist Rik = 1, wenn k = arg max Lij, und Rik = N wenn k = arg min Lij.
  • Jeder Rankingwert wird normalerweise nur einmal verwendet und von 1 bis N zugewiesen. Auf der Grundlage dieses dazwischen liegenden Rankingvektors wird der tatsächliche Rankingvektor Fi =[Fi1, Fi2 ..., FiN]T für jede Äußerung xi definiert als Fij = 1/Rij.
  • Eine weitere Verbesserung wird erzielt, indem die Unterscheidung erhöht wird:
    Figure 00100001
    wobei η eine Ganzzahl ist, die die erwartete Anzahl von Äußerungen pro Cluster darstellt. Durch diese Vorgehensweise kann ein allgemeines Kriterium zum Unterscheiden der Äußerungen unterschiedlicher Sprecher abgeleitet werden, D(Fi, Fj) < D(Fi, Fk), wenn S(xj) = S(xj), und S(xi) ≠ S(xk) (5)wobei D(Fi, Fj) ein geeignetes Abstandsmaß für Fi und Fj ist.
  • Mit Bezug auf das obige Beispiel sind die entsprechenden Rankingvektoren: F1 =[1 1/2 1/3]T F2 = [1/2 1 1/3]T F3 = [1/3 1/2 1]T
  • In diesem Beispiel ist η = 3. Daraus ergibt sich ∥F1 – F2∥ = 0,5, ∥F1 – F3∥ = 0,89 und ∥F2 – F3∥ = 0,72. Offensichtlich ist y1 und y2 das am nächsten zusammen liegende Paar.
  • Der Einsatz der Schwellenwertbildung verdeutlicht die Tatsache, dass nur größere Modellwahrscheinlichkeiten nützlich dafür sind, die Beziehung zwischen einer Äußerung und ihren Begleitern mit denselben wahren Sprecheridentitäten zu verdeutlichen. Zur Verdeutlichung wird das in 2 dargestellte Beispiel verwendet. Die Zwischenrankingmatrix Rij für dieses Beispiel ist Folgende:
    Figure 00100002
  • Bei der Erstellung der Rankingmatrix Fij (η = 3) ergibt sich:
    Figure 00110001
  • Bei der Berechnung der paarweisen Abstände ∥Fi – Fj∥ ergibt sich:
    Figure 00110002
  • Die Eigenschaft, dass ∥Fi – Fj∥ < ∥Fi – Fk∥, wenn Sprecher(xi) = Sprecher(xj) und Sprecher(xi) ≠ Sprecher(xk), wird erneut klar demonstriert. Der tatsächliche Wert für η kann in Abhängigkeit von der ermittelten Datenmenge empirisch ermittelt werden.
  • Auf der Grundlage des Kriteriums des Abstands zwischen den Rankingvektoren kann das blinde Zusammenfassen in Clustern von Äußerungen pro Sprecher als ein Problem des herkömmlichen Zusammenfassens von Vektoren in Clustern formuliert werden. Fachkundige können jeglichen geeigneten Clusteringalgorithmus einsetzen. Zur Lösung des Problems kann beispielsweise der gut entwickelte k-Means-Clustering-Algorithmus verwendet werden. Zur Vermeidung des Problems der fehlenden Aufteilung, wie sie eventuell bei dieser Anwendung auftritt, wird es jedoch vorgezogen, den folgendermaßen veränderten k-Means-Algorithmus einzusetzen:
  • Schritt 1: Initialisierung Anzahl der Cluster auf k = 2 einstellen. Willkürlich einen Vektor, beispielsweise Fi, als Vertreter des Clusters C1 auswählen. Dann den Vektor, der am weitesten von Fi entfernt ist (bezüglich des gewählten Abstandsmaßes, beispielsweise des Euklidischen Abstands), als Vertreter des Clusters C2 auswählen.
  • Schritt 2: Suche nach dem nächsten Nachbarn. Für jeden Vektor Fj einen der Vertreter in jedem der Cluster auswählen, der sich am nächsten zu Fj befindet, und dann Fj dem entsprechenden Cluster zuweisen, das zu dem am nächsten gelegenen Vertreter gehört.
  • Schritt 3: Aufteilung. Für alle Cluster den Vektor finden, der am weitesten von dem Vertreter entfernt ist, der zu seinem aktuellen Cluster gehört. Der Vektor wird dann Vertreter eines neuen Clusters. k = k + 1 einstellen.
  • Schritt 4: Schritte 2 und 3 wiederholen, bis k = M.
  • 3 zeigt ein Blockschaltbild des erfindungsgemäßen blinden Zusammenfassens von Äußerungen in Clustern. In den Blöcken 310, 312, ..., 318 wird für jede der Äußerungen xi ein entsprechendes Modell λUi erzeugt. In Block 320 werden für jede der Äußerungen xi die Wahrscheinlichkeiten der Äußerungen für jedes der Modelle berechnet. Daraus ergibt sich für jede der Äußerungen einen Wahrscheinlichkeitsvektor Li = [Li1 L12 ... LiN]T. In Block 332 bis 338 wird für jede der Äußerungen xi ein entsprechender Rankingvektor Fi = [Fi1, Fi2, ..., FiN]T berechnet auf der Grundlage der relativen Wahrscheinlichkeit der Elemente ihres Wahrscheinlichkeitsvektors Li. In Block 340 werden die Äußerungen xi auf der Grundlage eines Abstandskriteriums zwischen den Rankingvektoren der Äußerungen in Clustern zusammengefasst.
  • VERSUCHSERGEBNISSE
  • Sprachdatenbank
  • Die zum Testen des erfindungsgemäßen Systems verwendete Datenbank bestand aus 5000 Äußerungen, die von 100 Sprechern (50 männlichen und 50 weiblichen) stammten. Jeder Sprecher gab 50 Äußerungen von sich, die in drei Sitzungen aufgezeichnet wurden. Die Dauer dieser Äußerungen betrug zwischen 2 und 5 Sekunden. Alle 100 Sprecher fungierten als Nutzer, d. h. P = Q = 100. Die Datenbank wurde ferner in drei Teilgruppen eingeteilt, die entsprechend als DB-1, DB-2 und DB-3 bezeichnet wurden. Die erste Teilgruppe DB-1 bestand aus 20 Äußerungen pro Sprecher (was ungefähr einer Gesamtdauer von 80 Sekunden entsprach) und diente als offline ermittelte Daten. Die zweite Teilgruppe DB-2 bestand aus 10 verschiedenen Äußerungen, die nicht die Sprachsegmente in DB-1 enthielten. Jede der Äußerungen in DB-2 wurde als Registrierungsdaten von Nutzern verwendet. Die dritte Teilgruppe DB-3 bestand aus den restlichen 20 Äußerungen und diente als Testgruppe für Experimente zur Sprecheridentität. Alle Äußerungen wurden in einer relativ ruhigen Umgebung aufgezeichnet und mit einer Genauigkeit von 16 Bits bei 22,05 kHz abgetastet. Sprachmerkmale, die 21 MFCCs enthielten (der 0-te Koeffizient wird nicht verwendet), wurden dann für jeden der Hanning-Fensterfunktion unterzogenen 20-ms-Frame mit 10-ms-Frameverschiebungen extrahiert.
  • Clusterauswertung
  • Da die Effektivität des Systems der Sprecheridentifizierung (ID) ganz wesentlich davon abhängt, wie gut die offline ermittelten Äußerungen in Clustern zusammengefasst werden, ist es erforderlich, die Effizienz des Verfahrens des Zusammenfassens der Äußerungen in Clustern auszuwerten, bevor Experimente zur Sprecheridentifizierung durchgeführt werden. Die Qualität der Aufteilung wurde mit Hilfe der Clusterreinheit gemessen. Die Reinheit ist eine Menge, die das Ausmaß beschreibt, in dem alle Äußerungen in einem Cluster von demselben Sprecher stammen. Für das Cluster m ist die Reinheit definiert als
    Figure 00130001
    wobei nm die Anzahl von Äußerungen in dem Cluster m und nmk die Anzahl von Äußerungen in dem Cluster m ist, die von dem Sprecher Sk gesprochen wurden. Die Berechnung dieser Messung erfordert die Kenntnis des wahren Attributs jeder Äußerung. Die Gesamtef fizienz des Verfahrens des Zusammenfassens in. Clustern wird als durchschnittliche Reinheit ausgewertet:
    Figure 00140001
  • Computersimulationen wurden an dDB-1 durchgeführt, um die blinde Zusammenfassung von Äußerungen in Clustern zu untersuchen. Die Anzahl der Gauß'schen Mischungen pro Äußerung variierte zwischen 2 und 8 pro Durchlauf, und der Parameter η wurde in allen Experimenten auf (N/M) eingestellt. 4 zeigt die durchschnittliche Reinheit gegenüber der Anzahl von verwendeten Clustern. Ist die Anzahl der Cluster gleich der Sprecherpopulationsgröße (M = P = 100), wird eine durchschnittliche Reinheit von 0,86 erzielt. Mit zunehmender Anzahl von Clustern nimmt die Reinheit zu. Die Äußerungen von verschiedenen Sprechern konnten perfekt getrennt werden, wenn 700 Cluster verwendet wurden. Die Ergebnisse zeigen auch, dass die Zusammenfassung in Clustern nicht von der Anzahl der verwendeten Mischungen pro Äußerung abhing. Im Folgenden wurden die von 4 Mischungen/Äußerung erzielten Clusteringergebnisse verwendet, um Experimente zur Sprecheridentifizierung durchzuführen.
  • Experimente zur Sprecheridentifizierung
  • Als erstes wurde ein grundlegendes System, das auf herkömmliche überwachte Weise funktioniert, zum Leistungsvergleich ausgewertet. Hierbei wurden zwei Gruppen von Experimenten durchgeführt, um die Systemleistung hinsichtlich unterschiedlicher Mengen von Trainingsdaten zu untersuchen. In der ersten Gruppe von Experimenten wurden Modelle für bestimmte Sprecher unter Verwendung von 20 Äußerungen/Sprecher in DB-1 zusammen mit wahren Sprecherattributen trainiert. Danach wurden wiederum 20 Äußerungen/Sprecher in DB-3 dazu verwendet, das System zu testen, und die Genauigkeit der Sprecheridentifizierung wurde dann als der Prozentsatz korrekt identifizierter Äußerungen von allen Testäußerungen berechnet. Die Genauigkeit der Sprecheridentifizierung wurde auch hinsichtlich der unterschiedlichen Anzahl von Gauß'schen Mischdichten pro Sprechermodell gemessen, die von 2 bis 32 variierte. In der zweiten Gruppe von Experimenten wurde jedes Sprechermodell unter Verwendung einer aus DB-2 ausgewählten Äußerung trainiert.
  • Diese experimentelle Einstellung kann als die Verwendung von wenigen Daten im Training von Sprechermodellen betrachtet werden. Zur Erzielung statistisch signi fikanter Ergebnisse wurde zusätzlich jede einzelne Äußerung aus DB-2 einmal gewählt, und es wurden ähnliche Experimente für zehn Versuche durchgeführt. Schließlich wurde die durchschnittliche Genauigkeit der Sprecheridentifizierung berechnet. Die folgende Tabelle gibt die Genauigkeit der Sprecheridentifizierung unter Verwendung der Ergebnisse der beiden Gruppen von Experimenten wieder. Es ist zu sehen, dass das herkömmliche System zur Sprecheridentifizierung auf der Grundlage eines überwachten Trainings von GMMs sehr gut funktioniert, wenn eine große Menge von Registrierungsdaten verwendet wurde, während die Leistung drastisch abfällt, wenn nur wenige Registrierungsdaten verwendet wurden. Die Tabellendaten zeigen auch eine obere und eine untere Grenze der Leistung der Sprecheridentifizierung auf der Grundlage unseres vorgeschlagenen nicht überwachten Lernvorgangs.
  • Figure 00150001
  • Anschließend wurden Experimente durchgeführt, um die Gültigkeit des erfindungsgemäßen Systems zur Sprecheridentifizierung zu testen. Die Bestimmung einer angemessenen Anzahl von zur Darstellung verschiedener Sprecher benötigten Cluster ist der erste Schritt bei der Anwendung von Hintergrundlernen auf das Problem der Sprecheridentifizierung. Wie bereits erwähnt kann je größer die Anzahl von eingesetzten Clustern ist, eine umso höhere Reinheit erzielt werden. Bei einer großen Menge von Clustern besteht jedoch die Gefahr, dass wenige Daten für das Training von Sprechermodellen verwendet werden. Aus diesem Grund wurden die folgenden Experimente durchgeführt, um die Auswirkung der Sprecheridentifizierungsleistung hinsichtlich der Anzahl von Clustern und der Anzahl von verwendeten Mischungen pro Sprechermodell zu untersuchen. Zur Erzielung statistisch signifikanter Ergebnisse wurden zusätzlich zehn Versuche mit verschiedenen, aus DB-2 ausgewählten Registrierungsäußerungen pro Sprecher durchgeführt und dann die durchschnittliche Genauigkeit der Sprecheridentifizierung berechnet. 5 fasst die Ergebnisse der Sprecheridentifizierung zusammen. Die beste Genauigkeit der Sprecheridentifizierung von 95,6% wurde erzielt, indem 150 Cluster zusammen mit 4 Mischungen pro Sprechermodell eingesetzt wurden. Bei zunehmender Anzahl von Clustern nimmt die Genauigkeit der Sprecheridentifizierung nach und nach ab. Die Ergebnisse lassen vermuten, dass die angemes sene Anzahl von Clustern so gewählt werden kann, dass sie etwas größer als die Sprecherpopulationsgröße ist (wenn sie vorher bekannt ist). Es wird vorgezogen, dass Äußerungen von demselben Sprecher in mehr als einem Cluster vorliegen, anstelle Äußerungen von verschiedenen Sprechern in denselben Clustern zu gruppieren. Im Vergleich zu den Ergebnissen in der obigen Tabelle ist es offensichtlich, dass die Leistung der Sprecheridentifizierung mit Hilfe von wenigen Registrierungsdaten durch das Hintergrundlernen der Sprecherstimmen stark verbessert werden kann. Die Ergebnisse zeigen auch, dass das vorgeschlagene nicht überwachte Lernschema bezüglich der Sprecheridentifizierung mit dem herkömmlichen überwachten System konkurrieren kann.
  • Das Verfahren des Hintergrundlernens erleichtert den Einsatz der Sprecheridentifizierung und macht als solches den Weg für den Einsatz der Sprecheridentifizierung in mehr Systemen der Nachrichtenelektronik frei. Im Gegensatz zur herkömmlichen Sprecheridentifizierung baut das erfindungsgemäße Verfahren des Hintergrundlernens nicht darauf, dass sich ein Benutzer explizit registriert und das System trainiert, um sprecherspezifische Modelle zu erstellen, sondern versucht stattdessen, Sprecherstimmen über das Zusammenfassen in Clustern und die parametrische Modellierung von offline ermittelten Sprachsignal auf unüberwachte Weise zu lernen. Dadurch wird ein Registrieren einer großen Menge von Sprachdaten von Benutzern überflüssig. Wie oben beschrieben sind zur Vorbereitung eines Systems für den Einsatz die folgenden beiden Schritte erforderlich: Das blinde Zusammenfassen in Clustern für Offline-Sprachäußerungen wird gemäß dem beschriebenen Algorithmus durchgeführt.
  • Die Kennzeichnung von Sprechern wird wie oben für Block 122 in 1 beschrieben durchgeführt. In den nachfolgenden Beispielen wird der Benutzer persönlich angesprochen. Als solches sind persönliche Informationen über den Benutzer, beispielsweise der Name des Benutzers, erforderlich. Für gewisse Anwendungen kann es ausreichen, zwischen verschiedenen Benutzern zu unterscheiden, wodurch das Hinzufügen persönlicher Informationen unnötig wird.
  • Abgesehen von der herkömmlichen Registrierung für die Sprechererkennung ermöglicht das erfindungsgemäße System zwei neue Arten der Registrierung in Abhängigkeit von der Menge der ermittelten Sprecherdaten. Die erste ist ein von dem System erzeugter automatischer Registrierungsvorgang. Er kann als „Registrierung durch Begrüßen eines alten Freundes" bezeichnet werden. Das Szenario ist folgendes:
    Während das System eine Zeit lang aktiv ist (in der es beispielsweise eine sprecherunabhängige Sprachsteuerung nutzt oder lediglich Sprecherdaten im Hintergrund ermittelt), ermittelt das System automatisch Äußerungen des Benutzers und erstellt Sprechermodelle anhand des beschriebenen Verfahrens des Hintergrundlernens.
  • Wenn einer der Sprecher zu einem gewissen Zeitpunkt das Konfidenzmaß erreicht (d. h. die Wahrscheinlichkeit einer Äußerung (beispielsweise ein Sprachbefehl zur Steuerung des Systems) hat verglichen mit einem der Modelle einen vorher festgelegten Schwellenwert überschritten), führt das System eine automatische Registrierung durch. Dies kann wie das Begrüßen eines alten Freundes ablaufen, bei dem das System unter Verwendung von vorher aufgezeichneten Meldungen oder von Sprachsynthese eventuell sagt:
    „Hallo mein Freund. Ich höre wieder einen bekannten Klang von dir, kannst du mir deinen Namen mitteilen?"
  • Nach der Registrierung kann das System den Sprecher durch seine Stimme identifizieren.
  • Das System kann die persönlichen Informationen in jeglicher geeigneten Form zusammen mit dem für den Sprecher identifizierten Sprachmodell speichern. Der Sprecher kann beispielsweise persönliche Informationen geliefert haben, indem er seinen Namen sagt. Das System kann diesen Namen in einer Form speichern, die die Sprache darstellt. Beim nächsten Mal, wenn derselbe Sprecher mit dem System spricht, kann das System die aufgezeichnete Sprache wenn gewünscht mit Hilfe von Sprachsyntheseverfahren erneut erzeugen, damit der aufgezeichnete Name so klingt, wie es für das System normal ist. Das System kann auch den Namen erkennen, indem es Spracherkennungsverfahren einsetzt, und eine erkannte Darstellung, beispielsweise einen Text, speichern. Das System kann den Benutzer auch auffordern, den Namen einzugeben und diese Textdarstellung speichern.
  • Eine zweite Art der Registrierung wird durchgeführt, wenn zu dem Zeitpunkt, an dem zum ersten Mal eine Sprecheridentifizierung erforderlich ist, nicht genug Trainingsdaten zur Verfügung stehen. Das System wird den Benutzer auffordern, mehr Äußerungen von sich zu geben. Die Anzahl der erforderlichen eingegebenen Äußerungen hängt von den Daten ab, die bereits ermittelt wurden. Wenn einmal ein ausreichendes Konfidenzmaß erreicht ist, wird die Sprechermodellanpassung mit Hilfe jegliches geeigneten Modellanpassungsalgorithmus durchgeführ. Diese Form der Registrierung kann als eine „einfache Registrierung durch Anpassung" angesehen werden. Der Benutzer braucht nur ein paar Anpassungsdaten zu sprechen, um ein Sprechermodell zu erstellen. Verglichen mit herkömmlichen Lösungsansätzen erfordert diese Form der Registrierung weniger Zeit.
  • Personalisiertes und interaktives sprachgesteuertes System
  • Bei herkömmlichen sprachgesteuerten Systemen sind personalisierte und interaktive Funktionen nicht gut in die Sprachsteuerung integriert. Normalerweise können Benutzer die Vorrichtung über die Stimme steuern, und die Person kann sich gleichzeitig mit anderen Dingen befassen. Beispielsweise kann der Fernseher mit Hilfe eines Sprachbefehls „EIN" aktiviert werden. Bei herkömmlichen Sprachsteuerungssystemen gibt es keine Möglichkeit, den Fernseher beim Einschalten automatisch auf ein persönliches Standardprogramm einzustellen oder andere persönliche Einstellungen vorzunehmen. Für eine wirksame persönliche Benutzerschnittstelle ist es wünschenswert, dass der Sprecher automatisch identifiziert wird. Die erfindungsgemäße Technik der Sprecheridentifizierung kann zu diesem Zweck wirksam eingesetzt werden und ermöglicht als solches neue Funktionen für sprachgesteuerte Systeme. Wenn beispielsweise der Vater David den Fernseher einschaltet, wird standardmäßig der Kanal „Sport" eingestellt, der seinem Profil gemäß der bevorzugte Kanal ist. Wenn ein zweijähriges Kind Tom den Fernseher über einen Sprachbefehl einschaltet, kann automatisch der Disney-Kanal ausgewählt werden. Dadurch werden die Vorrichtungen benutzerfreundlicher. Speziell sehr kleine Kinder können somit die Vorrichtung ohne Unterstützung bedienen. Die Eltern können vorzugsweise das Profil des Kindes beeinflussen. Durch den Einbau der Technik der Sprecheridentifizierung können sprachgesteuerte Systeme bei verschiedenen Benutzern unterschiedlich reagieren. Ein Blockschaltbild eines kombinierten Sprach-/Sprechererkennungssystems ist in 6 dargestellt. Die Spracheingabe 610 wird an eine Spracherkennungseinheit 620, die so optimiert sein kann, dass sie Sprachbefehle erkennt, und eine Sprechererkennungseinheit 630 gesendet. Die Erkennungseinheiten arbeiten vorzugsweise parallel, ein sequentieller Betrieb kann jedoch auch akzeptabel sein. Die Erkennungseinheiten erzeugen als Ausgabe 640 den erkannten Inhalt (beispielsweise einen Sprachbefehl) und die Identität des Sprechers. Erfindungsgemäß wird dieselbe Äußerung zur Erkennung eines Sprachbefehls und zur Identifizierung des Sprechers verwendet. Der erkannte Befehl wird dann sprecherabhängig ausgeführt.
  • Die Sprecheridentifizierung kann ebenfalls vorteilhaft dazu verwendet werden zu überprüfen, ob eine Person die Erlaubnis hat, eine Vorrichtung (beispielsweise ein Handy) zu bedienen oder gewisse Funktionen durchzuführen, zum Beispiel einen Sender für Erwachsene anzuschauen. Bei personalisierten und interaktiven sprachgesteuerten Systemen können persönliche Profile und Inhalte automatisch erstellt werden, indem die Programmaufzeichnungen von sprachgesteuerten Vorrichtungen analysiert werden. Das Profil stellt die Gewohnheiten des Benutzers für das sprachgesteuerte System dar. Das System kann das Profil nutzen, um Programme bzw. Einstellungen des Benutzers standardmäßig aufzurufen oder dem Benutzer wie ein Freund, der dessen Gewohnheiten kennt, Vorschläge zu machen.
  • Die Anwendungen der Sprecheridentifizierung wie oben beschrieben können zusammen mit dem erfindungsgemäßen Hintergrundtraining des Identifizierungssystems eingesetzt werden, wodurch das System benutzerfreundlicher wird. Es ist offensichtlich, dass die gleichen Anwendungen auch verwendet werden können, wenn das Identifizierungssystem auf eine andere Art trainiert wird.
  • Text in den Figuren
  • 1
    • Background learning – Hintergrundlernen
    • Speech data collection – Sprachdatenermittlung
    • Blind utterance clustering – Blindes Zusammenfassen der Äußerungen in Clustern
    • peaker modeling – Sprechermodellierung
    • Client registration – Nutzerregistrierung
    • Speaker model tagging – Sprechermodellkennzeichnung
    • Enrollment utterances – Registrierungsäußerungen
    • Speaker ID – Sprecher-ID
    • Maximum likelihood decision – Maximum-Likelihood-Entscheidung
    • Test utterances – Testäußerungen
  • 2
    • Speaker – Sprecher
  • 3
    • Gaussian mixture modelling – Gauß'sche Mischmodellierung
    • Likelihood computation – Wahrscheinlichkeitsberechnung
    • Likelihood pattern characterization – Charakterisierung des Wahrscheinlichkeitsmusters
    • Vector clustering – Zusammenfassen von Vektoren in Clustern
    • Cluster – cluster
  • 4
    • Average purity – durchschnittliche Reinheit
    • Mixtures/utterance – Mischungen/Äußerung
    • Number of clusters – Anzahl der Cluster
  • 5
    • Speaker-ID accuracy – Genauigkeit der Sprecher-ID
  • 6
    • Speech input – Spracheingabe
    • Speech recognizer – Spracherkennungseinheit
    • Speaker recognizer – Sprechererkennungseinheit
    • Recognized content and identity – Erkannter Inhalt und Identität

Claims (11)

  1. Verfahren der automatischen Identifizierung eines Sprechers, wobei das Verfahren Folgendes umfasst: Identifizieren eines Sprechers durch: Empfangen einer Testäußerung von dem Sprecher, Bestimmen eines Sprechermodells mit der höchsten Wahrscheinlichkeit aus einer Vielzahl von Sprechermodellen für die Testäußerung und Identifizieren des dem Sprechermodell mit der höchsten Wahrscheinlichkeit zugeordneten Sprechers als den Sprecher der Testäußerung, wobei das Verfahren die Erstellung der Vielzahl von Sprechermodellen im Hintergrund umfasst durch Empfangen von Trainingsäußerungen von einer Vielzahl von Sprechern im Hintergrund, ohne dass die Sprecher, die die entsprechenden Trainingsäußerungen sprachen, vorher bekannt waren, blindes Zusammenfassen der Trainingsäußerungen in Clustern auf der Grundlage eines vorher festgelegten Kriteriums und Trainieren für jedes der Cluster eines entsprechenden Sprechermodells, wobei jedes der Modelle einen Sprecher darstellt.
  2. Verfahren nach Anspruch 1, wobei der Schritt des blinden Zusammenfassens der Trainingsäußerungen xi, i < N, in Clustern auf der Grundlage des vorher festgelegten Kriteriums Folgendes umfasst: Modellieren jeder entsprechenden der Trainingsäußerungen xi durch ein entsprechendes Modell λi, Berechnen für jede Trainingsäußerung xi eines entsprechenden Wahrscheinlichkeitsvektors Li, wobei jedes Vektorelement Lij, 1 ≤ j ≤ N, eine Wahrscheinlichkeit der Trainingsäußerung xi hinsichtlich eines entsprechenden der Modelle λi darstellt, Bestimmen für jede Trainingsäußerung xi eines entsprechenden Rankingvektors Fi, wobei jedem Element Fij des Rankingvektors ein Rankingwert zugeordnet wird, der ein Ranking der entsprechenden Wahrscheinlichkeit Lij verglichen mit den anderen Elementen des Wahrscheinlichkeitsvektors Li darstellt, so dass ein höherer Wahrscheinlichkeitswert Lij durch einen höheren Rankingwert von Fij wiedergegeben wird, Zusammenfassen der Trainingsäußerungen xi in Clustern auf der Grundlage eines Kriteriums, dass ein Minimum in einem Abstandsmaß zwischen Fi und Fj anzeigt, dass die Trainingsäußerungen xi und xj von demselben Sprecher stammen.
  3. Verfahren nach Anspruch 2, wobei das Ranking so aussieht, dass η niedrigste Wahrscheinlichkeitswerte der Elemente Lij des Wahrscheinlichkeitsvektors Li durch verschiedene Werte der entsprechenden Elemente Fij des Rankingvektors Fi dargestellt werden, und dass die restlichen N – η Elemente Lij des Wahrscheinlichkeitsvektors Li durch denselben vorher festgelegten Rankingwert der entsprechenden Elemente Fij des Rankingvektors Fi dargestellt werden, wobei η eine erwartete Anzahl von Trainingsäußerungen pro Cluster darstellt und der vorher festgelegte Rankingwert niedriger als jegliche der η verschiedenen Rankingwerte ist.
  4. Verfahren nach Anspruch 1, wobei das Verfahren Folgendes umfasst: Empfangen einer Trainingsäußerung von einem Sprecher, Bestimmen eines Sprechermodells mit der höchsten Wahrscheinlichkeit aus einer Vielzahl von Sprechermodellen für die Trainingsäußerung, Empfangen von Identifizierungsinformationen von dem Benutzer und Speichern der Identifizierungsinformationen zusammen mit dem Sprechermodell mit der höchsten Wahrscheinlichkeit.
  5. Verfahren nach Anspruch 4, wobei das Verfahren Folgendes umfasst: Überprüfen, ob eine Wahrscheinlichkeit des Sprechermodells mit der höchsten Wahrscheinlichkeit über einem vorher festgelegten Schwellenwert liegt und, falls die Wahrscheinlichkeit unter dem vorher festgelegten Schwellenwert liegt, Anfordern einer weiteren Äußerung von dem Sprecher und iterativ Empfangen der weiteren Äußerung, Anpassen des Sprechermodells mit der höchsten Wahrscheinlichkeit anhand der weiteren Äußerung und Bestimmen der Wahrscheinlichkeit des angepassten Sprechermodells, bis die Wahrscheinlichkeit über dem vorher festgelegten Schwellenwert liegt.
  6. Verfahren nach Anspruch 1, wobei die Schritte des Aufzeichnens von Trainingsäußerungen, des blinden Zusammenfassens der Äußerungen in Clustern und des Trainierens der Sprechermodelle iterativ durchgeführt werden, bis ein vorher festgelegtes Konfidenzmaß erzielt wurde.
  7. Verfahren nach Anspruch 6, wobei als Reaktion auf das Erzielen des vorher festgelegten Konfidenzmaßes der Sprecher automatisch aufgefordert wird, Informationen zu liefern, die den Sprecher identifizieren, gefolgt von dem Empfangen der Identifizierungsinformationen und Speichern der Identifizierungsinformationen zusammen mit dem Sprechermodell mit der höchsten Wahrscheinlichkeit.
  8. Verfahren nach Anspruch 1, wobei das Verfahren als Reaktion auf die Identifizierung des Sprechers das automatische Abrufen eines persönlichen Profils zur Interaktion mit einer Vorrichtung der Nachrichtenelektronik umfasst.
  9. Verfahren nach Anspruch 1, wobei das Verfahren das Erkennen der zum Identifizieren des Sprechers verwendeten Testäußerung als einen Sprachbefehl und das sprecherabhängige Ausführen des erkannten Sprachbefehls umfasst.
  10. Computerprogrammprodukt, das so funktioniert, dass es einen Prozessor veranlasst, das Verfahren nach Anspruch 1 durchzuführen.
  11. System zum automatischen Identifizieren eines Sprechers, wobei das System Folgendes umfasst: eine Sprecheridentifizierungseinheit (130), die so funktioniert, dass sie einen Sprecher identifiziert durch: Empfangen einer Testäußerung von dem Sprecher, Bestimmen eines Sprechermodells mit der höchsten Wahrscheinlichkeit aus einer Vielzahl von Sprechermodellen für die Testäußerung und Identifizieren des dem Sprechermodell mit der höchsten Wahrscheinlichkeit zugeordneten Sprechers als den Sprecher der Testäußerung, und einen Sprechermodellgenerator (110), der so funktioniert, dass er die Vielzahl von Sprechermodellen erstellt. wobei der Sprechermodellgenerator so funktioniert, dass er die Vielzahl von Sprechermodellen im Hintergrund erstellt durch: Empfangen von Trainingsäußerungen (112) von der Vielzahl von Sprechern im Hintergrund, ohne dass die Sprecher, die die entsprechenden Trainingsäußerungen sprachen, vorher bekannt waren, blindes Zusammenfassen der Trainingsäußerungen in Clustern (114) auf der Grundlage eines vorher festgelegten Kriteriums und Trainieren für jedes der Cluster eines entsprechenden Sprechermodells (116), wobei jedes der Modelle einen Sprecher darstellt.
DE60213595T 2001-05-10 2002-04-25 Hintergrundlernen von sprecherstimmen Expired - Lifetime DE60213595T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP01201720 2001-05-10
EP01201720 2001-05-10
PCT/IB2002/001495 WO2002090915A1 (en) 2001-05-10 2002-04-25 Background learning of speaker voices

Publications (2)

Publication Number Publication Date
DE60213595D1 DE60213595D1 (de) 2006-09-14
DE60213595T2 true DE60213595T2 (de) 2007-08-09

Family

ID=8180281

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60213595T Expired - Lifetime DE60213595T2 (de) 2001-05-10 2002-04-25 Hintergrundlernen von sprecherstimmen

Country Status (7)

Country Link
US (1) US7171360B2 (de)
EP (1) EP1395803B1 (de)
JP (1) JP4369132B2 (de)
CN (1) CN1236423C (de)
AT (1) ATE335195T1 (de)
DE (1) DE60213595T2 (de)
WO (1) WO2002090915A1 (de)

Families Citing this family (178)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US20030233231A1 (en) * 2002-06-13 2003-12-18 International Business Machines Corporation Apparatus and method for managing privacy using voice recognition and caller identification
US20040199495A1 (en) * 2002-07-03 2004-10-07 Sean Colbath Name browsing systems and methods
US20040006628A1 (en) * 2002-07-03 2004-01-08 Scott Shepard Systems and methods for providing real-time alerting
US7389229B2 (en) * 2002-10-17 2008-06-17 Bbn Technologies Corp. Unified clustering tree
US7509257B2 (en) * 2002-12-24 2009-03-24 Marvell International Ltd. Method and apparatus for adapting reference templates
US8005677B2 (en) 2003-05-09 2011-08-23 Cisco Technology, Inc. Source-dependent text-to-speech system
US8229744B2 (en) * 2003-08-26 2012-07-24 Nuance Communications, Inc. Class detection scheme and time mediated averaging of class dependent models
KR100612840B1 (ko) * 2004-02-18 2006-08-18 삼성전자주식회사 모델 변이 기반의 화자 클러스터링 방법, 화자 적응 방법및 이들을 이용한 음성 인식 장치
US20050273333A1 (en) * 2004-06-02 2005-12-08 Philippe Morin Speaker verification for security systems with mixed mode machine-human authentication
US7720012B1 (en) * 2004-07-09 2010-05-18 Arrowhead Center, Inc. Speaker identification in the presence of packet losses
US7725318B2 (en) * 2004-07-30 2010-05-25 Nice Systems Inc. System and method for improving the accuracy of audio searching
WO2006033044A2 (en) * 2004-09-23 2006-03-30 Koninklijke Philips Electronics N.V. Method of training a robust speaker-dependent speech recognition system with speaker-dependent expressions and robust speaker-dependent speech recognition system
US7447633B2 (en) * 2004-11-22 2008-11-04 International Business Machines Corporation Method and apparatus for training a text independent speaker recognition system using speech data with text labels
JP2007057714A (ja) * 2005-08-23 2007-03-08 Nec Corp 話者識別器更新データを生成する装置、方法、プログラムおよび話者識別器を更新する装置、方法、プログラム
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US20070129943A1 (en) * 2005-12-06 2007-06-07 Microsoft Corporation Speech recognition using adaptation and prior knowledge
US20090106025A1 (en) * 2006-03-24 2009-04-23 Pioneer Corporation Speaker model registering apparatus and method, and computer program
TWI312945B (en) * 2006-06-07 2009-08-01 Ind Tech Res Inst Method and apparatus for multimedia data management
KR100826875B1 (ko) * 2006-09-08 2008-05-06 한국전자통신연구원 온라인 방식에 의한 화자 인식 방법 및 이를 위한 장치
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US20080147692A1 (en) * 2006-12-14 2008-06-19 General Motors Corporation Method for manipulating the contents of an xml-based message
US8886537B2 (en) * 2007-03-20 2014-11-11 Nuance Communications, Inc. Method and system for text-to-speech synthesis with personalized voice
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
EP2048656B1 (de) * 2007-10-10 2010-02-10 Harman/Becker Automotive Systems GmbH Sprechererkennung
ATE456130T1 (de) * 2007-10-29 2010-02-15 Harman Becker Automotive Sys Partielle sprachrekonstruktion
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
CN101256769B (zh) * 2008-03-21 2011-06-15 深圳市汉音科技有限公司 语音识别装置及其方法
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
WO2010067118A1 (en) 2008-12-11 2010-06-17 Novauris Technologies Limited Speech recognition involving a mobile device
US8340974B2 (en) * 2008-12-30 2012-12-25 Motorola Mobility Llc Device, system and method for providing targeted advertisements and content based on user speech data
EP2216775B1 (de) * 2009-02-05 2012-11-21 Nuance Communications, Inc. Sprechererkennung
US8209174B2 (en) * 2009-04-17 2012-06-26 Saudi Arabian Oil Company Speaker verification system
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US20120309363A1 (en) 2011-06-03 2012-12-06 Apple Inc. Triggering notifications associated with tasks items that represent tasks to perform
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
WO2011089450A2 (en) 2010-01-25 2011-07-28 Andrew Peter Nelson Jerram Apparatuses, methods and systems for a digital conversation management platform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US9305553B2 (en) * 2010-04-28 2016-04-05 William S. Meisel Speech recognition accuracy improvement through speaker categories
US8606579B2 (en) 2010-05-24 2013-12-10 Microsoft Corporation Voice print identification for identifying speakers
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US9262612B2 (en) * 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10672399B2 (en) 2011-06-03 2020-06-02 Apple Inc. Switching between text data and audio data based on a mapping
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US20130006633A1 (en) * 2011-07-01 2013-01-03 Qualcomm Incorporated Learning speech models for mobile device users
US9159324B2 (en) * 2011-07-01 2015-10-13 Qualcomm Incorporated Identifying people that are proximate to a mobile device user via social graphs, speech models, and user context
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9251792B2 (en) 2012-06-15 2016-02-02 Sri International Multi-sample conversational voice verification
US8429103B1 (en) 2012-06-22 2013-04-23 Google Inc. Native machine learning service for user adaptation on a mobile platform
US8510238B1 (en) 2012-06-22 2013-08-13 Google, Inc. Method to predict session duration on mobile devices using native machine learning
US8886576B1 (en) 2012-06-22 2014-11-11 Google Inc. Automatic label suggestions for albums based on machine learning
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US10438591B1 (en) 2012-10-30 2019-10-08 Google Llc Hotword-based speaker recognition
US20140136204A1 (en) * 2012-11-13 2014-05-15 GM Global Technology Operations LLC Methods and systems for speech systems
EP4138075A1 (de) 2013-02-07 2023-02-22 Apple Inc. Sprachauslöser für digitalen assistenten
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US9733821B2 (en) 2013-03-14 2017-08-15 Apple Inc. Voice control to diagnose inadvertent activation of accessibility features
US9977779B2 (en) 2013-03-14 2018-05-22 Apple Inc. Automatic supplementation of word correction dictionaries
US10642574B2 (en) 2013-03-14 2020-05-05 Apple Inc. Device, method, and graphical user interface for outputting captions
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10572476B2 (en) 2013-03-14 2020-02-25 Apple Inc. Refining a search based on schedule items
KR101759009B1 (ko) 2013-03-15 2017-07-17 애플 인크. 적어도 부분적인 보이스 커맨드 시스템을 트레이닝시키는 것
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
KR101857648B1 (ko) 2013-03-15 2018-05-15 애플 인크. 지능형 디지털 어시스턴트에 의한 사용자 트레이닝
US9293140B2 (en) * 2013-03-15 2016-03-22 Broadcom Corporation Speaker-identification-assisted speech processing systems and methods
US10078487B2 (en) 2013-03-15 2018-09-18 Apple Inc. Context-sensitive handling of interruptions
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
CN103219008B (zh) * 2013-05-16 2016-04-20 清华大学 基于基状态矢量加权的短语音说话人识别方法
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
WO2014200728A1 (en) 2013-06-09 2014-12-18 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
CN105265005B (zh) 2013-06-13 2019-09-17 苹果公司 用于由语音命令发起的紧急呼叫的系统和方法
JP6163266B2 (ja) 2013-08-06 2017-07-12 アップル インコーポレイテッド リモート機器からの作動に基づくスマート応答の自動作動
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US10304458B1 (en) 2014-03-06 2019-05-28 Board of Trustees of the University of Alabama and the University of Alabama in Huntsville Systems and methods for transcribing videos using speaker identification
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
WO2015184186A1 (en) 2014-05-30 2015-12-03 Apple Inc. Multi-command single utterance input method
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9384738B2 (en) 2014-06-24 2016-07-05 Google Inc. Dynamic threshold for speaker verification
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
CN104490570B (zh) * 2014-12-31 2017-05-17 桂林电子科技大学 一种面向盲人的嵌入式声纹识别与发现系统
KR102371697B1 (ko) 2015-02-11 2022-03-08 삼성전자주식회사 음성 기능 운용 방법 및 이를 지원하는 전자 장치
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
CN106570443A (zh) * 2015-10-09 2017-04-19 芋头科技(杭州)有限公司 一种快速识别方法及家庭智能机器人
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
JP6910002B2 (ja) * 2016-06-23 2021-07-28 パナソニックIpマネジメント株式会社 対話行為推定方法、対話行為推定装置及びプログラム
JP6671020B2 (ja) * 2016-06-23 2020-03-25 パナソニックIpマネジメント株式会社 対話行為推定方法、対話行為推定装置及びプログラム
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) * 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
CN107978311B (zh) * 2017-11-24 2020-08-25 腾讯科技(深圳)有限公司 一种语音数据处理方法、装置以及语音交互设备
US11152006B2 (en) 2018-05-07 2021-10-19 Microsoft Technology Licensing, Llc Voice identification enrollment
KR102598057B1 (ko) * 2018-09-10 2023-11-06 삼성전자주식회사 음소기반 화자모델 적응 방법 및 장치
CN109378003B (zh) * 2018-11-02 2021-10-01 科大讯飞股份有限公司 一种声纹模型训练的方法和系统
WO2020106103A1 (en) 2018-11-22 2020-05-28 Samsung Electronics Co., Ltd. Method and apparatus for processing voice data of speech
CN113129901A (zh) * 2020-01-10 2021-07-16 华为技术有限公司 一种语音处理方法、介质及系统

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5167004A (en) * 1991-02-28 1992-11-24 Texas Instruments Incorporated Temporal decorrelation method for robust speaker verification
US5522012A (en) * 1994-02-28 1996-05-28 Rutgers University Speaker identification and verification system
US5774859A (en) * 1995-01-03 1998-06-30 Scientific-Atlanta, Inc. Information system having a speech interface
US5895447A (en) * 1996-02-02 1999-04-20 International Business Machines Corporation Speech recognition using thresholded speaker class model selection or model adaptation
US5862519A (en) * 1996-04-02 1999-01-19 T-Netix, Inc. Blind clustering of data with application to speech processing systems
EP0954854A4 (de) * 1996-11-22 2000-07-19 T Netix Inc Teilwertbasierte sprecherverifizierung mittels vereinigung verschiedener klassifizierer unter verwendung von kanal-, vereinigungs-, modell- und schwellenadaptation
CN1291324A (zh) * 1997-01-31 2001-04-11 T-内提克斯公司 检测录制声音的系统和方法
CA2304747C (en) * 1997-10-15 2007-08-14 British Telecommunications Public Limited Company Pattern recognition using multiple reference models
AU1305799A (en) * 1997-11-03 1999-05-24 T-Netix, Inc. Model adaptation system and method for speaker verification
US6233555B1 (en) * 1997-11-25 2001-05-15 At&T Corporation Method and apparatus for speaker identification using mixture discriminant analysis to develop speaker models
JP2965537B2 (ja) * 1997-12-10 1999-10-18 株式会社エイ・ティ・アール音声翻訳通信研究所 話者クラスタリング処理装置及び音声認識装置
US6073096A (en) * 1998-02-04 2000-06-06 International Business Machines Corporation Speaker adaptation system and method based on class-specific pre-clustering training speakers
US6415257B1 (en) * 1999-08-26 2002-07-02 Matsushita Electric Industrial Co., Ltd. System for identifying and adapting a TV-user profile by means of speech technology
US6324512B1 (en) * 1999-08-26 2001-11-27 Matsushita Electric Industrial Co., Ltd. System and method for allowing family members to access TV contents and program media recorder over telephone or internet
US6618702B1 (en) * 2002-06-14 2003-09-09 Mary Antoinette Kohler Method of and device for phone-based speaker recognition
US7574359B2 (en) * 2004-10-01 2009-08-11 Microsoft Corporation Speaker selection training via a-posteriori Gaussian mixture model analysis, transformation, and combination of hidden Markov models

Also Published As

Publication number Publication date
US20030088414A1 (en) 2003-05-08
EP1395803A1 (de) 2004-03-10
CN1236423C (zh) 2006-01-11
WO2002090915A1 (en) 2002-11-14
CN1462366A (zh) 2003-12-17
EP1395803B1 (de) 2006-08-02
JP4369132B2 (ja) 2009-11-18
DE60213595D1 (de) 2006-09-14
ATE335195T1 (de) 2006-08-15
US7171360B2 (en) 2007-01-30
JP2004528595A (ja) 2004-09-16

Similar Documents

Publication Publication Date Title
DE60213595T2 (de) Hintergrundlernen von sprecherstimmen
DE112018002857T5 (de) Sprecheridentifikation mit ultrakurzen Sprachsegmenten für Fern- und Nahfeld-Sprachunterstützungsanwendungen
DE60005326T2 (de) Erkennungseinheiten mit komplementären sprachmodellen
DE602006000090T2 (de) Konfidenzmaß für ein Sprachdialogsystem
DE69829187T2 (de) Halbüberwachte Sprecheradaptation
DE60009583T2 (de) Sprecheradaptation auf der Basis von Stimm-Eigenvektoren
DE112010005959B4 (de) Verfahren und System zur automatischen Erkennung eines Endpunkts einer Tonaufnahme
DE60111329T2 (de) Anpassung des phonetischen Kontextes zur Verbesserung der Spracherkennung
DE69814195T2 (de) Vorrichtung zur Sprechererkennung
DE69832393T2 (de) Spracherkennungssystem für die erkennung von kontinuierlicher und isolierter sprache
DE60124842T2 (de) Rauschrobuste Mustererkennung
DE112021001064T5 (de) Vorrichtungsgerichtete Äußerungserkennung
DE69924596T2 (de) Auswahl akustischer Modelle mittels Sprecherverifizierung
DE202017106303U1 (de) Bestimmen phonetischer Beziehungen
DE60108104T2 (de) Verfahren zur Sprecheridentifikation
DE102014107028B4 (de) Verbesserte biometrische Passwortsicherheit
EP1264301B1 (de) Verfahren zur erkennung von sprachäusserungen nicht-muttersprachlicher sprecher in einem sprachverarbeitungssystem
DE60128372T2 (de) Verfahren und system zur verbesserung der genauigkeit in einem spracherkennungssystem
DE60034772T2 (de) Zurückweisungsverfahren in der spracherkennung
DE60133537T2 (de) Automatisches umtrainieren eines spracherkennungssystems
DE102005018174A1 (de) Verfahren zur gezielten Ermittlung eines vollständigen Eingabedatensatzes in einem Sprachdialog 11
DE112006000322T5 (de) Audioerkennungssystem zur Erzeugung von Antwort-Audio unter Verwendung extrahierter Audiodaten
EP1058235B1 (de) Wiedergabeverfahren für sprachgesteuerte Systeme mit text-basierter Sprachsynthese
EP1282897B1 (de) Verfahren zum erzeugen einer sprachdatenbank für einen zielwortschatz zum trainieren eines spracherkennungssystems
DE10040063A1 (de) Verfahren zur Zuordnung von Phonemen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition