-
QUERVERWEIS AUF VERWANDTE ANMELDUNG
-
Diese Anmeldung beansprucht die Priorität und den Nutzen der am 17. Oktober 2014 im Korean Intellectual Property Office (koreanisches Amt für geistiges Eigentum) eingereichten
koreanischen Patentanmeldung Nr. 10-2014-0141167 , deren gesamter Inhalt durch Verweis hierin aufgenommen ist.
-
HINTERGRUND DER OFFENBARUNG
-
(a) Technisches Gebiet
-
Die vorliegende Offenbarung betrifft eine Spracherkennungsvorrichtung und ein Spracherkennungsverfahren.
-
(b) Beschreibung der verwandten Technik
-
Nach herkömmlichen Spracherkennungsverfahren wird eine Spracherkennung unter Verwendung eines akustischen Modells durchgeführt, das zuvor in einer Spracherkennungsvorrichtung gespeichert wurde. Das akustische Modell wird verwendet, um Spracheigenschaften eines Sprechers zu repräsentieren. Beispielsweise werden ein Phonem, ein Diphon, ein Triphon, ein Quinphon, eine Silbe und ein Wort als Grundeinheiten für das akustische Modell verwendet. Da die Anzahl an akustischen Modellen abnimmt, wenn das Phonem als das Grundmodell des akustischen Modells verwendet wird, wird ein kontextabhängiges akustisches Modell, wie beispielsweise das Diphon, Triphon oder Quinphon, vielfach verwendet, um ein Koartikulationsereignis zu reflektieren, das durch Änderungen zwischen benachbarten Phonemen verursacht wird. Eine große Datenmenge wird erfordert, um das kontextabhängige akustische Modell zu lernen.
-
Herkömmlich werden Stimmen verschiedener Sprecher, die in einem schalltoten Raum aufgezeichnet oder durch Server gesammelt werden, als Sprachdaten gespeichert und das akustische Modell wird durch Lernen der Sprachdaten generiert. Bei solch einem Verfahren ist es jedoch schwierig, eine große Menge an Sprachdaten zu sammeln und eine Spracherkennungsleistung sicherzustellen, da sich ein Ton bzw. Klang eines Sprechers, der eine Spracherkennungsfunktion tatsächlich verwendet, oft von Tönen bzw. Klängen unterscheidet, die den gesammelten Sprachdaten entsprechen. Da das akustische Modell üblicherweise durch Lernen von Sprachdaten von erwachsenen Männern generiert wird, ist es folglich schwierig, Sprachbefehle von erwachsenen Frauen, Senioren oder Kindern zu erkennen, die Tonfälle aufweisen, die sich unterscheiden.
-
Die obigen Informationen, die in diesem Hintergrund-Abschnitt offenbart sind, dienen nur zur Verbesserung des Verständnisses des Hintergrunds der Offenbarung und können daher Informationen enthalten, die nicht die verwandte Technik bilden, die jemandem mit gewöhnlichen technischen Fähigkeiten hierzulande bereits bekannt ist.
-
ZUSAMMENFASSUNG DER OFFENBARUNG
-
Die vorliegende Offenbarung erfolgte in einem Bestreben, eine Spracherkennungsvorrichtung und ein Spracherkennungsverfahren zu liefern, die Vorteile des Generierens eines individuellen akustischen Modells basierend auf Sprachdaten eines Sprechers und des Durchführens einer Spracherkennung unter Verwendung des individuellen akustischen Modells aufweisen. Ausführungsformen der vorliegenden Offenbarung können zum Erzielen anderer Aufgaben, die nicht detailliert beschrieben sind, zusätzlich zu den vorangehenden Aufgaben verwendet werden.
-
Eine Spracherkennungsvorrichtung nach Ausführungsformen der vorliegenden Offenbarung enthält Folgendes: eine Sammeleinrichtung, die Sprachdaten eines ersten Sprechers von einer sprachbasierten Vorrichtung sammelt; einen ersten Speicher, der die Sprachdaten des ersten Sprechers akkumuliert; eine Lerneinrichtung, die die in dem ersten Speicher akkumulierten Sprachdaten des ersten Sprechers lernt und ein individuelles akustisches Modell des ersten Sprechers basierend auf den gelernten Sprachdaten generiert; einen zweiten Speicher, der das individuelle akustische Modell des ersten Sprechers und ein generisches akustisches Modell speichert; eine Merkmalsvektor-Extraktionseinrichtung, die einen Merkmalsvektor aus den Sprachdaten des ersten Sprechers extrahiert, wenn eine Spracherkennungsanforderung von dem ersten Sprecher empfangen wird; und eine Spracherkennungseinrichtung, die ein Modell des individuellen akustischen Modells des ersten Sprechers und des generischen akustischen Modells basierend auf einer akkumulierten Menge der Sprachdaten des ersten Sprechers auswählt und einen Sprachbefehl unter Verwendung des extrahierten Merkmalsvektors und des ausgewählten akustischen Modells erkennt.
-
Die Spracherkennungsvorrichtung kann ferner einen Vorprozessor enthalten, der ein Rauschen in den Sprachdaten des ersten Sprechers erfasst und beseitigt.
-
Die Spracherkennungseinrichtung kann das individuelle akustische Modell des ersten Sprechers auswählen, wenn die akkumulierte Menge der Sprachdaten des ersten Sprechers größer als ein vorbestimmter Schwellenwert oder gleich demselben ist, und das generische akustische Modell auswählen, wenn die akkumulierte Menge der Sprachdaten des ersten Sprechers geringer als der vorbestimmte Schwellenwert ist.
-
Die Sammeleinrichtung kann Sprachdaten einer Vielzahl von Sprechern einschließlich des ersten Sprechers sammeln und der erste Speicher kann die Sprachdaten für jeden Sprecher der Vielzahl von Sprechern akkumulieren.
-
Die Lerneinrichtung kann die Sprachdaten der Vielzahl von Sprechern lernen und individuelle akustische Modelle für jeden Sprecher basierend auf den gelernten Sprachdaten der Vielzahl von Sprechern generieren.
-
Die Lerneinrichtung kann die Sprachdaten der Vielzahl von Sprechern lernen und das generische akustische Modell basierend auf den gelernten Sprachdaten der Vielzahl von Sprechern aktualisieren.
-
Die Spracherkennungsvorrichtung kann ferner einen Erkennungsergebnisprozessor enthalten, der eine Funktion ausführt, die dem erkannten Sprachbefehl entspricht.
-
Nach Ausführungsformen der vorliegenden Offenbarung enthält ein Spracherkennungsverfahren des Weiteren Folgendes: Sammeln von Sprachdaten eines ersten Sprechers von einer sprachbasierten Vorrichtung; Akkumulieren der Sprachdaten des ersten Sprechers in einem ersten Speicher; Lernen der akkumulierten Sprachdaten des ersten Sprechers; Generieren eines individuellen akustischen Modells des ersten Sprechers basierend auf den gelernten Sprachdaten; Speichern des individuellen akustischen Modells des ersten Sprechers und eines generischen akustischen Modells in einem zweiten Speicher; Extrahieren eines Merkmalsvektors aus den Sprachdaten des ersten Sprechers, wenn eine Spracherkennungsanforderung von dem ersten Sprecher empfangen wird; Auswählen eines Modells des individuellen akustischen Modells des ersten Sprechers und des generischen akustischen Modells basierend auf einer akkumulierten Menge der Sprachdaten des ersten Sprechers; und Erkennen eines Sprachbefehls unter Verwendung des extrahierten Merkmalsvektors und des ausgewählten akustischen Modells.
-
Das Spracherkennungsverfahren kann ferner das Erfassen und Beseitigen eines Rauschens in den Sprachdaten des ersten Sprechers enthalten.
-
Das Spracherkennungsverfahren kann ferner das Vergleichen einer akkumulierten Menge der Sprachdaten des ersten Sprechers mit einem vorbestimmten Schwellenwert; Auswählen des individuellen akustischen Modells des ersten Sprechers, wenn die akkumulierte Menge der Sprachdaten des ersten Sprechers größer als der vorbestimmte Schwellenwert oder gleich demselben ist; und Auswählen des generischen akustischen Modells, wenn die akkumulierte Menge der Sprachdaten des ersten Sprechers geringer als der vorbestimmte Schwellenwert ist, enthalten.
-
Das Spracherkennungsverfahren kann ferner das Sammeln von Sprachdaten einer Vielzahl von Sprechern einschließlich des ersten Sprechers und Akkumulieren der Sprachdaten für jeden Sprecher der Vielzahl von Sprechern in dem ersten Speicher enthalten.
-
Das Spracherkennungsverfahren kann ferner das Lernen der Sprachdaten der Vielzahl von Sprechern und Generieren von individuellen akustischen Modellen für jeden Sprecher basierend auf den gelernten Sprachdaten der Vielzahl von Sprechern enthalten.
-
Das Spracherkennungsverfahren kann ferner das Lernen der Sprachdaten der Vielzahl von Sprechern und Aktualisieren des generischen akustischen Modells basierend auf den gelernten Sprachdaten der Vielzahl von Sprechern enthalten.
-
Das Spracherkennungsverfahren kann ferner das Ausführen einer Funktion, die dem erkannten Sprachbefehl entspricht, enthalten.
-
Nach Ausführungsformen der vorliegenden Offenbarung enthält ein nicht-transitorisches computerlesbares Medium, das Programmbefehle zum Durchführen eines Spracherkennungsverfahrens enthält, des Weiteren Folgendes:
Programmbefehle, die Sprachdaten eines ersten Sprechers von einer sprachbasierten Vorrichtung sammeln; Programmbefehle, die die Sprachdaten des ersten Sprechers in einem ersten Speicher akkumulieren; Programmbefehle, die die akkumulierten Sprachdaten des ersten Sprechers lernen; Programmbefehle, die ein individuelles akustisches Modell des ersten Sprechers basierend auf den gelernten Sprachdaten generieren; Programmbefehle, die das individuelle akustische Modell des ersten Sprechers und ein generisches akustisches Modell in einem zweiten Speicher speichern; Programmbefehle, die einen Merkmalsvektor aus den Sprachdaten des ersten Sprechers extrahieren, wenn eine Spracherkennungsanforderung von dem ersten Sprecher empfangen wird; Programmbefehle die ein Modell des individuellen akustischen Modells des ersten Sprechers und des generischen akustischen Modells basierend auf einer akkumulierten Menge der Sprachdaten des ersten Sprechers auswählen; und Programmbefehle, die einen Sprachbefehl unter Verwendung des extrahierten Merkmalsvektors und des ausgewählten akustischen Modells erkennen.
-
Folglich kann eine Spracherkennung unter Verwendung des individuellen akustischen Modells des Sprechers durchgeführt werden, wobei dadurch die Spracherkennungsleistung verbessert wird. Zudem können eine Zeit und Kosten zum Sammeln von Sprachdaten reduziert werden, die zum Generieren des individuellen akustischen Modells erfordert werden.
-
KURZE BESCHREIBUNG DER ZEICHNUNGEN
-
1 ist ein Blockdiagramm einer Spracherkennungsvorrichtung nach Ausführungsformen der vorliegenden Offenbarung.
-
2 ist ein Blockdiagramm einer Spracherkennungseinrichtung und eines zweiten Speichers nach Ausführungsformen der vorliegenden Offenbarung.
-
3 ist ein Ablaufplan eines Spracherkennungsverfahrens nach Ausführungsformen der vorliegenden Offenbarung. <Beschreibung von Symbolen>
110: | Fahrzeug-Infotainmentsystem |
120: | Telefon |
210: | Sammeleinrichtung |
220: | Vorprozessor |
230: | Erster Speicher |
240: | Lerneinrichtung |
250: | Zweiter Speicher |
260: | Merkmalsvektor-Extraktionseinrichtung |
270: | Spracherkennungseinrichtung |
280: | Erkennungsergebnisprozessor |
-
DETAILLIERTE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
-
Die vorliegende Offenbarung wird nachstehend in Bezug auf die beiliegenden Zeichnungen detailliert beschrieben werden. Wie wohl jemand mit technischen Fähigkeiten erkennt, können die beschriebenen Ausführungsformen auf viele verschiedene Weisen modifiziert werden, ganz ohne von dem Wesen oder Bereich der vorliegenden Offenbarung abzuweichen. Überall in der Beschreibung beziehen sich ferner ähnliche Bezugsnummern auf ähnliche Elemente.
-
Sofern nicht ausdrücklich gegenteilig beschrieben, werden überall in dieser Beschreibung das Wort „aufweisen“ und Variationen, wie beispielsweise „weist auf“ oder „aufweisend“, verstanden werden, den Einschluss der genannten Elemente, aber nicht den Ausschluss irgendwelcher anderer Elemente zu implizieren. Zudem bedeuten die Ausdrücke „Einheit“, „-einrichtung“ und „Modul“, die in der Beschreibung beschrieben sind, Einheiten zum Verarbeiten von zumindest einer Funktion und Operation und können durch Hardwarekomponenten oder Softwarekomponenten und Kombinationen derselben implementiert werden.
-
Überall in der Beschreibung bedeutet „Sprecher“ ein Benutzer einer sprachbasierten Vorrichtung, wie beispielsweise eine Fahrzeug-Infotainmentvorrichtung oder ein Telefon, und „Sprachdaten“ eine Stimme des Benutzers. Zudem ist klar, dass der Ausdruck „Fahrzeug“ oder „Fahrzeug-“ oder ein anderer ähnlicher Ausdruck, der hierin verwendet wird, Kraftfahrzeuge im Allgemeinen enthält, wie beispielsweise Personenkraftwagen, die Geländefahrzeuge (SUV), Busse, Lastwagen, verschiedene Geschäftswagen enthalten, Wasserfahrzeuge, die eine Vielzahl von Booten und Schiffen enthalten, Luftfahrzeuge und Ähnliches, und Hybridfahrzeuge, Elektrofahrzeuge, Plug-In-Hybridelektrofahrzeuge, Fahrzeuge mit Wasserstoffantrieb und andere Fahrzeuge mit alternativen Brennstoffen enthält (z.B. Brennstoffe, die aus anderen Rohstoffen als Erdöl gewonnen werden). Wie hierin bezeichnet, ist ein Hybridfahrzeug ein Fahrzeug, das zwei oder mehr Leistungsquellen aufweist, wie beispielsweise sowohl benzinbetriebene als auch elektrisch betriebene Fahrzeuge.
-
Zudem ist klar, dass ein oder mehrere der nachstehenden Verfahren oder Aspekte derselben durch zumindest einen Prozessor ausgeführt werden können. Der Ausdruck „Prozessor“ kann sich auf eine Hardwarevorrichtung beziehen, die in Verbindung mit einem Speicher wirkt. Der Speicher ist zum Speichern von Programmbefehlen konfiguriert und der Prozessor ist speziell zum Ausführen der Programmbefehle programmiert, um einen oder mehrere Prozesse durchzuführen, die weiter unten beschrieben sind. Zudem ist klar, dass die nachstehenden Verfahren durch ein Gerät ausgeführt werden können, das den Prozessor in Verbindung mit einer oder mehreren anderen Komponenten aufweist, wie wohl von jemandem mit gewöhnlichen Fähigkeiten in der Technik verstanden wird.
-
1 ist ein Blockdiagramm einer Spracherkennungsvorrichtung nach Ausführungsformen der vorliegenden Offenbarung und 2 ist ein Blockdiagramm einer Spracherkennungseinrichtung und eines zweiten Speichers nach Ausführungsformen der vorliegenden Offenbarung.
-
Wie in 1 gezeigt, kann eine Spracherkennungsvorrichtung 200 mit einer sprachbasierten Vorrichtung 100 durch einen Draht oder drahtlos verbunden werden. Die sprachbasierte Vorrichtung 110 kann eine Fahrzeugs-Infotainmentvorrichtung 110, wie beispielsweise eine Audio-Video-Navigationsvorrichtung (AVN-Vorrichtung), und ein Telefon 120 enthalten. Die Spracherkennungsvorrichtung 200 kann eine Sammeleinrichtung 210, einen Vorprozessor 220, einen ersten Speicher 230, eine Lerneinrichtung 240, einen zweiten Speicher 250, eine Merkmalsvektor-Extraktionseinrichtung 260, eine Spracherkennungseinrichtung 270 und einen Erkennungsergebnisprozessor 280 enthalten.
-
Die Sammeleinrichtung 210 kann Sprachdaten eines ersten Sprechers (z.B. ein Fahrer eines Fahrzeugs) von der sprachbasierten Vorrichtung 100 sammeln. Wenn ein Account der sprachbasierten Vorrichtung 100 dem ersten Sprecher gehört, kann die Sammeleinrichtung 210 beispielsweise von der sprachbasierten Vorrichtung 100 empfangene Sprachdaten als die Sprachdaten des ersten Sprechers sammeln. Zudem kann die Sammeleinrichtung 210 Sprachdaten einer Vielzahl von Sprechern einschließlich des ersten Sprechers sammeln.
-
Der Vorprozessor 220 kann ein Rauschen in den durch die Sammeleinrichtung 210 gesammelten Sprachdaten des ersten Sprechers erfassen und beseitigen.
-
Die Sprachdaten des ersten Sprechers, bei denen das Rauschen beseitigt ist, werden in dem ersten Speicher 230 akkumuliert. Zudem kann der erste Speicher 230 die Sprachdaten der Vielzahl von Sprechern für jeden Sprecher akkumulieren.
-
Die Lerneinrichtung 240 kann die in dem ersten Speicher 230 akkumulierten Sprachdaten des ersten Sprechers lernen, um ein individuelles akustisches Modell 252 des ersten Sprechers zu generieren. Das generierte individuelle akustische Modell 252 wird in dem zweiten Speicher 250 gespeichert. Zudem kann die Lerneinrichtung 240 individuelle akustische Modelle für jeden Sprecher durch Lernen der Sprachdaten der Vielzahl von Sprechern generieren, die in dem ersten Speicher 230 akkumuliert sind.
-
Der zweite Speicher 250 speichert zuvor ein generisches akustisches Modell 254. Das generische akustische Modell 254 kann zuvor durch Lernen von Sprachdaten verschiedener Sprecher in einem schalltoten Raum generiert werden. Zudem kann die Lerneinrichtung 240 das generische akustische Modell 254 durch Lernen der Sprachdaten der Vielzahl von Sprechern aktualisieren, die in dem ersten Speicher 230 akkumuliert sind. Der zweite Speicher 250 kann ferner Kontextinformationen und ein Sprachmodell speichern, die zum Durchführen der Spracherkennung verwendet werden.
-
Wenn eine Spracherkennungsanforderung von dem ersten Sprecher empfangen wird, extrahiert die Merkmalsvektor-Extraktionseinrichtung 260 einen Merkmalsvektor aus den Sprachdaten des ersten Sprechers. Der extrahierte Merkmalsvektor wird zu der Spracherkennungseinrichtung 270 übertragen. Die Merkmalsvektor-Extraktionseinrichtung 260 kann den Merkmalsvektor unter Verwendung eines Mel-Frequency-Cepstral-Coefficient-Extraktionsverfahrens (MFCC-Extraktionsverfahren), eines Linear-Predictive-Coding-Extraktionsverfahrens (LPC-Extraktionsverfahren), eines Hochfrequenzbereich-Emphase-Extraktionsverfahrens oder eines Fensterfunktions-Extraktionsverfahrens extrahieren. Da die Verfahren zum Extrahieren des Merkmalsvektors für jemanden mit gewöhnlichen Fähigkeiten in der Technik offensichtlich sind, wird eine detaillierte Beschreibung derselben ausgelassen werden.
-
Die Spracherkennungseinrichtung 270 führt die Spracherkennung basierend auf dem Merkmalsvektor durch, der von der Merkmalsvektor-Extraktionseinrichtung 260 empfangen wird. Die Spracherkennungseinrichtung 270 kann ein Modell des individuellen akustischen Modells 252 des ersten Sprechers und des generischen akustischen Modells 254 basierend auf einer akkumulierten Menge der Sprachdaten des ersten Sprechers auswählen. Insbesondere kann die Spracherkennungseinrichtung 270 die akkumulierte Menge der Sprachdaten des ersten Sprechers mit einem vorbestimmten Schwellenwert vergleichen. Der vorbestimmte Schwellenwert kann auf einen Wert festgelegt werden, der durch eine Person mit gewöhnlichen Fähigkeiten in der Technik bestimmt wird, um zu bestimmen, ob ausreichende Sprachdaten des ersten Sprechers in dem ersten Speicher 230 akkumuliert sind.
-
Wenn die akkumulierte Menge der Sprachdaten des ersten Sprechers größer als der vorbestimmte Schwellenwert oder gleich demselben ist, wählt die Spracherkennungseinrichtung 270 das individuelle akustische Modell 252 des ersten Sprechers aus. Die Spracherkennungseinrichtung 270 erkennt einen Sprachbefehl unter Verwendung des Merkmalsvektors und des individuellen akustischen Modells 252 des ersten Sprechers. Wenn die akkumulierte Menge der Sprachdaten des ersten Sprechers geringer als der vorbestimmte Schwellenwert ist, wählt die Spracherkennungseinrichtung 270 hingegen das generische akustische Modell 254 aus. Die Spracherkennungseinrichtung 270 erkennt den Sprachbefehl unter Verwendung des Merkmalsvektors und des generischen akustischen Modells 254.
-
Der Erkennungsergebnisprozessor 280 empfängt ein Spracherkennungsergebnis (d.h. den Sprachbefehl) von der Spracherkennungseinrichtung 270. Der Erkennungsergebnisprozessor 280 kann die sprachbasierte Vorrichtung 100 basierend auf dem Spracherkennungsergebnis steuern. Beispielsweise kann der Spracherkennungsprozessor 280 eine Funktion (z.B. eine Anruffunktion oder eine Routenführungsfunktion) ausführen, die dem erkannten Sprachbefehl entspricht.
-
3 ist ein Ablaufplan eines Spracherkennungsverfahrens nach Ausführungsformen der vorliegenden Offenbarung.
-
Die Sammeleinrichtung 210 sammelt die Sprachdaten des ersten Sprechers von der sprachbasierten Vorrichtung 100 im Schritt S11. Der Vorprozessor 220 kann das Rauschen der Sprachdaten des ersten Sprechers erfassen und beseitigen. Zudem kann die Sammeleinrichtung 210 Sprachdaten der Vielzahl von Sprechern einschließlich des ersten Sprechers sammeln.
-
Die Sprachdaten des ersten Sprechers werden in dem ersten Speicher 230 im Schritt S12 akkumuliert. Die Sprachdaten der Vielzahl von Sprechern können in dem ersten Speicher 230 für jeden Sprecher akkumuliert werden.
-
Die Lerneinrichtung 240 generiert im Schritt S13 das individuelle akustische Modell 252 des ersten Sprechers durch Lernen der in dem ersten Speicher 230 akkumulierten Sprachdaten des ersten Sprechers. Zudem kann die Lerneinrichtung 240 individuelle akustische Modelle für jeden Sprecher durch Lernen der Sprachdaten der Vielzahl von Sprechern generieren. Des Weiteren kann die Lerneinrichtung 240 das generische akustische Modell 254 durch Lernen der Sprachdaten der Vielzahl von Sprechern aktualisieren.
-
Wenn die Spracherkennungsanforderung von dem ersten Sprecher empfangen wird, extrahiert die Merkmalsvektor-Extraktionseinrichtung 260 den Merkmalsvektor aus den Sprachdaten des ersten Sprechers im Schritt S14.
-
Die Spracherkennungseinrichtung 270 vergleicht die akkumulierte Menge der Sprachdaten des ersten Sprechers mit dem vorbestimmten Schwellenwert im Schritt S15.
-
Wenn die akkumulierte Menge der Sprachdaten des ersten Sprechers größer als der vorbestimmte Schwellenwert oder gleich demselben im Schritt S15 ist, erkennt die Spracherkennungseinrichtung 270 den Sprachbefehl unter Verwendung des Merkmalsvektors und des individuellen akustischen Modells 252 des ersten Sprechers im Schritt S16.
-
Wenn die akkumulierte Menge der Sprachdaten des ersten Sprechers geringer als der vorbestimmte Schwellenwert im Schritt S15 ist, erkennt die Spracherkennungseinrichtung 270 den Sprachbefehl unter Verwendung des Merkmalsvektors und des generischen akustischen Modells 254 im Schritt S17. Danach kann der Erkennungsergebnisprozessor 280 eine Funktion ausführen, die dem Sprachbefehl entspricht.
-
Wie oben beschrieben wurde, kann nach Ausführungsformen der vorliegenden Offenbarung ein Modell des individuellen akustischen Modells und des generischen akustischen Modells basierend auf der akkumulierten Menge der Sprachdaten des Sprechers ausgewählt werden und die Spracherkennung unter Verwendung des ausgewählten akustischen Modells durchgeführt werden. Zudem kann ein kundenspezifisches akustisches Modell für den Sprecher basierend auf den akkumulierten Sprachdaten generiert werden, wobei dadurch die Spracherkennungsleistung verbessert wird.
-
Zwar wurde diese Offenbarung in Verbindung damit beschrieben, was derzeit als praktische Ausführungsformen gilt, aber es sollte klar sein, dass die Offenbarung nicht auf die offenbarten Ausführungsformen beschränkt ist, sondern im Gegenteil verschiedene Modifikationen und äquivalente Anordnungen decken soll, die innerhalb des Wesens und Bereiches der beiliegenden Ansprüche enthalten sind.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- KR 10-2014-0141167 [0001]