DE112013006770B4 - Spracherkennungsvorrichtung und Spracherkennungsverfahren - Google Patents

Spracherkennungsvorrichtung und Spracherkennungsverfahren Download PDF

Info

Publication number
DE112013006770B4
DE112013006770B4 DE112013006770.6T DE112013006770T DE112013006770B4 DE 112013006770 B4 DE112013006770 B4 DE 112013006770B4 DE 112013006770 T DE112013006770 T DE 112013006770T DE 112013006770 B4 DE112013006770 B4 DE 112013006770B4
Authority
DE
Germany
Prior art keywords
recognition
result
acoustic
reading
recognition result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE112013006770.6T
Other languages
English (en)
Other versions
DE112013006770T5 (de
Inventor
Toshiyuki Hanazawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112013006770T5 publication Critical patent/DE112013006770T5/de
Application granted granted Critical
Publication of DE112013006770B4 publication Critical patent/DE112013006770B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

Spracherkennungsvorrichtung (1), die ein internes Erkennungsergebnis (10) anhand ihrer Erkennungsverarbeitung von Eingangssprachdaten (4) und ein externes Erkennungsergebnis (11) anhand der Erkennungsverarbeitung der Eingangssprachdaten (4) durch eine oder mehrere externe Erkennungseinheiten (19), die außerhalb existieren, erwirbt, um hierdurch ein endgültiges Erkennungsergebnis (18) zu bestimmen, wobei die Spracherkennungsvorrichtung (1) aufweist:ein akustisches Modell (9), in welchem Merkmalsquantitäten von Äußerungen modelliert sind;ein Sprachmodell (8), in welchem Notationen und Lesarten von mehr als einem Erkennungsobjektwort der Spracherkennungsvorrichtung (1) gespeichert sind;ein Lesarten-Wörterbuch (13), in welchem Paare von Notationen und Lesarten der Erkennungsobjektwörter und anderer Wörter als der Erkennungsobjektwörter gespeichert sind;eine Analysevorrichtung (5), die die Eingangssprachdaten (4) analysiert, um einen Merkmalsvektor (6) zu berechnen;eine interne Erkennungseinheit (7), die unter Verwendung des akustischen Modells (9) einen Mustervergleich zwischen dem von der Analysevorrichtung (5) berechneten Merkmalsvektor (6) und jedem von in dem Sprachmodell (8) gespeicherten Wörtern durchführt, um hierdurch ihre jeweiligen akustischen Wahrscheinlichkeiten zu berechnen, gefolgt von dem Ausgeben, als das interne Erkennungsergebnis (10), der Notationen, der Lesarten und der akustischen Wahrscheinlichkeiten des obersten oder mehrerer hochrangiger Wörter hinsichtlich der akustischen Wahrscheinlichkeiten;einen Lesartenhinzufügungs-Prozessor (12), der das externe Erkennungsergebnis (11) anhand der Erkennungsverarbeitung der Eingangssprachdaten (4) durch die externe Erkennungseinheit (19) erwirbt, eine Lesart für das externe Erkennungsergebnis (11) durch Verwendung des Lesarten-Wörterbuchs (13) hinzufügt und ein mit der hinzugefügten Lesart versehenes Ergebnis (14), das aus dem externen Erkennungsergebnis (11) und der Lesart für dieses zusammengesetzt ist, ausgibt;einen Wiedervergleichsprozessor (15), der unter Verwendung des akustischen Modells (9) einen Mustervergleich zwischen dem von der Analysevorrichtung (5) berechneten Merkmalsvektor (6) und dem mit der hinzugefügten Lesart versehenen Ergebnis (14), das von dem Lesarten-Hinzufügungsprozessor (12) ausgegeben wurde, durchführt, um hierdurch eine akustische Wahrscheinlichkeit für das externe Erkennungsergebnis (11) zu berechnen; undeinen Ergebnisbestimmungsprozessor (17), der die akustischen Wahrscheinlichkeiten des internen Erkennungsergebnisses (10) mit der akustischen Wahrscheinlichkeit des externen Erkennungsergebnisses (11) vergleicht, um hierdurch das endgültige Erkennungsergebnis (18) zu bestimmen.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung bezieht sich auf eine Spracherkennungsvorrichtung und ein Spracherkennungsverfahren zum Erwerben von Erkennungsergebnissen jeweils von einer externen Spracherkennungseinheit und einer internen Spracherkennungseinheit, um hierdurch ein endgültiges Erkennungsergebnis zu bestimmen.
  • STAND DER TECHNIK
  • Wenn eine Spracherkennung unter Verwendung eines Instruments wie einer Fahrzeug-Navigationsvorrichtung, eines Smartphones und dergleichen durchzuführen ist, hat ein derartiges Instrument nicht notwendigerweise ausreichende Hardwareressourcen. Aus diesem Grund gibt es ein Client-Server-Spracherkennungssystem, in welchem, anstatt die gesamte Spracherkennung einer Äußerung intern durchzuführen, das Instrument seine Sprachdaten zu einem externen Server sendet, gefolgt von dem Empfang eines Ergebnisses der von dem Server durchgeführten Spracherkennung. Es ist zu beachten, dass der „Client“ hier ein Instrument bedeutet, das ein Benutzer zur Verfügung hat, wie eine Fahrzeug-Navigationsvorrichtung, ein Smartphone und dergleichen. Folglich wird es selbst bei dem Client möglich, eine auf einem großen Wortschatz basierende Spracherkennung durchzuführen. Jedoch sind ein für den Client spezifisches Erkennungswort, ein Eigenname, der nur in einem Adressbuch des Benutzers gefunden wird, und dergleichen nicht notwendigerweise für den Server erkennbar.
  • Als eine Maßnahme hiergegen ist im Patentdokument 1 eine Technik offenbart, die nicht nur bloß eine Spracherkennung durch den Server durchführt, gefolgt von dem Empfang des Ergebnisses durch den Client, sondern auch, abhängig von einer Äußerung, eine Spracherkennung sowohl durch den Client als auch den Server durchführt, gefolgt von unterschiedlichem Anzeigen beider Erkennungsergebnisse oder von Auswählen eines der Ergebnisse. Insbesondere ist im Patentdokument 1 beschrieben, dass, wenn eines der Erkennungsergebnisse durch den Client oder den Server auszuwählen ist, das mit einer höheren akustischen Wahrscheinlichkeit ausgewählt wird.
  • Patentdokument 2 beschreibt ein System und ein Verfahren zur Spracherkennung, an denen ein Mobilgerät beteiligt ist. Eine Spracheingabe wird auf dem Mobilgerät empfangen und in einen Satz phonetischer Symbole umgewandelt. Daten, die sich auf die phonetischen Symbole beziehen, werden von dem Mobilgerät über ein Kommunikationsnetzwerk zu einem entfernten Verarbeitungsgerät übertragen, wo sie verwendet werden, um mindestens ein übereinstimmendes Datenelement aus einem Satz von Datenelementen zu identifizieren. Daten, die sich auf das mindestens eine übereinstimmende Datenelement beziehen, werden von der entfernten Verarbeitungsvorrichtung zu der mobilen Vorrichtung übertragen und darauf präsentiert.
  • ZITATLISTE
  • PATENTDOKUMENT
    • Patentdokument 1: japanische Patentanmeldungs-Offenlegungsschrift Nr. JP 2010 - 85 536 A
    • Patentdokument 2: US 2011 / 0 307 254 A1
  • KURZFASSUNG DER ERFINDUNG
  • DURCH DIE ERFINDUNG ZU LÖSENDE PROBLEME
  • In dem Fall des herkömmlichen Client-Server-Spracherkennungsverfahrens ist es zu der Zeit des Auswählens eines der Erkennungsergebnisse durch den Client oder den Server erforderlich, zwischen ihren Erkennungsergebnissen, ihren Wahrscheinlichkeiten usw. zu vergleichen, die Werte sind, die Gewissheiten über beide Erkennungsergebnisse anzeigen; jedoch gibt es Fälle, in denen derartige Informationen von der Serverseite nicht erhalten werden können. Weiterhin besteht, wenn sie erhalten werden, keine Gewissheit, dass sie auf derselben Grundlage wie bei der Spracherkennung auf der Clientseite berechnet wurden. Daher besteht ein Problem dahingehend, dass, wenn eines der Erkennungsergebnisse von dem Client oder dem Server auszuwählen ist, in einigen Fällen ein exakter Vergleich zwischen diesen nicht durchgeführt werden kann, so dass eine ausreichende Genauigkeit bei der Spracherkennung nicht erzielt wird.
  • Diese Erfindung wurde gemacht, um das vorbeschriebene Problem zu lösen, und es ist eine Aufgabe von dieser, eine Spracherkennungsvorrichtung und ein Spracherkennungsverfahren anzugeben, durch die das Erkennungsergebnis durch den Client und das Erkennungsergebnis durch den Server unter denselben Bedingungen miteinander verglichen werden, um hierdurch eine endgültige Erkennungsgenauigkeit zu erhöhen.
  • MITTEL ZUM LÖSEN DER PROBLEME
  • Eine Spracherkennungsvorrichtung gemäß der Erfindung weist auf: ein akustisches Modell, in welchem Merkmalsquantitäten von Äußerungen modelliert sind; ein Sprachenmodell, in welchem Notationen und Lesarten von mehr als einem Erkennungsobjektwort der Spracherkennungsvorrichtung gespeichert sind; ein Lesarten-Wörterbuch, in welchem Paare von Notationen und Lesarten der Erkennungsobjektwörter und anderer Wörter als der Erkennungsobjektwörter gespeichert sind; eine Analysevorrichtung, die Eingangssprachdaten analysiert, um einen Merkmalsvektor zu berechnen; eine interne Erkennungseinheit, die unter Verwendung des akustischen Modells einen Mustervergleich zwischen dem von der Analysevorrichtung berechneten Merkmalsvektor und jedem der in dem Sprachenmodell gespeicherten Wörter durchführt, um hierdurch ihre jeweiligen akustischen Wahrscheinlichkeiten zu berechnen, gefolgt von dem Ausgeben, als eines internen Erkennungsergebnisses, der Notationen, der Lesarten und der akustischen Wahrscheinlichkeiten des hinsichtlich der akustischen Wahrscheinlichkeit obersten oder mehrerer hochrangiger Wörter; einen Lesarthinzufügungs-Prozessor, der ein externes Erkennungsergebnis anhand der Erkennungsverarbeitung der eingegebenen Sprachdaten durch eine externe Erkennungseinheit erwirbt, eine Lesart für das externe Erkennungsergebnis durch Verwendung des Lesarten-Wörterbuchs hinzufügt und ein mit der Lesart versehenes Ergebnis, das aus dem externen Erkennungsergebnis und der Lesart für dieses zusammengesetzt ist, ausgibt; einen Wiedervergleichsprozessor, der unter Verwendung des akustischen Modells einen Mustervergleich zwischen dem von der Analysevorrichtung berechneten Merkmalsvektor und dem mit der Lesart versehenen Ergebnis, das von dem Lesarthinzufügungs-Prozessor ausgegeben wurde, durchführt, um hierdurch eine akustische Wahrscheinlichkeit für das externe Erkennungsergebnis zu berechnen; und einen Ergebnisbestimmungsprozessor, der die akustischen Wahrscheinlichkeiten des internen Erkennungsergebnisses mit der akustischen Wahrscheinlichkeit des externen Erkennungsergebnisses vergleicht, um hierdurch ein endgültiges Erkennungsergebnis zu bestimmen.
  • Ein Spracherkennungsverfahren der Erfindung weist auf: einen Sendeschritt des Sendens von Eingangssprachdaten zu einer externen Erkennungseinheit; einen Analyseschritt des Analysierens der Eingangssprachdaten zum Berechnen eines Merkmalsvektors; einen internen Erkennungsschritt des Durchführens, indem ein akustisches Modell, in welchem Merkmalsquantitäten von Äußerungen modelliert sind, verwendet wird, eines Mustervergleichs zwischen dem in dem Analyseschritt berechneten Merkmalsvektor und jedem von in einem Sprachmodell, in welchem Notationen und Lesarten von mehr als einem Erkennungsobjektwort der Spracherkennungsvorrichtung gespeichert sind, gespeicherten Wörtern, um hierdurch ihre jeweiligen akustischen Wahrscheinlichkeiten zu berechnen, gefolgt von dem Ausgeben, als eines internen Erkennungsergebnisses, der Notationen, der Lesarten und der akustischen Wahrscheinlichkeiten des in Bezug auf die akustischen Wahrscheinlichkeiten obersten oder mehrerer hochrangiger Wörter; einen Lesartenhinzufügungsschritt des Erwerbens eines externen Erkennungsergebnisses anhand einer Erkennungsverarbeitung der Eingangssprachdaten durch die externe Erkennungseinheit, des Hinzufügens einer Lesart für das externe Erkennungsergebnis durch Verwendung eines Lesarten-Wörterbuchs, in welchem Paare von Notationen und Lesarten der Erkennungsobjektwörter und anderer Wörter als der Erkennungsobjektwörter gespeichert sind, und des Ausgebens eines mit einer Lesart versehenen Ergebnisses, das aus dem externen Erkennungsergebnis und der Lesart hierfür zusammengesetzt ist; einen Wiedervergleichsschritt des Durchführens, unter Verwendung des akustischen Modells eines Mustervergleichs zwischen dem in dem Analyseschritt berechneten Merkmalsvektor und dem in dem Lesarthinzufügungsschritt ausgegebenen, mit der Lesart versehenen Ergebnis, um hierdurch die akustische Wahrscheinlichkeit für das externe Erkennungsergebnis zu berechnen; und einen Ergebnisbestimmungsschritt des Vergleichens der akustischen Wahrscheinlichkeit des internen Erkennungsergebnisses mit der akustischen Wahrscheinlichkeit des externen Erkennungsergebnisses, um hierdurch ein endgültiges Erkennungsergebnis zu bestimmen.
  • WIRKUNG DER ERFINDUNG
  • Durch die Erfindung ist es möglich, eine Spracherkennungsvorrichtung und ein Spracherkennungsverfahren anzugeben, durch die die akustische Wahrscheinlichkeit des internen Erkennungsergebnisses und die akustische Wahrscheinlichkeit des externen Erkennungsergebnisses unter Verwendung desselben akustischen Modells berechnet und miteinander verglichen werden, so dass die endgültige Erkennungsgenauigkeit erhöht wird.
  • Figurenliste
    • 1 ist ein Blockschaltbild, das eine Konfiguration einer Spracherkennungsvorrichtung gemäß dem Ausführungsbeispiel 1 der Erfindung zeigt.
    • 2 ist ein Diagramm zum Illustrieren eines Beispiels für Einzelheiten eines in der Spracherkennungsvorrichtung gemäß dem Ausführungsbeispiel 1 enthaltenen Sprachenmodells.
    • 3 ist ein Diagramm, das ein Beispiel für Einzelheiten eines in der Spracherkennungsvorrichtung nach dem Ausführungsbeispiel enthaltenen Lesarten-Wörterbuchs illustriert.
    • 4 ist ein Flussdiagramm, das Operationen der Spracherkennungsvorrichtung gemäß dem Ausführungsbeispiel 1 zeigt.
    • 5 ist ein Diagramm, das als ein modifiziertes Beispiel ein Beispiel für Einzelheiten eines Lesarten-Wörterbuchs in Englisch der Spracherkennungsvorrichtung gemäß dem Ausführungsbeispiel 1 illustriert.
    • 6 ist ein Blockschaltbild, das eine Konfiguration einer Spracherkennungsvorrichtung gemäß dem Ausführungsbeispiel 2 der Erfindung zeigt.
    • 7 ist ein Flussdiagramm, das Operationen der Spracherkennungsvorrichtung gemäß dem Ausführungsbeispiel 2 zeigt.
    • 8 ist ein Diagramm, das ein Beispiel für Einzelheiten eines Lesarten-Wörterbuchs, das in der Spracherkennungsvorrichtung gemäß dem Ausführungsbeispiel 3 enthalten ist, illustriert.
    • 9 ist ein Blockschaltbild, das eine Konfiguration einer Spracherkennungsvorrichtung gemäß dem Ausführungsbeispiel der Erfindung zeigt.
    • 10 ist ein Diagramm, das ein Beispiel für Einzelheiten eines Ergebnisbestimmungs-Sprachmodells, das in der Spracherkennungsvorrichtung gemäß dem Ausführungsbeispiel 4 enthalten ist, illustriert.
  • ARTEN DER DURCHFÜHRUNG DER ERFINDUNG
  • Nachfolgend werden, um die Erfindung genauer zu illustrieren, Ausführungsbeispiele zum Durchführen der Erfindung gemäß den begleitenden Zeichnungen beschrieben.
  • Ausführungsbeispiel 1
  • Wie in 1 gezeigt ist, enthält eine Spracherkennungsvorrichtung 1 gemäß dem Ausführungsbeispiel 1 einen Sender 3, eine Analysevorrichtung 5, eine interne Erkennungseinheit 7, ein Sprachenmodell 8, ein akustisches Modell 9, einen Lesartenhinzufügungs-Prozessor 12, ein Lesarten-Wörterbuch 13, einen Wiedervergleichsprozessor 15 und ein Wiedervergleichsergebnis 16. Die Spracherkennungsvorrichtung 1 entspricht einem Client zur Bildung eines Client-Server-Spracherkennungssystems, die in einem bestehenden Instrument befestigt oder installiert sein kann, beispielsweise einem Smartphone oder dergleichen tragbaren Instrument, das von einem Benutzer getragen wird, einer Navigationsvorrichtung, die in einem Fahrzeug oder gleichartigen bewegten Objekt befestigt oder in dieses gebracht ist, oder dergleichen; oder stattdessen als eine separate Einheit verwendet werden kann.
  • Es wird angenommen, dass eine externe Erkennungseinheit 19 ein Spracherkennungsserver ist, der mit der Spracherkennungsvorrichtung 1 durch ein Netzwerk verbunden ist. Sie kann direkt durch Leitung oder leitungslos ohne Verbindung durch ein Netzwerk verbunden sein.
  • In der Spracherkennungsvorrichtung 1 speichert das akustische Modell 9 akustische Modelle, die durch Modellierung von Merkmalsvektoren von Äußerungen erhalten wurden. Bei dem Ausführungsbeispiel 1 wird angenommen, dass die akustischen Modelle durch Modellierung von Phonemen erhalten wurden, und in dem akustischen Modell 9 sind die akustischen Modelle für alle Phoneme gespeichert. Mit den akustischen Modellen für alle Phoneme ist es möglich, einen Merkmalsvektor einer Äußerung über jedes Wort zu modellieren, indem Zugriff zu einem akustischen Modell seiner Phoneme genommen wird.
  • Es ist festzustellen, dass der durch das akustische Modell 9 zu modellierende Merkmalsvektor (nämlich ein Merkmalsvektor 6 in 1) beispielsweise ein MFCC (Mel Frequency Cepstral Coefficient) sein soll. Weiterhin kann beispielsweise angenommen werden, dass das akustische Modell ein HMM (verstecktes Markov-Modell) ist.
  • Das Sprachenmodell 8 speichert Notationen und Lesarten von Erkennungsobjektwörtern der internen Erkennungseinheit 7. Es ist zu beachten, dass „Lesart“ hier eine Symbolfolge bedeuten soll, die mit dem akustischen Modell 9 assoziiert werden kann. Beispielsweise sind die Lesarten in dem Sprachenmodell 8, wenn das akustische Modell 9 dasjenige ist, in welchem Phoneme modelliert sind, Phonemsequenzen oder dergleichen. In dem Ausführungsbeispiel 1 wird angenommen, dass die Erkennungsobjekte der Spracherkennungsvorrichtung 1 Namen für Einrichtungen in der Kanagawa-Präfektur sind. Ein Beispiel für Einzelheiten des Sprachmodells in diesem Fall ist in 2 gezeigt. In 2 werden Phonemsequenzen als die Lesarten verwendet.
  • Das Lesarten-Wörterbuch 13 speichert Paare von Notationen und Lesarten einer großen Anzahl von Wörtern, die auch Wörter enthalten, die nicht Gegenstand der Erkennung durch die interne Erkennungseinheit 7 sind. Es ist zu beachten, dass angenommen wird, dass „Lesart“, ähnlich dem Sprachenmodell 8, eine Symbolsequenz ist, die mit dem akustischen Modell 9 assoziiert werden kann. Bei dem Ausführungsbeispiel 1 sind diese Lesarten in dem Lesarten-Wörterbuch 13 Phonemsequenzen. Ein Beispiel für Einzelheiten des Lesarten-Wörterbuchs 13 ist in 3 gezeigt.
  • Das Sprachenmodell 8, das akustische Modell 9 und das Lesarten-Wörterbuch 13 können in einem gemeinsamen Speicherelement, einer gemeinsamen Speichervorrichtung oder dergleichen gespeichert sein, oder sie können in unabhängigen Speicherelementen, Speichervorrichtungen oder dergleichen gespeichert sein.
  • Weiterhin ist es zulässig, die Spracherkennungsvorrichtung 1 so zu konfigurieren, dass sie aufweist: einen Speicher, der ein Programm speichert, und eine CPU zum Implementieren des Programms derart, dass, wenn die CPU das Programm implementiert, die Funktionen (Einzelheiten werden später beschrieben), die die von dem Sender 3, der Analysevorrichtung 5, der internen Erkennungseinheit 7, dem Lesartenhinzufügungs-Prozessor 12, dem Wiedervergleichsprozessor 15 und dem Ergebnisbestimmungsprozessor 17 durchgeführt werden, durch Software erzielt werden. Stattdessen kann ein Teil der Funktionen durch Hardware erzielt werden.
  • Als Nächstes werden Operationen zu der Zeit der Spracherkennung mit Bezug auf das Flussdiagramm in 4 beschrieben.
  • Im Schritt ST1 wird, wenn ein Benutzer spricht, eine Eingangsäußerung über diese Äußerung in den Sender 3 eingegeben. Der Sender 3 führt eine A/D-Umwandlung der Eingangsäußerung 2 in Sprachdaten 4 durch und gibt die Daten zu der Analysevorrichtung 5 aus. Zusätzlich sendet der Sender 3 dieselben Sprachdaten 4 zu der externen Erkennungsvorrichtung 19.
  • Im Schritt ST2 wandelt die Analysevorrichtung 5 die Sprachdaten 4 in einen Merkmalsvektor 6 um und gibt ihn zu der internen Erkennungseinheit 7 und dem Wiedervergleichsprozessor 15 aus. Wie vorstehend erwähnt ist, wird angenommen, dass der Merkmalsvektor 6 beispielsweise ein MFCC ist.
  • Im Schritt ST3 führt die interne Erkennungseinheit 7 unter Verwendung des Sprachmodells 8 und des akustischen Modells 9 gemäß beispielsweise einem Viterbi-Algorithmus einen Mustervergleich (Musteranpassung) zwischen dem Merkmalsvektor 6 und jedem der Wörter, die in das Sprachmodell 8 geschrieben sind, durch, um hierdurch ihre jeweiligen akustischen Wahrscheinlichkeiten zu berechnen, gefolgt von dem Auswählen des Wortes, dessen akustische Wahrscheinlichkeit am höchsten ist, und Ausgeben von diesem zu dem Ergebnisbestimmungsprozessor 17 als ein internes Erkennungsergebnis 10.
  • Es ist hier zu beachten, dass ein Fall beschrieben wird, in welchem nur das oberste hochrangige Wort hinsichtlich der akustischen Wahrscheinlichkeit in dem internen Erkennungsergebnis 10 enthalten ist; jedoch ist dies nicht beschränkend, und es ist zulässig, eine derartige Konfiguration zu verwenden, dass beispielsweise das oberste oder mehrere hochrangige Wörter hinsichtlich der akustischen Wahrscheinlichkeit in dem internen Erkennungsergebnis 10 enthalten sind.
  • Das interne Erkennungsergebnis 10 ist aus einer Notation, einer Lesart und einer akustischen Wahrscheinlichkeit des Wortes [Kanji] zusammengesetzt. Wenn beispielsweise die Eingangsäußerung 2 „Maihama International Stadium (maihamakokusaikyoogizyoo)“ ist, wird, obgleich nicht dasselbe Wort in dem Sprachmodell 8, ein Wort, dessen akustische Wahrscheinlichkeit unter den Wörtern in dem Sprachmodell 8 am höchsten ist, ausgegeben. In diesem Beispiel wird angenommen, dass die akustische Wahrscheinlichkeit von „Yokohama International Stadium (yokohamakokusaikyoogizyoo)“ am höchsten ist. Demgemäß gibt die interne Erkennungseinheit 7 die Notation „Yokohama International Stadium“, die Lesart „yokohamakokusaikyoogizyoo“ und die akustische Wahrscheinlichkeit dieses Wortes als das interne Erkennungsergebnis 10 aus.
  • Im Schritt ST4 wartet der Lesarthinzufügungs-Prozessor 12 auf ein externes Erkennungsergebnis 11, das von der externen Erkennungseinheit 19 zurückgesendet wurde. Es ist zu beachten, dass im Ausführungsbeispiel 1 angenommen wird, dass das externe Erkennungsergebnis 11 zumindest eine Notation des Wortes enthält, das ein Erkennungsergebnis der Sprachdaten 4 ist, aber nicht eine Lesart dieses Wortes enthält.
  • Der Lesarthinzufügungs-Prozessor 12 bezieht sich, wenn das externe Erkennungsergebnis 11 empfangen wird (Schritt ST4: „JA“), auf das Lesarten-Wörterbuch 13, um hierdurch eine Lesart einer Notation aus diesem herauszuziehen, die mit der Notation des in dem externen Erkennungsergebnis 11 enthaltenen Wortes übereinstimmt, und gibt die Lesart zu dem Wiedervergleichsprozessor 15 als ein mit der Lesart versehenes Ergebnis 14 aus (Schritt ST5). Wenn beispielsweise das externe Erkennungsergebnis 11 „Maihama International Stadium“ ist, bezieht sich der Lesarthinzufügungs-Prozessor 12 auf das Lesarten-Wörterbuch 13, um hierdurch die übereinstimmende Notation „Maihama International Stadium“ und ihre Lesart „maihamakokusaikyoogizyoo“ herauszuziehen, und gibt diese als das mit Lesart versehene Ergebnis 14 aus.
  • Im Schritt ST6 verwendet der Wiedervergleichsprozessor 15 als seine Eingänge den Merkmalsvektor 6 und das mit Lesart versehene Ergebnis 14 und führt unter Verwendung desselben akustischen Modells wie des im Mustervergleich in der internen Erkennungseinheit 7 verwendeten, nämlich unter Verwendung des akustischen Modells 9, einen Mustervergleich zwischen der Lesart des Merkmalsvektors 6 und der Lesart in dem mit der Lesart versehenen Ergebnis 14 durch, um hierdurch eine akustische Wahrscheinlichkeit für das mit der Lesart versehene Ergebnis 14 zu berechnen. Es wird angenommen, dass das Mustervergleichsverfahren durch den Wiedervergleichsprozessor 15 dasselbe ist wie das in der internen Erkennungseinheit 7 verwendete Mustervergleichsverfahren. Im Ausführungsbeispiel wird der Viterbi-Algorithmus verwendet.
  • Da der Wiedervergleichsprozessor 15 in dieser Weise dasselbe akustische Modell und dasselbe Mustervergleichsverfahren wie die interne Erkennungseinheit 7 verwendet, werden die akustische Wahrscheinlichkeit des internen Erkennungsergebnisses 10, das von der internen Erkennungseinheit 7 berechnet wurde, und die des externen Erkennungsergebnisses 11, das von der externen Erkennungseinheit 19 berechnet wurde, miteinander vergleichbar. Der Wiedervergleichsprozessor 15 gibt das Wiedervergleichsergebnis 16, das aus dem mit der Lesart versehenen Ergebnis 14 und der berechneten akustischen Wahrscheinlichkeit zusammengesetzt ist, zu dem Ergebnisbestimmungsprozessor 17 aus.
  • Im Schritt ST7 verwendet der Ergebnisbestimmungsprozessor 17 als seine Eingänge das interne Erkennungsergebnis 10 und das Wiedervergleichsergebnis 16, sortiert die Erkennungsergebnisse in abfallender Reihenfolge der akustischen Wahrscheinlichkeit und gibt diese als ein endgültiges Erkennungsergebnis 18 aus. In dem vorbeschriebenen Beispiel wird, da
    die Eingangsäußerung 2 „Maihama International Stadium“ ist, das interne Erkennungsergebnis 10 der internen Erkennungseinheit 7 „Yokohama International Stadium“ ist und das externe Erkennungsergebnis 11 der externen Erkennungseinheit 19 „Maihama International Stadium“ ist, wenn der Mustervergleich unter Verwendung desselben akustischen Modells 9 durchgeführt wird, um hierdurch die jeweiligen akustischen Wahrscheinlichkeiten zu berechnen, erwartet, dass „Maihama International Stadium“ der externen Erkennungseinheit 19 eine höhere akustische Wahrscheinlichkeit erhält als das andere. Dies trägt zu einer Erhöhung der Genauigkeit der Spracherkennung bei.
  • Folglich ist gemäß dem Ausführungsbeispiel 1 die Spracherkennungsvorrichtung 1 so konfiguriert, dass die enthält: das akustische Modell 9, in welchem Merkmalsquantitäten von Äußerungen modelliert sind; das Sprachmodell 8, in welchem Notationen und Lesarten von mehr als einem Erkennungsobjektwort der Spracherkennungsvorrichtung 1 gespeichert sind; das Lesarten-Wörterbuch 13, in welchem Paare von Notationen und Lesarten einer großen Anzahl von Wörtern, enthaltend nicht nur die Erkennungsobjektwörter, sondern auch andere Wörter als die Erkennungsobjektwörter, gespeichert sind; die Analysevorrichtung 5, die die Sprachdaten 4 der Eingangsäußerung 2 analysiert, um den Merkmalsvektor 6 zu berechnen; die interne Erkennungseinheit 7, die unter Verwendung des akustischen Modells 9 einen Mustervergleich zwischen dem von der Analysevorrichtung 5 berechneten Merkmalsvektor 6 und jedem der in dem Sprachmodell 8 gespeicherten Wörter durchführt, um hierdurch ihre jeweiligen akustischen Wahrscheinlichkeiten zu berechnen, gefolgt von dem Ausgeben, als das interne Erkennungsergebnis 10, der Notationen, der Lesarten und der akustischen Wahrscheinlichkeiten des obersten oder mehrerer hochrangiger Wörter hinsichtlich der akustischen Wahrscheinlichkeiten; den Lesarthinzufügungs-Prozessor 12, der das externe Erkennungsergebnis 11 durch Erkennungsverarbeitung der Sprachdaten 4 durch die externe Erkennungseinheit 19 erwirbt, eine Lesart für das externe Erkennungsergebnis 11 durch Verwendung des Lesarten-Wörterbuchs 13 hinzufügt und das mit der Lesart versehene Ergebnis 14, das aus dem externen Erkennungsergebnis 11 und der Lesart für dieses zusammengesetzt ist, ausgibt; den Wiedervergleichsprozessor 15, der unter Verwendung des akustischen Modells 9 einen Mustervergleich zwischen dem von der Analysevorrichtung 5 berechneten Merkmalsvektor 6 und dem mit der Lesart versehenen Ergebnis 14, das von dem Lesarthinzufügungs-Prozessor 12 ausgegeben wurde, durchführt, um hierdurch eine akustische Wahrscheinlichkeit für das externe Erkennungsergebnis 11 zu berechnen; und den Ergebnisbestimmungsprozessor 17, der die akustischen Wahrscheinlichkeiten des internen Erkennungsergebnisses 10 mit der akustischen Wahrscheinlichkeit des Wiedervergleichs-Erkennungsergebnisses 16 vergleicht, um hierdurch das endgültige Erkennungsergebnis zu bestimmen. Somit kann die akustische Wahrscheinlichkeit für das externe Erkennungsergebnis 11 durch Verwendung desselben akustischen Modells und desselben Mustervergleichsverfahrens wie die der internen Erkennungseinheit 7 berechnet werden, so dass ein exakter Vergleich zwischen der akustischen Wahrscheinlichkeit des externen Erkennungsergebnisses 11 und der akustischen Wahrscheinlichkeit des internen Erkennungsergebnisses 10 vorgenommen werden kann, wodurch es möglich ist, die endgültige Erkennungsgenauigkeit zu erhöhen. Demgemäß ist es selbst in dem Fall, in welchem beispielsweise die Spracherkennungsvorrichtung 1 ungenügende Hardwareressourcen hat und die Anzahl von Wörtern in dem Sprachmodell 8 klein ist, möglich, das Erkennungsergebnis durch die externe Erkennungseinheit 19 mit einem Sprachmodell großen Umfangs zu verwenden, wodurch die Wirkung erhalten wird, dass das Erkennungsvermögen der Spracherkennungsvorrichtung 1 verbessert wird.
  • Es ist zu beachten, dass die Spracherkennungsvorrichtung 1 nach dem Ausführungsbeispiel 1 auch auf eine andere Sprache als Japanisch anwendbar ist. Wenn beispielsweise die Spracherkennungsvorrichtung 1 auf das Englische anzuwenden ist, ist es ausreichend, das Sprachmodell 8, das akustische Modell 9 und das Lesarten-Wörterbuch 13 in die jeweils entsprechenden für Englisch zu ändern. In diesem Fall ist es ausreichend, Notationen und Lesarten einer großen Anzahl von englischen Wörtern in dem Lesarten-Wörterbuch zu registrieren. Es ist zu beachten, dass die Lesarten in dem Lesarten-Wörterbuch 13 als Anzeigen, die mit dem akustischen Modell 9 assoziiert werden können, vorgesehen sind. Wenn beispielsweise das akustische Modell 9 englische Phoneme aufweist, sind die Lesarten in dem Lesarten-Wörterbuch 13 als Phonemanzeigen oder Symbole, die in die Phonemanzeigen umwandelbar sind, vorgesehen. In 5 ist ein Beispiel für ein englisches Lesarten-Wörterbuch 13 gezeigt. In die erste Spalte in 5 sind die Notationen geschrieben, und in der zweiten Spalte sind die Phonemanzeigen als die Lesarten dieser Notationen.
  • In dem Lesarten-Wörterbuch 13 sind die Lesarten einer großen Anzahl von Wörtern so gespeichert, dass keine Anwesenheit des Wortes, das mit einem Wort in dem externen Erkennungsergebnis 11 verglichen wird, vermieden wird. In einem Fall, in welchem das verglichene Wort nichtsdestoweniger nicht in dem Lesart-Wörterbuch 13 vorhanden ist, ist es ausreichend, vorher zu bestimmen, welches der Erkennungsergebnisse durch die interne Erkennungseinheit 7 und die externe Erkennungseinheit 19 auszuwählen ist, so dass der Ergebnisbestimmungsprozessor 17 das so bestimmte Erkennungsergebnis als das endgültige Ergebnis liefert.
  • Ausführungsbeispiel 2
  • 6 ist ein Blockschaltbild, das eine Konfiguration einer Spracherkennungsvorrichtung 1 gemäß dem Ausführungsbeispiel 2 zeigt. In 6 sind dieselben Bezugszahlen denselben oder äquivalenten Teilen wie denjenigen wie in 1 zugeteilt, so dass ihre Beschreibung hier weggelassen wird. Die Spracherkennungsvorrichtung 1 nach dem Ausführungsbeispiel 2 ist gekennzeichnet durch die Hinzufügung eines zweiten akustischen Modells 20.
  • Ähnlich dem akustischen Modell 9 bei dem Ausführungsbeispiel 1 speichert das zweite akustische Modell 20 akustische Modelle, die durch Modellierung von Merkmalsvektoren von Äußerungen erhalten wurden. Es ist festzustellen, dass angenommen wird, dass das zweite akustische Modell 20 ein akustisches Modell ist, das genauer ist und eine höhere Erkennungsgenauigkeit hat als das akustische Modell 9. Beispielsweise wird in einem Fall, in welchem Phoneme in diesem akustischen Modell zu modellieren sind, angenommen, dass Triphon-Phoneme unter Berücksichtigung von nicht nur einem Zielphonem für die Modellierung, sondern auch von Phonemen vor und nach dem Zielphonem modelliert werden. In dem Fall des Triphons sind das zweite Phonem /s/ in „Morning/asa“ und das zweite Phonem /s/ in „Stone/isi“, da sie unterschiedlich in den Phonemen davor und danach sind, in verschiedene akustische Modelle modelliert. Es ist bekannt, dass dies die Erkennungsgenauigkeit erhöht. Jedoch nehmen Variationen von akustischen Modellen zu, so dass die Berechnungsmenge bei dem Mustervergleich zunimmt.
  • Als Nächstes werden Operationen zu der Zeit der Spracherkennung mit Bezug auf das Flussdiagramm in 7 beschrieben.
  • Wenn ein Benutzer spricht, führt der Sender 3 eine A/D-Umwandlung der Eingangsäußerung 2 in Sprachdaten 4 durch und gibt die Daten zu der Analysevorrichtung 5 und der externen Erkennungseinheit 19 aus (Schritt ST1). Die Analysevorrichtung 5 und die interne Erkennungseinheit 7 führen dieselben Operationen wie diejenigen bei dem Ausführungsbeispiel 1 durch (Schritte ST2 und ST3), um hierdurch das interne Erkennungsergebnis 10 auszugeben. Es ist festzustellen, dass im Schritt ST3 des Ausführungsbeispiels 1 das interne Erkennungsergebnis 10 von der internen Erkennungseinheit 7 zu dem Ergebnisbestimmungsprozessor 17 ausgegeben wird; jedoch wird es im Schritt ST3 des Ausführungsbeispiels 2 von der internen Erkennungseinheit 7 zu dem Wiedervergleichsprozessor 15 ausgegeben.
  • Im Schritt ST11 verwendet der Wiedervergleichsprozessor 15 als seine Eingaben den Merkmalsvektor 6 und das interne Erkennungsergebnis 10 und führt unter Verwendung des zweiten akustischen Modells 20 einen Mustervergleich zwischen der Lesart des Merkmalsvektors und der Lesart in dem internen Erkennungsergebnis 10 durch, um hierdurch eine akustische Wahrscheinlichkeit für das interne Erkennungsergebnis 10 zu berechnen. Obgleich das Mustervergleichsverfahren zu dieser Zeit nicht notwendigerweise dasselbe wie das durch die interne Erkennungseinheit 7 verwendete Verfahren ist, wird im Ausführungsbeispiel 2 der Viterbi-Algorithmus verwendet. Der Wiedervergleichsprozessor 15 gibt das Wiedervergleichsergebnis 16a, das aus dem internen Erkennungsergebnis 10 und der berechneten akustischen Wahrscheinlichkeit zusammengesetzt ist, zu dem Ergebnisbestimmungsprozessor 17 aus.
  • Es ist zu beachten, dass, wie vorstehend erwähnt ist, da das zweite akustische Modell 20 mehr Variationen der Modelle hat als solche in dem akustischen Modell 9, die für den Mustervergleich erforderliche Berechnungsmenge vergrößert ist; jedoch sind die Erkennungsobjekte des Wiedervergleichsprozessors 15 auf die Wörter beschränkt, die in dem internen Erkennungsergebnis 10 enthalten sind, so dass eine Zunahme der Verarbeitungslast kleingehalten werden kann.
  • Der Lesarthinzufügungs-Prozessor 12 führt dieselben Operationen wie diejenigen des Ausführungsbeispiels 1 durch (Schritte ST4 und ST5), um hierdurch das mit der Lesart versehene Ergebnis 14 als das externe Erkennungsergebnis 11 zu erhalten und es zu dem Wiedervergleichsprozessor 15 auszugeben.
  • Im Schritt ST12 erhält, wenn das mit der Lesart versehene Ergebnis 14 eingegeben wird, der Wiedervergleichsprozessor 15 durch ähnliche Operationen wie denjenigen des Ausführungsbeispiels 1 das Wiedervergleichsergebnis 16, das aus dem mit der Lesart versehenen Ergebnis 14 und seiner akustischen Wahrscheinlichkeit zusammengesetzt ist, und gibt es zu dem Ergebnisbestimmungsprozessor 17 aus. Es ist zu beachten, dass das zweite akustische Modell 20 für den Mustervergleich verwendet wird.
  • Im Schritt ST13 verwendet der Ergebnisbestimmungsprozessor 17 als seine Eingänge das Wiedervergleichsergebnis 16a mit Bezug auf das interne Erkennungsergebnis 10 und das Wiedervergleichsergebnis 16 mit Bezug auf das externe Erkennungsergebnis 11, sortiert die Erkennungsergebnisse in abnehmender Reihenfolge der akustischen Wahrscheinlichkeit und gibt sie als das endgültige Erkennungsergebnis 18 aus.
  • Folglich ist gemäß dem Ausführungsbeispiel 2 die Spracherkennungsvorrichtung 1 so konfiguriert, dass sie das zweite akustische Modell 20, das von dem akustischen Modell 9 verschieden ist, enthält, wobei unter Verwendung des zweiten akustischen Modells 20 der Wiedervergleichsprozessor 15 einen Mustervergleich zwischen dem von der Analysevorrichtung 5 berechneten Merkmalsvektor 6 und dem von der internen Erkennungseinheit 7 ausgegebenen internen Erkennungsergebnis 10 durchführt, um hierdurch eine akustische Wahrscheinlichkeit (Wiedervergleichsergebnis 16a) für das interne Erkennungsergebnis 10 zu berechnen, und führt einen Mustervergleich zwischen dem Merkmalsvektor 6 und dem mit der hinzugefügten Lesart versehenen Ergebnis 14, das von dem Lesarthinzufügungs-Prozessor 12 ausgegeben wurde, durch, um hierdurch eine akustische Wahrscheinlichkeit (Wiedervergleichsergebnis 16) für das externe Erkennungsergebnis 11 zu berechnen; und wobei der Ergebnisbestimmungsprozessor 17 das endgültige Erkennungsergebnis durch Vergleichen der akustischen Wahrscheinlichkeit des internen Erkennungsergebnisses 10 und der akustischen Wahrscheinlichkeit des externen Erkennungsergebnisses 11, die durch den Wiedervergleichsprozessor 15 berechnet wurden, miteinander bestimmt. Demgemäß wird der Wiedervergleich unter Verwendung des zweiten akustischen Modells 20 durchgeführt, das präziser ist und eine höhere Erkennungsgenauigkeit hat als das akustische Modell 9, so dass der Vergleich zwischen der akustischen Wahrscheinlichkeit des externen Erkennungsergebnisses 11 und der akustischen Wahrscheinlichkeit des internen Erkennungsergebnisses 10 genauer wird, wodurch eine Wirkung des Verbesserns der Erkennungsgenauigkeit erhalten wird.
  • Es ist zu beachten, dass der Grund der Nichtverwendung des zweiten akustischen Modells 20 in der internen Erkennungseinheit 7 in dem Umstand liegt, dass, wenn das zweite akustische Modell 20 in dem Mustervergleich durch die interne Erkennungseinheit 7 verwendet wird, da die Variationen von Modellen mehr zunehmen als diejenigen in dem akustischen Modell 9, die Berechnungsmenge zu der Zeit des Mustervergleichs erhöht ist. Wenn verschiedene Arten von Modellen jeweils in dem akustischen Modell 9 und dem zweiten akustischen Modell 20, wie beim Ausführungsbeispiel 2, verwendet werden, wird eine Wirkung derart erhalten, dass die Erkennungsgenauigkeit erhöht wird, während eine Zunahme der Berechnungsmenge kleingehalten wird.
  • Ausführungsbeispiel 3
  • Eine Spracherkennungsvorrichtung gemäß dem Ausführungsbeispiel 3 hat eine Konfiguration, die, was die Figuren angeht, ähnlich der der in 1 oder 6 gezeigten Spracherkennungsvorrichtung 1 ist. Somit wird die folgende Beschreibung unter Verwendung von 1 in einer abweichenden Weise gegeben. Bei der Spracherkennungsvorrichtung 1 gemäß dem Ausführungsbeispiel 3 sind die Einzelheiten des Lesarten-Wörterbuchs 13 und der Operationen des Lesarthinzufügungs-Prozessors 12 und des Wiedervergleichsprozessors 15 wie weiter unten beschrieben modifiziert.
  • 8 ist ein Diagramm, das ein Beispiel für Einzelheiten eines Lesarten-Wörterbuchs 13 der Spracherkennungsvorrichtung gemäß dem Ausführungsbeispiel 3 zeigt. In der Spracherkennungsvorrichtung 1 gemäß dem Ausführungsbeispiel 3 speichert das Lesarten-Wörterbuch 13 auch, anders als das Wörterbuch der in 3 gezeigten Wörter und Namen für Einrichtungen, ein Wörterbuch für Wörter in der Einheit von etwa einem Zeichen, wie in 8 gezeigt ist. Da die Wortelemente in der kleinen Einheit von etwa einem Zeichen verwendet werden, ist es möglich, eine Lesart zu jeder von verschiedenen Notationen in dem externen Erkennungsergebnis 11 hinzuzufügen.
  • Als Nächstes werden Operationen zu der Zeit der Spracherkennung beschrieben.
  • Wenn ein Benutzer spricht, führt der Sender 3 eine A/D-Umwandlung der Eingangsäußerung 2 in Sprachdaten 4 durch und gibt die Daten zu der Analysevorrichtung 5 und der externen Erkennungseinheit 19 aus. Die Analysevorrichtung 5 und die interne Erkennungseinheit 7 führen dieselben Operationen wie diejenigen des Ausführungsbeispiels 1 durch, um hierdurch das interne Erkennungsergebnis 10 auszugeben. In dem Fall, in welchem beispielsweise die Eingangsäußerung 2 „Suzuka Slope (suzukasaka)“ ist, wird, obgleich „Suzuka Slope“ in dem Sprachmodell 8 nicht vorhanden ist, ein Mustervergleich zwischen dieser Äußerung und jedem der in das Sprachmodell 8 geschriebenen Wörter durchgeführt, so dass das Wort, dessen akustische Wahrscheinlichkeit am höchsten ist, ausgegeben wird. In dem Ausführungsbeispiel 3 wird angenommen, dass die akustische Wahrscheinlichkeit von „Suzuki Liquor Store (suzukisaketen)“ am höchsten ist. Demgemäß gibt die interne Erkennungseinheit 7 die Notation, die Lesart und die akustische Wahrscheinlichkeit dieses Wortes als das interne Erkennungsergebnis 10 aus.
  • Der Lesarthinzufügungs-Prozessor 12 wartet auf ein externes Erkennungsergebnis 11, das von der externen Erkennungseinheit 19 zurückgesendet wurde, und wenn er das externe Erkennungsergebnis 11 empfangen hat, bezieht er sich auf das in 8 gezeigte Lesarten-Wörterbuch 13, um hierdurch eine Lesart einer Notation, die der Notation des Wortes (zum Beispiel „Suzuka Slope“), das in dem externen Erkennungsergebnis 11 enthalten ist, zugeordnet ist, herauszuziehen. Wenn in dem Lesarten-Wörterbuch 13 mehrere Lesarten entsprechend der Notation in dem externen Erkennungsergebnis 11 vorhanden sind, gibt der Lesartenhinzufügungs-Prozessor die mehreren Lesarten aus. Wenn weiterhin keine Lesart entsprechend der Notation vorhanden ist, zieht der Lesartenhinzufügungs-Prozessor Notationen aus dem Lesarten-Wörterbuch 13 heraus, die in der Lage sind, wenn sie miteinander gekoppelt werden, die Notation des externen Erkennungsergebnisses 11 zu bilden. Dieser Extraktionsvorgang kann beispielsweise durchgeführt werden, indem die Notation des externen Erkennungsergebnisses 11 einem kontinuierlichen DP(dynamische Programmierung)-Vergleich auf der Basis einer minimalen Teilungsnummer unterzogen wird, unter Verwendung sämtlicher Notationen in dem Lesarten-Wörterbuch 13 als Erkennungsobjekte.
  • In dem Beispiel des Ausführungsbeispiels 3 gibt es in dem Lesarten-Wörterbuch 13 keine Notation, die „Suzuka Slope“ des externen Erkennungsergebnisses 11 entspricht, so dass der Lesartenhinzufügungs-Prozessor 12 die Notationen „Bell“, „Deer“ und „Slope“ (jeweils ein einzelnes Kanji-Zeichen, die „Suzuka Slope“ bilden“) herauszieht, die in dem Lesarten-Wörterbuch 13 existieren. Wenn es mehrere Lesarten für die so herausgezogene Notation gibt, werden alle Lesartenkombinationen herausgezogen. In diesem Fall gibt es jeweils zwei Lesarten „suzu“ und „rei“ für die Notation „Bell“, und „sika“ und „ka“ für die Notation „Deer“, und eine Lesart „saka“ für die Notation „Slope“, so dass vier Lesarten „suzushikasaka“, „reishikasaka“, „suzukasaka“ und „reikasaka“ als Schreibenweisen für „Suzuka Slope“ des externen Erkennungsergebnisses 11 herausgezogen werden. Dann gibt der Lesartenhinzufügungs-Prozessor 12 als das mit der hinzugefügten Lesart versehene Ergebnis 14 die herausgezogenen vier Lesarten mit der Notation „Suzuka Slope“ aus.
  • Der Wiedervergleichsprozessor 15 verwendet als seine Eingänge den Merkmalsvektor 6 und das mit der hinzugefügten Lesart versehene Ergebnis 14 und führt unter Verwendung desselben akustischen Modells 9, wie es bei dem Mustervergleich durch die Erkennungseinheit 7 verwendet wurde, einen Mustervergleich zwischen der Lesart des Merkmalsvektors 6 und jeder der mehreren Lesarten in dem mit der hinzugefügten Lesart versehenen Ergebnis 14 durch, um hierdurch anhand der Lesart, deren akustische Wahrscheinlichkeit in dem mit der hinzugefügten Lesart versehenen Ergebnis 14 am höchsten ist, diese akustische Wahrscheinlichkeit als die akustische Wahrscheinlichkeit für das mit der hinzugefügten Lesart versehene Ergebnis 14 zu berechnen. Der Wiedervergleichsprozessor 15 gibt das Wiedervergleichsergebnis 16, das aus dem mit der hinzugefügten Lesart versehenen Ergebnis 14 und der berechneten akustischen Wahrscheinlichkeit zusammengesetzt ist, aus.
  • Auf diese Weise ist es möglich, wenn es mehrere Lesarten als Kandidaten für die Notation des Wortes in dem externen Erkennungsergebnis 11 gibt, die Lesart zu bestimmen und ihre akustische Wahrscheinlichkeit zu berechnen, indem ein Mustervergleich zwischen dem Merkmalsvektor 6 und den mehreren Lesarten in dem Wiedervergleichsprozessor 15 durchgeführt wird. In dem vorstehend beschriebenen Beispiel ist die Lesart „suzukasaka“, deren akustische Wahrscheinlichkeit am höchsten ist, in dem Wiedervergleichsergebnis 16 enthalten.
  • Der Ergebnisbestimmungsprozessor 17 verwendet als seine Eingänge das interne Erkennungsergebnis 10 und das Wiedervergleichsergebnis 16, führt dieselbe Operation wie im Ausführungsbeispiel 1 durch, um hierdurch die Erkennungsergebnisse in abfallender Reihenfolge der akustischen Wahrscheinlichkeit zu sortieren, und gibt sie als das endgültige Erkennungsergebnis 18 aus. In dem vorstehend beschriebenen Beispiel ist, da die Eingangsäußerung 2 „Suzuka Slope“ ist, das interne Erkennungsergebnis 10 durch die interne Erkennungseinheit 7 „Suzuki Liquor Store“, und das externe Erkennungsergebnis 11 durch die externe Erkennungseinheit 19 ist „Suzuka Slope“ (suzukasaka), wenn der Mustervergleich unter Verwendung desselben akustischen Modells 9 durchgeführt wird, um hierdurch ihre jeweiligen akustischen Wahrscheinlichkeiten zu berechnen, wird erwartet, dass „Suzuka Slope“ (suzukasaka) durch die externe Erkennungseinheit 19 eine höhere akustische Wahrscheinlichkeit als die anderen hat. Dies trägt zu einer Verbesserung der Genauigkeit der Spracherkennung bei.
  • Folglich ist gemäß dem Ausführungsbeispiel 3 die Konfiguration mit Bezug auf das mit der hinzugefügten Lesart versehene Ergebnis 14 derart, dass, wenn mehrere Lesarten als Kandidaten für das externe Erkennungsergebnis 11 in dem Lesarten-Wörterbuch 13 vorhanden sind, ein derartiges mit der hinzugefügten Lesart versehenes Ergebnis 14, in welchem die mehreren Lesarten hinzugefügt sind, ausgegeben wird, und der Wiedervergleichsprozessor 15 führt einen Mustervergleich für jede in dem mit der hinzugefügten Lesart versehenen Ergebnis 14 enthaltene Lesart durch, um hierdurch jeweilige akustische Wahrscheinlichkeiten zu berechnen, wählt eine Lesart aus, deren akustische Wahrscheinlichkeit am höchsten ist, und gibt sie zu dem Ergebnisbestimmungsprozessor 17 aus. Somit wird es, selbst wenn es nicht möglich ist, die Lesart nur anhand der Notation in dem externen Erkennungsergebnis 11 eindeutig zu bestimmen, möglich, die Lesart zu bestimmen und ihre akustische Wahrscheinlichkeit zu berechnen, indem eine Mustererkennung mit dem Merkmalsvektor bei dem Wiedervergleichsprozessor 15 durchgeführt wird, wodurch die Wirkung erhalten wird, dass die Genauigkeit der Spracherkennung verbessert wird.
  • Weiterhin sind bei dem Lesarten-Wörterbuch 13 nach dem Ausführungsbeispiel 3 die Notationen und Lesarten auf der Basis einer kleineren Einheit als auf einer Wortbasis gegeben, was dazu führt, dass eine große Verschiedenheit von Wörtern durch ihre Kombinationen gebildet werden kann, wodurch der Nutzen einer höheren Wahrscheinlichkeit, dass eine übereinstimmende Notation gefunden wird, erhalten wird. Demgegenüber wird für das Lesarten-Wörterbuch 13 nach dem Ausführungsbeispiel 1, da Notationen und Lesarten auf einer Wortbasis gegeben sind, der Nutzen erhalten, dass die Genauigkeit der Lesartenhinzufügung hoch ist.
  • Es ist zu beachten, dass bei dem Ausführungsbeispiel 3 der Fall beschrieben wurde, in welchem mit Bezug auf die Spracherkennungsvorrichtung 1 nach dem Ausführungsbeispiel 1 die Operationen des Lesartenhinzufügungs-Prozessors 12 und des Wiedervergleichsprozessors 15 modifiziert sind; jedoch können mit Bezug auch auf die Spracherkennungsvorrichtung nach dem Ausführungsbeispiel 2 die Operationen ihres Lesartenhinzufügungs-Prozessors 12 und des Wiedervergleichsprozessors 15 in gleicher Weise modifiziert werden, und dies ergibt dieselbe Wirkung für einen Fall, in welchem es nicht möglich ist, die Lesart nur anhand der Notation in dem externen Erkennungsergebnis 11 eindeutig zu bestimmen.
  • Ausführungsbeispiel 4
  • 9 ist ein Blockschaltbild, das eine Konfiguration einer Spracherkennungsvorrichtung 1 gemäß dem Ausführungsbeispiel 4 zeigt.
  • In 9 sind dieselben Bezugszahlen denselben oder äquivalenten Teilen wie denjenigen in 1 und 6 gegeben, so dass ihre Beschreibung hier weggelassen wird. In der Spracherkennungsvorrichtung 1 nach dem Ausführungsbeispiel 4 ist ein Ergebnisbestimmungs-Sprachmodell 21 hinzugefügt, und die Operation des Ergebnisbestimmungsprozessors 17 ist wie nachfolgend beschrieben modifiziert.
  • Als das in 9 gezeigte Ergebnisbestimmungs-Sprachmodell 21 kann jedes Modell verwendet werden, solange es eine Wahrscheinlichkeit für ein Wort oder eine Folge von mehreren Wörtern gibt. Bei dem Ausführungsbeispiel 4 wird ein Fall beschrieben, in welchem ein Monogramm-Sprachmodell für Wörter als das Ergebnisbestimmungs-Sprachmodell 21 verwendet wird. Ein Beispiel für Einzelheiten des Ergebnisbestimmungs-Sprachmodells 21 ist in 10 gezeigt. In der ersten Spalte sind Notationen für Wörter gezeigt, und in der zweiten Spalte sind Sprachwahrscheinlichkeiten für diese. Das Ergebnisbestimmungs-Sprachmodell 21 wurde vorher unter Verwendung einer Datenbank für eine große Anzahl von Wörtern errichtet. Beispielsweise wurden, wenn angenommen wird, dass ein Monogramm-Sprachmodell, wie in diesem Beispiel, verwendet wird, Wahrscheinlichkeiten des Auftretens der jeweiligen Wörter anhand der Datenbank für die große Anzahl von Wörtern berechnet, und logarithmische Werte der Wahrscheinlichkeiten des Auftretens wurden als ihre Wahrscheinlichkeiten in dem Ergebnisbestimmungs-Sprachmodell 21 registriert.
  • Als Nächstes werden Operationen zu der Zeit der Spracherkennung beschrieben.
  • Wenn ein Benutzer spricht und seine Äußerung eingegeben wird, führen der Sender 3, die Analysevorrichtung 5, die interne Erkennungseinheit 7, der Lesartenhinzufügungs-Prozessor 12 und der Wiedervergleichsprozessor 15 dieselben Operationen wie diejenigen bei dem Ausführungsbeispiel 1 durch, um hierdurch das interne Erkennungsergebnis 10 von der internen Erkennungseinheit 7 und das Wiedervergleichsergebnis 16 von dem Wiedervergleichsprozessor 15 zu dem Ergebnisbestimmungsprozessor 17 auszugeben.
  • Der Ergebnisbestimmungsprozessor 17 bezieht sich auf das Ergebnisbestimmungs-Sprachmodell 21, um hierdurch eine Sprachwahrscheinlichkeit S1 für jeweils das interne Erkennungsergebnis 10 und das Wiedervergleichsergebnis 16 zu berechnen. Wenn beispielsweise die Notation in dem internen Erkennungsergebnis 10 „Suzuka Liquor Store“ ist, ist ihre Sprachwahrscheinlichkeit S1 = -0,32 mit Bezug auf das Ergebnisbestimmungs-Sprachmodell 21 in 10. In gleicher Weise ist, wenn die Notation in dem Wiedervergleichsergebnis 16 „Suzuka Slope“ ist, ihre Sprachwahrscheinlichkeit S1 = -0,30. Dann berechnet der Ergebnisbestimmungsprozessor 17 eine Gesamtwahrscheinlichkeit S entsprechend der folgenden Formel (1) für jeweils das interne Erkennungsergebnis 10 und Wiedervergleichsergebnis 16. In der Formel (1) ist Sa eine akustische Wahrscheinlichkeit, und w ist eine vorher experimentell bestimmte Konstante, die beispielsweise als w = 10 gegeben ist.
  • S = Sa + w × S 1
    Figure DE112013006770B4_0001
  • Der Ergebnisbestimmungsprozessor 17 sortiert die Erkennungsergebnisse in dem internen Erkennungsergebnis 10 und dem Wiedervergleichsergebnis 16 in abnehmender Reihenfolge der Gesamtwahrscheinlichkeit S und gibt diese als das endgültige Erkennungsergebnis 18 aus.
  • Folglich ist bei dem Ausführungsbeispiel 4 die Spracherkennungsvorrichtung 1 so konfiguriert, dass sie das Ergebnisbestimmungs-Sprachmodell 21 enthält, in welchem Paare von Wörtern und Sprachwahrscheinlichkeiten von diesen gespeichert sind, wobei der Ergebnisbestimmungsprozessor 17 unter Verwendung des Ergebnisbestimmungs-Sprachmodells 21 die Sprachwahrscheinlichkeit des internen Erkennungsergebnisses 10 und die Sprachwahrscheinlichkeit des Wiedervergleichsergebnisses 16 (nämlich das externe Erkennungsergebnis 11) berechnet und die akustische Wahrscheinlichkeit und die Sprachwahrscheinlichkeit des internen Erkennungsergebnisses 10 mit der akustischen Wahrscheinlichkeit und der Sprachwahrscheinlichkeit des Wiedervergleichsergebnisses 16 vergleicht, um hierdurch das endgültige Erkennungsergebnis zu bestimmen. Somit wird die Sprachwahrscheinlichkeit S1 für jeweils das interne Erkennungsergebnis 10 und das Wiedervergleichsergebnis 16 durch Verwendung desselben Ergebnisbestimmungs-Sprachmodells 21 berechnet, so dass ein Vergleich unter Berücksichtigung der Sprachwahrscheinlichkeit S1 zwischen diesen durchgeführt werden kann, wodurch die Wirkung erhalten wird, dass die Erkennungsgenauigkeit verbessert wird.
  • Es ist zu beachten, dass bei dem Ausführungsbeispiel 4 für das Ergebnisbestimmungs-Sprachmodell 21 ein Beispiel beschrieben wurde, das ein Monogramm des Wortes verwendet; jedoch ist dies nicht beschränkend, und beliebige statische N-Gramm-Sprachmodelle, einschließlich Bigramm-, Trigramm- und dergleichen, können verwendet werden.
  • Es ist zu beachten, dass bei dem Ausführungsbeispiel 4 der Fall beschrieben wurde, in welchem mit Bezug auf die Spracherkennungsvorrichtung 1 nach dem Ausführungsbeispiel 1 das Ergebnisbestimmungs-Sprachmodell 21 hinzugefügt ist und die Operation des Ergebnisbestimmungsprozessors 17 modifiziert ist; jedoch kann auch mit Bezug auf die Spracherkennungsvorrichtung 1 des Ausführungsbeispiels 2 oder 3 in gleicher Weise das Ergebnisbestimmungs-Sprachmodell 21 hinzugefügt sein, und die Arbeitsweise des Ergebnisbestimmungsprozessors 17 kann modifiziert sein.
  • Weiterhin wird bei den Ausführungsbeispielen 1 bis 4 das von einer einzelnen externen Erkennungseinheit 19 empfangene externe Erkennungsergebnis 11 verwendet; jedoch können mehrere von mehreren externen Erkennungseinheiten 19 empfangene externe Erkennungsergebnisse 11 verwendet werden. Weiterhin ist der Ergebnisbestimmungsprozessor 17 so konfiguriert, dass er die in abnehmender Reihenfolge der akustischen Wahrscheinlichkeit oder dergleichen sortierten Erkennungsergebnisse als das endgültige Erkennungsergebnis 18 ausgibt; jedoch ist dies nicht beschränkend, und er kann so konfiguriert sein, dass nur eine vorbestimmte Anzahl von Ergebnissen in abnehmender Reihenfolge der akustischen Wahrscheinlichkeit als das endgültige Erkennungsergebnis 18 oder dergleichen ausgegeben werden kann.
  • Anders als vorstehend kann eine unbegrenzte Kombination der jeweiligen Ausführungsbeispiele, der Modifikation jedes Elements in den Ausführungsbeispielen und des Weglassens jedes Elements in den Ausführungsbeispielen bei der vorliegenden Erfindung vorgenommen werden, ohne den Bereich der Erfindung zu verlassen.
  • GEWERBLICHE ANWENDBARKEIT
  • Wie vorstehend beschrieben ist, ist die Spracherkennungsvorrichtung gemäß der Erfindung konfiguriert, unter Verwendung desselben akustischen Modells die akustische Wahrscheinlichkeit des internen Erkennungsergebnisses und die akustische Wahrscheinlichkeit des externen Erkennungsergebnisses zu berechnen, um sie hierdurch miteinander zu vergleichen. Somit ist sie geeignet zur Verwendung für eine clientseitige Fahrzeug-Navigationsvorrichtung, ein Smartphone und dergleichen, die Client-Server-Spracherkennungssysteme bilden.
  • Bezugszeichenliste
  • 1: Spracherkennungsvorrichtung, 2: Eingangsäußerung, 3: Sender, 4: Sprachdaten, 5: Analysevorrichtung, 6: Merkmalsvektor, 7: interne Erkennungseinheit, 8: Sprachmodell, 9: akustisches Modell, 10: internes Erkennungsergebnis, 11: externes Erkennungsergebnis, 12: Lesartenhinzufügungs-Prozessor, 13: Lesarten-Wörterbuch, 14: mit hinzugefügter Lesart versehenes Ergebnis, 15: Wiedervergleichsprozessor, 16, 16a: Wiedervergleichsergebnisse, 17: Ergebnisbestimmungsprozessor, 18: endgültiges Erkennungsergebnis, 19: externe Erkennungseinheit, 20: zweites akustisches Modell, 21: Ergebnisbestimmungs-Sprachmodell.

Claims (6)

  1. Spracherkennungsvorrichtung (1), die ein internes Erkennungsergebnis (10) anhand ihrer Erkennungsverarbeitung von Eingangssprachdaten (4) und ein externes Erkennungsergebnis (11) anhand der Erkennungsverarbeitung der Eingangssprachdaten (4) durch eine oder mehrere externe Erkennungseinheiten (19), die außerhalb existieren, erwirbt, um hierdurch ein endgültiges Erkennungsergebnis (18) zu bestimmen, wobei die Spracherkennungsvorrichtung (1) aufweist: ein akustisches Modell (9), in welchem Merkmalsquantitäten von Äußerungen modelliert sind; ein Sprachmodell (8), in welchem Notationen und Lesarten von mehr als einem Erkennungsobjektwort der Spracherkennungsvorrichtung (1) gespeichert sind; ein Lesarten-Wörterbuch (13), in welchem Paare von Notationen und Lesarten der Erkennungsobjektwörter und anderer Wörter als der Erkennungsobjektwörter gespeichert sind; eine Analysevorrichtung (5), die die Eingangssprachdaten (4) analysiert, um einen Merkmalsvektor (6) zu berechnen; eine interne Erkennungseinheit (7), die unter Verwendung des akustischen Modells (9) einen Mustervergleich zwischen dem von der Analysevorrichtung (5) berechneten Merkmalsvektor (6) und jedem von in dem Sprachmodell (8) gespeicherten Wörtern durchführt, um hierdurch ihre jeweiligen akustischen Wahrscheinlichkeiten zu berechnen, gefolgt von dem Ausgeben, als das interne Erkennungsergebnis (10), der Notationen, der Lesarten und der akustischen Wahrscheinlichkeiten des obersten oder mehrerer hochrangiger Wörter hinsichtlich der akustischen Wahrscheinlichkeiten; einen Lesartenhinzufügungs-Prozessor (12), der das externe Erkennungsergebnis (11) anhand der Erkennungsverarbeitung der Eingangssprachdaten (4) durch die externe Erkennungseinheit (19) erwirbt, eine Lesart für das externe Erkennungsergebnis (11) durch Verwendung des Lesarten-Wörterbuchs (13) hinzufügt und ein mit der hinzugefügten Lesart versehenes Ergebnis (14), das aus dem externen Erkennungsergebnis (11) und der Lesart für dieses zusammengesetzt ist, ausgibt; einen Wiedervergleichsprozessor (15), der unter Verwendung des akustischen Modells (9) einen Mustervergleich zwischen dem von der Analysevorrichtung (5) berechneten Merkmalsvektor (6) und dem mit der hinzugefügten Lesart versehenen Ergebnis (14), das von dem Lesarten-Hinzufügungsprozessor (12) ausgegeben wurde, durchführt, um hierdurch eine akustische Wahrscheinlichkeit für das externe Erkennungsergebnis (11) zu berechnen; und einen Ergebnisbestimmungsprozessor (17), der die akustischen Wahrscheinlichkeiten des internen Erkennungsergebnisses (10) mit der akustischen Wahrscheinlichkeit des externen Erkennungsergebnisses (11) vergleicht, um hierdurch das endgültige Erkennungsergebnis (18) zu bestimmen.
  2. Spracherkennungsvorrichtung (1) nach Anspruch 1, weiterhin aufweisend ein zweites akustisches Modell (20), das von dem akustischen Modell (9) verschieden ist, wobei der Wiedervergleichsprozessor (15) unter Verwendung des zweiten akustischen Modells (20) einen Mustervergleich zwischen dem von der Analysevorrichtung (5) berechneten Merkmalsvektor (6) und dem von der internen Erkennungseinheit (7) ausgegebenen internen Erkennungsergebnis (10) durchführt, um hierdurch die akustischen Wahrscheinlichkeiten des internen Erkennungsergebnisses (10) zu berechnen, und einen Mustervergleich zwischen dem Merkmalsvektor (6) und dem von dem Lesartenhinzufügungs-Prozessor (12) ausgegebenen, mit der hinzugefügten Lesart versehenen Ergebnis (14) durchführt, um hierdurch die akustische Wahrscheinlichkeit für das externe Erkennungsergebnis (11) zu berechnen; und wobei der Ergebnisbestimmungsprozessor (17) das endgültige Erkennungsergebnis (18) durch Vergleichen miteinander, der akustischen Wahrscheinlichkeiten des internen Erkennungsergebnisses (10) und der akustischen Wahrscheinlichkeiten des externen Erkennungsergebnisses (11), die von dem Wiedervergleichsprozessor (15) berechnet wurden, bestimmt.
  3. Spracherkennungsvorrichtung (1) nach Anspruch 1, bei der der Lesartenhinzufügungs-Prozessor (12), wenn mehrere Lesarten als Kandidaten für das externe Erkennungsergebnis (11) vorhanden sind, das mit der hinzugefügten Lesart versehene Ergebnis (14), in welchem die mehreren Lesarten hinzugefügt sind, ausgibt und wobei der Wiedervergleichsprozessor (15) einen Mustervergleich für jede der Lesarten, die in dem mit der hinzugefügten Lesart versehenen Ergebnis (14) enthalten sind, durchführt, um hierdurch jeweilige akustische Wahrscheinlichkeiten zu berechnen, aus diesen eine Lesart auswählt, deren akustische Wahrscheinlichkeit am höchsten ist, und sie zu dem Ergebnisbestimmungsprozessor (17) ausgibt.
  4. Spracherkennungsvorrichtung (1) nach Anspruch 1, weiterhin aufweisend ein Ergebnisbestimmungs-Sprachmodell (21), in welchem Paare von Wörtern und Sprachwahrscheinlichkeiten von diesem gespeichert sind, wobei der Ergebnisbestimmungsprozessor (17) unter Verwendung des Ergebnisbestimmungs-Sprachmodells (21) eine Sprachwahrscheinlichkeit für das interne Erkennungsergebnis (10) und eine Sprachwahrscheinlichkeit für das externe Erkennungsergebnis (11) berechnet und die akustische Wahrscheinlichkeit und die Sprachwahrscheinlichkeit für das interne Erkennungsergebnis (10) mit der akustischen Wahrscheinlichkeit und der Sprachwahrscheinlichkeit für das externe Erkennungsergebnis (11) vergleicht, um hierdurch das endgültige Erkennungsergebnis (18) zu bestimmen.
  5. Spracherkennungsvorrichtung (1) nach Anspruch 4, bei der das Ergebnisbestimmungs-Sprachmodell (21) ein statisches N-Gramm-Sprachmodell ist.
  6. Spracherkennungsverfahren des Erwerbens eines internen Erkennungsergebnisses (10) anhand einer Erkennungsverarbeitung von Eingangssprachdaten (4), die in einer Spracherkennungsvorrichtung (1) durchgeführt wird, und eines externen Erkennungsergebnisses (11), das anhand der Erkennungsverarbeitung der Eingangssprachdaten (4) durch eine oder mehrere externe Erkennungseinheiten (19), die außerhalb existieren, erhalten wurden, um hierdurch ein endgültiges Erkennungsergebnis (18) zu bestimmen, wobei das Spracherkennungsverfahren aufweist: einen Sendeschritt des Sendens der Eingangssprachdaten (4) zu der externen Erkennungseinheit (19); einen Analysierschritt des Analysierens der Eingangssprachdaten (4), um einen Merkmalsvektor (6) zu berechnen; einen internen Erkennungsschritt des Durchführens, unter Verwendung eines akustischen Modells (9), in welchem Merkmalsquantitäten von Äußerungen modelliert sind, eines Mustervergleichs zwischen dem Merkmalsvektor (6), der in dem Analysierschritt berechnet wurde, und jedem von Wörtern, die in einem Sprachmodell (8) gespeichert sind, in welchem Notationen und Lesarten von mehr als einem Erkennungsobjektwort der Spracherkennungsvorrichtung (1) gespeichert sind, um hierdurch ihre jeweiligen akustischen Wahrscheinlichkeiten zu berechnen, gefolgt von dem Ausgeben, als das interne Erkennungsergebnis (10), der Notationen, der Lesarten und der akustischen Wahrscheinlichkeiten des höchsten oder mehrerer hochrangiger Wörter in Bezug auf die akustischen Wahrscheinlichkeiten; einen Lesartenhinzufügungsschritt des Erwerbens des externen Erkennungsergebnisses (11) anhand einer Erkennungsverarbeitung der Eingangssprachdaten (4) durch die externe Erkennungseinheit (19), des Hinzufügens einer Lesart für das externe Erkennungsergebnis (11) durch Verwendung eines Lesarten-Wörterbuchs (13), in welchem Paare von Notationen und Lesarten der Erkennungsobjektwörter und anderer Wörter als der Erkennungsobjektwörter gespeichert sind, und des Ausgebens eines mit einer hinzugefügten Lesart versehenen Ergebnisses (14), das aus dem externen Erkennungsergebnis (11) und der Lesart für dieses zusammengesetzt ist; einen Wiedervergleichsschritt des Durchführens, unter Verwendung des akustischen Modells (9), eines Mustervergleichs zwischen dem in dem Analysierschritt berechneten Merkmalsvektor (6) und dem in dem Lesartenhinzufügungsschritt ausgegebenen, mit der hinzugefügten Lesart versehenen Ergebnis (14), um hierdurch die akustische Wahrscheinlichkeit für das externe Erkennungsergebnis (11) zu berechnen; und einen Ergebnisbestimmungsschritt des Vergleichens der akustischen Wahrscheinlichkeit des internen Erkennungsergebnisses (10) mit der akustischen Wahrscheinlichkeit des externen Erkennungsergebnisses (11), um hierdurch das endgültige Erkennungsergebnis (18) zu bestimmen.
DE112013006770.6T 2013-03-06 2013-03-06 Spracherkennungsvorrichtung und Spracherkennungsverfahren Expired - Fee Related DE112013006770B4 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/056142 WO2014136222A1 (ja) 2013-03-06 2013-03-06 音声認識装置および音声認識方法

Publications (2)

Publication Number Publication Date
DE112013006770T5 DE112013006770T5 (de) 2015-12-24
DE112013006770B4 true DE112013006770B4 (de) 2020-06-18

Family

ID=51490785

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112013006770.6T Expired - Fee Related DE112013006770B4 (de) 2013-03-06 2013-03-06 Spracherkennungsvorrichtung und Spracherkennungsverfahren

Country Status (5)

Country Link
US (1) US9431010B2 (de)
JP (1) JP5868544B2 (de)
CN (1) CN105009206B (de)
DE (1) DE112013006770B4 (de)
WO (1) WO2014136222A1 (de)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105161092B (zh) * 2015-09-17 2017-03-01 百度在线网络技术(北京)有限公司 一种语音识别方法和装置
CN106782546A (zh) * 2015-11-17 2017-05-31 深圳市北科瑞声科技有限公司 语音识别方法与装置
EP3384490A1 (de) * 2015-12-01 2018-10-10 Nuance Communications, Inc. Darstellung von ergebnissen aus verschiedenen sprachdienstleistungen als einheitliche konzeptionelle wissensbasis
CN105957516B (zh) * 2016-06-16 2019-03-08 百度在线网络技术(北京)有限公司 多语音识别模型切换方法及装置
JP6585022B2 (ja) * 2016-11-11 2019-10-02 株式会社東芝 音声認識装置、音声認識方法およびプログラム
CN106782502A (zh) * 2016-12-29 2017-05-31 昆山库尔卡人工智能科技有限公司 一种儿童机器人用的语音识别装置
CN110447068A (zh) * 2017-03-24 2019-11-12 三菱电机株式会社 语音识别装置和语音识别方法
CN110111778B (zh) * 2019-04-30 2021-11-12 北京大米科技有限公司 一种语音处理方法、装置、存储介质及电子设备
WO2021019775A1 (ja) * 2019-08-01 2021-02-04 三菱電機株式会社 多言語音声認識装置および多言語音声認識方法
CN113345418A (zh) * 2021-06-09 2021-09-03 中国科学技术大学 基于跨语种自训练的多语种模型训练方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010085536A (ja) 2008-09-30 2010-04-15 Fyuutorekku:Kk 音声認識システム、音声認識方法、音声認識クライアントおよびプログラム
US20110307254A1 (en) * 2008-12-11 2011-12-15 Melvyn Hunt Speech recognition involving a mobile device

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3581648B2 (ja) * 2000-11-27 2004-10-27 キヤノン株式会社 音声認識システム、情報処理装置及びそれらの制御方法、プログラム
JP2003323196A (ja) * 2002-05-08 2003-11-14 Nec Corp 音声認識システム、音声認識方法および音声認識用プログラム
US7228275B1 (en) * 2002-10-21 2007-06-05 Toyota Infotechnology Center Co., Ltd. Speech recognition system having multiple speech recognizers
JP2004198831A (ja) * 2002-12-19 2004-07-15 Sony Corp 音声認識装置および方法、プログラム、並びに記録媒体
JP2005037662A (ja) 2003-07-14 2005-02-10 Denso Corp 音声対話システム
JP5046589B2 (ja) * 2006-09-05 2012-10-10 日本電気通信システム株式会社 電話システムと通話補助方法とプログラム
JP5274191B2 (ja) 2008-10-06 2013-08-28 三菱電機株式会社 音声認識装置
WO2011052412A1 (ja) * 2009-10-28 2011-05-05 日本電気株式会社 音声認識システム、音声認識要求装置、音声認識方法、音声認識用プログラムおよび記録媒体
US8660847B2 (en) * 2011-09-02 2014-02-25 Microsoft Corporation Integrated local and cloud based speech recognition
US8972263B2 (en) * 2011-11-18 2015-03-03 Soundhound, Inc. System and method for performing dual mode speech recognition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010085536A (ja) 2008-09-30 2010-04-15 Fyuutorekku:Kk 音声認識システム、音声認識方法、音声認識クライアントおよびプログラム
US20110307254A1 (en) * 2008-12-11 2011-12-15 Melvyn Hunt Speech recognition involving a mobile device

Also Published As

Publication number Publication date
CN105009206A (zh) 2015-10-28
WO2014136222A1 (ja) 2014-09-12
JP5868544B2 (ja) 2016-02-24
JPWO2014136222A1 (ja) 2017-02-09
CN105009206B (zh) 2018-02-09
US9431010B2 (en) 2016-08-30
DE112013006770T5 (de) 2015-12-24
US20160005400A1 (en) 2016-01-07

Similar Documents

Publication Publication Date Title
DE112013006770B4 (de) Spracherkennungsvorrichtung und Spracherkennungsverfahren
DE112017004374B4 (de) System und Verfahren zur Spracherkennung
DE102020205786B4 (de) Spracherkennung unter verwendung von nlu (natural language understanding)-bezogenem wissen über tiefe vorwärtsgerichtete neuronale netze
DE69818231T2 (de) Verfahren zum diskriminativen training von spracherkennungsmodellen
DE60014743T2 (de) Verfahren und Vorrichtung zur Analyse natürlicher Sprache
DE112014006542B4 (de) Einrichtung und Verfahren zum Verständnis von einer Benutzerintention
DE60017000T2 (de) Verfahren zur zielorientierten Sprachübersetzung mittels Extraktion der Bedeutung und Dialog
DE69914839T2 (de) Sprecherverifikation und -erkennung mittels Eigenstimmen
DE60004862T2 (de) Automatische bestimmung der genauigkeit eines aussprachewörterbuchs in einem spracherkennungssystem
DE112017004397T5 (de) System und Verfahren zur Einstufung von hybriden Spracherkennungsergebnissen mit neuronalen Netzwerken
DE602004012909T2 (de) Verfahren und Vorrichtung zur Modellierung eines Spracherkennungssystems und zur Schätzung einer Wort-Fehlerrate basierend auf einem Text
EP1611568B1 (de) Dreistufige einzelworterkennung
DE102008017993A1 (de) Sprachsuchvorrichtung
DE102016125954A1 (de) Sprachwiedererkennung mit externen Datenquellen
DE102019004300A1 (de) Verwendung eines dynamischen speichernetzwerks zum verfolgen digitaler dialogzustände und erzeugen von antworten
DE60133537T2 (de) Automatisches umtrainieren eines spracherkennungssystems
DE112020003909T5 (de) Verfahren zum multimodalen abrufen bzw. wiedergewinnen und clustern unter verwendung einer tiefen cca und aktiver paarweiser abfragen
DE112010005425T5 (de) Spracherkennungsvorrichtung
DE102015121098A1 (de) Multimodale Antwort auf eine Multimodale Suche
DE112014006795B4 (de) Spracherkennungssystem und Spracherkennungsverfahren
DE112014007287B4 (de) Spracherkennungsvorrichtung und Spracherkennungsverfahren
DE212016000292U1 (de) System zur Text-zu-Sprache-Leistungsbewertung
DE112006000225T5 (de) Dialogsystem und Dialogsoftware
DE102019207712A1 (de) Slot-Befüllung beim Gesprochene-Sprache-Verständnis mit einer Kombination aus Zeiger und Aufmerksamkeit
DE10047718A1 (de) Verfahren zur Spracherkennung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R084 Declaration of willingness to licence
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee