DE102008046703A1 - Verfahren zum Trainieren und Testen eines Mustererkennungssystems - Google Patents

Verfahren zum Trainieren und Testen eines Mustererkennungssystems Download PDF

Info

Publication number
DE102008046703A1
DE102008046703A1 DE102008046703A DE102008046703A DE102008046703A1 DE 102008046703 A1 DE102008046703 A1 DE 102008046703A1 DE 102008046703 A DE102008046703 A DE 102008046703A DE 102008046703 A DE102008046703 A DE 102008046703A DE 102008046703 A1 DE102008046703 A1 DE 102008046703A1
Authority
DE
Germany
Prior art keywords
keywords
database
variants
found
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102008046703A
Other languages
English (en)
Inventor
Walter Sterz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG Oesterreich
Original Assignee
Siemens AG Oesterreich
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG Oesterreich filed Critical Siemens AG Oesterreich
Priority to DE102008046703A priority Critical patent/DE102008046703A1/de
Publication of DE102008046703A1 publication Critical patent/DE102008046703A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries

Abstract

Die Erfindung betrifft ein Verfahren zum Trainieren und Testen eines Mustererkennungssystems (ME), welches zumindest eine Erkennungseinheit (EK) und eine Datenbank (DB) zum Abspeichern von Schlüsselwortvarianten (W1, W2) umfasst. Zuerst wird die Erkennungseinheit (EK) mit Mustern von gewünschten Schlüsselwörtern (W1, W2) konfiguriert (1), welche vom Mustererkennungssystem (ME) erkannt werden sollen. Dann werden von der Erkennungseinheit (EK) automatisch elektronische Musterquellen (MQ) wie z.B. Radio- oder Fernseh-, CD- oder DVD-Aufnahmen nach den zu erkennenden Schlüsselwörtern (W1, W2) durchsucht (2). Werden Varianten (Var1, Var2, VarX) eines Schlüsselwortes (W1, W2) gefunden, so werden diese in der Datenbank (DB) abgespeichert (3). Das Suchen und Abspeichern von zu erkennenden Schlüsselwörtern (W1, W2) wird dann solange wiederholt (2, 3, 4, 5), bis ein vorgegebenes Endkriterium erreicht worden ist. Für das wiederholte Suchen werden auch bereits gefundene und in der Datenbank (DB) abgespeicherte Varianten (Var1, Var2) der Schlüsselwörter (W1, W2) verwendet. Durch eine Verwendung von verschiedenen, elektronischen Musterquellen (MQ) (z.B. Radio- und/oder Fernsehaufnahmen) für Training und Testen des Mustererkennungssystems (ME) steht eine große Vielfalt an Sprachmaterial mit verschiedenen Sprechern zur Verfügung. Da die Datenbank (DB) während des Trainings und Testens aufgebaut wird, ist es auf einfache und kostengünstige Weise möglich, eine Vielzahl von Varianten ...

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft ein Verfahren zum Trainieren und Testen eines automatischen Mustererkennungssystems. Das Mustererkennungssystem umfasst dabei zumindest eine Erkennungseinheit zum Suchen und Erkennen von Schlüsselwörtern und einer Datenbank, in welcher Schlüsselwortvarianten abgespeichert werden können.
  • Stand der Technik
  • Automatische Mustererkennung beschäftigt sich mit der Aufgabenstellung, Muster wie beispielsweise gesprochene Sprache, Gensequenzen, Aktienkurse, etc. Automaten oder Computersystemen für eine automatische Datenerfassung zugänglich zu machen. Insbesondere bei der Erkennung von Sprache gibt es für Mustererkennungssysteme unterschiedlichste Anwendungsgebiete, wie beispielsweise Spracherkennung, Erkennen von Gensequenzen oder Aktienkursen, etc. So werden Mustererkennungssysteme z. B. in Diktiersystemen eingesetzt, bei welchen eine Spracheingabe mittels Mustererkennung die Verwendung einer Tastatur ersetzt. Diktiersysteme können einen sehr umfangreichen Wortschatz erkennen, sind aber daher üblicherweise benutzerspezifisch ausgebildet. Das bedeutet, dass sie lediglich von einem einzigen Benutzer verwendet werden können, welcher das Mustererkennungssystem auf seine Aussprache trainiert hat.
  • Ein weiteres Anwendungsgebiet für Mustererkennungssysteme stellen automatischen Dialogsysteme – wie beispielsweise automatische Vermittlungssysteme in Telefonanlagen, Fahrplanauskunftssystemen, Navigationssystemen oder auch Krankenhausinformationssystemen – dar. Diese Dialogsysteme weisen dabei üblicherweise einen wesentlich geringeren Wortschatz auf, da bei ihnen meist nur wenige unterschiedliche Worte gesprochen werden, um die gewünschte Information bzw. Verbindung zu erhalten. Derartige Mustererkennungssysteme werden auch als sprecherunabhängige Spracherkennungssysteme bezeichnet.
  • Damit ein Mustererkennungssystem die Muster, wie z. B. gesprochenen Worte oder Befehle automatisch erkennen, ist es notwendig, dieses System zu trainieren. Daher wird für automatische Mustererkennungssysteme, insbesondere von sprecherunabhängigen Spracherkennungssystemen, eine so genannte Muster- oder Trainingsdatenbank aufgebaut, durch welche ein so genannter Zielwortschatz festgelegt und gelernt wird. Dieser Zielwortschatz besteht üblicherweise aus Schlüsselwörtern (z. B. gesprochene Worte, Gensequenzen, Aktienkursverläufe, etc.), welche bei Verwendung von einem Mustererkennungssystem in verschiedenen Varianten (z. B. Akzent, Dialekt oder Sprechtempo bei der Spracherkennung etc.) erkannt werden sollen.
  • Daher werden für den Aufbau einer Musterdatenbank, insbesondere für sprecherunabhängige Spracherkennungssysteme, Trainingstexte zusammengestellt, welche Äußerungen beinhalten, die die gewünschten Schlüsselwörter und/oder Laute des Zielwortschatzes repräsentieren. Diese Trainingstexte werden z. B. von 100 bis 5000 Sprechern bzw. Testpersonen gesprochen, um eine repräsentative Verteilung von verschiedenen Varianten der Schlüsselwörter über Akzent- bzw. Dialektvielfalt einer Sprache zu erhalten und um Sprechweisen in verschiedenen Situationen, wie z. B. veränderte Betonung oder Sprachmelodie von Wörtern beispielsweise in Ausnahmesituationen zu berücksichtigen.
  • Eine Aufzeichnung der Trainingstexte erfolgt über ein Mikrofon. Damit liegen die gesprochenen Texte in Form von elektrischen Sprachsignalen vor, werden dann in der Musterdatenbank abgelegt und über diese während einer eigenen Trainings- und Testphase dem Mustererkennungssystem zugeführt. Da der Zielwortschatz von einer großen Anzahl von Sprechern gesprochen worden ist, wird durch die Trainings- und Testphase mit der Musterdatenbank erreicht, dass das Mustererkennungssystem unabhängig von einem einzelnen bestimmten Sprecher ist.
  • Das Erstellen von speziellen Applikationen (z. B. Informationssystem, Vermittlungssystems, Auskunftssystem, etc.) mit vorbestimmten Schlüsselwörtern und das Sprechen der Schlüsselwörter bzw. Trainingstexten von mehreren Sprechern bzw. Testpersonen, welche oft örtlich weit entfernt sein können, um die sprecherunabhängige Datenbank für die Trainingsphase des Mustererkennungssystems aufzubauen, kann beispielsweise einige Monate oder länger dauern und ist sehr kostenintensiv. Einen großen Kostenfaktor stellt dabei das Erstellen bzw. Anpassen der Musterdatenbank dar, insbesondere wenn diese Datenbank um neue Schlüsselwörter erweitert werden muss, um das Mustererkennungssystem beispielsweise an eine Änderung, Erweiterung, etc. der jeweiligen Applikation entsprechend anzugleichen.
  • Beispiele zur Erstellung von Musterdatenbanken sind in den Schriften US 5 579 436 A1 und EP 1 282 897 B1 offenbart, wobei in beiden Schriften zwischen einem Trainings- und einem Erkennungsmodus unterschieden wird. In der Schrift US 5 579 436 A1 wird im Trainingsmodus, dass Mustererkennungssystem mit einer vorgefertigten Trainingsmusterdatenbank mit bekannten Worten oder Phrasen verbunden, um Mustererkennung zu trainieren und eine Fehlerrate bei Erkennen von Sprache aus unbekannten Musterquellen im Erkennungsmodus zu reduzieren. Ein Problem des in der Schrift US 5 579 436 A1 offenbarten Verfahrens besteht darin, dass von einer vorgefertigten Trainingsmusterdatenbank ausgegangen wird, welche zum Erlernen von neuen Schlüsselwörter oder neuen Varianten von Schlüsselwörter kostspielig erweitert werden muss.
  • In der Schrift EP 1 282 897 B1 wird ebenfalls in einer Trainingsphase von vorgefertigten Trainingstexten ausgegangen. Dabei werden verwendeten Texte von mehreren Sprechern gesprochen, elektronisch aufgezeichnet und dann in Segmente unterteilt, wobei die Segmente jeweils nur mehr ein oder mehrere Phone bzw. ausgesprochene Laute umfassen. Diese Segmente werden dann in einer allgemeinen Datenbank hinterlegt, auf deren Basis dann applikationsspezifisch Musterdatenbanken für das jeweilige Mustererkennungssystem erstellt werden. Dabei hat es sich allerdings als nachteilig erwiesen, dass einerseits für jede neue Applikation eine neue Musterdatenbank erstellt werden muss, da die notwendigen Schlüsselwörter aus den Segmenten der allgemeinen Datenbank zusammengesetzt werden müssen. Andererseits ist eine für eine Applikation spezifisch erstellte Musterdatenbank nur mit großem Aufwand erweiterbar, da aus den Segmenten der allgemeinen Datenbank erst die notwendigen, neuen Schlüsselwörter zusammengefügt und in die jeweilige Musterdatenbank übertragen werden müssen.
  • Es besteht daher ein erheblicher Bedarf nach einem Verfahren, mit welchem ohne großen Aufwand wie z. B. dem Aufbau einer eigenen speziellen Datenbank für eine Trainings- und Testphase kostengünstig und schnell ein automatisches Mustererkennungssystem trainiert und getestet werden kann.
  • Darstellung der Erfindung
  • Der Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren anzugeben, durch welches auf einfache und kostengünstige Weise ein automatisches Mustererkennungssystem trainiert und getestet werden kann und bei dem ohne großen, zusätzlichen Aufwand eine Musterdatenbank aufgebaut, erweitert oder ergänzt werden kann.
  • Die Lösung dieser Aufgabe erfolgt durch ein Verfahren der eingangs angegebenen Art, wobei zuerst eine Erkennungseinheit mit Mustern von zu erkennenden Schlüsselwörtern konfiguriert wird. Dann werden von der Erkennungseinheit automatisch verschiedene, elektronische Musterquellen, welche nicht speziell für Trainingszwecke vorgefertigt worden sind, nach den zu erkennenden Schlüsselwörtern durchsucht. Wird ein zu erkennendes Schlüsselwort bei der Suche aufgefunden, so wird eine gefundene Variante dieses Schlüsselworts in der Datenbank des Mustererkennungssystems abgelegt. Das Suchen und Abspeichern von zu erkennenden Schlüsselwörtern wird dabei solange wiederholt, bis ein vorgegebenes Endkriterium erreicht worden ist.
  • Einer der Hauptaspekte der erfindungsgemäßen Lösung besteht darin, dass durch einen Einsatz von nicht vorgefertigten Texten von verschiedenen, verfügbaren elektronischen Musterquellen (z. B. Radiosendungen, Fernsehaufnahmen, etc.) viele Sprecher und damit sprachliche Varianten der Schlüsselwörter zum Trainieren und Testen des Mustererkennungssystems auf einfache und kostengünstige Weise und ohne großen organisatorischen Aufwand zugänglich sind. Während des Trainings und Testens wird die anfänglich nicht befüllte Datenbank des Mustererkennungssystems laufend durch neue Varianten der Schlüsselwörter aufgebaut und erweitert. Die resultierende Datenbank kann damit unter Voraussetzung einer Verwendung von vielfältigen, verschiedenen elektronischen Musterquellen nicht nur für Trainings von weiteren Mustererkennungssystemen eingesetzt, sondern auch als Datenbank selbst verwertet werden.
  • Eine weiterer, wichtiger Aspekt des erfindungsgemäßen Verfahrens besteht darin, dass die resultierende Datenbank auf einfache Weise durch neue Schlüsselwörter ergänzt und erweitert werden kann, indem die zusätzlichen Schlüsselwörter aus den verschiedenen, elektronischen Musterquellen, welche nicht auf spezielle Anwendungen und damit Schlüsselwörter zugeschnitten sind, für eine Erweiterung extrahiert werden.
  • Es ist vorteilhaft, wenn wiederholter und weiterer Suche nach zu Schlüsselwörtern die bereits gefundene und in der Datenbank abgespeicherte Varianten dieser Schlüsselwörter zum Auffinden weiterer Varianten der zu erkennenden Schlüsselwörter in den verschiedenen Musterquellen herangezogen werden. Damit wird auf einfache Weise die Erkennungseinheit des Mustererkennungssystems an die Charakteristika der jeweiligen elektronischen Musterquelle angepasst und die Anzahl der erkannten Varianten von Schlüsselwörtern wird damit gesteigert. Mit jeder Wiederholung werden neue Varianten von Schlüsselwörtern erlernt und damit die Erkennungseinheit des Mustererkennungssystems auf einfache Weise trainiert.
  • Es ist auch günstig, wenn für eine Konfiguration der Erkennungseinheit ein Abschnitt einer elektronischen Musterquelle manuell durchsucht wird und dann als Muster für zu erkennenden Schlüsselwörter die in dem Abschnitt gefundenen Schüsselwörter herangezogen werden. Damit ist auch für die Konfiguration keine kostenintensive und organisatorisch aufwendige Aufnahme notwendig. Für die Konfiguration wird auf einfache Weise ein Abschnitt, der von einer der verschiedenen, elektronischen Musterquellen (z. B. Radiosendung, Fernsehaufnahme, CD- oder DVD-Aufnahme, etc.) genommen wird, auf gewünschte, zu erkennende Schlüsselwörter untersucht. Diese Schlüsselwörter werden dann aus dem Abschnitt herausgeschnitten und damit die Erkennungseinheit konfiguriert. Alternativ – beispielsweise wenn keine oder nicht alle gewünschten Schlüsselwörter im ausgewählten Abschnitt gefunden werden – können diese auch von ein oder einigen wenigen Testpersonen ohne großen Zeitaufwand für die Konfiguration aufgesprochen werden.
  • Bei einer Fortbildung der Erfindung kann als Endkriterium eine zu erreichende Erkennerleistung eingegeben werden – wie z. B. Verwechslungsrate des Mustererkennungssystems bei Schlüsselwörter ist kleiner als 1%. Bei Mustererkennungssystemen, welche mit vorgefertigten Musterdatenbanken mit Testsprechern trainiert werden, wird eine vorgegebene Anzahl von sprachlichen Varianten der Schlüsselwörter aufgenommen.
  • Dadurch wird die Erkennerleistung solcher Systeme durch die Anzahl der aufgenommenen Schlüsselwortvarianten und der jeweiligen Erkennungseigenschaften des Systems vorgegeben.
  • Im Gegensatz dazu können bei erfindungsgemäßen Verfahren kostengünstig und einfach solange Varianten von Schlüsselwörtern aus den verschiedenen, elektronischen Musterquellen gesammelt werden, bis eine gewünschte Erkennerleistung erreicht wird.
  • Als Endkriterium kann aber auch in vorteilhafter Weise ein Erreichen einer vorgegebenen Gesamtzahl an Varianten von Schlüsselwörtern oder eine Bedingung angegeben werden, dass keine weitere Variante eines Schlüsselworts in einer der verschiedenen, verwendeten elektronischen Musterquellen mehr gefunden wird.
  • Gemäß dem erfindungsgemäßen Verfahren erfolgt die Extraktion von Schlüsselwörtern bzw. Varianten von Schlüsselwörtern aus den jeweiligen elektronischen Musterquellen und folgende Abspeicherung in der Datenbank automatisch, d. h. unüberwacht. Daher ist es günstig, wenn in der Datenbank gespeicherte Varianten von Schlüsselwörtern bzw. gespeicherte Schlüsselwörter manuell bewertet und je nach Verwendungszweck bearbeitet werden können. Damit können auf einfache Weise z. B. einzelne Wörter, kontinuierliche Sprache mit Übergängen, etc. herausgeschnitten, bearbeitet und für weitere Trainings- und Testzwecke genutzt werden.
  • Es ist besonders günstig, wenn elektronische Musterquellen elektronische Sprachaufnahmen, insbesondere Radiosendungen, Fernsehübertragungen, Aufnahmen auf CD sowie DVD und/oder Aufzeichnungen mit einem freien Mikrofon, herangezogen werden. Vor allem Radiosendungen und Fernsehübertragungen, aber auch CD- wie DVD-Aufnahmen sind in großer Menge und Vielfalt verfügbar. Durch eine Verwendung dieser elektronischen Musterquellen wird insbesondere eine große Anzahl an verschiedenen Sprechern, welche auch unterschiedliche Akzente, Dialekte oder Betonungen der jeweiligen zu erkennenden Schlüsselwörter aufweisen, auf einfache Weise für ein Trainieren und Testen eines Mustererkennungssystems zugänglich. Durch einen Einsatz eines so genannten freien Mikrofons, über welches an verschiedenen Orten Sprache aufgezeichnet bzw. in eine elektrisches Sprachsignal umgewandelt werden kann, wird in vorteilhafter Weise so genannte Alltagssprache zum Trainieren und Testen des Mustererkennungssystems zur Verfügung gestellt.
  • Kurzbeschreibung der Zeichnung
  • Die Erfindung wird nachfolgend anhand der beigefügten 1 erläutert. 1 zeigt in beispielhafter Weise den Ablauf des erfindungsgemäßen Verfahrens zum Trainieren und Testen eines Mustererkennungssystems.
  • Ausführung der Erfindung
  • 1 zeigt in beispielhafter und schematischer Weise ein Mustererkennungssystem ME. Das Mustererkennungssystem ME umfasst dabei zumindest eine Erkennungseinheit EK zum Suchen und Auffinden von zu erkennenden Schlüsselwörtern W1, W2 bzw. von sprachlichen Varianten Var1, Var2, VarX der Schlüsselwörter W1, W2 in Sprachmaterial, welches von einer beispielhaften beliebigen elektronischen Musterquelle MQ zur Verfügung gestellt wird.
  • Von der Erkennungseinheit EK können aber auch mehrere verschiedene elektronische Musterquellen MQ für Training und Test genutzt werden. Als elektronische Musterquellen MQ können beispielsweise elektronische Sprachaufnahme, insbesondere Radiosendungen, Fernsehübertragungen oder -aufnahmen, CD- und/oder DVD-Aufnahmen beliebig eingesetzt werden. Auch Aufzeichnungen mit einem sogenannten freien Mikrofon, von welchem an verschiedenen Orten Gesprochenes in elektronische Signale umgesetzt wird, kann als Musterquelle MQ eingesetzt werden.
  • Das Mustererkennungssysteme ME umfasst weiters eine Datenbank DB, in der Varianten Var1, Var2, VarX der zu erkennenden Schlüsselwörter W1, W2 im Laufe des Trainings abgelegt und gespeichert werden. Als Variante Var1, Var2, VarX eines Schlüsselworts W1, W2 wird dabei eine sprachliche Variante aufgrund von Dialekt, Akzent, Betonung, unterschiedlicher Aussprache, Sprechtempo, etc. verstanden. Das Mustererkennungssystem ME weist auch eine Trainings- und Testeinheit TT auf, welche als eigene Einheit ausgeführt oder in die Erkennungseinheit EK integriert sein kann. Von der Trainings- und Testeinheit TT werden einerseits gefundene Varianten Var1, Var2, VarX von zu erkennenden Schlüsselwörtern W1, W2 in Suchmuster für die Erkennungseinheit EK umformatiert. Andererseits wird von der Trainings- und Testeinheit TT geprüft, ob ein vorgegebenes Endkriterium, durch welches die Suche nach Schlüsselwörtern W1, W2 in einer elektronischen Musterquelle MQ gestoppt wird, erfüllt ist oder nicht.
  • In einem ersten Verfahrensschritt 1 wird die Erkennungseinheit EK mit Mustern KON von zu erkennenden Schlüsselwörtern W1, W2 für die Suche konfiguriert. Die Muster KON von zu erkennenden Schlüsselwörtern W1, W2 können beispielweise aus einem Abschnitt einer elektronischen Musterquelle MQ (z. B. Ausschnitt einer elektronischen Sprachaufnahme, Ausschnitt aus einer Radiosendung oder Fernsehaufnahme, etc.) gewonnen werden. Dabei kann beispielsweise der Abschnitt nach gewünschten Schlüsselwörtern W1, W2 manuell durchsucht werden. Werden Schlüsselwörter W1, W2 gefunden, so werden diese herausgeschnitten und der Erkennungseinheit EK im entsprechenden Format als Muster KON zugeführt. Werden nicht genügend oder nicht alle Schlüsselwörter W1, W2 im gewählten Abschnitt gefunden, so können die fehlenden Schlüsselwörter W1, W2 auch von einer Testperson aufgesprochen und nach entsprechender Formatierung der Erkennungseinheit EK zur Verfügung gestellt werden.
  • In einem zweiten Verfahrenschritt 2 wird von der Erkennungseinheit EK automatisch eine oder mehrere beliebige, elektronische Musterquellen MQ (z. B. Radiosendung, Fernsehaufnahme, Aufzeichnung mit freiem Mikrofon, etc.) anhand der Muster KON nach den zu erkennenden Schlüsselwörtern W1, W2 durchsucht. Wird eine oder mehrere Varianten Var1, Var2 eines Schlüsselworts W1, W2 gefunden, so werden in einem dritten Verfahrensschritt 3 die gefundenen Varianten Var1, Var2 des jeweiligen Schlüsselworts W1, W2 in der Datenbank DB abgelegt und gespeichert.
  • In einem vierten Verfahrensschritt 4 werden dann von der Trainings- und Testeinheit TT die gefundenen Varianten Var1, Var2 der jeweiligen Schlüsselworts W1, W2 aufgegriffen und entsprechend umformatiert, damit von der Erkennungseinheit EK diese Varianten Var1, Var2 der Schlüsselwörter W1, W2 zur weiteren Suche nach Schlüsselwörtern W1, W2 genutzt werden können. Parallel dazu wird von der Trainings- und Testeinheit TT geprüft, ob das vorgegebene Endkriterium bereits erfüllt ist oder nicht. Als Endkriterium kann beispielsweise eine zu erreichende Erkennerleistung (z. B. Verwechslungsrate kleiner als 1%), eine bestimmte Gesamtzahl an Schlüsselwortvarianten Var1, Var2, VarX oder eine Bedingung, dass keine neuen Varianten VarX der Schlüsselwörter W1, W2 in der gerade durchsuchten Musterquelle MQ mehr gefunden werden, verwendet werden.
  • Wird im vierten Verfahrenschritt 4 festgestellt, dass das vorgegebene Endkriterium noch nicht erreicht worden ist, so werden in einem fünften Verfahrensschritt 5 die entsprechend umformatierten Varianten Var1, Var2 an Schlüsselwörtern W1, W2, welche bei der Suche im zweiten Verfahrensschritt 2 gefunden worden sind, an die Erkennungseinheit EK übertragen. Von der Erkennungseinheit EK wird dann der zweite Verfahrensschritt 2 wiederholt und die elektronische Musterquelle MQ wieder nach den zu erkennenden Schlüsselwörtern W1, W2 durchsucht. Dabei werden allerdings neben den Mustern KON zur Konfiguration auch die bereits gefundenen Varianten Var1, Var2 der Schlüsselwörter W1, W2 verwendet. Werden bei der Wiederholung des zweiten Verfahrensschritts 2 weitere Varianten VarX der Schlüsselwörter W1, W2 gefunden, so werden in einer Wiederholung des dritten Verfahrensschritts 3 diese Varianten VarX in der Datenbank DB abgespeichert und wiederum der vierte Verfahrensschritt 4 ausgeführt.
  • Der zweite, dritte und vierte Verfahrensschritt 2, 3, 4 – also das Suchen, Abspeichern und Umformatieren von Varianten Var1, Var2, VarX von Schlüsselwörtern W1, W2 sowie ein Überprüfen des Endkriterium wird dabei solange ausgeführt, bis das Endkriterium erfüllt ist. Solange das Endkriterium nicht erreicht ist, werden auch die umformatierten Varianten Var1, Var2, VarX der Schlüsselwörter an die Erkennungseinheit EK weitergeleitet. Erst wenn das Endkriterium erzielt worden ist, wird die Suche nach Schlüsselwörtern W1, W2 – zumindest in der gerade durchsuchten Musterquelle MQ – beendet. Es können aber das Verfahren und damit die angegebenen Verfahrensschritte 2 bis 5 für beliebige, andere Musterquellen MQ wieder durchlaufen werden, um weitere Varianten VarX von Schlüsselwörtern W1, W2 zu finden.
  • Mit dem erfindungsgemäßen Verfahren wird daher nicht nur das Mustererkennungssystem ME trainiert und getestet, sondern zusätzlich eine umfangreiche Musterdatenbank DB aufgebaut. Diese Datenbank DB kann z. B. für Trainings von anderen Mustererkennungssystemen ME eingesetzt werden. Weiters können in dieser Datenbank DB gespeicherte Schlüsselwortvarianten Var1, Var2, VarX manuell bewertet und je nach Verwendungszweck bearbeitet bzw. herausgeschnitten werden. Von der Erkennungseinheit EK wird dabei eine Art Vorselektion von Schlüsselwortvarianten Var1, Var2, VarX für die manuelle Bewertung und die Nachbearbeitung ausgeübt, da die Extraktion aus der jeweiligen elektronischen Musterquelle MQ durch die Erkennungseinheit EK unüberwacht und automatisch abläuft.
  • Zusätzlich kann das erfindungsgemäße Verfahren nicht im Bereich der Spracherkennung eingesetzt werden, sondern auch zum automatischen Erkennen von z. B. Gensequenzen oder Aktienkursverläufen. Als Muster KON von zu erkennenden Schlüsselwörtern W1, W2 werden dabei beispielsweise zu suchende Gensequenzen oder zu suchende Verläufe von bestimmten Aktien eingegeben.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - US 5579436 A1 [0008, 0008, 0008]
    • - EP 1282897 B1 [0008, 0009]

Claims (8)

  1. Verfahren zum Trainieren und Testen eines automatischen Mustererkennungssystems (ME), welches zumindest eine Erkennungseinheit (EK) und eine Datenbank (DB) zum Speichern von Schlüsselwortvarianten (W1, W2) umfasst, dadurch gekennzeichnet, dass zuerst die Erkennungseinheit (EK) mit Mustern (KON) von zu erkennenden Schlüsselwörtern (W1, W2) konfiguriert wird (1), dass dann automatisch verschiedene, elektronische Musterquellen (MQ) von der Erkennungseinheit (EK) nach den Schlüsselwörtern (W1, W2) durchsucht werden (2), dass beim Auffinden eines Schlüsselworts (W1, W2) gefundene Varianten (Var1, Var2, VarX) dieses Schlüsselworts (W1, W2) in der Datenbank (DB) abgelegt werden (3), und dass dann Suchen und Abspeichern von zu erkennenden Schlüsselwörtern (W1, W2) solange wiederholt wird (3, 4, 5), bis ein vorgegebenes Endkriterium erfüllt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass bei Wiederholung des Suchens nach zu erkennenden Schlüsselwörtern (W1, W2) gefundene und in der Datenbank (DB) abgespeicherte Varianten (Var1, Var2) von Schlüsselwörtern (W1, W2) zum Auffinden der zu erkennenden Schlüsselwörter (W1, W2) in den elektronischen Musterquellen (MQ) herangezogen werden (2).
  3. Verfahren nach einem der Ansprüche 1 bis 2, dadurch gekennzeichnet, dass für eine Konfiguration der Erkennungseinheit (EK) ein Abschnitt einer elektronischen Musterquelle (MQ) manuell durchsucht wird und dass dann als Muster für zu erkennenden Schlüsselwörter (W1, W2) die in dem Abschnitt gefundenen Schüsselwörter (W1, W2) herangezogen werden (1).
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass als Endkriterium eine zu erreichende Erkennerleistung eingegeben wird (4).
  5. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass als Endkriterium ein Erreichen einer vorgegebenen Gesamtzahl an Schlüsselwortvarianten (Var1, Var2, VarX) vorgegeben wird.
  6. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass als Endkriterium eine Bedingung vorgegeben wird, dass keine weitere Variante (VarX) eines zu erkennenden Schlüsselworts (W1, W2) in einer elektronischen Musterquelle (MQ) gefunden wird.
  7. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass in der Datenbank (DB) gespeicherte Schlüsselwörter (W1, W2) manuell bewertet und je nach Verwendungszweck bearbeitet werden.
  8. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass als elektronische Musterquelle (MQ) elektronische Sprachaufnahmen, insbesondere Radiosendungen, Fernsehübertragungen, Aufnahmen auf CD sowie DVD und/oder Aufzeichnungen mit einem freien Mikrofon, herangezogen werden.
DE102008046703A 2008-09-11 2008-09-11 Verfahren zum Trainieren und Testen eines Mustererkennungssystems Ceased DE102008046703A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102008046703A DE102008046703A1 (de) 2008-09-11 2008-09-11 Verfahren zum Trainieren und Testen eines Mustererkennungssystems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102008046703A DE102008046703A1 (de) 2008-09-11 2008-09-11 Verfahren zum Trainieren und Testen eines Mustererkennungssystems

Publications (1)

Publication Number Publication Date
DE102008046703A1 true DE102008046703A1 (de) 2009-07-23

Family

ID=40786017

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008046703A Ceased DE102008046703A1 (de) 2008-09-11 2008-09-11 Verfahren zum Trainieren und Testen eines Mustererkennungssystems

Country Status (1)

Country Link
DE (1) DE102008046703A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5579436A (en) 1992-03-02 1996-11-26 Lucent Technologies Inc. Recognition unit model training based on competing word and word string models
EP1282897B1 (de) 2000-05-09 2003-12-03 Siemens Aktiengesellschaft Verfahren zum erzeugen einer sprachdatenbank für einen zielwortschatz zum trainieren eines spracherkennungssystems
US20060074824A1 (en) * 2002-08-22 2006-04-06 Jinyan Li Prediction by collective likelihood from emerging patterns

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5579436A (en) 1992-03-02 1996-11-26 Lucent Technologies Inc. Recognition unit model training based on competing word and word string models
EP1282897B1 (de) 2000-05-09 2003-12-03 Siemens Aktiengesellschaft Verfahren zum erzeugen einer sprachdatenbank für einen zielwortschatz zum trainieren eines spracherkennungssystems
US20060074824A1 (en) * 2002-08-22 2006-04-06 Jinyan Li Prediction by collective likelihood from emerging patterns

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
U.Schneider & D.Werner: "Taschenbuch der Informatik", 4. aktualisierte Auflage, Fachbuchverl. Leipzig, 2001, ISBN 3-446-21753-3, S. 624-627 *

Similar Documents

Publication Publication Date Title
EP1466317B1 (de) Betriebsverfahren eines automatischen spracherkenners zur sprecherunabhängigen spracherkennung von worten aus verschiedenen sprachen und automatischer spracherkenner
EP0925578B1 (de) Sprachverarbeitungssystem und verfahren zur sprachverarbeitung
DE60016722T2 (de) Spracherkennung in zwei Durchgängen mit Restriktion des aktiven Vokabulars
DE602005002706T2 (de) Verfahren und System für die Umsetzung von Text-zu-Sprache
DE69933623T2 (de) Spracherkennung
DE102007033472A1 (de) Verfahren zur Spracherkennung
EP3010014B1 (de) Verfahren zur interpretation von automatischer spracherkennung
DE102005018174A1 (de) Verfahren zur gezielten Ermittlung eines vollständigen Eingabedatensatzes in einem Sprachdialog 11
DE10040063A1 (de) Verfahren zur Zuordnung von Phonemen
EP1058235B1 (de) Wiedergabeverfahren für sprachgesteuerte Systeme mit text-basierter Sprachsynthese
WO2006053800A1 (de) Verfahren zur spracherkennung aus einem aufgeteilten vokabular
EP1282897B1 (de) Verfahren zum erzeugen einer sprachdatenbank für einen zielwortschatz zum trainieren eines spracherkennungssystems
EP1159733B1 (de) Verfahren und anordnung zur bestimmung eines repräsentativen lautes
DE10304460B3 (de) Generieren und Löschen von Aussprachevarianten zur Verringerung der Wortfehlerrate in der Spracherkennung
DE60029456T2 (de) Verfahren zur Online-Anpassung von Aussprachewörterbüchern
DE60021666T2 (de) Inkrementales Trainieren eines Spracherkenners für eine neue Sprache
EP1435087A1 (de) Verfahren zur erzeugung von sprachbausteine beschreibenden referenzsegmenten und verfahren zur modellierung von spracheinheiten eines gesprochenen testmusters
DE10311581A1 (de) Verfahren und System zum automatisierten Erstellen von Sprachwortschätzen
EP1063633B1 (de) Verfahren zum Training eines automatischen Spracherkenners
DE60222413T2 (de) Spracherkennung
DE102008046703A1 (de) Verfahren zum Trainieren und Testen eines Mustererkennungssystems
EP1457966A1 (de) Verfahren zum Ermitteln der Verwechslungsgefahr von Vokabulareinträgen bei der phonembasierten Spracherkennung
DE10122087C1 (de) Verfahren zum Training und Betrieb eines Spracherkenners, Spracherkenner und Spracherkenner-Trainingssystem
EP2012303B1 (de) Verfahren zur Erkennung eines Sprachsignals
EP1327975B1 (de) Verarbeitung eines Sprachsignals

Legal Events

Date Code Title Description
OAV Publication of unexamined application with consent of applicant
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection