DE3216800C2 - - Google Patents
Info
- Publication number
- DE3216800C2 DE3216800C2 DE3216800A DE3216800A DE3216800C2 DE 3216800 C2 DE3216800 C2 DE 3216800C2 DE 3216800 A DE3216800 A DE 3216800A DE 3216800 A DE3216800 A DE 3216800A DE 3216800 C2 DE3216800 C2 DE 3216800C2
- Authority
- DE
- Germany
- Prior art keywords
- word
- spoken
- references
- cdd
- words
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired
Links
- 238000006467 substitution reaction Methods 0.000 claims description 3
- 230000001174 ascending effect Effects 0.000 claims 1
- 230000015654 memory Effects 0.000 abstract description 50
- 230000003044 adaptive effect Effects 0.000 abstract description 6
- 238000000034 method Methods 0.000 description 80
- 230000008569 process Effects 0.000 description 27
- 230000006870 function Effects 0.000 description 19
- 230000001960 triggered effect Effects 0.000 description 10
- 238000001514 detection method Methods 0.000 description 8
- 101100119135 Mus musculus Esrrb gene Proteins 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000013479 data entry Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 101100269674 Mus musculus Alyref2 gene Proteins 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 210000002858 crystal cell Anatomy 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000003071 parasitic effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- Machine Translation (AREA)
- Electric Clocks (AREA)
- Electrically Operated Instructional Devices (AREA)
- Selective Calling Equipment (AREA)
- Channel Selection Circuits, Automatic Tuning Circuits (AREA)
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
Description
Die Erfindung betrifft eine Worteingabeanordnung für sprachgesteuerte
Geräte mit den im Oberbegriff des Patentanspruchs 1 genannten
Merkmalen. Eine solche Anordnung ist aus der DE-OS 23 47 738 bekannt.
Es sind durch Sprache steuerbare Geräte bekannt, die jeweils als
Referenz ein Vokabular an Worten abgespeichert haben. Probleme existieren
dahin gehend, daß je nach Art des Sprechers bzw. der Umgebung das gesprochene
Wort sich von dem gleichen als Referenz abgespeicherten Wort sprachlich
unterscheidet. Die Phase, während der in den Speicher die Referenzen eingegeben
werden, bezeichnet man als "Lernvorgang". Zwei Grundtypen des Lernvorgangs
sind im allgemeinen bekannt. Bei dem ersten Typ, den man als vorprogrammierten
Lernvorgang bezeichnet, werden die Referenzen ursprünglich
ab Werk durch einen standardisierten Leser eingegeben. Der zweite Typ des
Lernvorgangs wird als Anfangslernvorgang bezeichnet. Das Gerät enthält hier
ab Werk keinerlei abgespeicherte Informationen betreffend die Worte des Vokabulars
des Gerätes. Der Lernvorgang der Anordnung erfolgt zu Beginn durch
den Benutzer selbst. Zusätzlich läßt sich noch eine Nachlernphase durchführen,
indem das gerade gesprochene Wort als neuer Prototyp abgespeichert
wird. So beschreibt die Veröffentlichung "Maschinen verstehen gesprochene
Sprache" in UMSCHAU 1979, S. 566, den Funktionsablauf eines typischen Einzelworterkennungssystems,
bei dem zunächst mindestens ein Prototyp pro Wort
abgespeichert wird, aber bei späteren Anwendungen bei Bedarf nachgelernt
werden kann, wenn das System laufend an die Sprechgewohnheiten des Sprechers
angepaßt werden soll. Der Veröffentlichung ist jedoch nicht zu entnehmen,
wie das ständige Nachlernen schaltungstechnisch erreicht werden
kann.
Aufgabe der vorliegenden Erfindung ist es daher, eine Worteingabeanordnung
nach dem Oberbegriff des Anspruchs 1 zu schaffen, die ein ständiges
Nachlernen in Abhängigkeit von den Sprechgewohnheiten des Sprechers
erlaubt und dabei eine gute Qualität der Identifikation zwischen dem ausgesprochenen
Wort und dem abgespeicherten Vokabular ermöglicht.
Diese Aufgabe wird entsprechend dem kennzeichnenden Teil des Patentanspruchs
1 gelöst.
Aus der DE-OS 23 47 738 sind ein Verfahren und eine Vorrichtung
zum Empfang gesprochener Eingabe-Übungswörter bekannt, wobei während des
Lehr- und Übungsbetriebszustandes neue Worte nach Art eines Lehr- oder
Übungsvorgangs eingegeben werden, welche vorzugsweise von der Person gesprochen
werden, welche später die Maschine während ihres Befehlszustandes
verwendet. Es handelt sich somit um eine Vorrichtung, bei der der Lernvorgang
zu Beginn durch den Benutzer selbst erfolgt. Über eine spezielle Ausgestaltung
der Vorrichtung zur Durchführung eines Nachlernvorgangs nach der
Abspeicherung von Prototypen als Referenzen ist dieser Druckschrift nichts
zu entnehmen.
Die US 38 12 291 betrifft eine Vorrichtung zum Kodieren und
Klassifizieren von aus einer Vielzahl von Filtern erhaltenen Daten. Über
die Ermöglichung eines permanenten Lernvorganges während der Benutzungsphase
ist dieser Druckschrift nichts zu entnehmen. Die Veröffentlichungen IBM
Technical Disclosure Bulletin, Vol. 13, 1970, No. 7, S. 1944, 1945, bzw.
IEEE, Transactions on Audio and Electroacoustics, Vol. AU-18, 1970, N° 1,
Seiten 26 bis 31, behandeln Spracherkennungsgeräte, die ebenfalls für einen
permanenten Lernvorgang ungeeignet sind. Das Problem der Anpassung an die
Sprechgewohnheiten eines Benutzers wird hier durch eine möglichst genaue
Nachweiselektronik unter Verwendung von Fehlersystemen überwunden, ohne das
gerade gesprochene Wort als neuen Prototyp abzuspeichern.
Ausführungsbeispiele des Gegenstandes der Erfindung werden
nachstehend unter Bezugnahme auf die beigefügten Zeichnungen
näher erläutert.
Fig. 1 ist eine vereinfachte Darstellung der Anordnung
gemäß der Erfindung.
Fig. 2 ist ein Diagramm zur Erläuterung der Funktionsweise
dieser vereinfachten Ausführungsform
der Anordnung.
Die Fig. 2a bzw. 2b sind Tabellen zur Illustration
von zwei möglichen Lernvorgängen.
Fig. 3 ist ein vollständiger Algorithmus in vereinfachter
Form zur Erläuterung der Funktionsweise
der Anordnung der Erfindung.
Fig. 4 ist ein detailliertes Organigramm der
vollständigen Funktion des Steuerschaltkreises
der Anordnung gemäß der Erfindung.
Fig. 5a und 5b sind Diagramme zur Erläuterung
der Kodierung eines Wortes und des Vergleichs
zwischen einem Wort und einer gespeicherten
Referenz und
Fig. 6 zeigt das Organigramm eines Unterprogramms
für die Funktion, die vollständig in Fig. 4
dargestellt ist.
Fig. 1 zeigt in vereinfachter Form die Fortführung einer
Worteingabeanordnung gemäß der Erfindung. Diese Anordnung umfaßt
einen Wandler 2, welcher die akustischen Informationen in
ein elektrisches Signal umsetzt und bei dem es sich vorzugsweise
um ein Mikrofon handelt. Das von diesem Mikrofon 2 abgegebene
elektrische Signal wird mittels eines Schaltkreises 4
kodiert, der an seinen Ausgang numerische Informationen, vorzugsweise
in Binärform liefert. Die Kodierung eines elektrischen
Signals, das repräsentativ ist für Sprache in binären, numerischen
Informationen ist ein bekanntes Problem. Es gibt zahlreiche
Kodierverfahren und Anordnungen, um diese Verfahren durchzuführen.
Die vorliegende Erfindung ist anwendbar, unabhängig
von dem Verfahren und der Anordnung für die Kodierung, welche
eingesetzt werden. Es versteht sich, daß die Information, welche
man in die Anordnung eingeben will und die ursprünglich abgespeicherten
und kodierten Informationen, d. h. die Referenzen
mittels des gleichen Prozesses kodiert werden. Die Anordnung
umfaßt ferner einen Steuerschaltkreis 6. Dieser Steuerschaltkreis
wird später erläutert. Die Worteingabeanordnung umfaßt
ferner Speichereinrichtungen 8, in denen ursprünglich die Referenzen
abgespeichert worden sind, vorzugsweise in Binärform,
entsprechend der Kodierung von n Worten, welche das für die
Steuerung des der Worteingabeanordnung zugeordneten Gerätes
notwendige Vokabular bilden.
Die Anordnung umfaßt schließlich eine Anzeigeeinrichtung (Anzeigeanordnung) oder
Sichtanzeige 10, welche es ermöglicht, eines von den n Worten
des Vokabulars in Erscheinung treten zu lassen. Diese Anzeigeanordnung
kann einerseits von einer Flüssigkristallzelle gebildet
die numerische Informationen anzuzeigen gestattet und
andererseits von auf einen Sichtschirm gedruckten Informationen,
denen Leuchtpunkte für die Anzeige zugeordnet
werden. Wenn man mit anderen Worten also die Anzeige
eines Wortes in Betracht zieht, kann es sich tatsächlich
um die Anzeige einer Zahl handeln oder auch um
die Ansteuerung eines Leuchtpunktes, der gegenüber einer
geschriebenen Angabe auf dem Sichtschirm des Gerätes vorgesehen
ist. Diese geschriebenen Angaben können beispielsweise
symbolische Darstellungen der verschiedenen Funktionen
zeigen, welche von dem Gerät zu erfüllen sind. Es ist
klar, daß der Begriff "Anzeigeanordnung" im allgemeinsten
Sinne verstanden werden muß. Im Rahmen der Dateneingabeanordnung
muß diese Anzeigeanordnung 10 dem Benutzer des
Gerätes, symbolisiert mit Bezugszeichen 12, ermöglichen, eine
Wiedergabe desjenigen Wortes zu erhalten, das tatsächlich von
der Dateneingabeanordnung wiedererkannt worden ist. Es könnte
sich dabei um irgendeinen Sichtschirm handeln, auf dem das
eingegebene Wort tatsächlich ausgeschrieben wird. Es könnte
sich aber auch um ein Druckwerk handeln, mittels dem der Benutzer
die tatsächlich angezeigte Information kontrollieren
kann.
Die Anordnung 10 könnte schließlich sogar eine akustische
Anordnung sein, die in der Lage ist, ebenso viele akustische
Signale abzugeben, wie Worte vorgesehen sind. Diese Anordnung
könnte ein Sprachsynthesegerät sein, welches das von
der Worteingabeanordnung wiedererkannte Wort "ausspricht".
Es kann sich auch um einen akustischen Sender handeln, der
ebenso viele Geräusche abgibt wie unterschiedliche Worte vorliegen.
Mit anderen Worten hat die Anordnung 10 einfach die
Aufgabe, das erkannte Wort zu restituieren, um ein interaktives
Kontrollelement für den Benutzer 12 der in die Anordnung
eingegebenen Information bilden. Man kann auch sagen,
daß die Anordnung 10 ein Wiedergabeelement des erkannten Wortes
in visueller oder akustischer Form ist. In diesem Sinn also
sind die Ausdrücke "Anzeigeanordnung" bzw. "Wiedergabeanordnung"
zu verstehen.
Es ist auch festzuhalten, daß diese Anzeigeanordnung
einfach die Aufgabe hat, eine eindeutige Beziehung zwischen
dem erkannten Wort und dem wiedergegebenen Wort aufzubauen.
Wenn beispielsweise die "Worte" in einer Erstsprache auf
der Anzeigeeinrichtung mit einem Leuchtpunkt für jedes Wort
ausgedruckt sind, um das erkannte Wort zu identifizieren,
ist es ohne weiteres möglich, mittels der Anordnung gemäß
der Erfindung, entsprechende Worte in einer zweiten Sprache
einzugeben. Für die Kontrolle selbstverständlich muß der Benutzer
selbst die Korrespondenz zwischen den gedruckten Worten
in der ersten Sprache und den in der zweiten Sprache eingegebenen
Worten herstellen.
Die Speichereinrichtung 8 kann verlegt werden in einen Festwertspeicher
8 a, in dem die kodierten Referenzen abgelegt sind,
welche die Worte des ab Werk gespeicherten Vokabulars repräsentieren,
ferner einen Randomspeicher 8 b, in den man Referenzen
eingeben kann, relativ zu den Worten des Vokabulars, einen
Speicher 8 c zum Speichern des Wortes, das gerade ausgesprochen
worden ist und das von dem Schaltkreis 4 kodiert worden ist
und einen Speicher 8 d zum Speichern des zuvor gesprochenen
Wortes. Es versteht sich, daß die Speicher 8 c und 8 d in der
Realisierung Speicherplätze des jeweiligen als Randomspeicher
verwendeten Speichers 8 b sind.
Der Steuerschaltkreis 6 umfaßt zunächst einen Klassierschaltkreis
14 für n im Speicher 8 b enthaltene Referenzen
in Abhängigkeit von deren Ähnlichkeit mit dem vom Benutzer 12
in das Mikrofon gesprochene Wort, kodiert vom Schaltkreis
4 und enthalten im Speicher 8 c. Diese Klassierung resultiert
aus der Anwendung eines Algorithmus, der es ermöglicht, die
Distanz zwischen der kodierten, dem ausgesprochenen Wort zugeordneten
Information und den kodierten, abgespeicherten Referenzen
in dem Speicher 8 entsprechend n Worten des Vokabulars
zu messen. Eine große Anzahl von Algorithmen könnte ins Auge
gefaßt werden. Einer dieser Algorithmen wird später als
Beispiel erläutert. Der Steuerschaltkreis 6 umfaßt ferner
eine Detektoreinrichtung 16 zum Erfassen einer eventuellen
Wiederholung zwischen zwei aufeinanderfolgend von dem Benutzer
12 gesprochenen Worten. Der Detektorschaltkreis 16
liefert zwei Signale, je nachdem, ob eine Wiederholung erfaßt
worden ist oder nicht. Die Erfassung einer Wiederholung
besteht in der Anwendung eines zweiten Vergleichsalgorithmus
der beiden aufeinanderfolgenden ausgesprochenen Worte.
Zahlreiche Algorithmen können verwendet werden und ein möglicher
Algorithmus wird später erläutert. Dieser Schaltkreis
wird gleich dem gemäß die Information enthaltenen Speicher
8 c mit der Information enthalten im Speicher 8 d, falls eine
solche vorliegt. Der Steuerschaltkreis 6 umfaßt ferner einen
Anzeigesteuerkreis 18 für die Anzeige 10. Der Schaltkreis 18,
der mit dem Speicher 8 b verbunden ist, erlaubt die Anzeige
desjenigen der n im Speicher 8 abgespeicherten Worte auf der
Anzeigeeinrichtung 10, das den ersten Ähnlichkeitsrang mit
dem gesprochenen Wort einnimmt, falls keine Wiederholung vom
Schaltkreis 16 erfaßt worden ist und dem Wort, das den Rang
der Wiederholung präsentiert, der unmittelbar dem vorher angezeigten
Wort folgt, falls eine Wiederholung vom Schaltkreis
16 erfaßt worden ist. Schließlich umfaßt der Steuerschaltkreis
6 eine Anordnung 20 zur Modifizierung der in den Speichern
8 b und 8 a enthaltenen Referenzen. Dieser Schaltkreis 20
ersetzt für eine gegebene Speicherposition die in diesem
Speicher enthaltene Information, zugeordnet dem wiederholten
Wort und demgemäß angezeigt auf der Anordnung 10 durch die
kodierte Information entsprechend dem vom Benutzer 12 gesprochenen
Wort, enthalten im Speicher 8 d. Diese Substitution
wird durch den Benutzer 12 gesteuert durch Mittel, die mit
dem Bezugszeichen 21 symbolisiert sind (Steuereinrichtung 21). Diese Mittel können
z. B. von einem Druckknopf gebildet werden. Wie später noch
zu erläutern, können diese Mittel auch aus einem Zeitgeber
bestehen. Wenn eine bestimmte Verzögerungszeit nach Aussprechen
eines Wortes abläuft, ohne daß erneut ein Wort ausgesprochen
wird, interpretiert der Steuerschaltkreis 6
diese Stille als Einverständnis des Benutzers mit dem Wort,
das angezeigt worden ist. Man versteht, daß in diesem Falle
für dieses bestimmte Wort ein Lernvorgang stattgefunden hat,
sofern eine diesem Wort zugeordnete Modifikation der gespeicherten
Information stattfand.
Fig. 2 zeigt die Funktion der in Fig. 1 dargestellten Anordnung.
Zu Beginn eines Zyklus werden die im Festwertspeicher
8 a enthaltenen Informationen in den Randomspeicher 8 b transferiert.
Das vom Sprecher gesagte Wort, symbolisiert durch Bezugszeichen
4′, das in den Speicher 8 c eingegeben worden ist,
wird verarbeitet, um eine Klassierung der Reihenfolge der Ähnlichkeiten
für die im Speicher 8 b enthaltenen Referenzen aufzubauen.
Dieser Schritt ist mit 14′ bezeichnet. In der nachfolgenden
Erläuterung werden mit "Kandidaten" die verschiedenen,
klassierten Referenzen bezüglich n gespeicherten Worten bezeichnet,
wobei der erste Kandidat die Referenz ist, die dem gesprochenen
Wort am ähnlichsten ist, der zweite Kandidat die
Referenz ist, die in der Reihenfolge der Ähnlichkeiten unmittelbar
nachfolgt, usw. Man erfaßt dann bei 16′, ob das gerade
ausgesprochene Wort eine Wiederholung des zuvor gesprochenen
Wortes darstellt, indem man einen Vergleich zwischen der im
Speicher 8 c enthaltenen Information und jener durchführt, die
im Speicher 8 d vorliegt, falls es dort eine gibt. Wenn es sich
nicht um eine Wiederholung handelt, wird angenommen, daß das
erkannte Wort der erste Kandidat im obigen Sinne ist. Diese
Operation ist mit 22′ bezeichnet. Wenn aber eine Wiederholung
erfolgt war, wird das erkannte Wort identifiziert mit dem Kandidaten,
der dem Kandidaten folgt, der in Verbindung mit dem
zuvor ausgesprochenen Wort angezeigt worden war. Diese Operation
ist mit 24′ bezeichnet. Unabhängig von der vorhergehenden
Operation wird das erkannte Wort im Schritt 18′ angezeigt, d. h.
das System reagiert immer auf die Eingabe eines Wortes. Mit
anderen Worten wird selbst dann, wenn das ausgesprochene Wort
sehr stark abweicht von der Gesamtheit der abgespeicherten Referenzen
die Anzeigeanordnung irgendein Wort anzeigen,
dasjenige nämlich, dessen Referenz dem gesprochenen
Wort am ähnlichsten zu sein scheint. Es gibt keine Zurückweisungsschwelle
bei der Definition der Kandidaten.
Wenn das erkannte Wort übereinstimmt mit dem tatsächlich
ausgesprochenen Wort, was festgelegt wird durch den Robus
12′, welcher tatsächlich den Benutzer 12 symbolisiert und
wenn, darüber hinaus, keine Wiederholung stattgefunden hatte
(was im Schritt 12′′ erfaßt wird) ist der Betriebszyklus
beendet (Rechteck 24′). Wenn das angezeigte Wort zutreffend
ist, aber eine Wiederholung bei 16′′ erfaßt worden war, substituiert
man bei 20′ die Information bezüglich des erkannten
Wortes durch die Information bezüglich des tatsächlich
ausgesprochenen Wortes, wenn der Benutzer dies befiehlt
mittels 21 und der Zyklus ist ebenfalls beendet. Wenn jedoch
bei 12′ festgestellt wurde, daß das erkannte, angezeigte
Wort nicht das gesprochene Wort ist, wiederholt der Benutzer
12 dasselbe Wort, was durch Rechteck 26′ symbolisiert wird.
Das wiederholte Wort wird wieder in die Schleife eingegeben
und ersetzt dabei das gesprochene Wort 4′.
Es ergibt sich demgemäß deutlich, daß in einem ersten Fall
das erste Mal, bei dem ein Wort gesprochen wird, dieses selbe
Wort auf der Anzeigeanordnung 10 erscheint. In diesem Fall
erfolgt kein Lernvorgang und der Befehl entsprechend diesem
Wort kann direkt dem Gerät übermittelt werden, dem die Eingabeanordnung
zugeordnet ist. Anders gesagt bedeutet dies,
daß die Aussprache dieses Wortes durch den Standardsprecher
oder Leser und die Aussprache desselben Wortes durch den Benutzer
sehr ähnlich sind.
Im zweiten Fall ist das erste Mal, daß ein Wort ausgesprochen
wird, das angezeigte Wort abweichend von diesem.
Der Sprecher 12 wiederholt dieses Wort. Bei der Wiederholung
wird bei 16′ diese Wiederholung festgestellt und das angezeigte
Wort wird dann der zweite Kandidat in der Reihenfolge
der Ähnlichkeit sein. Wenn dieser zweite Kandidat tatsächlich
das gesprochene Wort ist, ersetzt die Anordnung bei 20′
im Speicher 8 b eine Information entsprechend dem tatsächlich
ausgesprochenen Wort für die ursprünglich in diesem
Speicher enthaltene Referenz. Wenn bei dieser ersten Wiederholung
das angezeigte Wort abweicht von dem gesprochenen
Wort, wiederholt der Sprecher 12 das Wort ein zweites
Mal, was zur Anzeige des dritten Kandidaten in der Reihenfolge
der Ähnlichkeiten führt. Der Vorgang wird wiederholt,
bis das angezeigte Wort, d h. das erkannte Wort, identisch
wird mit dem gesprochenen Wort, in welchem Falle eine Substitution
in dem Speicher der kodierten Information entsprechend
dem gesprochenen Wort bezüglich des ursprünglichen
Referenzinhalts erfolgt. Es ergibt sich demgemäß, daß die
Funktion des Lernvorgangs nur dann eingreift, wo dies erforderlich
ist und darüber hinaus liegt eine Optimierung des
Lernvorgangs vor, d. h. eine Minimierung der Anzahl von Wiederholungen,
die erforderlich sind wegen der Klassierung der
Kandidaten entsprechend ihrem Ähnlichkeitsrang.
Die Tabelle 2a zeigt einen ersten Lernvorgang. In dem betrachteten
Beispiel umfaßt das Vokabular mindestens die Worte
"ON", "OFF", "UP", "DOWN" und "FAST". Der Benutzer spricht ein
erstes Mal das Wort "ON". Das erste angezeigte Wort ist "OFF".
Dieser Unterschied beruht auf der Tatsache, daß die erstmalige
Eingabe der Referenzen durch einen anderen Sprecher erfolgte.
Der Benutzer wiederholt das Wort "ON" und der zweite
Kandidat in der Reihenfolge der Ähnlichkeiten mit dem Wort
"ON" ist jetzt "UP", das demgemäß durch die Anzeigeeinrichtung
10 angezeigt wird. Der Benutzer wiederholt ein zweites
Mal das Wort "ON" und die Anzeigeeinrichtung zeigt tatsächlich
das Wort "ON" an. Demgemäß ersetzt der Schaltkreis 20 das kodierte
Wort "ON", wie es durch den Benutzer ausgesprochen
worden ist für die ursprünglich entsprechend dem Wort "ON"
eingegebene Referenz.
Die Tabelle gemäß Fig. 2b entspricht einem zweiten Lernvorgang.
Der Sprecher spricht ein erstes Mal das Wort "ON"
aus. Die Anzeigeanordnung zeigt "OFF" an. Der Sprecher muß
demgemäß das Wort "ON" wiederholen. Unabsichtlich jedoch
sagt er "DOWN". Der Schaltkreis 16 erfaßt, daß keine Wiederholung
vorliegt und der Schaltkreis 14 definiert demgemäß
eine neue Reihenfolge der Kandidaten. Der erste Kandidat ist
das Wort "UP", das demgemäß angezeigt wird. Der Sprecher stellt
fest, daß ein Irrtum erfolgt ist und wiederholt "DOWN", und in
dem betrachteten Beispiel ist "DOWN" der zweite Kandidat. Dies
wird demgemäß durch die Anzeigeeinrichtung10 angezeigt und der
Schaltkreis 20 substituiert in dem Speicher 8 b, 8 a die Kodierung
des Wortes "DOWN" so, wie es von dem Sprecher gesagt worden ist
für die Referenz "DOWN", welche ursprünglich gespeichert worden
war.
Fig. 3 zeigt in größeren Einzelheiten die Funktionsweise
einer verbesserten Ausführungsform der Worteingabeanordnung
gemäß der Erfindung. Bei dieser Ausführungsform berücksichtigt
die Anordnungsprozedur Fehler, die der Sprecher bei der ursprünglichen
Phase machen kann, d. h., wenn er sich das erste
Mal der Anordnung bedient. Aus der vorangehenden Erläuterung
kann man nämlich entnehmen, daß die Vorrichtung eine bestimmte
Anzahl von Vergleichseinrichtungen verwendet, um einen Vergleich
zwischen einem kodierten ausgesprochenen Wort und den gespeicherten
kodierten Worten vorzunehmen. Dies findet sich beispielsweise,
wenn eine eventuelle Wiederholung zu erfassen ist oder
wenn eine Liste von Kandidaten aufzustellen ist. Unabhängig
von der Genauigkeit der verwendeten Algorithmen ist es klar,
daß Fehler auftreten können, welche die Funktion der Anordnung
beeinträchtigen könnten.
Die Funktion der Anordnung kann in vier Teile zerlegt
werden: Ein Abschnitt A 1 entsprechend der normalen Funktion,
d. h., wenn das vom Benutzer ausgesprochene Wort tatsächlich
erkannt wird und sofort von der Anzeigeeinrichtung angezeigt
wird; ein Abschnitt A 2, entsprechend einer Fehlerprozedur, wobei
diese Fehlerprozedur eingeführt wurde, wenn ein angezeigtes
Wort von dem vom Benutzer gesprochenen Wort abweicht; ein Abschnitt
A 3, entsprechend dem eigentlichen adaptiven Lernvorgang,
wobei diese Phase vorliegt, wenn das angezeigte Wort identisch
mit dem gesprochenen Wort nach mindestens einer Wiederholung
gemacht wird und das Problem gelöst wird, eine ursprüngliche
Referenz durch eine Neuinformation in den Speichern 8 a, 8 b
zu setzen und schließlich ein Abschnitt A 4, der es ermöglicht,
eventuelle Fehler zu erfassen, die von dem Sprecher gemacht
werden, wenn eine Fehlerprozedur ausgelöst worden ist.
Das kodierte von dem Sprecher ausgesprochene Wort wird bei
30 eingegeben. Bei 32 wird eine Wartezeit d 1 eines Wortes eingeführt.
Bei 34 wird überprüft, ob die zwischen zwei nacheinander
ausgesprochenen Worten abgelaufene Zeit kleiner ist als
die Wartezeit d 1 oder nicht. Wenn die Wartezeit größer ist
als d 1, geht man zu Abschnitt A 3 des adaptiven Lernvorgangs
über. Wenn jedoch diese Verzögerung kleiner ist als d 1, geht
man zur Etappe 36 über, wo verifiziert wird, ob das kodierte
ausgesprochene Wort gültig ist. Diese Etappe hat die Aufgabe,
von vornherein die Eingabe von Informationen zu eliminieren,
die nicht wirklich gesprochenen Worten zugeordnet sind, beispielsweise
parasitären Geräuschen, usw. Die Etappe 36 wird
später näher erläutert. Wenn das gesprochene Wort ungültig ist,
kehrt man zum Beginn des Verfahrens der Worteingabe zurück. Wenn
jedoch dieses Wort gültig ist, geht man zur Etappe 38 über, in
welcher festgestellt wird, ob eine Fehlerprozedur (PE) vorliegt.
Wenn die Antwort positiv ist, geht man zum Abschnitt A 2 über,
entsprechend der Fehlerprozedur. Wenn die Antwort negativ ist,
geht man zur Etappe 40 über, in der die Kandidatenliste (Cdd)
aufgestellt wird, d. h. die Liste in absteigender Reihenfolge
der Ähnlichkeit mit dem ausgesprochenen Wort für die verschiedenen
Referenzen, die im entsprechenden Speicher vorhanden sind,
welcher die für die Steuerung des Geräts erforderlichen Worte
enthält. Danach wird in Etappe 42 verifiziert, daß die Zeit d 2
abgelaufen zwischen dem aktuellen Wort und dem vorhergehenden
Wort kleiner ist als die Wartezeit d 1. Wenn die Antwort positiv
ist, geht man zur Etappe 44 über, in der festgestellt wird,
ob das gesprochene Wort eine Wiederholung (REP) des vorher ausgesprochenen
Wortes (Mt prec.) ist. Man verwendet für diesen
Zweck einen Vergleichsalgorithmus, der später erläutert wird.
Wenn tatsächlich eine Wiederholung (REP) vorliegt, geht man
über zum Abschnitt A 2. Wenn keine Wiederholung vorgelegen hat,
geht man zur Etappe 46 über, in der ein erster Kandidat
(1er Cdd) angezeigt wird, d. h. daß die Anzeigeeinrichtung
das Wort anzeigt, das in der Etappe 40 als derjenigen Referenz
zugeordnet erkannt worden war, die dem ausgesprochenen
Wort am nächsten kam. Dies ist der Normalvorgang und damit
derjenige, der Verwendung findet nach der ursprünglichen
Lernphase. Es ist festzuhalten, daß dann, wenn in der Etappe
42 die zwischen dem vorhergehenden Wort und dem ausgesprochenen
Wort ablaufende Zeit größer ist als d 1, direkt der erste
Kandidat bei 46 angezeigt wird, weil man dann sicher ist,
daß keine Wiederholung stattgefunden hat.
Nachstehend wird der Abschnitt A 2 entsprechend der Fehlerprozedur
(PE) erläutert. Wie bereits angedeutet, kann man in
die Fehlerprozedur A 2 an zwei Stellen eintreten: Entweder in
Höhe der Etappe 38 oder in Höhe der Etappe 44. Man beginnt
die Fehlerprozedur A 2 in Höhe 44, wenn man feststellt, daß
das gerade ausgesprochene Wort (Mt pron.) eine Wiederholung
des vorher ausgesprochenen Wortes (Mt prec.) ist. In diesem
Falle löst man bei 48 eine Fehlerprozedur (PE) aus und bei
50 wird der folgende Kandidat angezeigt, d. h. in diesem Fall
der Einleitung der Fehlerprozedur der zweite Kandidat. Es
versteht sich, daß in diesem Falle, wenn der zweite angezeigte
Kandidat das tatsächlich von dem Sprecher ausgesprochene
Wort ist, man zur adaptiven Lernetappe A 3 übergeht. Man kann
auch in die Fehlerprozedur A 2 in Höhe 38 eintreten, in dem
Falle, wo bei 38 festgestellt wird, daß die Fehlerprozedur
bereits ausgelöst worden ist. Im Falle einer positiven Antwort
verifiziert man bei 52, ob das ausgesprochene Wort tatsächlich
keine Wiederholung des Wortes ist, das zur Auslösung der Fehlerprozedur
geführt hatte. Wenn die Antwort auf diese Frage ja
ist, verifiziert man bei 54, daß tatsächlich ein folgender
Kandidat existiert, d. h., daß der zunächst angezeigte Kandidat
nicht der letzte in der Liste der klassierten Kandidaten
ist. Falls bei 52 die Antwort negativ ist, geht man zum
Abschnitt A 4 der Erfassung des Fehlers in der Fehlerprozedur
über. Wenn bei 54 festgestellt wird, daß ein folgender
Kandidat existiert, wird bei 50 der folgende Kandidat
angezeigt.
Man gelangt zur adaptiven Lernprozedur A 3 in Höhe der
Etappe 34. Wenn die Zeit, die verstrichen ist, ohne daß ein
Wort ausgesprochen wird, größer ist als die Wartezeit A 1,
überprüft man bei 56, ob es sich um die erste Wartezeit
d 1 nach der Fehlerprozedur handelt. Wenn die Antwort positiv
ist, überprüft man bei 58, ob das letzte ausgesprochene
Wort tatsächlich eine Wiederholung ist. Wenn die Antwort
wiederum positiv ist, ersetzt man bei 60 die im Speicher
enthaltene Referenz des ausgesprochenen Wortes durch die
kodierte Information entsprechend dem Wort, das die Fehlerprozedur
ausgelöst hat und bei 62 wird die Fehlerprozedur
beendet. Wenn bei 56 die Antwort negativ ist, kehrt man zum
Eingang zurück, wobei die Fehlerprozedur vorher ausgelöst
worden war. Wenn hingegen die Antwort negativ ist bei Etappe
58, geht man direkt zu 62 über zum Unterbrechen der Fehlerprozedur
und der Vorgang wird demgemäß auf null rückgesetzt.
Man tritt in den Abschnitt A 4 der Erfassung eines Fehlers
in der Fehlerprozedur in Höhe der Etappe 52 ein. Wenn das gesprochene
Wort keine Wiederholung des Wortes ist, welches die
Fehlerprozedur ausgelöst hat, verifiziert man bei 64, ob der
nächste Kandidat der dritte Kandidat ist. Wenn die Antwort
positiv ist, verifiziert man bei 66, ob es das zweite Mal
nach einer Fehlerprozedur ist, daß keine Wiederholung vorgelegen
hat. Wenn die Antwort negativ ist, kehrt man zum Eingang
zurück. Wenn die Antwort positiv ist, unterbricht man
bei 62 die Fehlerprozedur und der Zyklus wird auf null rückgesetzt.
Es ist festzustellen, daß die Etappen 32 und 34, welche
die Wartezeit d 1 einführen, eine bevorzugte Ausbildung der
Einrichtung 21 darstellen, mittels welcher der Benutzer die
Lernphase in Angriff nimmt, d. h. der Ersatz einer Referenz
durch eine andere kodierte Information entsprechend demselben
Wort. Es ist ferner festzustellen, daß die Etappe
52 zum Ziel hat zu erfassen, ob ein Fehler in der Fehlerprozedur
vorliegt oder nicht. In der vorangehenden Beschreibung
erfolgt diese Erfassung automatisch durch Vergleich
des gesprochenen Wortes mit dem wiederholten Wort, welches
die Fehlerprozedur in Gang gesetzt hat. Dieser Vergleich
kann seinerseits eine Fehlerquelle darstellen. Es wäre demgemäß
möglich, die Etappe 52 zu ersetzen durch einen Umschalter,
der vom Benutzer selbst betätigt wird und der seinerseits
die Fehlerprozedur in Gang setzt, wenn er festgestellt hat,
daß er beispielsweise unterlassen hat, ein Wort zu wiederholen.
Der Steuerschaltkreis 6, dessen Funktionsweise erläutert
wurde, wird vorzugsweise durch einen Mikroprozessor realisiert.
Fig. 4 zeigt den detaillierten Algorithmus, der von
diesem Mikroprozessor verwendet wird. Dieser Algorithmus
verwendet eine bestimmte Anzahl von Variablen, die später
erläutert werden. Die erste Variable S ist ein SUBROUTINE-
Parameter. Wenn innerhalb der Wartezeit d 1 kein Wort ausgesprochen
worden ist, hat S den Wert null. Wenn das ausgesprochene
Wort ungültig ist, hat S den Wert 1. Wenn das Wort
gültig ist, nimmt S einen anderen Wert an.
Die Variable C ist ein Kandidatenzähler in dem Sinne, wie
er oben erläutert wurde. Die Variable D 2 ist ein Verzögerungsparameter,
der die Werte null oder 1 annehmen kann. Der Parameter
ERR 1 ist ein binärer Parameter, der definiert, ob eine
Fehlerprozedur ausgelöst worden ist. Der Parameter ERR 1 hat
den Wert null, wenn keine Fehlerprozedur vorliegt und den
Wert 1 im gegenteiligen Falle. Schließlich ist der Parameter
ERR 2 ein Fehlerparameter in der Fehlerprozedur.
Nach Beginn des Programms bei 100 umfaßt das Programm
Befehle 102 für die Initiierung bestimmter Variablen. Die
Parameter ERR 1, ERR 2 und D 2 werden zunächst auf null gesetzt,
während der Parameter C für die Kandidatenzählung zunächst
auf 1 geht. Das Rechteck 104 symbolisiert ein Unterprogramm
der Worteingabe. Dieses Unterprogramm umfaßt einerseits die
Kodierung der aufeinanderfolgend ausgesprochenen Worte, andererseits
eine erste Verarbeitung dieser Kodierung zum Verifizieren
der Gültigkeit des Wortes. Ferner umfaßt das Unterprogramm
das Äquivalent der Verzögerungselemente, d. h. es erfaßt,
ob die zwischen einem gesprochenen Wort und dem vorher
gesprochenen Wort verstrichene Zeit größer ist als d 1. Schließlich
löst das Unterprogramm den Beginn der Funktion der Anordnung
aus. Es ist gleichermaßen dieses Unterprogramm, das das
kodierte, ausgesprochene Wort in den Speicher 8 c einschreibt
und daß für jedes kodierte Wort ihm ein Wert der Variablen S
zuordnet, wie oben angedeutet. Der Komparator 106 vergleicht
den Parameter des Wertes S mit null. Wenn S von null abweicht,
vergleicht der Komparator 108 S mit eins. Wenn S von eins abweicht,
vergleicht der Komparator 110 C mit eins. Wenn der Detektor
108 feststellt, daß S gleich eins ist, kehrt das Programm
zur Warteposition zurück für die Eingabe eines neuen
Wortes. Wenn der Komparator 110 feststellt, daß C gleich eins
ist, d. h., daß keine Fehlerprozedur vorliegt, definiert das
Unterprogramm 112 die Klassierung der Kandidaten durch einen
Algorithmus, der später erläutert wird. Danach vergleicht
der Komparator 114 den Wert der Variablen D 2 mit null. Wenn
dieser Wert von null abweicht, erfaßt das Programm 116, ob
eine Wiederholung stattgefunden hat oder nicht mittels eines
Unterprogramms, das später erläutert wird. Wenn keine Wiederholung
stattgefunden hat, überträgt die Instruktion 118 in
den Speicher 8 d für vorhergehende Worte das Wort, das gerade
gesprochen worden ist und die Variable D 2 wird von dem Wert
eins beeinflußt. Das Unterprogramm 120 bewirkt die Anzeige
auf der Anzeigeeinrichtung 10, des dem Wert des Zählers C der
Kandidaten entsprechende Worte, d. h., daß dieses Programm
als Ergebnis die Anzeige des Wortes abgibt, das als ähnlichstes
angesehen wird. Nach dem Unterprogramm 120 kehrt das Programm
zur Warteposition für den Eingang eines neuen Wortes zurück.
Wenn der Detektor 110 festgestellt hat, daß C von eins
abweicht, beginnt man mit dem Unterprogramm 122, welches
das gesprochene Wort mit dem wiederholten Wort vergleicht,
welches die Fehlerprozedur ausgelöst hatte. Wenn die Antwort
auf diese Frage ja lautet, gibt der Befehl 124 der
Variablen ERR 1 den Wert null und der Befehl 125 bewirkt die
Operation C = C + 1, d. h., daß der Kandidatenzähler um eine
Einheit inkrementiert wird. Der Komparator 126 vergleicht
den Wert von C mit der Gesamtzahl der Worte, d. h. der Referenzen,
die im Speicher enthalten sind, wobei diese Anzahl
mit VOC bezeichnet werden soll. Wenn C größer ist als VOC,
bedeutet dies, daß ein Fehler vorliegt und die Befehle 128
setzen den Parameter D 2 wieder auf null, die Variable ERR 1
auf null und den Kandidatenzähler C auf den Wert eins. Das
Programm kehrt zur Warteposition für ein neues Wort zurück.
Wenn hingegen der Komparator 126 festgestellt hat, daß der
Rang des Kandidaten nicht höher ist als die Gesamtzahl der
Referenzen, tritt man in das Unterprogramm 120 für die Anzeige
des festgehaltenen Kandidaten ein. Im Falle, wo der Komparator
114 festgestellt hat, daß D 2 tatsächlich gleich null war, geht
man direkt zum Befehl 118 über, weil man dann sicher sein kann,
daß in diesem Falle keine Wiederholung stattgefunden hat. Wenn
das Unterprogramm 116 festgestellt hat, daß jedoch eine Wiederholung
stattfand, geht man direkt zum Operator 125, der, wie
bereits angedeutet, den Kandidatenzähler C um eine Einheit
inkrementiert, entsprechend der Auslösung der Fehlerprozedur.
Wenn der Komparator 106 feststellt, daß S den Wert null hat,
d. h. daß die Wartezeit abgelaufen ist, gibt der Befehl 130
der Variablen D 2 den Wert null und danach vergleicht der Komparator
132 den Wert von C mit eins. Wenn C gleich eins ist,
kehrt das Programm zum Anfang zurück unter Erwartung eines neuen
Wortes, falls C von eins abweicht, d. h. wenn eine Fehlerprozedur
vorliegt, vergleicht der Komparator 134 den Wert der Variablen
ERR 1 mit null. Wenn dieser Wert null beträgt, befiehlt das Unterprogramm
36 den Austausch im Speicher 8 b der vorherigen gespeicherten
Referenz gegen die Kodierung des Kandidaten mit
dem Rang C. In dem folgenden Befehl 138 wird die Variable
ERR 1 auf null rückgesetzt, die Variable C wird wieder auf
eins gebracht. Das Programm kehrt zur Warteposition für die
eventuelle Eingabe eines neuen Wortes zurück. Wenn der Komparator
134 feststellt, daß die Variable ERR 1 von null abweicht,
geht das Programm direkt zum Befehl 138.
Wenn man jetzt zum Unterprogramm 122 zurückkehrt, erkennt
man, daß im Falle einer Negativantwort der Befehl 140 der Variablen
ERR 1 den Wert von eins gibt. Der Komparator 142 vergleicht
den Wert von C mit zwei. Wenn C von zwei abweicht, kehrt das
Programm zur Warteposition für die Eingabe eines neuen Wortes
zurück. Wenn der Vergleich im Komparator 142 positiv ausgeht,
inkrementiert der Befehl 143 die Variable ERR 2 um eine Einheit
unter Durchführung der Operation ERR 2 = ERR 2+1. Der Wert der
Variablen ERR 2 wird danach mit zwei verglichen im Komparator
146. Wenn die Antwort nein ist, kehrt das Programm direkt in
die Warteposition für die Eingabe eines neuen Wortes zurück.
Wenn die Antwort positiv ist, setzt der Befehl 148 die Variable
ERR 2 wieder auf null und das Programm geht zum Befehl 128.
Man kann leicht erkennen, daß die Abfolge der Befehle und
Unterprogramme 106 bis 120 der Normalfunktion entspricht, d. h.
dem Abschnitt A 1, daß die Befehle 122 bis 128 der Fehlerprozedur
entsprechen, daß die Befehle und Unterprogramme 130 bis
138 dem adaptiven Lernvorgang zugeordnet sind und daß schließlich
die Befehle 140 bis 148 der Erfassung eines Fehlers in
der Fehlerprozedur zugeordnet sind.
Fig. 5a zeigt die kodierte Information, wobei die Kodierung
mittels eines bestimmten Kodierverfahrens erfolgt, zugeordnet
einem ausgesprochenen Wort. Gemäß diesem Kodierverfahren wird
das dem Wort entsprechende und von dem Mikrofon 2 gelieferte
elektrische Signal gleichzeitig in sieben Bandpaßkanälen gefiltert.
Die elektrischen Signale vom Ausgang dieser sieben
Filter werden in binäre logische Signale transformiert durch
Vergleich mit einer Schwelle. Diese logischen Signale werden
abgetastet, in Abhängigkeit von ihrer Position in dem Signal
und werden verarbeitet, damit die Gesamtlänge der erhaltenen
Informationen standardisiert wird. Man erhält auf
diese Weise eine Information bestehend aus Nullen und
Einsen, die verteilt sind entsprechend Linien gemäß den
verschiedenen Filterkanälen und entsprechend Spalten gemäß
verschiedenen Zeitpunkten der erhaltenen Abtastung. In dem
bestimmten Beispiel gibt es sieben Kanäle und sechzehn Abtastungen.
Diese Gesamtheit von Informationen repräsentieren
ein Wort. In Fig. 5a sind die Punkte der Matrize schraffiert,
welche den binären Wert eins aufweisen. Man kann ferner in
Betracht ziehen, daß die Gesamtheit der Punkte der Matrize mit
dem Wert eins von Blöcken gebildet wird, wobei jeder Block definiert
wird als eine fortlaufende Folge von Punkten mit dem
binären Wert eins und ausgehend von ein- und demselben Filterkanal.
Im Falle der Fig. 5a erkennt man die Blöcke B 1, B 2, B 3
und B 4. Als Beispiel kann die Gültigkeitsprüfung eines ausgesprochenen
Wortes gemäß Etappe 36 der Fig. 3 folgendermaßen
ablaufen. Ein Wort wird demgemäß durch die allgemeine Formel
definiert
Wort = {B₁, B₂, . . ., B i , . . . B M }
worin jeder Block B i in der folgenden Weise definiert ist:
B i = {CANAL i , START i , STOP i }
START bzw. STOP bilden den Zeitpunkt des Beginns und des
Endes eines Blockes. Ein Wort wird als gültig angesehen,
wenn es beispielsweise von mindestens drei Blöcken gebildet
wird, welche von drei verschiedenen Kanälen herrühren. Das
Programm, das es ermöglicht, diese Bedingung zu verifizieren,
ausgehend von der kodierten Information, die dem Wort zugeordnet
ist, ist dem Fachmann geläufig und braucht hier deshalb
nicht weiter ausgeführt zu werden.
Dieses Programm wird in dem Unterprogramm aus Fig. 4 mit
dem Bezugszeichen 104 durchgeführt.
Nachstehend soll auf eine an sich bekannte Möglichkeit
zum Messen des Abstands zwischen zwei kodierten Worten oder
zwischen einem kodierten Wort und einer Referenz hingewiesen
werden, um so das Unterprogramm 112 der Klassierung der Kandidaten
oder die Erfassungen der Wiederholungen gemäß Unterprogrammen
116 und 122 durchzuführen. Der Abstand zwischen
einem Wort und einer Referenz kann in folgender Weise definiert
werden. Ein Wort wird in folgender Weise definiert:
Wort = {Wort i,j ; i = 1, 2 . . . I; j = 1, 2 . . . J }
mit Wort i,j ε {0,1}
mit Wort i,j ε {0,1}
wobei beispielsweise im Falle der Fig. 5a das Wort Wort 3,13
null hat und das Wort 7,15 eins hat. In derselben Weise kann
der Speicher 8 a der Referenzen definiert werden als eine Gesamtheit
von kodierten Informationen von Referenzworten, definiert
durch:
Ref = {Ref k , k = 1, 2 . . . n }
worin n die Anzahl der Referenzen im Speicher ist, d. h. die
Anzahl der Worte im Vokabular. Jedes Wort des Speichers wird
mit Ref k bezeichnet mit
Der Abstand zwischen einem kodierten Wort "Wort" und einer
Referenz des Speichers Ref k ist gegeben durch den Ausdruck:
worin das ⊕ die logische Funktion ODER EXKLUSIV repräsentiert,
worin I die Anzahl der Kanäle und J die Anzahl der Abtastungen
ist.
Es ist klar, daß die Distanz in konkreter Weise folgendermaßen
definiert werden kann. Man geht aus von der Tabelle ähnlich
jener nach Fig. 5a, entsprechend jeweils dem Wort "Wort"
und der Referenz Ref k und überlagert diese beiden Tabellen.
Der Zähler des rechten Ausdrucks in Gleichung (1) ist gleich
der Anzahl der Punkte der beiden Tabellen mit dem Binärwert
1, die einander nicht überlagern, während der Nenner gleich
der Summe der Punkte beider Tabellen ist, welche den Binärwert
1 haben. In Fig. 5b ist dementsprechend eine Tabelle dargestellt
für ein Wort und eine Tabelle entsprechend einer Referenz
Ref 2. Man erkennt sofort, daß durch Überlagern dieser
beiden Tabellen, so wie sie gezeigt sind, die Punkte mit Binärwert
1, die einander nicht überlagern, sehr hoch ist. Mit anderen
Worten ist der Abstand zwischen diesen beiden Worten groß.
Man erkennt jedoch, daß durch Verschieben nach links um einen
Schritt der Kontur der Tabelle des Wortes ohne Modifikation der
Position der Punkte mit dem Binärwert eins die Ähnlichkeit zwischen
den beiden derart modifizierten Tabellen sehr hoch ist.
Man erkennt leicht, daß tatsächlich das Wort und die Referenz
ein- und demselben gesprochenen Wort zugeordnet sind und
daß die scheinbare Differenz großenteils von einer Globalverschiebung
herrührt während der Erfassung und Kodierung des
Wortes. Damit die Messung der Distanz zwischen zwei Worten tatsächlich
wirksam ist, ist es demgemäß wünschenwert, darüber
hinaus die Möglichkeiten der Verschiebung zwischen den zu vergleichenden
Worten oder zwischen dem Wort und der zu vergleichenden
Referenz ins Auge zu fassen. Dies wird nachstehend erläutert,
wobei mit l die Verschiebung bezeichnet werden soll,
welche im Fall der Fig. 5 den Wert -1 hat.
Durch Einführung der Verschiebung l ist der Abstand δ l
zwischen dem Wort "Wort" und der Referenz Ref k in folgender
Weise definiert:
Um ein Wort oder eine Referenz zu vergleichen oder zwei
Worte untereinander, berechnet man die Distanzen δ l für die
Verschiebungen von l = +l₁ bis l = -l₁ in Schritten von
einer Einheit. Als Beispiel l₁ = 2.
Die Klassierung der Kandidaten kann in folgender Weise
erfolgen:
Man notiert
Man notiert
δ* k = MIN [δ l (Wort, Ref k )]
Man berechnet die Tabelle der Distanzen T definiert durch:
T = {δ* k ; k = 1, 2, . . ., n}
Um die Klassierung der Kandidaten zu erhalten, sortiert man
die Elemente, um eine geordnete Gesamtheit Cdd zu erhalten,
definiert durch:
Cdd = {Cdd; k = 1, . . ., n}
mit Cdd k ε {1, . . ., n}
mit Cdd k ε {1, . . ., n}
derart, daß
Der erste Kandidat ist demgemäß die Referenz mit dem Index
C dd 1, und der zweite Kandidat ist demgemäß die Referenz mit dem
Index C ddi .
Ausgehend von diesem Berechnungsmodus des Abstands
zwischen zwei Worten ist es möglich, die Unterprogramme
116 und 122 aus Fig. 4 weiter zu erläutern. Das Unterprogramm
116 ist dasjenige, das es ermöglicht, festzustellen,
ob es sich um eine Wiederholung des gesprochenen Wortes
handelt oder nicht zum Auslösen (oder Nichtauslösen) der
Fehlerprozedur. Um zu wissen, ob eine Wiederholung vorliegt
oder nicht, verwendet man die folgenden Bedingungen:
Die Bedingung, bei der eine Wiederholung vorliegen soll
ist:
AU (B∩D) ≠ 0
In diesen Beziehungen repräsentieren S 1, S 2 und S 3 Schwellen,
δ₁ repräsentiert die Distanz zwischen dem gerade gesprochenen
Wort und dem vorher gesprochenen Wort und BEST repräsentiert
die Distanz zwischen dem gerade gesprochenen Wort
und der ähnlichsten Referenz, enthalten in den Speichern. S₁
ist immer kleiner als S₃. Als Beispiel beträgt die Schwelle
S₁ 0,2, die Schwelle S₂ -0,08 und die Schwelle S₃ 0,5. Man
erkennt demgemäß, daß dieser Entscheidungsalgorithmus entweder
eine absolute Distanz (A) oder eine Doppelbedingung eingreifen
läßt, die auf eine Absolutschwelle zurückgeht und
auf eine Relativschwelle, verglichen mit der kleinsten Distanz
zwischen dem gesprochenen Wort und den Worten enthalten im
Vokabular. Natürlich werden δ₁ und BEST berechnet, wie oben
angegeben für die Bestimmung der Distanz zwischen zwei Worten.
Das Unterprogramm 122 hat zum Ziel festzuhalten, ob das
gesprochene Wort das erste Wort ist, welches die Fehlerprozedur
ausgelöst hat. Der verwendete Algorithmus lautet:
wobei δ₂ die Distanz zwischen dem gesprochenen Wort und
dem ersten Wort darstellt, das die Fehlerprozedur ausgelöst
hat, BEST identisch mit der Variablen ist, die im vorhergehend
definierten Algorithmus verwendet wurde und S₄ eine
andere Schwelle bezeichnet, die beispielsweise 0,1 beträgt.
Es ist festzuhalten, daß die Bedingungen A, B und D, die
in den Test 116 eingehen, jeweils einer bestimmten Funktionsbedingung
entsprechen.
Die Bedingung B = 1 ist die Normalerfassungsbedingung
der Wiederholung eines gesprochenen Wortes. Es bedeutet
einfach, daß δ₁ kleiner als BEST sein soll, d. h., daß die
Distanz zwischen dem vorher gesprochenen Wort kleiner sein
soll als die Distanz zwischen dem gerade ausgesprochenen
Wort und dem ersten Kandidaten. Im Falle geringer Geräusche
werden die beiden Abstände δ₁ und BEST beide etwas vergrößert
und das Kriterium bleibt gültig. Im Falle der Überlagerung
eines starken Lärms bei dem gesprochenen Wort jedoch,
kann eintreten, daß die Bedingung B = 1 erfüllt wird, obwohl
keine Wiederholung vorliegt. Die Absolutschwelle S₃ für δ₁
hat die Aufgabe, eine fehlerhafte Wiederholungserfassung bei
der Schwelle zu verhindern, bei der Kondition B = 1.
Die dritte Bedingung A = 1 hat zum Ziel, das Risiko einer
Blockierung des Systems nach einer vorläufigen fehlerhaften
Lernphase zu vermeiden, die zur Eingabe einer Referenz geführt
hat, entsprechend einem Wort in der Speicherposition,
die einem anderen Wort zugeordnet ist. Das kann mit der folgenden
Sequenz geschehen.
Der Benutzer spricht "ON" aus und die Anzeigeanordnung
zeigt "OFF". Der Benutzer wiederholt demgemäß "ON", was die
Fehlerprozedur (PE) auslöst und das Wort "FAST" wird angezeigt.
Der Benutzer wiederholt erneut "ON" und das Wort
"DOWN" wird angezeigt. Darüber hinaus läßt der Benutzer die
Wartezeit d₁ verstreichen. Die autoadaptive Lernprozedur
führt die Referenz ON in diejenige Position des Speichers
ein, die dem Wort DOWN zugeordnet ist. Wenn der Benutzer erneut
das Wort ON ausspricht, kann BEST (Abstand zwischen dem
ausgesprochenen ON und dem in der Position DOWN befindlichen
ON) häufig kleiner sein als (Abstand zwischen ON ausgesprochen
und ON vorher ausgesprochen). Dies macht die Erfassung
der Wiederholung zufällig, so daß in diesem Falle man den
oben beschriebenen Fehler eine Sicherung vorschieben muß.
Dies ist die Bedingung A = 1, die nach Verifikation es ermöglicht,
die Wiederholung zu erfassen.
Die Fig. 6 ist ein Algorithmus des Unterprogramms 104
für die Eingabe kodierter Worte. Dieses Unterprogramm hat
im wesentlichen zum Ziel, den Wert des Parameters S festzulegen,
der 0, 1 oder 2 betragen kann. Dieses Unterprogramm
bezieht sich auf Hilfsvariable L der Wortlänge und X, was
eine Binärzahl mit sieben Bits bedeutet und ein Abtastmuster
des Wortes darstellt. Es handelt sich demgemäß um eine Spalte
der Matrizen, die in Fig. 5a und 5b gezeigt sind.
In dem Programm wird an einem Anfangs- oder Eingangspunkt
200 mittels der Befehle 202 die Anfangssetzung der Parameter
S auf S₀ und des Parameters L auf 0 vorgenommen. Der Takt des
Mikroprozessors liefert die Taktimpulse CK mit einer Frequenz
von 100 Hz. S₀ entspricht der Wartezeit d₁ aus der Fig. 3.
Wenn demgemäß die Wartezeit d₁ gleich 5 Sekunden gewählt wird,
hat S₀ den Wert 500. Die Befehle 204 und 206, welche die Impulse
CK mit Logikpegeln 0 bzw. 1 mit ihrer Meldung vergleichen,
haben einfach die Aufgabe, das Programm mit der Taktfrequenz
von 100 Hz zu synchronisieren. Bei 208 werden die
Abtastmuster X, herrührend vom Kodierschaltkreis nacheinander
mit Frequenz von 100 Hz eingegeben. Der Befehl 210 vergleicht
X mit 0. Die Antwort ist positiv (X = 0), wenn die 7
Bits wirklich den Wert 0 aufweisen. Die Antwort ist negativ,
wenn mindestens eines der Bits von 0 abweicht. Wenn die Antwort
negativ ist, setzt der Befehl 212 den Wert S₁ für den
Parameter S. S₁ hat beispielsweise den Wert 20. Danach inkrementiert
der Befehl 214 um eine Einheit den Parameter L und
der Befehl 216 lädt in den Speicher 8 c in kodierter Form
oder nicht kodierter Form das Abtastmuster von sieben Bits X.
Das Programm kehrt zum Befehl 204 zurück für die Eingabe des
folgenden Abtastmusters.
Wenn das Abtastmuster X gleich null ist (Befehl 210),
wird der Parameter S um eine Einheit von dem Befehl 218 dekrementiert.
Bei 220 wird der Parameter S mit 0 verglichen.
Wenn die Antwort positiv ist (S = 0), wird der Parameter L mit
null verglichen bei 222. Wenn die Antwort positiv ist (L = 0),
geht man zum Ausgang des Unterprogramms, d. h. man geht zum
Befehl 106 aus Fig. 4 über. Der Parameter S hat den Wert null.
Wenn der Operator 220 eine negative Antwort liefert (S ≠ 0),
vergleicht der Befehl 224 den Parameter L mit null. Wenn das
Ergebnis des Vergleichs positiv ist (L = 0), geht man direkt
zum Befehl 216, der in dem Speicher 8 c das getestete Abtastmuster
einschreibt. Wenn die Antwort negativ ist (L ≠ 0), geht
man zum Befehl 214.
Wenn die Antwort auf den Vergleich gemäß Befehl 222 negativ
ist (L ≠ 0), geht man zum Befehl 224, bei dem es sich tatsächlich
um ein Unterprogramm für die Erfassung der Gültigkeit
des Wortes handelt. Dieser Test wurde bereits erläutert. In
dieser Ausführungsform kann eine zusätzliche Bedingung eingeführt
werden, nämlich beispielsweise, daß der Parameter L
größer oder gleich zehn sei. Wenn das Wort ungültig ist, setzt
der Befehl 226 den Parameter S auf den Wert eins und wenn das
Wort gültig ist, setzt der Befehl 228 den Parameter L auf 2.
Die Funktion des Unterprogramms ergibt sich klar aus der
vorstehenden Erläuterung. Solange kein Abtastmuster von null
abweicht, bleibt der Parameter L null und der Parameter S wird
um eine Einheit bei jedem Schleifendurchlauf dekrementiert.
Wenn 500 aufeinanderfolgende Schleifen durchlaufen sind und X
konstant bei null bleibt, erreicht der Parameter S den Wert
null mit einem Wert von L, der ebenfalls null beträgt. Dies
zeigt, daß kein Wort während der Verzögerungszeit d₁, die
fünf Sekunden betrug, gesprochen wurde. Der Parameter S hat
den Wert null. Sobald ein Abtastmuster X abweichend von null
erscheint, nimmt der Parameter L den Wert eins an und
der Parameter S den Wert S₁, d. h. zwanzig. Diese Inkrementierung
auf S₁ zeigt an, daß in diesem Falle, falls während
zwanzig Schleifendurchläufen X null geblieben ist, das Wort
als beendet angesehen wird, da der Befehl 218 den Parameter
S auf null gesetzt haben wird. Unter dieser Bedingung wird,
falls der Befehl 224 festgestellt hat, daß das von den aufeinanderfolgenden
Mustern X gebildete Wort gültig ist, dem
Parameter S der Wert zwei zugeordnet; im anderen Falle ist
es der Wert eins, der ihm zugeordnet wird.
In der vorstehenden Erläuterung wurde von der Eingabe
eines einzigen Wortes ausgegangen. Dieser Steuermodus entspricht
konkret dem Fall, wo die zu gebenden Befehle des
Geräts jeweils ein einziges Wort umfassen. Es ist dabei
klar, daß bestimmte Befehle mehrere isolierte Worte umfassen
können. Um beispielsweise eine bestimmte Zahlenangabe,
die zu einem Funktionsbefehl gehört, dem Gerät zu
übermitteln, muß beispielsweise das Wort ON eingegeben werden
und danach die Worte entsprechend den gewünschten Ziffern.
Es ist demgemäß erforderlich, daß die Eingabeanordnung
"versteht", daß die aufeinanderfolgend ausgesprochenen
Worte, die einen Teil eines desselben Befehls bilden, voneinander
getrennt zu behandeln sind. Aus diesem Grunde muß
der Benutzer die Wartezeit d₁ zwischen dem Ende der Eingabe
eines Wortes des Befehls und dem Anklingen des folgenden
Wortes verstreichen lassen. Diese Verzögerung kann dem
Benutzer beispielsweise durch ein Blinksignal der Anzeigeanordnung
übermittelt werden oder durch Verwendung eines
akustischen Signals. In dem beschriebenen Beispiel ist die
Wartezeit d₁ auf 5 Sekunden festgesetzt.
Im Falle, wo der erste Kandidat viel näher dem gesprochenen
Wort ist als der zweite Kandidat, ist es quasi sicher,
daß dieser erste Kandidat tatsächlich das richtige
Wort ist. Mit anderen Worten ist es quasi sicher, daß der
Benutzer dieses Wort nicht wiederholen wird. Es ist demgemäß
interessant, in diesem Falle den Wert von d₁ zu verringern.
Für diesen Zweck kann man Y berechnen, das folgendermaßen
definiert ist:
wobei δ* Cdd₁ den Abstand zwischen dem gesprochenen Wort
und dem ersten Kandidaten bedeutet und δ* Cdd₂ den Abstand
zwischen dem zweiten Wort und dem Kandidaten. Y liegt zwischen
0 und 1. Je größer Y ist, desto sicherer ist das
Wiedererkennen des ersten Kandidaten. Es ist demgemäß möglich,
d₁ zu verringern, sobald Y größer ist als irgendein
Wert a, wobei der Wert von d₁ definiert sein kann als eine
absteigende Funktion f von Y. Man kann beispielsweise a =
0,3 wählen und d max (1-Y/2) mit d max = 5 Sekunden.
Die Bedingung Y a mit a impliziert das
Der zweite Kandidat muß demgemäß mindestens um deutlich
das Zweifache "unähnliche" dem gesprochenen Wort sein als
der erste Kandidat.
Im Algorithmus nach Fig. 6 bedeutet dies, daß S variabel
ist. In dem Algorithmus nach Fig. 4 ist demgemäß ein Unterprogramm
150 hinzuzufügen, welches Y berechnet und Y mit
a vergleicht sowie berechnet:
S₀ = S₀f(Y) si Y a.
Allgemeiner gesagt, kann die Berechnung von Y ersetzt
werden durch die Berechnung einer Funktion f₁ (δ* Cdd₁, δ* Cdd₂),
welche die Werte von δ* Cdd₁ und von w* Cdd₂ vergleicht.
Diese Funktion muß null sein für δ* Cdd₁ = δ* Cdd₂ und den Wert
haben für δ* Cdd₁ = 0 und δ* Cdd₂ = 1. Falls f₁ (δ* Cdd₁, δ* Cdd₂)
größer ist als a, berechnet man demgemäß d₁ = d max f 2 (f₁).
f₂ ist eine absteigende Funktion von f₁ mit numerischen
Werten, die strikt zwischen 0 und 1 liegen.
Das Hauptinteresse der Worteingabeanordnung gemäß der
Erfindung ergibt sich klar aus vorstehender Erläuterung.
Die normale Benutzung der Anordnung, d. h. die Eingabe von
Worten zum Steuern des zugeordneten Gerätes und der Lernvorgang
sind eng miteinander verflochten und können tatsächlich
gleichzeitig ablaufen. Man vermeidet auf diese Weise
gegenüber dem Lernvorgang mit Werkseingabe eine lange und
ermüdende Phase, die strikt für den Lernvorgang reserviert
ist und ermöglicht eine Auswechselung des Benutzers, ohne
daß die Gesamtheit der eingegebenen Referenzen zu erneuern
ist. Es brauchen nämlich nur die Worte ausgetauscht zu werden,
deren Aussprache sich ändern wird. Darüber hinaus betrifft
die Lernphase nur jene Worte, die man wirklich benutzen will
und die Anordnung zeigt dem Benutzer nacheinander die Worte,
die er der Worteingabeanordnung erneut beibringen muß.
Durchgeführte Versuche haben gezeigt, daß diese Anordnung
eine viel größere Flexibilität und eine viel einfachere Benutzung
mit sich bringt, wenn irgendein Gerät, beispielsweise
eines mit Digitalanzeige, zu steuern ist. Dieses Ergebnis
beruht wahrscheinlich auf der Tatsache, daß bei der mehrfachen
Wiederholung ein- und desselben Wortes durch den Benutzer
die Aussprache sich kaum ändert und man demgemäß die
Wiederholung leicht feststellen kann. Mit der Anordnung gemäß
der Erfindung führt diese Wiederholung nicht nur zu einem
erneuten Lernvorgang, sondern zugleich zur Eingabe des Wortes
und demgemäß des Kommandos in einer gewünschten Funktion. Im
Falle der Eingabe von Referenzen ab Werk muß der Benutzer das
Wort so lange wiederholen, bis seine eigene Aussprache dieses
Wortes mit derjenigen des Standardsprechers oder Lesers im
Werk zusammenfällt. Im Falle der Anfangslernphase durch den
Benutzer selbst vergeht eine gewisse Zeit zwischen der Lernphase
und der wirksamen Phase der Worteingabe. Es gibt ein
erhebliches Risiko, das die Aussprache dieses Wortes nicht
dieselbe sein wird. Die Worteingabe kann demgemäß gegebenenfalls
unmöglich sein und man muß die gesamte Lernphase wiederholen.
Es scheint, daß die Flexibilität der Benutzung der Anordnung
gemäß der Erfindung im wesentlichen auf der Tatsache
beruht, daß jede Wiederholung eines Wortes oder genauer gesagt
bei jedem Mal, daß die Anordnung eine Wiederholung erfaßt,
die Anzeigeeinrichtungen den folgenden Kandidaten in
der Reihenfolge der absteigenden Ähnlichkeit präsentiert,
ohne daß eine Modifikation in der Klassifizierung der Kandidaten
vorgenommen wird. Während der Anfangslernphase hingegen
ist es immer der erste Kandidat, der angezeigt wird. Es ergibt
demgemäß keinerlei Fortschritt in der Anzeige der Kandidaten.
Es ist festzuhalten, daß Umgebungsgeräusche die Funktion
der Worteingabeanordnung nicht stören. Im Falle von Geräuschen
höheren Pegels ändert sich die Wiederholung von zwei aufeinanderfolgenden
Worten in derselben Weise wie die Ergebnisse
der Korrelation mit den Referenzen. Jenseits der Schwelle S₃
jedoch erfaßt die Anordnung die Wiederholung nicht und man
gelangt nicht zur Fehlerprozedur. Dies verbietet jegliche Modifikationen
der Referenzen unter solchen ungünstigen akustischen
Bedingungen und stellt demgemäß gleichzeitig eine gute
Immunität gegen Lärm sicher, ohne daß in anderer Weise das
System seine Funktion einstellt. Man kann sagen, daß in einer
Umgebung mit hohem Lärmpegel die aufeinanderfolgenden Wiederholungen
ein- und desselben Wortes nicht als solches erkannt
werden. Das System liefert demgemäß jedesmal den ersten Kandidaten
als Antwort. Der erste Kandidat ändert sich praktisch
jedesmal und der Benutzer hat demgemäß statistisch gute Chancen,
daß nach einer begrenzten Anzahl von Versuchen das richtige
Wort angezeigt wird. Darüber hinaus enthält solcher Lärm,
etwa das Geräusch von Gesprächen, Augenblicke der Stille,
die es dem System ermöglichen, ein nicht gestörtes Wort zu
empfangen.
In der vorstehenden Erläuterung wurde auch beschrieben,
daß die Klassierung der Kandidaten sich auf die Gesamtheit
der n Worte des Vokabulars bezieht, das der Steuerung das
der Worteingabeanordnung zugeordneten Gerätes dient. Es
versteht sich von selbst, daß das Vokabular in mehrere Gruppen
unterteilt werden kann. Die Klassierung der Kandidaten
erfolgt dann nur unter den Worten dieser Gruppe, d. h. unter
n₁ Worten (n₂<n). Der Festwertspeicher 8 a hingegen enthält
natürlich die Gesamtheit des Vokabulars. Die Anordnung umfaßt
in diesem Fall ein Unterprogramm, das es ermöglicht,
die Worte der betreffenden Gruppe zu definieren. Man erkennt,
daß durch Herabsetzung der Anzahl von Referenzen, die zu berücksichtigen
sind, die Möglichkeit gegeben ist, die Kodierung
zu vereinfachen und die Vergleichsalgorithmen weniger
schwierig zu gestalten. Dies ermöglicht eine Verringerung
der Anzahl von Speicherplätzen in dem Random-Speicher und
der Anzahl von Binärpositionen, die für die Kodierung eines
Wortes erforderlich sind.
Claims (6)
1. Worteingabeanordnung für sprachgesteuerte Geräte mit
- - einer Kodiereinrichtung (2, 4) für jedes von einem Sprecher gesprochene Wort gemäß einem ersten vorgegebenen Algorithmus zur Ableitung eines kodierten Wortes,
- - einer Speichereinrichtung (8) zum Speichern von n Referenzen entsprechend jeweils der Kodierung eines der n Worte gemäß dem ersten Algorithmus und mindestens eines von dem Sprecher gesprochenen Wortes in kodierter Form,
- - einem Steuerschaltkreis (6) mit einem Klassifizierschaltkreis (14) zum Zuordnen eines Ähnlichkeitsranges zu jeder gespeicherten Referenz und einem Anzeigesteuerkreis (18) zur Steuerung der Anzeige der gespeicherten Referenz, die den ersten Ähnlichkeitsrang besitzt, in Abhängigkeit von einem zweiten Algorithmus,
- - einer Anzeigeeinrichtung (10) zum Anzeigen eines der n Worte, und
- - einer Steuereinrichtung (21) für die Änderung der Referenzen,
dadurch gekennzeichnet, daß
- a) der Steuerschaltkreis (6) eine Detektoreinrichtung (16) umfaßt zum Erfassen einer Wiederholung eines vorhergehend gesprochenen Wortes bei zwei aufeinanderfolgenden Worten in Abhängigkeit von einem dritten vorgegebenen Algorithmus,
- b) der Anzeigesteuerkreis (18) derart ausgebildet ist, daß im Falle der Wiederholung dasjenige Wort angezeigt wird, das in der Reihenfolge der Ähnlichkeiten dem unmittelbar zuvor angezeigten Wort folgt, und
- c) eine Anordnung (20) zum Modifizieren der in der Speichereinrichtung (8) enthaltenen Referenzen vorgesehen ist, die die Referenz, die dem zuletzt angezeigten Wort zugeordnet ist, durch die Information entsprechend der Kodierung des wiederholten Wortes ersetzt, wobei diese Substitution durch Betätigung der Steuereinrichtung (21) aktiviert wird.
2. Anordnung nach Anspruch 1, dadurch gekennzeichnet, daß die
Steuereinrichtung (21) zum Ändern der Referenzen umfaßt:
- - Mittel zum Festlegen einer Zeitdauer d₁,
- - Mittel (32, 34) zum Vergleichen der Zeit, die zwischen einem gesprochenen Wort und dem vorher gesprochenen Wort verstrichen ist, mit einer Referenzzeitdauer d₁, wobei die Steuerorgane aktiviert werden, wenn diese Zeitdauer größer oder gleich d₁ ist.
3. Anordnung nach Anspruch 2, dadurch gekennzeichnet, daß der
Klassifizierschaltkreis (14) umfaßt:
- - Mittel zum Messen des Abstandes zwischen einem kodierten gesprochenen Wort und den Referenzen und
- - Mittel zum Klassieren der Referenzen in aufsteigender Reihenfolge dieser Distanzen.
4. Anordnung nach Anspruch 3, dadurch gekennzeichnet, daß die
Mittel zum Festlegen der Zeitdauer d₁ umfassen:
- - Mittel (150) zum Festlegen einer Funktion f₁ (δ* Cdd₂, δ* Cdd₁), worin δ* Cdd₂ die Distanz zwischen einem gesprochenen Wort und der Referenz repräsentiert, welche den zweiten Ähnlichkeitsrang einnimmt, und δ* Cdd₁ die Distanz zwischen dem gesprochenen Wort und der Referenz repräsentiert, die den ersten Ähnlichkeitsrang einnimmt, wobei diese Funktion 0 ist für δ* Cdd₂ = δ* Cdd₁ und 1 ist für δ* Cdd₁ = 0 und δ* Cdd₂ = 1;
- - Mittel zum Vergleichen des Wertes der Funktion f₁ mit einer Zahl a, die strikt zwischen 0 und 1 liegt, und
- - Mittel zum Setzen der Zeitdauer d₁ auf den Wert d max , wenn f₁ kleiner als a ist, und auf den Wert d max f₂(f₁) in dem gegenteiligen Falle, wobei f₂ eine absteigende Funktion von f₁ für numerische Werte ist, die strikt zwischen 0 und 1 liegen.
5. Anordnung nach Anspruch 3, dadurch gekennzeichnet, daß die
Detektoreinrichtung (16) umfaßt:
- - Mittel zum Festlegen eines Abstandes δ₁ zwischen einem gesprochenen Wort und dem vorhergehend gesprochenen Wort,
- - Mittel zum Festlegen eines Abstandes Best zwischen dem gesprochenen Wort und der Referenz, welche den ersten Ähnlichkeitsrang einnimmt,
- - Mittel zum Festlegen des Verhältnisses
- - Mittel zum Vergleich des Wertes von Z mit einem Schwellenwert S₂, wobei S₂<1,
- - Mittel zum Vergleichen des Wertes δ₁ mit einem ersten Schwellenwert S₁ und einem zweiten Schwellenwert S₃, die positiv und kleiner als 1 sind mit S₁<S₃ und
- - Mittel (116) zum Feststellen, daß eine Wiederholung stattgefunden hat, falls δ₁ kleiner als S₁ oder wenn gleichzeitig Z kleiner als S₂ und δ₁ kleiner als S₃ sind.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CH3179/81A CH644246B (fr) | 1981-05-15 | 1981-05-15 | Dispositif d'introduction de mots a commande par la parole. |
Publications (2)
Publication Number | Publication Date |
---|---|
DE3216800A1 DE3216800A1 (de) | 1982-12-02 |
DE3216800C2 true DE3216800C2 (de) | 1988-03-10 |
Family
ID=4250332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19823216800 Granted DE3216800A1 (de) | 1981-05-15 | 1982-05-05 | Anordnung zur eingabe von befehlsworten durch sprache |
Country Status (6)
Country | Link |
---|---|
US (1) | US4509133A (de) |
JP (1) | JPS57198500A (de) |
CH (1) | CH644246B (de) |
DE (1) | DE3216800A1 (de) |
FR (1) | FR2510794A1 (de) |
GB (1) | GB2098773B (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4002336A1 (de) * | 1989-01-27 | 1990-08-02 | Ricoh Kk | Bezugsmuster-erneuerungsverfahren |
DE19824450A1 (de) * | 1998-05-30 | 1999-12-02 | Grundig Ag | Verfahren und Vorrichtung zur Verarbeitung von Sprachsignalen |
DE10191732B4 (de) * | 2000-05-04 | 2005-10-06 | Visteon Global Technologies, Inc., Dearborn | Selektive Sprecheradaption für ein fahrzeuggebundenes Spracherkennungssystem |
Families Citing this family (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3309566A1 (de) * | 1983-03-17 | 1984-09-20 | Standard Elektrik Lorenz Ag, 7000 Stuttgart | Bedienungseinrichtung fuer ein teilnehmergeraet eines informationssystems |
US4618984A (en) * | 1983-06-08 | 1986-10-21 | International Business Machines Corporation | Adaptive automatic discrete utterance recognition |
GB2155217A (en) * | 1983-08-22 | 1985-09-18 | Bernard Albert Hunn | Mind simulator |
NL8401862A (nl) * | 1984-06-13 | 1986-01-02 | Philips Nv | Werkwijze voor het herkennen van een besturingskommando in een systeem, en een interaktief systeem voor het uitvoeren van de werkwijze. |
DE3515881C2 (de) * | 1985-05-03 | 1995-05-04 | Deutsche Aerospace | Schaltungsanordnung zum im Vergleichstakt synchronen größenmäßigen Einsortieren einer aktuellen digitalen Wertgröße |
US4797927A (en) * | 1985-10-30 | 1989-01-10 | Grumman Aerospace Corporation | Voice recognition process utilizing content addressable memory |
CA1311059C (en) * | 1986-03-25 | 1992-12-01 | Bruce Allen Dautrich | Speaker-trained speech recognizer having the capability of detecting confusingly similar vocabulary words |
US4908864A (en) * | 1986-04-05 | 1990-03-13 | Sharp Kabushiki Kaisha | Voice recognition method and apparatus by updating reference patterns |
WO1988000371A1 (en) * | 1986-07-07 | 1988-01-14 | Newex, Inc. | Peripheral controller |
GB8617389D0 (en) * | 1986-07-16 | 1986-08-20 | British Telecomm | Speech recognition |
US5347612A (en) * | 1986-07-30 | 1994-09-13 | Ricoh Company, Ltd. | Voice recognition system and method involving registered voice patterns formed from superposition of a plurality of other voice patterns |
US4827520A (en) * | 1987-01-16 | 1989-05-02 | Prince Corporation | Voice actuated control system for use in a vehicle |
US4860360A (en) * | 1987-04-06 | 1989-08-22 | Gte Laboratories Incorporated | Method of evaluating speech |
DE3819178A1 (de) * | 1987-06-04 | 1988-12-22 | Ricoh Kk | Spracherkennungsverfahren und -einrichtung |
EP0302614B1 (de) * | 1987-07-16 | 1993-03-10 | Fujitsu Limited | Spracherkennungseinrichtung |
GB2207783B (en) * | 1987-08-07 | 1991-05-22 | Casio Computer Co Ltd | Recording/reproducing apparatus with voice recognition function |
US4984177A (en) * | 1988-02-05 | 1991-01-08 | Advanced Products And Technologies, Inc. | Voice language translator |
GB8813713D0 (en) * | 1988-06-09 | 1988-07-13 | Harvey P D | Hands free environmental controller |
US4984274A (en) * | 1988-07-07 | 1991-01-08 | Casio Computer Co., Ltd. | Speech recognition apparatus with means for preventing errors due to delay in speech recognition |
US5127055A (en) * | 1988-12-30 | 1992-06-30 | Kurzweil Applied Intelligence, Inc. | Speech recognition apparatus & method having dynamic reference pattern adaptation |
US5007081A (en) * | 1989-01-05 | 1991-04-09 | Origin Technology, Inc. | Speech activated telephone |
EP0453511A4 (en) * | 1989-01-05 | 1993-05-26 | Origin Technology, Inc. | A speech processing apparatus and method therefor |
GB8908205D0 (en) * | 1989-04-12 | 1989-05-24 | Smiths Industries Plc | Speech recognition apparatus and methods |
JPH067348B2 (ja) * | 1989-04-13 | 1994-01-26 | 株式会社東芝 | パタン認識装置 |
US5144672A (en) * | 1989-10-05 | 1992-09-01 | Ricoh Company, Ltd. | Speech recognition apparatus including speaker-independent dictionary and speaker-dependent |
JP3088739B2 (ja) * | 1989-10-06 | 2000-09-18 | 株式会社リコー | 音声認識システム |
JP2989211B2 (ja) * | 1990-03-26 | 1999-12-13 | 株式会社リコー | 音声認識装置における辞書制御方式 |
GB2253296B (en) * | 1991-02-28 | 1995-05-24 | Toshiba Kk | Pattern recognition apparatus |
FI97919C (fi) * | 1992-06-05 | 1997-03-10 | Nokia Mobile Phones Ltd | Puheentunnistusmenetelmä ja -järjestelmä puheella ohjattavaa puhelinta varten |
US5850627A (en) * | 1992-11-13 | 1998-12-15 | Dragon Systems, Inc. | Apparatuses and methods for training and operating speech recognition systems |
US5428707A (en) * | 1992-11-13 | 1995-06-27 | Dragon Systems, Inc. | Apparatus and methods for training speech recognition systems and their users and otherwise improving speech recognition performance |
US6092043A (en) * | 1992-11-13 | 2000-07-18 | Dragon Systems, Inc. | Apparatuses and method for training and operating speech recognition systems |
US5890122A (en) * | 1993-02-08 | 1999-03-30 | Microsoft Corporation | Voice-controlled computer simulateously displaying application menu and list of available commands |
CA2115210C (en) * | 1993-04-21 | 1997-09-23 | Joseph C. Andreshak | Interactive computer system recognizing spoken commands |
US5787231A (en) * | 1995-02-02 | 1998-07-28 | International Business Machines Corporation | Method and system for improving pronunciation in a voice control system |
US5748191A (en) * | 1995-07-31 | 1998-05-05 | Microsoft Corporation | Method and system for creating voice commands using an automatically maintained log interactions performed by a user |
US5761641A (en) * | 1995-07-31 | 1998-06-02 | Microsoft Corporation | Method and system for creating voice commands for inserting previously entered information |
US5857172A (en) * | 1995-07-31 | 1999-01-05 | Microsoft Corporation | Activation control of a speech recognizer through use of a pointing device |
US5864815A (en) * | 1995-07-31 | 1999-01-26 | Microsoft Corporation | Method and system for displaying speech recognition status information in a visual notification area |
US6067521A (en) * | 1995-10-16 | 2000-05-23 | Sony Corporation | Interrupt correction of speech recognition for a navigation device |
KR19990087167A (ko) * | 1996-12-24 | 1999-12-15 | 롤페스 요하네스 게라투스 알베르투스 | 음성 인식 시스템 훈련 방법 및 그 방법을실행하는 장치,특히, 휴대용 전화 장치 |
US5933804A (en) * | 1997-04-10 | 1999-08-03 | Microsoft Corporation | Extensible speech recognition system that provides a user with audio feedback |
DE19754383A1 (de) * | 1997-12-08 | 1999-06-10 | Siemens Ag | Verfahren und Vorrichtung zur Verarbeitung gesprochener Sprache |
US6163768A (en) * | 1998-06-15 | 2000-12-19 | Dragon Systems, Inc. | Non-interactive enrollment in speech recognition |
DE19839466A1 (de) | 1998-08-29 | 2000-03-09 | Volkswagen Ag | Verfahren und Steuereinrichtung zur Bedienung technischer Einrichtungen eines Fahrzeugs |
EP1194903B1 (de) | 1999-05-26 | 2013-11-13 | Johnson Controls Technology Company | System und verfahren zur drahtlosen kommunikation |
US7346374B2 (en) | 1999-05-26 | 2008-03-18 | Johnson Controls Technology Company | Wireless communications system and method |
GB2365188B (en) * | 2000-07-20 | 2004-10-20 | Canon Kk | Method for entering characters |
US6556971B1 (en) * | 2000-09-01 | 2003-04-29 | Snap-On Technologies, Inc. | Computer-implemented speech recognition system training |
JP4593108B2 (ja) | 2001-11-01 | 2010-12-08 | スコット・ラボラトリーズ・インコーポレイテッド | 鎮静および鎮痛送出システムのユーザインタフェース |
US6688652B2 (en) * | 2001-12-12 | 2004-02-10 | U.S. Pipe And Foundry Company | Locking device and method for securing telescoped pipe |
US7324942B1 (en) | 2002-01-29 | 2008-01-29 | Microstrategy, Incorporated | System and method for interactive voice services using markup language with N-best filter element |
US6882974B2 (en) * | 2002-02-15 | 2005-04-19 | Sap Aktiengesellschaft | Voice-control for a user interface |
KR100552693B1 (ko) * | 2003-10-25 | 2006-02-20 | 삼성전자주식회사 | 피치검출방법 및 장치 |
US8788271B2 (en) * | 2004-12-22 | 2014-07-22 | Sap Aktiengesellschaft | Controlling user interfaces with contextual voice commands |
US7409344B2 (en) * | 2005-03-08 | 2008-08-05 | Sap Aktiengesellschaft | XML based architecture for controlling user interfaces with contextual voice commands |
JP5331710B2 (ja) | 2006-10-11 | 2013-10-30 | ジョンソン コントロールズ テクノロジー カンパニー | 無線ネットワーク選択 |
EP2199877B1 (de) * | 2008-11-05 | 2011-07-27 | The Swatch Group Research and Development Ltd. | Armbanduhr mit eingebautem Mikrophon im Uhrgehäuse |
US8577671B1 (en) | 2012-07-20 | 2013-11-05 | Veveo, Inc. | Method of and system for using conversation state information in a conversational interaction system |
US9465833B2 (en) | 2012-07-31 | 2016-10-11 | Veveo, Inc. | Disambiguating user intent in conversational interaction system for large corpus information retrieval |
US10121493B2 (en) * | 2013-05-07 | 2018-11-06 | Veveo, Inc. | Method of and system for real time feedback in an incremental speech input interface |
US9946757B2 (en) | 2013-05-10 | 2018-04-17 | Veveo, Inc. | Method and system for capturing and exploiting user intent in a conversational interaction based information retrieval system |
US9852136B2 (en) | 2014-12-23 | 2017-12-26 | Rovi Guides, Inc. | Systems and methods for determining whether a negation statement applies to a current or past query |
US9854049B2 (en) | 2015-01-30 | 2017-12-26 | Rovi Guides, Inc. | Systems and methods for resolving ambiguous terms in social chatter based on a user profile |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3812291A (en) * | 1972-06-19 | 1974-05-21 | Scope Inc | Signal pattern encoder and classifier |
GB1435779A (en) * | 1972-09-21 | 1976-05-12 | Threshold Tech | Word recognition |
US4394539A (en) * | 1981-03-24 | 1983-07-19 | Chu Tsan Chen | Timepiece with automatic time setting system thru dial telephone line and automatic speed adjusting system |
-
1981
- 1981-05-15 CH CH3179/81A patent/CH644246B/fr unknown
-
1982
- 1982-05-03 US US06/374,019 patent/US4509133A/en not_active Expired - Fee Related
- 1982-05-05 DE DE19823216800 patent/DE3216800A1/de active Granted
- 1982-05-13 GB GB8214001A patent/GB2098773B/en not_active Expired
- 1982-05-13 FR FR8208539A patent/FR2510794A1/fr active Granted
- 1982-05-14 JP JP57080306A patent/JPS57198500A/ja active Granted
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4002336A1 (de) * | 1989-01-27 | 1990-08-02 | Ricoh Kk | Bezugsmuster-erneuerungsverfahren |
DE19824450A1 (de) * | 1998-05-30 | 1999-12-02 | Grundig Ag | Verfahren und Vorrichtung zur Verarbeitung von Sprachsignalen |
DE19824450C2 (de) * | 1998-05-30 | 2001-05-31 | Grundig Ag | Verfahren und Vorrichtung zur Verarbeitung von Sprachsignalen |
DE10191732B4 (de) * | 2000-05-04 | 2005-10-06 | Visteon Global Technologies, Inc., Dearborn | Selektive Sprecheradaption für ein fahrzeuggebundenes Spracherkennungssystem |
Also Published As
Publication number | Publication date |
---|---|
FR2510794A1 (fr) | 1983-02-04 |
FR2510794B1 (de) | 1984-12-28 |
JPH0221599B2 (de) | 1990-05-15 |
CH644246B (fr) | 1900-01-01 |
CH644246GA3 (de) | 1984-07-31 |
DE3216800A1 (de) | 1982-12-02 |
GB2098773A (en) | 1982-11-24 |
JPS57198500A (en) | 1982-12-06 |
US4509133A (en) | 1985-04-02 |
GB2098773B (en) | 1985-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3216800C2 (de) | ||
DE69229816T2 (de) | Einrichtung und Verfahren für Sprachmusteridentifizierung | |
DE3244476C2 (de) | ||
DE3211313C2 (de) | ||
DE69831991T2 (de) | Verfahren und Vorrichtung zur Sprachdetektion | |
DE3600762C2 (de) | Arbeitsverfahren für ein Dialogsystem sowie Dialogsystem zum Durchführen des Verfahrens | |
EP0366192B1 (de) | Textverarbeitungsvorrichtung | |
DE3337353C2 (de) | Sprachanalysator auf der Grundlage eines verborgenen Markov-Modells | |
DE2753277C2 (de) | Verfahren und Einrichtung zur Spracherkennung | |
DE69520067T2 (de) | Verfahren und Einrichtung zur Kennzeichnung eines Eingangssignales | |
DE69414752T2 (de) | Sprecherunabhängiges Erkennungssystem für isolierte Wörter unter Verwendung eines neuronalen Netzes | |
DE60203705T2 (de) | Umschreibung und anzeige eines eingegebenen sprachsignals | |
EP0994461A2 (de) | Verfahren zur automatischen Erkennung einer buchstabierten sprachlichen Äusserung | |
DE3852608T2 (de) | Design und Konstruktion eines binären Entscheidungsbaumsystems zur Sprachmodellierung. | |
DE3884880T2 (de) | Billige Spracherkennungseinrichtung und Verfahren. | |
DE19942178C1 (de) | Verfahren zum Aufbereiten einer Datenbank für die automatische Sprachverarbeitung | |
DE3723078A1 (de) | Verfahren zur erkennung von zusammenhaengend gesprochenen woertern | |
EP1139333A2 (de) | Spracherkennungsverfahren und Spracherkennungsvorrichtung | |
DE2918533A1 (de) | Spracherkennungssystem | |
DE3503306C2 (de) | Verfahren und Vorrichtung zum Erkennen eines Digitaldatensignals | |
DE2524804A1 (de) | Verfahren und vorrichtung zur automatischen spracherkennung | |
EP0836175A2 (de) | Verfahren und Anordnung zum Ableiten wenigstens einer Folge von Wörtern aus einem Sprachsignal | |
DE3878895T2 (de) | Verfahren und einrichtung zur spracherkennung. | |
WO1996022593A1 (de) | Verfahren zur spracherkennung | |
DE3149134A1 (de) | Verfahren und vorrichtung zur bstimmung von sprachendpunkten |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |