DE4029698A1 - Sprachgesteuertes fernbedienungssystem - Google Patents
Sprachgesteuertes fernbedienungssystemInfo
- Publication number
- DE4029698A1 DE4029698A1 DE4029698A DE4029698A DE4029698A1 DE 4029698 A1 DE4029698 A1 DE 4029698A1 DE 4029698 A DE4029698 A DE 4029698A DE 4029698 A DE4029698 A DE 4029698A DE 4029698 A1 DE4029698 A1 DE 4029698A1
- Authority
- DE
- Germany
- Prior art keywords
- voice
- pattern data
- command
- speech recognition
- remote control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000001514 detection method Methods 0.000 claims 1
- 230000015654 memory Effects 0.000 description 17
- 238000012545 processing Methods 0.000 description 14
- 230000005540 biological transmission Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 5
- 238000000034 method Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 240000006829 Ficus sundaica Species 0.000 description 1
- 240000002834 Paulownia tomentosa Species 0.000 description 1
- 235000010678 Paulownia tomentosa Nutrition 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03J—TUNING RESONANT CIRCUITS; SELECTING RESONANT CIRCUITS
- H03J9/00—Remote-control of tuned circuits; Combined remote-control of tuning and other functions, e.g. brightness, amplification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03J—TUNING RESONANT CIRCUITS; SELECTING RESONANT CIRCUITS
- H03J1/00—Details of adjusting, driving, indicating, or mechanical control arrangements for resonant circuits in general
- H03J1/0008—Details of adjusting, driving, indicating, or mechanical control arrangements for resonant circuits in general using a central processing unit, e.g. a microprocessor
- H03J1/0025—Details of adjusting, driving, indicating, or mechanical control arrangements for resonant circuits in general using a central processing unit, e.g. a microprocessor in a remote control unit
Landscapes
- Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Selective Calling Equipment (AREA)
Description
Die vorliegende Erfindung betrifft ein Fernbedienungssy
stem für die Fernbedienung verschiedener elektronischer
Bauelemente und insbesondere ein Fernbedienungssystem für
die Fernbedienung beispielsweise von audiovisuellen
Geräten (AV-Geräten) durch Sprachbefehle gemäß dem Ober
begriff des Anspruches 1.
In den letzten Jahren sind verschiedene AV-Geräte wie
etwa Stereoanlagen, Fernsehempfänger, Kassetten-Tape-
Decks, Video-Tape-Decks, Compactdisc-Spieler, Laserbild
plattenspieler oder ähnliches mit Fernbedienungssystemen
ausgerüstet worden.
Ein Fernbedienungssystem besitzt einen Sender, der norma
lerweise vom zu steuernden AV-Gerät entfernt angeordnet
wird. Wenn der Sender betätigt wird, sendet er ein Fern
bedienungssignal, etwa ein lnfrarot-Fernbedienungssignal,
aus, das von einem im zu steuernden AV-Gerät befindlichen
Empfänger empfangen wird. Das empfangene Fernbedienungs
signal wird dekodiert, um das AV-Gerät entsprechend dem
Fernbedienungssignal zu steuern.
Kürzlich ist ein sprachgesteuertes Fernbedienungssystem
entwickelt worden, das anstelle von über Tasten eingege
benen Steuerbefehlen Sprachsteuerbefehle verwendet. Das
sprachgesteuerte Fernbedienungssystem besitzt ein an ei
nem Sender angebrachtes Mikrophon, das einen Sprachbefehl
in ein elektrisches Sprachsignal umwandelt, und eine
Spracherkennungs-LSI-Schaltung (Großintegrationsschal
tung), die ein einem durch das Sprachsignal dargestellten
Sprachmuster entsprechendes Fernbedienungssignal erzeugt.
Das auf diese Weise erzeugte Fernbedienungssignal wird an
einem in einem zu steuerenden AV-Gerät befindlichen Emp
fänger gesendet.
In einem herkömmlichen sprachgesteuerten Fernbedienungs
system werden die Standardmusterdaten, die den von der
Bedienungsperson gegebenen Sprachbefehlen entsprechen, im
voraus gespeichert. Wenn ein Sprachbefehl für die Fernbe
dienung eingegeben wird, wird dieser Befehl auf der
Grundlage der gespeichertren Standardmusterdaten erkannt.
Der von der Bedienungsperson geäußerte Sprachschall muß
jedoch nicht notwendig stets der gleiche sein. Die Merk
male des von der Bedienungsperson geäußerten Sprach
schalls können gelegentlich von denjenigen abweichen, die
als Standardmusterdaten für diese Bedienungsperson ge
speichert worden sind. Wenn die Sprachschalleigenschaften
variieren, stimmen die Musterdaten eines eingegebenen
Sprachbefehls nicht mit den Standardmusterdaten überein,
so daß die Spracherkennungsrate abgesenkt wird.
Um diesen Nachteil zu vermeiden, ist es notwendig, die
Standardmusterdaten zu einem geeigneten Zeitpunkt erneut
zu speichern. Dieser Prozeß des erneuten Speicherns von
Standardmusterdaten ist jedoch unangenehm und langwierig,
so daß das Fernbedienungssystem nicht bequem handhabbar
ist.
Es ist daher eine Aufgabe der vorliegenden Erfindung, ein
sprachgesteuertes Fernbedienungssystem zu schaffen, das
auch dann eine erhöhte Spracherkennungsrate besitzt, wenn
sich die Sprachschalleigenschaften der Bedienungsperson
mit der Zeit verändern.
Diese Aufgabe wird bei einem Fernbedienungssystem der
gattungsgemäßen Art erfindungsgemäß gelöst durch die
Merkmale im kennzeichnenden Teil des Anspruches 1.
Weitere Merkmale und Vorteile der Erfindung sind im Ne
benanspruch und in den Unteransprüchen angegeben.
Wenn über ein Mikrophon ein Sprachbefehl eingegeben wird,
wandelt ein Spracherkennungsmittel den Inhalt des Sprach
befehls in Musterdaten um und vergleicht die Musterdaten
mit einer Mehrzahl von verschiedenen Standardmusterdaten,
die in Standardmusterdaten-Speicherbereichen eingetragen
worden sind. Dann gibt das Spracherkennungsmittel ein
Fernbedienungs-Befehlssignal an ein Sendemittel, damit
dieses ein Fernbedienungssignal erzeugt.
Wenn über das Mikrophon ein Sprachbefehl eingegeben wird,
wird der Sprachbefehl von Spracherkennungsprozessoren
aufgrund der in ihnen gespeicherten Standardmusterdaten
unabhängig erkannt, anschließend geben diese Spracherken
nungsprozessoren ihre jeweiligen Erkennungsergebnisse
aus. Auf der Grundlage der Erkennungsergebnisse der
Spracherkennungsprozessoren liefert das Spracherkennungs
mittel ein Fernbedienungs-Befehlssignal an das Sendemit
tel, damit dieses ein Fernbedienungssignal erzeugt.
Die Erfindung wird im folgenden anhand von bevorzugten
Ausführungsformen mit Bezug auf die Zeichnungen näher er
läutert; es zeigen:
Fig. 1 ein Blockschaltbild eines allgemeinen Fernbe
dienungssystems;
Fig. 2 eine beispielhafte Darstellung eines Fernbe
dienungssignals;
Fig. 3 ein Blockschaltbild des Senders eines allge
meinen sprachgesteuerten Fernbedienungssy
stems;
Fig. 4 eine perspektivische Ansicht des Senders ei
nes sprachgesteuerten Fernbedienungssystems
gemäß einer ersten Ausführungsform der vor
liegenden Erfindung;
Fig. 5 ein Blockschaltbild des Senders des sprachge
steuerten Fernbedienungssystems gemäß der er
sten Ausführungsform;
Fig. 6 ein Blockschaltbild einer Spracherkennungs
schaltung gemäß der ersten Ausführungsform;
Fig. 7 ein detailliertes Blockschaltbild der
Spracherkennungsschaltung gemäß der ersten
Ausführungsform;
Fig. 8(a) eine Darstellung eines Analogprozessors;
Fig. 8(b) bis 8(f) Darstellungen der Signal-Wellenformen
im in Fig. 8(a) gezeigten Analogprozessor;
Fig. 9 ein Flußdiagramm einer Operationsabfolge des
Senders gemäß der ersten Ausführungsform;
Fig. 10 ein Blockschaltbild des Senders eines sprachge
steuerten Fernbedienungssystem gemäß einer
zweiten Ausführungsform der vorliegenden Er
findung;
Fig. 11 ein Blockschaltbild einer Spracherkennungs
schaltung gemäß der zweiten Ausführungsform;
und
Fig. 12 ein Flußdiagramm einer Operationsabfolge des
Senders gemäß der zweiten Ausführungsform.
Allgemeines Fernbedienungssytem
Zum besseren Verständnis der vorliegenden Erfindung wer
den im folgenden zunächst ein allgemeines Fernbedienungs
system und ein Sprach-Fernbedienungssignal beschrieben.
Wie in Fig. 1 gezeigt, umfaßt ein Fernbedienungssystem
100 einen Sender 101, der ein Fernbedienungssignal von
einer von einem zu steuernden Gerät 103 wie etwa einem
AV-Gerät entfernten Position aussendet, und einen Empfän
ger 102, der das ausgesendete Fernbedienungssignal emp
fängt, dieses dekodiert und die dekodierte Information an
das zu steuernde Gerät 103 schickt.
In Fig. 2 ist ein allgemeines Fernbedienungssignal ge
zeigt. Das Fernbedienungssignal besteht aus einem Leit
kode, der die Datenübertragung einem Empfänger anzeigt,
einem Abnehmerkode und einem invertierten Abnehmerkode,
die ein zu steuerndes Gerät bezeichnen, schließlich aus
einem Datenkode und einem invertierten Datenkode, die
einen Steuerbefehl für das zu steuernde Gerät bezeichnen.
Der invertierte Abnehmerkode und der invertierte Daten
kode werden zur Ermittlung eines Fehlers im Abnehmerkode
bzw. im Datenkode verwendet.
In Fig. 3 ist schematisch der Sender 101 des sprachge
steuerten Fernbedienungssystems 100 gezeigt. Der Sender
101 umfaßt ein Mikrophon M, das einen Sprachbefehl in ein
elektrisches Signal umwandelt. Das umgewandelte elektri
sche Signal wird in eine Spracherkennungsschaltung 15,
eingegeben, wobei die Spracherkennungsschaltung 15 in Ge
stalt einer Spracherkennungs-LSI-Schaltung oder ähnlichem
vorliegt und einen Mikroprozessor enthält. Die Spracher
kennungsschaltung 15 erkennt den Inhalt des eingegebenen
elektrischen Signals und erzeugt diesem erkannten Inhalt
entsprechende Steuerdaten. Der Sender 101 besitzt außer
dem eine einen Mikroprozessor umfassende Steuerschaltung
16. Auf der Grundlage der Steuerdaten von der Spracher
kennungsschaltung 15 erzeugt die Steuerschaltung 16 ein
Fernbedienungs-Befehlssignal SR und gibt dieses in eine
Sendeschaltung 17 ein, die anschließend eine Infrarot
licht-Emitterdiode D1 aktiviert, so daß diese ein Fernbe
dienungssignal RC ausgibt. Die erwähnten Bestandteile des
Senders 101 werden von einer Leistungsversorgungsschal
tung 18 mit elektrischer Energie versorgt.
Wenn über das Mikrophon M ein Sprachbefehl empfangen
wird, wandelt die Spracherkennungsschaltung 15 den
Sprachbefehl in Musterdaten um. Die Spracherkennungs
schaltung 15 vergleicht die Sprachbefehl-Musterdaten mit
einer Mehrzahl von in ihr gespeicherten Standardmusterda
ten und bestimmt den Abstand zwischen den Sprachbefehl-
Musterdaten und den Standardmusterdaten; anschließend
gibt die Spracherkennungsschaltung 15 Befehlsdaten aus,
die denjenigen Standardmusterdaten entsprechen, deren Ab
stand zu den Sprachbefehl-Musterdaten am kleinsten ist.
Es kann auch eine andere Spracherkennungsverarbeitung zur
Anwendung kommen, in der die Ähnlichkeit der verglichenen
Musterdaten entsprechend einem einfachen Ähnlichkeitsver
fahren bestimmt wird und Befehlsdaten, die den Standard
musterdaten mit der höchsten Ähnlichkeit entsprechen,
ausgegeben werden. Die so erzeugten Befehlsdaten werden
in die Steuerschaltung 16 eingegeben.
Die Steuerschaltung 16 schickt ein den eingegebenen Be
fehlsdaten entsprechendes Fernbedienungs-Befehlssignal SR
an die Sendeschaltung 17. Aufgrund des gelieferten Fern
bedienungs-Befehlssignal SR treibt die Sendeschaltung 17
die Infrarotlicht-Emitterdiode D1, so daß diese ein Fern
bedienungssignal RC aussendet. Das zu steuernde Gerät 103
wird auf diese Weise durch das Fernbedienungssignal RC
fernbedient.
Nun wird mit Bezug auf die Fig. 4 bis 10 ein sprachge
steuertes Fernbedienungssystem gemäß einer ersten Ausfüh
rungsform der vorliegenden Erfindung beschrieben.
Wie in Fig. 4 gezeigt, weist ein Sender 10A des sprachge
steuerten Fernbedienungssystems ein einteiliges Gehäuse
11 auf, das der Bedienungsperson das freie Umhertragen
des Senders erlaubt. Das Gehäuse 11 besitzt in seiner
oberen Blende ein Mikrophon M. Das Mikrophon M wandelt
den von der Bedienungsperson gegebenen Sprachbefehl in
ein elektrisches Signal um. Ein Sendemittel (etwa eine
Infrarotlicht-Emitterdiode D1) ist an einem Ende des Ge
häuses 11 angebracht. Die Infrarotlicht-Emitterdiode D1
wird dazu verwendet, ein Fernbedienungssignal an den Emp
fänger eines (nicht gezeigten) entfernt angeordneten zu
steuernden Gerätes zu senden. Auf einer Seite des Gehäu
ses 11 ist ein Spracheingabeschalter 12 (der im folgenden
mit "Sprechschalter" bezeichnet wird) angeordnet, der im
gedrückten Zustand geschlossen ist und automatisch geöff
net wird, wenn er losgelassen wird. Der Sprechschalter 12
kann ein automatisch zurückstellender Druckknopf oder ein
automatisch zurückstellender Schiebeschalter sein. Wenn
ein Sprachbefehl eingegeben wird, wird der Sprechschalter
12 geschlossen, um den Sender 10A zu betätigen. Sonst ist
der Sprechschalter 12 geöffnet, so daß der Sender 10A au
ßer Betrieb gehalten wird. Das Gehäuse 11 besitzt an sei
ner Seite außerdem einen Betriebswahlschalter 13, der
beispielsweise die Form eines Schiebeschalters besitzt.
Der Betriebswahlschalter 13 dient der Auswahl einer der
Betriebsarten für einen bestimmten Zeitpunkt. Die Be
triebsarten umfassen eine Sprachspeicherbetriebsart, in
der der Sprachbefehl im Sender 10A gespeichert wird, und
eine Spracherkennungsbetriebsart, in der ein Sprachbefehl
erkannt wird, wie später beschrieben werden wird. Das Ge
häuse 11 beinhaltet die elektronische Schaltung des er
findungsgemäßen sprachgesteuerten Fernbedienungssystems.
In Fig. 5 ist die elektronische Schaltung des Senders 10A
des sprachgesteuerten Fernbedienungssystems gemäß der er
sten Ausführungsform der vorliegenden Erfindung in Block
form gezeigt. Der Sender 10A besitzt eine Spracherken
nungschaltung 15A, die eine Standardmuster-Speicherein
heit 5 umfaßt, in der eine Mehrzahl von verschiedenen
Standardmusterdaten, die sich auf die jeweiligen Sprach
befehle beziehen, gespeichert werden. Beispielsweise
speichert die Standardmuster-Speichereinheit 5 Standard
musterdaten PA1 bis PAn für einen ersten Sprachbefehl A,
Standardmusterdaten PB1 bis PBn eines Sprachbefehls
B,..., Standardmusterdaten PM1 bis PMn für einen Sprach
befehl M. Ein vom Mikrophon M eingegebener Sprachbefehl
wird unter Verwendung einer Mehrzahl von Standardmuster
daten erkannt, anschließend werden die erkannten Daten in
ein Fernbedienungssignal RC umgewandelt. Der Sender 10A
umfaßt eine Steuerschaltung 16, mit der der Sprechschal
ter 12 und der Betriebswahlschalter 13 verbunden sind.
Die Steuerschaltung 16 gibt an eine Sendeschaltung 17 ein
Fernbedienungs-Befehlssignal SR, welches eine Infrarot
licht-Emitterdiode D1 einschaltet, so daß diese ein Fern
bedienungssignal RC an den Empfänger eines entfernt ange
ordneten zu steuernden Gerätes sendet. Die Spracherken
nungsschaltung 15A, die Steuerschaltung 16 und die Sende
schaltung 17 werden von einer Leistungsversorgungsschal
tung 18 über eine Leistungsversorgungs-Steuerschaltung 14
und Leistungsversorgungsleitungen mit elektrischer Ener
gie versorgt.
Wie in Fig. 6 gezeigt, umfaßt die Spracherkennungsschal
tung 15A einen Analogprozessor 21, der ein vom Mikrophon
M empfangenes analoges Sprachbefehlssignal verarbeitet
und das verarbeitete analoge Sprachbefehlssignal als
Zeitaufteilungs-Digitaldaten 20 ausgibt, einen Spracher
kennungsprozessor 22, der den Sprachbefehl aufgrund der
vom Analogprozessor 21 gelieferten Zeitaufteilungs-Di
gitaldaten 20 erkennt, einen Speicher 23A, in dem Stan
dardmusterdaten für die Spracherkennung gespeichert sind,
und eine Schnittstelle 24, über die Signale an die Steu
erschaltung 16 geliefert und von der Steuerschaltung 16
empfangen werden.
Der Speicher 23A besitzt die Funktion der in Fig. 5 ge
zeigten Standardmuster-Speichereinheit 5 und speichert
eine Mehrzahl verschiedener Standardmusterdaten PA1 bis
PAn, PB1 bis PBn,..., Pm1 bis Pmn für die entsprechenden
Sprachbefehle.
Wie in Fig. 7 gezeigt, umfaßt der Analogprozessor 21 all
gemein einen Verstärker 30, der ein vom Mikrophon M über
tragendes Sprachbefehlssignal auf einen geeigneten Pegel
verstärkt, eine Filterreihe 31, die ein Verstärkeraus
gangssignal in Signale in unterschiedlichen Frequenzbän
dern unterteilt, gleichrichtet und die Signale in diesen
verschiedenen Frequenzbändern ausgibt, eine Ana
log/Digital-Wandleranordnung 32 (die im folgenden mit
"A/D-Wandleranordnung" bezeichnet wird), die die Aus
gangssignale in den verschiedenen Frequenzbändern der
Filterreihe 31 in Digitalsignale umwandelt, und eine
Schnittstelle 33, die die Signale zum Spracherkennungs
prozessor 22 überträgt und von diesem Signale empfängt.
In Fig. 8(a) ist gezeigt, daß die Filterreihe 31 eine
Bandpaßfilteranordnung 35, die das eingegebene Sprachsi
gnal in Signale einer Mehrzahl von Frequenzbändern (4
Frequenzbänder in Fig. 8(a)) unterteilt, eine Gleichrich
teranordnung 36, die die Ausgangssignale des Bandpaßfil
teranordnung 35 gleichrichtet und eine Tiefpaßfilteran
ordnung 37, die aus den Ausgangssignalen von der Gleich
richteranordnung 36 den Brumm entfernt.
Die Bandpaßfilteranordnung 35 umfaßt eine Mehrzahl (vier
in Fig. 8(a)) von Bandpaßfiltern BPF0 bis BPF3, die ent
sprechend ihren jeweiligen Frequenzbändern die Mittenfre
quenzen f0, f1, f2 und f3 (f0 < f1 < f2 < f3) besitzen.
Die Gleichrichteranordnung 36 umfaßt vier Gleichrichter
RCT0 bis RCT3, die mit den entsprechenden Bandpaßfiltern
BPF0 bis BPF3 der Bandpaßfilteranordnung 35 in Reihe ge
schaltet sind. Mit den Gleichrichtern RCT0 bis RCT3 wer
den die Ausgangssignale in den jeweiligen Frequenzbändern
der Bandpaßfilter BPF0 bis BPF3 gleichgerichtet.
Die Tiefpaßfilteranordnung 37 umfaßt vier Tiefpaßfilter
LPF0 bis LPF3, die mit den jeweiligen Gleichrichtern RCT0
bis RCT3 der Gleichrichteranordnung 36 in Reihe geschal
tet sind. Die Tiefpaßfilter LPF0 bis LPF3 beseitigen aus
den gleichgerichteten Signalen in den entsprechenden Fre
quenzbändern den Brumm.
Die A/D-Wandleranordnung 32 umfaßt vier A/D-Wandler ADC0
bis ADC3, die mit den jeweiligen Tiefpaßfiltern LPF0 bis
LPF3 der Tiefpaßfilteranordnung 37 in Reihe geschaltet
sind. Die A/D-Wandler ADC0 bis ADC3 wandeln die analogen
Ausgangssignale der Tiefpaßfilter LPF0 bis LPF3 in Digi
talsignale um.
Nun wird der Betrieb des Analogprozessors 21 beschrieben.
Um der Kürze willen wird nur die Signalverarbeitung in
einem Frequenzband (zum Beispiel in demjenigen des Band
paßfilters BPF3) beschrieben. In den anderen Frequenzbän
dern wird jedoch eine ähnliche Signalverarbeitung ausge
führt.
Wenn in das Mikrophon ein Sprachbefehl eingegeben wird,
wird das elektrische Ausgangssignal des Mikrophons M
durch den Verstärker 30 auf einen geeigneten Signalpegel
verstärkt, so daß der Verstärker 30 ein verstärktes Si
gnal A ausgibt. (s. Fig. 8(b)) Dann wird das verstärkte
Signal A an das Bandpaßfilter BPF3 gegeben, das nur das
Signal E mit dem entsprechenden Frequenzband hindurch
läßt. Dieses Signal B wird anschließend an den Gleich
richter RCT3 geliefert (s. Fig. 8(c)). Das Signal B wird
vom Gleichrichter RCT3 gleichgerichtet, so daß ein
gleichgerichtetes Ausgangssignal C (s. Fig. 8(d)) des
Gleichrichters RCT3 an das Tiefpaßfilter LPF3 übertragen
wird. Das Tiefpaßfilter LPF3 beseitigt einen im Signal C
eventuell enthaltenen Brumm und erzeugt ein brummfreies
Ausgangssignal D (s. Fig. 8(e)), das anschließend in den
A/D-Wandler ADC3 eingegeben wird. Der A/D-Wandler ADC3
wandelt anschließend das eingegebene Signal D in ein Si
gnal E um, das, wie in Fig. 8(f) gezeigt ist, aus 4-Bit-
Zeitaufteilungs-Digitaldaten (1010), (0111), (0101),
(0111), (1101), ... zusammengesetzt ist.
Wie in Fig. 7 gezeigt, umfaßt der Spracherkennungsprozes
sor 22 eine Systemsteuerschaltung 40, die Steuerbefehle
von der Steuerschaltung 16 analysiert und verarbeitet und
ferner die gesamte Operation des Spracherkennungsprozes
sors 22 steuert, und einen Digitalprozessor 41, der die
Abstandsberechnungen ausführt und den Speicher 23A steu
ert.
Die Systemsteuerschaltung 40 umfaßt eine CPU 42
(Zentraleinheit), die den Gesamtbetrieb des Senders 10A
steuert, ein ROM 43 (Nur-Lese-Speicher), in dem ein von
der CPU 42 für die Gesamtoperation des Senders 10A abzu
arbeitendes Steuerprogramm gespeichert ist, ein RAM 44
(Schreib-Lese-Speicher), das vorübergehend Daten spei
chert, und eine Schnittstelle 45, die sowohl an den Ana
logprozessor 21 als auch an den Digitalprozessor 41 Daten
überträgt und von diesen Prozessoren Daten empfängt.
Der Digitalprozessor 41 umfaßt eine Recheneinheit 46, die
Abstandsberechnungen ausführt und auf der Grundlage der
Ergebnisse der Abstandsberechnungen eingegebene Sprachbe
fehle identifiziert, ein Daten-RAM 47, das die für die
Abstandsberechnungen erforderlichen Daten speichert, ein
ROM 48, in dem ein Programm für die Abstandsberechnungen
gespeichert ist, ein Arbeits-RAM 49, das vorübergehend
die verarbeiteten Daten speichert, eine Schnittstelle 50,
die Daten sowohl an den Analogprozessor 21 als auch an
die Systemsteuerschaltung 40 sendet und von diesen Daten
empfängt, und eine Schnittstelle 51, die Daten an den
Speicher 23A überträgt und von diesem empfängt.
Der Spracherkennungsprozessor 22 arbeitet wie folgt: Wenn
von der Steuerschaltung 16 über die Schnittstelle 24 ein
Steuerbefehl an den Spracherkennungsprozessor 22 gegeben
wird, empfängt die Systemsteuerschaltung 40 den Steuerbe
fehl über die Schnittstellen 50 und 45 und analysiert den
empfangenen Steuerbefehl. Wenn das Analyseergebnis eine
Spracherkennungsverarbeitung anzeigt, schickt die Sy
stemsteuerschaltung 40 über die Schnittstellen 45 und 50
einen Befehl zur Spracherkennung an den Digitalprozessor
41.
Wenn die Systemsteuerschaltung 40 einen entsprechenden
Befehl empfängt, leitet der Digitalprozessor 41 Zeitauf
teilungs-Digitaldaten 20 (Signal des eingegebenen Sprach
befehls) vom Analogprozessor 21 über die Schnittstelle 50
in das Daten-RAM 47. Die Recheneinheit 46 liest die Stan
dardmusterdaten aus der ersten Adresse des Speichers 23A
über die Schnittstelle 51 aus, wobei im Speicher 23A die
verschiedenen Standardmusterdaten PA1 bis PAn, PB1 bis
PBn, ..., PM1 bis PMn gespeichert sind. Dann bestimmt
die Recheneinheit 46 aus einem ersten Satz von Zeitauf
teilungs-Digitaldaten aus einer Mehrzahl von die gelese
nen Standardmusterdaten darstellenden Zeitaufteilungs-Di
gitaldaten und außerdem aus einem ersten Satz von Zeit
aufteilungs-Digitaldaten des Signals des eingegebenen
Sprachbefehls jeweils den Logarithmus und anschließend
die Differenzen zwischen diesen zwei Logarithmen. Dann
quadriert die Recheneinheit 46 diese Differenzen und sum
miert die Quadrate, um einen Abstand D zu bestimmen. Da
her ist der Abstand D durch
Die Abstände D für sämtliche Standardmusterdaten werden
auf die gleiche Weise berechnet. Je kleiner die berechne
ten Abstände, um so höher ist die Wahrscheinlichkeit, daß
die Standardmusterdaten dem Sprachbefehl ähnlich sind.
Die so erhaltenenen Erkennungsergebnisse werden für jeden
der Sprachbefehle gesammelt. Dann werden die Befehlsda
ten, die dem den Standardmusterdaten insgesamt am näch
sten kommenden Sprachbefehl entspechen, als Befehlsdaten
der Spracherkennungsschaltung 15A über die Schnittstelle
24 an die Steuerschaltung 16 ausgegeben.
Nun wird wieder auf Fig. 5 Bezug genommen. Die Steuer
schaltung 16 ist beispielsweise in einem Mikroprozessor
ausgebildet. Der Mikroprozessor der Steuerschaltung 16
umfaßt eine CPU, ein ROM, ein RAM und eine Schnittstelle.
Die CPU führt Rechenoperationen aus, wobei sie auf die im
als Arbeitsspeicher dienenden RAM gespeicherten Daten Be
zug nimmt und die Rechenoperationen gemäß dem Algorithmus
(s. Fig. 9) eines im ROM gespeicherten Steuerprogramms
ausführt und dadurch die Gesamtoperation des Senders 10A
bewirkt. Die Steuerschaltung 16 empfängt außerdem Unter
brechungssignale vom Sprechschalter 12 und vom Betriebs
wahlschalter 13 und führt Steuerfunktionen entsprechend
den durch diese Unterbrechungssignale angezeigten Befeh
len aus. Die Operation des Senders 10A unter der Steue
rung der Steuerschaltung 16 wird im folgenden beschrie
ben.
Die Steuerschaltung 16 weist eine Lerneinheit 19A auf.
Diese Lerneinheit 19A kann durch eine unabhängige elek
trische Schaltung hardwaremäßig implementiert werden. In
der erläuterten Ausführungsform ist die Lerneinheit 19A
jedoch gemäß einem Lernprogramm, das entweder in einem
ein Steuerprogramm für die Steuerschaltung 16 speichern
den Speicher gespeichert ist oder im Steuerprogramm für
die Steuerschaltung 16 enthalten ist, softwaremäßig im
plementiert. Insbesondere ist die Lerneinheit 19A in den
Schritten S17 und S18 in Fig. 9 implementiert.
Wenn ein Satz aus einer Mehrzahl von unterschiedlichen,
dem Erkennungsergebnis als Ganzem entsprechenden Stan
dardmusterdatensätzen der Spracherkennungseinheit 15A vom
Erkennungsergebnis als Ganzem der Spracherkennungsschal
tung 15A verschieden ist, wird dieser Standardmusterda
tensatz automatisch durch die Musterdaten des eingegebe
nen Sprachbefehls aktualisiert oder ersetzt. In dem Fall,
in dem beispielsweise ein eingegebener Sprachbefehl auf
grund des Erkennungsergebnisses als Ganzem von der
Spracherkennungsschaltung 15A als Sprachbefehl A erkannt
wird, und in dem das Erkennungsergebnis, für das ein Satz
PA2 einer Mehrzahl unterschiedlicher Standardmusterdaten
sätze PA1 bis PAn für den Sprachbefehl A verwendet wird,
anzeigt, daß der eingegebene Sprachbefehl nicht der
Sprachbefehl A ist, d. h., daß der Abstand zwischen dem
eingegebenen Sprachbefehl und den Daten PA2 zu groß ist,
wird der Standardmusterdatensatz PA2 durch Musterdaten
des eingegebenen Sprachbefehls aktualisiert oder ersetzt.
Der Sender 10A arbeitet in Abhängigkeit davon, ob der
Sprechschalter 12 gedrückt oder losgelassen ist (d. h.
ein- oder ausgeschaltet ist). Wenn der Sprechschalter 12
gedrückt ist, kann der Sender 10A die Fernbedienungssi
gnale senden, während der Sender dann, wenn der Sprech
schalter 12 losgelassen ist, in einer Betriebsart mit
niedrigem Leistungsverbrauch gehalten wird und auf ein
zugebende Sprachbefehle wartet. Es gibt zwei Eingabebe
triebsarten für die Eingabe von Sprachbefehlen. In einer
Eingabebetriebsart werden Sprachbefehle der Bedienungs
person gespeichert, in der anderen Eingabebetriebsart
werden Sprachbefehle der Bedienungsperson wiedererkannt.
In der Sprachspeicher-Betriebsart wird ein Wort wie etwa
"Wiedergabe" in den Sender 10A aufgenommen.
Nun wird der Betrieb des Senders 10A mit Bezug auf das
Flußdiagramm von Fig. 9 beschrieben. Es wird angenommen,
daß der Sprechschalter 12 nicht gedrückt ist und der Sen
der sich in einem Bereitschaftszustand in der Betriebsart
mit niedrigem Leistungsverbrauch befindet.
Zunächst setzt die Steuerschaltung 16 in einem Schritt S1
eine Eintragungspuffernummer auf den Wert 1.
Dann ermittelt die Steuerschaltung 16 in einem Schritt
S2, ob der Sprechschalter 12 gedrückt ist oder nicht, in
dem sie ermittelt, ob vom Sprechschalter 12 ein Betriebs
steuersignal SC erzeugt wird oder nicht. Wenn in diesem
Moment ein Betriebssteuersignal SC vorliegt, bedeutet
dies, daß der Sprechschalter 12 gedrückt ist, so daß die
Steuerschaltung 16 ein Steuersignal SV an die Leistungs
versorgungs-Steuerschaltung 14 sendet. Die Leistungsver
sorgungs-Steuerschaltung 14 liefert in einer normalen Be
triebsart elektrische Energie und schaltet den Sender 10A
in einem Schritt S4 in die normale Betriebsart.
Wenn der Sprechschalter 12 nicht gedrückt ist, wird der
Sender 10A in der Betriebsart mit niedrigem Leistungsver
brauch gelassen, anschließend werden die Schritte S2 und
S3 wiederholt, wobei sich der Sender 10A in einem Warte
zustand für einen Sprachbefehl befindet.
Danach liest die Steuerschaltung 16 in einem Schritt S5
den Zustand des Betriebswahlschalters 13, um festzustell
len, ob die Sprachspeicherbetriebsart für Sprachbefehle
eingestellt ist oder nicht.
Wenn die Sprachspeicherbetriebsart angezeigt wird, geht
die Steuerung weiter zu einem Schritt S6, in dem die
Steuerschaltung 16 einen Befehl ausgibt, mit dem die
Spracherkennungsschaltung 15A zur Ausführung einer
Spracherkennungsverarbeitung veranlaßt wird. Gleichzeitig
schickt die Steuerschaltung 16 im Schritt S6 an die
Spracherkennungsschaltung 15A eine Eintragungspuffernum
mer.
In einem Schritt S7 speichert die Spracherkennungsschal
tung 15A Spracherkennungs-Standardmusterdaten in einem
entsprechenden Eintragungspuffer des Speichers 23A, d.h.
in einem Eintragungspuffer mit der Eintragungspuffernum
mer 1.
In einem Schritt S8 liest die Steuerschaltung 16 ein
(nicht gezeigtes) Statutsregister in der Spracherken
nungsschaltung 15A, um festzustellen, ob die Eintragung
eines Sprachbefehls beendet ist oder nicht. Wenn die Ein
tragung noch nicht beendet ist, werden die Schritte S7
und S8 solange wiederholt, bis die Eintragung beendet
ist. Wenn sie beendet ist, wird die Eintragungspuffernum
mer in einem Schritt S9 um 1 erhöht.
Dann stellt die Steuerschaltung 16 in einem Schritt S10
fest, ob die momentane Eintragungspuffernummer einen ma
ximal speicherbaren Wert Nmax übersteigt oder nicht. Wenn
dies nicht der Fall ist, kehrt die Steuerung zum Schritt
S2 zurück. Wenn der maximale Wert überschritten wird,
schickt die Steuerschaltung 16 einen Befehl zur Beendi
gung der Sprachspeicherbetriebsart an die Spracherken
nungssschaltung 15A und beendet dadurch in einem Schritt
S11 die Sprachspeicherbetriesart. Dann geht die Steuerung
zurück zum Schritt S2.
Wenn im Schritt S5 vom Betriebswählschalter 13 nicht die
Sprachspeicherbetriebsart angezeigt wird, d. h. wenn im
Schritt S5 vom Betriebswählschalter 13 die Spracherken
nungsbetriebsart angezeigt wird, gibt die Steuerschaltung
16 in einem Schritt S12 an die Spracherkennungsschaltung
15A einen Spracherkennungsbefehl aus. Die Spracherken
nungsschaltung 15A führt nun in einem Schritt S13 eine
Spracherkenungsverarbreitung aus, wie sie oben beschrie
ben worden ist.
Die Steuerschaltung 16 liest ein (nicht gezeigtes) Sta
tutsregister in der Spracherkennungsschaltung 15A, um in
einem Schritt S14 festzustellen, ob die Spracherkennung
beendet ist oder nicht. Wenn die Spracherkennung noch
nicht beendet ist, werden die Schritte S13 und S14 so
lange wiederholt, bis sie beendet ist. Wenn die Spracher
kennung beendet ist, stellt die Steuerschaltung 16 in ei
nem Schritt S15 fest, ob die Daten des eingegebenen
Sprachbefehls und die Standardmusterdaten miteinander
übereinstimmen, d. h. ob der Abstand D in einen vorgegebe
nen Abstandsbereich fällt oder nicht. Wenn die Daten des
eingegebenen Sprachbefehls und die Standardmusterdaten
miteinander übereinstimmen, zählt die Lerneinheit 19A in
einem Schritt S16 unter allen Standardmusterdatensätzen,
die dem Erkennungsergebnis entsprechen, die Anzahl derje
nigen Standardmusterdatensätze, die mit dem Erkennungser
gebnis nicht übereinstimmen. Dann stellt die Lerneinheit
19A in einem Schritt S17 fest, ob die Anzahl der Stan
dardmusterdatensätze, die nicht mit dem Erkennungsergeb
nis übereinstimmen, den Wert 1 hat oder nicht. Wenn die
Anzahl den Wert 1 hat, aktualisiert die Lerneinheit 19A
in einem Schritt S18 die Standardmusterdatensätze durch
die Musterdaten des eingegebenen Sprachbefehls oder er
setzt sie durch diese. Falls die Anzahl größer als 1 ist,
springt die Steuerung zum Schritt S19. Da spezielle Stan
dardmusterdatensätze durch die Lerneinheit 19A automa
tisch aktualisiert werden können, kann die Spracherken
nungsrate während eines langen Zeitintervalls auf hohem
Niveau gehalten werden.
Danach erzeugt die Steuerschaltung 16 auf der Grundlage
der erkannten Sprachbefehlsdaten ein Fernbedienungs-Be
fehlssignal SR und schickt dieses Signal im Schritt S19
an die Sendeschaltung 17. Aufgrund des Fernbedienungs-Be
fehlssignals SR sendet die Sendeschaltung 17 in einem
Schritt S20 ein entsprechendes Fernbedienungssignal RC
aus. Wenn die Daten des eingegebenen Sprachbefehls und
die Standardmusterdaten im Schritt S15 nicht miteinander
übereinstimmen, führt die Steuerschaltung 16 in einem
Schritt S21 eine Fehlerverarbeitung wie etwa die Erzeu
gung eines Summtons aus, woraufhin die Steuerung zum
Schritt S2 zurückkehrt.
Wie oben beschrieben, kann in der ersten Ausführungsform
der vorliegenden Erfindung ein Sprachbefehl selbst dann
genau erkannt werden, wenn er sich mit der Zeit leicht
verändert, da ein Sprachbefehl unter Verwendung einer
Mehrzahl unterschiedlicher Standardmusterdatensätze PA1
bis PAn, PB1 bis PBn,...,PM1 bis PMn für die entsprechen
den Sprachbefehle erkannt wird. Wenn für einen Satz von
mehreren verschiedenen Standardmusterdatensätzen eines
Sprachbefehls ein unterschiedliches Erkennungsergebnis
angezeigt wird, wird dieser Standardmusterdatensatz von
der Lerneinheit 19A durch die Musterdaten des eingegebe
nen Sprachbefehls aktualisiert oder ersetzt. Daher kann
eine zeitabhängige Änderung der Sprachbefehle ebenfalls
fehlerfrei erkannt werden.
Da ein Sprachbefehl unter Verwendung einer Mehrzahl un
terschiedlicher Musterdaten erkannt wird, kann die
Spracherkennungsrate des sprachgesteuerten Fernbedie
nungssystems erhöht werden.
Nun wird mit Bezug auf die Fig. 10 bis 12 ein sprachge
steuertes Fernbedienungssystem gemäß einer zweiten Aus
führungsform der vorliegenden Erfindung beschrieben.
Das sprachgesteuerte Fernbedienungssystem gemäß der zwei
ten Ausführungsform weist einen Sender auf, der den glei
chen äußeren Aufbau wie der in Fig. 4 gezeigte Sender 10A
besitzt.
Der im allgemeinen mit dem Bezugszeichen 10B bezeichnete
Sender des sprachgesteuerten Fernbedienungssystems gemäß
der zweiten Ausführungsform ist in den Fig. 10 und 11 ge
zeigt. Diejenigen Teile in Fig. 10, die mit denjenigen in
Fig. 5 identisch sind, werden durch gleiche Bezugszeichen
bezeichnet und nicht genauer erläutert.
Der Sender 10B besitzt eine Spracherkennungsschaltung
15B, die, wie in Fig. 11 gezeigt ist, einen Analogprozes
sor 21 für die Verarbeitung eines über das Mikrophon M
empfangenen analogen Sprachbefehlssignals und für die
Ausgabe des verarbeiteten analogen Sprachbefehlssignals
in Form von Zeitaufteilungs-Digitaldaten 20, eine Mehr
zahl paralleler Spracherkennungsprozessoren 22-1 bis 22-n
für die unabhängige Erkennung des Sprachbefehls aufgrund
der Zeitaufteilungs-Digitaldaten 20 des Analogprozessors
21, einen Speicher 23B zum Speichern von Standardmuster
daten für die von den Spracherkennungsprozessoren 22-1
bis 22-n jeweils ausgeführte Spracherkennung und eine
Schnittstelle 24 für die Übertragung von Signalen an die
Steuerschaltung 16 und für den Empfang von Signalen von
der Steuerschaltung 16 umfaßt.
Die Spracherkennungsprozessoren 22-1 bis 22-n verwenden
für jeden der Sprachbefehle entsprechende Standardmuster
daten und führen unabhängige Spracherkennugnsverarbeitun
gen aus. Beispielsweise verwendet der Spracherkennungs
prozessor 22-1 die Standardmusterdaten PA1, PB1,...,PM1,
während der Spracherkennungsprozessor 22-2 die Standard
musterdaten PA2, PB2,...,PM2 verwendet.
Der Speicher 23B umfaßt Adressenbereiche, die den jewei
ligen Spracherkennungsprozessoren 22-1 bis 22-n zugeord
net sind, und speichert Standardmusterdaten PA1 bis PM1,
PA2 bis PM2,...,PAn bis PMn.
Diese Standardmusterdaten können, wie oben beschrieben,
in verschiedenen Bereichen des Speichers 23B oder in ent
sprechenden Speichern, die den jeweiligen Spracherken
nungsprozessoren zugeordnet sind, gespeichert werden.
Die anderen Einzelheiten des Aufbaus der Spracherken
nungsschaltung 15B, d. h. der Analogprozessor 21 und die
Schnittstelle 24, sind mit denjenigen der in den Fig. 6,
7 und 8 gezeigten Schaltungen identisch.
Wie in Fig. 10 gezeigt, umfaßt die Steuerschaltung 16
einen Mikroprozessor und eine Lerneinheit 19B. Die
Lerneinheit 19B ist durch ein Lernprogramm, das mit einem
Steuerprogramm für den Sender 10B verschachtelt ist,
softwaremäßig implementiert. Insbesondere ist die
Lerneinheit 19B durch die Schritte S49 und S50 in Fig. 12
implementiert.
Wenn einer der Spracherkennungsprozessoren 22-1 bis 22-n
ein Erkennungsergebnis für einen Sprachbefehl ausgibt,
das vom Ergebnis eines weiteren Spracherkennungsprozessor
verschieden ist, werden die Standardmusterdaten, die die
sem Sprachbefehl entsprechen und von diesem Spracherken
nungsprozessor verwendet werden, von der Lerneinheit 19B
durch die Musterdaten des Sprachbefehls aktualisiert oder
ersetzt.
Der Sender 10B gemäß der zweiten Ausführungsform arbeitet
folgendermaßen: Es wird angenommen, daß der Sprechschal
ter 12 nicht gedrückt ist und daß sich der Sender 10B in
einem Bereitschaftszustand befindet.
Wie in Fig. 12 gezeigt, setzt zunächst die Steuerschal
tung 16 in einem Schritt S31 eine Eintragungspuffernummer
auf den Wert 1. Dann wird in einem Schritt S32 der dieser
Prozessornummer entsprechende Spracherkennungsprozessor,
z. B. der Spracherkennungsprozessor 22-1, aktiviert.
Anschließend stellt die Steuerschaltung 16 in einem
Schritt S33 fest, ob der Sprechschalter 12 gedrückt ist
oder nicht, indem sie feststellt, ob vom Sprechschalter
12 ein Betriebssteuersignal SC erzeugt wird oder nicht.
Wenn zu diesem Zeitpunkt ein Betriebssteuersignal SC aus
gesendet wird, bedeutet dies, daß der Sprechschalter 12
gedrückt ist, so daß die Steuerschaltung 16 den Sender
10B zum Empfang eines Sprachbefehls freigibt.
Wenn der Sprechschalter 12 nicht gedrückt ist, wird der
Sender 10B im Bereitschaftszustand gelassen, ferner wer
den die Schritte S32 und S33 wiederholt.
Danach liest die Steuerschaltung 16 in einem Schritt S34
den Zustand des Betriebswahlschalters 13, um festzustel
len, ob dieser eine Sprachspeicherbetriebsart anzeigt.
Wenn die Sprachspeicherbetriebsart angezeigt wird, geht
die Steuerung weiter zum Schritt S35, in dem die Steuer
schaltung 16 einen Befehl ausgibt, der die Spracherken
nungsschaltung 15B zur Ausführung einer Sprachspeicher
verarbeitung veranlaßt. Gleichzeitig schickt die Steuer
schaltung 16 im Schritt S35 eine Eintragungspufferzahl an
die Spracherkennungsschaltung 15B.
Danach speichert die Spracherkennungsschaltung 15B in ei
nem Schritt S36 Spracherkennungs-Standardmusterdaten in
einem entsprechenden Eintragungspuffer des betreffenden
Spracherkennungsprozessors im Speicher 23B, d. h. in einem
Eintragungspuffer mit der Eintragungspuffernummer 1.
Die Steuerschaltung 16 liest in einem Schritt S37 ein
(nicht gezeigtes) Statusregister in der Spracherkennungs
schaltung 15B, um festzustellen, ob die Eintragung eines
Sprachbefehls beendet ist oder nicht. Wenn die Eintragung
noch nicht beendet ist, werden die Schritte S36 und S37
solange wiederholt, bis sie beendet ist. Wenn die Eintra
gung beendet ist, wird die Eintragungspuffernummer im
Schritt S38 um 1 erhöht.
Dann stellt die Steuerschaltung 16 in einem Schritt S39
fest, ob die momentane Eintragungspuffernummer einen für
den betreffenden Spracherkennungsprozessor höchstens
speicherbaren Wert Nmax übersteigt oder nicht. Wenn
nicht, kehrt die Steuerung zum Schritt S32 zurück. Wenn
der maximale Wert überstiegen wird, stellt die Steuer
schaltung 16 in einem Schritt S40 fest, ob die Prozessor
nummer eine maximale Spracherkennungsprozessor-Nummer
Pmax übersteigt oder nicht. Wenn nicht, geht die Steue
rung weiter zum Schritt S41.
Im Schritt S41 setzt die Steuerschaltung 16 die Eintra
gungspuffernummer wieder auf den Wert 1. Danach wird die
Prozessornummer um 1 erhöht, ferner wird der dieser Pro
zessornummer entsprechende Spracherkennungsprozessor, zum
Beispiel der Spracherkennungsprozessor 22-2 im Schritt
S42 aktiviert.
Wenn die Prozessornummer die maximale Spracherkennungs
prozessornummer Pmax im Schritt S40 nicht überstiegen
hat, schickt die Steuerschaltung 16 an die Spracherken
nungsschaltung 15B einen Befehl zum Beenden der Sprach
speicherbetriebsart, so daß in einem Schritt S43 die
Sprachspeicherbetriebsart beendet wird. Anschließend
kehrt die Steuerung zum Schritt S32 zurück.
Wenn im Schritt S34 vom Betriebswahlschalter 13 die
Spracherkennungsbetriebsart angezeigt wird, aktiviert die
Steuerschaltung 16 in einem Schritt S44 sämtliche
Spracherkennungsprozessoren. Dann gibt die Steuerschal
tung 16 in einem Schritt S45 an die Spracherkennungs
schaltung 15B einen Spracherkennungsbefehl aus. Nun füh
ren die Spracherkennungsprozessoren 22-1 bis 22-n in der
Spracherkennungsschaltung 15B in einem Schritt S46 eine
Spracherkennungsverarbeitung aus, wie sie oben beschrie
ben worden ist.
In einem Schritt S47 liest die Steuerschaltung 16 ein
(nicht gezeigtes) Statutsregister in der Spracherken
nungsschaltung 15B, um festzustellen, ob die Spracherken
nung durch die Spracherkennungsprozessoren 22-1 bis 22-n
beendet ist oder nicht. Wenn die Spracherkennung noch
nicht beendet ist, werden die Schritte S46 und S47 so
lange wiederholt, bis sie beendet ist. Wenn die Spracher
kennung beendet ist, zählt die Steuerschaltung 16 in ei
nem Schritt S48 die Anzahl derjenigen Spracherkennungs
prozessoren, deren Erkennungsergebnisse übereinstimmen.
Dann stellt die Steuerschaltung 16 in einem Schritt S49
fest, ob die Anzahl der Spracherkennungsprozessoren, de
ren Erkennungsergebnisse nicht übereinstimmen, den Wert 1
hat oder nicht. Wenn die Anzahl den Wert 1 hat, aktuali
siert die Lerneinheit 19B in einem Schritt S50 die von
diesem Spracherkennungsprozessor verwendeten Standardmu
sterdaten durch die Musterdaten des eingegebenen Sprach
befehls oder ersetzt sie durch diese. Da die von einem
bestimmten Spracherkennungsprozessor verwendeten Stan
dardmusterdaten durch die Lerneinheit 19B automatisch ak
tualisiert werden, kann die Spracherkennungsrate für ein
langes Zeitintervall auf einem konstanten Niveau gehalten
werden.
Wenn die Anzahl derjenigen Spracherkennungsprozessoren,
deren Erkennungsergebnisse nicht übereinstimmen, gleich
oder größer als 2 ist oder wenn die Erkennungsergebnisse
sämtlicher Spracherkennungsprozessoren im Schritt S49
übereinstimmen, bestimmt die Steuerschaltung 16 in einem
Schritt S51, ob die Anzahl derjenigen Spracherkennungs
prozessoren, deren Erkennungsergebnisse übereinstimmen,
halb so groß oder größer als die Gesamtzahl der Prozesso
ren ist. Wenn die Erkennungsergebnisse mindestens bei der
Hälfte der Spracherkennungsprozessoren übereinstimmen,
geht die Steuerung weiter zum Schritt S52. Wenn die An
zahl der Spracherkennungsprozessoren, deren Erkennungser
gebnisse übereinstimmen, weniger als die Hälfte der Ge
samtzahl ist, führt die Steuerschaltung 16 in einem
Schritt S54 eine Fehlerverarbeitung wie etwa die Erzeu
gung eines Summtons aus, woraufhin die Steuerung zum
Schritt S32 zurückkehrt.
Wenn die Erkennungsergebnisse mindestens bei der Hälfte
der Spracherkennungsprozessoren im Schritt S51 überein
stimmen, erzeugt die Steuerschaltung 16 in einem Schritt
S52 auf der Grundlage der erkannten Sprachbefehlsdaten
ein Fernbedienungs-Befehlssignal SR und schickt dieses
Signal an die Sendeschaltung 17. Aufgrund dieses Fernbe
dienungs-Befehlssignals SR sendet die Sendeschaltung 17
in einem Schritt S53 ein entsprechendes Fernbedienungssi
gnal RC aus. Anschließend kehrt die Steuerung zum Schritt
S32 zurück.
In der zweiten Ausführungsform wird ein eingegebener
Sprachbefehl durch eine Mehrzahl von Spracherkennungspro
zessoren 22-1 bis 22-n auf der Grundlage ihrer jeweiligen
Standardmusterdaten PA1 bis PM1, PA2 bis PM2,...,PAn bis
PMn erkannt. Wenn bei einem Spracherkennungsprozessor das
Erkennungsergebnis nicht mit den übrigen Ergebnissen
übereinstimmt, werden die von diesem Spracherkennungspro
zessor verwendeten Standardmusterdaten durch die Muster
daten des eingegebenen Sprachbefehls durch die Lernein
heit 19B aktualisiert oder ersetzt.
Selbst wenn sich die Stimme der Bedienungsperson mit der
Zeit leicht verändert hat, seit die Standardmusterdaten
zum ersten Mal gespeichert wurden, kann die Spracherken
nungsrate für einen langen Zeitraum auf einem konstanten
Niveau gehalten werden, da die Standardmusterdaten durch
die Lerneinheit 19B in bestimmten Zeitabständen aktuali
siert werden. Da die Spracherkennungsverarbeitungen durch
die Mehrzahl der Spracherkennungsprozessoren unter ver
wendung ihrer entsprechenden Standardmusterdaten einzeln
ausgeführt werden, können die eingegebenen Sprachbefehle
genauer erkannt werden, so daß die Spracherkennungsrate
erhöht wird.
Die Erfindung kann in anderen besonderen Formen ausge
führt werden, ohne daß von ihrem Geist oder von ihren we
sentlichen Merkmalen abgewichen wird. Die vorliegenden
Ausführungsformen sind daher in jeder Hinsicht als erläu
ternd und nicht als beschränkend aufzufasen. Der Umfang
der Erfindung wird in erster Linie durch die beigefügten
Ansprüche und erst in zweiter Linie durch die oben gege
bene Beschreibung festgelegt. Sämtliche Änderungen, die
durch den Bedeutungsgehalt der Patentansprüche abgedeckt
sind und in deren Äquivalenzbereich liegen, sollen daher
von ihnen umfaßt werden.
Claims (4)
1. Sprachgesteuertes Fernbedienungssystem, mit
einem Mikrophon (M), das einen Sprachbefehl in ein elektrisches Signal umwandelt,
Spracherkennungsmitteln (15; 15A), die das elek trische Signal in Musterdaten umwandeln und die Musterda ten mit gespeicherten Standardmusterdaten vergleichen, um dem Sprachbefehl entsprechende Befehlsdaten zu erzeugen, und
Sendemitteln (10A), die auf der Grundlage der Be fehlsdaten ein Fernbedienungssignal (RC) erzeugen und aussenden, dadurch gekennzeichnet, daß
die Spracherkennungsmittel eine Mehrzahl von Standardmuster-Speicherbereichen (A, B, ..., M), in denen eine Mehrzahl verschiedener Standardmusterdatensätze für jeden der Befehlsdatensätze gespeichert werden, und Mit tel (22; 40, 41), die den Sprachbefehl auf der Grundlage der Mehrzahl der verschiedenen Standardmusterdatensätze erkennen, umfassen.
einem Mikrophon (M), das einen Sprachbefehl in ein elektrisches Signal umwandelt,
Spracherkennungsmitteln (15; 15A), die das elek trische Signal in Musterdaten umwandeln und die Musterda ten mit gespeicherten Standardmusterdaten vergleichen, um dem Sprachbefehl entsprechende Befehlsdaten zu erzeugen, und
Sendemitteln (10A), die auf der Grundlage der Be fehlsdaten ein Fernbedienungssignal (RC) erzeugen und aussenden, dadurch gekennzeichnet, daß
die Spracherkennungsmittel eine Mehrzahl von Standardmuster-Speicherbereichen (A, B, ..., M), in denen eine Mehrzahl verschiedener Standardmusterdatensätze für jeden der Befehlsdatensätze gespeichert werden, und Mit tel (22; 40, 41), die den Sprachbefehl auf der Grundlage der Mehrzahl der verschiedenen Standardmusterdatensätze erkennen, umfassen.
2. Sprachgesteuertes Fernbedienungssystem gemäß An
spruch 1, gekennzeichnet durch eine Lerneinheit (19A),
die die gespeicherten Standardmusterdaten aufgrund von
geänderten Musterdaten eines neu eingegebenen Sprachbe
fehls automatisch aktualisieren.
3. Sprachgesteuertes Fernbedienungssystem, mit
einem Mikrophon (M), das einen Sprachbefehl in ein elektrisches Signal umwandelt,
Spracherkennungsmitteln (15; 15B), die das elek trische Signal in Musterdaten umwandeln und die Musterda ten mit gespeicherten Standardmusterdeten vergleichen, um dem Sprachbefehl entsprechende Befehlsdaten zu erzeugen, und
Sendemitteln (10B), die auf der Grundlage der Be fehlsdaten ein Fernbedienungssignal (RC) erzeugen und aussenden, dadurch gekennzeichnet, daß
die Spracherkennungsmittel eine Mehrzahl paralle ler Spracherkennungsprozessoren (22-1, 22-2, ..., 22-n) um fassen, die den Sprachbefehl auf der Grundlage der ent sprechenden Standardmusterdaten unabhängig erkennen und entsprechende Erkennungsergebnisse ausgeben.
einem Mikrophon (M), das einen Sprachbefehl in ein elektrisches Signal umwandelt,
Spracherkennungsmitteln (15; 15B), die das elek trische Signal in Musterdaten umwandeln und die Musterda ten mit gespeicherten Standardmusterdeten vergleichen, um dem Sprachbefehl entsprechende Befehlsdaten zu erzeugen, und
Sendemitteln (10B), die auf der Grundlage der Be fehlsdaten ein Fernbedienungssignal (RC) erzeugen und aussenden, dadurch gekennzeichnet, daß
die Spracherkennungsmittel eine Mehrzahl paralle ler Spracherkennungsprozessoren (22-1, 22-2, ..., 22-n) um fassen, die den Sprachbefehl auf der Grundlage der ent sprechenden Standardmusterdaten unabhängig erkennen und entsprechende Erkennungsergebnisse ausgeben.
4. Sprachgesteuertes Fernbedienungssystem gemäß An
spruch 3, gekennzeichnet durch eine Lerneinheit (19B),
die die gespeicherten Standardmusterdaten aufgrund geän
derter Musterdaten eines neu eingegebenen Sprachbefehls
automatisch aktualisiert.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1341629A JPH03203794A (ja) | 1989-12-29 | 1989-12-29 | 音声リモートコントロール装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE4029698A1 true DE4029698A1 (de) | 1991-07-04 |
Family
ID=18347573
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4029698A Ceased DE4029698A1 (de) | 1989-12-29 | 1990-09-19 | Sprachgesteuertes fernbedienungssystem |
Country Status (3)
Country | Link |
---|---|
US (1) | US5199080A (de) |
JP (1) | JPH03203794A (de) |
DE (1) | DE4029698A1 (de) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19631579A1 (de) * | 1996-08-05 | 1998-02-12 | Vhf Computer Gmbh | Akustische Not-Aus- bzw. Not-Halt-Einrichtung |
DE19715099A1 (de) * | 1997-04-11 | 1998-10-15 | Saechsisches Inst Fuer Die Dru | Spracherkennungs- und Sprachsteuerungssystem |
DE19756641A1 (de) * | 1997-12-19 | 1999-06-24 | Sucker Mueller Hacoba Gmbh | Hilfsmittel beim Bestücken eines Spulengatters |
DE19957267A1 (de) * | 1999-11-26 | 2001-06-13 | Bosch Gmbh Robert | Vorrichtung und Verfahren zur Fernbedienung eines Autoradios |
DE10122087C1 (de) * | 2001-05-07 | 2002-08-29 | Siemens Ag | Verfahren zum Training und Betrieb eines Spracherkenners, Spracherkenner und Spracherkenner-Trainingssystem |
DE19617294B4 (de) * | 1996-04-30 | 2006-03-30 | Grönemeyer, Dietrich H.W., Prof. Dr.med. | Sprachgeführte Ansteuervorrichtung zum Steuern beliebiger Endgeräte |
Families Citing this family (66)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07109560B2 (ja) * | 1990-11-30 | 1995-11-22 | 富士通テン株式会社 | 音声認識装置 |
US5748843A (en) * | 1991-09-20 | 1998-05-05 | Clemson University | Apparatus and method for voice controlled apparel manufacture |
CA2153888C (en) * | 1993-01-19 | 2002-11-19 | Michael R. Levine | T.v. viewing and recording system |
US5493618A (en) * | 1993-05-07 | 1996-02-20 | Joseph Enterprises | Method and apparatus for activating switches in response to different acoustic signals |
AU7637194A (en) * | 1993-08-27 | 1995-03-21 | Voice Powered Technology International, Inc. | Voice operated remote control system |
AU1298995A (en) * | 1993-12-01 | 1995-06-19 | Nhc Corporation | Wireless remote switching system |
CH689410A5 (de) * | 1994-04-21 | 1999-03-31 | Info Byte Ag | Verfahren und Vorrichtung zur sprachgesteuerten Fernbedienung elektrischer Verbraucher. |
US5774859A (en) * | 1995-01-03 | 1998-06-30 | Scientific-Atlanta, Inc. | Information system having a speech interface |
US5835894A (en) * | 1995-01-19 | 1998-11-10 | Ann Adcock Corporation | Speaker and command verification method |
US5696879A (en) * | 1995-05-31 | 1997-12-09 | International Business Machines Corporation | Method and apparatus for improved voice transmission |
US5890123A (en) * | 1995-06-05 | 1999-03-30 | Lucent Technologies, Inc. | System and method for voice controlled video screen display |
US6012029A (en) * | 1995-09-29 | 2000-01-04 | Cirino; Sepideh S. | Voice activated system for locating misplaced items |
US5818328A (en) * | 1995-10-03 | 1998-10-06 | Audio Enhancement | Method and system for providing improved wireless audio transmission |
US6052666A (en) * | 1995-11-06 | 2000-04-18 | Thomson Multimedia S.A. | Vocal identification of devices in a home environment |
US5832439A (en) * | 1995-12-14 | 1998-11-03 | U S West, Inc. | Method and system for linguistic command processing in a video server network |
JP2982689B2 (ja) * | 1996-04-19 | 1999-11-29 | 日本電気株式会社 | 情報量基準を用いた標準パターン作成方式 |
US5832440A (en) * | 1996-06-10 | 1998-11-03 | Dace Technology | Trolling motor with remote-control system having both voice--command and manual modes |
US5777571A (en) * | 1996-10-02 | 1998-07-07 | Holtek Microelectronics, Inc. | Remote control device for voice recognition and user identification restrictions |
IL119948A (en) | 1996-12-31 | 2004-09-27 | News Datacom Ltd | Voice activated communication system and program guide |
US6188985B1 (en) * | 1997-01-06 | 2001-02-13 | Texas Instruments Incorporated | Wireless voice-activated device for control of a processor-based host system |
US5924068A (en) * | 1997-02-04 | 1999-07-13 | Matsushita Electric Industrial Co. Ltd. | Electronic news reception apparatus that selectively retains sections and searches by keyword or index for text to speech conversion |
US6188986B1 (en) | 1998-01-02 | 2001-02-13 | Vos Systems, Inc. | Voice activated switch method and apparatus |
US6327343B1 (en) | 1998-01-16 | 2001-12-04 | International Business Machines Corporation | System and methods for automatic call and data transfer processing |
US6219407B1 (en) | 1998-01-16 | 2001-04-17 | International Business Machines Corporation | Apparatus and method for improved digit recognition and caller identification in telephone mail messaging |
US6453292B2 (en) | 1998-10-28 | 2002-09-17 | International Business Machines Corporation | Command boundary identifier for conversational natural language |
US6606280B1 (en) * | 1999-02-22 | 2003-08-12 | Hewlett-Packard Development Company | Voice-operated remote control |
US6407779B1 (en) | 1999-03-29 | 2002-06-18 | Zilog, Inc. | Method and apparatus for an intuitive universal remote control system |
US6952155B2 (en) * | 1999-07-23 | 2005-10-04 | Himmelstein Richard B | Voice-controlled security system with proximity detector |
US8648692B2 (en) | 1999-07-23 | 2014-02-11 | Seong Sang Investments Llc | Accessing an automobile with a transponder |
US6594630B1 (en) | 1999-11-19 | 2003-07-15 | Voice Signal Technologies, Inc. | Voice-activated control for electrical device |
KR20010054622A (ko) * | 1999-12-07 | 2001-07-02 | 서평원 | 음성 인식 시스템의 음성 인식률 향상 방법 |
US7024363B1 (en) | 1999-12-14 | 2006-04-04 | International Business Machines Corporation | Methods and apparatus for contingent transfer and execution of spoken language interfaces |
US6748361B1 (en) | 1999-12-14 | 2004-06-08 | International Business Machines Corporation | Personal speech assistant supporting a dialog manager |
US6397186B1 (en) * | 1999-12-22 | 2002-05-28 | Ambush Interactive, Inc. | Hands-free, voice-operated remote control transmitter |
US8271287B1 (en) * | 2000-01-14 | 2012-09-18 | Alcatel Lucent | Voice command remote control system |
US6956496B1 (en) | 2000-01-18 | 2005-10-18 | Zilog, Inc. | Method and apparatus for updating universal remote databases through TV VBI processing |
US7096185B2 (en) * | 2000-03-31 | 2006-08-22 | United Video Properties, Inc. | User speech interfaces for interactive media guidance applications |
FR2810145A1 (fr) * | 2000-06-07 | 2001-12-14 | Sagem | Dispositif mobile et emetteur de telecommande de coffret fixe recepteur de telecommande |
JP3525889B2 (ja) * | 2000-11-28 | 2004-05-10 | 日本電気株式会社 | 周囲の他者に知覚されずに操作する通報方法及び処理システム |
US20030061033A1 (en) * | 2001-09-26 | 2003-03-27 | Dishert Lee R. | Remote control system for translating an utterance to a control parameter for use by an electronic device |
US7324947B2 (en) | 2001-10-03 | 2008-01-29 | Promptu Systems Corporation | Global speech user interface |
US6785358B2 (en) * | 2001-10-09 | 2004-08-31 | General Electric Company | Voice activated diagnostic imaging control user interface |
US20030090161A1 (en) * | 2001-10-19 | 2003-05-15 | Marlow C. Allen | Light communication channel-based electronics power distribution system |
US20030095675A1 (en) * | 2001-10-19 | 2003-05-22 | Marlow C. Allen | Light communication channel-based voice-activated control system and method for implementing thereof |
DE10251209A1 (de) * | 2002-10-31 | 2004-05-19 | Sennheiser Electronic Gmbh & Co. Kg | Mikrofonsystem |
US20040212478A1 (en) * | 2003-04-25 | 2004-10-28 | John Kutsuzawa | Remote control activator with voice data memory and associated method |
KR100695127B1 (ko) * | 2004-10-08 | 2007-03-14 | 삼성전자주식회사 | 다 단계 음성 인식 장치 및 방법 |
TWI287787B (en) * | 2004-12-14 | 2007-10-01 | Delta Electronics Inc | A remote control device and method with speech control |
US20060146652A1 (en) * | 2005-01-03 | 2006-07-06 | Sdi Technologies, Inc. | Sunset timer |
US20190362725A1 (en) | 2005-08-17 | 2019-11-28 | Tamiras Per Pte. Ltd., Llc | Providing access with a portable device and voice commands |
US20070136752A1 (en) * | 2005-12-12 | 2007-06-14 | John Sanders | Personalized electronic programming guide |
US20090222270A2 (en) * | 2006-02-14 | 2009-09-03 | Ivc Inc. | Voice command interface device |
US8607281B2 (en) | 2006-09-07 | 2013-12-10 | Porto Vinci Ltd. Limited Liability Company | Control of data presentation in multiple zones using a wireless home entertainment hub |
US9319741B2 (en) | 2006-09-07 | 2016-04-19 | Rateze Remote Mgmt Llc | Finding devices in an entertainment system |
US9386269B2 (en) | 2006-09-07 | 2016-07-05 | Rateze Remote Mgmt Llc | Presentation of data on multiple display devices using a wireless hub |
US8077022B2 (en) * | 2008-06-11 | 2011-12-13 | Flextronics Automotive Inc. | System and method for activating vehicular electromechanical systems using RF communications and voice commands received from a user positioned locally external to a vehicle |
US11012732B2 (en) * | 2009-06-25 | 2021-05-18 | DISH Technologies L.L.C. | Voice enabled media presentation systems and methods |
CN202014321U (zh) * | 2011-03-21 | 2011-10-19 | 海尔集团公司 | 遥控器及电视机系统 |
US9368107B2 (en) * | 2011-04-20 | 2016-06-14 | Nuance Communications, Inc. | Permitting automated speech command discovery via manual event to command mapping |
US20130201316A1 (en) * | 2012-01-09 | 2013-08-08 | May Patents Ltd. | System and method for server based control |
KR101732137B1 (ko) * | 2013-01-07 | 2017-05-02 | 삼성전자주식회사 | 원격 제어 장치 및 전력 제어 방법 |
CN104902402A (zh) * | 2015-05-28 | 2015-09-09 | 深圳希格玛和芯微电子有限公司 | 语音识别装置、语音声控系统和语音通讯系统 |
US9691378B1 (en) * | 2015-11-05 | 2017-06-27 | Amazon Technologies, Inc. | Methods and devices for selectively ignoring captured audio data |
US9697824B1 (en) * | 2015-12-30 | 2017-07-04 | Thunder Power New Energy Vehicle Development Company Limited | Voice control system with dialect recognition |
US10929458B2 (en) | 2018-04-11 | 2021-02-23 | Microsoft Technology Licensing, Llc | Automated presentation control |
EP3771202B1 (de) * | 2019-07-23 | 2023-08-30 | Top Victory Investments Limited | Verfahren und system zur automatischen steuerung der audioausgabe einer fernsehvorrichtung auf basis von umgebungsgeräuschen |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2755633A1 (de) * | 1977-12-14 | 1979-06-21 | Loewe Opta Gmbh | Fernsteuerung zum steuern, ein- und umschalten von variablen und festen geraetefunktionen und funktionsgroessen in nachrichtentechn. geraeten |
DE3803220A1 (de) * | 1987-03-24 | 1989-08-17 | Licentia Gmbh | Haushaltsgeraet mit einer programmschalteinrichtung |
WO1989010612A1 (en) * | 1988-04-27 | 1989-11-02 | British Telecommunications Public Limited Company | Voice-operated service |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60100197A (ja) * | 1983-11-07 | 1985-06-04 | 日本電気株式会社 | 音声入力装置 |
JPS60202490A (ja) * | 1984-03-27 | 1985-10-12 | セイコーエプソン株式会社 | 音声認識装置 |
US4718093A (en) * | 1984-03-27 | 1988-01-05 | Exxon Research And Engineering Company | Speech recognition method including biased principal components |
JPS60212799A (ja) * | 1984-04-06 | 1985-10-25 | 日本電気株式会社 | 音声認識装置 |
US4725956A (en) * | 1985-10-15 | 1988-02-16 | Lockheed Corporation | Voice command air vehicle control system |
JPS62124599A (ja) * | 1985-11-26 | 1987-06-05 | 株式会社東芝 | 音声認識装置 |
US4837830A (en) * | 1987-01-16 | 1989-06-06 | Itt Defense Communications, A Division Of Itt Corporation | Multiple parameter speaker recognition system and methods |
GB8702910D0 (en) * | 1987-02-10 | 1987-03-18 | British Telecomm | Multi-user speech recognition system |
JPH02178699A (ja) * | 1988-12-28 | 1990-07-11 | Nec Corp | 音声認識装置 |
-
1989
- 1989-12-29 JP JP1341629A patent/JPH03203794A/ja active Pending
-
1990
- 1990-09-07 US US07/578,706 patent/US5199080A/en not_active Expired - Lifetime
- 1990-09-19 DE DE4029698A patent/DE4029698A1/de not_active Ceased
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2755633A1 (de) * | 1977-12-14 | 1979-06-21 | Loewe Opta Gmbh | Fernsteuerung zum steuern, ein- und umschalten von variablen und festen geraetefunktionen und funktionsgroessen in nachrichtentechn. geraeten |
DE3803220A1 (de) * | 1987-03-24 | 1989-08-17 | Licentia Gmbh | Haushaltsgeraet mit einer programmschalteinrichtung |
WO1989010612A1 (en) * | 1988-04-27 | 1989-11-02 | British Telecommunications Public Limited Company | Voice-operated service |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19617294B4 (de) * | 1996-04-30 | 2006-03-30 | Grönemeyer, Dietrich H.W., Prof. Dr.med. | Sprachgeführte Ansteuervorrichtung zum Steuern beliebiger Endgeräte |
DE19631579A1 (de) * | 1996-08-05 | 1998-02-12 | Vhf Computer Gmbh | Akustische Not-Aus- bzw. Not-Halt-Einrichtung |
DE19715099A1 (de) * | 1997-04-11 | 1998-10-15 | Saechsisches Inst Fuer Die Dru | Spracherkennungs- und Sprachsteuerungssystem |
DE19715099C2 (de) * | 1997-04-11 | 2003-05-08 | Saechsisches Inst Fuer Die Dru | System zur Steuerung einer graphischen Maschine |
DE19756641A1 (de) * | 1997-12-19 | 1999-06-24 | Sucker Mueller Hacoba Gmbh | Hilfsmittel beim Bestücken eines Spulengatters |
DE19756641C2 (de) * | 1997-12-19 | 2001-02-22 | Sucker Mueller Hacoba Gmbh | Hilfsmittel beim Bestücken eines Spulengatters und Verfahren zum Bestücken eines Spulengatters |
DE19957267A1 (de) * | 1999-11-26 | 2001-06-13 | Bosch Gmbh Robert | Vorrichtung und Verfahren zur Fernbedienung eines Autoradios |
DE10122087C1 (de) * | 2001-05-07 | 2002-08-29 | Siemens Ag | Verfahren zum Training und Betrieb eines Spracherkenners, Spracherkenner und Spracherkenner-Trainingssystem |
Also Published As
Publication number | Publication date |
---|---|
US5199080A (en) | 1993-03-30 |
JPH03203794A (ja) | 1991-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE4029698A1 (de) | Sprachgesteuertes fernbedienungssystem | |
DE4029717A1 (de) | Sprachgesteuertes fernbedienungssystem | |
DE4029697A1 (de) | Sprachgesteuertes fernbedienungssystem | |
EP0296588B1 (de) | Verfahren und Schaltungsanordnung zum automatischen Wiedererkennen von Signalfolgen | |
DE3819178C2 (de) | ||
DE69636985T2 (de) | Sprachanwesenheitdetektor für halbduplex-audiokommunikationssystem | |
DE3885683T2 (de) | Telefonapparat. | |
DE3751486T2 (de) | Datenübertragungssystem. | |
EP0994461A2 (de) | Verfahren zur automatischen Erkennung einer buchstabierten sprachlichen Äusserung | |
EP0122548B1 (de) | Fernbedienungsgerät zur drahtlosen Steuerung verschiedener Geräte | |
DE19752453A1 (de) | Positionserfassungseinrichtung und Positionszeigereinrichtung | |
EP1118979A1 (de) | Sprachgesteuerte Vorrichtung | |
DE2753707A1 (de) | Einrichtung zur erkennung des auftretens eines kommandowortes aus einer eingangssprache | |
DE4031421C2 (de) | Musteranpassungssystem für eine Spracherkennungseinrichtung | |
DE69918635T2 (de) | Vorrichtung und Verfahren zur Sprachverarbeitung | |
DE4328752B4 (de) | Spracherkennungssystem | |
DE1524375A1 (de) | Verfahren und Einrichtung zur Zeichenerkennung | |
DE69922769T2 (de) | Vorrichtung und Verfahren zur Sprachverarbeitung | |
DE4029716A1 (de) | Sprachgesteuertes fernbedienungssystem | |
DE4436734A1 (de) | Bedienprotokolliergerät für ein elektrisches Gerät | |
DE69632930T2 (de) | Verfahren zur Steuerung eines Videorecorders | |
DE2916127A1 (de) | Empfaengereinrichtung zum unterdruecken voruebergehend auftretender geraeusche bei stoerungen | |
DE1962759A1 (de) | Vocoder | |
DE60022269T2 (de) | Sprachbasiertes Manipulationsverfahren und -gerät | |
DE4025302C2 (de) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8120 | Willingness to grant licences paragraph 23 | ||
8110 | Request for examination paragraph 44 | ||
8131 | Rejection |