DE4029698A1 - Sprachgesteuertes fernbedienungssystem - Google Patents

Sprachgesteuertes fernbedienungssystem

Info

Publication number
DE4029698A1
DE4029698A1 DE4029698A DE4029698A DE4029698A1 DE 4029698 A1 DE4029698 A1 DE 4029698A1 DE 4029698 A DE4029698 A DE 4029698A DE 4029698 A DE4029698 A DE 4029698A DE 4029698 A1 DE4029698 A1 DE 4029698A1
Authority
DE
Germany
Prior art keywords
voice
pattern data
command
speech recognition
remote control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE4029698A
Other languages
English (en)
Inventor
Toshiyuki Kimura
Kazuo Yabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Publication of DE4029698A1 publication Critical patent/DE4029698A1/de
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03JTUNING RESONANT CIRCUITS; SELECTING RESONANT CIRCUITS
    • H03J9/00Remote-control of tuned circuits; Combined remote-control of tuning and other functions, e.g. brightness, amplification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03JTUNING RESONANT CIRCUITS; SELECTING RESONANT CIRCUITS
    • H03J1/00Details of adjusting, driving, indicating, or mechanical control arrangements for resonant circuits in general
    • H03J1/0008Details of adjusting, driving, indicating, or mechanical control arrangements for resonant circuits in general using a central processing unit, e.g. a microprocessor
    • H03J1/0025Details of adjusting, driving, indicating, or mechanical control arrangements for resonant circuits in general using a central processing unit, e.g. a microprocessor in a remote control unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Selective Calling Equipment (AREA)

Description

Die vorliegende Erfindung betrifft ein Fernbedienungssy­ stem für die Fernbedienung verschiedener elektronischer Bauelemente und insbesondere ein Fernbedienungssystem für die Fernbedienung beispielsweise von audiovisuellen Geräten (AV-Geräten) durch Sprachbefehle gemäß dem Ober­ begriff des Anspruches 1.
In den letzten Jahren sind verschiedene AV-Geräte wie etwa Stereoanlagen, Fernsehempfänger, Kassetten-Tape- Decks, Video-Tape-Decks, Compactdisc-Spieler, Laserbild­ plattenspieler oder ähnliches mit Fernbedienungssystemen ausgerüstet worden.
Ein Fernbedienungssystem besitzt einen Sender, der norma­ lerweise vom zu steuernden AV-Gerät entfernt angeordnet wird. Wenn der Sender betätigt wird, sendet er ein Fern­ bedienungssignal, etwa ein lnfrarot-Fernbedienungssignal, aus, das von einem im zu steuernden AV-Gerät befindlichen Empfänger empfangen wird. Das empfangene Fernbedienungs­ signal wird dekodiert, um das AV-Gerät entsprechend dem Fernbedienungssignal zu steuern.
Kürzlich ist ein sprachgesteuertes Fernbedienungssystem entwickelt worden, das anstelle von über Tasten eingege­ benen Steuerbefehlen Sprachsteuerbefehle verwendet. Das sprachgesteuerte Fernbedienungssystem besitzt ein an ei­ nem Sender angebrachtes Mikrophon, das einen Sprachbefehl in ein elektrisches Sprachsignal umwandelt, und eine Spracherkennungs-LSI-Schaltung (Großintegrationsschal­ tung), die ein einem durch das Sprachsignal dargestellten Sprachmuster entsprechendes Fernbedienungssignal erzeugt. Das auf diese Weise erzeugte Fernbedienungssignal wird an einem in einem zu steuerenden AV-Gerät befindlichen Emp­ fänger gesendet.
In einem herkömmlichen sprachgesteuerten Fernbedienungs­ system werden die Standardmusterdaten, die den von der Bedienungsperson gegebenen Sprachbefehlen entsprechen, im voraus gespeichert. Wenn ein Sprachbefehl für die Fernbe­ dienung eingegeben wird, wird dieser Befehl auf der Grundlage der gespeichertren Standardmusterdaten erkannt.
Der von der Bedienungsperson geäußerte Sprachschall muß jedoch nicht notwendig stets der gleiche sein. Die Merk­ male des von der Bedienungsperson geäußerten Sprach­ schalls können gelegentlich von denjenigen abweichen, die als Standardmusterdaten für diese Bedienungsperson ge­ speichert worden sind. Wenn die Sprachschalleigenschaften variieren, stimmen die Musterdaten eines eingegebenen Sprachbefehls nicht mit den Standardmusterdaten überein, so daß die Spracherkennungsrate abgesenkt wird.
Um diesen Nachteil zu vermeiden, ist es notwendig, die Standardmusterdaten zu einem geeigneten Zeitpunkt erneut zu speichern. Dieser Prozeß des erneuten Speicherns von Standardmusterdaten ist jedoch unangenehm und langwierig, so daß das Fernbedienungssystem nicht bequem handhabbar ist.
Es ist daher eine Aufgabe der vorliegenden Erfindung, ein sprachgesteuertes Fernbedienungssystem zu schaffen, das auch dann eine erhöhte Spracherkennungsrate besitzt, wenn sich die Sprachschalleigenschaften der Bedienungsperson mit der Zeit verändern.
Diese Aufgabe wird bei einem Fernbedienungssystem der gattungsgemäßen Art erfindungsgemäß gelöst durch die Merkmale im kennzeichnenden Teil des Anspruches 1.
Weitere Merkmale und Vorteile der Erfindung sind im Ne­ benanspruch und in den Unteransprüchen angegeben.
Wenn über ein Mikrophon ein Sprachbefehl eingegeben wird, wandelt ein Spracherkennungsmittel den Inhalt des Sprach­ befehls in Musterdaten um und vergleicht die Musterdaten mit einer Mehrzahl von verschiedenen Standardmusterdaten, die in Standardmusterdaten-Speicherbereichen eingetragen worden sind. Dann gibt das Spracherkennungsmittel ein Fernbedienungs-Befehlssignal an ein Sendemittel, damit dieses ein Fernbedienungssignal erzeugt.
Wenn über das Mikrophon ein Sprachbefehl eingegeben wird, wird der Sprachbefehl von Spracherkennungsprozessoren aufgrund der in ihnen gespeicherten Standardmusterdaten unabhängig erkannt, anschließend geben diese Spracherken­ nungsprozessoren ihre jeweiligen Erkennungsergebnisse aus. Auf der Grundlage der Erkennungsergebnisse der Spracherkennungsprozessoren liefert das Spracherkennungs­ mittel ein Fernbedienungs-Befehlssignal an das Sendemit­ tel, damit dieses ein Fernbedienungssignal erzeugt.
Die Erfindung wird im folgenden anhand von bevorzugten Ausführungsformen mit Bezug auf die Zeichnungen näher er­ läutert; es zeigen:
Fig. 1 ein Blockschaltbild eines allgemeinen Fernbe­ dienungssystems;
Fig. 2 eine beispielhafte Darstellung eines Fernbe­ dienungssignals;
Fig. 3 ein Blockschaltbild des Senders eines allge­ meinen sprachgesteuerten Fernbedienungssy­ stems;
Fig. 4 eine perspektivische Ansicht des Senders ei­ nes sprachgesteuerten Fernbedienungssystems gemäß einer ersten Ausführungsform der vor­ liegenden Erfindung;
Fig. 5 ein Blockschaltbild des Senders des sprachge­ steuerten Fernbedienungssystems gemäß der er­ sten Ausführungsform;
Fig. 6 ein Blockschaltbild einer Spracherkennungs­ schaltung gemäß der ersten Ausführungsform;
Fig. 7 ein detailliertes Blockschaltbild der Spracherkennungsschaltung gemäß der ersten Ausführungsform;
Fig. 8(a) eine Darstellung eines Analogprozessors;
Fig. 8(b) bis 8(f) Darstellungen der Signal-Wellenformen im in Fig. 8(a) gezeigten Analogprozessor;
Fig. 9 ein Flußdiagramm einer Operationsabfolge des Senders gemäß der ersten Ausführungsform;
Fig. 10 ein Blockschaltbild des Senders eines sprachge­ steuerten Fernbedienungssystem gemäß einer zweiten Ausführungsform der vorliegenden Er­ findung;
Fig. 11 ein Blockschaltbild einer Spracherkennungs­ schaltung gemäß der zweiten Ausführungsform; und
Fig. 12 ein Flußdiagramm einer Operationsabfolge des Senders gemäß der zweiten Ausführungsform.
Allgemeines Fernbedienungssytem Zum besseren Verständnis der vorliegenden Erfindung wer­ den im folgenden zunächst ein allgemeines Fernbedienungs­ system und ein Sprach-Fernbedienungssignal beschrieben.
Wie in Fig. 1 gezeigt, umfaßt ein Fernbedienungssystem 100 einen Sender 101, der ein Fernbedienungssignal von einer von einem zu steuernden Gerät 103 wie etwa einem AV-Gerät entfernten Position aussendet, und einen Empfän­ ger 102, der das ausgesendete Fernbedienungssignal emp­ fängt, dieses dekodiert und die dekodierte Information an das zu steuernde Gerät 103 schickt.
In Fig. 2 ist ein allgemeines Fernbedienungssignal ge­ zeigt. Das Fernbedienungssignal besteht aus einem Leit­ kode, der die Datenübertragung einem Empfänger anzeigt, einem Abnehmerkode und einem invertierten Abnehmerkode, die ein zu steuerndes Gerät bezeichnen, schließlich aus einem Datenkode und einem invertierten Datenkode, die einen Steuerbefehl für das zu steuernde Gerät bezeichnen. Der invertierte Abnehmerkode und der invertierte Daten­ kode werden zur Ermittlung eines Fehlers im Abnehmerkode bzw. im Datenkode verwendet.
In Fig. 3 ist schematisch der Sender 101 des sprachge­ steuerten Fernbedienungssystems 100 gezeigt. Der Sender 101 umfaßt ein Mikrophon M, das einen Sprachbefehl in ein elektrisches Signal umwandelt. Das umgewandelte elektri­ sche Signal wird in eine Spracherkennungsschaltung 15, eingegeben, wobei die Spracherkennungsschaltung 15 in Ge­ stalt einer Spracherkennungs-LSI-Schaltung oder ähnlichem vorliegt und einen Mikroprozessor enthält. Die Spracher­ kennungsschaltung 15 erkennt den Inhalt des eingegebenen elektrischen Signals und erzeugt diesem erkannten Inhalt entsprechende Steuerdaten. Der Sender 101 besitzt außer­ dem eine einen Mikroprozessor umfassende Steuerschaltung 16. Auf der Grundlage der Steuerdaten von der Spracher­ kennungsschaltung 15 erzeugt die Steuerschaltung 16 ein Fernbedienungs-Befehlssignal SR und gibt dieses in eine Sendeschaltung 17 ein, die anschließend eine Infrarot­ licht-Emitterdiode D1 aktiviert, so daß diese ein Fernbe­ dienungssignal RC ausgibt. Die erwähnten Bestandteile des Senders 101 werden von einer Leistungsversorgungsschal­ tung 18 mit elektrischer Energie versorgt.
Wenn über das Mikrophon M ein Sprachbefehl empfangen wird, wandelt die Spracherkennungsschaltung 15 den Sprachbefehl in Musterdaten um. Die Spracherkennungs­ schaltung 15 vergleicht die Sprachbefehl-Musterdaten mit einer Mehrzahl von in ihr gespeicherten Standardmusterda­ ten und bestimmt den Abstand zwischen den Sprachbefehl- Musterdaten und den Standardmusterdaten; anschließend gibt die Spracherkennungsschaltung 15 Befehlsdaten aus, die denjenigen Standardmusterdaten entsprechen, deren Ab­ stand zu den Sprachbefehl-Musterdaten am kleinsten ist. Es kann auch eine andere Spracherkennungsverarbeitung zur Anwendung kommen, in der die Ähnlichkeit der verglichenen Musterdaten entsprechend einem einfachen Ähnlichkeitsver­ fahren bestimmt wird und Befehlsdaten, die den Standard­ musterdaten mit der höchsten Ähnlichkeit entsprechen, ausgegeben werden. Die so erzeugten Befehlsdaten werden in die Steuerschaltung 16 eingegeben.
Die Steuerschaltung 16 schickt ein den eingegebenen Be­ fehlsdaten entsprechendes Fernbedienungs-Befehlssignal SR an die Sendeschaltung 17. Aufgrund des gelieferten Fern­ bedienungs-Befehlssignal SR treibt die Sendeschaltung 17 die Infrarotlicht-Emitterdiode D1, so daß diese ein Fern­ bedienungssignal RC aussendet. Das zu steuernde Gerät 103 wird auf diese Weise durch das Fernbedienungssignal RC fernbedient.
Erste Ausführungsform
Nun wird mit Bezug auf die Fig. 4 bis 10 ein sprachge­ steuertes Fernbedienungssystem gemäß einer ersten Ausfüh­ rungsform der vorliegenden Erfindung beschrieben.
(Äußerer Aufbau)
Wie in Fig. 4 gezeigt, weist ein Sender 10A des sprachge­ steuerten Fernbedienungssystems ein einteiliges Gehäuse 11 auf, das der Bedienungsperson das freie Umhertragen des Senders erlaubt. Das Gehäuse 11 besitzt in seiner oberen Blende ein Mikrophon M. Das Mikrophon M wandelt den von der Bedienungsperson gegebenen Sprachbefehl in ein elektrisches Signal um. Ein Sendemittel (etwa eine Infrarotlicht-Emitterdiode D1) ist an einem Ende des Ge­ häuses 11 angebracht. Die Infrarotlicht-Emitterdiode D1 wird dazu verwendet, ein Fernbedienungssignal an den Emp­ fänger eines (nicht gezeigten) entfernt angeordneten zu steuernden Gerätes zu senden. Auf einer Seite des Gehäu­ ses 11 ist ein Spracheingabeschalter 12 (der im folgenden mit "Sprechschalter" bezeichnet wird) angeordnet, der im gedrückten Zustand geschlossen ist und automatisch geöff­ net wird, wenn er losgelassen wird. Der Sprechschalter 12 kann ein automatisch zurückstellender Druckknopf oder ein automatisch zurückstellender Schiebeschalter sein. Wenn ein Sprachbefehl eingegeben wird, wird der Sprechschalter 12 geschlossen, um den Sender 10A zu betätigen. Sonst ist der Sprechschalter 12 geöffnet, so daß der Sender 10A au­ ßer Betrieb gehalten wird. Das Gehäuse 11 besitzt an sei­ ner Seite außerdem einen Betriebswahlschalter 13, der beispielsweise die Form eines Schiebeschalters besitzt. Der Betriebswahlschalter 13 dient der Auswahl einer der Betriebsarten für einen bestimmten Zeitpunkt. Die Be­ triebsarten umfassen eine Sprachspeicherbetriebsart, in der der Sprachbefehl im Sender 10A gespeichert wird, und eine Spracherkennungsbetriebsart, in der ein Sprachbefehl erkannt wird, wie später beschrieben werden wird. Das Ge­ häuse 11 beinhaltet die elektronische Schaltung des er­ findungsgemäßen sprachgesteuerten Fernbedienungssystems.
Aufbau der elektronischen Schaltung
In Fig. 5 ist die elektronische Schaltung des Senders 10A des sprachgesteuerten Fernbedienungssystems gemäß der er­ sten Ausführungsform der vorliegenden Erfindung in Block­ form gezeigt. Der Sender 10A besitzt eine Spracherken­ nungschaltung 15A, die eine Standardmuster-Speicherein­ heit 5 umfaßt, in der eine Mehrzahl von verschiedenen Standardmusterdaten, die sich auf die jeweiligen Sprach­ befehle beziehen, gespeichert werden. Beispielsweise speichert die Standardmuster-Speichereinheit 5 Standard­ musterdaten PA1 bis PAn für einen ersten Sprachbefehl A, Standardmusterdaten PB1 bis PBn eines Sprachbefehls B,..., Standardmusterdaten PM1 bis PMn für einen Sprach­ befehl M. Ein vom Mikrophon M eingegebener Sprachbefehl wird unter Verwendung einer Mehrzahl von Standardmuster­ daten erkannt, anschließend werden die erkannten Daten in ein Fernbedienungssignal RC umgewandelt. Der Sender 10A umfaßt eine Steuerschaltung 16, mit der der Sprechschal­ ter 12 und der Betriebswahlschalter 13 verbunden sind. Die Steuerschaltung 16 gibt an eine Sendeschaltung 17 ein Fernbedienungs-Befehlssignal SR, welches eine Infrarot­ licht-Emitterdiode D1 einschaltet, so daß diese ein Fern­ bedienungssignal RC an den Empfänger eines entfernt ange­ ordneten zu steuernden Gerätes sendet. Die Spracherken­ nungsschaltung 15A, die Steuerschaltung 16 und die Sende­ schaltung 17 werden von einer Leistungsversorgungsschal­ tung 18 über eine Leistungsversorgungs-Steuerschaltung 14 und Leistungsversorgungsleitungen mit elektrischer Ener­ gie versorgt.
Wie in Fig. 6 gezeigt, umfaßt die Spracherkennungsschal­ tung 15A einen Analogprozessor 21, der ein vom Mikrophon M empfangenes analoges Sprachbefehlssignal verarbeitet und das verarbeitete analoge Sprachbefehlssignal als Zeitaufteilungs-Digitaldaten 20 ausgibt, einen Spracher­ kennungsprozessor 22, der den Sprachbefehl aufgrund der vom Analogprozessor 21 gelieferten Zeitaufteilungs-Di­ gitaldaten 20 erkennt, einen Speicher 23A, in dem Stan­ dardmusterdaten für die Spracherkennung gespeichert sind, und eine Schnittstelle 24, über die Signale an die Steu­ erschaltung 16 geliefert und von der Steuerschaltung 16 empfangen werden.
Der Speicher 23A besitzt die Funktion der in Fig. 5 ge­ zeigten Standardmuster-Speichereinheit 5 und speichert eine Mehrzahl verschiedener Standardmusterdaten PA1 bis PAn, PB1 bis PBn,..., Pm1 bis Pmn für die entsprechenden Sprachbefehle.
Wie in Fig. 7 gezeigt, umfaßt der Analogprozessor 21 all­ gemein einen Verstärker 30, der ein vom Mikrophon M über­ tragendes Sprachbefehlssignal auf einen geeigneten Pegel verstärkt, eine Filterreihe 31, die ein Verstärkeraus­ gangssignal in Signale in unterschiedlichen Frequenzbän­ dern unterteilt, gleichrichtet und die Signale in diesen verschiedenen Frequenzbändern ausgibt, eine Ana­ log/Digital-Wandleranordnung 32 (die im folgenden mit "A/D-Wandleranordnung" bezeichnet wird), die die Aus­ gangssignale in den verschiedenen Frequenzbändern der Filterreihe 31 in Digitalsignale umwandelt, und eine Schnittstelle 33, die die Signale zum Spracherkennungs­ prozessor 22 überträgt und von diesem Signale empfängt.
In Fig. 8(a) ist gezeigt, daß die Filterreihe 31 eine Bandpaßfilteranordnung 35, die das eingegebene Sprachsi­ gnal in Signale einer Mehrzahl von Frequenzbändern (4 Frequenzbänder in Fig. 8(a)) unterteilt, eine Gleichrich­ teranordnung 36, die die Ausgangssignale des Bandpaßfil­ teranordnung 35 gleichrichtet und eine Tiefpaßfilteran­ ordnung 37, die aus den Ausgangssignalen von der Gleich­ richteranordnung 36 den Brumm entfernt.
Die Bandpaßfilteranordnung 35 umfaßt eine Mehrzahl (vier in Fig. 8(a)) von Bandpaßfiltern BPF0 bis BPF3, die ent­ sprechend ihren jeweiligen Frequenzbändern die Mittenfre­ quenzen f0, f1, f2 und f3 (f0 < f1 < f2 < f3) besitzen.
Die Gleichrichteranordnung 36 umfaßt vier Gleichrichter RCT0 bis RCT3, die mit den entsprechenden Bandpaßfiltern BPF0 bis BPF3 der Bandpaßfilteranordnung 35 in Reihe ge­ schaltet sind. Mit den Gleichrichtern RCT0 bis RCT3 wer­ den die Ausgangssignale in den jeweiligen Frequenzbändern der Bandpaßfilter BPF0 bis BPF3 gleichgerichtet.
Die Tiefpaßfilteranordnung 37 umfaßt vier Tiefpaßfilter LPF0 bis LPF3, die mit den jeweiligen Gleichrichtern RCT0 bis RCT3 der Gleichrichteranordnung 36 in Reihe geschal­ tet sind. Die Tiefpaßfilter LPF0 bis LPF3 beseitigen aus den gleichgerichteten Signalen in den entsprechenden Fre­ quenzbändern den Brumm.
Die A/D-Wandleranordnung 32 umfaßt vier A/D-Wandler ADC0 bis ADC3, die mit den jeweiligen Tiefpaßfiltern LPF0 bis LPF3 der Tiefpaßfilteranordnung 37 in Reihe geschaltet sind. Die A/D-Wandler ADC0 bis ADC3 wandeln die analogen Ausgangssignale der Tiefpaßfilter LPF0 bis LPF3 in Digi­ talsignale um.
Nun wird der Betrieb des Analogprozessors 21 beschrieben. Um der Kürze willen wird nur die Signalverarbeitung in einem Frequenzband (zum Beispiel in demjenigen des Band­ paßfilters BPF3) beschrieben. In den anderen Frequenzbän­ dern wird jedoch eine ähnliche Signalverarbeitung ausge­ führt.
Wenn in das Mikrophon ein Sprachbefehl eingegeben wird, wird das elektrische Ausgangssignal des Mikrophons M durch den Verstärker 30 auf einen geeigneten Signalpegel verstärkt, so daß der Verstärker 30 ein verstärktes Si­ gnal A ausgibt. (s. Fig. 8(b)) Dann wird das verstärkte Signal A an das Bandpaßfilter BPF3 gegeben, das nur das Signal E mit dem entsprechenden Frequenzband hindurch­ läßt. Dieses Signal B wird anschließend an den Gleich­ richter RCT3 geliefert (s. Fig. 8(c)). Das Signal B wird vom Gleichrichter RCT3 gleichgerichtet, so daß ein gleichgerichtetes Ausgangssignal C (s. Fig. 8(d)) des Gleichrichters RCT3 an das Tiefpaßfilter LPF3 übertragen wird. Das Tiefpaßfilter LPF3 beseitigt einen im Signal C eventuell enthaltenen Brumm und erzeugt ein brummfreies Ausgangssignal D (s. Fig. 8(e)), das anschließend in den A/D-Wandler ADC3 eingegeben wird. Der A/D-Wandler ADC3 wandelt anschließend das eingegebene Signal D in ein Si­ gnal E um, das, wie in Fig. 8(f) gezeigt ist, aus 4-Bit- Zeitaufteilungs-Digitaldaten (1010), (0111), (0101), (0111), (1101), ... zusammengesetzt ist.
Wie in Fig. 7 gezeigt, umfaßt der Spracherkennungsprozes­ sor 22 eine Systemsteuerschaltung 40, die Steuerbefehle von der Steuerschaltung 16 analysiert und verarbeitet und ferner die gesamte Operation des Spracherkennungsprozes­ sors 22 steuert, und einen Digitalprozessor 41, der die Abstandsberechnungen ausführt und den Speicher 23A steu­ ert.
Die Systemsteuerschaltung 40 umfaßt eine CPU 42 (Zentraleinheit), die den Gesamtbetrieb des Senders 10A steuert, ein ROM 43 (Nur-Lese-Speicher), in dem ein von der CPU 42 für die Gesamtoperation des Senders 10A abzu­ arbeitendes Steuerprogramm gespeichert ist, ein RAM 44 (Schreib-Lese-Speicher), das vorübergehend Daten spei­ chert, und eine Schnittstelle 45, die sowohl an den Ana­ logprozessor 21 als auch an den Digitalprozessor 41 Daten überträgt und von diesen Prozessoren Daten empfängt.
Der Digitalprozessor 41 umfaßt eine Recheneinheit 46, die Abstandsberechnungen ausführt und auf der Grundlage der Ergebnisse der Abstandsberechnungen eingegebene Sprachbe­ fehle identifiziert, ein Daten-RAM 47, das die für die Abstandsberechnungen erforderlichen Daten speichert, ein ROM 48, in dem ein Programm für die Abstandsberechnungen gespeichert ist, ein Arbeits-RAM 49, das vorübergehend die verarbeiteten Daten speichert, eine Schnittstelle 50, die Daten sowohl an den Analogprozessor 21 als auch an die Systemsteuerschaltung 40 sendet und von diesen Daten empfängt, und eine Schnittstelle 51, die Daten an den Speicher 23A überträgt und von diesem empfängt.
Der Spracherkennungsprozessor 22 arbeitet wie folgt: Wenn von der Steuerschaltung 16 über die Schnittstelle 24 ein Steuerbefehl an den Spracherkennungsprozessor 22 gegeben wird, empfängt die Systemsteuerschaltung 40 den Steuerbe­ fehl über die Schnittstellen 50 und 45 und analysiert den empfangenen Steuerbefehl. Wenn das Analyseergebnis eine Spracherkennungsverarbeitung anzeigt, schickt die Sy­ stemsteuerschaltung 40 über die Schnittstellen 45 und 50 einen Befehl zur Spracherkennung an den Digitalprozessor 41.
Wenn die Systemsteuerschaltung 40 einen entsprechenden Befehl empfängt, leitet der Digitalprozessor 41 Zeitauf­ teilungs-Digitaldaten 20 (Signal des eingegebenen Sprach­ befehls) vom Analogprozessor 21 über die Schnittstelle 50 in das Daten-RAM 47. Die Recheneinheit 46 liest die Stan­ dardmusterdaten aus der ersten Adresse des Speichers 23A über die Schnittstelle 51 aus, wobei im Speicher 23A die verschiedenen Standardmusterdaten PA1 bis PAn, PB1 bis PBn, ..., PM1 bis PMn gespeichert sind. Dann bestimmt die Recheneinheit 46 aus einem ersten Satz von Zeitauf­ teilungs-Digitaldaten aus einer Mehrzahl von die gelese­ nen Standardmusterdaten darstellenden Zeitaufteilungs-Di­ gitaldaten und außerdem aus einem ersten Satz von Zeit­ aufteilungs-Digitaldaten des Signals des eingegebenen Sprachbefehls jeweils den Logarithmus und anschließend die Differenzen zwischen diesen zwei Logarithmen. Dann quadriert die Recheneinheit 46 diese Differenzen und sum­ miert die Quadrate, um einen Abstand D zu bestimmen. Da­ her ist der Abstand D durch
Die Abstände D für sämtliche Standardmusterdaten werden auf die gleiche Weise berechnet. Je kleiner die berechne­ ten Abstände, um so höher ist die Wahrscheinlichkeit, daß die Standardmusterdaten dem Sprachbefehl ähnlich sind. Die so erhaltenenen Erkennungsergebnisse werden für jeden der Sprachbefehle gesammelt. Dann werden die Befehlsda­ ten, die dem den Standardmusterdaten insgesamt am näch­ sten kommenden Sprachbefehl entspechen, als Befehlsdaten der Spracherkennungsschaltung 15A über die Schnittstelle 24 an die Steuerschaltung 16 ausgegeben.
Nun wird wieder auf Fig. 5 Bezug genommen. Die Steuer­ schaltung 16 ist beispielsweise in einem Mikroprozessor ausgebildet. Der Mikroprozessor der Steuerschaltung 16 umfaßt eine CPU, ein ROM, ein RAM und eine Schnittstelle. Die CPU führt Rechenoperationen aus, wobei sie auf die im als Arbeitsspeicher dienenden RAM gespeicherten Daten Be­ zug nimmt und die Rechenoperationen gemäß dem Algorithmus (s. Fig. 9) eines im ROM gespeicherten Steuerprogramms ausführt und dadurch die Gesamtoperation des Senders 10A bewirkt. Die Steuerschaltung 16 empfängt außerdem Unter­ brechungssignale vom Sprechschalter 12 und vom Betriebs­ wahlschalter 13 und führt Steuerfunktionen entsprechend den durch diese Unterbrechungssignale angezeigten Befeh­ len aus. Die Operation des Senders 10A unter der Steue­ rung der Steuerschaltung 16 wird im folgenden beschrie­ ben.
Die Steuerschaltung 16 weist eine Lerneinheit 19A auf. Diese Lerneinheit 19A kann durch eine unabhängige elek­ trische Schaltung hardwaremäßig implementiert werden. In der erläuterten Ausführungsform ist die Lerneinheit 19A jedoch gemäß einem Lernprogramm, das entweder in einem ein Steuerprogramm für die Steuerschaltung 16 speichern­ den Speicher gespeichert ist oder im Steuerprogramm für die Steuerschaltung 16 enthalten ist, softwaremäßig im­ plementiert. Insbesondere ist die Lerneinheit 19A in den Schritten S17 und S18 in Fig. 9 implementiert.
Wenn ein Satz aus einer Mehrzahl von unterschiedlichen, dem Erkennungsergebnis als Ganzem entsprechenden Stan­ dardmusterdatensätzen der Spracherkennungseinheit 15A vom Erkennungsergebnis als Ganzem der Spracherkennungsschal­ tung 15A verschieden ist, wird dieser Standardmusterda­ tensatz automatisch durch die Musterdaten des eingegebe­ nen Sprachbefehls aktualisiert oder ersetzt. In dem Fall, in dem beispielsweise ein eingegebener Sprachbefehl auf­ grund des Erkennungsergebnisses als Ganzem von der Spracherkennungsschaltung 15A als Sprachbefehl A erkannt wird, und in dem das Erkennungsergebnis, für das ein Satz PA2 einer Mehrzahl unterschiedlicher Standardmusterdaten­ sätze PA1 bis PAn für den Sprachbefehl A verwendet wird, anzeigt, daß der eingegebene Sprachbefehl nicht der Sprachbefehl A ist, d. h., daß der Abstand zwischen dem eingegebenen Sprachbefehl und den Daten PA2 zu groß ist, wird der Standardmusterdatensatz PA2 durch Musterdaten des eingegebenen Sprachbefehls aktualisiert oder ersetzt.
(Gesamtbetrieb)
Der Sender 10A arbeitet in Abhängigkeit davon, ob der Sprechschalter 12 gedrückt oder losgelassen ist (d. h. ein- oder ausgeschaltet ist). Wenn der Sprechschalter 12 gedrückt ist, kann der Sender 10A die Fernbedienungssi­ gnale senden, während der Sender dann, wenn der Sprech­ schalter 12 losgelassen ist, in einer Betriebsart mit niedrigem Leistungsverbrauch gehalten wird und auf ein­ zugebende Sprachbefehle wartet. Es gibt zwei Eingabebe­ triebsarten für die Eingabe von Sprachbefehlen. In einer Eingabebetriebsart werden Sprachbefehle der Bedienungs­ person gespeichert, in der anderen Eingabebetriebsart werden Sprachbefehle der Bedienungsperson wiedererkannt. In der Sprachspeicher-Betriebsart wird ein Wort wie etwa "Wiedergabe" in den Sender 10A aufgenommen.
Nun wird der Betrieb des Senders 10A mit Bezug auf das Flußdiagramm von Fig. 9 beschrieben. Es wird angenommen, daß der Sprechschalter 12 nicht gedrückt ist und der Sen­ der sich in einem Bereitschaftszustand in der Betriebsart mit niedrigem Leistungsverbrauch befindet.
Zunächst setzt die Steuerschaltung 16 in einem Schritt S1 eine Eintragungspuffernummer auf den Wert 1.
Dann ermittelt die Steuerschaltung 16 in einem Schritt S2, ob der Sprechschalter 12 gedrückt ist oder nicht, in­ dem sie ermittelt, ob vom Sprechschalter 12 ein Betriebs­ steuersignal SC erzeugt wird oder nicht. Wenn in diesem Moment ein Betriebssteuersignal SC vorliegt, bedeutet dies, daß der Sprechschalter 12 gedrückt ist, so daß die Steuerschaltung 16 ein Steuersignal SV an die Leistungs­ versorgungs-Steuerschaltung 14 sendet. Die Leistungsver­ sorgungs-Steuerschaltung 14 liefert in einer normalen Be­ triebsart elektrische Energie und schaltet den Sender 10A in einem Schritt S4 in die normale Betriebsart.
Wenn der Sprechschalter 12 nicht gedrückt ist, wird der Sender 10A in der Betriebsart mit niedrigem Leistungsver­ brauch gelassen, anschließend werden die Schritte S2 und S3 wiederholt, wobei sich der Sender 10A in einem Warte­ zustand für einen Sprachbefehl befindet.
Danach liest die Steuerschaltung 16 in einem Schritt S5 den Zustand des Betriebswahlschalters 13, um festzustell­ len, ob die Sprachspeicherbetriebsart für Sprachbefehle eingestellt ist oder nicht.
Wenn die Sprachspeicherbetriebsart angezeigt wird, geht die Steuerung weiter zu einem Schritt S6, in dem die Steuerschaltung 16 einen Befehl ausgibt, mit dem die Spracherkennungsschaltung 15A zur Ausführung einer Spracherkennungsverarbeitung veranlaßt wird. Gleichzeitig schickt die Steuerschaltung 16 im Schritt S6 an die Spracherkennungsschaltung 15A eine Eintragungspuffernum­ mer.
In einem Schritt S7 speichert die Spracherkennungsschal­ tung 15A Spracherkennungs-Standardmusterdaten in einem entsprechenden Eintragungspuffer des Speichers 23A, d.h. in einem Eintragungspuffer mit der Eintragungspuffernum­ mer 1.
In einem Schritt S8 liest die Steuerschaltung 16 ein (nicht gezeigtes) Statutsregister in der Spracherken­ nungsschaltung 15A, um festzustellen, ob die Eintragung eines Sprachbefehls beendet ist oder nicht. Wenn die Ein­ tragung noch nicht beendet ist, werden die Schritte S7 und S8 solange wiederholt, bis die Eintragung beendet ist. Wenn sie beendet ist, wird die Eintragungspuffernum­ mer in einem Schritt S9 um 1 erhöht.
Dann stellt die Steuerschaltung 16 in einem Schritt S10 fest, ob die momentane Eintragungspuffernummer einen ma­ ximal speicherbaren Wert Nmax übersteigt oder nicht. Wenn dies nicht der Fall ist, kehrt die Steuerung zum Schritt S2 zurück. Wenn der maximale Wert überschritten wird, schickt die Steuerschaltung 16 einen Befehl zur Beendi­ gung der Sprachspeicherbetriebsart an die Spracherken­ nungssschaltung 15A und beendet dadurch in einem Schritt S11 die Sprachspeicherbetriesart. Dann geht die Steuerung zurück zum Schritt S2.
Wenn im Schritt S5 vom Betriebswählschalter 13 nicht die Sprachspeicherbetriebsart angezeigt wird, d. h. wenn im Schritt S5 vom Betriebswählschalter 13 die Spracherken­ nungsbetriebsart angezeigt wird, gibt die Steuerschaltung 16 in einem Schritt S12 an die Spracherkennungsschaltung 15A einen Spracherkennungsbefehl aus. Die Spracherken­ nungsschaltung 15A führt nun in einem Schritt S13 eine Spracherkenungsverarbreitung aus, wie sie oben beschrie­ ben worden ist.
Die Steuerschaltung 16 liest ein (nicht gezeigtes) Sta­ tutsregister in der Spracherkennungsschaltung 15A, um in einem Schritt S14 festzustellen, ob die Spracherkennung beendet ist oder nicht. Wenn die Spracherkennung noch nicht beendet ist, werden die Schritte S13 und S14 so­ lange wiederholt, bis sie beendet ist. Wenn die Spracher­ kennung beendet ist, stellt die Steuerschaltung 16 in ei­ nem Schritt S15 fest, ob die Daten des eingegebenen Sprachbefehls und die Standardmusterdaten miteinander übereinstimmen, d. h. ob der Abstand D in einen vorgegebe­ nen Abstandsbereich fällt oder nicht. Wenn die Daten des eingegebenen Sprachbefehls und die Standardmusterdaten miteinander übereinstimmen, zählt die Lerneinheit 19A in einem Schritt S16 unter allen Standardmusterdatensätzen, die dem Erkennungsergebnis entsprechen, die Anzahl derje­ nigen Standardmusterdatensätze, die mit dem Erkennungser­ gebnis nicht übereinstimmen. Dann stellt die Lerneinheit 19A in einem Schritt S17 fest, ob die Anzahl der Stan­ dardmusterdatensätze, die nicht mit dem Erkennungsergeb­ nis übereinstimmen, den Wert 1 hat oder nicht. Wenn die Anzahl den Wert 1 hat, aktualisiert die Lerneinheit 19A in einem Schritt S18 die Standardmusterdatensätze durch die Musterdaten des eingegebenen Sprachbefehls oder er­ setzt sie durch diese. Falls die Anzahl größer als 1 ist, springt die Steuerung zum Schritt S19. Da spezielle Stan­ dardmusterdatensätze durch die Lerneinheit 19A automa­ tisch aktualisiert werden können, kann die Spracherken­ nungsrate während eines langen Zeitintervalls auf hohem Niveau gehalten werden.
Danach erzeugt die Steuerschaltung 16 auf der Grundlage der erkannten Sprachbefehlsdaten ein Fernbedienungs-Be­ fehlssignal SR und schickt dieses Signal im Schritt S19 an die Sendeschaltung 17. Aufgrund des Fernbedienungs-Be­ fehlssignals SR sendet die Sendeschaltung 17 in einem Schritt S20 ein entsprechendes Fernbedienungssignal RC aus. Wenn die Daten des eingegebenen Sprachbefehls und die Standardmusterdaten im Schritt S15 nicht miteinander übereinstimmen, führt die Steuerschaltung 16 in einem Schritt S21 eine Fehlerverarbeitung wie etwa die Erzeu­ gung eines Summtons aus, woraufhin die Steuerung zum Schritt S2 zurückkehrt.
Wie oben beschrieben, kann in der ersten Ausführungsform der vorliegenden Erfindung ein Sprachbefehl selbst dann genau erkannt werden, wenn er sich mit der Zeit leicht verändert, da ein Sprachbefehl unter Verwendung einer Mehrzahl unterschiedlicher Standardmusterdatensätze PA1 bis PAn, PB1 bis PBn,...,PM1 bis PMn für die entsprechen­ den Sprachbefehle erkannt wird. Wenn für einen Satz von mehreren verschiedenen Standardmusterdatensätzen eines Sprachbefehls ein unterschiedliches Erkennungsergebnis angezeigt wird, wird dieser Standardmusterdatensatz von der Lerneinheit 19A durch die Musterdaten des eingegebe­ nen Sprachbefehls aktualisiert oder ersetzt. Daher kann eine zeitabhängige Änderung der Sprachbefehle ebenfalls fehlerfrei erkannt werden.
Da ein Sprachbefehl unter Verwendung einer Mehrzahl un­ terschiedlicher Musterdaten erkannt wird, kann die Spracherkennungsrate des sprachgesteuerten Fernbedie­ nungssystems erhöht werden.
Zweite Ausführungsform
Nun wird mit Bezug auf die Fig. 10 bis 12 ein sprachge­ steuertes Fernbedienungssystem gemäß einer zweiten Aus­ führungsform der vorliegenden Erfindung beschrieben.
(Äußerer Aufbau)
Das sprachgesteuerte Fernbedienungssystem gemäß der zwei­ ten Ausführungsform weist einen Sender auf, der den glei­ chen äußeren Aufbau wie der in Fig. 4 gezeigte Sender 10A besitzt.
(Aufbau der elektronischen Schaltung)
Der im allgemeinen mit dem Bezugszeichen 10B bezeichnete Sender des sprachgesteuerten Fernbedienungssystems gemäß der zweiten Ausführungsform ist in den Fig. 10 und 11 ge­ zeigt. Diejenigen Teile in Fig. 10, die mit denjenigen in Fig. 5 identisch sind, werden durch gleiche Bezugszeichen bezeichnet und nicht genauer erläutert.
Der Sender 10B besitzt eine Spracherkennungsschaltung 15B, die, wie in Fig. 11 gezeigt ist, einen Analogprozes­ sor 21 für die Verarbeitung eines über das Mikrophon M empfangenen analogen Sprachbefehlssignals und für die Ausgabe des verarbeiteten analogen Sprachbefehlssignals in Form von Zeitaufteilungs-Digitaldaten 20, eine Mehr­ zahl paralleler Spracherkennungsprozessoren 22-1 bis 22-n für die unabhängige Erkennung des Sprachbefehls aufgrund der Zeitaufteilungs-Digitaldaten 20 des Analogprozessors 21, einen Speicher 23B zum Speichern von Standardmuster­ daten für die von den Spracherkennungsprozessoren 22-1 bis 22-n jeweils ausgeführte Spracherkennung und eine Schnittstelle 24 für die Übertragung von Signalen an die Steuerschaltung 16 und für den Empfang von Signalen von der Steuerschaltung 16 umfaßt.
Die Spracherkennungsprozessoren 22-1 bis 22-n verwenden für jeden der Sprachbefehle entsprechende Standardmuster­ daten und führen unabhängige Spracherkennugnsverarbeitun­ gen aus. Beispielsweise verwendet der Spracherkennungs­ prozessor 22-1 die Standardmusterdaten PA1, PB1,...,PM1, während der Spracherkennungsprozessor 22-2 die Standard­ musterdaten PA2, PB2,...,PM2 verwendet.
Der Speicher 23B umfaßt Adressenbereiche, die den jewei­ ligen Spracherkennungsprozessoren 22-1 bis 22-n zugeord­ net sind, und speichert Standardmusterdaten PA1 bis PM1, PA2 bis PM2,...,PAn bis PMn.
Diese Standardmusterdaten können, wie oben beschrieben, in verschiedenen Bereichen des Speichers 23B oder in ent­ sprechenden Speichern, die den jeweiligen Spracherken­ nungsprozessoren zugeordnet sind, gespeichert werden.
Die anderen Einzelheiten des Aufbaus der Spracherken­ nungsschaltung 15B, d. h. der Analogprozessor 21 und die Schnittstelle 24, sind mit denjenigen der in den Fig. 6, 7 und 8 gezeigten Schaltungen identisch.
Wie in Fig. 10 gezeigt, umfaßt die Steuerschaltung 16 einen Mikroprozessor und eine Lerneinheit 19B. Die Lerneinheit 19B ist durch ein Lernprogramm, das mit einem Steuerprogramm für den Sender 10B verschachtelt ist, softwaremäßig implementiert. Insbesondere ist die Lerneinheit 19B durch die Schritte S49 und S50 in Fig. 12 implementiert.
Wenn einer der Spracherkennungsprozessoren 22-1 bis 22-n ein Erkennungsergebnis für einen Sprachbefehl ausgibt, das vom Ergebnis eines weiteren Spracherkennungsprozessor verschieden ist, werden die Standardmusterdaten, die die­ sem Sprachbefehl entsprechen und von diesem Spracherken­ nungsprozessor verwendet werden, von der Lerneinheit 19B durch die Musterdaten des Sprachbefehls aktualisiert oder ersetzt.
(Gesamtbetrieb)
Der Sender 10B gemäß der zweiten Ausführungsform arbeitet folgendermaßen: Es wird angenommen, daß der Sprechschal­ ter 12 nicht gedrückt ist und daß sich der Sender 10B in einem Bereitschaftszustand befindet.
Wie in Fig. 12 gezeigt, setzt zunächst die Steuerschal­ tung 16 in einem Schritt S31 eine Eintragungspuffernummer auf den Wert 1. Dann wird in einem Schritt S32 der dieser Prozessornummer entsprechende Spracherkennungsprozessor, z. B. der Spracherkennungsprozessor 22-1, aktiviert.
Anschließend stellt die Steuerschaltung 16 in einem Schritt S33 fest, ob der Sprechschalter 12 gedrückt ist oder nicht, indem sie feststellt, ob vom Sprechschalter 12 ein Betriebssteuersignal SC erzeugt wird oder nicht. Wenn zu diesem Zeitpunkt ein Betriebssteuersignal SC aus­ gesendet wird, bedeutet dies, daß der Sprechschalter 12 gedrückt ist, so daß die Steuerschaltung 16 den Sender 10B zum Empfang eines Sprachbefehls freigibt.
Wenn der Sprechschalter 12 nicht gedrückt ist, wird der Sender 10B im Bereitschaftszustand gelassen, ferner wer­ den die Schritte S32 und S33 wiederholt.
Danach liest die Steuerschaltung 16 in einem Schritt S34 den Zustand des Betriebswahlschalters 13, um festzustel­ len, ob dieser eine Sprachspeicherbetriebsart anzeigt.
Wenn die Sprachspeicherbetriebsart angezeigt wird, geht die Steuerung weiter zum Schritt S35, in dem die Steuer­ schaltung 16 einen Befehl ausgibt, der die Spracherken­ nungsschaltung 15B zur Ausführung einer Sprachspeicher­ verarbeitung veranlaßt. Gleichzeitig schickt die Steuer­ schaltung 16 im Schritt S35 eine Eintragungspufferzahl an die Spracherkennungsschaltung 15B.
Danach speichert die Spracherkennungsschaltung 15B in ei­ nem Schritt S36 Spracherkennungs-Standardmusterdaten in einem entsprechenden Eintragungspuffer des betreffenden Spracherkennungsprozessors im Speicher 23B, d. h. in einem Eintragungspuffer mit der Eintragungspuffernummer 1.
Die Steuerschaltung 16 liest in einem Schritt S37 ein (nicht gezeigtes) Statusregister in der Spracherkennungs­ schaltung 15B, um festzustellen, ob die Eintragung eines Sprachbefehls beendet ist oder nicht. Wenn die Eintragung noch nicht beendet ist, werden die Schritte S36 und S37 solange wiederholt, bis sie beendet ist. Wenn die Eintra­ gung beendet ist, wird die Eintragungspuffernummer im Schritt S38 um 1 erhöht.
Dann stellt die Steuerschaltung 16 in einem Schritt S39 fest, ob die momentane Eintragungspuffernummer einen für den betreffenden Spracherkennungsprozessor höchstens speicherbaren Wert Nmax übersteigt oder nicht. Wenn nicht, kehrt die Steuerung zum Schritt S32 zurück. Wenn der maximale Wert überstiegen wird, stellt die Steuer­ schaltung 16 in einem Schritt S40 fest, ob die Prozessor­ nummer eine maximale Spracherkennungsprozessor-Nummer Pmax übersteigt oder nicht. Wenn nicht, geht die Steue­ rung weiter zum Schritt S41.
Im Schritt S41 setzt die Steuerschaltung 16 die Eintra­ gungspuffernummer wieder auf den Wert 1. Danach wird die Prozessornummer um 1 erhöht, ferner wird der dieser Pro­ zessornummer entsprechende Spracherkennungsprozessor, zum Beispiel der Spracherkennungsprozessor 22-2 im Schritt S42 aktiviert.
Wenn die Prozessornummer die maximale Spracherkennungs­ prozessornummer Pmax im Schritt S40 nicht überstiegen hat, schickt die Steuerschaltung 16 an die Spracherken­ nungsschaltung 15B einen Befehl zum Beenden der Sprach­ speicherbetriebsart, so daß in einem Schritt S43 die Sprachspeicherbetriebsart beendet wird. Anschließend kehrt die Steuerung zum Schritt S32 zurück.
Wenn im Schritt S34 vom Betriebswahlschalter 13 die Spracherkennungsbetriebsart angezeigt wird, aktiviert die Steuerschaltung 16 in einem Schritt S44 sämtliche Spracherkennungsprozessoren. Dann gibt die Steuerschal­ tung 16 in einem Schritt S45 an die Spracherkennungs­ schaltung 15B einen Spracherkennungsbefehl aus. Nun füh­ ren die Spracherkennungsprozessoren 22-1 bis 22-n in der Spracherkennungsschaltung 15B in einem Schritt S46 eine Spracherkennungsverarbeitung aus, wie sie oben beschrie­ ben worden ist.
In einem Schritt S47 liest die Steuerschaltung 16 ein (nicht gezeigtes) Statutsregister in der Spracherken­ nungsschaltung 15B, um festzustellen, ob die Spracherken­ nung durch die Spracherkennungsprozessoren 22-1 bis 22-n beendet ist oder nicht. Wenn die Spracherkennung noch nicht beendet ist, werden die Schritte S46 und S47 so­ lange wiederholt, bis sie beendet ist. Wenn die Spracher­ kennung beendet ist, zählt die Steuerschaltung 16 in ei­ nem Schritt S48 die Anzahl derjenigen Spracherkennungs­ prozessoren, deren Erkennungsergebnisse übereinstimmen. Dann stellt die Steuerschaltung 16 in einem Schritt S49 fest, ob die Anzahl der Spracherkennungsprozessoren, de­ ren Erkennungsergebnisse nicht übereinstimmen, den Wert 1 hat oder nicht. Wenn die Anzahl den Wert 1 hat, aktuali­ siert die Lerneinheit 19B in einem Schritt S50 die von diesem Spracherkennungsprozessor verwendeten Standardmu­ sterdaten durch die Musterdaten des eingegebenen Sprach­ befehls oder ersetzt sie durch diese. Da die von einem bestimmten Spracherkennungsprozessor verwendeten Stan­ dardmusterdaten durch die Lerneinheit 19B automatisch ak­ tualisiert werden, kann die Spracherkennungsrate für ein langes Zeitintervall auf einem konstanten Niveau gehalten werden.
Wenn die Anzahl derjenigen Spracherkennungsprozessoren, deren Erkennungsergebnisse nicht übereinstimmen, gleich oder größer als 2 ist oder wenn die Erkennungsergebnisse sämtlicher Spracherkennungsprozessoren im Schritt S49 übereinstimmen, bestimmt die Steuerschaltung 16 in einem Schritt S51, ob die Anzahl derjenigen Spracherkennungs­ prozessoren, deren Erkennungsergebnisse übereinstimmen, halb so groß oder größer als die Gesamtzahl der Prozesso­ ren ist. Wenn die Erkennungsergebnisse mindestens bei der Hälfte der Spracherkennungsprozessoren übereinstimmen, geht die Steuerung weiter zum Schritt S52. Wenn die An­ zahl der Spracherkennungsprozessoren, deren Erkennungser­ gebnisse übereinstimmen, weniger als die Hälfte der Ge­ samtzahl ist, führt die Steuerschaltung 16 in einem Schritt S54 eine Fehlerverarbeitung wie etwa die Erzeu­ gung eines Summtons aus, woraufhin die Steuerung zum Schritt S32 zurückkehrt.
Wenn die Erkennungsergebnisse mindestens bei der Hälfte der Spracherkennungsprozessoren im Schritt S51 überein­ stimmen, erzeugt die Steuerschaltung 16 in einem Schritt S52 auf der Grundlage der erkannten Sprachbefehlsdaten ein Fernbedienungs-Befehlssignal SR und schickt dieses Signal an die Sendeschaltung 17. Aufgrund dieses Fernbe­ dienungs-Befehlssignals SR sendet die Sendeschaltung 17 in einem Schritt S53 ein entsprechendes Fernbedienungssi­ gnal RC aus. Anschließend kehrt die Steuerung zum Schritt S32 zurück.
In der zweiten Ausführungsform wird ein eingegebener Sprachbefehl durch eine Mehrzahl von Spracherkennungspro­ zessoren 22-1 bis 22-n auf der Grundlage ihrer jeweiligen Standardmusterdaten PA1 bis PM1, PA2 bis PM2,...,PAn bis PMn erkannt. Wenn bei einem Spracherkennungsprozessor das Erkennungsergebnis nicht mit den übrigen Ergebnissen übereinstimmt, werden die von diesem Spracherkennungspro­ zessor verwendeten Standardmusterdaten durch die Muster­ daten des eingegebenen Sprachbefehls durch die Lernein­ heit 19B aktualisiert oder ersetzt.
Selbst wenn sich die Stimme der Bedienungsperson mit der Zeit leicht verändert hat, seit die Standardmusterdaten zum ersten Mal gespeichert wurden, kann die Spracherken­ nungsrate für einen langen Zeitraum auf einem konstanten Niveau gehalten werden, da die Standardmusterdaten durch die Lerneinheit 19B in bestimmten Zeitabständen aktuali­ siert werden. Da die Spracherkennungsverarbeitungen durch die Mehrzahl der Spracherkennungsprozessoren unter ver­ wendung ihrer entsprechenden Standardmusterdaten einzeln ausgeführt werden, können die eingegebenen Sprachbefehle genauer erkannt werden, so daß die Spracherkennungsrate erhöht wird.
Die Erfindung kann in anderen besonderen Formen ausge­ führt werden, ohne daß von ihrem Geist oder von ihren we­ sentlichen Merkmalen abgewichen wird. Die vorliegenden Ausführungsformen sind daher in jeder Hinsicht als erläu­ ternd und nicht als beschränkend aufzufasen. Der Umfang der Erfindung wird in erster Linie durch die beigefügten Ansprüche und erst in zweiter Linie durch die oben gege­ bene Beschreibung festgelegt. Sämtliche Änderungen, die durch den Bedeutungsgehalt der Patentansprüche abgedeckt sind und in deren Äquivalenzbereich liegen, sollen daher von ihnen umfaßt werden.

Claims (4)

1. Sprachgesteuertes Fernbedienungssystem, mit
einem Mikrophon (M), das einen Sprachbefehl in ein elektrisches Signal umwandelt,
Spracherkennungsmitteln (15; 15A), die das elek­ trische Signal in Musterdaten umwandeln und die Musterda­ ten mit gespeicherten Standardmusterdaten vergleichen, um dem Sprachbefehl entsprechende Befehlsdaten zu erzeugen, und
Sendemitteln (10A), die auf der Grundlage der Be­ fehlsdaten ein Fernbedienungssignal (RC) erzeugen und aussenden, dadurch gekennzeichnet, daß
die Spracherkennungsmittel eine Mehrzahl von Standardmuster-Speicherbereichen (A, B, ..., M), in denen eine Mehrzahl verschiedener Standardmusterdatensätze für jeden der Befehlsdatensätze gespeichert werden, und Mit­ tel (22; 40, 41), die den Sprachbefehl auf der Grundlage der Mehrzahl der verschiedenen Standardmusterdatensätze erkennen, umfassen.
2. Sprachgesteuertes Fernbedienungssystem gemäß An­ spruch 1, gekennzeichnet durch eine Lerneinheit (19A), die die gespeicherten Standardmusterdaten aufgrund von geänderten Musterdaten eines neu eingegebenen Sprachbe­ fehls automatisch aktualisieren.
3. Sprachgesteuertes Fernbedienungssystem, mit
einem Mikrophon (M), das einen Sprachbefehl in ein elektrisches Signal umwandelt,
Spracherkennungsmitteln (15; 15B), die das elek­ trische Signal in Musterdaten umwandeln und die Musterda­ ten mit gespeicherten Standardmusterdeten vergleichen, um dem Sprachbefehl entsprechende Befehlsdaten zu erzeugen, und
Sendemitteln (10B), die auf der Grundlage der Be­ fehlsdaten ein Fernbedienungssignal (RC) erzeugen und aussenden, dadurch gekennzeichnet, daß
die Spracherkennungsmittel eine Mehrzahl paralle­ ler Spracherkennungsprozessoren (22-1, 22-2, ..., 22-n) um­ fassen, die den Sprachbefehl auf der Grundlage der ent­ sprechenden Standardmusterdaten unabhängig erkennen und entsprechende Erkennungsergebnisse ausgeben.
4. Sprachgesteuertes Fernbedienungssystem gemäß An­ spruch 3, gekennzeichnet durch eine Lerneinheit (19B), die die gespeicherten Standardmusterdaten aufgrund geän­ derter Musterdaten eines neu eingegebenen Sprachbefehls automatisch aktualisiert.
DE4029698A 1989-12-29 1990-09-19 Sprachgesteuertes fernbedienungssystem Ceased DE4029698A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1341629A JPH03203794A (ja) 1989-12-29 1989-12-29 音声リモートコントロール装置

Publications (1)

Publication Number Publication Date
DE4029698A1 true DE4029698A1 (de) 1991-07-04

Family

ID=18347573

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4029698A Ceased DE4029698A1 (de) 1989-12-29 1990-09-19 Sprachgesteuertes fernbedienungssystem

Country Status (3)

Country Link
US (1) US5199080A (de)
JP (1) JPH03203794A (de)
DE (1) DE4029698A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19631579A1 (de) * 1996-08-05 1998-02-12 Vhf Computer Gmbh Akustische Not-Aus- bzw. Not-Halt-Einrichtung
DE19715099A1 (de) * 1997-04-11 1998-10-15 Saechsisches Inst Fuer Die Dru Spracherkennungs- und Sprachsteuerungssystem
DE19756641A1 (de) * 1997-12-19 1999-06-24 Sucker Mueller Hacoba Gmbh Hilfsmittel beim Bestücken eines Spulengatters
DE19957267A1 (de) * 1999-11-26 2001-06-13 Bosch Gmbh Robert Vorrichtung und Verfahren zur Fernbedienung eines Autoradios
DE10122087C1 (de) * 2001-05-07 2002-08-29 Siemens Ag Verfahren zum Training und Betrieb eines Spracherkenners, Spracherkenner und Spracherkenner-Trainingssystem
DE19617294B4 (de) * 1996-04-30 2006-03-30 Grönemeyer, Dietrich H.W., Prof. Dr.med. Sprachgeführte Ansteuervorrichtung zum Steuern beliebiger Endgeräte

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07109560B2 (ja) * 1990-11-30 1995-11-22 富士通テン株式会社 音声認識装置
US5748843A (en) * 1991-09-20 1998-05-05 Clemson University Apparatus and method for voice controlled apparel manufacture
CA2153888C (en) * 1993-01-19 2002-11-19 Michael R. Levine T.v. viewing and recording system
US5493618A (en) * 1993-05-07 1996-02-20 Joseph Enterprises Method and apparatus for activating switches in response to different acoustic signals
AU7637194A (en) * 1993-08-27 1995-03-21 Voice Powered Technology International, Inc. Voice operated remote control system
AU1298995A (en) * 1993-12-01 1995-06-19 Nhc Corporation Wireless remote switching system
CH689410A5 (de) * 1994-04-21 1999-03-31 Info Byte Ag Verfahren und Vorrichtung zur sprachgesteuerten Fernbedienung elektrischer Verbraucher.
US5774859A (en) * 1995-01-03 1998-06-30 Scientific-Atlanta, Inc. Information system having a speech interface
US5835894A (en) * 1995-01-19 1998-11-10 Ann Adcock Corporation Speaker and command verification method
US5696879A (en) * 1995-05-31 1997-12-09 International Business Machines Corporation Method and apparatus for improved voice transmission
US5890123A (en) * 1995-06-05 1999-03-30 Lucent Technologies, Inc. System and method for voice controlled video screen display
US6012029A (en) * 1995-09-29 2000-01-04 Cirino; Sepideh S. Voice activated system for locating misplaced items
US5818328A (en) * 1995-10-03 1998-10-06 Audio Enhancement Method and system for providing improved wireless audio transmission
US6052666A (en) * 1995-11-06 2000-04-18 Thomson Multimedia S.A. Vocal identification of devices in a home environment
US5832439A (en) * 1995-12-14 1998-11-03 U S West, Inc. Method and system for linguistic command processing in a video server network
JP2982689B2 (ja) * 1996-04-19 1999-11-29 日本電気株式会社 情報量基準を用いた標準パターン作成方式
US5832440A (en) * 1996-06-10 1998-11-03 Dace Technology Trolling motor with remote-control system having both voice--command and manual modes
US5777571A (en) * 1996-10-02 1998-07-07 Holtek Microelectronics, Inc. Remote control device for voice recognition and user identification restrictions
IL119948A (en) 1996-12-31 2004-09-27 News Datacom Ltd Voice activated communication system and program guide
US6188985B1 (en) * 1997-01-06 2001-02-13 Texas Instruments Incorporated Wireless voice-activated device for control of a processor-based host system
US5924068A (en) * 1997-02-04 1999-07-13 Matsushita Electric Industrial Co. Ltd. Electronic news reception apparatus that selectively retains sections and searches by keyword or index for text to speech conversion
US6188986B1 (en) 1998-01-02 2001-02-13 Vos Systems, Inc. Voice activated switch method and apparatus
US6327343B1 (en) 1998-01-16 2001-12-04 International Business Machines Corporation System and methods for automatic call and data transfer processing
US6219407B1 (en) 1998-01-16 2001-04-17 International Business Machines Corporation Apparatus and method for improved digit recognition and caller identification in telephone mail messaging
US6453292B2 (en) 1998-10-28 2002-09-17 International Business Machines Corporation Command boundary identifier for conversational natural language
US6606280B1 (en) * 1999-02-22 2003-08-12 Hewlett-Packard Development Company Voice-operated remote control
US6407779B1 (en) 1999-03-29 2002-06-18 Zilog, Inc. Method and apparatus for an intuitive universal remote control system
US6952155B2 (en) * 1999-07-23 2005-10-04 Himmelstein Richard B Voice-controlled security system with proximity detector
US8648692B2 (en) 1999-07-23 2014-02-11 Seong Sang Investments Llc Accessing an automobile with a transponder
US6594630B1 (en) 1999-11-19 2003-07-15 Voice Signal Technologies, Inc. Voice-activated control for electrical device
KR20010054622A (ko) * 1999-12-07 2001-07-02 서평원 음성 인식 시스템의 음성 인식률 향상 방법
US7024363B1 (en) 1999-12-14 2006-04-04 International Business Machines Corporation Methods and apparatus for contingent transfer and execution of spoken language interfaces
US6748361B1 (en) 1999-12-14 2004-06-08 International Business Machines Corporation Personal speech assistant supporting a dialog manager
US6397186B1 (en) * 1999-12-22 2002-05-28 Ambush Interactive, Inc. Hands-free, voice-operated remote control transmitter
US8271287B1 (en) * 2000-01-14 2012-09-18 Alcatel Lucent Voice command remote control system
US6956496B1 (en) 2000-01-18 2005-10-18 Zilog, Inc. Method and apparatus for updating universal remote databases through TV VBI processing
US7096185B2 (en) * 2000-03-31 2006-08-22 United Video Properties, Inc. User speech interfaces for interactive media guidance applications
FR2810145A1 (fr) * 2000-06-07 2001-12-14 Sagem Dispositif mobile et emetteur de telecommande de coffret fixe recepteur de telecommande
JP3525889B2 (ja) * 2000-11-28 2004-05-10 日本電気株式会社 周囲の他者に知覚されずに操作する通報方法及び処理システム
US20030061033A1 (en) * 2001-09-26 2003-03-27 Dishert Lee R. Remote control system for translating an utterance to a control parameter for use by an electronic device
US7324947B2 (en) 2001-10-03 2008-01-29 Promptu Systems Corporation Global speech user interface
US6785358B2 (en) * 2001-10-09 2004-08-31 General Electric Company Voice activated diagnostic imaging control user interface
US20030090161A1 (en) * 2001-10-19 2003-05-15 Marlow C. Allen Light communication channel-based electronics power distribution system
US20030095675A1 (en) * 2001-10-19 2003-05-22 Marlow C. Allen Light communication channel-based voice-activated control system and method for implementing thereof
DE10251209A1 (de) * 2002-10-31 2004-05-19 Sennheiser Electronic Gmbh & Co. Kg Mikrofonsystem
US20040212478A1 (en) * 2003-04-25 2004-10-28 John Kutsuzawa Remote control activator with voice data memory and associated method
KR100695127B1 (ko) * 2004-10-08 2007-03-14 삼성전자주식회사 다 단계 음성 인식 장치 및 방법
TWI287787B (en) * 2004-12-14 2007-10-01 Delta Electronics Inc A remote control device and method with speech control
US20060146652A1 (en) * 2005-01-03 2006-07-06 Sdi Technologies, Inc. Sunset timer
US20190362725A1 (en) 2005-08-17 2019-11-28 Tamiras Per Pte. Ltd., Llc Providing access with a portable device and voice commands
US20070136752A1 (en) * 2005-12-12 2007-06-14 John Sanders Personalized electronic programming guide
US20090222270A2 (en) * 2006-02-14 2009-09-03 Ivc Inc. Voice command interface device
US8607281B2 (en) 2006-09-07 2013-12-10 Porto Vinci Ltd. Limited Liability Company Control of data presentation in multiple zones using a wireless home entertainment hub
US9319741B2 (en) 2006-09-07 2016-04-19 Rateze Remote Mgmt Llc Finding devices in an entertainment system
US9386269B2 (en) 2006-09-07 2016-07-05 Rateze Remote Mgmt Llc Presentation of data on multiple display devices using a wireless hub
US8077022B2 (en) * 2008-06-11 2011-12-13 Flextronics Automotive Inc. System and method for activating vehicular electromechanical systems using RF communications and voice commands received from a user positioned locally external to a vehicle
US11012732B2 (en) * 2009-06-25 2021-05-18 DISH Technologies L.L.C. Voice enabled media presentation systems and methods
CN202014321U (zh) * 2011-03-21 2011-10-19 海尔集团公司 遥控器及电视机系统
US9368107B2 (en) * 2011-04-20 2016-06-14 Nuance Communications, Inc. Permitting automated speech command discovery via manual event to command mapping
US20130201316A1 (en) * 2012-01-09 2013-08-08 May Patents Ltd. System and method for server based control
KR101732137B1 (ko) * 2013-01-07 2017-05-02 삼성전자주식회사 원격 제어 장치 및 전력 제어 방법
CN104902402A (zh) * 2015-05-28 2015-09-09 深圳希格玛和芯微电子有限公司 语音识别装置、语音声控系统和语音通讯系统
US9691378B1 (en) * 2015-11-05 2017-06-27 Amazon Technologies, Inc. Methods and devices for selectively ignoring captured audio data
US9697824B1 (en) * 2015-12-30 2017-07-04 Thunder Power New Energy Vehicle Development Company Limited Voice control system with dialect recognition
US10929458B2 (en) 2018-04-11 2021-02-23 Microsoft Technology Licensing, Llc Automated presentation control
EP3771202B1 (de) * 2019-07-23 2023-08-30 Top Victory Investments Limited Verfahren und system zur automatischen steuerung der audioausgabe einer fernsehvorrichtung auf basis von umgebungsgeräuschen

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2755633A1 (de) * 1977-12-14 1979-06-21 Loewe Opta Gmbh Fernsteuerung zum steuern, ein- und umschalten von variablen und festen geraetefunktionen und funktionsgroessen in nachrichtentechn. geraeten
DE3803220A1 (de) * 1987-03-24 1989-08-17 Licentia Gmbh Haushaltsgeraet mit einer programmschalteinrichtung
WO1989010612A1 (en) * 1988-04-27 1989-11-02 British Telecommunications Public Limited Company Voice-operated service

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60100197A (ja) * 1983-11-07 1985-06-04 日本電気株式会社 音声入力装置
JPS60202490A (ja) * 1984-03-27 1985-10-12 セイコーエプソン株式会社 音声認識装置
US4718093A (en) * 1984-03-27 1988-01-05 Exxon Research And Engineering Company Speech recognition method including biased principal components
JPS60212799A (ja) * 1984-04-06 1985-10-25 日本電気株式会社 音声認識装置
US4725956A (en) * 1985-10-15 1988-02-16 Lockheed Corporation Voice command air vehicle control system
JPS62124599A (ja) * 1985-11-26 1987-06-05 株式会社東芝 音声認識装置
US4837830A (en) * 1987-01-16 1989-06-06 Itt Defense Communications, A Division Of Itt Corporation Multiple parameter speaker recognition system and methods
GB8702910D0 (en) * 1987-02-10 1987-03-18 British Telecomm Multi-user speech recognition system
JPH02178699A (ja) * 1988-12-28 1990-07-11 Nec Corp 音声認識装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2755633A1 (de) * 1977-12-14 1979-06-21 Loewe Opta Gmbh Fernsteuerung zum steuern, ein- und umschalten von variablen und festen geraetefunktionen und funktionsgroessen in nachrichtentechn. geraeten
DE3803220A1 (de) * 1987-03-24 1989-08-17 Licentia Gmbh Haushaltsgeraet mit einer programmschalteinrichtung
WO1989010612A1 (en) * 1988-04-27 1989-11-02 British Telecommunications Public Limited Company Voice-operated service

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19617294B4 (de) * 1996-04-30 2006-03-30 Grönemeyer, Dietrich H.W., Prof. Dr.med. Sprachgeführte Ansteuervorrichtung zum Steuern beliebiger Endgeräte
DE19631579A1 (de) * 1996-08-05 1998-02-12 Vhf Computer Gmbh Akustische Not-Aus- bzw. Not-Halt-Einrichtung
DE19715099A1 (de) * 1997-04-11 1998-10-15 Saechsisches Inst Fuer Die Dru Spracherkennungs- und Sprachsteuerungssystem
DE19715099C2 (de) * 1997-04-11 2003-05-08 Saechsisches Inst Fuer Die Dru System zur Steuerung einer graphischen Maschine
DE19756641A1 (de) * 1997-12-19 1999-06-24 Sucker Mueller Hacoba Gmbh Hilfsmittel beim Bestücken eines Spulengatters
DE19756641C2 (de) * 1997-12-19 2001-02-22 Sucker Mueller Hacoba Gmbh Hilfsmittel beim Bestücken eines Spulengatters und Verfahren zum Bestücken eines Spulengatters
DE19957267A1 (de) * 1999-11-26 2001-06-13 Bosch Gmbh Robert Vorrichtung und Verfahren zur Fernbedienung eines Autoradios
DE10122087C1 (de) * 2001-05-07 2002-08-29 Siemens Ag Verfahren zum Training und Betrieb eines Spracherkenners, Spracherkenner und Spracherkenner-Trainingssystem

Also Published As

Publication number Publication date
US5199080A (en) 1993-03-30
JPH03203794A (ja) 1991-09-05

Similar Documents

Publication Publication Date Title
DE4029698A1 (de) Sprachgesteuertes fernbedienungssystem
DE4029717A1 (de) Sprachgesteuertes fernbedienungssystem
DE4029697A1 (de) Sprachgesteuertes fernbedienungssystem
EP0296588B1 (de) Verfahren und Schaltungsanordnung zum automatischen Wiedererkennen von Signalfolgen
DE3819178C2 (de)
DE69636985T2 (de) Sprachanwesenheitdetektor für halbduplex-audiokommunikationssystem
DE3885683T2 (de) Telefonapparat.
DE3751486T2 (de) Datenübertragungssystem.
EP0994461A2 (de) Verfahren zur automatischen Erkennung einer buchstabierten sprachlichen Äusserung
EP0122548B1 (de) Fernbedienungsgerät zur drahtlosen Steuerung verschiedener Geräte
DE19752453A1 (de) Positionserfassungseinrichtung und Positionszeigereinrichtung
EP1118979A1 (de) Sprachgesteuerte Vorrichtung
DE2753707A1 (de) Einrichtung zur erkennung des auftretens eines kommandowortes aus einer eingangssprache
DE4031421C2 (de) Musteranpassungssystem für eine Spracherkennungseinrichtung
DE69918635T2 (de) Vorrichtung und Verfahren zur Sprachverarbeitung
DE4328752B4 (de) Spracherkennungssystem
DE1524375A1 (de) Verfahren und Einrichtung zur Zeichenerkennung
DE69922769T2 (de) Vorrichtung und Verfahren zur Sprachverarbeitung
DE4029716A1 (de) Sprachgesteuertes fernbedienungssystem
DE4436734A1 (de) Bedienprotokolliergerät für ein elektrisches Gerät
DE69632930T2 (de) Verfahren zur Steuerung eines Videorecorders
DE2916127A1 (de) Empfaengereinrichtung zum unterdruecken voruebergehend auftretender geraeusche bei stoerungen
DE1962759A1 (de) Vocoder
DE60022269T2 (de) Sprachbasiertes Manipulationsverfahren und -gerät
DE4025302C2 (de)

Legal Events

Date Code Title Description
8120 Willingness to grant licences paragraph 23
8110 Request for examination paragraph 44
8131 Rejection