DE60030702T2 - Steuerung der Kapazität eines verteilten Spracherkennungssystems - Google Patents

Steuerung der Kapazität eines verteilten Spracherkennungssystems Download PDF

Info

Publication number
DE60030702T2
DE60030702T2 DE60030702T DE60030702T DE60030702T2 DE 60030702 T2 DE60030702 T2 DE 60030702T2 DE 60030702 T DE60030702 T DE 60030702T DE 60030702 T DE60030702 T DE 60030702T DE 60030702 T2 DE60030702 T2 DE 60030702T2
Authority
DE
Germany
Prior art keywords
terminal
speech recognizer
unit
processor
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60030702T
Other languages
English (en)
Other versions
DE60030702D1 (de
Inventor
Jürgen Sienel
Dieter Kopp
Ulf Knoblich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alcatel Lucent SAS
Original Assignee
Alcatel CIT SA
Alcatel SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alcatel CIT SA, Alcatel SA filed Critical Alcatel CIT SA
Application granted granted Critical
Publication of DE60030702D1 publication Critical patent/DE60030702D1/de
Publication of DE60030702T2 publication Critical patent/DE60030702T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Telephonic Communication Services (AREA)
  • Selective Calling Equipment (AREA)

Description

  • Die Erfindung betrifft ein Telekommunikationssystem, das ein Endgerät umfaßt, das mit einem Netz verbunden ist, das einen Spracherkenner für Sprachbefehlsgabe umfaßt.
  • Solch ein Telekommunikationssystem ist in der Form eines Telekommunikationsnetzes für Festkommunikation und/oder Mobilkommunikation bekannt, mit dem Endgerät, das ein festes (PSTN, ISDN usw.) Endgerät (Telefon, Bildschirmtelefon, PC usw.) oder ein drahtloses (schnurloses: DECT usw.) oder ein mobiles (GSM, UMTS usw.) Endgerät (drahtloser Handapparat usw.) ist, und mit dem Spracherkenner für Sprachbefehlsgabe, die gewöhnliches Allgemeinwissen ist und auf dem Markt erhältlich ist und auf einer festen Kapazität basiert (mit der Sprachbefehlsgabe, die über eine konstante Bandbreite zwischen der Quelle und dem Ziel – und/oder auf einer konstanten Abtastrate an der Quelle und/oder Ziel – und/oder mit Rauschminderung, die immer ein- oder ausgeschaltet wird – und/oder mit einer Prozessorgeschwindigkeit oder verfügbaren Verarbeitungszeit an der Quelle und/oder Ziel, die konstant ist, stattfindet).
  • Solch ein Telekommunikationssystem ist nachteilig, unter anderem, da es ineffizient ist.
  • Es ist eine Aufgabe der Erfindung, unter anderem, ein Telekommunikationssystem bereitzustellen, wie in dem Oberbegriff beschrieben ist, das effizienter ist.
  • Außerdem ist das Telekommunikationssystem nach Anspruch 1 dadurch gekennzeichnet, daß das Telekommunikationssystem einen Detektor zum Erkennen eines Anzeigesignals umfaßt und einen Einsteller zum, in Abhängigkeit von dem Anzeigesignal, Einstellen eines Kapazitätsparameters für die Sprachbefehlsgabe umfaßt.
  • Durch Einführen des Detektors und des Einstellers wird ein flexibler Kapazitätsparameter erzeugt, der eine flexible Bandbreite zwischen dem Endgerät und dem Spracherkenner ermöglicht – und/oder eine variable Abtastrate an dem Endgerät und/oder Spracherkenner – und/oder eine Rauschminderung, die in Abhängigkeit von zum Beispiel einer Signalqualität eingeschaltet/ausgeschaltet wird – und/oder mit einer Prozessorgeschwindigkeit oder verfügbaren Verarbeitungszeit in dem Endgerät und/oder Spracherkenner, die flexibel ist. Das Anzeigesignal zum Beispiel geht von dem Endgerät aus und ist zum Beispiel in der Form einer Telefonnummer oder eines Schlüsselsignals oder eines Sprachsignals, das durch einen Benutzer erzeugt wurde, oder ist zum Beispiel in der Form eines Anwendungssignals, das von (einem Teil) einer Anwendung ausgeht, die in dem Endgerät abläuft. Oder das Anzeigesignal zum Beispiel geht von dem Netz aus und ist zum Beispiel in der Form eines weiteren Anwendungssignals, das von (einem Teil) einer Anwendung ausgeht, die in dem Netz abläuft.
  • Die Erfindung basiert auf der Kenntnis, unter anderem, daß die Art der Sprachbefehlsgabe die notwendige Kapazität (Namenwahl, Befehl und Steuerung, Diktieren usw.) beeinflußt.
  • Die Erfindung löst das Problem, unter anderem, des Erhöhens der Effizienz des Telekommunikationssystems.
  • Eine erste Ausführungsform des Telekommunikationssystems gemäß der Erfindung ist dadurch gekennzeichnet, daß der Einsteller in Abhängigkeit von einem Netzsignal außerdem den Kapazitätsparameter einstellt.
  • Indem der Einsteller nicht nur von dem Anzeigesignal abhängig gemacht wird, sondern auch von dem Netzsignal, wird die Verfügbarkeit beim Einstellen des Kapazitätsparameters berücksichtigt, wodurch verhindert wird, daß das System mehr Kapazität als verfügbar fordert und/oder dem System erlaubt, mehr Kapazität als notwendig im Fall von Kapazität zu erhalten, die im Überfluß zur Verfügung steht.
  • Eine zweite Ausführungsform des Telekommunikationssystems gemäß der Erfindung ist dadurch gekennzeichnet, daß das Endgerät eine Vorverarbeitungseinheit zum Vorverarbeiten der Signale umfaßt, mit dem Netz, das eine Endverarbeitungseinheit zum Endverarbeiten der vorverarbeiteten Signale umfaßt.
  • Durch Einführen der verteilten Spracherkennung wird die Effizienz des Systems weiter erhöht.
  • Die Erfindung betrifft jedoch auch einen Spracherkenner zur Verwendung in einem Telekommunikationssystem, das ein Endgerät umfaßt, das mit einem Netz verbunden ist, das den Spracherkenner für die Sprachbefehlsgabe umfaßt.
  • Der Spracherkenner nach Anspruch 4 ist dadurch gekennzeichnet, daß das Telekommunikationssystem einen Detektor zum Erkennen des Anzeigesignals umfaßt, mit dem Spracherkenner, der einen Einsteller zum, in Abhängigkeit von dem Anzeigesignal, Einstellen eines Kapazitätsparameters für die Sprachbefehlsgabe umfaßt.
  • Eine erste Ausführungsform des Spracherkenners gemäß der Erfindung ist dadurch gekennzeichnet, daß der Einsteller in Abhängigkeit von einem Netzsignal außerdem den Kapazitätsparameter einstellt.
  • Eine zweite Ausführungsform des Spracherkenners gemäß der Erfindung ist dadurch gekennzeichnet, daß das Endgerät eine Vorverarbeitungseinheit zum Vorverarbeiten der Signale umfaßt, mit dem Spracherkenner, der eine Endverarbeitungseinheit zum Endverarbeiten der vorverarbeiteten Signale umfaßt.
  • Die Erfindung betrifft ebenfalls ein Endgerät zur Verwendung in einem Telekommunikationssystem, das das Endgerät umfaßt, das mit einem Netz verbunden ist, das einen Spracherkenner für Sprachbefehlsgabe umfaßt.
  • Das Endgerät nach Anspruch 7 ist dadurch gekennzeichnet, daß das Telekommunikationssystem einen Detektor zum Erkennen eines Anzeigesignals umfaßt und einen Einsteller zum, in Abhängigkeit von dem Anzeigesignal, Einstellen eines Kapazitätsparameters für die Sprachbefehlsgabe umfaßt.
  • Eine erste Ausführungsform des Endgerätes gemäß der Erfindung ist dadurch gekennzeichnet, daß das Endgerät eine Mensch-Maschine-Schnittstelle zum Empfangen des Anzeigesignals umfaßt.
  • Eine zweite Ausführungsform des Endgerätes gemäß der Erfindung ist dadurch gekennzeichnet, daß das Endgerät eine Vorverarbeitungseinheit zum Vorverarbeiten der Signale umfaßt, mit dem Netz, das eine Endverarbeitungseinheit zum Endverarbeiten der vorverarbeiteten Signale umfaßt.
  • Die Erfindung betrifft ebenfalls noch ein Verfahren zur Verwendung in einem Telekommunikationssystem, das ein Endgerät umfaßt, das mit einem Netz verbunden ist, das einen Spracherkenner für Sprachbefehlsgabe umfaßt.
  • Das Verfahren nach Anspruch 10 ist dadurch gekennzeichnet, daß das Verfahren einen ersten Schritt des Erkennens des Anzeigesignals und einen zweiten Schritt des, in Abhängigkeit von dem Anzeigesignal, Einstellens eines Kapazitätsparameters für die Sprachbefehlsgabe umfaßt.
  • Die Ausführungsformen des Verfahrens gemäß der Erfindung entsprechen den Ausführungsformen des Telekommunikationssystems gemäß der Erfindung.
  • Das Dokument US 5,809,464 offenbart eine Diktiervorrichtung auf der Basis der verteilten Spracherkennung (DSR). Andere Dokumente, die die DSR betreffen, sind zum Beispiel EP00440016.4 und EP00440057.8 . Das Dokument EP00440087.5 offenbart ein System zum Durchführen der Sprachbefehlsgabe. Keines dieser Dokumente offenbart das Telekommunikationssystem gemäß der Erfindung.
  • Das Dokument WO01/95312 A1 offenbart ein verteiltes Spracherkennungssystem, in dem eine skalierbare Bandbreite durch Einstellen der Menge der Merkmale implementiert ist, die auf dem Front-End-Prozessor gemäß einem Verarbeitungslastgrad des Back-End-Erkennungsservers extrahiert wurden.
  • Die Erfindung wird außerdem anhand einer Ausführungsform erläutert, die hinsichtlich einer Zeichnung beschrieben ist, wodurch
  • 1 ein Telekommunikationssystem gemäß der Erfindung offenbart, das einen Spracherkenner gemäß der Erfindung und ein Endgerät gemäß der Erfindung umfaßt, die gegenseitig über einen Switch verbunden sind.
  • Das Endgerät 1 gemäß der Erfindung, wie in 1 gezeigt, umfaßt einen Prozessor 10 (der einen Speicher umfaßt, der nicht gezeigt ist), eine Mensch-Maschine-Schnittstelle 11 (Mensch-Maschine-Schnittstelle 11 wie ein Display, Tastatur, Mikrofon, Lautsprecher usw.), eine erste Einheit 12, eine zweite Einheit 13 und einen Transceiver 14. Eine Seite des Transceivers 14 ist mit einer Antenne verbunden, und von einer anderen Seite ist ein Ausgang des Transceivers 14 über eine Verbindung 15 mit der Mensch-Maschine-Schnittstelle 11 und der Einheit 12 verbunden, und ein Eingang des Transceivers 14 ist über eine Verbindung 16 mit der Mensch-Maschine-Schnittstelle 11 und mit der Einheit 13 verbunden, und ein Steuereingang/-ausgang ist über eine Steuerverbindung mit dem Prozessor 10 verbunden. Der Prozessor 10 ist außerdem über weitere Steuerverbindungen mit der Mensch-Maschine-Schnittstelle 11, der Einheit 12 und der Einheit 13 verbunden.
  • Der Switch 3, wie in 1 gezeigt, umfaßt einen Prozessor 30, eine dritte Einheit 31, eine vierte Einheit 32, eine fünfte Einheit 34, eine sechste Einheit 35 und eine siebente Einheit 36. Der Prozessor 30 ist über Steuerverbindungen mit der Einheit 31, der Einheit 32 und dem Koppler 33 verbunden. Der Koppler 33 ist über eine Verbindung 40 mit einer Basisstation 4 für Mobilkommunikation mit dem Endgerät 1 und über eine Verbindung 42 mit einer Basisstation 5 und über eine Verbindung 44 mit der Einheit 31 und über eine Verbindung 45 mit der Einheit 32 und über eine Verbindung 46 mit dem Spracherkenner 2 und über eine Verbindung 48 mit der Einheit 34 und über eine Verbindung 50 mit der Einheit 35 und über eine Verbindung 49 mit der Einheit 36 verbunden.
  • Der Spracherkenner 2 gemäß der Erfindung, wie in 1 gezeigt, umfaßt einen Prozessor 20, einen Speicher 21, eine achte Einheit 22, eine neunte Einheit 23, eine zehnte Einheit 24 und eine elfte Einheit 25. Der Prozessor 20 ist über einen Steuerbus 27 mit dem Speicher 21, der Einheit 22, der Einheit 23, der Einheit 24 und der Einheit 25 verbunden und ist über eine Steuerverbindung mit dem Speicher 21 verbunden, und ist über einen Bus 26 mit dem Speicher 21, der Einheit 22, der Einheit 23, der Einheit 24 und der Einheit 25 verbunden. Der Bus 26 ist mit der Verbindung 46 verbunden.
  • Das Telekommunikationssystem gemäß der Erfindung, wie in 1 gezeigt, funktioniert wie folgt.
  • Gemäß einer ersten Ausführungsform möchte ein Benutzer des Endgerätes 1 die Sprachbefehlsgabe durchführen, wie zuerst einmal die Namenwahl. Dazu wählt der Benutzer eine erste Telefonnummer, zum Beispiel durch Betätigen der Tasten der Tastatur der Mensch-Maschine-Schnittstelle 11, als Antwort auf welche unter der Steuerung des Prozessors 10 ein erstes Signalisierungssignal über die Verbindung 16 und den Transceiver 14 und die Basisstation 4 und die Verbindung 40 an den Koppler 33 des Switches 3 gesendet wird. Unter der Steuerung des Prozessors 30 wird das erste Signalisierungssignal über die Verbindung 44 an der Einheit 31 angelegt, die zum Beispiel ein Detektor zum Erkennen eines Anzeigesignals wie des ersten Signalisierungssignals ist, dessen Detektor 31 das erste Signalisierungssignal erkennt und den Prozessor 30 informiert, daß der Benutzer die Namenwahl über das Endgerät 1 durchführen möchte. Als Antwort sendet der Prozessor 30 ein erstes Informationssignal an den Spracherkenner 2 über den Koppler 33 und die Verbindung 46, um den Spracherkenner 2 zu informieren, daß der Benutzer die Namenwahl über das Endgerät 1 durchführen möchte. Dieses erste Informationssignal umfaßt entweder zum Beispiel eine Benutzerkennnung und/oder eine Endgerätekennung (direkte Adressierung) oder umfaßt einen Adreßcode, welcher sich in Switch 3 auf die Benutzerkennnung und/oder Endgerätekennung bezieht (indirekte Adressierung). Im Spracherkenner 2 erkennt die Einheit 22, die zum Beispiel ein Detektor ist, das erste Informationssignal als über die Verbindung 46 und den Bus 26 unter der Steuerung des Prozessors 20 über den Steuerbus 27 angekommen und informiert den Prozessor 20 über den Steuerbus 27 über die Erkennung. Als Antwort steuert der Prozessor 20 die Einheit 23, die zum Beispiel ein Einsteller ist, über den Steuerbus 27 auf solch eine Weise, daß ein erster Kapazitätsparameter, der einen ersten Wert aufweist (zum Beispiel Abtastrate 8000, Bandbreite 4,8 kbit/s, Rauschminderung: keine, Komplexität 5 wMops, Zweck: Namenwahl) zurück an den Switch 3 und/oder das Endgerät 1 gesendet wird. Als Antwort auf diesen ersten Kapazitätsparameter (anhand der Benutzerkennnung und/oder der Endgerätekennung und/oder des Adreßcodes) stellt der Prozessor 30 im Switch 3 eine vorgegebene Bandbreite zwischen dem Endgerät 1 und dem Switch 3 bereit, und/oder der Prozessor 10 im Endgerät 1 stellt eine vorgegebene Abtastrate ein und/oder reserviert eine vorgegebene Menge von Zeit und/oder deaktiviert die Rauschminderung zum Beispiel. Infolgedessen kann der Benutzer nun die Namenwahl durch Eingeben der Sprache über das Mikrofon der Mensch-Maschine-Schnittstelle 11 durchführen, die über den Switch 3 auf den Spracherkenner 2 zum Erkennen der Sprache gegeben wird, als Antwort auf welche ein Name erkannt wird und eine entsprechende Zielnummer, die im Speicher 21 gespeichert ist, an den Switch 3 gesendet wird. Infolgedessen wird eine Sprechverbindung vom Endgerät 1 über den Switch 3 mit einem Ziel hergestellt, das durch die Zielnummer definiert ist, usw.
  • Dann möchte der Benutzer des Endgerätes 1 die Sprachbefehlsgabe durchführen, wie zweitens die Steuerung und den Befehl (zum Steuern und/oder zur Befehlsgabe zum Beispiel bestimmter Dienste, die in dem Netz zur Verfügung stehen). Dazu wählt der Benutzer eine zweite Telefonnummer (die von der ersten Telefonnummer verschieden ist) zum Beispiel durch Betätigen der Tasten der Tastatur der Mensch-Maschine-Schnittstelle 11, als Antwort auf welche unter der Steuerung des Prozessors 10 ein zweites Signalisierungssignal (das von dem ersten Signalisierungssignal verschieden ist) über die Verbindung 16 und den Transceiver 14 und die Basisstation 4 und die Verbindung 40 an den Koppler 33 des Switches 3 gesendet wird. Unter der Steuerung des Prozessors 30 wird das zweite Signalisierungssignal über die Verbindung 44 an der Einheit 31 angelegt, die zum Beispiel ein Detektor zum Erkennen des Anzeigesignals wie des zweiten Signalisierungssignals ist, dessen Detektor 31 das zweite Signalisierungssignal erkennt und den Prozessor 30 informiert, daß der Benutzer den Befehl und die Steuerung über das Endgerät 1 durchführen möchte. Als Antwort sendet der Prozessor 30 ein zweites Informationssignal an den Spracherkenner 2 über den Koppler 33 und die Verbindung 46, um den Spracherkenner 2 zu informieren, daß der Benutzer den Befehl und die Steuerung über das Endgerät 1 durchführen möchte. Dieses zweite Informationssignal umfaßt entweder zum Beispiel eine Benutzerkennnung und/oder eine Endgerätekennung (direkte Adressierung) oder umfaßt einen Adreßcode, welcher sich in Switch 3 auf die Benutzerkennnung und/oder Endgerätekennung bezieht (indirekte Adressierung). Im Spracherkenner 2 erkennt die Einheit 22, die zum Beispiel ein Detektor ist, das zweite Informationssignal als über die Verbindung 46 und den Bus 26 unter der Steuerung des Prozessors 20 über den Steuerbus 27 angekommen und informiert den Prozessor 20 über den Steuerbus 27 über die Erkennung. Als Antwort steuert der Prozessor 20 die Einheit 23, die zum Beispiel ein Einsteller ist, über den Steuerbus 27 auf solch eine Weise, daß ein zweiter Kapazitätsparameter, der einen zweiten Wert aufweist (zum Beispiel Abtastrate 11000, Bandbreite 5,0 kbit/s, Rauschminderung: keine, Komplexität 10 wMops, Zweck: Befehl und Steuerung) zurück an den Switch 3 und/oder das Endgerät 1 gesendet wird. Als Antwort auf diesen zweiten Kapazitätsparameter (anhand der Benutzerkennnung und/oder der Endgerätekennung und/oder des Adreßcodes) stellt der Prozessor 30 im Switch 3 eine vorgegebene Bandbreite zwischen dem Endgerät 1 und dem Switch 3 bereit, und/oder der Prozessor 10 im Endgerät 1 stellt eine vorgegebene Abtastrate ein und/oder reserviert eine vorgegebene Menge von Zeit und/oder deaktiviert die Rauschminderung zum Beispiel. Infolgedessen kann der Benutzer nun den Befehl und die Steuerung durch Eingeben der Sprache über das Mikrofon der Mensch-Maschine-Schnittstelle 11 durchführen, die über den Switch 3 auf den Spracherkenner 2 zum Erkennen der Sprache gegeben wird, als Antwort auf welche die Befehle und/oder Steuerungen erkannt werden und ein entsprechender Befehl und/oder Steuerung durchgeführt wird usw.
  • Dann möchte der Benutzer des Endgerätes 1 die Sprachbefehlsgabe durchführen, wie drittens das Diktieren (zum Diktieren zum Beispiel eines Textes, der in dem Netz zu speichern/zu verarbeiten ist). Dazu wählt der Benutzer eine dritte Telefonnummer (die von der ersten/zweiten Telefonnummer verschieden ist) zum Beispiel durch Betätigen der Tasten der Tastatur der Mensch-Maschine-Schnittstelle 11, als Antwort auf welche unter der Steuerung des Prozessors 10 ein drittes Signalisierungssignal (das von dem ersten/zweiten Signalisierungssignal verschieden ist) über die Verbindung 16 und den Transceiver 14 und die Basisstation 4 und die Verbindung 40 an den Koppler 33 des Switches 3 gesendet wird. Unter der Steuerung des Prozessors 30 wird das dritte Signalisierungssignal über die Verbindung 44 an der Einheit 31 angelegt, die zum Beispiel ein Detektor zum Erkennen des Anzeigesignals wie des dritten Signalisierungssignals ist, dessen Detektor 31 das dritte Signalisierungssignal erkennt und den Prozessor 30 informiert, daß der Benutzer das Diktieren über das Endgerät 1 durchführen möchte. Als Antwort sendet der Prozessor 30 ein drittes Informationssignal an den Spracherkenner 2 über den Koppler 33 und die Verbindung 46, um den Spracherkenner 2 zu informieren, daß der Benutzer das Diktieren über das Endgerät 1 durchführen möchte. Dieses dritte Informationssignal umfaßt entweder zum Beispiel eine Benutzerkennnung und/oder eine Endgerätekennung (direkte Adressierung) oder umfaßt einen Adreßcode, welcher sich in Switch 3 auf die Benutzerkennnung und/oder Endgerätekennung bezieht (indirekte Adressierung). Im Spracherkenner 2 erkennt die Einheit 22, die zum Beispiel ein Detektor ist, das dritte Informationssignal als über die Verbindung 46 und den Bus 26 unter der Steuerung des Prozessors 20 über den Steuerbus 27 angekommen und informiert den Prozessor 20 über den Steuerbus 27 über die Erkennung. Als Antwort steuert der Prozessor 20 die Einheit 23, die zum Beispiel ein Einsteller ist, über den Steuerbus 27 auf solch eine Weise, daß ein dritter Kapazitätsparameter, der einen dritten Wert aufweist (zum Beispiel Abtastrate 16000, Bandbreite 5,0 kbit/s, Rauschminderung: keine, Komplexität 12 wMops, Zweck: Diktieren) zurück an den Switch 3 und/oder das Endgerät 1 gesendet wird. Als Antwort auf diesen dritten Kapazitätsparameter (anhand der Benutzerkennnung und/oder der Endgerätekennung und/oder des Adreßcodes) stellt der Prozessor 30 im Switch 3 eine vorgegebene Bandbreite zwischen dem Endgerät 1 und dem Switch 3 bereit, und/oder der Prozessor 10 im Endgerät 1 stellt eine vorgegebene Abtastrate ein und/oder reserviert eine vorgegebene Menge von Zeit und/oder deaktiviert die Rauschminderung zum Beispiel. Infolgedessen kann der Benutzer nun das Diktieren durch Eingeben der Sprache über das Mikrofon der Mensch-Maschine-Schnittstelle 11 durchführen, die über den Switch 3 auf den Spracherkenner 2 zum Erkennen der Sprache gegeben wird, als Antwort auf welche das Diktieren stattfindet und Text zum Beispiel im Speicher 21 gespeichert/verarbeitet wird usw.
  • Gemäß einer ersten Alternative zu der ersten Ausführungsform, zum Beispiel im Fall, daß der Benutzer die Sprachbefehlsgabe wie den Befehl und die Steuerung und/oder das Diktieren durchführen möchte, wobei der Switch 3 und/oder das Endgerät 1 entsprechend als Antwort auf das Empfangen (eines Teils) eines zweiten oder dritten Kapazitätsparameters, der den zweiten oder dritten Wert aufweist, den (Teil) des Kapazitätsparameters mit einem vorgegebenen (Teil eines) Kapazitätsparameters (durch zum Beispiel Verwendung eines Detektors – wie des Detektors 31 im Switch 3 und der Einheit 12 im Endgerät 1 – und/oder eines Komparators – wie der Einheit 32 im Switch 3 und der Einheit 12 im Endgerät 1 –), vergleichen und entscheiden, daß im Augenblick die notwendige Kapazität nicht zur Verfügung steht, als Antwort auf welche (der Teil) des Kapazitätsparameters durch (ein Teil) des ersten Kapazitätsparameters ersetzt werden muß, und ein Warnsignal an den Spracherkenner 2 und/oder das Endgerät 1 und den Switch 3 entsprechend zu senden ist (durch zum Beispiel Verwendung eines Warnsignalgenerators). Solch ein Warnsignal kann auf dem Endgerät 1 zum Beispiel auf dem Display der Mensch-Maschine-Schnittstelle 11 dargestellt oder über den Lautsprecher der Mensch-Maschine-Schnittstelle 11 erzeugt werden.
  • Gemäß einer zweiten Alternative zu der ersten Ausführungsform umfaßt das Endgerät 1 eine Vorverarbeitungseinheit (zum Beispiel die Einheit 13 oder ein Teil des Prozessors 10) zum Vorverarbeiten der Sprachsignale, die über die Mensch-Maschine-Schnittstelle 11 (Mikrofon) erzeugt wurden, in welchem Fall im Spracherkenner 2 eine Endverarbeitungsfunktion (zum Beispiel die Einheit 24) zum Endverarbeiten des vorverarbeiteten Sprachsignals, in welchem Fall ein verteiltes Spracherkennungssystem erzeugt worden ist.
  • Gemäß einer dritten Alternative zu der ersten Ausführungsform umfaßt das Endgerät 1 eine kleine Sprachbefehlsgabeeinheit wie zum Beispiel ein einfaches Namenwählgerät (zum Beispiel die Einheit 13 oder ein Teil des Prozessors 10) und statt die erste, zweite und/oder dritte Telefonnummer zu wählen, kann der Benutzer die Nummern über Sprache und das Mikrofon der Mensch-Maschine-Schnittstelle 11 eingeben.
  • Gemäß einer zweiten Ausführungsform möchte der Benutzer des Endgerätes 1 die Sprachbefehlsgabe durchführen, wie erstens die Namenwahl oder zweitens den Befehl und die Steuerung oder drittens das Diktieren. Dazu wählt für jede Möglichkeit der Benutzer eine Telefonnummer zum Beispiel durch Betätigen der Tasten der Tastatur der Mensch-Maschine-Schnittstelle 11 und gibt dann ein Schlüsselsignal ein (wie einen ersten Schlüssel für die Namenwahl, einen zweiten Schlüssel für den Befehl und die Steuerung und einen dritten Schlüssel für das Diktieren), als Antwort auf welches unter der Steuerung des Prozessors 10 ein Signalisierungssignal über die Verbindung 16 und den Transceiver 14 und die Basisstation 4 und die Verbindung 40 an Koppler 33 des Switches 3 gesendet wird. Unter der Steuerung des Prozessors 30 wird das Signalisierungssignal über die Verbindung 44 an der Einheit 31 angelegt, die zum Beispiel ein Detektor zum Erkennen des Anzeigesignals wie des Signalisierungssignals ist, dessen Detektor 31 das Signalisierungssignal erkennt und den Prozessor 30 informiert, daß der Benutzer die Namenwahl (erste Taste verwendet) oder den Befehl und die Steuerung (zweite Taste verwendet) oder das Diktieren (dritte Taste verwendet) über das Endgerät 1 durchführen möchte. Als Antwort sendet der Prozessor 30 ein Informationssignal an den Spracherkenner 2 über den Koppler 33 und die Verbindung 46, um den Spracherkenner 2 zu informieren, daß der Benutzer die Namenwahl/Befehl und Steuerung/Diktieren über das Endgerät 1 durchführen möchte. Dieses Informationssignal umfaßt entweder zum Beispiel eine Benutzerkennnung und/oder eine Endgerätekennung (direkte Adressierung) oder umfaßt einen Adreßcode, welcher sich in Switch 3 auf die Benutzerkennnung und/oder Endgerätekennung bezieht (indirekte Adressierung). Im Spracherkenner 2 erkennt die Einheit 22, die zum Beispiel ein Detektor ist, das Informationssignal als über die Verbindung 46 und den Bus 26 unter der Steuerung des Prozessors 20 über den Steuerbus 27 angekommen und informiert den Prozessor 20 über den Steuerbus 27 über die Erkennung. Als Antwort steuert der Prozessor 20 die Einheit 23, die zum Beispiel ein Einsteller ist, über den Steuerbus 27 auf solch eine Weise, daß ein erster/zweiter/dritter Kapazitätsparameter, der einen ersten/zweiten/dritten Wert aufweist, zurück an den Switch 3 und/oder das Endgerät 1 gesendet wird. Als Antwort auf diesen Kapazitätsparameter (anhand der Benutzerkennnung und/oder der Endgerätekennung und/oder des Adreßcodes) stellt der Prozessor 30 im Switch 3 eine vorgegebene Bandbreite zwischen dem Endgerät 1 und dem Switch 3 bereit, und/oder der Prozessor 10 im Endgerät 1 stellt eine vorgegebene Abtastrate ein und/oder reserviert eine vorgegebene Menge von Zeit und/oder deaktiviert die Rauschminderung zum Beispiel. Infolgedessen kann der Benutzer nun die Namenwahl/den Befehl und die Steuerung/das Diktieren usw. durchführen.
  • Gemäß einer ersten Alternative zu der zweiten Ausführungsform, zum Beispiel im Fall, daß der Benutzer die Sprachbefehlsgabe wie den Befehl und die Steuerung und/oder das Diktieren durchführen möchte, wobei der Switch 3 und/oder das Endgerät 1 entsprechend als Antwort auf das Empfangen (eines Teils) eines zweiten oder dritten Kapazitätsparameters, der den zweiten oder dritten Wert aufweist, den (Teil) des Kapazitätsparameters mit einem vorgegebenen (Teil eines) Kapazitätsparameters (durch zum Beispiel Verwendung eines Detektors – wie des Detektors 31 im Switch 3 und der Einheit 12 im Endgerät 1 – und/oder eines Komparators – wie der Einheit 32 im Switch 3 und der Einheit 12 im Endgerät 1 –), vergleichen und entscheiden, daß im Augenblick die notwendige Kapazität nicht zur Verfügung steht, als Antwort auf welche (der Teil) des Kapazitätsparameters durch (ein Teil) des ersten Kapazitätsparameters ersetzt werden muß, und ein Warnsignal an den Spracherkenner 2 und/oder das Endgerät 1 und den Switch 3 entsprechend zu senden ist (durch zum Beispiel Verwendung eines Warnsignalgenerators). Solch ein Warnsignal kann auf dem Endgerät 1 zum Beispiel auf dem Display der Mensch-Maschine-Schnittstelle 11 dargestellt oder über den Lautsprecher der Mensch-Maschine-Schnittstelle 11 erzeugt werden.
  • Gemäß einer zweiten Alternative zu der zweiten Ausführungsform umfaßt das Endgerät 1 eine Vorverarbeitungseinheit (zum Beispiel die Einheit 13 oder ein Teil des Prozessors 10) zum Vorverarbeiten der Sprachsignale, die über die Mensch-Maschine-Schnittstelle 11 (Mikrofon) erzeugt wurden, in welchem Fall im Spracherkenner 2 eine Endverarbeitungsfunktion (zum Beispiel die Einheit 24) zum Endverarbeiten des vorverarbeiteten Sprachsignals, in welchem Fall ein verteiltes Spracherkennungssystem erzeugt worden ist.
  • Gemäß einer dritten Alternative zu der zweiten Ausführungsform umfaßt das Endgerät 1 eine kleine Sprachbefehlsgabeeinheit wie zum Beispiel ein einfaches Namenwählgerät (zum Beispiel die Einheit 13 oder ein Teil des Prozessors 10), und statt eine Telefonnummer zu wählen, kann der Benutzer die Nummer über Sprache und das Mikrofon der Mensch-Maschine-Schnittstelle 11 eingeben.
  • Gemäß einer vierten Alternative zu der zweiten Ausführungsform umfaßt das Endgerät 1 eine kleine Sprachbefehlsgabeeinheit wie zum Beispiel ein einfaches Namenwählgerät (zum Beispiel die Einheit 13 oder ein Teil des Prozessors 10), und statt die Schlüsselsignale einzugeben, kann der Benutzer diese über Sprache und das Mikrofon der Mensch-Maschine-Schnittstelle 11 eingeben.
  • Gemäß einer dritten Ausführungsform möchte der Benutzer des Endgerätes 1 die Sprachbefehlsgabe durchführen, wie erstens die Namenwahl oder zweitens den Befehl und die Steuerung oder drittens das Diktieren. Dazu wählt der Benutzer für jede Möglichkeit eine Telefonnummer, zum Beispiel durch Betätigen der Tasten der Tastatur der Mensch-Maschine-Schnittstelle 11, als Antwort auf welche unter der Steuerung des Prozessors 10 ein Signalisierungssignal über die Verbindung 16 und den Transceiver 14 und die Basisstation 4 und die Verbindung 40 an den Koppler 33 des Switches 3 gesendet wird. Unter der Steuerung des Prozessors 30 wird das Signalisierungssignal über die Verbindung 44 an der Einheit 31 angelegt, die zum Beispiel ein Detektor zum Erkennen des Anzeigesignals wie des Signalisierungssignals ist, dessen Detektor 31 das Signalisierungssignal erkennt und den Prozessor 30 informiert, daß der Benutzer die Sprachbefehlsgabe über das Endgerät 1 durchführen möchte. Als Antwort sendet der Prozessor 30 ein Informationssignal an den Spracherkenner 2 über den Koppler 33 und die Verbindung 46, um den Spracherkenner 2 zu informieren, daß der Benutzer die Sprachbefehlsgabe über das Endgerät 1 durchführen möchte. Dieses Informationssignal umfaßt entweder zum Beispiel eine Benutzerkennnung und/oder eine Endgerätekennung (direkte Adressierung) oder umfaßt einen Adreßcode, welcher sich in Switch 3 auf die Benutzerkennnung und/oder Endgerätekennung bezieht (indirekte Adressierung). Im Spracherkenner 2 erkennt die Einheit 22, die zum Beispiel ein Detektor ist, das Informationssignal als über die Verbindung 46 und den Bus 26 unter der Steuerung des Prozessors 20 über den Steuerbus 27 angekommen und informiert den Prozessor 20 über den Steuerbus 27 über die Erkennung. Als Antwort steuert der Prozessor 20 die Einheit 23, die zum Beispiel ein Einsteller ist, über den Steuerbus 27 auf solch eine Weise, daß ein allgemeiner Kapazitätsparameter, der einen allgemeinen Wert aufweist, zurück an den Switch 3 und/oder das Endgerät 1 gesendet wird. Als Antwort auf diesen Kapazitätsparameter (anhand der Benutzerkennnung und/oder der Endgerätekennung und/oder des Adreßcodes) stellt der Prozessor 30 im Switch 3 eine vorgegebene Bandbreite zwischen dem Endgerät 1 und dem Switch 3 bereit, und/oder der Prozessor 10 im Endgerät 1 stellt eine vorgegebene Abtastrate ein und/oder reserviert eine vorgegebene Menge von Zeit und/oder deaktiviert die Rauschminderung zum Beispiel. Infolgedessen kann der Benutzer nun die Sprachbefehlsgabe durchführen, und während dieser Sprachbefehlsgabe startet der Benutzer einen Dialog mit dem Spracherkenner 2, damit der Kapazitätsparameter eingestellt wird, usw.
  • Gemäß einer ersten Alternative zu der dritten Ausführungsform, zum Beispiel im Fall, daß der Benutzer die Sprachbefehlsgabe durchführen möchte oder durchführt wie den Befehl und die Steuerung und/oder das Diktieren, können der Switch 3 und/oder das Endgerät 1 entsprechend entscheiden, daß im Augenblick die notwendige Kapazität nicht zur Verfügung steht, als Antwort auf welche das Warnsignal an den Spracherkenner 2 und/oder das Endgerät 1 und den Switch 3 entsprechend zu senden ist, usw.
  • Gemäß einer zweiten Alternative zu der dritten Ausführungsform umfaßt das Endgerät 1 eine Vorverarbeitungseinheit (zum Beispiel die Einheit 13 oder ein Teil des Prozessors 10) zum Vorverarbeiten der Sprachsignale, die über die Mensch-Maschine-Schnittstelle 11 (Mikrofon) erzeugt wurden, in welchem Fall im Spracherkenner 2 eine Endverarbeitungsfunktion (zum Beispiel die Einheit 24) zum Endverarbeiten des vorverarbeiteten Sprachsignals, in welchem Fall ein verteiltes Spracherkennungssystem erzeugt worden ist.
  • Gemäß einer dritten Alternative zu der dritten Ausführungsform umfaßt das Endgerät 1 eine kleine Sprachbefehlsgabeeinheit wie zum Beispiel ein einfaches Namenwählgerät (zum Beispiel die Einheit 13 oder ein Teil des Prozessors 10) und statt eine Telefonnummer zu wählen, kann der Benutzer die Nummer über Sprache und das Mikrofon der Mensch-Maschine-Schnittstelle 11 eingeben.
  • Gemäß einer vierten Alternative zu der dritten Ausführungsform umfaßt das Endgerät 1 eine kleine Sprachbefehlsgabeeinheit wie zum Beispiel ein kleines Namenwählgerät (zum Beispiel die Einheit 13 oder ein Teil des Prozessors 10), und mindestens ein Teil des Dialogs findet unter der Steuerung von und/oder unter Verwendung dieser kleinen Sprachbefehlsgabeeinheit statt usw.
  • Gemäß einer vierten Ausführungsform ist eine Verbindung zwischen dem Endgerät 1 und dem Spracherkenner 2 über den Switch 3 bereits vorhanden und eine Anwendung läuft im Prozessor 10 im Endgerät 1 oder teilweise im Prozessor 20 im Spracherkenner 2 und teilweise im Prozessor 10 ab. Dann entscheidet (der Teil einer) Anwendung in dem Endgerät, daß die Sprachbefehlsgabe dem Benutzer angeboten werden sollte und/oder daß die Art der Sprachbefehlsgabe geändert werden sollte. Dazu wird von dem Endgerät 1 (über einen Anzeigesignalgenerator, der nicht gezeigt ist, und zum Beispiel einen Teil des Prozessors 10 bildet) ein Anzeigesignal an den Koppler 33 des Switches 3 gesendet. Unter der Steuerung des Prozessors 30 wird das Anzeigesignal über die Verbindung 44 an der Einheit 31 angelegt, die zum Beispiel ein Detektor zum Erkennen des Anzeigesignals ist, dessen Detektor 31 den Prozessor 30 informiert, daß (der Teil einer) Anwendung die Sprachbefehlsgabe anbieten und/oder ändern möchte usw. Als Antwort sendet der Prozessor 30 ein Informationssignal an den Spracherkenner 2 über den Koppler 33 und die Verbindung 46, um den Spracherkenner 2 zu informieren, daß (der Teil einer) Anwendung in dem Endgerät 1 des Benutzers die Sprachbefehlsgabe über das Endgerät 1 anbieten/ändern möchte. Dieses Informationssignal umfaßt entweder zum Beispiel eine Benutzerkennnung und/oder eine Endgerätekennung (direkte Adressierung) oder umfaßt einen Adreßcode, welcher sich in Switch 3 auf die Benutzerkennnung und/oder Endgerätekennung bezieht (indirekte Adressierung). Im Spracherkenner 2 erkennt die Einheit 22, die zum Beispiel ein Detektor ist, das Informationssignal als über die Verbindung 46 und den Bus 26 unter der Steuerung des Prozessors 20 über den Steuerbus 27 angekommen und informiert den Prozessor 20 über den Steuerbus 27 über die Erkennung. Als Antwort steuert der Prozessor 20 die Einheit 23, die zum Beispiel ein Einsteller ist, über den Steuerbus 27 auf solch eine Weise, daß ein spezifischer Kapazitätsparameter, der einen spezifischen Wert aufweist, zurück an den Switch 3 und/oder das Endgerät 1 gesendet wird. Als Antwort auf diesen Kapazitätsparameter (anhand der Benutzerkennnung und/oder der Endgerätekennung und/oder des Adreßcodes) stellt der Prozessor 30 im Switch 3 eine vorgegebene Bandbreite zwischen dem Endgerät 1 und dem Switch 3 bereit, und/oder der Prozessor 10 im Endgerät 1 stellt eine vorgegebene Abtastrate ein und/oder reserviert eine vorgegebene Menge von Zeit und/oder (de)aktiviert die Rauschminderung zum Beispiel. Infolgedessen wird die Sprachbefehlsgabe angeboten und/oder geändert usw.
  • Gemäß einer ersten Alternative zu der vierten Ausführungsform, zum Beispiel im Fall, daß die Anwendung die Sprachbefehlsgabe anbieten möchte wie den Befehl und die Steuerung und/oder das Diktieren, können der Switch 3 und/oder das Endgerät 1 entsprechend entscheiden, daß im Augenblick die notwendige Kapazität nicht zur Verfügung steht, als Antwort auf welche das Warnsignal an den Spracherkenner 2 und/oder das Endgerät 1 und den Switch 3 entsprechend zu senden ist usw.
  • Gemäß einer zweiten Alternative zu der vierten Ausführungsform umfaßt das Endgerät 1 eine Vorverarbeitungseinheit (zum Beispiel die Einheit 13 oder ein Teil des Prozessors 10) zum Vorverarbeiten der Sprachsignale, die über die Mensch-Maschine-Schnittstelle 11 (Mikrofon) erzeugt wurden, in welchem Fall im Spracherkenner 2 eine Endverarbeitungsfunktion (zum Beispiel die Einheit 24) zum Endverarbeiten des vorverarbeiteten Sprachsignals, in welchem Fall ein verteiltes Spracherkennungssystem erzeugt worden ist.
  • Gemäß einer dritten Alternative zu der vierten Ausführungsform umfaßt das Endgerät 1 eine kleine Sprachbefehlsgabeeinheit wie zum Beispiel ein kleines Namenwählgerät (zum Beispiel die Einheit 13 oder ein Teil des Prozessors 10) und mindestens ein Teil eines Dialogs findet unter der Steuerung von und/oder unter Verwendung dieser kleinen Sprachbefehlsgabeeinheit statt usw.
  • Gemäß einer fünften Ausführungsform ist eine Verbindung zwischen dem Endgerät 1 und dem Spracherkenner 2 über den Switch 3 bereits vorhanden und eine Anwendung läuft im Prozessor 20 im Spracherkenner 2 oder teilweise im Prozessor 20 und teilweise im Prozessor 10 im Endgerät 1 ab. Dann entscheidet (der Teil einer) Anwendung in dem Spracherkenner 2, daß die Sprachbefehlsgabe dem Benutzer angeboten werden sollte und/oder daß die Art der Sprachbefehlsgabe geändert werden sollte. Dazu wird vom Spracherkenner 2 (zum Beispiel über die Einheit 25, die ein Anzeigesignalgenerator ist) ein Anzeigesignal an den Koppler 33 des Switches 3 gesendet. Unter der Steuerung des Prozessors 30 wird das Anzeigesignal über die Verbindung 44 an der Einheit 31 angelegt, die zum Beispiel ein Detektor zum Erkennen des Anzeigesignals ist, dessen Detektor 31 den Prozessor 30 informiert, daß (der Teil einer) Anwendung die Sprachbefehlsgabe anbieten und/oder ändern möchte usw. Als Antwort sendet der Prozessor 30 ein Informationssignal an den Spracherkenner 2 über den Koppler 33 und die Verbindung 46, um den Spracherkenner 2 zu informieren, daß (der Teil einer) Anwendung in dem Endgerät 1 des Benutzers die Sprachbefehlsgabe über das Endgerät 1 anbieten/ändern möchte. Dieses Informationssignal umfaßt entweder zum Beispiel eine Benutzerkennnung und/oder eine Endgerätekennung (direkte Adressierung) oder umfaßt einen Adreßcode, welcher sich in Switch 3 auf die Benutzerkennnung und/oder Endgerätekennung bezieht (indirekte Adressierung). Im Spracherkenner 2 erkennt die Einheit 22, die zum Beispiel ein Detektor ist, das Informationssignal als über die Verbindung 46 und den Bus 26 unter der Steuerung des Prozessors 20 über den Steuerbus 27 angekommen und informiert den Prozessor 20 über den Steuerbus 27 über die Erkennung. Als Antwort steuert der Prozessor 20 die Einheit 23, die zum Beispiel ein Einsteller ist, über den Steuerbus 27 auf solch eine Weise, daß ein spezifischer Kapazitätsparameter, der einen spezifischen Wert aufweist, zurück an den Switch 3 und/oder das Endgerät 1 gesendet wird. Als Antwort auf diesen Kapazitätsparameter (anhand der Benutzerkennnung und/oder der Endgerätekennung und/oder des Adreßcodes) stellt der Prozessor 30 im Switch 3 eine vorgegebene Bandbreite zwischen dem Endgerät 1 und dem Switch 3 bereit, und/oder der Prozessor 10 im Endgerät 1 stellt eine vorgegebene Abtastrate ein und/oder reserviert eine vorgegebene Menge von Zeit und/oder (de)aktiviert die Rauschminderung zum Beispiel. Infolgedessen wird die Sprachbefehlsgabe angeboten und/oder geändert usw.
  • Gemäß einer ersten Alternative zu der fünften Ausführungsform, zum Beispiel im Fall, daß die Anwendung die Sprachbefehlsgabe anbieten möchte wie den Befehl und die Steuerung und/oder das Diktieren, können der Switch 3 und/oder das Endgerät 1 entsprechend entscheiden, daß im Augenblick die notwendige Kapazität nicht zur Verfügung steht, als Antwort auf welche das Warnsignal an den Spracherkenner 2 und/oder das Endgerät 1 und den Switch 3 entsprechend zu senden ist usw.
  • Gemäß einer zweiten Alternative zu der vierten Ausführungsform umfaßt das Endgerät 1 eine Vorverarbeitungseinheit (zum Beispiel die Einheit 13 oder ein Teil des Prozessors 10) zum Vorverarbeiten der Sprachsignale, die über die Mensch-Maschine-Schnittstelle 11 (Mikrofon) erzeugt wurden, in welchem Fall im Spracherkenner 2 eine Endverarbeitungsfunktion (zum Beispiel die Einheit 24) zum Endverarbeiten des vorverarbeiteten Sprachsignals, in welchem Fall ein verteiltes Spracherkennungssystem erzeugt worden ist.
  • Gemäß einer dritten Alternative zu der vierten Ausführungsform umfaßt das Endgerät 1 eine kleine Sprachbefehlsgabeeinheit wie zum Beispiel ein kleines Namenwählgerät (zum Beispiel die Einheit 13 oder ein Teil des Prozessors 10) und mindestens ein Teil eines Dialogs findet unter der Steuerung von und/oder unter Verwendung dieser kleinen Sprachbefehlsgabeeinheit statt usw.
  • Alle Ausführungsformen sind wohlbegründete Ausführungsformen und schließen andere Ausführungsformen nicht aus, die nicht gezeigt und/oder beschrieben sind. Alle Alternativen sind wohlbegründete Alternativen und schließen andere Alternativen nicht aus, die nicht gezeigt und/oder beschrieben sind. Jeder (Teil einer) Ausführungsform und/oder jeder (Teil einer) Alternative kann mit jedem anderen (Teil einer) Ausführungsform und/oder jedem anderen (Teil einer) Alternative kombiniert werden.
  • Das Endgerät, die Basisstation und der Switch können gemäß GSM, UMTS, DECT, ISDN, PSTN usw. sein. Die Konstruktion des Endgerätes, des Switches und des Spracherkenners kann modifiziert werden, ohne von dem Anwendungsbereich dieser Erfindung abzuweichen. Parallele Blöcke können in Reihe und umgekehrt geschaltet werden und jeder Bus kann durch separate Verbindungen und umgekehrt ersetzt werden. Die Einheiten und Schaltungen sowie alle anderen Blöcke, die gezeigt und/oder nicht gezeigt sind, können 100% Hardware oder 100% Software, eine Mischung von beiden sein. Jede Einheit, Schaltung und Block kann mit einem Prozessor oder jedem anderen Teil integriert sein und jede Funktion eines Prozessors kann durch eine separate Einheit, Schaltung oder Block realisiert sein. Jeder Teil des Spracherkenners kann in den Switch verlagert sein und umgekehrt, und beide können vollständig integriert sein. Jede Verbindung kann die ganze Zeit leitungsvermittelt, die ganze Zeit paketvermittelt oder leitungsvermittelt während eines ersten Zeitintervalles und paketvermittelt während eines zweiten Zeitintervalles sein.
  • Der Einsteller kann einen Kapazitätsparameter (direkte Einstellung) einstellen oder den Speicher befehlen/anfordern, um einen bestimmten Kapazitätsparameter auszulesen (indirekte Einstellung über Generierung). Im Fall, daß der Einsteller in dem Endgerät angeordnet ist oder das Endgerät mit einem weiteren Einsteller bereitgestellt ist, wird mindestens ein Teil des Entscheidungsprozesses in das Endgerät verlagert. Im Fall, daß der Detektor in dem Endgerät und/oder in dem Spracherkenner angeordnet ist oder das Endgerät mit einem weiteren Detektor bereitgestellt ist und/oder der Spracherkenner mit noch einem weiteren Detektor bereitgestellt ist, wird mindestens ein Teil des Detektierungsprozesses in das Endgerät und/oder in den Spracherkenner verlagert.

Claims (10)

  1. Telekommunikationssystem, umfassend ein Endgerät, das mit einem Netz verbunden ist, das einen Spracherkenner für die Sprachbefehlsgabe umfaßt, wobei das Telekommunikationssystem einen Detektor zum Erkennen des Anzeigesignals umfaßt und einen Einsteller umfaßt, dadurch gekennzeichnet, daß der Einsteller Einrichtungen zum Einstellen eines Kapazitätsparameters umfaßt, der angepaßt ist, um die Sprachbefehlsgabe in Abhängigkeit von dem Anzeigesignal zu steuern, wobei der Kapazitätsparameter ermöglicht, einen skalaren Wert der Bandbreite zwischen dem Endgerät und dem Spracherkenner, eine variable Abtastrate an dem Endgerät oder dem Spracherkenner, eine in Abhängigkeit von einer Signalqualität aktivierte Rauschminderung, eine Prozessorgeschwindigkeit oder die verfügbare in dem Endgerät oder dem Spracherkenner zu reservierende Verarbeitungszeit zu definieren.
  2. Telekommunikationssystem nach Anspruch 1, dadurch gekennzeichnet, daß der Einsteller in Abhängigkeit von einem Netzsignal außerdem den Kapazitätsparameter einstellt.
  3. Telekommunikationssystem nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß das Endgerät eine Vorverarbeitungseinheit zum Vorverarbeiten der Signale umfaßt, mit dem Netz, das eine Endverarbeitungseinheit zum Endverarbeiten der vorverarbeiteten Signale umfaßt.
  4. Spracherkenner, der zur Verwendung in einem Telekommunikationssystem angepaßt ist, umfassend ein Endgerät, das mit einem Netz verbunden ist, das mit dem Spracherkenner für die Sprachbefehlsgabe verbunden ist, wobei der Spracherkenner einen Detektor zum Erkennen eines Anzeigesignals umfaßt, und wobei der Spracherkenner einen Einsteller umfaßt, wobei der Einsteller dadurch gekennzeichnet ist, daß er Einrichtungen zum Einstellen eines Kapazitätsparameters umfaßt, der angepaßt ist, um die Sprachbefehlsgabe in Abhängigkeit von dem Anzeigesignal zu steuern, wobei der Kapazitätsparameter ermöglicht, einen skalaren Wert der Bandbreite zwischen dem Endgerät und dem Spracherkenner, eine variable Abtastrate an dem Endgerät oder dem Spracherkenner, eine in Abhängigkeit von einer Signalqualität aktivierte Rauschminderung, eine Prozessorgeschwindigkeit oder die verfügbare in dem Endgerät oder Spracherkenner zu reservierende Verarbeitungszeit zu definieren.
  5. Spracherkenner nach Anspruch 4, dadurch gekennzeichnet, daß der Einsteller in Abhängigkeit von einem Netzsignal außerdem den Kapazitätsparameter einstellt.
  6. Spracherkenner nach Anspruch 5, dadurch gekennzeichnet, daß das Endgerät eine Vorverarbeitungseinheit zum Vorverarbeiten der Signale umfaßt, mit dem Spracherkenner, der eine Endverarbeitungseinheit zum Endverarbeiten der vorverarbeiteten Signale umfaßt.
  7. Endgerät, das zur Verwendung in einem Telekommunikationssystem angepaßt ist, umfassend das Endgerät, das mit einem Netz verbunden ist, das mit einem Spracherkenner für die Sprachbefehlsgabe verbunden ist, wobei das Endgerät einen Detektor zum Erkennen des Anzeigesignals umfaßt und einen Einsteller umfaßt, wobei der Einsteller dadurch gekennzeichnet ist, daß er Einrichtungen zum Einstellen eines Kapazitätsparameters umfaßt, der angepaßt ist, um die Sprachbefehlsgabe in Abhängigkeit von dem Anzeigesignal zu steuern, wobei der Kapazitätsparameter ermöglicht, einen skalaren Wert der Bandbreite zwischen dem Endgerät und dem Spracherkenner, eine variable Abtastrate an dem Endgerät oder dem Spracherkenner, eine in Abhängigkeit von einer Signalqualität aktivierte Rauschminderung, eine Prozessorgeschwindigkeit oder die verfügbare in dem Endgerät oder dem Spracherkenner zu reservierende Verarbeitungszeit zu definieren.
  8. Endgerät nach Anspruch 7, dadurch gekennzeichnet, daß das Endgerät eine Mensch-Maschine-Schnittstelle zum Empfangen des Anzeigesignals umfaßt.
  9. Endgerät nach Anspruch 7 oder 8, dadurch gekennzeichnet, daß das Endgerät eine Vorverarbeitungseinheit zum Vorverarbeiten der Signale umfaßt, mit dem Netz, das eine Endverarbeitungseinheit zum Endverarbeiten der vorverarbeiteten Signale umfaßt.
  10. Verfahren für ein Telekommunikationssystem, umfassend ein Endgerät, das mit einem Netz verbunden ist, das einen Spracherkenner für die Sprachbefehlsgabe umfaßt, die einen ersten Schritt des Erkennens eines Anzeigesignals umfaßt und gekennzeichnet ist durch einen zweiten Schritt des Einstellens eines Kapazitätsparameters, der angepaßt ist, um die Sprachbefehlsgabe in Abhängigkeit von dem Anzeigesignal zu steuern, wobei der Kapazitätsparameter ermöglicht, einen skalaren Wert der Bandbreite zwischen dem Endgerät und dem Spracherkenner, eine variable Abtastrate an dem Endgerät oder dem Spracherkenner, eine in Abhängigkeit von einer Signalqualität aktivierte Rauschminderung, eine Prozessorgeschwindigkeit oder die verfügbare in dem Endgerät oder dem Spracherkenner zu reservierende Verarbeitungszeit zu definieren.
DE60030702T 2000-06-30 2000-06-30 Steuerung der Kapazität eines verteilten Spracherkennungssystems Expired - Lifetime DE60030702T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP00440197A EP1168303B1 (de) 2000-06-30 2000-06-30 Steuerung der Kapazität eines verteilten Spracherkennungssystems

Publications (2)

Publication Number Publication Date
DE60030702D1 DE60030702D1 (de) 2006-10-26
DE60030702T2 true DE60030702T2 (de) 2007-01-11

Family

ID=8174144

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60030702T Expired - Lifetime DE60030702T2 (de) 2000-06-30 2000-06-30 Steuerung der Kapazität eines verteilten Spracherkennungssystems

Country Status (6)

Country Link
US (1) US7203650B2 (de)
EP (1) EP1168303B1 (de)
CN (1) CN1186764C (de)
AT (1) ATE339758T1 (de)
DE (1) DE60030702T2 (de)
WO (1) WO2002003379A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7047192B2 (en) * 2000-06-28 2006-05-16 Poirier Darrell A Simultaneous multi-user real-time speech recognition system
US20030191646A1 (en) * 2002-04-08 2003-10-09 D'avello Robert F. Method of setting voice processing parameters in a communication device
GB2404303B (en) * 2003-07-21 2007-06-13 Vodafone Ltd Speech recognition in mobile telecommunication systems
US20060009974A1 (en) * 2004-07-09 2006-01-12 Matsushita Electric Industrial Co., Ltd. Hands-free voice dialing for portable and remote devices
CN102004624B (zh) * 2010-11-11 2012-08-22 中国联合网络通信集团有限公司 语音识别控制系统和方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4757525A (en) * 1982-09-29 1988-07-12 Vmx, Inc. Electronic audio communications system with voice command features
US5850627A (en) * 1992-11-13 1998-12-15 Dragon Systems, Inc. Apparatuses and methods for training and operating speech recognition systems
US6404761B1 (en) * 1994-06-17 2002-06-11 Home Wireless Networks, Inc. Communications webs with personal communications links for PSTN subscribers
DE4434255A1 (de) 1994-09-24 1996-03-28 Sel Alcatel Ag Vorrichtung zur Sprachaufzeichnung mit anschließender Texterstellung
US5905773A (en) * 1996-03-28 1999-05-18 Northern Telecom Limited Apparatus and method for reducing speech recognition vocabulary perplexity and dynamically selecting acoustic models
US6363079B1 (en) * 1997-12-31 2002-03-26 At&T Corp. Multifunction interface facility connecting wideband multiple access subscriber loops with various networks
US6336090B1 (en) * 1998-11-30 2002-01-01 Lucent Technologies Inc. Automatic speech/speaker recognition over digital wireless channels
ATE358316T1 (de) * 2000-06-08 2007-04-15 Nokia Corp Verfahren und system für adaptive verteilte spracherkennung

Also Published As

Publication number Publication date
WO2002003379A1 (en) 2002-01-10
US20020138277A1 (en) 2002-09-26
CN1383545A (zh) 2002-12-04
US7203650B2 (en) 2007-04-10
DE60030702D1 (de) 2006-10-26
EP1168303B1 (de) 2006-09-13
CN1186764C (zh) 2005-01-26
ATE339758T1 (de) 2006-10-15
EP1168303A1 (de) 2002-01-02

Similar Documents

Publication Publication Date Title
EP1324314B1 (de) Spracherkennungssystem und Verfahren zum Betrieb eines solchen
DE69732786T2 (de) Verfahren und gerät zum wiederauffinden einer gewünschten aufzeichnung in einem fernsprechverzeichnis
DE3819538C2 (de)
DE69828611T2 (de) Zellulares telefongerät mit sprachgesteuerten wahlverfahren
DE69629873T2 (de) Verfahren und Vorrichtung zum Steuern eines Telephons mittels Sprachbefehle
EP1256936A2 (de) Verfahren zum Training oder zur Adaption eines Spracherkenners
DE102009009696B4 (de) Fahrzeug-Freisprecheinrichtung
DE60032982T2 (de) Spracherkennung zur Steuerung eines Geräts
DE10338512A1 (de) Unterstützungsverfahren für Sprachdialoge zur Bedienung von Kraftfahrzeugfunktionen
DE10251113A1 (de) Verfahren zum Betrieb eines Spracherkennungssystems
DE10314794A1 (de) Verfahren zum Einstellen von Sprachverarbeitungsparametern in einer Kommunikationsvorrichtung
EP1077448B1 (de) Spracherkennung unter Berücksichtigung der Lautstärkeschwankungen
DE10147549A1 (de) Vermittlungsverfahren zwischen Dialogsystemen
DE102009009697B4 (de) Fahrzeug-Freisprecheinrichtung
EP1456837B1 (de) Verfahren und vorrichtung zur spracherkennung
DE60030702T2 (de) Steuerung der Kapazität eines verteilten Spracherkennungssystems
EP0928532B1 (de) Verfahren zum einstellen von endgerätespezifischen parametern eines kommunikationsendgeräts
DE60304939T2 (de) Anruferidentifizierung basiert auf Spracherkennung
EP0517942B1 (de) Verfahren zum Beeinflussen einer in einem Kommunikationsendgerät implementierten Signalisierungsprozedur
EP1109379A1 (de) Verfahren zur Optimierung eines Nutzsignals in einem Sprachendgerät sowie Sprachendgerät
EP1232657B1 (de) Verfahren zum erzeugen eines wählverzeichnisses in einem netzwerkendgerät und kommunikationsnetzwerk für ein solches verfahren
DE20202790U1 (de) Von mehreren Kommunikationsgeräten gemeinsam verwendbare Freihandeinrichtung
WO1999027695A1 (de) Verfahren zur anwahl eines teilnehmers eines telekommunikationsnetzes
DE102005015083B4 (de) Verfahren und Vorrichtung zum Verhindern von Störungen aus Sprechgeräuschen beim Telefonieren
DE3328059C2 (de) Verfahren zur empfangsseitigen Auswahl von über eine Vermittlungsstelle einer Fernmelde- bzw. Fernsprechanlage laufende Daten- bzw. Sprechverbindungen

Legal Events

Date Code Title Description
8327 Change in the person/name/address of the patent owner

Owner name: ALCATEL LUCENT, PARIS, FR

8364 No opposition during term of opposition