-
Die
Erfindung betrifft ein Telekommunikationssystem, das ein Endgerät umfaßt, das
mit einem Netz verbunden ist, das einen Spracherkenner für Sprachbefehlsgabe
umfaßt.
-
Solch
ein Telekommunikationssystem ist in der Form eines Telekommunikationsnetzes
für Festkommunikation
und/oder Mobilkommunikation bekannt, mit dem Endgerät, das ein
festes (PSTN, ISDN usw.) Endgerät
(Telefon, Bildschirmtelefon, PC usw.) oder ein drahtloses (schnurloses:
DECT usw.) oder ein mobiles (GSM, UMTS usw.) Endgerät (drahtloser
Handapparat usw.) ist, und mit dem Spracherkenner für Sprachbefehlsgabe,
die gewöhnliches
Allgemeinwissen ist und auf dem Markt erhältlich ist und auf einer festen
Kapazität
basiert (mit der Sprachbefehlsgabe, die über eine konstante Bandbreite
zwischen der Quelle und dem Ziel – und/oder auf einer konstanten
Abtastrate an der Quelle und/oder Ziel – und/oder mit Rauschminderung,
die immer ein- oder ausgeschaltet wird – und/oder mit einer Prozessorgeschwindigkeit
oder verfügbaren
Verarbeitungszeit an der Quelle und/oder Ziel, die konstant ist,
stattfindet).
-
Solch
ein Telekommunikationssystem ist nachteilig, unter anderem, da es
ineffizient ist.
-
Es
ist eine Aufgabe der Erfindung, unter anderem, ein Telekommunikationssystem
bereitzustellen, wie in dem Oberbegriff beschrieben ist, das effizienter
ist.
-
Außerdem ist
das Telekommunikationssystem nach Anspruch 1 dadurch gekennzeichnet,
daß das
Telekommunikationssystem einen Detektor zum Erkennen eines Anzeigesignals
umfaßt
und einen Einsteller zum, in Abhängigkeit
von dem Anzeigesignal, Einstellen eines Kapazitätsparameters für die Sprachbefehlsgabe
umfaßt.
-
Durch
Einführen
des Detektors und des Einstellers wird ein flexibler Kapazitätsparameter
erzeugt, der eine flexible Bandbreite zwischen dem Endgerät und dem
Spracherkenner ermöglicht – und/oder
eine variable Abtastrate an dem Endgerät und/oder Spracherkenner – und/oder
eine Rauschminderung, die in Abhängigkeit
von zum Beispiel einer Signalqualität eingeschaltet/ausgeschaltet wird – und/oder
mit einer Prozessorgeschwindigkeit oder verfügbaren Verarbeitungszeit in
dem Endgerät und/oder
Spracherkenner, die flexibel ist. Das Anzeigesignal zum Beispiel
geht von dem Endgerät
aus und ist zum Beispiel in der Form einer Telefonnummer oder eines
Schlüsselsignals
oder eines Sprachsignals, das durch einen Benutzer erzeugt wurde, oder
ist zum Beispiel in der Form eines Anwendungssignals, das von (einem
Teil) einer Anwendung ausgeht, die in dem Endgerät abläuft. Oder das Anzeigesignal
zum Beispiel geht von dem Netz aus und ist zum Beispiel in der Form
eines weiteren Anwendungssignals, das von (einem Teil) einer Anwendung ausgeht,
die in dem Netz abläuft.
-
Die
Erfindung basiert auf der Kenntnis, unter anderem, daß die Art
der Sprachbefehlsgabe die notwendige Kapazität (Namenwahl, Befehl und Steuerung,
Diktieren usw.) beeinflußt.
-
Die
Erfindung löst
das Problem, unter anderem, des Erhöhens der Effizienz des Telekommunikationssystems.
-
Eine
erste Ausführungsform
des Telekommunikationssystems gemäß der Erfindung ist dadurch
gekennzeichnet, daß der
Einsteller in Abhängigkeit
von einem Netzsignal außerdem
den Kapazitätsparameter
einstellt.
-
Indem
der Einsteller nicht nur von dem Anzeigesignal abhängig gemacht
wird, sondern auch von dem Netzsignal, wird die Verfügbarkeit
beim Einstellen des Kapazitätsparameters
berücksichtigt,
wodurch verhindert wird, daß das
System mehr Kapazität
als verfügbar
fordert und/oder dem System erlaubt, mehr Kapazität als notwendig
im Fall von Kapazität
zu erhalten, die im Überfluß zur Verfügung steht.
-
Eine
zweite Ausführungsform
des Telekommunikationssystems gemäß der Erfindung ist dadurch
gekennzeichnet, daß das
Endgerät
eine Vorverarbeitungseinheit zum Vorverarbeiten der Signale umfaßt, mit
dem Netz, das eine Endverarbeitungseinheit zum Endverarbeiten der
vorverarbeiteten Signale umfaßt.
-
Durch
Einführen
der verteilten Spracherkennung wird die Effizienz des Systems weiter
erhöht.
-
Die
Erfindung betrifft jedoch auch einen Spracherkenner zur Verwendung
in einem Telekommunikationssystem, das ein Endgerät umfaßt, das mit
einem Netz verbunden ist, das den Spracherkenner für die Sprachbefehlsgabe
umfaßt.
-
Der
Spracherkenner nach Anspruch 4 ist dadurch gekennzeichnet, daß das Telekommunikationssystem
einen Detektor zum Erkennen des Anzeigesignals umfaßt, mit
dem Spracherkenner, der einen Einsteller zum, in Abhängigkeit
von dem Anzeigesignal, Einstellen eines Kapazitätsparameters für die Sprachbefehlsgabe
umfaßt.
-
Eine
erste Ausführungsform
des Spracherkenners gemäß der Erfindung
ist dadurch gekennzeichnet, daß der
Einsteller in Abhängigkeit
von einem Netzsignal außerdem
den Kapazitätsparameter einstellt.
-
Eine
zweite Ausführungsform
des Spracherkenners gemäß der Erfindung
ist dadurch gekennzeichnet, daß das
Endgerät
eine Vorverarbeitungseinheit zum Vorverarbeiten der Signale umfaßt, mit dem
Spracherkenner, der eine Endverarbeitungseinheit zum Endverarbeiten
der vorverarbeiteten Signale umfaßt.
-
Die
Erfindung betrifft ebenfalls ein Endgerät zur Verwendung in einem Telekommunikationssystem,
das das Endgerät
umfaßt,
das mit einem Netz verbunden ist, das einen Spracherkenner für Sprachbefehlsgabe
umfaßt.
-
Das
Endgerät
nach Anspruch 7 ist dadurch gekennzeichnet, daß das Telekommunikationssystem
einen Detektor zum Erkennen eines Anzeigesignals umfaßt und einen
Einsteller zum, in Abhängigkeit
von dem Anzeigesignal, Einstellen eines Kapazitätsparameters für die Sprachbefehlsgabe
umfaßt.
-
Eine
erste Ausführungsform
des Endgerätes gemäß der Erfindung
ist dadurch gekennzeichnet, daß das
Endgerät
eine Mensch-Maschine-Schnittstelle
zum Empfangen des Anzeigesignals umfaßt.
-
Eine
zweite Ausführungsform
des Endgerätes
gemäß der Erfindung
ist dadurch gekennzeichnet, daß das
Endgerät
eine Vorverarbeitungseinheit zum Vorverarbeiten der Signale umfaßt, mit
dem Netz, das eine Endverarbeitungseinheit zum Endverarbeiten der
vorverarbeiteten Signale umfaßt.
-
Die
Erfindung betrifft ebenfalls noch ein Verfahren zur Verwendung in
einem Telekommunikationssystem, das ein Endgerät umfaßt, das mit einem Netz verbunden
ist, das einen Spracherkenner für Sprachbefehlsgabe
umfaßt.
-
Das
Verfahren nach Anspruch 10 ist dadurch gekennzeichnet, daß das Verfahren
einen ersten Schritt des Erkennens des Anzeigesignals und einen zweiten
Schritt des, in Abhängigkeit
von dem Anzeigesignal, Einstellens eines Kapazitätsparameters für die Sprachbefehlsgabe
umfaßt.
-
Die
Ausführungsformen
des Verfahrens gemäß der Erfindung entsprechen
den Ausführungsformen
des Telekommunikationssystems gemäß der Erfindung.
-
Das
Dokument
US 5,809,464 offenbart
eine Diktiervorrichtung auf der Basis der verteilten Spracherkennung
(DSR). Andere Dokumente, die die DSR betreffen, sind zum Beispiel
EP00440016.4 und
EP00440057.8 . Das Dokument
EP00440087.5 offenbart
ein System zum Durchführen
der Sprachbefehlsgabe. Keines dieser Dokumente offenbart das Telekommunikationssystem
gemäß der Erfindung.
-
Das
Dokument WO01/95312 A1 offenbart ein verteiltes Spracherkennungssystem,
in dem eine skalierbare Bandbreite durch Einstellen der Menge der
Merkmale implementiert ist, die auf dem Front-End-Prozessor gemäß einem
Verarbeitungslastgrad des Back-End-Erkennungsservers extrahiert wurden.
-
Die
Erfindung wird außerdem
anhand einer Ausführungsform
erläutert,
die hinsichtlich einer Zeichnung beschrieben ist, wodurch
-
1 ein
Telekommunikationssystem gemäß der Erfindung
offenbart, das einen Spracherkenner gemäß der Erfindung und ein Endgerät gemäß der Erfindung
umfaßt,
die gegenseitig über
einen Switch verbunden sind.
-
Das
Endgerät 1 gemäß der Erfindung,
wie in 1 gezeigt, umfaßt einen Prozessor 10 (der
einen Speicher umfaßt,
der nicht gezeigt ist), eine Mensch-Maschine-Schnittstelle 11 (Mensch-Maschine-Schnittstelle 11 wie
ein Display, Tastatur, Mikrofon, Lautsprecher usw.), eine erste
Einheit 12, eine zweite Einheit 13 und einen Transceiver 14.
Eine Seite des Transceivers 14 ist mit einer Antenne verbunden,
und von einer anderen Seite ist ein Ausgang des Transceivers 14 über eine
Verbindung 15 mit der Mensch-Maschine-Schnittstelle 11 und
der Einheit 12 verbunden, und ein Eingang des Transceivers 14 ist über eine
Verbindung 16 mit der Mensch-Maschine-Schnittstelle 11 und
mit der Einheit 13 verbunden, und ein Steuereingang/-ausgang ist über eine
Steuerverbindung mit dem Prozessor 10 verbunden. Der Prozessor 10 ist
außerdem über weitere
Steuerverbindungen mit der Mensch-Maschine-Schnittstelle 11,
der Einheit 12 und der Einheit 13 verbunden.
-
Der
Switch 3, wie in 1 gezeigt,
umfaßt einen
Prozessor 30, eine dritte Einheit 31, eine vierte Einheit 32,
eine fünfte
Einheit 34, eine sechste Einheit 35 und eine siebente
Einheit 36. Der Prozessor 30 ist über Steuerverbindungen
mit der Einheit 31, der Einheit 32 und dem Koppler 33 verbunden.
Der Koppler 33 ist über
eine Verbindung 40 mit einer Basisstation 4 für Mobilkommunikation
mit dem Endgerät 1 und über eine
Verbindung 42 mit einer Basisstation 5 und über eine
Verbindung 44 mit der Einheit 31 und über eine
Verbindung 45 mit der Einheit 32 und über eine
Verbindung 46 mit dem Spracherkenner 2 und über eine
Verbindung 48 mit der Einheit 34 und über eine
Verbindung 50 mit der Einheit 35 und über eine
Verbindung 49 mit der Einheit 36 verbunden.
-
Der
Spracherkenner 2 gemäß der Erfindung, wie
in 1 gezeigt, umfaßt einen Prozessor 20,
einen Speicher 21, eine achte Einheit 22, eine
neunte Einheit 23, eine zehnte Einheit 24 und
eine elfte Einheit 25. Der Prozessor 20 ist über einen
Steuerbus 27 mit dem Speicher 21, der Einheit 22,
der Einheit 23, der Einheit 24 und der Einheit 25 verbunden
und ist über
eine Steuerverbindung mit dem Speicher 21 verbunden, und
ist über
einen Bus 26 mit dem Speicher 21, der Einheit 22,
der Einheit 23, der Einheit 24 und der Einheit 25 verbunden.
Der Bus 26 ist mit der Verbindung 46 verbunden.
-
Das
Telekommunikationssystem gemäß der Erfindung,
wie in 1 gezeigt, funktioniert wie folgt.
-
Gemäß einer
ersten Ausführungsform
möchte
ein Benutzer des Endgerätes 1 die
Sprachbefehlsgabe durchführen,
wie zuerst einmal die Namenwahl. Dazu wählt der Benutzer eine erste
Telefonnummer, zum Beispiel durch Betätigen der Tasten der Tastatur der
Mensch-Maschine-Schnittstelle 11, als Antwort auf welche
unter der Steuerung des Prozessors 10 ein erstes Signalisierungssignal über die
Verbindung 16 und den Transceiver 14 und die Basisstation 4 und die
Verbindung 40 an den Koppler 33 des Switches 3 gesendet
wird. Unter der Steuerung des Prozessors 30 wird das erste
Signalisierungssignal über
die Verbindung 44 an der Einheit 31 angelegt,
die zum Beispiel ein Detektor zum Erkennen eines Anzeigesignals
wie des ersten Signalisierungssignals ist, dessen Detektor 31 das
erste Signalisierungssignal erkennt und den Prozessor 30 informiert,
daß der
Benutzer die Namenwahl über
das Endgerät 1 durchführen möchte. Als
Antwort sendet der Prozessor 30 ein erstes Informationssignal
an den Spracherkenner 2 über den Koppler 33 und
die Verbindung 46, um den Spracherkenner 2 zu
informieren, daß der
Benutzer die Namenwahl über
das Endgerät 1 durchführen möchte. Dieses
erste Informationssignal umfaßt
entweder zum Beispiel eine Benutzerkennnung und/oder eine Endgerätekennung
(direkte Adressierung) oder umfaßt einen Adreßcode, welcher
sich in Switch 3 auf die Benutzerkennnung und/oder Endgerätekennung
bezieht (indirekte Adressierung). Im Spracherkenner 2 erkennt
die Einheit 22, die zum Beispiel ein Detektor ist, das
erste Informationssignal als über
die Verbindung 46 und den Bus 26 unter der Steuerung
des Prozessors 20 über
den Steuerbus 27 angekommen und informiert den Prozessor 20 über den
Steuerbus 27 über
die Erkennung. Als Antwort steuert der Prozessor 20 die
Einheit 23, die zum Beispiel ein Einsteller ist, über den
Steuerbus 27 auf solch eine Weise, daß ein erster Kapazitätsparameter,
der einen ersten Wert aufweist (zum Beispiel Abtastrate 8000, Bandbreite
4,8 kbit/s, Rauschminderung: keine, Komplexität 5 wMops, Zweck: Namenwahl) zurück an den
Switch 3 und/oder das Endgerät 1 gesendet wird.
Als Antwort auf diesen ersten Kapazitätsparameter (anhand der Benutzerkennnung und/oder
der Endgerätekennung
und/oder des Adreßcodes)
stellt der Prozessor 30 im Switch 3 eine vorgegebene
Bandbreite zwischen dem Endgerät 1 und
dem Switch 3 bereit, und/oder der Prozessor 10 im
Endgerät 1 stellt
eine vorgegebene Abtastrate ein und/oder reserviert eine vorgegebene
Menge von Zeit und/oder deaktiviert die Rauschminderung zum Beispiel.
Infolgedessen kann der Benutzer nun die Namenwahl durch Eingeben
der Sprache über
das Mikrofon der Mensch-Maschine-Schnittstelle 11 durchführen, die über den
Switch 3 auf den Spracherkenner 2 zum Erkennen
der Sprache gegeben wird, als Antwort auf welche ein Name erkannt
wird und eine entsprechende Zielnummer, die im Speicher 21 gespeichert
ist, an den Switch 3 gesendet wird. Infolgedessen wird
eine Sprechverbindung vom Endgerät 1 über den
Switch 3 mit einem Ziel hergestellt, das durch die Zielnummer
definiert ist, usw.
-
Dann
möchte
der Benutzer des Endgerätes 1 die
Sprachbefehlsgabe durchführen,
wie zweitens die Steuerung und den Befehl (zum Steuern und/oder zur
Befehlsgabe zum Beispiel bestimmter Dienste, die in dem Netz zur
Verfügung
stehen). Dazu wählt der
Benutzer eine zweite Telefonnummer (die von der ersten Telefonnummer
verschieden ist) zum Beispiel durch Betätigen der Tasten der Tastatur
der Mensch-Maschine-Schnittstelle 11,
als Antwort auf welche unter der Steuerung des Prozessors 10 ein zweites
Signalisierungssignal (das von dem ersten Signalisierungssignal
verschieden ist) über
die Verbindung 16 und den Transceiver 14 und die
Basisstation 4 und die Verbindung 40 an den Koppler 33 des Switches 3 gesendet
wird. Unter der Steuerung des Prozessors 30 wird das zweite
Signalisierungssignal über
die Verbindung 44 an der Einheit 31 angelegt, die
zum Beispiel ein Detektor zum Erkennen des Anzeigesignals wie des
zweiten Signalisierungssignals ist, dessen Detektor 31 das
zweite Signalisierungssignal erkennt und den Prozessor 30 informiert,
daß der
Benutzer den Befehl und die Steuerung über das Endgerät 1 durchführen möchte. Als
Antwort sendet der Prozessor 30 ein zweites Informationssignal
an den Spracherkenner 2 über den Koppler 33 und
die Verbindung 46, um den Spracherkenner 2 zu
informieren, daß der
Benutzer den Befehl und die Steuerung über das Endgerät 1 durchführen möchte. Dieses
zweite Informationssignal umfaßt
entweder zum Beispiel eine Benutzerkennnung und/oder eine Endgerätekennung
(direkte Adressierung) oder umfaßt einen Adreßcode, welcher
sich in Switch 3 auf die Benutzerkennnung und/oder Endgerätekennung
bezieht (indirekte Adressierung). Im Spracherkenner 2 erkennt
die Einheit 22, die zum Beispiel ein Detektor ist, das
zweite Informationssignal als über
die Verbindung 46 und den Bus 26 unter der Steuerung
des Prozessors 20 über
den Steuerbus 27 angekommen und informiert den Prozessor 20 über den
Steuerbus 27 über
die Erkennung. Als Antwort steuert der Prozessor 20 die
Einheit 23, die zum Beispiel ein Einsteller ist, über den
Steuerbus 27 auf solch eine Weise, daß ein zweiter Kapazitätsparameter,
der einen zweiten Wert aufweist (zum Beispiel Abtastrate 11000, Bandbreite
5,0 kbit/s, Rauschminderung: keine, Komplexität 10 wMops, Zweck: Befehl und
Steuerung) zurück
an den Switch 3 und/oder das Endgerät 1 gesendet wird.
Als Antwort auf diesen zweiten Kapazitätsparameter (anhand der Benutzerkennnung und/oder
der Endgerätekennung
und/oder des Adreßcodes)
stellt der Prozessor 30 im Switch 3 eine vorgegebene
Bandbreite zwischen dem Endgerät 1 und
dem Switch 3 bereit, und/oder der Prozessor 10 im
Endgerät 1 stellt
eine vorgegebene Abtastrate ein und/oder reserviert eine vorgegebene
Menge von Zeit und/oder deaktiviert die Rauschminderung zum Beispiel.
Infolgedessen kann der Benutzer nun den Befehl und die Steuerung
durch Eingeben der Sprache über
das Mikrofon der Mensch-Maschine-Schnittstelle 11 durchführen, die über den
Switch 3 auf den Spracherkenner 2 zum Erkennen
der Sprache gegeben wird, als Antwort auf welche die Befehle und/oder
Steuerungen erkannt werden und ein entsprechender Befehl und/oder
Steuerung durchgeführt
wird usw.
-
Dann
möchte
der Benutzer des Endgerätes 1 die
Sprachbefehlsgabe durchführen,
wie drittens das Diktieren (zum Diktieren zum Beispiel eines Textes, der
in dem Netz zu speichern/zu verarbeiten ist). Dazu wählt der
Benutzer eine dritte Telefonnummer (die von der ersten/zweiten Telefonnummer
verschieden ist) zum Beispiel durch Betätigen der Tasten der Tastatur
der Mensch-Maschine-Schnittstelle 11, als Antwort auf welche
unter der Steuerung des Prozessors 10 ein drittes Signalisierungssignal
(das von dem ersten/zweiten Signalisierungssignal verschieden ist) über die
Verbindung 16 und den Transceiver 14 und die Basisstation 4 und
die Verbindung 40 an den Koppler 33 des Switches 3 gesendet
wird. Unter der Steuerung des Prozessors 30 wird das dritte
Signalisierungssignal über
die Verbindung 44 an der Einheit 31 angelegt,
die zum Beispiel ein Detektor zum Erkennen des Anzeigesignals wie
des dritten Signalisierungssignals ist, dessen Detektor 31 das
dritte Signalisierungssignal erkennt und den Prozessor 30 informiert,
daß der
Benutzer das Diktieren über
das Endgerät 1 durchführen möchte. Als
Antwort sendet der Prozessor 30 ein drittes Informationssignal
an den Spracherkenner 2 über den Koppler 33 und
die Verbindung 46, um den Spracherkenner 2 zu
informieren, daß der
Benutzer das Diktieren über
das Endgerät 1 durchführen möchte. Dieses
dritte Informationssignal umfaßt
entweder zum Beispiel eine Benutzerkennnung und/oder eine Endgerätekennung
(direkte Adressierung) oder umfaßt einen Adreßcode, welcher
sich in Switch 3 auf die Benutzerkennnung und/oder Endgerätekennung
bezieht (indirekte Adressierung). Im Spracherkenner 2 erkennt
die Einheit 22, die zum Beispiel ein Detektor ist, das
dritte Informationssignal als über
die Verbindung 46 und den Bus 26 unter der Steuerung
des Prozessors 20 über
den Steuerbus 27 angekommen und informiert den Prozessor 20 über den
Steuerbus 27 über
die Erkennung. Als Antwort steuert der Prozessor 20 die
Einheit 23, die zum Beispiel ein Einsteller ist, über den
Steuerbus 27 auf solch eine Weise, daß ein dritter Kapazitätsparameter,
der einen dritten Wert aufweist (zum Beispiel Abtastrate 16000,
Bandbreite 5,0 kbit/s, Rauschminderung: keine, Komplexität 12 wMops,
Zweck: Diktieren) zurück
an den Switch 3 und/oder das Endgerät 1 gesendet wird.
Als Antwort auf diesen dritten Kapazitätsparameter (anhand der Benutzerkennnung
und/oder der Endgerätekennung
und/oder des Adreßcodes)
stellt der Prozessor 30 im Switch 3 eine vorgegebene
Bandbreite zwischen dem Endgerät 1 und
dem Switch 3 bereit, und/oder der Prozessor 10 im
Endgerät 1 stellt
eine vorgegebene Abtastrate ein und/oder reserviert eine vorgegebene
Menge von Zeit und/oder deaktiviert die Rauschminderung zum Beispiel.
Infolgedessen kann der Benutzer nun das Diktieren durch Eingeben der
Sprache über
das Mikrofon der Mensch-Maschine-Schnittstelle 11 durchführen, die über den
Switch 3 auf den Spracherkenner 2 zum Erkennen
der Sprache gegeben wird, als Antwort auf welche das Diktieren stattfindet
und Text zum Beispiel im Speicher 21 gespeichert/verarbeitet
wird usw.
-
Gemäß einer
ersten Alternative zu der ersten Ausführungsform, zum Beispiel im
Fall, daß der
Benutzer die Sprachbefehlsgabe wie den Befehl und die Steuerung
und/oder das Diktieren durchführen möchte, wobei
der Switch 3 und/oder das Endgerät 1 entsprechend als
Antwort auf das Empfangen (eines Teils) eines zweiten oder dritten
Kapazitätsparameters,
der den zweiten oder dritten Wert aufweist, den (Teil) des Kapazitätsparameters
mit einem vorgegebenen (Teil eines) Kapazitätsparameters (durch zum Beispiel
Verwendung eines Detektors – wie
des Detektors 31 im Switch 3 und der Einheit 12 im
Endgerät 1 – und/oder
eines Komparators – wie
der Einheit 32 im Switch 3 und der Einheit 12 im
Endgerät 1 –), vergleichen
und entscheiden, daß im
Augenblick die notwendige Kapazität nicht zur Verfügung steht,
als Antwort auf welche (der Teil) des Kapazitätsparameters durch (ein Teil)
des ersten Kapazitätsparameters
ersetzt werden muß,
und ein Warnsignal an den Spracherkenner 2 und/oder das
Endgerät 1 und
den Switch 3 entsprechend zu senden ist (durch zum Beispiel
Verwendung eines Warnsignalgenerators). Solch ein Warnsignal kann
auf dem Endgerät 1 zum Beispiel
auf dem Display der Mensch-Maschine-Schnittstelle 11 dargestellt
oder über
den Lautsprecher der Mensch-Maschine-Schnittstelle 11 erzeugt
werden.
-
Gemäß einer
zweiten Alternative zu der ersten Ausführungsform umfaßt das Endgerät 1 eine Vorverarbeitungseinheit
(zum Beispiel die Einheit 13 oder ein Teil des Prozessors 10)
zum Vorverarbeiten der Sprachsignale, die über die Mensch-Maschine-Schnittstelle 11 (Mikrofon)
erzeugt wurden, in welchem Fall im Spracherkenner 2 eine
Endverarbeitungsfunktion (zum Beispiel die Einheit 24)
zum Endverarbeiten des vorverarbeiteten Sprachsignals, in welchem
Fall ein verteiltes Spracherkennungssystem erzeugt worden ist.
-
Gemäß einer
dritten Alternative zu der ersten Ausführungsform umfaßt das Endgerät 1 eine
kleine Sprachbefehlsgabeeinheit wie zum Beispiel ein einfaches Namenwählgerät (zum Beispiel
die Einheit 13 oder ein Teil des Prozessors 10)
und statt die erste, zweite und/oder dritte Telefonnummer zu wählen, kann
der Benutzer die Nummern über
Sprache und das Mikrofon der Mensch-Maschine-Schnittstelle 11 eingeben.
-
Gemäß einer
zweiten Ausführungsform möchte der
Benutzer des Endgerätes 1 die
Sprachbefehlsgabe durchführen,
wie erstens die Namenwahl oder zweitens den Befehl und die Steuerung oder
drittens das Diktieren. Dazu wählt
für jede
Möglichkeit
der Benutzer eine Telefonnummer zum Beispiel durch Betätigen der Tasten
der Tastatur der Mensch-Maschine-Schnittstelle 11 und gibt
dann ein Schlüsselsignal
ein (wie einen ersten Schlüssel
für die
Namenwahl, einen zweiten Schlüssel
für den
Befehl und die Steuerung und einen dritten Schlüssel für das Diktieren), als Antwort
auf welches unter der Steuerung des Prozessors 10 ein Signalisierungssignal über die
Verbindung 16 und den Transceiver 14 und die Basisstation 4 und
die Verbindung 40 an Koppler 33 des Switches 3 gesendet
wird. Unter der Steuerung des Prozessors 30 wird das Signalisierungssignal über die
Verbindung 44 an der Einheit 31 angelegt, die
zum Beispiel ein Detektor zum Erkennen des Anzeigesignals wie des
Signalisierungssignals ist, dessen Detektor 31 das Signalisierungssignal
erkennt und den Prozessor 30 informiert, daß der Benutzer
die Namenwahl (erste Taste verwendet) oder den Befehl und die Steuerung
(zweite Taste verwendet) oder das Diktieren (dritte Taste verwendet) über das
Endgerät 1 durchführen möchte. Als
Antwort sendet der Prozessor 30 ein Informationssignal an
den Spracherkenner 2 über
den Koppler 33 und die Verbindung 46, um den Spracherkenner 2 zu
informieren, daß der
Benutzer die Namenwahl/Befehl und Steuerung/Diktieren über das
Endgerät 1 durchführen möchte. Dieses
Informationssignal umfaßt entweder
zum Beispiel eine Benutzerkennnung und/oder eine Endgerätekennung
(direkte Adressierung) oder umfaßt einen Adreßcode, welcher
sich in Switch 3 auf die Benutzerkennnung und/oder Endgerätekennung
bezieht (indirekte Adressierung). Im Spracherkenner 2 erkennt
die Einheit 22, die zum Beispiel ein Detektor ist, das
Informationssignal als über
die Verbindung 46 und den Bus 26 unter der Steuerung
des Prozessors 20 über
den Steuerbus 27 angekommen und informiert den Prozessor 20 über den
Steuerbus 27 über
die Erkennung. Als Antwort steuert der Prozessor 20 die
Einheit 23, die zum Beispiel ein Einsteller ist, über den
Steuerbus 27 auf solch eine Weise, daß ein erster/zweiter/dritter
Kapazitätsparameter,
der einen ersten/zweiten/dritten Wert aufweist, zurück an den
Switch 3 und/oder das Endgerät 1 gesendet wird.
Als Antwort auf diesen Kapazitätsparameter
(anhand der Benutzerkennnung und/oder der Endgerätekennung und/oder des Adreßcodes)
stellt der Prozessor 30 im Switch 3 eine vorgegebene
Bandbreite zwischen dem Endgerät 1 und
dem Switch 3 bereit, und/oder der Prozessor 10 im
Endgerät 1 stellt
eine vorgegebene Abtastrate ein und/oder reserviert eine vorgegebene
Menge von Zeit und/oder deaktiviert die Rauschminderung zum Beispiel.
Infolgedessen kann der Benutzer nun die Namenwahl/den Befehl und
die Steuerung/das Diktieren usw. durchführen.
-
Gemäß einer
ersten Alternative zu der zweiten Ausführungsform, zum Beispiel im
Fall, daß der Benutzer
die Sprachbefehlsgabe wie den Befehl und die Steuerung und/oder
das Diktieren durchführen möchte, wobei
der Switch 3 und/oder das Endgerät 1 entsprechend als
Antwort auf das Empfangen (eines Teils) eines zweiten oder dritten
Kapazitätsparameters,
der den zweiten oder dritten Wert aufweist, den (Teil) des Kapazitätsparameters
mit einem vorgegebenen (Teil eines) Kapazitätsparameters (durch zum Beispiel
Verwendung eines Detektors – wie
des Detektors 31 im Switch 3 und der Einheit 12 im
Endgerät 1 – und/oder
eines Komparators – wie
der Einheit 32 im Switch 3 und der Einheit 12 im
Endgerät 1 –), vergleichen
und entscheiden, daß im
Augenblick die notwendige Kapazität nicht zur Verfügung steht,
als Antwort auf welche (der Teil) des Kapazitätsparameters durch (ein Teil)
des ersten Kapazitätsparameters
ersetzt werden muß,
und ein Warnsignal an den Spracherkenner 2 und/oder das
Endgerät 1 und
den Switch 3 entsprechend zu senden ist (durch zum Beispiel
Verwendung eines Warnsignalgenerators). Solch ein Warnsignal kann
auf dem Endgerät 1 zum Beispiel
auf dem Display der Mensch-Maschine-Schnittstelle 11 dargestellt
oder über
den Lautsprecher der Mensch-Maschine-Schnittstelle 11 erzeugt
werden.
-
Gemäß einer
zweiten Alternative zu der zweiten Ausführungsform umfaßt das Endgerät 1 eine
Vorverarbeitungseinheit (zum Beispiel die Einheit 13 oder
ein Teil des Prozessors 10) zum Vorverarbeiten der Sprachsignale,
die über
die Mensch-Maschine-Schnittstelle 11 (Mikrofon)
erzeugt wurden, in welchem Fall im Spracherkenner 2 eine
Endverarbeitungsfunktion (zum Beispiel die Einheit 24)
zum Endverarbeiten des vorverarbeiteten Sprachsignals, in welchem
Fall ein verteiltes Spracherkennungssystem erzeugt worden ist.
-
Gemäß einer
dritten Alternative zu der zweiten Ausführungsform umfaßt das Endgerät 1 eine kleine
Sprachbefehlsgabeeinheit wie zum Beispiel ein einfaches Namenwählgerät (zum Beispiel
die Einheit 13 oder ein Teil des Prozessors 10),
und statt eine Telefonnummer zu wählen, kann der Benutzer die
Nummer über
Sprache und das Mikrofon der Mensch-Maschine-Schnittstelle 11 eingeben.
-
Gemäß einer
vierten Alternative zu der zweiten Ausführungsform umfaßt das Endgerät 1 eine kleine
Sprachbefehlsgabeeinheit wie zum Beispiel ein einfaches Namenwählgerät (zum Beispiel
die Einheit 13 oder ein Teil des Prozessors 10),
und statt die Schlüsselsignale
einzugeben, kann der Benutzer diese über Sprache und das Mikrofon
der Mensch-Maschine-Schnittstelle 11 eingeben.
-
Gemäß einer
dritten Ausführungsform
möchte
der Benutzer des Endgerätes 1 die
Sprachbefehlsgabe durchführen,
wie erstens die Namenwahl oder zweitens den Befehl und die Steuerung
oder drittens das Diktieren. Dazu wählt der Benutzer für jede Möglichkeit
eine Telefonnummer, zum Beispiel durch Betätigen der Tasten der Tastatur
der Mensch-Maschine-Schnittstelle 11, als Antwort auf welche
unter der Steuerung des Prozessors 10 ein Signalisierungssignal über die
Verbindung 16 und den Transceiver 14 und die Basisstation 4 und
die Verbindung 40 an den Koppler 33 des Switches 3 gesendet
wird. Unter der Steuerung des Prozessors 30 wird das Signalisierungssignal über die
Verbindung 44 an der Einheit 31 angelegt, die
zum Beispiel ein Detektor zum Erkennen des Anzeigesignals wie des
Signalisierungssignals ist, dessen Detektor 31 das Signalisierungssignal
erkennt und den Prozessor 30 informiert, daß der Benutzer
die Sprachbefehlsgabe über
das Endgerät 1 durchführen möchte. Als
Antwort sendet der Prozessor 30 ein Informationssignal
an den Spracherkenner 2 über den Koppler 33 und
die Verbindung 46, um den Spracherkenner 2 zu
informieren, daß der Benutzer
die Sprachbefehlsgabe über
das Endgerät 1 durchführen möchte. Dieses
Informationssignal umfaßt
entweder zum Beispiel eine Benutzerkennnung und/oder eine Endgerätekennung
(direkte Adressierung) oder umfaßt einen Adreßcode, welcher
sich in Switch 3 auf die Benutzerkennnung und/oder Endgerätekennung
bezieht (indirekte Adressierung). Im Spracherkenner 2 erkennt
die Einheit 22, die zum Beispiel ein Detektor ist, das
Informationssignal als über
die Verbindung 46 und den Bus 26 unter der Steuerung
des Prozessors 20 über den
Steuerbus 27 angekommen und informiert den Prozessor 20 über den
Steuerbus 27 über
die Erkennung. Als Antwort steuert der Prozessor 20 die
Einheit 23, die zum Beispiel ein Einsteller ist, über den Steuerbus 27 auf
solch eine Weise, daß ein
allgemeiner Kapazitätsparameter,
der einen allgemeinen Wert aufweist, zurück an den Switch 3 und/oder
das Endgerät 1 gesendet
wird. Als Antwort auf diesen Kapazitätsparameter (anhand der Benutzerkennnung und/oder
der Endgerätekennung
und/oder des Adreßcodes)
stellt der Prozessor 30 im Switch 3 eine vorgegebene
Bandbreite zwischen dem Endgerät 1 und
dem Switch 3 bereit, und/oder der Prozessor 10 im
Endgerät 1 stellt
eine vorgegebene Abtastrate ein und/oder reserviert eine vorgegebene
Menge von Zeit und/oder deaktiviert die Rauschminderung zum Beispiel.
Infolgedessen kann der Benutzer nun die Sprachbefehlsgabe durchführen, und
während
dieser Sprachbefehlsgabe startet der Benutzer einen Dialog mit dem Spracherkenner 2,
damit der Kapazitätsparameter
eingestellt wird, usw.
-
Gemäß einer
ersten Alternative zu der dritten Ausführungsform, zum Beispiel im
Fall, daß der
Benutzer die Sprachbefehlsgabe durchführen möchte oder durchführt wie
den Befehl und die Steuerung und/oder das Diktieren, können der
Switch 3 und/oder das Endgerät 1 entsprechend entscheiden, daß im Augenblick
die notwendige Kapazität
nicht zur Verfügung
steht, als Antwort auf welche das Warnsignal an den Spracherkenner 2 und/oder
das Endgerät 1 und
den Switch 3 entsprechend zu senden ist, usw.
-
Gemäß einer
zweiten Alternative zu der dritten Ausführungsform umfaßt das Endgerät 1 eine Vorverarbeitungseinheit
(zum Beispiel die Einheit 13 oder ein Teil des Prozessors 10)
zum Vorverarbeiten der Sprachsignale, die über die Mensch-Maschine-Schnittstelle 11 (Mikrofon)
erzeugt wurden, in welchem Fall im Spracherkenner 2 eine
Endverarbeitungsfunktion (zum Beispiel die Einheit 24)
zum Endverarbeiten des vorverarbeiteten Sprachsignals, in welchem
Fall ein verteiltes Spracherkennungssystem erzeugt worden ist.
-
Gemäß einer
dritten Alternative zu der dritten Ausführungsform umfaßt das Endgerät 1 eine
kleine Sprachbefehlsgabeeinheit wie zum Beispiel ein einfaches Namenwählgerät (zum Beispiel
die Einheit 13 oder ein Teil des Prozessors 10)
und statt eine Telefonnummer zu wählen, kann der Benutzer die
Nummer über
Sprache und das Mikrofon der Mensch-Maschine-Schnittstelle 11 eingeben.
-
Gemäß einer
vierten Alternative zu der dritten Ausführungsform umfaßt das Endgerät 1 eine kleine
Sprachbefehlsgabeeinheit wie zum Beispiel ein kleines Namenwählgerät (zum Beispiel
die Einheit 13 oder ein Teil des Prozessors 10),
und mindestens ein Teil des Dialogs findet unter der Steuerung von
und/oder unter Verwendung dieser kleinen Sprachbefehlsgabeeinheit
statt usw.
-
Gemäß einer
vierten Ausführungsform
ist eine Verbindung zwischen dem Endgerät 1 und dem Spracherkenner 2 über den
Switch 3 bereits vorhanden und eine Anwendung läuft im Prozessor 10 im Endgerät 1 oder
teilweise im Prozessor 20 im Spracherkenner 2 und
teilweise im Prozessor 10 ab. Dann entscheidet (der Teil
einer) Anwendung in dem Endgerät,
daß die
Sprachbefehlsgabe dem Benutzer angeboten werden sollte und/oder
daß die
Art der Sprachbefehlsgabe geändert
werden sollte. Dazu wird von dem Endgerät 1 (über einen
Anzeigesignalgenerator, der nicht gezeigt ist, und zum Beispiel
einen Teil des Prozessors 10 bildet) ein Anzeigesignal an
den Koppler 33 des Switches 3 gesendet. Unter der
Steuerung des Prozessors 30 wird das Anzeigesignal über die
Verbindung 44 an der Einheit 31 angelegt, die
zum Beispiel ein Detektor zum Erkennen des Anzeigesignals ist, dessen
Detektor 31 den Prozessor 30 informiert, daß (der Teil
einer) Anwendung die Sprachbefehlsgabe anbieten und/oder ändern möchte usw.
Als Antwort sendet der Prozessor 30 ein Informationssignal
an den Spracherkenner 2 über den Koppler 33 und
die Verbindung 46, um den Spracherkenner 2 zu
informieren, daß (der
Teil einer) Anwendung in dem Endgerät 1 des Benutzers
die Sprachbefehlsgabe über
das Endgerät 1 anbieten/ändern möchte. Dieses
Informationssignal umfaßt
entweder zum Beispiel eine Benutzerkennnung und/oder eine Endgerätekennung
(direkte Adressierung) oder umfaßt einen Adreßcode, welcher
sich in Switch 3 auf die Benutzerkennnung und/oder Endgerätekennung
bezieht (indirekte Adressierung). Im Spracherkenner 2 erkennt
die Einheit 22, die zum Beispiel ein Detektor ist, das
Informationssignal als über
die Verbindung 46 und den Bus 26 unter der Steuerung
des Prozessors 20 über
den Steuerbus 27 angekommen und informiert den Prozessor 20 über den
Steuerbus 27 über
die Erkennung. Als Antwort steuert der Prozessor 20 die
Einheit 23, die zum Beispiel ein Einsteller ist, über den
Steuerbus 27 auf solch eine Weise, daß ein spezifischer Kapazitätsparameter,
der einen spezifischen Wert aufweist, zurück an den Switch 3 und/oder
das Endgerät 1 gesendet
wird. Als Antwort auf diesen Kapazitätsparameter (anhand der Benutzerkennnung
und/oder der Endgerätekennung
und/oder des Adreßcodes)
stellt der Prozessor 30 im Switch 3 eine vorgegebene Bandbreite
zwischen dem Endgerät 1 und
dem Switch 3 bereit, und/oder der Prozessor 10 im
Endgerät 1 stellt
eine vorgegebene Abtastrate ein und/oder reserviert eine vorgegebene
Menge von Zeit und/oder (de)aktiviert die Rauschminderung zum Beispiel.
Infolgedessen wird die Sprachbefehlsgabe angeboten und/oder geändert usw.
-
Gemäß einer
ersten Alternative zu der vierten Ausführungsform, zum Beispiel im
Fall, daß die Anwendung
die Sprachbefehlsgabe anbieten möchte wie
den Befehl und die Steuerung und/oder das Diktieren, können der
Switch 3 und/oder das Endgerät 1 entsprechend entscheiden,
daß im
Augenblick die notwendige Kapazität nicht zur Verfügung steht,
als Antwort auf welche das Warnsignal an den Spracherkenner 2 und/oder
das Endgerät 1 und
den Switch 3 entsprechend zu senden ist usw.
-
Gemäß einer
zweiten Alternative zu der vierten Ausführungsform umfaßt das Endgerät 1 eine Vorverarbeitungseinheit
(zum Beispiel die Einheit 13 oder ein Teil des Prozessors 10)
zum Vorverarbeiten der Sprachsignale, die über die Mensch-Maschine-Schnittstelle 11 (Mikrofon)
erzeugt wurden, in welchem Fall im Spracherkenner 2 eine
Endverarbeitungsfunktion (zum Beispiel die Einheit 24)
zum Endverarbeiten des vorverarbeiteten Sprachsignals, in welchem
Fall ein verteiltes Spracherkennungssystem erzeugt worden ist.
-
Gemäß einer
dritten Alternative zu der vierten Ausführungsform umfaßt das Endgerät 1 eine kleine
Sprachbefehlsgabeeinheit wie zum Beispiel ein kleines Namenwählgerät (zum Beispiel
die Einheit 13 oder ein Teil des Prozessors 10)
und mindestens ein Teil eines Dialogs findet unter der Steuerung von
und/oder unter Verwendung dieser kleinen Sprachbefehlsgabeeinheit
statt usw.
-
Gemäß einer
fünften
Ausführungsform
ist eine Verbindung zwischen dem Endgerät 1 und dem Spracherkenner 2 über den
Switch 3 bereits vorhanden und eine Anwendung läuft im Prozessor 20 im Spracherkenner 2 oder
teilweise im Prozessor 20 und teilweise im Prozessor 10 im
Endgerät 1 ab. Dann
entscheidet (der Teil einer) Anwendung in dem Spracherkenner 2,
daß die
Sprachbefehlsgabe dem Benutzer angeboten werden sollte und/oder
daß die Art
der Sprachbefehlsgabe geändert
werden sollte. Dazu wird vom Spracherkenner 2 (zum Beispiel über die
Einheit 25, die ein Anzeigesignalgenerator ist) ein Anzeigesignal
an den Koppler 33 des Switches 3 gesendet. Unter
der Steuerung des Prozessors 30 wird das Anzeigesignal über die
Verbindung 44 an der Einheit 31 angelegt, die
zum Beispiel ein Detektor zum Erkennen des Anzeigesignals ist, dessen
Detektor 31 den Prozessor 30 informiert, daß (der Teil
einer) Anwendung die Sprachbefehlsgabe anbieten und/oder ändern möchte usw.
Als Antwort sendet der Prozessor 30 ein Informationssignal
an den Spracherkenner 2 über den Koppler 33 und
die Verbindung 46, um den Spracherkenner 2 zu
informieren, daß (der
Teil einer) Anwendung in dem Endgerät 1 des Benutzers
die Sprachbefehlsgabe über
das Endgerät 1 anbieten/ändern möchte. Dieses
Informationssignal umfaßt
entweder zum Beispiel eine Benutzerkennnung und/oder eine Endgerätekennung
(direkte Adressierung) oder umfaßt einen Adreßcode, welcher
sich in Switch 3 auf die Benutzerkennnung und/oder Endgerätekennung
bezieht (indirekte Adressierung). Im Spracherkenner 2 erkennt
die Einheit 22, die zum Beispiel ein Detektor ist, das
Informationssignal als über
die Verbindung 46 und den Bus 26 unter der Steuerung
des Prozessors 20 über den
Steuerbus 27 angekommen und informiert den Prozessor 20 über den
Steuerbus 27 über
die Erkennung. Als Antwort steuert der Prozessor 20 die
Einheit 23, die zum Beispiel ein Einsteller ist, über den Steuerbus 27 auf
solch eine Weise, daß ein
spezifischer Kapazitätsparameter,
der einen spezifischen Wert aufweist, zurück an den Switch 3 und/oder
das Endgerät 1 gesendet
wird. Als Antwort auf diesen Kapazitätsparameter (anhand der Benutzerkennnung und/oder
der Endgerätekennung
und/oder des Adreßcodes)
stellt der Prozessor 30 im Switch 3 eine vorgegebene
Bandbreite zwischen dem Endgerät 1 und
dem Switch 3 bereit, und/oder der Prozessor 10 im
Endgerät 1 stellt
eine vorgegebene Abtastrate ein und/oder reserviert eine vorgegebene
Menge von Zeit und/oder (de)aktiviert die Rauschminderung zum Beispiel.
Infolgedessen wird die Sprachbefehlsgabe angeboten und/oder geändert usw.
-
Gemäß einer
ersten Alternative zu der fünften
Ausführungsform,
zum Beispiel im Fall, daß die Anwendung
die Sprachbefehlsgabe anbieten möchte wie
den Befehl und die Steuerung und/oder das Diktieren, können der
Switch 3 und/oder das Endgerät 1 entsprechend entscheiden,
daß im
Augenblick die notwendige Kapazität nicht zur Verfügung steht,
als Antwort auf welche das Warnsignal an den Spracherkenner 2 und/oder
das Endgerät 1 und
den Switch 3 entsprechend zu senden ist usw.
-
Gemäß einer
zweiten Alternative zu der vierten Ausführungsform umfaßt das Endgerät 1 eine Vorverarbeitungseinheit
(zum Beispiel die Einheit 13 oder ein Teil des Prozessors 10)
zum Vorverarbeiten der Sprachsignale, die über die Mensch-Maschine-Schnittstelle 11 (Mikrofon)
erzeugt wurden, in welchem Fall im Spracherkenner 2 eine
Endverarbeitungsfunktion (zum Beispiel die Einheit 24)
zum Endverarbeiten des vorverarbeiteten Sprachsignals, in welchem
Fall ein verteiltes Spracherkennungssystem erzeugt worden ist.
-
Gemäß einer
dritten Alternative zu der vierten Ausführungsform umfaßt das Endgerät 1 eine kleine
Sprachbefehlsgabeeinheit wie zum Beispiel ein kleines Namenwählgerät (zum Beispiel
die Einheit 13 oder ein Teil des Prozessors 10)
und mindestens ein Teil eines Dialogs findet unter der Steuerung von
und/oder unter Verwendung dieser kleinen Sprachbefehlsgabeeinheit
statt usw.
-
Alle
Ausführungsformen
sind wohlbegründete
Ausführungsformen
und schließen
andere Ausführungsformen
nicht aus, die nicht gezeigt und/oder beschrieben sind. Alle Alternativen
sind wohlbegründete
Alternativen und schließen
andere Alternativen nicht aus, die nicht gezeigt und/oder beschrieben sind.
Jeder (Teil einer) Ausführungsform
und/oder jeder (Teil einer) Alternative kann mit jedem anderen (Teil
einer) Ausführungsform
und/oder jedem anderen (Teil einer) Alternative kombiniert werden.
-
Das
Endgerät,
die Basisstation und der Switch können gemäß GSM, UMTS, DECT, ISDN, PSTN
usw. sein. Die Konstruktion des Endgerätes, des Switches und des Spracherkenners
kann modifiziert werden, ohne von dem Anwendungsbereich dieser Erfindung
abzuweichen. Parallele Blöcke
können in
Reihe und umgekehrt geschaltet werden und jeder Bus kann durch separate
Verbindungen und umgekehrt ersetzt werden. Die Einheiten und Schaltungen sowie
alle anderen Blöcke,
die gezeigt und/oder nicht gezeigt sind, können 100% Hardware oder 100% Software,
eine Mischung von beiden sein. Jede Einheit, Schaltung und Block
kann mit einem Prozessor oder jedem anderen Teil integriert sein
und jede Funktion eines Prozessors kann durch eine separate Einheit,
Schaltung oder Block realisiert sein. Jeder Teil des Spracherkenners
kann in den Switch verlagert sein und umgekehrt, und beide können vollständig integriert
sein. Jede Verbindung kann die ganze Zeit leitungsvermittelt, die
ganze Zeit paketvermittelt oder leitungsvermittelt während eines
ersten Zeitintervalles und paketvermittelt während eines zweiten Zeitintervalles
sein.
-
Der
Einsteller kann einen Kapazitätsparameter
(direkte Einstellung) einstellen oder den Speicher befehlen/anfordern,
um einen bestimmten Kapazitätsparameter
auszulesen (indirekte Einstellung über Generierung). Im Fall,
daß der
Einsteller in dem Endgerät
angeordnet ist oder das Endgerät
mit einem weiteren Einsteller bereitgestellt ist, wird mindestens ein
Teil des Entscheidungsprozesses in das Endgerät verlagert. Im Fall, daß der Detektor
in dem Endgerät
und/oder in dem Spracherkenner angeordnet ist oder das Endgerät mit einem
weiteren Detektor bereitgestellt ist und/oder der Spracherkenner
mit noch einem weiteren Detektor bereitgestellt ist, wird mindestens
ein Teil des Detektierungsprozesses in das Endgerät und/oder
in den Spracherkenner verlagert.