DE68928298T2 - Antwortregelungssystem - Google Patents
AntwortregelungssystemInfo
- Publication number
- DE68928298T2 DE68928298T2 DE68928298T DE68928298T DE68928298T2 DE 68928298 T2 DE68928298 T2 DE 68928298T2 DE 68928298 T DE68928298 T DE 68928298T DE 68928298 T DE68928298 T DE 68928298T DE 68928298 T2 DE68928298 T2 DE 68928298T2
- Authority
- DE
- Germany
- Prior art keywords
- data
- sound piece
- voice
- request signal
- sentence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 230000004044 response Effects 0.000 claims description 40
- 230000005540 biological transmission Effects 0.000 claims description 22
- 238000004891 communication Methods 0.000 description 27
- 238000006243 chemical reaction Methods 0.000 description 23
- 238000000034 method Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 17
- 238000012217 deletion Methods 0.000 description 14
- 230000037430 deletion Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 238000004458 analytical method Methods 0.000 description 9
- 230000015572 biosynthetic process Effects 0.000 description 9
- 238000003786 synthesis reaction Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 238000013523 data management Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/06—Elementary speech units used in speech synthesisers; Concatenation rules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/487—Arrangements for providing information services, e.g. recorded voice services or time announcements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/53—Centralised arrangements for recording incoming messages, i.e. mailbox systems
- H04M3/5307—Centralised arrangements for recording incoming messages, i.e. mailbox systems for recording messages comprising any combination of audio and non-audio components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04Q—SELECTING
- H04Q11/00—Selecting arrangements for multiplex systems
- H04Q11/04—Selecting arrangements for multiplex systems for time-division multiplexing
- H04Q11/0428—Integrated services digital network, i.e. systems for transmission of different types of digitised signals, e.g. speech, data, telecentral, television signals
- H04Q11/0435—Details
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer And Data Communications (AREA)
- Telephonic Communication Services (AREA)
- Facsimiles In General (AREA)
Description
- Die vorliegende Erfindung betrifft ein computerisiertes Servicesystem in einem Kommunikationsnetz, und spezieller ein Antwortsteuerungssystem zum Antworten auf verschiedene Serviceanforderungen.
- Bisher ist eine Übermittlung (Kommunikation) von Information nur zwischen derselben Art von Übertragungsmedien möglich. Jedoch wurde mit der jüngsten Entwicklung der Netzwerktechnologie eine Kommunikation (Multimediakommunikation) zwischen verschiedenen Medien möglich. Diese Multimediakommunikation sollte mit einer einfachen Struktur durchgeführt werden, die einen einfachen und sehr effizienten Betrieb erlaubt.
- Fig. 1 zeigt ein Blockdiagramm einer Struktur eines herkömmlichen Multimediakommunikations systems. Verschiedene Medien, etwa Endgeräte 1A und 1B, Telefone 2A und 2B und Faxgeräte (FAX) 3A und 3B sind über öffentliche Leitungsnetze 4A und 4B verbunden. Zwischen den öffentlichen Leitungsnetzen 4A und 4B ist eine Zentrale 5 zum Durchführen einer Steuerung einer Kommunikation zwischen beiden Medien vorgesehen. Die Endgeräte 1A und 1B umfassen einen Personal-Computer und Modems (MDM) 6A und 6B sind zwischen die Endgeräte 1A und 1B und die öffentlichen Leitungsnetze 4A und 4B geschaltet. Die Zentrale 5 arbeitet als Modem.
- In diesem System kann eine Kommunikation zwischen derselben Art von Medien, etwa zwischen den Endgeräten 1A und 1B oder zwischen den Telefonen 2A und 2B, durchgeführt werden, und ebenfalls kann eine Kommunikation zwischen verschiedenen Medien, etwa zwischen dem Endgerät 1A und dem Fax 3B durchgeführt werden.
- Fig. 2 zeigt einen Ablauf einer herkömmlichen Multimediakommunikation, die mittels des obigen Kommunikationssystems durchgeführt wird.
- Fig. 2 zeigt den Fall, daß Information von dem übertragungsseitigen Medium 7A über die Zentrale 5 an das empfangsseitige Medium 7B übertragen wird. Wenn von dem übertragungsseitigen Medium 7A ein ausgehender Ruf an die Zentrale 5 (1) erzeugt wird, empfängt die Zentrale 5 diesen ausgehenden Ruf und fordert von einem übertragungsseitigen Medium die Eingabe einer Sender ID (Erkennungsnummer) (2) an. Die Sender ID zeigt den Eigentümer des Mediums an. Ein einzelner Sender kann eine Vielzahl von Medien aufweisen, und sie können von verschiedener Art sein.
- Wenn die Sender ID sequentiell von dem übertragungsseitigen Medium 7A (3) eingegeben wird, wird die in der Zentrale 5 gespeicherte ID-Datei durchsucht. Wenn die Sender ID in der ID-Datei gefunden wird, fordert die Zentrale 5 die Eingabe einer ID eines Empfangsmediums (4) von dem übertragungsseitigen Medium 7A an. Das übertragungsseitige Medium 7A gibt dann die ID des empfangsseitigen Mediums an die Zentrale 5 (5). Die Zentrale 5 prüft durch Durchsuchen der ID-Datei in der Zentrale 5, ob eine ID des empfangsseitigen Mediums existiert. Falls ja, wird das übertragungsseitige Medium aufgefordert, die Übertragungsdatei (6) einzugeben. Dann gibt das übertragungsseitige Medium A eine Übertragungsdatei (einen Satz von zu übertragenden Daten) an die Zentrale (7). Die Zentrale 5 erzeugt einen ausgehenden Ruf an das entsprechende empfangsseitige Medium 7B, basierend auf der ID, die von der ID-Eingabe des empfangsseitigen Mediums (8) erhalten wurde. Das empfangsseitige Medium 7B gibt dann eine Antwort auf den ausgehenden Ruf an die Zentrale 5 (9) zurück. Wenn die Zentrale 5 diese Antwort empfängt, wird die von dem übertragungsseitigen Medium 7A übertragene Datei an das empfangsseitige Medium 78 (10) übertragen.
- In dem herkömmlichen Multimediakommunikationssystem kann eine Umwandlung beispielsweise von Text in Bilder, eine Kommunikation von einem Personal-Computer an ein FAX, über einen Netzdienst durchgeführt werden. Eine Umwandlung von Text in Sprache kann ebenfalls durchgeführt werden, wodurch Eingangsdaten von dem Personalcomputer in Form einer Stimme übertragen werden.
- Jedoch muß in dem herkömmlichen System der Sender das Medium des Empfängers bezeichnen. Wenn nämlich Information von der Senderseite an die Empfängerseite übertragen wird, variiert das Datenformat abhängig von der Art des empfangsseitigen Mediums. Somit ist es erforderlich, das empfangsseitige Medium zu erfassen, und für die Empfangsseite vorab zu wissen, welche Art von Medium die Empfangsseite aufweist, oder mittels welcher Art von Medium der Empfänger die Information zu empfangen wünscht. Es ist ebenfalls für die Übertragungsseite erforderlich, die ID des empfangsseitigen Mediums zu wissen, und seine Identifikationsnummer (etwa die Telefonnummer oder FAX-Nummer), was es erforderlich macht, daß der Bediener einen aufwendigen Vorgang durchführt. In der Zukunft kann Kommunikation zwischen weiteren verschiedenen Medien (wie etwa Textumwandlung in Sprache, FAX-Umwandlung in Text oder Sprachumwandlung in Text) möglich werden, was den Vorgang weiter verkompliziert.
- Servicesysteme, die einen Computer in dem oben genannten Multimediakommunikationssystem verwenden, etwa Telemarketing, Bezugnahme auf den Restbestand eines Kontos, Sicherheitsinformationsservice und elektronische Post, werden präsentiert. In diesen Systemen wird die Antwort auf eine telefonische Anfrage mittels Sprache gegeben. Deshalb ist die Sprachantworteinrichtung auf der Computerseite (Servicezentrum) vorgesehen. Als für die Sprachantworteinrichtung bekanntes Sprachantwortsteuersystem ist ein Aufzeichnungseditiersystem, ein Analyse- und Synthesesystem und ein Regelsynthesesystem (rule synthesizing system) bekannt.
- Das Aufzeichnungseditiersystem zeichnet ein analoges Sprachsignal oder ein PCM-Codierung unterworfenes Sprachsignal auf. Dieses Signal wird reproduziert, in einer vorbestimmten Sequenz ausgegeben und beispielsweise als Zeitansagedienst mittels eines Telefons verwendet. Das Analyse- und Synthesesystem kann beispielsweise ein PARCOR- System, ein LSP-System oder ein und Formant-System sein. Ein Parameter zum Steuern des Stimmerzeugungsmodells, das Anregungsinformation und Sprachtraktinformation umfaßt, wird als Sprachdaten gespeichert und zur Synthetisierung der Stimme verwendet. Es ist damit darin vorteilhaft, daß die Menge gespeicherter Information klein sein kann. Das Regelsynthesesystem synthetisiert eine Stimme, basierend auf Spektraldaten eines jeden Phonemtons und einer Aneinanderfügungsregel zum Verbinden dieser Spektraldaten als Sprachdaten, und kann somit einen beliebigen Antwortsatz bilden.
- Das Aufzeichnungseditiersystem in dem oben genannten Stand der Technik bildet einen Antwortsatz durch Kombinieren von zuvor aufgezeichneten Kurzsätzen und kann einen Antwortsatz gemäß der Weise, in der sie kombiniert werden, erhalten. Jedoch muß das Aufzeichnungseditiersystem viele kurze Sätze speichern und erfordert somit eine größere Speicherkapazität als andere Systeme. Dieses macht es schwierig, die Anzahl von Antwortsätzen, falls erforderlich, zu vergrößern. Das Analyse- und Synthesesystem ist darin vorteilhaft, daß die Menge von Speicherinformation kleiner sein kann als für den Fall, daß das Sprachsignal mittels einer PCM-Codierung oder einer ADPCM-Codierung gespeichert wird, erfordert jedoch einen größeren Computer zur Durchführung einer Sprachanalyse. Deshalb ist es darin nachteilig, daß die Kosten des Analyseund Synthesesystems hoch sind und nicht sofort Änderungen in der Tonfarbe entsprechen kann. Außerdem hat es den Nachteil, daß die synthetisierte Sprache natürlicher Sprache nicht ähnlich gemacht werden kann. Das Regelsynthesesystem kann nicht ohne weiteres eine Aneinanderfügungsregel erzeugen, damit die Sprache einer natürlichen Sprache ähnelt, und gegenwärtig ist seine Sprachqualität schlechter als die der synthetisierten Sprache gemäß dem obigen Analyse- und Synthesesystem.
- Wie beschrieben wurde, hat das obige Aufzeichnungs- und Editiersystem, das Analyse- und Synthesesystem und das Regelsynthesesystem Vorteile und Nachteile.
- In dem Servicesystem, das einen Computer verwendet, wird das Aufzeichnungs- und Editiersystem häufig zur Bereitstellung einer besseren Sprachqualität als andere Systeme verwendet. Beispielsweise werden Kurzsätze als Sprachantworten auf verschiedene Serviceanforderungen voraufgezeichnet und für jeweilige Anforderungen editiert, und die Sprachdaten dieser Kurzsätze werden als Antworten ausgewählt, wenn jeweilige Serviceanforderungen auftreten. Jedoch werden die Antworten gemäß vorbestimmten Sätzen durchgeführt. Somit kann der Sprachservice einschließlich des Namens des Anfragenden und des Namens des gegenseitigen Empfängers nicht durchgeführt werden, weil alle Kombinationen von Sender- und Empfängernamen und feste Nachrichten als Kurzsätze gespeichert werden müßten. Dieses ist unter dem Gesichtspunkt der Speicherkapazität unmöglich.
- Wenn beispielsweise das FAX-Gerät der gegenüberliegenden Seite defekt oder besetzt ist, werden die übertragenen Daten zeitweilig in dem Computersystem gespeichert. Das Computersystem überträgt dann eine Sprachnachricht an das Telefon der gegenüberliegenden Seite. Jedoch ist die an den Empfänger übertragene Servicenachricht eine feste Nachricht, wie etwa "es wurde ein Fax empfangen". Deshalb besteht das Problem, daß der Sender und der Empfänger des Faksimiles nicht identifiziert werden können.
- GB-A-1 581 477 offenbart eine Vorrichtung zum Synthetisieren von Sprachnachrichten für computerisierte Mensch/Maschinenschnittstellen. Ein Vokabelspeicher ist zum Speichern von Information vorgesehen, die die Sprache repräsentiert. Ein weiterer Speicher enthält zeitweilig Spezifikationen eines Wortes oder Teiles von Worten als Komponenteninformationseinheiten.
- EP-A-0 093 022 offenbart ein Verfahren und eine Vorrichtung zum Erzeugen einer Vielzahl von elektrischen Signalen zum Bereitstellen einer Sprachnachrichtenausgabe. Ein Speicher speichert eine Vielzahl von Worten und/oder Phrasen, und es werden eine Vielzahl von Worten aus diesem Speicher unabhängig von elektrischen Signalen ausgewählt, die eine erforderliche Nachricht bestimmen.
- US-A-4 276 572 offenbart ein Antwortsteuersystem mit einem Speicher. Eine in dem Speicher gespeicherte Tabelle enthält Ansageblöcke zum Erzeugen einer automatischen Antwort.
- US-A-4 412 099 offenbart eine Sprachsynthetisiervorrichtung mit ersten und zweiten Speichereinrichtungen, die Information bezüglich der Reihenfolge von auszusprechenden Worten und bezüglich der Adresse von Klangdaten enthalten. Eine dritte Speichereinrichtung ist vorgesehen, in welcher die Klangdaten als Parameter vorabgespeichert sind.
- Offenbarung der Erfindung
- Eine Aufgabe der Erfindung ist es, eine gewünschte Sprachantwort und ein preisgünstiges System mit einer ökonomischen Struktur zu erzeugen.
- Gemäß der vorliegenden Erfindung wird diese Aufgabe gelöst, wie in Anspruch 1 definiert.
- Die erste Speichereinrichtung speichert jeweilige verschiedene Klangstückdaten, wie etwa die Daten mittels ADTCM für jeweilige codierte Satzteileinheiten, wobei ein erster Deskriptor den Klangstückdaten hinzugefügt wird. Der Satzteil, der beispielsweise ein Hauptwort, ein Adjektiv oder ein Verb umfaßt, und ist Ives wurde ein Fax empfangen". Die zweite Speichereinrichtung speichert jeweilige verschiedene Klangstückdaten von codierten Satzteileinheiten, wobei ein zweiter Deskriptor den Klangstückdaten hinzugefügt wird. Der Satzteil umfaßt beispielsweise "von Herrn xxx" und "an Herrn xxx". Die erste Speichereinrichtung speichert einen festen Satzteil (nämlich einen für einen allgemeinen Zweck verwendeten Satzteil), und die zweite Speichereinrichtung speichert beispielsweise ein individuelles Hauptwort, das an den festen Satzteil angefügt wird.
- Die dritte Speichereinrichtung speichert ein Klangstück, das einen Satz bildet, in Einzelsatzeinheiten durch Verwenden eines ersten Deskriptors und eines zweiten Deskriptors.
- Die Steuereinrichtung liest eine in der dritten Speichereinrichtung gespeicherte, gewünschte Struktur, wenn ein Sprachausgabe-Anforderungssignal empfangen wird, und liest Klangstückdaten, die von dem ersten Deskriptor bezeichnet werden, der die Satzstruktur bildet, und speichert sie in der ersten Speichereinrichtung. Die Steuereinrichtung liest ebenfalls Klangstückdaten, die mittels der bezeichneten Daten bezeichnet sind, die dem Sprachausgabeanforderungssignal beigefügt sind, und mittels des zweiten Deskriptors bezeichnet werden. Der erste Deskriptor ist ein fester Satzteil und wird bestimmt, wenn eine einzelne Satzstruktur von der dritten Speichereinrichtung gelesen wird, und wird nicht von dem zweiten Deskriptor bestimmt. Der zweite Deskriptor bezeichnet beispielsweise "an Herrn xxx" und "von Herrn xxx", und die Bezeichnungsdaten, die dem Sprachausgabeanforderungssignal angefügt sind, bestimmen, daß xxx gleich OOO ist. Die Bezeichnungsdaten bezeichnen xxx und die Klangstückdaten eines Satzteils einschließlich eines individuellen Hauptwortes, etwa des Namens einer vorbestimmten Person, können erhalten werden. Die Steuereinrichtung ordnet die ausgelesenen Klangstückdaten gemäß einer Satzstruktur an und bildet ein Sprachnachrichtenantwortsignal zur Ausgabe. Deshalb wird als Antwort eine Stimme, wie etwa "ein Faksimile von Herrn OOO an Herrn ΔΔΔ wurde empfangen" erzeugt. Selbst wenn wenige Arten von Klangteilen in der zweiten Speichereinrichtung gespeichert sind, können verschiedene Sätze mittels einer Stimme in einer Kombination von Klangstücken produziert werden.
- Die dem Klangausgabeanforderungssignal beigefügten Daten bestimmen die zu übertragende Satzstruktur in Übereinstimmung mit einer Bezeichnung, die über eine Leitung von einem Telefonendgerät angebracht wird, etwa eine Bezeichnung von einem Computer oder einer Tastatur. Eine Anforderungssignal- Erzeugungseinrichtung fügt die Daten, die die in der zweiten Speichereinrichtung gespeicherten Klangstückdaten bezeichnen, hinzu, um beispielsweise das individuelle Hauptwort zu bezeichnen. Die Anforderungssignal-Erzeugungseinrichtung empfängt eine spezielle Information, etwa die eines Senders oder eines Empfängers, beispielsweise eine Telefonnummer, und fügt die Daten, die das Klangstück bezeichnen, dem Sprachausgabeanforderungssignal hinzu. Diese Bezeichnung kann von einem Computer oder einer Tastatur leicht vorgenommen werden. Die spezielle Information von der Vermittlungsvorrichtung kann automatisch erzeugt werden, selbst wenn irgendeine Anforderung eingegeben wird.
- Kurzbeschreibung der Zeichnungen
- Fig. 1 ist ein strukturelles Blockdiagramm eines herkömmlichen Multimediakommunikationssystems;
- Fig. 2 zeigt eine Sequenz einer herkömmlichen Multimediakommunikation;
- Fig. 3 ist ein strukturelles Blockdiagramm eines Multimediakommunikationssystems als ein Ausführungsbeispiel der vorliegenden Erfindung;
- Fig. 4 ist ein Blockdiagramm eines Beispiels einer Struktur einer Zentrale;
- Fig. 5 zeigt ein Beispiel einer Struktur einer Datei, die Medieninformation speichert;
- Fig. 6 zeigt eine detaillierte Struktur einer Medieninformationstabelle;
- Fig. 7 ist ein Flußdiagramm, das einen Ablauf einer Multimediakommunikation zeigt;
- Fig. 8 zeigt ein Beispiel einer Struktur einer Informationssteuerstatuseinheit;
- Fig. 9 ist ein Prozeßflußdiagramm zum Zeigen einer Auswahl von Medieninformation in einer Multimediakommunikation;
- Fig. 10 ist ein Flußdiagramm, das eine Hinzufügung und eine Entfernung eines Mediums zeigt;
- Fig. 11 ist ein Blockdiagramm eines Ausführungsbeispiels der vorliegenden Erfindung;
- Fig. 12 ist ein Flußdiagramm einer Registrierung und einer Löschung;
- Fig. 13 ist eine Erläuterungsdarstellung einer Datei eines Ausführungsbeispiels der vorliegenden Erfindung; und
- Fig. 14 ist ein Flußdiagramm eines Ausführungsbeispiels der vorliegenden Erfindung.
- Beste Ausführungsform der vorliegenden Erfindung
- Um die vorliegende Erfindung detaillierter zu erläutern, wird auf die beigefügten Zeichnungen Bezug genommen.
- Fig. 3 ist eine strukturelle Darstellung eines Multimediakommunikationssystems als ein Ausführungsbeispiel der vorliegenden Erfindung. Dieselben Teile wie in Fig. 1 sind mit denselben Bezugszeichen bezeichnet. In Fig. 3 weist die Zentrale 10 eine Informationssteuereinheit 10a auf, eine Mediumumwandlungseinheit 10b und eine Softwareverarbeitungseinheit 10c. Das Informationsnetz 10a schließt eine MPU ein und führt eine Datenübertragungssteuerung zwischen einer Senderseite und einer Empfängerseite durch, zusammen mit der Softwareverarbeitungseinheit 10c. Die Informationssteuereinheit 10a schließt ebenfalls eine Datei ein, die Mediuminformation speichert, sowie eine Informationssteuerstatuseinheit. Die Mediumumwandlungseinheit 10b wandelt das Datenformat von dem Medium der Senderseite in das Datenformat des Mediums der Empfängerseite um.
- Fig. 4 ist ein Blockdiagramm eines Beispiels einer Struktur der Zentrale 10. Eine Leitungsverbindungseinheit 11 ist mittels einer Leitung mit einer NCU 12 verbunden. Die NCU 12 wandelt Information von der Leitung in ein digitales Signal um und wandelt an die Leitung zu übertragende Information in ein analoges Signal um. Das Modem 13 ist mit einem Endgerät eines Personalcomputers verbunden. Die Informationssteuerstatuseinheit 14 führt eine Beurteilung der Art des Endgerätes durch, das auf diese Zentrale 10 zugreift, und führt eine Beurteilung eines Eingabemediums durch. Eine PB-Erkennungseinheit 15 erkennt ein Tastaturbetätigungssignal (PB) von der Leitung. Die Umwandlungsverarbeitungseinheit 16 wirkt als PCM-CODEC (der ein Sprachsignal einer A/D-Wandlung und einer D/A-Wandlung unterzieht) und führt eine Mediumumwandlung durch. Der Speicher 17 speichert eine Medieninformationsdatei 17a, die eine Benutzer-ID-Tabelle und eine Medieninformationstabelle MPU 18 umfaßt, und führt eine Steuerung des gesamten Vorganges durch.
- Fig. 5 zeigt eine strukturelle Darstellung eines Beispiels der Datei 17a, die Medieninformation speichert. Die Medieninformation speichernde Datei 17a umfaßt eine Benutzer- ID-Tabelleneinheit (UIDT) und eine Medieninformations- Tabelleneinheit (MDIT) zum Speichern von Medieninformation für jeweilige Benutzer. Vier Bytes sind in der Benutzer-ID- Tabelleneinheit UIDT für einen einzelnen Benutzer vorgesehen.
- Die Medieninformations-Tabelleneinheit MDIT ist ebenfalls für jeweilige Benutzer vorgesehen.
- In Fig. 6 zeigt a die Anzahl von besessenen Medien (1 Byte), b bedeutet die Art besessener Medien (1 Byte), c1 ist FAX- Information (1 Byte), c&sub2; ist die FAX-Nummer (10 Bytes), d&sub1; ist Telefoninformation (1 Byte), d&sub2; ist die Telefonnummer (10 Bytes), e ist PC (personal comuter) Information (1 Byte), f ist PCID (10 Bytes). Eine Beziehung zwischen der Art b der besessenen Medien und der gespeicherten Daten (code) ist wie folgt.
- 00 nur FAX
- 01 nur Telefon
- 02 nur PC
- 03 FAX und Telefon
- 04 FAX und PC
- 05 Telefon und PC
- 06 FAX, Telefon und PC
- Weil die Medienart abhängig vom Benutzer unterschiedlich ist, bestimmt die Art b der besessenen Medien die Art. FAX- Information c&sub1;, Telefoninformation d&sub1; und PC-Information e sind wie folgt definiert.
- 0 nicht benutzt
- 1 benutzt
- Die letzte Einheit der Medieninformationstabelle wird von der Information der Art der besessenen Medien bestimmt. Der Betrieb des in Fig. 4 gezeigten Schaltkreises, der wie oben beschrieben konstruiert ist, wird unter Bezugnahme auf das in Fig. 7 gezeigte Flußdiagramm erläutert, zur Bezeichnung eines Betriebs einer Multimediakommunikation, und des in Fig. 9 gezeigten Flußdiagramms zum Durchführen einer Informationsauswahl in einer Multimediakommunikation.
- Bei der Erzeugung eines ausgehenden Gesprächs (11), wenn eine Leitung mit einer Zentrale verbunden wird (S1), erkennt die Informationssteuerstatuseinheit 14, basierend auf dem Informationssteuerstatus, ob ein Telefon oder ein PC zugreift (S2). Um zu beurteilen, welche Art von Endgerät einen Zugriff vornimmt, erkennt die Informationssteuerstatuseinheit 14, ob das Zugriffsmedium auf der Modemseite oder der Leitungsseite ist. Falls es auf der Leitungsseite ist, wird beurteilt, ob es eine Faksimilemaschine oder ein Telefon ist, wodurch das Eingangsmedium beurteilt wird.
- Fig. 8 zeigt ein Beispiel einer Struktur der Informationssteuerstatuseinheit 14 im Prozeß S2. Ein Signal vom Modem 13 wird in eine Trägererfassungseinheit 14a eingegeben, womit ermöglicht wird, daß der Träger erfaßt wird. Das Signal von der PB-Erkennungseinheit 15 wird an eine Empfangscode/Zeichenumwandlungseinheit 14b eingegeben, wodurch eine Umwandlung von dem empfangenen Code in das Zeichen ermöglicht wird. Der Empfangsstatus 14c wird von diesen Trägererfassungseinheiten 14a und der Empfangscode- Zeichenumwandlungseinheit 14b erhalten.
- Andererseits wird die Ausgabe von der Trägererfassungseinheit 14a und der Empfangscode/Zeichenumwandlungseinheit 14b in die Medienbeurteilungseinheit 14d eingegeben, und die Medienart wird bestimmt. Die Beurteilung der Medienbeurteilungseinheit 14d ist wie folgt.
- Text; Dieses wird mittels eines Trägererfassungsbits eines Modems beurteilt.
- FAX; Dieses wird mittels Erfassens eines 1300 Hz-Signals von einem Modem beurteilt.
- Sprache; Dieses wird beurteilt abhängig davon, ob die übertragenen Daten die FAX-Sequenz sind oder nicht.
- Wenn die Beurteilung des Mediums abgeschlossen ist, fügt die folgende Vorspannhinzufügungseinheit 14e einen Vorspann einer Medienerkennung an, die an den Speicher 17 zu übertragen ist. Der Vorspann ist eines von:
- 00; Text
- 01; Faksimile
- 02; Sprache
- Die Erläuterung wird fortgesetzt unter Rückkehr zur Fig. 7. Wenn der Prozeß S2 die Zugriffsart erkennt und die Zentrale von dem speziellen Medium anfordert, die Sender ID (12) als Antwort auf diese Anforderung einzugeben, gibt der Sender die Sender ID ein (S3, 13). MPU 18 durchsucht die Medieninformationsspeicherdatei 17a basierend auf der eingegebenen ID, führt eine Bezugnahme auf eine Benutzer ID durch und wandelt die eingegebenen Daten in Zeichendaten um, wenn der Sender ein Telefon benutzt (S4). Wenn als Ergebnis die Benutzer ID mit der eingegebenen ID übereinstimmt, verlangt die MPU 18 von der Sender ID die Empfänger ID einzugeben (14).
- Als Reaktion auf eine Übertragungsanforderung von der MPU 18 wird die Empfänger ID sequentiell von dem senderseitigen Medium eingegeben (S5, 15), und die MPU 18 führt eine Bezugnahme auf eine Empfänger ID durch, mittels Durchsuchens von Medieninformation, die in der Datei 17a gespeichert wird, basierend auf der eingegebenen ID (S4). Wenn als Ergebnis die eingegebene Empfänger ID in der Benutzer ID existiert, fordert die MPU 18 das senderseitige Medium auf, die Übertragungsdatei einzugeben (16) und führt dann eine Suche nach der Personal-Computer ID und der Telefonnummer des Empfängers durch (S6). Sie führt diese Suche unter Bezugnahme auf eine (in Fig. 5 gezeigte) Medieninformationstabelle der Medieninformation speichernden Datei 17a durch.
- Als Ergebnis gibt das senderseitige Medium die Übertragungsdatei ein, nämlich die Übertragungsdaten (S7, (17) und erzeugt ebenfalls einen ausgehenden Ruf an das empfangsseitige Medium (S8, (18)), und der ausgehende Ruf (18) wird an das Telefon des Empfängers übertragen. Der Empfänger nimmt das Telefon ab, wenn die Klingel läutet (19). Die Zentrale antwortet dem empfangsseitigen Medium mit "dieses ist die Zentrale xxx. Von Herrn xxx wurde eine Nachricht an Herrn OOO empfangen. Welches Medium wünschen Sie als Antwort auf diese Anfrage zu benutzen? (20)". Der Empfänger drückt beispielsweise eine Taste, um die Art von zu empfangenden Medien zu bestimmen (S9, 21). Um einen Empfang unter Verwendung einer Vielzahl von Medien zu ermöglichen, wird eine Antwort in Form von JA oder NEIN vorgenommen.
- Die Antwort (unter der Annahme, daß der Empfänger ein FAX- Gerät hat, ein Telefon und ein Endgerät eines Personal- Computers) ist wie folgt. "Bitte ein Medium zur Verwendung bei Empfang auswählen. Falls JA, "1" und "#" und falls NEIN, "0" und "#" eingeben. Wünschen Sie, das Signal per FAX zu empfangen? (warten auf eine Eingabe). Wünschen Sie, das Signal über Telefgn zu empfangen? (warten auf eine Eingabe)".
- Wenn dieser Vorgang abgeschlossen ist, bestimmt die MPU 18 das Medium, basierend auf dem Vorspann der übertragenen Information und wandelt sie in das von dem Empfänger gewünschte Medium um, unter Verwendung der Umwandlungsprozeßeinheit 16 über eine Mediumumwandlung (S10), und gibt eine Übertragungsdatei an das von dem Empfänger gewünschte Medium (S11, 22) aus.
- Fig. 9 zeigt ein Flußdiagramm einer Medieninformationsauswahl in der oben genannten Multimediakommunikation.
- Als nächstes werden die Registrierung und die Löschung der Medien für die medieninformationsspeichernde Datei erläutert (wie in 17a in Fig. 4 und in den Fig. 5 und 6 gezeigt). Um eine Medienregistrierung und Löschung unabhängig von Datenübertragung und -empfang durchzuführen, ist die "Medienregistrierung ID" vorgesehen.
- Fig. 10 zeigt ein Flußdiagramm zum Erläutern einer Hinzufügung und einer Entfernung eines Mediums. Ein ausgehender Ruf wird von der Medienseite an die Zentrale übertragen (31). Die Zentrale fordert eine Benutzer-ID- Eingabe an (32). Wenn das Medium die Benutzer-ID eingibt (33), wird die Benutzer-ID einem Vergleich unterzogen und die Zentrale fordert das Medium auf, den Benutzercode einzugeben, wenn als Ergebnis eines Vergleichs Übereinstimmung erzielt worden ist (34). Der Benutzercode dient zur Verarbeitung einer Hinzufügung und Entfernung des Mediums und der Anderung der ID-Nummer durch Eingeben jeweiliger Codes. Die Zentrale führt eine Anfrage durch, etwa "bitte den Verarbeitungscode eingeben", als die Eingabeanforderung der Benutzungscodes. Der vorbestimmte Code (Benutzungscode) wird somit in Übereinstimmung mit der Registrierung, Löschung und Änderung des Mediums eingegeben (35).
- Wenn ein neues Medium registriert wird, erzeugt die Zentrale auf die Eingabe des Verarbeitungscodes hin eine Nachricht, etwa "bitte den Code der Art des neu besessenen Mediums eingeben". Als Reaktion auf diese Nachricht gibt der Benutzer den Code durch Erzeugen einer Nachricht ein, etwa "ein neues Medium ist OO und ". Nach Abschluß dieses Prozesses wird die Leitung unterbrochen, und alle Vorgänge sind abgeschlossen (36).
- In der obigen Erläuterung sind Telefon, Fax und Personal- Computer-Endgerät als Beispiele der Medien erwähnt. Jedoch ist die vorliegende Erfindung nicht auf diese Medien beschränkt, sondern kann auf andere Arten der Endgeräte angewendet werden.
- Das Ausführungsbeispiel der vorliegenden Erfindung verwendet hauptsächlich ein Telefon als ein Medium. Das Telefon ist das grundlegendste Medium und kann eine Registrierung und Löschung einer ID durchführen. Ein Konversationstyp mittels einer Stimme wird für dieses Medium verwendet, und eine Sprachausgabevorrichtung ist erforderlich, um die Sprache durch Umwandeln eines Objektsatzes in eine Stimme auszugeben. Beispielsweise wird bei der Registrierung des Mediums die Nachricht "ein neues Medium ist OO und " ausgegeben. Die obige Nachricht umfaßt einen festen Satz und einen variablen Satz. Die Antwortsteuerung mittels Sprache im Ausführungsbeispiel der vorliegenden Erfindung wird detailliert erläutert, beginnend mit seinem System.
- Fig. 11 ist ein Blockdiagramm eines Ausführungsbeispiels der vorliegenden Erfindung. Die Zentrale 111 führt einen Textversand für einen Personal-Computer 115 oder eine Textverarbeitungseinrichtung durch, einen Sprachversand für Telefone 117 und 119, einen Faksimileversand für eine Faksimilevorrichtung 118, einen Anzeigedienst, verschiedene Informationsanzeigedienste, Umwandlung von Text in Faksimilesystem und eine Umwandlung yon Text in Sprache und einen Posteingangsbenachrichtigungsdienst zum Anzeigen der Ankunft der Post mittels Sprache. Diese Dienste werden von einem in der Zentrale 111 vorgesehenen Computer gesteuert. Die zu speichernden Daten werden in der Datei 113 gespeichert und nach Bedarf ausgelesen. In diesen verschiedenen Arten von Diensten wird eine Sprachantwort unter Verwendung der Datei 113 für die Telefone 117 und 119 von der Zentrale 111 durchgeführt.
- Eine Registrierung und Löschung von Klangstückdaten in der Datei 113 wird beispielsweise mittels des Personal-Computers 115 und des Telefons 117 durchgeführt. Das Endgerät des in dem Vermittlungsnetz 114 eingeschlossenen Dienstanbieters kann die Klangstückdaten registrieren, um verschiedene Anleitungen in der Zentrale 111 zu bilden.
- Fig. 12 zeigt ein Flußdiagramm einer Registrierung und Löschung in der Zentrale 111. Der in dem Vermittlungsnetz 114 enthaltene Personal-Computer 115 sendet einen ausgehenden Anruf an die Zentrale 111. Die Zentrale 111 erfaßt dann einen eingehenden Anruf (S101) und wird mit dem Personal-Computer 115 verbunden. Diese Verbindung wird dadurch durchgeführt, daß das Vermittlungsnetz in die Lage versetzt wird, das ausgegebene PB-Signal (die Telefonnummer der Zentrale) zu erfassen, beispielsweise von der mit dem Modem 116 ausgestatteten MCU, um die Zentrale zu rufen, und es der Zentrale 111 ermöglicht wird, Klingeln zu erfassen, und die MCU in der Zentrale 111 in die Lage versetzt wird, einen Gleichstromkreis zu schließen.
- Die Zentrale 111 gibt unter Steuerung des Computers 112 einen Menüschirm aus (S102).
- Das Menü wird von dem Personal-Computer 115 angezeigt. Diese Übertragung wird mittels einer Kommunikation eines Modems über eine Leitung durchgeführt. Ein Bediener gibt eine Anforderung einer Registrierung oder Löschung gemäß dem Inhalt der Anzeige ein. Der Computer 112 der Zentrale 111 empfängt die von dem Bediener eingegebene Anforderung an eine Umwandlungsvorrichtung und wird der Zentrale 111 hinzugefügt. Somit beurteilt der Computer 112 in der Zentrale 111 diese Anforderung (S103). Wenn diese Anforderung die Registrierungsanforderung ist, wird die Führung der Anforderung des ausgehenden Telefongesprächs angezeigt (S104), d.h. das Telefon 117 bezeichnet ein ausgehendes Gespräch. Außerdem wird eine Registrierungsanleitung von dem Computer 112 der Zentrale 111 bezeichnet, eingegeben zu werden (S105) und bezeichnet (S106) eine Starttaste der Spracheingabe und eine Stoptaste der Spracheingabe (die Taste, wie etwa * und # des Telefons 117). Deshalb gibt ein Bediener Sprache in ein Telefon 117 in Einheiten von Satzteilen ein, die zu registrieren sind, und der Computer 112 der Zentrale 111 führt einen PCM-, DPCM- und ADPCM- Codiervorgang durch. Auf diese Codierung hin werden digitale Sprachdaten erhalten (S107), der Deskriptor wird den digitalen Sprachdaten mittels eines Sprachdatenmanagementprozesses (S108) hinzugefügt, und die digitalen Sprachdaten werden in der Datei 113 gespeichert. Der Deskriptor wird ausgewählt, vollständig verschieden von denjenigen zu sein, die den bereits registrierten Klangstückdaten beigefügt sind.
- Der obige Vorgang betrifft ein analoges Umwandlungsnetz. Wenn das Vermittlungsnetz 114 ein digitales Vermittlungsnetz ist, werden digitale Daten eines Klangstückes, das von dem Telefon digitalisiert wird, komprimiert, codiert und in der Datei 113 durch Zufügen eines Deskriptors zu den digitalen Daten in derselben Weise, wie oben genannt, registriert.
- Im Fall einer Löschungsanforderung werden die Inhalte der Datei 113 unter der Steuerung des Computers 112 übertragen, und es wird eine Liste von Daten, die bereits in dem Personal-Computer 115 registriert sind, zur Anzeige auf den Personal-Computer (S109) übertragen, und außerdem kann eine Löschungssatzstruktur-Nummerneingabebezeichnung ausgeführt werden (S110). Wenn eine Löschungssatzstrukturnummer von dem Personalcomputer 115 über ein Vermittlungsnetz eingegeben wird, löscht der Computer 112 Klangstückdaten von der Löschungssatzstruktur-Nummerndatei 113, basierend auf dem Klangstückdatenmanagementprozeß (S111). Wie oben beschrieben, wird eine Operation des Deskriptors und eine Registrierung und Löschung der Daten in der Datei 113 in der Zentrale 111 durchgeführt.
- Die vorliegende Erfindung betrifft Sprache und die Zentrale 111 unterstützt elektronische Post und Faksimilepost. Der Betrieb dieser Post wird später erläutert. Als nächstes wird eine Datei zum Speichern der Klangstückdaten erklärt.
- Fig. 13 ist eine erläuternde Darstellung der Datei 113 der Zentrale 111. Eine Datei bezüglich der Daten umfaßt eine Anleitungsstruktursatzdatei 113a, eine Klangstückdatendatei 113b und eine Variabeln definierende Datei 113c. Die Anleitungsstruktursatzdatei 113a umfaßt eine Vektortabelle und Struktursätze K1-Kn. Die Vektortabelle umfaßt eine Vektoradressennummer No.K1-No.Kn. Die Struktursätze K1-Kn umfassen eine Kombination von Deskriptoren, die einen Struktursatz bilden, und umfaßt eine Struktursatznummer, Datenlänge, einen Textcode und Deskriptoren G1-GM. Die Datenlänge zeigt die Anzahl von Bytes des Textcodes und Deskriptor, und der Textcode drückt den Inhalt des Struktursatzes entsprechend der Nummer des Struktursatzes unter Verwendung eines Zeichens aus, und Deskriptoren G1-GM dienen der Bezeichnung der Nummer der Klangstückdaten.
- Die Klangstückdaten 113b umfassen eine Vektortabelle und Klangstücke O1-Om. Die Vektortabelle bildet Vektoradressen No.0-No.Om. Die Klangstücke O1-Om sind aus den Nummern der Klangstücke, Datenlänge, Textcode und binären Klangstückdaten gebildet. Die Datenlänge zeigt die Anzahl von Bytes des Textcodes und der binären Klangstückdaten. Der Textcode drückt den Inhalt des Klangstückes unter Verwendung eines Zeichens aus. Die binären Klangstückdaten umfassen die beispielsweise mittels ADPCM-Codierung codierten Klangstückdaten.
- Die Variablendefinitionsdatei 113c umfaßt eine Vektortabelle und Variablendefinition T1-Tk. Die Vektortabelle ist aus den Vektoradressen von No.T1-No.Tk gebildet. Die Variablendefinitionen T1-Tk sind aus der Nummer der Variablen, Datenlänge, der Nummer von Klangstücken und der Nummer von Klangstücken des Versatzes 0 gebildet. Die Datenlänge zeigt däe Anzahl von Bytes der Klangstücknummer des Versatzes 0 und die Nummer des Klangstücks zeigt die Nummer des Klangstücks, das unter Verwendung des Wertes der Variablen variiert wird. Die Klangstücknummer des Versatzes 0 bezeichnet die Nummer von anfänglichen Klangstückdaten, die von dem Wert der Variablen bestimmt werden.
- Im Fall eines Struktursatzes mit der Struktursatznummer K10 "die Ankunft von Post wird angezeigt", werden die Struktursatznummer K10, die Datenlänge, der Textcode "die Ankunft von Post wird angezeigt" und der Deskriptor %10 in einem Gebiet einer Struktursatznummer k10 der Anleitungsstruktursatzdatei 113a gespeichert. Der Textcode ist ein Zeichencode, der zur Anzeige auf dem Personalcomputer 115 benutzt wird. Die Klangstücknummern 010, die Datenlänge, der Textcode "die Ankunft von Post wird angezeigt" und ein codierter binärer Klangstückcode werden in einem Gebiet der Klangstücknummer 010 in der Klangstückdatendatei 113b gespeichert.
- Beispielsweise sind im Falle eines Struktursatzes K11 die Daten innerhalb der Markierung < > variabel, und der Inhalt ist "< der Name des Empfängers> < der Name des Senders> , < das Postmedium> wird empfangen". Die Struktursatznummer K11, die Datenlänge, der Textcode "< der Name des Empfängers> < der Name des Senders> < Postmedium> wird empfangen" und die Deskriptoren $10, $11, $12 und %11 werden in einem Gebiet des Struktursatzes K11 der Anleitungsstruktursatzdatei 113a gespeichert. Die Nummer der Variablen, Datenlänge, die Nummer des Klangstückes und die Klangstücknummer mit Versatz 0 werden in einem Gebiet der Variablendefinitionen T10, T11 und T12 in der Variablendefinitionsdatei 113c gespeichert. Die Klangstückdaten gemäß der Klangstücknummer des Versatzes wird in der Klangstückdatendatei 113b gespeichert. Das heißt, der Name des Empfängers und der Name des Senders werden beispielsweise als Klangstückdaten registriert.
- In der Variablendefinition wird die Objektnummer der Klangstücknummer des Versatzes 0 gemäß einem Auftreten der jeweiligen Anforderungen hinzuaddiert, wodurch eine Objektklangstücknummer bestimmt wird, so daß jeweilige Objektsprache produziert wird.
- Fig. 14 ist ein Flußdiagramm eines Ausführungsbeispiels der vorliegenden Erfindung. Wenn eine Sprachantwort unter der Steuerung des Computers 112 der Zentrale 111 durchgeführt wird, und die Struktursatznummer entsprechend einem Zustand, etwa einem Kommunikationsbeginn, eine Benachrichtigung eines Posteingangs, eine Bezeichnung einer Postübertragung und ein Abschluß davon, werden beispielsweise erhalten (S112). Ein Struktursatz wird aus der Anleitungsstruktursatzdatei 113a in Übereinstimmung mit der Nummer von Struktursätzen ausgelesen (S113). Beispielsweise wird für die Struktursatznummer K11 im Zustand der Benachrichtigung des Posteingangs die Vektortabelle der Anleitungsstruktursatzdatei 113a in Bezug genommen, und die Inhalte einschließlich des Struktursatzes mit einer Kombination von Deskriptoren werden ausgelesen.
- Die Struktur wird analysiert (S114) und es wird bestimmt, ob die Variable in dem Deskriptor (S115) eingeschlossen ist. Für die Strukturnummer K11 umfaßt ein Deskriptor eine Kombination von $10, $11, $12 und %11, und weil die Variable $ enthalten ist, wird die Vektortabelle mittels der Variablennummer- Definitionsdatei 113c in Bezug genommen, und die Klangstücknummer entsprechend der Nummer der Variablennummer wird aus dem Gebiet zum Definieren der Variablen ausgelesen (S116). Beispielsweise, wie in Fig. 14 gezeigt, ist für die Nummer T10 der Variablen die Anzahl von Klangstücken 21, und die Klangstücknummer ist %1000 (die Klangstücknummer des Versatzes 0). Für die Nummer der Variablen ist die Klangstücknummer 21, und die Nummer des Klangstücks ist %lloo. Für die Nummer 12 der Variablen ist die Klangstücknummer 7, und die Nummer des Klangstückes ist %1200.
- Durch Wiederholen des oben genannten Prozesses S116 wird eine wiederholte Beurteilung vorgenommen, ob eine Analyse all der Deskriptoren abgeschlossen ist (S117). Für einen Abschluß wird ein fester Struktursatz erzeugt (S118). Wenn die Variable nicht eingeschlossen ist, wird der feste Struktursatz nach Abschluß einer Analyse all der Deskriptoren erzeugt (S118). Für die oben genannte Stuktursatznummer K11 wird in dem in Fig. 14 bezeichneten Puffer BX ein fester Struktursatz mit einer Kombination der Klangstücknummern erzeugt. Der Puffer BX ist beispielsweise innerhalb eines Speichers in dem Computer 112 vorgesehen.
- Klangstückdaten werden aus der Klangstückdatendatei in Übereinstimmung mit dem festen Struktursatz ausgelesen und in dem Puffer durch Anfügen des Sprachvorspanns an den Kopf aller dieser Klangstückdaten gespeichert (S119) (die Klangstückdaten entsprechend der Nummer des Klangstücks %1010, %1115, %1201 und %1111 wird aus der Klangstückdatendatei ausgelesen und in dem Puffer gespeichert). Beispielsweise wird im Fall von "ein Fax wurde von Herrn xxx an Herrn xxx gesendet" wird "von Herrn xxx" aus der Variablendefinitionsdatei erhalten, und "von Herrn ooo" wird von der Klangstücknummer des Versatzes 0 erhalten, nämlich beispielsweise der Klangstücknummer %1010 aus %1000. Die unteren 2 Stellen "10" von %1010 werden von der Quellnummer erhalten, von welcher das Fax übertragen wird. Das "an Herrn xxx" wird ebenfalls in derselben Weise behandelt. Das "an Herrn " wird von der Klangstücknummer des Versatzes 0 erhalten, nämlich beispielsweise der Klangstücknummer von %1111 aus 1100. Auch in diesem Fall stellen die unteren zwei Stellen, 15 von %1115, den Wert dar, der von der Nummer erhalten wird, mittels welcher ein Faksimile empfangen wird. "Faksimile" wird von der Klangstücknummer des Versatzes 0 erhalten, d.h. der Klangstücknummer von %1201 aus %1200. Die unteren 2 Stellen "01" dieser Nummer werden mittels des Quellenprozesses bestimmt, durch welchen die Anforderung erzeugt wird, wenn ein Fax von einer Person an eine andere Person in der Zentrale 111 gespeichert wird.
- Die Inhalte dieses Puffers werden an eine Leitung ausgegeben oder in einer Datei gespeichert (S120). Wenn sie an eine Leitung ausgegeben werden, wird eine Sprachantwort, etwa "von Herrn ooo (Name des Senders: Klangstücknummer %1115) wurde Fax per Post (Postmedium: Klangstücknummer %1201) an Herrn (Name des Empfängers: Klangstücknummer %1010) empfangen" von der Zentrale 111 durch das Vermittlungsnetz 114 an das Telefon 117 (oder 119) ausgeführt.
- Wenn die Gesamtanzahl von Klangstückdaten im Vergleich mit der Kapazität des Puffers groß ist, werden unterteilte Prozesse mittels einer Datenkette durchgeführt. Deshalb wird die Existenz der Datenkette bestimmt (S121). Wenn die Datenkette existiert, schreitet der Prozeß voran zu Schritt (S119), und wenn die Datenkette nicht existiert, ist der Prozeß zu Ende.
- Wie oben beschrieben, werden die Klangstückdaten, welchen der Deskriptor hinzugefügt ist, in der Datei gespeichert, und die Klangstückdaten werden in Übereinstimmung mit dem in Fig. 3 gezeigten Flußdiagramm unter Verwendung des Personal- Computers 115 und des Telefons 117 als Endgeräte registriert oder gelöscht. In diesem Fall werden die zu registrierenden Klangstückdaten mit den Klangstückdaten verglichen, die in der Datei 113 registriert worden sind, beispielsweise bezüglich ihres Codes, und nur, wenn sie nicht identisch sind, werden die zu registrierenden Klangstückdaten tatsächlich in der Datei 113 registriert, wodurch eine doppelte Registrierung vermieden wird. Die Zentrale 111 bildet einen Struktursatz, der beispielsweise mittels einer Kombination von Deskriptoren erhalten wird, für das Telefon 119, und die Klangstückdaten werden aus der Datei 113 in Übereinstimmung mit einem Deskriptor ausgelesen, wodurch ermöglicht wird, daß die Klangstückantwort mit einer Tonqualität durchgeführt wird, die der einer tatsächlichen Stimme ähnelt.
- In dem oben genannten Ausführungsbeispiel der vorliegenden Erfindung speichert die Klangstückdatendatei sequentiell das Klangstück, beginnend beispielsweise mit %10, und speichert jeweilige Klangstücke, etwa %1000 ..., und %1100 ..., die ihm folgen. Jedoch ist die vorliegende Erfindung nicht auf diese Klangstücke beschränkt. Es existiert ein Fall, in welchem das Klangstück nach %1000 manchmal abhängig von dem Gebiet von dem Benutzer geändert wird, und kann als separate Datei in einer Einheit jeweiliger Variablen vorgesehen sein.
- Das oben genannte Vermittlungsnetz 114 kann aus einem allgemein erhältlichen Vermittlungsnetz gebildet sein, jedoch verwaltet der Vermittlungsnetzmanager beispielsweise eine Telefonnummer (beispielsweise die Nummer einer internen Leitung). Wenn die Nummer des Senders von der Vermittlungsvorrichtung erfaßt wird, und wenn die Nummer der Gegenstelle (des Empfängers) eingegeben wird, wird die Nummer ebenfalls gespeichert. Wenn die Zentrale 111 einen Service durchführt, kann diese Information, nämlich speziell eine Nachricht erzeugen, wie etwa "ein Faksimile ist von Herrn ooo an Herrn eingetroffen". Durch Speichern ist die Verwendung eines Codes einer Leitung und gemäß jeweiligen Codes, die Daten betreffen, das verbundene Medium, die Bezeichnung des Mediums, wie oben beschrieben, nicht erforderlich, und die Nachricht kann vollständig automatisch ausgegeben werden.
- Mögliche Anwendung der vorliegenden Erfindung
- Gemäß der vorliegenden Erfindung werden die Art des empfangsseitigen Mediums und die ID der Gegenstelle (Empfänger) erkannt und dann können die gewünschten Medien durch Telefonieren mit der Empfangsseite ausgewählt werden. Wenn das gewünschte Medium bestimmt ist, wird die Datendatei von dem sendenden Medium einer Formatumwandlung (Medienumwandlung) in ein Format unterzogen, das für das empfangsseitige Medium geeignet ist. Dann wird der Informationstransfer durchgeführt. Deshalb kann das senderseitige Medium die Datenübertragung durchführen, ohne die Medienarten auf der Empfangsseite zu erkennen, wodurch ein Multimediakommunikationssystem bereitgestellt wird. Des weiteren fügt die vorliegende Erfindung den Klangstückdaten der Einheit des Satzstückes, der mittels DPCM, ADPC als Beispiel codiert ist, einen Deskriptor bei und registriert sie in der Datei. Die Steuereinheit, die beispielsweise einen Computer umfaßt, bildet einen Antwortsatz als eine Kombination von Deskriptoren und führt eine Sprachantwort durch Lesen der Klangstückdaten aus der Datei in Übereinstimmung mit diesen Deskriptoren durch. Dadurch verwaltet sie die Datei basierend auf jeweiligen Satznummern und Klangstücknummern. Selbst während das System arbeitet, ist deshalb eine zusätzliche Registrierung oder Löschung der Klangstückdaten möglich, beispielsweise durch Verwenden eines Personal-Computers und eines Telefons. Weil jeweilige verschiedene Klangstückdaten registriert sind, wird es unnötig, eine Datei mit besonders großer Kapazität bereitzustellen, und es ist einfach, ein geeignetes Sprachantwortsystem zu bilden.
- Weiter ist es möglich, einen beliebigen Antwortsatz unter Verwendung eines Programms zu bilden, und es ist möglich, eine Stimme basierend auf dem gespeicherten und codierten Klangstück mit einer Qualität zu reproduzieren, die der einer tatsächlichen Stimme ähnelt.
Claims (6)
1. Antwortsteuerungssystem, mit
- ersten Speichereinrichtungen (113b) zum Erhalten
von ersten codierten Klangstückdaten, zum Anfügen
eines ersten Deskriptors an jeweilige codierte
erste Klangstückdaten, welche Einheiten eines
Satzteils darstellen, und zum Speichern des ersten
Deskriptors und entsprechender codierter erster
Klangstückdaten,
- zweiten Speichereinrichtungen (113b) zum Erhalten
zweiter codierter Klangstückdaten, zum Anfügen
eines zweiten Deskriptors an jeweilige codierte
zweite Klangstückdaten, die Einheiten eines
Satzteils darstellen, und zum Speichern des zweiten
Deskriptors und entsprechender codierter zweiter
Klangstückdaten,
- dritten Speichereinrichtungen (113a) zum Benutzen
der in den ersten und zweiten Speichereinrichtungen
gespeicherten, zweiten Deskriptoren, eine Vielzahl
von Satzstrukturen zu erzeugen, die einen Satz
bilden, und zum Speichern der Satzstrukturen, und
- Steuereinrichtungen (111) zum Empfangen eines
Sprachausgabeanforderungssignals, einschließlich
Bezeichnungsdaten, zum Lesen einer Satzstruktur von
den dritten Speichereinrichtungen gemäß dem
Sprachausgabeanforderungssignal, zum Auswählen
unter den ersten Klangstückdaten und den zweiten
Klangstückdaten basierend auf den
Bezeichnungsdaten, Sprachdaten zu bilden, und zum
Ausgeben eines Sprachantwortsignals, welches die
Sprachdaten anzeigt.
2. Antwortsteuerungssystem nach Anspruch 1, gekennzeichnet
durch
- ein Telefonendgerät zum Übertragen von
Bezeichnungsdaten über eine Leitung;
- Sprachausgabeanforderungssignal-
Erzeugungseinrichtungen (111) zum Bestimmen einer
Satzstruktur basierend auf den Bezeichnungsdaten,
und Nutzen der Bezeichnungsdaten, in der zweiten
Speichereinrichtung gespeicherte Klangstückdaten zu
bezeichnen, um ein Sprachausgabeanforderungssignal
zu erzeugen.
3. Antwortsteuerungssystem nach Anspruch 2, dadurch
gekennzeichnet, daß das Telefongerät ein Modem (116) und
eine mit dem Modem (116) verbundene Computervorrichtung
(115) umfaßt, um dem Servicesystem über die Leitung
digitale Daten bereitzustellen, und die
Sprachausgabeanforderungssignal-Erzeugungseinrichtung
(111) umfaßt:
- Einrichtungen zum Erzeugen des
Sprachausgabeanforderungssignals von den digitalen
Daten durch Anfügen der Satzstruktur an die
Bezeichnungsdaten.
4. Antwortsteuerungssystem nach Anspruch 2, dadurch
gekennzeichnet, daß das Telefongerät (119) eine Taste
umfaßt, die in der Lage ist, ein Tastensignal zu
erzeugen, und die Sprachausgabeanforderungssignal-
Erzeugungseinrichtung umfaßt:
- Einrichtungen zum Anfügen von wenigstens einer der
Satzstrukturen an die Bezeichnungsdaten, um das
Sprachausgabeanforderungssignal basierend auf dem
von der Taste ausgegebenen Tastensignal zu
erzeugen.
5. Antwortsteuerungssystem nach Anspruch 1, gekennzeichnet
durch
- Anforderungssignalerzeugungseinrichtungen (111) zum
Bestimmen einer Satzstruktur basierend auf der
speziellen Information, die von einem Endgerät
ausgegeben wird, das mit einem Computer eines
Servicesystems entsprechend einer
Vermittlungsvorrichtung (114) verbunden ist, die
mittels einer Leitung mit dem Computer des
Servicesystems verbunden ist, und zum Anfügen von
Bezeichnungsdaten an die ersten Klangstückdaten, um
ein Sprachausgabeanforderungssignal zu erzeugen.
6. Antwortsteuerungssystem nach Anspruch 5, dadurch
gekennzeichnet, daß die Vermittlungsvorrichtung (114)
die spezielle Information einschließlich einer
Übertragungsnummer als Anforderungsquellnummer und einer
Empfangsnummer als eine Übertragungszielnummer ausgibt.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14465088 | 1988-06-14 | ||
JP1044128A JP2721003B2 (ja) | 1989-02-23 | 1989-02-23 | マルチメディア通信方法 |
PCT/JP1989/000594 WO1989012938A1 (en) | 1988-06-14 | 1989-06-14 | Response control system |
Publications (2)
Publication Number | Publication Date |
---|---|
DE68928298D1 DE68928298D1 (de) | 1997-10-09 |
DE68928298T2 true DE68928298T2 (de) | 1998-01-29 |
Family
ID=26383979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE68928298T Expired - Lifetime DE68928298T2 (de) | 1988-06-14 | 1989-06-14 | Antwortregelungssystem |
Country Status (4)
Country | Link |
---|---|
US (1) | US5146488A (de) |
EP (1) | EP0378694B1 (de) |
DE (1) | DE68928298T2 (de) |
WO (1) | WO1989012938A1 (de) |
Families Citing this family (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04168865A (ja) * | 1990-11-01 | 1992-06-17 | Hitachi Ltd | コードデータとイメージデータの合成出力方式 |
US5548789A (en) * | 1991-01-24 | 1996-08-20 | Canon Kabushiki Kaisha | Message communication processing apparatus for selectively converting storing and transmitting messages of different lengths |
US5428457A (en) * | 1991-06-18 | 1995-06-27 | Matsushita Graphic Communication Systems, Inc. | Image communication apparatus |
JP3367976B2 (ja) | 1991-11-07 | 2003-01-20 | キヤノン株式会社 | データ処理装置及び方法 |
JP2643664B2 (ja) * | 1991-07-19 | 1997-08-20 | 富士通株式会社 | ファクシミリメール配送方式 |
US5530740A (en) * | 1991-10-28 | 1996-06-25 | Contigram Communications Corporation | System and method for integrating voice, facsimile and electronic mail data through a personal computer |
US5349636A (en) * | 1991-10-28 | 1994-09-20 | Centigram Communications Corporation | Interface system and method for interconnecting a voice message system and an interactive voice response system |
US5381527A (en) * | 1991-11-13 | 1995-01-10 | International Business Machines Corporation | System for efficient message distribution by succesively selecting and converting to an alternate distribution media indicated in a priority table upon preferred media failure |
US5802314A (en) * | 1991-12-17 | 1998-09-01 | Canon Kabushiki Kaisha | Method and apparatus for sending and receiving multimedia messages |
BR9207033A (pt) * | 1992-01-09 | 1995-12-05 | Supra Prod Inc | Sistema de entrada de segurança com radiocomunicação |
US5396536A (en) * | 1992-06-23 | 1995-03-07 | At&T Corp. | Automatic processing of calls with different communication modes in a telecommunications system |
DE4230277A1 (de) * | 1992-09-10 | 1994-03-17 | Philips Patentverwaltung | Auskunftsvorrichtung |
EP0586954B1 (de) * | 1992-09-11 | 2004-11-03 | Siemens Information & Communication Networks, Inc. | Techniken zur Erzeugung von Personalcomputeranzeigen und gedruckten Transkripten aus Sprachpostnachrichten |
US5479411A (en) * | 1993-03-10 | 1995-12-26 | At&T Corp. | Multi-media integrated message arrangement |
JP3241481B2 (ja) * | 1993-04-15 | 2001-12-25 | 富士通株式会社 | 異機種通信端末間相互接続サービス方式並びにこの異機種通信端末間相互接続サービス方式に使用される通信ノード装置及び通信端末 |
JPH0787221A (ja) * | 1993-09-14 | 1995-03-31 | Sony Corp | 電話装置、情報処理装置及び情報通信端末 |
US5524137A (en) * | 1993-10-04 | 1996-06-04 | At&T Corp. | Multi-media messaging system |
US5812865A (en) * | 1993-12-03 | 1998-09-22 | Xerox Corporation | Specifying and establishing communication data paths between particular media devices in multiple media device computing systems based on context of a user or users |
US5638412A (en) * | 1994-06-15 | 1997-06-10 | Qualcomm Incorporated | Method for providing service and rate negotiation in a mobile communication system |
JPH0818717A (ja) * | 1994-06-29 | 1996-01-19 | Fuji Xerox Co Ltd | ファクシミリ電子メール変換システム |
US5537466A (en) * | 1994-08-04 | 1996-07-16 | British Telecommunications, Plc. | Intelligent communications networks |
CA2195666C (en) * | 1994-08-04 | 1999-08-17 | Andrew Paxton Taylor | Intelligent communications networks |
US5826241A (en) | 1994-09-16 | 1998-10-20 | First Virtual Holdings Incorporated | Computerized system for making payments and authenticating transactions over the internet |
US5530951A (en) * | 1994-12-07 | 1996-06-25 | Argintar; Donald | Telephone line sharing apparatus |
JP3160177B2 (ja) | 1995-03-06 | 2001-04-23 | 松下電器産業株式会社 | ファクシミリ型電子メール装置 |
US6885470B1 (en) | 1995-03-06 | 2005-04-26 | Matsushita Electric Industrial Co., Ltd. | Electronic mail system |
US6778287B1 (en) | 1995-03-06 | 2004-08-17 | Matsushita Electric Industrial Co., Ltd. | Electronic mail system |
GB2316588B (en) | 1995-05-08 | 2000-05-31 | Compuserve Inc | Rules based electronic message management system |
JP3504036B2 (ja) * | 1995-08-07 | 2004-03-08 | 富士通株式会社 | Faxメール装置 |
US6353611B1 (en) * | 1995-11-27 | 2002-03-05 | At&T Corp. | Call waiting feature for a telephone line connected to the internet |
GB9603582D0 (en) | 1996-02-20 | 1996-04-17 | Hewlett Packard Co | Method of accessing service resource items that are for use in a telecommunications system |
US5724410A (en) * | 1995-12-18 | 1998-03-03 | Sony Corporation | Two-way voice messaging terminal having a speech to text converter |
US5781614A (en) * | 1996-01-19 | 1998-07-14 | Lucent Technologies Inc. | Message retrieval via alternative access |
JP3651508B2 (ja) * | 1996-01-31 | 2005-05-25 | ソニー株式会社 | 情報処理装置および情報処理方法 |
US6069890A (en) | 1996-06-26 | 2000-05-30 | Bell Atlantic Network Services, Inc. | Internet telephone service |
US6154445A (en) | 1996-04-18 | 2000-11-28 | Bell Atlantic Network Services, Inc. | Telephony communication via varied redundant networks |
US5872926A (en) * | 1996-05-31 | 1999-02-16 | Adaptive Micro Systems, Inc. | Integrated message system |
US6034970A (en) * | 1996-05-31 | 2000-03-07 | Adaptive Micro Systems, Inc. | Intelligent messaging system and method for providing and updating a message using a communication device, such as a large character display |
JP3786708B2 (ja) * | 1996-06-18 | 2006-06-14 | クランベリー、プロパティーズ、リミテッド、ライアビリティー、カンパニー | 音声、ファクシミリ、電子メール統合メッセージ・システム |
US6005870A (en) * | 1996-08-12 | 1999-12-21 | At&T Corp. | Method for called party control of telecommunications network services |
US5903877A (en) * | 1996-09-30 | 1999-05-11 | Lucent Technologies Inc. | Transaction center for processing customer transaction requests from alternative media sources |
US6016307A (en) | 1996-10-31 | 2000-01-18 | Connect One, Inc. | Multi-protocol telecommunications routing optimization |
US6473404B1 (en) | 1998-11-24 | 2002-10-29 | Connect One, Inc. | Multi-protocol telecommunications routing optimization |
US6754181B1 (en) | 1996-11-18 | 2004-06-22 | Mci Communications Corporation | System and method for a directory service supporting a hybrid communication system architecture |
US6335927B1 (en) | 1996-11-18 | 2002-01-01 | Mci Communications Corporation | System and method for providing requested quality of service in a hybrid network |
US7145898B1 (en) | 1996-11-18 | 2006-12-05 | Mci Communications Corporation | System, method and article of manufacture for selecting a gateway of a hybrid communication system architecture |
US6690654B2 (en) | 1996-11-18 | 2004-02-10 | Mci Communications Corporation | Method and system for multi-media collaboration between remote parties |
US6078582A (en) | 1996-12-18 | 2000-06-20 | Bell Atlantic Network Services, Inc. | Internet long distance telephone service |
US6731625B1 (en) | 1997-02-10 | 2004-05-04 | Mci Communications Corporation | System, method and article of manufacture for a call back architecture in a hybrid network with support for internet telephony |
JP3244014B2 (ja) * | 1997-02-14 | 2002-01-07 | 日本電気株式会社 | マルチメディア変換装置および変換方式 |
US6137869A (en) | 1997-09-16 | 2000-10-24 | Bell Atlantic Network Services, Inc. | Network session management |
US6574216B1 (en) | 1997-03-11 | 2003-06-03 | Verizon Services Corp. | Packet data network voice call quality monitoring |
US6870827B1 (en) | 1997-03-19 | 2005-03-22 | Verizon Services Corp. | Voice call alternative routing through PSTN and internet networks |
US6292479B1 (en) | 1997-03-19 | 2001-09-18 | Bell Atlantic Network Services, Inc. | Transport of caller identification information through diverse communication networks |
US6546005B1 (en) | 1997-03-25 | 2003-04-08 | At&T Corp. | Active user registry |
US6023700A (en) * | 1997-06-17 | 2000-02-08 | Cranberry Properties, Llc | Electronic mail distribution system for integrated electronic communication |
US6640242B1 (en) | 1999-01-29 | 2003-10-28 | Microsoft Corporation | Voice access through a data-centric network to an integrated message storage and retrieval system |
US6263064B1 (en) | 1999-01-29 | 2001-07-17 | International Thinklink Corporation | Centralized communication control center for visually and audibly updating communication options associated with communication services of a unified messaging system and methods therefor |
US7499875B1 (en) | 2000-03-17 | 2009-03-03 | Ebay Inc. | Method and apparatus for facilitating online payment transactions in a network-based transaction facility using multiple payment instruments |
GB2377059A (en) | 2000-03-17 | 2002-12-31 | Ebay Inc | Method and apparatus for facilitating online payment transactions in a network based transaction facility using multiple payment instruments |
US8706618B2 (en) | 2005-09-29 | 2014-04-22 | Ebay Inc. | Release of funds based on criteria |
US6442250B1 (en) * | 2000-08-22 | 2002-08-27 | Bbnt Solutions Llc | Systems and methods for transmitting messages to predefined groups |
CN1711744B (zh) * | 2002-11-12 | 2012-06-20 | 汤姆森特许公司 | 产生和播放指示媒介终端适配器提供状态的诊断消息的方法和装置 |
CN100452892C (zh) * | 2005-07-11 | 2009-01-14 | 华为技术有限公司 | 对会话进行放音的方法 |
US8238538B2 (en) | 2009-05-28 | 2012-08-07 | Comcast Cable Communications, Llc | Stateful home phone service |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5334402A (en) * | 1976-09-11 | 1978-03-31 | Japanese National Railways<Jnr> | Automatic broadcast guide system enabling interrupt of broadcast message or shortening |
GB1581477A (en) * | 1978-05-19 | 1980-12-17 | Post Office | Apparatus for synthesising verbal announcements |
JPS56161600A (en) * | 1980-05-16 | 1981-12-11 | Matsushita Electric Ind Co Ltd | Voice synthesizer |
JPS5876256U (ja) * | 1981-11-16 | 1983-05-23 | 岩崎通信機株式会社 | 非常通報装置 |
GB2119208B (en) * | 1982-04-28 | 1986-01-22 | Gen Electric Co Plc | Method of and apparatus for generating a plurality of electric signals |
JPS60162332A (ja) * | 1984-02-02 | 1985-08-24 | Toshiba Corp | 複合メ−ル装置 |
JPS6118998A (ja) * | 1984-07-05 | 1986-01-27 | 日本電気株式会社 | 音声応答編集方式 |
JPS62112456A (ja) * | 1985-11-12 | 1987-05-23 | Nec Corp | 統合メ−ル装置接続方式 |
JPS62112453A (ja) * | 1985-11-12 | 1987-05-23 | Nec Corp | 統合メ−ル装置接続方式 |
US4910765A (en) * | 1986-04-30 | 1990-03-20 | Ricoh Company, Ltd. | Communication terminal apparatus having a relaying function |
US4748618A (en) * | 1986-05-21 | 1988-05-31 | Bell Communications Research, Inc. | Telecommunications interface |
US4837798A (en) * | 1986-06-02 | 1989-06-06 | American Telephone And Telegraph Company | Communication system having unified messaging |
JPS6390941A (ja) * | 1986-10-06 | 1988-04-21 | Canon Inc | メツセ−ジ通信システム |
JPH06118998A (ja) * | 1992-10-01 | 1994-04-28 | Matsushita Electric Ind Co Ltd | ベクトル量子化装置 |
-
1989
- 1989-06-14 WO PCT/JP1989/000594 patent/WO1989012938A1/ja active IP Right Grant
- 1989-06-14 DE DE68928298T patent/DE68928298T2/de not_active Expired - Lifetime
- 1989-06-14 EP EP89907270A patent/EP0378694B1/de not_active Expired - Lifetime
-
1990
- 1990-02-14 US US07/465,266 patent/US5146488A/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
WO1989012938A1 (en) | 1989-12-28 |
EP0378694B1 (de) | 1997-09-03 |
EP0378694A4 (en) | 1993-12-15 |
EP0378694A1 (de) | 1990-07-25 |
DE68928298D1 (de) | 1997-10-09 |
US5146488A (en) | 1992-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE68928298T2 (de) | Antwortregelungssystem | |
DE69031384T2 (de) | Vorrichtung zur umsetzung von text eines graphischen faksimilebildes in sprache | |
DE69839068T2 (de) | System und Verfahren zur automatischen Verarbeitung von Anruf und Datenübertragung | |
DE68926226T2 (de) | Automatisiertes Nachrichtenabrufsystem | |
DE4041273C1 (de) | ||
DE69400115T2 (de) | Elektronisches Mitteilungssystem mit integrierten Sprachnachrichten | |
DE60000361T2 (de) | Verfahren und Gerät zum erzeugen und versenden von strukturierten Sprachpostnachrichten | |
US6332139B1 (en) | Information communication system | |
US5884256A (en) | Networked stenographic system with real-time speech to text conversion for down-line display and annotation | |
DE3819538C3 (de) | Sprachaktivierbare Wähleinrichtung | |
DE4436175B4 (de) | Vorrichtung zum Fernzugreifen auf einen Computer ausgehend von einem Telefonhandapparat | |
DE69129883T2 (de) | Rufnummerwahl mit Spracherkennung | |
DE60116004T2 (de) | Datenaufzeichnungssystem zur Speicherung von Telefongesprächen von festen und mobilen Fernsprechstellen mit einer Datenaufzeichnungsfunktion auf einer Speicherkarte | |
DE69906333T2 (de) | System und verfahren zur durchführung einer auktion über ein kommunikationsnetzwerk | |
US20010043594A1 (en) | Information processing apparatus, information processing method and identification code | |
US7797730B2 (en) | Downline transcription system using automatic tracking and revenue collection | |
US20070239446A1 (en) | Down-line Transcription System Using Automatic Tracking And Revenue Collection | |
DE102011118780A1 (de) | Verfahren und system für das erzeugen einerzusammenarbeitszeitachse, die anwendungsartefakte im kontext illustriert | |
DE60100784T2 (de) | Akustischer Internet-Zugriff | |
DE69221945T2 (de) | Faksimilegerät | |
JP3597327B2 (ja) | マルチメディア電子メールシステム | |
DE60209420T2 (de) | System und Verfahren zum Umwandeln von von einem Mobilgerät vorbereiteten Textnachrichten in Sprachnachrichten | |
EP1067791A2 (de) | Informations- und Kommunikationssystem | |
DE69533253T2 (de) | Verfahren und System zur individuellen Anpassung von Kommunikationen über ein Netzwerk | |
JP2001142487A (ja) | 音声データ入力システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: DOSA ADVANCES,LLC, LAS VEGAS, NEV., US |