DE68928298T2 - Antwortregelungssystem - Google Patents

Antwortregelungssystem

Info

Publication number
DE68928298T2
DE68928298T2 DE68928298T DE68928298T DE68928298T2 DE 68928298 T2 DE68928298 T2 DE 68928298T2 DE 68928298 T DE68928298 T DE 68928298T DE 68928298 T DE68928298 T DE 68928298T DE 68928298 T2 DE68928298 T2 DE 68928298T2
Authority
DE
Germany
Prior art keywords
data
sound piece
voice
request signal
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE68928298T
Other languages
English (en)
Other versions
DE68928298D1 (de
Inventor
Tooru Kino
Akihiro Okada
Katsumi Tanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xylon LLC
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP1044128A external-priority patent/JP2721003B2/ja
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Application granted granted Critical
Publication of DE68928298D1 publication Critical patent/DE68928298D1/de
Publication of DE68928298T2 publication Critical patent/DE68928298T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/06Elementary speech units used in speech synthesisers; Concatenation rules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/53Centralised arrangements for recording incoming messages, i.e. mailbox systems
    • H04M3/5307Centralised arrangements for recording incoming messages, i.e. mailbox systems for recording messages comprising any combination of audio and non-audio components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q11/00Selecting arrangements for multiplex systems
    • H04Q11/04Selecting arrangements for multiplex systems for time-division multiplexing
    • H04Q11/0428Integrated services digital network, i.e. systems for transmission of different types of digitised signals, e.g. speech, data, telecentral, television signals
    • H04Q11/0435Details

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer And Data Communications (AREA)
  • Telephonic Communication Services (AREA)
  • Facsimiles In General (AREA)

Description

    Technisches Gebiet
  • Die vorliegende Erfindung betrifft ein computerisiertes Servicesystem in einem Kommunikationsnetz, und spezieller ein Antwortsteuerungssystem zum Antworten auf verschiedene Serviceanforderungen.
  • Technischer Hintergrund
  • Bisher ist eine Übermittlung (Kommunikation) von Information nur zwischen derselben Art von Übertragungsmedien möglich. Jedoch wurde mit der jüngsten Entwicklung der Netzwerktechnologie eine Kommunikation (Multimediakommunikation) zwischen verschiedenen Medien möglich. Diese Multimediakommunikation sollte mit einer einfachen Struktur durchgeführt werden, die einen einfachen und sehr effizienten Betrieb erlaubt.
  • Fig. 1 zeigt ein Blockdiagramm einer Struktur eines herkömmlichen Multimediakommunikations systems. Verschiedene Medien, etwa Endgeräte 1A und 1B, Telefone 2A und 2B und Faxgeräte (FAX) 3A und 3B sind über öffentliche Leitungsnetze 4A und 4B verbunden. Zwischen den öffentlichen Leitungsnetzen 4A und 4B ist eine Zentrale 5 zum Durchführen einer Steuerung einer Kommunikation zwischen beiden Medien vorgesehen. Die Endgeräte 1A und 1B umfassen einen Personal-Computer und Modems (MDM) 6A und 6B sind zwischen die Endgeräte 1A und 1B und die öffentlichen Leitungsnetze 4A und 4B geschaltet. Die Zentrale 5 arbeitet als Modem.
  • In diesem System kann eine Kommunikation zwischen derselben Art von Medien, etwa zwischen den Endgeräten 1A und 1B oder zwischen den Telefonen 2A und 2B, durchgeführt werden, und ebenfalls kann eine Kommunikation zwischen verschiedenen Medien, etwa zwischen dem Endgerät 1A und dem Fax 3B durchgeführt werden.
  • Fig. 2 zeigt einen Ablauf einer herkömmlichen Multimediakommunikation, die mittels des obigen Kommunikationssystems durchgeführt wird.
  • Fig. 2 zeigt den Fall, daß Information von dem übertragungsseitigen Medium 7A über die Zentrale 5 an das empfangsseitige Medium 7B übertragen wird. Wenn von dem übertragungsseitigen Medium 7A ein ausgehender Ruf an die Zentrale 5 (1) erzeugt wird, empfängt die Zentrale 5 diesen ausgehenden Ruf und fordert von einem übertragungsseitigen Medium die Eingabe einer Sender ID (Erkennungsnummer) (2) an. Die Sender ID zeigt den Eigentümer des Mediums an. Ein einzelner Sender kann eine Vielzahl von Medien aufweisen, und sie können von verschiedener Art sein.
  • Wenn die Sender ID sequentiell von dem übertragungsseitigen Medium 7A (3) eingegeben wird, wird die in der Zentrale 5 gespeicherte ID-Datei durchsucht. Wenn die Sender ID in der ID-Datei gefunden wird, fordert die Zentrale 5 die Eingabe einer ID eines Empfangsmediums (4) von dem übertragungsseitigen Medium 7A an. Das übertragungsseitige Medium 7A gibt dann die ID des empfangsseitigen Mediums an die Zentrale 5 (5). Die Zentrale 5 prüft durch Durchsuchen der ID-Datei in der Zentrale 5, ob eine ID des empfangsseitigen Mediums existiert. Falls ja, wird das übertragungsseitige Medium aufgefordert, die Übertragungsdatei (6) einzugeben. Dann gibt das übertragungsseitige Medium A eine Übertragungsdatei (einen Satz von zu übertragenden Daten) an die Zentrale (7). Die Zentrale 5 erzeugt einen ausgehenden Ruf an das entsprechende empfangsseitige Medium 7B, basierend auf der ID, die von der ID-Eingabe des empfangsseitigen Mediums (8) erhalten wurde. Das empfangsseitige Medium 7B gibt dann eine Antwort auf den ausgehenden Ruf an die Zentrale 5 (9) zurück. Wenn die Zentrale 5 diese Antwort empfängt, wird die von dem übertragungsseitigen Medium 7A übertragene Datei an das empfangsseitige Medium 78 (10) übertragen.
  • In dem herkömmlichen Multimediakommunikationssystem kann eine Umwandlung beispielsweise von Text in Bilder, eine Kommunikation von einem Personal-Computer an ein FAX, über einen Netzdienst durchgeführt werden. Eine Umwandlung von Text in Sprache kann ebenfalls durchgeführt werden, wodurch Eingangsdaten von dem Personalcomputer in Form einer Stimme übertragen werden.
  • Jedoch muß in dem herkömmlichen System der Sender das Medium des Empfängers bezeichnen. Wenn nämlich Information von der Senderseite an die Empfängerseite übertragen wird, variiert das Datenformat abhängig von der Art des empfangsseitigen Mediums. Somit ist es erforderlich, das empfangsseitige Medium zu erfassen, und für die Empfangsseite vorab zu wissen, welche Art von Medium die Empfangsseite aufweist, oder mittels welcher Art von Medium der Empfänger die Information zu empfangen wünscht. Es ist ebenfalls für die Übertragungsseite erforderlich, die ID des empfangsseitigen Mediums zu wissen, und seine Identifikationsnummer (etwa die Telefonnummer oder FAX-Nummer), was es erforderlich macht, daß der Bediener einen aufwendigen Vorgang durchführt. In der Zukunft kann Kommunikation zwischen weiteren verschiedenen Medien (wie etwa Textumwandlung in Sprache, FAX-Umwandlung in Text oder Sprachumwandlung in Text) möglich werden, was den Vorgang weiter verkompliziert.
  • Servicesysteme, die einen Computer in dem oben genannten Multimediakommunikationssystem verwenden, etwa Telemarketing, Bezugnahme auf den Restbestand eines Kontos, Sicherheitsinformationsservice und elektronische Post, werden präsentiert. In diesen Systemen wird die Antwort auf eine telefonische Anfrage mittels Sprache gegeben. Deshalb ist die Sprachantworteinrichtung auf der Computerseite (Servicezentrum) vorgesehen. Als für die Sprachantworteinrichtung bekanntes Sprachantwortsteuersystem ist ein Aufzeichnungseditiersystem, ein Analyse- und Synthesesystem und ein Regelsynthesesystem (rule synthesizing system) bekannt.
  • Das Aufzeichnungseditiersystem zeichnet ein analoges Sprachsignal oder ein PCM-Codierung unterworfenes Sprachsignal auf. Dieses Signal wird reproduziert, in einer vorbestimmten Sequenz ausgegeben und beispielsweise als Zeitansagedienst mittels eines Telefons verwendet. Das Analyse- und Synthesesystem kann beispielsweise ein PARCOR- System, ein LSP-System oder ein und Formant-System sein. Ein Parameter zum Steuern des Stimmerzeugungsmodells, das Anregungsinformation und Sprachtraktinformation umfaßt, wird als Sprachdaten gespeichert und zur Synthetisierung der Stimme verwendet. Es ist damit darin vorteilhaft, daß die Menge gespeicherter Information klein sein kann. Das Regelsynthesesystem synthetisiert eine Stimme, basierend auf Spektraldaten eines jeden Phonemtons und einer Aneinanderfügungsregel zum Verbinden dieser Spektraldaten als Sprachdaten, und kann somit einen beliebigen Antwortsatz bilden.
  • Das Aufzeichnungseditiersystem in dem oben genannten Stand der Technik bildet einen Antwortsatz durch Kombinieren von zuvor aufgezeichneten Kurzsätzen und kann einen Antwortsatz gemäß der Weise, in der sie kombiniert werden, erhalten. Jedoch muß das Aufzeichnungseditiersystem viele kurze Sätze speichern und erfordert somit eine größere Speicherkapazität als andere Systeme. Dieses macht es schwierig, die Anzahl von Antwortsätzen, falls erforderlich, zu vergrößern. Das Analyse- und Synthesesystem ist darin vorteilhaft, daß die Menge von Speicherinformation kleiner sein kann als für den Fall, daß das Sprachsignal mittels einer PCM-Codierung oder einer ADPCM-Codierung gespeichert wird, erfordert jedoch einen größeren Computer zur Durchführung einer Sprachanalyse. Deshalb ist es darin nachteilig, daß die Kosten des Analyseund Synthesesystems hoch sind und nicht sofort Änderungen in der Tonfarbe entsprechen kann. Außerdem hat es den Nachteil, daß die synthetisierte Sprache natürlicher Sprache nicht ähnlich gemacht werden kann. Das Regelsynthesesystem kann nicht ohne weiteres eine Aneinanderfügungsregel erzeugen, damit die Sprache einer natürlichen Sprache ähnelt, und gegenwärtig ist seine Sprachqualität schlechter als die der synthetisierten Sprache gemäß dem obigen Analyse- und Synthesesystem.
  • Wie beschrieben wurde, hat das obige Aufzeichnungs- und Editiersystem, das Analyse- und Synthesesystem und das Regelsynthesesystem Vorteile und Nachteile.
  • In dem Servicesystem, das einen Computer verwendet, wird das Aufzeichnungs- und Editiersystem häufig zur Bereitstellung einer besseren Sprachqualität als andere Systeme verwendet. Beispielsweise werden Kurzsätze als Sprachantworten auf verschiedene Serviceanforderungen voraufgezeichnet und für jeweilige Anforderungen editiert, und die Sprachdaten dieser Kurzsätze werden als Antworten ausgewählt, wenn jeweilige Serviceanforderungen auftreten. Jedoch werden die Antworten gemäß vorbestimmten Sätzen durchgeführt. Somit kann der Sprachservice einschließlich des Namens des Anfragenden und des Namens des gegenseitigen Empfängers nicht durchgeführt werden, weil alle Kombinationen von Sender- und Empfängernamen und feste Nachrichten als Kurzsätze gespeichert werden müßten. Dieses ist unter dem Gesichtspunkt der Speicherkapazität unmöglich.
  • Wenn beispielsweise das FAX-Gerät der gegenüberliegenden Seite defekt oder besetzt ist, werden die übertragenen Daten zeitweilig in dem Computersystem gespeichert. Das Computersystem überträgt dann eine Sprachnachricht an das Telefon der gegenüberliegenden Seite. Jedoch ist die an den Empfänger übertragene Servicenachricht eine feste Nachricht, wie etwa "es wurde ein Fax empfangen". Deshalb besteht das Problem, daß der Sender und der Empfänger des Faksimiles nicht identifiziert werden können.
  • GB-A-1 581 477 offenbart eine Vorrichtung zum Synthetisieren von Sprachnachrichten für computerisierte Mensch/Maschinenschnittstellen. Ein Vokabelspeicher ist zum Speichern von Information vorgesehen, die die Sprache repräsentiert. Ein weiterer Speicher enthält zeitweilig Spezifikationen eines Wortes oder Teiles von Worten als Komponenteninformationseinheiten.
  • EP-A-0 093 022 offenbart ein Verfahren und eine Vorrichtung zum Erzeugen einer Vielzahl von elektrischen Signalen zum Bereitstellen einer Sprachnachrichtenausgabe. Ein Speicher speichert eine Vielzahl von Worten und/oder Phrasen, und es werden eine Vielzahl von Worten aus diesem Speicher unabhängig von elektrischen Signalen ausgewählt, die eine erforderliche Nachricht bestimmen.
  • US-A-4 276 572 offenbart ein Antwortsteuersystem mit einem Speicher. Eine in dem Speicher gespeicherte Tabelle enthält Ansageblöcke zum Erzeugen einer automatischen Antwort.
  • US-A-4 412 099 offenbart eine Sprachsynthetisiervorrichtung mit ersten und zweiten Speichereinrichtungen, die Information bezüglich der Reihenfolge von auszusprechenden Worten und bezüglich der Adresse von Klangdaten enthalten. Eine dritte Speichereinrichtung ist vorgesehen, in welcher die Klangdaten als Parameter vorabgespeichert sind.
  • Offenbarung der Erfindung
  • Eine Aufgabe der Erfindung ist es, eine gewünschte Sprachantwort und ein preisgünstiges System mit einer ökonomischen Struktur zu erzeugen.
  • Gemäß der vorliegenden Erfindung wird diese Aufgabe gelöst, wie in Anspruch 1 definiert.
  • Die erste Speichereinrichtung speichert jeweilige verschiedene Klangstückdaten, wie etwa die Daten mittels ADTCM für jeweilige codierte Satzteileinheiten, wobei ein erster Deskriptor den Klangstückdaten hinzugefügt wird. Der Satzteil, der beispielsweise ein Hauptwort, ein Adjektiv oder ein Verb umfaßt, und ist Ives wurde ein Fax empfangen". Die zweite Speichereinrichtung speichert jeweilige verschiedene Klangstückdaten von codierten Satzteileinheiten, wobei ein zweiter Deskriptor den Klangstückdaten hinzugefügt wird. Der Satzteil umfaßt beispielsweise "von Herrn xxx" und "an Herrn xxx". Die erste Speichereinrichtung speichert einen festen Satzteil (nämlich einen für einen allgemeinen Zweck verwendeten Satzteil), und die zweite Speichereinrichtung speichert beispielsweise ein individuelles Hauptwort, das an den festen Satzteil angefügt wird.
  • Die dritte Speichereinrichtung speichert ein Klangstück, das einen Satz bildet, in Einzelsatzeinheiten durch Verwenden eines ersten Deskriptors und eines zweiten Deskriptors.
  • Die Steuereinrichtung liest eine in der dritten Speichereinrichtung gespeicherte, gewünschte Struktur, wenn ein Sprachausgabe-Anforderungssignal empfangen wird, und liest Klangstückdaten, die von dem ersten Deskriptor bezeichnet werden, der die Satzstruktur bildet, und speichert sie in der ersten Speichereinrichtung. Die Steuereinrichtung liest ebenfalls Klangstückdaten, die mittels der bezeichneten Daten bezeichnet sind, die dem Sprachausgabeanforderungssignal beigefügt sind, und mittels des zweiten Deskriptors bezeichnet werden. Der erste Deskriptor ist ein fester Satzteil und wird bestimmt, wenn eine einzelne Satzstruktur von der dritten Speichereinrichtung gelesen wird, und wird nicht von dem zweiten Deskriptor bestimmt. Der zweite Deskriptor bezeichnet beispielsweise "an Herrn xxx" und "von Herrn xxx", und die Bezeichnungsdaten, die dem Sprachausgabeanforderungssignal angefügt sind, bestimmen, daß xxx gleich OOO ist. Die Bezeichnungsdaten bezeichnen xxx und die Klangstückdaten eines Satzteils einschließlich eines individuellen Hauptwortes, etwa des Namens einer vorbestimmten Person, können erhalten werden. Die Steuereinrichtung ordnet die ausgelesenen Klangstückdaten gemäß einer Satzstruktur an und bildet ein Sprachnachrichtenantwortsignal zur Ausgabe. Deshalb wird als Antwort eine Stimme, wie etwa "ein Faksimile von Herrn OOO an Herrn ΔΔΔ wurde empfangen" erzeugt. Selbst wenn wenige Arten von Klangteilen in der zweiten Speichereinrichtung gespeichert sind, können verschiedene Sätze mittels einer Stimme in einer Kombination von Klangstücken produziert werden.
  • Die dem Klangausgabeanforderungssignal beigefügten Daten bestimmen die zu übertragende Satzstruktur in Übereinstimmung mit einer Bezeichnung, die über eine Leitung von einem Telefonendgerät angebracht wird, etwa eine Bezeichnung von einem Computer oder einer Tastatur. Eine Anforderungssignal- Erzeugungseinrichtung fügt die Daten, die die in der zweiten Speichereinrichtung gespeicherten Klangstückdaten bezeichnen, hinzu, um beispielsweise das individuelle Hauptwort zu bezeichnen. Die Anforderungssignal-Erzeugungseinrichtung empfängt eine spezielle Information, etwa die eines Senders oder eines Empfängers, beispielsweise eine Telefonnummer, und fügt die Daten, die das Klangstück bezeichnen, dem Sprachausgabeanforderungssignal hinzu. Diese Bezeichnung kann von einem Computer oder einer Tastatur leicht vorgenommen werden. Die spezielle Information von der Vermittlungsvorrichtung kann automatisch erzeugt werden, selbst wenn irgendeine Anforderung eingegeben wird.
  • Kurzbeschreibung der Zeichnungen
  • Fig. 1 ist ein strukturelles Blockdiagramm eines herkömmlichen Multimediakommunikationssystems;
  • Fig. 2 zeigt eine Sequenz einer herkömmlichen Multimediakommunikation;
  • Fig. 3 ist ein strukturelles Blockdiagramm eines Multimediakommunikationssystems als ein Ausführungsbeispiel der vorliegenden Erfindung;
  • Fig. 4 ist ein Blockdiagramm eines Beispiels einer Struktur einer Zentrale;
  • Fig. 5 zeigt ein Beispiel einer Struktur einer Datei, die Medieninformation speichert;
  • Fig. 6 zeigt eine detaillierte Struktur einer Medieninformationstabelle;
  • Fig. 7 ist ein Flußdiagramm, das einen Ablauf einer Multimediakommunikation zeigt;
  • Fig. 8 zeigt ein Beispiel einer Struktur einer Informationssteuerstatuseinheit;
  • Fig. 9 ist ein Prozeßflußdiagramm zum Zeigen einer Auswahl von Medieninformation in einer Multimediakommunikation;
  • Fig. 10 ist ein Flußdiagramm, das eine Hinzufügung und eine Entfernung eines Mediums zeigt;
  • Fig. 11 ist ein Blockdiagramm eines Ausführungsbeispiels der vorliegenden Erfindung;
  • Fig. 12 ist ein Flußdiagramm einer Registrierung und einer Löschung;
  • Fig. 13 ist eine Erläuterungsdarstellung einer Datei eines Ausführungsbeispiels der vorliegenden Erfindung; und
  • Fig. 14 ist ein Flußdiagramm eines Ausführungsbeispiels der vorliegenden Erfindung.
  • Beste Ausführungsform der vorliegenden Erfindung
  • Um die vorliegende Erfindung detaillierter zu erläutern, wird auf die beigefügten Zeichnungen Bezug genommen.
  • Fig. 3 ist eine strukturelle Darstellung eines Multimediakommunikationssystems als ein Ausführungsbeispiel der vorliegenden Erfindung. Dieselben Teile wie in Fig. 1 sind mit denselben Bezugszeichen bezeichnet. In Fig. 3 weist die Zentrale 10 eine Informationssteuereinheit 10a auf, eine Mediumumwandlungseinheit 10b und eine Softwareverarbeitungseinheit 10c. Das Informationsnetz 10a schließt eine MPU ein und führt eine Datenübertragungssteuerung zwischen einer Senderseite und einer Empfängerseite durch, zusammen mit der Softwareverarbeitungseinheit 10c. Die Informationssteuereinheit 10a schließt ebenfalls eine Datei ein, die Mediuminformation speichert, sowie eine Informationssteuerstatuseinheit. Die Mediumumwandlungseinheit 10b wandelt das Datenformat von dem Medium der Senderseite in das Datenformat des Mediums der Empfängerseite um.
  • Fig. 4 ist ein Blockdiagramm eines Beispiels einer Struktur der Zentrale 10. Eine Leitungsverbindungseinheit 11 ist mittels einer Leitung mit einer NCU 12 verbunden. Die NCU 12 wandelt Information von der Leitung in ein digitales Signal um und wandelt an die Leitung zu übertragende Information in ein analoges Signal um. Das Modem 13 ist mit einem Endgerät eines Personalcomputers verbunden. Die Informationssteuerstatuseinheit 14 führt eine Beurteilung der Art des Endgerätes durch, das auf diese Zentrale 10 zugreift, und führt eine Beurteilung eines Eingabemediums durch. Eine PB-Erkennungseinheit 15 erkennt ein Tastaturbetätigungssignal (PB) von der Leitung. Die Umwandlungsverarbeitungseinheit 16 wirkt als PCM-CODEC (der ein Sprachsignal einer A/D-Wandlung und einer D/A-Wandlung unterzieht) und führt eine Mediumumwandlung durch. Der Speicher 17 speichert eine Medieninformationsdatei 17a, die eine Benutzer-ID-Tabelle und eine Medieninformationstabelle MPU 18 umfaßt, und führt eine Steuerung des gesamten Vorganges durch.
  • Fig. 5 zeigt eine strukturelle Darstellung eines Beispiels der Datei 17a, die Medieninformation speichert. Die Medieninformation speichernde Datei 17a umfaßt eine Benutzer- ID-Tabelleneinheit (UIDT) und eine Medieninformations- Tabelleneinheit (MDIT) zum Speichern von Medieninformation für jeweilige Benutzer. Vier Bytes sind in der Benutzer-ID- Tabelleneinheit UIDT für einen einzelnen Benutzer vorgesehen.
  • Die Medieninformations-Tabelleneinheit MDIT ist ebenfalls für jeweilige Benutzer vorgesehen.
  • In Fig. 6 zeigt a die Anzahl von besessenen Medien (1 Byte), b bedeutet die Art besessener Medien (1 Byte), c1 ist FAX- Information (1 Byte), c&sub2; ist die FAX-Nummer (10 Bytes), d&sub1; ist Telefoninformation (1 Byte), d&sub2; ist die Telefonnummer (10 Bytes), e ist PC (personal comuter) Information (1 Byte), f ist PCID (10 Bytes). Eine Beziehung zwischen der Art b der besessenen Medien und der gespeicherten Daten (code) ist wie folgt.
  • 00 nur FAX
  • 01 nur Telefon
  • 02 nur PC
  • 03 FAX und Telefon
  • 04 FAX und PC
  • 05 Telefon und PC
  • 06 FAX, Telefon und PC
  • Weil die Medienart abhängig vom Benutzer unterschiedlich ist, bestimmt die Art b der besessenen Medien die Art. FAX- Information c&sub1;, Telefoninformation d&sub1; und PC-Information e sind wie folgt definiert.
  • 0 nicht benutzt
  • 1 benutzt
  • Die letzte Einheit der Medieninformationstabelle wird von der Information der Art der besessenen Medien bestimmt. Der Betrieb des in Fig. 4 gezeigten Schaltkreises, der wie oben beschrieben konstruiert ist, wird unter Bezugnahme auf das in Fig. 7 gezeigte Flußdiagramm erläutert, zur Bezeichnung eines Betriebs einer Multimediakommunikation, und des in Fig. 9 gezeigten Flußdiagramms zum Durchführen einer Informationsauswahl in einer Multimediakommunikation.
  • Bei der Erzeugung eines ausgehenden Gesprächs (11), wenn eine Leitung mit einer Zentrale verbunden wird (S1), erkennt die Informationssteuerstatuseinheit 14, basierend auf dem Informationssteuerstatus, ob ein Telefon oder ein PC zugreift (S2). Um zu beurteilen, welche Art von Endgerät einen Zugriff vornimmt, erkennt die Informationssteuerstatuseinheit 14, ob das Zugriffsmedium auf der Modemseite oder der Leitungsseite ist. Falls es auf der Leitungsseite ist, wird beurteilt, ob es eine Faksimilemaschine oder ein Telefon ist, wodurch das Eingangsmedium beurteilt wird.
  • Fig. 8 zeigt ein Beispiel einer Struktur der Informationssteuerstatuseinheit 14 im Prozeß S2. Ein Signal vom Modem 13 wird in eine Trägererfassungseinheit 14a eingegeben, womit ermöglicht wird, daß der Träger erfaßt wird. Das Signal von der PB-Erkennungseinheit 15 wird an eine Empfangscode/Zeichenumwandlungseinheit 14b eingegeben, wodurch eine Umwandlung von dem empfangenen Code in das Zeichen ermöglicht wird. Der Empfangsstatus 14c wird von diesen Trägererfassungseinheiten 14a und der Empfangscode- Zeichenumwandlungseinheit 14b erhalten.
  • Andererseits wird die Ausgabe von der Trägererfassungseinheit 14a und der Empfangscode/Zeichenumwandlungseinheit 14b in die Medienbeurteilungseinheit 14d eingegeben, und die Medienart wird bestimmt. Die Beurteilung der Medienbeurteilungseinheit 14d ist wie folgt.
  • Text; Dieses wird mittels eines Trägererfassungsbits eines Modems beurteilt.
  • FAX; Dieses wird mittels Erfassens eines 1300 Hz-Signals von einem Modem beurteilt.
  • Sprache; Dieses wird beurteilt abhängig davon, ob die übertragenen Daten die FAX-Sequenz sind oder nicht.
  • Wenn die Beurteilung des Mediums abgeschlossen ist, fügt die folgende Vorspannhinzufügungseinheit 14e einen Vorspann einer Medienerkennung an, die an den Speicher 17 zu übertragen ist. Der Vorspann ist eines von:
  • 00; Text
  • 01; Faksimile
  • 02; Sprache
  • Die Erläuterung wird fortgesetzt unter Rückkehr zur Fig. 7. Wenn der Prozeß S2 die Zugriffsart erkennt und die Zentrale von dem speziellen Medium anfordert, die Sender ID (12) als Antwort auf diese Anforderung einzugeben, gibt der Sender die Sender ID ein (S3, 13). MPU 18 durchsucht die Medieninformationsspeicherdatei 17a basierend auf der eingegebenen ID, führt eine Bezugnahme auf eine Benutzer ID durch und wandelt die eingegebenen Daten in Zeichendaten um, wenn der Sender ein Telefon benutzt (S4). Wenn als Ergebnis die Benutzer ID mit der eingegebenen ID übereinstimmt, verlangt die MPU 18 von der Sender ID die Empfänger ID einzugeben (14).
  • Als Reaktion auf eine Übertragungsanforderung von der MPU 18 wird die Empfänger ID sequentiell von dem senderseitigen Medium eingegeben (S5, 15), und die MPU 18 führt eine Bezugnahme auf eine Empfänger ID durch, mittels Durchsuchens von Medieninformation, die in der Datei 17a gespeichert wird, basierend auf der eingegebenen ID (S4). Wenn als Ergebnis die eingegebene Empfänger ID in der Benutzer ID existiert, fordert die MPU 18 das senderseitige Medium auf, die Übertragungsdatei einzugeben (16) und führt dann eine Suche nach der Personal-Computer ID und der Telefonnummer des Empfängers durch (S6). Sie führt diese Suche unter Bezugnahme auf eine (in Fig. 5 gezeigte) Medieninformationstabelle der Medieninformation speichernden Datei 17a durch.
  • Als Ergebnis gibt das senderseitige Medium die Übertragungsdatei ein, nämlich die Übertragungsdaten (S7, (17) und erzeugt ebenfalls einen ausgehenden Ruf an das empfangsseitige Medium (S8, (18)), und der ausgehende Ruf (18) wird an das Telefon des Empfängers übertragen. Der Empfänger nimmt das Telefon ab, wenn die Klingel läutet (19). Die Zentrale antwortet dem empfangsseitigen Medium mit "dieses ist die Zentrale xxx. Von Herrn xxx wurde eine Nachricht an Herrn OOO empfangen. Welches Medium wünschen Sie als Antwort auf diese Anfrage zu benutzen? (20)". Der Empfänger drückt beispielsweise eine Taste, um die Art von zu empfangenden Medien zu bestimmen (S9, 21). Um einen Empfang unter Verwendung einer Vielzahl von Medien zu ermöglichen, wird eine Antwort in Form von JA oder NEIN vorgenommen.
  • Die Antwort (unter der Annahme, daß der Empfänger ein FAX- Gerät hat, ein Telefon und ein Endgerät eines Personal- Computers) ist wie folgt. "Bitte ein Medium zur Verwendung bei Empfang auswählen. Falls JA, "1" und "#" und falls NEIN, "0" und "#" eingeben. Wünschen Sie, das Signal per FAX zu empfangen? (warten auf eine Eingabe). Wünschen Sie, das Signal über Telefgn zu empfangen? (warten auf eine Eingabe)".
  • Wenn dieser Vorgang abgeschlossen ist, bestimmt die MPU 18 das Medium, basierend auf dem Vorspann der übertragenen Information und wandelt sie in das von dem Empfänger gewünschte Medium um, unter Verwendung der Umwandlungsprozeßeinheit 16 über eine Mediumumwandlung (S10), und gibt eine Übertragungsdatei an das von dem Empfänger gewünschte Medium (S11, 22) aus.
  • Fig. 9 zeigt ein Flußdiagramm einer Medieninformationsauswahl in der oben genannten Multimediakommunikation.
  • Als nächstes werden die Registrierung und die Löschung der Medien für die medieninformationsspeichernde Datei erläutert (wie in 17a in Fig. 4 und in den Fig. 5 und 6 gezeigt). Um eine Medienregistrierung und Löschung unabhängig von Datenübertragung und -empfang durchzuführen, ist die "Medienregistrierung ID" vorgesehen.
  • Fig. 10 zeigt ein Flußdiagramm zum Erläutern einer Hinzufügung und einer Entfernung eines Mediums. Ein ausgehender Ruf wird von der Medienseite an die Zentrale übertragen (31). Die Zentrale fordert eine Benutzer-ID- Eingabe an (32). Wenn das Medium die Benutzer-ID eingibt (33), wird die Benutzer-ID einem Vergleich unterzogen und die Zentrale fordert das Medium auf, den Benutzercode einzugeben, wenn als Ergebnis eines Vergleichs Übereinstimmung erzielt worden ist (34). Der Benutzercode dient zur Verarbeitung einer Hinzufügung und Entfernung des Mediums und der Anderung der ID-Nummer durch Eingeben jeweiliger Codes. Die Zentrale führt eine Anfrage durch, etwa "bitte den Verarbeitungscode eingeben", als die Eingabeanforderung der Benutzungscodes. Der vorbestimmte Code (Benutzungscode) wird somit in Übereinstimmung mit der Registrierung, Löschung und Änderung des Mediums eingegeben (35).
  • Wenn ein neues Medium registriert wird, erzeugt die Zentrale auf die Eingabe des Verarbeitungscodes hin eine Nachricht, etwa "bitte den Code der Art des neu besessenen Mediums eingeben". Als Reaktion auf diese Nachricht gibt der Benutzer den Code durch Erzeugen einer Nachricht ein, etwa "ein neues Medium ist OO und ". Nach Abschluß dieses Prozesses wird die Leitung unterbrochen, und alle Vorgänge sind abgeschlossen (36).
  • In der obigen Erläuterung sind Telefon, Fax und Personal- Computer-Endgerät als Beispiele der Medien erwähnt. Jedoch ist die vorliegende Erfindung nicht auf diese Medien beschränkt, sondern kann auf andere Arten der Endgeräte angewendet werden.
  • Das Ausführungsbeispiel der vorliegenden Erfindung verwendet hauptsächlich ein Telefon als ein Medium. Das Telefon ist das grundlegendste Medium und kann eine Registrierung und Löschung einer ID durchführen. Ein Konversationstyp mittels einer Stimme wird für dieses Medium verwendet, und eine Sprachausgabevorrichtung ist erforderlich, um die Sprache durch Umwandeln eines Objektsatzes in eine Stimme auszugeben. Beispielsweise wird bei der Registrierung des Mediums die Nachricht "ein neues Medium ist OO und " ausgegeben. Die obige Nachricht umfaßt einen festen Satz und einen variablen Satz. Die Antwortsteuerung mittels Sprache im Ausführungsbeispiel der vorliegenden Erfindung wird detailliert erläutert, beginnend mit seinem System.
  • Fig. 11 ist ein Blockdiagramm eines Ausführungsbeispiels der vorliegenden Erfindung. Die Zentrale 111 führt einen Textversand für einen Personal-Computer 115 oder eine Textverarbeitungseinrichtung durch, einen Sprachversand für Telefone 117 und 119, einen Faksimileversand für eine Faksimilevorrichtung 118, einen Anzeigedienst, verschiedene Informationsanzeigedienste, Umwandlung von Text in Faksimilesystem und eine Umwandlung yon Text in Sprache und einen Posteingangsbenachrichtigungsdienst zum Anzeigen der Ankunft der Post mittels Sprache. Diese Dienste werden von einem in der Zentrale 111 vorgesehenen Computer gesteuert. Die zu speichernden Daten werden in der Datei 113 gespeichert und nach Bedarf ausgelesen. In diesen verschiedenen Arten von Diensten wird eine Sprachantwort unter Verwendung der Datei 113 für die Telefone 117 und 119 von der Zentrale 111 durchgeführt.
  • Eine Registrierung und Löschung von Klangstückdaten in der Datei 113 wird beispielsweise mittels des Personal-Computers 115 und des Telefons 117 durchgeführt. Das Endgerät des in dem Vermittlungsnetz 114 eingeschlossenen Dienstanbieters kann die Klangstückdaten registrieren, um verschiedene Anleitungen in der Zentrale 111 zu bilden.
  • Fig. 12 zeigt ein Flußdiagramm einer Registrierung und Löschung in der Zentrale 111. Der in dem Vermittlungsnetz 114 enthaltene Personal-Computer 115 sendet einen ausgehenden Anruf an die Zentrale 111. Die Zentrale 111 erfaßt dann einen eingehenden Anruf (S101) und wird mit dem Personal-Computer 115 verbunden. Diese Verbindung wird dadurch durchgeführt, daß das Vermittlungsnetz in die Lage versetzt wird, das ausgegebene PB-Signal (die Telefonnummer der Zentrale) zu erfassen, beispielsweise von der mit dem Modem 116 ausgestatteten MCU, um die Zentrale zu rufen, und es der Zentrale 111 ermöglicht wird, Klingeln zu erfassen, und die MCU in der Zentrale 111 in die Lage versetzt wird, einen Gleichstromkreis zu schließen.
  • Die Zentrale 111 gibt unter Steuerung des Computers 112 einen Menüschirm aus (S102).
  • Das Menü wird von dem Personal-Computer 115 angezeigt. Diese Übertragung wird mittels einer Kommunikation eines Modems über eine Leitung durchgeführt. Ein Bediener gibt eine Anforderung einer Registrierung oder Löschung gemäß dem Inhalt der Anzeige ein. Der Computer 112 der Zentrale 111 empfängt die von dem Bediener eingegebene Anforderung an eine Umwandlungsvorrichtung und wird der Zentrale 111 hinzugefügt. Somit beurteilt der Computer 112 in der Zentrale 111 diese Anforderung (S103). Wenn diese Anforderung die Registrierungsanforderung ist, wird die Führung der Anforderung des ausgehenden Telefongesprächs angezeigt (S104), d.h. das Telefon 117 bezeichnet ein ausgehendes Gespräch. Außerdem wird eine Registrierungsanleitung von dem Computer 112 der Zentrale 111 bezeichnet, eingegeben zu werden (S105) und bezeichnet (S106) eine Starttaste der Spracheingabe und eine Stoptaste der Spracheingabe (die Taste, wie etwa * und # des Telefons 117). Deshalb gibt ein Bediener Sprache in ein Telefon 117 in Einheiten von Satzteilen ein, die zu registrieren sind, und der Computer 112 der Zentrale 111 führt einen PCM-, DPCM- und ADPCM- Codiervorgang durch. Auf diese Codierung hin werden digitale Sprachdaten erhalten (S107), der Deskriptor wird den digitalen Sprachdaten mittels eines Sprachdatenmanagementprozesses (S108) hinzugefügt, und die digitalen Sprachdaten werden in der Datei 113 gespeichert. Der Deskriptor wird ausgewählt, vollständig verschieden von denjenigen zu sein, die den bereits registrierten Klangstückdaten beigefügt sind.
  • Der obige Vorgang betrifft ein analoges Umwandlungsnetz. Wenn das Vermittlungsnetz 114 ein digitales Vermittlungsnetz ist, werden digitale Daten eines Klangstückes, das von dem Telefon digitalisiert wird, komprimiert, codiert und in der Datei 113 durch Zufügen eines Deskriptors zu den digitalen Daten in derselben Weise, wie oben genannt, registriert.
  • Im Fall einer Löschungsanforderung werden die Inhalte der Datei 113 unter der Steuerung des Computers 112 übertragen, und es wird eine Liste von Daten, die bereits in dem Personal-Computer 115 registriert sind, zur Anzeige auf den Personal-Computer (S109) übertragen, und außerdem kann eine Löschungssatzstruktur-Nummerneingabebezeichnung ausgeführt werden (S110). Wenn eine Löschungssatzstrukturnummer von dem Personalcomputer 115 über ein Vermittlungsnetz eingegeben wird, löscht der Computer 112 Klangstückdaten von der Löschungssatzstruktur-Nummerndatei 113, basierend auf dem Klangstückdatenmanagementprozeß (S111). Wie oben beschrieben, wird eine Operation des Deskriptors und eine Registrierung und Löschung der Daten in der Datei 113 in der Zentrale 111 durchgeführt.
  • Die vorliegende Erfindung betrifft Sprache und die Zentrale 111 unterstützt elektronische Post und Faksimilepost. Der Betrieb dieser Post wird später erläutert. Als nächstes wird eine Datei zum Speichern der Klangstückdaten erklärt.
  • Fig. 13 ist eine erläuternde Darstellung der Datei 113 der Zentrale 111. Eine Datei bezüglich der Daten umfaßt eine Anleitungsstruktursatzdatei 113a, eine Klangstückdatendatei 113b und eine Variabeln definierende Datei 113c. Die Anleitungsstruktursatzdatei 113a umfaßt eine Vektortabelle und Struktursätze K1-Kn. Die Vektortabelle umfaßt eine Vektoradressennummer No.K1-No.Kn. Die Struktursätze K1-Kn umfassen eine Kombination von Deskriptoren, die einen Struktursatz bilden, und umfaßt eine Struktursatznummer, Datenlänge, einen Textcode und Deskriptoren G1-GM. Die Datenlänge zeigt die Anzahl von Bytes des Textcodes und Deskriptor, und der Textcode drückt den Inhalt des Struktursatzes entsprechend der Nummer des Struktursatzes unter Verwendung eines Zeichens aus, und Deskriptoren G1-GM dienen der Bezeichnung der Nummer der Klangstückdaten.
  • Die Klangstückdaten 113b umfassen eine Vektortabelle und Klangstücke O1-Om. Die Vektortabelle bildet Vektoradressen No.0-No.Om. Die Klangstücke O1-Om sind aus den Nummern der Klangstücke, Datenlänge, Textcode und binären Klangstückdaten gebildet. Die Datenlänge zeigt die Anzahl von Bytes des Textcodes und der binären Klangstückdaten. Der Textcode drückt den Inhalt des Klangstückes unter Verwendung eines Zeichens aus. Die binären Klangstückdaten umfassen die beispielsweise mittels ADPCM-Codierung codierten Klangstückdaten.
  • Die Variablendefinitionsdatei 113c umfaßt eine Vektortabelle und Variablendefinition T1-Tk. Die Vektortabelle ist aus den Vektoradressen von No.T1-No.Tk gebildet. Die Variablendefinitionen T1-Tk sind aus der Nummer der Variablen, Datenlänge, der Nummer von Klangstücken und der Nummer von Klangstücken des Versatzes 0 gebildet. Die Datenlänge zeigt däe Anzahl von Bytes der Klangstücknummer des Versatzes 0 und die Nummer des Klangstücks zeigt die Nummer des Klangstücks, das unter Verwendung des Wertes der Variablen variiert wird. Die Klangstücknummer des Versatzes 0 bezeichnet die Nummer von anfänglichen Klangstückdaten, die von dem Wert der Variablen bestimmt werden.
  • Im Fall eines Struktursatzes mit der Struktursatznummer K10 "die Ankunft von Post wird angezeigt", werden die Struktursatznummer K10, die Datenlänge, der Textcode "die Ankunft von Post wird angezeigt" und der Deskriptor %10 in einem Gebiet einer Struktursatznummer k10 der Anleitungsstruktursatzdatei 113a gespeichert. Der Textcode ist ein Zeichencode, der zur Anzeige auf dem Personalcomputer 115 benutzt wird. Die Klangstücknummern 010, die Datenlänge, der Textcode "die Ankunft von Post wird angezeigt" und ein codierter binärer Klangstückcode werden in einem Gebiet der Klangstücknummer 010 in der Klangstückdatendatei 113b gespeichert.
  • Beispielsweise sind im Falle eines Struktursatzes K11 die Daten innerhalb der Markierung < > variabel, und der Inhalt ist "< der Name des Empfängers> < der Name des Senders> , < das Postmedium> wird empfangen". Die Struktursatznummer K11, die Datenlänge, der Textcode "< der Name des Empfängers> < der Name des Senders> < Postmedium> wird empfangen" und die Deskriptoren $10, $11, $12 und %11 werden in einem Gebiet des Struktursatzes K11 der Anleitungsstruktursatzdatei 113a gespeichert. Die Nummer der Variablen, Datenlänge, die Nummer des Klangstückes und die Klangstücknummer mit Versatz 0 werden in einem Gebiet der Variablendefinitionen T10, T11 und T12 in der Variablendefinitionsdatei 113c gespeichert. Die Klangstückdaten gemäß der Klangstücknummer des Versatzes wird in der Klangstückdatendatei 113b gespeichert. Das heißt, der Name des Empfängers und der Name des Senders werden beispielsweise als Klangstückdaten registriert.
  • In der Variablendefinition wird die Objektnummer der Klangstücknummer des Versatzes 0 gemäß einem Auftreten der jeweiligen Anforderungen hinzuaddiert, wodurch eine Objektklangstücknummer bestimmt wird, so daß jeweilige Objektsprache produziert wird.
  • Fig. 14 ist ein Flußdiagramm eines Ausführungsbeispiels der vorliegenden Erfindung. Wenn eine Sprachantwort unter der Steuerung des Computers 112 der Zentrale 111 durchgeführt wird, und die Struktursatznummer entsprechend einem Zustand, etwa einem Kommunikationsbeginn, eine Benachrichtigung eines Posteingangs, eine Bezeichnung einer Postübertragung und ein Abschluß davon, werden beispielsweise erhalten (S112). Ein Struktursatz wird aus der Anleitungsstruktursatzdatei 113a in Übereinstimmung mit der Nummer von Struktursätzen ausgelesen (S113). Beispielsweise wird für die Struktursatznummer K11 im Zustand der Benachrichtigung des Posteingangs die Vektortabelle der Anleitungsstruktursatzdatei 113a in Bezug genommen, und die Inhalte einschließlich des Struktursatzes mit einer Kombination von Deskriptoren werden ausgelesen.
  • Die Struktur wird analysiert (S114) und es wird bestimmt, ob die Variable in dem Deskriptor (S115) eingeschlossen ist. Für die Strukturnummer K11 umfaßt ein Deskriptor eine Kombination von $10, $11, $12 und %11, und weil die Variable $ enthalten ist, wird die Vektortabelle mittels der Variablennummer- Definitionsdatei 113c in Bezug genommen, und die Klangstücknummer entsprechend der Nummer der Variablennummer wird aus dem Gebiet zum Definieren der Variablen ausgelesen (S116). Beispielsweise, wie in Fig. 14 gezeigt, ist für die Nummer T10 der Variablen die Anzahl von Klangstücken 21, und die Klangstücknummer ist %1000 (die Klangstücknummer des Versatzes 0). Für die Nummer der Variablen ist die Klangstücknummer 21, und die Nummer des Klangstücks ist %lloo. Für die Nummer 12 der Variablen ist die Klangstücknummer 7, und die Nummer des Klangstückes ist %1200.
  • Durch Wiederholen des oben genannten Prozesses S116 wird eine wiederholte Beurteilung vorgenommen, ob eine Analyse all der Deskriptoren abgeschlossen ist (S117). Für einen Abschluß wird ein fester Struktursatz erzeugt (S118). Wenn die Variable nicht eingeschlossen ist, wird der feste Struktursatz nach Abschluß einer Analyse all der Deskriptoren erzeugt (S118). Für die oben genannte Stuktursatznummer K11 wird in dem in Fig. 14 bezeichneten Puffer BX ein fester Struktursatz mit einer Kombination der Klangstücknummern erzeugt. Der Puffer BX ist beispielsweise innerhalb eines Speichers in dem Computer 112 vorgesehen.
  • Klangstückdaten werden aus der Klangstückdatendatei in Übereinstimmung mit dem festen Struktursatz ausgelesen und in dem Puffer durch Anfügen des Sprachvorspanns an den Kopf aller dieser Klangstückdaten gespeichert (S119) (die Klangstückdaten entsprechend der Nummer des Klangstücks %1010, %1115, %1201 und %1111 wird aus der Klangstückdatendatei ausgelesen und in dem Puffer gespeichert). Beispielsweise wird im Fall von "ein Fax wurde von Herrn xxx an Herrn xxx gesendet" wird "von Herrn xxx" aus der Variablendefinitionsdatei erhalten, und "von Herrn ooo" wird von der Klangstücknummer des Versatzes 0 erhalten, nämlich beispielsweise der Klangstücknummer %1010 aus %1000. Die unteren 2 Stellen "10" von %1010 werden von der Quellnummer erhalten, von welcher das Fax übertragen wird. Das "an Herrn xxx" wird ebenfalls in derselben Weise behandelt. Das "an Herrn " wird von der Klangstücknummer des Versatzes 0 erhalten, nämlich beispielsweise der Klangstücknummer von %1111 aus 1100. Auch in diesem Fall stellen die unteren zwei Stellen, 15 von %1115, den Wert dar, der von der Nummer erhalten wird, mittels welcher ein Faksimile empfangen wird. "Faksimile" wird von der Klangstücknummer des Versatzes 0 erhalten, d.h. der Klangstücknummer von %1201 aus %1200. Die unteren 2 Stellen "01" dieser Nummer werden mittels des Quellenprozesses bestimmt, durch welchen die Anforderung erzeugt wird, wenn ein Fax von einer Person an eine andere Person in der Zentrale 111 gespeichert wird.
  • Die Inhalte dieses Puffers werden an eine Leitung ausgegeben oder in einer Datei gespeichert (S120). Wenn sie an eine Leitung ausgegeben werden, wird eine Sprachantwort, etwa "von Herrn ooo (Name des Senders: Klangstücknummer %1115) wurde Fax per Post (Postmedium: Klangstücknummer %1201) an Herrn (Name des Empfängers: Klangstücknummer %1010) empfangen" von der Zentrale 111 durch das Vermittlungsnetz 114 an das Telefon 117 (oder 119) ausgeführt.
  • Wenn die Gesamtanzahl von Klangstückdaten im Vergleich mit der Kapazität des Puffers groß ist, werden unterteilte Prozesse mittels einer Datenkette durchgeführt. Deshalb wird die Existenz der Datenkette bestimmt (S121). Wenn die Datenkette existiert, schreitet der Prozeß voran zu Schritt (S119), und wenn die Datenkette nicht existiert, ist der Prozeß zu Ende.
  • Wie oben beschrieben, werden die Klangstückdaten, welchen der Deskriptor hinzugefügt ist, in der Datei gespeichert, und die Klangstückdaten werden in Übereinstimmung mit dem in Fig. 3 gezeigten Flußdiagramm unter Verwendung des Personal- Computers 115 und des Telefons 117 als Endgeräte registriert oder gelöscht. In diesem Fall werden die zu registrierenden Klangstückdaten mit den Klangstückdaten verglichen, die in der Datei 113 registriert worden sind, beispielsweise bezüglich ihres Codes, und nur, wenn sie nicht identisch sind, werden die zu registrierenden Klangstückdaten tatsächlich in der Datei 113 registriert, wodurch eine doppelte Registrierung vermieden wird. Die Zentrale 111 bildet einen Struktursatz, der beispielsweise mittels einer Kombination von Deskriptoren erhalten wird, für das Telefon 119, und die Klangstückdaten werden aus der Datei 113 in Übereinstimmung mit einem Deskriptor ausgelesen, wodurch ermöglicht wird, daß die Klangstückantwort mit einer Tonqualität durchgeführt wird, die der einer tatsächlichen Stimme ähnelt.
  • In dem oben genannten Ausführungsbeispiel der vorliegenden Erfindung speichert die Klangstückdatendatei sequentiell das Klangstück, beginnend beispielsweise mit %10, und speichert jeweilige Klangstücke, etwa %1000 ..., und %1100 ..., die ihm folgen. Jedoch ist die vorliegende Erfindung nicht auf diese Klangstücke beschränkt. Es existiert ein Fall, in welchem das Klangstück nach %1000 manchmal abhängig von dem Gebiet von dem Benutzer geändert wird, und kann als separate Datei in einer Einheit jeweiliger Variablen vorgesehen sein.
  • Das oben genannte Vermittlungsnetz 114 kann aus einem allgemein erhältlichen Vermittlungsnetz gebildet sein, jedoch verwaltet der Vermittlungsnetzmanager beispielsweise eine Telefonnummer (beispielsweise die Nummer einer internen Leitung). Wenn die Nummer des Senders von der Vermittlungsvorrichtung erfaßt wird, und wenn die Nummer der Gegenstelle (des Empfängers) eingegeben wird, wird die Nummer ebenfalls gespeichert. Wenn die Zentrale 111 einen Service durchführt, kann diese Information, nämlich speziell eine Nachricht erzeugen, wie etwa "ein Faksimile ist von Herrn ooo an Herrn eingetroffen". Durch Speichern ist die Verwendung eines Codes einer Leitung und gemäß jeweiligen Codes, die Daten betreffen, das verbundene Medium, die Bezeichnung des Mediums, wie oben beschrieben, nicht erforderlich, und die Nachricht kann vollständig automatisch ausgegeben werden.
  • Mögliche Anwendung der vorliegenden Erfindung
  • Gemäß der vorliegenden Erfindung werden die Art des empfangsseitigen Mediums und die ID der Gegenstelle (Empfänger) erkannt und dann können die gewünschten Medien durch Telefonieren mit der Empfangsseite ausgewählt werden. Wenn das gewünschte Medium bestimmt ist, wird die Datendatei von dem sendenden Medium einer Formatumwandlung (Medienumwandlung) in ein Format unterzogen, das für das empfangsseitige Medium geeignet ist. Dann wird der Informationstransfer durchgeführt. Deshalb kann das senderseitige Medium die Datenübertragung durchführen, ohne die Medienarten auf der Empfangsseite zu erkennen, wodurch ein Multimediakommunikationssystem bereitgestellt wird. Des weiteren fügt die vorliegende Erfindung den Klangstückdaten der Einheit des Satzstückes, der mittels DPCM, ADPC als Beispiel codiert ist, einen Deskriptor bei und registriert sie in der Datei. Die Steuereinheit, die beispielsweise einen Computer umfaßt, bildet einen Antwortsatz als eine Kombination von Deskriptoren und führt eine Sprachantwort durch Lesen der Klangstückdaten aus der Datei in Übereinstimmung mit diesen Deskriptoren durch. Dadurch verwaltet sie die Datei basierend auf jeweiligen Satznummern und Klangstücknummern. Selbst während das System arbeitet, ist deshalb eine zusätzliche Registrierung oder Löschung der Klangstückdaten möglich, beispielsweise durch Verwenden eines Personal-Computers und eines Telefons. Weil jeweilige verschiedene Klangstückdaten registriert sind, wird es unnötig, eine Datei mit besonders großer Kapazität bereitzustellen, und es ist einfach, ein geeignetes Sprachantwortsystem zu bilden.
  • Weiter ist es möglich, einen beliebigen Antwortsatz unter Verwendung eines Programms zu bilden, und es ist möglich, eine Stimme basierend auf dem gespeicherten und codierten Klangstück mit einer Qualität zu reproduzieren, die der einer tatsächlichen Stimme ähnelt.

Claims (6)

1. Antwortsteuerungssystem, mit
- ersten Speichereinrichtungen (113b) zum Erhalten von ersten codierten Klangstückdaten, zum Anfügen eines ersten Deskriptors an jeweilige codierte erste Klangstückdaten, welche Einheiten eines Satzteils darstellen, und zum Speichern des ersten Deskriptors und entsprechender codierter erster Klangstückdaten,
- zweiten Speichereinrichtungen (113b) zum Erhalten zweiter codierter Klangstückdaten, zum Anfügen eines zweiten Deskriptors an jeweilige codierte zweite Klangstückdaten, die Einheiten eines Satzteils darstellen, und zum Speichern des zweiten Deskriptors und entsprechender codierter zweiter Klangstückdaten,
- dritten Speichereinrichtungen (113a) zum Benutzen der in den ersten und zweiten Speichereinrichtungen gespeicherten, zweiten Deskriptoren, eine Vielzahl von Satzstrukturen zu erzeugen, die einen Satz bilden, und zum Speichern der Satzstrukturen, und
- Steuereinrichtungen (111) zum Empfangen eines Sprachausgabeanforderungssignals, einschließlich Bezeichnungsdaten, zum Lesen einer Satzstruktur von den dritten Speichereinrichtungen gemäß dem Sprachausgabeanforderungssignal, zum Auswählen unter den ersten Klangstückdaten und den zweiten Klangstückdaten basierend auf den Bezeichnungsdaten, Sprachdaten zu bilden, und zum Ausgeben eines Sprachantwortsignals, welches die Sprachdaten anzeigt.
2. Antwortsteuerungssystem nach Anspruch 1, gekennzeichnet durch
- ein Telefonendgerät zum Übertragen von Bezeichnungsdaten über eine Leitung;
- Sprachausgabeanforderungssignal- Erzeugungseinrichtungen (111) zum Bestimmen einer Satzstruktur basierend auf den Bezeichnungsdaten, und Nutzen der Bezeichnungsdaten, in der zweiten Speichereinrichtung gespeicherte Klangstückdaten zu bezeichnen, um ein Sprachausgabeanforderungssignal zu erzeugen.
3. Antwortsteuerungssystem nach Anspruch 2, dadurch gekennzeichnet, daß das Telefongerät ein Modem (116) und eine mit dem Modem (116) verbundene Computervorrichtung (115) umfaßt, um dem Servicesystem über die Leitung digitale Daten bereitzustellen, und die Sprachausgabeanforderungssignal-Erzeugungseinrichtung (111) umfaßt:
- Einrichtungen zum Erzeugen des Sprachausgabeanforderungssignals von den digitalen Daten durch Anfügen der Satzstruktur an die Bezeichnungsdaten.
4. Antwortsteuerungssystem nach Anspruch 2, dadurch gekennzeichnet, daß das Telefongerät (119) eine Taste umfaßt, die in der Lage ist, ein Tastensignal zu erzeugen, und die Sprachausgabeanforderungssignal- Erzeugungseinrichtung umfaßt:
- Einrichtungen zum Anfügen von wenigstens einer der Satzstrukturen an die Bezeichnungsdaten, um das Sprachausgabeanforderungssignal basierend auf dem von der Taste ausgegebenen Tastensignal zu erzeugen.
5. Antwortsteuerungssystem nach Anspruch 1, gekennzeichnet durch
- Anforderungssignalerzeugungseinrichtungen (111) zum Bestimmen einer Satzstruktur basierend auf der speziellen Information, die von einem Endgerät ausgegeben wird, das mit einem Computer eines Servicesystems entsprechend einer Vermittlungsvorrichtung (114) verbunden ist, die mittels einer Leitung mit dem Computer des Servicesystems verbunden ist, und zum Anfügen von Bezeichnungsdaten an die ersten Klangstückdaten, um ein Sprachausgabeanforderungssignal zu erzeugen.
6. Antwortsteuerungssystem nach Anspruch 5, dadurch gekennzeichnet, daß die Vermittlungsvorrichtung (114) die spezielle Information einschließlich einer Übertragungsnummer als Anforderungsquellnummer und einer Empfangsnummer als eine Übertragungszielnummer ausgibt.
DE68928298T 1988-06-14 1989-06-14 Antwortregelungssystem Expired - Lifetime DE68928298T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP14465088 1988-06-14
JP1044128A JP2721003B2 (ja) 1989-02-23 1989-02-23 マルチメディア通信方法
PCT/JP1989/000594 WO1989012938A1 (en) 1988-06-14 1989-06-14 Response control system

Publications (2)

Publication Number Publication Date
DE68928298D1 DE68928298D1 (de) 1997-10-09
DE68928298T2 true DE68928298T2 (de) 1998-01-29

Family

ID=26383979

Family Applications (1)

Application Number Title Priority Date Filing Date
DE68928298T Expired - Lifetime DE68928298T2 (de) 1988-06-14 1989-06-14 Antwortregelungssystem

Country Status (4)

Country Link
US (1) US5146488A (de)
EP (1) EP0378694B1 (de)
DE (1) DE68928298T2 (de)
WO (1) WO1989012938A1 (de)

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04168865A (ja) * 1990-11-01 1992-06-17 Hitachi Ltd コードデータとイメージデータの合成出力方式
US5548789A (en) * 1991-01-24 1996-08-20 Canon Kabushiki Kaisha Message communication processing apparatus for selectively converting storing and transmitting messages of different lengths
US5428457A (en) * 1991-06-18 1995-06-27 Matsushita Graphic Communication Systems, Inc. Image communication apparatus
JP3367976B2 (ja) 1991-11-07 2003-01-20 キヤノン株式会社 データ処理装置及び方法
JP2643664B2 (ja) * 1991-07-19 1997-08-20 富士通株式会社 ファクシミリメール配送方式
US5530740A (en) * 1991-10-28 1996-06-25 Contigram Communications Corporation System and method for integrating voice, facsimile and electronic mail data through a personal computer
US5349636A (en) * 1991-10-28 1994-09-20 Centigram Communications Corporation Interface system and method for interconnecting a voice message system and an interactive voice response system
US5381527A (en) * 1991-11-13 1995-01-10 International Business Machines Corporation System for efficient message distribution by succesively selecting and converting to an alternate distribution media indicated in a priority table upon preferred media failure
US5802314A (en) * 1991-12-17 1998-09-01 Canon Kabushiki Kaisha Method and apparatus for sending and receiving multimedia messages
BR9207033A (pt) * 1992-01-09 1995-12-05 Supra Prod Inc Sistema de entrada de segurança com radiocomunicação
US5396536A (en) * 1992-06-23 1995-03-07 At&T Corp. Automatic processing of calls with different communication modes in a telecommunications system
DE4230277A1 (de) * 1992-09-10 1994-03-17 Philips Patentverwaltung Auskunftsvorrichtung
EP0586954B1 (de) * 1992-09-11 2004-11-03 Siemens Information & Communication Networks, Inc. Techniken zur Erzeugung von Personalcomputeranzeigen und gedruckten Transkripten aus Sprachpostnachrichten
US5479411A (en) * 1993-03-10 1995-12-26 At&T Corp. Multi-media integrated message arrangement
JP3241481B2 (ja) * 1993-04-15 2001-12-25 富士通株式会社 異機種通信端末間相互接続サービス方式並びにこの異機種通信端末間相互接続サービス方式に使用される通信ノード装置及び通信端末
JPH0787221A (ja) * 1993-09-14 1995-03-31 Sony Corp 電話装置、情報処理装置及び情報通信端末
US5524137A (en) * 1993-10-04 1996-06-04 At&T Corp. Multi-media messaging system
US5812865A (en) * 1993-12-03 1998-09-22 Xerox Corporation Specifying and establishing communication data paths between particular media devices in multiple media device computing systems based on context of a user or users
US5638412A (en) * 1994-06-15 1997-06-10 Qualcomm Incorporated Method for providing service and rate negotiation in a mobile communication system
JPH0818717A (ja) * 1994-06-29 1996-01-19 Fuji Xerox Co Ltd ファクシミリ電子メール変換システム
US5537466A (en) * 1994-08-04 1996-07-16 British Telecommunications, Plc. Intelligent communications networks
CA2195666C (en) * 1994-08-04 1999-08-17 Andrew Paxton Taylor Intelligent communications networks
US5826241A (en) 1994-09-16 1998-10-20 First Virtual Holdings Incorporated Computerized system for making payments and authenticating transactions over the internet
US5530951A (en) * 1994-12-07 1996-06-25 Argintar; Donald Telephone line sharing apparatus
JP3160177B2 (ja) 1995-03-06 2001-04-23 松下電器産業株式会社 ファクシミリ型電子メール装置
US6885470B1 (en) 1995-03-06 2005-04-26 Matsushita Electric Industrial Co., Ltd. Electronic mail system
US6778287B1 (en) 1995-03-06 2004-08-17 Matsushita Electric Industrial Co., Ltd. Electronic mail system
GB2316588B (en) 1995-05-08 2000-05-31 Compuserve Inc Rules based electronic message management system
JP3504036B2 (ja) * 1995-08-07 2004-03-08 富士通株式会社 Faxメール装置
US6353611B1 (en) * 1995-11-27 2002-03-05 At&T Corp. Call waiting feature for a telephone line connected to the internet
GB9603582D0 (en) 1996-02-20 1996-04-17 Hewlett Packard Co Method of accessing service resource items that are for use in a telecommunications system
US5724410A (en) * 1995-12-18 1998-03-03 Sony Corporation Two-way voice messaging terminal having a speech to text converter
US5781614A (en) * 1996-01-19 1998-07-14 Lucent Technologies Inc. Message retrieval via alternative access
JP3651508B2 (ja) * 1996-01-31 2005-05-25 ソニー株式会社 情報処理装置および情報処理方法
US6069890A (en) 1996-06-26 2000-05-30 Bell Atlantic Network Services, Inc. Internet telephone service
US6154445A (en) 1996-04-18 2000-11-28 Bell Atlantic Network Services, Inc. Telephony communication via varied redundant networks
US5872926A (en) * 1996-05-31 1999-02-16 Adaptive Micro Systems, Inc. Integrated message system
US6034970A (en) * 1996-05-31 2000-03-07 Adaptive Micro Systems, Inc. Intelligent messaging system and method for providing and updating a message using a communication device, such as a large character display
JP3786708B2 (ja) * 1996-06-18 2006-06-14 クランベリー、プロパティーズ、リミテッド、ライアビリティー、カンパニー 音声、ファクシミリ、電子メール統合メッセージ・システム
US6005870A (en) * 1996-08-12 1999-12-21 At&T Corp. Method for called party control of telecommunications network services
US5903877A (en) * 1996-09-30 1999-05-11 Lucent Technologies Inc. Transaction center for processing customer transaction requests from alternative media sources
US6016307A (en) 1996-10-31 2000-01-18 Connect One, Inc. Multi-protocol telecommunications routing optimization
US6473404B1 (en) 1998-11-24 2002-10-29 Connect One, Inc. Multi-protocol telecommunications routing optimization
US6754181B1 (en) 1996-11-18 2004-06-22 Mci Communications Corporation System and method for a directory service supporting a hybrid communication system architecture
US6335927B1 (en) 1996-11-18 2002-01-01 Mci Communications Corporation System and method for providing requested quality of service in a hybrid network
US7145898B1 (en) 1996-11-18 2006-12-05 Mci Communications Corporation System, method and article of manufacture for selecting a gateway of a hybrid communication system architecture
US6690654B2 (en) 1996-11-18 2004-02-10 Mci Communications Corporation Method and system for multi-media collaboration between remote parties
US6078582A (en) 1996-12-18 2000-06-20 Bell Atlantic Network Services, Inc. Internet long distance telephone service
US6731625B1 (en) 1997-02-10 2004-05-04 Mci Communications Corporation System, method and article of manufacture for a call back architecture in a hybrid network with support for internet telephony
JP3244014B2 (ja) * 1997-02-14 2002-01-07 日本電気株式会社 マルチメディア変換装置および変換方式
US6137869A (en) 1997-09-16 2000-10-24 Bell Atlantic Network Services, Inc. Network session management
US6574216B1 (en) 1997-03-11 2003-06-03 Verizon Services Corp. Packet data network voice call quality monitoring
US6870827B1 (en) 1997-03-19 2005-03-22 Verizon Services Corp. Voice call alternative routing through PSTN and internet networks
US6292479B1 (en) 1997-03-19 2001-09-18 Bell Atlantic Network Services, Inc. Transport of caller identification information through diverse communication networks
US6546005B1 (en) 1997-03-25 2003-04-08 At&T Corp. Active user registry
US6023700A (en) * 1997-06-17 2000-02-08 Cranberry Properties, Llc Electronic mail distribution system for integrated electronic communication
US6640242B1 (en) 1999-01-29 2003-10-28 Microsoft Corporation Voice access through a data-centric network to an integrated message storage and retrieval system
US6263064B1 (en) 1999-01-29 2001-07-17 International Thinklink Corporation Centralized communication control center for visually and audibly updating communication options associated with communication services of a unified messaging system and methods therefor
US7499875B1 (en) 2000-03-17 2009-03-03 Ebay Inc. Method and apparatus for facilitating online payment transactions in a network-based transaction facility using multiple payment instruments
GB2377059A (en) 2000-03-17 2002-12-31 Ebay Inc Method and apparatus for facilitating online payment transactions in a network based transaction facility using multiple payment instruments
US8706618B2 (en) 2005-09-29 2014-04-22 Ebay Inc. Release of funds based on criteria
US6442250B1 (en) * 2000-08-22 2002-08-27 Bbnt Solutions Llc Systems and methods for transmitting messages to predefined groups
CN1711744B (zh) * 2002-11-12 2012-06-20 汤姆森特许公司 产生和播放指示媒介终端适配器提供状态的诊断消息的方法和装置
CN100452892C (zh) * 2005-07-11 2009-01-14 华为技术有限公司 对会话进行放音的方法
US8238538B2 (en) 2009-05-28 2012-08-07 Comcast Cable Communications, Llc Stateful home phone service

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5334402A (en) * 1976-09-11 1978-03-31 Japanese National Railways<Jnr> Automatic broadcast guide system enabling interrupt of broadcast message or shortening
GB1581477A (en) * 1978-05-19 1980-12-17 Post Office Apparatus for synthesising verbal announcements
JPS56161600A (en) * 1980-05-16 1981-12-11 Matsushita Electric Ind Co Ltd Voice synthesizer
JPS5876256U (ja) * 1981-11-16 1983-05-23 岩崎通信機株式会社 非常通報装置
GB2119208B (en) * 1982-04-28 1986-01-22 Gen Electric Co Plc Method of and apparatus for generating a plurality of electric signals
JPS60162332A (ja) * 1984-02-02 1985-08-24 Toshiba Corp 複合メ−ル装置
JPS6118998A (ja) * 1984-07-05 1986-01-27 日本電気株式会社 音声応答編集方式
JPS62112456A (ja) * 1985-11-12 1987-05-23 Nec Corp 統合メ−ル装置接続方式
JPS62112453A (ja) * 1985-11-12 1987-05-23 Nec Corp 統合メ−ル装置接続方式
US4910765A (en) * 1986-04-30 1990-03-20 Ricoh Company, Ltd. Communication terminal apparatus having a relaying function
US4748618A (en) * 1986-05-21 1988-05-31 Bell Communications Research, Inc. Telecommunications interface
US4837798A (en) * 1986-06-02 1989-06-06 American Telephone And Telegraph Company Communication system having unified messaging
JPS6390941A (ja) * 1986-10-06 1988-04-21 Canon Inc メツセ−ジ通信システム
JPH06118998A (ja) * 1992-10-01 1994-04-28 Matsushita Electric Ind Co Ltd ベクトル量子化装置

Also Published As

Publication number Publication date
WO1989012938A1 (en) 1989-12-28
EP0378694B1 (de) 1997-09-03
EP0378694A4 (en) 1993-12-15
EP0378694A1 (de) 1990-07-25
DE68928298D1 (de) 1997-10-09
US5146488A (en) 1992-09-08

Similar Documents

Publication Publication Date Title
DE68928298T2 (de) Antwortregelungssystem
DE69031384T2 (de) Vorrichtung zur umsetzung von text eines graphischen faksimilebildes in sprache
DE69839068T2 (de) System und Verfahren zur automatischen Verarbeitung von Anruf und Datenübertragung
DE68926226T2 (de) Automatisiertes Nachrichtenabrufsystem
DE4041273C1 (de)
DE69400115T2 (de) Elektronisches Mitteilungssystem mit integrierten Sprachnachrichten
DE60000361T2 (de) Verfahren und Gerät zum erzeugen und versenden von strukturierten Sprachpostnachrichten
US6332139B1 (en) Information communication system
US5884256A (en) Networked stenographic system with real-time speech to text conversion for down-line display and annotation
DE3819538C3 (de) Sprachaktivierbare Wähleinrichtung
DE4436175B4 (de) Vorrichtung zum Fernzugreifen auf einen Computer ausgehend von einem Telefonhandapparat
DE69129883T2 (de) Rufnummerwahl mit Spracherkennung
DE60116004T2 (de) Datenaufzeichnungssystem zur Speicherung von Telefongesprächen von festen und mobilen Fernsprechstellen mit einer Datenaufzeichnungsfunktion auf einer Speicherkarte
DE69906333T2 (de) System und verfahren zur durchführung einer auktion über ein kommunikationsnetzwerk
US20010043594A1 (en) Information processing apparatus, information processing method and identification code
US7797730B2 (en) Downline transcription system using automatic tracking and revenue collection
US20070239446A1 (en) Down-line Transcription System Using Automatic Tracking And Revenue Collection
DE102011118780A1 (de) Verfahren und system für das erzeugen einerzusammenarbeitszeitachse, die anwendungsartefakte im kontext illustriert
DE60100784T2 (de) Akustischer Internet-Zugriff
DE69221945T2 (de) Faksimilegerät
JP3597327B2 (ja) マルチメディア電子メールシステム
DE60209420T2 (de) System und Verfahren zum Umwandeln von von einem Mobilgerät vorbereiteten Textnachrichten in Sprachnachrichten
EP1067791A2 (de) Informations- und Kommunikationssystem
DE69533253T2 (de) Verfahren und System zur individuellen Anpassung von Kommunikationen über ein Netzwerk
JP2001142487A (ja) 音声データ入力システム

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: DOSA ADVANCES,LLC, LAS VEGAS, NEV., US