DE69728744T2 - Vorrichtung zur Erzeugung von Textdaten aus an einem Terminal eingegebener Sprache - Google Patents

Vorrichtung zur Erzeugung von Textdaten aus an einem Terminal eingegebener Sprache Download PDF

Info

Publication number
DE69728744T2
DE69728744T2 DE69728744T DE69728744T DE69728744T2 DE 69728744 T2 DE69728744 T2 DE 69728744T2 DE 69728744 T DE69728744 T DE 69728744T DE 69728744 T DE69728744 T DE 69728744T DE 69728744 T2 DE69728744 T2 DE 69728744T2
Authority
DE
Germany
Prior art keywords
data
section
text
voice
transmission
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69728744T
Other languages
English (en)
Other versions
DE69728744D1 (de
Inventor
Tooru 3-2-1 Yamakita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intellectual Ventures Holding 81 LLC
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=18409710&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE69728744(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Publication of DE69728744D1 publication Critical patent/DE69728744D1/de
Application granted granted Critical
Publication of DE69728744T2 publication Critical patent/DE69728744T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. short messaging services [SMS] or e-mails
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/74Details of telephonic subscriber devices with voice recognition means

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Facsimiles In General (AREA)
  • Facsimile Transmission Control (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Erkennen von Sprachdaten als Kommunikations-Sprachdaten, die von einem mobilen (tragbaren) Endgerät aus eingegeben werden, und zum Erzeugen eines E-Mail-Dokuments oder eines FAX-Dokuments, d. h. auf der Grundlage des Erkennungsergebnisses formatierter Textdaten, und konkret ein Verfahren zum Senden des erzeugten Dokuments.
  • In den verschiedensten Branchen besteht herkömmlicherweise Bedarf an einem Spracherkennungsverfahren zum Erkennen eines Sprachsignals, zum Umwandeln des Sprachsignals in Zeichendaten und zum Speichern der Zeichendaten bzw. zum Anwenden des Erkennungsergebnisses für verschiedene Dienste.
  • Einhergehend mit den Fortschritten beim Spracherkennungsalgorithmus sind in den letzten Jahren Spracherkennungssysteme unter Zuhilfenahme von Großrechnern oder Arbeitsstationsrechnern entwickelt worden.
  • So werden diese Systeme, für die ein Konten-Abfragesystem für den Empfang von Sprachdaten per Telefon, ein Platzreservierungssystem und ein Warensortiersystem zur automatischen Bereitstellung von Waren nach Erkennen der Stimme des Bedieners repräsentativ sind, gegenwärtig auf verschiedenen Gebieten eingeführt.
  • Eine praktische Erkennungsgenauigkeit haben derartige Spracherkennungssysteme bislang jedoch nur bei den oben beschriebenen Großrechnern erreicht. Bei kleinen Computersystemen, wie beispielsweise einem Personalcomputer, haben kostengünstige Spracherkennungssysteme jedoch noch keine praktisch verwertbare Erkennungsgenauigkeit erreicht. Zusammen mit der oben beschriebenen Informationsverarbeitungstechnologie werden mobile Endgeräte, wie beispielsweise mobile Telefone, tragbare Telefone und PHS (Personal Handyphone Systems) immer beliebter.
  • Insbesondere das PHS ist kompakt und günstiger im Hinblick auf die Telefongebühren als ein mobiles oder ein tragbares Telefon. Aufgrund seiner charakteristischen Funktion, d. h. der Fähigkeit einer Kommunikation mit hoher Qualität „mit jedermann jederzeit an jedem Ort", ist die Popularität explosionsartig gestiegen. Darüber hinaus ist das PHS ein öffentliches Netz, dessen Rückgrat das ISDN (Integrated Services Digital Network) bildet, weshalb eine sehr schnelle digitale Kommunikation mit einer Übertragungsrate von 32 kbit/s möglich ist, so dass zunehmend weitere Anwendungen in der Multimediakommunikation erwartet werden.
  • Weiterhin wird davon ausgegangen, dass das PHS als Multimedia-Informationsvennvaltungs/Kommunikationsendgerät zum Einsatz kommt, welches sich nicht nur als tragbares Telefon verwenden lässt, sondern auch als tragbare Informationsverwaltungseinrichtung, während zugleich der Komfort des mobilen Endgerätes ausgenutzt wird. Noch konkreter wird davon ausgegangen, dass ein solches mobiles Endgerät eine Zugriffsfunktion auf eine Homepage und eine E-Mail-Übertragungsfunktion als Zugriffsfunktionen auf das Internet oder ein betriebliches Intranet sowie als Sprachkommunikations-/FAX-Funktion aufweist. Ebenso wird erwartet, dass eine Informationsverwaltungsfunktion, z. B. die Adressverwaltung, Terminverwaltung, Mitteilungsverwaltung, oder die Datenbanksuche damit möglich wird.
  • Ein derartiges mobiles Endgerät muss eine Benutzeroberfläche aufweisen, die so benutzerfreundlich und natürlich wie möglich ist, so dass der Benutzer problemlos damit umgehen kann. Derzeit kommen bei Benutzeroberflächen Eingaben mittels Finger von einer Tastatur aus oder über eine Maus und handgeschriebene Eingaben mit einem elektronischen Stift zum Einsatz. Ideal ist es, wenn die Benutzeroberfläche ebenfalls Spracheingaben oder Ähnliches verarbeiten kann. Wenn also konkret nicht nur die Adresseneingabe, die Termineingabe und die Mitteilungseingabe, sondern auch die Erstellung/Übertragung von E-Mails und eine Erzeugung/Übertragung von FAXEN mit Hilfe eines Sprachsignals ermöglicht werden, welches die Sprachinhalte als Daten darstellt, während die Sprachkommunikationsfunktion als Grundfunktion zur Anwendung kommt, lässt sich der Komfort des mobilen Endgerätes erheblich vergrößern. Hierin liegt der Vorteil der Anwendung der Spracherkennungsfunktion für die Benutzeroberfläche des mobilen Endgerätes.
  • Allerdings ist das mobile Endgerät kompakt und hat nur eine begrenzte Informationsverarbeitungskapazität. Darüber hinaus kann bei der derzeitigen Spracherkennungsverarbeitung die praktische Erkennungsgenauigkeit nur im Umfeld eines Großrechners oder eines Arbeitsstationsrechners gewährleistet werden. Daher lässt sich die Spracherkennungsfunktion als Benutzeroberfläche eines mobilen Endgerätes kaum realisieren. Das Dokument EP-A-0405029 legt ein System offen, wobei ein Endgerät Sprachdaten zu einem Server sendet, wobei der Server die Sprachdaten erkennt und die so erhaltene Mitteilung zu einem Bestimmungsort sendet. Das Dokument „Patentzusammenfassung Japans, Band 95, Nr. 11, 26. Dezember 1995, & JP 07222248 A , Hitachi Ltd., 18. August 1995" legt ein System offen, bei dem ein Endgerät Sprachdaten zu einem Server sendet, wobei der Server die Sprachdaten erkennt und das Ergebnis zu dem Endgerät zurücksendet, damit das Ergebnis bearbeitet wird, und wobei das Endgerät das bearbeitete Ergebnis als Nachricht direkt zu einem Bestimmungsort sendet.
  • Die vorliegende Erfindung hat die Aufgabe, in einer Kommunikationsumgebung unter Verwendung eine mobilen Endgerätes eine Spracherkennungsfunktion als Benutzeroberfläche des mobilen Endgerätes mit praktisch verwertbarer Genauigkeit und zu annehmbaren Kosten zu schaffen und die Erzeugung/Übertragung einer E-Mail oder eines FAX-Dokuments als formatierte Textdaten auf der Grundlage des Erkennungsergebnisses zu ermöglichen.
  • Zum Lösen dieser Aufgabe wird eine Sprachsteuervorrichtung gemäß Anspruch 1 geschaffen.
  • Da erfindungsgemäß die Spracherkennungsverarbeitung nicht auf der Seite des Endgerätes erfolgen muss, lässt sich eine Vereinfachung der Verarbeitung und eine Verkleinerung des Endgerätes realisieren. Allein durch die Eingabe von Sprachdaten von dem Endgerät aus können Daten mit einem anderen Textformat, z. B. E-Mail-Daten oder FAX-Daten, erhalten werden. Deshalb lässt sich die Oberfläche im Vergleich zu der konventionellen Eingabe von Textdaten mit Hilfe von Tasten einfach bedienen. Zusätzlich kann eine E-Mail- oder FAX-Funktion selbst dann hinzugefügt werden, wenn sich auf der Seite des Endgerätes keine spezielle Funktion dafür befindet.
  • Verständlicher wird die Erfindung durch die nachfolgende detaillierte Beschreibung im Zusammenhang mit den beiliegenden Zeichnungen, worin:
  • 1 ein Blockdiagramm ist, das die gesamte Systemkonfiguration zeigt;
  • 2 eine Perspektivansicht ist, die das äußere Erscheinungsbild eines mobilen Endgerätes zeigt;
  • 3 ein Funktionsblockdiagramm des mobilen Endgerätes ist;
  • 4 ein Ablaufdiagramm der gesamten Verarbeitung des mobilen Endgerätes ist;
  • 5 ein Ablaufdiagramm der Übertragungsverarbeitung ist;
  • 6A, 6B und 6C Ansichten sind, die das Format der Kommunikationsdaten zeigen;
  • 7A und 7B Ansichten sind, die die Formate eines IP-Steuerungsblocks und eines TCP-Steuerungsblocks zeigen;
  • 8 ein Ablaufdiagramm einer Anrufherstellverarbeitung mittels PPP ist;
  • 9A, 9B und 9C Ablaufdiagramme der Funktionsweise eines Übertragungssteuerabschnitts eines mobilen Endgerätes sind;
  • 10 eine Ansicht ist, die die Datenstruktur einer Verarbeitungsendgerät-Registriertabelle zeigt;
  • 11 ein Blockdiagramm eines Textsprach-Erkennungsabschnitts ist;
  • 12 ein Ablaufdiagramm der Funktionsweise eines Eingabe/Ausgabe-Steuerabschnitts in dem Spracherkennungsabschnitt ist;
  • 13 ein Ablaufdiagramm der Funktionsweise eines Abschnitts zum Erzeugen von formatiertem Text ist;
  • 14 ein Ablaufdiagramm der Funktionsweise eines Eingabe/Ausgabe-Steuerabschnitts in dem Abschnitt zum Erzeugen von formatiertem Text ist;
  • 15 ein Ablaufdiagramm der Funktionsweise eines Mail-Sende-/Empfangsabschnitts ist; und
  • 16 ein Ablaufdiagramm der Funktionsweise eines FAX-Sende-/Empfangsabschnitts ist.
  • Anhand der beigefügten Zeichnungen wird nun eine Ausführungsform der Erfindung genauer beschrieben.
  • Systemkonfiguration
  • 1 ist ein Blockdiagramm, das die gesamte Systemkonfiguration der erfindungsgemäßen Ausführungsform verdeutlicht.
  • Ein mobiles Endgerät 101 verfügt über eine PHS-Endgerätefunktion und ist über eine Funk-Basisstation 102 in Funkverbindung mit einem PHS-Netzwerk 103. Bei der Funk-Basisstation 102 handelt es sich um eine öffentliche Funk-Basisstation an einer öffentlichen Telefonzelle auf einer Straße, um einen Strommasten, das Dach eines Gebäudes oder eine Unterführung oder einen Telefonanschluss im Haus eines Teilnehmers. Wenn das mobile Endgerät 101 mit dem Telefonanschluss verbunden ist, ist es direkt und ohne dazwischen liegendes PHS-Netzwerk an das öffentliche Telefonnetz angeschlossen. Anstelle mit der Funk-Basisstation 102 kann das mobile Endgerät 101 auch über eine Kabelverbindung mittels einer Kabelanschlusseinheit mit dem PHS-Netzwerk 103 oder dem öffentlichen Telefonnetz verbunden sein.
  • Das PHS-Netzwerk 103 ist an ein öffentliches Telefonnetz oder ein ISDN-Netz angeschlossen, und diese Netze sind mit einer Steuerrechnereinheit 104 für das mobile Endgerät verbunden, die über eine spezielle digitale Hochgeschwindigkeitsleitung oder dergleichen an das Internet 105 angeschlossen ist.
  • Wenn das mobile Endgerät 101 über die Funk-Basisstation 102 oder das PHS-Netzwerk 103 automatisch einen Anruf zur Steuerrechnereinheit 104 für das mobile Endgerät erzeugt, die an das öffentliche Telefonnetz oder das ISDN-Netz angeschlossen ist, kann das mobile Endgerät 101 mit dem Internet 105 verbunden werden.
  • Eine Router-Einheit 106, die mit einem LAN 107 eines vorgegebenen Sprachdienstanbieters über eine digitale Hochgeschwindigkeits-Standleitung oder dergleichen angeschlossen ist, ist mit dem Internet 105 verbunden. Das LAN 107 ist ein lokales Netzwerk auf Ethernet-Basis, ATM (Asynchronous Transfer Mode) oder FDDI. Eine Sprachsteuerungs-Rechnereinheit 108 ist ebenfalls an das LAN 107 angeschlossen.
  • Nachdem das mobile Endgerät 101 automatisch einen Anruf zu der Steuerrechnereinheit 104 für das mobile Endgerät erstellt hat, kann das mobile Endgerät 101 über das Internet 105, die Router-Einheit 106 und das LAN 107 mit der Sprachsteuerungs-Rechnereinheit 108 kommunizieren.
  • Wenn der Benutzer einen Befehl zur Herstellung einer Verbindung mit der Sprachsteuerungs-Rechnereinheit 108 von dem Berührungsfeld eines Eingabeabschnitts 109 im mobilen Endgerät 101 aus erteilt, fordert ein Steuerabschnitt 110 einen Verbindungs- bzw. Übertra gungsabschnitt 111 auf, die Verbindung mit der Sprachsteuerungs-Rechnereinheit 108 herzustellen.
  • Wenn das mobile Endgerät 101 gerade nicht mit der Steuerrechnereinheit 104 für das mobile Endgerät verbunden ist, stellt der Übertragungsabschnitt 111 über Funk (oder Kabel) einen Anruf zu der Funk-Basisstation 102 her, so dass das mobile Endgerät 101 nach Empfangen der Aufforderung zur Herstellung der Verbindung von dem Steuerabschnitt 110 an das PHS-Netzwerk 103 angeschlossen wird, und bezeichnet anschließend die Zugangstelefonnummer der Steuerrechnereinheit 104 für das mobile Endgerät und stellt einen Anruf her.
  • Wenn der Anruf an der Steuerrechnereinheit 104 für das mobile Endgerät ankommt, kommuniziert der Übertragungsabschnitt 111 in dem mobilen Endgerät 101 mit einem Verbindungsherstellabschnitt 113 in der Steuerrechnereinheit 104 für das mobile Endgerät, um zuerst die Herstellung einer Verbindung auf der Grundlage von TCP/IP und PPP als Standard-Kommunikationsprotokoll im Internet 105 auszuhandeln. Im Ergebnis dessen weist die Steuerrechnereinheit 104 für das mobile Endgerät dem Übertragungsabschnitt 111 im mobilen Endgerät 101 eine IP-Adresse als Identifikationsadresse im Internet 105 zu, wodurch es dem mobilen Endgerät 101 gestattet wird, auf das Internet 105 zuzugreifen.
  • Wenn das mobile Endgerät 101 mit der Steuerrechnereinheit 104 für das mobile Endgerät verbunden ist, stellt der Übertragungsabschnitt 111 im mobilen Endgerät 101 keine Wählverbindung her.
  • Der Übertragungsabschnitt 111 im mobilen Endgerät 101 sendet ein TCP/IP-Paket, welches Folgendes speichert: eine „Ziel-IP-Adresse", die als eine vorgegebene IP-Adresse der Sprachsteuerungs-Rechnereinheit 108 dient, eine von der Steuerrechnereinheit 104 für das mobile Endgerät zugewiesene „Sendequellen-IP-Adresse", die als IP-Adresse dient, einen „Endgerät-Identifikationscode" (z. B. eine PHS-Telefonnummer) zum Identifizieren des mobilen Endgerätes 101 und einen Anforderungsbefehl zum Start der Text-Spracherkennung/-formatierung sowie Formattypdaten, ausgehend von einem Befehl des Benutzers, oder einen Befehl zum Beenden der Text-Spracherkennung/-formatierung, an das Internet 105.
  • Auf der Basis der im TCP/IP-Paket gespeicherten „Ziel-IP-Adresse" wird dieses TCP/IP-Paket von einem Router-Abschnitt 114 in der Steuerrechnereinheit 104 für das mobile Endgerät und von einer Netzentkopplungs-Rechnereinheit (nicht abgebildet) im Internet 105 an die Router-Einheit 106 beim Sprachdienstanbieter gesendet und anschließend über das LAN 107 zu einem Paketsende-/-empfangsabschnitt 115 in der Sprachsteuerungs-Rechnereinheit 108 übertragen.
  • Aus dem empfangenen TCP/IP-Paket extrahiert der Paketsende-/-empfangsabschnitt 115 die „Sendequellen-IP-Adresse", den „Endgerät-Identifikationscode" und den Anforderungsbefehl zum Start der Text-Spracherkennung/-formatierung und die Formattypendaten bzw. den Anforderungsbefehl zum Beenden der Text-Spracherkennung/-formatierung und die Format typendaten und sendet diese Daten zu einem Übertragungssteuerabschnitt 116 des mobilen Endgerätes in der Sprachsteuerungs-Rechnereinheit 108.
  • In einer Verarbeitungsendgerät-Registriertabelle (10), die später beschrieben wird, registriert der Übertragungssteuerabschnitt 116 des mobilen Endgerätes Informationen im Zusammenhang mit der übertragenden „Sendequellen-IP-Adresse", dem „Endgerät-Identifikationscode" und dem Anforderungsbefehl zum Start der Text-Spracherkennung/-formatierung sowie den Formattypdaten bzw. dem Anforderungsbefehl zum Beenden der Text-Spracherkennung/-formatierung. Anschließend fordert der Übertragungssteuerabschnitt 116 des mobilen Endgerätes den Paketsende-/-empfangsabschnitt 115 auf, ein TCP/IP-Paket, welches die Sendefreigabedaten speichert, an das mobile Endgerät 101 zurückzuschicken.
  • Der Paketsende-/-empfangsabschnitt 115 sendet das entsprechende TCP/IP-Paket an die IP-Adresse, die dem mobilen Endgerät 101 entspricht.
  • Auf diese Art und Weise kann die Sprachsteuerungs-Rechnereinheit 108 die Text-Spracherkennung/-formatierung der von dem mobilen Endgerät 101 übertragenen Sprachdaten ausführen.
  • Nach Erhalt des TCP/IP-Paketes, welches die Sendefreigabedaten von der Sprachsteuerungs-Rechnereinheit 108 speichert, überträgt der Übertragungsabschnitt 111 im mobilen Endgerät 101 die im TCP/IP-Paket gespeicherten Sendefreigabedaten an den Steuerabschnitt 110.
  • Nach Erhalt der Sendefreigabedaten fordert der Steuerabschnitt 110 im mobilen Endgerät 101 den Übertragungsabschnitt 111 auf, die durch Sprachkommunikation von einem Mikrofon aus oder durch Spracheingabe offline eingegebenen Sprachdaten an die Sprachsteuerungs-Rechnereinheit 108 zu senden.
  • Der Übertragungsabschnitt 111 sendet das TCP/IP-Paket mit den gespeicherten Sprachdaten an die IP-Adresse, die der Sprachsteuerungs-Rechnereinheit 108 entspricht.
  • Auf der Grundlage der im TCP/IP-Paket gespeicherten „Ziel-IP-Adresse" wird dieses TCP/IP-Paket über den Router-Abschnitt 114 in der Steuerrechnereinheit 104 für das mobile Endgerät, die Netzentkopplungs-Rechnereinheit (nicht abgebildet) im Internet 105, die Router-Einheit 106 beim Sprachdienstanbieter und das LAN 107 an den Paketsende-/-empfangsabschnitt 115 in der Sprachsteuerungs-Rechnereinheit 108 übertragen.
  • Der Paketsende-/-empfangsabschnitt 115 extrahiert in dem empfangenen TCP/IP-Paket gespeicherte Sprachdaten und überträgt die Sprachdaten zu dem Übertragungssteuerabschnitt 116 des mobilen Endgerätes in der Sprachsteuerungs-Rechnereinheit 108.
  • Der Übertragungssteuerabschnitt 116 des mobilen Endgerätes überträgt die übertragenen Sprachdaten zu einem Text-Spracherkennungsabschnitt 117. Der Text-Spracherkennungsabschnitt 117 führt die Text-Spracherkennungsverarbeitung an den übertragenen Sprachdaten aus und überträgt das Erkennungsergebnis, d. h. die erkannten Sprachtextdaten an ei nen Abschnitt 118 zum Erzeugen von formatiertem Text. Mithilfe der Formattypdaten, die von dem mobilen Endgerät 101 zusammen mit dem Anforderungsbefehl zum Start der Text-Spracherkennung/-formatierung angegeben sind, und einem Formattyp-Feldlexikon bestimmt der Abschnitt 118 zum Erzeugen von formatiertem Text das Feld der erkannten Sprachtextdaten, die aus dem Sprachtexterkennungsabschnitt 117 ausgegeben werden. Der Abschnitt 118 zum Erzeugen von formatiertem Text löscht weiterhin unnötige Wörter mithilfe eines Wörterbuchs für unnötige Wörter 1505 (13), erzeugt formatierte Textdaten und überträgt die formatierten Textdaten zu dem Übertragungssteuerabschnitt 116 des mobilen Endgerätes.
  • Zum Erzeugen von E-Mail-Textdaten gibt der Benutzer des mobilen Endgerätes 101 „E-Mail" als Formattypdaten zusammen mit einem Anforderungsbefehl zum Start der Text-Spracherkennung/-formatierung ein. Als Nächstes sagt der Benutzer nacheinander z. B. an: „Die Zieladresse ist taro@casio.co.jp", „Eine Kopie geht an hanko@osuga.co.jp" oder „Der Text lautet:...". Zum Erzeugen von FAX-Textdaten sagt der Benutzer nacheinander z. B. an: „Die Zielnummer 0425-79-7735" oder „Der Text lautet ...". Diese ausgesprochenen Inhalte werden von dem Text-Spracherkennungsabschnitt 117 in der Sprachsteuerungs-Rechnereinheit 108 als erkannte Sprachtextdaten erkannt. Der Abschnitt 118 zum Erzeugen von formatiertem Text bestimmt die erkannten Sprachtextdaten als Textdaten für beispielsweise das Feld „An", das Feld „Kopie (Cc)" oder das Feld „Text" von E-Mail-Textdaten. Der Abschnitt 118 zum Erzeugen von formatiertem Text löscht unnötige Wörter und erzeugt formatierte Textdaten wie beispielsweise „An: taro@casio.co.jp", „Kopie an: hanako@osuga.co.jp" bzw. „Text:...". Oder aber der Abschnitt 118 zum Erzeugen von formatiertem Text bestimmt die erkannten Sprachtextdaten als Textdaten in z. B. dem Feld „Zielnummer" oder dem „Text"-Feld der FAX-Textdaten. Der Abschnitt 118 zum Erzeugen von formatiertem Text löscht unnötige Wörter und erzeugt formatierte Textdaten wie „Zielnummer: 0425-79-7735" oder „Text:...". Der Übertragungssteuerabschnitt 116 des mobilen Endgerätes fordert die Rücksendung eines TCP/IP-Paketes, welches die formatierten Textdaten speichert, an das mobile Endgerät 101 an.
  • Der Paketsende-/-empfangsabschnitt 115 sendet das entsprechende TCP/IP-Paket an die IP-Adresse, die dem mobilen Endgerät 101 entspricht.
  • Nach Erhalt des TCP/IP-Paketes, das die formatierten Textdaten speichert, von der Sprachsteuerungs-Rechnereinheit 108 überträgt der Übertragungsabschnitt 111 im mobilen Endgerät 101 die in dem TCP/IP-Paket gespeicherten formatierten Textdaten an den Steuerabschnitt 110.
  • Der Steuerabschnitt 110 im mobilen Endgerät 101 fügt die formatierten Textdaten in Textvorlagendaten mit einem Formattyp ein, der den vom Benutzer im Voraus angegebenen Formattypdaten entspricht, und gibt die formatierten Textdaten an einen Ausgabeabschnitt 112 aus. Auf einem LCD-Anzeigeabschnitt zeigt der Ausgabeabschnitt 112 einen Text an, der den formatierten Textdaten entspricht. Der Benutzer kann diese Textdaten beliebig bearbeiten.
  • Wenn der Benutzer eines mobilen Endgerätes 101 von einem Berührungsfeld des Eingabeabschnitts 109 aus den Befehl zum Senden der bearbeiteten E-Mail- oder FAX-Textdaten erteilt, fordert der Steuerabschnitt 110 den Übertragungsabschnitt 111 auf, die E-Mail-Textdaten oder FAX-Textdaten an die Sprachsteuerungs-Rechnereinheit 108 zu senden. In diesem Fall wird automatisch ein „Von"-Feld, welches die Sendequelladresse angibt, zu den E-Mail-Textdaten hinzugefügt bzw. die Sendequelleninformation wird automatisch zu den FAX-Textdaten hinzugefügt.
  • Der Übertragungsabschnitt 111 sendet ein TCP/IP-Paket, das die E-Mail-Textdaten oder FAX-Textdaten speichert, an die IP-Adresse, die der Sprachsteuerungs-Rechnereinheit 108 entspricht.
  • Ausgehend von der in dem TCP/IP-Paket gespeicherten „Ziel-IP-Adresse" wird dieses TCP/IP-Paket über den Router-Abschnitt 114 in der Steuerrechnereinheit 104 für das mobile Endgerät, die Netzentkopplungs-Rechnereinheit (nicht abgebildet) im Internet 105, die Router-Einheit 106 beim Sprachdienstanbieter und das LAN 107 an den Paketsende-/-empfangsabschnitt 115 in der Sprachsteuerungs-Rechnereinheit 108 gesendet.
  • Der Paketsende-/-empfangsabschnitt 115 extrahiert die in dem TCP/IP-Paket gespeicherten E-Mail-Textdaten bzw. FAX-Textdaten und überträgt die Daten zu einem Mail-Sende-/Empfangsabschnitt 119 oder einem FAX-Sende-/Empfangsabschnitt 120 in der Sprachsteuerungs-Rechnereinheit 108.
  • Der Mail-Sende-/Empfangsabschnitt 119 fragt einen Namens-Lösungsserver (nicht abgebildet) ab, um eine in das Feld „An" und in das Feld „Kopie" der E-Mail-Textdaten eingestellte E-Mail-Adresse in eine IP-Adresse umzuwandeln, und fordert den Paketsende-/-empfangsabschnitt 115 auf, die E-Mail-Textdaten an die IP-Adresse zu senden. Der Paketsende-/-empfangsabschnitt 115 erzeugt ein TCP/IP-Paket, das die E-Mail-Adresse speichert, und sendet das TCP/IP-Paket an das Internet 105.
  • Der FAX-Sende-/Empfangsabschnitt 120 wählt auf einer Telefonleitung 121 (1) die in das Feld „Zielnummer" der FAX-Textdaten eingestellte Zielnummer, wodurch die FAX-Textdaten zu einem Partner-Faxgerät gesendet werden, an dem der Anruf eingegangen ist. Nach Empfang der E-Mail-Textdaten für das mobile Endgerät 101 vom Internet 105 über den Paketsende-/-empfangsabschnitt 115 spult der Mail-Sende-/Empfangsabschnitt 119 die Daten aus.
  • Genauso spult der FAX-Sende-/Empfangsabschnitt 120 die Daten nach Erhalt der FAX-Textdaten für das mobile Endgerät 101 von der Telefonleitung 121 aus.
  • Wenn der Benutzer des mobilen Endgerätes 101 den Befehl erteilt, zu einem beliebigen Zeitpunkt E-Mai-Textdaten oder FAX-Textdaten von dem Berührungsfeld zu empfangen, fordert der Steuerabschnitt 110 den Übertragungsabschnitt 111 auf, einen Mail-Empfangs-Anforderungsbefehl oder einen FAX-Empfangs-Anforderungsbefehl an die Sprachsteuerungs-Rechnereinheit 108 zu senden.
  • Der Übertragungsabschnitt 111 sendet ein TCP/IP-Paket, welches den Mail-Empfangs-Anforderungsbefehl oder den FAX-Empfangs-Anforderungsbefehl speichert, an die IP-Adresse, die der Sprachsteuerungs-Rechnereinheit 108 entspricht.
  • Ausgehend von der in dem TCP/IP-Paket gespeicherten „Ziel-IP-Adresse" wird dieses TCP/IP-Paket über den Router-Abschnitt 114 in der Steuerrechnereinheit 104 für das mobile Endgerät, die Netzentkopplungs-Rechnereinheit (nicht abgebildet) im Internet 105, die Router-Einheit 106 im Sprachdienstanbieter und das LAN 107 an den Paketsende-/-empfangsabschnitt 115 in der Sprachsteuerungs-Rechnereinheit 108 übertragen.
  • Der Paketsende-/-empfangsabschnitt 115 extrahiert den im empfangenden TCP/IP-Paket gespeicherten Mail-Empfangs-Anforderungsbefehl bzw. den FAX-Empfangs-Anforderungsbefehl und übermittelt den Befehl zu dem Mail-Sende-/Empfangsabschnitt 119 bzw. zum FAX-Sende-/Empfangsabschnitt 120 in der Sprachsteuerungs-Rechnereinheit 108.
  • Nach Abruf des Mail-Empfangs-Anforderungsbefehls fordert der Mail-Sende-/Empfangsabschnitt 119 den Paketsende-/-empfangsabschnitt 115 auf, die E-Mail-Textdaten zu extrahieren, die von einer Spuldatei, welche dem „Endgerät-Identifikationscode" entspricht, der zusammen mit dem Mail-Empfangs-Anforderungsbefehl von dem mobilen Endgerät 101 übertragen wurde, für das mobile Endgerät 101 empfangen worden sind, und die Daten zum mobilen Endgerät 101 zu senden.
  • Ebenso fordert der FAX-Sende-/Empfangsabschnitt 120 nach Abruf des FAX-Empfangs-Anforderungsbefehls den Paketsende-/-empfangsabschnitt 115 auf, FAX-Textdaten zu extrahieren, die für das mobile Endgerät 101 von einer Spuldatei empfangen worden sind, die dem von dem mobilen Endgerät 101 zusammen mit dem FAX-Empfangs-Anforderungsbefehl übertragenen „Endgerät-Identifikationscode" entspricht, und die Daten zu dem mobilen Endgerät 101 zu senden.
  • Der Paketsende-/-empfangsabschnitt 115 erzeugt ein TCP/IP-Paket, welches die E-Mail-Textdaten bzw. die FAX-Textdaten speichert, und sendet das TCP/IP-Paket an die IP-Adresse, die dem mobilen Endgerät 101 entspricht.
  • Nach Erhalt des TCP/IP-Paketes mit den darin gespeicherten E-Mail-Textdaten bzw. FAX-Textdaten von der Sprachsteuerungs-Rechnereinheit 108 überträgt der Übertragungsabschnitt 111 im mobilen Endgerät 101 die E-Mail-Textdaten bzw. FAX-Textdaten an den Steuerabschnitt 110.
  • Der Steuerabschnitt 110 im mobilen Endgerät 101 zeigt den empfangenen E-Mail-Text bzw. FAX-Text auf dem LCD-Anzeigeabschnitt an.
  • Zusätzlich zu der Verbindung mit der Sprachsteuerungs-Rechnereinheit 108 kann das mobile Endgerät 101 ebenso ungehindert auf eine gewünschte Ressource im Internet 105 zugreifen, indem mithilfe eines Homepage-Browser-Tools des mobilen Endgerätes 101 ein Selbstwählanruf zu der Steuerrechnereinheit 104 für das mobile Endgerät hergestellt wird.
  • Äußeres Erscheinungsbild des mobilen Endgerätes 101
  • 2 ist eine Perspektivansicht, die das äußere Erscheinungsbild des mobilen Endgerätes 101 aus 1 darstellt.
  • Das mobile Endgerät 101 hat das Aussehen einer kompakten, tragbaren Informationsverwaltungsvorrichtung, welche umfasst: ein Mikrofon 201, das auch als Sender zum Eingeben von Sprachdaten dient, eine Kamera 202 zum Eingeben von Bilddaten, ein LCD-Anzeige-Abschnitt 203, der verschiedene Arten von Informationen anzeigt und eine Berührungsfeldfunktion aufweist, so dass Berührungseingaben oder Eingaben mittels Stift empfangen werden können, und einen Lautsprecher 204, der ebenfalls als Empfänger zur Ausgabe von Sprachdaten dient.
  • Weiterhin verfügt das mobile Endgerät 101 über eine Funkantenne 205, mit der ein Anruf zu der Funk-Basisstation 102 aus 1 hergestellt werden kann, und eine Buchse 206 zum Anschließen des mobilen Endgerätes 101 an eine Kabelverbindungseinheit anstelle der Funk-Basisstation 102.
  • Darüber hinaus weist das mobile Endgerät 101 einen Kartensteckplatz 207 zur Aufnahme verschiedener IC-Karten und einen optischen Sender-Empfänger 208 auf, der eine optische Infrarotverbindung mit einem anderen mobilen Endgerät 101 oder einem Personalcomputer herstellen kann.
  • Bei dem Schalter 209 handelt es sich um den Netzschalter.
  • Funktionsblockdiagramm des mobilen Endgerätes 101
  • 3 ist ein Funktionsblockdiagramm des mobilen Endgerätes 101.
  • Wie aus 1 hervorgeht, umfasst das mobile Endgerät 101 den Eingabeabschnitt 109, den Steuerabschnitt 110, den Übertragungsabschnitt 111 und den Ausgabeabschnitt 112, die über einen Bus 326 miteinander verbunden sind.
  • Der Eingabeabschnitt 109 besteht aus einem Spracheingabeschnitt, einem Bildeingabeabschnitt und einem Berührungsfeldmechanismus (wird später im Zusammenhang mit der Funktionsweise des Ausgabeschnitts 112 beschrieben).
  • Der Spracheingabeabschnitt umfasst ein Mikrofon 301, einen A/D-Umwandlungsabschnitt 302 und einen Mikrofon-Steuerabschnitt 303.
  • Das Mikrofon 301 (das Mikrofon 301 entspricht dem Mikrofon 201 aus 2) dient ebenfalls als Sender des PHS und wird zum Eingeben sprachlicher Äußerungen des Benutzers verwendet.
  • Der A/D-Umwandlungsabschnitt 302 wandelt ein über das Mikrofon 301 eingegebenes analoges Sprachsignal in digitale Sprachdaten um und codiert die digitalen Sprachdaten mithilfe der ADPCM (Adaptive Differential Pulse Code Modulation) als Standard-Sprachcodierverfahren des PHS. Dieser Abschnitt ist bereits als LSI-Schaltung realisiert, die ein PHS-Endgerät bildet.
  • Bei der Sprachkommunikation überträgt der Mikrofon-Steuerabschnitt 303 die codierten Sprachdaten an einen Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 und sendet diese zu einem Sprachkanal. Bei der Text-Spracherkennung/-formatierung überträgt der Mikrofon-Steuerabschnitt 303 die codierten Sprachdaten an einen RAM 317 im Steuerabschnitt 110.
  • Der Bildeingabeabschnitt besteht aus einer CCD(Charge Coupled Device)-Kamera 304, einem A/D-Umwandlungsabschnitt 305, einem Speicher 306 und einem Kamera-Steuerabschnitt 307.
  • Ausgehend von der Handlung des Benutzers nimmt die CCD-Kamera 304 ein beliebiges Bild auf.
  • Mit dem A/D-Umwandlungsabschnitt 305 wird ein von der CCD-Kamera 304 aufgenommenes analoges Bildsignal in digitale Bilddaten umgewandelt.
  • Der Speicher 306 speichert die digitalen Bilddaten in Einheiten von Einzelbildern (Frames). Der Kamera-Steuerabschnitt 307 steuert die Funktionsweise der CCD-Kamera 304, des A/D-Umwandlungsabschnitts 305 und des Speichers 306.
  • Den Ausgabeabschnitt 112 bildet ein Sprachausgabeabschnitt und ein Bildausgabeschnitt. Den Sprachausgabeabschnitt bildet ein Lautsprecher 308, ein D/A-Umwandlungsabschnitt 309 und ein Lautsprecher-Steuerabschnitt 310.
  • Der Lautsprecher-Steuerabschnitt 310 überträgt die PHS-Sprachdaten, die von dem Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 empfangen wurden, oder die synthetisierten Sprachdaten, die vom RAM 317 im Steuerabschnitt 110 empfangen wurden, an den D/A-Umwandlungsabschnitt 309.
  • Der D/A-Umwandlungsabschnitt 309 decodiert die empfangenen Sprachdaten, wandelt die Daten in ein analoges Sprachsignal um und veranlasst den Lautsprecher 308 (der Lautsprecher 308 entspricht dem Lautsprecher 204 in 2), das Sprachsignal als Sprachdaten auszugeben.
  • Der Bildausgabeabschnitt besteht aus dem LCD-Anzeigeabschnitt 203, einem LCD-Treiber 312, einem Speicher 313 und einem LCD-Steuerabschnitt 314.
  • Der LCD-Steuerabschnitt 314 veranlasst den Speicher 313, verschiedene Bilddaten, z. B. Zeichendaten, Bilddaten, sowie Befehlstastendaten vom RAM 317 im Steuerabschnitt 110 in Einheiten von Einzelbildern zu halten, und setzt den LCD-Treiber 312 in Gang.
  • Der LCD-Treiber 312 zeigt die aus dem Speicher 313 in Einzelbildern ausgelesenen Bilddaten auf einem LCD-Anzeigeabschnitt 311 an (der LCD-Anzeigeabschnitt 311 entspricht dem LCD-Anzeigeabschnitt 203 aus 2).
  • Auf der Oberfläche des LCD-Anzeigeabschnitts 311 (203 in 2) befindet sich ein transparentes Berührungsfeld. Mit einem Finger oder einem Stift kann der Benutzer das Berührungsfeld gemäß beispielsweise Befehlstastendaten, die auf dem LCD-Anzeigeabschnitt 311 angezeigt sind, berühren, um einen Befehl einzugeben. Von dem Berührungsfeld-Steuerabschnitt 315 wird dieses Eingabesignal zu dem RAM 317 in Steuerabschnitt 110 übertragen.
  • Der Steuerabschnitt 110 umfasst eine CPU 316, den RAM 317, einen ROM 318 und einen Karten-Schnittstellenabschnitt 319 sowie eine IC-Karte 320, die gegebenenfalls in den Steckplatz 207 (2) eingesetzt wird. Der IC-Karten-Schnittstellenabschnitt 319 steuert die Eingabe/Ausgabe von Daten in die/aus der IC-Karte 320.
  • Mithilfe des RAM 317 als Arbeitsbereich steuert die CPU 316 die gesamte Funktionsweise des mobilen Endgerätes 101 gemäß einem im ROM 318 gespeicherten Steuerprogramm. Der Übertragungsabschnitt 111 umfasst den Übertragungssteuerabschnitt 321, einen Funktreiber 322, eine Funkantenne 323, einen Kabeltreiber 324 und eine Buchse 325.
  • Der Übertragungssteuerabschnitt 321 führt die PHS-Sprachkommunikationsverarbeitung bzw. die TCP/IP-Kommunikationsverarbeitung (wird später beschrieben) mit dem Internet 105 aus und steuert den Funktreiber 323 bzw. den Kabeltreiber 324 an.
  • Im Funkbetrieb führt der Funktreiber 323 die Umwandlung zwischen den Kommunikationsdaten und einem über die Funkantenne 323 (die Funkantenne 323 entspricht der Funkantenne 205 aus 2) gesendeten/empfangenen PHS-Funksignal aus. Das PHS-Funksignal basiert auf einer Funkfrequenz von 1,9 GHz, einem Trägerfrequenzintervall von 300 kHz, einem Vierkanal/Träger-TDMA-TDD-Funkzugriffsystem, einer π/4-Shift-QPSK-Modulation und einer Funkübertragungsrate von 384 kbit/s.
  • Der Kabeltreiber 324 führt die Umwandlung zwischen den Kommunikationsdaten und einem über die Buchse 325 (die Buchse 325 entspricht der Buchse 206 aus 2) gesendeten/empfangenen Kabelsignal aus. Bei diesem Kabelsignal handelt es sich allgemein um ein mittels Modem moduliertes Telefonbandsignal.
  • Nachfolgend wird die Funktionsweise der erfindungsgemäßen Ausführungsform mit dem obigen Aufbau genauer beschrieben.
  • Verarbeitung im mobilen Endgerät 101
  • Zuerst wird die Verarbeitung im mobilen Endgerät 101 beschrieben.
  • 4 ist ein Ablaufdiagramm des gesamten Steuerbetriebes, der als eine Funktion von der CPU 316 im Steuerabschnitt 110 aus 3 realisiert wird, die nach Einschalten ein im ROM 318 im Steuerabschnitt 110 gespeichertes Steuerprogramm ausführt.
  • Das Steuerprogramm zum Ausführen der Funktionen in den Ablaufdiagrammen aus 4, 5 und 8 sowie die für das Programm benötigten Daten können in der IC-Karte 320, die herausnehmbar im Steckplatz 207 aus 2 befestigt werden kann, in Form von durch die CPU 316 lesbaren Programmcodes gespeichert werden. Die Programm-Codes können direkt von der CPU 316 ausgeführt werden oder in den RAM 317 oder den programmierbaren ROM 318 geladen und bei Bedarf von der CPU 316 ausgeführt werden. Als Alternative dazu können das Steuerprogramm und die für das Programm benötigten Daten über eine Funk- oder Kabelverbindungsleitung von einem anderen Gerät oder über den Übertragungsabschnitt 111 im mobilen Endgerät 101 von dem optischen Sender-Empfänger 208 (2) empfangen, in den RAM 317 oder den programmierbaren ROM 318 geladen und von der CPU 316 ausgeführt werden.
  • In der Wiederholungsschleife der Schritte 401411413402403404401 erfolgt die Feststellverarbeitung (401), ob der Berührungsfeld-Steuerabschnitt 315 eine Eingabe vom Berührungsfeld aus erfasst hat, die Feststellverarbeitung (411), ob von der Sprachsteuerungs-Rechnereinheit 108 (1) E-Mail-Textdaten empfangen wurden, die Feststellverarbeitung (413), ob FAX-Textdaten empfangen worden sind, die Feststellverarbeitung (402), ob formatierte Textdaten empfangen wurden, oder ob eine andere Empfangs-/Anzeigeverarbeitung (403) und die Sendeverarbeitung (404) zum Senden der notwendigen Daten ausgeführt werden.
  • Wenn der Steuerabschnitt 315 für das Berührungsfeld eine Eingabe über das Berührungsfeld festgestellt hat, d. h. JA in Schritt 401, dann wird in Schritt 405 oder 406 festgestellt, ob es sich bei der Eingabe über das Berührungsfeld um einen Eingabebefehl für die CCD-Kamera 304 (202 in 2) aus 3 oder um einen Eingabebefehl für das Mikrofon 301 aus 3 (201 in 2) handelt.
  • Wenn die Eingabe über das Berührungsfeld ein Eingabebefehl für die CCD-Kamera 304 aus 3 (202 aus 2) ist, d. h. JA in Schritt 405, erhält der Kamera-Steuerabschnitt 307 im Eingabeschnitt 109 aus 3 den Befehl, die Bildeingabeverarbeitung in Schritt 407 zu starten. Dann geht es weiter zur Sendeverarbeitung in Schritt 404. In Schritt 404 erfolgt das Senden, falls zu sendende Daten vorliegen. Ansonsten geht es zurück zu Schritt 401.
  • Wenn die Eingabe über das Berührungsfeld ein Eingabebefehl für das Mikrofon 301 aus 3 (201 in 2) ist, d. h. JA in Schritt 406, erhält der Mikrofon-Steuerabschnitt 303 im Eingabeabschnitt 109 aus 3 den Befehl, die Spracheingabeverarbeitung in Schritt 408 zu beginnen. Dieser Startbefehl für die Spracheingabeverarbeitung entspricht z. B. dem Startbefehl für eine PHS-Sprachkommunikationsverarbeitung oder einem Startbefehl für eine Offline-Spracheingabeverarbeitung zum Ausführen der Text-Spracherkennung/-formatierung. Der Mikrofon-Steuerabschnitt 303 gibt den Befehl an das Mikrofon 301 (201 in 2) und an den A/D-Umwandlungsabschnitt 302, die Spracheingabeverarbeitung entsprechend dem Befehl von der CPU 316 zu beginnen. Im Ergebnis dessen werden eingegebene Sprachdaten vom Mikrofon 301 (201 in 2) aus dem A/D-Umwandlungsabschnitt 302 ausgegeben. Wenn der Startbefehl für die Spracheingabeverarbeitung ein Startbefehl für die PHS-Sprachkommunikationsverarbeitung ist, werden die Sprachdaten durch den Übertragungssteuerabschnitt 321 bei der Sendeverarbeitung zu einem vorgegebenen Sprachkanal (nicht abgebildet) gesendet und an den Kommunikationspartner übertragen.
  • Wenn der Startbefehl für die Spracheingabeverarbeitung einen Startbefehl zur Text-Spracherkennung/-formatierung enthält, werden die von dem Mikrofon 301 (201 in 2) eingegebenen und von dem Mikrofon-Steuerabschnitt 303 ausgegebenen Sprachdaten während der Sendeverarbeitung in Schritt 404 (wird später beschrieben) zu der Sprachsteuerungs-Rechnereinheit 108 gesendet.
  • Wenn es sich bei der Eingabe über das Berührungsfeld weder um einen Eingabebefehl für die CCD-Kamera 304 aus 3 (202 in 2) noch um einen Eingabebefehl für das Mikrofon 301 aus 3 (201 in 2) handelt, d. h. NEIN in Schritt 405 und 406, so erfolgt in Schritt 409 eine andere Tasteneingabeverarbeitung. Anschließend geht es weiter zur Sendeverarbeitung in Schritt 404.
  • Wenn der RAM 317 im Steuerabschnitt 110 von der Sprachsteuerungs-Rechnereinheit 108 (1) über den Übertragungsabschnitt 111 formatierte Textdaten empfangen hat, d. h. JA in Schritt 402, dann werden die mittels RAM 317 empfangenen formatierten Textdaten in Textvorlagendaten eines Formattyps eingefügt, der den vom Benutzer im Voraus festgelegten Formattypdaten entspricht, und vom RAM 317 zum Speicher 313 im Ausgabeabschnitt 112 übertragen, und der LCD-Steuerabschnitt 314 erhält den Befehl, die Daten in Schritt 410 anzuzeigen. Gesteuert von dem LCD-Steuerabschnitt 314 werden die aus dem Speicher 313 ausgegebenen formatierten Textdaten über den LCD-Treiber 312 auf dem LCD-Anzeigeabschnitt 311 (203 in 2) angezeigt.
  • Wenn der RAM 317 im Steuerabschnitt 110 durch den Übertragungsabschnitt 111 E-Mail-Textdaten von der Sprachsteuerungs-Rechnereinheit 108 (1) empfangen hat, d. h. JA in Schritt 411, dann werden die mittels RAM 317 empfangenen E-Mail-Textdaten vom RAM 317 zum Speicher 313 im Ausgabeabschnitt 112 übertragen, und der LCD-Steuerabschnitt 314 erhält den Befehl, die Daten in Schritt 412 anzuzeigen. Gesteuert von dem LCD-Steuerabschnitt 314 werden die empfangenen E-Mail-Textdaten, die aus dem Speicher 313 ausgegeben wurden, über den LCD-Treiber 312 auf dem LCD-Anzeigeabschnitt 311 (203 in 2) angezeigt.
  • Wenn der RAM 317 im Steuerabschnitt 110 durch den Übertragungsabschnitt 111 FAX-Textdaten von der Sprachsteuerungs-Rechnereinheit 108 (1) empfangen hat, d. h. JA in Schritt 413, dann werden die mittels RAM 317 empfangenen FAX-Textdaten vom RAM 317 zum Speicher 313 im Ausgabeabschnitt 112 übertragen, und der LCD-Steuerabschnitt 314 erhält den Befehl, die Daten in Schritt 414 anzuzeigen. Gesteuert von dem LCD-Steuerabschnitt 314 werden die empfangenen FAX-Textdaten, die aus dem Speicher 313 ausgegeben wurden, über den LCD-Treiber 312 auf dem LCD-Anzeigeabschnitt 311 (203 in 2) angezeigt.
  • Als Nächstes wird die Sendeverarbeitung in Schritt 404 beschrieben.
  • 5 ist ein Ablaufdiagramm, welches Einzelheiten der Sendeverarbeitung zeigt.
  • In Schritt 501 wird festgestellt, ob Tasteneingaben vom Berührungsfeld, die durch eine andere Tasteneingabeverarbeitung in Schritt 409 aus 4 verarbeitet worden sind, einen Sendebefehl aufweisen. Wird diese Frage in Schritt 501 mit NEIN beantwortet, geht es weiter zu Schritt 505.
  • Ist die Antwort in Schritt 501 JA, so wird in Schritt 502 festgestellt, ob das mobile Endgerät 101 derzeit an die Steuerrechnereinheit 104 für das mobile Endgerät aus 1 angeschlossen ist.
  • Wenn das mobile Endgerät 101 mit der Steuerrechnereinheit 104 für das mobile Endgerät aus 1 verbunden ist, d. h. JA in Schritt 502, fordert die CPU 316 im Steuerabschnitt 110 aus 3 den Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 aus 3 auf, den „Endgerät-Identifikationscode" des mobilen Endgerätes 101 und einen Befehl, der der Tasteneingabeverarbeitung in Schritt 504 entspricht, zu senden. Der Übertragungssteuerabschnitt 321 generiert ein TCP/IP-Paket, das den „Endgerät-Identifikationscode" und den Befehl speichert, und sendet das TCP/IP-Paket zu einer vorgegebenen Rechnereinheit (z. B. die Sprachsteuerungs-Rechnereinheit 108 aus 1), die mit dem Internet 105 verbunden ist.
  • Wenn das mobile Endgerät 101 nicht mit der Steuerrechnereinheit 104 für das mobile Endgerät aus 1 verbunden ist, d. h. NEIN in Schritt 502, fordert der Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 aus 3 die Herstellung eines Anrufes in Schritt 503 an und führt anschließend in Schritt 504 die Verarbeitung aus.
  • Wie später beschrieben wird, werden in Schritt 504 ein Sendebefehl zum Senden eines Anforderungsbefehls zum Start der Text-Spracherkennung/-formatierung und der Formattypdaten ausgehend von der Anweisung des Benutzers, eine Sendeanweisung für einen Anforderungsbefehl zum Beenden der Text-Spracherkennung/-formatierung, eine Sendeanweisung für einen Anforderungsbefehl für den Mail-Empfang und eine Sendeanweisung für einen Anforderungsbefehl zum FAX-Empfang ausgegeben.
  • Wenn, wie oben beschrieben, in Schritt 501 die Antwort NEIN lautet, erfolgt die Verarbeitung in Schritt 504 und es wird in Schritt 505 festgestellt, ob ein Befehl zum Senden von Sprachdaten an die Sprachsteuerungs-Rechnereinheit 108 (1) ausgegeben worden ist.
  • Wenn die Antwort in Schritt 505 NEIN lautet, geht es weiter zu Schritt 510.
  • Lautet die Antwort in Schritt 505 JA, so wird in Schritt 506 festgestellt, ob bereits Sendefreigabedaten als Antwort auf den Anforderungsbefehl zum Start der Text-Spracherkennung/formatierung von der Sprachsteuerungs-Rechnereinheit 108 zurückgesendet wurden.
  • Lautet die Antwort in Schritt 506 NEIN, d. h. die Sprachsteuerungs-Rechnereinheit 108 hat die Vorbereitungen für den Anforderungsbefehl zum Start der Text-Spracherkennung/-formatierung von dem mobilen Endgerät 101 noch nicht abgeschlossen, geht es weiter zu Schritt 510.
  • Wenn als Reaktion auf den Anforderungsbefehl zum Start der Text-Spracherkennung/ -formatierung bereits die Sendefreigabedaten von der Sprachsteuerungs-Rechnereinheit 108 zurückgesendet worden sind, d. h. JA in Schritt 506, wird festgestellt, ob das mobile Endgerät 101 gegenwärtig mit der Steuerrechnereinheit 104 für das mobile Endgerät aus 1 verbunden ist.
  • Wenn das mobile Endgerät 101 mit der Steuerrechnereinheit 104 für das mobile Endgerät aus 1 verbunden ist, d. h. JA in Schritt 507, fordert die CPU 316 im Steuerabschnitt 110 aus 3 den Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 auf, die von dem Mikrofon-Steuerabschnitt 303 im Eingabeabschnitt 109 aus 3 übermittelten Sprachdaten in Schritt 509 zum RAM 317 im Steuerabschnitt 110 zu senden. Der Übertragungssteuerabschnitt 321 erzeugt ein TCP/IP-Paket, welches die Sprachdaten speichert, und sendet das TCP/IP-Paket zu der Sprachsteuerungs-Rechnereinheit 108, die wie in 1 mit dem Internet 105 verbunden ist.
  • Wenn das mobile Endgerät 101 gerade nicht mit der Steuerrechnereinheit 104 für das mobile Endgerät aus 1 verbunden ist, d. h. NEIN in Schritt 507, fordert die CPU 316 im Steuerabschnitt 110 aus 3 den Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 aus 3 auf, in Schritt 508 einen Anruf herzustellen, und führt die Verarbeitung anschließend in Schritt 509 aus.
  • Wie später beschrieben wird, wird in Schritt 509 ein Sprachdaten-Sendebefehl für die Text-Spracherkennung/-formatierung ausgegeben.
  • Wenn die Antwort in Schritt 505 oder 506 NEIN lautet, erfolgt in Schritt 509 die Verarbeitung, wie bereits beschrieben, und es wird in Schritt 510 festgestellt, ob ein Befehl zum Starten der Bildeingabeverarbeitung ausgeführt wurde, und in Schritt 407 aus 4 ein Befehl zum Übertragen von Bilddaten an eine Bildsteuerungs-Rechnereinheit (nicht abgebildet), die wie in 1 mit dem Internet 105 verbunden ist, ausgegeben wurde.
  • Ist die Antwort in Schritt 510 NEIN, geht es zu Schritt 514 weiter. Lautet die Antwort in Schritt 510 JA, so wird in Schritt 511 festgestellt, ob das mobile Endgerät 101 derzeit mit der Steuerrechnereinheit 104 für das mobile Endgerät aus 1 verbunden ist.
  • Wenn das mobile Endgerät 101 gerade mit der in 1 abgebildeten Steuerrechnereinheit 104 für das mobile Endgerät verbunden ist, d. h. JA in Schritt 511, fordert die CPU 316 im Steuerabschnitt 110 aus 3 den Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 auf, in Schritt 513 die Bilddaten zu senden, die im Speicher 306 im Eingabeabschnitt 109 aus 3 gespeichert worden sind. Der Übertragungssteuerabschnitt 321 erzeugt ein TCP/IP-Paket, das die Bilddaten speichert, und sendet das TCP/IP-Paket an die Sprachsteuerungs-Rechnereinheit (nicht abgebildet) 108, die mit dem Internet 105 verbunden ist.
  • Wenn das mobile Endgerät 101 gerade nicht mit der in 1 abgebildeten Steuerrechnereinheit 104 für das mobile Endgerät verbunden ist, d. h. NEIN in Schritt 511, so fordert die CPU 316 im Steuerabschnitt 110 aus 3 den Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 aus 3 auf, in Schritt 512 einen Anruf herzustellen, und führt anschließend die Verarbeitung in Schritt 513 aus.
  • Wenn wie oben beschrieben in Schritt 510 die Antwort NEIN lautet bzw. nach der Verarbeitung in Schritt 513 wird in Schritt 514 festgestellt, ob die Tasteneingaben von dem Berührungsfeld aus, die durch eine andere Tasteneingabeverarbeitung in Schritt 409 aus 4 verarbeitet worden sind, einen Sendebefehl für E-Mail-Textdaten aufweisen.
  • Lautet die Antwort in Schritt 514 NEIN, so geht es in Schritt 518 weiter.
  • Lautet die Antwort in Schritt 514 JA, so wird in Schritt 515 festgestellt, ob das mobile Endgerät 101 gerade mit der Steuerrechnereinheit 104 für das mobile Endgerät aus 1 verbunden ist.
  • Wenn das mobile Endgerät 101 derzeit mit der in 1 abgebildeten Steuerrechnereinheit 104 für das mobile Endgerät verbunden ist, d. h. JA in Schritt 515, fordert die CPU 316 im Steuerabschnitt 110 aus 3 den Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 aus 3 auf, entsprechend der Tasteneingabeverarbeitung in Schritt 517 E-Mail-Textdaten zu senden. In diesem Fall wird automatisch zu den E-Mail-Textdaten ein Feld „Von" hinzugefügt, welches die Sendequellenadresse darstellt. Der Übertragungssteuerabschnitt 321 erzeugt ein TCP/IP-Paket, welches die E-Mail-Textdaten speichert, und sendet das TCP/IP-Paket zu einer vorgegebenen Rechnereinheit (z. B. die Sprachsteuerungs-Rechnereinheit 108 aus 1), die mit dem Internet 105 verbunden ist.
  • Wenn das mobile Endgerät 101 nicht mit der in 1 abgebildeten Steuerrechnereinheit 104 für das mobile Endgerät verbunden ist, d. h. NEIN in Schritt 515, so fordert die CPU 316 im Steuerabschnitt 110 aus 3 den Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 aus 3 auf, in Schritt 516 einen Anruf herzustellen, und führt anschließend die Verarbeitung in Schritt 517 aus.
  • Wenn wie oben beschrieben die Antwort in Schritt 514 NEIN lautet bzw. nach der Verarbeitung in Schritt 517 wird in Schritt 518 festgestellt, ob die Tasteneingaben von dem Berührungsfeld aus, die in Schritt 409 aus 4 durch eine andere Tasteneingabeverarbeitung verarbeitet worden sind, einen Sendebefehl für FAX-Textdaten aufweisen.
  • Lautet die Antwort in Schritt 518 NEIN, ist die Sendeverarbeitung in Schritt 404 aus 4 beendet.
  • Ist die Antwort in Schritt 518 JA, wird in Schritt 519 festgestellt, ob das mobile Endgerät 101 derzeit mit der Steuerrechnereinheit 104 für das mobile Endgerät aus 1 verbunden ist. Wenn das mobile Endgerät 101 derzeit mit der in 1 abgebildeten Steuerrechnereinheit 104 für das mobile Endgerät verbunden ist, d. h. JA in Schritt 519, fordert die CPU 316 im Steuerabschnitt 110 aus 3 den Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 aus 3 auf, in Schritt 521 FAX-Textdaten entsprechend der Tasteneingabeverarbeitung zu senden. Hierbei wird automatisch eine Sendequelleninformation zu den FAX-Textdaten hinzugefügt. Der Übertragungssteuerabschnitt 321 erzeugt ein TCP/IP-Paket, welches die FAX-Textdaten speichert, und sendet das TCP/IP-Paket zu einer vorgegebenen Rechnereinheit (z. B. die Sprachsteuerungs-Rechnereinheit 108 aus 1), die mit dem Internet 105 verbunden ist.
  • Wenn das mobile Endgerät 101 nicht mit der in 1 abgebildeten Steuerrechnereinheit 104 für das mobile Endgerät verbunden ist, d. h. NEIN in Schritt 519, dann fordert die CPU 316 im Steuerabschnitt 110 aus 3 den Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 aus 3 auf, in Schritt 520 einen Anruf herzustellen, und führt anschließend in Schritt 521 die Verarbeitung aus.
  • Wenn, wie oben beschrieben, die Antwort in Schritt 518 NEIN lautet oder aber nach der Verarbeitung in Schritt 521 ist die Sendeverarbeitung von Schritt 404 in 4 beendet.
  • Format der Kommunikationsdaten
  • 6A, 6B und 6C sind Ansichten, die das Format von Kommunikationsdaten zeigen, die zwischen dem mobilen Endgerät 101, der Steuerrechnereinheit 104 für das mobile Endgerät und dem Internet 105 (Sprachsteuerungs-Rechnereinheit 108) übertragen werden.
  • Zwischen dem mobilen Endgerät 101 und der Steuerrechnereinheit 104 für das mobile Endgerät werden die Kommunikationsdaten wie in 6A auf einem digitalen Kommunikationskanal mit einer standardmäßigen PHS-Übertragungsrate von 32 kbit/s auf der Grundlage eines Übertragungsprotokolls mit der Bezeichnung PPP (Point-to-Point Protocol) unter Zuhilfenahme eines PPP-Frames übertragen (in 6A von links nach rechts).
  • Die in 6A abgebildeten festen Bitfolgen sind für das „Flag"-, „Adress"- und das „Steuer"-Feld eingestellt, die den PPP-Frame bilden. Das Feld „FCS" mit einer Datenlänge von zwei Oktetten wird als Frame-Prüfsequenz bezeichnet und speichert Erfassungs-/Korrekturdaten für die Daten des PPP-Frames. Das „Informations"-Feld (dieses Feld hat eine variable Länge) des PPP-Frames, welches übertragen wird, nachdem eine PPP-Verbindung zwischen dem mobilen Endgerät 101 und der Steuerrechnereinheit 104 für das mobile Endgerät hergestellt worden ist, speichert ein IP-Datagramm als grundlegende Datenübertragungseinheit im Internet 105 (1). Hierbei speichert das „Protokoll"-Feld mit einer Datenmenge von zwei Oktetten einen Hexadezimalwert „0021", welcher angibt, dass das IP-Datagramm im „Informations"-Feld gespeichert ist.
  • Das IP-Datagramm wird, wie oben beschrieben, im „Informations"-Feld des PPP-Frames gespeichert. Wie bereits erwähnt, ist dieses IP-Datagramm die grundlegende Datenübertragungseinheit im Internet 105. Das IP-Datagramm wird entsprechend dem Internet-Protokoll (IP) definiert und hat die Funktion, ausschließlich die im „Daten"-Feld gespeicherten Daten zu einer Zielrechnereinheit im Internet 105 zu übertragen, die Funktion, die Adresse im Internet 105 anzugeben, die Funktion, das IP-Datagramm selbst auf einem vorgegebenen Weg im Internet 105 zu der Rechnereinheit zu übertragen, die mit einer „Ziel-IP-Adresse" gekennzeichnet ist, und die Funktion, das IP-Datagramm selbst zu fragmentieren (teilen) und das IP-Datagramm wiederherzustellen.
  • Wie aus 6B hervorgeht, besteht das IP-Datagramm aus einem IP-Steuerungsblock und einem Datenfeld. Alle Informationen, die zum Senden des IP-Datagramms selbst notwendig sind, welches das IP-Steuerungsblockfeld enthält, sind im IP-Steuerungsblock enthalten. 7A ist eine Ansicht des Formates des IP-Steuerungsblocks.
  • Der IP-Steuerungsblock hat eine Datenlänge von fünf oder sechs Wörtern, von denen jedes aus 32 Bits besteht. Diese Datenlänge ist in dem Feld „Steuerungsblocklänge" des ersten Wortes gespeichert. Die Gesamtdatenlänge des IP-Datagramms ist in dem Feld „Gesamtlänge IP-Datagramm" des ersten Wortes gespeichert.
  • Die Version des Internet-Protokolls (IP) zum Definieren eines IP-Datagramm-Übertragungsverfahrens ist in dem Feld „Version" des ersten Wortes eingestellt. Die aktuellen Version ist 4".
  • Informationen, die die Sendepriorität oder dergleichen repräsentieren, sind in dem Feld „Diensttyp" des ersten Wortes gespeichert, wenngleich dieses Feld in keinem besonderen Zusammenhang mit der vorliegenden Erfindung steht.
  • Felder des zweiten Wortes definieren Steuerinformationen, die verwendet werden, wenn das IP-Datagramm aufgrund einer Übertragungsbeschränkung im Internet 105 fragmentiert (geteilt) wird. Eine eindeutige Ganzzahl zum Identifizieren des IP-Datagramms vor der Teilung, zu dem das IP-Datagramm als geteiltes Fragment gehört, ist in dem Feld „Identifikationszahl" eingestellt. Offset-Informationen, die einen Teil des IP-Datagramms vor der Teilung repräsentieren, welcher dem IP-Datagramm als geteiltes Fragment entspricht, sind in dem Feld „Fragment-Offset" eingestellt. Ob andere Fragmente, welche das IP-Datagramm vor der Teilung bildeten, zu dem das IP-Datagramm als geteiltes Fragment gehört, diesem IP-Datagramm folgen, wird in dem Feld „Flag-Kette" eingestellt. Selbst wenn das IP-Datagramm in einer Netzentkopplungs-Rechnereinheit im Internet 105 fragmentiert wird, kann das IP-Datagramm vor der Teilung ausgehend von diesen Informationen auf der Empfängerseite richtig wiederhergestellt werden.
  • Zeitinformationen in Sekundeneinheiten, die die Zeit repräsentieren, in der das IP-Datagramm im Internet 105 vorliegen darf, werden in dem Feld „Time to live" (TTL) des dritten Wortes eingestellt. Jedes Mal, wenn ein IP-Datagramm verarbeitet wird, zählt die Netzentkopplungs-Rechnereinheit im Internet 105 den Wert dieses Feldes rückwärts. Wenn dieser Wert null oder weniger wird, wird das IP-Datagramm aus dem Internet 105 entfernt. Dadurch kann verhindert werden, dass im Internet 105 ein zu großer Verkehr stattfindet. Die Übertragungswiederholungssteuerung für das entfernte IP-Datagramm erfolgt bei der Steuerungsverarbeitung für die in dem IP-Datagramm gespeicherten TCP-Segmentdaten.
  • Ein ganzzahliger Wert zum Definieren des Formates von Daten, die in dem „Daten"-Feld des IP-Datagramms gespeichert sind, ist in dem „Protokoll"-Feld des dritten Wortes eingestellt. Da bei dieser Ausführungsform die TCP-Segmentdaten wie in 6C im „Daten"-Feld des IP-Datagramms gespeichert sind, ist ein ganzzahliger Wert „6" eingestellt, um das Datenformat zu definieren.
  • Prüfsummendaten zum Erkennen eines Fehlers in den Daten des IP-Steuerungsblocks sind in dem Feld „Steuerungsblock-Prüfsumme" des dritten Wortes eingestellt.
  • Im vierten Wort ist eine „Sendequellen-IP-Adresse" mit 32 Bit eingestellt. Wenn das IP-Datagramm von dem mobilen Endgerät 101 zu der Sprachsteuerungs-Rechnereinheit 108 übertragen wird, wird eine IP-Adresse, die dem mobilen Endgerät 101 von der Steuerrechnereinheit 104 für das mobile Endgerät bei der Anrufherstellverarbeitung (wird später beschrieben) zugewiesen wurde, als „Sendequellen-IP-Adresse" eingestellt. Die Sprachsteuerungs-Rechnereinheit 108 aus 1 speichert die „Sendequellen-IP-Adresse", so dass die Sprachsteuerungs-Rechnereinheit 108 die formatierten Textdaten oder dergleichen über das Internet 105 zum mobilen Endgerät 101 zurücksenden kann.
  • Im fünften Wort ist eine „Ziel-IP-Adresse" mit 32 Bit eingestellt. Wenn das IP-Datagramm von dem mobilen Endgerät 101 zu der Sprachsteuerungs-Rechnereinheit 108 übertragen wird, wird eine der Sprachsteuerungs-Rechnereinheit 108 permanent zugewiesene IP-Adresse als „Ziel-IP-Adresse" eingestellt. Der Router-Abschnitt 114 in der Steuerrechnereinheit 104 für das mobile Endgerät, die Netzentkopplungs-Rechnereinheiten im Internet 105 und die Router-Einheit 106 beim Sprachdienstanbieter identifizieren die in dem empfangenen IP-Data gramm gespeicherte „Ziel-IP-Adresse". Dabei kann der Übertragungsweg für das IP-Datagramm entsprechend den Informationen dieser Einheiten aus der Wegsteuerungstabelle festgelegt werden und schließlich kann das IP-Datagramm zu der Sprachsteuerungs-Rechnereinheit 108 beim Sprachdienstanbieter übertragen werden.
  • Das Feld „IP-Option" des sechsten Wortes ist optional vorgesehen, um Informationen zum Testen bzw. für die Fehlersuche in den Netzen, die das Internet 105 bilden, oder Steuerinformationen zum Steuern oder Überwachen des Übertragungsweges im Internet 105 einzustellen, wenngleich das Feld „IP-Option" in keinem besonderen Zusammenhang mit der vorliegenden Erfindung steht.
  • Fülldaten zum Anpassen der Datenlänge werden in dem Feld „Padding" (Füllzeichen) des sechsten Wortes eingestellt.
  • In dem „Daten"-Feld des IP-Datagramms sind TCP-Segmentdaten gespeichert. Das TCP-Segment ist entsprechend einem Sendesteuerprotokoll (Transmission Control Protocol – TCP) definiert und hat die Funktion, in dem „Daten"-Feld gespeicherte Daten in der richtigen Reihenfolge über das Internet 105 zu der Zielrechnereinheit zu senden. Das IP-Datagramm hat lediglich die Funktion, Daten eindeutig im Internet 105 zu übertragen, und keinerlei Funktion, die Zuverlässigkeit der Daten (z. B. Übertragungswiederholungs-Steuerfunktion) zu gewährleisten, während das TCP-Segment die Funktion hat, die Zuverlässigkeit der Daten sicherzustellen.
  • Kommunikationsdaten haben eine hierarchische Struktur, bestehend aus einem (PPP-Frame), einem IP-Datagramm und einem TCP-Segment, um den unterschiedlichen Anforderungen effizient gerecht zu werden, die sich aus einer rationellen Datenübertragung bei einem minimalen Verarbeitungsaufwand im Internet 105 ergeben; und die Datenübertragung von einem Ende zum anderen muss so zuverlässig wie möglich sein. Bei dieser Anordnung kann die Netzentkopplungseinheit im Internet 105 die in dem „Daten"-Feld des IP-Datagramms gespeicherten Sendeinformationen (TCP-Segment) schnellstmöglich zu der Zielrechnereinheit übertragen, indem lediglich auf den IP-Steuerungsblock des IP-Datagramms verwiesen wird. Bei der Übertragung von einem Ende zum anderen (zwischen der Sendequellen-Rechnereinheit und der Ziel-Rechnereinheit) lässt sich eine sehr zuverlässige Datenkommunikation, wie die Übertragungswiederholungssteuerung durch Bezugnahme auf lediglich den TCP-Steuerungsblock des TCP-Segments realisieren.
  • Wie aus 6C hervorgeht, besteht das TCP-Segment aus einem TCP-Steuerungsblockfeld und einem Datenfeld. 7B ist eine Ansicht des Formats des TCP-Steuerungsblocks.
  • Genau wie der IP-Steuerungsblock hat auch der TCP-Steuerungsblock eine Datenlänge von fünf oder sechs Wörtern, die jeweils aus 32 Bit bestehen. Diese Datenlänge ist in dem Feld „Steuerungsblocklänge" des vierten Wortes gespeichert. Die Gesamtdatenlänge des IP-Datagrammsist im Feld „IP-Datagramm-Gesamtlänge" des ersten Wortes gespeichert.
  • Ein 16-Bit-Ganzzahlwert zur Angabe eines Kommunikationsprotokolls für die Text-Spracherkennung/-formatierung, ein 16-Bit-Ganzzahlwert zur Angabe eines Mail-Sendeprotokolls (z. B. SMTP: Simple Mail Transfer Protocol), ein 16-Bit-Ganzzahlwert zur Angabe eines Mail-Empfangsprotokolls (z. B. POP3) bzw. ein 16-Bit-Ganzzahlwert zur Angabe eines FAX-Übertragungsprotokolls ist in dem Feld „Sendequellen-Portnummer" und in dem Feld „Ziel-Portnummer" des ersten Wortes eingestellt.
  • Der Paketsende-/-empfangsabschnitt 115 (1) in der Sprachsteuerungs-Rechnereinheit 108 erkennt den Wert, der in dem Feld „Ziel-Portnummer" des TCP-Steuerungsblocks von dem empfangenen TCP-Segment eingestellt ist, wodurch eine Anwendung festgelegt wird, die von der Sprachsteuerungs-Rechnereinheit 108 als Übertragungsziel für die in dem „Daten"-Feld des TCP-Segments gespeicherten Daten ausgeführt wird.
  • Wenn der Wert, der in dem Feld „Ziel-Portnummer" des TCP-Steuerungsblocks von dem empfangenen TCP-Segment eingestellt ist, dem Übertragungsprotokoll für die Text-Spracherkennung/-formatierung entspricht, kann der Paketsende-/-empfangsabschnitt 115 die in dem „Daten"-Feld des TCP-Segments gespeicherten Übertragungssprachdaten zu dem Übertragungssteuerabschnitt 116 des mobilen Endgerätes übertragen. Wenn der Wert dem oben beschriebenen Mail-Sendeprotokoll bzw. dem Mail-Empfangsprotokoll entspricht, kann der Paketsende-/-empfangsabschnitt 115 E-Mail-Textdaten oder einen im „Daten"-Feld des TCP-Segments gespeicherten Mail-Empfangs-Anforderungsbefehl zu dem Mail-Sende-/ Empfangsabschnitt 119 übertragen. Wenn der Wert dem oben beschriebenen FAX-Übertragungsprotokoll entspricht, kann der Paketsende-/-empfangsabschnitt 115 FAX-Textdaten oder einen in dem „Daten"-Feld des TCP-Segments gespeicherten FAX-Empfangs-Anforderungsbefehl zu dem FAX-Sende-/Empfangsabschnitt 120 übertragen.
  • Ebenso erkennt der Übertragungssteuerabschnitt 321 (3) im Übertragungsabschnitt 111 des mobilen Endgerätes 101 den Wert, der in dem Feld „Ziel-Portnummer" des TCP-Steuerungsblocks von dem empfangenen TCP-Segment eingestellt ist, wodurch eine Anwendung festgelegt wird, die von dem mobilen Endgerät 101 als Übertragungsziel für die in dem „Daten"-Feld des TCP-Segments gespeicherten Daten ausgeführt wird.
  • Wenn der Wert, der in dem Feld „Ziel-Portnummer" des TCP-Steuerungsblocks von dem empfangenen TCP-Segment eingestellt ist, dem Übertragungsprotokoll für die Text-Spracherkennung/-formatierung entspricht, kann der Übertragungssteuerabschnitt 321 den Steuerabschnitt 110 (1 oder 3) über den Empfang von Daten für die Text-Spracherkennung/-formatierung informieren und formatierte Textdaten, die in dem „Daten"-Feld des TCP-Segments gespeichert sind, übertragen. Wenn der Wert dem oben beschriebenen Mail-Sendeprotokoll oder Mail-Empfangsprotokoll entspricht, kann der Übertragungssteuerab schnitt 321 den Steuerabschnitt 110 (1 oder 3) über den Empfang von Daten für die E-Mail-Sende-/-Empfangsverarbeitung informieren und in dem „Daten"-Feld des TCP-Segments gespeicherte E-Mail-Textdaten übertragen. Wenn der Wert dem FAX-Übertragungsprotokoll entspricht, kann der Übertragungssteuerabschnitt 321 den Steuerabschnitt 110 (1 oder 3) über den Empfang von Daten für die FAX-Sende-/Empfangsverarbeitung informieren und in dem „Daten"-Feld des TCP-Segments gespeicherte FAX-Textdaten übertragen.
  • Der Paketsende-/-empfangsabschnitt 115 in der Sprachsteuerungs-Rechnereinheit 108 und der Übertragungssteuerabschnitt 320 im Übertragungsabschnitt 111 des mobilen Endgerätes 101 bestätigen die in dem TCP-Steuerungsblock des empfangenen TCP-Segments eingestellte „Sendequellen-Portnummer", wodurch das Anwendungsprotokoll für die Sendequelle bestätigt wird.
  • Das Feld „Sequenznummer" des zweiten Wortes des TCP-Steuerungsblockes aus 7B ist ein Feld, das von der Sendeseite aus die Empfangsseite über die Byte-Position des Anfangs der in dem „Daten"-Feld des TCP-Segments gespeicherten Daten in dem gesamten Byte-Strom, der bei der aktuellen TCP-Verbindung von der Sendeseite zur Empfängerseite übertragen wird, informiert. Umgekehrt ist das Feld „Bestätigungsantwortnummer" des dritten Wortes ein Feld, welches von der Empfangsseite aus die Sendeseite über die Byte-Position der Daten informiert, die ohne Fehler im gesamten Byte-Strom empfangen wurden, der bei der aktuellen TCP-Verbindung von der Sendeseite zu der Empfangsseite übertragen wurde. Mit einer derartigen Anordnung können Sprachdaten, E-Mail-Textdaten oder FAX-Textdaten zuverlässig in der richtigen Reihenfolge von beispielsweise dem mobilen Endgerät 101 zu der Sprachsteuerungs-Rechnereinheit 108 übertragen werden.
  • Ein Wert, der den Typ des TCP-Segments repräsentiert, ist in dem Feld „Flag-Kette" des vierten Wortes eingestellt. Bei der TCP-Übertragung werden verschiedene Steuerdaten für die Bestätigungsantwort übertragen, z. B. am Anfang oder Ende der Verbindung. Der Typ von Steuerdaten ist in dem Feld „Flag-Kette" eingestellt.
  • Das Feld „Fenster" des vierten Wortes, ist ein Feld, welches von der Empfangsseite aus die Sendeseite über Fensterdaten informiert, welche die Anzahl von Bytes repräsentieren, die gegenwärtig kontinuierlich auf der Empfangsseite empfangen werden können. Durch diese Anordnung wird eine Datenflusssteuerung von der Empfangsseite zur Sendeseite ermöglicht, so dass eine Feinsteuerung erfolgt, um z. B. die Sendung von Sprachdaten, E-Mail-Textdaten oder FAX-Textdaten zu dem mobilen Endgerät 101 zu unterdrücken, wenn die Datenlast an der Sprachsteuerungs-Rechnereinheit 108 groß ist. Das „reservierte" Feld des vierten Wortes ist ein Reservierungsfeld.
  • Prüfsummendaten zum Erkennen von Fehlern im TCP-Steuerungsblock und in den im „Daten"-Feld gespeicherten Daten sind in dem Feld „Prüfsumme" des fünften Wortes eingestellt.
  • Durch diese Anordnung kann beispielsweise die Sprachsteuerungs-Rechnereinheit 108 Sprachdaten korrekt von dem mobilen Endgerät 101 empfangen.
  • Das Feld „Notfallanzeiger" (Emergency Pointer) des fünften Wortes speichert Steuerdaten zum Senden von Notfalldaten (z. B. Unterbrechungsdaten oder Abbruchdaten), wenngleich dieses Feld in keinem besonderen Zusammenhang mit der vorliegenden Erfindung steht. Das Feld „Option" des sechsten Wortes wird verwendet, um beispielsweise die maximale Segmentlänge anzugeben, die zwischen der Sende- und der Empfangseinheit übertragen werden kann, wenngleich dieses Feld in keinem besonderen Zusammenhang mit der vorliegenden Erfindung steht.
  • Fülldaten zum Anpassen der Datenmenge werden in dem Feld „Padding" des sechsten Wortes eingestellt.
  • Bei dem mobilen Endgerät 101 wird die Funktion der TCP-Kommunikationsverarbeitung mit der obigen Anordnung über den Übertragungssteuerabschnitt 321 (3) im Übertragungsabschnitt 111 realisiert. In der Sprachsteuerungs-Rechnereinheit 108 wird diese Funktion durch den Paketsende-/-empfangsabschnitt 115 (1) erfüllt. Das von der CPU 316 im mobilen Endgerät 101 ausgeführte Steuerprogramm kann die obige Verarbeitungsfunktion ausführen.
  • Anrufherstellverarbeitung
  • Wenn wie oben beschrieben bei der Sendeverarbeitung aus 5 das mobile Endgerät 101 nicht mit der Steuerrechnereinheit 104 für das mobile Endgerät verbunden ist, d. h. die Antwort in Schritt 502, 507, 511, 515 oder 519 lautet NEIN, dann fordert die CPU 316 (3) im Steuerabschnitt 110 des mobilen Endgerätes 101 den Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 aus 3 auf, in Schritt 503, 508, 512, 516 bzw. 520 einen Anruf herzustellen. 8 ist ein Ablaufdiagramm, welches die von dem Übertragungssteuerabschnitt 321 als Reaktion auf diese Anforderung ausgeführte Verarbeitung zur Herstellung eines Anrufs zeigt.
  • Schritt 801 ist die Phase der Verbindungsherstellung. In dieser Phase wird automatisch ein Selbstwählanruf für die Zugangstelefonnummer der Steuerrechnereinheit 104 für das mobile Endgerät hergestellt. Wenn der Anruf an der Steuerrechnereinheit 104 für das mobile Endgerät angekommen ist, erfolgt ein Aushandeln im Zusammenhang der maximalen Datenlänge des PPP-Frames (6A) für die Übertragung, der Festlegung der Zeichen, die nicht übertragen werden, der Festlegung, ob eine Kompression der Datenlänge des „Protokoll"-Feldes (6A) des PPP-Frames von zwei Oktetten auf ein Oktett durchgeführt wird, der Festlegung, ob eine Auslassung (Kompression) des „Adress"-Feldes (6A) mit einem feststehenden Wert von „11111111" aus dem PPP-Frame vorgenommen wird, und dergleichen zwischen dem Übertragungssteuerabschnitt 321 und dem Verbindungsherstellabschnitt 113 (1) in der Steuerrechnereinheit 104 für das mobile Endgerät mithilfe eines Protokolls, das als Verbindungssteuerprotokoll (Link Control Protocol – LCP) bezeichnet wird. Hierbei wird die Übertragung zwischen dem Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 des mobilen Endgerätes 101 und dem Verbindungsherstellabschnitt 113 in der Steuerrechnereinheit 104 für das mobile Endgerät mithilfe eines PPP-Frames ausgeführt, der das Format aus 6A hat, während ein Hexadezimalwert „C021" zur Angabe des LCP in dem „Protokoll"-Feld des PPP-Frames und der notwendigen Steuerdaten im „Informations"-Feld des PPP-Frames eingestellt wird.
  • In Schritt 802 wird eine Authentifizierungsphase ausgeführt. In dieser Phase wird der Benutzer, der das mobile Endgerät 101 benutzt, durch den Verbindungsherstellabschnitt 113 ( 1) in der Steuerrechnereinheit 104 für das mobile Endgerät mithilfe eines Authentifizierungsprotokolls, genannt PAP (Password Authentication Protocol) oder CHAP (Challenge Handshake Authentication Protocol), für das mobile Endgerät 101 authentifiziert. Mit dieser Verarbeitung kann der Internet-Provider, der die Steuerrechnereinheit 104 für das mobile Endgerät betreibt, feststellen, ob der Benutzer, der das mobile Endgerät benutzt, ein angemeldeter Teilnehmer ist. In diesem Fall wird die Verbindung zwischen dem Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 des mobilen Endgerätes 101 und dem Verbindungsherstellabschnitt 113 in der Steuerrechnereinheit 104 für das mobile Endgerät mithilfe eines PPP-Frames hergestellt, der das Format aus 6A hat, während ein Hexadezimalwert „C023" zur Angabe des PAP, ein Hexadezimalwert „C223" zur Angabe des CHAP in dem „Protokoll"-Feld des PPP-Frames und die notwendigen Authentifizierungsdaten in dem „Informations"-Feld des PPP-Frames eingestellt werden.
  • Schließlich wird in Schritt 803 eine Netzwerkschicht-Protokollphase ausgeführt. Bei der vorliegenden Ausführungsform wird in dieser Phase mithilfe eines als IP-Steuerprotokoll (IPCP) bezeichneten Protokolls festgestellt, ob eine Kompression des TCP-Steuerungsblocks ( 7B) vorliegt oder nicht. Darüber hinaus wird dem mobilen Endgerät 101 eine freie (nicht genutzte) IP-Adresse zugewiesen, die von der Steuerrechnereinheit 104 für das mobile Endgerät zugewiesen werden kann, und es werden die notwendigen Weginformationen im Übertragungssteuerabschnitt 321 (3) im Übertragungsabschnitt 111 des mobilen Endgerätes 101 und in dem Router-Abschnitt 114 (1) in der Steuerrechnereinheit 104 für das mobile Endgerät eingestellt. Anschließend kann das mobile Endgerät 101 auf die mit dem Internet 105 verbundene Sprachsteuerungs-Rechnereinheit 108 und auf eine vom Benutzer gewünschte willkürliche Ressource im Internet 105 zugreifen. Hierbei erfolgt die Übertragung zwischen dem Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 des mobilen Endgerätes 101 und dem Verbindungsherstellabschnitt 113 in der Steuerrechnereinheit 104 für das mobile Endgerät mithilfe eines PPP-Frames, der das Format aus 6A hat, während ein Hexadezimalwert „8021" zur Angabe des IPCP im „Protokoll"-Feld des PPP-Frames und die notwendigen Daten für die IP-Adressverhandlungen in dem „Informations"-Feld des PPP-Frames eingestellt sind.
  • Mit der oben angeführten Serie von Operationen kann das mobile Endgerät 101 einen PPP-Frame senden/empfangen, der ein TCP/IP-Paket für die Übertragung zu/von dem Router-Abschnitt 114 in der Steuerrechnereinheit 104 für das mobile Endgerät 101 speichert, so dass das mobile Endgerät 101 ungehindert auf Ressourcen im Internet 105 zugreifen kann. Um auch bei der PHS-Sprachkommunikation den Zugang zu der Sprachsteuerungs-Rechnereinheit 108 zu ermöglichen, kann das mobile Endgerät 101 z. B. die Funktion einer gleichzeitigen Übertragung auf zwei Kanälen aufweisen.
  • Wenn über einen vorgegebenen Zeitraum (z. B. 10 Minuten) keine gesendeten/empfangenen Daten erfasst werden, kann der Übertragungssteuerabschnitt 321 (3) im Übertragungsabschnitt 111 des mobilen Endgerätes 101 automatisch die PPP-Verbindung von der Steuerrechnereinheit 104 für das mobile Endgerät aus unterbrechen.
  • Details der Sende-/-Empfangsverarbeitung des mobilen Endgerätes 101 im Zusammenhang mit der Text-Spracherkennung/-formatierung
  • Nun werden Details der Sende-/-Empfangsverarbeitung beschrieben, die von dem mobilen Endgerät 101 während und nach der Betätigung des Berührungsfeldes des mobilen Endgerätes 101 durch den Benutzer zur Angabe des Formattyps und zum Starten der Text-Spracherkennung/-formatierung ausgeführt werden.
  • Bei der Steueroperation entsprechend dem oben beschriebenen Ablaufdiagramm aus 4, bei der die Betätigung des Berührungsfeldes durch den Berührungsfeld-Steuerabschnitt 315 aus 3 erfasst und von der CPU 316 (3) im Steuerabschnitt 110 ausgeführt wird, wird die oben beschriebene Berührungsfeld-Betätigung erkannt, wenn die Antwort in Schritt 401 JA lautet und in den Schritten 405 und 406 NEIN lautet und wenn in Schritt 409 eine andere Tasteneingabeverarbeitung ausgeführt wird. Wenn bei der Sendeverarbeitung aus Schritt 404 die Antwort in Schritt 501 aus 5 JA lautet und gegebenenfalls in Schritt 503 die Anrufherstellverarbeitung ausgeführt wird, erhält der Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 aus 3 die Aufforderung, den „Endgerät-Identifikationscode" des mobilen Endgerätes 101 sowie einen Befehl und Daten zu übertragen, die der Tasteneingabeverarbeitung entsprechen, um in Schritt 504 den Befehl zum Start der Text-Spracherkennung/-formatierung zu erteilen.
  • Dementsprechend generiert der Übertragungssteuerabschnitt 321 ein TCP-Segment mit dem Format aus 6C. Hierbei wird ein 16-Bit-Ganzzahlwert zur Angabe eines Übertragungsprotokolls für die Text-Spracherkennung/-formatierung in dem Feld „Sendequellen-Portnummer" und in dem Feld „Ziel-Portnummer" des TCP-Steuerungsblocks mit dem Format aus den 6C und 7B eingestellt. In dem „Daten"-Feld des TCP-Segments sind ein „Endgerät-Identifikationscode" (z. B. PHS-Telefonnummer) zur Angabe des mobilen Endgerätes 101, ein Anforderungsbefehl zum Start der Text-Spracherkennung/-formatierung, ausgehend von der Anweisung des Benutzers, und Formattypdaten, ausgehend von der Anweisung des Benutzers, gespeichert.
  • Als Nächstes generiert der Übertragungssteuerabschnitt 321 ein IP-Datagramm mit dem Format aus 6B, in dem das TCP-Segment in dem „Daten"-Feld gespeichert ist. In diesem Fall ist ein Ganzzahlwert „6" zum Definieren des Formats der TCP-Segmentdaten, die in dem „Daten"-Feld gespeichert sind, in dem "Protokoll"-Feld des IP-Steuerungsblockes mit dem Format aus 6B und 7A eingestellt. Eine IP-Adresse, die dem Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 des mobilen Endgerätes 101 von dem Verbindungsherstellabschnitt 114 in der Steuerrechnereinheit 104 für das mobile Endgerät bei der bereits ausgeführten Anrufherstellverarbeitung (siehe Beschreibung zu Schritt 803 in 8) zugewiesen wurde, ist in dem Feld „Sendequellen-IP-Adresse" eingestellt. Eine IP-Adresse, die der Sprachsteuerungs-Rechnereinheit 108 zugewiesen ist, ist in dem Feld „Ziel-IP-Adresse" eingestellt.
  • Der Übertragungssteuerabschnitt 321 erzeugt einen PPP-Frame mit dem Format aus 6A, in dem das IP-Datagramm im "Informations"-Feld gespeichert ist und ein Hexadezimalwert „0021", der angibt, dass das IP-Datagramm in dem "Informations"-Feld gespeichert ist, im "Protokoll"-Feld gespeichert ist, und überträgt den PPP-Frame entsprechend der Weginformation (siehe Beschreibung zu Schritt 803 in 8), die im Übertragungssteuerabschnitt 321 eingestellt ist, zu der Steuerrechnereinheit 104 für das mobile Endgerät. Eine Dateneinheit, die von dem TCP-Segment, dem IP-Datagramm und dem PPP-Frame gebildet und im Internet 105 übertragen wird, wird nachfolgend einfach als TCP/IP-Paket bezeichnet.
  • Auf der Basis der „Ziel-IP-Adresse", die im IP-Steuerungsblock des IP-Datagramms gespeichert ist, welches das TCP/IP-Paket bildet, wird dieses TCP/IP-Paket von dem Router-Abschnitt 114 in der Steuerrechnereinheit 104 für das mobile Endgerät und von der Netzentkopplungs-Rechnereinheit (nicht abgebildet) im Internet 105 zu der Router-Einheit 106 beim Sprachdienstanbieter übertragen und anschließend über das LAN 107 zu dem Paketsende-/-empfangsabschnitt 115 in der Sprachsteuerungs-Rechnereinheit 108 weitergeleitet.
  • Der Paketsende-/-empfangsabschnitt 115 erkennt, dass die IP-Adresse der Sprachsteuerungs-Rechnereinheit 108, d. h. der Paketsende-/-empfangsabschnitt 115 selbst, in dem Feld „Ziel-IP-Adresse" des IP-Steuerungsblockes des IP-Datagramms, welches das übertragene TCP/IP-Paket bildet, eingestellt ist, wodurch das TCP/IP-Paket empfangen wird.
  • Der Paketsende-/-empfangsabschnitt 115 bestätigt, dass der 16-Bit-Ganzzahlwert zur Angabe des Übertragungsprotokolls für die Text-Spracherkennung/-formatierung in dem Feld „Ziel-Portnummer" und in dem Feld „Sendequellen-Portnummer" des TCP-Segments, wel ches das empfangene TCP/IP-Paket bildet, eingestellt ist, wodurch der Übertragungssteuerabschnitt 116 des mobilen Endgerätes (1) über den Empfang informiert wird.
  • Nach dieser Benachrichtigung extrahiert der Paketsende-/-empfangsabschnitt 115 die „Sendequellen-IP-Adresse" aus dem IP-Steuerungsblock des IP-Datagramms, welches das empfangene TCP/IP-Paket bildet, und extrahiert weiterhin den „Endgerät-Identifikationscode", den Anforderungsbefehl zum Start der Text-Spracherkennung/-formatierung und die Formattypdaten aus dem „Daten"-Feld des TCP-Segments, welches das TCP/IP-Paket bildet, und überträgt diese Daten zu dem Übertragungssteuerabschnitt 116 des mobilen Endgerätes. Dadurch wird ein TCP/IP-Paket, welches Sendefreigabedaten speichert, so wie später beschrieben, von der Sprachsteuerungs-Rechnereinheit 108 zu dem mobilen Endgerät 101 zurückgesendet.
  • Ausgehend von der im IP-Steuerungsblock des IP-Datagramms, welches das TCP/IP-Paket bildet, gespeicherten „Ziel-IP-Adresse" wird dieses TCP/IP-Paket von der Router-Einheit 106 beim Sprachdienstanbieter und von der Netzentkopplungs-Rechnereinheit (nicht abgebildet) im Internet 105 zu dem Router-Abschnitt 114 in der Steuerrechnereinheit 104 für das mobile Endgerät übertragen und anschließend über das PHS-Netzwerk 103 (1) zu dem Übertragungssteuerabschnitt 321 (3) im Übertragungsabschnitt 111 des mobilen Endgerätes 101 weitergeleitet.
  • Der Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 des mobilen Endgerätes 101 erkennt, dass die IP-Adresse, die (vorübergehend oder dynamisch) dem mobilen Endgerät 101 zugewiesen ist, d. h. der Übertragungssteuerabschnitt 321 selbst, in dem Feld „Ziel-IP-Adresse" des IP-Steuerungsblockes des IP-Datagramms, welches das übertragene TCP/IP-Paket bildet, eingestellt ist, wodurch das TCP/IP-Paket empfangen wird.
  • Der Übertragungssteuerabschnitt 321 bestätigt, dass der 16-Bit-Ganzzahlwert zur Angabe des Übertragungsprotokolls für die Text-Spracherkennung/-formatierung in dem Feld „Ziel-Portnummer" und in dem Feld „Sendequellen-Portnummer" des TCP-Segmentes, welches das empfangene TCP/IP-Paket bildet, eingestellt ist, wodurch die CPU 316 im Steuerabschnitt 110 des mobilen Endgerätes 101 vom Empfang benachrichtigt wird.
  • Nach dieser Benachrichtigung extrahiert der Übertragungssteuerabschnitt 321 die Übertragungsfreigabedaten aus dem „Daten"-Feld des TCP-Segmentes, welches das empfangene TCP/IP-Paket bildet, und überträgt die Daten zu der CPU 316.
  • Die CPU 316 verarbeitet die Empfangsbenachrichtigung und die Sendefreigabedaten in Schritt 403 aus 4 und speichert die Sendefreigabedaten im RAM 317.
  • Wenn der Benutzer das Berührungsfeld des mobilen Endgerätes 101 berührt, um den Beginn der Text-Spracherkennung/-formatierung anzuweisen, instruiert die CPU 316 den Mikrofon-Steuerabschnitt 303 im Eingabeabschnitt 109 aus 3, die PHS-Sprachübertragungsverarbeitung bzw. die Offline-Spracheingabeverarbeitung zum Ausführen der Text-Sprach erkennung/-formatierung zu beginnen. Mit dieser Verarbeitung beginnt der Benutzer, Sprachdaten aus dem Mikrofon 301 durch den Sprachübertragungsvorgang bzw. die Offline-Spracheingabeoperation einzugeben.
  • Wenn anschließend bei der Übertragungsverarbeitung in Schritt 404, der von der CPU 316 als Teil der Wiederholungsschleife der Schritte 401402403404401 aus 4 ausgeführt wird, in den Schritten 505 und 506 aus 5 die Antwort JA lautet und in Schritt 508 gegebenenfalls erneut eine Anrufherstellverarbeitung erfolgt, geht die Aufforderung an den Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111, in Schritt 509 die von dem Mikrofon-Steuerabschnitt 303 im Eingabeabschnitt 109 aus 3 übertragenen Sprachdaten an den RAM 317 im Steuerabschnitt 110 zu senden.
  • Als Folge davon generiert der Übertragungssteuerabschnitt 321 ein TCP-Segment mit dem Format wie in 6C. Dabei ist ein 16-Bit-Ganzzahlwert zur Angabe eines Übertragungsprotokolls für die Text-Spracherkennung/-formatierung in dem Feld „Sendequellen-Portnummer" und dem Feld „Ziel-Portnummer" des TCP-Steuerungsblocks mit dem Format aus den 6C und 7B eingestellt. Die von dem Mikrofon-Steuerabschnitt 303 im Eingabeabschnitt 109 aus 3 zum RAM 317 im Steuerabschnitt 110 übertragenen Sprachdaten werden in dem „Daten"-Feld des TCP-Segments gespeichert.
  • Als Nächstes generiert der Übertragungssteuerabschnitt 321 ein IP-Datagramm mit dem Format aus 6B, in dem das TCP-Segment in dem „Daten"-Feld gespeichert ist. In diesem Fall ist ein Ganzzahlwert 6 zum Definieren des Formats der TCP-Segmentdaten, die in dem „Daten"-Feld gespeichert sind, in dem "Protokoll"-Feld des IP-Steuerungsblockes mit dem Format aus 6B und 7A eingestellt. Eine IP-Adresse, die dem Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 des mobilen Endgerätes 101 von dem Verbindungsherstellabschnitt 114 in der Steuerrechnereinheit 104 für das mobile Endgerät bei der bereits ausgeführten Anrufherstellverarbeitung (siehe Beschreibung zu Schritt 803 in 8) zugewiesen wurde, ist in dem Feld „Sendequellen-IP-Adresse" eingestellt. Eine IP-Adresse, die der Sprachsteuerungs-Rechnereinheit 108 zugewiesen ist, ist in dem Feld „Ziel-IP-Adresse" eingestellt.
  • Der Übertragungssteuerabschnitt 321 erzeugt einen PPP-Frame mit dem Format aus 6A, in dem das IP-Datagramm im "Informations"-Feld gespeichert ist und ein Hexadezimalwert „0021", der angibt, dass das IP-Datagramm in dem "Informations"-Feld gespeichert ist, im "Protokoll"-Feld gespeichert ist, und überträgt den PPP-Frame entsprechend der Weginformation (siehe Beschreibung zu Schritt 803 in 8), die im Übertragungssteuerabschnitt 321 eingestellt ist, zu der Steuerrechnereinheit 104 für das mobile Endgerät.
  • Auf der Basis der „Ziel-IP-Adresse", die im IP-Steuerungsblock des IP-Datagramms gespeichert ist, welches das TCP/IP-Paket bildet, wird dieses TCP/IP-Paket von dem Router-Abschnitt 114 in der Steuerrechnereinheit 104 für das mobile Endgerät und von der Netzent kopplungs-Rechnereinheit (nicht abgebildet) im Internet 105 zu der Router-Einheit 106 beim Sprachdienstanbieter übertragen und anschließend über das LAN 107 zu dem Paketsende-/-empfangsabschnitt 115 in der Sprachsteuerungs-Rechnereinheit 108 weitergeleitet.
  • Der Paketsende-/-empfangsabschnitt 115 erkennt, dass die IP-Adresse der Sprachsteuerungs-Rechnereinheit 108, d. h. der Paketsende-/-empfangsabschnitt 115 selbst, in dem Feld „Ziel-IP-Adresse" des IP-Steuerungsblockes des IP-Datagramms, welches das übertragene TCP/IP-Paket bildet, eingestellt ist, wodurch das TCP/IP-Paket empfangen wird.
  • Der Paketsende-/-empfangsabschnitt 115 bestätigt, dass der 16-Bit-Ganzzahlwert zur Angabe des Übertragungsprotokolls für die Text-Spracherkennung/-formatierung in dem Feld „Ziel-Portnummer" und in dem Feld „Sendequellen-Portnummer" des TCP-Segments, welches das empfangene TCP/IP-Paket bildet, eingestellt ist, wodurch der Übertragungssteuerabschnitt 116 des mobilen Endgerätes (1) über den Empfang informiert wird.
  • Nach dieser Benachrichtigung extrahiert der Paketsende-/-empfangsabschnitt 115 die „Sendequellen-IP-Adresse" aus dem IP-Steuerungsblock des IP-Datagramms, welches das empfangene TCP/IP-Paket bildet, und ebenfalls die Sprachdaten aus dem „Daten"-Feld des TCP-Segments, das das TCP/IP-Paket bildet und überträgt diese Daten zu dem Übertragungssteuerabschnitt 116 des mobilen Endgerätes.
  • Im Ergebnis steuert der Übertragungssteuerabschnitt 116 des mobilen Endgerätes die Text-Spracherkennung/-formatierung so wie später beschrieben, veranlasst den Text-Spracherkennungsabschnitt 117, die empfangenen Sprachdaten zu erkennen, und veranlasst den Abschnitt 118 zum Erzeugen von formatiertem Text, die entstandenen erkannten Sprachtextdaten zu formatieren. Der Übertragungssteuerabschnitt 116 des mobilen Endgerätes sendet ein TCP/IP-Paket, das aus dem Abschnitt 118 zum Erzeugen von formatiertem Text erhaltene, formatierte Textdaten speichert, wie später beschrieben an das mobile Endgerät 101 zurück.
  • Ausgehend von der im IP-Steuerungsblock des IP-Datagramms, welches das TCP/IP-Paket bildet, gespeicherten „Ziel-IP-Adresse" wird dieses TCP/IP-Paket von der Router-Einheit 106 beim Sprachdienstanbieter und von der Netzentkopplungs-Rechnereinheit (nicht abgebildet) im Internet 105 zu dem Router-Abschnitt 114 in der Steuerrechnereinheit 104 für das mobile Endgerät übertragen und anschließend über das PHS-Netzwerk 103 (1) zu dem Übertragungssteuerabschnitt 321 (3) im Übertragungsabschnitt 111 des mobilen Endgerätes 101 weitergeleitet.
  • Der Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 des mobilen Endgerätes 101 erkennt, dass die IP-Adresse, die (vorübergehend oder dynamisch) dem mobilen Endgerät 101 zugewiesen ist, d. h. der Übertragungssteuerabschnitt 321 selbst, in dem Feld „Ziel-IP-Adresse" des IP-Steuerungsblockes des IP-Datagramms, welches das übertragene TCP/IP-Paket bildet, eingestellt ist, wodurch das TCP/IP-Paket empfangen wird.
  • Der Übertragungssteuerabschnitt 321 bestätigt, dass der 16-Bit-Ganzzahlwert zur Angabe des Übertragungsprotokolls für die Text-Spracherkennung/-formatierung in dem Feld „Ziel-Portnummer" und in dem Feld „Sendequellen-Portnummer" des TCP-Segmentes, welches das empfangene TCP/IP-Paket bildet, eingestellt ist, wodurch die CPU 316 im Steuerabschnitt 110 des mobilen Endgerätes 101 vom Empfang benachrichtigt wird.
  • Nach dieser Benachrichtigung extrahiert der Übertragungssteuerabschnitt 321 die Übertragungsfreigabedaten aus dem „Daten"-Feld des TCP-Segmentes, welches das empfangene TCP/IP-Paket bildet, und überträgt die Daten zu der CPU 316.
  • Die CPU 316 verarbeitet die Empfangsbenachrichtigung und die formatierten Textdaten in Schritt 402 aus 4 und zeigt die formatierten Textdaten auf dem LCD-Anzeigeabschnitt 311 (203 in 2) an.
  • Der Benutzer kann das Berührungsfeld des mobilen Endgerätes 101 betätigen, um die Anweisung an die Sprachsteuerungs-Rechnereinheit 108 zu erteilen, einen Anforderungsbefehl zum Beenden einer Text-Spracherkennung/-formatierung auszuführen, so dass die Text-Spracherkennung/-formatierung beendet wird.
  • Bei der Steueroperation entsprechend dem oben beschriebenen Ablaufdiagramm aus 4, bei der die Betätigung des Berührungsfeldes durch den Berührungsfeld-Steuerabschnitt 315 aus 3 erfasst und von der CPU 316 (3) im Steuerabschnitt 110 ausgeführt wird, wird die oben beschriebene Berührungsfeld-Betätigung erkannt, wenn die Antwort in Schritt 401 JA lautet und in den Schritten 405 und 406 NEIN lautet und wenn in Schritt 409 eine andere Tasteneingabeverarbeitung ausgeführt wird. Wenn bei der Sendeverarbeitung aus Schritt 404 die Antwort in Schritt 501 aus 5 JA lautet und gegebenenfalls in Schritt 503 die Anrufherstellverarbeitung ausgeführt wird, erhält der Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 aus 3 die Aufforderung, den „Endgerät-Identifikationscode" des mobilen Endgerätes 101 sowie einen Befehl und Daten zu übertragen, die der Tasteneingabeverarbeitung entsprechen, um in Schritt 504 den Anforderungsbefehl zum Beenden der Text-Spracherkennung/-formatierung zu erteilen.
  • Dementsprechend generiert der Übertragungssteuerabschnitt 321 ein TCP-Segment mit dem Format aus 6C, wobei der „Endgerät-Identifikationscode" zum Angeben des mobilen Endgerätes 101 und der Anforderungsbefehl zum Beenden der Text-Spracherkennung/formatierung in dem „Daten"-Feld gespeichert sind. Als Nächstes generiert der Übertragungssteuerabschnitt 321 ein IP-Datagramm mit dem Format aus 6B, worin das TCP-Segment im „Daten"-Feld gespeichert ist. Weiterhin erzeugt der Übertragungssteuerabschnitt 321 einen PPP-Frame mit dem Format aus 6A, wobei das IP-Datagramm in dem "Informations"-Feld gespeichert ist. Der Übertragungssteuerabschnitt 321 überträgt ein TCP/IP-Paket, das von dem TCP-Segment, dem IP-Datagramm und dem PPP-Frame gebildet wird. Hierbei sind die Informationen, die in dem TCP-Steuerungsblock (6C und 7B), im IP- Steuerungsblock (6B und 7A) und im "Protokoll"-Feld (6A) eingestellt sind, identisch mit jenen, die beim Senden des Anforderungsbefehls zum Start der Text-Spracherkennung/-formatierung eingestellt waren.
  • Im Ergebnis wird das TCP/IP-Paket genauso wie das TCP/IP-Paket, das den Anforderungsbefehl zum Start der Text-Spracherkennungsverarbeitung speichert, über das Internet 105 zu dem Paketsende-/-empfangsabschnitt 115 in der Sprachsteuerungs-Rechnereinheit 108 übertragen.
  • Der Paketsende-/-empfangsabschnitt 115 empfängt das übertragene TCP/IP-Paket und informiert den Übertragungssteuerabschnitt 116 des mobilen Endgerätes (1) über den Empfang, wie dies auch bei der Übertragung des TCP/IP-Pakets der Fall ist, welches den Anforderungsbefehl zum Start der Text-Spracherkennung/-formatierung speichert.
  • Nach dieser Benachrichtigung extrahiert der Paketsende-/-empfangsabschnitt 115 den „Endgerät-Identifikationscode" und den Anforderungsbefehl zum Beenden der Text-Spracherkennung/-formatierung aus dem „Daten"-Feld des TCP-Segments, welches das empfangene TCP/IP-Paket bildet, und überträgt diese Daten zu dem Übertragungssteuerabschnitt 116 des mobilen Endgerätes.
  • Im Ergebnis beendet der Übertragungssteuerabschnitt 116 des mobilen Endgerätes die Text-Spracherkennung/-formatierung für das mobile Endgerät 101 so, wie später beschrieben wird.
  • Details der Sende-/-Empfangsverarbeitung von E-Mail-Textdaten bzw. FAX-Textdaten durch das mobile Endgerät 101
  • Als Nächstes werden Details einer Operation des mobilen Endgerätes 101 nach Betätigung des Berührungsfeldes des mobilen Endgerätes 101 durch den Benutzer, um das Senden von bereits bearbeiteten E-Mail-Textdaten oder FAX-Textdaten anzuweisen, beschrieben.
  • Bei der Steueroperation entsprechend dem oben beschriebenen Ablaufdiagramm aus 4, bei der die Betätigung des Berührungsfeldes durch den Berührungsfeld-Steuerabschnitt 315 aus 3 erfasst und von der CPU 316 (3) im Steuerabschnitt 110 ausgeführt wird, wird die oben beschriebene Berührungsfeld-Betätigung erkannt, wenn die Antwort in Schritt 401 JA lautet und in den Schritten 405 und 406 NEIN lautet und wenn in Schritt 409 eine andere Tasteneingabeverarbeitung ausgeführt wird. Wenn bei der Sendeverarbeitung aus Schritt 404 die Antwort in Schritt 514 (im Falle von E-Mail-Textdaten) aus 5 oder in Schritt 518 (im Falle von FAX-Textdaten JA lautet und gegebenenfalls in Schritt 516 oder 520 die Anrufherstellverarbeitung ausgeführt wird, erhält der Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 aus 3 die Aufforderung, in Schritt 517 oder 521 E-Mai-Textdaten oder FAX-Textdaten zu übertragen. Wie bereits beschrieben, wird ein Feld „Von", welches die Sendequellen-Adresse angibt, automatisch zu den E-Mail-Textdaten hin zugefügt oder es wird die Sendequellen-Information automatisch zu den FAX-Textdaten hinzugefügt.
  • Dementsprechend generiert der Übertragungssteuerabschnitt 321 ein TCP-Segment mit dem Format aus 6C. In diesem Fall ist ein 16-Bit-Ganzzahlwert zur Angabe eines Mail-Sendeprotokolls (z. B. SMTP) bzw. ein 16-Bit-Ganzzahlwert zur Angabe eines FAX-Übertragungsprotokolls in dem Feld „Sendequellen-Portnummer" und in dem Feld „Ziel-Portnummer" des TCP-Steuerungsblockes mit dem Format aus 6C und 7B eingestellt. E-Mail-Textdaten bzw. FAX-Textdaten werden in das „Daten"-Feld des TCP-Segments eingestellt.
  • Als Nächstes generiert der Übertragungssteuerabschnitt 321 ein IP-Datagramm mit dem Format aus 6B, in dem das TCP-Segment in dem „Daten"-Feld gespeichert ist. Der Übertragungssteuerabschnitt 321 erzeugt weiterhin einen PPP-Frame mit dem Format aus 6A, in dem das IP-Datagramm im "Informations"-Feld gespeichert ist. Der Übertragungssteuerabschnitt 321 überträgt ein TCP/IP-Paket, das von dem TCP-Segment, dem IP-Datagramm und dem PPP-Frame gebildet wird. Hierbei sind die Informationen, die in dem IP-Steuerungsblock (6B und 7A) und im "Protokoll"-Feld (6A) eingestellt sind, identisch mit jenen, die bei der Übertragung von Sprachdaten in der Text-Spracherkennung/-formatierung eingestellt sind.
  • Dadurch wird das TCP/IP-Paket genau wie das TCP/IP-Paket, welches Sprachdaten in der Text-Spracherkennung/-formatierung speichert, über das Internet 105 zu dem Paketsende-/-empfangsabschnitt 115 in der Sprachsteuerungs-Rechnereinheit 108 übertragen.
  • Der Paketsende-/-empfangsabschnitt 115 erkennt, dass die IP-Adresse der Sprachsteuerungs-Rechnereinheit 108, d. h. der Paketsende-/-empfangsabschnitt 115 selbst, in dem Feld „Ziel-IP-Adresse" des IP-Steuerungsblockes des IP-Datagramms, welches das übertragene TCP/IP-Paket bildet, eingestellt ist, wodurch das TCP/IP-Paket empfangen wird.
  • Der Paketsende-/-empfangsabschnitt 115 bestätigt, dass der 16-Bit-Ganzzahlwert zur Angabe des Mail-Sendeprotokolls oder der 16-Bit-Ganzzahlwert zur Angabe des FAX-Sendeprotokolls in dem Feld „Sendequellen-Portnummer" und in dem Feld „Ziel-Portnummer" des TCP-Segments, welches das empfangene TCP/IP-Paket bildet, eingestellt ist, wodurch der Mail-Sende-/Empfangsabschnitt 119 oder der FAX-Sende-/Empfangsabschnitt 120 über den Empfang informiert wird.
  • Nach dieser Benachrichtigung extrahiert der Paketsende-/-empfangsabschnitt 115 die „Sendequellen-IP-Adresse" aus dem IP-Steuerungsblock des IP-Datagramms, welches das empfangene TCP/IP-Paket bildet, und die E-Mail-Textdaten oder die FAX-Textdaten aus dem „Daten"-Feld des TCP-Segments, welches das TCP/IP-Paket bildet, und überträgt diese Daten zu dem Mail-Sende-/Empfangsabschnitt 119 oder dem FAX-Sende-/Empfangsabschnitt 120.
  • Im Ergebnis führt der Mail-Sende-/Empfangsabschnitt 119 bzw. der FAX-Sende-/Empfangsabschnitt 120 die Sendeverarbeitung (wird später beschrieben) für die E-Mail-Textdaten bzw. die FAX-Textdaten aus.
  • Als Nächstes werden Details einer Operation des mobilen Endgerätes 101 beschrieben, die ausgeführt wird, wenn der Benutzer das Berührungsfeld des mobilen Endgerätes 101 betätigt, um die Anweisung zum Empfangen der E-Mail-Textdaten bzw. der FAX-Textdaten auszugeben.
  • Bei der Steueroperation entsprechend dem oben beschriebenen Ablaufdiagramm aus 4, bei der die Betätigung des Berührungsfeldes durch den Berührungsfeld-Steuerabschnitt 315 aus 3 erfasst und von der CPU 316 (3) im Steuerabschnitt 110 ausgeführt wird, wird die oben beschriebene Berührungsfeld-Betätigung erkannt, wenn die Antwort in Schritt 401 JA lautet und in den Schritten 405 und 406 NEIN lautet und wenn in Schritt 409 eine andere Tasteneingabeverarbeitung ausgeführt wird. Wenn bei der Sendeverarbeitung aus Schritt 404 die Antwort in Schritt 501 aus 5 JA lautet und gegebenenfalls in Schritt 503 die Anrufherstellverarbeitung ausgeführt wird, erhält der Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 aus 3 die Aufforderung, in Schritt 504 einen Mail- oder einen FAX-Empfangs-Anforderungsbefehl zu übertragen.
  • Dementsprechend generiert der Übertragungssteuerabschnitt 321 ein TCP-Segment mit dem Format aus 6C, in dem ein „Endgerät-Identifikationscode" zur Angabe des mobilen Endgerätes 101 und eines Mail-Empfangs-Anforderungsbefehls oder eines FAX-Empfangs-Anforderungsbefehl in dem „Daten"-Feld gespeichert sind. Als Nächstes erzeugt der Übertragungssteuerabschnitt 321 ein IP-Datagramm mit dem Format aus 6B, in dem das TCP-Segment in dem „Daten"-Feld gespeichert ist, einen PPP-Frame mit dem Format aus 6A, in dem das IP-Datagramm im "Informations"-Feld gespeichert ist, und überträgt ein TCP/IP-Paket, das von dem TCP-Segment, dem IP-Datagramm und dem PPP-Frame gebildet wird. Hierbei sind die Informationen, die in dem TCP-Steuerungsblock (6C und 7B), im IP-Steuerungsblock (6B und 7A) und im "Protokoll"-Feld (6A) eingestellt sind, identisch mit jenen, die beim Senden von E-Mail-Textdaten oder FAX-Textdaten eingestellt sind.
  • Dadurch wird das TCP/IP-Paket wie beim Senden von E-Mail-Textdaten oder FAX-Textdaten durch das Internet 105 zu dem Paketsende-/-empfangsabschnitt 115 in der Sprachsteuerungs-Rechnereinheit 108 übertragen.
  • Der Paketsende-/-empfangsabschnitt 115 erkennt, dass die IP-Adresse der Sprachsteuerungs-Rechnereinheit 108, d. h. der Paketsende-/-empfangsabschnitt 115 selbst, in dem Feld „Ziel-IP-Adresse" des IP-Steuerungsblockes des IP-Datagramms, welches das übertragene TCP/IP-Paket bildet, eingestellt ist, wodurch das TCP/IP-Paket empfangen wird.
  • Der Paketsende-/-empfangsabschnitt 115 bestätigt, dass der 16-Bit-Ganzzahlwert zur Angabe des Mail-Empfangsprotokolls oder der 16-Bit-Ganzzahlwert zur Angabe des FAX-Empfangsprotokolls in dem Feld „Sendequellen-Portnummer" und in dem Feld „Ziel-Portnummer" des TCP-Segments, welches das empfangene TCP/IP-Paket bildet, eingestellt ist, wodurch der Mail-Sende-/Empfangsabschnitt 119 oder der FAX-Sende-/Empfangsabschnitt 120 über den Empfang informiert wird.
  • Nach dieser Benachrichtigung extrahiert der Paketsende-/-empfangsabschnitt 115 die „Sendequellen-IP-Adresse" aus dem IP-Steuerungsblock des IP-Datagramms, welches das empfangene TCP/IP-Paket bildet, den „Endgerät-Identifikationscode" sowie den Mail-Empfangs-Anforderungsbefehl oder den FAX-Empfangs-Anforderungsbefehl aus dem „Daten"-Feld des TCP-Segments, welches das TCP/IP-Paket bildet, und überträgt diese Daten zu dem Mail-Sende-/Empfangsabschnitt 119 oder dem FAX-Sende-/Empfangsabschnitt 120.
  • Nach Abruf des Anforderungsbefehls zum Mail-Empfang oder des Anforderungsbefehls zum FAX-Empfang extrahiert der Mail-Sende-/Empfangsabschnitt 119 bzw. der FAX-Sende/Empfangsabschnitt 120 die für das mobile Endgerät 101 von einer Ausspuldatei empfangenen E-Mail-Textdaten oder FAX-Textdaten entsprechend dem „Endgerät-Identifikationscode", der zusammen mit dem Befehl von dem mobilen Endgerät 101 übertragen wurde, und sendet die E-Mail-Textdaten oder FAX-Textdaten über den Paketsende-/-empfangsabschnitt 115 so wie später beschrieben zu dem mobilen Endgerät 101.
  • Ausgehend von der im IP-Steuerungsblock des IP-Datagramms, welches das TCP/IP-Paket bildet, gespeicherten „Ziel-IP-Adresse" wird dieses TCP/IP-Paket von der Router-Einheit 106 beim Sprachdienstanbieter und von der Netzentkopplungs-Rechnereinheit (nicht abgebildet) im Internet 105 zu dem Router-Abschnitt 114 in der Steuerrechnereinheit 104 für das mobile Endgerät übertragen und anschließend über das PHS-Netzwerk 103 (1) zu dem Übertragungssteuerabschnitt 321 (3) im Übertragungsabschnitt 111 des mobilen Endgerätes 101 weitergeleitet.
  • Der Übertragungssteuerabschnitt 321 im Übertragungsabschnitt 111 des mobilen Endgerätes 101 erkennt, dass die IP-Adresse, die (vorübergehend oder dynamisch) dem mobilen Endgerät 101 zugewiesen ist, d. h. der Übertragungssteuerabschnitt 321 selbst, in dem Feld „Ziel-IP-Adresse" des IP-Steuerungsblockes des IP-Datagramms, welches das übertragene TCP/IP-Paket bildet, eingestellt ist, wodurch das TCP/IP-Paket empfangen wird.
  • Der Übertragungssteuerabschnitt 321 bestätigt, dass der 16-Bit-Ganzzahlwert zur Angabe des Mail-Empfangsprotokolls oder der 16-Bit-Ganzzahlwert zur Angabe des FAX-Empfangsprotokolls in dem Feld „Ziel-Portnummer" und in dem Feld „Sendequellen-Portnummer" des TCP-Segmentes, welches das empfangene TCP/IP-Paket bildet, eingestellt ist, wodurch die CPU 316 im Steuerabschnitt 110 des mobilen Endgerätes 101 vom Empfang benachrichtigt wird.
  • Nach dieser Benachrichtigung extrahiert der Übertragungssteuerabschnitt 321 die E-Mail-Textdaten oder die FAX-Textdaten aus dem „Daten"-Feld des TCP-Segmentes, welches das empfangene TCP/IP-Paket bildet, und überträgt die Daten zu der CPU 316.
  • Die CPU 316 verarbeitet die Empfangsbenachrichtigung und die E-Mail-Textdaten bzw. FAX-Textdaten in Schritt 412 oder 414, die ausgehend von der Feststellverarbeitung in Schritt 411 bzw. 413 aus 4 ausgeführt werden, und zeigt die E-Mail-Textdaten bzw. FAX-Textdaten auf dem LCD-Anzeigeabschnitt 311 (203 in 2) an.
  • Allgemeine Operationen des Übertragungssteuerabschnitts 116 des mobilen Endgerätes, des Text-Spracherkennungsabschnitts 117 und des Abschnitts 118 zum Erzeugen von formatiertem Text
  • Als Nächstes werden allgemeine Operationen des Übertragungssteuerabschnitts 116 des mobilen Endgerätes, des Text-Spracherkennungsabschnitts 117 und des Abschnitts 118 zum Erzeugen von formatiertem Text in der Sprachsteuerungs-Rechnereinheit 108 beschrieben.
  • Der Übertragungssteuerabschnitt 116 des mobilen Endgerätes nimmt einen Eintrag in eine Verarbeitungsendgerät-Registriertabelle mit einer Datenstruktur wie in 10 entsprechend dem „Endgerät-Identifikationscode" vor (der „Endgerät-Identifikationscode" ist in dem TCP-Segment zum Übertragen eines Befehls gespeichert), der dem mobilen Endgerät 101 zugeordnet ist, welches einen Anforderungsbefehl zum Start einer Text-Spracherkennung/-formatierung gesendet hat. Weiterhin generiert der Übertragungssteuerabschnitt 116 des mobilen Endgerätes einen Formattyp ausgehend von Formattypdaten, eine Pufferdatei (Sprachpufferdatei) zum Empfangen von Sprachdaten, eine Pufferdatei (Textpufferdatei) zum temporären Speichern erkannter Sprachtextdaten, und eine Pufferdatei (Pufferdatei für formatierten Text) zum Übertragen formatierter Textdaten auf ein Dateisystem, das von der Sprachsteuerungs-Rechnereinheit 108 verwaltet wird. In der Verarbeitungsendgerät-Registriertabelle aus 10 sind die Dateinamen der generierten Dateien entsprechend dem Endgerät-Identifikationscode, der Sendequellen-IP-Adresse, dem Formattyp und der letzten Zugriffszeit gespeichert. Nach dem erfolgreichen Registrieren des Eintrags und der Dateien sendet der Übertragungssteuerabschnitt 116 des mobilen Endgerätes die Sendefreigabedaten entsprechend der „Sendequellen-IP-Adresse", die in dem IP-Datagramm gespeichert ist, welches diese übertragen hat, zu dem mobilen Endgerät 101 zurück.
  • Anschließend schreibt der Übertragungssteuerabschnitt 116 des mobilen Endgerätes zusätzlich von dem mobilen Endgerät 101 empfangene Sprachdaten in eine Sprachpufferdatei, die von dem Eintrag der Verarbeitungsendgerät-Registriertabelle entsprechend der „Sendequellen-IP-Adresse" angegeben wird (die „Sendequellen-IP-Adresse" ist in dem IP-Datagramm gespeichert, welches diese übertragen hat).
  • Wenn Sprachdaten in der von dem Eintrag angegebenen Sprachpufferdatei empfangen worden sind, führt der Text-Spracherkennungsabschnitt 117 die Text-Spracherkennungsverarbeitung in Einheiten von Einträgen der Verarbeitungsendgerät-Registriertabelle aus 10 aus und schreibt zusätzlich entstandene erkannte Sprachtextdaten entsprechend dem Eintrag in eine Textpufferdatei ein.
  • Wenn erkannte Sprachtextdaten in der von dem Eintrag angegebenen Textpufferdatei eingegangen sind, formatiert der Abschnitt 118 zum Erzeugen von formatiertem Text (1) die erkannten Sprachtextdaten in Einheiten von Einträgen der Verarbeitungsendgerät-Registriertabelle aus 10 und schreibt zusätzlich die entstandenen formatierten Textdaten entsprechend dem Eintrag in eine Pufferdatei für formatierten Text ein.
  • Wenn formatierte Textdaten in der von dem Eintrag angegebenen Pufferdatei für formatierten Text eingegangen sind, sendet der Übertragungssteuerabschnitt 116 des mobilen Endgerätes die formatierten Textdaten entsprechend der „Sendequellen-IP-Adresse", die in dem Eintrag in Einheiten von Einträgen in der Verarbeitungsendgerät-Registriertabelle registriert ist, zu dem mobilen Endgerät 101 zurück.
  • Der Übertragungssteuerabschnitt 116 des mobilen Endgerätes löscht die Inhalte eines Eintrags der Verarbeitungsendgerät-Registriertabelle, für den ein Anforderungsbefehl zum Beenden der Text-Spracherkennung/-formatierung empfangen wurde bzw. dessen letzte Zugriffszeit weiter als eine vorgegebene Zeitspanne zurückliegt, und löscht die von dem Eintrag angegebenen Pufferdateien.
  • Details der Funktionsweise des Übertragungssteuerabschnitts 116 des mobilen Endgerätes
  • Die 9A bis 9C sind Ablaufdiagramme, die die Steueroperation zeigen, welche von dem Übertragungssteuerabschnitt 116 des mobilen Endgerätes ausgeführt werden, um die obige Funktion zu erfüllen. Der Übertragungssteuerabschnitt 116 des mobilen Endgerätes verfügt über einen Prozessor und ein Steuerprogramm. Der Ablauf der Operation erfolgt durch den Prozessor zur Ausführung des Steuerprogramms.
  • In Schritt 901 wird festgestellt, ob der Paketsende-/-empfangsabschnitt 115 (1) in der Sprachsteuerungs-Rechnereinheit 108 den Übertragungssteuerabschnitt 116 des mobilen Endgerätes über einen Empfang informiert hat. Wie oben beschrieben, erkennt der Paketsende-/-empfangsabschnitt 115, dass die IP-Adresse der Sprachsteuerungs-Rechnereinheit 108, d. h. der Paketsende-/-empfangsabschnitt 115 selbst, in der „Ziel-IP-Adresse" des IP-Steuerungsblocks des IP-Datagramms, welches das von dem Internet 105 übertragene TCP/IP-Paket bildet, eingestellt ist, wodurch das TCP/IP-Paket empfangen wird. Weiterhin bestätigt der Paketsende-/-empfangsabschnitt 115, dass der 16-Bit-Ganzzahlwert zum Angeben des Übertragungsprotokolls für die Text-Spracherkennung/-formatierung in dem Feld „Ziel-Portnummer" und in dem Feld „Sendequellen-Portnummer" des TCP-Segmentes ein gestellt sind, welches das TCP/IP-Paket bildet, wodurch der Übertragungssteuerabschnitt 116 des mobilen Endgerätes von dem Empfang informiert wird. Diese Empfangsbenachrichtigung geht einher mit einem Anforderungsbefehl zum Start der Text-Spracherkennung/formatierung und Formattypdaten, Sprachdaten als Ziel der Text-Spracherkennung/-formatierung oder einem Anforderungsbefehl zum Beenden der Text-Spracherkennung/-formatierung.
  • Wenn der Paketsende-/-empfangsabschnitt 115 den Übertragungssteuerabschnitt 116 des mobilen Endgerätes über den Empfang informiert hat, d. h. JA in Schritt 901, dann werden in Schritt 902 Daten abgerufen, die von dem Paketsende-/-empfangsabschnitt 115 zusammen mit der Empfangsbenachrichtigung übertragen wurden. Wenn die Empfangsbenachrichtigung zu einem Anforderungsbefehl zum Start der Text-Spracherkennung/-formatierung gehört, werden die „Sendequellen-IP-Adresse", der „Endgerät-Identifikationscode", der Befehl und die Formattypdaten abgerufen. Wenn die Empfangsbenachrichtigung zu Sprachdaten gehört, werden die „Sendequellen-IP-Adresse" und die Sprachdaten abgerufen. Wenn die Empfangsbenachrichtigung im Zusammenhang mit einem Anforderungsbefehl zum Beenden der Text-Spracherkennung/-formatierung steht, werden der „Endgerät-Identifikationscode" und der Befehl abgerufen.
  • Nach der Verarbeitung in Schritt 902 werden nacheinander die Schritte 903 aus 9A und die Schritte 907 und 909 aus 9B überprüft, wobei das Feststellergebnis JA lautet. Konkret heißt das, wenn die von dem Paketsende-/-empfangsabschnitt 115 in Schritt 902 übertragenen Daten zu einem Anforderungsbefehl zum Start der Text-Spracherkennung/-formatierung gehören, d. h. JA in Schritt 903, erfolgt die Verarbeitung der Schritte 904 bis 906. Stehen die Daten im Zusammenhang mit Sprachdaten, d. h. JA in Schritt 907 aus 9B, erfolgt die Verarbeitung in Schritt 908. Gehören die Daten zu einem Anforderungsbefehl zum Beenden der Text-Spracherkennung/-formatierung, d. h. JA in Schritt 909 aus 9B, erfolgt die Verarbeitung in den Schritten 910 und 911.
  • Wenn der Paketsende-/-empfangsabschnitt 115 den Übertragungssteuerabschnitt 116 des mobilen Endgerätes nicht über einen Empfang informiert hat, d. h. NEIN in Schritt 901, erfolgt die Verarbeitung entsprechend dem Empfang des Befehls oder von Sprachdaten, und anschließend wird in den Schritten 912 und 913 aus 9C die Sendeverarbeitung für formatierte Textdaten ausgeführt. In Schritt 914 und 915 erfolgt die Verarbeitung zum Beenden der Verbindung mit dem mobilen Endgerät 101, bei dem die letzte Zugriffszeit weiter als ein vorgegebener Zeitraum zurückliegt, und es geht zurück zu der Feststellverarbeitung in Schritt 901.
  • Nun erfolgt die Beschreibung der Verarbeitung in den Schritten 904 und 906, wenn die Antwort in Schritt 901 JA lautet und die von dem Paketsende-/-empfangsabschnitt 115 in Schritt 902 übertragenen Daten im Zusammenhang mit einem Anforderungsbefehl zum Start der Text-Spracherkennung/-formatierung stehen.
  • In Schritt 904 werden eine Sprachpufferdatei zum Empfangen von Sprachdaten, eine Textpufferdatei zum temporären Speichern erkannter Sprachtextdaten und eine Pufferdatei für formatierten Text zum Senden formatierter Textdaten in dem Dateisystem generiert, das von der Sprachsteuerungs-Rechnereinheit 108 verwaltet wird.
  • In Schritt 905 wird ein Eintrag (Datensatz einer Reihe) in der Verarbeitungsendgerät-Registriertabelle mit der Datenstruktur aus 10 sichergestellt, der in einem Speicher (nicht abgebildet) im Übertragungssteuerabschnitt 116 des mobilen Endgerätes gespeichert wird. In dem Eintrag sind ein „Endgerät-Identifikationscode", eine „Sendequellen-IP-Adresse", ein Formattyp ausgehend von den Formattypdaten, eine letzte Zugriffszeit, ein Sprachpufferdateiname, ein Textpufferdateiname und der Name einer Pufferdatei für formatierten Text registriert. Bei dem „Endgerät-Identifikationscode" handelt es sich um Daten, die in Schritt 902 von dem Paketsende-/-empfangsabschnitt 115 übertragen wurden und in dem „Daten"-Feld des TCP-Segments gespeichert sind, welches das von dem mobilen Endgerät 101 (6C) übertragene TCP/IP-Paket bildet. Die „Sendequellen-IP-Adresse" wird von Daten gebildet, die in Schritt 902 von dem Paketsende-/-empfangsabschnitt 115 übertragen wurden und in dem IP-Steuerungsblock des IP-Datagramms gespeichert sind, welches das von dem mobilen Endgerät 101 (6B und 7A) übertragene TCP/IP-Paket bildet. In der letzten Zugriffszeit wird die aktuelle Zeit eingestellt. Die Pufferdateinamen repräsentieren die einzelnen Dateien, die in Schritt 904 generiert wurden.
  • Nach der Verarbeitung in Schritt 905 werden in Schritt 906 Sendefreigabedaten zu der „Sendequellen-IP-Adresse" zurückgesendet, die in Schritt 902 von dem Paketsende-/-empfangsabschnitt 115 übertragen wurden, und in dem Eintrag der Verarbeitungsendgerät-Registriertabelle registriert.
  • Konkret fordert der Übertragungssteuerabschnitt 116 des mobilen Endgerätes den Paketsende-/-empfangsabschnitt 115 (1) auf, die Sendefreigabedaten zu der „Sendequellen-IP-Adresse" zurückzusenden.
  • Dementsprechend generiert der Paketsende-/-empfangsabschnitt 115 ein TCP-Segment mit dem Format aus 6C. Hierbei wird ein 16-Bit-Ganzzahlwert zur Angabe eines Übertragungsprotokolls für die Text-Spracherkennung/-formatierung in dem Feld „Sendequellen-Portnummer" und in dem Feld „Ziel-Portnummer" des TCP-Steuerungsblocks mit dem Format aus 6C und 7B eingestellt. In dem „Daten"-Feld des TCP-Segments sind Sendefreigabedaten gespeichert.
  • Als Nächstes generiert der Paketsende-/-empfangsabschnitt 115 ein IP-Datagramm mit dem Format aus 6B, in dem das TCP-Segment in dem „Daten"-Feld gespeichert ist. In diesem Fall ist 16-Bit-Ganzzahlwert zum Definieren des Formats der TCP-Segmentdaten, die in dem „Daten"-Feld gespeichert sind, in dem "Protokoll"-Feld des IP-Steuerungsblockes mit dem Format aus 6B und 7A eingestellt. Die IP-Adresse, die der Sprachsteuerungs-Rechnereinheit 108 zugewiesen wurde, ist in dem Feld „Sendequellen-IP-Adresse" eingestellt. Die in Schritt 902 aus 9A von dem Paketsende-/-empfangsabschnitt 115 übertragene „Sendequellen-IP-Adresse" wird in das Feld „Ziel-IP-Adresse" eingestellt.
  • Der Paketsende-/-empfangsabschnitt 115 generiert entsprechend dem Protokoll im LAN 107 einen Frame, der das IP-Datagramm speichert, und sendet den Frame zum LAN 107. Wenn das LAN 107 beispielsweise ein lokales Netzwerk auf Ethernet-Basis ist, ist der Frame ein Ethernet-Frame.
  • Das TCP/IP-Paket, das von dem Frame, dem IP-Datagramm und dem TCP-Segment gebildet wird, wird über die Router-Einheit 106 und das Internet 105 auf der Basis der „Ziel-IP-Adresse", die in dem IP-Steuerungsblock des IP-Datagramms gespeichert ist, welches das TCP/IP-Paket bildet, zu der Steuerrechnereinheit 104 für das mobile Endgerät übertragen und anschließend über das PHS-Netzwerk 103 und die Funk-Basisstation (oder Kabelverbindungseinheit) 102 zu dem Übertragungssteuerabschnitt 321 (3) im Übertragungsabschnitt 111 des mobilen Endgerätes 101 übertragen.
  • Anschließend werden die Sprachdaten wie oben beschrieben von dem mobilen Endgerät 101 zu der Sprachsteuerungs-Rechnereinheit 108 übertragen.
  • Nach dem Verarbeiten in Schritt 906 erfolgt die Übertragungsverarbeitung der formatierten Textdaten in Schritt 912 und 913 aus 9C: Die Verarbeitung zum Beenden der Verbindung mit dem mobilen Endgerät 101, bei dem der letzte Zugriff länger als eine vorgegebene Zeitspanne zurückliegt, erfolgt in den Schritten 914 und 915; anschließend geht es zurück zur Feststellverarbeitung in Schritt 901 aus 9A.
  • Als Nächstes wird die Verarbeitung beschrieben, die in Schritt 908 ausgeführt wird, wenn die Antwort in Schritt 901 aus 9A JA lautet, und wenn die von dem Paketsende-/-empfangsabschnitt 115 in Schritt 902 übertragenen Daten Sprachdaten sind, d. h. wenn die Antwort in Schritt 907 aus 9B JA ist.
  • In Schritt 908 wird nach einem Eintrag in der Verarbeitungsendgerät-Registriertabelle ( 10) gesucht, der dieselbe „Sendequellen-IP-Adresse" speichert wie jene, die in Schritt 902 aus 9A von dem Paketsende-/-empfangsabschnitt 115 übertragen wurde, und zusätzlich werden die von dem Paketsende-/-empfangsabschnitt 115 in Schritt 902 aus 9A übertragenen Sprachdaten entsprechend dem unter dem jeweiligen Eintrag gespeicherten Namen der Sprachpufferdatei in die Sprachpufferdatei (Schritt 904 in 9A) eingeschrieben. Die Größe der Sprachpufferdatei während des zusätzlichen Einschreibens wird automatisch von dem Dateisystem geregelt, welches von der Sprachsteuerungs-Rechnereinheit 108 verwaltet wird.
  • Darüber hinaus wird in Schritt 908 die in dem entsprechenden Eintrag gespeicherte letzte Zugriffszeit auf die aktuelle Zeit aktualisiert.
  • Auf diese Art und Weise werden die Sprachdaten über die Sprachpufferdatei für jedes mobile Endgerät 101 (für jeden „Endgerät-Identifikationscode") von dem Übertragungssteuerabschnitt 116 des mobilen Endgerätes zu dem Text-Spracherkennungsabschnitt 117 (1) übertragen. Wenn die Sprachdaten in der durch den Eintrag angegebenen Sprachpufferdatei, wie später beschrieben, eingegangen sind, führt der Text-Spracherkennungsabschnitt 117 die Text-Spracherkennungsverarbeitung für die Sprachdaten in Einheiten von Einträgen der Verarbeitungsendgerät-Registriertabelle aus und schreibt weiterhin die entstandenen erkannten Sprachtextdaten entsprechend dem Eintrag in die Textpufferdatei ein. Wenn die erkannten Sprachtextdaten in der von dem Eintrag angegebenen Textpufferdatei, wie später beschrieben, eingegangen sind, formatiert der Abschnitt 118 zum Erzeugen von formatiertem Text (1) die erkannten Sprachtextdaten in Einheiten von Einträgen der Verarbeitungsendgerät-Registriertabelle aus 10 und schreibt des Weiteren die formatierten Textdaten entsprechend dem Eintrag in die Pufferdatei für formatierten Text ein.
  • Nach der Verarbeitung in Schritt 908 erfolgt die Sendeverarbeitung für die formatierten Textdaten in Schritt 912 und 913 aus 9C. In den Schritten 914 und 915 findet die Verarbeitung zum Beenden der Verbindung mit dem mobilen Endgerät 101 statt, bei dem die letzte Zugriffszeit vor einem festgelegten Zeitpunkt liegt, und es geht zurück zur Feststellverarbeitung in Schritt 901 aus 9A.
  • Als Nächstes wird die in den Schritten 910 und 911 ausgeführte Verarbeitung für den Fall beschrieben, dass die Antwort in Schritt 901 aus 9A JA ist und die Daten, die in Schritt 902 von dem Paketsende-/-empfangsabschnitt 115 übertragen wurden, zu einem Anforderungsbefehl zum Beenden der Text-Spracherkennung/-formatierung gehören, d. h. JA in Schritt 909 aus 9B.
  • In Schritt 910 werden die Inhalte eines Eintrags der Verarbeitungsendgerät-Registriertabelle (10), der denselben „Endgerät-Identifikationscode" wie jenen speichert, der in Schritt 902 aus 9A von dem Paketsende-/-empfangsabschnitt 115 übertragen wurde, gelöscht. In Schritt 911 werden Pufferdateien entsprechend den im Eintrag gespeicherten Namen der Sprachpufterdatei, der Textpufferdatei und der Pufferdatei für formatierten Text aus dem Dateisystem gelöscht, welches von der Sprachsteuerungs-Rechnereinheit 108 verwaltet wird.
  • Nach der Verarbeitung in Schritt 911 erfolgt die Sendeverarbeitung für formatierte Textdaten in Schritt 912 und 913 aus 9C. Die Verarbeitung zum Beenden der Verbindung mit dem mobilen Endgerät 101, bei dem die letzte Zugriffszeit vor einem festgelegten Zeitpunkt liegt, wird in den Schritten 914 und 915 ausgeführt, und es geht zurück zur Feststellverarbeitung in Schritt 901 aus 9A.
  • Nun wird die Verarbeitung in den Schritten 912 und 913 sowie die nachfolgende Verarbeitung in den Schritten 914 und 915 aus 9C beschrieben, die ausgeführt wird, wenn der Paketsende-/-empfangsabschnitt 115 keinen Empfang gemeldet hat, d. h. NEIN in Schritt 901 aus 9A, oder nachdem die Verarbeitung entsprechend dem Empfang des Befehls oder der Sprachdaten stattfand.
  • Bei diesen Verarbeitungsschritten werden die aus dem Abschnitt 118 zum Erzeugen von formatiertem Text erhaltenen formatierten Textdaten gesendet.
  • In Schritt 905 wird festgestellt, ob die Verarbeitungsendgerät-Registriertabelle (10) über einen Eintrag verfügt, in dem formatierte Textdaten in einer Pufferdatei für formatierten Text vorhanden sind, die dem Namen der Pufferdatei für formatierten Text entspricht.
  • Wenn ein solcher Eintrag nicht vorliegt, d. h. NEIN in Schritt 912, wird die Sendeverarbeitung für formatierte Textdaten in Schritt 913 nicht ausgeführt, und es geht weiter zur Verarbeitung in den Schritten 914 und 915.
  • Wenn einer oder mehrere Einträge wie oben beschrieben vorliegen, d. h. JA in Schritt 912, werden formatierte Textdaten in Pufferdateien für formatierten Text, die den in diesen Einträgen gespeicherten Namen der Pufferdateien für formatierten Text entsprechen, zu den in den Einträgen in Einheiten von Einträgen gespeicherten „Sendequellen-IP-Adressen" gesendet, und die gesendeten formatierten Textdaten werden aus den Pufferdateien für formatierten Text gelöscht. Die Größe der Pufferdatei für formatierten Text beim Löschen wird automatisch durch das Dateisystem angepasst, welches von der Sprachsteuerungs-Rechnereinheit 108 verwaltet wird.
  • Nach der Verarbeitung in Schritt 913 oder wenn die Antwort in Schritt 912 NEIN ist, erfolgt die Verarbeitung in Schritt 914. Aus den Einträgen in der Verarbeitungsendgerät-Registriertabelle (10) wird ein Eintrag erfasst, dessen letzte Zugriffszeit länger als ein vorgegebener Zeitraum zurückliegt, und es werden sämtliche Inhalte des Eintrags gelöscht.
  • In Schritt 915 werden Pufferdateien entsprechend den im Eintrag gespeicherten Namen der Sprachpufferdatei, der Textpufferdatei und der Pufferdatei für formatierten Text aus dem Dateisystem gelöscht, das von der Sprachsteuerungs-Rechnereinheit 108 verwaltet wird. Nach der Verarbeitung in Schritt 915 geht es zurück zu der Feststellverarbeitung in Schritt 901 aus 9A.
  • Details der Funktionsweise des Text-Spracherkennungsabschnitts 117
  • 11 ist ein Funktionsblockdiagramm des Text-Spracherkennungsabschnitts 117.
  • Wenn wie oben beschrieben Sprachdaten in der von dem Eintrag angegebenen Sprachpufferdatei eingegangen sind, führt der Text-Spracherkennungsabschnitt 117 die Text-Spracherkennung für die Sprachdaten in Einheiten von Einträgen in der Verarbeitungsendgerät- Registriertabelle aus 10 aus und schreibt zusätzlich die entstandenen erkannten Sprachtextdaten in die dem Eintrag entsprechende Textpufferdatei ein.
  • Das Auslesen von Sprachdaten aus der Sprachpufferdatei und das Einschreiben von erkannten Sprachtextdaten in die Textpufferdatei in Einheiten von Einträgen werden von einem Eingabe/Ausgabe-Steuerabschnitt 1309 aus 11 gesteuert. Zuerst wird die Steuerfunktion des Eingabe/Ausgabe-Steuerabschnitts 1309 beschrieben. 12 ist ein Ablaufdiagramm, das den Steuervorgang zeigt, der vom Eingabe/Ausgabe-Steuerabschnitt 1309 ausgeführt wird. Der Eingabe/Ausgabe-Steuerabschnitt 1309 verfügt über einen Prozessor und ein Steuerprogramm und der Ablauf von Arbeitsschritten erfolgt als eine Operation, die von dem Prozessor zur Ausführung des Steuerprogramms realisiert wird.
  • In Schritt 1401 wird festgestellt, ob die Verarbeitungsendgerät-Registriertabelle (10) einen Eintrag enthält, in dem Sprachdaten in der Sprachpufferdatei gespeichert sind, die dem Namen der Sprachpufferdatei entspricht.
  • Wenn ein Eintrag vorliegt, d. h. JA in Schritt 1401, werden der in dem Eintrag gespeicherte „Endgerät-Identifikationscode" und die Sprachdaten, die dem in dem Eintrag gespeicherten Namen der Sprachpufferdatei entsprechen, in Einheiten von Einträgen in eine Eingabepuffer-Warteschlange 1301 aus 11 eingeschrieben, und in Schritt 1402 werden die Sprachdaten aus der Sprachpufferdatei gelöscht.
  • Die Eingabepuffer-Warteschlange 1301 hat die Funktion, nacheinander Sprachdaten, die sich in der Eingabepuffer-Warteschlange 1301 in Warteposition befinden, einem Sprachintervall-Erkennungsabschnitt 1302 zuzuführen. Ein Sprachanalyseabschnitt 1303, ein Phonem-Erkennungsabschnitt 1304, ein Worterkennungsabschnitt 1306 und ein Texterkennungsabschnitt 1307, die an den Ausgang des Sprachintervall-Erkennungsabschnitts 1302 angeschlossen sind, bilden eine Datenverarbeitungs-Pipeline und haben die Funktion, Eingabedaten unabhängig voneinander zu verarbeiten. Die Abschnitte 1302 bis 1307 können den „Endgerät-Identifikationscode" erkennen (der „Endgerät-Identifikationscode" wird aus der Eingabepuffer-Warteschlange 1301 eingegeben), der den Sprachdaten entspricht, die gerade verarbeitet werden. Schließlich wird ein Satz, bestehend aus dem „Endgerät-Identifikationscode" und den erkannten Sprachtextdaten, aus dem Texterkennungsabschnitt 1307 an eine Ausgabepuffer-Warteschlange 1308 ausgegeben.
  • Nach der Verarbeitung in Schritt 1402 oder wenn die Antwort in Schritt 1401 NEIN lautet, wird in Schritt 1403 festgestellt, ob die Ausgabepuffer-Warteschlange 1308 aus 11 den Satz aus dem „Endgerät-Identifikationscode" und den erkannten Sprachtextdaten empfangen hat.
  • Wenn ein solcher Satz eingegangen ist, d. h. JA in Schritt 1403, werden in Schritt 1404 die erkannten Sprachtextdaten des Satzes aus der Ausgabepuffer-Warteschlange 1308 entsprechend dem im Eintrag der Verarbeitungsendgerät-Registriertabelle gespeicherten Na men der Textpufferdatei, der dem „Endgerät-Identifikationscode" entspricht, in Einheiten von Sätzen aus der Ausgabepuffer-Warteschlange 1308 zusätzlich in die Textpufferdatei eingeschrieben.
  • Nach der Verarbeitung in Schritt 1404 bzw. wenn in Schritt 1403 die Antwort NEIN lautet, wird erneut die Feststellvorrichtung in Schritt 1401 ausgeführt.
  • Auf diese Art und Weise kann der Text-Spracherkennungsabschnitt 117 effizient die Text-Spracherkennungsverarbeitung für die Sprachdaten ausführen, die von einer Vielzahl mobiler Endgeräte 101 als Assembly Line Operation angefordert wird.
  • Nachstehend werden die Funktionen der Abschnitte 1302 bis 1307 zur Durchführung der Text-Spracherkennungsverarbeitung beschrieben. Jedes zu beschreibende Schema kann durch Verweis auf z. B. Furui, „Introduction to Electronics/Information Engineering 2, Acoustic/Phonetic Engineering", Kapitel 14, Kindaikagaku-sha, realisiert werden.
  • Der Sprachintervall-Erkennungsabschnitt 1302 erkennt das Intervall, in dem Sprachdaten aus der Zeitreihe von Sprachdaten vorliegen, die aus der Eingabepuffer-Warteschlange 1301 eingegeben wurden. Konkret berechnet der Sprachintervall-Erkennungsabschnitt 1302 die durchschnittliche Energie der vorgegebenen Abtastwerte (z. B. 31 bis 256 Abtastwerte von 8-kHz-Abtastdaten) und erkennt ein Intervall, in dem ein Zustand, bei dem die durchschnittliche Energie einen vorgegebenen Schwellenwert überschreitet, über eine vorgegebene Anzahl von Zyklen oder mehr anhält, als ein Sprachintervall. Mit dieser Verarbeitung kann eine fehlerhafte Erkennung von Textsprachdaten in einem Intervall, in dem keine Sprachdaten vorliegen, verhindert werden.
  • Der Sprachanalyseabschnitt 1303 analysiert das charakteristische Merkmal der Sprachdaten, die aus dem Sprachintervall-Erkennungsabschnitt 1302 ausgegeben werden, wodurch ein Merkmalsumfang-Parametervektor erkannt wird. Dabei kann eines der nachfolgenden bekannten Analyseverfahren als Sprachanalyseverfahren zur Anwendung kommen.
    • (1) Jede Ausgabe aus einer Band-Filterbank zum Empfang der Sprachdaten-Zeitreihe wird geglättet, und jede geglättete Ausgabe wird als ein Element des Merkmalsumfang-Parametervektors verwendet.
    • (2) Jede mit der schnellen Fourier-Transformation (FFT) berechnete kurzzeitige Spektralkomponente wird geglättet, während die Sprachdaten-Zeitreihe der vorgegebenen kontinuierlichen Abtastwerte empfangen wird, und jeder Wert der geglätteten Komponente wird als Element des Merkmalsumfang-Parametervektors eingesetzt.
    • (3) Mithilfe der Cepstrum-Analyse wird eine Cepstrum-Koeffizientengruppe berechnet, während die Sprachdaten-Zeitreihe der vorgegebenen kontinuierlichen Abtastwerte empfangen wird, und die Cepstrum-Koeffizientengruppe wird als Element des Merkmalsumfang-Parametervektors verwendet.
    • (4) Es wird nicht nur die Cepstrum-Koeffizientengruppe in (3) berechnet, sondern auch eine Δ-Cepstrumgruppe (Cepstrum-Differenzialkoeffizient) für die Cepstrum-Koeffizientengruppe und als ein Element des Merkmalsumfang-Parametervektors hinzugefügt.
  • Mittels einer linearen Prediktionsanalyse (LPC-Analyse) und insbesondere einer Linearspektrum-Paaranalyse (LSP-Analyse) wird eine LPC (LSP)-Koeffizientengruppe berechnet, während die Sprachdaten-Zeitreihe der vorgegebenen kontinuierlichen Abtastwerte empfangen wird, und als ein Element des Merkmalsumfang-Parametervektors verwendet.
    • (6) Eine Autokorrelationsfunktion wird durch eine Autokorrelationsanalyse berechnet, während die Sprachdaten-Zeitreihe der vorgegebenen kontinuierlichen Abtastwerte empfangen wird, und es wird ein auf der Grundlage der Autokorrelationsfunktion erkanntes Grundfrequenzmuster der Sprachgrundfrequenz als ein Element des Merkmalsumfang-Parametervektors hinzugefügt.
  • Der Phonem-Erkennungsabschnitt 1304 berechnet die Ähnlichkeit (den Abstand) zwischen dem aus dem Sprachanalyseabschnitt 1303 in einer vorgegebenen Frame-Periode (in Einheiten vorgegebener Abtastwerte) ausgegebenen Merkmalsumfang-Parametervektor und dem Standardmuster des Merkmalsumfang-Parametervektors für jedes Phonem, das in dem Phonem-Standardmuster-Wörterbuch 1303 gespeichert ist, und gibt einen Satz von in einer vorgegebenen Frame-Periode erhaltenen Phonemen mit hoher Ähnlichkeit als Phonem-Gitterdaten aus. Um eine fehlerhafte Phonemerkennung zu verhindern, gibt der Phonem-Erkennungsabschnitt 1304 die entstehenden Daten in Form von Phonem-Gitterdaten aus, wobei Phonem-Kandidaten in einer Tabelle aufgelistet sind, und bestimmt kein endgültiges Phonem in einer vorgegebenen Frame-Periode.
  • Der Worterkennungsabschnitt 1306 empfängt die aus dem Phonem-Erkennungsabschnitt 1304 in einer vorgegebenen Frame-Periode ausgegebenen Phonem-Gitterdaten und gibt Wortgitterdaten aus, wobei Wortkandidaten in einer Tabelle in einer vorgegebenen Frame-Periode aufgelistet sind. Eines der folgenden bekannten Analyseverfahren kann als Worterkennungsverfahren zum Einsatz kommen:
    • (1) Der Worterkennungsabschnitt 1306 führt eine Zeitnormierung (DP-Matching oder DTW: Dynamic Time Warping) für eine aus dem Phonem-Erkennungsabschnitt 1304 über eine Vielzahl von Frame-Perioden hinweg ausgegebene Zeitreihe von Phonem-Gitterdaten und für die gesamte im Wörterbuch gespeicherte Phonem-Standardmusterreihe durch und gibt Wortgitterdaten aus. Um auch eine fehlerhafte Worterkennung zu verhindern, gibt der Worterkennungsabschnitt 1306 die entstehenden Daten in Form von Wortgitterdaten aus, wobei die Wortkandidaten in einer Tabelle gelistet sind und kein endgültiges Wort in einer vorgegebenen Frame-Periode bestimmt wird.
    • (2) Der Worterkennungsabschnitt 1306 erstellt Modelle aller Wörter mithilfe von HMM (Hidden Markov Model) und gibt eine Zeitreihe von Phonem-Gitterdaten über die Vielzahl von aus dem Phonem-Erkennungsabschnitt 1304 ausgegebenen Frame-Perioden hinweg in einen HMM-Analyseabschnitt ein und gibt Wörter aus, die einer Vielzahl von Modellen als Wortgitterdaten entsprechen, die Wortkandidaten in absteigenden Reihenfolge der Häufigkeit des Vorkommens enthalten.
  • Schließlich gibt der Texterkennungsabschnitt 1307 als Verarbeitung in der ersten Stufe nacheinander Wortgitterdaten ein, die aus dem Worterkennungsabschnitt 1306 ausgegeben wurden, und berechnet verschiedene wahrscheinliche Satzmöglichkeiten als Satzgitterdaten entsprechend einer Satzgrammatik (Wortfolgeregel) im Zusammenhang mit der Satzstruktur des Japanischen (bzw. Englischen). In der zweiten Stufe der Verarbeitung analysiert der Texterkennungsabschnitt 1307 die semantische Modifizierung zwischen Sätzen entsprechend der Intra-Satzgrammatik, bestimmt die erkannten Sprachtextdaten und schreibt die erkannten Sprachtextdaten in die Ausgabepuffer-Warteschlange 1308 ein, um paarweise dem „Endgerät-Identifikationscode" zugeordnet zu werden, der nacheinander aus der Eingabepuffer-Warteschlange 1301 übertragen wird.
  • Details der Funktionsweise des Abschnitts 118 zum Erzeugen von formatiertem Text
  • 13 ist ein Funktionsblockdiagramm des Abschnitts 118 zum Erzeugen von formatiertem Text.
  • Wenn wie oben beschrieben erkannte Sprachtextdaten aus dem Text-Spracherkennungsabschnitt 117 in der von einem Eintrag angegebenen Textpufferdatei empfangen worden sind, formatiert der Abschnitt 118 zum Erzeugen von formatiertem Text die erkannten Sprachtextdaten in Einheiten von Einträgen der Verarbeitungsendgerät-Registriertabelle aus 10 und schreibt zusätzlich die formatierten Textdaten entsprechend dem Eintrag in die Pufferdatei für formatierten Text ein.
  • Das Auslesen von erkannter Sprachtextdaten aus der Textpufferdatei und das Einschreiben von formatierten Textdaten in die Pufferdatei für formatierten Text in Einheiten von Einträgen werden von einem Eingabe/Ausgabe-Steuerabschnitt 1508 aus 13 gesteuert. Zuerst wird die Steuerfunktion des Eingabe/Ausgabe-Steuerabschnitts 1508 beschrieben. 14 ist ein Ablaufdiagramm, das den Steuervorgang zeigt, der vom Eingabe/Ausgabe-Steuerabschnitt 1508 ausgeführt wird. Der Eingabe/Ausgabe-Steuerabschnitt 1508 verfügt über einen Prozessor und ein Steuerprogramm und der Ablauf von Arbeitsschritten erfolgt als eine Operation, die von dem Prozessor zur Ausführung des Steuerprogramms realisiert wird. Es findet dieselbe Steueroperation wie jene des Eingabe-/Ausgabe-Steuerabschnitts 1309 im Text-Spracherkennungsabschnitt 117 statt, der in 11 abgebildet ist.
  • In Schritt 1601 wird festgestellt, ob die Verarbeitungsendgerät-Registriertabelle (10) einen Eintrag enthält, in dem erkannte Sprachtextdaten in der Textpufferdatei gespeichert sind, die dem Namen der Textpufferdatei entspricht.
  • Wenn ein Eintrag vorliegt, d. h. JA in Schritt 1601, werden der in dem Eintrag gespeicherte „Endgerät-Identifikationscode" und die erkannten Sprachtextdaten in der Textpufferdatei, die dem in dem Eintrag gespeicherten Namen der Textpufferdatei entspricht, in Einheiten von Einträgen in eine Eingabepuffer-Warteschlange 1501 aus 13 eingeschrieben, und in Schritt 1602 werden die erkannten Sprachtextdaten aus der Textpufferdatei gelöscht.
  • Die Eingabepuffer-Warteschlange 1501 hat die Funktion, nacheinander die erkannten Sprachtextdaten, die sich in der Eingabepuffer-Warteschlange 1501 in Warteposition befinden, einem Felderkennungsabschnitt 1502 zuzuführen. Ein Abschnitt 1504 zum Löschen unnötiger Wörter und ein Abschnitt 1506 zum Erzeugen von formatierten Textdaten, die an den Ausgang des Felderkennungsabschnitts 1502 angeschlossen sind, bilden eine Datenverarbeitungs-Pipeline wie im Text-Spracherkennungsabschnitt 117 aus 11 und haben die Funktion, eingegebene Daten unabhängig voneinander zu verarbeiten. Die Abschnitte 1502 bis 1506 können den „Endgerät-Identifikationscode" erkennen (der „Endgerät-Identifikationscode" wird aus der Eingabepuffer-Warteschlange 1501 ausgegeben), der den erkannten Sprachtextdaten entspricht, die gerade verarbeitet werden. Schließlich wird ein Satz, bestehend aus dem „Endgerät-Identifikationscode" und den formatierten Sprachtextdaten, aus dem Abschnitt 1506 zum Erzeugen formatierter Textdaten an eine Ausgabepuffer-Warteschlange 1507 ausgegeben.
  • Nach der Verarbeitung in Schritt 1602 oder wenn die Antwort in Schritt 1601 NEIN lautet, wird in Schritt 1603 festgestellt, ob die Ausgabepuffer-Warteschlange 1307 aus 13 den Satz aus dem „Endgerät-Identifikationscode" und den formatierten Textdaten empfangen hat. Wenn ein solcher Satz eingegangen ist, d. h. JA in Schritt 1603, werden in Schritt 1604 die formatierten Textdaten des Satzes aus der Ausgabepuffer-Warteschlange 1507 entsprechend dem im Eintrag der Verarbeitungsendgerät-Registriertabelle gespeicherten Namen der Pufferdatei für formatierten Text, der dem „Endgerät-Identifikationscode" entspricht, in Einheiten von Sätzen aus der Ausgabepuffer-Warteschlange 1507 zusätzlich in die Pufferdatei für formatierten Text eingeschrieben.
  • Nach der Verarbeitung in Schritt 1604 bzw. wenn in Schritt 1603 die Antwort NEIN lautet, wird erneut die Feststellverarbeitung in Schritt 1601 ausgeführt.
  • In der oben beschriebenen Art und Weise kann der Abschnitt 118 zum Erzeugen von formatiertem Text genau wie der Text-Spracherkennungsabschnitt 117 effizient die erkannten Sprachtextdaten, die von dem Text-Spracherkennungsabschnitt 117 ausgehend von einer Anforderung seitens einer Vielzahl mobiler Endgeräte 101 empfangen wurden, als Assembly Line Operation formatieren.
  • Nachstehend werden die Funktionen der Abschnitte 1502 bis 1505 zum Ausführen des Formatierens beschrieben.
  • Der Feld-Erkennungsabschnitt 1502 bestimmt für jeden Satz aus „Endgerät-Identifikationscode" und erkannten Sprachtextdaten, der nacheinander aus der Eingabepuffer-Warteschlange 1501 eingegeben wurde, den Formattyp, der in dem Eintrag der Verarbeitungsendgerät-Registriertabelle entsprechend dem „Endgerät-Identifikationscode" des Satzes gespeichert ist, bestimmt das Feld der erkannten Sprachtextdaten des Satzes unter Verweis auf ein Formattyp-Feldlexikon 1503 und gibt einen Satz, bestehend aus Feldinformationen, dem „Endgerät-Identifikationscode" und den erkannten Sprachtextdaten, an den Abschnitt 1504 zum Löschen unnötiger Wörter aus.
  • Konkret speichert das Formattyp-Feldlexikon 1503 einen Feldnamen und ein Schlüsselwort entsprechend dem Feldnamen in Einheiten von Formattypen. Entsprechend dem Formattyp aus der Verarbeitungsendgerät-Registriertabelle gibt der Feld-Erkennungsabschnitt 1502 einen Suchbereich an, auf den im Formattyp-Feldlexikon 1503 Bezug genommen werden soll, sucht nach einem Feldnamen, für den ein in den erkannten Sprachtextdaten enthaltenes Wort als Schlüsselwort registriert ist, und bestimmt dies als Feld der erkannten Sprachtextdaten.
  • Wenn der Benutzer des mobilen Endgerätes 101 eine E-Mail erzeugen will, bezeichnet der Benutzer „E-Mail" als Formattypdaten zusammen mit einem Anforderungsbefehl zum Start der Text-Spracherkennung/-formatierung. Daraufhin spricht der Benutzer nacheinander z. B. folgende Anweisungen aus: „Ziel ist taro@casio.co.jp", „Kopie geht an hanako@osuga.co.jp" oder „der Text lautet ...". Von dem Text-Spracherkennungsabschnitt 117 in der Sprachsteuerungs-Rechnereinheit 108 werden diese ausgesprochenen Inhalte als erkannte Sprachtextdaten erkannt. Zum Erzeugen von FAX-Daten spricht der Benutzer nacheinander z. B. Folgendes aus: „die Zielnummer lautet 0425-79-7735" oder „der Text lautet ...".
  • Nach Empfang von beispielsweise den erkannten Sprachtextdaten „die Zieladresse ist taro@casio.co.jp" gibt der Abschnitt 118 zum Erzeugen von formatiertem Text gemäß den Formattypdaten „E-Mail" einen Suchbereich an, der dem Format „E-Mail" im Formattyp-Feldlexikon 1503 entspricht. Der Abschnitt 118 zum Erzeugen von formatiertem Text sucht nach einem Feldnamen „Ziel", für den ein Wort „Ziel" in den erkannten Sprachtextdaten als Schlüsselwort aus dem Suchbereich registriert ist, und bestimmt dieses als Feld der erkannten Sprachtextdaten. Nicht nur das Schlüsselwort „Ziel" (ein chinesisches Zeichen), sondern auch „Ziel (kursive Kana-Buchstaben)", „Zieladresse (die kursiven Buchstaben + die japansiche Silbe)", „Partner (ein chinesisches Zeichen)", „Ziel (die kursiven Kana-Buchstaben)", „Partneradresse (ein chinesisches Zeichen + die japanische Silbe)", „Partneradresse (die kursiven Buchstaben + die japanische Silbe)" und dergleichen sind in dem Suchbereich des Formattyp-Feldlexikons 1503 als Schlüsselwörter für den Feldnamen „Ziel" eingetragen. Damit können verschiedene Schemata bearbeitet werden, die von dem Benutzer für das Feld „Ziel" angegeben wurden.
  • Ebenso gilt dies für einen Fall, bei dem die erkannten Sprachtextdaten Folgende sind: „die Kopie geht an hanako@osuga.co.jp", „der Text lautet ..." oder „die Zielnummer lautet 0425-79-7735".
  • Selbst wenn der Formattyp „Adressbuch", „Terminbuch" oder „Notizblock" ist, kann dieselbe Verarbeitung erfolgen. Z. B. wird in den erkannten Sprachtextdaten nach einem Schlüsselwort „Adresse", „Name" oder „Telefonnummer" gesucht.
  • Der Abschnitt 1504 zum Löschen unnötiger Wörter nimmt Bezug auf das Wörterbuch 1505 für unnötige Wörter im Hinblick auf den Satz, bestehend aus Feldinformation, „Endgerät-Identifikationscode" und erkannten Sprachtextdaten, der aus dem Feld-Erkennungsabschnitt 1502 ausgegeben wurde, wodurch das unnötige Wort „ist" und dergleichen gelöscht werden. Die entstandenen erkannten Sprachtextdaten werden zusammen mit der Feldinformation und dem „Endgerät-Identifikationscode" an den Abschnitt 1506 zum Erzeugen von formatierten Textdaten ausgegeben.
  • Dementsprechend generiert der Abschnitt 1506 zum Erzeugen von formatiertem Text auf der Basis der empfangenen Feldinformation und der erkannten Sprachtextdaten formatierte Textdaten und schreibt die formatierten Textdaten gemeinsam mit dem empfangenen „Endgerät-Identifikationscode" in die Ausgabepuffer-Warteschlange 1507 ein. Wenn es sich z. B. bei dem Formattyp um „E-Mail" handelt, erkennt der Feld-Erkennungsabschnitt 1502 in den Sprachtextdaten „die Zieladresse ist taro@casio.co.jp" das „Ziel"; der Abschnitt 1504 zum Löschen unnötiger Worte löscht die unnötigen Wörter, und es wird festgelegt, dass ein Feld, das dem Feld „Ziel" entspricht, das Feld „taro@casio.co.jp" ist. Durch diese Verarbeitung wird ein Feld wie folgt erzeugt: „An: taro@casio.co.jp", „Kopie an: hanako@osuga.co.jp" oder „Text:...". Wenn der Formattyp „FAX" ist, wird ein Feld wie beispielsweise „Zielnummer: 0425-79-7735" oder „Text:..." erzeugt. Wenn der Formattyp „Adressbuch", „Terminbuch" oder „Notizblock" ist, wird ein Feld wie beispielsweise „Adresse: Shinjuku-ku Tokio", „Name: Yamada ..." oder „Telefon: 030-123-4567" erzeugt. Zum Erzeugen formatierter Textdaten wird das generierte Feld in ein vorgegebenes Feld eines vorgegebenen Textformats eingesetzt, z. B. „E-Mail", „FAX", „Adressbuch", „Terminbuch" oder „Notizblock".
  • Funktionsweise des Mail-Sende-/Empfangsabschnitts 119
  • 15 ist ein Ablaufdiagramm der Steueroperation, die von dem Mail-Sende-/Empfangsabschnitt 119 in der Sprachsteuerungs-Rechnereinheit 108 ausgeführt wird. Dieses Ablaufdiagramm stellt eine Operation dar, die ein Prozessor zum Steuern des Mail-Sende-/ Empfangsabschnitts 119 (nicht abgebildet) zwecks Ausführen eines Steuerprogramms (nicht dargestellt) ablaufen lässt.
  • In Schritt 1701 wird festgestellt, ob der Paketsende-/-empfangsabschnitt 115 (1) in der Sprachsteuerungs-Rechnereinheit 108 den Mail-Sende-/Empfangsabschnitt 119 über einen Empfang informiert hat. Wie oben beschrieben, erkennt der Paketsende-/-empfangsabschnitt 115, dass die IP-Adresse der Sprachsteuerungs-Rechnereinheit 108, d. h. der Paketsende-/-empfangsabschnitt 115 selbst, in dem Feld „Ziel-IP-Adresse" des IP-Steuerungsblocks des IP-Datagramms, welches das von dem Internet 105 übertragene TCP/IP-Paket bildet, eingestellt ist, wodurch das TCP/IP-Paket empfangen wird. Weiterhin bestätigt der Paketsende-/-empfangsabschnitt 115, dass der 16-Bit-Ganzzahlwert zum Angeben des Mail-Sendeprotokolls oder des Mail-Empfangsprotokolls in dem Feld „Ziel-Portnummer" und in dem Feld „Sendequellen-Portnummer" des TCP-Segmentes eingestellt ist, welches das TCP/IP-Paket bildet, wodurch der Mail-Sende-/Empfangsabschnitt 119 von dem Empfang informiert wird. Diese Empfangsbenachrichtigung gehört zu E-Mail-Textdaten, die gesendet werden sollen, oder zu einem Mail-Empfangs-Anforderungsbefehl.
  • Wenn der Paketsende-/-empfangsabschnitt 115 den Mail-Sende-/Empfangsabschnitt 119 über den Empfang informiert hat, d. h. JA in Schritt 1701, dann werden in Schritt 1702 Daten abgerufen, die von dem Paketsende-/-empfangsabschnitt 115 zusammen mit der Empfangsbenachrichtigung übertragen wurden. Wenn die Empfangsbenachrichtigung zu E-Mail-Textdaten gehört, die gesendet werden sollen, werden die „Sendequellen-IP-Adresse" und die E-Mail-Textdaten abgerufen. Wenn die Empfangsbenachrichtigung zu einem Mail-Empfangs-Anforderungsbefehl gehört, werden die „Sendequellen-IP-Adresse" der „Endgerät-Identifikationscode" und der Befehl abgerufen.
  • Nach der Verarbeitung in Schritt 1702 werden nacheinander die Schritte 1703 und 1705 überprüft, wobei das Feststellergebnis JA lautet. Konkret heißt das, wenn die von dem Paketsende-/-empfangsabschnitt 115 in Schritt 1702 übertragenen Daten zu E-Mail-Textdaten gehören, die gesendet werden sollen, d. h. JA in Schritt 1703, erfolgt in Schritt 1704 die Mail-Sendeverarbeitung. Gehören die Daten zu einem Mail-Empfangs-Anforderungsbefehl, d. h. JA in Schritt 1705, erfolgt in Schritt 1706 die Übertragungsverarbeitung der empfangenen Mail.
  • Wenn der Paketsende-/-empfangsabschnitt 115 den Mail-Sende-/Empfangsabschnitt 119 nicht über einen Empfang informiert hat, d. h. NEIN in Schritt 1701, wird ein Wartezustand eingestellt.
  • Nun wird die Sendeverarbeitung aus Schritt 1704, die erfolgt, wenn in Schritt 1701 die Antwort JA lautet und die von dem Paketsende-/-empfangsabschnitt 115 in Schritt 1702 übertragenen Daten E-Mail-Textdaten sind, die übertragen werden sollen, d. h. JA in Schritt 1703, beschrieben.
  • In Schritt 1704 fragt der Mail-Sende-/Empfangsabschnitt 119 durch den Paketsende-/-empfangsabschnitt 115 einen Namens-Lösungsserver (Rechnereinheit) (nicht abgebildet) an der Sprachsteuerungs-Rechnereinheit 108, dem LAN 107 oder dem Internet 105 ab, um die in dem Feld „An" und dem Feld „Kopie an" der über den Paketsende-/-empfangsabschnitt 115 von dem mobilen Endgerät 101 abgerufenen E-Mail-Textdaten eingestellte E-Mail-Adresse in eine IP-Adresse umzuwandeln, und fordert anschließend den Paketsende-/-empfangsabschnitt 115 auf, die E-Mail-Textdaten an die IP-Adresse zu senden.
  • Der Paketsende-/-empfangsabschnitt 115 generiert ein TCP-Segment mit dem Format aus 6C. Hierbei wird ein 16-Bit-Ganzzahlwert zur Angabe eines Mail-Sendeprotokolls (z. B. SMTP) in dem Feld „Sendequellen-Portnummer" und in dem Feld „Ziel-Portnummer" des TCP-Steuerungsblocks mit dem Format aus 6C und 7B eingestellt. In dem „Daten"-Feld des TCP-Segments ist ein Mail-Sendebefehl auf der Grundlage des Mail-Übertragungsbefehls und/oder der E-Mail-Textdaten gespeichert.
  • Als Nächstes generiert der Paketsende-/-empfangsabschnitt 115 ein IP-Datagramm mit dem Format aus 6B, in dem das TCP-Segment in dem „Daten"-Feld gespeichert ist. In diesem Fall ist ein 16-Bit-Ganzzahlwert zum Definieren des Formats der TCP-Segmentdaten, die in dem „Daten"-Feld gespeichert sind, in dem "Protokoll"-Feld des IP-Steuerungsblockes mit dem Format aus 6B und 7A eingestellt. Eine IP-Adresse entsprechend dem Feld „An" und dem Feld „Kopie an" der E-Mail-Textdaten ist in dem Feld „Sendequellen-IP-Adresse" eingestellt. Wenn eine Mehrzahl von „Ziel-IP-Adressen" vorliegt, wird eine Mehrzahl von TCP/IP-Paketen kopiert und übertragen.
  • Der Paketsende-/-empfangsabschnitt 115 generiert entsprechend dem Protokoll im LAN 107 einen Frame, der das IP-Datagramm speichert, und sendet den Frame zum LAN 107. Wenn das LAN 107 beispielsweise ein lokales Netzwerk auf Ethernet-Basis ist, ist der Frame ein Ethernet-Frame.
  • Das TCP/IP-Paket, das von dem Frame, dem IP-Datagramm und dem TCP-Segment gebildet wird, wird auf der Basis der „Ziel-IP-Adresse", die in dem IP-Steuerungsblock des IP-Datagramms gespeichert ist, welches das TCP/IP-Paket bildet, zu der Ziel-Rechnereinheit übertragen.
  • Als Nächstes wird die Übertragungsverarbeitung für eine empfangene Mail beschrieben, die in Schritt 1706 ausgeführt wird, wenn die Antwort in Schritt 1701 JA lautet und die von dem Paketsende-/-empfangsabschnitt 115 in Schritt 1702 übertragenen Daten im Zusammenhang mit einem Anforderungsbefehl für Mail-Empfang stehen, d. h. JA in Schritt 1705.
  • In Schritt 1706 fordert der Mail-Sende-/Empfangsabschnitt 119 den Paketsende-/-empfangsabschnitt 115 auf, E-Mail-Textdaten zu extrahieren, die für das mobile Endgerät 101 von einer Ausspuldatei entsprechend dem Endgerät-Identifikationscode empfangen wurden, der in Schritt 1702 von dem Paketsende-/-empfangsabschnitt 115 abgefragt wurde, und die E-Mail-Textdaten an das mobile Endgerät 101 zu senden.
  • Der Paketsende-/-empfangsabschnitt 115 generiert ein TCP-Segment mit dem Format aus 6C. Hierbei wird ein 16-Bit-Ganzzahlwert zur Angabe eines Mail-Empfangsprotokolls (z. B. POP3) in dem Feld „Sendequellen-Portnummer" und in dem Feld „Ziel-Portnummer" des TCP-Steuerungsblocks mit dem Format aus 6C und 7B eingestellt. Die aus der Spuldatei extrahierten E-Mail-Textdaten werden in dem „Daten"-Feld des TCP-Segments gespeichert. Ob die Inhalte der Spuldatei gelöscht werden, wird von der Benutzereinstellung des mobilen Endgerätes 101 bestimmt.
  • Der Paketsende-/-empfangsabschnitt 115 generiert ein IP-Datagramm mit dem Format aus 6B, in dem das TCP-Segment in dem „Daten"-Feld gespeichert ist. In diesem Fall ist ein Ganzzahlwert „6" zum Definieren des Formats der TCP-Segmentdaten, die in dem „Daten"-Feld gespeichert werden, in dem "Protokoll"-Feld des IP-Steuerungsblockes mit dem Format aus 6B und 7A eingestellt. Eine IP-Adresse, die der Sprachsteuerungs-Rechnereinheit 108 zugewiesen ist, ist in dem Feld „Sendequellen-IP-Adresse" eingestellt. Eine von dem Paketsende-/-empfangsabschnitt 115 in Schritt 1702 abgerufene „Sendequellen-IP-Adresse" wird in dem Feld „Ziel-IP-Adresse" eingestellt. Bei dieser „Sendequellen-IP-Adresse" handelt es sich um eine in dem TCP/IP-Paket eingestellte Adresse, die den Anforderungsbefehl für den Mail-Empfang speichert und dem mobilen Endgerät 101 entspricht, welches den Befehl übertragen hat.
  • Der Paketsende-/-empfangsabschnitt 115 generiert entsprechend dem Protokoll im LAN 107 einen Frame, der das IP-Datagramm speichert, und sendet den Frame zum LAN 107. Wenn das LAN 107 beispielsweise ein lokales Netzwerk auf Ethernet-Basis ist, ist der Frame ein Ethernet-Frame.
  • Das TCP/IP-Paket, das von dem Frame, dem IP-Datagramm und dem TCP-Segment gebildet wird, wird über die Router-Einheit 106 und das Internet 105 auf der Basis der „Ziel-IP-Adresse", die in dem IP-Steuerungsblock des IP-Datagramms gespeichert ist, welches das TCP/IP-Paket bildet, zu der Steuerrechnereinheit 104 für das mobile Endgerät übertragen und anschließend über das PHS-Netzwerk 103 und die Funk-Basisstation (oder Kabelverbindungseinheit) 102 zu dem Übertragungssteuerabschnitt 321 (3) im Übertragungsabschnitt 111 des mobilen Endgerätes 101 übertragen.
  • Funktionsweise des FAX-Sende-/Empfangsabschnitts 120
  • 16 ist ein Ablaufdiagramm der Steueroperation, die von dem FAX-Sende-/Empfangsabschnitt 120 in der Sprachsteuerungs-Rechnereinheit 108 ausgeführt wird. Dieses Ablaufdiagramm stellt eine Operation dar, die ein Prozessor zum Steuern des FAX-Sende-/Empfangsabschnitts 120 (nicht abgebildet) zwecks Ausführen eines Steuerprogramms (nicht dargestellt) ablaufen lässt. Dieses Ablaufdiagramm hat dieselbe Funktion wie das Ablaufdiagramm, das dem Mail-Sende-/Empfangsabschnitt 119 aus 15 entspricht, außer dass nicht das Internet 105, sondern die Telefonleitung 121 (1) als Übertragungsmedium für die FAX-Textdaten genutzt wird.
  • In Schritt 1801 wird festgestellt, ob der Paketsende-/-empfangsabschnitt 115 (1) in der Sprachsteuerungs-Rechnereinheit 108 den FAX-Sende-/Empfangsabschnitt 120 über einen Empfang informiert hat. Wie oben beschrieben, erkennt der Paketsende-/-empfangsabschnitt 115, dass die IP-Adresse der Sprachsteuerungs-Rechnereinheit 108, d. h. der Paketsende-/-empfangsabschnitt 115 selbst, in dem Feld „Ziel-IP-Adresse" des IP-Steuerungsblocks des IP-Datagramms, welches das von dem Internet 105 übertragene TCP/IP-Paket bildet, eingestellt ist, wodurch das TCP/IP-Paket empfangen wird. Weiterhin bestätigt der Paketsende-/-empfangsabschnitt 115, dass der 16-Bit-Ganzzahlwert zum Angeben des FAX-Sendeprotokolls oder des FAX-Empfangsprotokolls in dem Feld „Ziel-Portnummer" und in dem Feld „Sendequellen-Portnummer" des TCP-Segmentes eingestellt ist, welches das TCP/IP-Paket bildet, wodurch der FAX-Sende-/Empfangsabschnitt 120 von dem Empfang informiert wird. Diese Empfangsbenachrichtigung gehört zu FAX-Textdaten, die gesendet werden sollen, oder zu einem FAX-Empfangs-Anforderungsbefehl.
  • Wenn der Paketsende-/-empfangsabschnitt 115 den FAX-Sende-/Empfangsabschnitt 120 über den Empfang informiert hat, d. h. JA in Schritt 1801, werden in Schritt 1802 Daten abgerufen, die von dem Paketsende-/-empfangsabschnitt 115 zusammen mit der Empfangsbenachrichtigung übertragen wurden. Wenn die Empfangsbenachrichtigung zu FAX-Textdaten gehört, die gesendet werden sollen, werden die „Sendequellen-IP-Adresse" und die FAX-Textdaten abgerufen. Wenn die Empfangsbenachrichtigung zu einem FAX-Empfangs-Anforderungsbefehl gehört, werden die „Sendequellen-IP-Adresse" der „Endgerät-Identifikationscode" und der Befehl abgerufen.
  • Nach der Verarbeitung in Schritt 1802 werden nacheinander die Schritte 1303 und 1805 überprüft, wobei das Feststellergebnis JA lautet. Konkret heißt das, wenn die von dem Paketsende-/-empfangsabschnitt 115 in Schritt 1802 übertragenen Daten zu FAX-Textdaten gehören, die gesendet werden sollen, d. h. JA in Schritt 1803, erfolgt in Schritt 1804 die FAX-Sendeverarbeitung. Gehören die Daten zu einem FAX-Empfangs-Anforderungsbefehl, d. h. JA in Schritt 1805, erfolgt in Schritt 1706 die Übertragungsverarbeitung des empfangenen Faxes.
  • Wenn der Paketsende-/-empfangsabschnitt 115 den FAX-Sende-/Empfangsabschnitt 120 nicht über einen Empfang informiert hat, d. h. NEIN in Schritt 1801, wird ein Wartezustand eingestellt.
  • Nun wird die Sendeverarbeitung aus Schritt 1804 beschrieben, die erfolgt, wenn in Schritt 1801 die Antwort JA lautet und die von dem Paketsende-/-empfangsabschnitt 115 in Schritt 1802 übertragenen Daten FAX-Textdaten sind, die übertragen werden sollen, d. h. JA in Schritt 1803.
  • In Schritt 1804 wählt der FAX-Sende-/Empfangsabschnitt 120 auf der Telefonleitung 121 (1) die in dem Feld „Zielnummer" der FAX-Textdaten eingestellte Zielnummer, welche durch den Paketsende-/-empfangsabschnitt 115 von dem mobilen Endgerät 101 abgerufen wurde, wodurch die FAX-Textdaten zu dem Partner-Faxgerät übertragen werden, an dem der Anruf eingegangen ist. Wenn mehrere Zielnummern in dem „Zielnummer"-Feld eingegeben sind, werden mehrere FAX-Textdaten kopiert und an die Faxgeräte gesendet, die den jeweiligen Zielnummern entsprechen.
  • Als Nächstes wird die Übertragungsverarbeitung für ein empfangenes FAX beschrieben, die in Schritt 1806 ausgeführt wird, wenn die Antwort in Schritt 1801 JA lautet und die von dem Paketsende-/-empfangsabschnitt 115 in Schritt 1802 übertragenen Daten im Zusammenhang mit einem Anforderungsbefehl für FAX-Empfang stehen, d. h. JA in Schritt 1805.
  • In Schritt 1806 fordert der FAX-Sende-/Empfangsabschnitt 120 den Paketsende-/-empfangsabschnitt 115 auf, FAX-Textdaten zu extrahieren, die für das mobile Endgerät 101 entsprechend dem „Endgerät-Identifikationscode" von einer Ausspuldatei empfangen wurden, der in Schritt 1802 von dem Paketsende-/-empfangsabschnitt 115 abgefragt wurde, und die FAX-Textdaten an das mobile Endgerät 101 zu senden.
  • Der Paketsende-/-empfangsabschnitt 115 generiert ein TCP-Segment mit dem Format aus 6C. Hierbei wird ein 16-Bit-Ganzzahlwert zur Angabe eines FAX-Übertragungsprotokolls in dem Feld „Sendequellen-Portnummer" und in dem Feld „Ziel-Portnummer" des TCP-Steuerungsblocks mit dem Format aus 6C und 7B eingestellt. Die aus der Spuldatei extrahierten FAX-Textdaten werden in dem „Daten"-Feld des TCP-Segments gespeichert. Ob die Inhalte der Spuldatei gelöscht werden, wird von der Benutzereinstellung des mobilen Endgerätes 101 bestimmt.
  • Als Nächstes generiert der Paketsende-/-empfangsabschnitt 115 ein IP-Datagramm mit dem Format aus 6B, in dem das TCP-Segment in dem „Daten"-Feld gespeichert ist. In diesem Fall ist ein Ganzzahlwert „6" zum Definieren des Formats der TCP-Segmentdaten, die in dem „Daten"-Feld gespeichert werden, in dem "Protokoll"-Feld des IP-Steuerungsblockes mit dem Format aus 6B und 7A eingestellt. Eine IP-Adresse, die der Sprachsteuerungs-Rechnereinheit 108 zugewiesen ist, ist in dem Feld „Sendequellen-IP-Adresse" eingestellt. Eine von dem Paketsende-/-empfangsabschnitt 115 in Schritt 1802 abgerufene „Sendequellen-IP-Adresse" wird in dem Feld „Ziel-IP-Adresse" eingestellt. Bei dieser „Sendequellen-IP-Adresse" handelt es sich um eine in dem TCP/IP-Paket eingestellte Adresse, die den Anforderungsbefehl für den FAX-Empfang speichert und dem mobilen Endgerät 101 entspricht, welches den Befehl übertragen hat.
  • Der Paketsende-/-empfangsabschnitt 115 generiert entsprechend dem Protokoll im LAN 107 einen Frame, der das IP-Datagramm speichert, und sendet den Frame zum LAN 107. Wenn das LAN 107 beispielsweise ein lokales Netzwerk auf Ethernet-Basis ist, ist der Frame ein Ethernet-Frame.
  • Das TCP/IP-Paket, das von dem Frame, dem IP-Datagramm und dem TCP-Segment gebildet wird, wird über die Router-Einheit 106 und das Internet 105 auf der Basis der „Ziel-IP-Adresse", die in dem IP-Steuerungsblock des IP-Datagramms gespeichert ist, welches das TCP/IP-Paket bildet, zu der Steuerrechnereinheit 104 für das mobile Endgerät übertragen und anschließend über das PHS-Netzwerk 103 und die Funk-Basisstation (oder Kabelverbindungseinheit) 102 zu dem Übertragungssteuerabschnitt 321 (3) im Übertragungsabschnitt 111 des mobilen Endgerätes 101 überfragen.
  • Im Falle eines „Adressbuches", „Terminbuches" oder „Notizblockes" werden erzeugte formatierte Textdaten zu dem mobilen Endgerät 101 übertragen.
  • Weitere Ausführungsformen
  • Bei den oben beschriebenen Ausführungsformen ist das mobile Endgerät 101 ein PHS-Endgerät, und das mobile Endgerät 101 und die Sprachsteuerungs-Rechnereinheit 108 sind durch das PHS-Netzwerk 103 und das Internet 105 miteinander verbunden. Allerdings ist die vorliegende Erfindung nicht auf diese Ausführungsform begrenzt. Solange das mobile Endgerät 101 über Funk oder Kabel indirekt oder direkt mit der Sprachsteuerungs-Rechnereinheit 108 verbunden ist, lässt sich die vorliegende Erfindung anwenden.
  • Bei der Eingabe z. B. einer E-Mail-Adresse oder einer FAX-Zielnummer kann im Voraus eine Adressdatenbank in dem Abschnitt 118 zum Erzeugen von formatiertem Text der Sprachsteuerungs-Rechnereinheit 108 gebildet werden. Wenn ein Name oder dergleichen auf der Seite des mobilen Endgerätes 101 ausgesprochen wird, kann der Name oder dergleichen bestätigt werden und auf die Adressdatenbank verwiesen werden, wodurch der Name oder dergleichen in eine E-Mail-Adresse bzw. FAX-Zielnummer umgewandelt wird und E-Mail-Textdaten oder FAX-Textdaten generiert werden.

Claims (8)

  1. Sprachsteuervorrichtung (108), die über ein Kommunikationsnetzwerk (105) an ein bewegliches Endgerät (101) angeschlossen ist und umfasst: eine Einrichtung (115) zum Empfangen von Sprachdaten, die von dem Endgerät gesendet werden, eine Verarbeitungseinrichtung (117, 118) zum Erkennen der Sprachdaten, zum Umwandeln der erkannten Sprachdaten in Dokumentdaten, zum Extrahieren von zu einem Bestimmungsort gehörenden Zieldaten aus den Dokumentdaten, zum Erzeugen formatierter Dokumentdaten mit einem Zielfeld, welches das Ziel der formatierten Dokumentdaten angibt, und zum Einfügen der Zieldaten in das Zielfeld; eine Einrichtung (115) zum Senden der formatierten Dokumentdaten mit den eingefügten Zieldaten zum Endgerät (101) zwecks Bearbeitung durch einen Anwender, dadurch gekennzeichnet, dass sie umfasst: eine Einrichtung zum Empfangen (115) der bearbeiteten, formatierten Dokumentdaten von dem Endgerät (101) und eine Sendeeinrichtung (119, 120) zum Senden der bearbeiteten, formatierten Dokumentdaten zu dem Bestimmungsort.
  2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Verarbeitungseinrichtung eine E-Mail-Adresse als Zieldaten angibt und formatierte E-Mail-Textdaten als die formatierten Dokumentdaten erzeugt, und wobei die Einrichtung (115) zum Senden die formatierten E-Mail-Textdaten zu dem Endgerät (101) sendet.
  3. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Verarbeitungseinrichtung einen FAX-Bestimmungsort als Zieldaten angibt und formatierte FAX-Textdaten als formatierte Textdaten erzeugt, und wobei die Einrichtung (115) zum Senden die formatierten FAX-Textdaten zu dem Endgerät (101) sendet.
  4. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass das Endgerät (101) eine Einrichtung zum Empfangen der von der Vorrichtung erzeugten formatierten Dokumentdaten, eine Einrichtung zum Bearbeiten der formatierten Dokumentdaten und eine Einrichtung zum Senden der bearbeiteten, formatierten Dokumentdaten zu der Sprachsteuervorrichtung umfasst.
  5. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass das Endgerät (101) eine Einrichtung zum Angeben eins Typs formatierter Dokumentdaten umfasst, wobei die Vorrichtung Daten empfängt, die den angegebenen Typ darstellen, und ein Wort extrahiert, welches den formatierten Dokumentdaten des angegebenen Typs entspricht, wodurch die formatierten Dokumentdaten erzeugt werden.
  6. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass sie weiterhin eine Adressdatenbank aufweist, welche eine Entsprechung zwischen Namen und Bestimmungsort speichert, und dadurch, dass die Einrichtung zum Extrahieren, mit der der Bestimmungsort angegeben wird, auf die Adressdatenbank verweist und den Bestimmungsort von einem Namen bestimmt, der als das Wort extrahiert wurde.
  7. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass das Endgerät (101) umfasst: eine Einrichtung (109) zum Eingeben von Sprachdaten; eine Sendesteuereinrichtung (110) zum Anhängen eines Identifikationscodes, welcher die Sprachdaten zu einer über das Netzwerk an das Endgerät (101) angeschlossenen Sprachsteuervorrichtung sendet; eine Empfangssteuereinrichtung (111) zum Empfangen von Textdaten als Ergebnis der Umwandlung der Sprachdaten, die von der Sprachsteuervorrichtung zu dem Endgerät (101) gesendet wurden, entsprechend dem Identifikationscode, und eine Anzeigeeinrichtung (112) zum Anzeigen der empfangenen Textdaten.
  8. Computer-lesbares Medium, das ein Computerprogramm mit einer Computer-Programmcode-Einrichtung hat, die dazu ausgelegt ist, die folgenden Schritte auszuführen, wenn das Programm auf einem Computer (108) läuft: Prozessschritte, die den Computer (108) veranlassen, Sprachdaten zu empfangen, die von einem beweglichen Endgerät (101) gesendet werden, mit dem der Computer (108) über ein Netzwerk verbunden ist, Prozessschritte, die den Computer (108) veranlassen, die empfangenen Sprachdaten zu erkennen, die erkannten Sprachdaten in Dokumentdaten umzuwandeln, die zu einem Bestimmungsort gehörenden Zieldaten aus den Dokumentdaten zu extrahieren und formatierte Dokumentdaten mit einem Zielfeld zu erzeugen und die Zieldaten in das Zielfeld einzufügen, welches einen Bestimmungsort der formatierten Dokumentdaten angibt; Prozessschritte, die den Computer (108) veranlassen, die erzeugten formatierten Dokumentdaten mit den eingefügten Zieldaten zwecks Bearbeitung durch einen Anwender zu senden, gekennzeichnet durch Prozessschritte, die den Computer (108) veranlassen, die bearbeiteten, formatierten Dokumentdaten vom Endgerät (101) zu empfangen, und Prozessschritte, die den Computer (108) veranlassen, die bearbeiteten, formatierten Dokumentdaten zum Bestimmungsort zu senden.
DE69728744T 1996-12-27 1997-11-17 Vorrichtung zur Erzeugung von Textdaten aus an einem Terminal eingegebener Sprache Expired - Lifetime DE69728744T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP35032396 1996-12-27
JP35032396A JP3402100B2 (ja) 1996-12-27 1996-12-27 音声制御ホスト装置

Publications (2)

Publication Number Publication Date
DE69728744D1 DE69728744D1 (de) 2004-05-27
DE69728744T2 true DE69728744T2 (de) 2004-09-30

Family

ID=18409710

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69728744T Expired - Lifetime DE69728744T2 (de) 1996-12-27 1997-11-17 Vorrichtung zur Erzeugung von Textdaten aus an einem Terminal eingegebener Sprache

Country Status (5)

Country Link
US (1) US5956681A (de)
EP (1) EP0851403B1 (de)
JP (1) JP3402100B2 (de)
DE (1) DE69728744T2 (de)
HK (1) HK1015047A1 (de)

Families Citing this family (172)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6961700B2 (en) 1996-09-24 2005-11-01 Allvoice Computing Plc Method and apparatus for processing the output of a speech recognition engine
US6823225B1 (en) 1997-02-12 2004-11-23 Im Networks, Inc. Apparatus for distributing and playing audio information
GB2323693B (en) * 1997-03-27 2001-09-26 Forum Technology Ltd Speech to text conversion
US6173259B1 (en) * 1997-03-27 2001-01-09 Speech Machines Plc Speech to text conversion
JPH1115755A (ja) * 1997-06-20 1999-01-22 Matsushita Graphic Commun Syst Inc ファクシミリ型電子メール装置
CA2219008C (en) * 1997-10-21 2002-11-19 Bell Canada A method and apparatus for improving the utility of speech recognition
JP3298484B2 (ja) 1997-12-24 2002-07-02 カシオ計算機株式会社 情報送信装置
JPH11224296A (ja) * 1998-02-05 1999-08-17 Nec Corp イメージワークフローシステム
US6545978B1 (en) * 1998-04-24 2003-04-08 Fujitsu Limited Network managing method and system
US8516055B2 (en) 1998-05-29 2013-08-20 Research In Motion Limited System and method for pushing information from a host system to a mobile data communication device in a wireless data network
US6813601B1 (en) * 1998-08-11 2004-11-02 Loral Spacecom Corp. Highly compressed voice and data transmission system and method for mobile communications
EP0986226B1 (de) * 1998-09-11 2007-01-17 Hitachi, Ltd. IP-Paketkommunikationsvorrichtung
CA2281431A1 (en) * 1998-10-28 2000-04-28 Lucent Technologies Inc. Mobile-tcp and method of establishing and maintaining a mobile-tcp connection
US6490550B1 (en) * 1998-11-30 2002-12-03 Ericsson Inc. System and method for IP-based communication transmitting speech and speech-generated text
US6415256B1 (en) * 1998-12-21 2002-07-02 Richard Joseph Ditzik Integrated handwriting and speed recognition systems
JP3822990B2 (ja) * 1999-01-07 2006-09-20 株式会社日立製作所 翻訳装置、記録媒体
ATE471039T1 (de) * 1999-02-16 2010-06-15 Yugen Kaisha Gm & M Sprache umwandlung gerät und verfahren
US6510453B1 (en) * 1999-02-26 2003-01-21 Microsoft Corporation System and method for creating and inserting multiple data fragments into an electronic mail message
CN1343337B (zh) * 1999-03-05 2013-03-20 佳能株式会社 用于产生包括音素数据和解码的字的注释数据的方法和设备
JP2000299733A (ja) * 1999-03-11 2000-10-24 Imd:Kk 無線電話機における複数メディアを用いた情報提供システム
JP2000316010A (ja) 1999-04-30 2000-11-14 Fujitsu Ltd 無線端末装置およびノード装置
GB9911971D0 (en) * 1999-05-21 1999-07-21 Canon Kk A system, a server for a system and a machine for use in a system
US6389463B2 (en) * 1999-06-16 2002-05-14 Im Networks, Inc. Internet radio receiver having a rotary knob for selecting audio content provider designations and negotiating internet access to URLS associated with the designations
US6920479B2 (en) 1999-06-16 2005-07-19 Im Networks, Inc. Internet radio receiver with linear tuning interface
US6865187B1 (en) * 1999-06-30 2005-03-08 Cisco Technology, Inc. Method and apparatus using transition state protocol signaling for fax transport manner capability exchange
IL130847A0 (en) * 1999-07-08 2001-01-28 Shlomo Orbach Translator with a camera
KR20010019786A (ko) * 1999-08-30 2001-03-15 윤종용 이동통신 시스템에서 음성인식 및 문자표시 장치 및 방법
JP2001075964A (ja) * 1999-08-31 2001-03-23 Sony Corp 情報処理装置および情報処理方法、並びに記録媒体
JP3969908B2 (ja) * 1999-09-14 2007-09-05 キヤノン株式会社 音声入力端末器、音声認識装置、音声通信システム及び音声通信方法
JP3895892B2 (ja) 1999-09-22 2007-03-22 株式会社東芝 マルチメディア情報収集管理装置およびプログラムを格納した記憶媒体
WO2001031472A1 (en) * 1999-10-22 2001-05-03 Telcordia Technologies, Inc. Method and system for host mobility management protocol
US7184418B1 (en) 1999-10-22 2007-02-27 Telcordia Technologies, Inc. Method and system for host mobility management protocol
US7020845B1 (en) 1999-11-15 2006-03-28 Gottfurcht Elliot A Navigating internet content on a television using a simplified interface and a remote control
US6600497B1 (en) 1999-11-15 2003-07-29 Elliot A. Gottfurcht Apparatus and method to navigate interactive television using unique inputs with a remote control
DE10003529A1 (de) * 2000-01-27 2001-08-16 Siemens Ag Verfahren und Vorrichtung zum Erstellen einer Textdatei mittels Spracherkennung
KR20010000078A (ko) * 2000-01-31 2001-01-05 오양근 인터넷 게시판의 정보 출력방법
US6999565B1 (en) 2000-02-01 2006-02-14 Envoyworldwide, Inc. Multi-mode message routing and management
WO2001060048A1 (en) * 2000-02-09 2001-08-16 Docuport, Inc. Receiving and sending electronic messages through a portable device
US20040150677A1 (en) * 2000-03-03 2004-08-05 Gottfurcht Elliot A. Method for navigating web content with a simplified interface using audible commands
US6519051B1 (en) * 2000-03-06 2003-02-11 Shinestar Llc Fax through data network and remote access network appliance control apparatus and method
US6611881B1 (en) 2000-03-15 2003-08-26 Personal Data Network Corporation Method and system of providing credit card user with barcode purchase data and recommendation automatically on their personal computer
GB2362017A (en) * 2000-03-29 2001-11-07 John Pepin Network access
US8355912B1 (en) * 2000-05-04 2013-01-15 International Business Machines Corporation Technique for providing continuous speech recognition as an alternate input device to limited processing power devices
US7584291B2 (en) * 2000-05-12 2009-09-01 Mosi Media, Llc System and method for limiting dead air time in internet streaming media delivery
US6684249B1 (en) 2000-05-26 2004-01-27 Sonicbox, Inc. Method and system for adding advertisements over streaming audio based upon a user profile over a world wide area network of computers
US6769028B1 (en) 2000-05-26 2004-07-27 Sonicbox, Inc. Method and apparatus for sharing streaming media links
KR20000050221A (ko) * 2000-05-27 2000-08-05 심성식 무선통신단말기를 이용한 통합메시징시스템
US6453294B1 (en) * 2000-05-31 2002-09-17 International Business Machines Corporation Dynamic destination-determined multimedia avatars for interactive on-line communications
GB2364850B (en) 2000-06-02 2004-12-29 Ibm System and method for automatic voice message processing
US7716163B2 (en) 2000-06-06 2010-05-11 Microsoft Corporation Method and system for defining semantic categories and actions
US7788602B2 (en) 2000-06-06 2010-08-31 Microsoft Corporation Method and system for providing restricted actions for recognized semantic categories
US7770102B1 (en) 2000-06-06 2010-08-03 Microsoft Corporation Method and system for semantically labeling strings and providing actions based on semantically labeled strings
US7421645B2 (en) 2000-06-06 2008-09-02 Microsoft Corporation Method and system for providing electronic commerce actions based on semantically labeled strings
US7712024B2 (en) 2000-06-06 2010-05-04 Microsoft Corporation Application program interfaces for semantically labeling strings and providing actions based on semantically labeled strings
CN1205800C (zh) 2000-06-29 2005-06-08 皇家菲利浦电子有限公司 为后续的离线语音识别记录语音信息的记录设备
US8213460B1 (en) * 2000-09-07 2012-07-03 Cisco Technology, Inc. Method and system for processing traffic in an access network
WO2002023389A1 (en) 2000-09-15 2002-03-21 Robert Fish Systems and methods for translating an item of information using a distal computer
US6751589B1 (en) * 2000-09-18 2004-06-15 Hewlett-Packard Development Company, L.P. Voice-actuated generation of documents containing photographic identification
KR20030072332A (ko) 2000-10-11 2003-09-13 캐논 가부시끼가이샤 정보 처리 장치, 정보 처리 방법 및 기억 매체
WO2002037393A2 (en) * 2000-11-06 2002-05-10 Envoy Worlwide, Inc. System and method for service specific notification
US8516047B2 (en) 2000-11-06 2013-08-20 Rick Castanho System and method for service specific notification
US6975988B1 (en) * 2000-11-10 2005-12-13 Adam Roth Electronic mail method and system using associated audio and visual techniques
GB0029024D0 (en) * 2000-11-29 2001-01-10 Hewlett Packard Co Communication of network address information
US8144837B2 (en) * 2001-01-22 2012-03-27 Dialogic Corporation Method and system for enhanced user experience of audio
US20020120747A1 (en) * 2001-02-23 2002-08-29 Frerichs David J. System and method for maintaining constant buffering time in internet streaming media delivery
US7631088B2 (en) 2001-02-27 2009-12-08 Jonathan Logan System and method for minimizing perceived dead air time in internet streaming media delivery
US6687671B2 (en) 2001-03-13 2004-02-03 Sony Corporation Method and apparatus for automatic collection and summarization of meeting information
US20020169615A1 (en) * 2001-03-23 2002-11-14 Irwin Kruger Computerized voice-controlled system for compiling quality control data
US8077679B2 (en) 2001-03-28 2011-12-13 Qualcomm Incorporated Method and apparatus for providing protocol options in a wireless communication system
US9100457B2 (en) * 2001-03-28 2015-08-04 Qualcomm Incorporated Method and apparatus for transmission framing in a wireless communication system
US7693508B2 (en) * 2001-03-28 2010-04-06 Qualcomm Incorporated Method and apparatus for broadcast signaling in a wireless communication system
US8121296B2 (en) 2001-03-28 2012-02-21 Qualcomm Incorporated Method and apparatus for security in a data processing system
US7778816B2 (en) * 2001-04-24 2010-08-17 Microsoft Corporation Method and system for applying input mode bias
WO2002087095A1 (en) 2001-04-25 2002-10-31 Envoy Worldwide, Inc. Wireless messaging system to multiple
JP4741102B2 (ja) * 2001-05-08 2011-08-03 京セラ株式会社 無線通信機
US6950987B1 (en) * 2001-05-09 2005-09-27 Simdesk Technologies, Inc. Remote document management system
JP2003036314A (ja) * 2001-07-24 2003-02-07 Sharp Corp 食事療養用商品・情報の提供システム
US6931463B2 (en) * 2001-09-11 2005-08-16 International Business Machines Corporation Portable companion device only functioning when a wireless link established between the companion device and an electronic device and providing processed data to the electronic device
US6681208B2 (en) * 2001-09-25 2004-01-20 Motorola, Inc. Text-to-speech native coding in a communication system
EP1298647B1 (de) * 2001-09-28 2005-11-16 Alcatel Kommunikationsvorrichtung und Verfahren zum Senden und Empfangen von Sprachsignalen unter Kombination eines Spracherkennungsmodules mit einer Kodiereinheit
US7352868B2 (en) 2001-10-09 2008-04-01 Philip Hawkes Method and apparatus for security in a data processing system
US7649829B2 (en) 2001-10-12 2010-01-19 Qualcomm Incorporated Method and system for reduction of decoding complexity in a communication system
JP2003143256A (ja) 2001-10-30 2003-05-16 Nec Corp 端末装置と通信制御方法
US7162414B2 (en) * 2001-12-07 2007-01-09 Intel Corporation Method and apparatus to perform speech recognition over a data channel
US20030135375A1 (en) * 2002-01-14 2003-07-17 Bloomstein Richard W. Encoding speech segments for economical transmission and automatic playing at remote computers
US20040150676A1 (en) * 2002-03-25 2004-08-05 Gottfurcht Elliot A. Apparatus and method for simple wide-area network navigation
US7325194B2 (en) 2002-05-07 2008-01-29 Microsoft Corporation Method, system, and apparatus for converting numbers between measurement systems based upon semantically labeled strings
US7707496B1 (en) 2002-05-09 2010-04-27 Microsoft Corporation Method, system, and apparatus for converting dates between calendars and languages based upon semantically labeled strings
US7707024B2 (en) 2002-05-23 2010-04-27 Microsoft Corporation Method, system, and apparatus for converting currency values based upon semantically labeled strings
US7742048B1 (en) 2002-05-23 2010-06-22 Microsoft Corporation Method, system, and apparatus for converting numbers based upon semantically labeled strings
US7281245B2 (en) 2002-06-05 2007-10-09 Microsoft Corporation Mechanism for downloading software components from a remote source for use by a local software application
US7827546B1 (en) 2002-06-05 2010-11-02 Microsoft Corporation Mechanism for downloading software components from a remote source for use by a local software application
US7356537B2 (en) 2002-06-06 2008-04-08 Microsoft Corporation Providing contextually sensitive tools and help content in computer-generated documents
US7716676B2 (en) 2002-06-25 2010-05-11 Microsoft Corporation System and method for issuing a message to a program
US7392479B2 (en) 2002-06-27 2008-06-24 Microsoft Corporation System and method for providing namespace related information
US7209915B1 (en) 2002-06-28 2007-04-24 Microsoft Corporation Method, system and apparatus for routing a query to one or more providers
US20040015361A1 (en) * 2002-07-22 2004-01-22 Bloomstein Richard W. Encoding media data for decompression at remote computers employing automatic decoding options
US7346509B2 (en) * 2002-09-27 2008-03-18 Callminer, Inc. Software for statistical analysis of speech
US7599655B2 (en) 2003-01-02 2009-10-06 Qualcomm Incorporated Method and apparatus for broadcast services in a communication system
US7783614B2 (en) 2003-02-13 2010-08-24 Microsoft Corporation Linking elements of a document to corresponding fields, queries and/or procedures in a database
US20080045267A1 (en) * 2003-03-19 2008-02-21 Research In Motion Limited System and Method for Pushing Information from a Host System to a Mobile Data Communication Device in a Wireless Data Network
US7412392B1 (en) 2003-04-14 2008-08-12 Sprint Communications Company L.P. Conference multi-tasking system and method
US7711550B1 (en) 2003-04-29 2010-05-04 Microsoft Corporation Methods and system for recognizing names in a computer-generated document and for providing helpful actions associated with recognized names
US7558841B2 (en) 2003-05-14 2009-07-07 Microsoft Corporation Method, system, and computer-readable medium for communicating results to a data query in a computer network
US7739588B2 (en) 2003-06-27 2010-06-15 Microsoft Corporation Leveraging markup language data for semantically labeling text strings and data and for providing actions based on semantically labeled text strings and data
KR100547858B1 (ko) * 2003-07-07 2006-01-31 삼성전자주식회사 음성인식 기능을 이용하여 문자 입력이 가능한 이동통신단말기 및 방법
US8098818B2 (en) 2003-07-07 2012-01-17 Qualcomm Incorporated Secure registration for a multicast-broadcast-multimedia system (MBMS)
US8718279B2 (en) 2003-07-08 2014-05-06 Qualcomm Incorporated Apparatus and method for a secure broadcast system
CN100440886C (zh) 2003-09-02 2008-12-03 华为技术有限公司 多媒体协议穿越网络地址转换设备的实现方法
US8724803B2 (en) 2003-09-02 2014-05-13 Qualcomm Incorporated Method and apparatus for providing authenticated challenges for broadcast-multicast communications in a communication system
JP4314242B2 (ja) * 2003-09-10 2009-08-12 富士通株式会社 データ通信システム,データ通信方法,移動体通信端末及びアプリケーションサーバ
US7519042B2 (en) 2003-09-12 2009-04-14 Motorola, Inc. Apparatus and method for mixed-media call formatting
US8723964B2 (en) 2003-09-12 2014-05-13 Sony Corporation Method and device for communication using an optical sensor
US7487515B1 (en) 2003-12-09 2009-02-03 Microsoft Corporation Programmable object model for extensible markup language schema validation
US7178102B1 (en) 2003-12-09 2007-02-13 Microsoft Corporation Representing latent data in an extensible markup language document
US7434157B2 (en) 2003-12-09 2008-10-07 Microsoft Corporation Programmable object model for namespace or schema library support in a software application
US7404195B1 (en) 2003-12-09 2008-07-22 Microsoft Corporation Programmable object model for extensible markup language markup in an application
US7509573B1 (en) 2004-02-17 2009-03-24 Microsoft Corporation Anti-virus security information in an extensible markup language document
US20050288926A1 (en) * 2004-06-25 2005-12-29 Benco David S Network support for wireless e-mail using speech-to-text conversion
US20060111917A1 (en) * 2004-11-19 2006-05-25 International Business Machines Corporation Method and system for transcribing speech on demand using a trascription portlet
KR100684952B1 (ko) * 2005-02-18 2007-02-22 (주) 콘텔라 통신시스템에서의 음성 전자메일/팩시밀리 발송 및 확인 방법
US20060282265A1 (en) * 2005-06-10 2006-12-14 Steve Grobman Methods and apparatus to perform enhanced speech to text processing
US7847964B2 (en) * 2005-06-14 2010-12-07 Celery, Llc Document delivery system
GB2427500A (en) * 2005-06-22 2006-12-27 Symbian Software Ltd Mobile telephone text entry employing remote speech to text conversion
US20070022156A1 (en) * 2005-07-19 2007-01-25 Grubbs Gregory J Digital music system
US7788590B2 (en) 2005-09-26 2010-08-31 Microsoft Corporation Lightweight reference user interface
US7992085B2 (en) 2005-09-26 2011-08-02 Microsoft Corporation Lightweight reference user interface
US20070094270A1 (en) * 2005-10-21 2007-04-26 Callminer, Inc. Method and apparatus for the processing of heterogeneous units of work
WO2007060430A1 (en) * 2005-11-23 2007-05-31 British Telecommunications Public Limited Company Apparatus for and a method of delivering a message to a user
FI20055717A0 (fi) * 2005-12-30 2005-12-30 Nokia Corp Koodinmuunnosmenetelmä matkaviestinjärjestelmässä
EP1821553B1 (de) * 2006-02-16 2012-04-11 Imerj, Limited Verfahren und Systeme zum Umwandeln einer Sprachnachricht in eine Textnachricht
US8370141B2 (en) * 2006-03-03 2013-02-05 Reagan Inventions, Llc Device, system and method for enabling speech recognition on a portable data device
US8472430B2 (en) * 2006-04-03 2013-06-25 Microsoft Corporation VoIP packet prioritization
US8280015B2 (en) 2006-04-06 2012-10-02 Microsoft Corporation Providing contextual information with a voicemail message
CN101051464A (zh) * 2006-04-06 2007-10-10 株式会社东芝 说话人认证的注册和验证方法及装置
WO2009073768A1 (en) 2007-12-04 2009-06-11 Vovision, Llc Correcting transcribed audio files with an email-client interface
CA2644666A1 (en) 2006-04-17 2007-10-25 Vovision Llc Methods and systems for correcting transcribed audio files
US8644396B2 (en) * 2006-04-18 2014-02-04 Qualcomm Incorporated Waveform encoding for wireless applications
EP2025124B1 (de) * 2006-04-26 2015-10-28 Qualcomm Incorporated Dynamische verteilung von gerätefunktionalität und ressourcenverwaltung
US8406794B2 (en) 2006-04-26 2013-03-26 Qualcomm Incorporated Methods and apparatuses of initiating communication in wireless networks
KR100765482B1 (ko) * 2006-05-09 2007-10-09 삼성전자주식회사 디.엘.엔.에이 네트워크를 이용한 스케줄 정보 관리 방법및 그 장치
US20070280433A1 (en) * 2006-05-31 2007-12-06 Microsoft Corporation Voicemail message controls
US20080003941A1 (en) * 2006-06-30 2008-01-03 Microsoft Corporation VoIP two-way broadcasting
US8817955B2 (en) 2006-06-30 2014-08-26 Microsoft Corporation Peer-to-peer broadcasting in a VoIP system
EP2044804A4 (de) 2006-07-08 2013-12-18 Personics Holdings Inc Persönliches hörhilfegerät und verfahren
US20080154870A1 (en) * 2006-12-26 2008-06-26 Voice Signal Technologies, Inc. Collection and use of side information in voice-mediated mobile search
US20080154612A1 (en) * 2006-12-26 2008-06-26 Voice Signal Technologies, Inc. Local storage and use of search results for voice-enabled mobile communications devices
US20080153465A1 (en) * 2006-12-26 2008-06-26 Voice Signal Technologies, Inc. Voice search-enabled mobile device
US20080154608A1 (en) * 2006-12-26 2008-06-26 Voice Signal Technologies, Inc. On a mobile device tracking use of search results delivered to the mobile device
US8515728B2 (en) 2007-03-29 2013-08-20 Microsoft Corporation Language translation of visual and audio input
US20090070109A1 (en) * 2007-09-12 2009-03-12 Microsoft Corporation Speech-to-Text Transcription for Personal Communication Devices
US20110258272A1 (en) * 2008-07-03 2011-10-20 Barracuda Networks Inc. Facilitating transmission of an email of a well behaved sender by extracting email parameters and querying a database
US7996475B2 (en) * 2008-07-03 2011-08-09 Barracuda Networks Inc Facilitating transmission of email by checking email parameters with a database of well behaved senders
US8180644B2 (en) * 2008-08-28 2012-05-15 Qualcomm Incorporated Method and apparatus for scrolling text display of voice call or message during video display session
DE102008046431A1 (de) * 2008-09-09 2010-03-11 Deutsche Telekom Ag Sprachdialogsystem mit Reject-Vermeidungsverfahren
CN102237087B (zh) * 2010-04-27 2014-01-01 中兴通讯股份有限公司 语音控制方法和语音控制装置
US20120059655A1 (en) * 2010-09-08 2012-03-08 Nuance Communications, Inc. Methods and apparatus for providing input to a speech-enabled application program
US9922651B1 (en) * 2014-08-13 2018-03-20 Rockwell Collins, Inc. Avionics text entry, cursor control, and display format selection via voice recognition
US9432611B1 (en) 2011-09-29 2016-08-30 Rockwell Collins, Inc. Voice radio tuning
JP5787780B2 (ja) * 2012-01-25 2015-09-30 株式会社東芝 書き起こし支援システムおよび書き起こし支援方法
US9270916B2 (en) * 2012-02-09 2016-02-23 Screenovate Technologies Ltd. Method and system of improving quality of video beaming
KR20130135410A (ko) * 2012-05-31 2013-12-11 삼성전자주식회사 음성 인식 기능을 제공하는 방법 및 그 전자 장치
US9082413B2 (en) 2012-11-02 2015-07-14 International Business Machines Corporation Electronic transaction authentication based on sound proximity
KR102043099B1 (ko) * 2013-05-02 2019-11-11 삼성전자주식회사 Ip 기반의 네트워크에서 이동성 관리 방법 및 장치
JP6355301B2 (ja) * 2013-06-19 2018-07-11 キヤノン株式会社 画像処理システム及び携帯端末、並びにその制御方法及びプログラム
JP6271876B2 (ja) * 2013-06-19 2018-01-31 キヤノン株式会社 携帯端末及びその制御方法、画像処理装置及びその制御方法、並びにプログラム
US9413891B2 (en) 2014-01-08 2016-08-09 Callminer, Inc. Real-time conversational analytics facility
US9576577B2 (en) * 2014-05-23 2017-02-21 Dolbey & Company, Inc. Systems and methods for transcription transfer
JP2020086412A (ja) * 2018-11-30 2020-06-04 株式会社リコー 情報処理システム、プログラムおよび情報処理方法
CN110223687B (zh) * 2019-06-03 2021-09-28 Oppo广东移动通信有限公司 指令执行方法、装置、存储介质及电子设备
KR20210044985A (ko) * 2019-10-16 2021-04-26 엘지전자 주식회사 음성 처리 방법 및 음성 처리 장치
US11082557B1 (en) * 2020-03-31 2021-08-03 T-Mobile Usa, Inc. Announcement or advertisement in text or video format for real time text or video calls

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4712243A (en) * 1983-05-09 1987-12-08 Casio Computer Co., Ltd. Speech recognition apparatus
JPS6046647A (ja) * 1983-08-24 1985-03-13 Fujitsu Ltd 電報サ−ビス方式
US5182765A (en) * 1985-11-26 1993-01-26 Kabushiki Kaisha Toshiba Speech recognition system with an accurate recognition function
US4856066A (en) * 1986-11-06 1989-08-08 Lemelson Jerome H Speech communication system and method
US5128985A (en) * 1987-04-01 1992-07-07 Canon Kabushiki Kaisha Communication system having a plurality of voice communication terminals and a data communication terminal
US5280520A (en) * 1989-06-28 1994-01-18 Canon Kabushiki Kaisha Apparatus for speed and data communication
JPH0375860A (ja) * 1989-08-18 1991-03-29 Hitachi Ltd パーソナライズド端末
JPH04185050A (ja) * 1990-11-20 1992-07-01 Ricoh Co Ltd ミクストモード端末装置
JPH0530230A (ja) * 1991-07-19 1993-02-05 Csk Corp 集合端末装置
EP0543329B1 (de) * 1991-11-18 2002-02-06 Kabushiki Kaisha Toshiba Sprach-Dialog-System zur Erleichterung von Rechner-Mensch-Wechselwirkung
EP0607615B1 (de) * 1992-12-28 1999-09-15 Kabushiki Kaisha Toshiba Spracherkennungs-Schnittstellensystem, das als Fenstersystem und Sprach-Postsystem verwendbar ist
JPH07221786A (ja) * 1994-02-03 1995-08-18 Toshiba Corp メール装置
JPH07222248A (ja) * 1994-02-08 1995-08-18 Hitachi Ltd 携帯型情報端末における音声情報の利用方式
JPH0816619A (ja) * 1994-06-30 1996-01-19 Casio Comput Co Ltd 情報処理システム
JPH0832618A (ja) * 1994-07-14 1996-02-02 Hitachi Ltd 音声メールシステムおよび音声メール交換装置
JPH08237299A (ja) * 1995-02-28 1996-09-13 Nec Corp オムニメディア通信サービスシステム
JPH09130425A (ja) * 1995-11-07 1997-05-16 Fujitsu Ltd 電子メール送受信システム
JPH09321894A (ja) * 1996-05-31 1997-12-12 Sony Corp 情報処理装置

Also Published As

Publication number Publication date
DE69728744D1 (de) 2004-05-27
JP3402100B2 (ja) 2003-04-28
HK1015047A1 (en) 1999-10-08
EP0851403B1 (de) 2004-04-21
EP0851403A3 (de) 1999-02-24
JPH10190880A (ja) 1998-07-21
US5956681A (en) 1999-09-21
EP0851403A2 (de) 1998-07-01

Similar Documents

Publication Publication Date Title
DE69728744T2 (de) Vorrichtung zur Erzeugung von Textdaten aus an einem Terminal eingegebener Sprache
DE69937962T2 (de) Vorrichtung und verfahren zur bereitstellung von netzwerk-koordinierten konversationsdiensten
DE60215990T2 (de) Dynamisches Dienstmerkmal in einem mobilen Kommunikationsgerät oder einer SIM-Karte zum Empfang und zur Ausführung von dynamischen Dienstskripten in Form kurzer Textnachrichten, beispielsweise SMS
EP1113420B1 (de) Verfahren zur Spracherkennung und Kontrolle einer Sprachsyntheseneinheit oder Kommunikationssystem
DE60028561T2 (de) Bereitstellung von kundendiensten, die daten aus datenquellen abrufen, wobei die datenquellen die vom kunden geforderten formate nicht notwendigerweise unterstützen
EP0644680B1 (de) Verfahren und Vorrichtung zum Erstellen und Bearbeiten von Textdokumenten
US20020052747A1 (en) Method and system of interpreting and presenting web content using a voice browser
US20030171926A1 (en) System for information storage, retrieval and voice based content search and methods thereof
CN104485105A (zh) 一种电子病历生成方法和电子病历系统
DE60123716T2 (de) System und Verfahren zur Bildkommunikation
CN101040283A (zh) 表格相关数据缩减
JPH10133847A (ja) 移動端末音声認識/データベース検索/リソースアクセス通信システム
CN109473103A (zh) 一种会议纪要生成方法
TW499671B (en) Method and system for providing texts for voice requests
EP3095114B1 (de) Verfahren und system zur erzeugung eines steuerungsbefehls
JPH07222248A (ja) 携帯型情報端末における音声情報の利用方式
DE102004018446A1 (de) Dokumenteninformations-Verarbeitungsvorrichtung
JPH10177469A (ja) 移動端末音声認識/データベース検索/リソースアクセス通信システム
CN109727592A (zh) 基于自然语言语音交互的运维指令执行方法、介质及终端
DE60209420T2 (de) System und Verfahren zum Umwandeln von von einem Mobilgerät vorbereiteten Textnachrichten in Sprachnachrichten
WO2015023138A1 (ko) 음성인식 기반의 메시징 통역서비스 제공 시스템 및 그 방법
JP2009509229A (ja) 文脈認識が強化されたメッセージ変換システムおよび方法
US20020077814A1 (en) Voice recognition system method and apparatus
US20040034528A1 (en) Server and receiving terminal
CN106850923A (zh) 联系人信息显示方法、系统及其设备

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: INTELLECTUAL VENTURES HOLDING 56 LLC, CARSON C, US

R082 Change of representative

Ref document number: 851403

Country of ref document: EP

Representative=s name: GRUENECKER, KINKELDEY, STOCKMAIR & SCHWANHAEUSSER,