JP2000285063A - Information processor, information processing method and medium - Google Patents

Information processor, information processing method and medium

Info

Publication number
JP2000285063A
JP2000285063A JP11092862A JP9286299A JP2000285063A JP 2000285063 A JP2000285063 A JP 2000285063A JP 11092862 A JP11092862 A JP 11092862A JP 9286299 A JP9286299 A JP 9286299A JP 2000285063 A JP2000285063 A JP 2000285063A
Authority
JP
Japan
Prior art keywords
text data
server
voice
receiving
transmitting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP11092862A
Other languages
Japanese (ja)
Inventor
Kiyonobu Kojima
清信 小島
Tsunenori Noma
恒毅 野間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP11092862A priority Critical patent/JP2000285063A/en
Publication of JP2000285063A publication Critical patent/JP2000285063A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • Computer And Data Communications (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable a user to enjoy chat even when the user is not skillful in the operation of a keyboard. SOLUTION: A personal computer(PC) 1 to be a chat client recognizes an inputted voice as voice and transmits text data to a server 2 to be a chat server as a voice recognition result. On the other hand, the PC 1 receives text data transmitted from the server 2 and synthesizes a voice on the basis of the text data. Then a voice (synthetic voice) corresponding to the text data is outputted.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、情報処理装置およ
び情報処理方法、並びに媒体に関し、特に、例えば、キ
ーボード等の操作に熟練していなくても、チャットを楽
しむことができるようにする情報処理装置および情報処
理方法、並びに媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus, an information processing method, and a medium. The present invention relates to an apparatus, an information processing method, and a medium.

【0002】[0002]

【従来の技術】例えば、遠隔地にいる多数のユーザどう
しが、容易にコミュニケーションを図るためのツールと
しては、例えば、チャットシステムがある。チャットシ
ステムにおいては、サーバにログインしているあるクラ
イアントから送信されてくるテキストデータが、サーバ
で受信され、他のログインしているクライアントに送信
されるようになっており、これにより、遠隔地にいる多
数のユーザどうしが、容易にコミュニケーションを図る
ことができるようになっている。
2. Description of the Related Art For example, there is a chat system as a tool for easily communicating with a large number of remote users. In a chat system, text data transmitted from a client logged in to a server is received by the server and transmitted to another logged-in client. Many users can easily communicate with each other.

【0003】ここで、従来においては、ある1のサーバ
においては、そのサーバに接続しているユーザどうしの
間でしかチャットを行うことができなかったが、最近急
速に普及してきたインターネットでは、IRC(Intern
et Relay Chat)方式と呼ばれるチャット方式によっ
て、IRCサーバと呼ばれるサーバのいずれかに接続す
れば、そのサーバとリンクしているサーバと接続してい
るクライアントとも、チャットを行うことができる。な
お、IRCについては、IETF(Internet Engineeri
ng Task Force)のRFC(Request For Comments)1
459に規定されている。
[0003] Heretofore, in a conventional one server, a chat can be performed only between users connected to the server. (Intern
If you connect to one of the servers called IRC server by the chat method called “et Relay Chat” method, you can chat with the client connected to the server linked to that server. In addition, about IRC, IETF (Internet Engineeri
ng Task Force) RFC (Request For Comments) 1
459.

【0004】[0004]

【発明が解決しようとする課題】ところで、チャットシ
ステムでは、サーバとクライアントとの間で、テキスト
データがリアルタイムで送受信されるが、従来において
は、チャットを行うためには、ユーザは、キーボードを
操作して、テキストデータを入力しなければならない。
従って、キーボードの操作に熟練していないユーザは、
チャットを楽しむことが困難であった。また、キーボー
ドから入力した平仮名は、仮名漢字変換システム(フロ
ントエンドプロセッサ)によって漢字混じりの文章にし
なければ読みにくく、従って、仮名漢字変換システムの
操作にも熟練する必要があった。
By the way, in a chat system, text data is transmitted and received between a server and a client in real time. However, conventionally, in order to perform a chat, a user operates a keyboard. Then you have to enter the text data.
Therefore, users who are not skilled in keyboard operation
It was difficult to enjoy chatting. Also, hiragana input from the keyboard is difficult to read unless the sentence is mixed with kanji by a kana-kanji conversion system (front-end processor). Therefore, it is necessary to be skilled in operation of the kana-kanji conversion system.

【0005】そこで、キーボードを操作することなく、
遠隔地にいる多数のユーザどうしがコミュニケーション
を図ることのできるツールとして、例えば、特開平6−
274596号公報に開示されているような、多数の端
末間で音声データのやりとりを行うシステムがある。
Therefore, without operating the keyboard,
As a tool that allows a large number of remote users to communicate with each other, for example, Japanese Unexamined Patent Publication No.
There is a system for exchanging audio data between a large number of terminals as disclosed in Japanese Patent No. 274596.

【0006】しかしながら、特開平6−274596号
公報に開示されているシステムでは、音声データをその
まま送信するため、データ量が多く、広帯域の伝送路が
必要となる。また、特開平6−274596号公報に
は、音声データを圧縮して送信することが開示されてい
るが、高圧縮の場合には、音質が低下し、低圧縮の場合
には、広帯域の伝送路が必要となる。
However, in the system disclosed in Japanese Patent Application Laid-Open No. 6-274596, since voice data is transmitted as it is, a large amount of data and a wide-band transmission path are required. Japanese Patent Application Laid-Open No. 6-274596 discloses that audio data is transmitted after being compressed. However, in the case of high compression, the sound quality is degraded, and in the case of low compression, wideband transmission is performed. Road is needed.

【0007】本発明は、このような状況に鑑みてなされ
たものであり、狭帯域の伝送路であっても、ユーザどう
しが、容易にコミュニケーションを図ることができるよ
うにするものである。
[0007] The present invention has been made in view of such a situation, and it is an object of the present invention to enable users to easily communicate with each other even in a narrow-band transmission path.

【0008】[0008]

【課題を解決するための手段】請求項1に記載の情報処
理装置は、入力された音声を音声認識し、その音声認識
結果を、テキストデータで出力する音声認識手段と、音
声認識結果としてのテキストデータを、サーバに送信す
る送信手段とを含むことを特徴とする。
According to a first aspect of the present invention, there is provided an information processing apparatus which performs voice recognition of an input voice and outputs the voice recognition result as text data. And transmitting means for transmitting the text data to the server.

【0009】請求項5に記載の情報処理方法は、入力さ
れた音声を音声認識し、その音声認識結果を、テキスト
データで出力する音声認識ステップと、音声認識結果と
してのテキストデータを、サーバに送信する送信ステッ
プとを含むことを特徴とする。
According to a fifth aspect of the present invention, in the information processing method, a voice recognition step of recognizing an input voice and outputting the voice recognition result as text data, and transmitting text data as the voice recognition result to a server. And a transmitting step of transmitting.

【0010】請求項6に記載の媒体が情報処理装置に実
行させるプログラムは、入力された音声を音声認識し、
その音声認識結果を、テキストデータで出力する音声認
識ステップと、音声認識結果としてのテキストデータ
を、サーバに送信する送信ステップとを含むことを特徴
とする。
According to a sixth aspect of the present invention, there is provided a program for causing an information processing apparatus to execute a medium, wherein the program performs speech recognition on input speech,
The method includes a voice recognition step of outputting the voice recognition result as text data, and a transmitting step of transmitting text data as a voice recognition result to a server.

【0011】請求項7に記載の情報処理装置は、サーバ
から送信されてくるテキストデータを受信する受信手段
と、サーバからのテキストデータに基づいて、音声合成
を行い、そのテキストデータに対応する合成音を出力す
る音声合成手段とを含むことを特徴とする。
According to a seventh aspect of the present invention, there is provided an information processing apparatus, comprising: receiving means for receiving text data transmitted from a server; and performing speech synthesis based on the text data from the server, and performing synthesis corresponding to the text data. Voice synthesis means for outputting sound.

【0012】請求項9に記載の情報処理方法は、サーバ
から送信されてくるテキストデータを受信する受信ステ
ップと、サーバからのテキストデータに基づいて、音声
合成を行い、そのテキストデータに対応する合成音を出
力する音声合成ステップとを含むことを特徴とする。
According to a ninth aspect of the present invention, in the information processing method, a receiving step of receiving text data transmitted from the server, a voice synthesis is performed based on the text data from the server, and a synthesis corresponding to the text data is performed. And a voice synthesizing step of outputting a sound.

【0013】請求項10に記載の媒体が情報処理装置に
実行させるプログラムは、サーバから送信されてくるテ
キストデータを受信する受信ステップと、サーバからの
テキストデータに基づいて、音声合成を行い、そのテキ
ストデータに対応する合成音を出力する音声合成ステッ
プとを含むことを特徴とする。
[0013] According to a tenth aspect of the present invention, a program for causing an information processing apparatus to execute a medium performs a receiving step of receiving text data transmitted from a server, and performs speech synthesis based on the text data from the server. And a voice synthesizing step of outputting a synthesized voice corresponding to the text data.

【0014】請求項1に記載の情報処理装置および請求
項5に記載の情報処理方法、並びに請求項6に記載の媒
体においては、入力された音声が音声認識され、その音
声認識結果が、テキストデータで出力される。そして、
その音声認識結果としてのテキストデータが、サーバに
送信される。
[0014] In the information processing apparatus according to the first aspect, the information processing method according to the fifth aspect, and the medium according to the sixth aspect, the input voice is recognized by speech, and the speech recognition result is a text. Output as data. And
Text data as a result of the speech recognition is transmitted to the server.

【0015】請求項7に記載の情報処理装置および請求
項9に記載の情報処理方法、並びに請求項10に記載の
媒体においては、サーバから送信されてくるテキストデ
ータが受信され、そのサーバからのテキストデータに基
づいて、音声合成が行われ、そのテキストデータに対応
する合成音が出力される。
[0015] In the information processing apparatus according to the seventh aspect, the information processing method according to the ninth aspect, and the medium according to the tenth aspect, text data transmitted from a server is received and transmitted from the server. Speech synthesis is performed based on the text data, and a synthesized sound corresponding to the text data is output.

【0016】[0016]

【発明の実施の形態】図1は、本発明を適用したチャッ
トシステムの一実施の形態の構成例を示している。
FIG. 1 shows a configuration example of an embodiment of a chat system to which the present invention is applied.

【0017】図1の実施の形態においては、3台のパー
ソナルコンピュータ(パソコン)1−1乃至1−3、並
びに2台のチャットサーバ2−1および2−2が、例え
ば、インターネット等の通信ネットワーク3を介して相
互に接続されている。
In the embodiment shown in FIG. 1, three personal computers (personal computers) 1-1 to 1-3 and two chat servers 2-1 and 2-2 are connected to a communication network such as the Internet, for example. 3 are interconnected.

【0018】そして、サーバ2−1および2−2は、ユ
ーザがチャットを行う場としてのチャット空間を提供す
るためのチャットサーバプログラムが格納されたHD
(HardDisk)27(図3)を有し、そのプログラムを実
行することで、パソコンどうしでチャットを行うための
制御を行うチャットサーバとして機能するようになって
いる。即ち、サーバ2−1および2−2(サーバ2−1
および2−2を区別する必要がない場合は、以下、適
宜、サーバ2と記述する)は、通信ネットワーク3を介
して接続されているパソコン1−1乃至1−3に、その
ユーザがチャットを行うためのチャット環境を提供する
ようになっている。なお、ここでは、サーバ2−1およ
び2−2は、例えば、IRC方式によるチャット環境を
提供するようになっており、従って、サーバ2−1に接
続したユーザどうし、サーバ2−2に接続したユーザど
うしの他、サーバ2−1の接続したユーザと、サーバ2
−2に接続したユーザとの間でも、チャットを行うこと
ができるようになっている。
The servers 2-1 and 2-2 are each provided with an HD in which a chat server program for providing a chat space as a place where a user performs a chat is stored.
(HardDisk) 27 (FIG. 3), and by executing the program, functions as a chat server for controlling chatting between personal computers. That is, the servers 2-1 and 2-2 (the server 2-1)
In the case where it is not necessary to distinguish between the two and 2-2, the user will be referred to as a server 2 as appropriate), and the user chats with the personal computers 1-1 to 1-3 connected via the communication network 3. It provides a chat environment to perform. Here, the servers 2-1 and 2-2 provide, for example, a chat environment based on the IRC method. Therefore, users who have connected to the server 2-1 have connected to the server 2-2. In addition to the users, the user connected to the server 2-1 and the server 2
It is also possible to chat with a user connected to -2.

【0019】一方、パソコン1−1乃至1−3(パソコ
ン1−1乃至1−3を区別する必要がない場合は、以
下、適宜、パソコン1と記述する)は、サーバ2−1や
2−2が提供するチャット空間を、他のパソコンとの間
で共有しながらチャットを行うためのチャットクライア
ントプログラムを記憶しており、このチャットクライア
ントプログラムと、サーバ2−1や2−2におけるチャ
ットサーバプログラムの実行によって、パソコン1で
は、チャットを行うためのチャット空間が表示される。
On the other hand, the personal computers 1-1 to 1-3 (hereinafter, when it is not necessary to distinguish the personal computers 1-1 to 1-3, are referred to as the personal computer 1 as appropriate) are the servers 2-1 and 2- 2 stores a chat client program for chatting while sharing the chat space provided by the PC 2 with another personal computer. The chat client program and the chat server program in the servers 2-1 and 2-2 are stored. Is executed, the personal computer 1 displays a chat space for chatting.

【0020】そして、パソコン1−1乃至1−3が、す
べてサーバ2に接続している場合において、そのうち
の、例えば、パソコン1−1からテキストデータが入力
され、通信ネットワーク3を介して、サーバ2に送信さ
れると、サーバ2では、そのテキストデータが受信さ
れ、他のパソコン1−2および1−3に送信される。ま
た、パソコン1−2や1−3において入力されたテキス
トデータも、同様にして、他のパソコンに送信される。
When all of the personal computers 1-1 to 1-3 are connected to the server 2, for example, text data is input from the personal computer 1-1, and the server 1-1 receives text data via the communication network 3. 2, the text data is received by the server 2 and transmitted to the other personal computers 1-2 and 1-3. The text data input in the personal computers 1-2 and 1-3 is transmitted to other personal computers in the same manner.

【0021】以上のようにして、パソコン1−1乃至1
−3それぞれの間では、サーバ2を介して、チャットが
行われる。
As described above, the personal computers 1-1 to 1
-3, a chat is performed via the server 2.

【0022】次に、図2は、図1のパソコン1のハード
ウェア構成例を示している。
FIG. 2 shows an example of the hardware configuration of the personal computer 1 shown in FIG.

【0023】通信I/F(Interface)11は、例え
ば、モデムや、ターミナルアダプタ、ネットワークカー
ド等でなり、通信ネットワーク3を介しての通信制御を
行うようになっている。ROM(Read Only Memory)1
2は、例えば、BIOS(Basic Input Output Syste
m)のプログラムなどを記憶している。CPU(Central
Processing Unit)13は、HD17に記憶されている
チャットクライアントプログラムや、音声処理プログラ
ム等のアプリケーションプログラムを、RAM(Random
Access Memory)14上に展開して実行することで、チ
ャットや音声認識、音声合成等のための処理を行うよう
になっている。RAM14は、CPU13の動作上必要
なプログラムやデータを一時記憶するようになってい
る。
The communication I / F (Interface) 11 includes, for example, a modem, a terminal adapter, a network card, and the like, and controls communication via the communication network 3. ROM (Read Only Memory) 1
2 is, for example, a BIOS (Basic Input Output System)
m) programs are stored. CPU (Central
The processing unit (13) stores application programs such as a chat client program and a voice processing program stored in the HD 17 into a RAM (Random).
Access memory) 14 is expanded and executed to perform processing for chat, voice recognition, voice synthesis, and the like. The RAM 14 temporarily stores programs and data necessary for the operation of the CPU 13.

【0024】入力部15は、例えば、キーボードや、マ
ウス、マイク(マイクロフォン)等で構成され、必要な
コマンドやデータを入力するときに用いられる。出力部
16は、例えば、ディスプレイやスピーカ、ヘッドフォ
ン等で構成され、CPU13の制御の下、所定の情報を
表示したり、音声で出力するようになっている。HD1
7は、上述したようなアプリケーションプログラムの
他、例えば、Windows95や98(商標)、Linux等のOS
(Operating System)のプログラム等を記憶している。
The input unit 15 is composed of, for example, a keyboard, a mouse, a microphone (microphone), etc., and is used to input necessary commands and data. The output unit 16 includes, for example, a display, a speaker, headphones, and the like, and is configured to display predetermined information or output by voice under the control of the CPU 13. HD1
Reference numeral 7 denotes an OS such as Windows 95, 98 (trademark), Linux, etc., in addition to the application programs described above.
(Operating System) programs and the like.

【0025】以上のように構成されるパソコン1では、
CPU13において、HD17に記憶されたOSのプロ
グラムが、RAM14に展開されて実行される。さら
に、CPU13において、OSのプログラムの制御の
下、HD17に記憶されたアプリケーションプログラム
が実行されることで、上述したようなチャットのための
処理や、後述する音声認識、音声合成その他の処理が行
われる。
In the personal computer 1 configured as described above,
In the CPU 13, the OS program stored in the HD 17 is expanded in the RAM 14 and executed. Further, the CPU 13 executes the application program stored in the HD 17 under the control of the OS program, thereby performing the above-described processing for chat, voice recognition, voice synthesis, and other processing described below. Will be

【0026】次に、図3は、図1のサーバ2のハードウ
ェア構成例を示している。
Next, FIG. 3 shows an example of a hardware configuration of the server 2 of FIG.

【0027】図3に示すように、サーバ2は、パソコン
1を構成する通信I/F11乃至HD17とそれぞれ同
様の通信I/F21乃至HD27から構成されている。
但し、HD17には、チャットサーバプログラム等の、
サーバ2がチャットサーバとして機能するためのプログ
ラムが記憶されている。
As shown in FIG. 3, the server 2 comprises communication I / Fs 21 to HD27 which are the same as the communication I / Fs 11 to HD 17 constituting the personal computer 1, respectively.
However, the HD 17 includes a chat server program and the like.
A program for the server 2 to function as a chat server is stored.

【0028】以上のように構成されるサーバ2でも、C
PU23において、HD27に記憶されたアプリケーシ
ョンプログラムが実行されることで、パソコンどうしで
チャットを行うのに必要な処理が行われる。
In the server 2 configured as described above, C
By executing the application program stored in the HD 27 in the PU 23, processing necessary for chatting between personal computers is performed.

【0029】次に、図4を参照して、パソコン1におい
てチャットクライアントプログラムが実行され、サーバ
2においてチャットサーバプログラムが実行されること
により行われる処理について説明する。
Next, with reference to FIG. 4, a description will be given of a process performed by executing the chat client program on the personal computer 1 and executing the chat server program on the server 2. FIG.

【0030】なお、図4において、パソコン1を構成す
るブロックは、パソコン1でチャットクライアントプロ
グラムが実行されることにより実現される機能的なブロ
ックであり、サーバ2を構成するブロックも、サーバ2
でチャットサーバプログラムが実行されることにより実
現される機能的なブロックである。
In FIG. 4, the blocks constituting the personal computer 1 are functional blocks realized by executing the chat client program on the personal computer 1, and the blocks constituting the server 2 are the same as those of the server 2.
Is a functional block realized by executing the chat server program.

【0031】また、図4では、パソコン1は、チャット
通信部31およびチャット処理部32で構成されている
が、パソコン1−i(本実施の形態では、i=1,2,
3)を構成するチャット通信部31とチャット処理部3
2を、それぞれチャット通信部31−iとチャット処理
部32−iと記述するものとする。
In FIG. 4, the personal computer 1 is composed of a chat communication unit 31 and a chat processing unit 32, but the personal computer 1-i (in the present embodiment, i = 1, 2, 2, 3).
3) Chat communication unit 31 and chat processing unit 3
2 are described as a chat communication unit 31-i and a chat processing unit 32-i, respectively.

【0032】いま、パソコン1−1と1−2が、通信ネ
ットワーク3を介して、サーバ2に接続しており、この
パソコン1−1と1−2との間でチャットが行われると
すると、例えば、パソコン1−1のユーザが、入力部1
5を構成するキーボードを操作することにより、テキス
トを入力すると、そのテキストデータは、チャット処理
部32−1に供給される。チャット処理部32−1で
は、入力されたテキストデータに対して、所定の処理が
施され、即ち、例えば、IRC方式でチャットが行われ
る場合には、テキストデータが、7ビット可視ASCI
I文字列のデータに変換され、チャット通信部31−1
に供給される。チャット通信部31−1では、チャット
処理部32−1からのテキストデータが、通信ネットワ
ーク3を介して、サーバ2に送信される。
Now, suppose that the personal computers 1-1 and 1-2 are connected to the server 2 via the communication network 3 and that a chat is performed between the personal computers 1-1 and 1-2. For example, the user of the personal computer 1-1 operates the input unit 1
When the text is input by operating the keyboard constituting the text No. 5, the text data is supplied to the chat processing unit 32-1. The chat processing unit 32-1 performs a predetermined process on the input text data. That is, for example, when a chat is performed by the IRC method, the text data is converted to a 7-bit visible ASCI.
Is converted into I-string data, and the chat communication unit 31-1
Supplied to In the chat communication unit 31-1, text data from the chat processing unit 32-1 is transmitted to the server 2 via the communication network 3.

【0033】サーバ2では、チャットサーバ機能部41
において、チャット通信部31−1からのテキストデー
タが受信され、通信ネットワーク3を介して、パソコン
1−1以外の、いま接続している他のパソコン(チャッ
トクライアント)に送信される。即ち、図4の実施の形
態では、サーバ2に接続している、パソコン1−1以外
のパソコンは、パソコン1−2であり、従って、チャッ
トサーバ機能部41では、チャット通信部31−1から
のテキストデータは、通信ネットワーク3を介して、パ
ソコン1−2に送信される。
In the server 2, the chat server function unit 41
In, the text data from the chat communication unit 31-1 is received and transmitted via the communication network 3 to another personal computer (chat client) other than the personal computer 1-1, which is currently connected. That is, in the embodiment of FIG. 4, the personal computer other than the personal computer 1-1 connected to the server 2 is the personal computer 1-2. Therefore, in the chat server function unit 41, the chat communication unit 31-1 Is transmitted to the personal computer 1-2 via the communication network 3.

【0034】パソコン1−2では、チャット通信部31
−2において、チャットサーバ機能部41からのテキス
トデータが受信され、チャット処理部32−2に供給さ
れる。チャット処理部32−2では、チャット通信部3
1−2からのテキストデータに必要な処理が施され、そ
の出力部16に供給されて表示される。
In the personal computer 1-2, the chat communication unit 31
In -2, text data from the chat server function unit 41 is received and supplied to the chat processing unit 32-2. In the chat processing unit 32-2, the chat communication unit 3
Necessary processing is performed on the text data from 1-2, and the text data is supplied to the output unit 16 and displayed.

【0035】一方、パソコン1−2のユーザが、入力部
15を構成するキーボードを操作することにより、テキ
ストを入力すると、そのテキストデータは、上述の場合
とは逆のルートで、パソコン1−1に送信される。
On the other hand, when the user of the personal computer 1-2 inputs text by operating the keyboard constituting the input unit 15, the text data is transferred to the personal computer 1-1 along a route reverse to that described above. Sent to.

【0036】即ち、パソコン1−2では、入力されたテ
キストデータが、チャット処理部32−2およびチャッ
ト通信部31−1、並びに通信ネットワーク3を介し
て、サーバ2に送信される。サーバ2では、チャットサ
ーバ機能部41において、パソコン1−2からのテキス
トデータが受信され、通信ネットワーク3を介して、パ
ソコン1−2以外の、いま接続している他のパソコン
(チャットクライアント)、即ち、図4の実施の形態で
は、パソコン1−1に送信される。パソコン1−1で
は、チャット通信部31−1において、チャットサーバ
機能部41からのテキストデータが受信され、チャット
処理部32−1に供給される。チャット処理部32−1
では、チャット通信部31−1からのテキストデータに
必要な処理が施され、その出力部16に供給されて表示
される。
That is, in the personal computer 1-2, the input text data is transmitted to the server 2 via the chat processing unit 32-2, the chat communication unit 31-1, and the communication network 3. In the server 2, the chat server function unit 41 receives text data from the personal computer 1-2, and via the communication network 3, other personal computers (chat clients) other than the personal computer 1-2, That is, in the embodiment of FIG. 4, the data is transmitted to the personal computer 1-1. In the personal computer 1-1, the chat communication unit 31-1 receives text data from the chat server function unit 41 and supplies the text data to the chat processing unit 32-1. Chat processing unit 32-1
Then, necessary processing is performed on the text data from the chat communication unit 31-1, and the text data is supplied to the output unit 16 and displayed.

【0037】以上のように、パソコン1において、チャ
ットクライアントプログラムが実行されるだけでは、ユ
ーザは、チャットの内容であるテキストを、キーボード
を操作して入力する必要があり、面倒である。
As described above, if the chat client program is only executed in the personal computer 1, the user needs to operate the keyboard to input the text as the content of the chat, which is troublesome.

【0038】そこで、図5は、パソコン1のHD17に
記憶されているチャットクライアントプログラムの他、
音声処理プログラムも実行されることにより実現される
パソコン1の機能的構成例を示している。
FIG. 5 shows, in addition to the chat client program stored in the HD 17 of the personal computer 1,
3 shows an example of a functional configuration of the personal computer 1 that is realized by executing a voice processing program.

【0039】図5において、音声入力装置51は、図2
の入力部15に相当し、マイク等で構成される。そし
て、音声入力装置51は、そこに入力される音声を、電
気信号としての音声信号とし、さらに、A/D変換し
て、ディジタルの音声データとして音声認識装置52に
供給するようになっている。音声認識装置52は、音声
入力装置51からの音声データを、例えばHMM(Hidd
en Markou Models)法等の所定の音声認識アルゴリズム
にしたがって音声認識し、その音声認識結果を、テキス
トデータで出力するようになっている。この音声認識結
果としてのテキストデータは、図4に示したパソコン1
を構成するチャット通信部31およびチャット処理部3
2に相当するチャットクライアント機能部30に供給さ
れるようになっている。
In FIG. 5, the voice input device 51 is
, And is constituted by a microphone or the like. Then, the voice input device 51 converts the voice input thereto into a voice signal as an electric signal, further performs A / D conversion, and supplies the voice signal to the voice recognition device 52 as digital voice data. . The voice recognition device 52 converts the voice data from the voice input device 51 into, for example, an HMM (Hidd
The voice recognition is performed in accordance with a predetermined voice recognition algorithm such as an en Markou Models method, and the voice recognition result is output as text data. The text data as a result of the speech recognition is transmitted to the personal computer 1 shown in FIG.
Communication unit 31 and chat processing unit 3 constituting
2 is supplied to the chat client function unit 30 corresponding to the second embodiment.

【0040】なお、音声認識装置52では、音声認識結
果としてのテキストデータに対して、必要に応じて、仮
名漢字変換処理が施されて出力されるようになってい
る。
In the speech recognition device 52, text data as a speech recognition result is subjected to kana-kanji conversion processing as necessary and output.

【0041】音声読み上げ装置53には、チャットクラ
イアント機能部30から、サーバ2から送信されてくる
他のパソコンからのテキストデータが供給されるように
なっている。そして、音声読み上げ装置53は、チャッ
トクライアント機能部30からのテキストデータに基づ
いて音声合成を行い、そのテキストデータに対応する、
例えば、WAV形式やAU形式の合成音のデータを生成
して、音声出力装置54に供給するようになっている。
音声出力装置54は、図2の出力部16に相当し、スピ
ーカ等で構成される。そして、音声出力装置54は、音
声読み上げ装置53からの合成音のデータにしたがい、
サーバ2からのテキストデータを読み上げる合成音を出
力するようになっている。
The text-to-speech apparatus 53 is supplied with text data from another personal computer transmitted from the server 2 from the chat client function unit 30. The text-to-speech apparatus 53 performs speech synthesis based on the text data from the chat client function unit 30, and corresponds to the text data.
For example, data of a synthesized sound in the WAV format or the AU format is generated and supplied to the audio output device 54.
The audio output device 54 corresponds to the output unit 16 in FIG. 2, and includes a speaker and the like. Then, the voice output device 54 follows the synthesized voice data from the voice reading device 53,
A synthetic sound for reading text data from the server 2 is output.

【0042】次に、図6を参照して、図5のように構成
されるパソコン1の動作について説明する。
Next, the operation of the personal computer 1 configured as shown in FIG. 5 will be described with reference to FIG.

【0043】パソコン1において、ユーザが、例えば、
「こんにちは」等の発話を行うと(図6)、その音声
は、音声入力装置(マイク)51に入力され、電気信号
としての音声データとされる。この音声データは、音声
認識装置52に供給され、そこで音声認識される。さら
に、音声認識装置52では、その音声認識結果が、テキ
ストデータに変換され、必要に応じて、仮名漢字変換さ
れた後、チャットクライアント機能部30に供給され
る。チャットクライアント機能部30では、図4で説明
したように、音声認識装置52からのテキストデータ
が、通信ネットワーク3を介して、サーバ2に送信され
る。即ち、以上のようにして、ユーザの発話「こんにち
は」は、テキストデータとされ、サーバ2に送信され
る。
In the personal computer 1, the user, for example,
Doing utterance such as "Hello" (FIG. 6), the voice is input to the voice input device (microphone) 51 is audio data as an electrical signal. This voice data is supplied to a voice recognition device 52, where the voice is recognized. Further, in the voice recognition device 52, the voice recognition result is converted into text data, and if necessary, converted into kana-kanji characters, and then supplied to the chat client function unit 30. In the chat client function unit 30, the text data from the voice recognition device 52 is transmitted to the server 2 via the communication network 3, as described with reference to FIG. In other words, as described above, a user of the utterance "Hello" is a text data is transmitted to the server 2.

【0044】一方、サーバ2から通信ネットワーク3を
介して送信されてくるテキストデータは、チャットクラ
イアント機能部30において、図4で説明したようにし
て受信され、音声読み上げ装置53に供給される。音声
読み上げ装置53では、チャットクライアント機能部3
0からのテキストデータに対応する合成音が生成され、
音声出力装置54に供給される。音声出力装置54で
は、音声読み上げ装置53からの合成音が出力される。
即ち、例えば、サーバ2から「今日はいい天気ですね」
等のテキストデータが送信されてきた場合には、音声出
力装置54では、その合成音「今日はいい天気ですね」
が出力される(図6)。
On the other hand, the text data transmitted from the server 2 via the communication network 3 is received by the chat client function unit 30 as described with reference to FIG. In the voice reading device 53, the chat client function unit 3
A synthesized sound corresponding to the text data from 0 is generated,
It is supplied to the audio output device 54. The voice output device 54 outputs a synthesized voice from the voice reading device 53.
That is, for example, from the server 2, "Today is fine weather."
When the text data such as is transmitted, the voice output device 54 outputs the synthesized sound “Today is fine weather.”
Is output (FIG. 6).

【0045】次に、図7および図8を参照して、パソコ
ン1においてチャットクライアントプログラムおよび音
声処理プログラムが実行されることにより表示される画
面について説明する。
Next, a screen displayed by executing the chat client program and the voice processing program on the personal computer 1 will be described with reference to FIG. 7 and FIG.

【0046】パソコン1において、チャットクライアン
トプログラムが実行されると、出力部16では、図7お
よび図8に示すようなチャット用のウインドウ61が表
示される。
When the chat client program is executed in the personal computer 1, the output unit 16 displays a chat window 61 as shown in FIGS.

【0047】なお、ここでは、例えば、パソコン1−1
と1−2との間でチャットが行われるものとし、パソコ
ン1−1のユーザを、ユーザAとするとともに、パソコ
ン1−2のユーザを、ユーザBとする。また、パソコン
1−1または1−2それぞれの出力部16に表示される
ウインドウ61を、ウインドウ61−1または61−2
と記述する。
Here, for example, the personal computer 1-1
It is assumed that a chat is performed between the personal computer 1-1 and the personal computer 1-2. The user of the personal computer 1-1 is a user A, and the user of the personal computer 1-2 is a user B. The window 61 displayed on the output unit 16 of each of the personal computers 1-1 and 1-2 is referred to as a window 61-1 or 61-2.
It is described.

【0048】ウインドウ61は、図7および図8に示す
ように、ユーザどうしの間で行われたチャットの内容が
表示されるチャット文字表示エリア62と、ユーザが入
力した最新のテキストが表示されるテキスト入力フィー
ルド63から構成される。なお、ウインドウ61−1を
構成するチャット文字表示エリア62またはテキスト入
力フィールド63を、以下、適宜、チャット文字表示エ
リア62−1またはテキスト入力フィールド63−1と
それぞれ記述するとともに(図7)、ウインドウ61−
2を構成するチャット文字表示エリア62またはテキス
ト入力フィールド63を、以下、適宜、チャット文字表
示エリア62−2またはテキスト入力フィールド63−
2とそれぞれ記述する(図8)。
The window 61, as shown in FIGS. 7 and 8, displays a chat character display area 62 in which the contents of a chat performed between users are displayed, and the latest text input by the user. It consists of a text input field 63. Note that the chat character display area 62 or the text input field 63 constituting the window 61-1 will be appropriately described as the chat character display area 62-1 or the text input field 63-1 below (FIG. 7). 61-
The chat character display area 62 or the text input field 63 constituting the chat character display area 62-2 or the text input field 63-
2 (FIG. 8).

【0049】いま、ユーザAが、例えば、「今日はいい
天気ですね」を発話すると、パソコン1−1において、
その音声は音声認識され、仮名漢字変換される。この仮
名漢字変換結果は、図7に示すように、テキスト入力フ
ィールド63−1に表示され、その後、通信ネットワー
ク3を介して、サーバ2に送信される。
Now, when the user A utters, for example, "Today is fine weather,"
The voice is recognized and converted to kana-kanji. This kana-kanji conversion result is displayed in the text input field 63-1 as shown in FIG. 7, and then transmitted to the server 2 via the communication network 3.

【0050】サーバ2では、パソコン1−1からのテキ
ストデータ「今日はいい天気ですね」が受信され、通信
ネットワーク3を介して、パソコン1−2に送信され
る。パソコン1−2では、パソコン1−1からのテキス
トデータ「今日はいい天気ですね」が、図8に示すよう
に、その出力部16に表示されたウインドウ61−2の
チャット文字表示エリア62−2に表示される。さら
に、パソコン1−2では、例えば、テキスト音声合成が
行われることにより、テキストデータ「今日はいい天気
ですね」に対応する合成音が生成されて出力される。
The server 2 receives the text data “Today is fine weather” from the personal computer 1-1 and sends it to the personal computer 1-2 via the communication network 3. In the personal computer 1-2, the text data "Today is fine weather" from the personal computer 1-1 is transmitted to the chat character display area 62- of the window 61-2 displayed on the output unit 16 as shown in FIG. 2 is displayed. Further, in the personal computer 1-2, for example, a text-to-speech synthesis is performed, so that a synthesized sound corresponding to the text data “Today is fine weather” is generated and output.

【0051】以上のように、入力された音声が音声認識
され、その音声認識結果としてのテキストデータが、通
信ネットワーク3を介して、サーバ2に送信されるの
で、ユーザは、キーボードの操作に熟練していなくて
も、容易に、チャットを楽しむことができる。
As described above, the input voice is recognized by speech, and the text data as the speech recognition result is transmitted to the server 2 via the communication network 3, so that the user is skilled in operating the keyboard. Even if you do not, you can easily enjoy chatting.

【0052】また、通信ネットワーク3を介して、パソ
コン1とサーバ2との間でやりとりされるのはテキスト
データであるため、従来のチャットシステムをそのまま
利用することができる。従って、パソコン1との間でチ
ャットを行うチャットクライアントが、上述したような
音声認識や音声合成を行うための音声処理プログラムを
有していなくても、パソコン1との間でチャットを行う
ことができる。そして、この場合でも、パソコン1にお
いては、音声でテキストデータを入力し、かつ送信され
てきたテキストデータを、合成音で出力することができ
る。
Since text data is exchanged between the personal computer 1 and the server 2 via the communication network 3, the conventional chat system can be used as it is. Therefore, even if the chat client that chats with the personal computer 1 does not have a voice processing program for performing voice recognition and voice synthesis as described above, it is possible to chat with the personal computer 1. it can. Also in this case, the personal computer 1 can input text data by voice and output the transmitted text data as a synthesized sound.

【0053】さらに、音声データではなく、テキストデ
ータがやりとりされるため、その伝送は、狭帯域で行う
ことができる。
Further, since text data is exchanged instead of voice data, the transmission can be performed in a narrow band.

【0054】また、サーバ2から送信されてくるテキス
トデータに対応する合成音を生成して出力するようにし
たので、ユーザは、出力部16の表示を見なくてもチャ
ットを行うことができる。即ち、ディスプレイがなくて
も、チャットを行うことができる。
Also, since the synthesized sound corresponding to the text data transmitted from the server 2 is generated and output, the user can chat without looking at the display on the output unit 16. That is, a chat can be performed without a display.

【0055】従って、チャットクライアントとしては、
極端には、テキストを入力するためのキーや、テキスト
を表示するためのディスプレイが必要がなく、音声を入
力するためのマイクと、音声を出力するためのスピーカ
があれば良いから、携帯電話機等の携帯端末を、チャッ
トクライアントとして用いることも、容易に可能とな
る。
Therefore, as a chat client,
In the extreme, there is no need for a key for inputting text or a display for displaying text, and only a microphone for inputting voice and a speaker for outputting voice are required. Can easily be used as a chat client.

【0056】なお、テキスト音声合成を行う場合には、
その合成の基本単位となる音素データや音節データが必
要となるが、これは、HD17にあらかじめ記憶されて
いるものとする。但し、音素データや音声データは、通
信ネットワーク3を介してダウンロードするようにして
も良い。
When performing text-to-speech synthesis,
Phoneme data and syllable data, which are basic units for the synthesis, are required, and these are stored in the HD 17 in advance. However, phoneme data and voice data may be downloaded via the communication network 3.

【0057】また、音声合成は、テキスト音声合成によ
る他、例えば、録音編集方式(あらかじめ発話された単
語や文節を蓄積しておいて接続する方式)によって行う
ことも可能である。
Speech synthesis can be performed not only by text speech synthesis but also by, for example, a recording / editing method (a method in which uttered words and phrases are stored in advance and connected).

【0058】次に、図9のフローチャートを参照して、
チャットクライアントとしての図2に示したパソコン1
の動作について、さらに説明する。
Next, referring to the flowchart of FIG.
The personal computer 1 shown in FIG. 2 as a chat client
Will be further described.

【0059】ユーザが、入力部15を、チャットクライ
アントプログラムを実行するように操作すると、CPU
13において、HD17に記憶されたチャットクライア
ントプログラムが、RAM14にロードされて実行され
る。
When the user operates the input unit 15 to execute the chat client program, the CPU
At 13, the chat client program stored in the HD 17 is loaded into the RAM 14 and executed.

【0060】これにより、CPU13では、図7および
図8に示したようなチャット用のウインドウ61が表示
され、さらに、ステップS1において、サーバ2との接
続を確立し、ログインするための処理が行われる。そし
て、サーバ2へのログインが完了すると、ステップS2
に進み、ユーザが発話を行ったかどうかが判定される。
ステップS2において、ユーザが発話を行っていないと
判定された場合、即ち、入力部15に音声が入力されて
いない場合、ステップS3乃至S6をスキップして、ス
テップS7に進む。
As a result, the CPU 13 displays a chat window 61 as shown in FIGS. 7 and 8, and further executes a process for establishing a connection with the server 2 and logging in at step S1. Will be When the login to the server 2 is completed, step S2
To determine whether the user has spoken.
If it is determined in step S2 that the user has not spoken, that is, if no voice has been input to the input unit 15, steps S3 to S6 are skipped, and the process proceeds to step S7.

【0061】また、ステップS2において、ユーザが発
話を行ったと判定された場合、即ち、入力部15に音声
が入力された場合、ステップS3に進み、その音声が音
声認識される。
If it is determined in step S2 that the user has spoken, that is, if a voice is input to the input unit 15, the process proceeds to step S3, and the voice is recognized.

【0062】即ち、ステップS3では、CPU13にお
いて、HD17に記憶された音声処理プログラムが、R
AM14にロードされて実行されることにより、ユーザ
の発話が音声認識される。さらに、ステップS3では、
その音声認識結果がテキストデータに変換され、仮名漢
字変換される。そして、その仮名漢字変換結果が、ウイ
ンドウ61のテキスト入力フィールド63に表示され、
音声処理プログラムが、RAM14からアンロードされ
る。
That is, in step S 3, the CPU 13 determines that the audio processing program stored in the HD 17
When loaded and executed on the AM 14, the speech of the user is recognized by speech. Further, in step S3,
The speech recognition result is converted into text data and converted into kana-kanji characters. Then, the result of the kana-kanji conversion is displayed in the text input field 63 of the window 61,
The audio processing program is unloaded from the RAM 14.

【0063】ユーザは、テキスト入力フィールド63に
表示された音声認識結果(を仮名漢字変換したもの)を
見て、誤りがあれば、その誤りを、例えば、入力部15
のキーボード等を操作することにより訂正する。この場
合、ステップS4において、入力部15の操作にしたが
って、テキスト入力フィールド63に表示された音声認
識結果が訂正される。
The user looks at the speech recognition result (the kana-to-kanji converted version) displayed in the text input field 63 and, if there is an error, identifies the error in, for example, the input unit 15.
Correct by operating the keyboard or the like. In this case, in step S4, the speech recognition result displayed in the text input field 63 is corrected according to the operation of the input unit 15.

【0064】なお、テキスト入力フィールド63に表示
された音声認識結果の訂正は、入力部15のキーボード
を操作するのではなく、音声入力によって行うようにす
ることも可能である。
The result of the voice recognition displayed in the text input field 63 can be corrected by voice input instead of operating the keyboard of the input unit 15.

【0065】その後、ステップS5に進み、テキスト入
力フィールド63に表示された音声認識結果としてのテ
キストデータを、サーバ2に送信するかどうかが判定さ
れる。ステップS5において、テキスト入力フィールド
63に表示されたテキストデータを送信しないと判定さ
れた場合、即ち、例えば、テキストデータを送信するよ
うに、入力部15が操作されなかった場合、ステップS
6をスキップして、ステップS7に進む。
Thereafter, the process proceeds to step S5, where it is determined whether or not the text data as the speech recognition result displayed in the text input field 63 is to be transmitted to the server 2. If it is determined in step S5 that the text data displayed in the text input field 63 is not to be transmitted, that is, if the input unit 15 is not operated to transmit the text data, for example,
Skip to step S7 and proceed to step S7.

【0066】また、ステップS5において、テキスト入
力フィールド63に表示されたテキストデータを送信す
ると判定された場合、即ち、例えば、テキストデータを
送信するように、入力部15が操作された場合、ステッ
プS6に進み、CPU13は、通信I/F11を制御す
ることにより、テキスト入力フィールド63に表示され
たテキストデータを、通信ネットワーク3を介して、サ
ーバ2に送信させ、ステップS7に進む。
If it is determined in step S5 that the text data displayed in the text input field 63 is to be transmitted, that is, if the input unit 15 is operated to transmit the text data, for example, the process proceeds to step S6. The CPU 13 controls the communication I / F 11 to transmit the text data displayed in the text input field 63 to the server 2 via the communication network 3, and proceeds to step S7.

【0067】この場合、サーバ2では、パソコン1から
のテキストデータが受信され、他のチャットクライアン
トに送信される。これにより、そのチャットクライアン
トでは、パソコン1からのテキストデータが表示され、
あるいは、パソコン1と同様に、音声処理プログラムが
インストールされているチャットクライアントでは、パ
ソコン1からのテキストデータに対応する合成音が出力
される。
In this case, the server 2 receives the text data from the personal computer 1 and sends it to another chat client. As a result, the chat client displays text data from the personal computer 1,
Alternatively, in the same manner as in the personal computer 1, in a chat client in which the voice processing program is installed, a synthesized sound corresponding to text data from the personal computer 1 is output.

【0068】ステップS7では、サーバ2からテキスト
データが送信されてきたかどうかが判定され、送信され
てきていないと判定された場合、即ち、通信I/F11
で、サーバ2からのテキストデータが受信されていない
場合、ステップS8およびS9をスキップして、ステッ
プS10に進む。
In step S7, it is determined whether or not text data has been transmitted from the server 2, and if it has been determined that text data has not been transmitted, that is, the communication I / F 11
If the text data has not been received from the server 2, the process skips steps S8 and S9 and proceeds to step S10.

【0069】また、ステップS7において、サーバ2か
らテキストデータが送信されてきたと判定された場合、
即ち、通信I/F11で、サーバ2からのテキストデー
タが受信された場合、ステップS8に進み、そのテキス
トデータに必要な処理が施され、ウインドウ61のチャ
ット文字表示エリア62に表示される。そして、ステッ
プS9に進み、CPU13において、HD17に記憶さ
れた音声処理プログラムが、RAM14にロードされて
実行されることにより、チャット文字表示エリア62に
表示されたテキストデータに対応する合成音が生成され
て出力される。
If it is determined in step S7 that text data has been transmitted from the server 2,
That is, when the communication I / F 11 receives text data from the server 2, the process proceeds to step S <b> 8, where necessary processing is performed on the text data, and the text data is displayed in the chat character display area 62 of the window 61. Then, the process proceeds to step S9, where the CPU 13 loads the voice processing program stored in the HD 17 into the RAM 14 and executes the voice processing program, thereby generating a synthesized sound corresponding to the text data displayed in the chat character display area 62. Output.

【0070】そして、音声処理プログラムが、RAM1
4からアンロードされ、ステップS10に進み、ログア
ウトするかどうかが判定される。ステップS10におい
て、ログアウトしないと判定された場合、即ち、例え
ば、入力部15が、ログアウトするように操作されてい
ない場合、ステップS2に戻り、以下、同様の処理が繰
り返される。
Then, the voice processing program is stored in the RAM 1
4, the process proceeds to step S10, and it is determined whether or not to log out. If it is determined in step S10 that logout is not to be performed, that is, for example, if the input unit 15 has not been operated to log out, the process returns to step S2, and the same processing is repeated thereafter.

【0071】また、ステップS10において、ログアウ
トすると判定された場合、即ち、例えば、入力部15が
ログアウトするように操作された場合、サーバ2からロ
グアウトし、さらに、サーバ2との接続を切断して、処
理を終了する。
If it is determined in step S10 that logout is to be performed, that is, for example, if the input unit 15 has been operated to log out, the user logs out of the server 2 and further disconnects the server 2. , And the process ends.

【0072】なお、上述の場合においては、必要に応じ
て、音声処理プログラムを、ロード/アンロードするよ
うにしたが、音声処理プログラムは、チャットクライア
ントプログラムが実行されている間、RAM14に常駐
させておくようにすることも可能である。
In the above-described case, the voice processing program is loaded / unloaded as necessary. However, the voice processing program is resident in the RAM 14 while the chat client program is being executed. It is also possible to keep it.

【0073】次に、上述の場合には、パソコン1におい
て、サーバ2から送信されてくるテキストデータに対応
した合成音を生成するようにしたが、サーバ2から送信
されてくるテキストデータは、合成音に変換する他、例
えば、FAX(ファクシミリ)のデータに変換し、FA
Xに送信するようにすることが可能である。また、サー
バ2から送信されてくるテキストデータは保存しておく
ようにすることも可能である。
Next, in the above case, the personal computer 1 generates a synthesized sound corresponding to the text data transmitted from the server 2, but the text data transmitted from the server 2 is In addition to converting to sound, for example, converting to facsimile (FAX) data
X can be sent. Further, the text data transmitted from the server 2 can be stored.

【0074】そこで、図10のフローチャートを参照し
て、そのようなパソコン1の処理について説明する。
The processing of the personal computer 1 will be described with reference to the flowchart of FIG.

【0075】この場合、ステップS21において、図9
のステップS1における場合と同様に、サーバ2との接
続を確立し、ログインするための処理が行われる。そし
て、ステップS22に進み、サーバ2からテキストデー
タが送信されてきたかどうかが判定され、送信されてき
ていないと判定された場合、即ち、通信I/F11で、
サーバ2からのテキストデータが受信されていない場
合、ステップS23乃至27をスキップして、ステップ
S28に進む。
In this case, in step S21, FIG.
As in the case of step S1, a process for establishing a connection with the server 2 and logging in is performed. Then, the process proceeds to step S22, where it is determined whether the text data has been transmitted from the server 2, and if it is determined that the text data has not been transmitted, that is, in the communication I / F 11,
If the text data from the server 2 has not been received, the process skips steps S23 to S27 and proceeds to step S28.

【0076】また、ステップS22において、サーバ2
からテキストデータが送信されてきたと判定された場
合、即ち、通信I/F11で、サーバ2からのテキスト
データが受信された場合、ステップS23に進み、その
テキストデータに必要な処理が施され、ステップS24
に進む。
In step S22, the server 2
If it is determined that text data has been transmitted from the server 2, that is, if text data has been received from the server 2 at the communication I / F 11, the process proceeds to step S23, where necessary processing is performed on the text data. S24
Proceed to.

【0077】ステップS24では、サーバ2からのテキ
ストデータを、FAXに送信するかどうかが判定され
る。ステップS24において、サーバ2からのテキスト
データを、FAXに送信すると判定された場合、即ち、
パソコン1において、テキストデータを、FAXに送信
することと、そのFAX番号が設定されている場合、ス
テップS25に進み、サーバ2からのテキストデータ
が、FAX用のデータに変換され、設定されているFA
X番号に送信されて、ステップS28に進む。
In step S24, it is determined whether the text data from server 2 is to be transmitted to a facsimile. If it is determined in step S24 that the text data from the server 2 is to be transmitted to the facsimile,
If the personal computer 1 transmits text data to a facsimile and the facsimile number is set, the process proceeds to step S25, where the text data from the server 2 is converted into facsimile data and set. FA
It is transmitted to the X number, and proceeds to step S28.

【0078】また、ステップS24において、サーバ2
からのテキストデータを、FAXに送信しないと判定さ
れた場合、ステップS26に進み、そのテキストデータ
を保存しておくように、パソコン1が設定されているか
どうかが判定される。ステップS26において、サーバ
2からのテキストデータを保存しておくように設定され
ていないと判定された場合、ステップS27をスキップ
して、ステップS28に進む。
In step S24, the server 2
If it is determined not to transmit the text data from FAX to FAX, the process proceeds to step S26, and it is determined whether the personal computer 1 is set to save the text data. If it is determined in step S26 that the text data from the server 2 is not set to be stored, the process skips step S27 and proceeds to step S28.

【0079】一方、ステップS26において、サーバ2
からのテキストデータを保存しておくように設定されて
いると判定された場合、ステップS27に進み、そのテ
キストデータが、HD17に記憶され、ステップS28
に進む。
On the other hand, in step S26, the server 2
If it is determined that the text data is set to be stored, the process proceeds to step S27, and the text data is stored in the HD 17, and the process proceeds to step S28.
Proceed to.

【0080】ステップS28では、図9のステップS1
0における場合と同様に、ログアウトするかどうかが判
定され、ログアウトしないと判定された場合、ステップ
S22に戻り、以下、同様の処理が繰り返される。
In step S28, step S1 in FIG.
As in the case of 0, it is determined whether or not to log out. If it is determined that the user does not log out, the process returns to step S22, and the same processing is repeated thereafter.

【0081】また、ステップS28において、ログアウ
トすると判定された場合、サーバ2からログアウトし、
さらに、サーバ2との接続を切断して、処理を終了す
る。
If it is determined in step S28 that the user logs out, the user logs out of the server 2 and
Further, the connection with the server 2 is disconnected, and the processing is terminated.

【0082】ここで、パソコン1において、音声で入力
されたテキストデータを、FAXのデータに変換するよ
うにすれば、用紙に文字等を描くことなく、FAX送信
を行うことが可能となる。また、パソコン1において、
FAXのデータを受信して、OCR(Optical Characte
r Reader)等で、文字認識を行い、その文字認識結果を
対象に音声合成を行うようにすれば、ファックスされて
きた内容を見ることなく、その内容を把握することが可
能となる。さらに、例えば、留守番電話機能を有する電
話機、あるいは携帯電話機の留守番電話機能を司るセン
タにおいて、音声によるメッセージを音声認識し、テキ
ストデータに変換して記憶しておくようにすれば、音声
データを記憶する場合に比較して、記憶容量が少なくて
済み、コストの削減を図ることが可能となる。
Here, if the PC 1 converts text data input by voice into FAX data, FAX transmission can be performed without drawing characters or the like on paper. In the personal computer 1,
FAX data is received, and OCR (Optical Characte
(r Reader), etc., if character recognition is performed and speech synthesis is performed on the result of the character recognition, the contents can be grasped without looking at the faxed contents. Further, for example, if a telephone having an answering machine function or a center that manages an answering machine function of a mobile phone recognizes a voice message by voice and converts it into text data and stores it, the voice data can be stored. As compared with the case of performing the above, the storage capacity can be reduced, and the cost can be reduced.

【0083】なお、本実施の形態では、チャットサーバ
およびチャットクライアントを、ソフトウェアで実現す
るようにしたが、チャットサーバやチャットクライアン
トは、それ専用のハードウェアで実現することも可能で
ある。
In the present embodiment, the chat server and the chat client are realized by software. However, the chat server and the chat client can be realized by dedicated hardware.

【0084】また、上述したチャットクライアントプロ
グラムや音声処理プログラム等のアプリケーションプロ
グラムを、コンピュータにインストールして実行させる
場合には、そのアプリケーションプログラムは、HD1
7や、フロッピーディスク、CD−ROM(Compact Di
sc - ROM),DVD(Digtal Versatile Disc)等のパ
ッケージメディアや、プログラムが一時的若しくは永続
的に格納される半導体メモリ等に記録して提供したり、
LAN(Local Area Network)や、インターネット、デ
ィジタル衛星回線等の有線/無線の通信ネットワーク
3、およびそのような通信ネットワーク3を介してのデ
ータの転送若しくは受信を行うルータやモデム等の通信
I/F11を介して提供したりすることが可能であり、
本明細書における媒体とは、そのようなものを含む広義
の概念を意味する。
When an application program such as the above-mentioned chat client program or voice processing program is installed in a computer and executed, the application program is executed on the HD1.
7, floppy disk, CD-ROM (Compact Di
sc-ROM), DVD (Digital Versatile Disc), and other package media, and semiconductor memory in which programs are temporarily or permanently stored are recorded and provided.
A wired / wireless communication network 3 such as a LAN (Local Area Network), the Internet, or a digital satellite line, and a communication I / F 11 such as a router or a modem for transferring or receiving data via the communication network 3. Or can be provided via
The medium in the present specification means a broad concept including such a medium.

【0085】[0085]

【発明の効果】請求項1に記載の情報処理装置および請
求項5に記載の情報処理方法、並びに請求項6に記載の
媒体によれば、入力された音声が音声認識され、その音
声認識結果が、テキストデータで出力される。そして、
その音声認識結果としてのテキストデータが、サーバに
送信される。従って、例えば、チャットを、容易に行う
ことが可能となる。
According to the information processing apparatus according to the first aspect, the information processing method according to the fifth aspect, and the medium according to the sixth aspect, the input voice is subjected to voice recognition, and the voice recognition result is obtained. Is output as text data. And
Text data as a result of the speech recognition is transmitted to the server. Therefore, for example, chat can be easily performed.

【0086】請求項7に記載の情報処理装置および請求
項9に記載の情報処理方法、並びに請求項10に記載の
媒体によれば、サーバから送信されてくるテキストデー
タが受信され、そのサーバからのテキストデータに基づ
いて、音声合成が行われ、そのテキストデータに対応す
る合成音が出力される。従って、例えば、チャットを、
画面表示を見なくても行うことが可能となる。
According to the information processing apparatus of claim 7, the information processing method of claim 9, and the medium of claim 10, text data transmitted from a server is received, and the text data is transmitted from the server. Speech synthesis is performed based on the text data, and a synthesized sound corresponding to the text data is output. So, for example, chat
This can be performed without looking at the screen display.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用したチャットシステムの一実施の
形態の構成例を示す図である。
FIG. 1 is a diagram showing a configuration example of an embodiment of a chat system to which the present invention is applied.

【図2】図1のパソコン1のハードウェア構成例を示す
ブロック図である。
FIG. 2 is a block diagram illustrating a hardware configuration example of a personal computer 1 of FIG.

【図3】図1のサーバ2のハードウェア構成例を示すブ
ロック図である。
FIG. 3 is a block diagram illustrating a hardware configuration example of a server 2 of FIG. 1;

【図4】図1のチャットシステムの動作を説明するため
の図である。
FIG. 4 is a diagram for explaining the operation of the chat system of FIG. 1;

【図5】図1のパソコン1の機能的構成例を示すブロッ
ク図である。
FIG. 5 is a block diagram showing a functional configuration example of the personal computer 1 of FIG.

【図6】図5のパソコン1の動作を説明するための図で
ある。
6 is a diagram for explaining the operation of the personal computer 1 of FIG.

【図7】チャットクライアントとしてのパソコン1の表
示画面を示す図である。
FIG. 7 is a diagram showing a display screen of a personal computer 1 as a chat client.

【図8】チャットクライアントとしてのパソコン1の表
示画面を示す図である。
FIG. 8 is a diagram showing a display screen of a personal computer 1 as a chat client.

【図9】図1のパソコン1の動作を説明するためのフロ
ーチャートである。
9 is a flowchart for explaining the operation of the personal computer 1 of FIG.

【図10】図1のパソコン1の動作を説明するためのフ
ローチャートである。
FIG. 10 is a flowchart for explaining the operation of the personal computer 1 of FIG.

【符号の説明】[Explanation of symbols]

1−1乃至1−3 パソコン, 2−1,2−2 サー
バ, 3 通信ネットワーク, 11 通信I/F,
12 ROM, 13 CPU, 14 RAM, 1
5 入力部, 16 出力部, 17 HD, 21
通信I/F,22 ROM, 23 CPU, 24
RAM, 25 入力部, 26 出力部, 27 H
D, 30 チャットクライアント機能部, 31−
1,31−2 チャット通信部, 32−1,32−2
チャット処理部, 41 チャットサーバ機能部,
51 音声入力装置, 52 音声認識装置, 53
音声読み上げ装置, 54 音声出力装置, 61−
1,61−2 ウインドウ,62−1,62−2 チャ
ット文字表示エリア, 63−1, 63−2 テキス
ト入力フィールド
1-1 to 1-3 personal computers, 2-1 and 2-2 servers, 3 communication networks, 11 communication I / Fs,
12 ROM, 13 CPU, 14 RAM, 1
5 input section, 16 output section, 17 HD, 21
Communication I / F, 22 ROM, 23 CPU, 24
RAM, 25 inputs, 26 outputs, 27H
D, 30 chat client function section, 31-
1,31-2 Chat communication unit, 32-1,32-2
Chat processing unit, 41 chat server function unit,
51 voice input device, 52 voice recognition device, 53
Voice reading device, 54 Voice output device, 61-
1, 61-2 window, 62-1, 62-2 chat character display area, 63-1, 63-2 text input field

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 クライアントから送信されてきたテキス
トデータを受信し、そのテキストデータを、1以上の他
のクライアントに送信するサーバに対して、テキストデ
ータを送信するとともに、前記サーバからのテキストデ
ータを受信する情報処理装置であって、 入力された音声を音声認識し、その音声認識結果を、テ
キストデータで出力する音声認識手段と、 前記音声認識結果としてのテキストデータを、前記サー
バに送信する送信手段と、 前記サーバから送信されてくるテキストデータを受信す
る受信手段と、 前記サーバからのテキストデータを出力する出力手段と
を含むことを特徴とする情報処理装置。
1. A system for receiving text data transmitted from a client, transmitting the text data to a server that transmits the text data to one or more other clients, and transmitting the text data from the server. An information processing apparatus for receiving, comprising: a voice recognition unit configured to perform voice recognition of an input voice and output the voice recognition result as text data; and transmitting the text data as the voice recognition result to the server. An information processing apparatus, comprising: means; receiving means for receiving text data transmitted from the server; and output means for outputting text data from the server.
【請求項2】 前記サーバからのテキストデータに基づ
いて、音声合成を行い、そのテキストデータに対応する
合成音を出力する音声合成手段をさらに含み、 前記出力手段は、前記テキストデータに対応する合成音
を出力するむことを特徴とする請求項1に記載の情報処
理装置。
2. A speech synthesizing unit that performs speech synthesis based on text data from the server and outputs a synthesized sound corresponding to the text data, wherein the output unit is configured to synthesize the speech corresponding to the text data. The information processing apparatus according to claim 1, wherein the information processing apparatus outputs a sound.
【請求項3】 前記音声認識結果としてのテキストデー
タを訂正する訂正手段をさらに含むことを特徴とする請
求項1に記載の情報処理装置。
3. The information processing apparatus according to claim 1, further comprising a correction unit configured to correct text data as a result of the speech recognition.
【請求項4】 前記テキストデータを表示させる表示手
段をさらに含むことを特徴とする請求項1に記載の情報
処理装置。
4. The information processing apparatus according to claim 1, further comprising a display unit for displaying the text data.
【請求項5】 クライアントから送信されてきたテキス
トデータを受信し、そのテキストデータを、1以上の他
のクライアントに送信するサーバに対して、テキストデ
ータを送信するとともに、前記サーバからのテキストデ
ータを受信する情報処理方法であって、 入力された音声を音声認識し、その音声認識結果を、テ
キストデータで出力する音声認識ステップと、 前記音声認識結果としてのテキストデータを、前記サー
バに送信する送信ステップと、 前記サーバから送信されてくるテキストデータを受信す
る受信ステップと、 前記サーバからのテキストデータを出力する出力ステッ
プとを含むことを特徴とする情報処理方法。
5. Receiving text data transmitted from a client, transmitting the text data to a server that transmits the text data to one or more other clients, and transmitting the text data from the server. An information processing method for receiving, comprising: a voice recognition step of performing voice recognition on input voice and outputting the voice recognition result as text data; and transmitting the text data as the voice recognition result to the server. An information processing method, comprising: a step of receiving text data transmitted from the server; and an output step of outputting text data from the server.
【請求項6】 クライアントから送信されてきたテキス
トデータを受信し、そのテキストデータを、1以上の他
のクライアントに送信するサーバに対して、テキストデ
ータを送信するとともに、前記サーバからのテキストデ
ータを受信する処理を情報処理装置に行わせるためのプ
ログラムを、前記情報処理装置に実行させる媒体であっ
て、 入力された音声を音声認識し、その音声認識結果を、テ
キストデータで出力する音声認識ステップと、 前記音声認識結果としてのテキストデータを、前記サー
バに送信する送信ステップと、 前記サーバから送信されてくるテキストデータを受信す
る受信ステップと、 前記サーバからのテキストデータを出力する出力ステッ
プとを含むことを特徴とするプログラムを、前記情報処
理装置に実行させる媒体。
6. A method for receiving text data transmitted from a client, transmitting the text data to a server that transmits the text data to one or more other clients, and transmitting the text data from the server. A medium for causing the information processing apparatus to execute a program for causing the information processing apparatus to perform a process of receiving, wherein a voice recognition step of performing voice recognition of the input voice and outputting the voice recognition result as text data Transmitting a text data as a result of the voice recognition to the server; a receiving step of receiving the text data transmitted from the server; and an output step of outputting the text data from the server. Medium for causing the information processing apparatus to execute a program characterized by including
【請求項7】 クライアントから送信されてきたテキス
トデータを受信し、そのテキストデータを、1以上の他
のクライアントに送信するサーバに対して、テキストデ
ータを送信するとともに、前記サーバからのテキストデ
ータを受信する情報処理装置であって、 前記テキストデータを入力する入力手段と、 入力された前記テキストデータを、前記サーバに送信す
る送信手段と、 前記サーバから送信されてくるテキストデータを受信す
る受信手段と、 前記サーバからのテキストデータに基づいて、音声合成
を行い、そのテキストデータに対応する合成音を出力す
る音声合成手段とを含むことを特徴とする情報処理装
置。
7. A method for receiving text data transmitted from a client, transmitting the text data to a server that transmits the text data to one or more other clients, and transmitting the text data from the server. An information processing apparatus for receiving, comprising: input means for inputting the text data; transmitting means for transmitting the input text data to the server; and receiving means for receiving text data transmitted from the server. An information processing apparatus, comprising: voice synthesis means for performing voice synthesis based on text data from the server, and outputting a synthesized voice corresponding to the text data.
【請求項8】 前記テキストデータを表示する表示手段
をさらに含むことを特徴とする請求項7に記載の情報処
理装置。
8. The information processing apparatus according to claim 7, further comprising display means for displaying the text data.
【請求項9】 クライアントから送信されてきたテキス
トデータを受信し、そのテキストデータを、1以上の他
のクライアントに送信するサーバに対して、テキストデ
ータを送信するとともに、前記サーバからのテキストデ
ータを受信する情報処理方法であって、 前記テキストデータを入力する入力ステップと、 入力された前記テキストデータを、前記サーバに送信す
る送信ステップと、 前記サーバから送信されてくるテキストデータを受信す
る受信ステップと、 前記サーバからのテキストデータに基づいて、音声合成
を行い、そのテキストデータに対応する合成音を出力す
る音声合成ステップとを含むことを特徴とする情報処理
方法。
9. Receiving text data transmitted from a client, transmitting the text data to a server that transmits the text data to one or more other clients, and transmitting the text data from the server. An information processing method for receiving, comprising: an input step of inputting the text data; a transmitting step of transmitting the input text data to the server; and a receiving step of receiving text data transmitted from the server. And a voice synthesizing step of performing voice synthesis based on the text data from the server and outputting a synthesized voice corresponding to the text data.
【請求項10】 クライアントから送信されてきたテキ
ストデータを受信し、そのテキストデータを、1以上の
他のクライアントに送信するサーバに対して、テキスト
データを送信するとともに、前記サーバからのテキスト
データを受信する処理を、情報処理装置に行わせるため
のプログラムを、前記情報処理装置に実行させる媒体で
あって、 前記テキストデータを入力する入力ステップと、 入力された前記テキストデータを、前記サーバに送信す
る送信ステップと、 前記サーバから送信されてくるテキストデータを受信す
る受信ステップと、 前記サーバからのテキストデータに基づいて、音声合成
を行い、そのテキストデータに対応する合成音を出力す
る音声合成ステップとを含むことを特徴とするプログラ
ムを、前記情報処理装置に実行させる媒体。
10. Receiving text data transmitted from a client, transmitting the text data to a server that transmits the text data to one or more other clients, and transmitting the text data from the server. A medium that causes the information processing device to execute a program for causing the information processing device to perform a process of receiving, an inputting step of inputting the text data, and transmitting the input text data to the server. A transmitting step, a receiving step of receiving text data transmitted from the server, a voice synthesizing step of performing speech synthesis based on the text data from the server, and outputting a synthesized sound corresponding to the text data. A program characterized by including the following is executed by the information processing apparatus. Media to be.
JP11092862A 1999-03-31 1999-03-31 Information processor, information processing method and medium Withdrawn JP2000285063A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11092862A JP2000285063A (en) 1999-03-31 1999-03-31 Information processor, information processing method and medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11092862A JP2000285063A (en) 1999-03-31 1999-03-31 Information processor, information processing method and medium

Publications (1)

Publication Number Publication Date
JP2000285063A true JP2000285063A (en) 2000-10-13

Family

ID=14066249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11092862A Withdrawn JP2000285063A (en) 1999-03-31 1999-03-31 Information processor, information processing method and medium

Country Status (1)

Country Link
JP (1) JP2000285063A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297370A (en) * 2001-03-30 2002-10-11 Daiwa House Ind Co Ltd System, device and method for information communication, program and data recording medium
JP2004185088A (en) * 2002-11-29 2004-07-02 Fujitsu Ltd Multichannel conversation system
JP2006323827A (en) * 2005-04-18 2006-11-30 Ricoh Co Ltd Music font output device, font database, and language input front end processor
JP2006528804A (en) * 2003-07-24 2006-12-21 インターナショナル・ビジネス・マシーンズ・コーポレーション Methods, systems, and computer programs to enable telephone users to participate in instant messaging-based meetings (access to extended conferencing services using telechat systems)
JP2014006648A (en) * 2012-06-22 2014-01-16 Sharp Corp Information processing device, communication system, communication method and program
JP2018060568A (en) * 2007-08-16 2018-04-12 クリムソン コーポレイション Voice enabled telnet interface
WO2020153251A1 (en) * 2019-01-22 2020-07-30 株式会社ソニー・インタラクティブエンタテインメント Voice chat device, voice chat method, and program
US10873621B1 (en) 2014-08-20 2020-12-22 Ivanti, Inc. Terminal emulation over html
US11100278B2 (en) 2016-07-28 2021-08-24 Ivanti, Inc. Systems and methods for presentation of a terminal application screen

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297370A (en) * 2001-03-30 2002-10-11 Daiwa House Ind Co Ltd System, device and method for information communication, program and data recording medium
JP2004185088A (en) * 2002-11-29 2004-07-02 Fujitsu Ltd Multichannel conversation system
JP2006528804A (en) * 2003-07-24 2006-12-21 インターナショナル・ビジネス・マシーンズ・コーポレーション Methods, systems, and computer programs to enable telephone users to participate in instant messaging-based meetings (access to extended conferencing services using telechat systems)
JP2006323827A (en) * 2005-04-18 2006-11-30 Ricoh Co Ltd Music font output device, font database, and language input front end processor
JP2018060568A (en) * 2007-08-16 2018-04-12 クリムソン コーポレイション Voice enabled telnet interface
US10938886B2 (en) 2007-08-16 2021-03-02 Ivanti, Inc. Scripting support for data identifiers, voice recognition and speech in a telnet session
JP2014006648A (en) * 2012-06-22 2014-01-16 Sharp Corp Information processing device, communication system, communication method and program
US10873621B1 (en) 2014-08-20 2020-12-22 Ivanti, Inc. Terminal emulation over html
US11100278B2 (en) 2016-07-28 2021-08-24 Ivanti, Inc. Systems and methods for presentation of a terminal application screen
WO2020153251A1 (en) * 2019-01-22 2020-07-30 株式会社ソニー・インタラクティブエンタテインメント Voice chat device, voice chat method, and program
CN113302682A (en) * 2019-01-22 2021-08-24 索尼互动娱乐股份有限公司 Voice chat device, voice chat method, and program

Similar Documents

Publication Publication Date Title
US6216013B1 (en) Communication system with handset for distributed processing
JP4849894B2 (en) Method and system for providing automatic speech recognition service and medium
US9761241B2 (en) System and method for providing network coordinated conversational services
EP1125279B1 (en) System and method for providing network coordinated conversational services
US6173250B1 (en) Apparatus and method for speech-text-transmit communication over data networks
JP3728177B2 (en) Audio processing system, apparatus, method, and storage medium
US20020138274A1 (en) Server based adaption of acoustic models for client-based speech systems
WO2001099096A1 (en) Speech input communication system, user terminal and center system
JP2002528804A (en) Voice control of user interface for service applications
US20040189791A1 (en) Videophone device and data transmitting/receiving method applied thereto
US20060093098A1 (en) System and method for communicating instant messages from one type to another
US7050974B1 (en) Environment adaptation for speech recognition in a speech communication system
JP2000285063A (en) Information processor, information processing method and medium
US7478046B2 (en) Server-client type speech recognition apparatus and method
JP5046589B2 (en) Telephone system, call assistance method and program
JP6610610B2 (en) Voice input / output device, wireless connection method, voice dialogue system
US20030220794A1 (en) Speech processing system
US8073930B2 (en) Screen reader remote access system
Maes et al. Conversational networking: conversational protocols for transport, coding, and control.
JP4845249B2 (en) Method for wirelessly transmitting information between a communication system in a vehicle and a central computer outside the vehicle
JP2002300259A (en) Method and system for evaluation test of voice speech equipment
JP2000259632A (en) Automatic interpretation system, interpretation program transmission system, recording medium, and information transmission medium
JP2000231558A (en) Communication equipment, communicating method and recording medium with communication control program recorded thereon
JP2000215118A (en) Method and device for vocal e-mail transmission
KR20000033518A (en) Voice language translation system using network and method therefor

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060606