JP3598509B2 - Terminal device and control method thereof - Google Patents

Terminal device and control method thereof Download PDF

Info

Publication number
JP3598509B2
JP3598509B2 JP1120995A JP1120995A JP3598509B2 JP 3598509 B2 JP3598509 B2 JP 3598509B2 JP 1120995 A JP1120995 A JP 1120995A JP 1120995 A JP1120995 A JP 1120995A JP 3598509 B2 JP3598509 B2 JP 3598509B2
Authority
JP
Japan
Prior art keywords
character
data
input
network
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP1120995A
Other languages
Japanese (ja)
Other versions
JPH08204706A (en
Inventor
康晃 本田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP1120995A priority Critical patent/JP3598509B2/en
Publication of JPH08204706A publication Critical patent/JPH08204706A/en
Application granted granted Critical
Publication of JP3598509B2 publication Critical patent/JP3598509B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Computer And Data Communications (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)

Description

【0001】
【産業上の利用分野】
本発明は、例えば電話回線を介して相互に結合されたパソコンを制御する場合に用いて好適な端末装置およびその制御方法に関する。
【0002】
【従来の技術】
複数のパソコンをネットワークを介して相互に結合し、会議システムを構成して、離れた場所に位置する者同士が、同時に会議を行うことができるようにする会議システムが提案されている。この会議システムにおいて、マイクを介して音声を入力すると、音声信号がA/D変換され、ネットワークを介して他のパソコンに伝送される。あるいはまた、静止画や動画などの画像データを入力すると、この画像信号がA/D変換され、他のパソコンにネットワークを介して送信される。
【0003】
このようにして、この会議システムにおいては、音声、静止画、動画などのマルチメディアデータをネットワークを介して他のパソコンに同時に送信し、遠隔地にいる複数の者が同時に会議を行うことができる。
【0004】
【発明が解決しようとする課題】
しかしながら、従来のシステムにおいては、マルチメディアデータを入力するために、ビデオ入力装置などの高価なハードウエアを必要とするばかりでなく、各参加者のマルチメディアデータを他の全ての参加者に伝送するために、非常に高速なネットワークが必要であった。その結果、システムが高価となる課題があった。
【0005】
本発明はこのような状況に鑑みてなされたものであり、マルチメディアデータを疑似的にネットワークを介して伝送することができるようにし、以て、より低コストの会議システムを実現できるようにするものである。
【0006】
【課題を解決するための手段】
請求項1に記載の端末装置の制御方法は、ネットワークを介して結合され、相互にキャラクタデータを授受する端末装置の制御方法において、所定の文字に対応する画像データまたは音声データを記憶し、キャラクタデータが入力されたとき、キャラクタデータをネットワークを介して他の端末に送信し、ネットワークを介して他の端末装置からキャラクタデータが送信されてきたときこれを受信し、入力されたキャラクタデータ、または受信したキャラクタデータを出力して、文字を表示させ、表示された文字に含まれている、予め設定されている所定の文字が表示されているか否かを判定し、予め設定されている所定の文字が表示されていると判定された場合、記憶されている画像データまたは音声データを読み出し、出力することを特徴とする。
【0007】
予め設定されている所定の文字は、「笑い」であり、画像データおよび音声データは、「笑う顔」の画像に対応する画像データと「笑い声」の音に対応する音声データとすることができる。
【0008】
予め設定されている所定の文字は、「拍手」であり、音声データは、「拍手」の音に対応する音声データとすることができる。
【0009】
請求項4に記載の端末装置は、ネットワークを介して結合され、相互にキャラクタデータを授受する端末装置において、所定の文字に対応する画像データまたは音声データを記憶する記憶手段(例えば図2のROM18)と、キャラクタデータを入力する入力手段(例えば図2のキーボード11)と、入力手段によりキャラクタデータが入力されたとき、キャラクタデータをネットワークを介して他の端末に送信する送信手段(例えば図3のステップS6,7)と、ネットワークを介して他の端末装置から送信されたキャラクタデータを受信する受信手段(例えば図3のステップS2)と、入力されたキャラクタデータ、または受信したキャラクタデータである文字を出力する出力手段(例えば図3のステップS6,S7,S9,S11,S12)と、出力された文字に含まれている、予め設定されている所定の文字が出力されているか否かを判定する判定手段(例えば図3のステップS8,S10)と、出力手段は、予め設定されている所定の文字が出力されていると判定された場合、記憶手段に記憶されている画像データまたは音声データを読み出し、出力することを備えることを特徴とする。
【0010】
入力手段より入力されたキャラクタデータ、または受信手段により受信されたキャラクタデータの少なくとも一方、および画像データに対応する画像を表示する表示手段(例えば図3のステップS6,S7,S11,S12)をさらに設けることができる。
【0011】
【作用】
上記構成の端末装置の制御方法および端末装置においては、予め設定されている所定のキャラクタデータが入力されるか、あるいは受信されたとき、予め記憶されている画像データまたは音声データが読み出され、出力される。従って、各端末装置はキャラクタデータを送信し、また受信するだけでよく、画像データや音声データを授受する必要がない。従って、ネットワークは比較的低速のものでよく、安価な会議システムを実現することが可能となる。
【0012】
【実施例】
図1は本発明の端末装置の制御方法を応用した会議システムの構成例を表している。この実施例においては、複数台(4台)の端末装置としてのパソコン1−1乃至1−4が、通常のアナログ電話回線などのネットワーク2を介して相互に接続されている。
【0013】
パソコン1−1は、例えば図2に示すように構成されている。図2に示す実施例においては、CPU17がROM18に記憶されているプログラムに従って各種の処理を実行し、各種の処理を実行する上において必要なデータなどをRAM19に適宜記憶させるようになされている。モデム16はネットワーク2に接続されており、ネットワーク2より送信されてきたデータを受信し、インタフェース15を介してCPU17に出力するようになされている。CPU17は、入力されたキャラクタデータをインタフェース15を介してモニタ13に出力し、表示させるようになされている。
【0014】
また、インタフェース15には、キーボード11が接続されており、キーボード11の文字キー11Aを操作すると、操作された文字キーに対応するキャラクタデータが入力され、インタフェース15を介してモニタ13に出力表示されるとともに、モデム16を介してネットワーク2に伝送されるようになされている。また、キーボード11は、拍手ボタン11Bを備え、拍手ボタン11Bを操作すると、「拍手」の文字に対応するキャラクタデータがモニタ13に表示されるとともに、モデム16を介してネットワーク2に伝送されるようになされている。そして、ネットワーク2に伝送されたデータは、さらに他のパソコン1−2乃至1−4に送信されるようになされている。
【0015】
インタフェース15には、マウス12が接続されており、モニタ13の所定の表示位置を指示することで、CPU17に対して各種の指令を入力することができるようになされている。
【0016】
ROM18にはまた、この実施例の場合、「拍手」の音の音声データと、「笑い声」の音の音声データと、「笑う顔」の画像データが予め記憶されており、これらのデータはCPU17により適宜読み出され、画像データはモニタ13に出力表示され、音声データはスピーカ14に出力されるようになされている。
【0017】
なお、図示は省略するが、パソコン1−2乃至1−4も、パソコン1−1と同様に構成されている。
【0018】
パソコン1−1乃至1−4は、それぞれ図3に示すような処理を実行するようなプログラムをROM18に記憶している。そこで、この図3のフローチャートを参照して、この会議システムの動作について説明する。この図3に示す処理は、各パソコン1−1乃至1−4において、その電源を立ち上げたとき、開始される。
【0019】
最初に、ステップS1において、キーボード11より所定の入力がなされたか否かが判定される。キーボード11より入力がない場合においては、ステップS2に進み、ネットワーク2を介して他のパソコンよりテキストデータが入力されたか否かが判定される。ネットワーク2よりテキストデータが入力されていない場合においては、ステップS1に戻る。
【0020】
ステップS1において、キーボード11より何らかの入力がなされたと判定された場合においては、ステップS3に進み、その入力は拍手ボタン11Bの操作に対応するものであるか否かが判定される。ステップS3において、拍手ボタン11Bが操作されていないと判定された場合においては、ステップS4に進み、文字キー11Aが操作されたか否かが判定される。文字キー11Aも操作されていないと判定された場合においては、その他のキーが操作されたことになるので、この場合においては、ステップS5に進み、その操作されたキーに対応する処理が実行される。そして、その処理が完了したとき、ステップS1に戻る。
【0021】
一方、ステップS3において、キーボード11の拍手ボタン11Bが操作されたと判定された場合においては、ステップS6に進み、「拍手」の文字をモニタ13に表示させるとともに、「拍手」のキャラクタデータをモデム16を介してネットワーク2に送信し、このネットワーク2からさらに他のパソコン1−2乃至1−4に出力する。
【0022】
他のパソコン1−2乃至1−4においては、この「拍手」のキャラクタデータをステップS2において受信することになる。
【0023】
一方、ステップS4において、キーボード11の文字キー11Aが操作されたと判定された場合においては、ステップS7に進み、その操作された文字キーに対応するキャラクタデータをモニタ13に出力し、表示させるとともに、モデム16,ネットワーク2を介して、他のパソコン1−2乃至1−4に出力する。このキャラクタデータは他のパソコン1−2乃至1−4において、そのステップS2で受信される。
【0024】
一方、ステップS2において、ネットワーク2を介して他のパソコン1−2乃至1−4からテキストデータが入力されたと判定された場合においてはこれを受信し、ステップS12に進み、そのテキストデータに対応する文字をモニタ13に出力し、表示させる。例えば他のパソコン1−2乃至1−4のいずれかの拍手ボタン11Bが操作された場合においては、「拍手」の文字がモニタ13に表示される。また、パソコン1−2乃至1−4のキーボード11の文字キー11Aが操作された場合においては、その操作された文字キーに対応する文字がモニタ13に表示される。
【0025】
ステップS6,S7,S12の処理の次にステップS8に進み、モニタ13にいま表示された文字が「拍手」の文字であるか否かが判定される。「拍手」の文字が表示されたと判定された場合においては、ステップS9に進み、拍手音再生処理が実行される。即ち、CPU17はROM18に記憶されている拍手音の音声データを読み出し、これをスピーカ14に出力し、放音させる。これにより、拍手ボタン11Bを操作した場合においては、モニタ13に「拍手」の文字が表示されるだけでなく、スピーカ14から「パチパチパチ」といった音声が出力されることになる。
【0026】
このことはパソコン1−1だけでなく、他のパソコン1−2乃至1−4においても同様である。即ち、所定のパソコンにおいて、拍手ボタン11Bを操作すると、自分のパソコンはもとより、他のパソコンにも「拍手」の文字と「パチパチパチ」という音声が出力される。
【0027】
ステップS8で、「拍手」の文字が表示されていないと判定された場合においてはステップS10に進み、いまモニタ13に表示されたのが「笑い」の文字であるか否かが判定される。「笑い」の文字が表示されたと判定された場合においては、ステップS11に進み、笑い声再生処理と笑い顔再生処理が実行される。即ち、CPU17はROM18に記憶されている笑い声の音声データを読み出し、スピーカ14に出力し、放音させるとともに、ROM18に記憶されている笑い顔の画像データを読み出し、モニタ13に出力し、表示させる。
【0028】
従って、所定のパソコンから「笑い」の文字を入力すると、その文字が自らのモニタ13に表示されるとともに、このキャラクタデータがネットワーク2を介して他のパソコンにも送信され、表示されるため、全てのパソコンにおいて、笑い声が放音されるとともに、笑い顔が表示される。
【0029】
ステップS10において、「笑い」の文字が表示されていないと判定された場合においては、ステップS1に戻り、それ以降の処理が繰り返し実行される。
【0030】
図4は、拍手ボタン11Bを操作した場合における会議システムの動作を模式的に表している。即ち、パソコン1−1において、拍手ボタン11Bを操作すると、「拍手」のキャラクタデータが他のパソコン1−2乃至1−4にネットワーク2を介して伝送され、「拍手」の文字がそのモニタに表示される。その結果、パソコン1−1のスピーカだけでなく、パソコン1−2乃至1−4のスピーカからも「パチパチパチ」といった拍手音が出力される。
【0031】
なお、ネットワークは通常のアナログ電話回線を用いることができ、例えば図5に示すように、日本、アメリカ、およびチリにそれぞれ配置されているパソコン1−1乃至1−3の間で、会議システムを構成することができる。この場合においても、例えばチリで「大笑い」の文字を入力すると、その文字がチリにおけるパソコンのモニタに表示されるだけでなく、日本とアメリカのパソコンにも表示される。そして、この文字には「笑い」の文字が含まれているため、各国のパソコンのスピーカから笑い声が放音されるとともに、笑い顔の画像が表示される。
【0032】
この実施例においては、笑い顔の画像データや、笑い声の音声データは実際には伝送されず、ネットワーク2を介して実際に伝送されるのはキャラクタデータだけある。従って、画像データや音声データを実際に伝送する場合のように、伝送データ量が多くなることが抑制されるだけでなく、ビデオ入力装置などのような高価なハードウエアも不要となる。このため、ネットワーク2としても、通常のアナログの電話回線を利用することが可能となり、低コストの会議システムを実現することができる。
【0033】
なお、以上の実施例においては、「拍手」と「笑い」の文字を予め設定登録しておくようにしたが、それ以外の文字を、対応する画像データまたは音声データとともに記憶させるようにすることも可能である。さらに、文字は日本語ではなく、英語、フランス語など、任意の言語に対応するものとすることができる。また、端末装置としてはパソコン以外を用いることも可能である。
【0034】
【発明の効果】
以上の如く、本発明の端末装置の制御方法および端末装置によれば、所定の文字に対応する画像データまたは音声データを記憶し、キャラクタデータが入力されたとき、キャラクタデータをネットワークを介して他の端末に送信し、ネットワークを介して他の端末装置からキャラクタデータが送信されてきたときこれを受信し、入力されたキャラクタデータ、または受信したキャラクタデータを出力して、文字を表示させ、表示された文字に含まれている、予め設定されている所定の文字が表示されているか否かを判定し、予め設定されている所定の文字が表示されていると判定された場合、記憶されている画像データまたは音声データを読み出し、出力するようにしたので、低コストで擬似的にマルチメディアデータを送信する場合と同様の会議システムを実現することが可能となる。
【図面の簡単な説明】
【図1】本発明の端末装置の制御方法を応用した会議システムの構成例を示すブロック図である。
【図2】図1のパソコン1−1の構成例を示すブロック図である。
【図3】図1のパソコンの処理例を示すフローチャートである。
【図4】拍手ボタンが操作された場合における動作を示す図である。
【図5】地理的に離れた会議システムの例を示す図である。
【符号の説明】
1−1乃至1−4 パソコン
2 ネットワーク
11 キーボード
11A 文字キー
11B 拍手ボタン
12 マウス
13 モニタ
14 スピーカ
16 モデム
17 CPU
18 ROM
19 RAM
[0001]
[Industrial applications]
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a terminal device suitable for controlling personal computers connected to each other via a telephone line and a control method therefor.
[0002]
[Prior art]
2. Description of the Related Art There has been proposed a conference system in which a plurality of personal computers are connected to each other via a network to configure a conference system so that persons located at distant places can hold a conference at the same time. In this conference system, when audio is input via a microphone, the audio signal is A / D converted and transmitted to another personal computer via a network. Alternatively, when image data such as a still image or a moving image is input, this image signal is A / D converted and transmitted to another personal computer via a network.
[0003]
In this manner, in this conference system, multimedia data such as audio, still images, and moving images can be simultaneously transmitted to other personal computers via a network, and a plurality of remote parties can hold a conference at the same time. .
[0004]
[Problems to be solved by the invention]
However, conventional systems not only require expensive hardware such as a video input device to input multimedia data, but also transmit multimedia data of each participant to all other participants. To do so, we needed a very fast network. As a result, there is a problem that the system becomes expensive.
[0005]
The present invention has been made in view of such a situation, and enables multimedia data to be artificially transmitted through a network, thereby realizing a lower-cost conference system. Things.
[0006]
[Means for Solving the Problems]
A method of controlling a terminal device according to claim 1, wherein the terminal device is connected via a network and mutually transmits and receives character data, wherein image data or voice data corresponding to a predetermined character is stored. When data is input, character data is transmitted to another terminal via the network, and when character data is transmitted from another terminal device via the network, the character data is received, and the input character data, or The received character data is output, characters are displayed, and it is determined whether or not predetermined characters included in the displayed characters are displayed. If the character is determined to be displayed, read out image data or audio data is stored, to output characteristics To.
[0007]
The predetermined character set in advance is “laughing”, and the image data and the voice data can be image data corresponding to the image of “laughing face” and voice data corresponding to the sound of “laughing voice”. .
[0008]
The predetermined character set in advance is “applause”, and the audio data can be audio data corresponding to the sound of “applause” .
[0009]
5. The terminal device according to claim 4, wherein the terminal device is connected via a network and mutually transmits and receives character data, wherein the terminal device stores image data or audio data corresponding to a predetermined character (for example, the ROM 18 of FIG. ), Input means for inputting character data (for example, keyboard 11 in FIG. 2), and transmitting means for transmitting character data to another terminal via a network when character data is input by the input means (for example, FIG. 3). Steps S6 and S7), receiving means (for example, step S2 in FIG. 3) for receiving character data transmitted from another terminal device via the network, and input character data or received character data. Output means for outputting characters (for example, steps S6, S7, S9, S11, S11 in FIG. 3) 2) a determining unit (for example, steps S8 and S10 in FIG. 3) for determining whether a predetermined character included in the output characters is output. When it is determined that a predetermined character set in advance is output, image data or audio data stored in the storage unit is read and output .
[0010]
A display means (for example, steps S6, S7, S11, S12 in FIG. 3) for displaying at least one of the character data input from the input means or the character data received by the receiving means and an image corresponding to the image data is further provided. Can be provided.
[0011]
[Action]
In the terminal device control method and the terminal device having the above configuration, when predetermined character data set in advance is input or received, image data or audio data stored in advance is read out, Is output. Therefore, each terminal device only needs to transmit and receive character data, and does not need to transmit and receive image data and audio data. Accordingly, the network may be relatively slow, and an inexpensive conference system can be realized.
[0012]
【Example】
FIG. 1 shows a configuration example of a conference system to which a control method of a terminal device according to the present invention is applied. In this embodiment, a plurality of (four) personal computers 1-1 to 1-4 as terminal devices are mutually connected via a network 2 such as a normal analog telephone line.
[0013]
The personal computer 1-1 is configured, for example, as shown in FIG. In the embodiment shown in FIG. 2, the CPU 17 executes various processes in accordance with the programs stored in the ROM 18, and stores data and the like necessary for executing the various processes in the RAM 19 as appropriate. The modem 16 is connected to the network 2, receives data transmitted from the network 2, and outputs the data to the CPU 17 via the interface 15. The CPU 17 outputs the input character data to the monitor 13 via the interface 15 and displays the same.
[0014]
A keyboard 11 is connected to the interface 15. When a character key 11 </ b> A of the keyboard 11 is operated, character data corresponding to the operated character key is input and output and displayed on the monitor 13 via the interface 15. In addition, the data is transmitted to the network 2 via the modem 16. The keyboard 11 includes a clapping button 11B. When the clapping button 11B is operated, character data corresponding to the character “applause” is displayed on the monitor 13 and transmitted to the network 2 via the modem 16. It has been made. The data transmitted to the network 2 is further transmitted to other personal computers 1-2 to 1-4.
[0015]
The mouse 15 is connected to the interface 15, and various instructions can be input to the CPU 17 by indicating a predetermined display position on the monitor 13.
[0016]
In this embodiment, the voice data of the sound of "applause", the voice data of the sound of "laughing", and the image data of the "laughing face" are stored in the ROM 18 in advance. , The image data is output and displayed on the monitor 13, and the audio data is output to the speaker 14.
[0017]
Although not shown, the personal computers 1-2 to 1-4 have the same configuration as the personal computer 1-1.
[0018]
Each of the personal computers 1-1 to 1-4 stores a program for executing the processing shown in FIG. The operation of the conference system will now be described with reference to the flowchart of FIG. The process shown in FIG. 3 is started when the power is turned on in each of the personal computers 1-1 to 1-4.
[0019]
First, in step S1, it is determined whether a predetermined input has been made from the keyboard 11. If there is no input from the keyboard 11, the process proceeds to step S2, where it is determined whether or not text data has been input from another personal computer via the network 2. If no text data has been input from the network 2, the process returns to step S1.
[0020]
If it is determined in step S1 that some input has been made from the keyboard 11, the process proceeds to step S3, where it is determined whether the input corresponds to the operation of the applause button 11B. If it is determined in step S3 that the applause button 11B has not been operated, the process proceeds to step S4, where it is determined whether the character key 11A has been operated. If it is determined that the character key 11A has not been operated, it means that another key has been operated. In this case, the process proceeds to step S5, and processing corresponding to the operated key is executed. You. When the process is completed, the process returns to step S1.
[0021]
On the other hand, if it is determined in step S3 that the applause button 11B of the keyboard 11 has been operated, the process proceeds to step S6, in which the character of "applause" is displayed on the monitor 13 and the character data of "applause" is displayed on the modem 16. To the network 2 via the network 2, and further output from the network 2 to other personal computers 1-2 to 1-4.
[0022]
The other personal computers 1-2 to 1-4 receive the character data of "applause" in step S2.
[0023]
On the other hand, when it is determined in step S4 that the character key 11A of the keyboard 11 has been operated, the process proceeds to step S7, in which character data corresponding to the operated character key is output to the monitor 13 for display. The data is output to other personal computers 1-2 to 1-4 via the modem 16 and the network 2. This character data is received in the other personal computers 1-2 to 1-4 in step S2.
[0024]
On the other hand, if it is determined in step S2 that text data has been input from another personal computer 1-2 through 1-4 via the network 2, this is received, and the flow advances to step S12 to correspond to the text data. The characters are output to the monitor 13 and displayed. For example, when the applause button 11B of any one of the other personal computers 1-2 to 1-4 is operated, the character “applause” is displayed on the monitor 13. Further, when the character keys 11A of the keyboard 11 of the personal computers 1-2 to 1-4 are operated, the character corresponding to the operated character key is displayed on the monitor 13.
[0025]
After the processing of steps S6, S7, and S12, the process proceeds to step S8, where it is determined whether the character currently displayed on the monitor 13 is the character of "applause". If it is determined that the character "applause" has been displayed, the process proceeds to step S9, and a clap sound reproduction process is executed. That is, the CPU 17 reads the clapping sound data stored in the ROM 18, outputs this to the speaker 14, and emits the sound. Thus, when the applause button 11B is operated, not only the character of “applause” is displayed on the monitor 13 but also a sound such as “crackling” is output from the speaker 14.
[0026]
This applies not only to the personal computer 1-1 but also to the other personal computers 1-2 to 1-4. That is, when the applause button 11B is operated on a predetermined personal computer, the character of "applause" and the sound of "crackling" are output not only to the personal computer but also to other personal computers.
[0027]
If it is determined in step S8 that the character of "applause" is not displayed, the process proceeds to step S10, and it is determined whether or not the character currently displayed on the monitor 13 is the character of "laughing". When it is determined that the character “laugh” is displayed, the process proceeds to step S11, and the laughter reproduction process and the laughter face reproduction process are executed. That is, the CPU 17 reads out the laughing voice data stored in the ROM 18, outputs the laughing voice data to the speaker 14, emits the sound, reads out the laughing face image data stored in the ROM 18, outputs the laughing face image data to the monitor 13, and displays it. .
[0028]
Therefore, when a character "laugh" is input from a predetermined personal computer, the character is displayed on its own monitor 13, and this character data is transmitted to another personal computer via the network 2 and displayed. In all the personal computers, a laughing voice is emitted and a laughing face is displayed.
[0029]
If it is determined in step S10 that the character "laugh" is not displayed, the process returns to step S1, and the subsequent processing is repeatedly executed.
[0030]
FIG. 4 schematically illustrates the operation of the conference system when the applause button 11B is operated. That is, when the applause button 11B is operated on the personal computer 1-1, the character data of "applause" is transmitted to the other personal computers 1-2 to 1-4 via the network 2, and the character of "applause" is displayed on the monitor. Is displayed. As a result, not only the speaker of the personal computer 1-1 but also the speakers of the personal computers 1-2 to 1-4 output clapping sounds such as "crackling".
[0031]
The network can use a normal analog telephone line. For example, as shown in FIG. 5, a conference system is established between personal computers 1-1 to 1-3 located in Japan, the United States, and Chile. Can be configured. Also in this case, for example, when the character "laugh" is input in Chile, the character is displayed not only on the monitor of the personal computer in Chile but also on the personal computers in Japan and the United States. Since these characters include the character "laugh", the laughter is emitted from the speakers of the personal computers in each country, and the image of the laughing face is displayed.
[0032]
In this embodiment, the image data of the laughing face and the voice data of the laughing voice are not actually transmitted, but only the character data is actually transmitted via the network 2. Therefore, unlike the case where image data and audio data are actually transmitted, not only the amount of transmitted data is suppressed from increasing, but also expensive hardware such as a video input device is not required. For this reason, a normal analog telephone line can be used also as the network 2, and a low-cost conference system can be realized.
[0033]
In the above embodiment, the characters "applause" and "laughing" are set and registered in advance, but other characters may be stored together with the corresponding image data or audio data. Is also possible. Furthermore, the characters may correspond to any language, such as English and French, instead of Japanese. Further, it is also possible to use a terminal device other than a personal computer.
[0034]
【The invention's effect】
As described above, according to the terminal device control method and the terminal device of the present invention, image data or audio data corresponding to a predetermined character is stored, and when character data is input , the character data is transmitted via a network. To the terminal, receive when character data is transmitted from another terminal device via the network, output the input character data, or the received character data, display the character, display It is determined whether or not a predetermined character set in advance included in the set character is displayed. If it is determined that the predetermined character set in advance is displayed, the stored character is stored. reads out the image data or audio data have, since the outputs, similarly to the case of transmitting a pseudo multimedia data at a low cost It is possible to realize the conference system.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration example of a conference system to which a control method of a terminal device according to the present invention is applied.
FIG. 2 is a block diagram illustrating a configuration example of a personal computer 1-1 in FIG.
FIG. 3 is a flowchart illustrating a processing example of the personal computer in FIG. 1;
FIG. 4 is a diagram illustrating an operation when a clap button is operated.
FIG. 5 is a diagram illustrating an example of a geographically separated conference system.
[Explanation of symbols]
1-1 to 1-4 Personal computer 2 Network 11 Keyboard 11A Character key 11B Applause button 12 Mouse 13 Monitor 14 Speaker 16 Modem 17 CPU
18 ROM
19 RAM

Claims (5)

ネットワークを介して結合され、相互にキャラクタデータを授受する端末装置の制御方法において、
所定の文字に対応する画像データまたは音声データを記憶し、
前記キャラクタデータが入力されたとき、前記キャラクタデータを前記ネットワークを介して他の前記端末に送信し、
前記ネットワークを介して他の前記端末装置から前記キャラクタデータが送信されてきたときこれを受信し、
入力された前記キャラクタデータ、または受信した前記キャラクタデータを出力して、文字を表示させ、
表示された前記文字に含まれている、予め設定されている前記所定の文字が表示されているか否かを判定し、
予め設定されている前記所定の文字が表示されていると判定された場合、記憶されている前記画像データまたは音声データを読み出し、出力する
ことを特徴とする端末装置の制御方法。
In a control method of a terminal device connected via a network and mutually exchanging character data,
Store image data or audio data corresponding to a predetermined character,
When the character data is input, transmits the character data to the other terminal via the network,
When the character data has been transmitted from the other terminal device via the network, receive this,
Outputting the input character data or the received character data to display characters,
It is determined whether or not the predetermined character included in the displayed character is displayed, which is set in advance.
A method for controlling a terminal device, wherein, when it is determined that the predetermined character set in advance is being displayed, the stored image data or audio data is read and output .
前記予め設定されている所定の文字は、「笑い」であり、前記画像データおよび音声データは、「笑う顔」の画像に対応する画像データと「笑い声」の音に対応する音声データである
ことを特徴とする請求項1に記載の端末装置の制御方法。
The predetermined character set in advance is “laughing”, and the image data and the voice data are image data corresponding to the image of “laughing face” and voice data corresponding to the sound of “laughing voice” < The method of controlling a terminal device according to claim 1, wherein:
前記予め設定されている所定の文字は、「拍手」であり、前記音声データは、「拍手」の音に対応する音声データである
ことを特徴とする請求項1に記載の端末装置の制御方法。
The terminal according to claim 1 , wherein the predetermined character set in advance is "applause", and the audio data is audio data corresponding to a sound of "applause". How to control the device.
ネットワークを介して結合され、相互にキャラクタデータを授受する端末装置において、
所定の文字に対応する画像データまたは音声データを記憶する記憶手段と、
前記キャラクタデータを入力する入力手段と、
前記入力手段により前記キャラクタデータが入力されたとき、前記キャラクタデータを前記ネットワークを介して他の前記端末に送信する送信手段と、
前記ネットワークを介して他の前記端末装置から送信された前記キャラクタデータを受信する受信手段と、
入力された前記キャラクタデータ、または受信した前記キャラクタデータである文字を出力する出力手段と、
出力された前記文字に含まれている、予め設定されている前記所定の文字が出力されているか否かを判定する判定手段と、
前記出力手段は、予め設定されている前記所定の文字が出力されていると判定された場合、前記記憶手段に記憶されている前記画像データまたは音声データを読み出し、出力すること
を備えることを特徴とする端末装置。
In a terminal device connected via a network and mutually exchanging character data,
Storage means for storing image data or audio data corresponding to a predetermined character,
Input means for inputting the character data,
When the character data is input by the input means, transmitting means for transmitting the character data to the other terminal via the network,
Receiving means for receiving the character data transmitted from the other terminal device via the network,
Output means for outputting a character which is the input character data or the received character data,
Determining means for determining whether or not the predetermined character set in advance is included in the output character; and
The output unit reads out and outputs the image data or the audio data stored in the storage unit when it is determined that the predetermined character set in advance is output. A terminal device comprising:
前記入力手段より入力された前記キャラクタデータ、または前記受信手段により受信された前記キャラクタデータの少なくとも一方、および前記画像データに対応する画像を表示する表示手段をさらに備える
ことを特徴とする請求項4に記載の端末装置。
5. A display device for displaying at least one of the character data input from the input device or the character data received by the receiving device and an image corresponding to the image data. A terminal device according to claim 1.
JP1120995A 1995-01-27 1995-01-27 Terminal device and control method thereof Expired - Lifetime JP3598509B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1120995A JP3598509B2 (en) 1995-01-27 1995-01-27 Terminal device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1120995A JP3598509B2 (en) 1995-01-27 1995-01-27 Terminal device and control method thereof

Publications (2)

Publication Number Publication Date
JPH08204706A JPH08204706A (en) 1996-08-09
JP3598509B2 true JP3598509B2 (en) 2004-12-08

Family

ID=11771620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1120995A Expired - Lifetime JP3598509B2 (en) 1995-01-27 1995-01-27 Terminal device and control method thereof

Country Status (1)

Country Link
JP (1) JP3598509B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6495722B2 (en) * 2015-04-10 2019-04-03 日本電信電話株式会社 SOUND SYNTHESIS DEVICE, SOUND SYNTHESIS METHOD, AND PROGRAM THEREOF

Also Published As

Publication number Publication date
JPH08204706A (en) 1996-08-09

Similar Documents

Publication Publication Date Title
JPH09265457A (en) On-line conversation system
WO2020026850A1 (en) Information processing device, information processing method, and program
US20040236578A1 (en) Semiconductor chip for a mobile telephone which includes a text to speech system, a method of aurally presenting a notification or text message from a mobile telephone and a mobile telephone
KR102506604B1 (en) Method for providing speech video and computing device for executing the method
JP3598509B2 (en) Terminal device and control method thereof
US7593387B2 (en) Voice communication with simulated speech data
JP2001268078A (en) Communication controller, its method, providing medium and communication equipment
CN113590063B (en) Method for controlling multimedia presentation by third party
JPS60246468A (en) Information input/output device
JP2003339034A (en) Network conference system, network conference method, and network conference program
JP2000122941A (en) Method for transferring information by using electronic mail
JPH06125317A (en) In-premises broadcast system
JPH05137138A (en) Video conference system
JPS6314588A (en) Electronic conference system
US11830120B2 (en) Speech image providing method and computing device for performing the same
US11630557B2 (en) Alerts for virtual meetings
KR20040039603A (en) System and method for providing ringback tone
KR102509106B1 (en) Method for providing speech video and computing device for executing the method
KR100596001B1 (en) A method for providing contents with a user terminal and a system thereof
KR20220053863A (en) Electronic device generating video based on text and method for generating video based on user data and electronic device therefortext
JP3168423B2 (en) Data processing method
KR970049714A (en) Multimedia input / output method and device therefor with client server structure
JP2023114250A (en) Conference server and conference system
JPS62226783A (en) Electronic conference system
JPH083852B2 (en) Image information display device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040203

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040905

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080924

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090924

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090924

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100924

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100924

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110924

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110924

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120924

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120924

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130924

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term