JP3598509B2 - Terminal device and control method thereof - Google Patents
Terminal device and control method thereof Download PDFInfo
- Publication number
- JP3598509B2 JP3598509B2 JP1120995A JP1120995A JP3598509B2 JP 3598509 B2 JP3598509 B2 JP 3598509B2 JP 1120995 A JP1120995 A JP 1120995A JP 1120995 A JP1120995 A JP 1120995A JP 3598509 B2 JP3598509 B2 JP 3598509B2
- Authority
- JP
- Japan
- Prior art keywords
- character
- data
- input
- network
- terminal device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Computer And Data Communications (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Telephonic Communication Services (AREA)
- Information Transfer Between Computers (AREA)
Description
【0001】
【産業上の利用分野】
本発明は、例えば電話回線を介して相互に結合されたパソコンを制御する場合に用いて好適な端末装置およびその制御方法に関する。
【0002】
【従来の技術】
複数のパソコンをネットワークを介して相互に結合し、会議システムを構成して、離れた場所に位置する者同士が、同時に会議を行うことができるようにする会議システムが提案されている。この会議システムにおいて、マイクを介して音声を入力すると、音声信号がA/D変換され、ネットワークを介して他のパソコンに伝送される。あるいはまた、静止画や動画などの画像データを入力すると、この画像信号がA/D変換され、他のパソコンにネットワークを介して送信される。
【0003】
このようにして、この会議システムにおいては、音声、静止画、動画などのマルチメディアデータをネットワークを介して他のパソコンに同時に送信し、遠隔地にいる複数の者が同時に会議を行うことができる。
【0004】
【発明が解決しようとする課題】
しかしながら、従来のシステムにおいては、マルチメディアデータを入力するために、ビデオ入力装置などの高価なハードウエアを必要とするばかりでなく、各参加者のマルチメディアデータを他の全ての参加者に伝送するために、非常に高速なネットワークが必要であった。その結果、システムが高価となる課題があった。
【0005】
本発明はこのような状況に鑑みてなされたものであり、マルチメディアデータを疑似的にネットワークを介して伝送することができるようにし、以て、より低コストの会議システムを実現できるようにするものである。
【0006】
【課題を解決するための手段】
請求項1に記載の端末装置の制御方法は、ネットワークを介して結合され、相互にキャラクタデータを授受する端末装置の制御方法において、所定の文字に対応する画像データまたは音声データを記憶し、キャラクタデータが入力されたとき、キャラクタデータをネットワークを介して他の端末に送信し、ネットワークを介して他の端末装置からキャラクタデータが送信されてきたときこれを受信し、入力されたキャラクタデータ、または受信したキャラクタデータを出力して、文字を表示させ、表示された文字に含まれている、予め設定されている所定の文字が表示されているか否かを判定し、予め設定されている所定の文字が表示されていると判定された場合、記憶されている画像データまたは音声データを読み出し、出力することを特徴とする。
【0007】
予め設定されている所定の文字は、「笑い」であり、画像データおよび音声データは、「笑う顔」の画像に対応する画像データと「笑い声」の音に対応する音声データとすることができる。
【0008】
予め設定されている所定の文字は、「拍手」であり、音声データは、「拍手」の音に対応する音声データとすることができる。
【0009】
請求項4に記載の端末装置は、ネットワークを介して結合され、相互にキャラクタデータを授受する端末装置において、所定の文字に対応する画像データまたは音声データを記憶する記憶手段(例えば図2のROM18)と、キャラクタデータを入力する入力手段(例えば図2のキーボード11)と、入力手段によりキャラクタデータが入力されたとき、キャラクタデータをネットワークを介して他の端末に送信する送信手段(例えば図3のステップS6,7)と、ネットワークを介して他の端末装置から送信されたキャラクタデータを受信する受信手段(例えば図3のステップS2)と、入力されたキャラクタデータ、または受信したキャラクタデータである文字を出力する出力手段(例えば図3のステップS6,S7,S9,S11,S12)と、出力された文字に含まれている、予め設定されている所定の文字が出力されているか否かを判定する判定手段(例えば図3のステップS8,S10)と、出力手段は、予め設定されている所定の文字が出力されていると判定された場合、記憶手段に記憶されている画像データまたは音声データを読み出し、出力することを備えることを特徴とする。
【0010】
入力手段より入力されたキャラクタデータ、または受信手段により受信されたキャラクタデータの少なくとも一方、および画像データに対応する画像を表示する表示手段(例えば図3のステップS6,S7,S11,S12)をさらに設けることができる。
【0011】
【作用】
上記構成の端末装置の制御方法および端末装置においては、予め設定されている所定のキャラクタデータが入力されるか、あるいは受信されたとき、予め記憶されている画像データまたは音声データが読み出され、出力される。従って、各端末装置はキャラクタデータを送信し、また受信するだけでよく、画像データや音声データを授受する必要がない。従って、ネットワークは比較的低速のものでよく、安価な会議システムを実現することが可能となる。
【0012】
【実施例】
図1は本発明の端末装置の制御方法を応用した会議システムの構成例を表している。この実施例においては、複数台(4台)の端末装置としてのパソコン1−1乃至1−4が、通常のアナログ電話回線などのネットワーク2を介して相互に接続されている。
【0013】
パソコン1−1は、例えば図2に示すように構成されている。図2に示す実施例においては、CPU17がROM18に記憶されているプログラムに従って各種の処理を実行し、各種の処理を実行する上において必要なデータなどをRAM19に適宜記憶させるようになされている。モデム16はネットワーク2に接続されており、ネットワーク2より送信されてきたデータを受信し、インタフェース15を介してCPU17に出力するようになされている。CPU17は、入力されたキャラクタデータをインタフェース15を介してモニタ13に出力し、表示させるようになされている。
【0014】
また、インタフェース15には、キーボード11が接続されており、キーボード11の文字キー11Aを操作すると、操作された文字キーに対応するキャラクタデータが入力され、インタフェース15を介してモニタ13に出力表示されるとともに、モデム16を介してネットワーク2に伝送されるようになされている。また、キーボード11は、拍手ボタン11Bを備え、拍手ボタン11Bを操作すると、「拍手」の文字に対応するキャラクタデータがモニタ13に表示されるとともに、モデム16を介してネットワーク2に伝送されるようになされている。そして、ネットワーク2に伝送されたデータは、さらに他のパソコン1−2乃至1−4に送信されるようになされている。
【0015】
インタフェース15には、マウス12が接続されており、モニタ13の所定の表示位置を指示することで、CPU17に対して各種の指令を入力することができるようになされている。
【0016】
ROM18にはまた、この実施例の場合、「拍手」の音の音声データと、「笑い声」の音の音声データと、「笑う顔」の画像データが予め記憶されており、これらのデータはCPU17により適宜読み出され、画像データはモニタ13に出力表示され、音声データはスピーカ14に出力されるようになされている。
【0017】
なお、図示は省略するが、パソコン1−2乃至1−4も、パソコン1−1と同様に構成されている。
【0018】
パソコン1−1乃至1−4は、それぞれ図3に示すような処理を実行するようなプログラムをROM18に記憶している。そこで、この図3のフローチャートを参照して、この会議システムの動作について説明する。この図3に示す処理は、各パソコン1−1乃至1−4において、その電源を立ち上げたとき、開始される。
【0019】
最初に、ステップS1において、キーボード11より所定の入力がなされたか否かが判定される。キーボード11より入力がない場合においては、ステップS2に進み、ネットワーク2を介して他のパソコンよりテキストデータが入力されたか否かが判定される。ネットワーク2よりテキストデータが入力されていない場合においては、ステップS1に戻る。
【0020】
ステップS1において、キーボード11より何らかの入力がなされたと判定された場合においては、ステップS3に進み、その入力は拍手ボタン11Bの操作に対応するものであるか否かが判定される。ステップS3において、拍手ボタン11Bが操作されていないと判定された場合においては、ステップS4に進み、文字キー11Aが操作されたか否かが判定される。文字キー11Aも操作されていないと判定された場合においては、その他のキーが操作されたことになるので、この場合においては、ステップS5に進み、その操作されたキーに対応する処理が実行される。そして、その処理が完了したとき、ステップS1に戻る。
【0021】
一方、ステップS3において、キーボード11の拍手ボタン11Bが操作されたと判定された場合においては、ステップS6に進み、「拍手」の文字をモニタ13に表示させるとともに、「拍手」のキャラクタデータをモデム16を介してネットワーク2に送信し、このネットワーク2からさらに他のパソコン1−2乃至1−4に出力する。
【0022】
他のパソコン1−2乃至1−4においては、この「拍手」のキャラクタデータをステップS2において受信することになる。
【0023】
一方、ステップS4において、キーボード11の文字キー11Aが操作されたと判定された場合においては、ステップS7に進み、その操作された文字キーに対応するキャラクタデータをモニタ13に出力し、表示させるとともに、モデム16,ネットワーク2を介して、他のパソコン1−2乃至1−4に出力する。このキャラクタデータは他のパソコン1−2乃至1−4において、そのステップS2で受信される。
【0024】
一方、ステップS2において、ネットワーク2を介して他のパソコン1−2乃至1−4からテキストデータが入力されたと判定された場合においてはこれを受信し、ステップS12に進み、そのテキストデータに対応する文字をモニタ13に出力し、表示させる。例えば他のパソコン1−2乃至1−4のいずれかの拍手ボタン11Bが操作された場合においては、「拍手」の文字がモニタ13に表示される。また、パソコン1−2乃至1−4のキーボード11の文字キー11Aが操作された場合においては、その操作された文字キーに対応する文字がモニタ13に表示される。
【0025】
ステップS6,S7,S12の処理の次にステップS8に進み、モニタ13にいま表示された文字が「拍手」の文字であるか否かが判定される。「拍手」の文字が表示されたと判定された場合においては、ステップS9に進み、拍手音再生処理が実行される。即ち、CPU17はROM18に記憶されている拍手音の音声データを読み出し、これをスピーカ14に出力し、放音させる。これにより、拍手ボタン11Bを操作した場合においては、モニタ13に「拍手」の文字が表示されるだけでなく、スピーカ14から「パチパチパチ」といった音声が出力されることになる。
【0026】
このことはパソコン1−1だけでなく、他のパソコン1−2乃至1−4においても同様である。即ち、所定のパソコンにおいて、拍手ボタン11Bを操作すると、自分のパソコンはもとより、他のパソコンにも「拍手」の文字と「パチパチパチ」という音声が出力される。
【0027】
ステップS8で、「拍手」の文字が表示されていないと判定された場合においてはステップS10に進み、いまモニタ13に表示されたのが「笑い」の文字であるか否かが判定される。「笑い」の文字が表示されたと判定された場合においては、ステップS11に進み、笑い声再生処理と笑い顔再生処理が実行される。即ち、CPU17はROM18に記憶されている笑い声の音声データを読み出し、スピーカ14に出力し、放音させるとともに、ROM18に記憶されている笑い顔の画像データを読み出し、モニタ13に出力し、表示させる。
【0028】
従って、所定のパソコンから「笑い」の文字を入力すると、その文字が自らのモニタ13に表示されるとともに、このキャラクタデータがネットワーク2を介して他のパソコンにも送信され、表示されるため、全てのパソコンにおいて、笑い声が放音されるとともに、笑い顔が表示される。
【0029】
ステップS10において、「笑い」の文字が表示されていないと判定された場合においては、ステップS1に戻り、それ以降の処理が繰り返し実行される。
【0030】
図4は、拍手ボタン11Bを操作した場合における会議システムの動作を模式的に表している。即ち、パソコン1−1において、拍手ボタン11Bを操作すると、「拍手」のキャラクタデータが他のパソコン1−2乃至1−4にネットワーク2を介して伝送され、「拍手」の文字がそのモニタに表示される。その結果、パソコン1−1のスピーカだけでなく、パソコン1−2乃至1−4のスピーカからも「パチパチパチ」といった拍手音が出力される。
【0031】
なお、ネットワークは通常のアナログ電話回線を用いることができ、例えば図5に示すように、日本、アメリカ、およびチリにそれぞれ配置されているパソコン1−1乃至1−3の間で、会議システムを構成することができる。この場合においても、例えばチリで「大笑い」の文字を入力すると、その文字がチリにおけるパソコンのモニタに表示されるだけでなく、日本とアメリカのパソコンにも表示される。そして、この文字には「笑い」の文字が含まれているため、各国のパソコンのスピーカから笑い声が放音されるとともに、笑い顔の画像が表示される。
【0032】
この実施例においては、笑い顔の画像データや、笑い声の音声データは実際には伝送されず、ネットワーク2を介して実際に伝送されるのはキャラクタデータだけある。従って、画像データや音声データを実際に伝送する場合のように、伝送データ量が多くなることが抑制されるだけでなく、ビデオ入力装置などのような高価なハードウエアも不要となる。このため、ネットワーク2としても、通常のアナログの電話回線を利用することが可能となり、低コストの会議システムを実現することができる。
【0033】
なお、以上の実施例においては、「拍手」と「笑い」の文字を予め設定登録しておくようにしたが、それ以外の文字を、対応する画像データまたは音声データとともに記憶させるようにすることも可能である。さらに、文字は日本語ではなく、英語、フランス語など、任意の言語に対応するものとすることができる。また、端末装置としてはパソコン以外を用いることも可能である。
【0034】
【発明の効果】
以上の如く、本発明の端末装置の制御方法および端末装置によれば、所定の文字に対応する画像データまたは音声データを記憶し、キャラクタデータが入力されたとき、キャラクタデータをネットワークを介して他の端末に送信し、ネットワークを介して他の端末装置からキャラクタデータが送信されてきたときこれを受信し、入力されたキャラクタデータ、または受信したキャラクタデータを出力して、文字を表示させ、表示された文字に含まれている、予め設定されている所定の文字が表示されているか否かを判定し、予め設定されている所定の文字が表示されていると判定された場合、記憶されている画像データまたは音声データを読み出し、出力するようにしたので、低コストで擬似的にマルチメディアデータを送信する場合と同様の会議システムを実現することが可能となる。
【図面の簡単な説明】
【図1】本発明の端末装置の制御方法を応用した会議システムの構成例を示すブロック図である。
【図2】図1のパソコン1−1の構成例を示すブロック図である。
【図3】図1のパソコンの処理例を示すフローチャートである。
【図4】拍手ボタンが操作された場合における動作を示す図である。
【図5】地理的に離れた会議システムの例を示す図である。
【符号の説明】
1−1乃至1−4 パソコン
2 ネットワーク
11 キーボード
11A 文字キー
11B 拍手ボタン
12 マウス
13 モニタ
14 スピーカ
16 モデム
17 CPU
18 ROM
19 RAM[0001]
[Industrial applications]
BACKGROUND OF THE
[0002]
[Prior art]
2. Description of the Related Art There has been proposed a conference system in which a plurality of personal computers are connected to each other via a network to configure a conference system so that persons located at distant places can hold a conference at the same time. In this conference system, when audio is input via a microphone, the audio signal is A / D converted and transmitted to another personal computer via a network. Alternatively, when image data such as a still image or a moving image is input, this image signal is A / D converted and transmitted to another personal computer via a network.
[0003]
In this manner, in this conference system, multimedia data such as audio, still images, and moving images can be simultaneously transmitted to other personal computers via a network, and a plurality of remote parties can hold a conference at the same time. .
[0004]
[Problems to be solved by the invention]
However, conventional systems not only require expensive hardware such as a video input device to input multimedia data, but also transmit multimedia data of each participant to all other participants. To do so, we needed a very fast network. As a result, there is a problem that the system becomes expensive.
[0005]
The present invention has been made in view of such a situation, and enables multimedia data to be artificially transmitted through a network, thereby realizing a lower-cost conference system. Things.
[0006]
[Means for Solving the Problems]
A method of controlling a terminal device according to
[0007]
The predetermined character set in advance is “laughing”, and the image data and the voice data can be image data corresponding to the image of “laughing face” and voice data corresponding to the sound of “laughing voice”. .
[0008]
The predetermined character set in advance is “applause”, and the audio data can be audio data corresponding to the sound of “applause” .
[0009]
5. The terminal device according to
[0010]
A display means (for example, steps S6, S7, S11, S12 in FIG. 3) for displaying at least one of the character data input from the input means or the character data received by the receiving means and an image corresponding to the image data is further provided. Can be provided.
[0011]
[Action]
In the terminal device control method and the terminal device having the above configuration, when predetermined character data set in advance is input or received, image data or audio data stored in advance is read out, Is output. Therefore, each terminal device only needs to transmit and receive character data, and does not need to transmit and receive image data and audio data. Accordingly, the network may be relatively slow, and an inexpensive conference system can be realized.
[0012]
【Example】
FIG. 1 shows a configuration example of a conference system to which a control method of a terminal device according to the present invention is applied. In this embodiment, a plurality of (four) personal computers 1-1 to 1-4 as terminal devices are mutually connected via a network 2 such as a normal analog telephone line.
[0013]
The personal computer 1-1 is configured, for example, as shown in FIG. In the embodiment shown in FIG. 2, the
[0014]
A
[0015]
The
[0016]
In this embodiment, the voice data of the sound of "applause", the voice data of the sound of "laughing", and the image data of the "laughing face" are stored in the
[0017]
Although not shown, the personal computers 1-2 to 1-4 have the same configuration as the personal computer 1-1.
[0018]
Each of the personal computers 1-1 to 1-4 stores a program for executing the processing shown in FIG. The operation of the conference system will now be described with reference to the flowchart of FIG. The process shown in FIG. 3 is started when the power is turned on in each of the personal computers 1-1 to 1-4.
[0019]
First, in step S1, it is determined whether a predetermined input has been made from the
[0020]
If it is determined in step S1 that some input has been made from the
[0021]
On the other hand, if it is determined in step S3 that the
[0022]
The other personal computers 1-2 to 1-4 receive the character data of "applause" in step S2.
[0023]
On the other hand, when it is determined in step S4 that the character key 11A of the
[0024]
On the other hand, if it is determined in step S2 that text data has been input from another personal computer 1-2 through 1-4 via the network 2, this is received, and the flow advances to step S12 to correspond to the text data. The characters are output to the
[0025]
After the processing of steps S6, S7, and S12, the process proceeds to step S8, where it is determined whether the character currently displayed on the
[0026]
This applies not only to the personal computer 1-1 but also to the other personal computers 1-2 to 1-4. That is, when the
[0027]
If it is determined in step S8 that the character of "applause" is not displayed, the process proceeds to step S10, and it is determined whether or not the character currently displayed on the
[0028]
Therefore, when a character "laugh" is input from a predetermined personal computer, the character is displayed on its
[0029]
If it is determined in step S10 that the character "laugh" is not displayed, the process returns to step S1, and the subsequent processing is repeatedly executed.
[0030]
FIG. 4 schematically illustrates the operation of the conference system when the
[0031]
The network can use a normal analog telephone line. For example, as shown in FIG. 5, a conference system is established between personal computers 1-1 to 1-3 located in Japan, the United States, and Chile. Can be configured. Also in this case, for example, when the character "laugh" is input in Chile, the character is displayed not only on the monitor of the personal computer in Chile but also on the personal computers in Japan and the United States. Since these characters include the character "laugh", the laughter is emitted from the speakers of the personal computers in each country, and the image of the laughing face is displayed.
[0032]
In this embodiment, the image data of the laughing face and the voice data of the laughing voice are not actually transmitted, but only the character data is actually transmitted via the network 2. Therefore, unlike the case where image data and audio data are actually transmitted, not only the amount of transmitted data is suppressed from increasing, but also expensive hardware such as a video input device is not required. For this reason, a normal analog telephone line can be used also as the network 2, and a low-cost conference system can be realized.
[0033]
In the above embodiment, the characters "applause" and "laughing" are set and registered in advance, but other characters may be stored together with the corresponding image data or audio data. Is also possible. Furthermore, the characters may correspond to any language, such as English and French, instead of Japanese. Further, it is also possible to use a terminal device other than a personal computer.
[0034]
【The invention's effect】
As described above, according to the terminal device control method and the terminal device of the present invention, image data or audio data corresponding to a predetermined character is stored, and when character data is input , the character data is transmitted via a network. To the terminal, receive when character data is transmitted from another terminal device via the network, output the input character data, or the received character data, display the character, display It is determined whether or not a predetermined character set in advance included in the set character is displayed. If it is determined that the predetermined character set in advance is displayed, the stored character is stored. reads out the image data or audio data have, since the outputs, similarly to the case of transmitting a pseudo multimedia data at a low cost It is possible to realize the conference system.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration example of a conference system to which a control method of a terminal device according to the present invention is applied.
FIG. 2 is a block diagram illustrating a configuration example of a personal computer 1-1 in FIG.
FIG. 3 is a flowchart illustrating a processing example of the personal computer in FIG. 1;
FIG. 4 is a diagram illustrating an operation when a clap button is operated.
FIG. 5 is a diagram illustrating an example of a geographically separated conference system.
[Explanation of symbols]
1-1 to 1-4 Personal computer 2
18 ROM
19 RAM
Claims (5)
所定の文字に対応する画像データまたは音声データを記憶し、
前記キャラクタデータが入力されたとき、前記キャラクタデータを前記ネットワークを介して他の前記端末に送信し、
前記ネットワークを介して他の前記端末装置から前記キャラクタデータが送信されてきたときこれを受信し、
入力された前記キャラクタデータ、または受信した前記キャラクタデータを出力して、文字を表示させ、
表示された前記文字に含まれている、予め設定されている前記所定の文字が表示されているか否かを判定し、
予め設定されている前記所定の文字が表示されていると判定された場合、記憶されている前記画像データまたは音声データを読み出し、出力する
ことを特徴とする端末装置の制御方法。In a control method of a terminal device connected via a network and mutually exchanging character data,
Store image data or audio data corresponding to a predetermined character,
When the character data is input, transmits the character data to the other terminal via the network,
When the character data has been transmitted from the other terminal device via the network, receive this,
Outputting the input character data or the received character data to display characters,
It is determined whether or not the predetermined character included in the displayed character is displayed, which is set in advance.
A method for controlling a terminal device, wherein, when it is determined that the predetermined character set in advance is being displayed, the stored image data or audio data is read and output .
ことを特徴とする請求項1に記載の端末装置の制御方法。The predetermined character set in advance is “laughing”, and the image data and the voice data are image data corresponding to the image of “laughing face” and voice data corresponding to the sound of “laughing voice” < The method of controlling a terminal device according to claim 1, wherein:
ことを特徴とする請求項1に記載の端末装置の制御方法。The terminal according to claim 1 , wherein the predetermined character set in advance is "applause", and the audio data is audio data corresponding to a sound of "applause". How to control the device.
所定の文字に対応する画像データまたは音声データを記憶する記憶手段と、
前記キャラクタデータを入力する入力手段と、
前記入力手段により前記キャラクタデータが入力されたとき、前記キャラクタデータを前記ネットワークを介して他の前記端末に送信する送信手段と、
前記ネットワークを介して他の前記端末装置から送信された前記キャラクタデータを受信する受信手段と、
入力された前記キャラクタデータ、または受信した前記キャラクタデータである文字を出力する出力手段と、
出力された前記文字に含まれている、予め設定されている前記所定の文字が出力されているか否かを判定する判定手段と、
前記出力手段は、予め設定されている前記所定の文字が出力されていると判定された場合、前記記憶手段に記憶されている前記画像データまたは音声データを読み出し、出力すること
を備えることを特徴とする端末装置。In a terminal device connected via a network and mutually exchanging character data,
Storage means for storing image data or audio data corresponding to a predetermined character,
Input means for inputting the character data,
When the character data is input by the input means, transmitting means for transmitting the character data to the other terminal via the network,
Receiving means for receiving the character data transmitted from the other terminal device via the network,
Output means for outputting a character which is the input character data or the received character data,
Determining means for determining whether or not the predetermined character set in advance is included in the output character; and
The output unit reads out and outputs the image data or the audio data stored in the storage unit when it is determined that the predetermined character set in advance is output. A terminal device comprising:
ことを特徴とする請求項4に記載の端末装置。5. A display device for displaying at least one of the character data input from the input device or the character data received by the receiving device and an image corresponding to the image data. A terminal device according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1120995A JP3598509B2 (en) | 1995-01-27 | 1995-01-27 | Terminal device and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1120995A JP3598509B2 (en) | 1995-01-27 | 1995-01-27 | Terminal device and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08204706A JPH08204706A (en) | 1996-08-09 |
JP3598509B2 true JP3598509B2 (en) | 2004-12-08 |
Family
ID=11771620
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1120995A Expired - Lifetime JP3598509B2 (en) | 1995-01-27 | 1995-01-27 | Terminal device and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3598509B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6495722B2 (en) * | 2015-04-10 | 2019-04-03 | 日本電信電話株式会社 | SOUND SYNTHESIS DEVICE, SOUND SYNTHESIS METHOD, AND PROGRAM THEREOF |
-
1995
- 1995-01-27 JP JP1120995A patent/JP3598509B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH08204706A (en) | 1996-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH09265457A (en) | On-line conversation system | |
WO2020026850A1 (en) | Information processing device, information processing method, and program | |
US20040236578A1 (en) | Semiconductor chip for a mobile telephone which includes a text to speech system, a method of aurally presenting a notification or text message from a mobile telephone and a mobile telephone | |
KR102506604B1 (en) | Method for providing speech video and computing device for executing the method | |
JP3598509B2 (en) | Terminal device and control method thereof | |
US7593387B2 (en) | Voice communication with simulated speech data | |
JP2001268078A (en) | Communication controller, its method, providing medium and communication equipment | |
CN113590063B (en) | Method for controlling multimedia presentation by third party | |
JPS60246468A (en) | Information input/output device | |
JP2003339034A (en) | Network conference system, network conference method, and network conference program | |
JP2000122941A (en) | Method for transferring information by using electronic mail | |
JPH06125317A (en) | In-premises broadcast system | |
JPH05137138A (en) | Video conference system | |
JPS6314588A (en) | Electronic conference system | |
US11830120B2 (en) | Speech image providing method and computing device for performing the same | |
US11630557B2 (en) | Alerts for virtual meetings | |
KR20040039603A (en) | System and method for providing ringback tone | |
KR102509106B1 (en) | Method for providing speech video and computing device for executing the method | |
KR100596001B1 (en) | A method for providing contents with a user terminal and a system thereof | |
KR20220053863A (en) | Electronic device generating video based on text and method for generating video based on user data and electronic device therefortext | |
JP3168423B2 (en) | Data processing method | |
KR970049714A (en) | Multimedia input / output method and device therefor with client server structure | |
JP2023114250A (en) | Conference server and conference system | |
JPS62226783A (en) | Electronic conference system | |
JPH083852B2 (en) | Image information display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040203 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040401 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040823 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040905 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080924 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090924 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090924 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100924 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100924 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110924 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110924 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120924 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120924 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130924 Year of fee payment: 9 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |