JP2004192331A - Communication terminal device, communication server, communication method and program - Google Patents

Communication terminal device, communication server, communication method and program Download PDF

Info

Publication number
JP2004192331A
JP2004192331A JP2002359410A JP2002359410A JP2004192331A JP 2004192331 A JP2004192331 A JP 2004192331A JP 2002359410 A JP2002359410 A JP 2002359410A JP 2002359410 A JP2002359410 A JP 2002359410A JP 2004192331 A JP2004192331 A JP 2004192331A
Authority
JP
Japan
Prior art keywords
display control
image
image data
communication terminal
character string
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002359410A
Other languages
Japanese (ja)
Inventor
Naoki Iketani
直樹 池谷
Takashi Miyamoto
隆司 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2002359410A priority Critical patent/JP2004192331A/en
Publication of JP2004192331A publication Critical patent/JP2004192331A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve sense of reality in conversation when performing realtime conversation via a network such as chatting. <P>SOLUTION: Chatting is executed through pear-to-pear communication among personal computers 1A, 1B and 1C. A display control file for specifying how to display messages and avatars while chatting is transmitted from each personal computer to other personal computers with a message and an image of avatar. In each personal computer, a message and an image sent from the computer is processed by a display control file selected by the computer, a message and image received from another personal computer are processed with a display control file which is received at the same time and the message and the image sent from each personal computer are displayed. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、リアルタイムでメッセージを交換して対話を行う環境を提供する通信端末装置、通信サーバ、通信方法および通信方法をコンピュータに実行させるためのプログラムに関するものである。
【0002】
【従来の技術】
複数のユーザが自身のパソコン等の通信端末装置をインターネット等のネットワークを介して接続し、複数の通信端末装置間でリアルタイムにメッセージを交換するチャットサービスが提供されている。このようなチャットサービスは、複数の通信端末装置で1つの仮想空間を共有し、仮想空間においてユーザが任意のタイミングでメッセージを送信する、すなわち発言できるようにして、複数の通信端末装置のユーザ間で対話できるようにしたものである。
【0003】
また、このようなチャットサービスにおいて、ユーザがアバタと称される自分の代理となるキャラクタを仮想空間に登場させ、アバタを用いてリアルタイムで対話を行うチャットサービスも提供されている。
【0004】
また、このようなチャットサービスにおいて、会話の臨場感を向上させるために、予め入力したアバタの性格情報に基づいてメッセージに含まれるキーワードに応じてアバタを動かすようにした通信システム(特許文献1参照)や、入力されたメッセージに応じて対応するアバタの動作を対応表から検索し、検索された動作をアバタに行わせるようにした通信システム(特許文献2参照)が提案されている。これらのシステムにおいては、例えば「おはよう」というメッセージを入力すると、手を挙げて挨拶をしているような動作を行っているアバタを表示することができる。
【0005】
また、1種類のアバタについて複数の感情表現に応じた複数の表情や態度が異なる複数のアバタを用意し、ユーザの感情表現のレベルを入力させることにより、そのレベルに対応した感情表現のアバタを表示するようにしたシステムも提案されている(特許文献3参照)。
【0006】
【特許文献1】
特開2001−230801号公報
【0007】
【特許文献2】
特開2001−307137号公報
【0008】
【特許文献3】
特開2002−190034号公報
【0009】
【発明が解決しようとする課題】
しかしながら、上記特許文献1,2に記載されたシステムにおいては、アバタの動きは予め設定されたキーワードと対応付けられているため、手を挙げて挨拶をしている動作を行っているアバタと「おはよう」の文字列とを対応付けた場合、「おはよー」や「おっはー」という文字列を入力したのではアバタの表示は変更されない。この場合、手を挙げて挨拶をしている動作に「おはよー」や「おっはー」という文字列を対応付けておけばよいが、実際のチャットでは様々な挨拶の仕方があるため、同じ挨拶を行う文字列であっても、手を挙げて挨拶をしている動作に対応付けられていなければ、アバタの表示を変更できない。また、上記特許文献3に記載されてシステムにおいてもアバタの表情や動きは予め用意されたものに限られてしまう。このため、チャット中にアバタがユーザが所望するアバタに変更されない場合が生じてしまい、その結果、チャットの臨場感が損なわれてしまうという問題があった。
【0010】
本発明は上記事情に鑑みなされたものであり、チャットのようにネットワークを介してリアルタイムで対話を行う際に、対話の臨場感をより向上させることを目的とする。
【0011】
【課題を解決するための手段】
本発明による通信端末装置は、ネットワークに接続され、該ネットワークに接続された少なくとも1つの他の通信端末装置との間でリアルタイムで対話を行う環境を提供する通信端末装置において、
前記対話のための文字列および/または画像の入力を受け付ける入力手段と、
前記文字列および/または前記画像の表示の仕方を定義する、予め作成された複数の表示制御ファイルから、前記入力手段から入力した前記文字列および/または前記画像データの表示の仕方を定義する表示制御ファイルの選択を受け付ける選択手段と、
前記文字列を表すテキストデータおよび/または前記画像を表す画像データを、前記選択された表示制御ファイルとともに記憶する記憶手段と、
前記テキストデータおよび/または前記画像データ並びに前記選択された表示制御ファイルを前記他の通信端末装置に送信する送信手段と、
前記他の通信端末装置から送信された少なくとも1つの他のテキストデータおよび/または他の画像データ並びに他の表示制御ファイルを受信する受信手段と、
前記他の表示制御ファイルに基づいて前記他のテキストデータにより表される文字列および/または前記他の画像データにより表される画像を制御しつつ表示するとともに、前記記憶手段に記憶した表示制御ファイルに基づいて該記憶手段に記憶したテキストデータにより表される文字列および/または前記画像データにより表される画像を制御しつつ表示する表示制御手段とを備えたことを特徴とするものである。
【0012】
「表示制御ファイル」は文字列と画像とで共通のものであってもよく、文字列と画像とでそれぞれ別個のものであってもよい。
【0013】
なお、本発明による通信端末装置においては、前記表示制御手段を、前記他のテキストデータおよび/または前記他の画像データの表示制御の処理と、前記記憶したテキストデータおよび/または前記画像データの表示制御の処理とを並列に行う手段としてもよい。
【0014】
本発明による通信サーバは、複数の通信端末装置とネットワークを介して接続され、該複数の通信端末装置にリアルタイムで対話を行う環境を提供する通信サーバにおいて、
前記複数の通信端末装置のそれぞれから送信された、前記対話のための文字列を表すテキストデータおよび/または前記対話のための画像を表す画像データ並びに前記文字列および/または前記画像の表示の仕方を定義する表示制御ファイルを受信する受信手段と、
前記複数の通信端末装置のそれぞれから送信された前記表示制御ファイルに基づいて、前記複数の通信端末装置のそれぞれから送信された前記テキストデータおよび/または前記画像データの表示制御を行う表示制御手段と、
該表示制御がなされた前記テキストデータおよび/または前記画像データを前記複数の通信端末装置の全てに送信する送信手段とを備えたことを特徴とするものである。
【0015】
なお、本発明による通信サーバにおいては、前記表示制御手段を、前記複数の通信端末装置のそれぞれから送信された前記テキストデータおよび/または前記画像データの表示制御の処理を並列に行う手段としてもよい。
【0016】
本発明による通信方法は、ネットワークに接続され、該ネットワークに接続された少なくとも1つの他の通信端末装置との間でリアルタイムで対話を行う環境を提供する通信端末装置における通信方法において、
前記対話のための文字列および/または画像の入力を受け付け、
前記文字列および/または前記画像の表示の仕方を定義する、予め作成された複数の表示制御ファイルから、入力された前記文字列および/または前記画像の表示の仕方を定義する表示制御ファイルの選択を受け付け、
前記文字列を表すテキストデータおよび/または前記画像を表す画像データを、前記選択された表示制御ファイルとともに記憶し、
前記テキストデータおよび/または前記画像データ並びに前記選択された表示制御ファイルを前記他の通信端末装置に送信し、
前記他の通信端末装置から送信された少なくとも1つの他のテキストデータおよび/または他の画像データ並びに他の表示制御ファイルを受信し、
前記他の表示制御ファイルに基づいて前記他のテキストデータにより表される文字列および/または前記他の画像データにより表される画像を制御しつつ表示するとともに、前記記憶した表示制御ファイルに基づいて前記記憶したテキストデータにより表される文字列および/または前記画像データにより表される画像を制御しつつ表示することを特徴とするものである。
【0017】
なお、本発明による通信方法においては、前記他のテキストデータおよび/または前記他の画像データの表示制御の処理と、前記記憶した画像データおよび/または前記画像データの表示制御の処理とを並列に行うようにしてもよい。
【0018】
なお、本発明による通信方法をコンピュータに実行させるためのプログラムとして提供してもよい。
【0019】
【発明の効果】
本発明の通信端末装置、通信方法およびプログラムによれば、対話のための文字列および/または画像の入力が受け付けられ、さらに文字列および/または画像の表示の仕方を定義する、予め作成された複数の表示制御ファイルから、入力した文字列および/または画像の表示の仕方を定義する表示制御ファイルの選択が受け付けられる。文字列を表すテキストデータおよび/または画像を表す画像データ並びに表示制御ファイルは記憶される。一方、他の通信端末装置から送信された他のテキストデータおよび/または他の画像データ並びに他の表示制御ファイルが受信される。そして、受信した他の表示制御ファイルに基づいて、他のテキストデータにより表される文字列および/または他の画像データにより表される画像が制御されつつ表示されるとともに、記憶した表示制御ファイルに基づいて、記憶したテキストデータにより表される文字列および/または画像データにより表される画像が制御されつつ表示される。
【0020】
また、本発明の通信サーバによれば、通信サーバにネットワークを介して接続された複数の通信端末装置のそれぞれから送信されたテキストデータおよび/または画像データ並びに表示制御ファイルが受信され、受信した表示制御ファイルに基づいて、テキストデータおよび/または画像データの表示制御が行われ、表示制御がなされたテキストデータおよび/または画像データが複数の通信端末装置の全てに送信される。複数の通信端末装置のそれぞれにおいては、自身が送信したテキストデータおよび/または画像データも含めて、通信サーバに接続された全ての通信端末装置から送信されたテキストデータにより表される文字列および/または画像データにより表される画像が表示制御されて表示される。
【0021】
このため、通信端末装置のユーザは、所望とする表示制御ファイルを選択することにより、自身が入力した文字列および/または画像を所望とする表示の仕方にて表示してチャットを行うことができる。したがって、チャットの臨場感を向上させることができる。
【0022】
また、全てのテキストデータおよび/または全ての画像データの表示制御の処理を並列に行うようにすれば、あたかも通常の会話を行っているかのようにテキストデータにより表される文字列および/または画像データにより表される画像を表示できるため、チャットの臨場感をより向上することができる。
【0023】
【発明の実施の形態】
以下図面を参照して本発明の実施形態について説明する。図1は本発明の実施形態による通信端末装置を適用した通信システムの構成を示す概略ブロック図である。図1に示すように、本実施形態による通信システムは、複数(本実施形態においては3台)のパソコン1A,1B,1Cをインターネット2を介して接続し、ピアツーピアで通信させることにより各パソコン1A,1B,1Cのユーザがリアルタイムでチャットを行うシステムである。
【0024】
各パソコン1A,1B,1Cは、種々の表示を行うモニタ11と、キーボードおよびマウスからなる入力手段12と、パソコン本体13とを備える。パソコン本体13は、本実施形態による通信端末装置を内包する。
【0025】
図2は本実施形態による通信端末装置の構成を示す概略ブロック図である。図2に示すように、本実施形態による通信端末装置は、ネットワークに接続してメッセージの文字列を表すテキストデータや画像を表す画像データの送受信を行う通信インターフェース21と、チャット用プログラム等種々のデータを保存するハードディスク22と、作業領域となるメモリ23と、チャット用プログラムによる処理を実行するCPU24とがバス25により接続されて構成される。なお、バス25にはモニタ11および入力手段12が接続される。
【0026】
図3はチャット用プログラムの構成を模式的に示す図である。なお、ここでは説明を簡単にするため、2台のパソコン間におけるプログラムの処理について説明する。チャット用プログラムは、送信クライアント3Aおよび表示クライアント4Aからなる。送信クライアント3Aは、メッセージの入力、表示する画像の入力並びにメッセージおよび画像の表示の仕方を定義する表示制御ファイルの選択を受け付け、入力されたメッセージを表示データX、入力された画像を表示データY、選択された表示制御ファイルを制御データCとして、接続されている全てのパソコンに送信する動作を行う。なお、表示データX,Yおよび制御データCは自身の表示クライアント4Aにも送信される。
【0027】
表示制御ファイルには、メッセージの表示の仕方および画像の表示の仕方を定義する記述がなされる。
【0028】
メッセージの表示の仕方としては、メッセージを表示する画面上の位置、メッセージに用いる文字の色、文字の表示速度、文字の大きさおよび表示回数等が挙げられる。なお、表示制御ファイルに文字の大きさおよび色が定義されていない場合には、予め定められたデフォルトの大きさおよび色の文字によりメッセージが表示される。
【0029】
画像の表示の仕方としては、画像を表示する画面上の位置、表示に使用する画像データの種類、表示時間、表示の大きさおよび表示回数等が挙げられる。
【0030】
タイミングは、メッセージを表示する速度(例えばメッセージの文字を300ms毎に表示する、一度に表示する等)、複数の画像を表示する場合の各画像を表示する時間等を規定する。
【0031】
表示クライアント4Aは、自身の入力クライアント3Aが送信した表示データX,Yおよび制御データC並びに他のパソコンの入力クライアント3Bが送信した表示データX′,Y′および制御データC′を受信し、表示データX,Yおよび表示データX′,Y′をテンポラリT,T′に一時的に保存する。制御データC,C′はコンテンツマネージャMにロードされる。
【0032】
コンテンツマネージャMにロードされた制御データCは、制御データC′と協調してマルチタスク管理Nの元で解釈および実行される。この際、必要に応じてテンポラリT,T′から表示データX,Yおよび表示データX′,Y′がロードされる。制御データC,C′の実行結果は表示エリアDへ出力され、モニタ11に表示される。
【0033】
次いで、このようなチャット用プログラムにより行われる処理について説明する。図4はチャット用プログラムにより行われる処理を示すフローチャートである。なお、送信クライアント3Aはユーザが入力したメッセージおよび画像データ並びに選択した表示制御ファイルにそれぞれ対応する表示データX,Yおよび制御データCを送信する処理を行うのみであるため、ここでは表示クライアント4Aが行うデータ受信処理、テンポラリTの処理、マルチタスク管理Nの処理および表示エリアDの処理について説明する。
【0034】
まず、データ受信処理においては、表示データX,Y,X′,Y′が着信したか否かを判定し(ステップS1)、ステップS1が肯定されると、制御データC,C′を送信しない場合を考慮して、表示データX,Y,X′,Y′と同時に制御データC,C′が着信したか否かを判定する(ステップS2)。ステップS2に続いて、テンポラリTが着信した表示データX,Y,X′,Y′を一時的に保存する(ステップS3)。ステップS1,S2,S3の処理に続いて、マルチタスク管理Nが並列処理を開始する(ステップS4)。この並列処理は、チャットを行うために接続中のパソコン台数分、メッセージおよび画像を表示するための処理を並列して行う処理である。
【0035】
並列処理においては、まず画面更新が必要であるか否かを判定し(ステップS5)、ステップS5が肯定されるとテンポラリTに一時的に保存した表示データX,Yを読み出し(ステップS6)、制御データCを着信していれば表示データX,Yの表示を制御する処理を施し(ステップS7)、表示エリアDに出力して画面を更新する(ステップS8)。なお、制御データCを着信していない場合は、ステップS7においては表示データX,Yをそのまま表示エリアDに出力するよう表示を制御する処理を施して画面を更新する。
【0036】
以上のステップS5〜ステップSS8の処理が、接続中のパソコンの台数分並列して行われ(ステップS9)、ステップS1に戻る。
【0037】
次いで、本実施形態における具体的な実施例について説明する。チャット中はパソコン1A,1B,1Cのモニタ11にはチャット画面が表示される。図5はチャット画面を示す図である。図5に示すようにチャット画面30には、文字や画像を表示する表示エリア31と、メッセージを入力するメッセージ入力ボックス32と、表示する画像をドラッグする画像ドラッグエリア33と、メッセージに対する表示制御ファイルを選択するプルダウンメニュー34と、画像に対する表示制御ファイルを選択するプルダウンメニュー35と、送信ボタン36とを備える。
【0038】
表示エリア31は、表示制御がなされたメッセージおよび画像を表示する。
【0039】
メッセージ入力ボックス32は、パソコン1A,1B,1Cのユーザが入力手段12から入力して送信するメッセージを表示する。
【0040】
画像ドラッグエリア33には、パソコン1A,1B,1Cのユーザが表示エリア31に表示したい画像データをドラッグするエリアであり、ここにドラッグされて送信された画像データにより表される画像が表示エリア31に表示される。なお、画像データはパソコン1A,1B,1Cに保存されたユーザが所望とする画像を表すものを用いることができる。また、ドラッグした画像データは画像ドラッグエリア33に順次表示される。
【0041】
プルダウンメニュー34,35にはメッセージおよび画像データの表示の仕方を定義する表示制御ファイルの種類(例えばファイル1、ファイル2…)が表示される。
【0042】
図6は表示制御ファイルの記述の例を示す図である。図6(a)に示す表示制御ファイル41の1行目は表示制御ファイルの開始を、2行目は表示位置を「左上」に設定する指示を、3行目は「左上」に表示するメッセージのファイル名(member_a.txt)を設定する指示を、4行目は表示制御ファイルの終了をそれぞれ表す。例えば、メッセージの内容が「今度の日曜どこへ行く?」であり、その文字列にmember_a.txtというファイル名を付与すれば、表示制御ファイル41を実行することにより、表示エリア31の左上に「今度の日曜どこへ行く?」とメッセージが一度に表示される。なお、メッセージのファイル名は、送信するパソコン1A,1B,1Cに応じて送信クライアント3Aが自動的に付与する。
【0043】
図6(b)に示す表示制御ファイル42の1行目は表示制御ファイルの開始を、2行目は表示位置を「右下」に設定する指示を、3行目は「右下」に表示するメッセージのファイル名(member_b.txt)を設定する指示および文字の表示速度を1文字あたり300msに設定する指示を、4行目は表示制御ファイルの終了をそれぞれ表す。例えば、メッセージの内容が「暑いから涼しい富士山に涼みに行ってこない?」であり、その文字列にmember_b.txtというファイル名を付与すれば、表示制御ファイル42を実行することにより、表示エリア31の右下に「暑いから涼しい富士山に涼みに行ってこない?」のメッセージが1文字ずつ表示される。
【0044】
なお、表示制御ファイル41,42においては、メッセージの文字サイズを定義していないが、このような場合には、予め定められたデフォルトの文字サイズ(例えば8ポイント)によりメッセージが表示される。
【0045】
図6(c)に示す表示制御ファイル43の1行目は表示制御ファイルの開始を、2行目は表示位置を「左下」に設定する指示を、3行目は「左下」に表示するメッセージのファイル名(member_c.txt)を設定する指示を、文字サイズを12ポイントに設定する指示および文字の表示時間を500msに設定する指示を、4行目は表示する画像データのファイル名(face_c1.jpg)を設定する指示および画像データの表示時間を500msに設定する指示を、5行目は3行目の処理が終了した後に「左下」に表示するメッセージのファイル名(member_c.txt)を設定する指示および文字サイズを24ポイントにする設定する指示を、6行目は4行目の処理が終了した後に表示する画像データのファイル名(face_c2.jpg)を設定する指示を、7行目は表示制御ファイルの終了をそれぞれ表す。
【0046】
次いで、3名のユーザA,B,Cのそれぞれがパソコン1A,1B,1Cを使用してチャットを行う状態を説明する。なお、ここでは上記図6(a)〜(c)に示す表示制御ファイル41,42,43をユーザA,B,Cがそれぞれ用いた例について説明する。
【0047】
図7はチャット時における表示エリア31の表示状態を示す図である。図7(a)に示すように、表示エリア31には3名のユーザA,B,Cのアバタが表示されている。これは予めユーザA,B,Cが選択したものである。そして、ユーザAが、メッセージ入力ボックス32に「今度の日曜どこへ行く?」とメッセージを入力し、プルダウンメニュー34において表示制御ファイル41に対応するファイルの種類を選択して送信ボタン36を押すと、パソコン1Aからパソコン1B,1Cにメッセージを表すテキストデータおよび表示制御ファイル41が送信され、各パソコン1A,1B,1Cにおいて表示制御ファイル41が実行されて、図7(b)に示すようにユーザAのアバタの位置にアバタがしゃべっているかのように「今度の日曜どこへ行く?」とメッセージが表示される。
【0048】
一方、ユーザBがこれに応答してメッセージ入力ボックス32に「暑いから涼しい富士山に涼みに行ってこない?」とメッセージを入力し、プルダウンメニュー34において表示制御ファイル42に対応するファイルの種類を選択して送信ボタン36を押すと、パソコン1Bからパソコン1A,1Cにメッセージを表すテキストデータおよび表示制御ファイル42が送信され、各パソコン1A,1B,1Cにおいて表示制御ファイル42が実行されて、図7(c)に示すようにユーザBのアバタの位置にアバタがしゃべっているかのように「暑いから涼しい富士山に涼みに行ってこない?」とメッセージが1文字ずつ表示される。なお、図7(c)においては、「暑いから涼しい富士」と途中までユーザBが入力したメッセージが表示された状態を示している。
【0049】
また、ユーザCもユーザAのメッセージに応答して、メッセージ入力ボックス32に「海」とメッセージを入力し、画像ドラッグエリア33に図8に示すような画像51A,51Bを表す2つの画像データ(face_c1.jpg,face_c2.jpg)をドラッグし、プルダウンメニュー34または35において表示制御ファイル43に対応するファイルの種類を選択して送信ボタン36を押すと、パソコン1Cからパソコン1A,1Bにメッセージを表すテキストデータ、画像51A,51Bを表す画像データおよび表示制御ファイル43が送信され、各パソコン1A,1B,1Cにおいて表示制御ファイル43が実行されて、図7(d)に示すようにユーザCのアバタの位置にアバタがしゃべっているかのように「海」のメッセージが12ポイントの文字サイズで500ms表示される。また、アバタは画像51Aに変更され、「海」のメッセージと同様に500ms表示される。
【0050】
続いて、図7(e)に示すように、文字サイズが24ポイントに拡大されて「海」のメッセージが表示されるとともに、アバタは画像51Bに変更される。これにより、ユーザCは強く海へ行きたいと望んでいることがわかる。
【0051】
このように、本実施形態においては、メッセージの入力および画像データのドラッグを行うとともに、これらの表示の仕方を定義する表示制御ファイルを選択して、メッセージおよび画像の表示の仕方を制御するようにしたため、チャットを行うユーザは、所望とする表示制御ファイルを選択することにより、自身が入力したメッセージや画像を所望とする表示形態にて表示してチャットを行うことができる。したがって、チャットの臨場感を向上させることができる。
【0052】
また、各パソコン1A,1B,1Cから送信された表示制御ファイルを並列に実行すれば、あたかも通常の会話を行っているかのようにメッセージおよび画像を表示できるため、チャットの臨場感をより向上することができる。
【0053】
なお、上記実施形態においては、パソコン1A,1B,1Cをピアツーピアで通信させることによりチャットを行っているが、図9に示すようにパソコン1A,1B,1Cとチャットを管理する通信サーバ5とをインターネット2を介して接続し、上記実施形態においてパソコン1A,1B,1Cが内包する通信端末装置を通信サーバ5に内包させてチャットを行うようにしてもよい。この場合、通信サーバ5にチャット用プログラムがインストールされて、チャットで表示制御ファイルが実行され、各パソコン1A,1B,1Cに各パソコン1A,1B,1Cのユーザのメッセージや画像が表示されてチャットが行われる。
【0054】
また、上記実施形態においては、チャットを行っているが、本発明をチャット以外にも適用できる。例えば、パソコン1Aから小説の読み上げを行うデータを送信し、表示制御ファイルにより小説をゆっくりと表示するようにし、他のパソコン1B,1Cのユーザは表示される小説を読みながら、リアルタイムでその小説の感想を交換する、というような用途にも適用できる。
【図面の簡単な説明】
【図1】本発明の実施形態による通信端末装置を適用した通信システムの構成を示す概略ブロック図
【図2】本実施形態による通信端末装置の構成を示す概略ブロック図
【図3】チャット用プログラムの構成を模式的に示す図
【図4】チャット用プログラムにより行われる処理を示すフローチャート
【図5】チャット画面を示す図
【図6】表示制御ファイルの記述の例を示す図
【図7】チャット時における表示エリアの表示状態を示す図
【図8】アバタに用いられる画像を示す図
【図9】本発明の他の実施形態による通信端末装置を備えた通信システムの構成を示す概略ブロック図
【符号の説明】
1A,1B,1C パソコン
2 インターネット
3A,3B 通信クライアント
4A 表示クライアント
5 通信サーバ
11 モニタ
12 入力手段
13 パソコン本体
21 通信インターフェース
22 ハードディスク
23 メモリ
24 CPU
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a communication terminal device, a communication server, a communication method, and a program for causing a computer to execute a communication method that provide an environment for exchanging messages in real time for dialogue.
[0002]
[Prior art]
A chat service is provided in which a plurality of users connect their own communication terminal devices such as personal computers via a network such as the Internet and exchange messages in real time between the plurality of communication terminal devices. In such a chat service, a plurality of communication terminal devices share a single virtual space, and a user can transmit a message at an arbitrary timing in the virtual space, that is, can speak, between users of a plurality of communication terminal devices. It is intended to be able to interact with.
[0003]
In such a chat service, there is also provided a chat service in which a user makes a substitute character called an avatar appear in a virtual space and performs a dialogue in real time using the avatar.
[0004]
Further, in such a chat service, in order to improve the realism of conversation, a communication system in which the avatar is moved according to a keyword included in the message based on the personality information of the avatar inputted in advance (see Patent Document 1). In addition, a communication system (see Patent Document 2) is proposed in which an avatar operation corresponding to an input message is retrieved from a correspondence table, and the avatar performs the retrieved operation. In these systems, for example, when a message “Good morning” is input, an avatar performing an operation such as greeting with a hand raised can be displayed.
[0005]
Also, by preparing multiple avatars with different facial expressions and attitudes corresponding to multiple emotion expressions for one type of avatar, and inputting the emotion expression level of the user, the emotion expression avatar corresponding to that level can be A system for displaying is also proposed (see Patent Document 3).
[0006]
[Patent Document 1]
Japanese Patent Application Laid-Open No. 2001-230801
[Patent Document 2]
Japanese Patent Laid-Open No. 2001-307137
[Patent Document 3]
Japanese Patent Laid-Open No. 2002-190034
[Problems to be solved by the invention]
However, in the systems described in Patent Documents 1 and 2, since the avatar's movement is associated with a preset keyword, the avatar performing a greeting with his hand raised is “ When the character string “good morning” is associated, the display of the avatar is not changed by inputting the character string “good morning” or “oh good”. In this case, it is enough to associate the character strings “Ohayo” or “Ohha” with the action of greeting by raising your hand, but since there are various ways of greeting in actual chat, Even if it is a character string that greets the same, the display of the avatar cannot be changed unless the character string is associated with the gesture of raising the hand. Further, even in the system described in Patent Document 3, the expression and movement of the avatar are limited to those prepared in advance. For this reason, there is a case where the avatar is not changed to the avatar desired by the user during the chat, and as a result, there is a problem that the realism of the chat is impaired.
[0010]
The present invention has been made in view of the above circumstances, and it is an object of the present invention to further improve the realistic sensation of a dialog when performing a dialog in real time via a network like a chat.
[0011]
[Means for Solving the Problems]
A communication terminal apparatus according to the present invention is connected to a network and provides an environment for performing a real-time conversation with at least one other communication terminal apparatus connected to the network.
Input means for receiving input of character strings and / or images for the dialogue;
Display that defines how to display the character string and / or the image data input from the input means from a plurality of previously created display control files that define how to display the character string and / or the image A selection means for accepting control file selection;
Storage means for storing text data representing the character string and / or image data representing the image together with the selected display control file;
Transmitting means for transmitting the text data and / or the image data and the selected display control file to the other communication terminal device;
Receiving means for receiving at least one other text data and / or other image data and another display control file transmitted from the other communication terminal device;
A display control file that controls and displays a character string represented by the other text data and / or an image represented by the other image data based on the other display control file, and that is stored in the storage unit And a display control means for controlling and displaying the character string represented by the text data stored in the storage means and / or the image represented by the image data.
[0012]
The “display control file” may be common for character strings and images, or may be separate for character strings and images.
[0013]
In the communication terminal device according to the present invention, the display control means performs display control processing of the other text data and / or the other image data, and display of the stored text data and / or the image data. It may be a means for performing control processing in parallel.
[0014]
A communication server according to the present invention is connected to a plurality of communication terminal devices via a network, and provides a communication environment in real time for the plurality of communication terminal devices.
The text data representing the character string for the dialogue and / or the image data representing the image for the dialogue and the way of displaying the character string and / or the image transmitted from each of the plurality of communication terminal devices Receiving means for receiving a display control file defining
Display control means for performing display control of the text data and / or the image data transmitted from each of the plurality of communication terminal devices based on the display control file transmitted from each of the plurality of communication terminal devices; ,
And transmitting means for transmitting the text data and / or the image data subjected to the display control to all of the plurality of communication terminal devices.
[0015]
In the communication server according to the present invention, the display control means may be means for performing parallel display control processing of the text data and / or the image data transmitted from each of the plurality of communication terminal devices. .
[0016]
The communication method according to the present invention is a communication method in a communication terminal device that provides an environment for real-time interaction with at least one other communication terminal device connected to a network.
Accepts input of character strings and / or images for the dialogue;
Selection of a display control file that defines how to display the input character string and / or the image from a plurality of previously created display control files that define how to display the character string and / or the image Accept
Storing text data representing the character string and / or image data representing the image together with the selected display control file;
Transmitting the text data and / or the image data and the selected display control file to the other communication terminal device;
Receiving at least one other text data and / or other image data and another display control file transmitted from the other communication terminal device;
Based on the stored display control file, the character string represented by the other text data and / or the image represented by the other image data are displayed while being controlled based on the other display control file. The character string represented by the stored text data and / or the image represented by the image data are displayed while being controlled.
[0017]
In the communication method according to the present invention, the display control process for the other text data and / or the other image data and the display control process for the stored image data and / or the image data are performed in parallel. You may make it perform.
[0018]
In addition, you may provide as a program for making a computer perform the communication method by this invention.
[0019]
【The invention's effect】
According to the communication terminal device, the communication method, and the program of the present invention, a character string and / or image input for interaction is accepted, and a character string and / or an image display method is defined in advance. Selection of a display control file that defines how to display an input character string and / or image is accepted from a plurality of display control files. Text data representing a character string and / or image data representing an image and a display control file are stored. On the other hand, other text data and / or other image data and other display control files transmitted from other communication terminal devices are received. Then, based on the received other display control file, the character string represented by the other text data and / or the image represented by the other image data are displayed while being controlled, and are stored in the stored display control file. Based on this, the character string represented by the stored text data and / or the image represented by the image data are displayed while being controlled.
[0020]
Further, according to the communication server of the present invention, the text data and / or image data and the display control file transmitted from each of the plurality of communication terminal devices connected to the communication server via the network are received, and the received display is received. Display control of text data and / or image data is performed based on the control file, and the text data and / or image data subjected to display control is transmitted to all of the plurality of communication terminal devices. In each of the plurality of communication terminal devices, a character string represented by text data transmitted from all communication terminal devices connected to the communication server, including text data and / or image data transmitted by itself, and / or Alternatively, the image represented by the image data is displayed under display control.
[0021]
For this reason, the user of the communication terminal device can chat by displaying the character string and / or image input by the user in the desired display manner by selecting the desired display control file. . Therefore, the presence of chat can be improved.
[0022]
Further, if display control processing of all text data and / or all image data is performed in parallel, a character string and / or an image represented by the text data as if a normal conversation is being performed. Since the image represented by the data can be displayed, the realism of chat can be further improved.
[0023]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic block diagram showing a configuration of a communication system to which a communication terminal apparatus according to an embodiment of the present invention is applied. As shown in FIG. 1, the communication system according to the present embodiment includes a plurality of (in this embodiment, three) personal computers 1A, 1B, and 1C connected via the Internet 2 and communicating with each personal computer 1A by peer-to-peer communication. , 1B, 1C users chat in real time.
[0024]
Each of the personal computers 1A, 1B, and 1C includes a monitor 11 that performs various displays, an input unit 12 including a keyboard and a mouse, and a personal computer main body 13. The personal computer main body 13 includes the communication terminal device according to the present embodiment.
[0025]
FIG. 2 is a schematic block diagram showing the configuration of the communication terminal apparatus according to the present embodiment. As shown in FIG. 2, the communication terminal device according to the present embodiment is connected to a network and communicates with a communication interface 21 that transmits and receives text data representing a character string of a message and image data representing an image, and various programs such as a chat program. A hard disk 22 that stores data, a memory 23 that is a work area, and a CPU 24 that executes processing based on a chat program are connected by a bus 25. Note that the monitor 11 and the input means 12 are connected to the bus 25.
[0026]
FIG. 3 is a diagram schematically showing the configuration of the chat program. Here, in order to simplify the description, processing of a program between two personal computers will be described. The chat program includes a transmission client 3A and a display client 4A. The transmission client 3A accepts input of a message, input of an image to be displayed, and selection of a display control file that defines how to display the message and the image, and the input message is displayed as display data X, and the input image is displayed as display data Y. The selected display control file is transmitted as control data C to all connected personal computers. The display data X and Y and the control data C are also transmitted to its own display client 4A.
[0027]
In the display control file, a description defining how to display a message and how to display an image is made.
[0028]
Examples of how to display a message include the position on the screen where the message is displayed, the color of the character used in the message, the display speed of the character, the size of the character, and the number of times of display. If the character size and color are not defined in the display control file, a message is displayed with characters having a predetermined default size and color.
[0029]
Examples of how to display an image include the position on the screen where the image is displayed, the type of image data used for display, the display time, the display size, and the number of times of display.
[0030]
The timing defines the speed at which a message is displayed (for example, message characters are displayed every 300 ms, or displayed at once), the time for displaying each image when a plurality of images are displayed, and the like.
[0031]
The display client 4A receives the display data X, Y and control data C transmitted from its own input client 3A and the display data X ', Y' and control data C 'transmitted from the input client 3B of another personal computer, and displays them. Data X and Y and display data X ′ and Y ′ are temporarily stored in temporary T and T ′. The control data C and C ′ are loaded into the content manager M.
[0032]
The control data C loaded in the content manager M is interpreted and executed under the multitask management N in cooperation with the control data C ′. At this time, display data X and Y and display data X ′ and Y ′ are loaded from temporary T and T ′ as necessary. The execution result of the control data C and C ′ is output to the display area D and displayed on the monitor 11.
[0033]
Next, processing performed by such a chat program will be described. FIG. 4 is a flowchart showing processing performed by the chat program. The transmission client 3A only performs processing for transmitting the display data X, Y and control data C respectively corresponding to the message and image data input by the user and the selected display control file. Data reception processing, temporary T processing, multitask management N processing, and display area D processing will be described.
[0034]
First, in the data reception process, it is determined whether or not display data X, Y, X ′, Y ′ has arrived (step S1). If step S1 is affirmed, the control data C, C ′ are not transmitted. Considering the case, it is determined whether or not the control data C, C ′ arrives simultaneously with the display data X, Y, X ′, Y ′ (step S2). Subsequent to step S2, the display data X, Y, X ', Y' received by the temporary T is temporarily stored (step S3). Following the processing in steps S1, S2, and S3, the multitask management N starts parallel processing (step S4). This parallel processing is processing in which processing for displaying messages and images is performed in parallel for the number of connected personal computers for chatting.
[0035]
In the parallel processing, it is first determined whether or not a screen update is necessary (step S5). If step S5 is affirmed, the display data X and Y temporarily stored in the temporary T are read (step S6). If the control data C is received, a process for controlling the display of the display data X and Y is performed (step S7), and output to the display area D to update the screen (step S8). If control data C has not arrived, the screen is updated by performing a process for controlling the display so that the display data X and Y are directly output to the display area D in step S7.
[0036]
The processes in steps S5 to SS8 are performed in parallel for the number of connected personal computers (step S9), and the process returns to step S1.
[0037]
Next, specific examples in the present embodiment will be described. During the chat, a chat screen is displayed on the monitor 11 of the personal computers 1A, 1B, 1C. FIG. 5 is a diagram showing a chat screen. As shown in FIG. 5, the chat screen 30 includes a display area 31 for displaying characters and images, a message input box 32 for inputting a message, an image drag area 33 for dragging an image to be displayed, and a display control file for the message. A pull-down menu 34 for selecting the image, a pull-down menu 35 for selecting a display control file for the image, and a transmission button 36.
[0038]
The display area 31 displays messages and images for which display control has been performed.
[0039]
The message input box 32 displays a message that the user of the personal computer 1A, 1B, 1C inputs from the input means 12 and transmits.
[0040]
The image drag area 33 is an area where the user of the personal computers 1A, 1B, and 1C drags image data that the user wants to display in the display area 31, and an image represented by the image data that is dragged and transmitted here is displayed in the display area 31. Is displayed. As the image data, data representing an image desired by the user stored in the personal computers 1A, 1B, and 1C can be used. The dragged image data is sequentially displayed in the image drag area 33.
[0041]
The pull-down menus 34 and 35 display display control file types (for example, file 1, file 2...) That define how to display messages and image data.
[0042]
FIG. 6 is a diagram illustrating an example of the description of the display control file. The first line of the display control file 41 shown in FIG. 6A is a message that displays the start of the display control file, the second line is an instruction to set the display position to “upper left”, and the third line is a message that displays “upper left”. An instruction for setting the file name (member_a.txt) is shown, and the fourth line represents the end of the display control file. For example, the content of the message is “Where are you going this Sunday?”, And the character_member. If the file name txt is given, the message “Where are you going on this Sunday?” is displayed at the top left of the display area 31 by executing the display control file 41 at a time. The file name of the message is automatically assigned by the transmission client 3A according to the personal computers 1A, 1B, and 1C to be transmitted.
[0043]
The first line of the display control file 42 shown in FIG. 6B displays the start of the display control file, the second line displays an instruction to set the display position to “lower right”, and the third line displays “lower right”. An instruction to set the file name (member_b.txt) of the message to be sent and an instruction to set the character display speed to 300 ms per character, and the fourth line represents the end of the display control file. For example, the content of the message is “Why don't you go to cool Mt. Fuji because it is hot?”, And the character string contains “member_b. If the file name txt is given, the display control file 42 is executed, and a message “Wouldn't you go to cool Mt. Fuji from the hot?” is displayed one character at a time in the lower right of the display area 31.
[0044]
In the display control files 41 and 42, the character size of the message is not defined. In such a case, the message is displayed with a predetermined default character size (for example, 8 points).
[0045]
The first line of the display control file 43 shown in FIG. 6C is a message for displaying the start of the display control file, the second line is an instruction for setting the display position to “lower left”, and the third line is a message for displaying “lower left”. For the file name (member_c.txt), an instruction for setting the character size to 12 points, and an instruction for setting the character display time to 500 ms. The fourth line is the file name (face_c1.face) of the image data to be displayed. jpg) and an instruction to set the display time of the image data to 500 ms, the fifth line sets the file name (member_c.txt) of the message to be displayed in the “lower left” after the processing of the third line is completed And the setting for setting the character size to 24 points, the sixth line is the file name of the image data to be displayed after the processing of the fourth line is completed ( An instruction for setting the ace_c2.jpg), 7 line respectively represent the end of the display control file.
[0046]
Next, a state where each of the three users A, B, and C performs chat using the personal computers 1A, 1B, and 1C will be described. Here, an example in which the users A, B, and C use the display control files 41, 42, and 43 shown in FIGS. 6A to 6C will be described.
[0047]
FIG. 7 is a diagram showing a display state of the display area 31 during chat. As shown in FIG. 7A, avatars of three users A, B, and C are displayed in the display area 31. This is selected in advance by the users A, B, and C. Then, when the user A inputs a message “Where to go next Sunday?” In the message input box 32, selects a file type corresponding to the display control file 41 in the pull-down menu 34, and presses the send button 36. The text data representing the message and the display control file 41 are transmitted from the personal computer 1A to the personal computers 1B and 1C, and the display control file 41 is executed in each of the personal computers 1A, 1B and 1C, as shown in FIG. The message “Where are you going next Sunday?” Is displayed as if the avatar was speaking at the position of A's avatar.
[0048]
On the other hand, in response to this, the user B inputs a message “Do you not go to cool Mt. Fuji from the heat?” In the message input box 32 and selects the file type corresponding to the display control file 42 in the pull-down menu 34. When the transmission button 36 is pressed, text data representing a message and the display control file 42 are transmitted from the personal computer 1B to the personal computers 1A and 1C, and the display control file 42 is executed in each of the personal computers 1A, 1B and 1C. As shown in (c), as if the avatar is speaking at the position of the avatar of the user B, a message “Wouldn't you go to cool Mt. Fuji from the heat?” Is displayed character by character. FIG. 7C shows a state in which a message inputted by the user B halfway through is displayed as “Hot to cool Fuji”.
[0049]
In response to user A's message, user C also inputs the message “sea” in the message input box 32, and the image drag area 33 displays two image data (images 51A and 51B as shown in FIG. (face_c1.jpg, face_c2.jpg), dragging the file type corresponding to the display control file 43 in the pull-down menu 34 or 35 and pressing the send button 36 displays the message from the personal computer 1C to the personal computers 1A and 1B. The text data, the image data representing the images 51A and 51B, and the display control file 43 are transmitted, and the display control file 43 is executed in each of the personal computers 1A, 1B, and 1C. As shown in FIG. Messe of "the sea" as if the avatar is speaking in the position of Di is 500ms displayed by the character size of 12 points. In addition, the avatar is changed to the image 51A and is displayed for 500 ms in the same manner as the “sea” message.
[0050]
Subsequently, as shown in FIG. 7E, the character size is enlarged to 24 points, the message “Sea” is displayed, and the avatar is changed to an image 51B. Thereby, it can be seen that the user C strongly desires to go to the sea.
[0051]
As described above, in this embodiment, the message is input and the image data is dragged, and the display control file that defines the display method is selected to control the display method of the message and the image. Therefore, a user who performs chat can select a desired display control file to display a message or image input by the user in a desired display form and perform chat. Therefore, the presence of chat can be improved.
[0052]
In addition, if the display control files transmitted from the personal computers 1A, 1B, and 1C are executed in parallel, messages and images can be displayed as if a normal conversation is being performed, thereby further improving the realism of chatting. be able to.
[0053]
In the above embodiment, the chat is performed by communicating the personal computers 1A, 1B, and 1C by peer-to-peer. However, as shown in FIG. 9, the personal computers 1A, 1B, and 1C and the communication server 5 that manages the chat are provided. It is also possible to connect via the Internet 2 and to chat with the communication terminal device included in the personal computers 1A, 1B, and 1C in the above embodiment. In this case, the chat program is installed in the communication server 5, the display control file is executed by chat, and the messages and images of the users of the personal computers 1A, 1B, and 1C are displayed on the personal computers 1A, 1B, and 1C. Is done.
[0054]
Moreover, in the said embodiment, although chatting is performed, this invention can be applied besides chat. For example, data for reading a novel is transmitted from the personal computer 1A, and the novel is slowly displayed by the display control file. The users of the other personal computers 1B and 1C read the novel displayed in real time while reading the novel. It can also be applied to applications such as exchanging impressions.
[Brief description of the drawings]
FIG. 1 is a schematic block diagram showing a configuration of a communication system to which a communication terminal apparatus according to an embodiment of the present invention is applied. FIG. 2 is a schematic block diagram showing a configuration of a communication terminal apparatus according to the embodiment. FIG. 4 is a flowchart showing processing performed by the chat program. FIG. 5 is a chat screen. FIG. 6 is an example of display control file description. FIG. 8 is a diagram showing a display state of a display area at the time. FIG. 8 is a diagram showing an image used for an avatar. FIG. 9 is a schematic block diagram showing a configuration of a communication system including a communication terminal device according to another embodiment of the present invention. Explanation of symbols]
1A, 1B, 1C Personal computer 2 Internet 3A, 3B Communication client 4A Display client 5 Communication server 11 Monitor 12 Input means 13 Personal computer body 21 Communication interface 22 Hard disk 23 Memory 24 CPU

Claims (8)

ネットワークに接続され、該ネットワークに接続された少なくとも1つの他の通信端末装置との間でリアルタイムで対話を行う環境を提供する通信端末装置において、
前記対話のための文字列および/または画像の入力を受け付ける入力手段と、
前記文字列および/または前記画像の表示の仕方を定義する、予め作成された複数の表示制御ファイルから、前記入力手段から入力した前記文字列および/または前記画像データの表示の仕方を定義する表示制御ファイルの選択を受け付ける選択手段と、
前記文字列を表すテキストデータおよび/または前記画像を表す画像データを、前記選択された表示制御ファイルとともに記憶する記憶手段と、
前記テキストデータおよび/または前記画像データ並びに前記選択された表示制御ファイルを前記他の通信端末装置に送信する送信手段と、
前記他の通信端末装置から送信された少なくとも1つの他のテキストデータおよび/または他の画像データ並びに他の表示制御ファイルを受信する受信手段と、
前記他の表示制御ファイルに基づいて前記他のテキストデータにより表される文字列および/または前記他の画像データにより表される画像を制御しつつ表示するとともに、前記記憶手段に記憶した表示制御ファイルに基づいて該記憶手段に記憶したテキストデータにより表される文字列および/または前記画像データにより表される画像を制御しつつ表示する表示制御手段とを備えたことを特徴とする通信端末装置。
In a communication terminal device connected to a network and providing an environment for performing real-time dialogue with at least one other communication terminal device connected to the network,
Input means for receiving input of character strings and / or images for the dialogue;
Display that defines how to display the character string and / or the image data input from the input means from a plurality of previously created display control files that define how to display the character string and / or the image A selection means for accepting control file selection;
Storage means for storing text data representing the character string and / or image data representing the image together with the selected display control file;
Transmitting means for transmitting the text data and / or the image data and the selected display control file to the other communication terminal device;
Receiving means for receiving at least one other text data and / or other image data and another display control file transmitted from the other communication terminal device;
A display control file that controls and displays a character string represented by the other text data and / or an image represented by the other image data based on the other display control file, and that is stored in the storage unit And a display control means for controlling and displaying the character string represented by the text data stored in the storage means and / or the image represented by the image data.
前記表示制御手段は、前記他のテキストデータおよび/または前記他の画像データの表示制御の処理と、前記記憶したテキストデータおよび/または前記画像データの表示制御の処理とを並列に行う手段であることを特徴とする請求項1記載の通信端末装置。The display control means is means for performing the display control processing of the other text data and / or the other image data and the display control processing of the stored text data and / or the image data in parallel. The communication terminal device according to claim 1. 複数の通信端末装置とネットワークを介して接続され、該複数の通信端末装置にリアルタイムで対話を行う環境を提供する通信サーバにおいて、
前記複数の通信端末装置のそれぞれから送信された、前記対話のための文字列を表すテキストデータおよび/または前記対話のための画像を表す画像データ並びに前記文字列および/または前記画像の表示の仕方を定義する表示制御ファイルを受信する受信手段と、
前記複数の通信端末装置のそれぞれから送信された前記表示制御ファイルに基づいて、前記複数の通信端末装置のそれぞれから送信された前記テキストデータおよび/または前記画像データの表示制御を行う表示制御手段と、
該表示制御がなされた前記テキストデータおよび/または前記画像データを前記複数の通信端末装置の全てに送信する送信手段とを備えたことを特徴とする通信サーバ。
In a communication server that is connected to a plurality of communication terminal devices via a network and provides an environment for performing a real-time dialogue with the plurality of communication terminal devices,
The text data representing the character string for the dialogue and / or the image data representing the image for the dialogue and the way of displaying the character string and / or the image transmitted from each of the plurality of communication terminal devices Receiving means for receiving a display control file defining
Display control means for performing display control of the text data and / or the image data transmitted from each of the plurality of communication terminal devices based on the display control file transmitted from each of the plurality of communication terminal devices; ,
A communication server comprising: transmission means for transmitting the text data and / or the image data subjected to the display control to all of the plurality of communication terminal devices.
前記表示制御手段は、前記複数の通信端末装置のそれぞれから送信された前記テキストデータおよび/または前記画像データの表示制御の処理を並列に行う手段であることを特徴とする請求項3記載の通信サーバ。4. The communication according to claim 3, wherein the display control means is means for performing parallel display control processing of the text data and / or the image data transmitted from each of the plurality of communication terminal devices. server. ネットワークに接続され、該ネットワークに接続された少なくとも1つの他の通信端末装置との間でリアルタイムで対話を行う環境を提供する通信端末装置における通信方法において、
前記対話のための文字列および/または画像の入力を受け付け、
前記文字列および/または前記画像の表示の仕方を定義する、予め作成された複数の表示制御ファイルから、入力された前記文字列および/または前記画像の表示の仕方を定義する表示制御ファイルの選択を受け付け、
前記文字列を表すテキストデータおよび/または前記画像を表す画像データを、前記選択された表示制御ファイルとともに記憶し、
前記テキストデータおよび/または前記画像データ並びに前記選択された表示制御ファイルを前記他の通信端末装置に送信し、
前記他の通信端末装置から送信された少なくとも1つの他のテキストデータおよび/または他の画像データ並びに他の表示制御ファイルを受信し、
前記他の表示制御ファイルに基づいて前記他のテキストデータにより表される文字列および/または前記他の画像データにより表される画像を制御しつつ表示するとともに、前記記憶した表示制御ファイルに基づいて前記記憶したテキストデータにより表される文字列および/または前記画像データにより表される画像を制御しつつ表示することを特徴とする通信方法。
In a communication method in a communication terminal device connected to a network and providing an environment for performing a real-time dialogue with at least one other communication terminal device connected to the network,
Accepts input of character strings and / or images for the dialogue;
Selection of a display control file that defines how to display the input character string and / or the image from a plurality of previously created display control files that define how to display the character string and / or the image Accept
Storing text data representing the character string and / or image data representing the image together with the selected display control file;
Transmitting the text data and / or the image data and the selected display control file to the other communication terminal device;
Receiving at least one other text data and / or other image data and another display control file transmitted from the other communication terminal device;
Based on the stored display control file, the character string represented by the other text data and / or the image represented by the other image data are displayed while being controlled based on the other display control file. A communication method comprising: controlling and displaying a character string represented by the stored text data and / or an image represented by the image data.
前記他のテキストデータおよび/または前記他の画像データの表示制御の処理と、前記記憶した画像データおよび/または前記画像データの表示制御の処理とを並列に行うことを特徴とする請求項5記載の通信方法。6. The display control process for the other text data and / or the other image data and the display control process for the stored image data and / or the image data are performed in parallel. Communication method. ネットワークに接続され、該ネットワークに接続された少なくとも1つの他の通信端末装置との間でリアルタイムで対話を行う環境を提供する通信端末装置における通信方法をコンピュータに実行させるためのプログラムにおいて、
前記対話のための文字列および/または画像の入力を受け付ける手順と、
前記文字列および/または前記画像の表示の仕方を定義する、予め作成された複数の表示制御ファイルから、入力された前記文字列および/または前記画像の表示の仕方を定義する表示制御ファイルの選択を受け付ける手順と、
前記文字列を表すテキストデータおよび/または前記画像を表す画像データを、前記選択された表示制御ファイルとともに記憶する手順と、
前記テキストデータおよび/または前記画像データ並びに前記選択された表示制御ファイルを前記他の通信端末装置に送信する手順と、
前記他の通信端末装置から送信された少なくとも1つの他のテキストデータおよび/または他の画像データ並びに他の表示制御ファイルを受信する手順と、
前記他の表示制御ファイルに基づいて前記他のテキストデータにより表される文字列および/または前記他の画像データにより表される画像を制御しつつ表示するとともに、前記記憶した表示制御ファイルに基づいて前記記憶したテキストデータにより表される文字列および/または前記画像データにより表される画像を制御しつつ表示する手順とを有することを特徴とするプログラム。
In a program for causing a computer to execute a communication method in a communication terminal device that is connected to a network and provides an environment for performing real-time dialogue with at least one other communication terminal device connected to the network,
A procedure for receiving input of a character string and / or an image for the dialogue;
Selection of a display control file that defines how to display the input character string and / or the image from a plurality of previously created display control files that define how to display the character string and / or the image The procedure to accept
Storing text data representing the character string and / or image data representing the image together with the selected display control file;
Transmitting the text data and / or the image data and the selected display control file to the other communication terminal device;
Receiving at least one other text data and / or other image data and another display control file transmitted from the other communication terminal device;
Based on the stored display control file, the character string represented by the other text data and / or the image represented by the other image data are displayed while being controlled based on the other display control file. A program comprising: a character string represented by the stored text data and / or a procedure for displaying an image represented by the image data while controlling the character string.
前記表示する手順は、前記他のテキストデータおよび/または前記他の画像データの表示制御の処理と、前記記憶した画像データおよび/または前記画像データの表示制御の処理とを並列に行う手順であることを特徴とする請求項7記載のプログラム。The displaying procedure is a procedure of performing the display control processing of the other text data and / or the other image data and the display control processing of the stored image data and / or the image data in parallel. The program according to claim 7, wherein:
JP2002359410A 2002-12-11 2002-12-11 Communication terminal device, communication server, communication method and program Pending JP2004192331A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002359410A JP2004192331A (en) 2002-12-11 2002-12-11 Communication terminal device, communication server, communication method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002359410A JP2004192331A (en) 2002-12-11 2002-12-11 Communication terminal device, communication server, communication method and program

Publications (1)

Publication Number Publication Date
JP2004192331A true JP2004192331A (en) 2004-07-08

Family

ID=32758814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002359410A Pending JP2004192331A (en) 2002-12-11 2002-12-11 Communication terminal device, communication server, communication method and program

Country Status (1)

Country Link
JP (1) JP2004192331A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015133130A (en) * 2005-06-30 2015-07-23 マイクロソフト コーポレーション Safe and secure instant messaging

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015133130A (en) * 2005-06-30 2015-07-23 マイクロソフト コーポレーション Safe and secure instant messaging

Similar Documents

Publication Publication Date Title
US5880731A (en) Use of avatars with automatic gesturing and bounded interaction in on-line chat session
US7343561B1 (en) Method and apparatus for message display
JP4555818B2 (en) Window including computer device and control system thereof
JP5419654B2 (en) Information processing apparatus and information processing system
CN107037959B (en) Modifying conversation windows
KR100841590B1 (en) Chat system, communication device, control method thereof and computer-readable information storage medium
CN109885367B (en) Interactive chat implementation method, device, terminal and storage medium
CN106533915B (en) Topic dissemination method, client and server
CN110941207B (en) Control device, control method, control system, and computer-readable recording medium
JPH1040295A (en) Communication equipment
JP2005505847A (en) Rich communication via the Internet
JP2001312478A (en) Owner identifying method, computer, system, and computer-readable recording medium for collaboration object
JP2003141049A (en) Web site for displaying image simultaneously with interactive chatting
CN106339947A (en) Method and device for performing business operation and acquiring group member information based on chat group
JP3840195B2 (en) Drawing apparatus and control method thereof
WO2022048677A1 (en) Vr application design method and system based on cloud mobile phone
JP4854424B2 (en) Chat system, communication apparatus, control method thereof, and program
JP7167582B2 (en) Information processing system, method and program
JP2010044511A (en) Information processing method, information processor, and program
CN114432692A (en) VR control method and device for cloud game
JP2009009455A (en) Service cooperation support system
CN104335190A (en) Content delivery system, content delivery device, and content delivery method
JP2004192331A (en) Communication terminal device, communication server, communication method and program
US20160210766A1 (en) Method for displaying text and graph message
JP6666606B2 (en) Message transmitting / receiving system and message transmitting / receiving method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050209

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070731

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071120