JP2006338685A - Chat system, communication equipment, its control method, and program - Google Patents

Chat system, communication equipment, its control method, and program Download PDF

Info

Publication number
JP2006338685A
JP2006338685A JP2006210866A JP2006210866A JP2006338685A JP 2006338685 A JP2006338685 A JP 2006338685A JP 2006210866 A JP2006210866 A JP 2006210866A JP 2006210866 A JP2006210866 A JP 2006210866A JP 2006338685 A JP2006338685 A JP 2006338685A
Authority
JP
Japan
Prior art keywords
emotion
message
character string
message character
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006210866A
Other languages
Japanese (ja)
Other versions
JP4854424B2 (en
JP2006338685A5 (en
Inventor
Hideaki Sato
秀明 佐藤
Mikio Saito
幹雄 齋藤
Takao Yamagishi
隆郎 山岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2006210866A priority Critical patent/JP4854424B2/en
Publication of JP2006338685A publication Critical patent/JP2006338685A/en
Publication of JP2006338685A5 publication Critical patent/JP2006338685A5/ja
Application granted granted Critical
Publication of JP4854424B2 publication Critical patent/JP4854424B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a chat system capable of deciding change of feelings of a message transmitter by a simple structure and outputting it on the receiving side. <P>SOLUTION: In the chat system constituted by including a plurality of devices, where message character strings are inputted in each device, the message character strings are transmitted to the other device, the message character strings are received and outputted in the other device, the system includes: a means for determining a feeling level according to elapsed time from input timing of a certain message character string till input timing of another message character string; and a means for outputting at least one of an image or sound corresponding to the feeling level to be determined in the other device. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明はチャットシステム、チャットシステムに用いる通信装置、通信装置の制御方法及びプログラムに関し、特にユーザの感情を表す画像等を出力するシステムに関する。   The present invention relates to a chat system, a communication device used in the chat system, a communication device control method, and a program, and more particularly to a system that outputs an image or the like representing a user's emotion.

チャットシステムにおいては、メッセージ送信者の感情を相手方に伝達するために感情の内容を示す情報を入力させ、それをメッセージとともに、或いはメッセージとは別に送信して、受信側において、その情報に応じて感情の内容を示す画像、例えばメッセージ送信者が入力した情報に応じた表情のアバター(分身)画像を表示させるものがあった。こうしたシステムによれば、メッセージ送信者の感情の内容を相手方に伝達することができ、それにより円滑なコミュニケーションを実現することができる。   In the chat system, in order to transmit the message sender's emotion to the other party, the information indicating the content of the emotion is input and transmitted together with the message or separately from the message. There is an image that displays an emotion content, for example, an avatar (another image) image of an expression corresponding to information input by a message sender. According to such a system, the content of the emotion of the message sender can be transmitted to the other party, thereby realizing smooth communication.

しかしながら、上記背景技術に係るシステムでは、メッセージ送信者は感情の内容を示す情報をいちいち入力しなければ、それを相手方に伝達することができず、大変煩わしいものとなっていた。   However, in the system according to the background art described above, unless the message sender inputs information indicating the content of emotions one by one, it cannot be transmitted to the other party, which is very troublesome.

本発明は上記課題に鑑みてなされたものであって、その目的は、メッセージ送信者の感情の変化を簡易な構成で判断し、それを受信側で出力させることができるチャットシステム、チャットシステムに用いる通信装置、通信装置の制御方法及びプログラムを提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to a chat system and a chat system capable of judging a change in emotion of a message sender with a simple configuration and outputting it on the receiving side. To provide a communication device to be used, a communication device control method, and a program.

上記課題を解決するために、本発明に係るチャットシステムは、複数の装置を含んで構成され、各装置においてメッセージ文字列を入力するとともに、他の装置に送信し、該他の装置において前記メッセージ文字列を受信するとともに、出力するチャットシステムにおいて、あるメッセージ文字列の入力タイミングから他のメッセージ文字列の入力タイミングまでの経過時間に応じて感情レベルを決定する手段と、前記他の装置において、決定される前記感情レベルに応じた画像又は音のうち少なくとも一方を出力する手段と、を含むことを特徴とする。   In order to solve the above-described problem, a chat system according to the present invention includes a plurality of devices, and each device inputs a message character string and transmits the message character string to another device. In the chat system that receives and outputs a character string, in the other device, a means for determining an emotion level according to an elapsed time from an input timing of a certain message character string to an input timing of another message character string, And means for outputting at least one of an image or a sound according to the determined emotion level.

本発明によれば、あるメッセージ文字列の入力タイミングから別のメッセージ文字列の入力タイミングまでの経過時間に応じて感情レベルが決定され、それに応じた画像や音が第2装置において出力されるので、メッセージ送信者に負担を掛けることなく、その感情をメッセージ受信者が直感的に把握できるようになる。なお、音は、例えば音声や音楽等である(以下、同様)。   According to the present invention, the emotion level is determined according to the elapsed time from the input timing of one message character string to the input timing of another message character string, and the image and sound corresponding to that are output in the second device. The message receiver can intuitively grasp the emotion without imposing a burden on the message sender. The sound is, for example, voice or music (hereinafter the same).

また、本発明に係るチャットシステムは、第1装置及び第2装置を含むチャットシステムにおいて、前記第1装置は、メッセージ文字列を入力する手段と、感情の種類を示す感情種類データを入力する手段と、入力される前記メッセージ文字列を前記第2装置に送信する手段と、入力される前記感情種類データを前記第2装置に送信する手段と、を含み、前記第2装置は、前記第1装置から前記メッセージ文字列を受信する手段と、前記第1装置から前記感情種類データを受信する手段と、受信される前記メッセージ文字列を出力する手段と、前記第1装置における前記メッセージ文字列の入力タイミングに応じて決定される感情レベルを取得する手段と、受信される前記感情種類データ及び取得される前記感情レベルに応じた画像又は音のうち少なくとも一方を出力する手段と、を含むことを特徴とする。   The chat system according to the present invention is a chat system including a first device and a second device, wherein the first device inputs means for inputting a message character string and means for inputting emotion type data indicating the type of emotion. And means for transmitting the input message character string to the second device, and means for transmitting the emotion type data to be input to the second device, wherein the second device includes the first device Means for receiving the message character string from a device, means for receiving the emotion type data from the first device, means for outputting the received message character string, and the message character string in the first device. Means for acquiring an emotion level determined according to the input timing; and the received emotion type data and the image or sound corresponding to the acquired emotion level. Means for outputting at least one Chi, characterized in that it comprises a.

本発明によれば、第1装置において入力される感情種類データ、及び第1装置におけるメッセージ文字列の入力タイミングに応じて決定される感情レベルに応じた画像や音が第2装置において出力されるので、メッセージ送信者に負担を掛けることなく、その感情をメッセージ受信者に直感的に把握させることができるようになる。   According to the present invention, the second device outputs images and sounds corresponding to the emotion type data input in the first device and the emotion level determined according to the input timing of the message character string in the first device. Therefore, the message receiver can intuitively grasp the emotion without imposing a burden on the message sender.

ここで、「感情種類データ」は、例えば喜怒哀楽等のメッセージ送信者の感情の種類を示すデータである。また、「前記第1装置における前記メッセージ文字列の入力タイミング」は、第1装置においてメッセージ文字列の入力が完了したタイミング、第1装置から第2装置に宛ててメッセージ文字列が送信されるタイミング、第2装置においてメッセージ文字列が受信又は出力されるタイミング、第1装置と第2装置との通信を中継する中継装置においてメッセージ文字列が受信又は送信されるタイミング等、第1装置におけるメッセージ文字列の入力タイミングに対応するあらゆるタイミングを含む。   Here, “emotion type data” is data indicating the type of emotion of the message sender such as emotions. Further, “the input timing of the message character string in the first device” refers to the timing when the input of the message character string is completed in the first device, and the timing when the message character string is transmitted from the first device to the second device. The message character in the first device, such as the timing at which the second device receives or outputs the message character string, the timing at which the message character string is received or transmitted by the relay device that relays communication between the first device and the second device, etc. Includes any timing corresponding to the input timing of the column.

また、本発明に係る通信装置は、チャットシステムに用いられる通信装置であって、メッセージ文字列を入力する手段と、感情の種類を示す感情種類データを入力する手段と、前記メッセージ文字列の入力タイミングに応じて感情レベルを決定する手段と、入力される前記メッセージ文字列を送信する手段と、入力される前記感情種類データを送信する手段と、決定される前記感情レベルを送信する手段と、を含むことを特徴とする。   The communication device according to the present invention is a communication device used in a chat system, wherein the message character string is input, the emotion type data indicating the type of emotion is input, and the message character string is input. Means for determining an emotion level according to timing; means for transmitting the input message character string; means for transmitting the input emotion type data; means for transmitting the determined emotion level; It is characterized by including.

また、本発明に係る方法は、チャットシステムに用いられる通信装置の制御方法であって、メッセージ文字列の入力を受け付けるステップと、感情の種類を示す感情種類データの入力を受け付けるステップと、前記メッセージ文字列の入力タイミングに応じて感情レベルを決定するステップと、入力される前記メッセージ文字列を送信するステップと、入力される前記感情種類データを送信するステップと、決定される前記感情レベルを送信するステップと、を含むことを特徴とする。   The method according to the present invention is a method for controlling a communication device used in a chat system, the step of receiving an input of a message character string, the step of receiving an input of emotion type data indicating the type of emotion, and the message A step of determining an emotion level according to a character string input timing; a step of transmitting the input message character string; a step of transmitting the emotion type data to be input; and transmitting the emotion level to be determined And a step of performing.

また、本発明に係るプログラムは、メッセージ文字列を入力する手段、感情の種類を示す感情種類データを入力する手段、前記メッセージ文字列の入力タイミングに応じて感情レベルを決定する手段、入力される前記メッセージ文字列を送信する手段、入力される前記感情種類データを送信する手段、及び決定される前記感情レベルを送信する手段としてコンピュータを機能させるためのプログラムである。   Further, the program according to the present invention is inputted with means for inputting a message character string, means for inputting emotion type data indicating the type of emotion, means for determining an emotion level according to the input timing of the message character string, A program for causing a computer to function as means for transmitting the message character string, means for transmitting the inputted emotion type data, and means for transmitting the determined emotion level.

本発明によれば、メッセージ文字列の入力・送信側において感情レベルを決定することができる。   According to the present invention, the emotion level can be determined on the message character string input / transmission side.

また、本発明に係る通信装置は、チャットシステムに用いられる通信装置であって、メッセージ文字列を受信する手段と、感情種類データを受信する手段と、受信される前記メッセージ文字列を出力する手段と、前記メッセージ文字列の入力タイミングに応じて感情レベルを決定する手段と、受信される前記感情種類データ及び決定される前記感情レベルに応じた画像又は音のうち少なくとも一方を出力する手段と、を含むことを特徴とする。   Further, the communication device according to the present invention is a communication device used in a chat system, a means for receiving a message character string, a means for receiving emotion type data, and a means for outputting the received message character string. Means for determining an emotion level according to the input timing of the message character string; means for outputting at least one of the received emotion type data and an image or sound according to the determined emotion level; It is characterized by including.

また、本発明に係る方法は、チャットシステムに用いられる通信装置の制御方法であって、メッセージ文字列を受信するステップと、感情種類データを受信するステップと、受信される前記メッセージ文字列を出力するステップと、前記メッセージ文字列の入力タイミングに応じて感情レベルを決定するステップと、受信される前記感情種類データ及び決定される前記感情レベルに応じた画像又は音のうち少なくとも一方を出力するステップと、を含むことを特徴とする。   The method according to the present invention is a method for controlling a communication device used in a chat system, the step of receiving a message character string, the step of receiving emotion type data, and outputting the received message character string. A step of determining an emotion level according to the input timing of the message character string, and a step of outputting at least one of the received emotion type data and an image or sound according to the determined emotion level It is characterized by including these.

また、本発明に係るプログラムは、メッセージ文字列を受信する手段、感情種類データを受信する手段、受信される前記メッセージ文字列を出力する手段、前記メッセージ文字列の入力タイミングに応じて感情レベルを決定する手段、及び受信される前記感情種類データ及び決定される前記感情レベルに応じた画像又は音のうち少なくとも一方を出力する手段としてコンピュータを機能させるためのプログラムである。   The program according to the present invention includes a means for receiving a message character string, a means for receiving emotion type data, a means for outputting the received message character string, and an emotion level according to the input timing of the message character string. A program for causing a computer to function as means for determining, and means for outputting at least one of an image or sound corresponding to the received emotion type data and the determined emotion level.

本発明によれば、メッセージ文字列の受信・出力側において感情レベルを決定することができる。   According to the present invention, the emotion level can be determined on the message character string reception / output side.

本発明の一態様では、前記感情レベルは、前記メッセージ文字列の文字量にさらに応じて決定される。メッセージ文字列の文字量は、例えばメッセージ文字列の文字数自体、或いは特殊漢字等の入力し難い文字について重み付けした文字数等である。この態様によれば、メッセージ文字列を急いで入力したか、或いは逆にゆっくりと入力したか等を適切に評価でき、それに応じて適切な感情レベルを決定することができる。   In one aspect of the present invention, the emotion level is determined further according to the amount of characters in the message character string. The character amount of the message character string is, for example, the number of characters in the message character string, or the number of characters weighted with respect to characters that are difficult to input such as special Kanji characters. According to this aspect, it is possible to appropriately evaluate whether the message character string has been input quickly or conversely, and an appropriate emotion level can be determined accordingly.

また、本発明の一態様では、前記感情レベルは、前記第1装置における前記メッセージ文字列の入力間隔に応じて決定される。こうすれば、メッセージ送信者がメッセージ文字列を次々と入力している場合等に、例えばとても喜んでいる、或いはとても怒っている等と感情レベルを判断することができる。   In the aspect of the invention, the emotion level is determined according to an input interval of the message character string in the first device. In this way, when the message sender is inputting message character strings one after another, the emotion level can be determined as being very happy or very angry, for example.

また、本発明の一態様では、前記第2装置は、メッセージ文字列を入力する手段と、入力されるメッセージ文字列を前記第1装置に送信する手段と、をさらに含み、前記第1装置は、前記第2装置から前記メッセージ文字列を受信する手段と、受信される前記メッセージ文字列を出力する手段と、をさらに含み、前記感情レベルは、前記第2装置におけるメッセージ文字列の入力タイミングと、前記第1装置におけるメッセージ文字列の入力タイミングと、の差に応じて決定される。   In the aspect of the invention, the second device further includes means for inputting a message character string, and means for transmitting the input message character string to the first device, wherein the first device is And means for receiving the message character string from the second device; and means for outputting the received message character string, wherein the emotion level is the input timing of the message character string in the second device; , And the input timing of the message character string in the first device.

「前記第2装置における前記メッセージ文字列の入力タイミング」は、第2装置においてメッセージ文字列の入力が完了したタイミング、第2装置から第1装置に宛ててメッセージ文字列が送信されるタイミング、第1装置においてメッセージ文字列が受信又は出力されるタイミング、第1装置と第2装置との通信を中継する中継装置においてメッセージ文字列が受信又は送信されるタイミング等、第2装置におけるメッセージ文字列の入力タイミングに対応するあらゆるタイミングを含む。   “Input timing of the message character string in the second device” is the timing at which the input of the message character string is completed in the second device, the timing at which the message character string is transmitted from the second device to the first device, The timing of the message character string in the second device, such as the timing of receiving or outputting the message character string in one device, the timing of receiving or transmitting the message character string in the relay device that relays communication between the first device and the second device, etc. Includes any timing corresponding to input timing.

この態様によれば、例えばメッセージ文字列を受信又は出力するタイミング等から、それに応じてメッセージ文字列を入力又は送信するタイミング等までの間が短い場合に、例えばとても喜んでいる、或いはとても怒っている等と感情レベルを判断することができる。   According to this aspect, for example, when the time between the timing of receiving or outputting the message character string and the timing of inputting or transmitting the message character string accordingly is short, for example, the user is very pleased or very angry. Emotion level can be judged as being.

以下、本発明の一実施形態について図面に基づき詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施形態に係るチャットシステムの全体構成を示す図である。同図に示すように、このチャットシステムは、サーバ12とクライアント16A,16Bとを含んで構成されている。サーバ12、クライアント16A,16Bは、いずれもインターネット等のデータ通信ネットワーク14に通信接続されており、相互にデータ通信可能となっている。以下では、特にクライアント16A,16Bを区別する必要の無い場合には、単にクライアント16と記す。   FIG. 1 is a diagram showing an overall configuration of a chat system according to an embodiment of the present invention. As shown in the figure, the chat system includes a server 12 and clients 16A and 16B. The server 12 and the clients 16A and 16B are all connected to a data communication network 14 such as the Internet and can communicate data with each other. Hereinafter, when it is not particularly necessary to distinguish the clients 16A and 16B, they are simply referred to as the client 16.

サーバ12は、プロセッサ、各種記憶装置及びデータ通信装置を中心として構成された公知のサーバコンピュータによって実現されるものであり、クライアント16Aとクライアント16Bで行われるチャットを管理・中継するものである。一方、クライアント16は、モニタ、キーボード等の入力手段、プロセッサ、各種記憶装置及びデータ通信装置を中心として構成された公知のパーソナルコンピュータ或いは公知のコンピュータゲームシステム等の各種コンピュータシステムによって実現されるものであり、各ユーザがチャット(メッセージ文字列の授受による会話)をするのに用いる。   The server 12 is realized by a well-known server computer mainly composed of a processor, various storage devices, and a data communication device, and manages and relays chats performed by the clients 16A and 16B. On the other hand, the client 16 is realized by various computer systems such as a well-known personal computer or a well-known computer game system mainly composed of input means such as a monitor and a keyboard, a processor, various storage devices, and a data communication device. Yes, each user has a chat (conversation by sending and receiving message character strings).

図2は、クライアント16Aのモニタに表示されるチャット画面の一例を示している。クライアント16Bのモニタにも同様のチャット画面が表示される。同図に示すように、このチャット画面には、当該クライアント16Aのユーザ(以下では、「ユーザA」と記す。)に対応する本人情報表示領域20Aと、チャット相手、すなわちクライアント16Bのユーザ(以下では、「ユーザB」と記す。)に対応する相手情報表示領域20Bと、メッセージ文字列を入力するためのメッセージ文字列入力欄26と、感情種類入力欄18と、が設けられている。本人情報表示領域20Aには、ユーザAを表象するアバター画像24Aが表示されている。また、本人情報表示領域20Aの下方には吹き出し画像22Aが表示されており、この吹き出し画像22Aの中にユーザAにより入力されるメッセージ文字列が順次表示されるようになっている。同様に、相手情報表示領域20Bには、ユーザBを表象するアバター画像24Bが表示されている。また、相手情報表示領域20Bの下方には吹き出し画像22Bが表示されており、この吹き出し画像22Bの中にユーザBにより入力されるメッセージ文字列が順次表示されるようになっている。メッセージ文字列入力欄26は、ユーザAがキーボード等の文字入力手段によりメッセージ文字列(相手へのメッセージである文字列)を入力するのに用いる文字列編集領域であり、同欄に表示されたカーソル位置に文字を順に入力することにより、メッセージ文字列を完成させることができるようになっている。そして、リターンキー等の入力完了操作を行うことにより、同欄に表示されたメッセージ文字列をチャット相手であるユーザBに向けて送信できるようになっている。また、感情種類入力欄18には、「喜楽」、「怒」、「哀」の文字が表示されており、所定の感情種類切替操作によっていずれかを選択することで、ユーザAを表象するアバター画像24Aの感情種類を設定入力できるようになっている。これにより、アバター画像24Aの表情を変化させることができる。   FIG. 2 shows an example of a chat screen displayed on the monitor of the client 16A. A similar chat screen is also displayed on the monitor of the client 16B. As shown in the figure, on this chat screen, the personal information display area 20A corresponding to the user of the client 16A (hereinafter referred to as “user A”) and the chat partner, ie, the user of the client 16B (hereinafter referred to as “user A”) Then, a partner information display area 20B corresponding to “User B”), a message character string input field 26 for inputting a message character string, and an emotion type input field 18 are provided. An avatar image 24A representing the user A is displayed in the personal information display area 20A. A balloon image 22A is displayed below the personal information display area 20A, and message character strings input by the user A are sequentially displayed in the balloon image 22A. Similarly, an avatar image 24B representing the user B is displayed in the partner information display area 20B. A balloon image 22B is displayed below the partner information display area 20B, and message character strings input by the user B are sequentially displayed in the balloon image 22B. The message character string input field 26 is a character string editing area used for the user A to input a message character string (a character string that is a message to the other party) using character input means such as a keyboard, and is displayed in the same field. A message character string can be completed by sequentially inputting characters at the cursor position. Then, by performing an input completion operation such as a return key, the message character string displayed in the same column can be transmitted to the user B who is a chat partner. The emotion type input field 18 displays characters “Kiragaku”, “Angry”, “Sorrow”, and an avatar representing the user A by selecting one by a predetermined emotion type switching operation. The emotion type of the image 24A can be set and input. Thereby, the facial expression of the avatar image 24A can be changed.

上述したように、チャット相手が用いるクライアント16Bにも、同図に示したのと同様のチャット画面が表示されており、そこにはアバター画像24Aと同一の画像が、相手情報表示領域に表示されている。また、アバター画像24Bと同一の画像が、本人情報表示領域に表示されている。このため、ユーザAが感情種類入力欄18によりアバター画像24Aの感情種類を設定入力し、アバター画像24Aの表情を変化させると、それに連動してクライアント16Bのチャット画面の相手情報表示領域に表されたアバター画像も、同様の表情変化を見せるようになっている。こうして、文字だけでなく、アバター画像を用いてチャット相手、すなわちユーザBに感情を伝えることができるようになっている。   As described above, the client 16B used by the chat partner also displays a chat screen similar to that shown in the figure, in which the same image as the avatar image 24A is displayed in the partner information display area. ing. The same image as the avatar image 24B is displayed in the personal information display area. For this reason, when the user A sets and inputs the emotion type of the avatar image 24A in the emotion type input field 18 and changes the expression of the avatar image 24A, the user A is displayed in the partner information display area on the chat screen of the client 16B. Avatar images also show similar facial expression changes. In this way, it is possible to convey emotions to the chat partner, that is, the user B using not only characters but also an avatar image.

クライアント16では、特定の操作を行うことにより、チャットログをモニタに表示させることができるようになっている。図3は、このチャットログの一例を示している。同図に示すように、チャットログは、チャット当事者であるユーザA及びユーザBを識別する文字(ここでは「A」又は「B」)と、そのチャット当事者の発言であるメッセージ文字列と、そのメッセージ文字列が表示された時点での当該メッセージ文字列を入力したチャット当事者に対応する感情種類及び感情レベルに対応する画像と、を対応づけて時系列に表示するものである。既に説明したチャット画面では、最新の発言のみが吹き出し画像22A,22Bに表示されるのみであり、過去の発言については表示されないが、同図に示すチャットログを表示させることで、直ちにそれを把握できるようになっている。   The client 16 can display a chat log on a monitor by performing a specific operation. FIG. 3 shows an example of this chat log. As shown in the figure, the chat log includes a character (“A” or “B” in this case) for identifying users A and B who are chat parties, a message character string which is a statement of the chat party, The images corresponding to the emotion type and the emotion level corresponding to the chat party who input the message character string at the time when the message character string is displayed are displayed in time series in association with each other. In the chat screen already explained, only the latest utterance is displayed in the balloon images 22A and 22B, and the past utterance is not displayed. It can be done.

アバター画像24A,24Bは、予めクライアント16の記憶手段に記憶されており、該記憶手段から選択的に読み出されてモニタに表示されるようになっている。図4乃至図6は、クライアント16の記憶手段に記憶されているアバター画像群を示している。図4には、感情種類「喜楽」に対応するアバター画像群が示されている。具体的には、同図(a)には、感情種類「喜楽」及び感情レベル「1」に対応するアバター画像群が示されている。同様に、同図(b)には、感情種類「喜楽」及び感情レベル「2」に対応するアバター画像群が示されており、同図(c)には、感情種類「喜楽」及び感情レベル「3」に対応するアバター画像群が示されており、同図(d)には、感情種類「喜楽」及び感情レベル「4」に対応するアバター画像群が示されている。同図を見て分かるように、同じ感情種類であっても、感情レベルが上昇するにつれて、その感情の強さが増加するようになっており、それに応じてアバター画像の表情が変化するようになっている。   The avatar images 24A and 24B are stored in advance in the storage unit of the client 16, and are selectively read out from the storage unit and displayed on the monitor. 4 to 6 show a group of avatar images stored in the storage unit of the client 16. FIG. 4 shows an avatar image group corresponding to the emotion type “Kiraku”. Specifically, FIG. 9A shows a group of avatar images corresponding to the emotion type “joy” and the emotion level “1”. Similarly, FIG. 5B shows a group of avatar images corresponding to the emotion type “Pleasure” and the emotion level “2”, and FIG. 4C shows the emotion type “Pleasure” and the emotion level. An avatar image group corresponding to “3” is shown, and in FIG. 9D, an avatar image group corresponding to the emotion type “joy” and the emotion level “4” is shown. As you can see in the figure, even if the emotion type is the same, as the emotion level increases, the intensity of the emotion increases, and the expression of the avatar image changes accordingly. It has become.

クライアント16には、同一の感情種類及び同一の感情レベルに対応づけて複数のアバター画像が記憶されているが、これらは異なるキャラクタを示すアバター画像である。すなわち、このチャットシステムでは、例えば「20代男性」、「10代女性」、「40代女性」等を描いた複数のキャラクタが用意されており、各キャラクタに対応づけて、各感情種類及び各感情レベルに対応する画像(アバター画像)が予め作成されている。本実施形態では、予めユーザは自分のアバター画像として使用するキャラクタを指定するようになっており、図2に示すチャット画面においては、こうしてユーザにより指定されたキャラクタの画像が同ユーザのアバター画像として表示されるようになっている。   The client 16 stores a plurality of avatar images in association with the same emotion type and the same emotion level. These are avatar images indicating different characters. That is, in this chat system, for example, a plurality of characters depicting “male in their 20s”, “female in their teens”, “female in their 40s”, etc. are prepared, and each emotion type and each character are associated with each character. An image (avatar image) corresponding to the emotion level is created in advance. In the present embodiment, the user designates a character to be used as his / her avatar image in advance, and in the chat screen shown in FIG. 2, the character image thus designated by the user is used as the user's avatar image. It is displayed.

感情種類「喜楽」の場合と同様に、図5には、感情種類「怒」に対応するアバター画像群が示されている。具体的には、同図(a)には、感情種類「怒」及び感情レベル「1」に対応するアバター画像群が示されている。同様に、同図(b)には、感情種類「怒」及び感情レベル「2」に対応するアバター画像群が示されており、同図(c)には、感情種類「怒」及び感情レベル「3」に対応するアバター画像群が示されており、同図(d)には、感情種類「怒」及び感情レベル「4」に対応するアバター画像群が示されている。また、図6には、感情種類「哀」に対応するアバター画像群が示されている。具体的には、同図(a)には、感情種類「哀」及び感情レベル「1」に対応するアバター画像群が示されている。同様に、同図(b)には、感情種類「哀」及び感情レベル「2」に対応するアバター画像群が示されており、同図(c)には、感情種類「哀」及び感情レベル「3」に対応するアバター画像群が示されており、同図(d)には、感情種類「哀」及び感情レベル「4」に対応するアバター画像群が示されている。   As in the case of the emotion type “Kiraku”, FIG. 5 shows a group of avatar images corresponding to the emotion type “anger”. Specifically, FIG. 5A shows an avatar image group corresponding to the emotion type “anger” and the emotion level “1”. Similarly, FIG. 6B shows an avatar image group corresponding to the emotion type “anger” and the emotion level “2”, and FIG. 10C shows the emotion type “anger” and the emotion level. An avatar image group corresponding to “3” is shown, and FIG. 9D shows an avatar image group corresponding to the emotion type “anger” and the emotion level “4”. FIG. 6 shows an avatar image group corresponding to the emotion type “sorrow”. Specifically, FIG. 9A shows an avatar image group corresponding to the emotion type “sorrow” and the emotion level “1”. Similarly, FIG. 7B shows an avatar image group corresponding to the emotion type “sorrow” and the emotion level “2”, and FIG. An avatar image group corresponding to “3” is shown, and FIG. 9D shows an avatar image group corresponding to the emotion type “sorrow” and the emotion level “4”.

ここで、アバター画像の表情変化について、さらに詳細に説明する。図7は、ユーザA及びユーザBに対応するアバター画像の表情変化を説明する図である。同図の第1列には、メッセージ文字列を送信し、又は感情種類切替操作を行ったユーザを識別する文字(「A」又は「B」)が記されている。また、第2列には、送信したメッセージ文字列の内容、又は感情種類切替操作を行った旨が記されている。第3列には、ユーザAに対応するアバター画像の表情、第4列には、ユーザBに対応するアバター画像の表情が記されている。第3列及び第4列において、例えば「笑」は感情種類「喜楽」を表しており、「怒」は感情種類「怒」を表しており、「1」等の数値は感情レベルを表している。同図では、例えばユーザAによる「こんにちは。」から、ユーザBによる「こんにちは!」までの入力間隔が短いので、感情レベルが上昇し、ユーザBに対応するアバター画像の表情は、「笑1」から「笑2」に変化している。また、ユーザAが「ところで○○で事件があって…。」と入力した後に感情種類切替操作を行うと、ユーザAに対応するアバター画像の表情は「怒1」に変化している。すなわち、本実施形態では、感情種類切替操作を行うと、それに応じて感情レベルが1にリセットされるようになっている。   Here, the expression change of the avatar image will be described in more detail. FIG. 7 is a diagram for explaining facial expression changes of avatar images corresponding to user A and user B. FIG. In the first column of the figure, a character (“A” or “B”) that identifies a user who transmitted a message character string or performed an emotion type switching operation is described. In the second column, the content of the transmitted message character string or the fact that the emotion type switching operation has been performed is described. The expression of the avatar image corresponding to the user A is written in the third column, and the expression of the avatar image corresponding to the user B is written in the fourth column. In the third and fourth columns, for example, “laugh” represents the emotion type “Kuraku”, “anger” represents the emotion type “anger”, and a numerical value such as “1” represents the emotion level. Yes. In the figure, for example, from due to user A, "Hello.", Because due to user B input interval of up to "Hello!" Is short, the emotion level is raised, the facial expression of the avatar image corresponding to the user B, "laughs 1" Has changed to "LOL 2". Further, when the user A performs an emotion type switching operation after inputting “By the way, there is an incident at XX ...”, the expression of the avatar image corresponding to the user A is changed to “anger 1”. That is, in this embodiment, when the emotion type switching operation is performed, the emotion level is reset to 1 accordingly.

以下、本システムの構成・動作について、さらに詳細に説明する   Hereinafter, the configuration and operation of this system will be described in more detail.

図8は、サーバ12の機能的構成を示す図である。同図に示すようにサーバ12は、機能的には通信部30、感情データ管理部32及び感情データ記憶部34を含んでいる。これらの機能ブロックは、サーバ12において所定のプログラムが実行されることにより実現されている。通信部30は、例えば公知のデータ通信カードを含んで構成されており、データ通信ネットワーク14を介したクライアント16とのデータ通信を行うものであり、特にクライアント16Aから送信されるメッセージ文字列を受信し、それをクライアント16Bに転送する。また、クライアント16Bから送信されるメッセージ文字列を受信し、それをクライアント16Aに転送する。このとき、各クライアント16からメッセージ文字列を受信した時刻を、クライアント16におけるメッセージ文字列の入力タイミングとして感情データ管理部32に通知するようにしている。   FIG. 8 is a diagram illustrating a functional configuration of the server 12. As shown in the figure, the server 12 functionally includes a communication unit 30, an emotion data management unit 32, and an emotion data storage unit. These functional blocks are realized by executing predetermined programs in the server 12. The communication unit 30 includes, for example, a known data communication card, and performs data communication with the client 16 via the data communication network 14, and particularly receives a message character string transmitted from the client 16A. And transfer it to the client 16B. Also, the message character string transmitted from the client 16B is received and transferred to the client 16A. At this time, the time when the message character string is received from each client 16 is notified to the emotion data management unit 32 as the input timing of the message character string in the client 16.

また、通信部30は、クライアント16A又は16Bから感情種類データを受信すると、それを感情データ管理部32に渡す。また、感情データ管理部32から、感情データの更新内容を表す感情データ更新要求を受け取り、それをクライアント16Aやクライアント16Bに送信する。なお、感情データは、感情種類データ及び感情レベルのいずれか少なくとも一方を含むデータである。   Further, when the communication unit 30 receives the emotion type data from the client 16A or 16B, it passes it to the emotion data management unit 32. In addition, it receives an emotion data update request representing emotion data update content from the emotion data management unit 32, and transmits it to the client 16A and the client 16B. The emotion data is data including at least one of emotion type data and emotion level.

感情データ管理部32は、感情データ記憶部34に記憶された感情データの管理・配信を行うものである。すなわち、感情データ記憶部34は、ハードディスク記憶装置やRAM等の記憶手段を含んで構成されており、感情データを記憶している。図9は、この感情データ記憶部34に記憶された感情データの一例を示している。同図に示すように、感情データは、チャットを行っている各ユーザを識別する情報と、そのユーザが前回メッセージ文字列を入力した時刻と、現在設定(指定)されている感情種類と、現在の感情レベルとを対応づけてなる。ここでは、ユーザAの現在の感情種類は「喜楽」であり、感情レベルは「2」であること、直前のメッセージ文字列の入力は18時30分25秒に行われたことが記されている。また、ユーザBの現在の感情種類は「怒」であり、感情レベルは「1」であること、直前のメッセージ文字列の入力は18時30分14秒に行われたことが記されている。   The emotion data management unit 32 manages and distributes emotion data stored in the emotion data storage unit 34. That is, the emotion data storage unit 34 includes a storage means such as a hard disk storage device or a RAM, and stores emotion data. FIG. 9 shows an example of emotion data stored in the emotion data storage unit 34. As shown in the figure, emotion data includes information for identifying each user who is chatting, the time when the user previously entered a message string, the emotion type currently set (specified), and the current Corresponding to the emotional level. Here, it is noted that the current emotion type of user A is “Karak”, the emotion level is “2”, and that the previous message string was input at 18:30:25. Yes. In addition, it is described that the current emotion type of the user B is “anger”, the emotion level is “1”, and the immediately preceding message character string was input at 18:30:14. .

感情データ管理部32は、まずクライアント16から感情種類データを受信すると、そのクライアント16のユーザに対応づけて感情データ記憶部34に記憶されている感情種類を、その感情種類データが示すものに変更する。このとき、同ユーザに対応づけて感情データ記憶部34に記憶されている感情レベルを1に初期化する。   When emotion data management unit 32 first receives emotion type data from client 16, emotion data management unit 32 changes the emotion type stored in emotion data storage unit 34 in association with the user of client 16 to that indicated by the emotion type data. To do. At this time, the emotion level stored in the emotion data storage unit 34 in association with the user is initialized to 1.

また、クライアント16からメッセージ文字列を受信し、メッセージ文字列の入力タイミングが通信部30から通知されると、その時刻と、同メッセージ文字列を送信したユーザのチャット相手に対応づけて感情データ記憶部34に記憶されている前回入力時刻と、の差を演算する。そして、この差をクライアント16から受信したメッセージ文字列の文字量で除し、単位文字量当たりの時間差を演算する。そして、この単位文字量当たりの時間差が第1の所定値未満であれば、同メッセージ文字列を送信したユーザに対応づけて感情データ記憶部34に記憶されている感情レベルを1だけ上昇させる。なお、感情レベルが既に最大値である場合には同レベル上昇処理を行わない。一方、単位文字量あたりの時間差が前記第1の所定値とは異なる第2の所定値以上であれば、同メッセージ文字列を送信したユーザに対応づけて感情データ記憶部34に記憶されている感情レベルを1だけ下降させる。なお、感情レベルが既に最低値である場合には同レベル下降処理を行わない。以上のようにすれば、チャット相手から入力されるメッセージ文字列に応答して、速やかにそれに応じたメッセージ文字列を入力した場合に、そのユーザの感情レベルを上昇させることができる。また、応答が鈍い場合には、そのユーザの感情レベルを下降させることができる。   When the message character string is received from the client 16 and the input timing of the message character string is notified from the communication unit 30, the emotion data is stored in association with the time and the chat partner of the user who transmitted the message character string. The difference from the previous input time stored in the unit 34 is calculated. Then, the difference is divided by the character amount of the message character string received from the client 16, and the time difference per unit character amount is calculated. If the time difference per unit character amount is less than the first predetermined value, the emotion level stored in the emotion data storage unit 34 is increased by 1 in association with the user who transmitted the message character string. If the emotion level is already the maximum value, the same level increasing process is not performed. On the other hand, if the time difference per unit character amount is equal to or larger than a second predetermined value different from the first predetermined value, it is stored in the emotion data storage unit 34 in association with the user who transmitted the message character string. Decrease the emotion level by 1. If the emotion level is already the lowest value, the level lowering process is not performed. In this way, when a message character string corresponding to a message character string input from a chat partner is promptly input, the user's emotion level can be increased. When the response is dull, the emotion level of the user can be lowered.

その後、通信部から通知があった時刻を、メッセージ文字列の送信者であるユーザに対応づけて感情データ記憶部34に記憶させ、それにより前回入力時刻を更新する。そして、感情データ記憶部34に記憶された感情データの更新内容、すなわち感情種類データ又は感情レベルの少なくとも一方を表す感情データ更新要求を、クライアント16A及びクライアント16Bの両方に対して送信する。   Thereafter, the time notified by the communication unit is stored in the emotion data storage unit 34 in association with the user who is the sender of the message character string, thereby updating the previous input time. Then, the update contents of the emotion data stored in the emotion data storage unit 34, that is, the emotion data update request representing at least one of the emotion type data and the emotion level is transmitted to both the client 16A and the client 16B.

なお、クライアント16からメッセージ文字列を受信し、メッセージ文字列の入力タイミングが通信部30から通知される場合、その時刻と、同メッセージ文字列を送信したユーザに対応づけて感情データ記憶部34に記憶されている前回入力時刻と、の差を演算してもよい。そして、この差をクライアント16から受信したメッセージ文字列の文字量で除し、単位文字量あたりの時間差を演算する。そして、この時間差が第1の所定値未満であれば、メッセージ文字列を送信したユーザに対応づけて感情データ記憶部34に記憶されている感情レベルを1だけ上昇させ、第1の所定値とは異なる第2の所定値以上であれば、同メッセージ文字列を送信したユーザに対応づけて感情データ記憶部34に記憶されている感情レベルを1だけ下降させるようにすればよい。こうすれば、次々とメッセージ文字列を送信するユーザについては、その感情レベルを高くし、逆にメッセージ文字列を送信する間隔の長い場合、或いはメッセージ文字列の入力作業そのものが遅い場合には、ユーザの感情レベルを低くすることができる。   When the message character string is received from the client 16 and the input timing of the message character string is notified from the communication unit 30, the time is associated with the user who transmitted the message character string in the emotion data storage unit 34. You may calculate the difference with the last input time memorize | stored. Then, the difference is divided by the character amount of the message character string received from the client 16, and the time difference per unit character amount is calculated. If this time difference is less than the first predetermined value, the emotion level stored in the emotion data storage unit 34 is increased by 1 in association with the user who transmitted the message character string, and the first predetermined value If it is equal to or greater than a different second predetermined value, the emotion level stored in the emotion data storage unit 34 may be lowered by 1 in association with the user who transmitted the message character string. In this way, for users who send message strings one after another, the emotion level is raised, and conversely, when the interval for sending message strings is long, or when the message string input work itself is slow, The user's emotion level can be lowered.

図10は、クライアント16の機能的構成を示す図である。同図に示すように、クライアント16は、機能的には通信部40、メッセージ入力部42、表示部44、アバター画像記憶部46、感情データ記憶部50及び感情種類入力部48を含んで構成されている。これらの機能は、クライアント16において所定のプログラムが実行されることにより実現されるものである。   FIG. 10 is a diagram illustrating a functional configuration of the client 16. As shown in the figure, the client 16 functionally includes a communication unit 40, a message input unit 42, a display unit 44, an avatar image storage unit 46, an emotion data storage unit 50, and an emotion type input unit 48. ing. These functions are realized by executing a predetermined program in the client 16.

まず、通信部40は、サーバ12から受信するメッセージ文字列を受信して、それを表示部44に供給する。また、サーバ12から感情データを受信する場合に、その内容を感情データ記憶部50の記憶内容に反映させる。また、メッセージ入力部42によりメッセージ文字列が入力されると、そのメッセージ文字列をサーバ12に送信する。また、通信部40には、感情種類入力部48から感情種類データが入力されるようになっており、この感情種類データを受信すると、それをサーバ12に送信する。   First, the communication unit 40 receives a message character string received from the server 12 and supplies it to the display unit 44. Further, when emotion data is received from the server 12, the content is reflected in the content stored in the emotion data storage unit 50. When a message character string is input by the message input unit 42, the message character string is transmitted to the server 12. In addition, emotion type data is input to the communication unit 40 from the emotion type input unit 48, and when this emotion type data is received, it is transmitted to the server 12.

メッセージ入力部42は、特にキーボード等の文字入力手段を含んでおり、チャット画面のメッセージ文字列入力欄26にメッセージ文字列を入力させる。入力されたメッセージ文字列は、表示部44においてチャット画面における吹き出し画像22に合成され、モニタにより表示出力される。   The message input unit 42 includes character input means such as a keyboard in particular, and causes a message character string to be input to the message character string input field 26 on the chat screen. The input message character string is combined with the balloon image 22 on the chat screen on the display unit 44 and displayed on the monitor.

アバター画像記憶部46は、例えばハードディスク記憶装置等を含んで構成されており、図4乃至図6に記載された各種アバター画像が記憶されている。感情データ記憶部50は、チャット当事者である各ユーザに対応づけて、感情種類及び感情レベルを記憶している。このうち、特に当該クライアント16のユーザに対応する感情種類については、感情種類入力部48により設定入力できるようになっている。この場合、感情種類入力欄18の各感情種類を示す文字を選択することにより、その文字に対応する感情種類を、当該クライアント16のユーザに対応づけて感情データ記憶部50に格納することができるようになっている。また、感情データ記憶部50は、通信部40がサーバ12から感情データ更新要求を受信した場合に、その内容に従って更新されるようになっている。   The avatar image storage unit 46 includes, for example, a hard disk storage device, and stores various avatar images described in FIGS. 4 to 6. The emotion data storage unit 50 stores an emotion type and an emotion level in association with each user who is a chat party. Of these, the emotion type corresponding to the user of the client 16 can be set and input by the emotion type input unit 48. In this case, by selecting a character indicating each emotion type in the emotion type input field 18, the emotion type corresponding to the character can be stored in the emotion data storage unit 50 in association with the user of the client 16. It is like that. Moreover, when the communication part 40 receives the emotion data update request from the server 12, the emotion data storage part 50 is updated according to the content.

表示部44では、感情データ記憶部50から各ユーザの感情種類及び感情レベルを読み出し、それに対応するアバター画像をアバター画像記憶部46から読み出すようになっている。このとき、表示部44は予め各ユーザのキャラクタ指定を取得しており、指定されたキャラクタに対応するアバター画像を読み出すようにしている。読み出されたアバター画像は、表示部44により、本人情報表示領域20A及び相手情報表示領域20Bにそれぞれ表示される。   The display unit 44 reads the emotion type and emotion level of each user from the emotion data storage unit 50 and reads the corresponding avatar image from the avatar image storage unit 46. At this time, the display unit 44 acquires the character designation of each user in advance, and reads the avatar image corresponding to the designated character. The read avatar image is displayed on the principal information display area 20A and the partner information display area 20B by the display unit 44, respectively.

ここで、サーバ12の処理についてさらに説明する。図11は、サーバ12による感情データ管理処理を示すフロー図である。同図に示すように、サーバ12では、いずれかのクライアント16からメッセージ文字列を受信するか否かを監視しており(S101)、メッセージ文字列を受信した場合には、図示しない計時手段から現在時刻を取得する(S102)。さらに、感情データ記憶部34から、チャット相手であるユーザに対応する前回入力時刻を読み出し、そこから現在時刻までの経過時間t1を算出する(S103)。そして、この経過時間t1が第1の所定値TA未満であれば、メッセージ文字列の送信者であるユーザに対応づけて感情データ記憶部34に記憶されている感情レベルを、1だけ上昇させるよう更新する(S105)。このとき、既に感情レベルが最大値に達していれば、S105での処理は行わない。一方、経過時間t1が第1の所定値TA以上であれば、S105の処理をスキップする。さらに、経過時間t1が第2の所定値TB(TB>TA)より大きいか否かを判断する(S106)。もし大きければ、メッセージ文字列の送信者であるユーザに対応づけて感情データ記憶部34に記憶されている感情レベルを、1だけ下降させるよう更新する(S107)。このとき、既に感情レベルが最低値に達していれば、S107での処理は行わない。一方、経過時間t1が第2の所定値TB以下であれば、S107の処理をスキップする。   Here, the processing of the server 12 will be further described. FIG. 11 is a flowchart showing emotion data management processing by the server 12. As shown in the figure, the server 12 monitors whether or not a message character string is received from any one of the clients 16 (S101). The current time is acquired (S102). Further, the previous input time corresponding to the chat partner user is read from the emotion data storage unit 34, and the elapsed time t1 from there to the current time is calculated (S103). If the elapsed time t1 is less than the first predetermined value TA, the emotion level stored in the emotion data storage unit 34 is increased by 1 in association with the user who is the sender of the message character string. Update (S105). At this time, if the emotion level has already reached the maximum value, the process in S105 is not performed. On the other hand, if the elapsed time t1 is greater than or equal to the first predetermined value TA, the process of S105 is skipped. Further, it is determined whether or not the elapsed time t1 is greater than a second predetermined value TB (TB> TA) (S106). If so, the emotion level stored in the emotion data storage unit 34 is updated so as to be lowered by 1 in association with the user who is the sender of the message character string (S107). At this time, if the emotion level has already reached the minimum value, the process in S107 is not performed. On the other hand, if the elapsed time t1 is equal to or shorter than the second predetermined value TB, the process of S107 is skipped.

その後、以上のようにして更新した感情レベルを感情データ更新要求として、各クライアント16に送信する(S108)。また、S102で取得した現在時刻を、感情データ記憶部34に、メッセージ文字列の送信者であるユーザに対応づけて記憶させる。こうして、前回入力時刻を更新するようにしている。   Thereafter, the emotion level updated as described above is transmitted to each client 16 as an emotion data update request (S108). Further, the current time acquired in S102 is stored in the emotion data storage unit 34 in association with the user who is the sender of the message character string. Thus, the previous input time is updated.

以上説明したチャットシステムによれば、メッセージ文字列の入力タイミングに応じてアバター画像の表情が自動的に変化するので、アバター画像の表情を変化させるための特別の入力を必要とせず、ユーザの利便性を大幅に向上できる。   According to the chat system described above, the expression of the avatar image automatically changes according to the input timing of the message character string. Therefore, no special input for changing the expression of the avatar image is required, and user convenience Can greatly improve performance.

なお、本発明は上記実施形態に限定されるものではない。   The present invention is not limited to the above embodiment.

例えば、以上の説明では、メッセージ文字列の入力タイミングに応じてアバター画像を変化させるようにしたが、クライアント16において音を出力させ、この音をメッセージ文字列の入力タイミングに応じて変化させるようにしてもよい。この場合の音は、音楽や、例えばメッセージ文字列を読み上げる音声等である。こうしても、音の変化から、チャット相手の感情を判断することができる。   For example, in the above description, the avatar image is changed according to the input timing of the message character string. However, the client 16 outputs a sound, and this sound is changed according to the input timing of the message character string. May be. The sound in this case is music or a voice that reads out a message character string, for example. Even in this way, the emotion of the chat partner can be determined from the change in sound.

また、以上の説明では、サーバ12における受信タイミングを、クライアント16におけるメッセージ文字列の入力タイミングとして取り扱ったが、クライアント16においてメッセージ文字列が入力されたときに現在時刻を取得しておき、それをサーバ12に送信させるようにすれば、メッセージ文字列が入力されたタイミングにさらに近いタイミングを、クライアント16におけるメッセージ文字列の入力タイミングとして取り扱うことができる。   In the above description, the reception timing in the server 12 is treated as the input timing of the message character string in the client 16, but when the message character string is input in the client 16, the current time is acquired and If the server 12 is made to transmit, the timing closer to the timing when the message character string is input can be handled as the input timing of the message character string in the client 16.

また、ここでは直前のメッセージ文字列の入力タイミングから今回のメッセージ文字列の入力タイミングまでの経過時間に応じて、感情レベルを上下させるようにしたが、同経過時間、或いはそれを文字量で除した値の範囲に感情レベルを対応づけておいてもよい。こうすれば感情レベルを急激に変化させることができる。また、経過時間、或いはそれを文字量で除した値の平均等その他の統計量を算出し、それに応じて感情レベルを決定するようにしてもよい。   Also, here, the emotion level is raised or lowered according to the elapsed time from the input timing of the immediately preceding message character string to the input timing of the current message character string, but the same elapsed time or it is divided by the amount of characters. The emotion level may be associated with the range of values. In this way, the emotion level can be changed rapidly. Further, other statistics such as an elapsed time or an average of values obtained by dividing the elapsed time by the amount of characters may be calculated, and the emotion level may be determined accordingly.

さらに、ここではサーバ12において感情データの管理を行うようにしたが、各クライアント16において行うようにしてもよい。図12は、この変形例に係るクライアント16の機能的構成を示す図である。同図に示すように、この例では、クライアント16に感情データ管理部52が設けられる点が特徴的である。他の構成については、図10の場合と同様であり、ここでは同一符号を付して詳細な説明を省略する。   Furthermore, although the server 12 manages emotion data here, it may be performed by each client 16. FIG. 12 is a diagram showing a functional configuration of the client 16 according to this modification. As shown in the figure, this example is characterized in that an emotion data management unit 52 is provided in the client 16. Other configurations are the same as those in FIG. 10, and the same reference numerals are given here, and detailed description thereof is omitted.

感情データ管理部52には、メッセージ入力部42からメッセージ文字列が入力されており、さらに通信部40から他のクライアント16から受信したメッセージ文字列が入力されている。そして、メッセージ入力部42からメッセージ文字列が入力された場合には、図示しない計時手段により現在時刻を取得し、さらに感情データ記憶部50に記憶されたチャット相手に対応する前回入力時刻を読み出し、そこから現在時刻までの経過時間を読み出す。そして、図11の場合と同様にして、この経過時間に応じて感情レベルを変更する。また、通信部40からメッセージ文字列が入力された場合には、図示しない計時手段により現在時刻を取得し、さらに感情データ記憶部50に記憶された当該クライアント16のユーザに対応する前回入力時刻を読み出し、そこから現在時刻までの経過時間を読み出す。そして、図11の場合と同様にして、この経過時間に応じて感情レベルを変更する。この場合は、クライアント16においてメッセージ文字列が受信されたタイミングが、当該メッセージ文字列の入力タイミングとして取り扱われる。   The emotion data management unit 52 receives a message character string from the message input unit 42 and further receives a message character string received from the other client 16 from the communication unit 40. When a message character string is input from the message input unit 42, the current time is acquired by a time measuring unit (not shown), and the previous input time corresponding to the chat partner stored in the emotion data storage unit 50 is read. The elapsed time from there to the current time is read out. Then, similarly to the case of FIG. 11, the emotion level is changed according to this elapsed time. Further, when a message character string is input from the communication unit 40, the current time is acquired by a timing unit (not shown), and the previous input time corresponding to the user of the client 16 stored in the emotion data storage unit 50 is obtained. Read and read the elapsed time from there to the current time. Then, similarly to the case of FIG. 11, the emotion level is changed according to this elapsed time. In this case, the timing at which the client 16 receives the message character string is handled as the input timing of the message character string.

本発明の実施形態に係るチャットシステムの全体構成を示す図である。It is a figure showing the whole chat system composition concerning an embodiment of the present invention. チャット画面の一例を示す図である。It is a figure which shows an example of a chat screen. チャットログの一例を示す図である。It is a figure which shows an example of a chat log. 感情種類「喜楽」に対応するアバター画像群を示す図である。It is a figure which shows the avatar image group corresponding to emotion kind "Kiraku". 感情種類「怒」に対応するアバター画像群を示す図である。It is a figure which shows the avatar image group corresponding to emotion type "anger." 感情種類「哀」に対応するアバター画像群を示す図である。It is a figure which shows the avatar image group corresponding to emotion kind "sorrow". アバター画像の変化の様子を説明する図である。It is a figure explaining the mode of change of an avatar image. サーバの機能ブロック図である。It is a functional block diagram of a server. 感情データ記憶部の記憶内容を示す図である。It is a figure which shows the memory content of an emotion data memory | storage part. クライアントの機能ブロック図である。It is a functional block diagram of a client. サーバにおける感情データ管理処理を示すフロー図である。It is a flowchart which shows the emotion data management process in a server. 変形例に係るクライアントの機能ブロック図である。It is a functional block diagram of the client which concerns on a modification.

符号の説明Explanation of symbols

12 サーバ、14 データ通信ネットワーク、16A,16B クライアント、18 感情種類入力欄、20A 本人情報表示領域、20B 相手情報表示領域、22A,22B 吹き出し画像、24A,24B アバター画像、26 メッセージ文字列入力欄、30,40 通信部、32,52 感情データ管理部、34,50 感情データ記憶部、42 メッセージ入力部、44 表示部、46 アバター画像記憶部、48 感情種類入力部。   12 server, 14 data communication network, 16A, 16B client, 18 emotion type input field, 20A personal information display area, 20B partner information display area, 22A, 22B balloon image, 24A, 24B avatar image, 26 message character string input field, 30, 40 Communication unit, 32, 52 Emotion data management unit, 34, 50 Emotion data storage unit, 42 Message input unit, 44 Display unit, 46 Avatar image storage unit, 48 Emotion type input unit.

Claims (6)

複数の装置を含んで構成され、各装置においてメッセージ文字列を入力するとともに、他の装置に送信し、該他の装置において前記メッセージ文字列を受信するとともに、出力するチャットシステムにおいて、
あるメッセージ文字列の入力タイミングから別のメッセージ文字列の入力タイミングまでの経過時間に応じて感情レベルを決定する手段と、
前記他の装置において、決定される前記感情レベルに応じた画像又は音のうち少なくとも一方を出力する手段と、
を含むことを特徴とするチャットシステム。
In a chat system that includes a plurality of devices, inputs a message character string in each device, transmits the message character string to another device, receives the message character string in the other device, and outputs the message character string.
Means for determining the emotion level according to the elapsed time from the input timing of one message string to the input timing of another message string;
Means for outputting at least one of an image or sound according to the determined emotion level in the other device;
The chat system characterized by including.
第1装置及び第2装置を含むチャットシステムにおいて、
前記第1装置は、
メッセージ文字列を入力する手段と、
感情の種類を示す感情種類データを入力する手段と、
入力される前記メッセージ文字列を前記第2装置に送信する手段と、
入力される前記感情種類データを前記第2装置に送信する手段と、を含み、
前記第2装置は、
前記第1装置から前記メッセージ文字列を受信する手段と、
前記第1装置から前記感情種類データを受信する手段と、
受信される前記メッセージ文字列を出力する手段と、
前記第1装置における前記メッセージ文字列の入力タイミングに応じて決定される感情レベルを取得する手段と、
受信される前記感情種類データ及び取得される前記感情レベルに応じた画像又は音のうち少なくとも一方を出力する手段と、を含み、
前記第2装置は、
メッセージ文字列を入力する手段と、
入力されるメッセージ文字列を前記第1装置に送信する手段と、をさらに含み、
前記第1装置は、
前記第2装置から前記メッセージ文字列を受信する手段と、
受信される前記メッセージ文字列を出力する手段と、をさらに含み、
前記感情レベルは、前記第2装置におけるメッセージ文字列の入力タイミングと、前記第1装置におけるメッセージ文字列の入力タイミングと、の差に応じて決定される、
ことを特徴とするチャットシステム。
In a chat system including a first device and a second device,
The first device includes:
A means for entering a message string;
Means for inputting emotion type data indicating the type of emotion;
Means for transmitting the input message string to the second device;
Means for transmitting the inputted emotion type data to the second device,
The second device includes:
Means for receiving the message string from the first device;
Means for receiving the emotion type data from the first device;
Means for outputting the received message string;
Means for acquiring an emotion level determined according to the input timing of the message character string in the first device;
Means for outputting at least one of an image or sound corresponding to the received emotion type data and the acquired emotion level,
The second device includes:
A means for entering a message string;
Means for transmitting an input message string to the first device,
The first device includes:
Means for receiving the message string from the second device;
Means for outputting the received message string;
The emotion level is determined according to a difference between an input timing of the message character string in the second device and an input timing of the message character string in the first device.
A chat system characterized by that.
請求項2に記載のチャットシステムにおいて、
前記感情レベルは、前記メッセージ文字列の文字量にさらに応じて決定される、
ことを特徴とするチャットシステム。
The chat system according to claim 2,
The emotion level is further determined according to a character amount of the message character string.
A chat system characterized by that.
チャットシステムに用いられる通信装置であって、
メッセージ文字列を受信する手段と、
感情種類データを受信する手段と、
受信される前記メッセージ文字列を出力する手段と、
前記メッセージ文字列の入力タイミングに応じて感情レベルを決定する手段と、
受信される前記感情種類データ及び決定される前記感情レベルに応じた画像又は音のうち少なくとも一方を出力する手段と、
を含むことを特徴とする通信装置。
A communication device used in a chat system,
Means for receiving a message string;
A means of receiving emotion type data;
Means for outputting the received message string;
Means for determining an emotion level according to the input timing of the message character string;
Means for outputting at least one of the image or sound according to the received emotion type data and the determined emotion level;
A communication device comprising:
チャットシステムに用いられる通信装置の制御方法であって、
メッセージ文字列を受信するステップと、
感情種類データを受信するステップと、
受信される前記メッセージ文字列を出力するステップと、
前記メッセージ文字列の入力タイミングに応じて感情レベルを決定するステップと、
受信される前記感情種類データ及び決定される前記感情レベルに応じた画像又は音のうち少なくとも一方を出力するステップと、
を含むことを特徴とする通信装置の制御方法。
A method of controlling a communication device used in a chat system,
Receiving a message string;
Receiving emotion type data;
Outputting the received message string;
Determining an emotion level according to the input timing of the message string;
Outputting at least one of the image or sound according to the received emotion type data and the determined emotion level;
A control method for a communication apparatus, comprising:
メッセージ文字列を受信する手段、
感情種類データを受信する手段、
受信される前記メッセージ文字列を出力する手段、
前記メッセージ文字列の入力タイミングに応じて感情レベルを決定する手段、及び
受信される前記感情種類データ及び決定される前記感情レベルに応じた画像又は音のうち少なくとも一方を出力する手段
としてコンピュータを機能させるためのプログラム。
Means for receiving a message string,
Means for receiving emotion type data,
Means for outputting the received message string;
The computer functions as means for determining an emotion level according to the input timing of the message character string, and means for outputting at least one of the received emotion type data and an image or sound according to the determined emotion level. Program to let you.
JP2006210866A 2006-08-02 2006-08-02 Chat system, communication apparatus, control method thereof, and program Expired - Lifetime JP4854424B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006210866A JP4854424B2 (en) 2006-08-02 2006-08-02 Chat system, communication apparatus, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006210866A JP4854424B2 (en) 2006-08-02 2006-08-02 Chat system, communication apparatus, control method thereof, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004108023A Division JP3930489B2 (en) 2004-03-31 2004-03-31 Chat system, communication apparatus, control method thereof, and program

Publications (3)

Publication Number Publication Date
JP2006338685A true JP2006338685A (en) 2006-12-14
JP2006338685A5 JP2006338685A5 (en) 2007-05-17
JP4854424B2 JP4854424B2 (en) 2012-01-18

Family

ID=37559128

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006210866A Expired - Lifetime JP4854424B2 (en) 2006-08-02 2006-08-02 Chat system, communication apparatus, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP4854424B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013131221A (en) * 2011-12-21 2013-07-04 Kakao Corp Method for linking instant message and online document and mobile terminal
WO2015186534A1 (en) * 2014-06-06 2015-12-10 ソニー株式会社 Information processing device and method, and program
JP2017505949A (en) * 2014-01-15 2017-02-23 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Method and apparatus for processing expression information in instant communication
JP2017531217A (en) * 2015-08-26 2017-10-19 小米科技有限責任公司Xiaomi Inc. Method, apparatus and terminal device for changing facial expression symbol in chat interface
JP2019101659A (en) * 2017-11-30 2019-06-24 株式会社サイバーエージェント Chat system, server, chat method, terminal device and computer program
WO2024038699A1 (en) * 2022-08-19 2024-02-22 ソニーセミコンダクタソリューションズ株式会社 Expression processing device, expression processing method, and expression processing program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09138767A (en) * 1995-11-14 1997-05-27 Fujitsu Ten Ltd Communication equipment for feeling expression
JPH11203227A (en) * 1998-01-19 1999-07-30 Network Community Creation:Kk Chat screen display method
JP2001160021A (en) * 1999-12-03 2001-06-12 Sony Corp Communication system in virtual space
JP2002190034A (en) * 2000-12-20 2002-07-05 Sony Corp Device and method for processing information, and recording medium
JP2002236656A (en) * 2001-02-08 2002-08-23 Nifty Corp Chatting system and server device
JP2002325965A (en) * 2001-04-27 2002-11-12 Sega Corp Input character processing method
JP2003271277A (en) * 2002-03-12 2003-09-26 Sony Corp Information processor and information input method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09138767A (en) * 1995-11-14 1997-05-27 Fujitsu Ten Ltd Communication equipment for feeling expression
JPH11203227A (en) * 1998-01-19 1999-07-30 Network Community Creation:Kk Chat screen display method
JP2001160021A (en) * 1999-12-03 2001-06-12 Sony Corp Communication system in virtual space
JP2002190034A (en) * 2000-12-20 2002-07-05 Sony Corp Device and method for processing information, and recording medium
JP2002236656A (en) * 2001-02-08 2002-08-23 Nifty Corp Chatting system and server device
JP2002325965A (en) * 2001-04-27 2002-11-12 Sega Corp Input character processing method
JP2003271277A (en) * 2002-03-12 2003-09-26 Sony Corp Information processor and information input method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013131221A (en) * 2011-12-21 2013-07-04 Kakao Corp Method for linking instant message and online document and mobile terminal
JP2017505949A (en) * 2014-01-15 2017-02-23 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Method and apparatus for processing expression information in instant communication
US10210002B2 (en) 2014-01-15 2019-02-19 Alibaba Group Holding Limited Method and apparatus of processing expression information in instant communication
WO2015186534A1 (en) * 2014-06-06 2015-12-10 ソニー株式会社 Information processing device and method, and program
JP2017531217A (en) * 2015-08-26 2017-10-19 小米科技有限責任公司Xiaomi Inc. Method, apparatus and terminal device for changing facial expression symbol in chat interface
JP2019101659A (en) * 2017-11-30 2019-06-24 株式会社サイバーエージェント Chat system, server, chat method, terminal device and computer program
WO2024038699A1 (en) * 2022-08-19 2024-02-22 ソニーセミコンダクタソリューションズ株式会社 Expression processing device, expression processing method, and expression processing program

Also Published As

Publication number Publication date
JP4854424B2 (en) 2012-01-18

Similar Documents

Publication Publication Date Title
KR100841590B1 (en) Chat system, communication device, control method thereof and computer-readable information storage medium
JP4199665B2 (en) Rich communication via the Internet
US7343561B1 (en) Method and apparatus for message display
CN101303622B (en) Method for chatting using chat interface with haptic feedback function
JP4854424B2 (en) Chat system, communication apparatus, control method thereof, and program
US20090157223A1 (en) Robot chatting system and method
KR101200559B1 (en) System, apparatus and method for providing a flashcon in a instant messenger of a mobile device
EP4027614A1 (en) Automated messaging reply-to
JP2001160021A (en) Communication system in virtual space
KR101310274B1 (en) Method and server for providing message service
KR101891155B1 (en) Composed notice function apparatas and method of using for chatting application in a portable terminal
JP2001325200A (en) Chat system
KR20090075397A (en) Method for transmitting and receiving message comprising emoticon
KR20140017959A (en) Mobile messenger service providing method with cartoon form for smart device
CN104301202A (en) Vibration information expression method and system for instant messaging
JP2009064418A (en) Instant message system with personal object and method therefor
US7818374B2 (en) Effective communication in virtual worlds
CN101599917B (en) System, method and interface for providing instant message service
KR100396755B1 (en) Toy performance apparatus and method using chatting
JP3792974B2 (en) Communication support method and conversation apparatus
KR20050027397A (en) Messaging method and system for icon chaatting
CN100456749C (en) Method and system for providing dynamic graphic display for user based on instantaneous communication platform
JP2004102496A (en) Text and character display system, computer program, and server
JP2002236656A (en) Chatting system and server device
JP2002278904A (en) Network system and client terminal

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070323

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080430

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080630

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090213

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090219

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20090313

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111025

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141104

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4854424

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250