JP2005242798A - Avatar control system - Google Patents

Avatar control system Download PDF

Info

Publication number
JP2005242798A
JP2005242798A JP2004053342A JP2004053342A JP2005242798A JP 2005242798 A JP2005242798 A JP 2005242798A JP 2004053342 A JP2004053342 A JP 2004053342A JP 2004053342 A JP2004053342 A JP 2004053342A JP 2005242798 A JP2005242798 A JP 2005242798A
Authority
JP
Japan
Prior art keywords
avatar
user
users
text information
operation parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004053342A
Other languages
Japanese (ja)
Other versions
JP4268539B2 (en
Inventor
Ken Oshima
憲 大嶋
Toru Hamabe
徹 濱辺
Satoshi Tanaka
智 田中
Hiromi Uwada
弘美 宇和田
Makoto Yoshida
吉田  誠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nomura Research Institute Ltd
Original Assignee
Nomura Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nomura Research Institute Ltd filed Critical Nomura Research Institute Ltd
Priority to JP2004053342A priority Critical patent/JP4268539B2/en
Publication of JP2005242798A publication Critical patent/JP2005242798A/en
Application granted granted Critical
Publication of JP4268539B2 publication Critical patent/JP4268539B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To make avatars act naturally in communication among a plurality of users using the avatars. <P>SOLUTION: A server (an avatar control system) 2 receives text information sent from a client 6a via a network 4, counts the number of characters of the received text information, and calculates the degree of intimacy and action parameters of each avatar on the basis of the number of characters and the degree of intimacy among a plurality of users who performs chat. On the basis of the calculated action parameters, action information of the respective avatars is created, each action information on an avatar A, an avatar B, and an avatar C is sent to the client 6a, a client 6b, and a client 6c, and the text information is sent to the client 6b and the client 6c. On the respective clients, actions of the avatar A, the avatar B, and the avatar C based on the action information are displayed. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

この発明は、コンピュータを用いた3次元の仮想空間でのアバター(ユーザの化身)を利用したコミュニケーションにおけるアバターの動作を制御するアバター制御システムに関するものである。   The present invention relates to an avatar control system that controls the operation of an avatar in communication using an avatar (user incarnation) in a three-dimensional virtual space using a computer.

近年、コンピュータを用いた3次元の仮想空間を利用したコミュニケーションでは、アバター(Avatar、サンスクリット語で「分身・化身」を意味する。多くの場合、ネットワーク上におけるユーザの「擬似人格」を意味している。)が多く利用されている。例えば、インターネットを介したチャット(インターネットを利用してリアルタイムで文字による会話を行うものであり、1対1、1対多数、多数対多数で会話を行うことができる)を行う際に、それぞれのユーザがアバターを利用している。   In recent years, in communication using a three-dimensional virtual space using a computer, avatar (Avatar, Sanskrit means “alternation / incarnation”. In many cases, it means a “pseudo personality” of a user on a network. Are often used. For example, when chatting via the Internet (conversations in real-time using the Internet, one-to-one, one-to-many, many-to-many conversations) The user is using an avatar.

なお、通信回線を介した音声コミュニケーションにおいて擬似人格(アバター)を用いる身体性メディア通信システムが存在する。この身体性メディア通信システムにおいては、ユーザが話し手になっている場合には、話し手であるユーザの音声に従って動作する話し手動作と、ユーザが聞き手になっている場合には、話し手である他のユーザの音声に従って動作する聞き手動作に基づいて擬似人格を動作させている(特許文献1参照)。   Note that there is a physical media communication system that uses a pseudo personality (avatar) in voice communication via a communication line. In this physical media communication system, when a user is a speaker, a speaker operation that operates according to the voice of the user who is the speaker, and another user who is a speaker when the user is a listener. The pseudo personality is operated based on the listener's operation that operates according to the voice of the above (see Patent Document 1).

特開2003−108502号公報JP 2003-108502 A

ところで、従来、チャット等のコミュニケーションにおいてアバターを用いた場合、ユーザの操作又はチャットサービスを提供しているサーバによる制御に基づいてランダムにアバターを動作させていた。また、上述の身体性メディア通信システムように、ユーザの音声に基づいてアバターを動作させる場合にも、ユーザの音声に基づいて個々のアバターを動作させており、アバター同士で相手の動きに合わせて動作させることは行われていなかった。そのため、アバターの動作が現実の対話における人物の動作と比べて著しく不自然であり、ユーザがアバターの動作に違和感を感じる等の問題があった。   By the way, conventionally, when an avatar is used in communication such as chat, an avatar is randomly operated based on a user operation or control by a server providing a chat service. In addition, as in the above-described physical media communication system, even when an avatar is operated based on the user's voice, each avatar is operated based on the user's voice. It was not made to work. For this reason, the movement of the avatar is remarkably unnatural compared to the movement of the person in the actual conversation, and there is a problem that the user feels uncomfortable with the movement of the avatar.

また、アバターの制御は、仮想空間内におけるコミュニケーションが1対1で行われている場合を前提として行われていた。従って、アバターを用いたコミュニケーションに多数のユーザが同時に参加している場合、例えば、1対多数や多数対多数でチャット等のコミュニケーションが行われている場合、複数のアバターが同時に同一の動作を示す場合があった。例えば、一のユーザが発言した場合に、他のユーザのアバターが、発言した一のユーザのアバターに対して同時に視線を向け、同時に頷く等の動作を示し、現実の対話における人物の動作と比べてアバターの動作が不自然なものとなっていた。   In addition, the control of the avatar is performed on the assumption that communication in the virtual space is performed on a one-to-one basis. Therefore, when many users are participating in communication using avatars at the same time, for example, when one-to-many or many-to-many communication such as chat is performed, a plurality of avatars simultaneously exhibit the same operation. There was a case. For example, when one user speaks, the other user's avatar shows an action such as simultaneously gazing at the one user's avatar and simultaneously whispering, compared with the action of a person in a real conversation The behavior of the avatar was unnatural.

この発明の課題は、コンピュータを用いた3次元の仮想空間内でのアバターを利用した複数のユーザ間におけるコミュニケーションにおいて、自然な動作を行うようにアバターの動作を制御するアバター制御システムを提供することである。   An object of the present invention is to provide an avatar control system that controls an avatar operation so as to perform a natural operation in communication between a plurality of users using an avatar in a three-dimensional virtual space using a computer. It is.

請求項1記載のアバター制御システムは、一のユーザから送信されるテキスト情報を受信するテキスト情報受信手段と、前記テキスト情報受信手段により受信されたテキスト情報の文字数をカウントする文字数カウント手段と、前記一のユーザと複数の他のユーザの各々との間の親密度を記憶する親密度記憶手段と、前記文字数カウント手段によりカウントされた文字数及び前記親密度記憶手段に記憶されている親密度に基づいて、前記一のユーザ及び前記複数の他のユーザの各アバターの各々の動作パラメータを算出する動作パラメータ算出手段と、前記動作パラメータ算出手段により算出された動作パラメータに基づいて、前記各アバターの動作情報を作成する動作情報作成手段とを備え、前記動作パラメータ算出手段は、前記親密度記憶手段に記憶されている前記一のユーザに対する前記他のユーザの親密度が同一である他のユーザが複数存在する場合に、該他のユーザ毎に、異なる動作パラメータを算出することを特徴とする。   The avatar control system according to claim 1 is a text information receiving unit that receives text information transmitted from one user, a character number counting unit that counts the number of characters in the text information received by the text information receiving unit, and A closeness storage means for storing closeness between one user and each of a plurality of other users, the number of characters counted by the number of character count means and the closeness stored in the closeness storage means Then, based on the operation parameter calculated by the operation parameter calculation means, the operation parameter calculation means for calculating the operation parameter of each of the one user and each of the avatars of the plurality of other users, Motion information creation means for creating information, and the motion parameter calculation means comprises the intimacy description. When there are a plurality of other users having the same closeness of the other user with respect to the one user stored in the means, different operating parameters are calculated for each of the other users. .

この請求項1記載のアバター制御システムによれば、一のユーザから送信されたテキスト情報の文字数及びユーザ間の親密度に基づいて、複数のユーザの各々が用いる各アバターの動作パラメータが同一とならないように動作パラメータを算出している。即ち、複数のユーザ間でアバターを用いたコミュニケーションが行われており、発言したユーザに対する親密度が同一であるユーザが複数存在している場合であっても、各ユーザの各々のアバターの動作パラメータが異なっている。従って、複数のアバターが同時に同一の動作を行うことなく、アバターに自然な動作をさせることができる。   According to the avatar control system according to claim 1, based on the number of characters of text information transmitted from one user and the familiarity between users, the operation parameters of each avatar used by each of the plurality of users are not the same. The operation parameters are calculated as follows. That is, even when communication using avatars is performed among a plurality of users and there are a plurality of users having the same intimacy with the speaking user, the operation parameters of each user's avatar Is different. Therefore, it is possible to cause the avatar to perform a natural operation without simultaneously performing the same operation by a plurality of avatars.

また、請求項2記載のアバター制御システムは、文字数及び親密度に対応させて複数パターンの動作パラメータを記憶する動作パラメータ記憶手段と、一のユーザから送信されるテキスト情報を受信するテキスト情報受信手段と、前記テキスト情報受信手段により受信されたテキスト情報の文字数をカウントする文字数カウント手段と、前記一のユーザと複数の他のユーザの各々との間の親密度を記憶する親密度記憶手段と、前記文字数カウント手段によりカウントされた文字数及び前記親密度に基づいて、前記動作パラメータ記憶手段に記憶されている動作パラメータの中から、前記一のユーザ及び前記複数の他のユーザの各アバターの各々の動作パラメータを抽出する動作パラメータ抽出手段と、前記動作パラメータ抽出手段により抽出された動作パラメータに基づいて、前記各アバターの動作情報を作成する動作情報作成手段とを備えることを特徴とする。   The avatar control system according to claim 2 is an operation parameter storage means for storing operation parameters of a plurality of patterns corresponding to the number of characters and familiarity, and a text information receiving means for receiving text information transmitted from one user. A character number counting unit that counts the number of characters of text information received by the text information receiving unit; a familiarity storage unit that stores a familiarity between the one user and each of a plurality of other users; Based on the number of characters counted by the character count unit and the familiarity, each of the avatars of the one user and the plurality of other users is selected from the operation parameters stored in the operation parameter storage unit. An operation parameter extracting means for extracting an operation parameter, and extracted by the operation parameter extracting means Based on the operating parameters, characterized in that it comprises an operation information generation means for generating the operation information of each avatar.

この請求項2記載のアバター制御システムによれば、テキスト情報の文字数及びユーザ間の親密度に基づいて予め算出されている複数パターンの動作パラメータの中から、受信したテキスト情報及びチャット等のコミュニケーションを行っているユーザ間の親密度に基づいて所定の動作パラメータを抽出している。従って、複数のユーザがアバターを介したコミュニケーションを行っている場合であっても、各アバターの動作情報を迅速に作成し、サーバに過度の負担をかけることなくアバターに自然な動作をさせることができる。   According to the avatar control system according to claim 2, communication such as received text information and chat is performed from among a plurality of patterns of operation parameters calculated in advance based on the number of characters of text information and the familiarity between users. Predetermined operation parameters are extracted based on the familiarity between users. Therefore, even when a plurality of users are communicating via avatars, it is possible to quickly create operation information for each avatar and allow the avatar to perform a natural operation without overloading the server. it can.

また、請求項3記載のアバター制御システムは、前記動作パラメータ抽出手段が、前記一のユーザに対する親密度が同一である他のユーザが複数存在する場合に、該他のユーザ毎に異なるパターンの動作パラメータを抽出することを特徴とする。   Further, in the avatar control system according to claim 3, when there are a plurality of other users having the same familiarity with the one user, the operation parameter extracting unit has different patterns of operations for each other user. It is characterized by extracting parameters.

この請求項3記載のアバター制御システムによれば、親密度が同一となっているユーザが複数存在する場合であっても、複数パターンの動作パラメータの中からそれぞれのユーザのアバター毎に異なるパターンの動作パラメータを抽出している。従って、複数のユーザ間でアバターを用いたコミュニケーションが行われている場合であっても、予め複数パターンの動作パラメータが算出されているため、複数のアバターが同時に同一の動作をすることを防ぎ、複数のアバターに自然な動作をさせることができる。   According to the avatar control system according to claim 3, even when there are a plurality of users having the same familiarity, a different pattern for each user avatar from among a plurality of operation parameters. Operating parameters are extracted. Therefore, even when communication using avatars between a plurality of users is performed, since a plurality of patterns of operation parameters are calculated in advance, a plurality of avatars are prevented from simultaneously performing the same operation, Allows multiple avatars to perform natural actions.

また、請求項4記載のアバター制御システムは、前記一のユーザに対する親密度が同一となっている他のユーザ毎に、該他のユーザのアバターが動作を開始するまでの待ち時間を設定する待ち時間設定手段を備え、前記一のユーザに対する親密度が同一となっている他のユーザの数が、前記動作パラメータ記憶手段に記憶されている動作パラメータのパターン数よりも多く、前記動作パラメータ抽出手段により、同一パターンの動作パラメータが複数抽出された場合に、前記動作情報作成手段は、前記待ち時間設定手段により設定された待ち時間を含む動作情報を作成することを特徴とする。   The avatar control system according to claim 4 is a waiting mode for setting a waiting time until the other user's avatar starts operation for each other user having the same closeness to the one user. A number of other users having the same closeness to the one user than the number of operation parameter patterns stored in the operation parameter storage unit; Thus, when a plurality of operation parameters having the same pattern are extracted, the operation information creating unit creates operation information including the waiting time set by the waiting time setting unit.

この請求項4記載のアバター制御システムによれば、予め算出されている動作パラメータのパターンよりも多くのユーザ間でアバターを介したコミュニケーションが行われており、親密度が同一のユーザについて同一の動作パラメータが抽出された場合にアバターが動作を開始するまでの待ち時間を設定している。即ち、同一パターンの動作パラメータが抽出された場合には、アバター毎に動作を開始するまでの待ち時間を設定し、設定された待ち時間を含む動作情報を作成することによりアバターの動作タイミングをずらしている。従って、複数のアバターが同時に同一の動作、例えば、複数のアバターが同一間隔で同時に同じ回数頷く等の不自然な動作を行うことが無く、複数のユーザ間でのコミュニケーションにおいて、アバターを自然に動作させることができる。   According to the avatar control system according to claim 4, communication via avatars is performed among a larger number of users than the pattern of motion parameters calculated in advance, and the same motion is performed for users having the same familiarity. The waiting time until the avatar starts to move when the parameter is extracted is set. In other words, when motion parameters of the same pattern are extracted, the waiting time until the motion is started is set for each avatar, and the motion information including the set waiting time is created to shift the motion timing of the avatar. ing. Therefore, a plurality of avatars do not perform the same operation at the same time, for example, a plurality of avatars do not perform an unnatural operation such as the same number of times at the same time, and the avatar operates naturally in communication between a plurality of users. Can be made.

この発明によれば、複数のユーザ間でアバターを用いたコミュニケーションが行われており、発言したユーザに対する親密度が同一であるユーザが複数存在している場合であっても、各ユーザのアバター毎に異なる動作パラメータが抽出される。従って、発言者に対する親密度が同一のユーザが多数存在する場合であっても、各ユーザのアバターが異なる動作をするようにアバターを制御することができ、アバターに自然な動作をさせることができる。   According to the present invention, communication using avatars is performed between a plurality of users, and even if there are a plurality of users having the same intimacy with respect to the speaking user, Different operating parameters are extracted. Therefore, even when there are many users with the same intimacy with respect to the speaker, the avatar can be controlled so that each user's avatar operates differently, and the avatar can perform a natural operation. .

また、テキスト情報の文字数及びユーザ間の親密度に基づいて予め算出されている複数パターンの動作パラメータの中から、受信したテキスト情報及びチャット等のコミュニケーションを行っているユーザ間の親密度に基づいて所定の動作パラメータを抽出している。従って、多数のユーザがアバターを介したコミュニケーションを行っている場合であっても、例えば、チャット等のコミュニケーションサービスを提供しているサーバに過度の負担をかけることなく、迅速に多数のアバターの動作パラメータを算出し、アバターに自然な動作をさせることができる。また、アバターに自然な動作をさせることができるため、ユーザがアバターの動作に違和感を覚えることを防ぎ、3次元の仮想空間内におけるコミュニケーションを活性化させることができる。   Moreover, based on the familiarity between the users who are performing communication, such as received text information and chat, among the operation parameters of a plurality of patterns calculated in advance based on the number of characters of text information and the familiarity between users Predetermined operating parameters are extracted. Therefore, even when a large number of users are communicating via avatars, for example, the operations of a large number of avatars can be performed quickly without imposing an excessive burden on a server that provides a communication service such as chat. The parameter can be calculated and the avatar can be operated naturally. In addition, since the avatar can perform a natural motion, it is possible to prevent the user from feeling uncomfortable with the motion of the avatar and to activate communication in the three-dimensional virtual space.

以下、図面を参照してこの発明の実施の形態に係るアバター制御システムについて説明する。   Hereinafter, an avatar control system according to an embodiment of the present invention will be described with reference to the drawings.

図1は、この発明の実施の形態に係るアバター制御システムを含む3次元の仮想空間内におけるのコミュニケーションを行うシステム全体のブロック構成図である。3次元の仮想空間内におけるコミュニケーションを行うシステムは、図1に示すように、チャット等のコミュニケーションサービスを提供すると共に、仮想空間内におけるアバターの動作を制御するアバター制御システムとして機能するサーバ2を備えている。このサーバ2は、ネットワーク4を介して複数のユーザの各々が用いるクライアント6a、6b、6cと接続されている。なお、クライアント6aを用いるユーザをユーザA、クライアント6bを用いるユーザをユーザB、クライアント6cを用いるユーザをユーザCとする。   FIG. 1 is a block configuration diagram of an entire system that performs communication in a three-dimensional virtual space including an avatar control system according to an embodiment of the present invention. As shown in FIG. 1, the system that performs communication in a three-dimensional virtual space includes a server 2 that provides a communication service such as chat and functions as an avatar control system that controls the operation of an avatar in the virtual space. ing. This server 2 is connected via a network 4 to clients 6a, 6b, 6c used by each of a plurality of users. A user who uses the client 6a is a user A, a user who uses the client 6b is a user B, and a user who uses the client 6c is a user C.

図2は、この発明の実施の形態に係るサーバ(アバター制御システム)のブロック構成図である。サーバ(アバター制御システム)2は、図2に示すように、サーバ2におけるデータの処理を制御するデータ制御部10を備えている。このデータ制御部10には、クライアント6a、6b、6cとの間の通信を制御する通信制御部12及びユーザに関する情報、例えば、各ユーザを識別するためのユーザID及びパスワード等を記憶するユーザ情報記憶部14が接続されている。また、データ制御部10には、ユーザが用いるアバターの画像等、アバターに関する情報を記憶するアバター情報記憶部16及びアバターを動作させるための動作パラメータや通信制御部12を介して受信したユーザからのテキスト情報等を記憶するデータ記憶部18が接続されている。   FIG. 2 is a block configuration diagram of a server (avatar control system) according to the embodiment of the present invention. As shown in FIG. 2, the server (avatar control system) 2 includes a data control unit 10 that controls processing of data in the server 2. The data control unit 10 stores information related to the communication control unit 12 that controls communication with the clients 6a, 6b, and 6c and users, for example, user information that stores user IDs and passwords for identifying each user. A storage unit 14 is connected. The data control unit 10 also receives information from the avatar information storage unit 16 that stores information related to the avatar, such as an avatar image used by the user, and operation parameters for operating the avatar and the user received via the communication control unit 12. A data storage unit 18 for storing text information and the like is connected.

ユーザ情報記憶部14には、サーバ2により提供されるコミュニケーションサービス(例えば、チャット)を利用するユーザ、即ち、予めサーバ2にユーザ登録を行っているユーザのユーザ情報が記憶される。このユーザ情報には、例えば、ユーザを識別するためのユーザID、パスワード、ニックネーム(チャットを行う際に用いられるユーザ名等)及びユーザ間における親密度、例えば、ユーザAとユーザBの親密度を示す係数(ユーザにより任意に設定される係数)が含まれる。なお、ユーザの氏名や住所等の個人情報もユーザ情報に含めて記憶するようにしてもよい。   The user information storage unit 14 stores user information of a user who uses a communication service (for example, chat) provided by the server 2, that is, a user who has registered in advance with the server 2. The user information includes, for example, a user ID for identifying the user, a password, a nickname (such as a user name used when chatting), and a closeness between the users, for example, closeness between the user A and the user B The coefficient shown (the coefficient arbitrarily set by the user) is included. Note that personal information such as the user's name and address may be included in the user information and stored.

また、アバター情報記憶部16には、サーバ2により提供されるコミュニケーションサービス、例えば、チャットを利用する際に用いられるアバターに関するアバター情報が記憶される。即ち、アバターの画像、各アバターを識別するためのアバターID、3次元の仮想空間においてチャットが行われている際のアバターの位置を示すアバター位置情報(3次元の仮想空間におけるアバターの位置を示す座標)等がアバター情報としてアバター情報記憶部16に記憶される。ここで、アバターの位置を示す座標としては、アバターの頭の中心を示す座標が用いられる。なお、アバターの重心(体の中心)を示す座標やアバターの足元を示す座標を、アバターの位置を示す座標として用いるようにしてもよい。   The avatar information storage unit 16 stores avatar information related to avatars used when using communication services provided by the server 2, for example, chat. That is, the avatar image, the avatar ID for identifying each avatar, the avatar position information indicating the position of the avatar when the chat is performed in the three-dimensional virtual space (the position of the avatar in the three-dimensional virtual space is indicated) Coordinates) and the like are stored in the avatar information storage unit 16 as avatar information. Here, as the coordinates indicating the position of the avatar, coordinates indicating the center of the avatar's head are used. In addition, you may make it use the coordinate which shows the gravity center (body center) of an avatar, and the coordinate which shows the step of an avatar as a coordinate which shows the position of an avatar.

また、データ記憶部18には、動作パラメータ、即ち、3次元の仮想空間内におけるチャットに用いられるアバターの視線、顔表情及び頷きをそれぞれ示すパラメータや、動作パラメータに基づいて作成されたアバターの動作を示す動作情報が記憶される。また、データ記憶部18には、テキスト情報、例えば、ユーザAとユーザBとがチャットを行っている場合に、ユーザAからユーザBに対して送信されたチャットメッセージに基づく文字列を示す情報や、ユーザBからユーザAに対して送信されたチャットメッセージに基づく文字列を示す情報が記憶される。更に、データ記憶部18には、コミュニケーションサービスに関する履歴情報、例えば、チャットを利用したユーザ間の対話履歴、即ち、ユーザAがユーザBとチャットをした場合におけるユーザAとユーザBとの対話履歴等が記憶される。なお、チャットが行われる3次元の仮想空間、例えば、チャットルームの画像を示すデータもデータ記憶部18に記憶されている。   Further, the data storage unit 18 stores motion parameters, that is, parameters indicating the line of sight, facial expression and whispering of the avatar used for chatting in the three-dimensional virtual space, and motions of the avatar created based on the motion parameters. Is stored. The data storage unit 18 also includes text information such as information indicating a character string based on a chat message transmitted from the user A to the user B when the user A and the user B are chatting. The information indicating the character string based on the chat message transmitted from the user B to the user A is stored. Further, the data storage unit 18 stores history information related to communication services, for example, a conversation history between users using chat, that is, a conversation history between user A and user B when user A chats with user B, etc. Is memorized. Note that data indicating an image of a three-dimensional virtual space in which chat is performed, for example, a chat room, is also stored in the data storage unit 18.

図3は、この発明の実施の形態に係るクライアント6aのブロック構成図である。クライアント6aは、図3に示すように、クライアント6aにおけるデータの処理を制御するデータ制御部20を備えている。このデータ制御部20には、サーバ2との間の通信を制御する通信制御部22及びチャットメッセージとしてのテキスト情報等を入力するキーボード24が接続されている。また、データ制御部20には、サーバ2から送信されたテキスト情報やアバターを動作させるための動作情報等を記憶するデータ記憶部26及び動作情報に基づいて動作するアバター等を表示する表示部28が接続されている。   FIG. 3 is a block diagram of the client 6a according to the embodiment of the present invention. As shown in FIG. 3, the client 6a includes a data control unit 20 that controls data processing in the client 6a. The data control unit 20 is connected to a communication control unit 22 for controlling communication with the server 2 and a keyboard 24 for inputting text information as a chat message. In addition, the data control unit 20 includes a data storage unit 26 that stores text information transmitted from the server 2, operation information for operating the avatar, and a display unit 28 that displays an avatar that operates based on the operation information. Is connected.

データ記憶部26には、サーバ2から送信されるアバターを動作させるための動作情報、即ち、表示部28に表示されているアバターを動作させるための情報が記憶される。また、データ記憶部26には、ユーザがキーボード24を介して入力したチャットメッセージ(テキスト情報)や、サーバ2を介してチャットの相手が用いるクライアントから送信されたチャットメッセージ等が記憶される。なお、クライアント6b、6cの構成は、クライアント6aの構成と同様の構成であるため説明を省略する。   The data storage unit 26 stores operation information for operating the avatar transmitted from the server 2, that is, information for operating the avatar displayed on the display unit 28. The data storage unit 26 stores a chat message (text information) input by the user via the keyboard 24, a chat message transmitted from the client used by the chat partner via the server 2, and the like. Note that the configurations of the clients 6b and 6c are the same as the configuration of the client 6a, and thus the description thereof is omitted.

次に、この発明の第1の実施の形態に係るアバター制御システムによるアバターの制御処理について説明する。なお、以下においては、予めサーバ2にユーザ登録をしている複数のユーザ間で行われるチャットにおけるアバターの動作を制御する場合を例として説明する。   Next, an avatar control process by the avatar control system according to the first embodiment of the present invention will be described. In the following, a case where the operation of an avatar in a chat performed between a plurality of users who are registered in advance in the server 2 is controlled will be described as an example.

まず、チャットを行うユーザがサーバ2にログインを行う。例えば、クライアント6aのキーボード24を介してユーザAのユーザID及びパスワードを入力し、入力されたユーザID及びパスワードを通信制御部22及びネットワーク4を介してサーバ2に送信する。   First, a user who performs chat logs into the server 2. For example, the user ID and password of the user A are input via the keyboard 24 of the client 6 a, and the input user ID and password are transmitted to the server 2 via the communication control unit 22 and the network 4.

サーバ2においては、クライアント6aから送信されたユーザAのユーザID及びパスワードを通信制御部12を介して受信し、受信したユーザID及びパスワードと、ユーザ情報記憶部14に記憶されているユーザAのユーザID及びパスワードとの照合を行う。照合不一致となった場合には、「ユーザID又はパスワードが違います」等の照合不一致となったことを通知するメッセージをクライアント6aに送信する。一方、照合一致となった場合には、チャットを行う際に用いるアバターを選択する画面、例えば、アバターのサムネイル画像を一覧形式で示したアバター選択画面のデータを通信制御部12及びネットワーク4を介してクライアント6aに送信する。もしくはアバター選択画面を省略し、ユーザが前回のログイン時に使用していたアバター画像を利用してもよい。   In the server 2, the user ID and password of the user A transmitted from the client 6 a are received via the communication control unit 12, and the received user ID and password and the user A stored in the user information storage unit 14 are stored. The user ID and password are verified. If the verification does not match, a message notifying that the verification does not match, such as “the user ID or password is different”, is transmitted to the client 6a. On the other hand, if a match is found, a screen for selecting an avatar to be used for chatting, for example, data of an avatar selection screen showing thumbnail images of the avatars in a list format is transmitted via the communication control unit 12 and the network 4. To the client 6a. Alternatively, the avatar selection screen may be omitted and the avatar image used by the user at the previous login may be used.

クライアント6aにおいては、照合不一致となったことを通知するメッセージを受信した場合には、ユーザID及びパスワードを再度キーボード24を介して入力しサーバ2に送信する。一方、アバター選択画面のデータを受信した場合には、表示部28にアバター選択画面を表示する。そして、マウス等のポインティングデバイスを用いてチャットにおいて利用するアバターを指定してクリックすることによりアバターを選択する。   When the client 6a receives a message notifying that the collation does not match, the client 6a inputs the user ID and password again via the keyboard 24 and transmits them to the server 2. On the other hand, when the data of the avatar selection screen is received, the avatar selection screen is displayed on the display unit 28. Then, an avatar is selected by designating and clicking an avatar to be used in the chat using a pointing device such as a mouse.

サーバ2において、クライアント6aからアバターを選択したことを示すアバター選択情報を受信した場合には、選択されたアバターのアバターIDとユーザIDとを対応させてデータ記憶部18に記憶する。また、選択されたアバターの画像データ、選択されたアバターのアバターID及びチャットルームの画像を示すデータをクライアント6aに送信する。即ち、アバター情報記憶部16に記憶されているアバター画像とデータ記憶部18に記憶されているチャットルームの画像を示すデータを通信制御部12を介してクライアント6aに送信する。なお、チャットルーム内に既に他のアバターが存在する場合には、チャットルーム内に存在する他のアバターの画像及びアバターIDも送信する。   When the server 2 receives the avatar selection information indicating that the avatar is selected from the client 6a, the avatar ID of the selected avatar and the user ID are associated with each other and stored in the data storage unit 18. In addition, the image data of the selected avatar, the avatar ID of the selected avatar, and data indicating the chat room image are transmitted to the client 6a. That is, the data indicating the avatar image stored in the avatar information storage unit 16 and the chat room image stored in the data storage unit 18 are transmitted to the client 6 a via the communication control unit 12. In addition, when another avatar already exists in a chat room, the image and avatar ID of the other avatar which exists in a chat room are also transmitted.

クライアント6aにおいては、サーバ2から送信されたアバターの画像、アバターID及びチャットルームを示すデータを通信制御部22を介して受信しデータ記憶部26に記憶する。次に、データ記憶部26に記憶されたアバターの画像データ及びチャットルームの画像を示すデータに基づいて、チャットルームにおいてアバターが存在することを示す画面を作成し表示部28に表示する。ここで、チャットルーム内に他のアバターが存在する場合、例えば、ユーザBのアバターであるアバターB及びユーザCのアバターであるアバターCがチャットルームに存在する場合には、アバターBの画像及びアバターIDとアバターCの画像及びアバターIDも通信制御部22を介して受信されデータ記憶部26に記憶される。そして、ユーザAのアバターAと共にユーザBのアバターB及びユーザCのアバターCがチャットルーム内に存在することを示す画面が作成され表示部28に表示される。   In the client 6 a, the data indicating the avatar image, the avatar ID, and the chat room transmitted from the server 2 are received via the communication control unit 22 and stored in the data storage unit 26. Next, based on the avatar image data stored in the data storage unit 26 and the data indicating the chat room image, a screen indicating that an avatar exists in the chat room is created and displayed on the display unit 28. Here, when other avatars exist in the chat room, for example, when the avatar B that is the avatar of the user B and the avatar C that is the avatar of the user C exist in the chat room, the image of the avatar B and the avatar The ID, the image of the avatar C, and the avatar ID are also received via the communication control unit 22 and stored in the data storage unit 26. And the screen which shows that the avatar B of the user B and the avatar C of the user C exist in the chat room with the avatar A of the user A is created and displayed on the display unit 28.

次に、クライアント6aにおいて、ユーザB及びユーザCに対するチャットメッセージをキーボード24を介して入力し、入力したチャットメッセージのテキスト情報(文字列)を通信制御部22及びネットワーク4を介してサーバ2に送信する。また、テキスト情報と共に、チャットルーム内におけるアバターの位置を示すアバター位置情報、即ち、アバターAの3次元の仮想空間内における位置を示す座標をサーバ2に送信する。位置情報に関しては、チャット送信の無い場合でも一定時間毎に送信され、サーバ2は常に仮想空間内に存在するアバターの位置を把握している。なお、サーバ2に送信されたテキスト情報及びアバター位置情報は、データ記憶部26に記憶される。   Next, in the client 6a, a chat message for the user B and the user C is input via the keyboard 24, and text information (character string) of the input chat message is transmitted to the server 2 via the communication control unit 22 and the network 4. To do. In addition to the text information, avatar position information indicating the position of the avatar in the chat room, that is, coordinates indicating the position of the avatar A in the three-dimensional virtual space are transmitted to the server 2. The position information is transmitted at regular intervals even when there is no chat transmission, and the server 2 always knows the position of the avatar that exists in the virtual space. The text information and the avatar position information transmitted to the server 2 are stored in the data storage unit 26.

サーバ2においては、図4のフローチャートに示すように、クライアント6aからネットワーク4を介して送信されたテキスト情報を通信制御部12を介して受信する(ステップS10)。なお、受信されたテキスト情報は、ユーザID及びアバターIDに対応させてデータ記憶部18に記憶される。   As shown in the flowchart of FIG. 4, the server 2 receives text information transmitted from the client 6a via the network 4 via the communication control unit 12 (step S10). The received text information is stored in the data storage unit 18 in association with the user ID and the avatar ID.

次に、ステップS10において受信されたテキスト情報の文字数をカウントする(ステップS11)。即ち、データ記憶部18に記憶されたテキスト情報の文字列を構成する文字数をカウントし、カウントされた文字数をテキスト情報に対応させてデータ記憶部18に記憶する。   Next, the number of characters of the text information received in step S10 is counted (step S11). That is, the number of characters constituting the character string of the text information stored in the data storage unit 18 is counted, and the counted number of characters is stored in the data storage unit 18 in association with the text information.

次に、クライアント6aから送信されたアバター位置情報を通信制御部12を介して受信する(ステップS12)。即ち、クライアント6aの表示部28に表示されているチャットルームにおけるアバターの位置を示す3次元の仮想空間の座標を受信する。なお、受信されたアバター位置情報は、ユーザID及びアバターIDに対応させてデータ記憶部18に記憶される。   Next, the avatar position information transmitted from the client 6a is received via the communication control unit 12 (step S12). That is, the coordinate of the three-dimensional virtual space which shows the position of the avatar in the chat room currently displayed on the display part 28 of the client 6a is received. The received avatar position information is stored in the data storage unit 18 in association with the user ID and the avatar ID.

次に、ステップS12において受信されたアバター位置情報に基づいて対話相手を決定する(ステップS13)。即ち、ステップS10において受信されたテキスト情報の送信元であるクライアントを用いるユーザのアバターを中心とし、該アバターから所定の範囲内に存在するアバターとの距離を算出する。例えば、ユーザAのアバターAを中心とする所定の範囲内に存在するユーザBのアバターB及びユーザCのアバターCとの距離をそれぞれ算出する。そして、アバターAとアバターBとの距離、アバターAとアバターCとの距離がそれぞれ所定の範囲内となっている場合には、アバターA、アバターB及びアバターCとがチャットを行う範囲内に存在すると判断され、アバターB及びアバターCがアバターAの対話相手として決定される。   Next, a conversation partner is determined based on the avatar position information received in step S12 (step S13). In other words, the distance from the avatar that exists in a predetermined range from the avatar is calculated from the avatar of the user who uses the client that is the transmission source of the text information received in step S10. For example, the distance between the avatar B of the user B and the avatar C of the user C existing within a predetermined range centering on the avatar A of the user A is calculated. If the distance between the avatar A and the avatar B and the distance between the avatar A and the avatar C are within the predetermined ranges, the avatar A, the avatar B, and the avatar C exist within the chatting range. Then, avatar B and avatar C are determined as the avatar A's conversation partners.

次に、発言したユーザのアバター及びチャットに参加しているユーザのアバターの動作パラメータを算出する(ステップS14)。ここで、例えば、人が対面して行う通常の会話におけるノンバーバル表現、即ち、顔表情、視線及び頷き等の非言語表現には、(1)人物間の非言語表現の関連性、(2)人物内の非言語表現の関連性が存在する。即ち、人物間において対話が行われている場合、人物間の視線、顔表情、頷き、発話の量には一定の関連性があることが知られている。また、人物内の非言語表現はそれぞれの要素が一定の関連性を有していることが知られている。なお、視線は相手を見つめる時間、顔表情は笑顔の強さ、頷きは頷く回数、発話は発話語数(例えば、チャットメッセージの文字数)である。   Next, operation parameters of the avatar of the speaking user and the avatar of the user participating in the chat are calculated (step S14). Here, for example, non-verbal expressions in a normal conversation faced by a person, that is, non-verbal expressions such as facial expressions, line of sight, and whispering are (1) relevance of non-verbal expressions between persons, (2) There is a relevance of non-linguistic expressions in people. That is, it is known that there is a certain relationship between the amount of gaze, facial expression, whispering, and utterance between persons when a conversation is performed between persons. Moreover, it is known that each element has a certain relevance in the non-verbal expression in a person. The line of sight is the time to stare at the other party, the facial expression is the intensity of smile, the whisper is the number of whispering, and the utterance is the number of words spoken (for example, the number of characters in the chat message).

(1)の人物間の非言語表現の関連性は、非言語表現の表出量には対話者間の親密度に基づく平衡状態が存在するというものである。例えば、ユーザAとユーザBとの間で対面により会話が行われている場合、ユーザAの視線、顔表情(表情)、頷き及び発話と、ユーザBの視線、顔表情(表情)、頷き及び発話との関係は、図5(a)に示すように、線で結ばれた表現間において、一方が高まると他方も高まるという正の相関関係を有している。即ち、図5(b)の表において「○」を付した表現間においては、例えば、ユーザAの視線が高まることにより、ユーザBの発話量及び視線が高まり、ユーザBの笑顔が高まることによりユーザAの発話量及び笑顔が高まる等の正の相関関係が存在する。   The relationship of the non-linguistic expression between the persons in (1) is that there is an equilibrium state based on the closeness between the interlocutors in the amount of expression of the non-linguistic expression. For example, when a user A and a user B have a face-to-face conversation, the user A's line of sight, facial expression (expression), whisper and speech, and the user B's line of sight, facial expression (expression), whisper and As shown in FIG. 5A, the relationship with the utterance has a positive correlation between the expressions connected by the line that when one increases, the other increases. That is, between the expressions marked with “◯” in the table of FIG. 5B, for example, when the user A's line of sight increases, the user B's speech volume and line of sight increase, and the user B's smile increases. There is a positive correlation such as an increase in the amount of utterance and smile of user A.

(2)の人物内の非言語表現の関連性とは、人物内の非言語表現は、対話者間の親密度に基づく平衡状態にあり、常に各種の表現の総和を平衡に保とうとするというものである。例えば、ユーザAの視線、表情、頷き及び発話の中で、視線の値が高くなれば、頷きの値が低くなる等、各種の非言語表現の総和が一定(平衡)になるように保たれる。   (2) Relevance of non-linguistic expressions in a person is that the non-linguistic expressions in a person are in an equilibrium state based on intimacy between interlocutors, and always try to keep the sum of various expressions in equilibrium. Is. For example, in the user A's line of sight, facial expression, whispering, and speech, the sum of various non-verbal expressions is kept constant (equilibrium), such as if the line of sight increases, the whispering value decreases. It is.

ここで、ユーザAの非言語表現の表出量をx、ユーザBの非言語表現の表出量をxとすると、上述の(1)に基づく非言語表現の人物間の関連性に基づいて、xとxの関係を以下の(数式1)により示すことができる。
=x・・・(数式1)
また、ユーザの意図が働いた非言語表現のそれぞれの要素の表出量をciとすると、上述の(2)に基づく非言語表現の人物内の関連性に基づいて、Σciの値は常に一定となる。また、アバターによって表出される非言語表現の表出量をeとし、eを以下の(数式2)により定義する。なお、「a」は、個人差を示す係数であり、ユーザが任意に設定することができる。
e=x・c・a・・・(数式2)
この時、アバターAの顔表情の表出量を示す動作パラメータをe 、視線の表出量を示す動作パラメータをe 、頷きの表出量を示す動作パラメータをe 、発話の表出量(発言量、ステップS11においてカウントされた文字数)を示す動作パラメータをe とし、アバターBの顔表情の表出量を示す動作パラメータをe 、視線の表出量を示す動作パラメータをe 、頷きの表出量を示す動作パラメータをe 、発話の表出量(発言量)を示す動作パラメータをe とする。また、アバターAの意図に基づく顔表現の表出量をc 、意図に基づく視線の表出量をc 、意図に基づく頷きの表出量をc 、意図に基づく発話の表出量をc とし、アバターBの意図に基づく顔表情の表出量をc 、意図に基づく視線の表出量をc 、意図に基づく頷きの表出量をc 、意図に基づく発話の表出量をc とする。更に、アバターAの顔表現の表出量に関する個人差を示す係数をa 、視線の表出量に関する個人差を示す係数をa 、頷きの表出量に関する個人差を示す係数をa 、発話の表出量に関する個人差を示す係数をa とし、アバターBの顔表情の表出量に関する個人差を示す係数をa 、視線の表出量に関する個人差を示す係数をa 、頷きの表出量に関する個人差を示す係数をa 、発話の表出量に関する個人差を示す係数をa とする。
Here, when the expression amount of the non-linguistic expression of the user A is x A and the expression amount of the non-linguistic expression of the user B is x B , the relationship between the persons of the non-linguistic expression based on the above (1) is obtained. based on the relationship of x a and x B can be shown by the following (equation 1).
x A = x B (Formula 1)
Further, when the expression amount of each element of the non-linguistic expression on which the user's intention has worked is ci, the value of Σci is always constant based on the relevance within the person of the non-linguistic expression based on the above (2). It becomes. Further, e is the expression amount of the non-language expression expressed by the avatar, and e is defined by the following (Equation 2). “A” is a coefficient indicating individual differences, and can be arbitrarily set by the user.
e = x · c · a (Equation 2)
At this time, the operation parameter indicating the expression amount of the facial expression of the avatar A is e A f , the operation parameter indicating the expression amount of the line of sight is e A e , the operation parameter indicating the expression amount of the whirling is e A n , and the speech expressive amount operation parameter indicating the e a s (say weight, counted number of characters in step S11), and the operation parameter indicating the expression of facial expression of the avatar B e B f, the expression amount of the line of sight the operation parameters shown e B e, the operating parameters e B n indicating the expression of nod, expression amount of utterances operating parameters indicating the (speech volume) and e B s. Also, the expression amount of the facial expression based on the intention of the avatar A is c A f , the expression amount of the gaze based on the intention is c A e , the expression amount of the whispering expression based on the intention is c A n , and the utterance based on the intention The expression amount is c A s , the expression amount of the facial expression based on the intention of the avatar B is c B f , the expression amount of the gaze based on the intention is c B e , and the expression amount of the whispering based on the intention is c B n , let c B s be the amount of speech expressed based on intention. Furthermore, a coefficient indicating the individual difference regarding the expression amount of the facial expression of avatar A is a A f , the coefficient indicating the individual difference regarding the expression amount of the line of sight is a A e , and the coefficient indicating the individual difference regarding the expression amount of the whirling a A n , a coefficient indicating an individual difference related to the amount of utterances expressed as a A s , a coefficient indicating an individual difference related to the amount expressed of a facial expression of Avatar B a b f , and an individual difference regarding the amount expressed as a line of sight It is assumed that a B e is a coefficient to indicate, a B n is a coefficient indicating an individual difference regarding the amount of expression of whispering, and a B s is a coefficient indicating an individual difference regarding the amount of speech expression.

ここで、(数式1)よりアバターAとアバターBの非言語表現の表出量が等しく、また、アバターAとアバターBのそれぞれの非言語表現の要素の表出量は(数式2)に基づいて算出することができる。従って、上述の(1)に示す関連性に基づいて、例えば、アバターAの視線とアバターBの視線との間には、以下の(数式3)に示す関係が成立する。
/(c ・a )=e /(c ・a )・・・(数式3)
また、上述の(2)に示す関連性に基づいて、アバターAの意図に基づく非言語表現の各々の要素とアバターBの意図に基づく非言語表現の各々の要素と、ユーザAとユーザBとの間の親密度(I)との間には以下の(数式4)に示す関係が成立する。
+c +c +c +c +c +c +c =I・・・(数式4)
以上より、(数式3)及び(数式4)に基づいて、図5(b)に示す正の相関関係を有する非言語表現間の関係を以下の数式(数式5)〜(数式13)により示すことができる。この時、以下の(数式5)〜(数式13)においてE〜E12の各々の値が「0」となるように、それぞれの要素の表出量「e」の値を算出することにより、上述の関連性(1)及び(2)を満たした非言語表現の表出量を示す動作パラメータの値を算出することができる。
={e /(c ・a )−e /(c ・a )}・・・(数式5)
={e /(c ・a )−e /(c ・a )}・・・(数式6)
={e /(c ・a )−e /(c ・a )}・・・(数式7)
={e /(c ・a )−e /(c ・a )}・・・(数式8)
={e /(c ・a )−e /(c ・a )}・・・(数式9)
={e /(c ・a )−e /(c ・a )}・・・(数式10)
={e /(c ・a )−e /(c ・a )}・・・(数式11)
={e /(c ・a )−e /(c ・a )}・・・(数式12)
={I−(c +c +c +c +c +c +c +c )}・・・(数式13)
なお、親密度Iは、予めユーザにより設定され、データ記憶部18に記憶されている。また、算出されたそれぞれの動作パラメータは、ユーザID及びアバターIDに対応させてデータ記憶部18に記憶される。また、アバターAの非言語表現の表出量及びアバターCの非言語表現の表出量を上述の数式(1)〜数式(13)に当てはめ、上述のアバターAとアバターBの間における動作パラメータを算出する処理と同様の処理によりアバターAとアバターCの間における動作パラメータが算出される。また、算出された動作パラメータは、ユーザID及びアバターIDに対応させてデータ記憶部18に記憶される。
Here, the expression amounts of the non-linguistic expressions of Avatar A and Avatar B are equal from (Expression 1), and the expression amounts of the non-language expressions of each of Avatar A and Avatar B are based on (Expression 2). Can be calculated. Therefore, based on the relevance shown in (1) above, for example, the relationship shown in the following (Equation 3) is established between the line of sight of avatar A and the line of sight of avatar B.
e A e / (c A e · a A e) = e B e / (c B e · a B e) ··· ( Equation 3)
Further, based on the relationship shown in (2) above, each element of the non-language expression based on the intention of the avatar A, each element of the non-language expression based on the intention of the avatar B, the user A and the user B, The relationship shown in the following (Formula 4) is established with the intimacy (I).
c A f + c B f + c A e + c B e + c A n + c B n + c A s + c B s = I ··· ( Equation 4)
Based on (Equation 3) and (Equation 4), the relationship between the non-linguistic expressions having the positive correlation shown in FIG. 5B is expressed by the following equations (Equation 5) to (Equation 13). be able to. At this time, by calculating the value of the expression amount “e” of each element so that each value of E 1 to E 12 is “0” in the following (Formula 5) to (Formula 13). The value of the operation parameter indicating the expression amount of the non-linguistic expression that satisfies the relevance (1) and (2) described above can be calculated.
E 1 = {e A e / (c A e · a A e) -e B e / (c B e · a B e)} 2 ··· ( Equation 5)
E 2 = {e A f / (c A f · a A f ) −e B f / (c B f · a B f )} 2 (Equation 6)
E 3 = {e A s / (c A s · a A s) -e B e / (c B e · a B e)} 2 ··· ( Equation 7)
E 4 = {e A e / (c A e · a A e) -e B s / (c B s · a B s)} 2 ··· ( Equation 8)
E 5 = {e A s / (c A s · a A s) -e B f / (c B f · a B f)} 2 ··· ( Equation 9)
E 6 = {e A f / (c A f · a A f) -e B s / (c B s · a B s)} 2 ··· ( Formula 10)
E 7 = {e A s / (c A s · a A s) -e B n / (c B n · a B n)} 2 ··· ( Equation 11)
E 8 = {e A n / (c A n · a A n) -e B s / (c B s · a B s)} 2 ··· ( Equation 12)
E 9 = {I- (c A f + c B f + c A e + c B e + c A n + c B n + c A s + c B s)} 2 ··· ( Formula 13)
The familiarity I is set in advance by the user and stored in the data storage unit 18. The calculated operation parameters are stored in the data storage unit 18 in association with the user ID and the avatar ID. Further, the expression amount of the non-linguistic expression of the avatar A and the expression amount of the non-linguistic expression of the avatar C are applied to the expression (1) to the expression (13), and the operation parameter between the avatar A and the avatar B is applied. The operation parameter between avatar A and avatar C is calculated by the same processing as that for calculating. Further, the calculated operation parameter is stored in the data storage unit 18 in association with the user ID and the avatar ID.

ここで、ユーザAとユーザBとの間の親密度と、ユーザAとユーザCとの間の親密度とが同一となっている場合、ユーザBの動作パラメータとユーザCの動作パラメータとが同一となってしまう。従って、ユーザBとユーザCのユーザAに対する親密度が同一となっている場合には、上述の数式において非言語表現の表出量を算出する際に用いられる初期値を変更して動作パラメータを算出する。即ち、アバターBの動作パラメータを算出する際に用いた初期値と異なる初期値を用いてアバターCの動作パラメータを算出し、アバターBとアバターCの動作パラメータが同一となることを防止する。   Here, when the intimacy between the user A and the user B and the intimacy between the user A and the user C are the same, the operation parameter of the user B and the operation parameter of the user C are the same. End up. Therefore, when the intimacy of the user B and the user C with respect to the user A is the same, the initial value used when calculating the expression amount of the non-language expression in the above formula is changed to change the operation parameter. calculate. That is, the operation parameter of the avatar C is calculated using an initial value different from the initial value used when calculating the operation parameter of the avatar B, and the operation parameters of the avatar B and the avatar C are prevented from being the same.

なお、アバターAの動作パラメータとして、データ記憶部18にユーザAのユーザID及びアバターAのアバターIDに対応させて記憶されている動作パラメータの中から任意に選択された動作パラメータが用いられる。即ち、データ記憶部18には、アバターAの動作パラメータとしてアバターBとの間において算出された動作パラメータと、アバターCとの間において算出された動作パラメータとが記憶されている。従って、データ記憶部18に記憶されている2つの動作パラメータの中から何れかの動作パラメータが任意に選択され、アバターAの動作パラメータとなる。   Note that as the operation parameter of the avatar A, an operation parameter arbitrarily selected from the operation parameters stored in the data storage unit 18 in association with the user ID of the user A and the avatar ID of the avatar A is used. That is, the data storage unit 18 stores an operation parameter calculated with the avatar B as an operation parameter of the avatar A and an operation parameter calculated with the avatar C. Accordingly, any one of the two operation parameters stored in the data storage unit 18 is arbitrarily selected and becomes the operation parameter of the avatar A.

次に、ステップS14において算出された動作パラメータに基づいて、発言したユーザのアバター及びチャットに参加しているユーザのアバターのそれぞれの動作を示す動作情報を作成する(ステップS15)。即ち、データ記憶部18に記憶されている動作パラメータに基づいて、例えば、アバターAがアバターBに視線を向ける時間、笑顔の程度及び頷く回数と、アバターBがアバターAに視線を向ける時間、笑顔の程度及び頷く回数とアバターCがアバターAに視線を向ける時間、笑顔の程度及び頷く回数を示す動作情報をそれぞれ作成する。なお、作成された動作情報は、ユーザID及びアバターIDに対応させてデータ記憶部18に記憶される。   Next, based on the motion parameters calculated in step S14, motion information indicating the motions of the speaking user's avatar and the user's avatar participating in the chat is created (step S15). That is, based on the operation parameters stored in the data storage unit 18, for example, the time when the avatar A looks at the avatar B, the degree of smile and the number of times of a smile, the time when the avatar B looks at the avatar A, smile And the number of times of whispering, the time when the avatar C turns the line of sight toward the avatar A, the degree of smile and the number of times of whispering are created. The created operation information is stored in the data storage unit 18 in association with the user ID and the avatar ID.

図6は、アバターの動作情報の一例を示す図である。図6においては、ユーザAがアバターAを用い、ユーザBがアバターBを用いてユーザA及びユーザB間でチャットを行っている場合のアバターA、アバターBの動作情報の一例を示している。ここで、視線は、相手に視線を向ける時間の割合を示し、顔表情は相手に見せる笑顔の強度を示している。また、頷きは相手に返す頷きの回数であり、発話量は、発話語数、即ち、チャットメッセージの文字数である。図6に示すように、例えば、「data1」において、アバターAの視線の値は「0.23」、顔表情の値は「0.27」、頷きの値は「0」、発話量は「5」であり、アバターBの視線の値は「0.26」、顔表情の値は「0.23」、頷きの値は「0」、発話量は「5」となっている。また、「data4」において、アバターAの視線の値は「0.45」、顔表情の値は「0.55」、頷きの値は「1.5」、発話量は「30」であり、アバターBの視線の値は「0.51」、顔表情の値は「0.48」、頷きの値は「1.5」、発話量は「30」となっている。従って、発話量の増加に伴って視線、笑顔及び頷きの値が増加しており、非言語表現の各要素間において正の相関関係が成立している。また、アバターAの非言語表現は、発話量の増加に伴い各要素の合計値が増加しており、アバターAの非言語表現の表出量が平衡状態を保っている。同様に、アバターBの非言語表現においても、非言語表現の表出量が平衡状態を保っている。なお、図6においては、アバターCの動作情報を省略しているが、アバターCの動作情報も、アバターAとアバターBの間における場合と同様に、非言語表現の各要素間における相関関係を有していると共に、アバターAとの間の平衡状態を保っている。   FIG. 6 is a diagram illustrating an example of motion information of an avatar. FIG. 6 shows an example of operation information of avatar A and avatar B when user A uses avatar A and user B chats between user A and user B using avatar B. Here, the line of sight indicates the proportion of time for which the line of sight is directed to the other party, and the facial expression indicates the intensity of the smile that is shown to the other party. In addition, whispering is the number of whisperings to be returned to the partner, and the utterance amount is the number of utterance words, that is, the number of characters in the chat message. As shown in FIG. 6, for example, in “data 1”, the value of the line of sight of avatar A is “0.23”, the value of facial expression is “0.27”, the value of whispering is “0”, and the amount of speech is “ The value of the line of sight of Avatar B is “0.26”, the value of facial expression is “0.23”, the value of whispering is “0”, and the amount of speech is “5”. In “data4”, the value of the line of sight of Avatar A is “0.45”, the value of facial expression is “0.55”, the value of whispering is “1.5”, and the amount of speech is “30”. The value of the line of sight of Avatar B is “0.51”, the value of facial expression is “0.48”, the value of whispering is “1.5”, and the amount of speech is “30”. Therefore, the line-of-sight, smile, and whisker values increase as the amount of speech increases, and a positive correlation is established between the elements of the non-linguistic expression. In addition, in the non-linguistic expression of avatar A, the total value of each element increases as the amount of speech increases, and the amount of expression of the non-linguistic expression of avatar A maintains an equilibrium state. Similarly, in the non-linguistic expression of the avatar B, the expression amount of the non-linguistic expression is kept in an equilibrium state. In FIG. 6, the motion information of the avatar C is omitted, but the motion information of the avatar C is also correlated with each element of the non-language expression as in the case between the avatar A and the avatar B. And maintain an equilibrium state with Avatar A.

次に、データ記憶部18に記憶されている動作情報をチャットを行っているクライアントに送信する(ステップS16)。例えば、ユーザA、ユーザB及びユーザCの間でチャットを行っている場合には、クライアント6a、クライアント6b及びクライアント6cのそれぞれに対して、アバターAの動作情報、アバターBの動作情報及びアバターCの動作情報を送信する。ここで、動作情報は、アバターIDと共に、例えば、アバターAの動作情報はアバターAのアバターIDと共に、アバターBの動作情報はアバターBのアバターIDと共に、アバターCの動作情報はアバターCのアバターIDと共に送信される。   Next, the operation information stored in the data storage unit 18 is transmitted to the client that is chatting (step S16). For example, when chatting is performed between the user A, the user B, and the user C, the operation information of the avatar A, the operation information of the avatar B, and the avatar C are respectively given to the client 6a, the client 6b, and the client 6c. The operation information of is sent. Here, the motion information is an avatar ID, for example, the motion information of avatar A is avatar ID of avatar A, the motion information of avatar B is avatar ID of avatar B, and the motion information of avatar C is avatar ID of avatar C. Sent with.

次に、チャットに参加しているアバターのユーザが用いるクライアントに対して、データ記憶部18に記憶されているテキスト情報を送信する(ステップS17)。例えば、アバターA、アバターB及びアバターCの間でチャットが行われている場合には、アバターBを用いているユーザBのクライアント6b及びアバターCを用いているユーザCのクライアント6cのそれぞれに対してテキスト情報を送信する。   Next, the text information memorize | stored in the data memory | storage part 18 is transmitted with respect to the client which the user of the avatar participating in chat uses (step S17). For example, when a chat is being performed among avatar A, avatar B, and avatar C, for each of client B of user B using avatar B and client 6c of user C using avatar C To send text information.

クライアント6aにおいては、サーバ2からネットワーク4を介して送信されたアバターAの動作情報、アバターBの動作情報及びアバターCの動作情報を通信制御部22を受信する。そして、アバターAのアバターIDに対応する動作情報に基づいてアバターAの視線、顔表情及び頷きの動作を変化させて表示部28に表示すると共に、アバターBのアバターIDに対応する動作情報に基づいてアバターBの視線、顔表情及び頷きの動作とアバターCの視線、顔表情及び頷きの動作を変化させて表示部28に表示する。また、アバターの動作を表示する際に、データ記憶部26に記憶されているユーザAのチャットメッセージであるテキスト情報を表示部28に表示する。   In the client 6 a, the communication control unit 22 receives the avatar A operation information, the avatar B operation information, and the avatar C operation information transmitted from the server 2 via the network 4. Based on the motion information corresponding to the avatar ID of the avatar A, the line of sight, facial expression and whispering motion of the avatar A are changed and displayed on the display unit 28 based on the motion information corresponding to the avatar ID of the avatar A. Then, the line of sight, facial expression and whispering movement of avatar B and the line of sight, facial expression and whispering movement of avatar C are changed and displayed on display 28. Further, when displaying the avatar action, the text information which is the chat message of the user A stored in the data storage unit 26 is displayed on the display unit 28.

また、クライアント6bにおいては、クライアント6aにおける場合と同様に、アバターA、アバターB及びアバターCの動作を変化させて表示すると共に、サーバ2から送信されたテキスト情報を受信し、受信されたテキスト情報に基づいてユーザAのチャットメッセージを表示する。更に、クライアント6cにおいても、クライアント6a及びクライアント6bにおける場合と同様に、アバターA、アバターB及びアバターCの動作を変化させて表示すると共に、サーバ2から送信されたテキスト情報を受信し、受信されたテキスト情報に基づいてユーザAのチャットメッセージを表示する。   Further, in the client 6b, as in the case of the client 6a, the operations of the avatar A, avatar B, and avatar C are changed and displayed, the text information transmitted from the server 2 is received, and the received text information is received. Based on the above, the chat message of the user A is displayed. Further, in the client 6c, as in the case of the client 6a and the client 6b, the operations of the avatar A, the avatar B, and the avatar C are changed and displayed, and the text information transmitted from the server 2 is received and received. The chat message of the user A is displayed based on the text information.

この発明の第1の実施の形態に係るアバター制御装置によれば、複数人でチャットを行っており、発言者に対する親密度が同一となっているユーザが複数存在する場合には、各ユーザのアバターの動作パラメータが重複しないように動作パラメータを算出している。即ち、動作パラメータを算出する際の初期値を変更し、同一の親密度及び同一の文字数を用いた場合であっても、異なる動作パラメータが算出されている。従って、複数人でコミュニケーションを行っている際に、複数人のユーザのアバターが同時に同一の動作を行うことがなく、アバターに自然な動作をさせることができる。   According to the avatar control device according to the first embodiment of the present invention, when a plurality of people are chatting and there are a plurality of users having the same intimacy with respect to a speaker, The motion parameters are calculated so that the motion parameters of the avatar do not overlap. That is, even when the initial value for calculating the operation parameter is changed and the same familiarity and the same number of characters are used, different operation parameters are calculated. Therefore, when a plurality of people are communicating, avatars of a plurality of users do not simultaneously perform the same operation, and the avatar can perform a natural operation.

次に、この発明の第2の実施の形態に係るアバター制御装置について説明する。なお、以下においては、第1の実施の形態に係る3次元の仮想空間内におけるチャット等のコミュニケーションを行うシステム(図1参照)と同一のシステムにより提供される仮想空間内において、複数のユーザ間で行われるチャットにおいてアバターの動作を制御する場合を例として説明する。また、以下においては、第1の実施の形態と同一の機能を示す部分については、第1の実施の形態において用いた符号と同一の符号を用いる。   Next, an avatar control device according to the second embodiment of the present invention will be described. In the following, a plurality of users in a virtual space provided by the same system as the system (see FIG. 1) that performs communication such as chat in the three-dimensional virtual space according to the first embodiment. The case where the operation of the avatar is controlled in the chat performed in FIG. In the following description, the same reference numerals as those used in the first embodiment are used for the portions that exhibit the same functions as those in the first embodiment.

図7は、第2の実施の形態に係るサーバ2のブロック構成図である。サーバ2は、図7に示すように、サーバ2におけるデータの処理を制御するデータ制御部10を備えている。このデータ制御部10には、アバターの動作を示す動作パラメータを複数パターン記憶した動作パラメータデータベース30が接続されている。なお、その他の部分については、第1の実施の形態に係るサーバ2と同一の構成であるため、説明を省略する。   FIG. 7 is a block configuration diagram of the server 2 according to the second embodiment. As shown in FIG. 7, the server 2 includes a data control unit 10 that controls processing of data in the server 2. The data controller 10 is connected to an operation parameter database 30 that stores a plurality of patterns of operation parameters indicating the avatar's operation. The other parts have the same configuration as that of the server 2 according to the first embodiment, and a description thereof will be omitted.

動作パラメータデータベース30には、動作パラメータ、即ち、ユーザ間の親密度及びチャットメッセージ(テキスト情報)の文字数に基づいて算出されたアバターの視線、顔表情及び頷く回数等を示す動作情報を作成する際に用いられるパラメータが記憶されている。動作パラメータデータベース30においては、複数パターン、例えば、図8に示すように、文字数及び親密度毎にパターンa、パターンb及びパターンcの3つのパターンの動作パラメータが記憶されている。即ち、図8に示すように、例えば、親密度が1、文字数が1の場合の動作パラメータとして、パターンaの動作パラメータ、パターンbの動作パラメータ及びパターンcの動作パラメータが記憶されている。また、親密度が2、文字数が2の場合の動作パラメータとして、パターンaの動作パラメータ、パターンbの動作パラメータ及びパターンcの動作パラメータが記憶されている。このように、親密度が1、文字数が1〜40のそれぞれの場合、親密度が2、文字数が1〜40のそれぞれの場合、同様に、親密度が3、4、・・・、10であって、文字数が1〜40のそれぞれの場合において、パターンa、パターンb及びパターンcの動作パラメータが記憶されている。即ち、動作パラメータデータベース30には、合計1200パターンの動作パラメータが記憶されている。   In the operation parameter database 30, when generating operation information indicating the operation parameters, that is, the degree of familiarity between users and the number of characters in the chat message (text information), the avatar's line of sight, facial expression, number of whispering, etc. The parameters used for are stored. The operation parameter database 30 stores operation parameters of a plurality of patterns, for example, three patterns of pattern a, pattern b, and pattern c for each number of characters and familiarity as shown in FIG. That is, as shown in FIG. 8, for example, the operation parameter of pattern a, the operation parameter of pattern b, and the operation parameter of pattern c are stored as operation parameters when the familiarity is 1 and the number of characters is 1. In addition, as operation parameters when the familiarity is 2 and the number of characters is 2, an operation parameter of pattern a, an operation parameter of pattern b, and an operation parameter of pattern c are stored. Thus, when the familiarity is 1 and the number of characters is 1 to 40, the familiarity is 2 and the number of characters is 1 to 40. Similarly, the familiarity is 3, 4,. In each case where the number of characters is 1 to 40, the operation parameters of pattern a, pattern b, and pattern c are stored. That is, the operation parameter database 30 stores a total of 1200 operation parameters.

ここで、動作パラメータデータベース30に記憶されている動作パラメータは、第1の実施の形態における処理、即ち、図4のフローチャートに示すステップS14における処理と同様の処理により算出される。即ち、動作パラメータを算出する際に用いる初期値として、パターンa用の初期値、パターンb用の初期値及びパターンc用の初期値を設定する。設定された初期値は、それぞれのパターンの動作パラメータを算出する際に、即ち、同一の文字数及び同一の親密度において、パターンaの初期値はパターンaの動作パラメータを算出する際に、パターンbの初期値はパターンbの動作パラメータを算出する際に、パターンcの初期値はパターンcの動作パラメータを算出する際に用いられる。このように複数パターンの初期値を設定することにより、親密度及び文字数が同一の場合であっても、複数パターンの動作パラメータを算出し、算出された複数パターンの動作パラメータを親密度及び文字数に対応させて動作パラメータデータベース30に記憶することができる。   Here, the operation parameter stored in the operation parameter database 30 is calculated by a process similar to the process in the first embodiment, that is, the process in step S14 shown in the flowchart of FIG. That is, the initial value for pattern a, the initial value for pattern b, and the initial value for pattern c are set as initial values used when calculating the operation parameter. The set initial value is the pattern b when calculating the operation parameter of each pattern, that is, with the same number of characters and the same familiarity, the initial value of the pattern a is the pattern b when calculating the operation parameter of the pattern a. Is used when calculating the operation parameter of the pattern b, and the initial value of the pattern c is used when calculating the operation parameter of the pattern c. By setting the initial values of multiple patterns in this way, even if the familiarity and the number of characters are the same, the operation parameters of the multiple patterns are calculated, and the calculated operation parameters of the multiple patterns are set to the familiarity and the number of characters. Correspondingly, it can be stored in the operation parameter database 30.

なお、この発明の第2の実施の形態においては、クライアントとして上述の第1の実施の形態において用いられるクライアント6a、6b及び6cと同一のクライアントが用いられるため、詳細な説明を省略する。   In the second embodiment of the present invention, the same client as the clients 6a, 6b and 6c used in the first embodiment is used as the client, and thus detailed description thereof is omitted.

次に、この発明の第2の実施の形態に係るアバター制御装置におけるアバターの制御処理について説明する。なお、以下においては、第1の実施の形態に係る場合と同様に、予めサーバ2にユーザ登録している複数のユーザ間で行われるチャットにおけるアバターの動作を制御する場合を例として説明する。   Next, an avatar control process in the avatar control device according to the second embodiment of the present invention will be described. In the following description, as in the case of the first embodiment, a case where the operation of an avatar in a chat performed between a plurality of users registered in advance in the server 2 is controlled will be described as an example.

まず、チャットを行うユーザ、例えば、ユーザAがサーバ2にユーザID及びパスワードを送信してログインを行う。ログインしたユーザAは、3次元の仮想空間内で利用するアバター(アバターA)を選択し、チャットルーム内に存在する他のユーザ(ユーザB及びユーザC)に対してテキスト情報を送信することにより、3次元の仮想空間内におけるチャットを開始する。チャットを開始することにより、クライアント6aには、チャットルーム内にユーザAのアバターと共に、ユーザBのアバターB及びユーザCのアバターCが存在していることを示す画像が表示される。なお、上述の処理は、第1の実施の形態に係る処理と同様の処理であるため、詳細な説明は省略する。   First, a user who performs chat, for example, user A transmits a user ID and password to the server 2 to log in. The logged-in user A selects an avatar (avatar A) to be used in the three-dimensional virtual space, and transmits text information to other users (user B and user C) existing in the chat room. Start a chat in a three-dimensional virtual space. By starting the chat, an image indicating that the avatar B of the user B and the avatar C of the user C exist together with the avatar of the user A is displayed on the client 6a. Note that the above-described processing is the same processing as the processing according to the first embodiment, and thus detailed description thereof is omitted.

サーバ2においては、図9のフローチャートに示すように、クライアント6aからネットワーク4を介して送信されたテキスト情報を通信制御部12を介して受信し(ステップS20)、受信されたテキスト情報の文字数をカウントする(ステップS21)。なお、カウントされた文字数は、テキスト情報と共にユーザID及びアバターIDに対応させてデータ記憶部18に記憶される。次に、クライアント6aから送信されたアバター位置情報を通信制御部12を介して受信し(ステップS22)、受信されたアバター位置情報に基づいて対話相手(チャットを行う相手)を決定する(ステップS23)。上述のステップS20〜ステップS23の処理は、図4のフローチャートにおけるステップS10〜ステップS13の処理と同様の処理であるため、詳細な説明は省略する。   As shown in the flowchart of FIG. 9, the server 2 receives the text information transmitted from the client 6a via the network 4 via the communication control unit 12 (step S20), and determines the number of characters of the received text information. Count (step S21). The counted number of characters is stored in the data storage unit 18 in association with the user ID and the avatar ID together with the text information. Next, the avatar position information transmitted from the client 6a is received via the communication control unit 12 (step S22), and a conversation partner (partner for chatting) is determined based on the received avatar position information (step S23). ). The processes in steps S20 to S23 described above are the same as the processes in steps S10 to S13 in the flowchart of FIG.

次に、チャットを行っているアバターの動作パラメータを抽出する(ステップS24)。即ち、発言したユーザと発言したユーザ以外でチャットに参加している他のユーザとの間の親密度を、ユーザ情報記憶部14に記憶されているユーザ情報に含まれる親密度を参照して確認する。次に、動作パラメータデータベース30に記憶されている動作パラメータの中から、ステップS21においてカウントされた文字数及び確認された親密度に対応して記憶されている動作パラメータを抽出する。   Next, the operation parameter of the avatar who is chatting is extracted (step S24). That is, the intimacy between the user who has spoken and other users who are participating in the chat other than the user who has spoken is confirmed by referring to the familiarity included in the user information stored in the user information storage unit 14 To do. Next, from the operation parameters stored in the operation parameter database 30, the operation parameters stored corresponding to the number of characters counted in step S21 and the familiarity confirmed are extracted.

ここで、ユーザAが発言した場合に、ユーザAとユーザBとの間の親密度と、ユーザAとユーザCとの間の親密度とが同一となっており、アバターBの動作パラメータとして、例えば、パターンaの動作パラメータが抽出された場合には、アバターCの動作パラメータとしてパターンb(又はパターンc)の動作パラメータを抽出し、同一パターンの動作パラメータが抽出されないようにする。なお、アバターAの動作パラメータは、動作パラメータデータベース30に記憶されている動作パラメータ中から、ステップS21においてカウントされた文字数及びステップS23において決定された対話相手との間における親密度に基づいて抽出される。   Here, when the user A speaks, the intimacy between the user A and the user B and the intimacy between the user A and the user C are the same. For example, when the motion parameter of pattern a is extracted, the motion parameter of pattern b (or pattern c) is extracted as the motion parameter of avatar C so that the motion parameter of the same pattern is not extracted. Note that the motion parameter of the avatar A is extracted from the motion parameters stored in the motion parameter database 30 based on the number of characters counted in step S21 and the closeness with the conversation partner determined in step S23. The

次に、抽出された動作パラメータの中に、重複が存在する場合には(ステップS25)、動作時間の待ち時間を設定する(ステップS26)。即ち、動作パラメータデータベース30には、同一の文字数及び同一の親密度の場合に、3つのパターンの動作パラメータが記憶されている。従って、例えば、10人のグループでチャットを行っており、発言したアバターのユーザに対する親密度が同一となっているユーザが4人存在する場合には、必ず同一パターンの動作パラメータが抽出されてしまう。従って、同一の文字数及び同一の親密度において、同一パターンの動作パラメータが抽出された場合には、アバターが動作を開始する時間をずらすことにより、複数のアバターが同一の動作を同時に行うことを防ぐ。そのため、重複している動作パラメータの数に基づいて、アバターが動作を開始するまでの待ち時間を設定する。例えば、ユーザA、ユーザB、ユーザC、ユーザD及びユーザEでチャットを行っており、ユーザAに対するユーザB〜ユーザEの各々の親密度が同一となっている場合、ユーザB〜ユーザEの何れかのアバターの動作パラメータが同一になる。この時、例えば、アバターBとアバターCの動作パラメータが同一の場合には、アバターBは待ち時間「0秒」、アバターCは待ち時間「2秒」というように、アバターが動作を開始するまでの待ち時間を設定する。なお、アバターが動作を開始するまでの待ち時間は、予め任意に設定されている最大時間の範囲内において設定される。また、抽出された動作パラメータに重複が存在しない場合には(ステップS25)、そのままステップS27に進む。   Next, when there is an overlap in the extracted operation parameters (step S25), a waiting time for the operation time is set (step S26). That is, the operation parameter database 30 stores three patterns of operation parameters in the case of the same number of characters and the same familiarity. Therefore, for example, when chatting is performed in a group of 10 people and there are four users who have the same intimacy with the user of the avatar who speaks, the operation parameters of the same pattern are always extracted. . Therefore, when motion parameters of the same pattern are extracted with the same number of characters and the same familiarity, it is possible to prevent a plurality of avatars from performing the same motion simultaneously by shifting the time when the avatar starts motion. . Therefore, the waiting time until the avatar starts moving is set based on the number of overlapping movement parameters. For example, when chatting is performed by user A, user B, user C, user D, and user E, and the intimacy of user B to user E with respect to user A is the same, user B to user E The operating parameter of any avatar becomes the same. At this time, for example, when the operation parameters of the avatar B and the avatar C are the same, the avatar B waits for “0 seconds” and the avatar C waits for “2 seconds” until the avatar starts operating. Set the waiting time. Note that the waiting time until the avatar starts to operate is set within a maximum time range that is arbitrarily set in advance. If there is no overlap in the extracted operation parameters (step S25), the process proceeds to step S27 as it is.

次に、抽出された動作パラメータに基づいて、3次元の仮想空間内においてチャットを行っている各ユーザの各々のアバターの動作を示す動作情報を作成し(ステップS27)、作成された動作情報を各ユーザが用いるクライアントに送信する(ステップS28)。なお、アバターが動作を開始するまでの待ち時間が設定されている場合には、動作情報にステップS26において設定された待ち時間が含まれている。   Next, based on the extracted motion parameters, motion information indicating the motion of each avatar of each user who is chatting in the three-dimensional virtual space is created (step S27). It transmits to the client which each user uses (step S28). In addition, when the waiting time until an avatar starts operation | movement is set, the waiting time set in step S26 is contained in operation | movement information.

次に、データ記憶部18に記憶されているテキスト情報を発言者以外のユーザでチャットに参加しているユーザのクライアントに送信する(ステップS29)。なお、上述のステップS27〜ステップS29の処理は、第1の実施の形態に係るステップS15〜ステップS17における処理と同様の処理であるため、詳細な説明を省略する。   Next, the text information memorize | stored in the data storage part 18 is transmitted to the client of the user who is participating in chat with users other than a speaker (step S29). In addition, since the process of the above-mentioned step S27-step S29 is a process similar to the process in step S15-step S17 which concerns on 1st Embodiment, detailed description is abbreviate | omitted.

この発明の第2の実施の形態に係るアバター制御システムによれば、同一の文字数及び同一の親密度における動作パラメータを予め複数パターン算出し、動作パラメータデータベースに記憶している。従って、複数のユーザがチャットを行っている場合であっても、サーバに過度の負担を掛けることなく複数のアバターの動作情報を迅速に作成してアバターを自然に動作させることができる。   According to the avatar control system according to the second embodiment of the present invention, a plurality of patterns of motion parameters for the same number of characters and the same familiarity are calculated in advance and stored in the motion parameter database. Therefore, even when a plurality of users are chatting, it is possible to quickly create operation information of a plurality of avatars without causing an excessive burden on the server and to naturally operate the avatars.

また、この発明の第2の実施の形態に係るアバター制御システムによれば、同一の親密度が設定されているユーザが、動作パラメータデータベースに記憶されているパターンよりも多い場合には、アバターが動作を開始する待ち時間を設定している。従って、動作パラメータの重複が避けられない場合であっても、アバターが動作を開始する時間をずらすことにより、複数のアバターが同一の動作を同時に実行することによる動作の違和感を適切に排除し、アバターに自然な動作させることができる。   In addition, according to the avatar control system according to the second embodiment of the present invention, when there are more users set with the same familiarity than the patterns stored in the operation parameter database, the avatar is The waiting time to start operation is set. Therefore, even when duplication of motion parameters is unavoidable, by shifting the time at which the avatar starts to move, it is possible to appropriately eliminate the uncomfortable feeling of motion caused by a plurality of avatars executing the same motion simultaneously, You can make the avatar move naturally.

なお、上述の実施の形態に係るアバター制御システムにおいては、チャットの際のアバターの動作を制御する場合を例としているが、チャット以外のコミュニケーションにおけるアバターの動作を制御するようにしてもよい。   In the avatar control system according to the above-described embodiment, the case of controlling the operation of the avatar at the time of chat is taken as an example, but the operation of the avatar in communication other than chat may be controlled.

この発明の第1の実施の形態に係るアバター制御システムのブロック構成図である。It is a block block diagram of the avatar control system which concerns on 1st Embodiment of this invention. この発明の第1の実施の形態に係るサーバのブロック構成図である。It is a block block diagram of the server which concerns on 1st Embodiment of this invention. この発明の第1の実施の形態に係るクライアントのブロック構成図である。It is a block block diagram of the client which concerns on 1st Embodiment of this invention. この発明の第1の実施の形態に係るアバターの制御処理を説明するためのフローチャートである。It is a flowchart for demonstrating the control process of the avatar which concerns on 1st Embodiment of this invention. この発明の第1の実施の形態に係る非言語表現の各要素の関連性を説明するための図である。It is a figure for demonstrating the relationship of each element of the non-language expression which concerns on 1st Embodiment of this invention. この発明の第1の実施の形態に係る動作情報の一例を示す図である。It is a figure which shows an example of the operation information which concerns on 1st Embodiment of this invention. この発明の第2の実施の形態に係るサーバのブロック構成図である。It is a block block diagram of the server which concerns on 2nd Embodiment of this invention. この発明の第2の実施の形態に係る動作パラメータデータベースの一例を示す図である。It is a figure which shows an example of the operation parameter database which concerns on 2nd Embodiment of this invention. この発明の第2の実施の形態に係るアバターの制御処理を説明するためのフローチャートである。It is a flowchart for demonstrating the control process of the avatar which concerns on 2nd Embodiment of this invention.

符号の説明Explanation of symbols

2・・・サーバ(アバター制御システム)、4・・・ネットワーク、6a、6b、6c・・・クライアント、10・・・データ制御部、12・・・通信制御部、14・・・ユーザ情報記憶部、16・・・アバター情報記憶部、18・・・データ記憶部、20・・・データ記憶部、22・・・通信制御部、24・・・キーボード、26・・・データ記憶部、28・・・表示部、30・・・動作パラメータデータベース。   2 ... Server (avatar control system), 4 ... Network, 6a, 6b, 6c ... Client, 10 ... Data control unit, 12 ... Communication control unit, 14 ... User information storage , 16 ... Avatar information storage unit, 18 ... Data storage unit, 20 ... Data storage unit, 22 ... Communication control unit, 24 ... Keyboard, 26 ... Data storage unit, 28 ... display unit, 30 ... operation parameter database.

Claims (4)

一のユーザから送信されるテキスト情報を受信するテキスト情報受信手段と、
前記テキスト情報受信手段により受信されたテキスト情報の文字数をカウントする文字数カウント手段と、
前記一のユーザと複数の他のユーザの各々との間の親密度を記憶する親密度記憶手段と、
前記文字数カウント手段によりカウントされた文字数及び前記親密度記憶手段に記憶されている親密度に基づいて、前記一のユーザ及び前記複数の他のユーザの各アバターの各々の動作パラメータを算出する動作パラメータ算出手段と、
前記動作パラメータ算出手段により算出された動作パラメータに基づいて、前記各アバターの動作情報を作成する動作情報作成手段と
を備え、
前記動作パラメータ算出手段は、
前記親密度記憶手段に記憶されている前記一のユーザに対する前記他のユーザの親密度が同一である他のユーザが複数存在する場合に、該他のユーザ毎に、異なる動作パラメータを算出することを特徴とするアバター制御システム。
Text information receiving means for receiving text information transmitted from one user;
A character number counting means for counting the number of characters of the text information received by the text information receiving means;
Intimacy storage means for storing intimacy between the one user and each of a plurality of other users;
An operation parameter for calculating an operation parameter of each avatar of the one user and the plurality of other users based on the number of characters counted by the character count unit and the familiarity stored in the familiarity storage unit A calculation means;
Motion information creating means for creating motion information of each avatar based on the motion parameters calculated by the motion parameter calculating means,
The operation parameter calculation means includes
When there are a plurality of other users having the same closeness of the other user with respect to the one user stored in the closeness storage means, different operating parameters are calculated for each of the other users. An avatar control system characterized by
文字数及び親密度に対応させて複数パターンの動作パラメータを記憶する動作パラメータ記憶手段と、
一のユーザから送信されるテキスト情報を受信するテキスト情報受信手段と、
前記テキスト情報受信手段により受信されたテキスト情報の文字数をカウントする文字数カウント手段と、
前記一のユーザと複数の他のユーザの各々との間の親密度を記憶する親密度記憶手段と、
前記文字数カウント手段によりカウントされた文字数及び前記親密度に基づいて、前記動作パラメータ記憶手段に記憶されている動作パラメータの中から、前記一のユーザ及び前記複数の他のユーザの各アバターの各々の動作パラメータを抽出する動作パラメータ抽出手段と、
前記動作パラメータ抽出手段により抽出された動作パラメータに基づいて、前記各アバターの動作情報を作成する動作情報作成手段と
を備えることを特徴とするアバター制御システム。
An operation parameter storage means for storing a plurality of patterns of operation parameters corresponding to the number of characters and closeness;
Text information receiving means for receiving text information transmitted from one user;
A character number counting means for counting the number of characters of the text information received by the text information receiving means;
Intimacy storage means for storing intimacy between the one user and each of a plurality of other users;
Based on the number of characters counted by the character count unit and the familiarity, each of the avatars of the one user and the plurality of other users is selected from the operation parameters stored in the operation parameter storage unit. An operation parameter extracting means for extracting an operation parameter;
An avatar control system comprising: motion information creation means for creating motion information of each avatar based on the motion parameters extracted by the motion parameter extraction means.
前記動作パラメータ抽出手段は、
前記一のユーザに対する親密度が同一である他のユーザが複数存在する場合に、該他のユーザ毎に異なるパターンの動作パラメータを抽出することを特徴とする請求項2記載のアバター制御システム。
The operation parameter extraction means includes
3. The avatar control system according to claim 2, wherein when there are a plurality of other users having the same intimacy with respect to the one user, different operation parameters are extracted for each of the other users.
前記一のユーザに対する親密度が同一となっている他のユーザ毎に、該他のユーザのアバターが動作を開始するまでの待ち時間を設定する待ち時間設定手段を備え、
前記一のユーザに対する親密度が同一となっている他のユーザの数が、前記動作パラメータ記憶手段に記憶されている動作パラメータのパターン数よりも多く、前記動作パラメータ抽出手段により、同一パターンの動作パラメータが複数抽出された場合に、
前記動作情報作成手段は、
前記待ち時間設定手段により設定された待ち時間を含む動作情報を作成することを特徴とする請求項2記載のアバター制御システム。
A waiting time setting means for setting a waiting time until the other user's avatar starts operation for each other user having the same intimacy with respect to the one user,
The number of other users having the same intimacy with respect to the one user is larger than the number of operation parameter patterns stored in the operation parameter storage means. When multiple parameters are extracted,
The operation information creating means includes
The avatar control system according to claim 2, wherein operation information including a waiting time set by the waiting time setting means is created.
JP2004053342A 2004-02-27 2004-02-27 Avatar control system Expired - Fee Related JP4268539B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004053342A JP4268539B2 (en) 2004-02-27 2004-02-27 Avatar control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004053342A JP4268539B2 (en) 2004-02-27 2004-02-27 Avatar control system

Publications (2)

Publication Number Publication Date
JP2005242798A true JP2005242798A (en) 2005-09-08
JP4268539B2 JP4268539B2 (en) 2009-05-27

Family

ID=35024456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004053342A Expired - Fee Related JP4268539B2 (en) 2004-02-27 2004-02-27 Avatar control system

Country Status (1)

Country Link
JP (1) JP4268539B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012018569A (en) * 2010-07-08 2012-01-26 Namco Bandai Games Inc Program, information storage medium and user terminal
JP2013161168A (en) * 2012-02-02 2013-08-19 Konami Digital Entertainment Co Ltd Message transmission system, control method and program
JP2015049801A (en) * 2013-09-03 2015-03-16 ソニー株式会社 Information processor, information processing method and program
JP2016521929A (en) * 2013-05-22 2016-07-25 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Method, user terminal, and server for information exchange in communication
JP6212667B1 (en) * 2016-12-26 2017-10-11 株式会社コロプラ Method executed by computer to communicate via virtual space, program causing computer to execute the method, and information processing apparatus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05313686A (en) * 1992-04-02 1993-11-26 Sony Corp Display controller
JP2002109560A (en) * 2000-10-02 2002-04-12 Sharp Corp Animation reproducing unit, animation reproducing system, animation reproducing method, recording medium readable by computer storing program for executing animation reproducing method
JP2002160021A (en) * 2000-09-13 2002-06-04 Asmo Co Ltd Method for manufacturing yoke
JP2002259318A (en) * 2001-02-27 2002-09-13 Victor Co Of Japan Ltd Method for displaying picture of person in virtual reality space
JP2003108502A (en) * 2001-09-28 2003-04-11 Interrobot Inc Physical media communication system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05313686A (en) * 1992-04-02 1993-11-26 Sony Corp Display controller
JP2002160021A (en) * 2000-09-13 2002-06-04 Asmo Co Ltd Method for manufacturing yoke
JP2002109560A (en) * 2000-10-02 2002-04-12 Sharp Corp Animation reproducing unit, animation reproducing system, animation reproducing method, recording medium readable by computer storing program for executing animation reproducing method
JP2002259318A (en) * 2001-02-27 2002-09-13 Victor Co Of Japan Ltd Method for displaying picture of person in virtual reality space
JP2003108502A (en) * 2001-09-28 2003-04-11 Interrobot Inc Physical media communication system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012018569A (en) * 2010-07-08 2012-01-26 Namco Bandai Games Inc Program, information storage medium and user terminal
JP2013161168A (en) * 2012-02-02 2013-08-19 Konami Digital Entertainment Co Ltd Message transmission system, control method and program
JP2016521929A (en) * 2013-05-22 2016-07-25 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Method, user terminal, and server for information exchange in communication
JP2015049801A (en) * 2013-09-03 2015-03-16 ソニー株式会社 Information processor, information processing method and program
JP6212667B1 (en) * 2016-12-26 2017-10-11 株式会社コロプラ Method executed by computer to communicate via virtual space, program causing computer to execute the method, and information processing apparatus
JP2018107785A (en) * 2016-12-26 2018-07-05 株式会社コロプラ Method executed on computer for performing communication via virtual space, program for making computer execute the method, and information processing device
US10297081B2 (en) 2016-12-26 2019-05-21 Colopl, Inc. Method for communication via virtual space and system for executing the method on computer

Also Published As

Publication number Publication date
JP4268539B2 (en) 2009-05-27

Similar Documents

Publication Publication Date Title
JP4354313B2 (en) Inter-user intimacy measurement system and inter-user intimacy measurement program
US7065711B2 (en) Information processing device and method, and recording medium
US7546536B2 (en) Communication device, communication method, and computer usable medium
KR100841590B1 (en) Chat system, communication device, control method thereof and computer-readable information storage medium
KR101261349B1 (en) System and Method for Enhancing Socialization in Virtual Worlds
KR102415719B1 (en) Metaverse server for displaying avatar status information for virtual counseling envuronment
EP2690847A1 (en) Virtual assistant for a telecommunication system
JP6156618B2 (en) Message sharing device, message sharing method, message sharing program, and terminal device control program
JP2024045446A (en) Program, information processing device, information processing system, and information processing method
JP2018092528A (en) Chat system, management device, terminal device, and method and program for assisting selection of destination
WO2011027475A1 (en) Teleconference device
JP4268539B2 (en) Avatar control system
JP4227043B2 (en) Avatar control system
JP2005202909A (en) Avatar control system
JP4854424B2 (en) Chat system, communication apparatus, control method thereof, and program
JP2009205370A (en) User terminal, computer program, and virtual world communication support system
KR20230098114A (en) Method and device for providing location based avatar messenger service
JP2003108502A (en) Physical media communication system
JP6659386B2 (en) Program and game system
KR102298070B1 (en) System for providing active artificial intelligence image character based on mobile device
KR20170073196A (en) system for providing short message using character
JP2019175086A (en) Program and server device
WO2024024392A1 (en) Entertainment system, program, server, and display control method
JP2019111363A (en) Game program and game device
Machado et al. Sound chat: Implementation of sound awareness elements for visually impaired users in web-based cooperative systems

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090217

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090220

R150 Certificate of patent or registration of utility model

Ref document number: 4268539

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140227

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees