JP4268539B2 - Avatar control system - Google Patents
Avatar control system Download PDFInfo
- Publication number
- JP4268539B2 JP4268539B2 JP2004053342A JP2004053342A JP4268539B2 JP 4268539 B2 JP4268539 B2 JP 4268539B2 JP 2004053342 A JP2004053342 A JP 2004053342A JP 2004053342 A JP2004053342 A JP 2004053342A JP 4268539 B2 JP4268539 B2 JP 4268539B2
- Authority
- JP
- Japan
- Prior art keywords
- avatar
- user
- users
- operation parameter
- text information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
Description
この発明は、コンピュータを用いた3次元の仮想空間でのアバター(ユーザの化身)を利用したコミュニケーションにおけるアバターの動作を制御するアバター制御システムに関するものである。 The present invention relates to an avatar control system that controls the operation of an avatar in communication using an avatar (user incarnation) in a three-dimensional virtual space using a computer.
近年、コンピュータを用いた3次元の仮想空間を利用したコミュニケーションでは、アバター(Avatar、サンスクリット語で「分身・化身」を意味する。多くの場合、ネットワーク上におけるユーザの「擬似人格」を意味している。)が多く利用されている。例えば、インターネットを介したチャット(インターネットを利用してリアルタイムで文字による会話を行うものであり、1対1、1対多数、多数対多数で会話を行うことができる)を行う際に、それぞれのユーザがアバターを利用している。 In recent years, in communication using a three-dimensional virtual space using a computer, avatar (Avatar, Sanskrit means “alternation / incarnation”. In many cases, it means a “pseudo personality” of a user on a network. Are often used. For example, when chatting via the Internet (conversations in real-time using the Internet, one-to-one, one-to-many, many-to-many conversations) The user is using an avatar.
なお、通信回線を介した音声コミュニケーションにおいて擬似人格(アバター)を用いる身体性メディア通信システムが存在する。この身体性メディア通信システムにおいては、ユーザが話し手になっている場合には、話し手であるユーザの音声に従って動作する話し手動作と、ユーザが聞き手になっている場合には、話し手である他のユーザの音声に従って動作する聞き手動作に基づいて擬似人格を動作させている(特許文献1参照)。 Note that there is a physical media communication system that uses a pseudo personality (avatar) in voice communication via a communication line. In this physical media communication system, when a user is a speaker, a speaker operation that operates according to the voice of the user who is the speaker, and another user who is a speaker when the user is a listener. The pseudo personality is operated based on the listener's operation that operates according to the voice of the above (see Patent Document 1).
ところで、従来、チャット等のコミュニケーションにおいてアバターを用いた場合、ユーザの操作又はチャットサービスを提供しているサーバによる制御に基づいてランダムにアバターを動作させていた。また、上述の身体性メディア通信システムように、ユーザの音声に基づいてアバターを動作させる場合にも、ユーザの音声に基づいて個々のアバターを動作させており、アバター同士で相手の動きに合わせて動作させることは行われていなかった。そのため、アバターの動作が現実の対話における人物の動作と比べて著しく不自然であり、ユーザがアバターの動作に違和感を感じる等の問題があった。 By the way, conventionally, when an avatar is used in communication such as chat, an avatar is randomly operated based on a user operation or control by a server providing a chat service. In addition, as in the above-described physical media communication system, even when an avatar is operated based on the user's voice, each avatar is operated based on the user's voice. It was not made to work. For this reason, the movement of the avatar is remarkably unnatural compared to the movement of the person in the actual conversation, and there is a problem that the user feels uncomfortable with the movement of the avatar.
また、アバターの制御は、仮想空間内におけるコミュニケーションが1対1で行われている場合を前提として行われていた。従って、アバターを用いたコミュニケーションに多数のユーザが同時に参加している場合、例えば、1対多数や多数対多数でチャット等のコミュニケーションが行われている場合、複数のアバターが同時に同一の動作を示す場合があった。例えば、一のユーザが発言した場合に、他のユーザのアバターが、発言した一のユーザのアバターに対して同時に視線を向け、同時に頷く等の動作を示し、現実の対話における人物の動作と比べてアバターの動作が不自然なものとなっていた。 In addition, the control of the avatar is performed on the assumption that communication in the virtual space is performed on a one-to-one basis. Therefore, when many users are participating in communication using avatars at the same time, for example, when one-to-many or many-to-many communication such as chat is performed, a plurality of avatars simultaneously exhibit the same operation. There was a case. For example, when one user speaks, the other user's avatar shows an action such as simultaneously gazing at the one user's avatar and simultaneously whispering, compared with the action of a person in an actual conversation The behavior of the avatar was unnatural.
この発明の課題は、コンピュータを用いた3次元の仮想空間内でのアバターを利用した複数のユーザ間におけるコミュニケーションにおいて、自然な動作を行うようにアバターの動作を制御するアバター制御システムを提供することである。 An object of the present invention is to provide an avatar control system that controls an avatar operation so as to perform a natural operation in communication between a plurality of users using an avatar in a three-dimensional virtual space using a computer. It is.
請求項1記載のアバター制御システムは、一のユーザから送信されるテキスト情報を受信するテキスト情報受信手段と、前記テキスト情報受信手段により受信されたテキスト情報の文字数をカウントする文字数カウント手段と、前記一のユーザと複数の他のユーザの各々との間の親密度を記憶する親密度記憶手段と、前記文字数カウント手段によりカウントされた文字数及び前記親密度記憶手段に記憶されている親密度に基づいて、前記一のユーザ及び前記複数の他のユーザの各アバターの各々の動作パラメータを算出する動作パラメータ算出手段と、前記動作パラメータ算出手段により算出された動作パラメータに基づいて、前記各アバターの動作情報を作成する動作情報作成手段とを備え、前記動作パラメータ算出手段は、前記親密度記憶手段に記憶されている前記一のユーザに対する前記他のユーザの親密度が同一である他のユーザが複数存在する場合に、該他のユーザ毎に、異なる動作パラメータを算出することを特徴とする。
The avatar control system according to
この請求項1記載のアバター制御システムによれば、一のユーザから送信されたテキスト情報の文字数及びユーザ間の親密度に基づいて、複数のユーザの各々が用いる各アバターの動作パラメータが同一とならないように動作パラメータを算出している。即ち、複数のユーザ間でアバターを用いたコミュニケーションが行われており、発言したユーザに対する親密度が同一であるユーザが複数存在している場合であっても、各ユーザの各々のアバターの動作パラメータが異なっている。従って、複数のアバターが同時に同一の動作を行うことなく、アバターに自然な動作をさせることができる。
According to the avatar control system according to
また、請求項2記載のアバター制御システムは、文字数及び親密度に対応させて複数パターンの動作パラメータを記憶する動作パラメータ記憶手段と、一のユーザから送信されるテキスト情報を受信するテキスト情報受信手段と、前記テキスト情報受信手段により受信されたテキスト情報の文字数をカウントする文字数カウント手段と、前記一のユーザと複数の他のユーザの各々との間の親密度を記憶する親密度記憶手段と、前記文字数カウント手段によりカウントされた文字数及び前記親密度に基づいて、前記動作パラメータ記憶手段に記憶されている動作パラメータの中から、前記一のユーザ及び前記複数の他のユーザの各アバターの各々の動作パラメータを抽出する動作パラメータ抽出手段と、前記動作パラメータ抽出手段により抽出された動作パラメータに基づいて、前記各アバターの動作情報を作成する動作情報作成手段とを備え、前記動作パラメータ抽出手段が、前記一のユーザに対する親密度が同一である他のユーザが複数存在する場合に、該他のユーザ毎に異なるパターンの動作パラメータを抽出することを特徴とする。
The avatar control system according to
この請求項2記載のアバター制御システムによれば、テキスト情報の文字数及びユーザ間の親密度に基づいて予め算出されている複数パターンの動作パラメータの中から、受信したテキスト情報及びチャット等のコミュニケーションを行っているユーザ間の親密度に基づいて所定の動作パラメータを抽出している。従って、複数のユーザがアバターを介したコミュニケーションを行っている場合であっても、各アバターの動作情報を迅速に作成し、サーバに過度の負担をかけることなくアバターに自然な動作をさせることができる。
According to the avatar control system according to
また、この請求項2記載のアバター制御システムによれば、親密度が同一となっているユーザが複数存在する場合であっても、複数パターンの動作パラメータの中からそれぞれのユーザのアバター毎に異なるパターンの動作パラメータを抽出している。従って、複数のユーザ間でアバターを用いたコミュニケーションが行われている場合であっても、予め複数パターンの動作パラメータが算出されているため、複数のアバターが同時に同一の動作をすることを防ぎ、複数のアバターに自然な動作をさせることができる。
Further , according to the avatar control system according to
また、請求項3記載のアバター制御システムは、前記一のユーザに対する親密度が同一となっている他のユーザ毎に、該他のユーザのアバターが動作を開始するまでの待ち時間を設定する待ち時間設定手段を備え、前記一のユーザに対する親密度が同一となっている他のユーザの数が、前記動作パラメータ記憶手段に記憶されている動作パラメータのパターン数よりも多く、前記動作パラメータ抽出手段により、同一パターンの動作パラメータが複数抽出された場合に、前記動作情報作成手段は、前記待ち時間設定手段により設定された待ち時間を含む動作情報を作成することを特徴とする。
The avatar control system according to
この請求項3記載のアバター制御システムによれば、予め算出されている動作パラメータのパターンよりも多くのユーザ間でアバターを介したコミュニケーションが行われており、親密度が同一のユーザについて同一の動作パラメータが抽出された場合にアバターが動作を開始するまでの待ち時間を設定している。即ち、同一パターンの動作パラメータが抽出された場合には、アバター毎に動作を開始するまでの待ち時間を設定し、設定された待ち時間を含む動作情報を作成することによりアバターの動作タイミングをずらしている。従って、複数のアバターが同時に同一の動作、例えば、複数のアバターが同一間隔で同時に同じ回数頷く等の不自然な動作を行うことが無く、複数のユーザ間でのコミュニケーションにおいて、アバターを自然に動作させることができる。
According to the avatar control system according to
この発明によれば、複数のユーザ間でアバターを用いたコミュニケーションが行われており、発言したユーザに対する親密度が同一であるユーザが複数存在している場合であっても、各ユーザのアバター毎に異なる動作パラメータが抽出される。従って、発言者に対する親密度が同一のユーザが多数存在する場合であっても、各ユーザのアバターが異なる動作をするようにアバターを制御することができ、アバターに自然な動作をさせることができる。 According to the present invention, communication using avatars is performed between a plurality of users, and even if there are a plurality of users having the same intimacy with respect to the speaking user, Different operating parameters are extracted. Therefore, even when there are many users with the same intimacy with respect to the speaker, the avatar can be controlled so that each user's avatar operates differently, and the avatar can perform a natural operation. .
また、テキスト情報の文字数及びユーザ間の親密度に基づいて予め算出されている複数パターンの動作パラメータの中から、受信したテキスト情報及びチャット等のコミュニケーションを行っているユーザ間の親密度に基づいて所定の動作パラメータを抽出している。従って、多数のユーザがアバターを介したコミュニケーションを行っている場合であっても、例えば、チャット等のコミュニケーションサービスを提供しているサーバに過度の負担をかけることなく、迅速に多数のアバターの動作パラメータを算出し、アバターに自然な動作をさせることができる。また、アバターに自然な動作をさせることができるため、ユーザがアバターの動作に違和感を覚えることを防ぎ、3次元の仮想空間内におけるコミュニケーションを活性化させることができる。 Moreover, based on the familiarity between the users who are communicating, such as received text information and chat, out of the plurality of patterns of operation parameters calculated in advance based on the number of characters of text information and the familiarity between users Predetermined operating parameters are extracted. Therefore, even when a large number of users are communicating via avatars, for example, the operations of a large number of avatars can be performed quickly without imposing an excessive burden on a server that provides a communication service such as chat. The parameter can be calculated and the avatar can be operated naturally. In addition, since the avatar can perform a natural motion, it is possible to prevent the user from feeling uncomfortable with the motion of the avatar and to activate communication in the three-dimensional virtual space.
以下、図面を参照してこの発明の実施の形態に係るアバター制御システムについて説明する。 Hereinafter, an avatar control system according to an embodiment of the present invention will be described with reference to the drawings.
図1は、この発明の実施の形態に係るアバター制御システムを含む3次元の仮想空間内におけるコミュニケーションを行うシステム全体のブロック構成図である。3次元の仮想空間内におけるコミュニケーションを行うシステムは、図1に示すように、チャット等のコミュニケーションサービスを提供すると共に、仮想空間内におけるアバターの動作を制御するアバター制御システムとして機能するサーバ2を備えている。このサーバ2は、ネットワーク4を介して複数のユーザの各々が用いるクライアント6a、6b、6cと接続されている。なお、クライアント6aを用いるユーザをユーザA、クライアント6bを用いるユーザをユーザB、クライアント6cを用いるユーザをユーザCとする。
Figure 1 is a block diagram of the overall system for performing definitive communications in a three-dimensional virtual space including an avatar control system according to an embodiment of the present invention. As shown in FIG. 1, the system that performs communication in a three-dimensional virtual space includes a
図2は、この発明の実施の形態に係るサーバ(アバター制御システム)のブロック構成図である。サーバ(アバター制御システム)2は、図2に示すように、サーバ2におけるデータの処理を制御するデータ制御部10を備えている。このデータ制御部10には、クライアント6a、6b、6cとの間の通信を制御する通信制御部12及びユーザに関する情報、例えば、各ユーザを識別するためのユーザID及びパスワード等を記憶するユーザ情報記憶部14が接続されている。また、データ制御部10には、ユーザが用いるアバターの画像等、アバターに関する情報を記憶するアバター情報記憶部16及びアバターを動作させるための動作パラメータや通信制御部12を介して受信したユーザからのテキスト情報等を記憶するデータ記憶部18が接続されている。
FIG. 2 is a block configuration diagram of a server (avatar control system) according to the embodiment of the present invention. As shown in FIG. 2, the server (avatar control system) 2 includes a
ユーザ情報記憶部14には、サーバ2により提供されるコミュニケーションサービス(例えば、チャット)を利用するユーザ、即ち、予めサーバ2にユーザ登録を行っているユーザのユーザ情報が記憶される。このユーザ情報には、例えば、ユーザを識別するためのユーザID、パスワード、ニックネーム(チャットを行う際に用いられるユーザ名等)及びユーザ間における親密度、例えば、ユーザAとユーザBの親密度を示す係数(ユーザにより任意に設定される係数)が含まれる。なお、ユーザの氏名や住所等の個人情報もユーザ情報に含めて記憶するようにしてもよい。
The user
また、アバター情報記憶部16には、サーバ2により提供されるコミュニケーションサービス、例えば、チャットを利用する際に用いられるアバターに関するアバター情報が記憶される。即ち、アバターの画像、各アバターを識別するためのアバターID、3次元の仮想空間においてチャットが行われている際のアバターの位置を示すアバター位置情報(3次元の仮想空間におけるアバターの位置を示す座標)等がアバター情報としてアバター情報記憶部16に記憶される。ここで、アバターの位置を示す座標としては、アバターの頭の中心を示す座標が用いられる。なお、アバターの重心(体の中心)を示す座標やアバターの足元を示す座標を、アバターの位置を示す座標として用いるようにしてもよい。
The avatar
また、データ記憶部18には、動作パラメータ、即ち、3次元の仮想空間内におけるチャットに用いられるアバターの視線、顔表情及び頷きをそれぞれ示すパラメータや、動作パラメータに基づいて作成されたアバターの動作を示す動作情報が記憶される。また、データ記憶部18には、テキスト情報、例えば、ユーザAとユーザBとがチャットを行っている場合に、ユーザAからユーザBに対して送信されたチャットメッセージに基づく文字列を示す情報や、ユーザBからユーザAに対して送信されたチャットメッセージに基づく文字列を示す情報が記憶される。更に、データ記憶部18には、コミュニケーションサービスに関する履歴情報、例えば、チャットを利用したユーザ間の対話履歴、即ち、ユーザAがユーザBとチャットをした場合におけるユーザAとユーザBとの対話履歴等が記憶される。なお、チャットが行われる3次元の仮想空間、例えば、チャットルームの画像を示すデータもデータ記憶部18に記憶されている。
Further, the
図3は、この発明の実施の形態に係るクライアント6aのブロック構成図である。クライアント6aは、図3に示すように、クライアント6aにおけるデータの処理を制御するデータ制御部20を備えている。このデータ制御部20には、サーバ2との間の通信を制御する通信制御部22及びチャットメッセージとしてのテキスト情報等を入力するキーボード24が接続されている。また、データ制御部20には、サーバ2から送信されたテキスト情報やアバターを動作させるための動作情報等を記憶するデータ記憶部26及び動作情報に基づいて動作するアバター等を表示する表示部28が接続されている。
FIG. 3 is a block diagram of the
データ記憶部26には、サーバ2から送信されるアバターを動作させるための動作情報、即ち、表示部28に表示されているアバターを動作させるための情報が記憶される。また、データ記憶部26には、ユーザがキーボード24を介して入力したチャットメッセージ(テキスト情報)や、サーバ2を介してチャットの相手が用いるクライアントから送信されたチャットメッセージ等が記憶される。なお、クライアント6b、6cの構成は、クライアント6aの構成と同様の構成であるため説明を省略する。
The
次に、この発明の第1の実施の形態に係るアバター制御システムによるアバターの制御処理について説明する。なお、以下においては、予めサーバ2にユーザ登録をしている複数のユーザ間で行われるチャットにおけるアバターの動作を制御する場合を例として説明する。
Next, an avatar control process by the avatar control system according to the first embodiment of the present invention will be described. In the following, a case where the operation of an avatar in a chat performed between a plurality of users who are registered in advance in the
まず、チャットを行うユーザがサーバ2にログインを行う。例えば、クライアント6aのキーボード24を介してユーザAのユーザID及びパスワードを入力し、入力されたユーザID及びパスワードを通信制御部22及びネットワーク4を介してサーバ2に送信する。
First, a user who performs chat logs into the
サーバ2においては、クライアント6aから送信されたユーザAのユーザID及びパスワードを通信制御部12を介して受信し、受信したユーザID及びパスワードと、ユーザ情報記憶部14に記憶されているユーザAのユーザID及びパスワードとの照合を行う。照合不一致となった場合には、「ユーザID又はパスワードが違います」等の照合不一致となったことを通知するメッセージをクライアント6aに送信する。一方、照合一致となった場合には、チャットを行う際に用いるアバターを選択する画面、例えば、アバターのサムネイル画像を一覧形式で示したアバター選択画面のデータを通信制御部12及びネットワーク4を介してクライアント6aに送信する。もしくはアバター選択画面を省略し、ユーザが前回のログイン時に使用していたアバター画像を利用してもよい。
In the
クライアント6aにおいては、照合不一致となったことを通知するメッセージを受信した場合には、ユーザID及びパスワードを再度キーボード24を介して入力しサーバ2に送信する。一方、アバター選択画面のデータを受信した場合には、表示部28にアバター選択画面を表示する。そして、マウス等のポインティングデバイスを用いてチャットにおいて利用するアバターを指定してクリックすることによりアバターを選択する。
When the
サーバ2において、クライアント6aからアバターを選択したことを示すアバター選択情報を受信した場合には、選択されたアバターのアバターIDとユーザIDとを対応させてデータ記憶部18に記憶する。また、選択されたアバターの画像データ、選択されたアバターのアバターID及びチャットルームの画像を示すデータをクライアント6aに送信する。即ち、アバター情報記憶部16に記憶されているアバター画像とデータ記憶部18に記憶されているチャットルームの画像を示すデータを通信制御部12を介してクライアント6aに送信する。なお、チャットルーム内に既に他のアバターが存在する場合には、チャットルーム内に存在する他のアバターの画像及びアバターIDも送信する。
When the
クライアント6aにおいては、サーバ2から送信されたアバターの画像、アバターID及びチャットルームを示すデータを通信制御部22を介して受信しデータ記憶部26に記憶する。次に、データ記憶部26に記憶されたアバターの画像データ及びチャットルームの画像を示すデータに基づいて、チャットルームにおいてアバターが存在することを示す画面を作成し表示部28に表示する。ここで、チャットルーム内に他のアバターが存在する場合、例えば、ユーザBのアバターであるアバターB及びユーザCのアバターであるアバターCがチャットルームに存在する場合には、アバターBの画像及びアバターIDとアバターCの画像及びアバターIDも通信制御部22を介して受信されデータ記憶部26に記憶される。そして、ユーザAのアバターAと共にユーザBのアバターB及びユーザCのアバターCがチャットルーム内に存在することを示す画面が作成され表示部28に表示される。
In the
次に、クライアント6aにおいて、ユーザB及びユーザCに対するチャットメッセージをキーボード24を介して入力し、入力したチャットメッセージのテキスト情報(文字列)を通信制御部22及びネットワーク4を介してサーバ2に送信する。また、テキスト情報と共に、チャットルーム内におけるアバターの位置を示すアバター位置情報、即ち、アバターAの3次元の仮想空間内における位置を示す座標をサーバ2に送信する。位置情報に関しては、チャット送信の無い場合でも一定時間毎に送信され、サーバ2は常に仮想空間内に存在するアバターの位置を把握している。なお、サーバ2に送信されたテキスト情報及びアバター位置情報は、データ記憶部26に記憶される。
Next, in the
サーバ2においては、図4のフローチャートに示すように、クライアント6aからネットワーク4を介して送信されたテキスト情報を通信制御部12を介して受信する(ステップS10)。なお、受信されたテキスト情報は、ユーザID及びアバターIDに対応させてデータ記憶部18に記憶される。
As shown in the flowchart of FIG. 4, the
次に、ステップS10において受信されたテキスト情報の文字数をカウントする(ステップS11)。即ち、データ記憶部18に記憶されたテキスト情報の文字列を構成する文字数をカウントし、カウントされた文字数をテキスト情報に対応させてデータ記憶部18に記憶する。
Next, the number of characters of the text information received in step S10 is counted (step S11). That is, the number of characters constituting the character string of the text information stored in the
次に、クライアント6aから送信されたアバター位置情報を通信制御部12を介して受信する(ステップS12)。即ち、クライアント6aの表示部28に表示されているチャットルームにおけるアバターの位置を示す3次元の仮想空間の座標を受信する。なお、受信されたアバター位置情報は、ユーザID及びアバターIDに対応させてデータ記憶部18に記憶される。
Next, the avatar position information transmitted from the
次に、ステップS12において受信されたアバター位置情報に基づいて対話相手を決定する(ステップS13)。即ち、ステップS10において受信されたテキスト情報の送信元であるクライアントを用いるユーザのアバターを中心とし、該アバターから所定の範囲内に存在するアバターとの距離を算出する。例えば、ユーザAのアバターAを中心とする所定の範囲内に存在するユーザBのアバターB及びユーザCのアバターCとの距離をそれぞれ算出する。そして、アバターAとアバターBとの距離、アバターAとアバターCとの距離がそれぞれ所定の範囲内となっている場合には、アバターA、アバターB及びアバターCとがチャットを行う範囲内に存在すると判断され、アバターB及びアバターCがアバターAの対話相手として決定される。 Next, a conversation partner is determined based on the avatar position information received in step S12 (step S13). In other words, the distance from the avatar that exists in a predetermined range from the avatar is calculated from the avatar of the user who uses the client that is the transmission source of the text information received in step S10. For example, the distance between the avatar B of the user B and the avatar C of the user C existing within a predetermined range centering on the avatar A of the user A is calculated. If the distance between the avatar A and the avatar B and the distance between the avatar A and the avatar C are within the predetermined ranges, the avatar A, the avatar B, and the avatar C exist within the chatting range. Then, avatar B and avatar C are determined as the avatar A's conversation partners.
次に、発言したユーザのアバター及びチャットに参加しているユーザのアバターの動作パラメータを算出する(ステップS14)。ここで、例えば、人が対面して行う通常の会話におけるノンバーバル表現、即ち、顔表情、視線及び頷き等の非言語表現には、(1)人物間の非言語表現の関連性、(2)人物内の非言語表現の関連性が存在する。即ち、人物間において対話が行われている場合、人物間の視線、顔表情、頷き、発話の量には一定の関連性があることが知られている。また、人物内の非言語表現はそれぞれの要素が一定の関連性を有していることが知られている。なお、視線は相手を見つめる時間、顔表情は笑顔の強さ、頷きは頷く回数、発話は発話語数(例えば、チャットメッセージの文字数)である。 Next, the operation parameter of the user's avatar who spoke and the avatar of the user participating in the chat is calculated (step S14). Here, for example, non-verbal expressions in a normal conversation faced by a person, that is, non-verbal expressions such as facial expressions, line of sight, and whispering are (1) relevance of non-verbal expressions between persons, (2) There is a relevance of non-linguistic expressions in people. That is, it is known that there is a certain relationship between the amount of gaze, facial expression, whispering, and utterance between persons when a conversation is performed between persons. Moreover, it is known that each element has a certain relevance in the non-verbal expression in a person. The line of sight is the time to stare at the other party, the facial expression is the intensity of smile, the whisper is the number of whispering, and the utterance is the number of words spoken (for example, the number of characters in the chat message).
(1)の人物間の非言語表現の関連性は、非言語表現の表出量には対話者間の親密度に基づく平衡状態が存在するというものである。例えば、ユーザAとユーザBとの間で対面により会話が行われている場合、ユーザAの視線、顔表情(表情)、頷き及び発話と、ユーザBの視線、顔表情(表情)、頷き及び発話との関係は、図5(a)に示すように、線で結ばれた表現間において、一方が高まると他方も高まるという正の相関関係を有している。即ち、図5(b)の表において「○」を付した表現間においては、例えば、ユーザAの視線が高まることにより、ユーザBの発話量及び視線が高まり、ユーザBの笑顔が高まることによりユーザAの発話量及び笑顔が高まる等の正の相関関係が存在する。 The relationship of the non-linguistic expression between the persons in (1) is that there is an equilibrium state based on the closeness between the interlocutors in the amount of expression of the non-linguistic expression. For example, when a user A and a user B have a face-to-face conversation, the user A's line of sight, facial expression (expression), whisper and speech, and the user B's line of sight, facial expression (expression), whisper and As shown in FIG. 5A, the relationship with the utterance has a positive correlation between the expressions connected by the line that when one increases, the other increases. That is, between the expressions marked with “◯” in the table of FIG. 5B, for example, when the user A's line of sight increases, the user B's speech volume and line of sight increase, and the user B's smile increases. There is a positive correlation such as an increase in the amount of utterance and smile of user A.
(2)の人物内の非言語表現の関連性とは、人物内の非言語表現は、対話者間の親密度に基づく平衡状態にあり、常に各種の表現の総和を平衡に保とうとするというものである。例えば、ユーザAの視線、表情、頷き及び発話の中で、視線の値が高くなれば、頷きの値が低くなる等、各種の非言語表現の総和が一定(平衡)になるように保たれる。 (2) Relevance of non-linguistic expressions in a person is that the non-linguistic expressions in a person are in an equilibrium state based on intimacy between interlocutors, and always try to keep the sum of various expressions in equilibrium. Is. For example, in the user A's line of sight, facial expression, whispering, and speech, the sum of various non-linguistic expressions is kept constant (equilibrium), such as if the line of sight increases, the whispering value decreases. It is.
ここで、ユーザAの非言語表現の表出量をxA、ユーザBの非言語表現の表出量をxBとすると、上述の(1)に基づく非言語表現の人物間の関連性に基づいて、xAとxBの関係を以下の(数式1)により示すことができる。
xA=xB・・・(数式1)
また、ユーザの意図が働いた非言語表現のそれぞれの要素の表出量をciとすると、上述の(2)に基づく非言語表現の人物内の関連性に基づいて、Σciの値は常に一定となる。また、アバターによって表出される非言語表現の表出量をeとし、eを以下の(数式2)により定義する。なお、「a」は、個人差を示す係数であり、ユーザが任意に設定することができる。
e=x・c・a・・・(数式2)
この時、アバターAの顔表情の表出量を示す動作パラメータをeA f、視線の表出量を示す動作パラメータをeA e、頷きの表出量を示す動作パラメータをeA n、発話の表出量(発言量、ステップS11においてカウントされた文字数)を示す動作パラメータをeA sとし、アバターBの顔表情の表出量を示す動作パラメータをeB f、視線の表出量を示す動作パラメータをeB e、頷きの表出量を示す動作パラメータをeB n、発話の表出量(発言量)を示す動作パラメータをeB sとする。また、アバターAの意図に基づく顔表現の表出量をcA f、意図に基づく視線の表出量をcA e、意図に基づく頷きの表出量をcA n、意図に基づく発話の表出量をcA sとし、アバターBの意図に基づく顔表情の表出量をcB f、意図に基づく視線の表出量をcB e、意図に基づく頷きの表出量をcB n、意図に基づく発話の表出量をcB sとする。更に、アバターAの顔表現の表出量に関する個人差を示す係数をaA f、視線の表出量に関する個人差を示す係数をaA e、頷きの表出量に関する個人差を示す係数をaA n、発話の表出量に関する個人差を示す係数をaA sとし、アバターBの顔表情の表出量に関する個人差を示す係数をaB f、視線の表出量に関する個人差を示す係数をaB e、頷きの表出量に関する個人差を示す係数をaB n、発話の表出量に関する個人差を示す係数をaB sとする。
Here, when the expression amount of the non-linguistic expression of the user A is x A and the expression amount of the non-linguistic expression of the user B is x B , the relationship between the persons of the non-linguistic expression based on the above (1) is obtained. based on the relationship of x a and x B can be shown by the following (equation 1).
x A = x B (Formula 1)
Further, when the expression amount of each element of the non-linguistic expression on which the user's intention has worked is ci, the value of Σci is always constant based on the relevance within the person of the non-linguistic expression based on the above (2). It becomes. Further, e represents the non-linguistic expression expressed by the avatar, and e is defined by the following (Equation 2). “A” is a coefficient indicating individual differences, and can be arbitrarily set by the user.
e = x · c · a (Equation 2)
At this time, the operation parameter indicating the expression amount of the facial expression of the avatar A is e A f , the operation parameter indicating the expression amount of the line of sight is e A e , the operation parameter indicating the expression amount of the whirling is e A n , and the speech expressive amount operation parameter indicating the e a s (say weight, counted number of characters in step S11), and the operation parameter indicating the expression of facial expression of the avatar B e B f, the expression amount of the line of sight the operation parameters shown e B e, the operating parameters e B n indicating the expression of nod, expression amount of utterances operating parameters indicating the (speech volume) and e B s. In addition, the expression amount of the facial expression based on the intention of the avatar A is c A f , the expression amount of the gaze based on the intention is c A e , the expression amount of the whispering expression based on the intention is c A n , and the utterance based on the intention The expression amount is c A s , the expression amount of the facial expression based on the intention of the avatar B is c B f , the expression amount of the gaze based on the intention is c B e , and the expression amount of the whispering based on the intention is c B n , let c B s be the amount of utterances based on intention. Furthermore, a coefficient indicating the individual difference regarding the expression amount of the facial expression of avatar A is a A f , the coefficient indicating the individual difference regarding the expression amount of the line of sight is a A e , and the coefficient indicating the individual difference regarding the expression amount of the whirling a A n , a coefficient indicating an individual difference regarding the amount of utterances expressed as a A s , a coefficient indicating an individual difference regarding an amount of expression of the facial expression of avatar B as a B f , and an individual difference regarding the amount of eyes expressed It is assumed that a B e is a coefficient to indicate, a B n is a coefficient indicating an individual difference regarding the amount of expression of whispering, and a B s is a coefficient indicating an individual difference regarding the amount of speech expression.
ここで、(数式1)よりアバターAとアバターBの非言語表現の表出量が等しく、また、アバターAとアバターBのそれぞれの非言語表現の要素の表出量は(数式2)に基づいて算出することができる。従って、上述の(1)に示す関連性に基づいて、例えば、アバターAの視線とアバターBの視線との間には、以下の(数式3)に示す関係が成立する。
eA e/(cA e・aA e)=eB e/(cB e・aB e)・・・(数式3)
また、上述の(2)に示す関連性に基づいて、アバターAの意図に基づく非言語表現の各々の要素とアバターBの意図に基づく非言語表現の各々の要素と、ユーザAとユーザBとの間の親密度(I)との間には以下の(数式4)に示す関係が成立する。
cA f+cB f+cA e+cB e+cA n+cB n+cA s+cB s=I・・・(数式4)
以上より、(数式3)及び(数式4)に基づいて、図5(b)に示す正の相関関係を有する非言語表現間の関係を以下の数式(数式5)〜(数式13)により示すことができる。この時、以下の(数式5)〜(数式13)においてE1〜E12の各々の値が「0」となるように、それぞれの要素の表出量「e」の値を算出することにより、上述の関連性(1)及び(2)を満たした非言語表現の表出量を示す動作パラメータの値を算出することができる。
E1={eA e/(cA e・aA e)−eB e/(cB e・aB e)}2・・・(数式5)
E2={eA f/(cA f・aA f)−eB f/(cB f・aB f)}2・・・(数式6)
E3={eA s/(cA s・aA s)−eB e/(cB e・aB e)}2・・・(数式7)
E4={eA e/(cA e・aA e)−eB s/(cB s・aB s)}2・・・(数式8)
E5={eA s/(cA s・aA s)−eB f/(cB f・aB f)}2・・・(数式9)
E6={eA f/(cA f・aA f)−eB s/(cB s・aB s)}2・・・(数式10)
E7={eA s/(cA s・aA s)−eB n/(cB n・aB n)}2・・・(数式11)
E8={eA n/(cA n・aA n)−eB s/(cB s・aB s)}2・・・(数式12)
E9={I−(cA f+cB f+cA e+cB e+cA n+cB n+cA s+cB s)}2・・・(数式13)
なお、親密度Iは、予めユーザにより設定され、データ記憶部18に記憶されている。また、算出されたそれぞれの動作パラメータは、ユーザID及びアバターIDに対応させてデータ記憶部18に記憶される。また、アバターAの非言語表現の表出量及びアバターCの非言語表現の表出量を上述の数式(1)〜数式(13)に当てはめ、上述のアバターAとアバターBの間における動作パラメータを算出する処理と同様の処理によりアバターAとアバターCの間における動作パラメータが算出される。また、算出された動作パラメータは、ユーザID及びアバターIDに対応させてデータ記憶部18に記憶される。
Here, the expression amounts of the non-linguistic expressions of Avatar A and Avatar B are equal from (Expression 1), and the expression amounts of the elements of the non-linguistic expressions of Avatar A and Avatar B are based on (Expression 2). Can be calculated. Therefore, based on the relevance shown in (1) above, for example, the relationship shown in the following (Equation 3) is established between the line of sight of avatar A and the line of sight of avatar B.
e A e / (c A e · a A e) = e B e / (c B e · a B e) ··· ( Equation 3)
Further, based on the relationship shown in (2) above, each element of the non-language expression based on the intention of the avatar A, each element of the non-language expression based on the intention of the avatar B, the user A and the user B, The relationship shown in the following (Formula 4) is established with the intimacy (I).
c A f + c B f + c A e + c B e + c A n + c B n + c A s + c B s = I ··· ( Equation 4)
Based on (Equation 3) and (Equation 4), the relationship between the non-linguistic expressions having the positive correlation shown in FIG. 5B is expressed by the following equations (Equation 5) to (Equation 13). be able to. At this time, by calculating the value of the expression amount “e” of each element so that each value of E 1 to E 12 is “0” in the following (Formula 5) to (Formula 13). The value of the operation parameter indicating the expression amount of the non-linguistic expression that satisfies the relevance (1) and (2) described above can be calculated.
E 1 = {e A e / (c A e · a A e) -e B e / (c B e · a B e)} 2 ··· ( Equation 5)
E 2 = {e A f / (c A f · a A f ) −e B f / (c B f · a B f )} 2 (Equation 6)
E 3 = {e A s / (c A s · a A s) -e B e / (c B e · a B e)} 2 ··· ( Equation 7)
E 4 = {e A e / (c A e · a A e) -e B s / (c B s · a B s)} 2 ··· ( Equation 8)
E 5 = {e A s / (c A s · a A s) -e B f / (c B f · a B f)} 2 ··· ( Equation 9)
E 6 = {e A f / (c A f · a A f) -e B s / (c B s · a B s)} 2 ··· ( Formula 10)
E 7 = {e A s / (c A s · a A s) -e B n / (c B n · a B n)} 2 ··· ( Equation 11)
E 8 = {e A n / (c A n · a A n) -e B s / (c B s · a B s)} 2 ··· ( Equation 12)
E 9 = {I- (c A f + c B f + c A e + c B e + c A n + c B n + c A s + c B s)} 2 ··· ( Formula 13)
The familiarity I is set in advance by the user and stored in the
ここで、ユーザAとユーザBとの間の親密度と、ユーザAとユーザCとの間の親密度とが同一となっている場合、ユーザBの動作パラメータとユーザCの動作パラメータとが同一となってしまう。従って、ユーザBとユーザCのユーザAに対する親密度が同一となっている場合には、上述の数式において非言語表現の表出量を算出する際に用いられる初期値を変更して動作パラメータを算出する。即ち、アバターBの動作パラメータを算出する際に用いた初期値と異なる初期値を用いてアバターCの動作パラメータを算出し、アバターBとアバターCの動作パラメータが同一となることを防止する。 Here, when the intimacy between the user A and the user B and the intimacy between the user A and the user C are the same, the operation parameter of the user B and the operation parameter of the user C are the same. End up. Therefore, when the intimacy of the user B and the user C with respect to the user A is the same, the initial value used when calculating the expression amount of the non-language expression in the above formula is changed to change the operation parameter. calculate. That is, the operation parameter of the avatar C is calculated using an initial value different from the initial value used when calculating the operation parameter of the avatar B, and the operation parameters of the avatar B and the avatar C are prevented from being the same.
なお、アバターAの動作パラメータとして、データ記憶部18にユーザAのユーザID及びアバターAのアバターIDに対応させて記憶されている動作パラメータの中から任意に選択された動作パラメータが用いられる。即ち、データ記憶部18には、アバターAの動作パラメータとしてアバターBとの間において算出された動作パラメータと、アバターCとの間において算出された動作パラメータとが記憶されている。従って、データ記憶部18に記憶されている2つの動作パラメータの中から何れかの動作パラメータが任意に選択され、アバターAの動作パラメータとなる。
Note that as the operation parameter of the avatar A, an operation parameter arbitrarily selected from the operation parameters stored in the
次に、ステップS14において算出された動作パラメータに基づいて、発言したユーザのアバター及びチャットに参加しているユーザのアバターのそれぞれの動作を示す動作情報を作成する(ステップS15)。即ち、データ記憶部18に記憶されている動作パラメータに基づいて、例えば、アバターAがアバターBに視線を向ける時間、笑顔の程度及び頷く回数と、アバターBがアバターAに視線を向ける時間、笑顔の程度及び頷く回数とアバターCがアバターAに視線を向ける時間、笑顔の程度及び頷く回数を示す動作情報をそれぞれ作成する。なお、作成された動作情報は、ユーザID及びアバターIDに対応させてデータ記憶部18に記憶される。
Next, based on the motion parameters calculated in step S14, motion information indicating the motions of the speaking user's avatar and the user's avatar participating in the chat is created (step S15). That is, based on the operation parameters stored in the
図6は、アバターの動作情報の一例を示す図である。図6においては、ユーザAがアバターAを用い、ユーザBがアバターBを用いてユーザA及びユーザB間でチャットを行っている場合のアバターA、アバターBの動作情報の一例を示している。ここで、視線は、相手に視線を向ける時間の割合を示し、顔表情は相手に見せる笑顔の強度を示している。また、頷きは相手に返す頷きの回数であり、発話量は、発話語数、即ち、チャットメッセージの文字数である。図6に示すように、例えば、「data1」において、アバターAの視線の値は「0.23」、顔表情の値は「0.27」、頷きの値は「0」、発話量は「5」であり、アバターBの視線の値は「0.26」、顔表情の値は「0.23」、頷きの値は「0」、発話量は「5」となっている。また、「data4」において、アバターAの視線の値は「0.45」、顔表情の値は「0.55」、頷きの値は「1.5」、発話量は「30」であり、アバターBの視線の値は「0.51」、顔表情の値は「0.48」、頷きの値は「1.5」、発話量は「30」となっている。従って、発話量の増加に伴って視線、笑顔及び頷きの値が増加しており、非言語表現の各要素間において正の相関関係が成立している。また、アバターAの非言語表現は、発話量の増加に伴い各要素の合計値が増加しており、アバターAの非言語表現の表出量が平衡状態を保っている。同様に、アバターBの非言語表現においても、非言語表現の表出量が平衡状態を保っている。なお、図6においては、アバターCの動作情報を省略しているが、アバターCの動作情報も、アバターAとアバターBの間における場合と同様に、非言語表現の各要素間における相関関係を有していると共に、アバターAとの間の平衡状態を保っている。
FIG. 6 is a diagram illustrating an example of motion information of an avatar. FIG. 6 shows an example of operation information of avatar A and avatar B when user A uses avatar A and user B chats between user A and user B using avatar B. Here, the line of sight indicates the proportion of time for which the line of sight is directed to the other party, and the facial expression indicates the intensity of the smile to be shown to the other party. In addition, whispering is the number of whisperings to be returned to the partner, and the utterance amount is the number of utterance words, that is, the number of characters in the chat message. As shown in FIG. 6, for example, in “
次に、データ記憶部18に記憶されている動作情報をチャットを行っているクライアントに送信する(ステップS16)。例えば、ユーザA、ユーザB及びユーザCの間でチャットを行っている場合には、クライアント6a、クライアント6b及びクライアント6cのそれぞれに対して、アバターAの動作情報、アバターBの動作情報及びアバターCの動作情報を送信する。ここで、動作情報は、アバターIDと共に、例えば、アバターAの動作情報はアバターAのアバターIDと共に、アバターBの動作情報はアバターBのアバターIDと共に、アバターCの動作情報はアバターCのアバターIDと共に送信される。
Next, the operation information stored in the
次に、チャットに参加しているアバターのユーザが用いるクライアントに対して、データ記憶部18に記憶されているテキスト情報を送信する(ステップS17)。例えば、アバターA、アバターB及びアバターCの間でチャットが行われている場合には、アバターBを用いているユーザBのクライアント6b及びアバターCを用いているユーザCのクライアント6cのそれぞれに対してテキスト情報を送信する。
Next, the text information memorize | stored in the data memory |
クライアント6aにおいては、サーバ2からネットワーク4を介して送信されたアバターAの動作情報、アバターBの動作情報及びアバターCの動作情報を通信制御部22を受信する。そして、アバターAのアバターIDに対応する動作情報に基づいてアバターAの視線、顔表情及び頷きの動作を変化させて表示部28に表示すると共に、アバターBのアバターIDに対応する動作情報に基づいてアバターBの視線、顔表情及び頷きの動作とアバターCの視線、顔表情及び頷きの動作を変化させて表示部28に表示する。また、アバターの動作を表示する際に、データ記憶部26に記憶されているユーザAのチャットメッセージであるテキスト情報を表示部28に表示する。
In the
また、クライアント6bにおいては、クライアント6aにおける場合と同様に、アバターA、アバターB及びアバターCの動作を変化させて表示すると共に、サーバ2から送信されたテキスト情報を受信し、受信されたテキスト情報に基づいてユーザAのチャットメッセージを表示する。更に、クライアント6cにおいても、クライアント6a及びクライアント6bにおける場合と同様に、アバターA、アバターB及びアバターCの動作を変化させて表示すると共に、サーバ2から送信されたテキスト情報を受信し、受信されたテキスト情報に基づいてユーザAのチャットメッセージを表示する。
Further, in the client 6b, as in the case of the
この発明の第1の実施の形態に係るアバター制御装置によれば、複数人でチャットを行っており、発言者に対する親密度が同一となっているユーザが複数存在する場合には、各ユーザのアバターの動作パラメータが重複しないように動作パラメータを算出している。即ち、動作パラメータを算出する際の初期値を変更し、同一の親密度及び同一の文字数を用いた場合であっても、異なる動作パラメータが算出されている。従って、複数人でコミュニケーションを行っている際に、複数人のユーザのアバターが同時に同一の動作を行うことがなく、アバターに自然な動作をさせることができる。 According to the avatar control device according to the first embodiment of the present invention, when a plurality of people are chatting and there are a plurality of users having the same intimacy with respect to a speaker, The motion parameters are calculated so that the motion parameters of the avatar do not overlap. That is, even when the initial value for calculating the operation parameter is changed and the same familiarity and the same number of characters are used, different operation parameters are calculated. Therefore, when a plurality of people are communicating, avatars of a plurality of users do not simultaneously perform the same operation, and the avatar can perform a natural operation.
次に、この発明の第2の実施の形態に係るアバター制御装置について説明する。なお、以下においては、第1の実施の形態に係る3次元の仮想空間内におけるチャット等のコミュニケーションを行うシステム(図1参照)と同一のシステムにより提供される仮想空間内において、複数のユーザ間で行われるチャットにおいてアバターの動作を制御する場合を例として説明する。また、以下においては、第1の実施の形態と同一の機能を示す部分については、第1の実施の形態において用いた符号と同一の符号を用いる。 Next, an avatar control device according to the second embodiment of the present invention will be described. In the following, a plurality of users in a virtual space provided by the same system as the system (see FIG. 1) that performs communication such as chat in the three-dimensional virtual space according to the first embodiment. The case where the operation of the avatar is controlled in the chat performed in FIG. In the following description, the same reference numerals as those used in the first embodiment are used for the portions that exhibit the same functions as those in the first embodiment.
図7は、第2の実施の形態に係るサーバ2のブロック構成図である。サーバ2は、図7に示すように、サーバ2におけるデータの処理を制御するデータ制御部10を備えている。このデータ制御部10には、アバターの動作を示す動作パラメータを複数パターン記憶した動作パラメータデータベース30が接続されている。なお、その他の部分については、第1の実施の形態に係るサーバ2と同一の構成であるため、説明を省略する。
FIG. 7 is a block configuration diagram of the
動作パラメータデータベース30には、動作パラメータ、即ち、ユーザ間の親密度及びチャットメッセージ(テキスト情報)の文字数に基づいて算出されたアバターの視線、顔表情及び頷く回数等を示す動作情報を作成する際に用いられるパラメータが記憶されている。動作パラメータデータベース30においては、複数パターン、例えば、図8に示すように、文字数及び親密度毎にパターンa、パターンb及びパターンcの3つのパターンの動作パラメータが記憶されている。即ち、図8に示すように、例えば、親密度が1、文字数が1の場合の動作パラメータとして、パターンaの動作パラメータ、パターンbの動作パラメータ及びパターンcの動作パラメータが記憶されている。また、親密度が2、文字数が2の場合の動作パラメータとして、パターンaの動作パラメータ、パターンbの動作パラメータ及びパターンcの動作パラメータが記憶されている。このように、親密度が1、文字数が1〜40のそれぞれの場合、親密度が2、文字数が1〜40のそれぞれの場合、同様に、親密度が3、4、・・・、10であって、文字数が1〜40のそれぞれの場合において、パターンa、パターンb及びパターンcの動作パラメータが記憶されている。即ち、動作パラメータデータベース30には、合計1200パターンの動作パラメータが記憶されている。
In the
ここで、動作パラメータデータベース30に記憶されている動作パラメータは、第1の実施の形態における処理、即ち、図4のフローチャートに示すステップS14における処理と同様の処理により算出される。即ち、動作パラメータを算出する際に用いる初期値として、パターンa用の初期値、パターンb用の初期値及びパターンc用の初期値を設定する。設定された初期値は、それぞれのパターンの動作パラメータを算出する際に、即ち、同一の文字数及び同一の親密度において、パターンaの初期値はパターンaの動作パラメータを算出する際に、パターンbの初期値はパターンbの動作パラメータを算出する際に、パターンcの初期値はパターンcの動作パラメータを算出する際に用いられる。このように複数パターンの初期値を設定することにより、親密度及び文字数が同一の場合であっても、複数パターンの動作パラメータを算出し、算出された複数パターンの動作パラメータを親密度及び文字数に対応させて動作パラメータデータベース30に記憶することができる。
Here, the operation parameter stored in the
なお、この発明の第2の実施の形態においては、クライアントとして上述の第1の実施の形態において用いられるクライアント6a、6b及び6cと同一のクライアントが用いられるため、詳細な説明を省略する。
In the second embodiment of the present invention, the same client as the
次に、この発明の第2の実施の形態に係るアバター制御装置におけるアバターの制御処理について説明する。なお、以下においては、第1の実施の形態に係る場合と同様に、予めサーバ2にユーザ登録している複数のユーザ間で行われるチャットにおけるアバターの動作を制御する場合を例として説明する。
Next, an avatar control process in the avatar control device according to the second embodiment of the present invention will be described. In the following description, as in the case of the first embodiment, a case where the operation of an avatar in a chat performed between a plurality of users registered in advance in the
まず、チャットを行うユーザ、例えば、ユーザAがサーバ2にユーザID及びパスワードを送信してログインを行う。ログインしたユーザAは、3次元の仮想空間内で利用するアバター(アバターA)を選択し、チャットルーム内に存在する他のユーザ(ユーザB及びユーザC)に対してテキスト情報を送信することにより、3次元の仮想空間内におけるチャットを開始する。チャットを開始することにより、クライアント6aには、チャットルーム内にユーザAのアバターと共に、ユーザBのアバターB及びユーザCのアバターCが存在していることを示す画像が表示される。なお、上述の処理は、第1の実施の形態に係る処理と同様の処理であるため、詳細な説明は省略する。
First, a user who performs chat, for example, user A transmits a user ID and password to the
サーバ2においては、図9のフローチャートに示すように、クライアント6aからネットワーク4を介して送信されたテキスト情報を通信制御部12を介して受信し(ステップS20)、受信されたテキスト情報の文字数をカウントする(ステップS21)。なお、カウントされた文字数は、テキスト情報と共にユーザID及びアバターIDに対応させてデータ記憶部18に記憶される。次に、クライアント6aから送信されたアバター位置情報を通信制御部12を介して受信し(ステップS22)、受信されたアバター位置情報に基づいて対話相手(チャットを行う相手)を決定する(ステップS23)。上述のステップS20〜ステップS23の処理は、図4のフローチャートにおけるステップS10〜ステップS13の処理と同様の処理であるため、詳細な説明は省略する。
As shown in the flowchart of FIG. 9, the
次に、チャットを行っているアバターの動作パラメータを抽出する(ステップS24)。即ち、発言したユーザと発言したユーザ以外でチャットに参加している他のユーザとの間の親密度を、ユーザ情報記憶部14に記憶されているユーザ情報に含まれる親密度を参照して確認する。次に、動作パラメータデータベース30に記憶されている動作パラメータの中から、ステップS21においてカウントされた文字数及び確認された親密度に対応して記憶されている動作パラメータを抽出する。
Next, the operation parameter of the avatar who is chatting is extracted (step S24). That is, the intimacy between the user who has spoken and other users who are participating in the chat other than the user who has spoken is confirmed by referring to the familiarity included in the user information stored in the user
ここで、ユーザAが発言した場合に、ユーザAとユーザBとの間の親密度と、ユーザAとユーザCとの間の親密度とが同一となっており、アバターBの動作パラメータとして、例えば、パターンaの動作パラメータが抽出された場合には、アバターCの動作パラメータとしてパターンb(又はパターンc)の動作パラメータを抽出し、同一パターンの動作パラメータが抽出されないようにする。なお、アバターAの動作パラメータは、動作パラメータデータベース30に記憶されている動作パラメータ中から、ステップS21においてカウントされた文字数及びステップS23において決定された対話相手との間における親密度に基づいて抽出される。
Here, when the user A speaks, the intimacy between the user A and the user B and the intimacy between the user A and the user C are the same. For example, when the motion parameter of pattern a is extracted, the motion parameter of pattern b (or pattern c) is extracted as the motion parameter of avatar C so that the motion parameter of the same pattern is not extracted. Note that the motion parameter of the avatar A is extracted from the motion parameters stored in the
次に、抽出された動作パラメータの中に、重複が存在する場合には(ステップS25)、動作時間の待ち時間を設定する(ステップS26)。即ち、動作パラメータデータベース30には、同一の文字数及び同一の親密度の場合に、3つのパターンの動作パラメータが記憶されている。従って、例えば、10人のグループでチャットを行っており、発言したアバターのユーザに対する親密度が同一となっているユーザが4人存在する場合には、必ず同一パターンの動作パラメータが抽出されてしまう。従って、同一の文字数及び同一の親密度において、同一パターンの動作パラメータが抽出された場合には、アバターが動作を開始する時間をずらすことにより、複数のアバターが同一の動作を同時に行うことを防ぐ。そのため、重複している動作パラメータの数に基づいて、アバターが動作を開始するまでの待ち時間を設定する。例えば、ユーザA、ユーザB、ユーザC、ユーザD及びユーザEでチャットを行っており、ユーザAに対するユーザB〜ユーザEの各々の親密度が同一となっている場合、ユーザB〜ユーザEの何れかのアバターの動作パラメータが同一になる。この時、例えば、アバターBとアバターCの動作パラメータが同一の場合には、アバターBは待ち時間「0秒」、アバターCは待ち時間「2秒」というように、アバターが動作を開始するまでの待ち時間を設定する。なお、アバターが動作を開始するまでの待ち時間は、予め任意に設定されている最大時間の範囲内において設定される。また、抽出された動作パラメータに重複が存在しない場合には(ステップS25)、そのままステップS27に進む。
Next, when there is an overlap in the extracted operation parameters (step S25), a waiting time for the operation time is set (step S26). That is, the
次に、抽出された動作パラメータに基づいて、3次元の仮想空間内においてチャットを行っている各ユーザの各々のアバターの動作を示す動作情報を作成し(ステップS27)、作成された動作情報を各ユーザが用いるクライアントに送信する(ステップS28)。なお、アバターが動作を開始するまでの待ち時間が設定されている場合には、動作情報にステップS26において設定された待ち時間が含まれている。 Next, based on the extracted motion parameters, motion information indicating the motion of each avatar of each user who is chatting in the three-dimensional virtual space is created (step S27). It transmits to the client which each user uses (step S28). In addition, when the waiting time until an avatar starts operation | movement is set, the waiting time set in step S26 is contained in operation | movement information.
次に、データ記憶部18に記憶されているテキスト情報を発言者以外のユーザでチャットに参加しているユーザのクライアントに送信する(ステップS29)。なお、上述のステップS27〜ステップS29の処理は、第1の実施の形態に係るステップS15〜ステップS17における処理と同様の処理であるため、詳細な説明を省略する。
Next, the text information memorize | stored in the
この発明の第2の実施の形態に係るアバター制御システムによれば、同一の文字数及び同一の親密度における動作パラメータを予め複数パターン算出し、動作パラメータデータベースに記憶している。従って、複数のユーザがチャットを行っている場合であっても、サーバに過度の負担を掛けることなく複数のアバターの動作情報を迅速に作成してアバターを自然に動作させることができる。 According to the avatar control system according to the second embodiment of the present invention, a plurality of patterns of motion parameters for the same number of characters and the same familiarity are calculated in advance and stored in the motion parameter database. Therefore, even when a plurality of users are chatting, it is possible to quickly create operation information of a plurality of avatars without causing an excessive burden on the server and to naturally operate the avatars.
また、この発明の第2の実施の形態に係るアバター制御システムによれば、同一の親密度が設定されているユーザが、動作パラメータデータベースに記憶されているパターンよりも多い場合には、アバターが動作を開始する待ち時間を設定している。従って、動作パラメータの重複が避けられない場合であっても、アバターが動作を開始する時間をずらすことにより、複数のアバターが同一の動作を同時に実行することによる動作の違和感を適切に排除し、アバターに自然な動作させることができる。 In addition, according to the avatar control system according to the second embodiment of the present invention, when there are more users set with the same familiarity than the patterns stored in the operation parameter database, the avatar is The waiting time to start operation is set. Therefore, even when duplication of motion parameters is unavoidable, by shifting the time at which the avatar starts to move, it is possible to appropriately eliminate the uncomfortable feeling of motion caused by a plurality of avatars executing the same motion simultaneously, You can make the avatar move naturally.
なお、上述の実施の形態に係るアバター制御システムにおいては、チャットの際のアバターの動作を制御する場合を例としているが、チャット以外のコミュニケーションにおけるアバターの動作を制御するようにしてもよい。 In the avatar control system according to the above-described embodiment, the case of controlling the operation of the avatar at the time of chat is taken as an example, but the operation of the avatar in communication other than chat may be controlled.
2・・・サーバ(アバター制御システム)、4・・・ネットワーク、6a、6b、6c・・・クライアント、10・・・データ制御部、12・・・通信制御部、14・・・ユーザ情報記憶部、16・・・アバター情報記憶部、18・・・データ記憶部、20・・・データ記憶部、22・・・通信制御部、24・・・キーボード、26・・・データ記憶部、28・・・表示部、30・・・動作パラメータデータベース。 2 ... Server (avatar control system), 4 ... Network, 6a, 6b, 6c ... Client, 10 ... Data control unit, 12 ... Communication control unit, 14 ... User information storage , 16 ... Avatar information storage unit, 18 ... Data storage unit, 20 ... Data storage unit, 22 ... Communication control unit, 24 ... Keyboard, 26 ... Data storage unit, 28 ... display unit, 30 ... operation parameter database.
Claims (3)
前記テキスト情報受信手段により受信されたテキスト情報の文字数をカウントする文字数カウント手段と、
前記一のユーザと複数の他のユーザの各々との間の親密度を記憶する親密度記憶手段と、
前記文字数カウント手段によりカウントされた文字数及び前記親密度記憶手段に記憶されている親密度に基づいて、前記一のユーザ及び前記複数の他のユーザの各アバターの各々の動作パラメータを算出する動作パラメータ算出手段と、
前記動作パラメータ算出手段により算出された動作パラメータに基づいて、前記各アバターの動作情報を作成する動作情報作成手段と
を備え、
前記動作パラメータ算出手段は、
前記親密度記憶手段に記憶されている前記一のユーザに対する前記他のユーザの親密度が同一である他のユーザが複数存在する場合に、該他のユーザ毎に、異なる動作パラメータを算出することを特徴とするアバター制御システム。 Text information receiving means for receiving text information transmitted from one user;
A character number counting means for counting the number of characters of the text information received by the text information receiving means;
Intimacy storage means for storing intimacy between the one user and each of a plurality of other users;
An operation parameter for calculating an operation parameter of each avatar of the one user and the plurality of other users based on the number of characters counted by the character count unit and the familiarity stored in the familiarity storage unit A calculation means;
Based on the motion parameter calculated by the motion parameter calculation means, the motion information creating means for creating motion information of each avatar,
The operation parameter calculation means includes
When there are a plurality of other users having the same closeness of the other user with respect to the one user stored in the closeness storage means, different operating parameters are calculated for each of the other users. An avatar control system characterized by
一のユーザから送信されるテキスト情報を受信するテキスト情報受信手段と、
前記テキスト情報受信手段により受信されたテキスト情報の文字数をカウントする文字数カウント手段と、
前記一のユーザと複数の他のユーザの各々との間の親密度を記憶する親密度記憶手段と、
前記文字数カウント手段によりカウントされた文字数及び前記親密度に基づいて、前記動作パラメータ記憶手段に記憶されている動作パラメータの中から、前記一のユーザ及び前記複数の他のユーザの各アバターの各々の動作パラメータを抽出する動作パラメータ抽出手段と、
前記動作パラメータ抽出手段により抽出された動作パラメータに基づいて、前記各アバターの動作情報を作成する動作情報作成手段と
を備え、
前記動作パラメータ抽出手段は、
前記一のユーザに対する親密度が同一である他のユーザが複数存在する場合に、該他のユーザ毎に異なるパターンの動作パラメータを抽出することを特徴とするアバター制御システム。 An operation parameter storage means for storing a plurality of patterns of operation parameters corresponding to the number of characters and closeness;
Text information receiving means for receiving text information transmitted from one user;
A character number counting means for counting the number of characters of the text information received by the text information receiving means;
Intimacy storage means for storing intimacy between the one user and each of a plurality of other users;
Based on the number of characters counted by the character count unit and the familiarity, each of the avatars of the one user and the plurality of other users is selected from the operation parameters stored in the operation parameter storage unit. An operation parameter extracting means for extracting an operation parameter;
Based on the motion parameters extracted by the motion parameter extraction means, the motion information creating means for creating motion information of each avatar ,
The operation parameter extraction means includes
An avatar control system, wherein when there are a plurality of other users having the same intimacy with respect to the one user, different operation parameters are extracted for each of the other users.
前記一のユーザに対する親密度が同一となっている他のユーザの数が、前記動作パラメータ記憶手段に記憶されている動作パラメータのパターン数よりも多く、前記動作パラメータ抽出手段により、同一パターンの動作パラメータが複数抽出された場合に、
前記動作情報作成手段は、
前記待ち時間設定手段により設定された待ち時間を含む動作情報を作成することを特徴とする請求項2記載のアバター制御システム。 A waiting time setting means for setting a waiting time until the other user's avatar starts operation for each other user having the same intimacy with respect to the one user,
The number of other users having the same intimacy with respect to the one user is larger than the number of operation parameter patterns stored in the operation parameter storage means, and the operation parameter extraction means performs the operation of the same pattern. When multiple parameters are extracted,
The operation information creating means includes
The avatar control system according to claim 2, wherein operation information including a waiting time set by the waiting time setting means is created.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004053342A JP4268539B2 (en) | 2004-02-27 | 2004-02-27 | Avatar control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004053342A JP4268539B2 (en) | 2004-02-27 | 2004-02-27 | Avatar control system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005242798A JP2005242798A (en) | 2005-09-08 |
JP4268539B2 true JP4268539B2 (en) | 2009-05-27 |
Family
ID=35024456
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004053342A Expired - Fee Related JP4268539B2 (en) | 2004-02-27 | 2004-02-27 | Avatar control system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4268539B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5134653B2 (en) * | 2010-07-08 | 2013-01-30 | 株式会社バンダイナムコゲームス | Program and user terminal |
JP5898981B2 (en) * | 2012-02-02 | 2016-04-06 | 株式会社コナミデジタルエンタテインメント | Message transmission system, control method and program |
CN104184760B (en) * | 2013-05-22 | 2018-08-07 | 阿里巴巴集团控股有限公司 | Information interacting method, client in communication process and server |
JP6187054B2 (en) * | 2013-09-03 | 2017-08-30 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP6212667B1 (en) * | 2016-12-26 | 2017-10-11 | 株式会社コロプラ | Method executed by computer to communicate via virtual space, program causing computer to execute the method, and information processing apparatus |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05313686A (en) * | 1992-04-02 | 1993-11-26 | Sony Corp | Display controller |
JP4602603B2 (en) * | 2000-09-13 | 2010-12-22 | アスモ株式会社 | Yoke manufacturing method |
JP2002109560A (en) * | 2000-10-02 | 2002-04-12 | Sharp Corp | Animation reproducing unit, animation reproducing system, animation reproducing method, recording medium readable by computer storing program for executing animation reproducing method |
JP2002259318A (en) * | 2001-02-27 | 2002-09-13 | Victor Co Of Japan Ltd | Method for displaying picture of person in virtual reality space |
JP2003108502A (en) * | 2001-09-28 | 2003-04-11 | Interrobot Inc | Physical media communication system |
-
2004
- 2004-02-27 JP JP2004053342A patent/JP4268539B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005242798A (en) | 2005-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4354313B2 (en) | Inter-user intimacy measurement system and inter-user intimacy measurement program | |
KR100841590B1 (en) | Chat system, communication device, control method thereof and computer-readable information storage medium | |
US7065711B2 (en) | Information processing device and method, and recording medium | |
KR101261349B1 (en) | System and Method for Enhancing Socialization in Virtual Worlds | |
US20040064498A1 (en) | Communication device, communication method, and computer usable medium | |
KR102276283B1 (en) | A system, method, and device for controlling the provision of notifications based on sources of notifications. | |
EP2690847A1 (en) | Virtual assistant for a telecommunication system | |
JP6156618B2 (en) | Message sharing device, message sharing method, message sharing program, and terminal device control program | |
JP2018092528A (en) | Chat system, management device, terminal device, and method and program for assisting selection of destination | |
JP2009205370A (en) | User terminal, computer program, and virtual world communication support system | |
JP4268539B2 (en) | Avatar control system | |
JP4227043B2 (en) | Avatar control system | |
JP2005202909A (en) | Avatar control system | |
JP4854424B2 (en) | Chat system, communication apparatus, control method thereof, and program | |
JP2003108502A (en) | Physical media communication system | |
KR102298070B1 (en) | System for providing active artificial intelligence image character based on mobile device | |
KR20060104980A (en) | System and method for interlocking process between emoticon and avatar | |
KR20170073196A (en) | system for providing short message using character | |
WO2020194828A1 (en) | Information processing system, information processing device, and information processing method | |
JP2019175086A (en) | Program and server device | |
JP2011108052A (en) | Communication support apparatus, communication support method and program | |
WO2024024392A1 (en) | Entertainment system, program, server, and display control method | |
JP2019111363A (en) | Game program and game device | |
Machado et al. | Sound chat: Implementation of sound awareness elements for visually impaired users in web-based cooperative systems | |
Birmingham | A comparative analysis of nonverbal communication in online multi-user virtual environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080205 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080401 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090217 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4268539 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120227 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130227 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130227 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140227 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |