JP4354313B2 - ユーザ間親密度測定システム及びユーザ間親密度測定プログラム - Google Patents

ユーザ間親密度測定システム及びユーザ間親密度測定プログラム Download PDF

Info

Publication number
JP4354313B2
JP4354313B2 JP2004074296A JP2004074296A JP4354313B2 JP 4354313 B2 JP4354313 B2 JP 4354313B2 JP 2004074296 A JP2004074296 A JP 2004074296A JP 2004074296 A JP2004074296 A JP 2004074296A JP 4354313 B2 JP4354313 B2 JP 4354313B2
Authority
JP
Japan
Prior art keywords
avatar
user
calculated
information
users
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004074296A
Other languages
English (en)
Other versions
JP2005235142A (ja
Inventor
吉田  誠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nomura Research Institute Ltd
Original Assignee
Nomura Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nomura Research Institute Ltd filed Critical Nomura Research Institute Ltd
Priority to JP2004074296A priority Critical patent/JP4354313B2/ja
Publication of JP2005235142A publication Critical patent/JP2005235142A/ja
Application granted granted Critical
Publication of JP4354313B2 publication Critical patent/JP4354313B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

この発明は、コンピュータを用いた3次元の仮想空間でのアバター(ユーザの化身)を利用したコミュニケーションにおけるユーザ間の親密度を測定するユーザ間親密度測定システム及びユーザ間親密度測定プログラムに関するものである。
近年、コンピュータを用いた3次元の仮想空間を利用したコミュニケーションでは、アバター(Avatar、サンスクリット語で「分身・化身」を意味する。多くの場合、ネットワーク上におけるユーザの「擬似人格」を意味している。)が多く利用されている。
例えば、インターネットを介したチャット(インターネットを利用してリアルタイムで文字による会話を行うものであり、1対1、1対多数、多数対多数で会話を行うことができる)を行う際に、それぞれのユーザがアバターを利用している。
なお、ユーザがチャット等のコミュニケーションを行うべく仮想空間にログインした際に、該ユーザのアバターを適切な場所に出現させることができる仮想空間利用システムが存在する。この仮想空間利用システムにおいては、複数のユーザが同一空間に同時に所定の距離及び視野内に存在している時間を交流時間とし、該交流時間に基づいてユーザ間の親密度を格付けする。そして、ユーザがログインした際に、親密度の格付けを参照し既にログインしている他のユーザの中で、親密度の格付けが最も高い他のユーザの目の前に新たにログインしたユーザのアバターを出現させている(特許文献1参照)。
特開2001−92993号公報
ところで、複数のユーザが同一空間に同時に所定の距離及び視野内に存在している交流時間に基づいて親密度の格付けを行っている場合、アバターの動作やユーザの発言内容が考慮されていないため、親密度の格付けが不適切になる場合がある。即ち、交流時間のみに基づいて親密度が格付けされる場合、例えば、メッセージの交換等が一切行われておらず、コミュニケーションが行われていない場合であっても、特定の場所に同時に存在した時間が長ければ交流時間が長いと判断され、親密度が高く格付けされる。
しかし、親密度が高いユーザ間においては、親密度が高いユーザが同一空間に同時に所定の距離及び視野内に存在していれば、コミュニケーションが行われるのが通常であり、コミュニケーションが行われていなければユーザ間の親密度を低く格付けするのが妥当である。また、例えば、ユーザAのアバターAとユーザBのアバターBとが存在する場合に、アバターAとアバターBは同一の方向を向いており、視線が全く合っていない状態であっても、アバターAがアバターBの視野内に存在すると判断される場合がある。この場合にも、視線が合っておらず、コミュニケーションが行われていないにも拘わらず交流時間が長ければ親密度が高く格付けされる。このように、ユーザ間でのコミュニケーションの有無やその内容を考慮しない場合には、親密度を適切に格付けることが困難であった。
この発明の課題は、コンピュータを用いた3次元の仮想空間で行われるアバターを利用したコミュニケーションにおいて、ユーザ間のコミュニケーション内容を反映させて高い精度でユーザ間の親密度を測定することができるユーザ間親密度測定システム及びユーザ間親密度測定プログラムを提供することである。
請求項1記載のユーザ間親密度測定システムは、一のユーザを含む複数のユーザから送信されるテキスト情報を受信するテキスト情報受信手段と、前記テキスト情報受信手段により受信されたテキスト情報を記憶するテキスト情報記憶手段と、前記一のユーザを含む複数のユーザの各々から送信されるアバター情報を受信するアバター情報受信手段と、 前記アバター情報受信手段により受信されたアバター情報を記憶するアバター情報記憶手段と、前記アバター情報記憶手段に記憶されているアバター情報に基づいて、ユーザ間の親密度を測定する測定対象範囲を設定する測定対象範囲設定手段と、前記テキスト情報記憶手段に記憶されているテキスト情報から前記測定範囲設定手段により設定された前記測定範囲内に存在するアバターのユーザから送信されたテキスト情報を抽出し、この抽出されたテキスト情報を用いて、ユーザが入力した文字数から算出されたユーザの発言量(U 、ユーザが入力した文字の入力開始時刻とユーザがテキスト情報を送信した送信時刻から算出された発言時間(U 、抽出されたテキスト情報の数から算出された発言頻度(U 及び抽出されたテキスト情報に含まれる文字列毎に、敬体が用いられるとポイントが低くなるように予め記憶されている敬体ポイントを参照して算出された敬体の値(H)を前記測定対象範囲内のユーザ間の親密度の測定に用いるパラメータとして算出すると共に、前記アバター情報記憶手段に記憶されている複数のユーザのアバター情報から前記測定範囲設定手段により設定された前記測定範囲内に存在するアバターのアバター情報を抽出し、この抽出されたアバター情報に基づいてアバターが感情動作ポイントが設定されている動作パターンを行ったときに、動作パターン毎に設定されている感情動作ポイントを累積計算することにより算出されたアバターの感情動作の値(E)、親密度の測定を行うユーザのアバターが同時に測定対象範囲内に存在していた存在時間(P 、親密度の測定を行うユーザのアバター間の位置情報に基づいて算出されたアバター間の距離(D)及び親密度の測定を行うユーザのアバターの顔の向きを示すベクトルにより算出された視線の合致度の値(S)を前記測定対象範囲内のユーザ間の親密度の測定に用いるパラメータとして算出するパラメータ算出手段と、前記パラメータ算出手段により算出されたパラメータに重み付けをする重み付け手段と、前記重み付け手段により重み付けされたパラメータを用い、下記(数式1)により、ユーザ間の親密度を算出する親密度算出手段と、前記親密度算出手段により算出されたユーザ間の親密度を記憶する親密度記憶手段とを備えることを特徴とする。
I=D×S×(α H+β E+β )・・・(数式1)
この(数式1)において、
係数α を発言量(U )の重み係数、
係数α を発言時間(U )の重み係数、
係数α を発言頻度(U )の重み係数、
係数α 敬体の値(H)の重み係数、
係数β を感情動作の値(E)の重み係数、
係数β を存在時間(P )の重み係数とする。
この請求項1記載のユーザ間親密度測定システムによれば、例えば、3次元の仮想空間内において複数のユーザがコミュニケーションを行っている場合に、測定対象範囲内に存在するユーザ間の親密度をテキスト情報及びアバター情報に基づいて算出されたパラメータを用いて算出している。即ち、ユーザ間でのコミュニケーションにおける発言内容を示すテキスト情報、コミュニケーションにおける動作を示すアバター情報に基づいてパラメータを算出し、算出されたパラメータを用いてユーザ間の親密度を算出している。具体的にはユーザが入力した文章の長さを示す発言量、ユーザが発言に要した時間(テキスト情報の入力に要した時間)を示す発言時間、ユーザの発言回数を示す発言頻度及び会話の敬体の値をテキスト情報に基づいてパラメータとして算出している。また、アバターによる喜怒哀楽を表現する回数を示す感情動作、測定対象範囲内に親密度を測定するユーザが同時に存在している時間を示す存在時間、アバター間の距離及びアバター同士の視線の合致度の値をアバター情報に基づいてパラメータとして算出している。従って、ユーザの発言内容を適切に考慮し、またアバターの動作を適切に考慮して高い精度でユーザ間の親密度を測定することができる。また、このユーザ間親密度測定システムによれば、パラメータに重み付けをしてユーザ間の親密度を算出している。従って、コミュニケーションが行われる仮想空間、例えば、チャット等が行われるコミュニティの特性に基づいて、パラメータに対する重み付けを変更することにより、コミュニティの特性を反映させ高い精度でユーザ間の親密度を測定することができる。
また、請求項2記載のユーザ間親密度測定システムは、前記測定対象範囲設定手段が、前記アバター情報記憶手段に記憶されているアバター情報に含まれるアバターの位置を示す情報に基づいて、前記各ユーザのアバターが存在する仮想空間を所定の領域に分割する領域分割手段を備え、前記領域分割手段により分割された領域内に複数のアバターが存在する場合に、該領域を測定対象範囲として設定することを特徴とする。
この請求項2記載のユーザ間親密度測定システムによれば、アバターが存在する仮想空間を所定の領域に分割し、分割された領域内に複数のアバターが存在する場合に、該領域を測定対象範囲として設定している。従って、的確にコミュニケーションが行われる範囲内に存在するユーザ間を対象として親密度を測定することができる。
また請求項記載のユーザ間親密度測定プログラムは、ネットワークを介した3次元の仮想空間内におけるコミュニケーションを行うためにコンピュータに、一のユーザを含む複数のユーザから送信されるテキスト情報を受信するテキスト情報受信機能、前記テキスト情報受信機能により受信されたテキスト情報を記憶するテキスト情報記憶機能、前記一のユーザを含む複数のユーザの各々から送信されるアバター情報を受信するアバター情報受信機能、前記アバター情報受信機能により受信されたアバター情報を記憶するアバター情報記憶機能、前記アバター情報記憶機能により記憶されているアバター情報に基づいて、ユーザ間の親密度を測定する測定対象範囲を設定する測定対象範囲設定機能、前記テキスト情報記憶機能により記憶されているテキスト情報から前記測定範囲設定機能により設定された前記測定範囲内に存在するアバターのユーザから送信されたテキスト情報を抽出し、この抽出されたテキスト情報を用いて、ユーザが入力した文字数から算出されたユーザの発言量(U 、ユーザが入力した文字の入力開始時刻とユーザがテキスト情報を送信した送信時刻から算出された発言時間(U 、抽出されたテキスト情報の数から算出された発言頻度(U 及び抽出されたテキスト情報に含まれる文字列毎に、敬体が用いられるとポイントが低くなるように予め記憶されている敬体ポイントを参照して算出された敬体の値(H)を前記測定対象範囲内のユーザ間の親密度の測定に用いるパラメータとして算出すると共に、前記アバター情報記憶機能により記憶されているアバター情報から抽出されたユーザ間の親密度の測定に用いられる複数のアバターのアバター情報から前記測定範囲設定機能により設定された前記測定範囲内に存在するアバターのアバター情報を抽出し、この抽出されたアバター情報に基づいてアバターが感情動作ポイントが設定されている動作パターンを行ったときに、動作パターン毎に設定されている感情動作ポイントを累積計算することにより算出されたアバターの感情動作の値(E)、親密度の測定を行うユーザのアバターが同時に測定対象範囲内に存在していた存在時間(P 、親密度の測定を行うユーザのアバター間の位置情報に基づいて算出されたアバター間の距離(D)及び親密度の測定を行うユーザのアバターの顔の向きを示すベクトルにより算出された視線の合致度の値(S)を前記測定対象範囲内のユーザ間の親密度の測定に用いるパラメータとして算出するパラメータ算出機能、前記パラメータ算出機能により算出されたパラメータに重み付けをする重み付け機能、前記重み付け機能により重み付けされたパラメータを用い、下記(数式1)により、ユーザ間の親密度を算出する親密度算出機能、前記親密度算出機能により算出されたユーザ間の親密度を記憶する親密度記憶機能を実現させることを特徴とする。
I=D×S×(α H+β E+β )・・・(数式1)
この(数式1)において、
係数α を発言量(U )の重み係数、
係数α を発言時間(U )の重み係数、
係数α を発言頻度(U )の重み係数、
係数α 敬体の値(H)の重み係数、
係数β を感情動作の値(E)の重み係数、
係数β を存在時間(P )の重み係数とする。

この請求項記載のユーザ間親密度測定プログラムによれば、3次元の仮想空間内において複数のユーザがコミュニケーションを行っている場合に、測定対象範囲内に存在するユーザ間でのコミュニケーションにおける発言内容を示すテキスト情報及びコミュニケーションにおける動作を示すアバター情報に基づいてパラメータを算出し、算出されたパラメータを用いてユーザ間の親密度を算出している。即ち、ユーザの発言量、発言時間、発言頻度及び敬体の値をテキスト情報に基づいてパラメータとして算出している。またアバターの感情動作、存在時間、アバター間の距離及び視線の合致度の値をアバター情報に基づいてパラメータとして算出している。従って、ユーザの発言内容を適切に考慮し、またアバターの動作を適切に考慮して高い精度でユーザ間の親密度を測定することができる。また、このユーザ間親密度測定プログラムによれば、パラメータに重み付けをしてユーザ間の親密度を算出しているため、例えば、チャット等が行われるコミュニティの特性に基づいてパラメータに対する重み付けを変更し、コミュニティの特性を反映させ高い精度でユーザ間の親密度を測定することができる。
また、請求項記載のユーザ間親密度測定プログラムは、前記測定対象範囲設定機能において、前記コンピュータに、前記アバター情報記憶機能により記憶されているアバター情報に含まれるアバターの位置を示す情報に基づいて、前記仮想空間を所定の領域に分割する領域分割機能を実現させ、前記領域分割機能により分割された領域内に複数のアバターが存在する場合に、該領域を測定対象範囲として設定することを特徴とする。
この請求項記載のユーザ間親密度測定プログラムによれば、アバターが存在する仮想空間を所定の領域に分割し、分割された領域内に複数のアバターが存在する場合に、該領域を測定対象範囲として設定している。従って、コミュニケーションが行われる範囲内に存在するユーザ間の親密度を的確に測定対象範囲として親密度の測定を行うことができる。
この発明に係るユーザ間親密度測定システムによれば、例えば、3次元の仮想空間内において複数のユーザがコミュニケーションを行っている場合に、測定対象範囲内に存在するユーザ間の親密度をテキスト情報及びアバター情報に基づいて算出されたパラメータを用いて算出している。即ち、ユーザ間でのコミュニケーションにおける発言内容を示すテキスト情報、コミュニケーションにおける動作を示すアバター情報に基づいてパラメータを算出し、算出されたパラメータを用いてユーザ間の親密度を算出している。従って、ユーザ間のコミュニケーションにおける言動を適切に反映し、高い精度でユーザ間の親密度を測定することができる。そのため、例えば、測定された親密度を用いてアバターが自然な動きをするようにアバターの動作を制御し、3次元の仮想空間内でのユーザ間のコミュニケーションが円滑に行われるようにすることができる。
また、この発明に係るユーザ間親密度測定プログラムによれば、ユーザ間親密度測定プログラムをコンピュータに組み込むことにより、該コンピュータをユーザ間親密度測定システムとして機能させることができる。従って、チャット等のコミュニケーションが行われるコミュニティの運用・管理を行っているシステムを構成するコンピュータにユーザ間親密度測定プログラムを組み込み、ユーザ間親密度測定システムとして機能させ、例えば、該コミュニティにおけるユーザ間のコミュニケーションを的確に活性化させるために、測定された親密度を活用することができる。
以下、図面を参照してこの発明の実施の形態に係るユーザ間親密度測定システムについて説明する。
図1は、この発明の実施の形態に係るユーザ間親密度測定システムを含む3次元の仮想空間内におけるコミュニケーションを行うシステム全体のブロック構成図である。3次元の仮想空間内におけるコミュニケーションを行うシステムは、図1に示すように、チャット等のコミュニケーションサービスを提供すると共に、ユーザ間の親密度を測定するユーザ間親密度測定システムとして機能するサーバ2を備えている。このサーバ2は、ネットワーク4を介して複数のユーザの各々が用いるクライアント6a、6b、6cと接続されている。なお、クライアント6aを用いるユーザをユーザA、クライアント6bを用いるユーザをユーザB、クライアント6cを用いるユーザをユーザCとする。
図2は、この発明の実施の形態に係るサーバ(ユーザ間親密度測定システム)のブロック構成図である。サーバ(ユーザ間親密度測定システム)2は、図2に示すように、サーバ2におけるデータの処理を制御するデータ制御部10を備えている。このデータ制御部10には、クライアント6a、6b、6cとの間の通信を制御する通信制御部12及びユーザに関する情報、例えば、各ユーザを識別するためのユーザID及びパスワード等を記憶するユーザ情報記憶部14が接続されている。また、データ制御部10にはユーザが用いるアバターの画像等、アバターに関する情報を記憶するアバター情報記憶部16及びアバターを動作させるための動作パラメータや通信制御部12を介して受信したユーザからのテキスト情報等を記憶するデータ記憶部18が接続されている。
ユーザ情報記憶部14には、サーバ2により提供されるコミュニケーションサービスを利用するユーザ、即ち、予めサーバ2にユーザ登録を行っているユーザのユーザ情報が記憶される。このユーザ情報には、例えば、ユーザを識別するためのユーザID、パスワード及びニックネーム(チャットを行う際に用いられるハンドルネーム等のユーザ名)が含まれる。なお、ユーザの氏名や住所等の個人情報もユーザ情報に含めて記憶するようにしてもよい。
また、アバター情報記憶部16には、サーバ2により提供されるコミュニケーションサービス、例えば、チャットを利用する際に用いられるアバターに関するアバター情報が記憶される。即ち、アバターの画像、各アバターを識別するためのアバターID及び3次元の仮想空間においてチャットが行われている際のアバターの位置を示すアバター位置情報(3次元の仮想空間におけるアバターの位置を示す座標)等がアバター情報としてアバター情報記憶部16に記憶される。
また、データ記憶部18には、ユーザ間親密度測定プログラム、即ち、サーバ2をユーザ間親密度測定システムとして機能させる際に起動させるプログラムが記憶されている。
また、データ記憶部18には、動作パラメータ、即ち、3次元の仮想空間におけるチャットに用いられるアバターの視線、顔表情及び頷きをそれぞれ示すパラメータや、動作パラメータに基づいて作成されたアバターの動作を示す動作情報が記憶される。また、データ記憶部18には、テキスト情報、即ち、文字列を示す情報、送信元ユーザのユーザID、送信先ユーザのユーザID、ユーザが文字列の入力を開始した時刻及びメッセージをサーバ2に対して送信した時刻を含む情報が記憶される。即ち、テキスト情報には、例えば、ユーザAとユーザBとがチャットを行っている場合、ユーザAからユーザBに対して送信されたチャットメッセージに基づく文字列を示す情報、ユーザAのユーザID、ユーザBのユーザID、ユーザAが文字列の入力を開始した時刻及びユーザAがメッセージを送信した時刻を示す情報が含まれている。また、データ記憶部18には、ユーザ間の親密度を示す係数、即ち、プログラムを起動することによりサーバをユーザ間親密度測定システムとして機能させ、テキスト情報及びアバター情報に基づいて算出されたユーザ間の親密度を示す係数が記憶される。なお、チャットが行われる3次元の仮想空間、例えば、チャットルーム等の画像を示すデータもデータ記憶部18に記憶されている。
図3は、この発明の実施の形態に係るクライアント6aのブロック構成図である。クライアント6aは、図3に示すように、クライアント6aにおけるデータの処理を制御するデータ制御部20を備えている。このデータ制御部20には、サーバ2との間の通信を制御する通信制御部22及びチャットメッセージとしてのテキスト情報等を入力するキーボード24が接続されている。また、データ制御部20には、サーバ2から送信されたテキスト情報やアバターを動作させるための動作情報等を記憶するデータ記憶部26及び動作情報に基づいて動作するアバター等を表示する表示部28が接続されている。
データ記憶部26には、サーバ2から送信されるアバターを動作させるための動作情報、即ち、表示部28に表示されているアバターを動作させるための情報が記憶される。また、データ記憶部26には、ユーザがキーボード24を介して入力したチャットメッセージ(テキスト情報)や、サーバ2を介してチャットの相手(対話相手)が用いるクライアントから送信されたチャットメッセージ等が記憶される。なお、クライアント6b、6cの構成は、クライアント6aの構成と同様の構成であるため説明を省略する。
次に、ユーザ間で3次元の仮想空間においてチャット等のコミュニケーションを行う場合の処理について概略を説明する。
まず、チャットを行うユーザがサーバ2にログインを行う。例えば、クライアント6aのキーボード24を介してユーザAのユーザID及びパスワードを入力し、入力されたユーザID及びパスワードを通信制御部22及びネットワーク4を介してサーバ2に送信する。
サーバ2においては、クライアント6aから送信されたユーザAのユーザID及びパスワードを通信制御部12を介して受信し、受信したユーザID及びパスワードと、ユーザ情報記憶部14に記憶されているユーザAのユーザID及びパスワードとの照合を行う。
照合不一致となった場合には、「ユーザID又はパスワードが違います」等の照合不一致となったことを通知するメッセージをクライアント6aに送信する。一方、照合一致となった場合には、チャットを行う際に用いるアバターを選択する画面、例えば、アバターのサムネイル画像を一覧形式で示したアバター選択画面のデータを通信制御部12及びネットワーク4を介してクライアント6aに送信する。
クライアント6aにおいては、照合不一致となったことを通知するメッセージを受信した場合には、ユーザID及びパスワードを再度キーボード24を介して入力しサーバ2に送信する。一方、アバター選択画面のデータを受信した場合には、表示部28にアバター選択画面を表示する。そして、マウス等のポインティングデバイスを用いてチャットにおいて利用するアバターを指定してクリックすることによりアバターを選択する。
サーバ2において、クライアント6aからアバターを選択したことを示すアバター選択情報を受信した場合には、選択されたアバターのアバターIDとユーザIDとを対応させてデータ記憶部18に記憶する。また、選択されたアバターの画像データ、選択されたアバターのアバターID及びチャットルームの画像を示すデータをクライアント6aに送信する。即ち、アバター情報記憶部16に記憶されているアバター画像とデータ記憶部18に記憶されているチャットルームの画像を示すデータを通信制御部12を介してクライアント6aに送信する。なお、チャットルーム内に既に他のアバターが存在する場合には、チャットルーム内に存在する他のアバターの画像及びアバターIDも送信される。
クライアント6aにおいては、サーバ2から送信されたアバターの画像、アバターID及びチャットルームを示すデータを通信制御部22を介して受信しデータ記憶部26に記憶する。次に、データ記憶部26に記憶されたアバターの画像データ及びチャットルームの画像を示すデータに基づいて、チャットルームにおいてアバターが存在することを示す画面を作成し表示部28に表示する。ここで、チャットルーム内に他のアバターが存在する場合、例えば、ユーザBのアバターであるアバターBがチャットルームに存在する場合には、アバターBの画像及びアバターIDも通信制御部22を介して受信されデータ記憶部26に記憶される。そして、ユーザAのアバターAと共にユーザBのアバターBがチャットルーム内に存在することを示す画面が作成され表示部28に表示される。
次に、クライアント6aにおいて、ユーザBに対するチャットメッセージをキーボード24を介して入力し、入力したチャットメッセージのテキスト情報(文字列)を通信制御部22及びネットワーク4を介してサーバ2に送信する。また、テキスト情報と共に、アバター情報、即ち、3次元の仮想空間であるチャットルーム内におけるアバターAの位置を示す座標及び入力されている場合には、アバターの感情表現(喜怒哀楽)を示す情報をサーバ2に送信する。なお、アバターの感情表現を示す情報は、キーボード24に設けられている「喜ボタン」、「怒ボタン」、「哀ボタン」及び「楽ボタン」(図示せず)を用いて入力することができる。また、サーバ2に送信されたテキスト情報及びアバター情報は、データ記憶部26に記憶される。
また、ユーザBがユーザAに対してメッセージを送信する場合にも、クライアント6aにおける処理と同様の処理がクライアント6bにおいて行われる。そして、ユーザAからユーザBに対するメッセージが、クライアント6aからサーバ2を介してクライアント6bに送信され、ユーザBからユーザAに対するメッセージが、クライアント6bからサーバ2を介してクライアント6aに送信されることによりチャットが行われる。
次に、図4のフローチャートを参照して、この発明の実施の形態に係るユーザ間親密度測定プログラムを起動することにより、サーバ2をユーザ間親密度測定システムとして機能させた場合におけるユーザ間の親密度測定処理について説明する。なお、以下においては、3次元の仮想空間内においてチャットを行っているユーザ間の親密度を測定する場合を例として説明する。
サーバ2においては、まず、データ記憶部18に記憶されているユーザ間親密度測定プログラムを起動し、サーバ2をユーザ間親密度測定システムとして機能させる。そして、図4のフローチャートに示すように、クライアント6aからネットワーク4を介して送信されたテキスト情報を通信制御部12を介して受信する(ステップS10)。次に、通信制御部12を介して受信されたテキスト情報を、ユーザID及びアバターIDに対応させてデータ記憶部18に記憶する(ステップS11)。
次に、クライアント6aから送信されたアバター情報を通信制御部12を介して受信する(ステップS12)。即ち、クライアント6aの表示部28に表示されているチャットルームにおけるアバターの位置を示す3次元の仮想空間の座標等を含む情報を受信する。
そして、通信制御部12を介して受信されたアバター情報を、ユーザID及びアバターIDに対応させてデータ記憶部18に記憶する(ステップS13)。
次に、データ記憶部18に記憶されたアバター情報に基づいて、ユーザ間の親密度を測定する測定対象範囲を設定する(ステップS14)。即ち、アバター情報に含まれている仮想空間内におけるアバターの位置を示す座標に基づいて、仮想空間内に存在するユーザ間の距離を算出する。そして、算出されたユーザ間の距離に基づいてアバターが存在している仮想空間を所定の領域毎に領域分割(クラスタリング)し、測定対象範囲を設定する。
図5は、仮想空間を領域分割することにより設定された測定対象範囲の一例を示す図である。ここで、仮想空間の領域分割は、仮想空間内に複数人のユーザが存在する場合に行われ、分割された領域内に複数人のユーザが存在する場合に、該領域が測定対象範囲として設定される。図5(a)は、ユーザAのアバターA、ユーザBのアバターB、ユーザCのアバターC及びユーザDのアバターDが存在する仮想空間を領域分割した場合の一例を示している。この図5(a)に示すように、仮想空間は、アバターAとアバターBとが存在する領域、アバターCが存在する領域、アバターDが存在する領域に分割されている。
従って、アバターAとアバターBとが存在する領域が測定対象範囲となり、ユーザAとユーザBとの間の親密度が測定対象となる。また、図5(b)は、アバターA、アバターB、アバターC、アバターD及びアバターEが存在する仮想空間を領域分割した場合の一例を示している。この図5(b)に示すように、仮想空間は、アバターA、アバターB及びアバターCが存在する領域、アバターDが存在する領域、アバターEが存在する領域に分割されている。従って、アバターA、アバターB及びアバターCが存在する領域が測定対象範囲となり、ユーザAとユーザB、ユーザAとユーザC、ユーザBとユーザCのそれぞれの間の親密度が測定対象となる。
次に、測定対象範囲内のユーザ間での言動を示す情報、即ち、テキスト情報及びアバター情報に基づいて、親密度を測定する際に用いるパラメータを算出する(ステップS15)。例えば、図5(a)に示す測定対象範囲に存在するアバターのユーザ間の親密度、即ち、ユーザAとユーザBとの間の親密度を測定する場合、データ記憶部18に記憶されているテキスト情報の中から、ユーザAからユーザBへのテキスト情報を、ユーザBからユーザAへのテキスト情報をそれぞれ抽出する。そして、抽出されたテキスト情報に基づいて、発言量(U)、発言時間(U)、発言頻度(U)及び敬体(H)をパラメータとして算出する。
ここで、発言量(U)は、発言した文章の長さを示すパラメータであり、例えば、ユーザAがキーボード24を用いて入力した文字数が、テキスト情報に含まれている文字列の情報に基づいて算出される。例えば、文字列が「最近ちょっと疲れてきたんだ。」の場合には、発言量(U)が「14」と算出され、文字列が「こんにちは。」の場合には、発言量(U)が「6」と算出される。また、発言時間(U)は、文字列の入力に費やされた時間を示すパラメータであり、テキスト情報に含まれている入力開始時刻と送信時刻に基づいて算出される。
また、発言頻度(U)は、発言を送信した回数、即ち、ユーザAとユーザBの間でコミュニケーションが開始されてから親密度の測定を行う時点までに発言を送信した回数を示すパラメータであり、抽出されたテキスト情報の数に基づいて算出される。更に、敬体(H)は、「〜です」、「ます」、「はい」等の丁寧語を使用しているか、又は、「だね」、「うん」等のくだけた表現を使用しているかに基づいて算出されるパラメータである。この敬体(H)の値は、テキスト情報に含まれている文字列に基づいて、予め設定されデータ記憶部18に記憶されている敬体ポイントを参照して算出される。例えば、図6に示すように、一人称の呼び方が「私」の場合には「3」、「僕」の場合には「5」、「俺」の場合には「10」、二人称の呼び方が「〜さん」の場合には「3」、「君(きみ)」の場合には「10」、「お前」の場合には「20」、応答として「はい」の場合には「3」、「うん」の場合には「10」として設定されている敬体ポイントを参照して敬体(H)の値を算出する。なお、敬体ポイントや、一人称の呼び方及び二人称の呼び方のバリエーション、例えば、男性バージョン、女性バージョン及び共通バージョン等は、ユーザ間親密度測定システムの管理者や運用者等が任意に設定することができる。
また、アバター情報記憶部16に記憶されているアバター情報の中から、ユーザAのアバターAとユーザBのアバターBのアバター情報を抽出する。そして、抽出されたアバター情報に基づいて、例えば、アバターの感情動作(E)、存在時間(P)、距離(D)及び視線(S)をパラメータとして算出する。
ここで、感情動作(E)は、喜怒哀楽を表現する動作に基づいて算出されるパラメータであり、喜び、怒り、悲しみ、楽しみのそれぞれの動作に対して予め設定されたパターンに付与されデータ記憶部18に記憶されている感情動作ポイントを累積計算することにより算出される。例えば、図7に示すように、喜びの動作には、「微笑む」動作に弱パターンとして「10」ポイント、「腹を抱えて笑う」動作に中パターンとして「30」ポイント、「飛び跳ねる」動作に強パターンとして「50」ポイントが設定されている。また、悲しみの動作には、「肩を落とす」動作に弱パターンとして「10」ポイント、「泣く」動作に中パターンとして「30」ポイント、「座り込んで泣く」動作に強パターンとして「50」ポイントが付与されている。従って、図7に示すように予め動作パターン毎に設定されている感情動作ポイントを累積計算することにより、感情動作(E)の値を算出する。なお、アバターの喜怒哀楽動作の各パターンの感情動作ポイントは、ユーザ間親密度測定システムの管理者や運用者等が任意に設定することができる。
また、存在時間(P)は、測定対象となっているユーザのアバターが同時に測定対象範囲内の領域に存在していた時間を示すパラメータである。また、距離(D)は、アバターAとアバターBの間の距離を示すパラメータであり、アバター情報に含まれている3次元の仮想空間内におけるアバターの位置を示すアバター位置情報、即ち、3次元の仮想空間におけるアバターの位置を示す座標に基づいて算出される。例えば、アバターAの位置を示す座標が(x、y、z)、アバターBの位置を示す座標が(x、y、z)となっている場合、アバターAとアバターBの距離(D)は{(x−x+(y−y+(z−z1/2として算出される。ここで、アバターの位置を示す座標として、アバターの頭の中心を示す座標が用いられる。なお、アバターの重心(体の中心)を示す座標やアバターの足元を示す座標を、アバターの位置を示す座標として用いてもよい。また、視線(S)は、アバターAとアバターBの視線の合致度合いを示すパラメータであり、アバター情報に含まれるアバターの位置を示す情報に基づくアバターの顔の向きを示すベクトルに基づいて算出される。即ち、アバターの位置を示す情報に基づいて示されるアバターAの顔の向きを示すベクトルVと、アバターBの顔の向きを示すベクトルVとの内積の値が視線(S)の値となる。
なお、算出されたパラメータ、即ち、発言量(U)、発言時間(U)、発言頻度(U)、敬体(H)、感情動作(E)、存在時間(P)、距離(D)及び視線(S)のそれぞれの値は、データ記憶部18に記憶される。
次に、算出された各パラメータに対する重み付けの設定を行う(ステップS16)。例えば、図8に示すように、発言量(U)の重み係数をα、発言時間(U)の重み係数をα、発言頻度(U)の重み係数をα、敬体(H)の重み係数をα、感情動作(E)の重み係数をβ及び存在時間(P)の重み係数をβとして、それぞれの重み係数の値を設定する。ここで、距離(D)と視線(S)はコミュニケーションを行う相手を決定付ける要素であるため、距離(D)及び視線(S)に対しては重み付けを行わず、他のパラメータについて重み係数の値を設定する。なお、一般的に、コミュニケーションは、言葉による部分が7%、残り93%は話し方、感情、身振りの要素によるものと考えられているため、図8に示すように、発言量(U)の重み係数αの値を「0.07」、その他のパラメータの重み係数の値の合計値が「0.93」となるように重み係数の値を設定している。また、重み係数の値は、ユーザ間親密度測定システムの管理者や運用者等が任意に設定・変更することができる。
次に、算出されたパラメータ及び設定された重み係数を用いてユーザ間の親密度の値を算出する(ステップS17)。即ち、発言量(U)、発言時間(U)、発言頻度(U)、敬体(H)、感情動作(E)、存在時間(P)、距離(D)、視線(S)、重み係数α、α、α、α、β及びβを下記の数式1に当てはめ、親密度(I)の値を算出する。
I=D×S×(αH+βE+β)・・・(数式1)
ここで、距離(D)及び視線(S)はコミュニケーションの相手を決定付ける要素であり、親密度に対する影響が大きくその他の要素にも影響を及ぼす。例えば、ユーザ間の距離、即ち、3次元の仮想空間内におけるユーザのアバター間の距離(D)が離れている場合には、その他のパラメータの値が大きい場合であっても、親密度が高くないと考えられる。同様に、視線(S)が合っていない場合にも、その他のパラメータの値が大きい場合であっても、親密度が高くないと考えられる。従って、上述の(数式1)に示すように、距離(D)及び視線(S)を主要な要素とし、距離(D)と視線(S)とその他のパラメータに重み係数を乗算して加算した値とを乗算することにより親密度(I)の値を算出する。そして、算出された親密度(I)の値をユーザAとユーザBの間の親密度としてデータ記憶部18に記憶する(ステップS18)。
次に、算出された親密度を用いてアバターの動作を制御する処理について説明する。なお、以下においては、ユーザAとユーザBとの間でアバターを用いたチャットが行われている場合を例として説明する。
まず、サーバ2において、図9のフローチャートに示すように、クライアント6aからネットワーク4を介して送信されたテキスト情報を通信制御部12を介して受信する(ステップS20)。なお、受信されたテキスト情報は、ユーザID及びアバターIDに対応させてデータ記憶部18に記憶される。
次に、ステップS20において受信されたテキスト情報の文字数をカウントする(ステップS21)。即ち、データ記憶部18に記憶されたテキスト情報の文字列を構成する文字数をカウントし、カウントされた文字数をテキスト情報に対応させてデータ記憶部18に記憶する。
次に、クライアント6aから送信されたアバター情報を通信制御部12を介して受信する(ステップS22)。即ち、クライアント6aの表示部28に表示されているチャットルームにおけるアバターの位置を示す3次元の仮想空間の座標等を含む情報を受信する。
なお、受信されたアバター情報は、ユーザID及びアバターIDに対応させてデータ記憶部18に記憶される。
次に、ステップS22において受信されたアバター情報に基づいて対話相手を決定する(ステップS23)。即ち、ステップS20において受信されたテキスト情報の送信元であるクライアントを用いるユーザのアバターを中心とし、該アバターから所定の範囲内に存在するアバターとの距離を算出する。例えば、ユーザAのアバターAを中心とする所定の範囲内に存在するユーザBのアバターBとの距離を算出する。そして、アバターAとアバターBとの距離が所定の範囲内となっている場合には、アバターAとアバターBとがチャットを行う範囲内に存在すると判断され、アバターBがアバターAの対話相手として決定される。
次に、発言したユーザのアバター及びステップS23において話し相手に決定されたユーザのアバターの動作パラメータを算出する(ステップS24)。ここで、例えば、人が対面して行う通常の会話におけるノンバーバル表現、即ち、顔表情、視線及び頷き等の非言語表現には、(1)人物間の非言語表現の関連性、(2)人物内の非言語表現の関連性が存在する。即ち、人物間において対話が行われている場合、人物間の視線、顔表情、頷き、発話の量には一定の関連性があることが知られている。また、人物内の非言語表現はそれぞれの要素が一定の関連性を有していることが知られている。なお、視線は、相手を見つめる時間、顔表情は笑顔の強さ、頷きは頷く回数、発話は発話語数(例えば、チャットメッセージの文字数)である。
(1)の人物間の非言語表現の関連性は、非言語表現の表出量には対話者間の親密度に基づく平衡状態が存在するというものである。例えば、ユーザAとユーザBとの間で対面により会話が行われている場合、ユーザAの視線、顔表情(表情)、頷き及び発話と、ユーザBの視線、顔表情(表情)、頷き及び発話との関係は、図10(a)に示すように、線で結ばれた表現間において、一方が高まると他方も高まるという正の相関関係を有している。即ち、図10(b)の表において「○」を付した表現間においては、例えば、ユーザAの視線が高まることにより、ユーザBの発話量及び視線が高まり、ユーザBの笑顔が高まることによりユーザAの発話量及び笑顔が高まる等の正の相関関係が存在する。
(2)の人物内の非言語表現の関連性とは、人物内の非言語表現は、対話者間の親密度に基づく平衡状態にあり、常に各種の表現の総和を平衡に保とうとするというものである。例えば、ユーザAの視線、表情、頷き及び発話の中で、視線の値が高くなれば、頷きの値が低くなる等、各種の非言語表現の総和が一定(平衡)になるように保たれる。
ここで、ユーザAの非言語表現の表出量をx、ユーザBの非言語表現の表出量をxとすると、上述の(1)に基づく非言語表現の人物間の関連性に基づいて、xとxの関係を以下の(数式2)により示すことができる。
=x・・・(数式2)
また、ユーザの意図が働いた非言語表現のそれぞれの要素の表出量をcとすると、上述の(2)に基づく非言語表現の人物内の関連性に基づいて、Σcの値は常に一定となる。また、アバターによって表出される非言語表現の表出量をeとし、eを以下の(数式3)により定義する。なお、「a」は、個人差を示す係数であり、ユーザが任意に設定することができる。
e=x・c・a・・・(数式3)
この時、アバターAの顔表情の表出量を示す動作パラメータをe 、視線の表出量を示す動作パラメータをe 、頷きの表出量を示す動作パラメータをe 、発話の表出量(発言量、ステップS21においてカウントされた文字数)を示す動作パラメータをe とし、アバターBの顔表情の表出量を示す動作パラメータをe 、視線の表出量を示す動作パラメータをe 、頷きの表出量を示す動作パラメータをe 、発話の表出量(発言量)を示す動作パラメータをe とする。また、アバターAの意図に基づく顔表現の表出量をc 、意図に基づく視線の表出量をc 、意図に基づく頷きの表出量をc 、意図に基づく発話の表出量をc とし、アバターBの意図に基づく顔表情の表出量をc 、意図に基づく視線の表出量をc 、意図に基づく頷きの表出量をc 、意図に基づく発話の表出量をc とする。更に、アバターAの顔表現の表出量に関する個人差を示す係数をa 、視線の表出量に関する個人差を示す係数をa 、頷きの表出量に関する個人差を示す係数をa 、発話の表出量に関する個人差を示す係数をa とし、アバターBの顔表情の表出量に関する個人差を示す係数をa 、視線の表出量に関する個人差を示す係数をa 、頷きの表出量に関する個人差を示す係数をa 、発話の表出量に関する個人差を示す係数をa とする。
ここで、(数式2)よりアバターAとアバターBの非言語表現の表出量が等しく、また、アバターAとアバターBのそれぞれの非言語表現の要素の表出量は(数式3)に基づいて算出することができる。従って、上述の(1)に示す関連性に基づいて、例えば、アバターAの視線とアバターBの視線との間には、以下の(数式4)に示す関係が成立する。
/(c ・a )=e /(c ・a )・・・(数式4)
また、上述の(2)に示す関連性に基づいて、アバターAの意図に基づく非言語表現の各々の要素とアバターBの意図に基づく非言語表現の各々の要素と、ユーザAとユーザBとの間の親密度(I)との間には以下の(数式5)に示す関係が成立する。
+c +c +c +c +c +c +c =I・・・(数式5)
以上より、(数式4)及び(数式5)に基づいて、図10(b)に示す正の相関関係を有する非言語表現間の関係を以下の数式(数式6)〜(数式14)により示すことができる。この時、以下の(数式6)〜(数式14)においてE〜E12の各々の値が「0」となるように、それぞれの要素の表出量「e」の値を算出することにより、上述の関連性(1)及び(2)を満たした非言語表現の表出量を示す動作パラメータの値を算出することができる。
={e /(c ・a )−e /(c ・a )}・・・(数式6)
={e /(c ・a )−e /(c ・a )}・・・(数式7)
={e /(c ・a )−e /(c ・a )}・・・(数式8)
={e /(c ・a )−e /(c ・a )}・・・(数式9)
={e /(c ・a )−e /(c ・a )}・・・(数式10)
={e /(c ・a )−e /(c ・a )}・・・(数式11)
={e /(c ・a )−e /(c ・a )}・・・(数式12)
={e /(c ・a )−e /(c ・a )}・・・(数式13)
={I−(c +c +c +c +c +c +c +c )}・・・(数式14)
なお、親密度(I)としては、サーバ2がユーザ間親密度測定システムとして機能し、図4のフローチャートに示す処理により算出され、データ記憶部18に記憶されている値が用いられる。また、算出されたそれぞれの動作パラメータは、ユーザID及びアバターIDに対応させてデータ記憶部18に記憶される。
次に、ステップS24において算出された動作パラメータに基づいて、発言したユーザのアバター及び対話相手に決定されたユーザのアバターのそれぞれの動作を示す動作情報を作成する(ステップS25)。即ち、データ記憶部18に記憶されている動作パラメータに基づいて、例えば、アバターAがアバターBに視線を向ける時間、笑顔の程度及び頷く回数と、アバターBがアバターAに視線を向ける時間、笑顔の程度及び頷く回数を示す動作情報をそれぞれ作成する。なお、作成された動作情報は、ユーザID及びアバターIDに対応させてデータ記憶部18に記憶される。
図11は、アバターの動作情報の一例を示す図である。図11においては、ユーザAがアバターAを用い、ユーザBがアバターBを用いてユーザA及びユーザB間でチャットを行っている場合のアバターA、アバターBの動作情報の一例を示している。ここで、視線は、相手に視線を向ける時間の割合を示し、顔表情は相手に見せる笑顔の強度を示している。また、頷きは相手に返す頷きの回数であり、発話量は、発話語数、即ち、チャットメッセージの文字数である。図11に示すように、例えば、「data1」において、アバターAの視線の値は「0.23」、顔表情の値は「0.27」、頷きの値は「0」、発話量は「5」であり、アバターBの視線の値は「0.26」、顔表情の値は「0.23」、頷きの値は「0」、発話量は「5」となっている。また、「data4」において、アバターAの視線の値は「0.45」、顔表情の値は「0.55」、頷きの値は「1.5」、発話量は「30」であり、アバターBの視線の値は「0.51」、顔表情の値は「0.48」、頷きの値は「1.5」、発話量は「30」となっている。従って、発話量の増加に伴って視線、笑顔及び頷きの値が増加しており、非言語表現の各要素間において正の相関関係が成立している。また、アバターAの非言語表現は、発話量の増加に伴い各要素の合計値が増加しており、アバターAの非言語表現の表出量が平衡状態を保っている。同様に、アバターBの非言語表現においても、非言語表現の表出量が平衡状態を保っている。
次に、データ記憶部18に記憶されている動作情報をチャットを行っているクライアントに送信する(ステップS26)。例えば、ユーザAとユーザBとの間でチャットを行っている場合には、クライアント6a及びクライアント6bのそれぞれに対して、アバターAの動作情報及びアバターBの動作情報を送信する。ここで、動作情報は、アバターIDと共に、例えば、アバターAの動作情報はアバターAのアバターIDと共に、アバターBの動作情報はアバターBのアバターIDと共に送信される。
次に、ステップS23において対話相手に決定されたアバターのユーザが用いるクライアントに対して、データ記憶部18に記憶されているテキスト情報を送信する(ステップS27)。例えば、ステップS23においてアバターBがアバターAの対話相手に決定された場合には、アバターBを用いているユーザBのクライアント6bに対してテキスト情報を送信する。
クライアント6aにおいては、サーバ2からネットワーク4を介して送信されたアバターAの動作情報及びアバターBの動作情報を通信制御部22を受信する。そして、アバターAのアバターIDに対応する動作情報に基づいてアバターAの視線、顔表情及び頷きの動作を処理して表示部28に表示すると共に、アバターBのアバターIDに対応する動作情報に基づいてアバターBの視線、顔表情及び頷きの動作を処理して表示部28に表示する。また、アバターの動作を表示する際に、データ記憶部26に記憶されているユーザAのチャットメッセージであるテキスト情報を表示部28に表示する。
また、クライアント6bにおいては、クライアント6aにおける場合と同様に、アバターA及びアバターBの動作を処理して表示すると共に、サーバ2から送信されたテキスト情報を受信する。そして、受信されたテキスト情報に基づいてユーザAのチャットメッセージを表示する。
この発明の実施の形態に係るユーザ間親密度測定システムによれば、3次元の仮想空間内においてコミュニケーションを行っているユーザ間の親密度を、テキスト情報及びアバター情報に基づいて算出されたパラメータを用いて算出している。即ち、ユーザ間のコミュニケーションの内容を示す発言内容及びユーザのアバターが示した動作内容に基づいて算出されたパラメータを用いてユーザ間の親密度を算出している。従って、ユーザ間の親密度を高い精度で算出することができ、算出された親密度を用いてアバターの動作がより自然な動きとなるように制御することができる。
また、この発明の実施の形態に係るユーザ間親密度測定システムによれば、3次元の仮想空間内におけるアバターの存在する位置に基づいて仮想空間を領域分割し、分割された領域内に複数のアバターが存在する場合に、該領域を測定対象範囲としている。そして、測定対象範囲内に存在するアバターを用いているユーザ間の親密度を測定している。従って、仮想空間を所定の領域に分割することにより適切な範囲を測定対象範囲とすることができる。
また、この発明の実施の形態に係るユーザ間親密度測定システムによれば、上述の(数式1)に示すように、アバター間の距離及びアバターの視線を主要なパラメータとしてユーザ間の親密度を算出している。従って、例えば、視野内には入っているが向かい合っていない場合に親密度が高くなることがなく、高い精度でユーザ間の親密度を測定することができる。
また、この発明の実施の形態に係るユーザ間親密度測定システムによれば、発言量(U)、発言時間(U)、発言頻度(U)、敬体(H)、感情動作(E)及び存在時間(P)に重み付けをして親密度の値を算出している。即ち、距離(D)及び視線(S)以外のパラメータに重み付けをして親密度の値を算出している。従って、例えば、チャットルーム等のコミュニティのタイプ毎に重み係数を設定し、ユーザ間の親密度を算出する際にコミュニティのタイプを適切に反映させることができる。
なお、上述の実施の形態に係るユーザ間親密度測定システムにおいては、ユーザ間の親密度を算出し、算出された親密度を用いてアバターの動作を制御しているが、複数のユーザ間の関係を分析する際に、算出された親密度を用いてもよい。例えば、ユーザA〜Hの8人のユーザが存在し、該8人のユーザをグループとして仮想空間内においてコミュニケーションが行われている場合に、各ユーザ間の親密度を算出し、ユーザ間の関係を分析してもよい。即ち、図12に示すように、親密度マトリックス、即ち、ユーザA〜Hの各ユーザ間の親密度を算出し算出された親密度に基づいて、各ユーザ間の親密度を示すマトリックスを作成し、ユーザ間の関係を分析するようにしてもよい。この場合には、例えば、図12に示す親密度のマトリックスによれば、ユーザAとユーザBの間の親密度は「14.4」、ユーザBとユーザCの間の親密度は「17.6」、ユーザAとユーザCの間の親密度は「12.2」となっていることから、ユーザA、B、Cは互いに親しい関係であると分析することができる。また、ユーザGと他のユーザとの間の親密度の値から、ユーザGは、ユーザBとのみ親しいと分析することができ、ユーザHと他のユーザとの間の親密度の値から、ユーザHと親しいユーザはこのグループ内に存在しないと分析することができる。更に、ユーザBは殆どのユーザとコミュニケーションを行っており、ユーザA〜Hの中では最も親密度の合計値が高くなっていることから、グループ内の調整役を指名する場合には、ユーザBが適切である等の分析を行うことができる。
また、上述の場合と同様に、例えば、3次元の仮想空間を利用した授業等のオンラインを利用した教育が行われている場合には、図12に示すような親密度マトリックスを作成し、作成された親密度マトリックスを用いて図13に示すようにユーザ間の関係を分析するようにしてもよい。即ち、図12に示す親密度マトリックスに基づいて、各ユーザ毎に親密度の合計、平均値及び分散を算出し「ユーザBは殆どのユーザと面識がある」、「ユーザC、ユーザD及びユーザEは親密度に偏りがある」及び「ユーザHと親しいユーザが存在しない」等の分析を行うことができる。この場合には、授業を行っているコミュニティ等におけるコミュニケーションが円滑に行われるように支援するための支援情報として、分析結果をコミュニティの運営者や管理者等に提供するようにしてもよい。
また、上述の実施の形態に係るユーザ間親密度測定システムにおいては、3次元の仮想空間においてアバターを利用してチャットを行っている場合を例としてユーザ間の親密度を測定しているが、インターネットを通じて利用することができるゲーム(オンラインゲーム、又は、ネットワークゲーム)を行っているユーザ間の親密度を測定してもよい。例えば、R.P.G.(Role Playing Game)等のゲームにおいてグループを形成する場合に、ゲームを提供しているコミュニティ内に存在するユーザ間の親密度を算出し、算出された親密度に基づいてユーザをグループ分けするようにしてもよい。
また、上述の実施の形態においては、ユーザ間親密度測定プログラムを起動させることによりサーバ2をユーザ間親密度測定システムとして機能させているが、サーバ2とは別にユーザ間親密度測定システムを設置するようにしてもよい。
この発明の実施の形態に係るユーザ間親密度測定システムを含むシステム全体のブロック構成図である。 この発明の実施の形態に係るユーザ間親密度測定システムとして機能するサーバのブロック構成図である。 この発明の実施の形態に係るクライアントのブロック構成図である。 この発明の実施の形態に係るユーザ間の親密度を測定する処理を説明するためのフローチャートである。 この発明の実施の形態に係る所定の領域に分割された仮想空間の一例を示す図である。 この発明の実施の形態に係る敬体ポイントの一例を示す図である。 この発明の実施の形態に係る感情動作ポイントの一例を示す図である。 この発明の実施の形態に係るパラメータに付与される重み係数の値の一例を示す図である。 この発明の実施の形態に係るアバターの制御処理を説明するためのフローチャートである。 この発明の実施の形態に係る非言語表現の各要素の関連性を説明するための図である。 この発明の実施の形態に係る動作情報の一例を示す図である。 この発明の実施の形態に係る親密度マトリックスの一例を示す図である。 この発明の実施の形態に係る親密度の分析結果の一例を示す図である。
符号の説明
2…サーバ(ユーザ間親密度測定システム)、4…ネットワーク、6a、6b、6c…クライアント、10…データ制御部、12…通信制御部、14…ユーザ情報記憶部、16…アバター情報記憶部、18…データ記憶部、20…データ記憶部、22…通信制御部、24…キーボード、26…データ記憶部、28…表示部。

Claims (4)

  1. 一のユーザを含む複数のユーザから送信されるテキスト情報を受信するテキスト情報受信手段と、
    前記テキスト情報受信手段により受信されたテキスト情報を記憶するテキスト情報記憶手段と、
    前記一のユーザを含む複数のユーザの各々から送信されるアバター情報を受信するアバター情報受信手段と、
    前記アバター情報受信手段により受信されたアバター情報を記憶するアバター情報記憶手段と、
    前記アバター情報記憶手段に記憶されているアバター情報に基づいて、ユーザ間の親密度を測定する測定対象範囲を設定する測定対象範囲設定手段と、
    前記テキスト情報記憶手段に記憶されているテキスト情報から前記測定範囲設定手段により設定された前記測定範囲内に存在するアバターのユーザから送信されたテキスト情報を抽出し、この抽出されたテキスト情報を用いて、ユーザが入力した文字数から算出されたユーザの発言量(U 、ユーザが入力した文字の入力開始時刻とユーザがテキスト情報を送信した送信時刻から算出された発言時間(U 、抽出されたテキスト情報の数から算出された発言頻度(U 及び抽出されたテキスト情報に含まれる文字列毎に、敬体が用いられるとポイントが低くなるように予め記憶されている敬体ポイントを参照して算出された敬体の値(H)を前記測定対象範囲内のユーザ間の親密度の測定に用いるパラメータとして算出すると共に、前記アバター情報記憶手段に記憶されている複数のユーザのアバター情報から前記測定範囲設定手段により設定された前記測定範囲内に存在するアバターのアバター情報を抽出し、この抽出されたアバター情報に基づいてアバターが感情動作ポイントが設定されている動作パターンを行ったときに、動作パターン毎に設定されている感情動作ポイントを累積計算することにより算出されたアバターの感情動作の値(E)、親密度の測定を行うユーザのアバターが同時に測定対象範囲内に存在していた存在時間(P 、親密度の測定を行うユーザのアバター間の位置情報に基づいて算出されたアバター間の距離(D)及び親密度の測定を行うユーザのアバターの顔の向きを示すベクトルにより算出された視線の合致度の値(S)を前記測定対象範囲内のユーザ間の親密度の測定に用いるパラメータとして算出するパラメータ算出手段と、
    前記パラメータ算出手段により算出されたパラメータに重み付けをする重み付け手段と、
    前記重み付け手段により重み付けされたパラメータを用い、下記(数式1)により、ユーザ間の親密度を算出する親密度算出手段と、
    前記親密度算出手段により算出されたユーザ間の親密度を記憶する親密度記憶手段と
    を備えることを特徴とするユーザ間親密度測定システム。
    I=D×S×(α H+β E+β )・・・(数式1)
    この(数式1)において、
    係数α を発言量(U )の重み係数、
    係数α を発言時間(U )の重み係数、
    係数α を発言頻度(U )の重み係数、
    係数α 敬体の値(H)の重み係数、
    係数β を感情動作の値(E)の重み係数、
    係数β を存在時間(P )の重み係数とする。
  2. 前記測定対象範囲設定手段は、
    前記アバター情報記憶手段に記憶されているアバター情報に含まれるアバターの位置を示す情報に基づいて、前記各ユーザのアバターが存在する仮想空間を所定の領域に分割する領域分割手段を備え、
    前記領域分割手段により分割された領域内に複数のアバターが存在する場合に、該領域を測定対象範囲として設定することを特徴とする請求項1記載のユーザ間親密度測定システム。
  3. ネットワークを介した3次元の仮想空間内におけるコミュニケーションを行うためにコンピュータに、
    一のユーザを含む複数のユーザから送信されるテキスト情報を受信するテキスト情報受信機能、
    前記テキスト情報受信機能により受信されたテキスト情報を記憶するテキスト情報記憶機能、
    前記一のユーザを含む複数のユーザの各々から送信されるアバター情報を受信するアバター情報受信機能、
    前記アバター情報受信機能により受信されたアバター情報を記憶するアバター情報記憶機能、
    前記アバター情報記憶機能により記憶されているアバター情報に基づいて、ユーザ間の親密度を測定する測定対象範囲を設定する測定対象範囲設定機能、
    前記テキスト情報記憶機能により記憶されているテキスト情報から前記測定範囲設定機能により設定された前記測定範囲内に存在するアバターのユーザから送信されたテキスト情報を抽出し、この抽出されたテキスト情報を用いて、ユーザが入力した文字数から算出されたユーザの発言量(U 、ユーザが入力した文字の入力開始時刻とユーザがテキスト情報を送信した送信時刻から算出された発言時間(U 、抽出されたテキスト情報の数から算出された発言頻度(U 及び抽出されたテキスト情報に含まれる文字列毎に、敬体が用いられるとポイントが低くなるように予め記憶されている敬体ポイントを参照して算出された敬体の値(H)を前記測定対象範囲内のユーザ間の親密度の測定に用いるパラメータとして算出すると共に、前記アバター情報記憶機能により記憶されているアバター情報から抽出されたユーザ間の親密度の測定に用いられる複数のアバターのアバター情報から前記測定範囲設定機能により設定された前記測定範囲内に存在するアバターのアバター情報を抽出し、この抽出されたアバター情報に基づいてアバターが感情動作ポイントが設定されている動作パターンを行ったときに、動作パターン毎に設定されている感情動作ポイントを累積計算することにより算出されたアバターの感情動作の値(E)、親密度の測定を行うユーザのアバターが同時に測定対象範囲内に存在していた存在時間(P 、親密度の測定を行うユーザのアバター間の位置情報に基づいて算出されたアバター間の距離(D)及び親密度の測定を行うユーザのアバターの顔の向きを示すベクトルにより算出された視線の合致度の値(S)を前記測定対象範囲内のユーザ間の親密度の測定に用いるパラメータとして算出するパラメータ算出機能、
    前記パラメータ算出機能により算出されたパラメータに重み付けをする重み付け機能、
    前記重み付け機能により重み付けされたパラメータを用い、下記(数式1)により、ユーザ間の親密度を算出する親密度算出機能、
    前記親密度算出機能により算出されたユーザ間の親密度を記憶する親密度記憶機能
    を実現させることを特徴とするユーザ間親密度測定プログラム。
    I=D×S×(α H+β E+β )・・・(数式1)
    この(数式1)において、
    係数α を発言量(U )の重み係数、
    係数α を発言時間(U )の重み係数、
    係数α を発言頻度(U )の重み係数、
    係数α 敬体の値(H)の重み係数、
    係数β を感情動作の値(E)の重み係数、
    係数β を存在時間(P )の重み係数とする。
  4. 前記測定対象範囲設定機能において、前記コンピュータに、
    前記アバター情報記憶機能により記憶されているアバター情報に含まれるアバターの位置を示す情報に基づいて、前記仮想空間を所定の領域に分割する領域分割機能を実現させ、
    前記領域分割機能により分割された領域内に複数のアバターが存在する場合に、該領域を測定対象範囲として設定することを特徴とする請求項記載のユーザ間親密度測定プログラム。
JP2004074296A 2004-01-21 2004-03-16 ユーザ間親密度測定システム及びユーザ間親密度測定プログラム Expired - Fee Related JP4354313B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004074296A JP4354313B2 (ja) 2004-01-21 2004-03-16 ユーザ間親密度測定システム及びユーザ間親密度測定プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004013458 2004-01-21
JP2004074296A JP4354313B2 (ja) 2004-01-21 2004-03-16 ユーザ間親密度測定システム及びユーザ間親密度測定プログラム

Publications (2)

Publication Number Publication Date
JP2005235142A JP2005235142A (ja) 2005-09-02
JP4354313B2 true JP4354313B2 (ja) 2009-10-28

Family

ID=35018013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004074296A Expired - Fee Related JP4354313B2 (ja) 2004-01-21 2004-03-16 ユーザ間親密度測定システム及びユーザ間親密度測定プログラム

Country Status (1)

Country Link
JP (1) JP4354313B2 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007094619A (ja) * 2005-09-28 2007-04-12 Omron Corp 認識装置および方法、記録媒体、並びに、プログラム。
EP1844827A1 (en) * 2006-04-11 2007-10-17 Palo Alto Research Center Incorporated Method, device, and program product to monitor the social health of a persistent virtual environment
JP4884918B2 (ja) * 2006-10-23 2012-02-29 株式会社野村総合研究所 仮想空間提供サーバ、仮想空間提供システム及びコンピュータプログラム
JP4985970B2 (ja) * 2007-10-24 2012-07-25 インターナショナル・ビジネス・マシーンズ・コーポレーション オブジェクトの表示を制御する技術
JP5027774B2 (ja) * 2008-09-30 2012-09-19 ヤフー株式会社 交際紹介システムの画像閲覧制御装置、画像閲覧制御方法及び画像閲覧制御プログラム
KR101030784B1 (ko) 2008-10-17 2011-04-27 서진철 상호 호감도 표시 방법 및 이를 위한 시스템
JP5373507B2 (ja) * 2009-08-26 2013-12-18 株式会社Okiソフトウェア 情報処理システム、情報処理方法およびプログラム
JP5715390B2 (ja) * 2009-12-03 2015-05-07 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 視聴端末装置、視聴統計装置、視聴統計処理システムおよび視聴統計処理方法
KR101747155B1 (ko) * 2010-05-13 2017-06-15 삼성전자주식회사 소셜 네트워크 서비스 제공 방법 및 이를 적용한 서비스 제공 서버
JP5134653B2 (ja) * 2010-07-08 2013-01-30 株式会社バンダイナムコゲームス プログラム及びユーザ端末
JP5672156B2 (ja) * 2011-05-31 2015-02-18 富士通株式会社 情報管理装置、情報管理プログラムおよび情報管理方法
JP5864273B2 (ja) * 2012-01-06 2016-02-17 Kddi株式会社 ユーザ間親密度推定装置、方法及びプログラム
JP6181495B2 (ja) * 2013-09-26 2017-08-16 Kddi株式会社 友人整理装置、友人整理方法およびプログラム
JP6702322B2 (ja) * 2015-06-30 2020-06-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP6764253B2 (ja) * 2016-05-11 2020-09-30 Line株式会社 通信方法、通信プログラム及び通信端末
JP6263252B1 (ja) * 2016-12-06 2018-01-17 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US11244510B2 (en) 2017-03-15 2022-02-08 Sony Corporation Information processing apparatus and method capable of flexibility setting virtual objects in a virtual space
CN108564420B (zh) * 2018-05-02 2022-08-16 江苏玻索物联科技有限公司 一种智能零售系统网络
JP6936198B2 (ja) * 2018-09-14 2021-09-15 Kddi株式会社 出力装置及び出力方法
WO2022137547A1 (ja) * 2020-12-25 2022-06-30 株式会社日立製作所 コミュニケーション支援システム
JP7440844B2 (ja) * 2021-09-30 2024-02-29 株式会社調和技研 情報処理装置及びプログラム

Also Published As

Publication number Publication date
JP2005235142A (ja) 2005-09-02

Similar Documents

Publication Publication Date Title
JP4354313B2 (ja) ユーザ間親密度測定システム及びユーザ間親密度測定プログラム
US20220254343A1 (en) System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs
US7065711B2 (en) Information processing device and method, and recording medium
KR101261349B1 (ko) 가상 세계에서 사회화를 강화하기 위한 시스템 및 방법
US11468894B2 (en) System and method for personalizing dialogue based on user's appearances
US7546536B2 (en) Communication device, communication method, and computer usable medium
US20090128567A1 (en) Multi-instance, multi-user animation with coordinated chat
CN113508369A (zh) 交流支持系统、交流支持方法、交流支持程序以及图像控制程序
JP4985970B2 (ja) オブジェクトの表示を制御する技術
US8280995B2 (en) System and method for supporting dynamic selection of communication means among users
KR102532908B1 (ko) 딥러닝 및 가상현실을 이용한 심리 상담 제공 장치, 방법 및 프로그램
US11960792B2 (en) Communication assistance program, communication assistance method, communication assistance system, terminal device, and non-verbal expression program
JP6040745B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム及びコンテンツ提供システム
CN115857704A (zh) 一种基于元宇宙的展览系统、交互方法以及电子设备
JP2009205370A (ja) ユーザ端末、コンピュータプログラム、および仮想世界コミュニケーション支援システム
JP4227043B2 (ja) アバター制御システム
JP7455308B2 (ja) 情報処理システム、情報処理方法、情報処理プログラム
JP2003108502A (ja) 身体性メディア通信システム
Vilhjálmsson Animating conversation in online games
US20220417490A1 (en) Information processing system, information processing method, and information processing program
JP2021051693A (ja) 発話システム、発話推薦装置、発話推薦プログラムおよび発話推薦方法
JP2005202909A (ja) アバター制御システム
JP4268539B2 (ja) アバター制御システム
KR101719742B1 (ko) 아바타를 사용한 모바일 메신저 서비스 방법 및 장치
KR102298070B1 (ko) 모바일 디바이스 기반 능동형 인공지능 영상 캐릭터 시스템

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090310

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090721

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090729

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120807

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130807

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees