JP4227043B2 - アバター制御システム - Google Patents

アバター制御システム Download PDF

Info

Publication number
JP4227043B2
JP4227043B2 JP2004060434A JP2004060434A JP4227043B2 JP 4227043 B2 JP4227043 B2 JP 4227043B2 JP 2004060434 A JP2004060434 A JP 2004060434A JP 2004060434 A JP2004060434 A JP 2004060434A JP 4227043 B2 JP4227043 B2 JP 4227043B2
Authority
JP
Japan
Prior art keywords
avatar
user
range
text information
users
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004060434A
Other languages
English (en)
Other versions
JP2005250859A (ja
Inventor
憲 大嶋
徹 濱辺
智 田中
弘美 宇和田
吉田  誠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nomura Research Institute Ltd
Original Assignee
Nomura Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nomura Research Institute Ltd filed Critical Nomura Research Institute Ltd
Priority to JP2004060434A priority Critical patent/JP4227043B2/ja
Publication of JP2005250859A publication Critical patent/JP2005250859A/ja
Application granted granted Critical
Publication of JP4227043B2 publication Critical patent/JP4227043B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Description

この発明は、コンピュータを用いた3次元の仮想空間でのアバター(ユーザの化身)を利用したコミュニケーションにおけるアバターの動作を制御するアバター制御システムに関するものである。
近年、コンピュータを用いた3次元の仮想空間を利用したコミュニケーションでは、アバター(Avatar、サンスクリット語で「分身・化身」を意味する。多くの場合、ネットワーク上におけるユーザの「擬似人格」を意味している。)が多く利用されている。例えば、インターネットを介したチャット(インターネットを利用してリアルタイムで文字による会話を行うものであり、1対1、1対多数、多数対多数で会話を行うことができる)を行う際に、それぞれのユーザがアバターを利用している。
なお、通信回線を介した音声コミュニケーションにおいて擬似人格(アバター)を用いる身体性メディア通信システムが存在する。この身体性メディア通信システムにおいては、ユーザが話し手になっている場合には、話し手であるユーザの音声に従って動作する話し手動作と、ユーザが聞き手になっている場合には、話し手である他のユーザの音声に従って動作する聞き手動作に基づいて擬似人格を動作させている(特許文献1参照)。
また、複数のユーザの各々が用いているアバターが仮想空間内に存在する場合に、各アバターの周囲に所定範囲の固有領域を設定し、アバター間で固有領域が重なった場合にメッセージの交換を成立させる管理装置が存在する(特許文献2参照)。この管理装置においては、アバターの固有領域が重なった場合にメッセージの交換を成立させると共に、メッセージの交換が成立しているアバターから所定の距離に存在する他のアバターのユーザに対してもメッセージを送信している。即ち、メッセージの交換に参加していないユーザに対してもメッセージを送信することにより、現実の世界において、実際に会話には参加していないが、近くにいるため会話の内容を聴取することができる状態と同様の状態を作り出している。また、この管理装置においては、複数のユーザ間でのメッセージの交換が成立している時、その中の一人に対してメッセージを送信する場合は、予め相手のアバターを指定することにより、発言者のアバターを相手のアバターの方に向かせて指定した相手にメッセージの送信を行っている。
特開2003−108502号公報 特開2003−67317号公報
ところで、従来、チャット等のコミュニケーションにおいてアバターを用いた場合、ユーザの操作又はチャットサービスを提供しているサーバによる制御に基づいてランダムにアバターを動作させていた。また、上述の身体性メディア通信システムように、ユーザの音声に基づいてアバターを動作させる場合にも、ユーザの音声に基づいて個々のアバターを動作させており、アバター同士で相手の動きに合わせて動作させることは行われていなかった。そのため、アバターの動作が現実の対話における人物の動作と比べて著しく不自然であり、ユーザがアバターの動作に違和感を感じる等の問題があった。
また、アバターの制御は、仮想空間内におけるコミュニケーションが1対1で行われている場合を前提として行われており、アバターを用いたコミュニケーションに多数のユーザが同時に参加している場合は考慮されていなかった。従って、アバターを用いたコミュニケーションに多数のユーザが同時に参加している場合に、各々のアバターが自然に動作するようにアバターの動作が制御されていないという問題があった。
また、上述の管理装置においては、複数のユーザ間におけるメッセージ交換に関する管理を行っており、メッセージの交換に伴うアバターの動作は制御していない。即ち、複数のユーザ間でメッセージの交換が成立している時に、その中の一人に対して発言する場合には、相手のアバターを予め指定しなければ発言者のアバターを相手のアバターに向かせることができない。従って、特定の相手に対してメッセージが送信された場合であっても、相手のアバターが指定されていなければ発言内容と発言者のアバターの向きとが不一致となり、アバターの動作が不自然になるため、ユーザが違和感を感じる場合があった。
この発明の課題は、コンピュータを用いた3次元の仮想空間内でのアバターを利用した複数のユーザ間におけるコミュニケーションにおいて、自然な動作を行うようにアバターの動作を制御するアバター制御システムを提供することである。
請求項1記載のアバター制御システムは、一のユーザから送信されるテキスト情報を受信するテキスト情報受信手段と、前記一のユーザを含む複数のユーザの各々から送信されるアバター位置情報を受信するアバター位置情報受信手段と、前記アバター位置情報受信手段により受信されたアバター位置情報に基づいて、アバター毎に動作反応範囲を設定する動作反応範囲設定手段と、前記動作反応範囲設定手段により設定された前記一のユーザのアバターの動作反応範囲に存在する複数の他のユーザに対して前記テキスト情報受信手段により受信されたテキスト情報を送信するテキスト情報送信手段と、前記テキスト情報送信手段により送信されたテキスト情報を受信した複数の前記他のユーザの各々によるテキスト情報の入力が開始されたことを示す入力開始信号を受信する入力開始信号受信手段と、前記入力開始信号により示される複数の前記他のユーザの各々の入力開始時刻と、前記一のユーザ及び複数の前記他のユーザを含むユーザの各々の最終発言時刻とを比較し、前記最終発言時刻が前記入力開始時刻より前であって、かつ、該入力開始時刻に最も近い時刻であるユーザを、複数の前記他のユーザの各々の対話相手として決定する対話相手決定手段と、前記対話相手決定手段により対話相手として決定されたユーザのアバターに対する、前記他のユーザのアバターの動作を示す動作情報を、複数の前記他のユーザの各々に送信する動作情報送信手段とを備えることを特徴とする。
この請求項記載のアバター制御システムによれば、一のアバターの動作反応範囲内に複数の他のアバターが存在する場合に、複数の他のユーザの各々の対話相手を入力開始信号に基づいて決定している。例えば、ユーザAの発言に対して、つまりユーザAのテキスト情報送信後に、ユーザB及びユーザCが入力を開始した場合、それぞれのユーザがテキスト情報の入力を開始したことを示す入力開始信号が受信される。ここで、ユーザBの方が早くテキスト情報の入力を終了し、入力し終えたテキスト情報をユーザBがユーザCのテキスト情報よりも先に送信して、ユーザBのテキスト情報が受信されたとする。この場合、ユーザCが入力し終えたテキスト情報を送信し、ユーザCのテキスト情報が受信された時点では、ユーザBから送信されたテキスト情報が既に受信されておりユーザCの発言する前の所定時間内でかつ、ユーザCの発言時刻から最も近い時刻に発言したユーザはユーザBとなる。しかし、ユーザBのテキスト情報は、ユーザCの入力開始信号が受信された後に受信されているため、ユーザCの対話相手は入力開始信号が受信される前に受信されたテキスト情報の送信元であるユーザAに決定される。そのため、ユーザCが発言する際にアバターCは、ユーザAのアバターAに視線を向けるように制御され、ユーザがアバターの動作に違和感を感じることを適切に防止することができる。
また、請求項記載のアバター制御システムは、前記動作反応範囲設定手段が、アバターの正面から上下方向に所定角度内の範囲を上下範囲として設定する上下範囲設定手段と、アバターの正面から左右方向に所定角度内の範囲を左右範囲として設定する左右範囲設定手段とを備え、前記上下範囲設定手段により設定された上下範囲と前記左右範囲設定手段により設定された左右範囲により規定される範囲を動作反応範囲として設定することを特徴とする。
この請求項記載のアバター制御システムによれば、アバターの正面から上下左右方向に設定された所定角度内の範囲により規定される範囲を動作反応範囲として設定している。従って、一のアバターの正面方向の所定範囲内に存在するアバターを用いているユーザの中から対話相手を決定することができ、現実の会話における動作と同様に、自然な動作を行うようにアバターの動作を制御することができる。
この発明によれば、例えば、複数のユーザ間でチャットを行っている場合に、ユーザAのアバターAの動作反応範囲内に存在するユーザBのアバターBを対話相手とし、ユーザAが発言した場合には、アバターAがアバターBに視線を向けるようにアバターAの動作を制御することができる。従って、複数のユーザ間でチャット等のコミュニケーションが行われている場合におけるアバターの動作が自然な動作になるように制御することができる。
また、一のユーザが発言する前の所定時間内、例えば、一のユーザが発言する直前に発言した他のユーザを一のユーザの対話相手として決定している。即ち、現実の会話で自分の前に発言した人に対する返答として発言を行う場合と同様に、新たな発言者のアバターの視線が前の発言者のアバターに向くようにアバターの動作を制御することができる。従って3次元の仮想空間内におけるコミュニケーション、例えば、チャットの会話の流れに沿って自然な動作をするようにアバターの動作を制御することができる。また、アバターに自然な動作をさせることができるため、ユーザがアバターの動作に違和感を覚えることを防ぎ、3次元の仮想空間内におけるコミュニケーションを活性化させることができる。
以下、図面を参照してこの発明の実施の形態に係るアバター制御システムについて説明する。
図1は、この発明の実施の形態に係るアバター制御システムを含む3次元の仮想空間内におけるコミュニケーションを行うシステム全体のブロック構成図である。3次元の仮想空間内におけるコミュニケーションを行うシステムは、図1に示すように、チャット等のコミュニケーションサービスを提供すると共に、仮想空間内におけるアバターの動作を制御するアバター制御システムとして機能するサーバ2を備えている。このサーバ2は、ネットワーク4を介して複数のユーザの各々が用いるクライアント6a、6b、6cと接続されている。なお、クライアント6aを用いるユーザをユーザA、クライアント6bを用いるユーザをユーザB、クライアント6cを用いるユーザをユーザCとする。
図2は、この発明の実施の形態に係るサーバ(アバター制御システム)のブロック構成図である。サーバ(アバター制御システム)2は、図2に示すように、サーバ2におけるデータの処理を制御するデータ制御部10を備えている。このデータ制御部10には、クライアント6a、6b、6cとの間の通信を制御する通信制御部12及びユーザに関する情報、例えば、各ユーザを識別するためのユーザID及びパスワード等を記憶するユーザ情報記憶部14が接続されている。また、データ制御部10には、ユーザが用いるアバターの画像等、アバターに関する情報を記憶するアバター情報記憶部16及びアバターを動作させるための動作パラメータや通信制御部12を介して受信したユーザからのテキスト情報等を記憶するデータ記憶部18が接続されている。
ユーザ情報記憶部14には、サーバ2により提供されるコミュニケーションサービス(例えば、チャット)を利用するユーザ、即ち、予めサーバ2にユーザ登録を行っているユーザのユーザ情報が記憶される。このユーザ情報には、例えば、ユーザを識別するためのユーザID、パスワード、ニックネーム(チャットを行う際に用いられるアバター名等)及びユーザ間における親密度、例えば、ユーザAとユーザBの親密度を示す係数(ユーザにより任意に設定される係数)が含まれる。なお、ユーザの氏名や住所等の個人情報もユーザ情報に含めて記憶するようにしてもよい。
また、アバター情報記憶部16には、サーバ2により提供されるコミュニケーションサービス、例えば、チャットを利用する際に用いられるアバターに関するアバター情報が記憶される。即ち、アバターの画像、各アバターを識別するためのアバターID、3次元の仮想空間においてチャットが行われている際のアバターの位置を示すアバター位置情報(3次元の仮想空間におけるアバターの位置を示す座標)等がアバター情報としてアバター情報記憶部16に記憶される。ここで、アバターの位置を示す座標としては、アバターの頭の中心を示す座標が用いられる。なお、アバターの重心(体の中心)を示す座標やアバターの足元を示す座標を、アバターの位置を示す座標として用いるようにしてもよい。
また、データ記憶部18には、動作パラメータ、即ち、3次元の仮想空間内におけるチャットに用いられるアバターの視線、顔表情及び頷きをそれぞれ示すパラメータや、動作パラメータに基づいて作成されたアバターの動作を示す動作情報が記憶される。また、データ記憶部18には、テキスト情報、例えば、ユーザAとユーザBとがチャットを行っている場合に、ユーザAからユーザBに対して送信されたチャットメッセージに基づく文字列を示す情報や、ユーザBからユーザAに対して送信されたチャットメッセージに基づく文字列を示す情報が記憶される。更に、データ記憶部18には、コミュニケーションサービスに関する履歴情報、例えば、チャットを利用したユーザ間の対話履歴、即ち、ユーザAがユーザBとチャットをした場合におけるユーザAとユーザBとの対話履歴等が記憶される。なお、チャットが行われる3次元の仮想空間、例えば、チャットルームの画像を示すデータもデータ記憶部18に記憶されている。
また、データ記憶部18には、3次元の仮想空間内においてチャットを行う際における対話相手候補を示した対話相手候補テーブルが記憶されている。この対話相手候補テーブルは、3次元の仮想空間内においてチャットを行っているユーザ毎にデータ記憶部18に記憶されている。ここで、対話相手候補とは、例えば、3次元の仮想空間内におけるアバターAの動作反応範囲に存在する他のアバターであり、対話相手とは、一のユーザの発言に伴って一のアバターが動作を行う際に視線を向ける等の動作を行う対象となる他のアバターである。
図3は、この発明の実施の形態に係る対話相手候補テーブルの一例を示す図であり、アバターAの対話相手候補テーブルを示している。対話相手候補テーブルには、図3に示すように、アバターAの動作反応範囲内に存在する他のアバターのアバターIDに対応させて、各アバターのアバター名及び最終発言時刻が記録される。即ち、アバターBのアバターID「B」に対応させて、アバターBのアバター名「ヘンリー」及びアバターBの最終発言時刻「12時12分12秒」が記録される。また、アバターCのアバターID「C」に対応させて、アバターCのアバター名「チャーリー」及びアバターCの最終発言時刻「12時12分00秒」が記録される。なお、ユーザがテキスト情報の入力を終了し、入力し終えたテキスト情報がサーバ2に対して送信された場合に、ユーザから送信されたテキスト情報がサーバ2において受信された時刻が最終発言時刻となる。この最終発言時刻は、所定時間以上発言が行われなかった(所定時間以上テキスト情報が受信されなかった)場合、例えば、2分以上発言が行われなかった場合にはリセットされる。
図4は、この発明の実施の形態に係るクライアント6aのブロック構成図である。クライアント6aは、図4に示すように、クライアント6aにおけるデータの処理を制御するデータ制御部20を備えている。このデータ制御部20には、サーバ2との間の通信を制御する通信制御部22及びチャットメッセージとしてのテキスト情報等を入力するキーボード24が接続されている。また、データ制御部20には、サーバ2から送信されたテキスト情報やアバターを動作させるための動作情報等を記憶するデータ記憶部26及び動作情報に基づいて動作するアバター等を表示する表示部28が接続されている。
データ記憶部26には、サーバ2から送信されるアバターを動作させるための動作情報、即ち、表示部28に表示されているアバターを動作させるための情報が記憶される。また、データ記憶部26には、ユーザがキーボード24を介して入力したチャットメッセージ(テキスト情報)や、サーバ2を介してチャットの相手が用いるクライアントから送信されたチャットメッセージ等が記憶される。なお、クライアント6b、6cの構成は、クライアント6aの構成と同様の構成であるため説明を省略する。
次に、この発明の実施の形態に係るアバター制御システムによるアバターの制御処理について説明する。なお、以下においては、予めサーバ2にユーザ登録をしている複数のユーザ間で行われるチャットにおけるアバターの動作を制御する場合を例として説明する。
まず、チャットを行うユーザがサーバ2にログインを行う。例えば、クライアント6aのキーボード24を介してユーザAのユーザID及びパスワードを入力し、入力されたユーザID及びパスワードを通信制御部22及びネットワーク4を介してサーバ2に送信する。
サーバ2においては、クライアント6aから送信されたユーザAのユーザID及びパスワードを通信制御部12を介して受信し、受信したユーザID及びパスワードと、ユーザ情報記憶部14に記憶されているユーザAのユーザID及びパスワードとの照合を行う。照合不一致となった場合には、「ユーザID又はパスワードが違います」等の照合不一致となったことを通知するメッセージをクライアント6aに送信する。一方、照合一致となった場合には、チャットを行う際に用いるアバターを選択する画面、例えば、アバターのサムネイル画像を一覧形式で示したアバター選択画面のデータを通信制御部12及びネットワーク4を介してクライアント6aに送信する。
クライアント6aにおいては、照合不一致となったことを通知するメッセージを受信した場合には、ユーザID及びパスワードを再度キーボード24を介して入力しサーバ2に送信する。一方、アバター選択画面のデータを受信した場合には、表示部28にアバター選択画面を表示する。そして、マウス等のポインティングデバイスを用いてチャットにおいて利用するアバターを指定してクリックすることによりアバターを選択する。ここで、サーバ2がクライアント6aのユーザIDを基に、クライアント6aが以前に選択していたアバターを自動的に選択してもよい。
サーバ2において、クライアント6aからアバターを選択したことを示すアバター選択情報を受信した場合には、選択されたアバターのアバターIDとユーザIDとを対応させてデータ記憶部18に記憶する。また、選択されたアバターの画像データ、選択されたアバターのアバターID及びチャットルームの画像を示すデータをクライアント6aに送信する。即ち、アバター情報記憶部16に記憶されているアバター画像とデータ記憶部18に記憶されているチャットルームの画像を示すデータを通信制御部12を介してクライアント6aに送信する。なお、チャットルーム内に既に他のアバターが存在する場合には、チャットルーム内に存在する他のアバターの画像及びアバターIDも送信する。
クライアント6aにおいては、サーバ2から送信されたアバターの画像、アバターID及びチャットルームを示すデータを通信制御部22を介して受信しデータ記憶部26に記憶する。次に、データ記憶部26に記憶されたアバターの画像データ及びチャットルームの画像を示すデータに基づいて、チャットルームにおいてアバターが存在することを示す画面を作成し表示部28に表示する。ここで、チャットルーム内に他のアバターが存在する場合、例えば、ユーザBのアバターであるアバターB及びユーザCのアバターであるアバターCがチャットルームに存在する場合には、アバターBの画像及びアバターIDとアバターCの画像及びアバターIDも通信制御部22を介して受信されデータ記憶部26に記憶される。そして、ユーザAのアバターAと共にユーザBのアバターB及びユーザCのアバターCがチャットルーム内に存在することを示す画面が作成され表示部28に表示される。
次に、クライアント6aにおいて、ユーザB及びユーザCに対するチャットメッセージ、即ち、テキスト情報の入力を開始する。ここで、クライアント6aにおいて、テキスト情報の入力が開始された場合には、テキスト情報の入力が開始されたことを示すと共に、入力が開始された時刻(入力開始時刻)を示す入力開始信号がクライアント6aから通信制御部22及びネットワーク4を介してサーバ2に送信される。なお、入力開始信号は、クライアント6aを用いているユーザAのユーザID及びアバターAのアバターIDと共にサーバ2に送信される。また、クライアント6aが入力を開始したテキスト情報を全て削除して、つまり入力途中のテキスト情報をキャンセルして、再び新規にテキスト情報の入力を開始した場合は、クライアント6aからサーバ2へ入力開始信号が再度送信される。
サーバ2においては、図5のフローチャートに示すように、クライアント6aからネットワーク4を介して送信された入力開始信号を通信制御部12を介して受信する(ステップS10)。即ち、テキスト情報の入力を開始したことを示すと共に入力開始時刻を示す信号を通信制御部12を介して受信する。なお、受信された入力開始信号は、クライアント6aを用いているユーザAのユーザID及びアバターAのアバターIDに対応させてデータ記憶部18に記憶される。
また、クライアント6aにおいてテキスト情報の入力が終了した場合には、入力を終えたテキスト情報(文字列)、即ち、入力部24を介して入力されたチャットメッセージを通信制御部22及びネットワーク4を介してサーバ2に送信する。また、テキスト情報と共に、チャットルーム内におけるアバターの位置を示すアバター位置情報、即ち、アバターAの3次元の仮想空間内における位置を示す座標をサーバ2に送信する。なお、サーバ2に送信されたテキスト情報及びアバター位置情報は、データ記憶部26に記憶される。
サーバ2においては、図5のフローチャートに示すように、クライアント6aからネットワーク4を介して送信されたテキスト情報を通信制御部12を介して受信する(ステップS11)。なお、受信されたテキスト情報は、ユーザID及びアバターIDに対応させてデータ記憶部18に記憶される。
次に、ステップS11において受信されたテキスト情報の文字数をカウントする(ステップS12)。即ち、データ記憶部18に記憶されたテキスト情報の文字列を構成する文字数をカウントし、カウントされた文字数をテキスト情報に対応させてデータ記憶部18に記憶する。
次に、クライアント6aから送信されたアバター位置情報を通信制御部12を介して受信する(ステップS13)。即ち、クライアント6aの表示部28に表示されているチャットルームにおけるアバターの位置を示す3次元の仮想空間の座標を受信する。なお、受信されたアバター位置情報は、ユーザID及びアバターIDに対応させてデータ記憶部18に記憶される。
次に、ステップS13において受信されたアバター位置情報に基づいて、アバターの動作反応範囲を設定する(ステップS14)。例えば、3次元の仮想空間内に存在するアバターAを中心とした所定範囲を囲む円を設定し、設定された円の範囲内でアバターの正面から上下方向に所定角度、例えば、上下方向に120度の範囲、即ち、アバターの正面位置から上方向に60度、下方向に60度の範囲を上下範囲として設定する。また、設定された円の範囲内でアバターの正面から左右方向に所定角度、例えば、左右方向に120度の範囲、即ち、アバターの正面位置から左方向に60度、右方向に60度の範囲を左右範囲として設定する。次に、上下範囲と左右範囲とを重ねあわせ、上下範囲と左右範囲とにより規定される範囲をアバターAの動作反応範囲として設定する。なお、動作反応範囲は、3次元の仮想空間内に存在するアバター毎に設定され、設定された動作反応範囲は、ユーザID及びアバターIDに対応させてデータ記憶部18に記憶される。
ここで、動作反応範囲が設定された場合、例えば、アバターAの動作反応範囲が設定された場合には、アバターAの動作反応範囲内に存在する他のアバターの全てが対話相手候補としてデータ記憶部18の対話相手候補テーブル(図3参照)に記憶される。
次に、ステップS14において設定された動作反応範囲に基づいて対話相手を決定する(ステップS15)。例えば、複数のユーザ間でチャットが行われている場合に、発言を行うユーザのアバターが視線を向ける相手(対話相手)を決定する。ここで、対話相手を決定する処理は、図6のフローチャートを参照し以下に説明する。なお、以下においては、ユーザAが発言する際の対話相手、即ち、アバターAが視線を向ける相手となるアバターを決定する場合を例として説明する。
アバターAの動作反応範囲内に複数のアバターが存在する場合には(ステップS20)、ステップS11において受信されたテキスト情報中のアバター名を検索する(ステップS21)。即ち、アバターAの発言としてクライアント6aから送信されたテキスト情報の中に、他のアバターのアバター名が含まれているか否かを確認すべく、他のアバターのアバター名をキーワードとしたキーワード検索を行う。例えば、テキスト情報の中に、アバターAの動作反応範囲内に存在するアバターBのアバター名「ヘンリー」又はアバターCのアバター名「チャーリー」が含まれているか否かを検索する。なお、アバターAの動作反応範囲内に複数のアバターが存在しない場合(ステップS20)、例えば、アバターAの動作反応範囲内に存在するアバターがアバターBのみである場合には、ステップS26に進む。
テキスト情報中にアバター名が含まれている場合には(ステップS22)、ステップS26に進む。一方、テキスト情報内にアバター名が含まれていない場合には(ステップS22)、対話相手候補テーブルに記録されている最終発言時刻と、入力開始信号により示される入力開始時刻とを比較する(ステップS23)。即ち、アバターAを用いているユーザAがテキスト情報の入力を開始する時刻から所定範囲内でかつ、ユーザAがテキスト情報の入力を開始する時刻から最も近い時刻に発言したユーザのアバターが存在するか否かを確認すべく、データ記憶部18においてアバターAの対話相手候補テーブルに記録されている各アバターの最終発言時刻と、データ記憶部18に記憶されている入力開始信号に基づくアバターAの入力開始時刻とを比較する。
入力開始時刻よりも前の時刻となっている最終発言時刻が存在する場合には(ステップS24)、ステップS26に進む。一方、入力開始時刻よりも前の時刻となっている最終発言時刻が存在しない場合には(ステップS24)、アバター間の距離を算出する(ステップS25)。即ち、アバターAの動作反応範囲内に存在する各アバターの最終発言時刻がユーザAの入力開始時刻以降となっている場合、又は、最終発言時刻が記録されていない場合には、アバターAとアバターAの動作反応範囲内に存在する各アバターとの間の距離を算出する。例えば、アバターAの動作反応範囲内にアバターB及びアバターCが存在する場合には、アバターAとアバターBとの間の距離と、アバターAとアバターCとの間の距離とをそれぞれ算出する。
次に、ユーザAの対話相手、即ち、ユーザAが発言する際にアバターAが視線等を向ける相手となるアバターのユーザを決定する(ステップS26)。ここで、アバターAの動作反応範囲内に複数のアバターが存在しない場合(ステップS20)、例えば、アバターBのみがアバターAの動作反応範囲内に存在する場合には、アバターBのユーザBをユーザAの対話相手として決定する。また、テキスト情報中からアバター名が検索された場合(ステップS22)、例えば、テキスト情報として「ヘンリーさん、元気ですか?」という文字列が受信されており、アバター名「ヘンリー」が検索された場合には、アバター名「ヘンリー」、即ち、アバターB(図3参照)のユーザBがユーザAの対話相手として決定される。
更に、最終発言時刻がユーザAの入力開始時刻より前となっているユーザのアバターが存在する場合には(ステップS24)、入力開始時刻前であって、かつ、入力開始時刻に最も近い時刻に発言したユーザを対話相手として決定する(ステップS26)。例えば、ユーザAの入力開始時刻が12時12分36秒となっている場合に、図3に示すように、アバターBの最終発言時刻が12時12分12秒、アバターCの最終発言時刻が12時12分00秒となっているとする。この場合、アバターBとアバターCの双方の発言がユーザAの入力開始時刻より前となっているが、ユーザAの入力開始時刻により近い時刻はアバターBの最終発言時刻であるため、アバターBのユーザBがユーザAの対話相手として決定される。
また、ステップS25においてアバター間の距離が算出されている場合には、アバターAとの間の距離が最も短いアバターのユーザがユーザAの対話相手として決定される(ステップS26)。即ち、アバターAの最も近くに存在するアバターのユーザが、ユーザAの対話相手として決定される。
次に、発言したユーザのアバター及びチャットに参加しているユーザのアバターの動作パラメータを算出する(ステップS16、図5参照)。ここで、例えば、人が対面して行う通常の会話におけるノンバーバル表現、即ち、顔表情、視線及び頷き等の非言語表現には、(1)人物間の非言語表現の関連性、(2)人物内の非言語表現の関連性が存在する。即ち、人物間において対話が行われている場合、人物間の視線、顔表情、頷き、発話の量には一定の関連性があることが知られている。また、人物内の非言語表現はそれぞれの要素が一定の関連性を有していることが知られている。なお、視線は相手を見つめる時間、顔表情は笑顔の強さ、頷きは頷く回数、発話は発話語数(例えば、チャットメッセージの文字数)である。
(1)の人物間の非言語表現の関連性は、非言語表現の表出量には対話者間の親密度に基づく平衡状態が存在するというものである。例えば、ユーザAとユーザBとの間で対面により会話が行われている場合、ユーザAの視線、顔表情(表情)、頷き及び発話と、ユーザBの視線、顔表情(表情)、頷き及び発話との関係は、図7(a)に示すように、線で結ばれた表現間において、一方が高まると他方も高まるという正の相関関係を有している。即ち、図7(b)の表において「○」を付した表現間においては、例えば、ユーザAの視線が高まることにより、ユーザBの発話量及び視線が高まり、ユーザBの笑顔が高まることによりユーザAの発話量及び笑顔が高まる等の正の相関関係が存在する。
(2)の人物内の非言語表現の関連性とは、人物内の非言語表現は、対話者間の親密度に基づく平衡状態にあり、常に各種の表現の総和を平衡に保とうとするというものである。例えば、ユーザAの視線、表情、頷き及び発話の中で、視線の値が高くなれば、頷きの値が低くなる等、各種の非言語表現の総和が一定(平衡)になるように保たれる。
ここで、ユーザAの非言語表現の表出量をx、ユーザBの非言語表現の表出量をxとすると、上述の(1)に基づく非言語表現の人物間の関連性に基づいて、xとxの関係を以下の(数式1)により示すことができる。
=x・・・(数式1)
また、ユーザの意図が働いた非言語表現のそれぞれの要素の表出量をciとすると、上述の(2)に基づく非言語表現の人物内の関連性に基づいて、Σciの値は常に一定となる。また、アバターによって表出される非言語表現の表出量をeとし、eを以下の(数式2)により定義する。なお、「a」は、個人差を示す係数であり、ユーザが任意に設定することができる。
e=x・c・a・・・(数式2)
この時、アバターAの顔表情の表出量を示す動作パラメータをe 、視線の表出量を示す動作パラメータをe 、頷きの表出量を示す動作パラメータをe 、発話の表出量(発言量、ステップS11においてカウントされた文字数)を示す動作パラメータをe とし、アバターBの顔表情の表出量を示す動作パラメータをe 、視線の表出量を示す動作パラメータをe 、頷きの表出量を示す動作パラメータをe 、発話の表出量(発言量)を示す動作パラメータをe とする。また、アバターAの意図に基づく顔表現の表出量をc 、意図に基づく視線の表出量をc 、意図に基づく頷きの表出量をc 、意図に基づく発話の表出量をc とし、アバターBの意図に基づく顔表情の表出量をc 、意図に基づく視線の表出量をc 、意図に基づく頷きの表出量をc 、意図に基づく発話の表出量をc とする。更に、アバターAの顔表現の表出量に関する個人差を示す係数をa 、視線の表出量に関する個人差を示す係数をa 、頷きの表出量に関する個人差を示す係数をa 、発話の表出量に関する個人差を示す係数をa とし、アバターBの顔表情の表出量に関する個人差を示す係数をa 、視線の表出量に関する個人差を示す係数をa 、頷きの表出量に関する個人差を示す係数をa 、発話の表出量に関する個人差を示す係数をa とする。
ここで、(数式1)よりアバターAとアバターBの非言語表現の表出量が等しく、また、アバターAとアバターBのそれぞれの非言語表現の要素の表出量は(数式2)に基づいて算出することができる。従って、上述の(1)に示す関連性に基づいて、例えば、アバターAの視線とアバターBの視線との間には、以下の(数式3)に示す関係が成立する。
/(c ・a )=e /(c ・a )・・・(数式3)
また、上述の(2)に示す関連性に基づいて、アバターAの意図に基づく非言語表現の各々の要素とアバターBの意図に基づく非言語表現の各々の要素と、ユーザAとユーザBとの間の親密度(I)との間には以下の(数式4)に示す関係が成立する。
+c +c +c +c +c +c +c =I・・・(数式4)
以上より、(数式3)及び(数式4)に基づいて、図7(b)に示す正の相関関係を有する非言語表現間の関係を以下の数式(数式5)〜(数式13)により示すことができる。この時、以下の(数式5)〜(数式13)においてE〜E12の各々の値が「0」となるように、それぞれの要素の表出量「e」の値を算出することにより、上述の関連性(1)及び(2)を満たした非言語表現の表出量を示す動作パラメータの値を算出することができる。
={e /(c ・a )−e /(c ・a )}・・・(数式5)
={e /(c ・a )−e /(c ・a )}・・・(数式6)
={e /(c ・a )−e /(c ・a )}・・・(数式7)
={e /(c ・a )−e /(c ・a )}・・・(数式8)
={e /(c ・a )−e /(c ・a )}・・・(数式9)
={e /(c ・a )−e /(c ・a )}・・・(数式10)
={e /(c ・a )−e /(c ・a )}・・・(数式11)
={e /(c ・a )−e /(c ・a )}・・・(数式12)
={I−(c +c +c +c +c +c +c +c )}2・・・(数式13)
なお、親密度Iは、予めユーザにより設定され、データ記憶部18に記憶されている。また、算出されたそれぞれの動作パラメータは、ユーザID及びアバターIDに対応させてデータ記憶部18に記憶される。また、アバターAの非言語表現の表出量及びアバターCの非言語表現の表出量を上述の数式(1)〜数式(13)に当てはめ、上述のアバターAとアバターBの間における動作パラメータを算出する処理と同様の処理によりアバターAとアバターCの間における動作パラメータが算出される。また、算出された動作パラメータは、ユーザID及びアバターIDに対応させてデータ記憶部18に記憶される。
ここで、ユーザAとユーザBとの間の親密度と、ユーザAとユーザCとの間の親密度とが同一となっている場合、ユーザBの動作パラメータとユーザCの動作パラメータとが同一となってしまう。従って、ユーザBとユーザCのユーザAに対する親密度が同一となっている場合には、上述の数式において非言語表現の表出量を算出する際に用いられる初期値を変更して動作パラメータを算出する。即ち、アバターBの動作パラメータを算出する際に用いた初期値と異なる初期値を用いてアバターCの動作パラメータを算出し、アバターBとアバターCの動作パラメータが同一となることを防止する。
なお、アバターAの動作パラメータとしては、ステップS15において対話相手として決定されたユーザとの間の動作パラメータが用いられる。即ち、データ記憶部18には、アバターAの動作パラメータとしてアバターBとの間において算出された動作パラメータと、アバターCとの間において算出された動作パラメータとが記憶されている。従って、データ記憶部18に記憶されている2つの動作パラメータの中から対話相手として決定されたユーザのアバターとの間において算出された動作パラメータが、アバターAの動作パラメータとなる。
次に、ステップS16において算出された動作パラメータに基づいて、発言したユーザのアバター及びチャットに参加しているユーザのアバターのそれぞれの動作を示す動作情報を作成する(ステップS17)。即ち、データ記憶部18に記憶されている動作パラメータに基づいて、例えば、アバターAがアバターBに視線を向ける時間、笑顔の程度及び頷く回数と、アバターBがアバターAに視線を向ける時間、笑顔の程度及び頷く回数とアバターCがアバターAに視線を向ける時間、笑顔の程度及び頷く回数を示す動作情報をそれぞれ作成する。なお、作成された動作情報は、ユーザID及びアバターIDに対応させてデータ記憶部18に記憶される。
図8は、アバターの動作情報の一例を示す図である。図8においては、ユーザAがアバターAを用い、ユーザBがアバターBを用いてチャットを行っている場合のアバターA、アバターBの動作情報の一例を示している。ここで、視線は、相手に視線を向ける時間の割合を示し、顔表情は相手に見せる笑顔の強度を示している。また、頷きは相手に返す頷きの回数であり、発話量は、発話語数、即ち、チャットメッセージの文字数である。図8に示すように、例えば、「data1」において、アバターAの視線の値は「0.23」、顔表情の値は「0.27」、頷きの値は「0」、発話量は「5」であり、アバターBの視線の値は「0.26」、顔表情の値は「0.23」、頷きの値は「0」、発話量は「5」となっている。また、「data4」において、アバターAの視線の値は「0.45」、顔表情の値は「0.55」、頷きの値は「1.5」、発話量は「30」であり、アバターBの視線の値は「0.51」、顔表情の値は「0.48」、頷きの値は「1.5」、発話量は「30」となっている。従って、発話量の増加に伴って視線、笑顔及び頷きの値が増加しており、非言語表現の各要素間において正の相関関係が成立している。また、アバターAの非言語表現は、発話量の増加に伴い各要素の合計値が増加しており、アバターAの非言語表現の表出量が平衡状態を保っている。同様に、アバターBの非言語表現においても、非言語表現の表出量が平衡状態を保っている。なお、図8においては、アバターCの動作情報を省略しているが、アバターCの動作情報も、アバターAとアバターBの間における場合と同様に、非言語表現の各要素間における相関関係を有していると共に、アバターAとの間の平衡状態を保っている。
次に、データ記憶部18に記憶されている動作情報をチャットを行っているクライアントに送信する(ステップS18)。例えば、ユーザA、ユーザB及びユーザCの間でチャットを行っている場合には、クライアント6a、クライアント6b及びクライアント6cのそれぞれに対して、アバターAの動作情報、アバターBの動作情報及びアバターCの動作情報を送信する。ここで、動作情報は、アバターIDと共に、例えば、アバターAの動作情報はアバターAのアバターIDと共に、アバターBの動作情報はアバターBのアバターIDと共に、アバターCの動作情報はアバターCのアバターIDと共に送信される。
次に、チャットに参加しているアバターのユーザが用いるクライアントに対して、データ記憶部18に記憶されているテキスト情報を送信する(ステップS19)。例えば、アバターA、アバターB及びアバターCの間でチャットが行われている場合には、アバターBを用いているユーザBのクライアント6b及びアバターCを用いているユーザCのクライアント6cのそれぞれに対してテキスト情報を送信する。
クライアント6aにおいては、サーバ2からネットワーク4を介して送信されたアバターAの動作情報、アバターBの動作情報及びアバターCの動作情報を通信制御部22を受信する。そして、アバターAのアバターIDに対応する動作情報に基づいてアバターAの視線、顔表情及び頷きの動作を変化させて表示部28に表示すると共に、アバターBのアバターIDに対応する動作情報に基づいてアバターBの視線、顔表情及び頷きの動作とアバターCの視線、顔表情及び頷きの動作を変化させて表示部28に表示する。また、アバターの動作を表示する際に、データ記憶部26に記憶されているユーザAのチャットメッセージであるテキスト情報を表示部28に表示する。
また、クライアント6bにおいては、クライアント6aにおける場合と同様に、アバターA、アバターB及びアバターCの動作を変化させて表示すると共に、サーバ2から送信されたテキスト情報を受信し、受信されたテキスト情報に基づいてユーザAのチャットメッセージを表示する。更に、クライアント6cにおいても、クライアント6a及びクライアント6bにおける場合と同様に、アバターA、アバターB及びアバターCの動作を変化させて表示すると共に、サーバ2から送信されたテキスト情報を受信し、受信されたテキスト情報に基づいてユーザAのチャットメッセージを表示する。
この発明の実施の形態に係るアバター制御装置によれば、複数のユーザ間でチャットを行っており、アバターの視線、顔表情、頷き等の動作を制御している場合に、発言者であるユーザのアバターが視線を向ける相手(対話相手)となるアバターのユーザをアバターの動作反応範囲内に存在するアバターの中から決定している。即ち、現実の会話において、複数人の間で会話が行われている場合、発言する際には複数の相手の中の一人に対して視線を向けるのが一般的であるため、複数のユーザ間でチャットを行っている場合にも、何れかのユーザのアバターに対して視線を向けるように発言者であるユーザのアバターを制御している。従って、アバターを用いたコミュニケーションにおいて、発言者のアバターがコミュニケーションを行っている複数のアバターの中の一のアバターに対して視線を向けるように動作させ、アバターの動作が自然な動作となるように制御することができる。
また、この発明の実施の形態に係るアバター制御装置によれば、テキスト情報の中にアバター名が含まれている場合には、該アバター名に対応するアバターのユーザを対話相手に決定している。従って、現実の会話において、相手の名前を呼ぶ際にはその相手に視線を向けるように、テキスト情報中に含まれるアバターに視線を向けるようにアバターの動作を制御することができる。そのため、アバターを自然に動作させることができ、アバターの動作に対するユーザの違和感を払拭することができる。
また、この発明の実施の形態に係るアバター制御システムは、動作反応範囲内に存在するアバターを用いるユーザの最終発言時刻と、発言するユーザの入力開始時刻に基づいて対話相手を決定している。例えば、ユーザAがテキスト情報の入力を開始した場合、ユーザAがテキスト情報の入力を開始する直前に発言したユーザを対話相手として決定している。従って、例えば、ユーザBの発言に対する返事としてユーザAが入力を開始した場合、ユーザAのアバターAが、ユーザBのアバターBに視線を向けるように、アバターAの動作を制御することができる。
また、最終発言時刻、即ち、ユーザが入力し終えたテキスト情報をサーバが受信した時刻と、入力開始時刻、即ち、ユーザがテキスト情報の入力を開始した時刻とを比較しているため、適切な相手を対話相手として決定することができる。例えば、ユーザAが発言した後にユーザBとユーザCとがそれぞれテキスト情報の入力を開始した場合、それぞれのユーザが入力を開始したことを示す入力開始信号がサーバにおいて受信される。ここで、ユーザBがユーザCより先にテキスト情報の入力を終了し、入力し終えたテキスト情報をサーバに送信した場合、ユーザCのテキスト情報が受信された時点では、既にユーザBからのテキスト情報が受信されており、ユーザCが発言する直前に発言したユーザはユーザBとなる。この場合であっても、最終発言時刻と入力開始時刻を比較することにより、ユーザBの発言は、ユーザCが入力を開始した後に受信されたことが確認されるため、アバターCはアバターAに視線を向けるように制御される。従って、アバターが自然な動作をするように制御し、ユーザがアバターの動作に対して違和感を感じることがないようにすることができる。
また、この発明の実施の形態に係るアバター制御システムは、動作反応範囲内に存在するアバターの中で、最も近くに存在するアバターのユーザを対話相手に決定している。即ち、現実の会話において、グループで会話を始める際、最初は近くに居る人に視線を向けるのと同様に、例えば、チャットを始める際や、新たなテーマについてチャットを行う場合に、最も近くに存在するアバターに視線を向けるようにアバターの動作を制御することができる。従って、アバターの動作を現実の会話における動作と同様の動作になるように制御することができ、アバターの動作が自然な動作となるように制御することができる。
なお、上述の実施の形態に係るアバター制御システムにおいては、対話相手をテキスト情報内のアバター名、最終発言時刻、距離に基づいて決定しているが、これらに基づいて対話相手の優先順位を決定するようにしてもよい。例えば、優先順位1位をテキスト情報内のアバター名、優先順位2位を最終発言時刻、優先順位3位を距離とし、動作反応範囲内に存在するアバターを順位付けをするようにしてもよい。そして、対話相手の優先順位が決定された場合には、優先順位に基づいて全てのアバターに対して視線を向けるようにしてもよい。例えば、優先順位1〜3位のアバターに対して、優先順位1位のアバターに対しては3秒、優先順位2位のアバターに対しては2秒、優先順位3位のアバターに対しては1秒それぞれ視線を向けるように発言者のアバターを制御するようにしてもよい。
また、上述の実施の形態に係るアバター制御システムにおいては、上下方向に120度の範囲を上下範囲とし、左右方向に120度の範囲を左右範囲としているが、更に広い(狭い)角度の範囲を上下範囲、左右範囲として設定してもよい。例えば、上下方向に180度や90度の範囲、左右方向に180度や90度の範囲をそれぞれ上下範囲や左右範囲として設定してもよい。また、上下範囲を設定する際の角度と、左右範囲を設定する際の角度とを異なる角度としてもよい。例えば、上下方向に100度の範囲を上下範囲、左右方向に180度の範囲を左右範囲として設定してもよい。更に、上方向に90度の範囲と下方向に30度の範囲を上下範囲とし、左方向に90度の範囲と右方向に60度の範囲を左右範囲として設定するようにしてもよい。
また、上述の実施の形態に係るアバター制御システムにおいては、チャットの際のアバターの動作を制御する場合を例としているが、チャット以外のコミュニケーションにおけるアバターの動作を制御するようにしてもよい。
この発明の実施の形態に係るアバター制御システムのブロック構成図である。 この発明の実施の形態に係るサーバのブロック構成図である。 この発明の実施の形態に係る対話相手候補テーブルの一例を示す図である。 この発明の実施の形態に係るクライアントのブロック構成図である。 この発明の実施の形態に係るアバターの制御処理を説明するためのフローチャートである。 この発明の実施の形態に係る対話相手の決定処理を説明するためのフローチャートである。 この発明の実施の形態に係る非言語表現の各要素の関連性を説明するための図である。 この発明の実施の形態に係る動作情報の一例を示す図である。
符号の説明
2・・・サーバ(アバター制御システム)、4・・・ネットワーク、6a、6b、6c・・・クライアント、10・・・データ制御部、12・・・通信制御部、14・・・ユーザ情報記憶部、16・・・アバター情報記憶部、18・・・データ記憶部、20・・・データ記憶部、22・・・通信制御部、24・・・キーボード、26・・・データ記憶部、28・・・表示部。

Claims (2)

  1. 一のユーザから送信されるテキスト情報を受信するテキスト情報受信手段と、
    前記一のユーザを含む複数のユーザの各々から送信されるアバター位置情報を受信するアバター位置情報受信手段と、
    前記アバター位置情報受信手段により受信されたアバター位置情報に基づいて、アバター毎に動作反応範囲を設定する動作反応範囲設定手段と、
    前記動作反応範囲設定手段により設定された前記一のユーザのアバターの動作反応範囲に存在する複数の他のユーザに対して前記テキスト情報受信手段により受信されたテキスト情報を送信するテキスト情報送信手段と、
    前記テキスト情報送信手段により送信されたテキスト情報を受信した複数の前記他のユーザの各々によるテキスト情報の入力が開始されたことを示す入力開始信号を受信する入力開始信号受信手段と、
    前記入力開始信号により示される複数の前記他のユーザの各々の入力開始時刻と、前記一のユーザ及び複数の前記他のユーザを含むユーザの各々の最終発言時刻とを比較し、前記最終発言時刻が前記入力開始時刻より前であって、かつ、該入力開始時刻に最も近い時刻であるユーザを、複数の前記他のユーザの各々の対話相手として決定する対話相手決定手段と、
    前記対話相手決定手段により対話相手として決定されたユーザのアバターに対する、前記他のユーザのアバターの動作を示す動作情報を、複数の前記他のユーザの各々に送信する動作情報送信手段と
    を備えることを特徴とするアバター制御システム。
  2. 前記動作反応範囲設定手段は、
    アバターの正面から上下方向に所定角度内の範囲を上下範囲として設定する上下範囲設定手段と、
    アバターの正面から左右方向に所定角度内の範囲を左右範囲として設定する左右範囲設定手段とを備え、
    前記上下範囲設定手段により設定された上下範囲と前記左右範囲設定手段により設定された左右範囲により規定される範囲を動作反応範囲として設定することを特徴とする請求項記載のアバター制御システム。
JP2004060434A 2004-03-04 2004-03-04 アバター制御システム Expired - Fee Related JP4227043B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004060434A JP4227043B2 (ja) 2004-03-04 2004-03-04 アバター制御システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004060434A JP4227043B2 (ja) 2004-03-04 2004-03-04 アバター制御システム

Publications (2)

Publication Number Publication Date
JP2005250859A JP2005250859A (ja) 2005-09-15
JP4227043B2 true JP4227043B2 (ja) 2009-02-18

Family

ID=35031280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004060434A Expired - Fee Related JP4227043B2 (ja) 2004-03-04 2004-03-04 アバター制御システム

Country Status (1)

Country Link
JP (1) JP4227043B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009059091A (ja) * 2007-08-30 2009-03-19 Sega Corp 仮想空間提供システム、仮想空間提供サーバ、仮想空間提供方法及び仮想空間提供プログラム
JP4985974B2 (ja) 2007-12-12 2012-07-25 インターナショナル・ビジネス・マシーンズ・コーポレーション コミュニケーション支援方法、システムおよびサーバ装置
US20090300525A1 (en) * 2008-05-27 2009-12-03 Jolliff Maria Elena Romera Method and system for automatically updating avatar to indicate user's status
JP6187054B2 (ja) * 2013-09-03 2017-08-30 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
GB2562025B (en) * 2017-02-13 2020-01-01 Sony Interactive Entertainment Inc Simulation method and system
JP6684952B1 (ja) 2019-06-28 2020-04-22 株式会社ドワンゴ コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法
JP7086262B1 (ja) 2021-11-02 2022-06-17 株式会社バーチャルキャスト 端末、処理方法、通信システム、プログラムおよび記録媒体

Also Published As

Publication number Publication date
JP2005250859A (ja) 2005-09-15

Similar Documents

Publication Publication Date Title
US11397507B2 (en) Voice-based virtual area navigation
JP4354313B2 (ja) ユーザ間親密度測定システム及びユーザ間親密度測定プログラム
US7065711B2 (en) Information processing device and method, and recording medium
JP3723527B2 (ja) サーバ装置及びプログラム
JP3930489B2 (ja) チャットシステム、通信装置、その制御方法及びプログラム
US10541951B2 (en) Enhancing network messaging with a real-time, interactive representation of current messaging activity of a user's contacts and associated contacts
KR102276283B1 (ko) 통지들의 소스들에 기초하여 통지들의 제공을 제어하기 위한 시스템, 방법, 및 디바이스
EP2690847A1 (en) Virtual assistant for a telecommunication system
JP6040745B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム及びコンテンツ提供システム
JP4227043B2 (ja) アバター制御システム
JP2022516806A (ja) 承諾確認
JPWO2020129182A1 (ja) 対話装置、対話システムおよび対話プログラム
JP2009205370A (ja) ユーザ端末、コンピュータプログラム、および仮想世界コミュニケーション支援システム
JP2021192186A (ja) コンピュータプログラム、情報処理装置及び会合開催方法
JP2005202909A (ja) アバター制御システム
JP5005574B2 (ja) 仮想空間提供サーバ、仮想空間提供方法及びコンピュータプログラム
JP4268539B2 (ja) アバター制御システム
JP2007072511A (ja) チャットシステム,チャットサーバ,プログラム,およびメッセージ交換方法
KR20190131355A (ko) 대화용 애플리케이션의 운영 방법
WO2022137547A1 (ja) コミュニケーション支援システム
JP2019175086A (ja) プログラム及びサーバ装置
WO2020194828A1 (ja) 情報処理システム、情報処理装置、および情報処理方法
KR20220049907A (ko) 위치 기반 아바타 메신저 서비스 제공 방법 및 장치
KR20210040208A (ko) 모바일 디바이스 기반 능동형 인공지능 영상 캐릭터 시스템
US20230188635A1 (en) Information processing device, information processing method, program, and information processing system

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070808

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080924

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081127

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4227043

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121205

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121205

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131205

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees