JP2002190034A - 情報処理装置および方法、並びに記録媒体 - Google Patents

情報処理装置および方法、並びに記録媒体

Info

Publication number
JP2002190034A
JP2002190034A JP2000386395A JP2000386395A JP2002190034A JP 2002190034 A JP2002190034 A JP 2002190034A JP 2000386395 A JP2000386395 A JP 2000386395A JP 2000386395 A JP2000386395 A JP 2000386395A JP 2002190034 A JP2002190034 A JP 2002190034A
Authority
JP
Japan
Prior art keywords
emotion
avatar
user
data
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000386395A
Other languages
English (en)
Other versions
JP4395687B2 (ja
Inventor
Katsushige Hata
勝重 秦
Takeshi Ono
剛 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000386395A priority Critical patent/JP4395687B2/ja
Priority to US10/037,160 priority patent/US7065711B2/en
Publication of JP2002190034A publication Critical patent/JP2002190034A/ja
Application granted granted Critical
Publication of JP4395687B2 publication Critical patent/JP4395687B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems

Abstract

(57)【要約】 【課題】 バーチャルな世界において、自己の感情を相
手に伝える。 【解決手段】 バーチャルな世界である仮想空間内で、
3次元的なアバタを用いてチャットなどを行う場合、ユ
ーザ側の端末は、ステートテーブル71により、そのユ
ーザのアバタの感情を管理する。1種類のアバタに対し
て、例えば、15種類の感情が用意されており、それぞ
れの種類により、アバタの顔の表情、態度などが、動的
に変化するようになっている。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は情報処理装置および
方法、並びに記録媒体に関し、特に、仮想空間内におい
て、アバタを用いてチャットなどのコミュニケーション
を行う際に用いて好適な情報処理装置および方法、並び
に記録媒体に関する。
【0002】
【従来の技術】複数のユーザが自己のコンピュータをイ
ンターネットを介してサーバに接続し、3次元仮想空間
(以下、仮想空間と記述する)を共有できるサービスが
存在する。そのようなサービスによれば、仮想空間にお
いて、各ユーザはアバタ(avatar;インド神話に登場す
る神の化身)と呼ばれるユーザの分身(ユーザ自身を表
すオブジェクト)を移動させることができる。また、仮
想空間上で出会ったユーザ(アバタ)同士は、チャット
などを行うことができる。
【0003】このような仮想空間内でアバタを用いてチ
ャットなどを行うことは、さまざまな分野で利用されつ
つある。例えば、離れた位置にある学校の生徒間での交
流などの教育の現場で用いられることが試みられてい
る。
【0004】
【発明が解決しようとする課題】提供されている仮想空
間(サービス)により、その仮想空間内に設定されてい
るアバタが異なる。1つの仮想空間においては、サービ
スの形態により異なるが、複数の形の異なるアバタ、例
えば、動物の形をしたアバタや、人間の形をしたアバタ
などが用意されており、ユーザは、それらの予め設定さ
れているアバタの中から好きなアバタを選択することが
できるようになっている。
【0005】ところで、人と人とが面と向かって会話を
行うとき、言葉だけでなく、身振り手振り、顔の表情な
ども情報として認識して会話を進めていく。それらの情
報は、主に、感情を表す情報となることが多いが、言葉
の情報と感情を表す情報とが必ずしも一致しないという
のが現実社会ではありうることである。例えば、顔では
笑っていても、言葉では拒絶するといったような感情表
現と言葉が一致していない場合がある。勿論、言葉と感
情表現とが一致している場面の方が、通常の会話の中で
は多い。
【0006】このようなことは、コミュニケーションを
円滑に進める手法(ソーシャルスキル)として用いられ
ている。仮想空間内において、アバタは、このような感
情表現はできないとといった課題があった。換言すれ
ば、上述したように、ユーザは、好みのアバタを選択す
ることができるが、そのアバタは、種類は異なるが、同
一の種類で異なる感情表現をしているアバタは用意され
ていないため、一度選択されたアバタは、チャットなど
の内容に関わらず、常に同じ表情をしており、円滑なコ
ミュニケーションを行うにあたって必要な感情表現の情
報を与えることができないといった課題があった。
【0007】本発明はこのような状況に鑑みてなされた
ものであり、1種類のアバタが複数の感情表現をできる
ようにすることにより、仮想空間のアバタにおいても、
円滑なコミュニケーションが行えるようにすることを目
的とする。
【0008】
【課題を解決するための手段】請求項1に記載の情報処
理装置は、ユーザに対応するオブジェクトの感情に関す
るデータを管理する管理手段と、感情に対応するオブジ
ェクトの画像に関するデータを記憶する記憶手段と、記
憶手段に記憶されているデータを基に、オブジェクトの
表示を制御する表示制御手段とを含むことを特徴とす
る。
【0009】前記オブジェクトは仮想空間内に存在し、
管理手段により管理される感情に関するデータは、ユー
ザが仮想空間に入場する際に設定されるようにすること
ができる。
【0010】前記管理手段により管理されるデータは、
ユーザの生体情報、または、顔の表情変化に応じて随時
設定されるようにすることができる。
【0011】前記記憶手段に記憶されているデータを基
に、オブジェクトに対応する音声の調子を制御する音声
制御手段をさらに含むようにすることができる。
【0012】前記管理手段は、感情に関するデータを、
感情とその感情のレベルとが関連付けられたテーブルに
より管理するようにすることができる。
【0013】前記表示制御手段は、オブジェクトの動画
像としての表示を制御するようにすることができる。
【0014】請求項7に記載の情報処理方法は、ユーザ
に対応するオブジェクトの感情に関するデータを管理す
る管理ステップと、感情に対応するオブジェクトの画像
に関するデータの記憶を制御する記憶制御ステップと、
記憶制御ステップの処理で記憶が制御されたデータを基
に、オブジェクトの表示を制御する表示制御ステップと
を含むことを特徴とする。
【0015】請求項8に記載の記録媒体のプログラム
は、ユーザに対応するオブジェクトの感情に関するデー
タを管理する管理ステップと、感情に対応するオブジェ
クトの画像に関するデータの記憶を制御する記憶制御ス
テップと、記憶制御ステップの処理で記憶が制御された
データを基に、オブジェクトの表示を制御する表示制御
ステップとを含むことを特徴とする。
【0016】請求項1に記載の情報処理装置、請求項7
に記載の情報処理方法、および請求項8に記載の記録媒
体においては、ユーザに対応するオブジェクトの感情に
関するデータに対応するオブジェクトの画像に関するデ
ータが記憶され、その記憶されているデータが基にさ
れ、オブジェクトの表示が制御される。
【0017】
【発明の実施の形態】以下に、本発明の実施の形態につ
いて図面を参照して説明する。図1は、本発明を適用し
たシステムの一実施の形態の構成を示す図である。端末
1−1乃至1−Nは、ユーザ側の端末であり、インター
ネットなどに代表されるネットワーク2と接続され、サ
ーバ3とデータの授受が行えるようになっている。端末
1−1乃至1−N(以下、端末1−1乃至1−Nを個々
に区別する必要がない場合、単に端末1と記述する)
は、パーソナルコンピュータや携帯電話などから構成さ
れる。
【0018】サーバ3は、仮想空間を管理するために設
けられている。端末1のユーザは、端末1を用いて仮想
空間内を自己の分身(アバタ)で移動することが可能と
されている。
【0019】図2は、端末1の内部構成を示す図であ
る。端末1のCPU(Central Processing Unit)11は、
ROM(Read Only Memory)12に記憶されているプログ
ラムに従って各種の処理を実行する。RAM(Random Acce
ss Memory)13には、CPU11が各種の処理を実行する
上において必要なデータやプログラムなどが適宜記憶さ
れる。入出力インタフェース15は、キーボードやマウ
スから構成される入力部16が接続され、入力部16に
入力された信号をCPU11に出力する。また、入出力イ
ンタフェース15には、ディスプレイやスピーカなどか
ら構成される出力部17も接続されている。
【0020】さらに、入出力インタフェース15には、
ハードディスクなどから構成される記憶部18、およ
び、ネットワーク2を介してサーバ3とデータの授受を
行う通信部19も接続されている。ドライブ20は、磁
気ディスク31、光ディスク32、光磁気ディスク3
3、半導体メモリ34などの記録媒体からデータを読み
出したり、データを書き込んだりするときに用いられ
る。
【0021】サーバ3の基本的な構成は、端末1と同様
であるので、その構成は図示しない。
【0022】図3を参照して、仮想空間内のアバタにつ
いて説明する。図3において、ユーザAは端末1−1
を、ユーザBは端末1−2を、ユーザCは端末1−3
を、それぞれ用いるとする。端末1−1の出力部17と
してのディスプレイ上には、仮想空間の空間内に、ユー
ザAの分身としてのアバタXa、ユーザBの分身として
のアバタYa、および、ユーザCの分身としてのアバタ
Zcが、それぞれ表示されている。
【0023】ユーザAは、自分の分身としてのアバタX
aを操作することはできるが、他のユーザのアバタY
a,Zaを操作することはできない。このように、自分
の分身として、操作できるアバタをパイロットアバタと
称し、他のユーザの分身として、操作できないアバタを
ドローンアバタと称する。従って、各ユーザの端末1に
は、1つのパイロットアバタと、複数のドローンアバタ
が表示されることになる。
【0024】同様に、ユーザBの端末1−2の出力部1
7としてのディスプレイ上には、ユーザAのドローンア
バタXb、ユーザBのパイロットアバタYb、およびユ
ーザCのドローンアバタZcが、それぞれ表示され、ユ
ーザCの端末1−3の出力部17としてのディスプレイ
上には、ユーザAのドローンアバタXc、ユーザBのド
ローンアバタYc、およびユーザCのパイロットアバタ
Zcが、それぞれ表示される。
【0025】サーバ3も、各ユーザのアバタを管理する
ために、自己が管理する仮想空間内に、ユーザAのアバ
タXs、ユーザBのアバタYs、および、ユーザCのア
バタZsの情報を持っている。サーバ3において管理さ
れるこれらのアバタを、適宜、サーバ内インスタンスS
Iと称する。アバタの情報としては、形状、動作、属
性、位置などである。端末1−1乃至1−3とサーバ3
から構成されるシステムにおいて、自己のアバタはパイ
ロットアバタとして、他のアバタはドローンアバタとし
て、それらのアバタの情報は、システム内の共有情報と
して用いられる。
【0026】例えば、ユーザAがパイロットアバタXa
を操作して仮想空間内を移動した場合、その情報は、ま
ずサーバ3に伝えられる。サーバ3は、その情報を基
に、アバタXsに対応するサーバ内インスタンスSIの
仮想空間内の位置情報を更新し、その更新した情報を、
端末1−2と端末1−3に送信する。端末1−2と端末
1−3は、それぞれサーバ3からの情報を基に、ドロー
ンアバタXb,Xcが仮想空間内で移動された表示にす
る。
【0027】このような、サーバ3と端末1間(サーバ
3を介して端末1間)で送受信される情報をメッセージ
と称する。メッセージには、上述したように、アバタを
操作するために送受信される共有情報としてのメッセー
ジの他に、システムを管理するためのシステムメッセー
ジが存在する。そのようなシステムメッセージを処理す
るためのオブジェクトとして、サーバ3が管理する仮想
空間には、システムオブジェクトSOが存在する。
【0028】システムオブジェクトSOは、例えば、所
定のアバタ(ユーザ)から、仮想空間における他のアバ
タの検索処理の要求があった場合など、その検索処理を
実行するために設けられている。
【0029】次に、このようなシステムにおいて提供さ
れる仮想空間内に、所定のユーザがアクセスし、チャッ
トなどを楽しむ場合について、図4のフローチャートを
参照して説明する。ステップS1において、ユーザは、
所定の操作を行うことにより、端末1をネットワーク2
を介してサーバ3と接続させることにより仮想空間にア
クセスする。
【0030】仮想空間にアクセスが完了されると、ステ
ップS2において、端末1の出力部17としてのディス
プレイ上に、コンディション入力ウィンドウが表示され
る。このコンディション入力ウィンドウとは、ユーザ自
身の、その時点でのコンディション(体調や気分)を入
力するためのウィンドウであり、例えば、図5に示すよ
うな形状をしたものである。
【0031】図5は、ディスプレイ41上に表示される
コンディション入力ウィンドウ51の一例を示してい
る。図5に示した例では、コンディション入力ウィンド
ウ51のコンディションとして、”うれしい”、”怒っ
ている”、”悲しい”、”楽しい”、および”辛い”の
5つのコンディションが設定されている。各コンディシ
ョンには、”とても”、”普通”、および”少し”の3
つのレベルが設定されている。
【0032】ユーザは、カーソル52を入力部16とし
てのマウス(不図示)を操作することにより、その時点
で、最も適切なコンディションを設定する。図5に示し
たように、5つのコンディションと3つのレベルが設定
されているため、15(=5×3)個のボタンが表示さ
れている。これらのボタンは、例えば、ラジオボタンで
あり、カーソル52が位置するときにマウスのクリック
などの所定の操作が行われると、オンの状態(黒丸の状
態)になり、再度同様の操作を行うとオフの状態(白丸
の状態)になる。ただし、15個のラジオボタンのう
ち、オンの状態にされるのは、1つのボタンだけであ
る。
【0033】図5に示したコンディション入力ウィンド
ウ51は、一例であり、5以上または5以下のコンディ
ションを設けても良いし、レベルも3以上または以下の
レベルを設けるようにしても良い。また、コンディショ
ン入力ウィンドウ51の形状も5角形でなく、他の形状
を取るようにしても良い。
【0034】ステップS2において、図5に示したよう
なコンディション入力ウィンドウ51がディスプレイ4
1上に表示されると、ユーザは、ステップS3におい
て、1つのボタンをチェックする。チェックがされる
と、ステップS4に進み、チャットなど、仮想空間内で
行える動作ができる状態にされる。
【0035】なお、仮想空間とのアクセスが解除された
ときには、その時点でのコンディションが記憶され、次
回、アクセスした際に、そのコンディションが継続され
るようにしても良いが、通常、コンディションというも
のは、仮想空間にアクセスする毎に異なるので、継続さ
れるようにせずに、アクセスする毎に、コンディション
入力ウィンドウ51から設定されるようにした方が良
い。また、コンディション入力ウィンドウ51によるコ
ンディションの設定の前、または、後のステップとし
て、ユーザがアバタの種類を選択する処理を設けても良
い。
【0036】コンディション入力ウィンドウ51により
入力されたコンディションおよびレベルは、その後のチ
ャットなどを行っているときのアバタの表情や動作に影
響を与える。図6に、レベルとして”とても”が選択さ
れた場合の、各コンディションにおけるアバタの表情を
示す。図6(A)は”うれしい”、図6(B)は”怒っ
ている”、図6(C)は”悲しい”、図6(D)は”楽
しい”、および図6(E)は”辛い”のコンディション
の、それぞれレベルが”とても”のときの表情を表して
いる。
【0037】図7は、5つのコンディションのうち”楽
しい”のレベルの異なるときの表情を示し、図8は、”
辛い”のレベルの異なるときの表情を示している。この
ように、1種類のアバタに対して各コンディション、各
レベル毎に、異なる表情のアバタが用意されている。な
お、図6乃至図8においては、静止画で表しているが、
実際には動作を伴い、例えば、コンディションが”楽し
い”であり、レベルが”とても”の場合、図6(D)に
示したような手を挙げている状態と、図7(C)に示し
たような手を下げた状態とが連続的に繰り返される動画
として、”とても楽しい”という表情を、アバタが表現
する。
【0038】図5に示したコンディション入力ウィンド
ウ51は、ユーザにより、ボタンがチェックされ、仮想
空間内でチャットなどを行える状態になると、ディスプ
レイ41上の所定の位置に小さく表示され、チャットな
どの最中でも、ボタンがチェックできる状態(アバタの
表情を変化させることができる状態)にされている。
【0039】図9は、コンディション入力ウィンドウ5
1がディスプレイ41の右上に、小さいサイズで表示さ
れている状態を示す図である。コンディション入力ウィ
ンドウ51の下側には、チャットでやりとりしている内
容が表示されるチャット表示部61と、チャットとして
相手に伝えたいテキストデータを入力した結果が表示さ
れるチャット入力部62が表示されている。
【0040】ディスプレイ41の上側には、アクション
ボタン63が設けられている。このアクションボタン6
3は、操作されると、チャットをしている相手側(自己
のアバタと向かい合っている他のアバタ)の端末1の出
力部17としてのスピーカ(不図示)から、操作された
アクションボタン63に対応する言葉、例えば、”HE
LLO”というアクションボタン63が操作れた場
合、”こんにちは”といった言葉が、発話される。
【0041】このアクションボタン63が操作されるこ
とによる発話も、コンディション入力ウィンドウ51に
より設定されたコンディションおよびレベルにより、異
なった調子で発話される。例えば、同じ”こんにちは”
であっても、コンディションが”楽しい”のときには楽
しそうに、”辛い”のときには辛そうに発話される。ま
た、同じ”楽しい”であっても、レベルが”少し”、”
普通”、”とても”のときには、それぞれ異なる調子で
発話される。
【0042】アクションボタン63の下側には、アバタ
表示部64が設けられている。アバタ表示部64に表示
されるものは、ユーザにより設定可能であるが、主に、
ユーザ自身のアバタ、他のアバタ、および仮想空間内の
風景が表示される。このような画面において、コンディ
ション入力ウィンドウ51のボタンが操作されると、ア
バタ表示部64に表示されているアバタ(自己の端末1
および他の端末1に表示されている対応するアバタ)の
表示(表情)が切り換えられる。
【0043】このような動作について、図1に示したシ
ステムにおいて行われる動作について、図10のフロー
チャートを参照して説明する。なお、ここでは、端末1
−1のユーザAと端末1−2のユーザBが同じ仮想空間
内に存在し、チャットしているとして説明する。ステッ
プS11において、端末1−1は、コンディション入力
ウィンドウ51のボタンが操作されたか否か(コンディ
ションステートの変更が指示されたか否か)を判断す
る。コンディションステートの変更は指示されたと判断
されるまで、ステップS11の処理が繰り返され、コン
ディションステートの変更が指示されると、ステップS
12に進む。
【0044】ステップS12において、パケットの送信
が行われる。送信されるパケットは、コンディションス
テートの変更に関する情報を含むものである。コンディ
ションステートは、例えば、RAM13(図2)に展開
された図11に示すようなステートテーブルにより管理
されている。
【0045】図11は、ステートテーブルの一例を示す
図である。ステートテーブル71は、コンディション軸
とレベル軸とから構成されており、コンディション入力
ウィンドウ51と対応がとれるように構成されている。
すなわち、この場合、コンディション軸は、”うれし
い”、”怒っている”、”悲しい”、”楽しい”、およ
び”辛い”の5つのコンディションから構成され、レベ
ル軸は、”とても”、”普通”、および”少し”の3つ
のレベルから構成されている。
【0046】ステータステーブル71は、この場合、5
つのコンディションと3つのレベルから構成されている
ため、15種類の感情を管理していることになる。この
うち、ユーザのその時点での感情として設定された1種
類の感情に、例えばフラグを立てることにより管理を行
う。
【0047】このようなステートテーブル71は、各端
末1で管理している。すなわち、各端末1は、自己のア
バタ(パイロットアバタ)のステートテーブル71と、
他のユーザのアバタ(ドローンアバタ)のステートテー
ブル71とを、それぞれ管理している。また、各端末1
は、感情に対応するアバタのデータを保持しており、感
情が指定されると、その指定された感情に対応したアバ
タのデータに基づく処理(表示)を端末1内で行えるよ
うになっている。
【0048】従って、ステップS12においては、変更
後の感情に関する情報のみがネットワーク2を介してサ
ーバ3に送信される。例えば、ステータステーブル内の
各感情は、それぞれの感情を識別できる識別子で管理さ
れており、その識別子が、情報としてサーバ3に送信さ
れる。ステップS14において、サーバ3は、端末1−
1からの変更後の感情に関する情報を含むパケットを受
信し、そのパケットに基づく情報を、ステップS15に
おいて、端末1−2に対して送信(転送)する。
【0049】ステップS15において、パケットが送信
される対象となる端末1は、端末1−1(ユーザA)に
対応するアバタがドローンアバタとして存在している全
ての端末1である。サーバ3からのパケットを、ステッ
プS16において受信した端末1−2は、ステップS1
7において、ステートテーブル71を更新する。
【0050】上述したように、各端末1は、パイロット
アバタのステートテーブル71と、ドローンアバタのス
テートテーブル71を管理している。従って、パケット
を受信した端末1−2は、そのパケットに含まれる感情
に関する情報(例えば識別子)に基づき、対応するドロ
ーンアバタのステートテーブル71の感情を更新し、さ
らに、更新された感情に対応するアバタのデータを読み
出し、その読み出したデータに基づくアバタの表示を開
始する。
【0051】このようなステートテーブルの更新は、各
端末1においてドローンアバタに対してのみ行うのでは
なく、端末1−1が管理する自己のアバタであるパイロ
ットアバタに対応するステートテーブルに対しても行わ
れる。すなわち、端末1−1は、ステップS12におい
てパケットを送信すると共に、ステップS13におい
て、ステートテーブルの更新も行う。
【0052】なお、上述した説明においては、各端末
に、感情に対応するそれぞれのアバタのデータが既に記
憶されており、識別子など、感情を示すデータ含むパケ
ットを送受信するだけで、アバタの感情の変更が行える
としたが、送受信されるパケットのデータとして、アバ
タのデータそのものを含ませるようにしても良い。
【0053】このようにして、感情表現を行えるアバタ
の変更は管理される。端末1は、アバタの感情の変更の
みを管理しているのではなく、アバタのさまざまな動作
も管理している。図12を参照して説明するに、アバタ
のステートして、上述した感情の変更がないときには、
ユーザにより設定された感情の表現を一定期間毎に実行
するアイドリング動作を行う。このアイドリング動作
は、この場合、15種類の感情が設定されているため、
15種類のアイドリング動作のデータが端末1に記憶さ
れている。
【0054】アイドリング動作とは、具体的には、上述
したように、”楽しい”という感情のときには、手を挙
げたり下げたりする動作を繰り返しアニメーションを行
うことである。また、アイドリング動作のときは、主
に、チャットを行っているときである。
【0055】アバタは、仮想空間内を移動することが可
能とされている。従って、ユーザの指示により、仮想空
間内の歩行が要求される場合がある。そのような歩行が
要求された場合、アバタのステートは、歩行動作に移行
し、ユーザの歩行要求が解除されるまで、歩行動作を繰
り返す。
【0056】さらに、アバタの特殊な動作として、アク
ションボタン63(図9)が操作されたときの動作があ
る。すなわち、この場合、アクションボタン63として
5つのボタンが設けられているが、それらのアクション
ボタン63のうち、1つが操作されると、アバタのステ
ートは、そのアクションボタン63に関連付けられてい
る動作(具体的には、感情による音声の変化を伴う発
話)に移行される。
【0057】アクションボタン63が操作されたときに
行われる動作は、上述したように、ユーザによりコンデ
ィション入力ウィンドウ51を用いて設定されたコンデ
ィショ(感情、体調)により基づいて行われる(ステー
トテーブル71の情報に基づいて行われる)。このよう
に、本実施の形態においては、ユーザの感情に関する情
報として、アバタを介して視覚により認識できる情報
と、聴覚により認識できる情報が提供される。
【0058】図13を参照して説明にするに、端末1に
おいては、管理しているパイロットアバタ、およびドロ
ーンアバタに対して同様な処理が行われるのであるが、
スピーチトリガーとしてのアクションボタン63の操作
が行われると、ステートテーブル71から、対応するア
バタの感情が参照され、スピーチ音声の選択が行われ
る。その選択に基づき、スピーチ音声が実行される。
【0059】同様に、動作トリガーとしてのアイドリン
グ動作の場合、ステートテーブル71から、対応するア
バタの感情が参照され、動作表現の選択が行われると、
その選択に基づき、動作表現(アイドリング動作)が実
行される。
【0060】このように、仮想空間内に存在するアバタ
が感情表現をできるようにすることにより、仮想空間と
いうバーチャルな世界におけるコミュニケーションにお
いて、感情の誤認識を減少させることができ、円滑なコ
ミュニケーションを行わせることが可能となる。また、
バーチャルな世界におけるチャットが、視覚および聴覚
から得られる感情表現により、より自然で楽しいものに
することができ、このことを利用することにより、ソー
シャルスキルの向上(コミュニケーションの教育)を行
うことも可能となる。
【0061】上述したステートテーブルを、例えば、”
とても””楽しい”は「1」、”とても””怒ってい
る”は「2」といったように標準化することにより、感
情制御、伝達手法のフレームモデルとして用いることが
可能である。
【0062】上述した実施の形態においては、ユーザ
は、コンディション入力ウィンドウ51から自己の感情
を入力(設定)したが、他の方法により、設定できるよ
うにしても良い。例えば、マウスに発汗量や心拍数など
生体情報を検出する機能を設け、その機能により検出さ
れたデータを基に、ユーザの感情を判定し、設定できる
ようにしても良い。また、カメラなどにより、ユーザの
顔の変化を撮像し、その顔の変化を解析することによ
り、ユーザのコンディションを設定するようにしても良
い。
【0063】アバタの顔の表情や動作をダイナミックに
変化するようにするなどして、アバタの感情表現を豊か
にするようにしても良い。さらに、電子メールなどの非
リアルタイムなコミュニケーションに、感情表現の為の
データを添付し、例えば電子メールを作成した時点での
ユーザの感情を相手に伝えられるようにしても良い。
【0064】上述した一連の処理は、ハードウェアによ
り実行させることもできるが、ソフトウェアにより実行
させることもできる。一連の処理をソフトウェアにより
実行させる場合には、そのソフトウェアを構成するプロ
グラムが専用のハードウェアに組み込まれているコンピ
ュータ、または、各種のプログラムをインストールする
ことで、各種の機能を実行することが可能な、例えば汎
用のパーソナルコンピュータなどに、記録媒体からイン
ストールされる。
【0065】それらの記録媒体は、図2に示すように、
パーソナルコンピュータとは別に、ユーザにプログラム
を提供するために配布される、プログラムが記録されて
いる磁気ディスク31(フロッピディスクを含む)、光
ディスク32(CD-ROM(Compact Disk-Read Only Memor
y),DVD(Digital Versatile Disk)を含む)、光磁気
ディスク33(MD(Mini-Disk)を含む)、若しくは半
導体メモリ34などよりなるパッケージメディアにより
構成されるだけでなく、コンピュータに予め組み込まれ
た状態でユーザに提供される、プログラムが記憶されて
いるROM12や記憶部18が含まれるハードディスクな
どで構成される。
【0066】なお、本明細書において、媒体により提供
されるプログラムを記述するステップは、記載された順
序に従って、時系列的に行われる処理は勿論、必ずしも
時系列的に処理されなくとも、並列的あるいは個別に実
行される処理をも含むものである。
【0067】また、本明細書において、システムとは、
複数の装置により構成される装置全体を表すものであ
る。
【0068】
【発明の効果】以上の如く請求項1に記載の情報処理装
置、請求項7に記載の情報処理方法、および請求項8に
記載の記録媒体によれば、ユーザに対応するオブジェク
トの感情に関するデータに対応するオブジェクトの画像
に関するデータを記憶し、その記憶されているデータを
基に、オブジェクトの表示を制御するようにしたので、
オブジェクトに感情表現をさせることができ、仮想空間
内でのコミュニケーションをより円滑に行うことが可能
となる。
【図面の簡単な説明】
【図1】本発明を適用したシステムの一実施の形態の構
成を示す図である。
【図2】端末1の内部構成を示す図である。
【図3】アバタについて説明する図である。
【図4】チャットを行うまでの動作について説明するフ
ローチャートである。
【図5】コンディション入力ウィンドウ51について説
明する図である。
【図6】ディスプレイ41上に表示されるアバタの一例
を示す図である。
【図7】ディスプレイ41上に表示されるアバタの一例
を示す図である。
【図8】ディスプレイ41上に表示されるアバタの一例
を示す図である。
【図9】ディスプレイ41上に表示される画像の一例を
示す図である。
【図10】感情表現の変更に関する動作について説明す
るフローチャートである。
【図11】ステートテーブル71について説明する図で
ある。
【図12】アバタのステートについて説明する図であ
る。
【図13】アバタの感情表現について説明する図であ
る。
【符号の説明】
1 端末, 2 ネットワーク, 3 サーバ, 11
CPU, 12 ROM, 13 RAM, 14
バス, 15 入出力インタフェース, 16入力部,
17 出力部, 18 記憶部, 19 通信部,
20 ドライブ, 31 磁気ディスク, 32 光デ
ィスク, 33 光磁気ディスク,34 半導体メモ
リ, 41 ディスプレイ, 51 コンディション入
力ウィンドウ, 52 カーソル, 63 アクション
ボタン, 64 アバタ表示部

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 ユーザに対応するオブジェクトの感情に
    関するデータを管理する管理手段と、 前記感情に対応する前記オブジェクトの画像に関するデ
    ータを記憶する記憶手段と、 前記記憶手段に記憶されている前記データを基に、前記
    オブジェクトの表示を制御する表示制御手段とを含むこ
    とを特徴とする情報処理装置。
  2. 【請求項2】 前記オブジェクトは仮想空間内に存在
    し、前記管理手段により管理される前記感情に関するデ
    ータは、前記ユーザが前記仮想空間に入場する際に設定
    されることを特徴とする請求項1に記載の情報処理装
    置。
  3. 【請求項3】 前記管理手段により管理されるデータ
    は、前記ユーザの生体情報、または、顔の表情変化に応
    じて随時設定されることを特徴とする請求項1に記載の
    情報処理装置。
  4. 【請求項4】 前記記憶手段に記憶されている前記デー
    タを基に、前記オブジェクトに対応する音声の調子を制
    御する音声制御手段をさらに含むことを特徴とする請求
    項1に記載の情報処理装置。
  5. 【請求項5】 前記管理手段は、前記感情に関するデー
    タを、前記感情とその感情のレベルとが関連付けられた
    テーブルにより管理することを特徴とする請求項1に記
    載の情報処理装置。
  6. 【請求項6】 前記表示制御手段は、前記オブジェクト
    の動画像としての表示を制御することを特徴とする請求
    項1に記載の情報処理装置。
  7. 【請求項7】 ユーザに対応するオブジェクトの感情に
    関するデータを管理する管理ステップと、 前記感情に対応する前記オブジェクトの画像に関するデ
    ータの記憶を制御する記憶制御ステップと、 前記記憶制御ステップの処理で記憶が制御された前記デ
    ータを基に、前記オブジェクトの表示を制御する表示制
    御ステップとを含むことを特徴とする情報処理方法。
  8. 【請求項8】 ユーザに対応するオブジェクトの感情に
    関するデータを管理する管理ステップと、 前記感情に対応する前記オブジェクトの画像に関するデ
    ータの記憶を制御する記憶制御ステップと、 前記記憶制御ステップの処理で記憶が制御された前記デ
    ータを基に、前記オブジェクトの表示を制御する表示制
    御ステップとを含むことを特徴とするコンピュータが読
    み取り可能なプログラムが記録されている記録媒体。
JP2000386395A 2000-12-20 2000-12-20 情報処理装置 Expired - Fee Related JP4395687B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000386395A JP4395687B2 (ja) 2000-12-20 2000-12-20 情報処理装置
US10/037,160 US7065711B2 (en) 2000-12-20 2001-12-20 Information processing device and method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000386395A JP4395687B2 (ja) 2000-12-20 2000-12-20 情報処理装置

Publications (2)

Publication Number Publication Date
JP2002190034A true JP2002190034A (ja) 2002-07-05
JP4395687B2 JP4395687B2 (ja) 2010-01-13

Family

ID=18853502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000386395A Expired - Fee Related JP4395687B2 (ja) 2000-12-20 2000-12-20 情報処理装置

Country Status (2)

Country Link
US (1) US7065711B2 (ja)
JP (1) JP4395687B2 (ja)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004070685A (ja) * 2002-08-07 2004-03-04 Hudson Soft Co Ltd 電子装置、および似顔絵付き電子メールの受信再生方法
JP2004185437A (ja) * 2002-12-04 2004-07-02 Nippon Hoso Kyokai <Nhk> 身体情報反映チャット用プログラム、身体情報反映チャット用サーバ、身体情報反映チャット用クライアントおよび身体情報反映チャット方法
JP2004287613A (ja) * 2003-03-19 2004-10-14 Advanced Telecommunication Research Institute International コミュニティ環境提供システム
JP2005078427A (ja) * 2003-09-01 2005-03-24 Hitachi Ltd 携帯端末及びコンピュータ・ソフトウエア
JP2005165597A (ja) * 2003-12-02 2005-06-23 Nec Corp 仮想会話システム
JP2005202909A (ja) * 2003-12-16 2005-07-28 Kyoto Univ アバター制御システム
JP2006263122A (ja) * 2005-03-24 2006-10-05 Sega Corp ゲーム装置、ゲームシステム、ゲームデータの処理方法及びこのゲームデータの処理方法ためのプログラム並びに記憶媒体
JP2006338685A (ja) * 2006-08-02 2006-12-14 Konami Digital Entertainment:Kk チャットシステム、通信装置、その制御方法及びプログラム
JP2006350986A (ja) * 2005-06-17 2006-12-28 Tokyo Institute Of Technology 顔写真付きメールを送受信できる携帯電話機
JP2008108275A (ja) * 2007-12-18 2008-05-08 Sony Electronics Inc 端末装置
JP2008176816A (ja) * 2004-10-12 2008-07-31 Samsung Electronics Co Ltd 健康状態によるアバター映像の生成方法及び装置
JP2009093509A (ja) * 2007-10-11 2009-04-30 Sony Corp 情報処理装置及び情報処理方法、並びに記録媒体
JP2009146041A (ja) * 2007-12-12 2009-07-02 Internatl Business Mach Corp <Ibm> コミュニケーション支援方法、システムおよびサーバ装置
JP2013029951A (ja) * 2011-07-28 2013-02-07 Konami Digital Entertainment Co Ltd サーバ装置
JP2014029668A (ja) * 2012-06-25 2014-02-13 Konami Digital Entertainment Co Ltd メッセージ閲覧システム、サーバ、端末装置、制御方法およびプログラム
WO2014080678A1 (ja) 2012-11-22 2014-05-30 ソニー株式会社 情報処理装置、システム、情報処理方法およびプログラム
JP2016215292A (ja) * 2015-05-15 2016-12-22 Kddi株式会社 ロボット動作生成装置およびプログラム
JP6263252B1 (ja) * 2016-12-06 2018-01-17 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US9882859B2 (en) 2012-06-25 2018-01-30 Konami Digital Entertainment Co., Ltd. Message-browsing system, server, terminal device, control method, and recording medium
US10484328B2 (en) 2012-06-25 2019-11-19 Konami Digital Entertainment Co., Ltd. Message-browsing system, server, terminal device, control method, and recording medium
JP2020123277A (ja) * 2019-01-31 2020-08-13 株式会社スクウェア・エニックス 仮想キャラクタを含む画像を提供するための方法
WO2022085189A1 (ja) * 2020-10-23 2022-04-28 日本電信電話株式会社 処理装置、処理方法およびプログラム
JP7226866B1 (ja) 2022-02-03 2023-02-21 佑斗 井澤 仮想空間もしくはオンラインミーティングシステムの作動システム

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040107251A1 (en) * 2001-09-19 2004-06-03 Hansen Wat System and method for communicating expressive images for meetings
US7327505B2 (en) * 2002-02-19 2008-02-05 Eastman Kodak Company Method for providing affective information in an imaging system
EP1463052A1 (en) 2003-03-25 2004-09-29 Deutsche Thomson-Brandt Gmbh Method for representing animated menu buttons
JP3931889B2 (ja) * 2003-08-19 2007-06-20 ソニー株式会社 画像表示システム、画像表示装置、画像表示方法
KR100626444B1 (ko) * 2003-11-24 2006-09-20 엘지전자 주식회사 공기조화기의 실내기
KR100626443B1 (ko) * 2003-11-24 2006-09-20 엘지전자 주식회사 공기조화기의 실내기
US7912793B1 (en) 2005-01-13 2011-03-22 Imvu, Inc. Computer-implemented method and apparatus to allocate revenue from a derived avatar component
US7342587B2 (en) * 2004-10-12 2008-03-11 Imvu, Inc. Computer-implemented system and method for home page customization and e-commerce support
US7995064B2 (en) * 2004-10-12 2011-08-09 Imvu, Inc. Computer-implemented chat system having dual channel communications and self-defining product structures
AU2006325627B2 (en) * 2005-12-12 2011-03-10 Lg Electronics Inc. A control unit for refrigerator and method controlling the same
US9304675B2 (en) * 2006-09-06 2016-04-05 Apple Inc. Portable electronic device for instant messaging
US7966567B2 (en) * 2007-07-12 2011-06-21 Center'd Corp. Character expression in a geo-spatial environment
KR101742256B1 (ko) * 2007-09-26 2017-05-31 에이큐 미디어 인크 오디오-비주얼 내비게이션 및 통신
US8714982B2 (en) * 2007-10-15 2014-05-06 Casey Wimsatt System and method for teaching social skills, social thinking, and social awareness
US8386918B2 (en) * 2007-12-06 2013-02-26 International Business Machines Corporation Rendering of real world objects and interactions into a virtual universe
US8151191B2 (en) * 2007-12-07 2012-04-03 International Business Machines Corporation Managing objectionable material in 3D immersive virtual worlds
US8149241B2 (en) * 2007-12-10 2012-04-03 International Business Machines Corporation Arrangements for controlling activities of an avatar
US8379968B2 (en) * 2007-12-10 2013-02-19 International Business Machines Corporation Conversion of two dimensional image data into three dimensional spatial data for use in a virtual universe
US20090164919A1 (en) 2007-12-24 2009-06-25 Cary Lee Bates Generating data for managing encounters in a virtual world environment
US20090177976A1 (en) * 2008-01-09 2009-07-09 Bokor Brian R Managing and presenting avatar mood effects in a virtual world
US8228170B2 (en) * 2008-01-10 2012-07-24 International Business Machines Corporation Using sensors to identify objects placed on a surface
US20090315893A1 (en) * 2008-06-18 2009-12-24 Microsoft Corporation User avatar available across computing applications and devices
US8988421B2 (en) * 2008-12-02 2015-03-24 International Business Machines Corporation Rendering avatar details
US8156054B2 (en) 2008-12-04 2012-04-10 At&T Intellectual Property I, L.P. Systems and methods for managing interactions between an individual and an entity
US9741147B2 (en) * 2008-12-12 2017-08-22 International Business Machines Corporation System and method to modify avatar characteristics based on inferred conditions
US10482428B2 (en) 2009-03-10 2019-11-19 Samsung Electronics Co., Ltd. Systems and methods for presenting metaphors
US9489039B2 (en) * 2009-03-27 2016-11-08 At&T Intellectual Property I, L.P. Systems and methods for presenting intermediaries
US8963987B2 (en) 2010-05-27 2015-02-24 Microsoft Corporation Non-linguistic signal detection and feedback
US8670018B2 (en) * 2010-05-27 2014-03-11 Microsoft Corporation Detecting reactions and providing feedback to an interaction
US8742250B2 (en) 2010-08-09 2014-06-03 Palo Alto Research Center Incorporated Stationary sunlight redirecting system for increasing the efficiency of fixed-tilt PV farm
KR102161764B1 (ko) * 2013-10-31 2020-10-05 삼성전자주식회사 카툰 이미지를 이용한 메신저 대화창 표시 방법 및 컴퓨터 판독 가능한 기록 매체
US10013601B2 (en) * 2014-02-05 2018-07-03 Facebook, Inc. Ideograms for captured expressions
USD770529S1 (en) * 2014-12-02 2016-11-01 Zynga Inc. Portion of display screen having graphical user interface with transitional icon
USD818497S1 (en) 2015-01-06 2018-05-22 King.Com Limited Display screen with icon

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5880731A (en) * 1995-12-14 1999-03-09 Microsoft Corporation Use of avatars with automatic gesturing and bounded interaction in on-line chat session
US6064383A (en) * 1996-10-04 2000-05-16 Microsoft Corporation Method and system for selecting an emotional appearance and prosody for a graphical character

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004070685A (ja) * 2002-08-07 2004-03-04 Hudson Soft Co Ltd 電子装置、および似顔絵付き電子メールの受信再生方法
JP2004185437A (ja) * 2002-12-04 2004-07-02 Nippon Hoso Kyokai <Nhk> 身体情報反映チャット用プログラム、身体情報反映チャット用サーバ、身体情報反映チャット用クライアントおよび身体情報反映チャット方法
JP2004287613A (ja) * 2003-03-19 2004-10-14 Advanced Telecommunication Research Institute International コミュニティ環境提供システム
JP2005078427A (ja) * 2003-09-01 2005-03-24 Hitachi Ltd 携帯端末及びコンピュータ・ソフトウエア
JP2005165597A (ja) * 2003-12-02 2005-06-23 Nec Corp 仮想会話システム
JP4534470B2 (ja) * 2003-12-02 2010-09-01 日本電気株式会社 仮想会話システム
JP2005202909A (ja) * 2003-12-16 2005-07-28 Kyoto Univ アバター制御システム
JP2008176816A (ja) * 2004-10-12 2008-07-31 Samsung Electronics Co Ltd 健康状態によるアバター映像の生成方法及び装置
US9101261B2 (en) 2004-10-12 2015-08-11 Samsung Electronics Co., Ltd. Method, medium, and apparatus generating health state based avatars
JP2006263122A (ja) * 2005-03-24 2006-10-05 Sega Corp ゲーム装置、ゲームシステム、ゲームデータの処理方法及びこのゲームデータの処理方法ためのプログラム並びに記憶媒体
JP2006350986A (ja) * 2005-06-17 2006-12-28 Tokyo Institute Of Technology 顔写真付きメールを送受信できる携帯電話機
JP2006338685A (ja) * 2006-08-02 2006-12-14 Konami Digital Entertainment:Kk チャットシステム、通信装置、その制御方法及びプログラム
JP2009093509A (ja) * 2007-10-11 2009-04-30 Sony Corp 情報処理装置及び情報処理方法、並びに記録媒体
JP4609475B2 (ja) * 2007-10-11 2011-01-12 ソニー株式会社 情報処理装置及び情報処理方法、並びに記録媒体
JP2009146041A (ja) * 2007-12-12 2009-07-02 Internatl Business Mach Corp <Ibm> コミュニケーション支援方法、システムおよびサーバ装置
US8954849B2 (en) 2007-12-12 2015-02-10 International Business Machines Corporation Communication support method, system, and server device
JP2008108275A (ja) * 2007-12-18 2008-05-08 Sony Electronics Inc 端末装置
JP4586063B2 (ja) * 2007-12-18 2010-11-24 ソニー エレクトロニクス インク 端末装置
JP2013029951A (ja) * 2011-07-28 2013-02-07 Konami Digital Entertainment Co Ltd サーバ装置
US10484328B2 (en) 2012-06-25 2019-11-19 Konami Digital Entertainment Co., Ltd. Message-browsing system, server, terminal device, control method, and recording medium
US9954812B2 (en) 2012-06-25 2018-04-24 Konami Digital Entertainment Co., Ltd. Message-browsing system, server, terminal device, control method, and recording medium
US9882859B2 (en) 2012-06-25 2018-01-30 Konami Digital Entertainment Co., Ltd. Message-browsing system, server, terminal device, control method, and recording medium
JP2014029668A (ja) * 2012-06-25 2014-02-13 Konami Digital Entertainment Co Ltd メッセージ閲覧システム、サーバ、端末装置、制御方法およびプログラム
US11080310B2 (en) 2012-11-22 2021-08-03 Sony Corporation Information processing device, system, information processing method, and program
WO2014080678A1 (ja) 2012-11-22 2014-05-30 ソニー株式会社 情報処理装置、システム、情報処理方法およびプログラム
US10037342B2 (en) 2012-11-22 2018-07-31 Sony Corporation Information processing device, system, information processing method, and program
JP2016215292A (ja) * 2015-05-15 2016-12-22 Kddi株式会社 ロボット動作生成装置およびプログラム
JP6263252B1 (ja) * 2016-12-06 2018-01-17 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018089227A (ja) * 2016-12-06 2018-06-14 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2020123277A (ja) * 2019-01-31 2020-08-13 株式会社スクウェア・エニックス 仮想キャラクタを含む画像を提供するための方法
JP7160707B2 (ja) 2019-01-31 2022-10-25 株式会社スクウェア・エニックス 仮想キャラクタを含む画像を提供するための方法
WO2022085189A1 (ja) * 2020-10-23 2022-04-28 日本電信電話株式会社 処理装置、処理方法およびプログラム
JP7226866B1 (ja) 2022-02-03 2023-02-21 佑斗 井澤 仮想空間もしくはオンラインミーティングシステムの作動システム
WO2023149562A1 (ja) * 2022-02-03 2023-08-10 井澤佑斗 仮想空間もしくはオンラインミーティングシステムの作動システムおよび作動方法
JP2023113526A (ja) * 2022-02-03 2023-08-16 佑斗 井澤 仮想空間もしくはオンラインミーティングシステムの作動システム

Also Published As

Publication number Publication date
US20020109719A1 (en) 2002-08-15
JP4395687B2 (ja) 2010-01-13
US7065711B2 (en) 2006-06-20

Similar Documents

Publication Publication Date Title
JP4395687B2 (ja) 情報処理装置
US20220254343A1 (en) System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs
US6522333B1 (en) Remote communication through visual representations
US20190206407A1 (en) System and method for personalizing dialogue based on user&#39;s appearances
JP3679350B2 (ja) プログラム、情報記憶媒体及びコンピュータシステム
US20180342095A1 (en) System and method for generating virtual characters
CN107294837A (zh) 采用虚拟机器人进行对话交互的方法和系统
EP3788793A1 (en) Interactive application adapted for use by multiple users via a distributed computer-based system
CN110249325A (zh) 具有通信模型的输入系统
CN107480766B (zh) 多模态虚拟机器人的内容生成的方法和系统
JP6699010B2 (ja) 対話方法、対話システム、対話装置、およびプログラム
US20050080629A1 (en) Multi-mode interactive dialogue apparatus and method
US11308312B2 (en) System and method for reconstructing unoccupied 3D space
US11960792B2 (en) Communication assistance program, communication assistance method, communication assistance system, terminal device, and non-verbal expression program
JP4354313B2 (ja) ユーザ間親密度測定システム及びユーザ間親密度測定プログラム
KR20220123576A (ko) 3차원(3d) 환경에 대한 통합된 입/출력
JP2009205370A (ja) ユーザ端末、コンピュータプログラム、および仮想世界コミュニケーション支援システム
CN112883181A (zh) 会话消息的处理方法、装置、电子设备及存储介质
JP2003108502A (ja) 身体性メディア通信システム
KR102298070B1 (ko) 모바일 디바이스 기반 능동형 인공지능 영상 캐릭터 시스템
Birmingham A comparative analysis of nonverbal communication in online multi-user virtual environments
US20230351142A1 (en) Relationship graphs for artificial intelligence character models
JP2023028247A (ja) 情報処理システム、コミュニケーション方法、及び情報処理端末
WO2021140800A1 (ja) コミュニケーション支援システムおよびコミュニケーション支援プログラム
JPH1015243A (ja) 会話型テレビゲーム装置及び情報記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090709

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090924

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091007

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121030

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees