以下、図面を参照してこの発明に係わる実施形態を説明する。
[第1の実施形態]
この発明の第1の実施形態に係る感情表現装置は、人や動物等の生物の動きや表情、音声を模倣するのではないバーチャルエージェントとして、アニメーションにより表示パターンを変化させることが可能な図形(キャラクタや幾何学図形など)を用い、周囲の状況に対応した感情を決定し、この決定された感情に対応する感情表現関数を用いてアニメーションデータを生成し、このアニメーションデータにより上記図形を変化させることで、キャラクタ動作などを詳細に設計することなく、上記感情を表現するようにしたものである。
(構成)
図1は、この発明の第1の実施形態に係る感情表現装置のシステム構成を示すもので、感情表現装置は、感情決定装置1と、感情表現制御装置2と、表示デバイス3とを備えている。
感情決定装置1は、周囲の状況に応じたシステムの感情を決定するもので、例えばパーソナルコンピュータ、スマートフォン、タブレット型端末又はマイクロコンピュータを備えた専用装置により構成される。感情表現制御装置2は、上記感情決定装置1により決定された感情をバーチャルエージェントAG1としての図形の変化により表現するためのアニメーションデータを生成するもので、この感情表現制御装置2もパーソナルコンピュータ、スマートフォン、タブレット型端末又はマイクロコンピュータを備えた専用装置により構成される。表示デバイス3は、ディスプレイや投影装置(プロジェクタ)からなり、上記感情表現制御装置2により生成されたアニメーションデータに従いバーチャルエージェントAG1の図形を表示する。なお、感情決定装置1、感情表現制御装置2、および表示デバイス3は1個の装置により構成することも可能である。
図2は、上記感情決定装置1および感情表現制御装置2の機能構成を示すブロック図である。感情決定装置1は、複数のセンサ11と、センサインタフェース部12と、制御部13と、感情対応表記憶部14と、通信インタフェース部15とを備えている。
センサ11は、マイクロフォン、カメラ、超音波センサ、位置センサ、デプスセンサ等を含み、周囲の音声、画像、周辺に立つ人との距離などの周囲の状況を検出する。なお、センサ11は、温度センサや湿度センサ等の気象センサ、周辺に存在する人が要求等を入力するスイッチ類を備えるようにしてもよい。
センサインタフェース部12は、上記センサ11から出力されたセンサデータを制御部13が取り扱うことが可能なデータ形式に変換する。
感情対応表記憶部14には感情対応表を表すデータが記憶されている。感情対応表は、センサ11により検出される周囲の複数種類の状況を表す情報と、当該周囲の各状況に対応する感情を表す情報とを関連付けたもので、詳細は後述する。
制御部13は、CPU(Central Processing Unit)等と呼ばれるプロセッサを有し、本実施形態に係る制御機能として、センサデータ取得制御部131と、感情決定部132と、送信制御部133とを有している。これらの制御機能は、いずれも図示しないプログラムメモリに格納されたプログラムを上記プロセッサに実行させることにより実現される。
センサデータ取得制御部131は、上記センサ11から出力されるセンサデータを定期的又は任意のタイミングで上記センサインタフェース部12を介して取り込み、図示しないセンサデータ記憶部に記憶させる。
感情決定部132は、上記センサデータ取得制御部131により取り込んだセンサデータから周囲の状況を表す特徴量を算出し、この算出した特徴量と感情対応表記憶部14に記憶された感情対応表のデータとに基づいて上記周囲の状況に対応する感情を決定し、その識別情報(感情ID)を出力する。
送信制御部133は、上記感情決定部132から出力された感情IDを、通信インタフェース部15から感情表現制御装置2へ送信するための制御を行う。通信インタフェース部15は、例えばBluetooth(登録商標)等の小電力無線データ伝送方式を使用してデータの送受信を行う。
感情表現制御装置2は、通信インタフェース部21と、制御部22と、感情表現関数記憶部23と、表示インタフェース部24とを備えている。
通信インタフェース部21は上記感情決定装置1との間でデータを送受信するもので、伝送方式としては上記通信インタフェース部15と同様にBluetooth(登録商標)等の小電力無線データ伝送方式を使用している。
感情表現関数記憶部23には、複数種類の感情を図形のアニメーションを用いて表現するために予め設定された関数式が、感情IDに関連付けて記憶されている。この感情表現のための関数式については後に詳しく述べる。
制御部22は、CPU(Central Processing Unit)等と呼ばれるプロセッサを有し、本実施形態に係る制御機能として、受信制御部221と、アニメーションデータ生成部222と、表示制御部223とを有している。これらの制御機能は、いずれも図示しないプログラムメモリに格納されたプログラムを上記プロセッサに実行させることにより実現される。
受信制御部221は、上記感情決定装置1から送信される感情IDを通信インタフェース部21を介して受信し、受信した感情IDをアニメーションデータ生成部222へ出力する。
アニメーションデータ生成部222は、上記受信制御部221から出力された感情IDに対応する感情表現関数式を感情表現関数記憶部23から読み出し、この関数式に応じてバーチャルエージェントAG1としての図形の表示パターン(例えば大きさ)を変化させるためのアニメーションデータを生成する。
表示制御部223は、上記アニメーションデータ生成部222により生成されたアニメーションデータに従いバーチャルエージェントAG1を表す図形を表示するための表示データを生成し、当該表示データを表示インタフェース部24から表示デバイス3へ出力して表示させる。
(動作)
次に、以上のように構成された感情決定装置1および感情表現制御装置2の動作を説明する。
図3は、感情決定装置1および感情表現制御装置2の処理手順と処理内容を示すフローチャートである。
(1)感情の決定
感情決定装置1は、センサデータ取得制御部131の制御の下で、ステップS11により、複数のセンサ11から出力されるセンサデータをセンサインタフェース部12を介して取得する。次に感情決定部132の制御の下、先ずステップS12により上記取得されたセンサデータから周囲の状況を表す特徴量を抽出し、抽出した特徴量をもとに周囲の状況を判定する。
例えば、いまオフィスの受付システムや店舗での接客をバーチャルエージェントAG1が行う場合を想定する。この場合感情決定装置1は、カメラにより得られる画像データから画像のパターン認識技術を用いて、客の画像パターンを特徴量として抽出する。そして、上記抽出した画像パターンをもとに、周辺に客が存在するか否かを判定する。また、距離センサのセンサデータをもとに周囲に存在する客との距離を特徴量として算出する。そして、この算出した距離をもとに客が近づいてきたか遠ざかったかを判定する。さらに、マイクロフォンにより検出された客の音声から音声認識技術を用いて発話内容を特徴量として認識する。そして、認識した発話内容から客が怒っているか、迷っているか、喜んでいるか等の客の状態を判定する。
なお、上記カメラの画像データやマイクロフォンの音声データ等から客の数を表す特徴量を抽出し、これらの特徴量をもとに店内の混雑状況等を判定するようにしてもよい。また、画像データから表情を解析して客の感情を推定するようにしてもよい。その他、気象センサのセンサデータから温度や湿度の特徴量を抽出し、この特徴量をもとに周囲が暑いか寒いか等の環境に関する情報を判定するようにしてもよい。
続いて感情決定部132は、ステップS13において、上記ステップS12による周囲の状況の判定結果と、感情対応表記憶部14に記憶された感情対応表とに基づいて、上記周囲の状況に応じてシステムの感情を決定する。
感情は、例えばラッセルの円環モデルを用いて定義される。ラッセルの円環モデルとは、「喜び」、「怒り」、「悲しみ」等の感情を、「快−不快」および「活性−不活性」の二軸で表現した二次元座標平面にマッピングしたものである。感情対応表には、上記定義された感情の識別情報(感情ID)と、周囲の状況を表す情報とを、例えばオペレータの入力設定操作により事前に対応付ける。
例えば、周囲に客がいないことを示す判定結果には、エージェントが客を待っている振る舞いを表現するために、感情として「ほのぼの」を対応付ける。また、客が近づいてきたことを示す判定結果に対しては、エージェントが客を歓迎する振る舞いを表現するために、感情として「喜び」を対応付ける。さらに、客が話す内容が怒っている内容であることを示す判定結果に対しては、エージェントがお詫びの意を示している振る舞いを表現するために、感情として「悲しい」を対応付ける。
感情決定部132は、上記ステップS12により得られた周囲の状況の判定結果を表す情報をもとに、感情対応表記憶部14から対応する感情IDを読み出す。
感情決定装置1は、次に送信制御部133の制御の下で、ステップS14において、上記感情決定部132により感情対応表から読み出された感情IDを、通信インタフェース部15から感情表現制御装置2へ送信する。
(2)感情表現の制御
感情表現制御装置2は、先ず受信制御部221の制御の下、ステップS15において、上記感情決定装置1から送信された感情IDを通信インタフェース部21を介して受信する。
感情表現制御装置2は、次にアニメーションデータ生成部222の制御の下、ステップS16により、感情表現関数記憶部23から上記感情IDに対応する感情表現関数を読み出す。
感情表現関数記憶部23には、先にラッセルの円環モデルに基づいて定義された複数の感情の感情IDに対応付けて、当該感情をバーチャルエージェントAG1としての図形の時系列変化(周期と振幅の変化)により表現するための関数式が記憶されている。図4は感情とそれに対応する感情表現関数との対応関係の一例を示すものである。感情表現関数におけるr−baseは図形の元の大きさ、rは伸縮の振幅、tは時間、Tは周期、x(t) は時刻tの時の図形の大きさを表す。周期Tおよび振幅rは、感情を喚起させるような周期(心拍、呼吸、筋肉のふるえ等の周期に近い周期)および振幅とする。
例えば、「喜び」の感情は、バーチャルエージェントAG1を示す図形(円)の大きさを、図4に図示する三角波に基づいて変化させることによって表現する。「わくわく」の感情は、図形(円)の大きさを、図4に図示するノコギリ波に基づいて変化させることによって表現する。「恐怖」の感情についても、図形(円)の大きさを、図4に図示するノコギリ波に基づいて変化させることによって表現する。「怒り」の感情については、図形(円)の大きさを、図4に図示する正弦波と余弦波の積に基づいて変化させることによって表現する。「悲しい」の感情については、図形(円)の大きさを、図4に図示する正弦波と余弦波の積に基づいて変化させることによって表現する。「眠い」の感情については、図形(円)の大きさを、図4に図示する正弦波に基づいて変化させることによって表現する。「ほのぼの」の表現については、図形(円)の大きさを、図4に図示する正弦波と余弦波の積に基づいて変化させることによって表現する。
ここで、図4における「わくわく」と「恐怖」の感情表現関数は同一の式となっているが、係数が異なる。このように、同一の感情表現関数であっても、周期等の係数を変えることによって異なる感情を表現することができる。
なお、上記例では、三角波、ノコギリ波、正弦波、及び正弦波と余弦波の積により各感情を表現したが、上記バーチャルエージェントAG1を見る人がシステムの感情を想起できるのであれば、上記の波形ではなく矩形波等の他の波形を用いても構わないし、上記記載の感情以外の感情表現があってもよい。また、上記例では図4に記載の通りに各感情と各波形を対応付けたが、各波形に対応付けられる感情は上記の限りではない。
アニメーションデータ生成部222は、続いてステップS17において、上記感情表現関数記憶部23から読み出された感情表現関数に基づいて、バーチャルエージェントAG1の図形の表示パターン(例えば大きさ)を変化させるためのアニメーションデータを生成する。
感情表現制御装置2は、表示制御部223の制御の下、ステップS18において、上記生成されたアニメーションデータを表示インタフェース部24から表示デバイス3へ出力する。この結果、表示デバイス3には、大きさがアニメーションにより変化する図形がバーチャルエージェントAG1として表示される。
(3)バーチャルエージェントの表示例
上記バーチャルエージェントAG1の表示例には、以下のようなものが考えられる。
(3−1)図5は第1の表示例を示すものである。第1の表示例は、アニメーション動作しない写真やキャラクタ画像AG2の背面側に、図形(円)からなるバーチャルエージェントAG1を表示し、このバーチャルエージェントAG1の大きさをアニメーションデータに従い変化させるようにしたものである。
ただ単に図形(円)のみを表示させた場合、客はこの図形の大きさの変化をシステムの感情として認識することに違和感を覚えるかも知れない。しかしながら、第1の表示例のようにキャラクタ画像を配置することで、キャラクタ自体は変化しなくても、客にあたかもキャラクタが感情を表現しているかのように錯覚させることが可能となる。
(3−2)図6は第2の表示例を示すものである。第2の表示例は、表示デバイス3の前面側にそれ自体は動かないぬいぐるみや人形などのロボットRB1を配置した状態で、表示デバイス3の表示画面に図形(円)からなるバーチャルエージェントAG1を表示し、このバーチャルエージェントAG1の大きさをアニメーションデータに応じて変化させるようにしたものである。
この第2の表示例においても、第1の表示例と同様に、ロボットRB1自体は変化しなくても、客に対しあたかもロボットRB1が感情を表現しているかのように錯覚させることが可能となる。
(3−3)図7は第3の表示例を示すものである。第3の表示例は、表示デバイスとして投影装置(ビデオプロジェクタ)20を使用し、それ自体は動かないロボットRB1を例えば壁面の前に配置し、当該壁面に上記投影装置20によりバーチャルエージェントAG1としての図形(円)のアニメーション画像を投影するようにしたものである。
この第3の表示例によれば、高価なディスプレイを不要にしてシステムのコストダウンを図ることができ、また表示デバイスの設置場所の制約を受けることもなくなる。さらに、第3の表示例においても上記第2の表示例と同様に、ロボットRB1自体は変化しなくても、客に対しあたかもロボットRB1が感情を表現しているかのように錯覚させることが可能となる。
(3−4)図8は第4の表示例を示すものである。第4の表示例は、表示デバイスとして投影装置(ビデオプロジェクタ)20を使用し、それ自体は動かないぬいぐるみや人形などのロボットRB1の体の表面に、上記投影装置20によりバーチャルエージェントAG1としての図形(ハート型)のアニメーション画像を投影するようにしたものである。
この第4の表示例によれば、システムの感情が、ロボットRB1の体の表面に表示されるハート画像の大きさの変化として表現される。このため、客は上記ハート画像の変化により、システムの感情をロボットRB1の感情と錯覚して違和感なく認識することが可能となる。
(4)変形例
以上の説明では、バーチャルエージェントAG1としての図形(円)の大きさを変化させることでシステムの感情を変化させるようにしたが、図形(円)の形状や色等を変化させたり、図形の移動パターンによりシステムの感情を表現するようにしてもよい。また、バーチャルエージェントAG1としての図形は円形に限るものではなく、矩形、多角形、楕円形、球形等のその他の幾何学図形、または人間や動物の姿をしたキャラクタであってもよく、またこれらの形状を組み合わせたものであってもよい。
(効果)
以上述べたように第1の実施形態では、アニメーションにより表示パターンを変化させることが可能な図形をバーチャルエージェントAG1として用いている。そして、周囲の状況に対応したシステムの感情を感情決定装置1により決定し、感情表現制御装置2により、上記決定された感情を、波形変化として表した感情表現関数に変換したのち、当該感情表現関数をもとにアニメーションデータを生成し、このアニメーションデータにより上記図形を変化させることにより、上記システムの感情を表現するようにしている。
従って、バーチャルエージェントが人間や動物等の生物の体の動きや表情、音声等を模倣することで感情を表現する手段を持っていなくても、周囲の状況に応じたシステムの感情を表現することができ、これによりシステムのバーチャルエージェントAG1と人とがインタラクションする際のノンバーバルコミュニケーションを助長することが可能となる。
[第2の実施形態]
この発明の第2の実施形態は、人や動物等の生物の動きや表情、音声等を模倣しないバーチャルエージェントとして、アニメーションにより表示パターンを変化させることが可能な図形を用いる点は第1の実施形態と同様である。第1の実施形態と異なる点は、ネットワークを介して相互に通信が可能なユーザ端末間で、それぞれのユーザの感情をセンサデータにより推定する。そして、この推定されたユーザの感情を、波形変化として表した感情表現関数に変換したのち、当該感情表現関数をもとにアニメーションデータを生成し、このアニメーションデータにより上記ユーザのバーチャルエージェントとしての図形を変化させ、当該図形を相手側のユーザ端末へ送信して表示するようにした点である。
(構成)
図9は、この発明の第2の実施形態に係る感情表現装置を構成するシステムの全体構成を示す図である。
第2の実施形態に係るシステムは、ユーザAが使用する感情決定・表現制御装置4Aと、遠隔地にいるユーザBが使用する感情決定・表現制御装置4Bとの間を、ネットワーク5を介して通信可能に接続したものである。上記感情決定・表現制御装置4A,4Bにはそれぞれ表示デバイス3A,3Bが接続され、これらの表示デバイス3A,3Bに相手側ユーザの感情を表現するバーチャルエージェントが表示される。なお、表示デバイス3Aと感情決定・表現制御装置4A、および表示デバイス3Bと感情決定・表現制御装置4Bは、それぞれ1個の装置により構成することも可能である。
図10は、上記感情決定・表現制御装置4A,4Bの機能構成を示すブロック図である。同図に示すように感情決定・表現制御装置4A,4Bは、第1の実施形態で説明した感情決定装置1の機能と感情表現制御装置2の機能を1つの装置に備えたものであり、前記図2と同一部分には同一符号を付してある。
感情決定・表現制御装置4A,4Bは、例えばパーソナルコンピュータ、スマートフォンまたはタブレット型端末からなり、複数のセンサ41と、センサインタフェース部42と、制御部43と、記憶ユニット44と、通信インタフェース部45と、表示インタフェース部46と、操作部47とを備えている。
センサ41は、マイクロフォンやカメラの他に、心電計や脈拍計、皮膚電位計、筋電計などの生体センサを備えている。マイクロフォンおよびカメラは、それぞれユーザの音声および顔の画像を検出する。生体センサ群はユーザの生体情報を計測する。操作部47は、ユーザが自身の感情に関係する操作データを入力するために使用される。
センサインタフェース部42は、上記センサ41から出力されたセンサデータを制御部43が取り扱うことが可能なデータ形式に変換する。
記憶ユニット44は、記憶媒体として例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等のメモリを使用し、その記憶領域には感情対応表記憶部14と、感情表現関数記憶部23が設けられている。
感情対応表記憶部14には感情対応表が記憶されている。感情対応表には、センサ41により検出されるユーザの状態を表す情報と、当該ユーザの状態を表す情報に対応する感情を表す情報とが、互いに関連付けられて記憶されている。
感情表現関数記憶部23には、複数種類の感情を図形のアニメーションを用いて表現するために予め設定された関数式が、感情IDに関連付けて記憶されている。
制御部22は、CPU(Central Processing Unit)等と呼ばれるプロセッサを有し、本実施形態に係る制御機能として、センサ/操作データ取得制御部431と、感情決定部432と、アニメーションデータ生成部433と、送信制御部434と、受信制御部435とを有している。これらの制御機能は、いずれも図示しないプログラムメモリに格納されたプログラムを上記プロセッサに実行させることにより実現される。
センサ/操作データ取得制御部431は、上記センサ41から出力されるセンサデータを定期的又は任意のタイミングで上記センサインタフェース部42を介して取り込み、図示しないセンサデータ記憶部に記憶させる。またセンサ/操作データ取得制御部431は、上記操作部47によりユーザが入力した操作データを取り込む。
感情決定部432は、上記センサ/操作データ取得制御部431により取り込んだセンサデータおよび操作データからユーザの状態を表す特徴量を算出し、この算出した特徴量と感情対応表記憶部14に記憶された感情対応表のデータとに基づいて上記ユーザの状態に対応する感情を決定し、その識別情報(感情ID)を出力する。
アニメーションデータ生成部433は、上記感情決定部432により決定された感情IDに対応する感情表現関数式を感情表現関数記憶部23から読み出し、この関数式に応じてバーチャルエージェントAG1としての図形の表示パターン(例えば大きさ)を変化させるためのアニメーションデータを生成する。或いはアニメーションデータ生成部433は、上記アニメーションデータに従いバーチャルエージェントAG1を表す図形を表示するための表示データを生成する。
送信制御部434は、上記アニメーションデータ生成部433により生成されたアニメーションデータ、または図形の表示データを、通信インタフェース部45から通信相手先の感情決定・表現制御装置4B,4Aへ送信する。
受信制御部435は、通信相手側の感情決定・表現制御装置4B,4Aから送られたアニメーションデータまたは図形の表示データを、上記通信インタフェース部45を介して受信する。そして、アニメーションデータを受信した場合には、当該アニメーションデータに従いバーチャルエージェントAG1を表す図形を表示するための表示データを生成し、当該表示データを表示インタフェース部46から表示デバイス3A,3Bへ出力して表示させる。また、バーチャルエージェントAG1を表す図形の表示データを受信した場合には、当該図形の表示データを表示インタフェース部46から表示デバイス3A,3Bへ出力して表示させる。
(動作)
次に、以上のように構成された感情決定・表現制御装置4A,4Bの動作を説明する。図11はその処理手順と処理内容を示すフローチャートである。
ここでは、ユーザAの感情を感情決定・表現制御装置4Aにおいてセンサデータをもとに決定し、この決定した感情をバーチャルエージェントAG1としての図形を変化させることにより表現するために、上記図形の表示パターン(例えば大きさ)を変化させるアニメーションデータを生成し、このアニメーションデータを相手ユーザBの感情決定・表現制御装置4Bへ送信する場合を例にとって説明する。
感情決定・表現制御装置4Aでは、マイクロフォンやカメラ、生体センサ等のセンサ41により、ユーザAの音声や顔の画像、さらには生体情報が定期的または任意のタイミングで計測される。感情決定・表現制御装置4Aは、センサ/操作データ取得制御部431の制御の下、ステップS21において、上記各センサ41により計測されたセンサデータをセンサインタフェース部42を介して取り込む。またセンサ/操作データ取得制御部431は、ユーザAが操作部47において自身の感情に対応するボタンを押下した場合にも、その操作データをステップS21により取り込む。
感情決定・表現制御装置4Aは、次に感情決定部432の制御の下、ステップS22において、上記取り込まれたセンサデータからユーザAの状態の特徴を抽出する。例えば、カメラにより得られた画像データやマイクロフォンにより検出された音声データをそれぞれ解析することで、ユーザAの顔の表情(喜んでいる、泣いている、怒っている、疲れている等)や、ユーザAの発話内容(楽しい、悲しい等)を表す各特徴を抽出する。また、生体センサにより得られた心拍や血圧、皮膚電位等のセンサデータをもとに、ユーザAの自律神経の働き(例えば興奮度)を示す特徴を抽出する。
感情決定部432は、続いてステップS23において、上記抽出されたユーザAの状態を表す特徴と、感情対応表記憶部14に記憶されている感情対応表とをもとに、ユーザAの感情を決定する。感情は、例えば第1の実施形態で述べたようにラッセルの円環モデルを用いて定義され、上記感情対応表記憶部14から上記ユーザAの状態を表す特徴に対応する感情IDを読み出すことにより決定される。感情対応表は、例えば、不特定多数のユーザを対象に、あるいは特定のユーザごとに、機械学習により事前に作成されたものを用いる。
なお、ユーザAが自身の感情に対応するボタンを押下した場合には、その操作データに対応付する感情IDを上記感情対応表記憶部14から読み出す。
感情決定・表現制御装置4Aは、次にアニメーションデータ生成部433の制御の下、先ずステップS24において、感情表現関数記憶部23から上記感情IDに対応する感情表現関数を読み出す。感情表現関数記憶部23には、図4に例示したように、感情をバーチャルエージェントAG1としての図形の時系列変化(周期と振幅の変化)により表現するための関数式が記憶されている。アニメーションデータ生成部433は、上記感情IDに対応する関数式を感情表現関数記憶部23から読み出す。
次にアニメーションデータ生成部433は、上記読み出した感情表現関数に基づいて、バーチャルエージェントAG1の図形の表示パターン(例えば大きさ)を変化させるためのアニメーションデータを生成する。
感情決定・表現制御装置4Aは、送信制御部434の制御の下、ステップS25において、上記生成されたアニメーションデータを通信インタフェース部45から相手ユーザBの感情決定・表現制御装置4Bへ送信する。
一方、相手ユーザBの感情決定・表現制御装置4Bは、受信制御部435の制御の下、ステップS26により、上記ユーザAの感情決定・表現制御装置4Aから送信されたアニメーションデータを受信すると、ステップS27において、上記受信したアニメーションデータを表示インタフェース部46から表示デバイス3Bに出力する。この結果、表示デバイス3Bには、大きさがアニメーションにより変化する図形がバーチャルエージェントAG1として表示される。
かくして、ユーザAの感情を表すバーチャルエージェントAG1が、遠隔地にいる相手ユーザBの感情決定・表現制御装置4Bの表示デバイス3Bに表示される。
(効果)
以上詳述したように第2の実施形態では、ユーザA,Bがそれぞれ感情決定・表現制御装置4A,4Bによりネットワークを介して通信が可能な状態で、感情決定・表現制御装置4A,4Bにより、センサ41により得られたセンサデータからユーザA,Bの状態の特徴を抽出して、この特徴に対応する感情を感情対応表をもとに決定する。そして、上記決定された感情に対応する感情表現関数を感情表現関数記憶部23から読み出し、当該関数式をもとにバーチャルエージェントAG1としての図形(例えば円)の大きさを変化させるためのアニメーションデータを生成し、このアニメーションデータを相手ユーザの感情決定・表現制御装置4Bへ送信して表示デバイス3B,3AにバーチャルエージェントAG1を表示するようにしている。
従って、ユーザA,Bの感情を、互いに相手側の感情決定・表現制御装置4A,4Bにおいて、バーチャルエージェントAG1のアニメーションを用いて表現することができる。その際、バーチャルエージェントAG1として図形(円)を用いるので、バーチャルエージェントが人間や動物等の生物の体の動きや表情、音声等を模倣することで感情を表現する手段を持っていなくても、ユーザ間で感情を提示し合うことが可能となる。また、感情の決定機能と感情表現の制御機能を1台の感情決定・表現制御装置4A,4Bに持たせることができ、これによりシステム構成を簡単小型化することができる。
なお、第2の実施形態では、感情決定・表現制御装置4A,4Bにおいて、それぞれユーザA,Bの顔の表情や音声、生体情報等を表すセンサデータをもとに各ユーザA,Bの感情を決定し、この感情に対応する図形のアニメーションデータを相手ユーザB,Aの感情決定・表現制御装置4B,4Aに伝送してバーチャルエージェントとしての図形を変化させる場合について述べた。しかしそれに限らず、感情決定・表現制御装置4A,4Bにおいてそれぞれその周辺の状況に応じた当該感情決定・表現制御装置4A,4Bの感情を決定し、この感情に対応する図形のアニメーションデータを相手ユーザB,Aの感情決定・表現制御装置4B,4Aに伝送してバーチャルエージェントとしての図形を変化させるようにしてもよい。
また、第1の実施形態と同様に、バーチャルエージェントAG1としての図形は円形に限るものではなく、矩形、多角形、楕円形、球形等のその他の幾何学図形、または人間や動物の姿をしたキャラクタであってもよく、またこれらの形状を組み合わせたものであってもよい。さらに、バーチャルエージェントの表示例と変形例も第1の実施形態と同様である。
[第3の実施形態]
この発明の第3の実施形態は、ロボットが光源を備える場合に、当該ロボットの感情を上記光源の発光パターンを変化させることにより表現するものである。
(構成)
図12は、この発明の第3の実施形態に係るシステムの構成を示すもので、ロボットRB2に設けられた光源65と、感情決定装置1と、感情表現制御装置6とを備えている。
ロボットRB2は、例えばぬいぐるみのようにそれ自体は感情表現のための機能は持っていないものであるが、例えば胸に当たる位置に光源65が設けられている。光源65は、例えば、単色またはカラー発光が可能なLED(Light Emitting Diode)と、その発光駆動回路と、通信インタフェース部とを備える。通信インタフェース部は、感情表現制御装置6から送信された発光駆動信号を受信するために使用される。なお、光源65としては、LCDなどの2次元または3次元ディスプレイを用いることもできる。
感情決定装置1は、周囲の状況に応じてシステムの感情を決定するもので、例えばパーソナルコンピュータ、スマートフォン、タブレット型端末又はマイクロコンピュータを備えた専用装置により構成される。なお、感情決定装置1の構成は図2と同一なので説明は省略する。
感情表現制御装置6は、上記感情決定装置1により決定された感情を、上記光源65の発光パターンの変化により表現するもので、そのために感情ごとに異なる発光パターンデータを生成する。なお、この感情表現制御装置6も、パーソナルコンピュータ、スマートフォン、タブレット型端末又はマイクロコンピュータを備えた専用装置により実現される。なお、上記感情決定装置1と上記感情表現制御装置6はロボットRB2に内蔵させることも可能である。
図13は上記感情表現制御装置6の機能構成を示すブロック図である。
感情表現制御装置6は、通信インタフェース部61と、制御部62と、感情表現関数記憶部63と、出力インタフェース部64とを備えている。
通信インタフェース部61は感情決定装置1との間でデータを送受信するもので、伝送方式としてはBluetooth(登録商標)等の小電力無線データ伝送方式を使用している。
感情表現関数記憶部63には、複数種類の感情を光源65の発光パターンの変化により表現するために設定された感情表現関数式が、感情IDに関連付けて記憶されている。発光パターンの変化は、例えば光源65の明るさ(照度または発光強度)の変化率として定義される。感情の種類と感情表現関数との対応関係は、図4におけるx(t)を時刻tの時の明るさとして、図4に例示したものをそのまま用いることができる。
制御部62は、CPU(Central Processing Unit)等と呼ばれるプロセッサを有し、本実施形態に係る制御機能として、受信制御部621と、発光パターンデータ生成部622と、発光制御部623とを備えている。これらの制御機能は、いずれも図示しないプログラムメモリに格納されたプログラムを上記プロセッサに実行させることにより実現される。
受信制御部621は、上記感情決定装置1から送信される感情IDを通信インタフェース部61を介して受信し、受信した感情IDを発光パターンデータ生成部622へ出力する。
発光パターンデータ生成部622は、上記受信制御部621から出力された感情IDに対応する感情表現関数式を感情表現関数記憶部63から読み出し、この関数式に応じてバーチャルエージェントとしての光源65の発光パターン(例えば明るさ)を変化させるための発光パターンデータを生成する。
発光制御部623は、上記発光パターンデータ生成部622により生成された発光パターンデータに従い、バーチャルエージェントを表す光源65を発光動作させるための発光制御信号を生成し、当該発光制御信号を出力インタフェース部64から光源65へ送信する。
(動作)
次に、以上のように構成された感情表現制御装置6の動作を説明する。図14はその処理手順と処理内容を示すフローチャートである。なお、感情決定装置1の動作については、第1の実施形態と同一なので説明は省略する。
感情表現制御装置6は、受信制御部621の制御の下、ステップS31において、感情決定装置1から送信された感情IDを通信インタフェース部61を介して受信する。
上記感情IDを受信すると感情表現制御装置6は、発光パターンデータ生成部622の制御の下、先ずステップS32により、感情表現関数記憶部63から上記感情IDに対応する感情表現関数を読み出す。感情表現関数は、図4に例示したように感情の種類ごとに発光パターンを異なる波形として表したものである。発光パターンデータ生成部622は、続いてステップS33により、上記感情表現関数記憶部63から読み出された感情表現関数に基づいて、バーチャルエージェントとしての光源65の発光パターン(例えば明るさ)を変化させるための発光パターンデータを生成する。
感情表現制御装置6は、発光制御部623の制御の下、ステップS34において、上記生成された発光パターンデータに対応する発光制御信号を生成し、この発光制御信号を出力インタフェース部64から光源65へ出力する。光源65は、上記発光制御信号を受信すると、当該発光制御信号により発光駆動回路がLED等の発光素子を発光駆動する。かくして、ロボットRB2の感情が、光源65の発光パターン(例えば明るさ)の変化として表現される。
(効果)
以上述べたように第3の実施形態では、ロボットRB2にバーチャルエージェントとして機能させるために光源65を設け、センサデータと感情対応表をもとに決定された感情IDに対応する感情表現関数を感情表現関数記憶部63から読み出し、当該感情表現関数をもとに発光パターンデータを生成して、この発光パターンデータに従い上記光源65の明るさを変化させるようにしている。
従って、ロボットRB2自体が動きや音声等を用いた感情表現手段を有していない場合でも、ロボットRB2の感情を、光源65の発光パターンの変化により表現することができる。
なお、以上の説明では、ロボットRB2の感情を光源65の発光パターンを変化させることにより表現する場合について述べたが、第2の実施形態のようにユーザの感情をロボットRB2に設けた光源65の発光パターンを変化させることにより表現するようにしてもよい。
また、上記説明では、光源65の発光パターンの変化として明るさを変化させるようにしたが、発光色や発光の点滅周期、さらにはこれらの組み合わせを変化させるようにしてもよい。
[第4の実施形態]
この発明の第4の実施形態は、ロボットが伸縮可能な構造体を有し、当該構造体を伸縮装置により伸縮させることが可能な場合に、ロボットの感情を当該ロボットの構造体の伸縮パターンを変化させることにより表現するようにしたものである。
(構成)
図15は、この発明の第4の実施形態に係るシステムの構成を示すものである。
ロボットRB3は伸縮可能な材質からなる構造体を有し、当該構造体内に内蔵された伸縮装置8により上記構造体を伸縮変化させることが可能となっている。例えば、構造体が多関節型の構造筐体からなる場合には、伸縮装置8として例えばサーボモータを使用した駆動機構を用い、この駆動機構により関節を動かすことにより構造体を伸縮させる。また、構造体が風船のような弾性材料からなる場合には、伸縮装置8として例えばポンプを有する空気圧の調整機構を用い、この調整機構により構造体内に空気を注入したり排気することにより構造体を伸縮させる。
感情決定装置1は、周囲の状況に応じたシステムの感情を決定するもので、例えばパーソナルコンピュータ、スマートフォン、タブレット型端末又はマイクロコンピュータを備えた専用装置により構成される。なお、感情決定装置1の構成は図2と同一なので説明は省略する。
感情表現制御装置7は、上記感情決定装置1により決定された感情を、上記ロボットRB3の伸縮パターンの変化により表現するもので、そのために感情ごとに異なる伸縮パターンデータを生成する。なお、この感情表現制御装置7も、パーソナルコンピュータ、スマートフォン、タブレット型端末又はマイクロコンピュータを備えた専用装置により実現される。なお、上記感情決定装置1と上記感情表現制御装置7は、上記ロボットRB3に内蔵させることも可能である。
図16は、上記感情表現制御装置7の機能構成を示すブロック図である。
感情表現制御装置7は、通信インタフェース部71と、制御部72と、感情表現関数記憶部73と、出力インタフェース部74とを備えている。
通信インタフェース部71は感情決定装置1との間でデータを送受信するもので、伝送方式としてはBluetooth(登録商標)等の小電力無線データ伝送方式を使用している。
感情表現関数記憶部73には、複数種類の感情を、ロボットRB3の構造体の伸縮パターンの変化により表現するために設定された感情表現関数式が、感情IDに関連付けて記憶されている。構造体の伸縮パターンの変化は、例えば構造体の大きさ(筐体の場合は外形寸法、風船のような球体の場合は外径)の変化率として定義される。感情の種類と感情表現関数との対応関係は、図4におけるx(t)を時刻tの時の構造体の大きさとして、図4に例示したものをそのまま用いることができる。
制御部72は、CPU(Central Processing Unit)等と呼ばれるプロセッサを有し、本実施形態に係る制御機能として、受信制御部721と、伸縮パターンデータ生成部722と、伸縮制御部723とを備えている。これらの制御機能は、いずれも図示しないプログラムメモリに格納されたプログラムを上記プロセッサに実行させることにより実現される。
受信制御部721は、感情決定装置1から送信された感情IDを通信インタフェース部71を介して受信し、受信した感情IDを伸縮パターンデータ生成部722へ出力する。
伸縮パターンデータ生成部722は、上記受信制御部721から出力された感情IDに対応する感情表現関数を感情表現関数記憶部73から読み出し、この関数式に応じてロボットRB3の構造体の伸縮パターン(例えば大きさ)を変化させるための伸縮パターンデータを生成する。
伸縮制御部723は、上記伸縮パターンデータ生成部722により生成された伸縮パターンデータに従い、ロボットRB3の構造体を伸縮させるための伸縮制御信号を生成し、当該伸縮制御信号を出力インタフェース部74からロボットRB3の伸縮装置8へ送信する。
(動作)
次に、以上のように構成された感情表現制御装置7の動作を説明する。図17はその処理手順と処理内容を示すフローチャートである。なお、本実施形態においても、感情決定装置1の動作については第1の実施形態と同一なので、説明は省略する。
感情表現制御装置7は、受信制御部621の制御の下、ステップS41において、感情決定装置1から送信された感情IDを通信インタフェース部71を介して受信する。
上記感情IDを受信すると感情表現制御装置7は、伸縮パターンデータ生成部722の制御の下、先ずステップS32により、感情表現関数記憶部73から上記感情IDに対応する感情表現関数を読み出す。感情表現関数は、図4に例示したように感情の種類ごとに伸縮パターンを異なる波形として表したものである。伸縮パターンデータ生成部722は、続いてステップS43により、上記感情表現関数記憶部73から読み出された感情表現関数に基づいて、ロボットRB3の構造体の伸縮パターン(例えば大きさ)を変化させるための伸縮パターンデータを生成する。
感情表現制御装置7は、伸縮制御部723の制御の下、ステップS44において、上記生成された伸縮パターンデータに対応する伸縮制御信号を生成し、この伸縮制御信号を出力インタフェース部74からロボットRB3の伸縮装置8へ出力する。伸縮装置8は、上記伸縮制御信号を受信すると、当該伸縮制御信号によりサーボ機構またはポンプ等を動作させて構造体を伸縮させる。かくして、システムの感情は、ロボットRB3の構造体の伸縮パターン(大きさ)の変化として表現される。
(効果)
以上述べたように第4の実施形態では、ロボットRB3に伸縮可能な構造体と当該構造体を伸縮動作させる伸縮装置8を設け、センサデータと感情対応表をもとに決定された感情IDに対応する感情表現関数を感情表現関数記憶部73から読み出し、当該感情表現関数をもとに伸縮パターンデータを生成して、この伸縮パターンデータに従い上記ロボットRB3の構造体の伸縮パターン(例えば大きさ)を変化させるようにしている。
従って、ロボットRB3自体が人や動物等の生物を模倣したものでなくても、つまり手足の動きや音声等による感情表現手段を有していない場合でも、システムの感情を、ロボットRB3の構造体の伸縮パターン(例えば大きさ)の変化により表現することができる。
なお、以上の説明では、システムの感情をロボットRB3の構造体の伸縮パターン(例えば大きさ)を変化させることにより表現する場合について述べたが、第2の実施形態のようにユーザの感情をロボットRB3に設けた伸縮可能な構造体の伸縮パターンを変化させることにより表現するようにしてもよい。
また、ロボットRB3として球体を用いた場合について説明したが、楕円体や錘状体、立方体、直方体等を用いてもよく、構造体の材質や伸縮の方式、伸縮量や伸縮方向等についても適宜に設定することができる。さらに、構造体の伸縮パターンとしては、大きさに限らず色や形状等を変化させるものであってもよい。
[第5の実施形態]
この発明の第5の実施形態は、システムまたはユーザの感情を、複数台のロボットの隊形パターンを変化させることにより表現するものである。
(構成)
図18はこの発明の第5の実施形態に係るシステムの構成を示すものである。本実施形態のシステムは、ロボットRB11〜RB16と、感情決定・表現制御装置9とを備えている。
ロボットRB11〜RB16は、例えばドローンのように空中を自在に移動可能なものからなる。なお、ロボットRB11〜RB16としては、地上を自在に移動する車両タイプのものや転がるタイプまたは飛び跳ねるタイプのものであってもよい。
図19は、上記感情決定・表現制御装置9の機能構成を示すブロック図である。同図に示すように感情決定・表現制御装置9は、第2の実施形態で説明した感情決定・表現制御装置4A,4Bと同様に、感情決定装置1の機能と感情表現制御装置2の機能を1つの装置に備えたものである。なお、図19において前記図10と同一部分には同一符号を付して説明を行う。
感情決定・表現制御装置9は、例えばパーソナルコンピュータ、スマートフォンまたはタブレット型端末からなり、複数のセンサ41と、センサインタフェース部42と、制御部91と、記憶ユニット44と、通信インタフェース部45と、操作部47とを備えている。
センサ41は、マイクロフォンやカメラの他に、心電計や脈拍計、皮膚電位計、筋電計などの生体センサを備えている。マイクロフォンおよびカメラは、それぞれユーザの音声および顔の画像を検出する。生体センサ群はユーザの生体情報を計測する。操作部47は、ユーザが自身の感情に関係する操作データを入力するために使用される。
センサインタフェース部42は、上記センサ41から出力されたセンサデータを制御部91が取り扱うことが可能なデータ形式に変換する。
記憶ユニット44は、記憶媒体として例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等のメモリを使用し、その記憶領域には感情対応表記憶部14と、感情表現関数記憶部23が設けられている。
感情対応表記憶部14には感情対応表が記憶されている。感情対応表には、センサ41により検出されるユーザの状態を表す情報と、当該ユーザの状態を表す情報に対応する感情を表す情報とが、互いに関連付けられて記憶されている。
感情表現関数記憶部23には、複数種類の感情を複数台のロボットの隊形パターンを用いて表現するために予め設定された関数式が、感情IDに関連付けて記憶されている。
制御部91は、CPU(Central Processing Unit)等と呼ばれるプロセッサを有し、本実施形態に係る制御機能として、センサ/操作データ取得制御部431と、感情決定部432と、隊形制御パターンデータ生成部911と、送信制御部912とを有している。これらの制御機能は、いずれも図示しないプログラムメモリに格納されたプログラムを上記プロセッサに実行させることにより実現される。
センサ/操作データ取得制御部431は、上記センサ41から出力されるセンサデータを定期的又は任意のタイミングで上記センサインタフェース部42を介して取り込み、図示しないセンサデータ記憶部に記憶させる。またセンサ/操作データ取得制御部431は、上記操作部47によりユーザが入力した操作データを取り込む。
感情決定部432は、上記センサ/操作データ取得制御部431により取り込んだセンサデータおよび操作データからユーザの状態を表す特徴量を算出し、この算出した特徴量と感情対応表記憶部14に記憶された感情対応表のデータとに基づいて上記ユーザの状態に対応する感情を決定し、その識別情報(感情ID)を出力する。
隊形制御パターンデータ生成部911は、上記感情決定部432により決定された感情IDに対応する感情表現関数式を感情表現関数記憶部23から読み出し、この関数式に応じて上記複数台のロボットRB11〜RB16の隊形パターン(例えば相互の間隔)を変化させるための隊形制御パターンデータを生成する。
送信制御部912は、上記隊形制御パターンデータ生成部911により生成された隊形制御パターンデータを、通信インタフェース部45からロボットRB11〜RB16に向け送信する。
ロボットRB11〜RB16は、それぞれ飛行または移動するための駆動装置に加えて制御装置を備える。制御装置は、通信インタフェース部および制御部を有する。通信インタフェース部は、上記感情決定・表現制御装置9から送信された隊形制御パターンデータを受信する。制御部は、上記通信インタフェース部により受信された隊形制御パターンデータに応じて、自装置の飛行動作または移動動作を制御する。
(動作)
次に、以上のように構成されたシステムの動作を説明する。図20は感情決定・表現制御装置9その処理手順と処理内容を示すフローチャートである。
感情決定・表現制御装置9では、マイクロフォンやカメラ、生体センサ等のセンサ41により、ユーザの音声や顔の画像、さらには生体情報が定期的または任意のタイミングで計測される。感情決定・表現制御装置9は、センサ/操作データ取得制御部431の制御の下、ステップS51において、上記各センサ41により計測されたセンサデータをセンサインタフェース部42を介して取り込む。またセンサ/操作データ取得制御部431は、ユーザAが操作部47において自身の感情に対応するボタンを押下した場合にも、その操作データをステップS51により取り込む。
感情決定・表現制御装置9は、次に感情決定部432の制御の下、ステップS52において、上記取り込まれたセンサデータからユーザの状態の特徴を抽出する。例えば、カメラにより得られた画像データやマイクロフォンにより検出された音声データをそれぞれ解析することで、ユーザの顔の表情(喜んでいる、泣いている、怒っている、疲れている等)や、ユーザの発話内容(楽しい、悲しい等)を表す各特徴を抽出する。また、生体センサにより得られた心拍や血圧、皮膚電位等のセンサデータをもとに、ユーザの自律神経の働き(例えば興奮度)を示す特徴を抽出する。
感情決定部432は、続いてステップS53において、上記抽出されたユーザの状態を表す特徴と、感情対応表記憶部14に記憶されている感情対応表とをもとに、ユーザの感情を決定する。感情は、例えば第1の実施形態で述べたようにラッセルの円環モデルを用いて定義され、上記感情対応表記憶部14から上記ユーザの状態を表す特徴に対応する感情IDを読み出すことにより決定される。感情対応表は、例えば、不特定多数のユーザを対象に、あるいは特定のユーザごとに、機械学習により事前に作成されたものを用いる。
なお、ユーザが自身の感情に対応するボタンを押下した場合には、その操作データに対応付する感情IDを上記感情対応表記憶部14から読み出す。
感情決定・表現制御装置9は、次に隊形制御パターンデータ生成部911の制御の下、先ずステップS54において、感情表現関数記憶部23から上記感情IDに対応する感情表現関数を読み出す。感情表現関数記憶部23には、図4に例示したように、感情に対応付けて、エージェントとしての複数台のロボットRB11〜RB16の隊形変化(例えば相互間隔の変化)により表現するための関数式が記憶されている。隊形制御パターンデータ生成部911は、上記感情IDに対応する関数式を感情表現関数記憶部23から読み出す。
次に隊形制御パターンデータ生成部911は、上記読み出した感情表現関数に基づいて、ロボットRB11〜RB16の隊形(例えば相互間隔)を変化させるための隊形制御パターンデータを生成する。
感情決定・表現制御装置9は、送信制御部912の制御の下、ステップS55において、上記生成された隊形制御パターンデータを通信インタフェース部45から複数台のロボットRB11〜RB16に向けて送信する。
これに対し複数台のロボットRB11〜RB16は、上記感情決定・表現制御装置9から送信された隊形制御パターンデータを受信すると、この受信された隊形制御パターンデータに含まれる自ロボット宛ての制御データに基づいて、自己の飛行位置または移動位置を変化させる。
例えば、ユーザの感情が「喜び」または「わくわく」の場合に、ロボットRB11〜RB16は相互間隔を大きく変化させる。また、ユーザの感情が「恐怖」、「悲しい」の場合に、ロボットRB11〜RB16は相互間隔を小刻みに変化させる。
かくして、ユーザの感情が複数台のロボットRB11〜RB16の隊形変化により表現される。
(効果)
以上詳述したように第5の実施形態では、センサデータをもとに決定されたユーザの感情に対応する感情表現関数が感情表現関数記憶部23から読み出され、この感情表現関数をもとに隊形制御パターンデータが生成されて、当該隊形制御パターンデータに従い各ロボットRB11〜RB16の隊形が制御される。
従って、ユーザの感情を、複数台のロボットRB11〜RB16の隊形を変化させることで表現することができる。
なお、第5の実施形態では、感情決定・表現制御装置9において、ユーザの顔の表情や音声、生体情報等を表すセンサデータをもとにユーザの感情を決定し、この感情に対応する隊形制御パターンデータに従い複数台のロボットRB11〜RB16の飛行位置又は移動位置を変化させる場合について述べた。しかしそれに限らず、感情決定・表現制御装置9においてその周辺の状況に応じたロボットRB11〜RB16の感情(システムの感情)を決定し、この決定した感情をロボットRB11〜RB16の隊形の変化により表現するようにしてもよい。
また、隊形パターンの変化は、相互間隔の変化以外に、相互間隔は保持したままロボットRB11〜RB16全体が上下、左右または回転方向に移動するものであってもよく、さらにはロボットRB11〜RB16がそれぞれの位置で個別に振動または回転するものであってもよい。
[他の実施形態]
なお、この発明は上記実施形態に限定されるものではない。例えば、第4の実施形態ではロボットの構造体の伸縮パターンを変化させることにより感情を表現する場合について述べたが、ロボットの移動パターンを変化させることにより感情を表現するようにしてもよい。この場合の移動パターンは図4に示した感情表現関数を適用することができる。
また、前記各実施形態では、感情決定装置においてセンサ部から周辺の環境またはユーザの状態を表すセンサデータ、あるいは操作部によるユーザの入力データを取得し、これらのデータに基づいて周辺の状況やユーザの状態を表す特徴量を抽出してその結果をもとに感情を決定するようにしたが、予め決められたシナリオを記憶しておき、このシナリオの通りに感情を表現するようにしてもよい。この場合も、感情の表現手段としては、図形の表示パターンや光源の発光パターン、ロボットの構造体の伸縮パターン、ロボットの隊形制御パターンの変化が用いられる。
さらに、前記各実施形態では、人や動物等の生物の動きや表情、音声等を模倣しないバーチャルエージェントやロボットを例として用いたが、人や動物等の生物の動きや表情、音声等を用いた感情表現が可能なバーチャルエージェントやロボットに対して、前記各実施形態に示した感情表現手段を補助的に用いることとしてもよい。
その他、バーチャルエージェントの形状や構成、感情の種類とその決定手法、感情表現関数式の構成等についても、この発明の要旨を逸脱しない範囲で種々変形して実施可能である。
要するにこの発明は、上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。