JP2011039860A - 仮想空間を用いる会話システム、会話方法及びコンピュータプログラム - Google Patents

仮想空間を用いる会話システム、会話方法及びコンピュータプログラム Download PDF

Info

Publication number
JP2011039860A
JP2011039860A JP2009187628A JP2009187628A JP2011039860A JP 2011039860 A JP2011039860 A JP 2011039860A JP 2009187628 A JP2009187628 A JP 2009187628A JP 2009187628 A JP2009187628 A JP 2009187628A JP 2011039860 A JP2011039860 A JP 2011039860A
Authority
JP
Japan
Prior art keywords
user
counselor
avatar
virtual space
question
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009187628A
Other languages
English (en)
Inventor
Toru Hamabe
徹 濱辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nomura Research Institute Ltd
Original Assignee
Nomura Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nomura Research Institute Ltd filed Critical Nomura Research Institute Ltd
Priority to JP2009187628A priority Critical patent/JP2011039860A/ja
Publication of JP2011039860A publication Critical patent/JP2011039860A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】ユーザが仮想空間内でアバタを介して気軽に相談できるようにする。
【解決手段】ユーザアバタ310,311とカウンセラーアバタ320とが、仮想空間300に配置される。カウンセラーアバタ320は、複数のカウンセラーのうちいずれか一人により操作される。ユーザの発言及び生体情報に基づいてユーザ反応が解析され、その反応に基づいて質問が抽出され、カウンセラー端末30に提示される。カウンセラーの選択した質問は、カウンセラーアバタ320の発言となる。これにより、複数のカウンセラーのいずれがユーザの相談相手になっても、カウンセリングの質を略一定に保持することができる。
【選択図】図1

Description

本発明は、仮想空間を用いる会話システム、会話方法及びコンピュータプログラムに関する。
サーバ上に生成される仮想的な空間内にユーザを象徴するアバタを配置し、サーバに接続された各端末からの指示で各アバタを操作できるようにしたシステムは、知られている(特許文献1)。また、遠隔会議システムにおいて、各ユーザの生体情報を収集し、生体情報に基づいてユーザの状態や情況を推定することにより、ユーザ間の意思疎通を支援するシステムも知られている(特許文献2)。
特開2005−100053号公報 特開2008−306586号公報
従来技術では、仮想空間内でアバタを用いて会話できる。しかし、従来技術では、会話における相手の反応に基づいて、次の発言の選択を支援するための仕組みは設けられていない。従って、ユーザは、経験や勘等に基づいて会話を続けることになる。
例えば、商品企画会議、経営方針会議、株主や組合員等の総会等のような、サービス提供者とサービス受益者の区別の無い通常の会議であれば、議長が会議の目的に沿って進行を制御するため、いわゆる行き当たりばったりで会話を進めても特に問題はない。
しかし、例えば、ユーザの悩みを聞いて心理療法を施すカウンセリング等のように、一方のユーザがサービスを提供し、他方のユーザがそのサービスを受ける会議もある。そのようなサービス提供者とサービス受益者とが区別される会議(会話)では、複数のユーザに、均一な会話サービスを提供することが望まれる。
さらに、従来技術では、アバタの表情変化が乏しく、アバタの表情を会話に応じて自動的に変化させることができない。ユーザは、チャット欄に打ち込むメッセージ内容を工夫したり、喜怒哀楽を示す表情ボタンを適宜操作することにより、感情を表現する。従って、従来技術では、臨場感ある会話を行うのが難しいという問題もある。
本発明は、上記問題に着目してなされたもので、その目的は、仮想空間においてユーザの反応に応じたメッセージを選択して会話を行うことができる仮想空間を用いる会話システム、会話方法及びコンピュータプログラムを提供することにある。本発明の他の目的は、ユーザの反応に応じてメッセージ及びアバタ表情を選択できるようにした、仮想空間を用いる会話システム、会話方法及びコンピュータプログラムを提供することにある。
上記課題を解決するために、本発明の第1観点に従う仮想空間を用いる会話システムは、第1ユーザにより操作される第1ユーザコンピュータと第2ユーザにより操作される第2ユーザコンピュータとに共通の仮想空間を提供し、第1ユーザと第2ユーザとが仮想空間を介して会話可能な会話システムであって、第1ユーザコンピュータからの指示に応じて操作される第1ユーザアバタと、複数の第2ユーザコンピュータのうちいずれか一つの所定の第2ユーザコンピュータからの指示に応じて操作される第2ユーザアバタとが配置される仮想空間を管理する仮想空間管理部と、第1ユーザアバタの仮想空間内での発言を分析する分析部と、予め用意されている複数のメッセージの中から、分析部による分析結果に基づいて少なくとも一つ以上のメッセージを抽出する抽出部と、抽出されたメッセージを所定の第2ユーザコンピュータに提示するための提示部と、を備え、仮想空間管理部は、提示されたメッセージのうち所定の第2ユーザコンピュータにより選択される所定メッセージを、仮想空間内で第2ユーザアバタに発言させる。
このように構成される会話システムでは、第1ユーザアバタは第1ユーザにより操作され、第2ユーザアバタは複数の第2ユーザのうちいずれか一人の第2ユーザにより操作される。その第2ユーザにより操作される第2ユーザコンピュータを、所定の第2ユーザコンピュータと呼ぶ。第1ユーザアバタの会話を分析した結果に基づいて少なくとも一つ以上のメッセージが抽出され、所定の第2ユーザコンピュータに提示される。第2ユーザが提示されたメッセージの中からいずれか一つのメッセージを選択すると、その選択された所定メッセージが第2ユーザアバタによって発言される。このように、第2ユーザアバタは複数の第2ユーザにより共有されるが、第2ユーザアバタの発言は、第1ユーザアバタの発言の分析結果に応じて抽出されるメッセージの範囲内で選択される。従って、いずれの第2ユーザが第2ユーザアバタを操作している場合でも、第2ユーザアバタの発言内容をほぼ均一化させることができる。
第2観点では、第1観点において、分析部は、第1ユーザの生体情報を検知する生体情報検知部から出力される生体情報と、第1ユーザアバタの会話とを分析することにより、分析結果を出力する。
これにより、会話システムは、第1ユーザの会話及び生体情報に基づいてメッセージを抽出し、所定の第2ユーザコンピュータに提示して選択させることができる。従って、第1ユーザの状況に応じたより適切なメッセージを選択して、第2ユーザアバタに発言させることができる。
第3観点では、第1観点または第2観点のいずれかにおいて、予め用意されている複数のメッセージには、第2ユーザアバタにより表現される所定の表情がそれぞれ対応付けられており、仮想空間管理部は、所定の第2ユーザコンピュータが所定メッセージを選択した場合、または、所定メッセージを第2ユーザアバタが仮想空間内で発言する場合のいずれかまたは両方において、所定メッセージに対応付けられている所定の表情をユーザアバタにより表現させる。
これにより、第2ユーザアバタの表情を会話に応じて自動的に変化させることができ、臨場感ある会話を行うことができる。
第4観点では、第3観点において、所定の表現には、第1表情及び第2表情が含まれており、仮想空間管理部は、所定の第2ユーザコンピュータが所定メッセージを選択した場合に、所定メッセージに対応付けられている第1表情を第2ユーザアバタにより表現させ、さらに、所定メッセージを第2ユーザアバタが仮想空間内で発言する場合に、所定メッセージに対応付けられている第2表情をユーザアバタにより表現させる。
これにより、第2ユーザが所定メッセージを選択すると、第2ユーザアバタの表情は第1表情を示す。所定メッセージは、第1ユーザアバタの発言(または発言及び生体情報)の解析を契機として抽出され選択されるため、第1ユーザからは、第2ユーザアバタの示す第1表情が、第1ユーザアバタの発言に対する反応のように見える。そして、選択された所定メッセージを第2ユーザアバタが発言する場合に、第2ユーザアバタの表情は、第1表情から第2表情に変化する。従って、第2ユーザアバタの表情を変化させることができ、臨場感溢れる会話を実現できる。
第5観点では、第1観点において、第2ユーザアバタの発言と第2ユーザコンピュータに提示された各メッセージとに基づいて、所定の第2ユーザコンピュータを操作する第2ユーザを評価するための評価部をさらに備える。
所定の第2ユーザコンピュータを操作する第2ユーザは、第2ユーザコンピュータに提示されたメッセージの中から所定メッセージを選択して、第2ユーザアバタに発言させることができる。評価部は、第2ユーザアバタの発言と提示されたメッセージとの一致度に応じて、第2ユーザを評価する。例えば、第2ユーザアバタの発言が提示されたメッセージの中から選択されている場合、評価部は、発言の質の均一化に協力していると判断して、第2ユーザの評価を高くできる。これに対し、第2ユーザアバタの発言が提示されたメッセージの中に無い場合、評価部は、第2ユーザの評価を低くすることができる。
第6観点では、第2観点において、第1ユーザアバタは、第1ユーザにより操作される直接操作型第1ユーザアバタと、生体情報検知部により検知される第1ユーザの生体情報に応じて操作される間接操作型第1ユーザアバタとを備えており、第1ユーザコンピュータには、第1ユーザアバタのうち直接操作型第1ユーザアバタのみが表示され、第2ユーザコンピュータには、直接操作型第1ユーザアバタ及び間接操作型第1ユーザアバタの両方が表示される。
これにより、仮想空間には第1ユーザを象徴する異なる複数のアバタが配置される。間接操作型第1ユーザアバタは、第1ユーザの生体情報に基づいて、その表情や仕草が操作される。例えば、第1ユーザの脈拍や血圧または体温等から第1ユーザが興奮していると判断された場合、間接操作型第1ユーザアバタは、興奮した表情や仕草を示す。第1ユーザの脈拍や血圧または体温等から第1ユーザの身体活動が低下していると判断された場合、間接操作型第1ユーザアバタは、眠たそうな表情や仕草を示す。第2ユーザは、間接操作型第1ユーザアバタと直接操作型第1ユーザアバタとを見比べることにより、第1ユーザの実際の状態を推測することができる。
第7観点では、第1観点において、第1ユーザアバタは、第1ユーザの自画像または予め用意されている基本アバタのいずれかに基づいて生成され、第1ユーザの自画像に基づいて第1ユーザアバタが生成された場合には、その旨を示す識別情報が第1ユーザアバタに対応付けられる。
これにより、第2ユーザは、識別情報の有無に基づいて、第1ユーザアバタが第1ユーザの自画像に基づいて生成されたのか、または、基本アバタを利用して生成されたのかを判別することができる。
第8観点では、第1観点において、第1ユーザコンピュータに質問を表示させ、その質問に対する第1ユーザの回答に基づいて、仮想空間内での第2ユーザアバタとの会話が必要か否かを判定し、必要と判定した場合には、仮想空間で第2ユーザアバタと会話するように促すための通知を第1ユーザコンピュータに送信させる簡易判定部を備える。
これにより、アバタを介した会話が第1ユーザに必要か否かを判定して、第1ユーザに通知することができる。
本発明は、方法の発明またはコンピュータプログラムの発明として構成可能である。コンピュータプログラムは、記録媒体に固定されて流通したり、または、通信ネットワークを介して流通されたりすることができる。
また、本発明は、上述の組合せに限定されない。本願発明の特徴を、上記に明示した組合せ以外に組み合わせた場合も、本発明の範囲に含まれる。
本発明の実施形態に係る会話システムの機能構成を示す図。 会話システムのハードウェア構成を示す図。 簡易診断モードとアバタを用いる会話システムとの関係を示す図。 ユーザ管理テーブル及び診断履歴を示す図。 カウンセラー管理テーブルを示す図。 ユーザの発言及び生体情報に応じて次の質問を選択する様子を示す図。 質問管理テーブルの説明図。 簡易診断処理を示すフローチャート。 ユーザアバタ生成処理を示すフローチャート。 ユーザアバタの動作を制御する処理を示すフローチャート。 アバタを用いて会話する処理を示すフローチャート。 カウンセラーを評価する処理を示すフローチャート。
以下、図を参照しながら、本発明の実施形態を詳細に説明する。本実施形態では、以下に述べるように、複数の第2ユーザが一人の第2ユーザアバタを共有しており、各第2ユーザのうち第2ユーザアバタを操作する第2ユーザは、第1ユーザの発言等の解析結果に応じて提示されるメッセージの中から所定メッセージを選択する。提示されたメッセージの中から所定メッセージを選択する際に、第2ユーザアバタの表情が決定される。さらに、所定メッセージを仮想空間内で第2ユーザアバタが発言する際に、第2ユーザアバタの表情は再び決定される。これにより、第1ユーザの反応に適した会話を、仮想空間内で行うことができる。本実施形態では、会話システムを、カウンセラー等がユーザ(相談者)の心の悩み等を聞いて助言等を与えるカウンセリングシステムに用いる場合を例に挙げて説明する。
図1〜図12に基づいて第1実施例を説明する。図1は、本実施例に係る会話システムとしてのカウンセリングシステムの機能構成を示す。本システムは、例えば、管理サーバ10と、ユーザ端末20と、複数のカウンセラー端末30とを備えている。それら管理サーバ10及び各端末20,30のハードウェア構成は図2に示されている。
図2を参照してハードウェア構成を先に説明する。管理サーバ10は、例えば、マイクロプロセッサ11と、メモリ12と、情報入力装置13と、情報出力装置14と、通信インターフェース15とを備える。図中では、マイクロプロセッサをCPUと、インターフェースをI/Fと、略記する。
メモリ12は、例えば、半導体メモリやハードディスク等の記憶装置として構成されており、所定のプログラムや管理データ等が記憶されている。マイクロプロセッサ11は、メモリ12に記憶されたプログラムを読み込んで実行することにより、後述の各機能を実現する。
情報入力装置13は、管理サーバ10に情報を入力する装置である。情報入力装置13としては、例えば、キーボードスイッチ、マウス等のポインティングデバイス、ペン先や指先等の動きを検出するタッチパネル、マイクロフォン等を挙げることができる。情報出力装置14は、管理サーバ10から情報を出力させる装置である。情報出力装置14としては、例えば、ディスプレイ装置やスピーカーを挙げることができる。なお、メンテナンスの容易のために、管理サーバ10は、情報入力装置13及び情報出力装置14を備えるのが好ましいが、必ずしも備えている必要はない。
通信インターフェース15は、例えばインターネットのような通信ネットワーク60を介して、ユーザ端末20及び各カウンセラー端末30に接続されており、各端末20,30との間で双方向の通信を行う。
「第1ユーザコンピュータ」としてのユーザ端末20は、「第1ユーザ」としてのユーザにより操作される。本実施例では、ユーザは相談者となり、アバタを介して、カウンセラーに相談する。ユーザ端末20は、例えば、マイクロプロセッサ21と、メモリ22と、情報入力装置23と、情報出力装置24と、通信インターフェース25とを備える。それら各構成21〜25は、管理サーバ10について述べた構成11〜15と同様であるため、それ以上の説明を省略する。
「第2ユーザコンピュータ」としての各カウンセラー端末30は、「第2ユーザ」としての各カウンセラーにより操作される。後述のように、各カウンセラーは、カウンセラーアバタ320を共有しており、いずれか一人のカウンセラーがカウンセラーアバタ320を操作できる。各カウンセラー端末30も、前記同様に、例えば、マイクロプロセッサ31と、メモリ32と、情報入力装置33と、情報出力装置34と、通信インターフェース35とを備える。それら各構成31〜35は、管理サーバ10について述べた構成11〜15と同様のため、それ以上の説明を省略する。
図1に戻る。最初に管理サーバ10の機能構成を説明する。管理サーバ10は、例えば、仮想空間制御部100と、仮想空間提供部110と、生体情報反映部120と、簡易診断モード制御部130と、ユーザアバタ生成部140と、ログ管理部150と、反応解析部160と、質問抽出部170と、質問提示部180と、質問データベースT30等の管理用データ(T10〜T30)を備える。
仮想空間制御部100は、仮想空間300の構成等を制御するものであり、仮想空間提供部110と共に「仮想空間管理部」を構成する。仮想空間提供部110は、各端末20,30に仮想空間300を提供する。仮想空間提供部110は、例えば、各端末20,30にインストールされているクライアントプログラム40を用いて、仮想空間300を提供する。あるいは、いわゆるウェブブラウザ内に仮想空間300を表示させることにより、提供することもできる。
生体情報反映部120は、ユーザ端末20に接続された生体情報検知部50から送信される生体情報に基づいて、仮想空間300内のユーザアバタ311を制御する。例えば、生体情報反映部120は、ユーザの生体情報に基づいてユーザの気分(興奮している、眠たそうにしている等)を判別し、その判別結果に応じてユーザアバタ311の表情や動作を制御する。生体情報検知部50の例は図3と共に後述する。
簡易診断モード制御部130は、「簡易判定部」に該当する。簡易診断モード制御部130は、後述のように、ユーザに簡易診断を提供する。簡易診断モード制御部130は、簡易診断の結果、カウンセラーとの対話が必要であると判定すると、ユーザに、仮想空間300でカウンセリングを受けるように推奨する。
ユーザアバタ生成部140は、ユーザを象徴するユーザアバタ310を生成する。ユーザアバタ310は、ユーザが管理サーバ10にアップロードする自画像に基づいて生成することができる。または、ユーザは、管理サーバ10内に予め用意されている基本アバタをそのままで、あるいは加工して、ユーザアバタを生成することができる。
ログ管理部150は、例えば、仮想空間300内の会話やアバタの挙動及びユーザの生体情報等をログとして収集し、保管することができる。ログ管理部150は、アバタの行動履歴等を管理するための履歴管理部と呼ぶことができる。
「分析部」としての反応解析部160は、ユーザの発言及びユーザの生体情報に基づいて、ユーザの反応を解析する。「抽出部」としての質問抽出部170は、ユーザの反応結果に基づいて質問管理テーブルT30を検索し、ユーザの反応に対応する少なくとも一つ以上の質問を抽出する。
「提示部」としての質問提示部189は、抽出された質問を各カウンセラー端末30のうち仮想空間300内のカウンセラーアバタ320を操作しているカウンセラー端末30に送信し、表示させる。なお、スーパーバイザーが、カウンセラーアバタ320を操作するカウンセラーをリアルタイムで監視しているような場合には、抽出された質問をスーパーバイザーの使用する端末に送信することもできる。
仮想空間300は、仮想的に構築される2次元または3次元の空間であり、ユーザアバタ310,311と、カウンセラーアバタ320とが配置される。図1では省略しているが、仮想空間300には、例えば、壁、窓、ドア、机、椅子、花瓶、花、本棚等の各種オブジェクトを配置することができる。
ユーザには、複数のユーザアバタ310,311が対応付けられる。ユーザアバタ310,311は、「第1ユーザアバタ」に該当する。一方のユーザアバタ310は、「直接操作型第1ユーザアバタ」に該当し、その挙動や表情等はユーザによって直接操作されるようになっている。
他方のユーザアバタ311は、「間接操作型第1ユーザアバタ」に該当し、表情や挙動をユーザが直接操作できず、ユーザの生体情報の解析結果に基づいて操作される。例えば、ユーザの血圧や体温が低い場合は、ユーザアバタ311の顔色を悪くしたり、ユーザの脈拍が速い場合は、ユーザアバタ311の肩を上下動させたりする。
一方のユーザアバタ310は、ユーザが直接操作するため、ユーザ端末20の画面に表示される。これに対し、他方のユーザアバタ311は、ユーザの意思と無関係にユーザの生体情報に応じて操作され、ユーザ端末20の画面に表示されない。ユーザは、自分の生体情報が反映されるユーザアバタ311の存在を認識せずに、仮想空間300内で会話することができる。
ユーザアバタ310,311がユーザの自画像に基づいて生成される場合、ユーザアバタ310,311には、識別マークMが対応付けられて表示される。識別マークMは、ユーザアバタ310,311がユーザの自画像に基づいて生成されていることを示す。
「第2ユーザアバタ」としてのカウンセラーアバタ320は、複数のカウンセラーC1〜Cnを代表している。換言すれば、一人のカウンセラーアバタ320を、複数のカウンセラーC1〜Cnが共有しており、いずれか一人のカウンセラーのみがカウンセラーアバタ320を操作できる。
カウンセラーアバタ320を操作するカウンセラー端末30(所定の第2ユーザコンピュータに該当する)の画面には、各ユーザアバタ310,311とカウンセラーアバタ320とが表示される。
仮想空間300には、他のアバタ330を登場させることもできる。他のアバタ330は、カウンセラーを監督するスーパーバイザーにより操作される。スーパーバイザーにより操作されるアバタ330は、透明なアバタとして生成され、ユーザ端末20及びカウンセラー端末30のいずれにも表示されない。スーパーバイザーは、図外の端末を用いてアバタ330を操作し、仮想空間300内の会話をリアルタイムで確認できる。
図3は、簡易診断モードとアバタを用いるカウンセリングシステムとの関係を模式的に示す説明図である。本実施例では、コンピュータによる簡易診断を先に行い、必要がある場合に、仮想空間でのカウンセリングをユーザに推薦する。
先に、生体情報検知部50の例を説明する。生体情報検知部50としては、例えば、マウス23(1)に設けられた血圧センサ51,体温センサ52,脈拍センサ53やカメラ23(2)等を挙げることができる。カメラ23(2)により撮影されるユーザ画像に基づいて、例えば、ユーザの顔色や視線の方向、表情等を生体情報として使用できる。このほかに、例えば、脳波センサを用いる構成でもよい。
簡易診断モード制御部130は、管理サーバ10にアクセスしたユーザ端末20に、簡易診断モード131を提供する。簡易診断モード131の有する質問部132は、ユーザに質問票1321を提示して回答を求める。質問票1321には、複数の質問が記載されている。質問票1321には、選択式で回答する質問及び/または自由に回答する質問が含まれる。
回答解析部133は、質問票1321への回答結果をユーザ端末20から受取り、その内容を解析する。例えば、ユーザが自由に入力するメッセージをテキスト解析することにより、ユーザが積極的な気分であるか、それとも消極的な気分であるかを推定できる。また、選択式の質問の場合、積極的な気分を示す選択肢が選ばれる頻度等に基づいて、ユーザの気分を推定できる。
一方、生体情報解析部134は、各センサ51〜53及びカメラ23(2)からの情報を解析する。判定部135は、質問票1321への回答内容の解析結果と生体情報の解析結果とを総合的に判断し、ユーザに仮想空間300内でのカウンセリングを勧めるか否かを判断する。カウンセリングが必要であると判定した場合、判定部135は、ユーザ端末20の画面に、例えば、「仮想空間で気軽なカウンセリングを受けてみませんか。」等の推薦メッセージを表示させる。
本実施例において、仮想空間300でのカウンセリングは、対話型診断モード200と呼ばれる。まず最初に、ユーザは、ユーザアバタ選択部210を用いてユーザアバタ310を選択する。ユーザは、自画像に基づいたアバタを選択することもできるし、予め用意されている基本アバタを選択することもできる。
さらに、ユーザは、カウンセラーアバタ選択部220を用いてカウンセラーアバタ320を選択する。ユーザは、予め用意されている複数のカウンセラーアバタ320の中から好みのカウンセラーアバタ320をいずれか一人選択する。
但し、上述のように、カウンセラーアバタ320は、特定のカウンセラーのみに対応づけられているのではなく、複数のカウンセラーによって共有されている。即ち、各カウンセラーは、各カウンセラーアバタ320をそれぞれ操作可能である。従って、ユーザの選択したカウンセラーアバタ320に背後に存在するカウンセラーは、必ずしもユーザの好みのカウンセラーではない可能性がある。
しかし、本実施例では、ユーザとカウンセラーとが実際に対面して会話するのではなく、両者がアバタを介して仮想空間300内で会話する。さらに、本実施例では、カウンセラーは、ユーザの反応に応じて自動的に抽出される質問群の中から質問を選択することができる。従って、ユーザの選択したカウンセラーアバタ320をどのカウンセラーが操作している場合でも、ほぼ均質のサービスを提供できる。
さて、ユーザアバタ310及びカウンセラーアバタ320が選択されると、仮想空間内でカウンセリングが行われる。その様子はログ管理部150により記録される。反応解析部160は、会話内容や生体情報に基づいてユーザの反応を解析し、質問抽出部170は、ユーザの反応に適した質問を抽出する。質問提示部180は、抽出された質問をカウンセラー端末30の画面に表示させる。
図4は、ユーザを管理するためのテーブルT10を示す。ユーザ管理テーブルT10は、例えば、ユーザ識別情報C10と、年齢C11と、パスワードC12と、ユーザアバタ識別情報C13と、アバタ種別C14と、カウンセラーアバタ識別情報C15と、診断履歴C16とを備える。図中では、識別情報をIDと略記する。
ユーザ識別情報C10は、各ユーザを識別するための情報である。年齢C11はユーザの年齢を示す。ここでは、紙面の都合上、ユーザの個人情報として年齢のみを明示するが、年齢に限らず、例えば、性別、住所、氏名、職業、生年月日、家族構成、趣味等を管理してもよい。パスワードC12は管理サーバ10にログインするために使用するパスワードを示す。パスワードに代えて、またはパスワードと共に、ユーザの指紋パターン、掌紋パターン、虹彩パターン等を用いる構成でもよい。
ユーザアバタ識別情報C13は、ユーザアバタ310を特定する情報である。アバタ種別C14は、ユーザアバタがユーザの自画像に基づくものであるか、それとも基本アバタに基づくものであるかを区別する情報である。カウンセラーアバタ識別情報C15は、そのユーザが選択したカウンセラーアバタ320を特定するための情報である。診断履歴C16は、そのユーザの受けたカウンセリングの履歴を示す情報である。
診断履歴C16の詳細を図4の下側に示す。診断履歴C16は、例えば、診断識別情報C160と、日時C161と、カウンセラーIDC162と、質問IDリストC163と、ログ識別情報C164とを含んでいる。
診断識別情報C160は、各回のカウンセリングを識別する情報である。日時C161は、カウンセリングの行われた日時を示す。カウンセラー識別情報C162は、カウンセリングを行ったカウンセラーを識別する情報を示す。質問IDリストC163は、そのカウンセリングにおいて発せられた質問群を特定するためのリストである。ログ識別情報C164は、そのカウンセリングのログを特定するための情報である。
このように、ユーザは、何回でも仮想空間300内でカウンセリングを受けることができ、各カウンセリングの内容(どのカウンセラーがどのような質問をしたか等)は、記録され、保存される。
図5は、カウンセラーを管理するためのテーブルT20を示す。カウンセラー管理テーブルT20は、例えば、カウンセラー識別情報C20と、カウンセラー氏名C21と、ユーザIDリストC22と、評価C23とを備える。
カウンセラー識別情報C20は、各カウンセラーを識別する情報である。氏名C21は、カウンセラー氏名を示す。氏名以外に、例えば、カウンセラーの年齢、性別、住所等を管理してもよい。ユーザIDリストC22は、そのカウンセラーが担当したユーザの識別情報のリストである。評価C23は、スーパーバイザーによるカウンセラーの評価を記録している。
図6は、質問に対するユーザの回答及びユーザの生体反応に基づいて、次の質問のリストを提示する概念を示す説明図である。図中の横軸は、ユーザの発言をテキスト解析した結果であり、右側にいくほどユーザの気分が良好であることを示し、左側にいくほどユーザの気分が悪いことを示す。図中の縦軸は、ユーザの生体情報を分析した結果であり、上側にいくほどユーザの体調が良いことを示し、下側にいくほどユーザの体調が悪いことを示す。
このように、発言内容と生体情報との2つの軸によってユーザの状態を4つのグループに分けて考えることができる。第1グループは、テキスト分析の結果及び生体情報の分析結果がともに良好なグループである。第2グループは、テキスト分析の結果は良いが、生体情報の分析結果が悪いグループである。第3グループは、テキスト分析の結果及び生体情報の分析結果の両方が悪いグループである。第4グループは、テキスト分析の結果は悪いが、生体情報の分析結果は良かったグループである。
図7は、質問管理テーブルT30を示す。管理サーバ10は、予め複数の質問を記憶している。質問管理テーブルT30は、例えば、質問識別情報C30と、直前の質問識別情報C31と、判定グループC32と、優先順位C33と、質問文C34と、回答受領時の表情C35と、質問時の表情C36とを備えている。
質問識別情報C30は、各質問を識別するための情報である。直前の質問識別情報31は、その質問の直前に発せられるべき質問を特定する情報である。判定グループC32は、その質問の属するグループ(上記第1〜第4グループのいずれか)を特定する。優先順位C33は、その質問の優先順位を示す。優先順位の高い質問ほどリストの上部に表示される。質問文C34は、質問内容を示す。本実施例では、テキストメッセージの形式で質問文を管理する。質問文はテキストチャットとして仮想空間300内で発言される。これに代えて、いわゆる読み上げソフトウェア(テキストデータを音声データに変換するソフトウェア)を用い、音声チャットとして発言させる構成でもよい。さらに、質問文を最初から音声データとして管理する構成でもよい。
「第1表情」としての回答受領時の表情C35は、ユーザからの回答を受領したときのカウンセラーアバタ320の表情である。カウンセラー端末30に提示される質問群の中からいずれか一つの質問が選択されたときに、カウンセラーアバタ320の表情は回答受領時の表情に設定される。または、ユーザの反応が解析された時点で、カウンセラーアバタ320の表情を回答受領時の表情に変化させる構成でもよい。
「第2表情」としての質問時の表情C36は、カウンセラーがユーザに質問する場合における、カウンセラーアバタ320の表情である。回答受領時の表情と質問時の表情とは同一の場合もあるし、異なる場合もある。
このように、ユーザの回答及び生体情報を分析することにより、ユーザ反応は第1〜第4グループのいずれかに判別される。そして、ユーザ反応の属するグループに対応付けられている質問が質問管理テーブルT30から抽出され、優先順位の順番に並べられてユーザ端末20に提示される。ユーザがいずれか一つの質問を選択すると、その質問に対応付けられている回答受領時の表情C35がカウンセラーアバタ320に反映される。そして、その選択された質問がカウンセラーアバタ320から発せられると、カウンセラーアバタ320の表情は質問時の表情C36に変化する。
次に、図8〜図12に基づいて本実施例の各処理の動作を説明する。まず、図8は、簡易診断処理を示すフローチャートである。管理サーバ10は、ユーザ端末20から入力されるユーザID及びパスワードに基づきユーザ認証を行う(S10)。ユーザ認証が成功すると、ユーザ端末20に接続されている生体情報検知部50からの情報収集を開始する(S11)。
管理サーバ10は、ユーザ端末20に質問票1321を送信し、ユーザ端末20の画面に表示させる(S12)。管理サーバ10は、質問票1321に対するユーザの回答を受領し記憶する(S13)。
管理サーバ10は、ユーザの生体情報を解析し(S14)、さらに、ユーザの回答を解析する(S15)。管理サーバ10は、ユーザの回答の分析結果と生体情報の分析結果とに基づいて、ユーザに仮想空間300でのカウンセリングを勧めるか否かを判定する(S16)。
カウンセリングが必要である(対話型診断が必要である)と判定された場合(S17:YES)、管理サーバ10は、カウンセリングの受診を勧めるメッセージをユーザ端末20に送信する(S18)。
図9は、ユーザアバタを生成する処理を示すフローチャートである。管理サーバ10は、ユーザが自画像を使用するか否かを判定する(S20)。ユーザが自画像の使用を希望した場合(S20:YES)、管理サーバ10はユーザ端末20からユーザの画像を取得し(S211)、そのユーザの自画像に基づいてユーザアバタを作成する(S22)。例えば、ユーザの顔の画像を画像処理して輪郭や特徴を解析し、ユーザの顔に似せたアバタを作成する。
ユーザが自画像を利用しない場合(S20:NO)、管理サーバ10が予め用意している基本アバタの中からユーザアバタが選択される(S23)。
ユーザは、例えば、服装や持ち物、アクセサリ等について、ユーザアバタを修正することができる(S24)。管理サーバ10は、作成されたユーザアバタに、そのアバタがユーザの自画像に基づくものであるか否かを対応付けて保存する(S25)。
図10は、ユーザがユーザ端末20を介してユーザアバタを操作する処理を示すフローチャートである。図10中では、直接操作型のユーザアバタ310を「ユーザアバタ1」と、間接操作型のユーザアバタ311を「ユーザアバタ2」と示す。
管理サーバ10は、ユーザにより直接操作されるユーザアバタ310を仮想空間300に表示させると共に(S30)、ユーザの生体情報に基づいて操作されるユーザアバタ311を仮想空間300に表示させる(S31)。各ユーザアバタ310,311は、隣接して配置させることができる。さらに、各ユーザアバタ310,311を視覚的に区別するために、生体情報が反映されるユーザアバタ311を半透明に表示させる構成としてもよい。
管理サーバ10は、ユーザ端末20からの指示に応じて、ユーザアバタ310を制御する(S32)。アバタの制御とは、例えば、アバタの表情や動作、服装等を制御することを意味する。さらに、管理サーバ10は、ユーザ端末20から入力されるメッセージを仮想空間300内のチャット欄に表示させる(S33)。音声チャットの場合は、ユーザ端末20から入力される音声データをカウンセラー端末30に送信して出力させる。
さらに、管理サーバ10は、ユーザ端末20から入力されるユーザの生体情報に基づいて、ユーザアバタ311を制御する(S34)。ユーザアバタ311は、ユーザの生体情報をカウンセラーが容易に把握するために使用される。生体情報を数値化またはグラフ化して表示させることも可能であるが、アバタの表情や動作として表現する方がカウンセラーにとって理解し易く、判断ミスも生じにくい。なお、生体情報が反映されるユーザアバタ311に代えて、またはユーザアバタ311と共に、生体情報の数値化表示やグラフ化表示を用いることもできる。
図11は、ユーザとカウンセラーとがアバタを介してカウンセリングを行う処理を示すフローチャートである。ユーザは、ユーザ端末20を介して管理サーバ10にアクセスし、ユーザID及びパスワードを入力して仮想空間300にログインする(S40)。
ユーザが所望のカウンセラーアバタ320を選択すると(S41)、管理サーバ10は、各カウンセラー端末30に通知する(S42)。その通知は、例えば、仮想空間300内での伝言、または、カウンセラー端末30への電子メール、または、音声通信の形態で行われる。その通知には、カウンセリングを希望するユーザが出現したことを示すメッセージと、ユーザIDと前回担当したカウンセラーのIDとを含めることができる。
ユーザは、カウンセラーアバタ320を選択した後、仮想空間300内の相談室に移動する(S44)。仮想空間300には、カウンセリングを行うための相談室以外に、例えば、レクリエーション室や学習室等を設けることもできる。
カウンセラーは、管理サーバ20からカウンセラー端末30に送信される通知により、カウンセリング希望のユーザの存在を知ると、仮想空間300内の相談室に移動する(S45)。前回の担当者が待機している場合、前回担当したカウンセラーが今回も引き続いて担当することができる。または、前回の担当者が待機しているか否かを問わずに、別のカウンセラーが担当することもできる。
カウンセラーは、カウンセラーアバタ320を介して、質問する(S46)。カウンセラーの入力するメッセージは、管理サーバ10に送信され、仮想空間300に反映される(S47)。仮想空間300に反映されるとは、カウンセラーの入力したメッセージを、カウンセラーアバタ320の発言として表示させることを意味する。最新の仮想空間300の状態はユーザ端末20に送信され、ユーザ端末20の画面にカウンセラーアバタ320からの質問が表示される。
ユーザが、質問に対する回答をユーザ端末20に入力すると(S48)、その回答は管理サーバ10に送信されて、仮想空間300に反映される(S49)。即ち、ユーザの回答は、ユーザアバタ310の発言として仮想空間300に表示される。
一方、ユーザ端末20に接続されている生体情報検知部50からの生体情報に基づいて(S50)、生体情報に関連づけられているユーザアバタ311が制御され、仮想空間300に反映される(S51)。
管理サーバ10は、ユーザの回答及び生体情報に基づいて、質問に対するユーザの反応を解析し(S52)、ユーザの反応に適した質問を抽出する(S53)。管理サーバ10は、抽出された質問をカウンセラー端末30に送信して提示する(S54)。
カウンセラーは、提示された質問の中からいずれか一つの質問を選択する(S55)。その選択結果はカウンセラー端末30から管理サーバ10に送信される。管理サーバ10は、選択された質問文をカウンセラーアバタ320の発言として表示させ、さらに、カウンセラーアバタ320の表情を変化させる(S56)。
ここで、図7と共に述べたように、カウンセラーにより選択される質問文には、予め複数のアバタ表情C35,C36が対応付けられている。各アバタ表情は、予め決められたタイミングで、カウンセラーアバタ320に設定される。
本実施例では、カウンセラーが提示された質問の中からいずれか一つを選択した場合に、回答受領時の表情C35がカウンセラーアバタ320に設定される。そして、選択された質問をカウンセラーアバタ320が発言する際に、質問時の表情C36がカウンセラーアバタ320に設定される。
他の例として、例えば、ユーザ反応の解析が終了した時点(S52)で、回答受領時の表情C35をカウンセラーアバタ320に設定することができる。そして、提示された質問を選択する時点、または、選択された質問がカウンセラーアバタ320から発言される時点のいずれかで、質問時の表情C36をカウンセラーアバタ320に設定する構成としてもよい。
いずれにしても、ユーザアバタ310との会話に合わせて、カウンセラーアバタ320の表情を複数のタイミングで変化させることができるため、従来よりも臨場感のある会話を行うことができる。
図12は、カウンセラーを評価する処理を示すフローチャートである。管理サーバ10は、カウンセリング時のログを取得し(S60)、カウンセラーに提示された質問とカウンセラーが実際に発した質問との一致度を算出する(S61)。例えば、カウンセラーからの質問の全てが、提示された質問の中に存在する場合、一致度は100%となる。管理サーバ10は、算出された一致度に基づいて、カウンセラーを評価する(S62)。その評価の値は、カウンセラー管理テーブルT20に記録される。評価は、百分率で示してもよいし、ランク毎に分けて表示してもよい。
このように構成される本実施例によれば、カウンセラーアバタ320は複数のカウンセラーのうちいずれか一人のカウンセラーにより操作され、カウンセラーは、管理サーバ10から提示されたメッセージの中からいずれか一つのメッセージを選択して、カウンセラーアバタ320に発言させる。従って、経験や力量に差のある複数のカウンセラーがカウンセラーアバタ320を共有している場合でも、カウンセリングの品質を略一定に保つことができる。また、ユーザからは、実際に担当しているカウンセラーが誰であるか不明なため、比較的少数のカウンセラーで比較的多数のユーザに対応でき、システムの運用効率を上げることができる。
本実施例では、アバタを介して仮想空間内でカウンセリングを行うため、ユーザの心理的抵抗を和らげることができる。従って、ユーザは、アバタを介して気軽にカウンセラーに相談することができ、ユーザのカウンセリング受診機会を高めることができる。
本実施例では、ユーザの発言及び生体情報に応じた質問を抽出し、カウンセラーに提示して選択させるため、ユーザの状況により適した質問を投げかけることができる。
本実施例では、用意されている各質問に複数の表情を予め対応付けておき、それら用意された表情を所定のタイミングでカウンセラーアバタ320に設定するため、カウンセラーアバタ320の表情を比較的細かく変化させて臨場感を増すことができる。
本実施例では、カウンセラーに提示された質問とカウンセラーが発した質問とに基づいてカウンセラーを評価するため、カウンセラーの質を管理することができ、システムの信頼性を高めることができる。
本実施例では、ユーザアバタとして、ユーザが直接操作できるユーザアバタ310と、ユーザの生体情報に基づいて操作されるユーザアバタ311とを表示させるため、カウンセラーは、ユーザアバタ311を見ることにより、ユーザの体調等を直感的に理解することができる。
本実施例では、ユーザは、自画像を利用してユーザアバタを生成でき、かつ、自画像に由来するアバタである旨を表示させることができる。従って、カウンセラーは、自画像を用いているか否かを、ユーザの心理状態を把握するための一材料として利用できる。
なお、本発明は、上述した実施例に限定されない。当業者であれば、本発明の範囲内で、種々の追加や変更等を行うことができる。いわゆる当業者であれば、図示されたステップの順番を変更したり、新たなステップを追加等することができる。
10:管理サーバ、20:ユーザ端末、30:カウンセラー端末、40:クライアントソフトウェア、50:生体情報検知部、100:仮想空間制御部、110:仮想空間提供部、120:生体情報反映部、130:簡易診断モード制御部、131:簡易診断モード、140:ユーザアバタ生成部、150:ログ管理部、160:反応解析部、170:質問抽出部、180:質問提示部、200:対話型診断モード、300:仮想空間、310,311:ユーザアバタ、320:カウンセラーアバタ、330:スーパーバイザーアバタ、T10:ユーザ管理テーブル、T20:カウンセラー管理テーブル、T30:質問管理テーブル

Claims (10)

  1. ユーザにより操作されるユーザ端末20とカウンセラーにより操作されるカウンセラー端末30とに共通の仮想空間を提供し、前記ユーザと前記カウンセラーとが前記仮想空間を介して会話可能な会話システムであって、
    前記ユーザ端末20からの指示に応じて操作されるユーザアバタと、複数の前記カウンセラー端末30のうちいずれか一つの所定のカウンセラー端末30からの指示に応じて操作されるカウンセラーアバタとが配置される仮想空間を管理する仮想空間管理部と、
    前記ユーザアバタの前記仮想空間内での発言を分析する分析部と、
    予め用意されている複数の質問の中から、前記分析部による分析結果に基づいて少なくとも一つ以上の質問を抽出する抽出部と、
    抽出された前記質問を前記所定のカウンセラー端末30に提示するための提示部と、
    を備え、
    前記仮想空間管理部は、
    前記提示された質問のうち前記所定のカウンセラー端末30により選択される所定質問を、前記仮想空間内で前記カウンセラーアバタに発言させることを特徴とする、仮想空間を用いる会話システム。
  2. 前記分析部は、前記ユーザの生体情報を検知する生体情報検知部から出力される生体情報と、前記ユーザアバタの前記会話とを分析することにより、前記分析結果を出力する、請求項1に記載の仮想空間を用いる会話システム。
  3. 前記予め用意されている複数の質問には、前記カウンセラーアバタにより表現される所定の表情がそれぞれ対応付けられており、
    前記仮想空間管理部は、前記所定のカウンセラー端末30が前記所定質問を選択した場合、または、前記所定質問を前記カウンセラーアバタが前記仮想空間内で発言する場合のいずれかまたは両方において、前記所定質問に対応付けられている前記所定の表情を前記ユーザアバタにより表現させる、請求項1または請求項2のいずれかに記載の仮想空間を用いる会話システム。
  4. 前記所定の表現には、第1表情及び第2表情が含まれており、
    前記仮想空間管理部は、前記所定のカウンセラー端末30が前記所定質問を選択した場合に、前記所定質問に対応付けられている前記第1表情を前記カウンセラーアバタにより表現させ、さらに、前記所定質問を前記カウンセラーアバタが前記仮想空間内で発言する場合に、前記所定質問に対応付けられている前記第2表情を前記ユーザアバタにより表現させる、請求項3に記載の仮想空間を用いる会話システム。
  5. 前記カウンセラーアバタの発言と前記カウンセラー端末30に提示された前記各質問とに基づいて、前記所定のカウンセラー端末30を操作する前記カウンセラーを評価するための評価部をさらに備える、請求項1に記載の仮想空間を用いる会話システム。
  6. 前記ユーザアバタは、前記ユーザにより操作される直接操作型ユーザアバタと、前記生体情報検知部により検知される前記ユーザの生体情報に応じて操作される間接操作型ユーザアバタとを備えており、
    前記ユーザ端末20には、前記ユーザアバタのうち前記直接操作型ユーザアバタのみが表示され、
    前記カウンセラー端末30には、前記直接操作型ユーザアバタ及び前記間接操作型ユーザアバタの両方が表示される、
    請求項2に記載の仮想空間を用いる会話システム。
  7. 前記ユーザアバタは、前記ユーザの自画像または予め用意されている基本アバタのいずれかに基づいて生成され、前記ユーザの自画像に基づいて前記ユーザアバタが生成された場合には、その旨を示す識別情報が前記ユーザアバタに対応付けられる、請求項1に記載の仮想空間を用いる会話システム。
  8. 前記ユーザ端末20に質問を表示させ、その質問に対する前記ユーザの回答に基づいて、前記仮想空間内での前記カウンセラーアバタとの会話が必要か否かを判定し、必要と判定した場合には、前記仮想空間で前記カウンセラーアバタと会話するように促すための通知を前記ユーザ端末20に送信させる簡易判定部をさらに備える、請求項1に記載の仮想空間を用いる会話システム。
  9. ユーザにより操作されるユーザ端末20とカウンセラーにより操作されるカウンセラー端末30とに共通の仮想空間を提供し、前記ユーザと前記カウンセラーとが前記仮想空間を介して会話するための方法であって、
    前記ユーザ端末20からの指示に応じて操作されるユーザアバタと、複数の前記カウンセラー端末30のうちいずれか一つの所定のカウンセラー端末30からの指示に応じて操作されるカウンセラーアバタとが配置される仮想空間を生成し、
    前記ユーザアバタの前記仮想空間内での発言を分析し、
    予め用意されている複数の質問の中から、前記分析部による分析結果に基づいて少なくとも一つ以上の質問を抽出し、
    抽出された前記質問を前記所定のカウンセラー端末30に提示し、
    前記提示された質問のうち前記所定のカウンセラー端末30により選択される所定質問を、前記仮想空間内で前記カウンセラーアバタに発言させることを特徴とする、仮想空間を用いる会話方法。
  10. ユーザにより操作されるユーザ端末20とカウンセラーにより操作されるカウンセラー端末30とに接続される第3コンピュータを、前記ユーザ端末20及び前記カウンセラー端末30に共通の仮想空間を提供し、前記ユーザと前記カウンセラーとが前記仮想空間を介して会話するための仮想空間管理コンピュータとして機能させるためのコンピュータプログラムであって、
    前記第3コンピュータに、
    前記ユーザ端末20からの指示に応じて操作されるユーザアバタと、複数の前記カウンセラー端末30のうちいずれか一つの所定のカウンセラー端末30からの指示に応じて操作されるカウンセラーアバタとが配置される仮想空間を管理するための仮想空間管理機能と、
    前記ユーザアバタの前記仮想空間内での発言を分析する分析機能と、
    予め用意されている複数の質問の中から、前記分析機能による分析結果に基づいて少なくとも一つ以上の質問を抽出する抽出機能と、
    抽出された前記質問を前記所定のカウンセラー端末30に提示するための提示機能と、
    を実現させるコンピュータプログラム。
JP2009187628A 2009-08-13 2009-08-13 仮想空間を用いる会話システム、会話方法及びコンピュータプログラム Pending JP2011039860A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009187628A JP2011039860A (ja) 2009-08-13 2009-08-13 仮想空間を用いる会話システム、会話方法及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009187628A JP2011039860A (ja) 2009-08-13 2009-08-13 仮想空間を用いる会話システム、会話方法及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2011039860A true JP2011039860A (ja) 2011-02-24

Family

ID=43767552

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009187628A Pending JP2011039860A (ja) 2009-08-13 2009-08-13 仮想空間を用いる会話システム、会話方法及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP2011039860A (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014085913A (ja) * 2012-10-25 2014-05-12 Ntt Communications Corp 認証装置、認証方法及び認証プログラム
JP2015032084A (ja) * 2013-08-01 2015-02-16 任天堂株式会社 情報処理装置、情報処理システム、プログラム及び情報処理方法
JP6082832B1 (ja) * 2016-04-05 2017-02-15 株式会社アクアティカ メッセージ管理装置及びメッセージ管理方法
JP2017146733A (ja) * 2016-02-16 2017-08-24 株式会社リコー 抽出支援システム、抽出支援サーバ、抽出支援プログラム及び抽出支援方法
KR20170121718A (ko) * 2016-04-25 2017-11-02 장부다 Vr 공간에서 사용자 인터페이스를 제공하는 방법, 디바이스 및 기록매체
WO2017204233A1 (ja) * 2016-05-23 2017-11-30 Necソリューションイノベータ株式会社 健康状態予測装置、健康状態予測方法、及びコンピュータ読み取り可能な記録媒体
JP2018073204A (ja) * 2016-10-31 2018-05-10 富士通株式会社 アクション指示プログラム、アクション指示方法及び画像生成装置
KR20180066765A (ko) * 2016-12-09 2018-06-19 주식회사 옴니씨앤에스 가상 현실을 이용하여 정신 건강을 관리하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
WO2018135343A1 (ja) * 2017-01-19 2018-07-26 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2019191939A (ja) * 2018-04-25 2019-10-31 メドケア株式会社 指導支援システム、指導支援方法及び指導支援サーバ
WO2021140800A1 (ja) * 2020-01-10 2021-07-15 住友電気工業株式会社 コミュニケーション支援システムおよびコミュニケーション支援プログラム
WO2021140799A1 (ja) * 2020-01-10 2021-07-15 住友電気工業株式会社 コミュニケーション支援システムおよびコミュニケーション支援プログラム
JP7164096B1 (ja) * 2021-09-28 2022-11-01 株式会社森桂納言 カウンセリング提供システム、方法およびプログラム

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014085913A (ja) * 2012-10-25 2014-05-12 Ntt Communications Corp 認証装置、認証方法及び認証プログラム
JP2015032084A (ja) * 2013-08-01 2015-02-16 任天堂株式会社 情報処理装置、情報処理システム、プログラム及び情報処理方法
JP2017146733A (ja) * 2016-02-16 2017-08-24 株式会社リコー 抽出支援システム、抽出支援サーバ、抽出支援プログラム及び抽出支援方法
JP6082832B1 (ja) * 2016-04-05 2017-02-15 株式会社アクアティカ メッセージ管理装置及びメッセージ管理方法
KR101981774B1 (ko) * 2016-04-25 2019-05-27 장부다 Vr 공간에서 사용자 인터페이스를 제공하는 방법, 디바이스 및 기록매체
KR20170121718A (ko) * 2016-04-25 2017-11-02 장부다 Vr 공간에서 사용자 인터페이스를 제공하는 방법, 디바이스 및 기록매체
WO2017204233A1 (ja) * 2016-05-23 2017-11-30 Necソリューションイノベータ株式会社 健康状態予測装置、健康状態予測方法、及びコンピュータ読み取り可能な記録媒体
CN109313939A (zh) * 2016-05-23 2019-02-05 日本电气方案创新株式会社 健康状况预测装置,健康状况预测方法和计算机可读记录介质
JPWO2017204233A1 (ja) * 2016-05-23 2019-03-22 Necソリューションイノベータ株式会社 健康状態予測装置、健康状態予測方法、及びプログラム
JP2018073204A (ja) * 2016-10-31 2018-05-10 富士通株式会社 アクション指示プログラム、アクション指示方法及び画像生成装置
KR20180066765A (ko) * 2016-12-09 2018-06-19 주식회사 옴니씨앤에스 가상 현실을 이용하여 정신 건강을 관리하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
KR101928415B1 (ko) * 2016-12-09 2018-12-12 주식회사 옴니씨앤에스 가상 현실을 이용하여 정신 건강을 관리하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
WO2018135343A1 (ja) * 2017-01-19 2018-07-26 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11386681B2 (en) 2017-01-19 2022-07-12 Sony Corporation Information processing apparatus, information processing method, and program
JP2019191939A (ja) * 2018-04-25 2019-10-31 メドケア株式会社 指導支援システム、指導支援方法及び指導支援サーバ
WO2021140800A1 (ja) * 2020-01-10 2021-07-15 住友電気工業株式会社 コミュニケーション支援システムおよびコミュニケーション支援プログラム
WO2021140799A1 (ja) * 2020-01-10 2021-07-15 住友電気工業株式会社 コミュニケーション支援システムおよびコミュニケーション支援プログラム
JP7164096B1 (ja) * 2021-09-28 2022-11-01 株式会社森桂納言 カウンセリング提供システム、方法およびプログラム

Similar Documents

Publication Publication Date Title
JP2011039860A (ja) 仮想空間を用いる会話システム、会話方法及びコンピュータプログラム
US11727217B2 (en) Systems and methods for dynamic user interaction for improving mental health
CN110364148A (zh) 自然助理交互
US11036285B2 (en) Systems and methods for mixed reality interactions with avatar
JP2012113589A (ja) 行動促進装置、行動促進方法およびプログラム
US20180350259A1 (en) Systems, Computer Readable Program Products, and Computer Implemented Methods to Facilitate On-Demand, User-Driven, Virtual Sponsoring Sessions for One or More User-Selected Topics Through User-Designed Virtual Sponsors
JP2007334732A (ja) ネットワークシステム及びネットワーク情報送受信方法
US20170316807A1 (en) Systems and methods for creating whiteboard animation videos
US11895063B2 (en) Interactive input support system and interactive input support method
Cuadra et al. On Inclusion: Video Analysis of Older Adult Interactions with a Multi-Modal Voice Assistant in a Public Setting
CN110097883A (zh) 用于在主设备处访问配套设备的呼叫功能的语音交互
JP7152453B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム及び情報処理システム
JP7363807B2 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP2019111363A (ja) ゲームプログラムおよびゲーム装置
JP6490785B1 (ja) ゲームプログラムおよびゲーム装置
JP7452299B2 (ja) 会話支援システム、会話支援方法及びプログラム
JP6953597B1 (ja) 情報処理装置、プログラム及び情報処理方法
WO2022145041A1 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
WO2022145039A1 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
JP7123028B2 (ja) 情報処理システム、情報処理方法、及びプログラム
WO2022145042A1 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
WO2022145038A1 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
WO2022145043A1 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
WO2022145040A1 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
WO2023149562A1 (ja) 仮想空間もしくはオンラインミーティングシステムの作動システムおよび作動方法