JPWO2021229692A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2021229692A5
JPWO2021229692A5 JP2022522145A JP2022522145A JPWO2021229692A5 JP WO2021229692 A5 JPWO2021229692 A5 JP WO2021229692A5 JP 2022522145 A JP2022522145 A JP 2022522145A JP 2022522145 A JP2022522145 A JP 2022522145A JP WO2021229692 A5 JPWO2021229692 A5 JP WO2021229692A5
Authority
JP
Japan
Prior art keywords
information processing
avatar
processing terminal
information
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022522145A
Other languages
English (en)
Other versions
JPWO2021229692A1 (ja
JP7371770B2 (ja
Filing date
Publication date
Application filed filed Critical
Priority claimed from PCT/JP2020/019006 external-priority patent/WO2021229692A1/ja
Publication of JPWO2021229692A1 publication Critical patent/JPWO2021229692A1/ja
Publication of JPWO2021229692A5 publication Critical patent/JPWO2021229692A5/ja
Application granted granted Critical
Publication of JP7371770B2 publication Critical patent/JP7371770B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、アバター制御プログラム、アバター制御方法および情報処理装置に関する。
近年、チャットボットと呼ばれる技術を利用した自動応答システムがある。チャットボットは、人工知能を利用して、人間との対話やメッセージのやりとりを行うコンピュータシステムである。また、チャットボットでの会話において、特定の条件を満たす場合に、チャットボット対応から有人対応の会話に切り替える場合がある。
先行技術としては、ユーザに関する情報を取得し、取得した情報からユーザの状態を推定し、推定結果に基づいて、キャラクターに動作および/または発言を行わせるための情報を生成し、生成した情報を出力するものがある。また、情報処理端末から、チャットボットとの会話の開始指示とともに、情報処理端末が取得したユーザの属性情報を受信し、ユーザの属性情報に基づいて決定されるスクリプト情報を用いて、情報処理端末におけるチャットボットとの会話を開始する技術がある。また、リアルタイム会話の解析に基づいて、電話呼がボットから人間に移行されるべきかどうかを決定し、移行されるべきであるとの決定に応答して、ボットから人間へ電話呼を移行させる技術がある。
特開2019-139170号公報 特許第6648876号公報 特表2019-522914号公報
しかしながら、従来技術では、デジタルボードなどに表示されるアバターを通して、オペレータがユーザへの応対を行うにあたり、アバターの動きが定型的なものとなるという問題がある。
一つの側面では、本発明は、外部環境に合わせてアバターの出力を制御することを目的とする。
1つの実施態様では、第1の情報処理端末における第1のユーザの操作に応じて動くアバターを第2の情報処理端末に出力し、前記第2の情報処理端末における第2のユーザを検出した場合、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力し、出力した前記情報に対応する操作を前記第1の情報処理端末において受け付けた場合、受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの出力を制御する、アバター制御プログラムが提供される。
本発明の一側面によれば、外部環境に合わせてアバターの出力を制御することができるという効果を奏する。
図1は、会話制御システム100のシステム構成例を示す説明図である。 図2は、情報処理装置101のハードウェア構成例を示すブロック図である。 図3は、情報処理端末102,103のハードウェア構成例を示すブロック図である。 図4は、選択肢管理テーブル120の記憶内容の一例を示す説明図である。 図5は、アバター管理テーブル130の記憶内容の一例を示す説明図である。 図6は、スクリプトテーブル140の記憶内容の一例を示す説明図である。 図7は、情報処理装置101の機能的構成例を示すブロック図である。 図8は、会話制御システム100の一実施例を示す説明図である。 図9は、第2の情報処理端末103に表示されるトーク画面の画面例を示す説明図(その1)である。 図10は、第1の情報処理端末102に表示されるオペレータ支援画面の画面例を示す説明図である。 図11は、第2の情報処理端末103に表示されるトーク画面の画面例を示す説明図(その2)である。 図12は、情報処理装置101のアバター制御処理手順の一例を示すフローチャート(その1)である。 図13は、情報処理装置101のアバター制御処理手順の一例を示すフローチャート(その2)である。 図14は、アバター出力変更処理の具体的処理手順の一例を示すフローチャートである。
以下に図面を参照して、本発明にかかるアバター制御プログラム、アバター制御方法および情報処理装置の実施の形態を詳細に説明する。
(実施の形態)
まず、実施の形態にかかる情報処理装置101を含む会話制御システム100のシステム構成例について説明する。会話制御システム100は、例えば、チャットボットによる自動応答やオペレータによる有人対応により、店舗の案内や、企業におけるキャリア相談などを行ったりするサービスに適用される。
図1は、会話制御システム100のシステム構成例を示す説明図である。図1において、会話制御システム100は、情報処理装置101と、第1の情報処理端末102と、第2の情報処理端末103と、を含む。会話制御システム100において、情報処理装置101、第1の情報処理端末102および第2の情報処理端末103は、有線または無線のネットワーク110を介して接続される。ネットワーク110は、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、インターネットなどである。会話制御システム100には、例えば、複数の第1の情報処理端末102と、複数の第2の情報処理端末103とが含まれる。
ここで、情報処理装置101は、アバターの出力を制御するコンピュータである。アバターは、第1の情報処理端末102における第1のユーザの操作に応じて動くキャラクターであり、例えば、ネットワーク上の仮想空間でのオペレータの分身として表示される。情報処理装置101は、例えば、サーバである。
情報処理装置101は、例えば、選択肢管理テーブル120、アバター管理テーブル130およびスクリプトテーブル140を有する。選択肢管理テーブル120、アバター管理テーブル130およびスクリプトテーブル140の記憶内容については、図4~図6を用いて後述する。
第1の情報処理端末102は、第1のユーザが使用するコンピュータであり、第2の情報処理端末103に表示されるアバターを操作可能である。第1のユーザは、例えば、第2の情報処理端末103を使用するユーザへの対応を行うオペレータである。第1の情報処理端末102において、第1のユーザは、第2の情報処理端末103に表示されるアバターを通して、第2のユーザと会話を行うことができる。第1の情報処理端末102は、例えば、PC(Personal Computer)、タブレットPCなどである。
第2の情報処理端末103は、第2のユーザが使用するコンピュータである。第2の情報処理端末103は、例えば、店舗や施設などに設置され、不特定多数の人に利用されるデジタルボードである。また、第2の情報処理端末103は、店舗や施設で貸し出される、あるいは、ユーザ個人が所有するスマートフォン、タブレットPCなどであってもよい。施設は、例えば、商業施設、企業施設、公共施設などである。
また、第2の情報処理端末103は、第2のユーザが、チャットボットでの会話を行う際に利用可能であってもよい。第2の情報処理端末103において、第2のユーザは、例えば、メッセージを入力したり、選択肢を選択したりすることで、チャットボットオペレータと対話しながら、所望の回答を探したり、サービスを利用したりすることができる。回答は、例えば、FAQ(Frequently Asked Question)である。
FAQは、「頻繁に尋ねられる質問」の意味であり、あらかじめ予想される質問に対して、質問と回答とをまとめたものである。質問は、何らかの問題の解決方法を問うものであってもよく、また、話し言葉による問いかけであってもよい。回答は、質問された問題の解決方法を示す回答や、話し言葉による問いかけに対する回答などである。
なお、図示は省略するが、情報処理装置101は、例えば、FAQマスタやチャットログDB(Database)などを有する。FAQマスタは、FAQを記憶する。チャットログDBは、チャットログを記憶する。チャットログは、第2のユーザとの会話に関する会話履歴である。チャットログは、例えば、ルームIDと対応付けて、チャットログDBに記憶される。ルームIDによれば、チャットボットやオペレータとの一連の会話を特定することができる。
ここで、オペレータがアバターを通してユーザへの応対を行うことで、チャットボットによる自動応答に比べて、きめ細かい対応を行うことが期待できる。一方で、オペレータがアバターを通してユーザへの応対を行うにあたり、アバターの動きが定型的なものとなると、人間と話しているような感じをユーザに与えることは難しい。
このため、オペレータの操作に応じて、手を振ったり、うなずいたり、笑ったりするなどの動きをアバターにさせることが考えられる。これにより、ユーザへの応対内容に応じてアバターの動きを変化させることができる。しかし、時間、場所、天候などによって、アバターの好ましい動きが異なる場合がある。
例えば、昼間の時間帯は、夜間の時間帯に比べて、明るく大きなモーションで動かすことが好ましい場合がある。また、場所によっては、礼儀正しく落ち着いた感じで動かすことが好ましい場合があるし、子供向けに明るく大きなモーションで動かすことが好ましい場合がある。
そこで、実施の形態では、アバターを通してオペレータがユーザへの応対を行うにあたり、ユーザへの応対内容だけでなく、時間、場所、天候などの外部環境を考慮して、アバターの動きを制御することで、バリエーション豊富なアバターの動きを実現するアバター制御方法について説明する。
(情報処理装置101のハードウェア構成例)
つぎに、情報処理装置101のハードウェア構成例について説明する。
図2は、情報処理装置101のハードウェア構成例を示すブロック図である。図2において、情報処理装置101は、CPU(Central Processing Unit)201と、メモリ202と、ディスクドライブ203と、ディスク204と、通信I/F(Interface)205と、可搬型記録媒体I/F206と、可搬型記録媒体207と、を有する。また、各構成部は、バス200によってそれぞれ接続される。
ここで、CPU201は、情報処理装置101の全体の制御を司る。CPU201は、複数のコアを有していてもよい。メモリ202は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)およびフラッシュROMなどを有する。具体的には、例えば、フラッシュROMがOS(Operating System)のプログラムを記憶し、ROMがアプリケーションプログラムを記憶し、RAMがCPU201のワークエリアとして使用される。メモリ202に記憶されるプログラムは、CPU201にロードされることで、コーディングされている処理をCPU201に実行させる。
ディスクドライブ203は、CPU201の制御に従ってディスク204に対するデータのリード/ライトを制御する。ディスク204は、ディスクドライブ203の制御で書き込まれたデータを記憶する。ディスク204としては、例えば、磁気ディスク、光ディスクなどが挙げられる。
通信I/F205は、通信回線を通じてネットワーク110に接続され、ネットワーク110を介して外部のコンピュータ(例えば、図1に示した第1の情報処理端末102、第2の情報処理端末103)に接続される。そして、通信I/F205は、ネットワーク110と装置内部とのインターフェースを司り、外部のコンピュータからのデータの入出力を制御する。通信I/F205には、例えば、モデムやLANアダプタなどを採用することができる。
可搬型記録媒体I/F206は、CPU201の制御に従って可搬型記録媒体207に対するデータのリード/ライトを制御する。可搬型記録媒体207は、可搬型記録媒体I/F206の制御で書き込まれたデータを記憶する。可搬型記録媒体207としては、例えば、CD(Compact Disc)-ROM、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリなどが挙げられる。
なお、情報処理装置101は、上述した構成部のほかに、例えば、SSD(Solid State Drive)、入力装置、ディスプレイ等を有することにしてもよい。また、情報処理装置101は、上述した構成部のうち、例えば、ディスクドライブ203、ディスク204、可搬型記録媒体I/F206、可搬型記録媒体207を有していなくてもよい。
(第1の情報処理端末102および第2の情報処理端末103のハードウェア構成例)
つぎに、第1の情報処理端末102および第2の情報処理端末103のハードウェア構成例について説明する。ただし、ここでは、第1の情報処理端末102および第2の情報処理端末103を「情報処理端末102,103」と表記する。
図3は、情報処理端末102,103のハードウェア構成例を示すブロック図である。図3において、情報処理端末102,103は、CPU301と、メモリ302と、ディスプレイ303と、入力装置304と、通信I/F305と、カメラ306と、スピーカ307と、マイクロフォン308と、GPS(Global Positioning System)ユニット309と、を有する。また、各構成部はバス300によってそれぞれ接続される。
ここで、CPU301は、情報処理端末102,103の全体の制御を司る。CPU301は、複数のコアを有していてもよい。メモリ302は、例えば、ROM、RAMおよびフラッシュROMなどを有する記憶部である。具体的には、例えば、フラッシュROMやROMが各種プログラムを記憶し、RAMがCPU301のワークエリアとして使用される。メモリ302に記憶されるプログラムは、CPU301にロードされることで、コーディングされている処理をCPU301に実行させる。
ディスプレイ303は、カーソル、アイコンあるいはツールボックスをはじめ、文書、画像、機能情報などのデータを表示する表示装置である。ディスプレイ303としては、例えば、液晶ディスプレイや有機EL(Electroluminescence)ディスプレイなどを採用することができる。
入力装置304は、文字、数字、各種指示などの入力のためのキーを有し、データの入力を行う。入力装置304は、タッチパネル式の入力パッドやテンキーなどであってもよく、また、キーボードやマウスなどであってもよい。
通信I/F305は、通信回線を通じてネットワーク110に接続され、ネットワーク110を介して外部のコンピュータ(例えば、図1に示した情報処理装置101、第1の情報処理端末102、第2の情報処理端末103)に接続される。そして、通信I/F305は、ネットワーク110と自装置内部とのインターフェースを司り、外部装置からのデータの入出力を制御する。
カメラ306は、画像(静止画または動画)を撮影して画像データを出力する撮影装置である。スピーカ307は、電気信号を音声に変換して、音声を出力する。マイクロフォン308は、音声を受音して電気信号に変換する。
GPSユニット309は、GPS衛星からの電波を受信し、情報処理端末102,103の位置情報を出力する。情報処理端末102,103の位置情報は、例えば、緯度、経度などの地球上の1点を特定する情報である。また、衛星として、例えば、準天頂衛星システムの衛星を用いることにしてもよい。
なお、情報処理端末102,103は、上述した構成部のほかに、例えば、HDD(Hard Disk Drive)、SSD、近距離無線通信I/F、可搬型記録媒体I/F、可搬型記録媒体などを有することにしてもよい。第2の情報処理端末103は、GPSユニット309を有していなくてもよい。
(各種テーブル120,130,140の記憶内容)
つぎに、図4~図6を用いて、情報処理装置101が有する各種テーブル120,130,140の記憶内容について説明する。各種テーブル120,130,140は、例えば、図2に示したメモリ202、ディスク204などの記憶装置により実現される。
図4は、選択肢管理テーブル120の記憶内容の一例を示す説明図である。図4において、選択肢管理テーブル120は、会話内容、選択肢1、選択肢2、選択肢3、選択肢4および選択肢5のフィールドを有し、各フィールドに情報を設定することで、選択肢管理情報(例えば、選択肢管理情報400-1~400-3)をレコードとして記憶する。
会話内容は、アバターを通したオペレータとの会話やチャットボットでの会話の内容を特定する情報である。例えば、会話内容は、アバターを通したオペレータとの会話やチャットボットでの会話において、選択された選択肢や、入力された情報などを示す。
選択肢1~5は、アバターに対応する選択肢であり、会話内容に対応付けて用意される。選択肢1~5は、例えば、アバターを操作可能なオペレータに提示される。すなわち、アバターを通したオペレータとの会話やチャットボットでの会話の内容に応じて、オペレータに提示する選択肢を切り替える。
例えば、選択肢管理情報400-1は、会話内容C1に対応する選択肢ch1~ch4を示す。なお、ここでは、会話内容に対応する選択肢の最大数として、「5」を例に挙げて説明するが、これに限らない。例えば、選択肢の最大数は、5未満であってもよく、また、6以上であってもよい。
図5は、アバター管理テーブル130の記憶内容の一例を示す説明図である。図5において、アバター管理テーブル130は、オペレータID、選択肢、顔データ、外部環境および体データのフィールドを有し、各フィールドに情報を設定することで、アバター管理情報(例えば、アバター管理情報500-1,500-2)をレコードとして記憶する。
ここで、選択肢は、第1の情報処理端末102に選択可能に表示される選択肢(例えば、図4に示した選択肢1~5)に対応する。顔データは、アバターの顔部分の見た目を特定する情報である。例えば、顔データは、選択肢に対応付けて用意される。外部環境は、アバターが表示される第2の情報処理端末103における外部の環境を表す。例えば、外部環境は、時間(時刻、時間帯、日付など)、場所、季節、天気、温度、湿度などを表す。
体データは、アバターの体部分の見た目を特定する情報である。例えば、体データは、外部環境に対応付けて用意される。オペレータIDは、選択肢に対応するオペレータを一意に識別する識別子である。例えば、オペレータIDは、オペレータが使用する第1の情報処理端末102を一意に識別する識別子であってもよい。
例えば、アバター管理情報500-1は、選択肢ch1に対応する顔データfc1およびオペレータOP1と、外部環境E1に対応する体データbd1とを示す。
図6は、スクリプトテーブル140の記憶内容の一例を示す説明図である。図6において、スクリプトテーブル140は、ユーザ属性およびスクリプトのフィールドを有し、各フィールドに情報を設定することで、スクリプト管理情報(例えば、スクリプト管理情報600-1~600-3)をレコードとして記憶する。
ここで、ユーザ属性は、ユーザの特徴を表す情報である。例えば、ユーザ属性は、年齢、年代、性別、使用言語、服装、同行者の有無などを表す。スクリプトは、チャットボットの会話の流れを定義した情報(シナリオ)であり、ユーザ属性と対応付けて用意される。スクリプトは、チャットのトーク処理を定義した情報である。
トーク処理は、チャットボットの動作(挙動)を実現するための処理である。例えば、トーク処理は、発話する処理、選択肢を表示する処理、ユーザ操作に応じて選択肢を選択する処理、選択された選択肢や入力された情報に応じた手続きを行う処理、トーク処理を終了する処理などを含む。
すなわち、スクリプトテーブル140では、ユーザ属性に対応するスクリプトをあらかじめ用意しておく。例えば、年代の違いによって、よく選ばれるFAQが変化する傾向がある。一例を挙げると、30代~40代のユーザは、他の年代のユーザと比べて、キャリアアップに関するFAQを選ぶ傾向がある。また、言語の違いによっても、よく選ばれるFAQが変化する傾向がある。一例を挙げると、講座を受講するにあたり、日本語以外の言語を話す人(例えば、外国人)は、日本語を話す人と比べて、日本語講座に関するFAQを選ぶ傾向がある。
例えば、スクリプト管理情報600-1は、ユーザ属性UA1に対応するスクリプトSP1を示す。なお、時間や場所などの違いによっても、よく選ばれるFAQが変化する場合がある。このため、スクリプトテーブル140には、ユーザ属性と外部環境との組み合わせに対応するスクリプトをあらかじめ用意しておくことにしてもよい。
(情報処理装置101の機能的構成例)
図7は、情報処理装置101の機能的構成例を示すブロック図である。図7において、情報処理装置101は、第1の出力制御部701と、第2の出力制御部702と、通信部703と、会話制御部704と、記憶部710と、を含む。具体的には、例えば、第1の出力制御部701~会話制御部704は、図2に示したメモリ202、ディスク204、可搬型記録媒体207などの記憶装置に記憶されたプログラムをCPU201に実行させることにより、または、通信I/F205により、その機能を実現する。各機能部の処理結果は、例えば、メモリ202、ディスク204などの記憶装置に記憶される。記憶部710は、例えば、メモリ202、ディスク204などの記憶装置により実現される。具体的には、例えば、記憶部710は、図4に示した選択肢管理テーブル120、図5に示したアバター管理テーブル130、図6に示したスクリプトテーブル140、FAQマスタ、チャットログDBなどを記憶する。
第1の出力制御部701は、第1の情報処理端末102における第1のユーザの操作に応じて動くアバターを第2の情報処理端末103に出力する。ここで、第1のユーザは、例えば、第2の情報処理端末103を使用するユーザへの対応を行うオペレータである。アバターは、例えば、オペレータの分身として表示されるキャラクターである。
具体的には、例えば、第1の出力制御部701は、第2の情報処理端末103が起動されたことに応じて、第2の情報処理端末103にアバターを出力する。また、第1の出力制御部701は、第2の情報処理端末103の入力装置304(図3参照)を用いた第1のユーザの起動操作に応じて、第2の情報処理端末103にアバターを出力することにしてもよい。
また、第1の出力制御部701は、例えば、第1の情報処理端末102における第1のユーザの操作に応じて、アバターのメッセージや選択肢を第2の情報処理端末103に出力する。アバターのメッセージや選択肢は、例えば、ディスプレイ303(図3参照)に表示されてもよく、また、スピーカ307(図3参照)から音声出力されてもよい。
また、第1の出力制御部701は、第2の情報処理端末103が多言語対応の場合、第1のユーザにより日本語によるメッセージが入力された際に、入力されたメッセージを第2の情報処理端末103で選択された外国語に翻訳して、第2の情報処理端末103に出力することにしてもよい。さらに、第1の出力制御部701は、第2のユーザにより外国語によりメッセージが入力された際に、入力されたメッセージを日本語に翻訳して、第1の情報処理端末102に出力することにしてもよい。
また、第1の出力制御部701は、例えば、モーションセンサにより検知されるオペレータ(話者)の顔の動きに合わせて、アバターの顔の表情を変化させることにしてもよい。なお、第2の情報処理端末103の起動時にどのようなアバターを出力するかは、例えば、あらかじめ設定されている。
第2の出力制御部702は、第2の情報処理端末103における第2のユーザを検出した場合、アバターに対応する操作を促す情報を第1の情報処理端末102に出力する。ここで、第2のユーザは、第2の情報処理端末103を使用するユーザである。第2の情報処理端末103が商業施設や店舗に設置されるデジタルボードである場合を例に挙げると、第2のユーザは、例えば、顧客である。
また、第2の情報処理端末103が企業施設に設置されるデジタルボードである場合を例に挙げると、第2のユーザは、例えば、社員である。また、第2の情報処理端末103が公共施設に設置されるデジタルボードである場合を例に挙げると、第2のユーザは、例えば、観光客である。
第2のユーザは、例えば、第2の情報処理端末103において検出される。具体的には、例えば、第2の情報処理端末103は、自端末のカメラ306(図3参照)により撮影された画像情報から人物を検知した場合に、第2のユーザを検出する。また、第2の情報処理端末103は、不図示の温度センサにより人物を検知した場合に、第2のユーザを検出することにしてもよい。
また、第2の情報処理端末103は、自端末の入力装置304(図3参照)を用いたユーザ操作により、会話開始ボタンなどが押下された場合に、第2のユーザを検出することにしてもよい。第2の情報処理端末103は、第2のユーザを検出した場合、第2のユーザを検出したことを示す情報を情報処理装置101に送信する。
第2のユーザを検出したことを示す情報は、例えば、チャットの開始指示として、第2の情報処理端末103から情報処理装置101に送信されることにしてもよい。ここで、チャットの開始指示は、アバターを通したオペレータとの会話を開始するためのものである。また、チャットの開始指示は、チャットボットでの会話を開始するためのものであってもよい。
第2の情報処理端末103からのチャットの開始指示は、通信部703によって受信される。第2の出力制御部702は、例えば、通信部703によってチャットの開始指示が受信された場合に、第2の情報処理端末103における第2のユーザを検出したと判断する。これにより、情報処理装置101において、第2の情報処理端末103における第2のユーザが検出されたことを判断することができる。
ただし、第2のユーザの検出処理は、情報処理装置101において行われてもよい。例えば、情報処理装置101は、第2の情報処理端末103からカメラ306により撮影された画像情報を受信し、受信した画像情報から人物を検知することにより、第2のユーザを検出することにしてもよい。
アバターに対応する操作は、例えば、アバターの動きを指定する操作である。アバターの動きとしては、例えば、手を振る、うなずく、おじぎをする、喜ぶなどが挙げられる。また、アバターに対応する操作は、アバターを通してユーザへの応対を行うオペレータを指定する操作であってもよい。また、アバターに対応する操作は、アバターを指定する操作であってもよい。
アバターに対応する操作を促す情報は、例えば、アバターにどのような動きをさせるかを指定するための選択肢や、アバターを通してユーザへの応対を行うオペレータを指定するための選択肢などである。アバターに対応する操作を促す情報には、いずれかの選択肢を選択するよう促すメッセージが含まれていてもよい。
ここで、第1の情報処理端末102に出力されるアバターに対応する操作を促す情報は、あらかじめ決められた情報であってもよい。例えば、手を振る、うなずく、喜ぶなどのアバターの基本的な動作を指定する選択肢は、あらかじめ決められていてもよい。
また、第2の出力制御部702は、第2のユーザの属性情報に基づいて、出力対象の情報を決定することにしてもよい。ここで、出力対象の情報とは、第1の情報処理端末102に出力されるアバターに対応する操作を促す情報である。第2のユーザの属性情報は、第2のユーザの属性を特定する情報である。
例えば、第2のユーザの属性情報は、第2のユーザの年齢、年代、性別、言語、服装、車椅子の有無、同伴者の有無などを特定可能な情報である。第2のユーザの属性情報は、第2の情報処理端末103から取得される。具体的には、例えば、通信部703は、第2の情報処理端末103からチャットの開始指示を受信するとともに、第2の情報処理端末103が取得した第2のユーザの属性情報を受信することにしてもよい。
より詳細に説明すると、例えば、第2の出力制御部702は、受信された第2のユーザの属性情報に基づいて、ユーザ属性を特定する。つぎに、第2の出力制御部702は、ユーザ属性とアバターに対応する操作を促す情報との対応関係を示す情報を記憶する記憶部710を参照して、特定したユーザ属性に対応するアバターに対応する操作を促す情報を、出力対象の情報に決定する。そして、第2の出力制御部702は、決定した出力対象の情報を、第1の情報処理端末102に出力する。
これにより、第2のユーザの特徴を考慮して、アバターに対応する操作を促す情報を出力することができる。例えば、ユーザ属性「10歳未満」が特定された場合に、子供向けの動きを指定可能な選択肢や、子供の応対が得意なオペレータを指定可能な選択肢や、子供向けのアバターを指定可能な選択肢などを、オペレータに提示することができる。
なお、第2の情報処理端末103において、第2のユーザの属性情報は、例えば、入力装置304を用いたユーザ操作により入力されることにしてもよい。この場合、第1の情報処理端末102は、チャットの開始指示とともに、入力された第2のユーザの属性情報を、情報処理装置101に送信する。
また、第2の情報処理端末103は、カメラ306により撮影された画像情報を解析して、第2のユーザの年代、性別、服装、車椅子の有無、同伴者の有無などの属性情報を取得してもよい。また、第2の情報処理端末103は、マイクロフォン308(図3参照)により受音された音声情報を解析して、第2のユーザの性別、言語などの属性情報を取得してもよい。
また、通信部703は、第2のユーザの属性情報として、カメラ306により撮影された画像情報や、マイクロフォン308により受音された音声情報を受信することにしてもよい。この場合、情報処理装置101は、例えば、受信した画像情報や音声情報から、ユーザの特徴を表す情報を取得することにしてもよい。すなわち、画像情報や音声情報を解析する処理は、第2の情報処理端末103で行わず、情報処理装置101で行うことにしてもよい。
なお、画像情報や音声情報からユーザの特徴を表す情報を取得する技術としては、既存のいかなる技術を用いることにしてもよい。例えば、第2の情報処理端末103または情報処理装置101は、深層学習などの機械学習に基づく手法により、画像や音声の特徴量から、年代、性別、服装、言語、車椅子の有無、同伴者の有無などの情報を抽出することにしてもよい。
また、第2の出力制御部702は、第2の情報処理端末103におけるアバターを通した会話において受け付けた情報に基づいて、出力対象の情報を決定することにしてもよい。ここで、会話において受け付けた情報は、アバターを通した第1のユーザと第2のユーザとの会話内容を表す情報である。
例えば、会話において受け付けた情報は、第2の情報処理端末103の入力装置304(図3参照)を用いた第2のユーザの操作により、選択された選択肢を示す情報や、入力された情報などである。すなわち、第2の出力制御部702は、第2の情報処理端末103における有人対応によるアバターを通した会話内容を考慮して、出力対象の情報を決定する。
会話制御部704は、第2の情報処理端末103における第2のユーザを検出した場合、第2の情報処理端末103におけるチャットボットでの会話を開始することにしてもよい。具体的には、例えば、会話制御部704は、チャットボットでの会話を開始するためのチャットの開始指示が受信された場合、第2の情報処理端末103におけるチャットボットでの会話に適用するトークスクリプトを決定する。
より詳細に説明すると、例えば、会話制御部704は、第2の情報処理端末103からチャットの開始指示とともに受信された第2のユーザの属性情報に基づいて、ユーザ属性を特定する。つぎに、会話制御部704は、図6に示したスクリプトテーブル140を参照して、特定したユーザ属性に対応するスクリプトを、トークスクリプトに決定する。
そして、会話制御部704は、決定したトークスクリプトを用いて、第2の情報処理端末103におけるチャットボットでの会話を開始する。これにより、第2の情報処理端末103を使用する第2のユーザの特徴に応じて、チャットボットでの会話を制御することができる。
また、第2の出力制御部702は、第2の情報処理端末103におけるチャットボットでの会話において受け付けた情報に基づいて、出力対象の情報を決定することにしてもよい。すなわち、第2の出力制御部702は、第2の情報処理端末103におけるチャットボットでの会話内容を考慮して、出力対象の情報を決定する。
より詳細に説明すると、例えば、第2の出力制御部702は、アバターを通した会話、または、チャットボットでの会話において受け付けた情報に基づいて、会話内容を特定する。そして、第2の出力制御部702は、図4に示した選択肢管理テーブル120を参照して、特定した会話内容に対応する選択肢を、出力対象の情報に決定する。
一例として、アバターを通した会話、または、チャットボットでの会話において受け付けた情報から特定される会話内容を「会話内容C1」とする。会話内容C1は、例えば、アバターを通した会話、または、チャットボットでの会話において選択された選択肢の組み合わせである。この場合、第2の出力制御部702は、例えば、選択肢管理テーブル120を参照して、特定した会話内容C1に対応する選択肢ch1~ch4を、出力対象の情報に決定する。選択肢ch1~ch4は、例えば、アバターの動きを指定するための選択肢や、アバターを通してユーザへの応対を行うオペレータを指定するための選択肢などである。
なお、アバターを通した会話、または、チャットボットでの会話において受け付けた情報は、例えば、不図示のチャットログDBから特定される。また、第1の情報処理端末102に出力される、アバターに対応する操作を促す情報の出力例については、図10を用いて後述する。
第1の出力制御部701は、出力された情報に対応する操作を第1の情報処理端末102において受け付けた場合、受け付けた操作と第2の情報処理端末103が検出した外部環境情報とに基づいて、アバターの出力を制御する。ここで、外部環境情報は、アバターが表示される第2の情報処理端末103における外部の環境を表す情報である。
例えば、外部環境情報は、時間、場所、季節、天気、温度、湿度などを表す。時間は、例えば、時刻、時間帯、日付などである。外部環境情報は、第2の情報処理端末103から取得される。具体的には、例えば、通信部703は、第2の情報処理端末103からチャットの開始指示を受信するとともに、第2の情報処理端末103が検出した外部環境情報を受信することにしてもよい。
なお、第2の情報処理端末103は、例えば、不図示の環境センサにより、または、外部サーバに問い合わせることにより、時間、季節、天気、温度、湿度などを表す外部環境情報を検出する。また、第2の情報処理端末103は、GPSユニット309(図3参照)により、自端末の現在位置を示す位置情報を、場所を表す外部環境情報として検出してもよい。
具体的には、例えば、第1の出力制御部701は、受け付けた操作と第2の情報処理端末103が検出した外部環境情報とに基づいて、アバターの動きを決定する。そして、第1の出力制御部701は、決定した動きに基づいて、アバターの出力を変更する。
ここで、第1の情報処理端末102において、入力装置304を用いた第1のユーザの操作により、「手を振る」というアバターの動きを指定する選択肢を選択する操作を受け付けた場合を想定する。この場合、第1の出力制御部701は、第1の情報処理端末102から、「手を振る」というアバターの動きを指定する選択肢を選択する操作を受け付ける。
そして、第1の出力制御部701は、第2の情報処理端末103が検出した外部環境情報から特定される外部環境に応じて、アバターがどのように「手を振る」のかを決定して、アバターの出力を変更する。アバターの動きを外部環境に応じてどのように調整するのかは、例えば、あらかじめ設定されている。
より詳細に説明すると、例えば、第1の出力制御部701は、記憶部710を参照して、「手を振る」というアバターの動きの内容を、外部環境に応じて決定する。記憶部710は、例えば、アバターの動きごとに、当該動きの内容と外部環境との対応関係を示す情報を記憶する。
例えば、第2の情報処理端末103が検出した外部環境情報から特定される外部環境を「時間帯:昼間」とする。この場合、第1の出力制御部701は、例えば、夜間の時間帯よりも、明るく大きなモーションで手を振るように、アバターの出力を変更することにしてもよい。
また、第2の情報処理端末103が検出した外部環境情報から特定される外部環境を「温度:氷点下」とする。この場合、第1の出力制御部701は、例えば、寒さで震えているような感じで手を振るように、アバターの出力を変更することにしてもよい。
また、第2の情報処理端末103が検出した外部環境情報から特定される外部環境を「場所:ホテル」とする。この場合、第1の出力制御部701は、例えば、ホテルマンが客を見送る感じで手を振るように、アバターの出力を変更する。
また、第1の出力制御部701は、受け付けた操作に基づいて、アバターの顔部分の出力を変更することにしてもよい。ここで、第1の情報処理端末102において、入力装置304を用いた第1のユーザの操作により、オペレータOPを指定する選択肢を選択する操作を受け付けた場合を想定する。
この場合、第1の出力制御部701は、第1の情報処理端末102から、オペレータOPを指定する選択肢を選択する操作を受け付ける。そして、第1の出力制御部701は、アバターの顔部分を、指定されたオペレータOPに対応するアバターの顔に変更する。これにより、ユーザへの応対を行うオペレータに合わせて、アバターの顔を変更することができる。
また、第1の出力制御部701は、受け付けた操作に基づいて、第1のユーザが切り替わる場合、第2の情報処理端末103の接続先の第1の情報処理端末102を切り替えることにしてもよい。例えば、第1のユーザが「オペレータOP1」から「オペレータOP2」に切り替わる場合、第1の出力制御部701は、第2の情報処理端末103の接続先の第1の情報処理端末102を、オペレータOP2が使用する第1の情報処理端末102に切り替える。
また、第1の出力制御部701は、第2の情報処理端末103が検出した外部環境情報に基づいて、アバターの体部分の出力を変更することにしてもよい。ここで、第2の情報処理端末103が検出した外部環境情報から特定される外部環境を「季節:夏」とする。この場合、第1の出力制御部701は、例えば、アバターの体部分を、夏服を着た体に変更する。
また、第2の情報処理端末103が検出した外部環境情報から特定される外部環境を「場所:ホテル」とする。この場合、第1の出力制御部701は、例えば、アバターの体部分を、ホテルの制服を着た体に変更する。これにより、第2の情報処理端末103が設置された場所や季節に合わせて、アバターの服装を変更することができる。
より詳細に説明すると、例えば、第1の出力制御部701は、図5に示したアバター管理テーブル130を参照して、受け付けた操作に対応するアバター管理情報を特定する。一例として、選択肢ch1を選択する操作を受け付けた場合を想定する。また、第2の情報処理端末103が検出した外部環境情報から特定される外部環境を「E2」とする。
この場合、第1の出力制御部701は、アバター管理テーブル130を参照して、選択肢ch1に対応し、かつ、外部環境E2に対応するアバター管理情報500-2を特定する。そして、第1の出力制御部701は、アバター管理情報500-2を参照して、顔データfc1に基づいて、アバターの顔部分を変更する。
また、第1の出力制御部701は、アバター管理情報500-2を参照して、体データbd2に基づいて、アバターの体部分を変更する。第1の出力制御部701は、アバター管理情報500-2を参照して、第2の情報処理端末103の接続先の第1の情報処理端末102を、オペレータOP2が使用する第1の情報処理端末102に切り替える。
ただし、オペレータの切り替わりが発生しない場合は、第2の情報処理端末103の接続先の第1の情報処理端末102の切り替わりも発生しない。また、アバター管理テーブル130からアバター管理情報が特定されなかった場合は、第1の出力制御部701は、アバターの顔部分および体部分の出力の変更は行わないことにしてもよい。
また、第1の出力制御部701は、第2の情報処理端末103における第2のユーザを検出した場合、第2のユーザに対応する履歴情報があるか否かを判断することにしてもよい。そして、第1の出力制御部701は、第2のユーザに対応する履歴情報がある場合、当該履歴情報に含まれるアバターの情報に基づいて、アバターの出力を制御することにしてもよい。
ここで、履歴情報は、第2のユーザが第2の情報処理端末103を使用したことを示す情報である。履歴情報は、例えば、第2のユーザを一意に識別する識別情報と、第2のユーザが第2の情報処理端末103を使用した際に出力されたアバターを特定可能な情報とを含む。
例えば、第2の情報処理端末103が商業施設や店舗に設置され、第2の情報処理端末103の使用にあたり、商業施設や店舗の会員IDを入力する場合を想定する。この場合、第2のユーザを一意に識別する識別情報は、例えば、会員IDである。また、第2の情報処理端末103が企業施設に設置され、第2の情報処理端末103の使用にあたり、社員IDを入力する場合を想定する。この場合、第2のユーザを一意に識別する識別情報は、例えば、社員IDである。
会員IDや社員IDは、例えば、チャットの開始指示に含まれる。なお、ユーザ属性は、会員IDや社員IDから特定されることにしてもよい。例えば、社員IDに対応付けられている社員情報から、第2のユーザの性別、年齢、勤務年数、年収などを、ユーザ属性として特定することができる。
アバターを特定可能な情報は、例えば、アバターの顔部分および体部分を特定する情報を含む。アバターの顔部分および体部分を特定する情報は、例えば、第2の情報処理端末103におけるアバターを通した会話が終了した際に表示されていたアバターの顔データおよび体データである。
また、アバターを特定可能な情報には、アバターに対応するオペレータを特定する情報が含まれていてもよい。オペレータを特定する情報は、例えば、会話終了直前に第2のユーザへの応対を行っていたオペレータのオペレータIDである。履歴情報は、例えば、第2の情報処理端末103におけるアバターを通した会話が終了した際に、情報処理装置101が有する不図示の履歴情報DBに記憶される。
一例として、社員IDを含むチャットの開始指示を受信した場合を想定する。この場合、第1の出力制御部701は、履歴情報DBを参照して、チャットの開始指示に含まれる社員IDを含む履歴情報があるか否かを判断する。ここで、社員IDを含む履歴情報がない場合、第1の出力制御部701は、履歴情報に基づくアバターの出力の変更は行わない。
一方、社員IDを含む履歴情報がある場合、第1の出力制御部701は、履歴情報に含まれる顔データに基づいて、第2の情報処理端末103に出力するアバターの顔部分を変更する。また、第1の出力制御部701は、履歴情報に含まれる体データ2に基づいて、アバターの体部分を変更する。また、第1の出力制御部701は、第2の情報処理端末103の接続先の第1の情報処理端末102を、履歴情報に含まれるオペレータIDに対応する第1の情報処理端末102に切り替える。これにより、前回と同じ見た目のアバターを通して、前回と同じオペレータが第2のユーザへの応対を行うことが可能となり、キャラクターの一貫性を持たせることができる。
また、第1の出力制御部701は、第2の情報処理端末103の周囲に存在する第2のユーザを検出した場合に、第2の情報処理端末103での操作を促す情報を、第2の情報処理端末103に出力することにしてもよい。第2の情報処理端末103での操作を促す情報は、例えば、「こんにちは。そこのあなた!」といった、第2の情報処理端末103の存在を気付かせるようなメッセージであってもよい。
第2の情報処理端末103の周囲に存在する第2のユーザは、例えば、第2の情報処理端末103のカメラ306により撮影された画像情報から、または、第2の情報処理端末103の温度センサ(不図示)により検出される。具体的には、例えば、第1の出力制御部701は、「こんにちは。そこのあなた!」といったメッセージを、アバターの発言として、第2の情報処理端末103のスピーカ307から音声出力させることにしてもよい。これにより、例えば、商業施設や店舗の来店者などに能動的に呼びかけて、第2の情報処理端末103を利用した接客機会を増やすことができる。
なお、上述した情報処理装置101の各機能部は、会話制御システム100内の複数のコンピュータにより実現されることにしてもよい。例えば、上述した情報処理装置101の機能部を、情報処理装置101と第1の情報処理端末102と第2の情報処理端末103とがそれぞれ機能を分担して実現することにしてもよい。
(会話制御システム100の一実施例)
つぎに、図8を用いて、会話制御システム100の一実施例について説明する。
図8は、会話制御システム100の一実施例を示す説明図である。情報処理装置101は、第1の情報処理端末102におけるオペレータOP1の操作に応じて動くアバターavを第2の情報処理端末103に出力する。情報処理装置101は、第2の情報処理端末103におけるユーザU1を検出した場合、アバターavに対応する操作を促す選択肢#1~#3を第1の情報処理端末102に出力する。
選択肢#1~#3は、アバターavの動きや、アバターavを通してユーザU1への応対を行うオペレータを指定するための選択肢である。情報処理装置101は、出力した選択肢#1~#3を選択する操作を第1の情報処理端末102において受け付けた場合、受け付けた操作と第2の情報処理端末103が検出した外部環境情報とに基づいて、アバターavの出力を制御する。
例えば、情報処理装置101は、受け付けた操作と第2の情報処理端末103が検出した外部環境情報とに基づいて、アバターavの動きを決定し、決定した動きに基づいて、アバターavの出力を制御する。例えば、「手を振る」というアバターの動きを指定する選択肢が選択され、かつ、外部環境情報から特定される外部環境が「温度:氷点下」の場合、寒さで震えているような感じで手を振るように、アバターavの動きを制御することができる。
また、情報処理装置101は、受け付けた操作に基づいて、アバターavの顔部分fcの出力を変更する。例えば、オペレータOPを指定する選択肢が選択された場合、アバターavの顔部分fcを、指定されたオペレータOPに対応するアバターavの顔に変更することができる。
また、情報処理装置101は、第2の情報処理端末103が検出した外部環境情報に基づいて、アバターavの体部分bdの出力を変更する。例えば、外部環境情報から特定される外部環境が「温度:氷点下」の場合、アバターの体部分bdを、防寒具を着た体に変更することができる。
(第2の情報処理端末103に表示されるトーク画面の画面例)
つぎに、図9および図10を用いて、第2の情報処理端末103のディスプレイ303に表示されるトーク画面の画面例について説明する。
ここでは、第2の情報処理端末103が、企業施設に設置され、社員の人に利用されるデジタルボードである場合を想定する。また、チャットボット対応からのエスカレーションにより、アバターを通した有人対応を行う場合を想定する。また、第2の情報処理端末103が取得した第2のユーザの属性情報から特定されるユーザ属性を「30代×男性」とする。
この場合、情報処理装置101は、スクリプトテーブル140を参照して、ユーザ属性「30代×男性」に対応するトークスクリプトを用いて、第2の情報処理端末103におけるチャットボットでの会話を開始する。ユーザ属性「30代×男性」に対応するトークスクリプトは、例えば、キャリアアップに関する会話を行うスクリプトである。
図9は、第2の情報処理端末103に表示されるトーク画面の画面例を示す説明図(その1)である。図9において、トーク画面900は、第2の情報処理端末103における第2のユーザが検出され、チャットボットでの会話を開始した際に、第2の情報処理端末103に表示されるトーク画面の一例である。図9中、アバターavは、チャットボットのキャラクター、または、オペレータの操作に応じて動くキャラクターを表す。
トーク画面900には、アバターavのメッセージm1とともに、キャリアアップに関する選択ボタン901,902が会話形式で表示されている。トーク画面900において、第2の情報処理端末103の入力装置304を用いた第2のユーザの操作入力により、選択ボタン901を選択すると、30代に人気の講座に関する会話を行うことができる。
また、トーク画面900において、選択ボタン902を選択すると、DX(Digital Transformation)に関する講座に関する会話を行うことができる。また、トーク画面900において、言語ボタンb1,b2,b3,b4を選択すると、使用言語を切り替えることができる。例えば、言語ボタンb2を選択すると、使用言語を日本語から英語に切り替えることができる。
また、トーク画面900において、マイクボタンb5を選択することで、音声によりメッセージを入力することができる。トーク画面900において、選択された選択肢を示す情報や、入力された情報は、第2の情報処理端末103から情報処理装置101に送信される。この結果、トーク画面900が更新される。
ここでは、トーク画面900において、選択ボタン901が選択された場合を想定する。この場合、トーク画面900には、アバターavのメッセージm2とともに、第2のユーザの希望内容を聞き出すための選択ボタン911~919が会話形式で表示される。
トーク画面900において、第2のユーザは、選択ボタン911~919のような選択肢を選択することで、自分が受講したい講座についての希望内容を選択することができる。第2のユーザが受講したい講座についての希望内容の選択が終了すると、チャットボット対応から、アバターavを通した有人対応に切り替わる。
ここでは、トーク画面900において、「エンジニア向」、「英語」および「中級」の選択肢が選択された場合を想定する。この場合、第1の情報処理端末102のディスプレイ303に、図10に示すようなオペレータ支援画面1000が表示され、チャットボット対応から、アバターavを通した有人対応に切り替わる。
図10は、第1の情報処理端末102に表示されるオペレータ支援画面の画面例を示す説明図である。図10において、オペレータ支援画面1000は、オペレータの操作を支援する操作画面の一例である。オペレータは、第1の情報処理端末102を使用する第1のユーザである。
オペレータ支援画面1000は、トーク画面900と、会話履歴1010とを含む。トーク画面900は、第2の情報処理端末103に表示されるトーク画面であり、第2の情報処理端末103に表示されるトーク画面と同期して表示内容が切り替わる。会話履歴1010は、第2の情報処理端末103において行われた会話の内容を示す情報である。
オペレータ(第1のユーザ)は、オペレータ支援画面1000内のトーク画面900により、第2の情報処理端末103に表示されている画面内容を確認することができる。また、オペレータは、会話履歴1010により、第2の情報処理端末103において行われた会話の内容を確認することができる。
また、オペレータ支援画面1000は、動作ボタンb11~b13を含む。オペレータ支援画面1000において、第1の情報処理端末102の入力装置304を用いたオペレータの操作入力により、動作ボタンb11を選択すると、アバターavに、手を振る動きをさせることができる。この際、第2の情報処理端末103の外部環境に応じて、アバターavの手を振る動きが制御される。
また、オペレータ支援画面1000において、動作ボタンb12を選択すると、アバターavに、うなずく動きをさせることができる。この際、第2の情報処理端末103の外部環境に応じて、アバターavのうなずく動きが制御される。
また、オペレータ支援画面1000において、動作ボタンb13を選択すると、アバターavに、喜ぶ動きをさせることができる。この際、第2の情報処理端末103の外部環境に応じて、アバターavの喜ぶ動きが制御される。
また、オペレータ支援画面1000は、音声合成ボタンb14と、QR送付ボタンb15とを含む。オペレータ支援画面1000において、音声合成ボタンb14を選択すると、第1の情報処理端末102において入力したテキストを音声に変換して、第2の情報処理端末103に出力する音声合成処理を行うことができる。
これにより、オペレータが入力したテキスト(あるいは、オペレータの音声を認識して得られるテキスト)を音声に変換して、アバターavのメッセージとして音声出力することができる。
また、オペレータ支援画面1000において、QR送付ボタンb15を選択すると、QR(Quick Response)コードを、第2の情報処理端末103に出力することができる。QRコードは、例えば、チャットボットによりおすすめの講座を紹介するスクリプトなどを特定する情報である。QRコードは、登録商標である。
これにより、第2のユーザは、例えば、自身のスマートフォン(第2の情報処理端末103)により、デジタルボード(第2の情報処理端末103)に表示されたQRコードを読み込むことにより、自身のスマートフォンにおいてチャットボットでの会話を開始することができる。なお、第2の情報処理端末103に出力するQRコードは、例えば、第1の情報処理端末102における第1のユーザの操作に応じて任意に選択可能である。
また、オペレータ支援画面1000には、メッセージ1020とともに、選択肢1021~1023が表示されている。ここで、メッセージ1020および選択肢1021~1023は、第2の情報処理端末103に出力するアバターに対応する操作を促す情報の一例である。
メッセージ1020および選択肢1021~1023は、トーク画面900における会話内容(例えば、第2のユーザが受講したい講座についての希望内容)に応じて決定された情報である。メッセージ1020は、第2のユーザへの応対を行うオペレータを指定するよう促すメッセージである。
選択肢1021~1023は、第2のユーザへの応対を行うオペレータを指定するための選択肢である。ここでは、第2のユーザの希望内容に合った講座についての知識が豊富なオペレータの候補が、選択肢1021~1023として提示されている。
オペレータ支援画面1000において、選択肢1021を選択すると、「情報技術系講座向け担当者」をオペレータとして指定することができる。また、オペレータ支援画面1000において、選択肢1022を選択すると、「外国語講座向け担当者」をオペレータとして指定することができる。また、オペレータ支援画面1000において、選択肢1023を選択すると、「論文講座向け担当者」をオペレータとして指定することができる。
オペレータは、例えば、トーク画面900や会話履歴1010などを参照して、どのオペレータが応対するのがよいのかを判断することができる。なお、図示は省略するが、オペレータ支援画面1000には、第2の情報処理端末103のカメラ306により撮影された第2のユーザの画像が表示されていてもよい。この場合、オペレータは、第2のユーザがどんな感じの人であるかを確認して、どのオペレータが応対するのがよいのかを判断することができる。
ここでは、オペレータ支援画面1000において、選択肢1022が選択された場合を想定する。この場合、トーク画面900に「該当オペレータにおつなぎします。」といったメッセージが表示された後、図11に示すようなトーク画面1100が、第2の情報処理端末103のディスプレイ303に表示される。
図11は、第2の情報処理端末103に表示されるトーク画面の画面例を示す説明図(その2)である。図11において、トーク画面1100は、「外国語講座向け担当者」がオペレータとして指定された場合に、第2の情報処理端末103に表示されるトーク画面の一例である。
なお、「外国語講座向け担当者」がオペレータとして指定されると、第2の情報処理端末103の接続先の第1の情報処理端末102が、「外国語講座向け担当者」が使用する第1の情報処理端末102に切り替わる。また、トーク画面1100には、有人対応中である旨の情報1110が表示される。
図11中、アバターavは、「外国語講座向け担当者」であるオペレータの操作に応じて動くキャラクターを表す。アバターavの顔部分は、図10に示したオペレータ支援画面1000において選択された選択肢1022に対応する顔データ(例えば、図5参照)に基づき変更されたものである。
アバターavの体部分は、第2の情報処理端末103が検出した外部環境情報から特定される外部環境に対応する体データ(例えば、図5参照)に基づき変更されたものである。ここでは、外部環境情報から特定される外部環境が「季節:夏」のため、夏服を着た体に変更されている。
「外国語講座向け担当者」であるオペレータは、アバターavを通して第2のユーザと会話を行うことができる。この際、図9に示したアバターavから顔部分や体部分が変更されているため、第2のユーザに対して、別の人と会話をしているかのように演出することができる。
図11の例では、「外国語講座向け担当者」であるオペレータからのメッセージm11が、アバターavを通して表示されている。また、メッセージm11によるオペレータからの問いかけに対して、第2のユーザのメッセージm12が入力されている。また、第2のユーザのメッセージm12に対して、「外国語講座向け担当者」であるオペレータからのメッセージm13が、アバターavを通して表示されている。
このように、第2のユーザは、アバターavを通して、自分の希望内容に合った講座についての知識が豊富なオペレータと会話して、どのような講座を受講するのがよいのかといったことを相談することができる。
(情報処理装置101のアバター制御処理手順)
つぎに、図12および図13を用いて、情報処理装置101のアバター制御処理手順について説明する。ここでは、チャットボット対応からのエスカレーションにより、アバターを通した有人対応を行う場合を例に挙げて説明する。
図12および図13は、情報処理装置101のアバター制御処理手順の一例を示すフローチャートである。図12において、まず、情報処理装置101は、第1の情報処理端末102における第1のユーザの操作に応じて動くアバターを第2の情報処理端末103に出力する(ステップS1201)。
つぎに、情報処理装置101は、第2の情報処理端末103から、チャットの開始指示とともに、第2の情報処理端末103が検出した第2のユーザの属性情報および外部環境情報を受信したか否かを判断する(ステップS1202)。ただし、チャットの開始指示は、チャットボットでの会話を開始するためのチャットの開始指示とする。
ここで、情報処理装置101は、チャットの開始指示とともに、第2のユーザの属性情報および外部環境情報を受信するのを待つ(ステップS1202:No)。情報処理装置101は、チャットの開始指示とともに、第2のユーザの属性情報および外部環境情報を受信した場合(ステップS1202:Yes)、受信した第2のユーザの属性情報に基づいて、ユーザ属性を特定する(ステップS1203)。
つぎに、情報処理装置101は、スクリプトテーブル140を参照して、特定したユーザ属性に対応するスクリプトを、トークスクリプトに決定する(ステップS1204)。トークスクリプトは、第2の情報処理端末103におけるチャットボットでの会話に適用するスクリプトである。
そして、情報処理装置101は、決定したトークスクリプトを用いて、第2の情報処理端末103におけるチャットボットでの会話を開始する(ステップS1205)。つぎに、情報処理装置101は、第2の情報処理端末103におけるチャットボットでの会話において受け付けた情報に基づいて、特定の条件を満たすか否かを判断する(ステップS1206)。
具体的には、例えば、情報処理装置101は、第2の情報処理端末103におけるチャットボットでの会話内容が、選択肢管理テーブル120内のいずれかの会話内容に対応する場合に、特定の条件を満たすと判断する。一方、選択肢管理テーブル120内のいずれの会話内容にも対応しない場合は、情報処理装置101は、特定の条件を満たさないと判断する。
ステップS1205において、特定の条件を満たさない場合(ステップS1206:No)、情報処理装置101は、第2の情報処理端末103におけるチャットボットでの会話を終了するか否かを判断する(ステップS1207)。なお、チャットボットでの会話は、例えば、トークスクリプトに従って、または、第2のユーザの終了操作に応じて終了する。
ここで、チャットボットでの会話を終了しない場合(ステップS1207:No)、情報処理装置101は、ステップS1206に戻る。一方、チャットボットでの会話を終了する場合には(ステップS1207:Yes)、情報処理装置101は、本フローチャートによる一連の処理を終了する。
また、ステップS1206において、特定の条件を満たす場合(ステップS1206:Yes)、情報処理装置101は、チャットボット対応から有人対応の会話に切り替えて(ステップS1208)、図13に示すステップS1301に移行する。
図13のフローチャートにおいて、まず、情報処理装置101は、選択肢管理テーブル120を参照して、第2の情報処理端末103におけるチャットボットでの会話内容に対応する選択肢を、第1の情報処理端末102に出力する(ステップS1301)。具体的には、例えば、情報処理装置101は、チャットボットでの会話内容に対応する選択肢を、図10に示したようなオペレータ支援画面1000に表示する。
つぎに、情報処理装置101は、出力したいずれかの選択肢が選択されたか否かを判断する(ステップS1302)。ここで、情報処理装置101は、いずれかの選択肢が選択されるのを待つ(ステップS1302:No)。情報処理装置101は、いずれかの選択肢が選択された場合(ステップS1302:Yes)、アバター出力変更処理を実行する(ステップS1303)。
アバター出力変更処理は、選択された選択肢に応じて、第2の情報処理端末103に表示されるアバターの出力を制御する処理である。アバター出力変更処理の具体的な処理手順については、図14を用いて後述する。
つぎに、情報処理装置101は、第2の情報処理端末103におけるアバターを通した会話において受け付けた情報に基づいて、特定の条件を満たすか否かを判断する(ステップS1304)。具体的には、例えば、情報処理装置101は、有人対応によるアバターを通した会話内容が、選択肢管理テーブル120内のいずれかの会話内容に対応する場合に、特定の条件を満たすと判断する。一方、選択肢管理テーブル120内のいずれの会話内容にも対応しない場合、情報処理装置101は、特定の条件を満たさないと判断する。
ここで、特定の条件を満たさない場合(ステップS1304:No)、情報処理装置101は、第2の情報処理端末103における有人対応によるアバターを通した会話を終了するか否かを判断する(ステップS1305)。なお、有人対応によるアバターを通した会話は、例えば、第2のユーザの終了操作に応じて終了する。
ここで、有人対応によるアバターを通した会話を終了しない場合(ステップS1305:No)、情報処理装置101は、ステップS1304に戻る。一方、有人対応によるアバターを通した会話を終了する場合には(ステップS1305:Yes)、情報処理装置101は、本フローチャートによる一連の処理を終了する。
また、ステップS1304において、特定の条件を満たす場合(ステップS1304:Yes)、情報処理装置101は、選択肢管理テーブル120を参照して、第2の情報処理端末103における、有人対応によるアバターを通した会話の内容に対応する選択肢を、第1の情報処理端末102に出力して(ステップS1306)、ステップS1302に戻る。
これにより、第2の情報処理端末103を使用する第2のユーザの特徴に応じて、チャットボットでの会話を制御することができる。また、チャットボット対応からのエスカレーションにより、アバターを通した有人対応を行うことができる。
つぎに、図14を用いて、図13に示したステップS1303のアバター出力変更処理の具体的な処理手順について説明する。
図14は、アバター出力変更処理の具体的処理手順の一例を示すフローチャートである。図14のフローチャートにおいて、まず、情報処理装置101は、図12に示したステップS1202において受信された外部環境情報に基づいて、第2の情報処理端末103の外部環境を特定する(ステップS1401)。
つぎに、情報処理装置101は、図13に示したステップS1302において選択された選択肢が、アバターの動き、または、オペレータのいずれを指定するものであるか否かを判断する(ステップS1402)。
ここで、アバターの動きを指定するものである場合(ステップS1402:アバターの動き)、情報処理装置101は、指定された動きと、特定した外部環境とに基づいて、アバターの動きを決定する(ステップS1403)。そして、情報処理装置101は、決定した動きに基づいて、第2の情報処理端末103に表示するアバターの出力を変更して(ステップS1404)、アバター出力変更処理を呼び出したステップに戻る。
一方、オペレータを指定するものである場合(ステップS1402:オペレータ)、情報処理装置101は、アバター管理テーブル130を参照して、選択された選択肢に対応するアバター管理情報を特定する(ステップS1405)。つぎに、情報処理装置101は、特定したアバター管理情報を参照して、アバターの顔データを特定する(ステップS1406)。
つぎに、情報処理装置101は、特定したアバター管理情報を参照して、特定した外部環境に対応するアバターの体データを特定する(ステップS1407)。つぎに、情報処理装置101は、特定したアバター管理情報を参照して、第2の情報処理端末103の接続先の第1の情報処理端末102を切り替える(ステップS1408)。
そして、情報処理装置101は、特定した顔データおよび体データに基づいて、第2の情報処理端末103に表示するアバターの出力を変更して(ステップS1409)、アバター出力変更処理を呼び出したステップに戻る。
これにより、ユーザへの応対を行うオペレータの操作に応じて、第2の情報処理端末103の外部環境に合わせてアバターの動きを制御することができる。また、ユーザへの応対を行うオペレータに合わせて、アバターの顔部分や体部分を変更することができる。
以上説明したように、実施の形態にかかる情報処理装置101によれば、第1の情報処理端末102における第1のユーザの操作に応じて動くアバターを、第2の情報処理端末103に出力することができる。また、情報処理装置101によれば、第2の情報処理端末103における第2のユーザを検出した場合、アバターに対応する操作を促す情報を第1の情報処理端末102に出力することができる。アバターに対応する操作を促す情報は、例えば、アバターの動作を指定する操作を促す情報や、アバターを通して第2のユーザへの応対を行うオペレータを指定する操作を促す情報である。そして、情報処理装置101によれば、出力した情報に対応する操作を第1の情報処理端末102において受け付けた場合、受け付けた操作と第2の情報処理端末103が検出した外部環境情報とに基づいて、アバターの出力を制御することができる。
これにより、ユーザへの応対を行うオペレータの操作に応じて、第2の情報処理端末103の外部環境に合わせてアバターの出力を制御することができる。
また、情報処理装置101によれば、受け付けた操作と第2の情報処理端末103が検出した外部環境情報とに基づいて、アバターの動きを決定し、決定した動きに基づいて、アバターの出力を変更することができる。
これにより、ユーザへの応対を行うオペレータの操作に応じて、第2の情報処理端末103の外部環境に合わせてアバターの動きを制御することができる。例えば、「手を振る」というアバターの動きが指定された際に、第2の情報処理端末103の外部環境が「温度:氷点下」であれば、寒さで震えているような感じで手を振るように、アバターの動きを制御することができる。また、「おじぎ」というアバターの動きが指定された際に、第2の情報処理端末103の外部環境が「場所:ホテル」であれば、ホテルマンのような作法でおじぎをするように、アバターavの動きを制御することができる。
また、情報処理装置101によれば、受け付けた操作に基づいて、アバターの顔部分の出力を変更し、外部環境情報に基づいて、アバターの体部分の出力を変更することができる。
これにより、ユーザへの応対を行うオペレータに合わせて、アバターの顔部分(見た目)を変更することができる。また、第2の情報処理端末103の外部環境に合わせて、アバターの体部分(見た目)を変更することができる。例えば、第2の情報処理端末103が設置された場所や季節に合わせて、アバターの服装を変更することができる。例えば、第2の情報処理端末103の外部環境が「場所:ホテル」であれば、アバターの体部分を、ホテルマンのような服装に変更することができる。また、第2の情報処理端末103の外部環境が「季節:夏」であれば、アバターの体部分を、夏服の服装に変更することができる。
情報処理装置101によれば、第2の情報処理端末103における第2のユーザを検出した場合、第2のユーザに対応する履歴情報があるか否かを判断し、第2のユーザに対応する履歴情報がある場合、当該履歴情報に含まれるアバターの情報に基づいて、アバターの出力を制御することができる。
これにより、例えば、第2の情報処理端末103を第2のユーザが前回使用したときと同じ見た目のアバターを通して、前回と同じオペレータが第2のユーザへの応対を行うことが可能となり、キャラクターの一貫性を持たせることができる。
情報処理装置101によれば、第2の情報処理端末103における第2のユーザを検出した場合、第2のユーザの属性情報に基づいて、アバターに対応する操作を促す情報を第1の情報処理端末102に出力することができる。
これにより、第2のユーザの特徴を考慮して、第2のユーザに合った選択肢、例えば、アバターの動作や第2のユーザへの応対を行うオペレータを指定する選択肢を提示可能となり、オペレータの応対業務を支援することができる。例えば、第2のユーザが子供であれば、子供が喜びそうな動作を選択肢として提示したり、子供の応対が得意なオペレータにつなぐための選択肢を提示したりすることができる。
情報処理装置101によれば、第2の情報処理端末103における第2のユーザを検出した場合、第2の情報処理端末103におけるアバターを通した会話において受け付けた情報に基づいて、アバターに対応する操作を促す情報を第1の情報処理端末102に出力することができる。
これにより、第2の情報処理端末103における有人対応によるアバターを通した会話内容を考慮して、第2のユーザに合った選択肢を提示可能となり、オペレータの応対業務を支援することができる。例えば、アバターを通した会話の中で第2のユーザが希望する内容を聞き出して、それについての知識が豊富なオペレータにつなぐための選択肢を提示することができる。
情報処理装置101によれば、第2の情報処理端末103における第2のユーザを検出した場合、第2の情報処理端末103におけるチャットボットでの会話を開始し、チャットボットでの会話において受け付けた情報に基づいて、アバターの動きに対応する操作を促す情報を第1の情報処理端末102に出力することができる。
これにより、第2の情報処理端末103におけるチャットボットでの会話内容を考慮して、第2のユーザに合った選択肢を提示可能となり、オペレータの応対業務を支援することができる。例えば、チャットボットでの会話の中で第2のユーザが希望する内容を聞き出して、それについての知識が豊富なオペレータにつなぐための選択肢を提示することができる。
これらのことから、会話制御システム100および情報処理装置101によれば、バリエーション豊富なアバターの動きを実現するとともに、ユーザに合った適切なオペレータによる応対を実現してサービスの品質向上を図ることができる。
なお、本実施の形態で説明したアバター制御方法は、予め用意されたプログラムをパーソナル・コンピュータやワークステーション等のコンピュータで実行することにより実現することができる。本アバター制御プログラムは、ハードディスク、フレキシブルディスク、CD-ROM、DVD、USBメモリ等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。また、本アバター制御プログラムは、インターネット等のネットワークを介して配布してもよい。
また、本実施の形態で説明した情報処理装置101は、スタンダードセルやストラクチャードASIC(Application Specific Integrated Circuit)などの特定用途向けICやFPGAなどのPLD(Programmable Logic Device)によっても実現することができる。
上述した実施の形態に関し、さらに以下の付記を開示する。
(付記1)第1の情報処理端末における第1のユーザの操作に応じて動くアバターを第2の情報処理端末に出力し、
前記第2の情報処理端末における第2のユーザを検出した場合、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力し、
出力した前記情報に対応する操作を前記第1の情報処理端末において受け付けた場合、受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの出力を制御する、
処理をコンピュータに実行させることを特徴とするアバター制御プログラム。
(付記2)前記制御する処理は、
受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの動きを決定し、決定した前記動きに基づいて、前記アバターの出力を変更する、ことを特徴とする付記1に記載のアバター制御プログラム。
(付記3)前記制御する処理は、
受け付けた前記操作に基づいて、前記アバターの顔部分の出力を変更し、
前記外部環境情報に基づいて、前記アバターの体部分の出力を変更する、
ことを特徴とする付記1に記載のアバター制御プログラム。
(付記4)前記第2の情報処理端末における第2のユーザを検出した場合、前記第2のユーザに対応する履歴情報があるか否かを判断し、
前記第2のユーザに対応する履歴情報がある場合、当該履歴情報に含まれる前記アバターの情報に基づいて、前記アバターの出力を制御する、
処理を前記コンピュータに実行させることを特徴とする付記1に記載のアバター制御プログラム。
(付記5)前記第2の情報処理端末における第2のユーザを検出した場合、前記第2のユーザの属性情報に基づいて、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力する、
処理を前記コンピュータに実行させることを特徴とする付記1に記載のアバター制御プログラム。
(付記6)前記第2の情報処理端末における第2のユーザを検出した場合、前記第2の情報処理端末における前記アバターを通した会話において受け付けた情報に基づいて、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力する、
処理を前記コンピュータに実行させることを特徴とする付記1に記載のアバター制御プログラム。
(付記7)前記第2の情報処理端末における第2のユーザを検出した場合、前記第2の情報処理端末におけるチャットボットでの会話を開始し、
前記チャットボットでの会話において受け付けた情報に基づいて、前記アバターの動きに対応する操作を促す情報を前記第1の情報処理端末に出力する、
処理を前記コンピュータに実行させることを特徴とする付記1に記載のアバター制御プログラム。
(付記8)前記アバターに対応する操作を促す情報は、前記アバターの動作を指定する操作を促す情報である、ことを特徴とする付記1に記載のアバター制御プログラム。
(付記9)前記アバターに対応する操作を促す情報は、前記アバターを通して前記第2のユーザへの応対を行うオペレータを指定する操作を促す情報である、ことを特徴とする付記3に記載のアバター制御プログラム。
(付記10)第1の情報処理端末における第1のユーザの操作に応じて動くアバターを第2の情報処理端末に出力し、
前記第2の情報処理端末における第2のユーザを検出した場合、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力し、
出力した前記情報に対応する操作を前記第1の情報処理端末において受け付けた場合、受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの出力を制御する、
処理をコンピュータが実行することを特徴とするアバター制御方法。
(付記11)第1の情報処理端末における第1のユーザの操作に応じて動くアバターを第2の情報処理端末に出力する第1の出力制御部と、
前記第2の情報処理端末における第2のユーザを検出した場合、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力する第2の出力制御部と、を有し、
前記第1の出力制御部は、
前記第2の出力制御部によって出力された前記情報に対応する操作を前記第1の情報処理端末において受け付けた場合、受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの出力を制御する、
ことを特徴とする情報処理装置。
100 会話制御システム
101 情報処理装置
102 第1の情報処理端末
103 第2の情報処理端末
110 ネットワーク
120 選択肢管理テーブル
130 アバター管理テーブル
140 スクリプトテーブル
200,300 バス
201,301 CPU
202,302 メモリ
203 ディスクドライブ
204 ディスク
205,305 通信I/F
206 可搬型記録媒体I/F
207 可搬型記録媒体
303 ディスプレイ
304 入力装置
306 カメラ
307 スピーカ
308 マイクロフォン
309 GPSユニット
701 第1の出力制御部
702 第2の出力制御部
703 通信部
704 会話制御部
710 記憶部
900,1100 トーク画面
1000 オペレータ支援画面

Claims (8)

  1. 第1の情報処理端末における第1のユーザの操作に応じて動くアバターを第2の情報処理端末に出力し、
    前記第2の情報処理端末における第2のユーザを検出した場合、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力し、
    出力した前記情報に対応する操作を前記第1の情報処理端末において受け付けた場合、受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの出力を制御する、
    処理をコンピュータに実行させることを特徴とするアバター制御プログラム。
  2. 前記制御する処理は、
    受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの動きを決定し、決定した前記動きに基づいて、前記アバターの出力を変更する、ことを特徴とする請求項1に記載のアバター制御プログラム。
  3. 前記制御する処理は、
    受け付けた前記操作に基づいて、前記アバターの顔部分の出力を変更し、
    前記外部環境情報に基づいて、前記アバターの体部分の出力を変更する、
    ことを特徴とする請求項1に記載のアバター制御プログラム。
  4. 前記第2の情報処理端末における第2のユーザを検出した場合、前記第2のユーザに対応する履歴情報があるか否かを判断し、
    前記第2のユーザに対応する履歴情報がある場合、当該履歴情報に含まれる前記アバターの情報に基づいて、前記アバターの出力を制御する、
    処理を前記コンピュータに実行させることを特徴とする請求項1に記載のアバター制御プログラム。
  5. 前記第2の情報処理端末における第2のユーザを検出した場合、前記第2のユーザの属性情報に基づいて、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力する、
    処理を前記コンピュータに実行させることを特徴とする請求項1に記載のアバター制御プログラム。
  6. 前記第2の情報処理端末における第2のユーザを検出した場合、前記第2の情報処理端末における前記アバターを通した会話において受け付けた情報に基づいて、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力する、
    処理を前記コンピュータに実行させることを特徴とする請求項1に記載のアバター制御プログラム。
  7. 第1の情報処理端末における第1のユーザの操作に応じて動くアバターを第2の情報処理端末に出力し、
    前記第2の情報処理端末における第2のユーザを検出した場合、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力し、
    出力した前記情報に対応する操作を前記第1の情報処理端末において受け付けた場合、受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの出力を制御する、
    処理をコンピュータが実行することを特徴とするアバター制御方法。
  8. 第1の情報処理端末における第1のユーザの操作に応じて動くアバターを第2の情報処理端末に出力する第1の出力制御部と、
    前記第2の情報処理端末における第2のユーザを検出した場合、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力する第2の出力制御部と、を有し、
    前記第1の出力制御部は、
    前記第2の出力制御部によって出力された前記情報に対応する操作を前記第1の情報処理端末において受け付けた場合、受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの出力を制御する、
    ことを特徴とする情報処理装置。
JP2022522145A 2020-05-12 2020-05-12 アバター制御プログラム、アバター制御方法および情報処理装置 Active JP7371770B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/019006 WO2021229692A1 (ja) 2020-05-12 2020-05-12 アバター制御プログラム、アバター制御方法および情報処理装置

Publications (3)

Publication Number Publication Date
JPWO2021229692A1 JPWO2021229692A1 (ja) 2021-11-18
JPWO2021229692A5 true JPWO2021229692A5 (ja) 2022-09-14
JP7371770B2 JP7371770B2 (ja) 2023-10-31

Family

ID=78525485

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022522145A Active JP7371770B2 (ja) 2020-05-12 2020-05-12 アバター制御プログラム、アバター制御方法および情報処理装置

Country Status (2)

Country Link
JP (1) JP7371770B2 (ja)
WO (1) WO2021229692A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024058439A1 (ko) * 2022-09-13 2024-03-21 삼성전자주식회사 가상 공간에 배치되는 아바타 오브젝트의 페르소나를 결정하는 방법 및 장치

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4709598B2 (ja) * 2005-07-11 2011-06-22 公立大学法人岡山県立大学 アバター表示機能付き通話端末
JP4798577B2 (ja) * 2006-01-26 2011-10-19 株式会社国際電気通信基礎技術研究所 対話支援システム
JP6543891B2 (ja) * 2014-05-15 2019-07-17 株式会社リコー コミュニケーション補助装置、コミュニケーション補助システム、コミュニケーション補助方法及びプログラム
KR101825094B1 (ko) * 2016-06-08 2018-02-02 한양대학교 산학협력단 파지 동작 계획 방법 및 장치
JP7012953B2 (ja) * 2017-08-30 2022-01-31 株式会社国際電気通信基礎技術研究所 感覚刺激提示システム、プログラムおよび方法
JP2019105944A (ja) 2017-12-11 2019-06-27 トヨタ自動車株式会社 表示制御装置

Similar Documents

Publication Publication Date Title
US20220254343A1 (en) System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs
US11468894B2 (en) System and method for personalizing dialogue based on user's appearances
CN110998725B (zh) 在对话中生成响应
JP4395687B2 (ja) 情報処理装置
JP7070652B2 (ja) 情報処理システム、情報処理方法、およびプログラム
US11017551B2 (en) System and method for identifying a point of interest based on intersecting visual trajectories
KR20170085422A (ko) 가상 에이전트 동작 방법 및 장치
CN109086860B (zh) 一种基于虚拟人的交互方法及系统
CN107480766B (zh) 多模态虚拟机器人的内容生成的方法和系统
US11308312B2 (en) System and method for reconstructing unoccupied 3D space
US10785489B2 (en) System and method for visual rendering based on sparse samples with predicted motion
US20190251350A1 (en) System and method for inferring scenes based on visual context-free grammar model
JP2018024058A (ja) 接客装置、接客方法及び接客システム
US20230108256A1 (en) Conversational artificial intelligence system in a virtual reality space
JP7371770B2 (ja) アバター制御プログラム、アバター制御方法および情報処理装置
CN114048299A (zh) 对话方法、装置、设备、计算机可读存储介质及程序产品
JPWO2021229692A5 (ja)
CN112820265B (zh) 一种语音合成模型训练方法和相关装置
CN118227009A (zh) 基于虚拟形象的物品交互方法、装置及电子设备
CN113205569A (zh) 图像绘制方法及装置、计算机可读介质和电子设备
WO2019054009A1 (ja) 情報処理装置、情報処理方法、およびプログラム
KR20170093631A (ko) 적응적 컨텐츠 출력 방법