JP7371770B2 - Avatar control program, avatar control method, and information processing device - Google Patents

Avatar control program, avatar control method, and information processing device Download PDF

Info

Publication number
JP7371770B2
JP7371770B2 JP2022522145A JP2022522145A JP7371770B2 JP 7371770 B2 JP7371770 B2 JP 7371770B2 JP 2022522145 A JP2022522145 A JP 2022522145A JP 2022522145 A JP2022522145 A JP 2022522145A JP 7371770 B2 JP7371770 B2 JP 7371770B2
Authority
JP
Japan
Prior art keywords
information processing
avatar
processing terminal
information
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022522145A
Other languages
Japanese (ja)
Other versions
JPWO2021229692A5 (en
JPWO2021229692A1 (en
Inventor
慎二 生川
和宏 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2021229692A1 publication Critical patent/JPWO2021229692A1/ja
Publication of JPWO2021229692A5 publication Critical patent/JPWO2021229692A5/ja
Application granted granted Critical
Publication of JP7371770B2 publication Critical patent/JP7371770B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、アバター制御プログラム、アバター制御方法および情報処理装置に関する。 The present invention relates to an avatar control program, an avatar control method, and an information processing device.

近年、チャットボットと呼ばれる技術を利用した自動応答システムがある。チャットボットは、人工知能を利用して、人間との対話やメッセージのやりとりを行うコンピュータシステムである。また、チャットボットでの会話において、特定の条件を満たす場合に、チャットボット対応から有人対応の会話に切り替える場合がある。 In recent years, there have been automated response systems that utilize technology called chatbots. A chatbot is a computer system that uses artificial intelligence to interact and exchange messages with humans. In addition, in a conversation with a chatbot, if specific conditions are met, the conversation may be switched from chatbot support to manned conversation.

先行技術としては、ユーザに関する情報を取得し、取得した情報からユーザの状態を推定し、推定結果に基づいて、キャラクターに動作および/または発言を行わせるための情報を生成し、生成した情報を出力するものがある。また、情報処理端末から、チャットボットとの会話の開始指示とともに、情報処理端末が取得したユーザの属性情報を受信し、ユーザの属性情報に基づいて決定されるスクリプト情報を用いて、情報処理端末におけるチャットボットとの会話を開始する技術がある。また、リアルタイム会話の解析に基づいて、電話呼がボットから人間に移行されるべきかどうかを決定し、移行されるべきであるとの決定に応答して、ボットから人間へ電話呼を移行させる技術がある。 The prior art involves acquiring information about the user, estimating the user's state from the acquired information, generating information for making the character take action and/or speaking based on the estimation result, and using the generated information. There is something to output. In addition, the information processing terminal receives an instruction to start a conversation with the chatbot as well as the user's attribute information acquired by the information processing terminal, and uses script information determined based on the user's attribute information to There are techniques to start a conversation with a chatbot in . It also determines whether the phone call should be transferred from the bot to the human based on analysis of the real-time conversation, and in response to the determination that the phone call should be transferred, transfers the phone call from the bot to the human. There is technology.

特開2019-139170号公報Japanese Patent Application Publication No. 2019-139170 特許第6648876号公報Patent No. 6648876 特表2019-522914号公報Special table 2019-522914 publication

しかしながら、従来技術では、デジタルボードなどに表示されるアバターを通して、オペレータがユーザへの応対を行うにあたり、アバターの動きが定型的なものとなるという問題がある。 However, in the conventional technology, when an operator responds to a user through an avatar displayed on a digital board or the like, there is a problem in that the movements of the avatar become stereotypical.

一つの側面では、本発明は、外部環境に合わせてアバターの出力を制御することを目的とする。 In one aspect, the present invention aims to control the output of an avatar in accordance with the external environment.

1つの実施態様では、第1の情報処理端末における第1のユーザの操作に応じて動くアバターを第2の情報処理端末に出力し、前記第2の情報処理端末における第2のユーザを検出した場合、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力し、出力した前記情報に対応する操作を前記第1の情報処理端末において受け付けた場合、受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの出力を制御する、アバター制御プログラムが提供される。 In one embodiment, an avatar that moves in response to an operation by a first user on a first information processing terminal is output to a second information processing terminal, and a second user on the second information processing terminal is detected. In this case, when information prompting an operation corresponding to the avatar is output to the first information processing terminal, and an operation corresponding to the outputted information is received at the first information processing terminal, the received operation and the An avatar control program is provided that controls output of the avatar based on external environment information detected by the second information processing terminal.

本発明の一側面によれば、外部環境に合わせてアバターの出力を制御することができるという効果を奏する。 According to one aspect of the present invention, it is possible to control the output of the avatar in accordance with the external environment.

図1は、会話制御システム100のシステム構成例を示す説明図である。FIG. 1 is an explanatory diagram showing an example of a system configuration of a conversation control system 100. 図2は、情報処理装置101のハードウェア構成例を示すブロック図である。FIG. 2 is a block diagram showing an example of the hardware configuration of the information processing apparatus 101. 図3は、情報処理端末102,103のハードウェア構成例を示すブロック図である。FIG. 3 is a block diagram showing an example of the hardware configuration of the information processing terminals 102 and 103. 図4は、選択肢管理テーブル120の記憶内容の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of the storage contents of the option management table 120. 図5は、アバター管理テーブル130の記憶内容の一例を示す説明図である。FIG. 5 is an explanatory diagram showing an example of the stored contents of the avatar management table 130. 図6は、スクリプトテーブル140の記憶内容の一例を示す説明図である。FIG. 6 is an explanatory diagram showing an example of the stored contents of the script table 140. 図7は、情報処理装置101の機能的構成例を示すブロック図である。FIG. 7 is a block diagram showing an example of the functional configuration of the information processing device 101. As shown in FIG. 図8は、会話制御システム100の一実施例を示す説明図である。FIG. 8 is an explanatory diagram showing one embodiment of the conversation control system 100. 図9は、第2の情報処理端末103に表示されるトーク画面の画面例を示す説明図(その1)である。FIG. 9 is an explanatory diagram (part 1) showing an example of the talk screen displayed on the second information processing terminal 103. 図10は、第1の情報処理端末102に表示されるオペレータ支援画面の画面例を示す説明図である。FIG. 10 is an explanatory diagram showing an example of the operator support screen displayed on the first information processing terminal 102. 図11は、第2の情報処理端末103に表示されるトーク画面の画面例を示す説明図(その2)である。FIG. 11 is an explanatory diagram (part 2) showing an example of the talk screen displayed on the second information processing terminal 103. 図12は、情報処理装置101のアバター制御処理手順の一例を示すフローチャート(その1)である。FIG. 12 is a flowchart (part 1) illustrating an example of the avatar control processing procedure of the information processing apparatus 101. 図13は、情報処理装置101のアバター制御処理手順の一例を示すフローチャート(その2)である。FIG. 13 is a flowchart (Part 2) illustrating an example of the avatar control processing procedure of the information processing apparatus 101. 図14は、アバター出力変更処理の具体的処理手順の一例を示すフローチャートである。FIG. 14 is a flowchart illustrating an example of a specific procedure for changing the avatar output.

以下に図面を参照して、本発明にかかるアバター制御プログラム、アバター制御方法および情報処理装置の実施の形態を詳細に説明する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of an avatar control program, an avatar control method, and an information processing apparatus according to the present invention will be described in detail below with reference to the drawings.

(実施の形態)
まず、実施の形態にかかる情報処理装置101を含む会話制御システム100のシステム構成例について説明する。会話制御システム100は、例えば、チャットボットによる自動応答やオペレータによる有人対応により、店舗の案内や、企業におけるキャリア相談などを行ったりするサービスに適用される。
(Embodiment)
First, a system configuration example of the conversation control system 100 including the information processing device 101 according to the embodiment will be described. The conversation control system 100 is applied, for example, to services such as store guidance, career counseling in companies, etc., using automatic responses by chatbots and manned responses by operators.

図1は、会話制御システム100のシステム構成例を示す説明図である。図1において、会話制御システム100は、情報処理装置101と、第1の情報処理端末102と、第2の情報処理端末103と、を含む。会話制御システム100において、情報処理装置101、第1の情報処理端末102および第2の情報処理端末103は、有線または無線のネットワーク110を介して接続される。ネットワーク110は、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、インターネットなどである。会話制御システム100には、例えば、複数の第1の情報処理端末102と、複数の第2の情報処理端末103とが含まれる。 FIG. 1 is an explanatory diagram showing an example of a system configuration of a conversation control system 100. In FIG. 1, conversation control system 100 includes an information processing device 101, a first information processing terminal 102, and a second information processing terminal 103. In the conversation control system 100, an information processing device 101, a first information processing terminal 102, and a second information processing terminal 103 are connected via a wired or wireless network 110. The network 110 is, for example, a LAN (Local Area Network), a WAN (Wide Area Network), the Internet, or the like. The conversation control system 100 includes, for example, a plurality of first information processing terminals 102 and a plurality of second information processing terminals 103.

ここで、情報処理装置101は、アバターの出力を制御するコンピュータである。アバターは、第1の情報処理端末102における第1のユーザの操作に応じて動くキャラクターであり、例えば、ネットワーク上の仮想空間でのオペレータの分身として表示される。情報処理装置101は、例えば、サーバである。 Here, the information processing device 101 is a computer that controls the output of the avatar. The avatar is a character that moves in response to the first user's operation on the first information processing terminal 102, and is displayed as an alter ego of the operator in a virtual space on the network, for example. The information processing device 101 is, for example, a server.

情報処理装置101は、例えば、選択肢管理テーブル120、アバター管理テーブル130およびスクリプトテーブル140を有する。選択肢管理テーブル120、アバター管理テーブル130およびスクリプトテーブル140の記憶内容については、図4~図6を用いて後述する。 The information processing device 101 includes, for example, an option management table 120, an avatar management table 130, and a script table 140. The stored contents of the option management table 120, the avatar management table 130, and the script table 140 will be described later using FIGS. 4 to 6.

第1の情報処理端末102は、第1のユーザが使用するコンピュータであり、第2の情報処理端末103に表示されるアバターを操作可能である。第1のユーザは、例えば、第2の情報処理端末103を使用するユーザへの対応を行うオペレータである。第1の情報処理端末102において、第1のユーザは、第2の情報処理端末103に表示されるアバターを通して、第2のユーザと会話を行うことができる。第1の情報処理端末102は、例えば、PC(Personal Computer)、タブレットPCなどである。 The first information processing terminal 102 is a computer used by a first user, and is capable of operating an avatar displayed on the second information processing terminal 103. The first user is, for example, an operator who responds to users who use the second information processing terminal 103. At the first information processing terminal 102, the first user can have a conversation with the second user through the avatar displayed on the second information processing terminal 103. The first information processing terminal 102 is, for example, a PC (Personal Computer), a tablet PC, or the like.

第2の情報処理端末103は、第2のユーザが使用するコンピュータである。第2の情報処理端末103は、例えば、店舗や施設などに設置され、不特定多数の人に利用されるデジタルボードである。また、第2の情報処理端末103は、店舗や施設で貸し出される、あるいは、ユーザ個人が所有するスマートフォン、タブレットPCなどであってもよい。施設は、例えば、商業施設、企業施設、公共施設などである。 The second information processing terminal 103 is a computer used by a second user. The second information processing terminal 103 is, for example, a digital board installed in a store or facility and used by an unspecified number of people. Further, the second information processing terminal 103 may be a smartphone, a tablet PC, etc. rented out at a store or facility, or owned by the user. The facility is, for example, a commercial facility, a corporate facility, a public facility, or the like.

また、第2の情報処理端末103は、第2のユーザが、チャットボットでの会話を行う際に利用可能であってもよい。第2の情報処理端末103において、第2のユーザは、例えば、メッセージを入力したり、選択肢を選択したりすることで、チャットボットオペレータと対話しながら、所望の回答を探したり、サービスを利用したりすることができる。回答は、例えば、FAQ(Frequently Asked Question)である。 Further, the second information processing terminal 103 may be available for use by the second user when having a chatbot conversation. On the second information processing terminal 103, the second user interacts with the chatbot operator, searching for a desired answer or using the service, by inputting a message or selecting options, for example. You can do it. The answers are, for example, FAQs (Frequently Asked Questions).

FAQは、「頻繁に尋ねられる質問」の意味であり、あらかじめ予想される質問に対して、質問と回答とをまとめたものである。質問は、何らかの問題の解決方法を問うものであってもよく、また、話し言葉による問いかけであってもよい。回答は、質問された問題の解決方法を示す回答や、話し言葉による問いかけに対する回答などである。 FAQ means "frequently asked questions" and is a collection of questions and answers to anticipated questions. The question may ask how to solve some problem, or may be a spoken question. The answers include answers that show how to solve the posed problem and answers to spoken questions.

なお、図示は省略するが、情報処理装置101は、例えば、FAQマスタやチャットログDB(Database)などを有する。FAQマスタは、FAQを記憶する。チャットログDBは、チャットログを記憶する。チャットログは、第2のユーザとの会話に関する会話履歴である。チャットログは、例えば、ルームIDと対応付けて、チャットログDBに記憶される。ルームIDによれば、チャットボットやオペレータとの一連の会話を特定することができる。 Although not shown, the information processing device 101 includes, for example, an FAQ master, a chat log DB (Database), and the like. The FAQ master stores FAQs. The chat log DB stores chat logs. The chat log is a conversation history regarding conversations with the second user. The chat log is stored in the chat log DB in association with, for example, a room ID. According to the room ID, a series of conversations with a chatbot or an operator can be specified.

ここで、オペレータがアバターを通してユーザへの応対を行うことで、チャットボットによる自動応答に比べて、きめ細かい対応を行うことが期待できる。一方で、オペレータがアバターを通してユーザへの応対を行うにあたり、アバターの動きが定型的なものとなると、人間と話しているような感じをユーザに与えることは難しい。 Here, by having the operator respond to the user through an avatar, it can be expected that the user will be able to receive a more detailed response than an automatic response provided by a chatbot. On the other hand, when an operator responds to a user through an avatar, if the avatar's movements become routine, it is difficult to give the user the feeling that he or she is talking to a human being.

このため、オペレータの操作に応じて、手を振ったり、うなずいたり、笑ったりするなどの動きをアバターにさせることが考えられる。これにより、ユーザへの応対内容に応じてアバターの動きを変化させることができる。しかし、時間、場所、天候などによって、アバターの好ましい動きが異なる場合がある。 For this reason, it is conceivable to have the avatar make movements such as waving, nodding, or smiling in response to the operator's operations. Thereby, the movement of the avatar can be changed depending on the content of the response to the user. However, the preferred movement of the avatar may differ depending on the time, location, weather, etc.

例えば、昼間の時間帯は、夜間の時間帯に比べて、明るく大きなモーションで動かすことが好ましい場合がある。また、場所によっては、礼儀正しく落ち着いた感じで動かすことが好ましい場合があるし、子供向けに明るく大きなモーションで動かすことが好ましい場合がある。 For example, it may be preferable to move brightly and with a larger motion during daytime hours than during nighttime hours. Also, depending on the location, it may be preferable to move in a polite and calm manner, or it may be preferable to move in a bright and loud motion for children.

そこで、実施の形態では、アバターを通してオペレータがユーザへの応対を行うにあたり、ユーザへの応対内容だけでなく、時間、場所、天候などの外部環境を考慮して、アバターの動きを制御することで、バリエーション豊富なアバターの動きを実現するアバター制御方法について説明する。 Therefore, in the embodiment, when an operator responds to a user through an avatar, the movement of the avatar is controlled by taking into account not only the content of the response to the user but also the external environment such as time, location, and weather. , we will explain an avatar control method that realizes a wide variety of avatar movements.

(情報処理装置101のハードウェア構成例)
つぎに、情報処理装置101のハードウェア構成例について説明する。
(Example of hardware configuration of information processing device 101)
Next, an example of the hardware configuration of the information processing device 101 will be described.

図2は、情報処理装置101のハードウェア構成例を示すブロック図である。図2において、情報処理装置101は、CPU(Central Processing Unit)201と、メモリ202と、ディスクドライブ203と、ディスク204と、通信I/F(Interface)205と、可搬型記録媒体I/F206と、可搬型記録媒体207と、を有する。また、各構成部は、バス200によってそれぞれ接続される。 FIG. 2 is a block diagram showing an example of the hardware configuration of the information processing apparatus 101. In FIG. 2, the information processing device 101 includes a CPU (Central Processing Unit) 201, a memory 202, a disk drive 203, a disk 204, a communication I/F (Interface) 205, and a portable recording medium I/F 206. , and a portable recording medium 207. Further, each component is connected to each other by a bus 200.

ここで、CPU201は、情報処理装置101の全体の制御を司る。CPU201は、複数のコアを有していてもよい。メモリ202は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)およびフラッシュROMなどを有する。具体的には、例えば、フラッシュROMがOS(Operating System)のプログラムを記憶し、ROMがアプリケーションプログラムを記憶し、RAMがCPU201のワークエリアとして使用される。メモリ202に記憶されるプログラムは、CPU201にロードされることで、コーディングされている処理をCPU201に実行させる。 Here, the CPU 201 is in charge of overall control of the information processing apparatus 101. CPU 201 may have multiple cores. The memory 202 includes, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), a flash ROM, and the like. Specifically, for example, a flash ROM stores an OS (Operating System) program, a ROM stores an application program, and a RAM is used as a work area for the CPU 201. The program stored in the memory 202 is loaded into the CPU 201 and causes the CPU 201 to execute the coded processing.

ディスクドライブ203は、CPU201の制御に従ってディスク204に対するデータのリード/ライトを制御する。ディスク204は、ディスクドライブ203の制御で書き込まれたデータを記憶する。ディスク204としては、例えば、磁気ディスク、光ディスクなどが挙げられる。 The disk drive 203 controls reading/writing of data to/from the disk 204 under the control of the CPU 201 . The disk 204 stores data written under the control of the disk drive 203. Examples of the disk 204 include a magnetic disk and an optical disk.

通信I/F205は、通信回線を通じてネットワーク110に接続され、ネットワーク110を介して外部のコンピュータ(例えば、図1に示した第1の情報処理端末102、第2の情報処理端末103)に接続される。そして、通信I/F205は、ネットワーク110と装置内部とのインターフェースを司り、外部のコンピュータからのデータの入出力を制御する。通信I/F205には、例えば、モデムやLANアダプタなどを採用することができる。 The communication I/F 205 is connected to a network 110 through a communication line, and is connected to an external computer (for example, the first information processing terminal 102 and the second information processing terminal 103 shown in FIG. 1) via the network 110. Ru. The communication I/F 205 serves as an interface between the network 110 and the inside of the device, and controls data input/output from an external computer. For example, a modem or a LAN adapter can be used as the communication I/F 205.

可搬型記録媒体I/F206は、CPU201の制御に従って可搬型記録媒体207に対するデータのリード/ライトを制御する。可搬型記録媒体207は、可搬型記録媒体I/F206の制御で書き込まれたデータを記憶する。可搬型記録媒体207としては、例えば、CD(Compact Disc)-ROM、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリなどが挙げられる。 The portable recording medium I/F 206 controls reading/writing of data to/from the portable recording medium 207 under the control of the CPU 201 . The portable recording medium 207 stores data written under the control of the portable recording medium I/F 206. Examples of the portable recording medium 207 include a CD (Compact Disc)-ROM, a DVD (Digital Versatile Disk), and a USB (Universal Serial Bus) memory.

なお、情報処理装置101は、上述した構成部のほかに、例えば、SSD(Solid State Drive)、入力装置、ディスプレイ等を有することにしてもよい。また、情報処理装置101は、上述した構成部のうち、例えば、ディスクドライブ203、ディスク204、可搬型記録媒体I/F206、可搬型記録媒体207を有していなくてもよい。 Note that the information processing device 101 may include, for example, an SSD (Solid State Drive), an input device, a display, etc. in addition to the above-described components. Further, the information processing apparatus 101 does not need to include, for example, the disk drive 203, the disk 204, the portable recording medium I/F 206, and the portable recording medium 207 among the above-mentioned components.

(第1の情報処理端末102および第2の情報処理端末103のハードウェア構成例)
つぎに、第1の情報処理端末102および第2の情報処理端末103のハードウェア構成例について説明する。ただし、ここでは、第1の情報処理端末102および第2の情報処理端末103を「情報処理端末102,103」と表記する。
(Example of hardware configuration of first information processing terminal 102 and second information processing terminal 103)
Next, an example of the hardware configuration of the first information processing terminal 102 and the second information processing terminal 103 will be described. However, here, the first information processing terminal 102 and the second information processing terminal 103 are referred to as "information processing terminals 102, 103."

図3は、情報処理端末102,103のハードウェア構成例を示すブロック図である。図3において、情報処理端末102,103は、CPU301と、メモリ302と、ディスプレイ303と、入力装置304と、通信I/F305と、カメラ306と、スピーカ307と、マイクロフォン308と、GPS(Global Positioning System)ユニット309と、を有する。また、各構成部はバス300によってそれぞれ接続される。 FIG. 3 is a block diagram showing an example of the hardware configuration of the information processing terminals 102 and 103. In FIG. 3, the information processing terminals 102 and 103 include a CPU 301, a memory 302, a display 303, an input device 304, a communication I/F 305, a camera 306, a speaker 307, a microphone 308, and a GPS (Global Positioning System) unit 309. Further, each component is connected to each other by a bus 300.

ここで、CPU301は、情報処理端末102,103の全体の制御を司る。CPU301は、複数のコアを有していてもよい。メモリ302は、例えば、ROM、RAMおよびフラッシュROMなどを有する記憶部である。具体的には、例えば、フラッシュROMやROMが各種プログラムを記憶し、RAMがCPU301のワークエリアとして使用される。メモリ302に記憶されるプログラムは、CPU301にロードされることで、コーディングされている処理をCPU301に実行させる。 Here, the CPU 301 is in charge of overall control of the information processing terminals 102 and 103. CPU 301 may have multiple cores. The memory 302 is a storage unit including, for example, ROM, RAM, and flash ROM. Specifically, for example, a flash ROM or ROM stores various programs, and a RAM is used as a work area for the CPU 301. The program stored in the memory 302 is loaded into the CPU 301 and causes the CPU 301 to execute the coded processing.

ディスプレイ303は、カーソル、アイコンあるいはツールボックスをはじめ、文書、画像、機能情報などのデータを表示する表示装置である。ディスプレイ303としては、例えば、液晶ディスプレイや有機EL(Electroluminescence)ディスプレイなどを採用することができる。 The display 303 is a display device that displays data such as cursors, icons, tool boxes, documents, images, and functional information. As the display 303, for example, a liquid crystal display, an organic EL (electroluminescence) display, or the like can be used.

入力装置304は、文字、数字、各種指示などの入力のためのキーを有し、データの入力を行う。入力装置304は、タッチパネル式の入力パッドやテンキーなどであってもよく、また、キーボードやマウスなどであってもよい。 The input device 304 has keys for inputting characters, numbers, various instructions, etc., and inputs data. The input device 304 may be a touch panel type input pad, a numeric keypad, or the like, or may be a keyboard, a mouse, or the like.

通信I/F305は、通信回線を通じてネットワーク110に接続され、ネットワーク110を介して外部のコンピュータ(例えば、図1に示した情報処理装置101、第1の情報処理端末102、第2の情報処理端末103)に接続される。そして、通信I/F305は、ネットワーク110と自装置内部とのインターフェースを司り、外部装置からのデータの入出力を制御する。 The communication I/F 305 is connected to the network 110 through a communication line, and is connected to an external computer (for example, the information processing apparatus 101, the first information processing terminal 102, and the second information processing terminal shown in FIG. 1) via the network 110. 103). The communication I/F 305 serves as an interface between the network 110 and the inside of the device itself, and controls input/output of data from external devices.

カメラ306は、画像(静止画または動画)を撮影して画像データを出力する撮影装置である。スピーカ307は、電気信号を音声に変換して、音声を出力する。マイクロフォン308は、音声を受音して電気信号に変換する。 The camera 306 is a photographing device that photographs images (still images or moving images) and outputs image data. The speaker 307 converts the electrical signal into sound and outputs the sound. Microphone 308 receives audio and converts it into an electrical signal.

GPSユニット309は、GPS衛星からの電波を受信し、情報処理端末102,103の位置情報を出力する。情報処理端末102,103の位置情報は、例えば、緯度、経度などの地球上の1点を特定する情報である。また、衛星として、例えば、準天頂衛星システムの衛星を用いることにしてもよい。 The GPS unit 309 receives radio waves from GPS satellites and outputs position information of the information processing terminals 102 and 103. The location information of the information processing terminals 102 and 103 is, for example, information specifying one point on the earth, such as latitude and longitude. Further, as the satellite, for example, a satellite of the quasi-zenith satellite system may be used.

なお、情報処理端末102,103は、上述した構成部のほかに、例えば、HDD(Hard Disk Drive)、SSD、近距離無線通信I/F、可搬型記録媒体I/F、可搬型記録媒体などを有することにしてもよい。第2の情報処理端末103は、GPSユニット309を有していなくてもよい。 In addition to the above-mentioned components, the information processing terminals 102 and 103 also include, for example, an HDD (Hard Disk Drive), an SSD, a short-range wireless communication I/F, a portable recording medium I/F, a portable recording medium, etc. You may decide to have The second information processing terminal 103 does not need to have the GPS unit 309.

(各種テーブル120,130,140の記憶内容)
つぎに、図4~図6を用いて、情報処理装置101が有する各種テーブル120,130,140の記憶内容について説明する。各種テーブル120,130,140は、例えば、図2に示したメモリ202、ディスク204などの記憶装置により実現される。
(Memory contents of various tables 120, 130, 140)
Next, the stored contents of the various tables 120, 130, and 140 included in the information processing apparatus 101 will be explained using FIGS. 4 to 6. The various tables 120, 130, and 140 are realized by storage devices such as the memory 202 and the disk 204 shown in FIG. 2, for example.

図4は、選択肢管理テーブル120の記憶内容の一例を示す説明図である。図4において、選択肢管理テーブル120は、会話内容、選択肢1、選択肢2、選択肢3、選択肢4および選択肢5のフィールドを有し、各フィールドに情報を設定することで、選択肢管理情報(例えば、選択肢管理情報400-1~400-3)をレコードとして記憶する。 FIG. 4 is an explanatory diagram showing an example of the storage contents of the option management table 120. In FIG. 4, the option management table 120 has fields for conversation content, option 1, option 2, option 3, option 4, and option 5, and by setting information in each field, option management information (for example, option Management information 400-1 to 400-3) are stored as records.

会話内容は、アバターを通したオペレータとの会話やチャットボットでの会話の内容を特定する情報である。例えば、会話内容は、アバターを通したオペレータとの会話やチャットボットでの会話において、選択された選択肢や、入力された情報などを示す。 The conversation content is information that specifies the content of the conversation with the operator through the avatar or the conversation with the chatbot. For example, the conversation content indicates options selected, information input, etc. in a conversation with an operator through an avatar or a conversation with a chatbot.

選択肢1~5は、アバターに対応する選択肢であり、会話内容に対応付けて用意される。選択肢1~5は、例えば、アバターを操作可能なオペレータに提示される。すなわち、アバターを通したオペレータとの会話やチャットボットでの会話の内容に応じて、オペレータに提示する選択肢を切り替える。 Options 1 to 5 are options corresponding to avatars, and are prepared in association with conversation content. Options 1 to 5 are presented to an operator who can operate the avatar, for example. That is, the options presented to the operator are changed depending on the content of the conversation with the operator through the avatar or the chatbot.

例えば、選択肢管理情報400-1は、会話内容C1に対応する選択肢ch1~ch4を示す。なお、ここでは、会話内容に対応する選択肢の最大数として、「5」を例に挙げて説明するが、これに限らない。例えば、選択肢の最大数は、5未満であってもよく、また、6以上であってもよい。 For example, option management information 400-1 indicates options ch1 to ch4 corresponding to conversation content C1. In addition, although "5" is given as an example and is demonstrated here as the maximum number of options corresponding to the content of a conversation, it is not limited to this. For example, the maximum number of options may be less than 5, or may be 6 or more.

図5は、アバター管理テーブル130の記憶内容の一例を示す説明図である。図5において、アバター管理テーブル130は、オペレータID、選択肢、顔データ、外部環境および体データのフィールドを有し、各フィールドに情報を設定することで、アバター管理情報(例えば、アバター管理情報500-1,500-2)をレコードとして記憶する。 FIG. 5 is an explanatory diagram showing an example of the stored contents of the avatar management table 130. In FIG. 5, the avatar management table 130 has fields for operator ID, options, face data, external environment, and body data, and by setting information in each field, avatar management information (for example, avatar management information 500- 1,500-2) is stored as a record.

ここで、選択肢は、第1の情報処理端末102に選択可能に表示される選択肢(例えば、図4に示した選択肢1~5)に対応する。顔データは、アバターの顔部分の見た目を特定する情報である。例えば、顔データは、選択肢に対応付けて用意される。外部環境は、アバターが表示される第2の情報処理端末103における外部の環境を表す。例えば、外部環境は、時間(時刻、時間帯、日付など)、場所、季節、天気、温度、湿度などを表す。 Here, the options correspond to options (for example, options 1 to 5 shown in FIG. 4) that are selectably displayed on the first information processing terminal 102. Face data is information that specifies the appearance of the avatar's face. For example, face data is prepared in association with options. The external environment represents the external environment of the second information processing terminal 103 where the avatar is displayed. For example, the external environment represents time (time of day, time zone, date, etc.), location, season, weather, temperature, humidity, and the like.

体データは、アバターの体部分の見た目を特定する情報である。例えば、体データは、外部環境に対応付けて用意される。オペレータIDは、選択肢に対応するオペレータを一意に識別する識別子である。例えば、オペレータIDは、オペレータが使用する第1の情報処理端末102を一意に識別する識別子であってもよい。 Body data is information that specifies the appearance of the avatar's body parts. For example, body data is prepared in association with the external environment. The operator ID is an identifier that uniquely identifies the operator corresponding to the option. For example, the operator ID may be an identifier that uniquely identifies the first information processing terminal 102 used by the operator.

例えば、アバター管理情報500-1は、選択肢ch1に対応する顔データfc1およびオペレータOP1と、外部環境E1に対応する体データbd1とを示す。 For example, avatar management information 500-1 indicates face data fc1 and operator OP1 corresponding to option ch1, and body data bd1 corresponding to external environment E1.

図6は、スクリプトテーブル140の記憶内容の一例を示す説明図である。図6において、スクリプトテーブル140は、ユーザ属性およびスクリプトのフィールドを有し、各フィールドに情報を設定することで、スクリプト管理情報(例えば、スクリプト管理情報600-1~600-3)をレコードとして記憶する。 FIG. 6 is an explanatory diagram showing an example of the stored contents of the script table 140. In FIG. 6, the script table 140 has user attribute and script fields, and by setting information in each field, script management information (for example, script management information 600-1 to 600-3) is stored as a record. do.

ここで、ユーザ属性は、ユーザの特徴を表す情報である。例えば、ユーザ属性は、年齢、年代、性別、使用言語、服装、同行者の有無などを表す。スクリプトは、チャットボットの会話の流れを定義した情報(シナリオ)であり、ユーザ属性と対応付けて用意される。スクリプトは、チャットのトーク処理を定義した情報である。 Here, the user attribute is information representing the user's characteristics. For example, user attributes include age, generation, gender, language used, clothing, presence or absence of companions, and the like. The script is information (scenario) that defines the conversation flow of the chatbot, and is prepared in association with user attributes. The script is information that defines chat processing.

トーク処理は、チャットボットの動作(挙動)を実現するための処理である。例えば、トーク処理は、発話する処理、選択肢を表示する処理、ユーザ操作に応じて選択肢を選択する処理、選択された選択肢や入力された情報に応じた手続きを行う処理、トーク処理を終了する処理などを含む。 The talk process is a process for realizing the operation (behavior) of the chatbot. For example, the talk process includes the process of speaking, the process of displaying options, the process of selecting options according to user operations, the process of performing procedures according to the selected options and input information, and the process of terminating the talk process. Including.

すなわち、スクリプトテーブル140では、ユーザ属性に対応するスクリプトをあらかじめ用意しておく。例えば、年代の違いによって、よく選ばれるFAQが変化する傾向がある。一例を挙げると、30代~40代のユーザは、他の年代のユーザと比べて、キャリアアップに関するFAQを選ぶ傾向がある。また、言語の違いによっても、よく選ばれるFAQが変化する傾向がある。一例を挙げると、講座を受講するにあたり、日本語以外の言語を話す人(例えば、外国人)は、日本語を話す人と比べて、日本語講座に関するFAQを選ぶ傾向がある。 That is, in the script table 140, scripts corresponding to user attributes are prepared in advance. For example, frequently selected FAQs tend to change depending on the age group. For example, users in their 30s and 40s are more likely to choose FAQs related to career advancement than users in other age groups. Frequently selected FAQs also tend to change depending on the language. For example, when taking a course, people who speak a language other than Japanese (eg, foreigners) are more likely to choose FAQs regarding Japanese courses than people who speak Japanese.

例えば、スクリプト管理情報600-1は、ユーザ属性UA1に対応するスクリプトSP1を示す。なお、時間や場所などの違いによっても、よく選ばれるFAQが変化する場合がある。このため、スクリプトテーブル140には、ユーザ属性と外部環境との組み合わせに対応するスクリプトをあらかじめ用意しておくことにしてもよい。 For example, script management information 600-1 indicates script SP1 corresponding to user attribute UA1. Note that frequently selected FAQs may change depending on the time or location. For this reason, scripts corresponding to combinations of user attributes and external environments may be prepared in advance in the script table 140.

(情報処理装置101の機能的構成例)
図7は、情報処理装置101の機能的構成例を示すブロック図である。図7において、情報処理装置101は、第1の出力制御部701と、第2の出力制御部702と、通信部703と、会話制御部704と、記憶部710と、を含む。具体的には、例えば、第1の出力制御部701~会話制御部704は、図2に示したメモリ202、ディスク204、可搬型記録媒体207などの記憶装置に記憶されたプログラムをCPU201に実行させることにより、または、通信I/F205により、その機能を実現する。各機能部の処理結果は、例えば、メモリ202、ディスク204などの記憶装置に記憶される。記憶部710は、例えば、メモリ202、ディスク204などの記憶装置により実現される。具体的には、例えば、記憶部710は、図4に示した選択肢管理テーブル120、図5に示したアバター管理テーブル130、図6に示したスクリプトテーブル140、FAQマスタ、チャットログDBなどを記憶する。
(Functional configuration example of information processing device 101)
FIG. 7 is a block diagram showing an example of the functional configuration of the information processing device 101. As shown in FIG. In FIG. 7, the information processing device 101 includes a first output control section 701, a second output control section 702, a communication section 703, a conversation control section 704, and a storage section 710. Specifically, for example, the first output control unit 701 to conversation control unit 704 cause the CPU 201 to execute a program stored in a storage device such as the memory 202, the disk 204, or the portable recording medium 207 shown in FIG. This function is realized by the communication I/F 205 or by the communication I/F 205. The processing results of each functional unit are stored in a storage device such as the memory 202 or the disk 204, for example. The storage unit 710 is realized by a storage device such as the memory 202 and the disk 204, for example. Specifically, for example, the storage unit 710 stores the option management table 120 shown in FIG. 4, the avatar management table 130 shown in FIG. 5, the script table 140 shown in FIG. 6, the FAQ master, the chat log DB, etc. do.

第1の出力制御部701は、第1の情報処理端末102における第1のユーザの操作に応じて動くアバターを第2の情報処理端末103に出力する。ここで、第1のユーザは、例えば、第2の情報処理端末103を使用するユーザへの対応を行うオペレータである。アバターは、例えば、オペレータの分身として表示されるキャラクターである。 The first output control unit 701 outputs an avatar that moves according to the first user's operation on the first information processing terminal 102 to the second information processing terminal 103 . Here, the first user is, for example, an operator who responds to users who use the second information processing terminal 103. The avatar is, for example, a character displayed as an alter ego of the operator.

具体的には、例えば、第1の出力制御部701は、第2の情報処理端末103が起動されたことに応じて、第2の情報処理端末103にアバターを出力する。また、第1の出力制御部701は、第2の情報処理端末103の入力装置304(図3参照)を用いた第1のユーザの起動操作に応じて、第2の情報処理端末103にアバターを出力することにしてもよい。 Specifically, for example, the first output control unit 701 outputs an avatar to the second information processing terminal 103 in response to the activation of the second information processing terminal 103. Further, the first output control unit 701 causes the second information processing terminal 103 to display the avatar in response to the first user's activation operation using the input device 304 (see FIG. 3) of the second information processing terminal 103. You may decide to output .

また、第1の出力制御部701は、例えば、第1の情報処理端末102における第1のユーザの操作に応じて、アバターのメッセージや選択肢を第2の情報処理端末103に出力する。アバターのメッセージや選択肢は、例えば、ディスプレイ303(図3参照)に表示されてもよく、また、スピーカ307(図3参照)から音声出力されてもよい。 Further, the first output control unit 701 outputs the avatar's message and options to the second information processing terminal 103, for example, in response to the first user's operation on the first information processing terminal 102. The avatar's messages and options may be displayed, for example, on the display 303 (see FIG. 3), or may be output as audio from the speaker 307 (see FIG. 3).

また、第1の出力制御部701は、第2の情報処理端末103が多言語対応の場合、第1のユーザにより日本語によるメッセージが入力された際に、入力されたメッセージを第2の情報処理端末103で選択された外国語に翻訳して、第2の情報処理端末103に出力することにしてもよい。さらに、第1の出力制御部701は、第2のユーザにより外国語によりメッセージが入力された際に、入力されたメッセージを日本語に翻訳して、第1の情報処理端末102に出力することにしてもよい。 Furthermore, when the second information processing terminal 103 is multilingual, when the first user inputs a message in Japanese, the first output control unit 701 converts the input message into second information. The information may be translated into a foreign language selected by the processing terminal 103 and output to the second information processing terminal 103. Furthermore, when the second user inputs a message in a foreign language, the first output control unit 701 translates the input message into Japanese and outputs it to the first information processing terminal 102. You can also do this.

また、第1の出力制御部701は、例えば、モーションセンサにより検知されるオペレータ(話者)の顔の動きに合わせて、アバターの顔の表情を変化させることにしてもよい。なお、第2の情報処理端末103の起動時にどのようなアバターを出力するかは、例えば、あらかじめ設定されている。 Further, the first output control unit 701 may change the facial expression of the avatar in accordance with, for example, the movement of the operator's (speaker's) face detected by a motion sensor. Note that the type of avatar to be output when the second information processing terminal 103 is activated is set in advance, for example.

第2の出力制御部702は、第2の情報処理端末103における第2のユーザを検出した場合、アバターに対応する操作を促す情報を第1の情報処理端末102に出力する。ここで、第2のユーザは、第2の情報処理端末103を使用するユーザである。第2の情報処理端末103が商業施設や店舗に設置されるデジタルボードである場合を例に挙げると、第2のユーザは、例えば、顧客である。 When the second output control unit 702 detects the second user at the second information processing terminal 103 , it outputs information prompting an operation corresponding to the avatar to the first information processing terminal 102 . Here, the second user is a user who uses the second information processing terminal 103. For example, in the case where the second information processing terminal 103 is a digital board installed in a commercial facility or a store, the second user is, for example, a customer.

また、第2の情報処理端末103が企業施設に設置されるデジタルボードである場合を例に挙げると、第2のユーザは、例えば、社員である。また、第2の情報処理端末103が公共施設に設置されるデジタルボードである場合を例に挙げると、第2のユーザは、例えば、観光客である。 Moreover, taking as an example the case where the second information processing terminal 103 is a digital board installed in a corporate facility, the second user is, for example, an employee. Moreover, taking as an example the case where the second information processing terminal 103 is a digital board installed in a public facility, the second user is, for example, a tourist.

第2のユーザは、例えば、第2の情報処理端末103において検出される。具体的には、例えば、第2の情報処理端末103は、自端末のカメラ306(図3参照)により撮影された画像情報から人物を検知した場合に、第2のユーザを検出する。また、第2の情報処理端末103は、不図示の温度センサにより人物を検知した場合に、第2のユーザを検出することにしてもよい。 The second user is detected, for example, at the second information processing terminal 103. Specifically, for example, the second information processing terminal 103 detects the second user when a person is detected from image information captured by the camera 306 of the own terminal (see FIG. 3). Further, the second information processing terminal 103 may detect the second user when a temperature sensor (not shown) detects a person.

また、第2の情報処理端末103は、自端末の入力装置304(図3参照)を用いたユーザ操作により、会話開始ボタンなどが押下された場合に、第2のユーザを検出することにしてもよい。第2の情報処理端末103は、第2のユーザを検出した場合、第2のユーザを検出したことを示す情報を情報処理装置101に送信する。 Further, the second information processing terminal 103 detects the second user when a conversation start button or the like is pressed by a user operation using the input device 304 (see FIG. 3) of the own terminal. Good too. When the second information processing terminal 103 detects the second user, it transmits information indicating that the second user has been detected to the information processing apparatus 101.

第2のユーザを検出したことを示す情報は、例えば、チャットの開始指示として、第2の情報処理端末103から情報処理装置101に送信されることにしてもよい。ここで、チャットの開始指示は、アバターを通したオペレータとの会話を開始するためのものである。また、チャットの開始指示は、チャットボットでの会話を開始するためのものであってもよい。 Information indicating that the second user has been detected may be transmitted from the second information processing terminal 103 to the information processing apparatus 101, for example, as an instruction to start a chat. Here, the chat start instruction is for starting a conversation with the operator through the avatar. Further, the chat start instruction may be for starting a conversation with a chatbot.

第2の情報処理端末103からのチャットの開始指示は、通信部703によって受信される。第2の出力制御部702は、例えば、通信部703によってチャットの開始指示が受信された場合に、第2の情報処理端末103における第2のユーザを検出したと判断する。これにより、情報処理装置101において、第2の情報処理端末103における第2のユーザが検出されたことを判断することができる。 A chat start instruction from the second information processing terminal 103 is received by the communication unit 703. The second output control unit 702 determines that the second user at the second information processing terminal 103 has been detected, for example, when the communication unit 703 receives an instruction to start a chat. Thereby, the information processing apparatus 101 can determine that the second user at the second information processing terminal 103 has been detected.

ただし、第2のユーザの検出処理は、情報処理装置101において行われてもよい。例えば、情報処理装置101は、第2の情報処理端末103からカメラ306により撮影された画像情報を受信し、受信した画像情報から人物を検知することにより、第2のユーザを検出することにしてもよい。 However, the second user detection process may be performed in the information processing apparatus 101. For example, the information processing apparatus 101 receives image information taken by the camera 306 from the second information processing terminal 103 and detects a person from the received image information, thereby detecting the second user. Good too.

アバターに対応する操作は、例えば、アバターの動きを指定する操作である。アバターの動きとしては、例えば、手を振る、うなずく、おじぎをする、喜ぶなどが挙げられる。また、アバターに対応する操作は、アバターを通してユーザへの応対を行うオペレータを指定する操作であってもよい。また、アバターに対応する操作は、アバターを指定する操作であってもよい。 The operation corresponding to the avatar is, for example, an operation that specifies the movement of the avatar. Examples of the avatar's movements include waving, nodding, bowing, and being happy. Further, the operation corresponding to the avatar may be an operation for specifying an operator who will respond to the user through the avatar. Further, the operation corresponding to an avatar may be an operation for specifying an avatar.

アバターに対応する操作を促す情報は、例えば、アバターにどのような動きをさせるかを指定するための選択肢や、アバターを通してユーザへの応対を行うオペレータを指定するための選択肢などである。アバターに対応する操作を促す情報には、いずれかの選択肢を選択するよう促すメッセージが含まれていてもよい。 The information that prompts the operation corresponding to the avatar includes, for example, an option for specifying what kind of movement the avatar should make, an option for specifying an operator who will respond to the user through the avatar, and the like. The information prompting the user to perform an operation corresponding to the avatar may include a message prompting the user to select one of the options.

ここで、第1の情報処理端末102に出力されるアバターに対応する操作を促す情報は、あらかじめ決められた情報であってもよい。例えば、手を振る、うなずく、喜ぶなどのアバターの基本的な動作を指定する選択肢は、あらかじめ決められていてもよい。 Here, the information output to the first information processing terminal 102 that prompts the operation corresponding to the avatar may be predetermined information. For example, options for specifying basic avatar actions such as waving, nodding, and being happy may be predetermined.

また、第2の出力制御部702は、第2のユーザの属性情報に基づいて、出力対象の情報を決定することにしてもよい。ここで、出力対象の情報とは、第1の情報処理端末102に出力されるアバターに対応する操作を促す情報である。第2のユーザの属性情報は、第2のユーザの属性を特定する情報である。 Further, the second output control unit 702 may decide the information to be output based on the second user's attribute information. Here, the information to be output is information that prompts an operation corresponding to the avatar output to the first information processing terminal 102. The second user attribute information is information that specifies the second user's attributes.

例えば、第2のユーザの属性情報は、第2のユーザの年齢、年代、性別、言語、服装、車椅子の有無、同伴者の有無などを特定可能な情報である。第2のユーザの属性情報は、第2の情報処理端末103から取得される。具体的には、例えば、通信部703は、第2の情報処理端末103からチャットの開始指示を受信するとともに、第2の情報処理端末103が取得した第2のユーザの属性情報を受信することにしてもよい。 For example, the second user's attribute information is information that can specify the second user's age, generation, gender, language, clothing, presence or absence of a wheelchair, presence or absence of a companion, and the like. The second user's attribute information is acquired from the second information processing terminal 103. Specifically, for example, the communication unit 703 receives a chat start instruction from the second information processing terminal 103 and also receives attribute information of the second user acquired by the second information processing terminal 103. You can also do this.

より詳細に説明すると、例えば、第2の出力制御部702は、受信された第2のユーザの属性情報に基づいて、ユーザ属性を特定する。つぎに、第2の出力制御部702は、ユーザ属性とアバターに対応する操作を促す情報との対応関係を示す情報を記憶する記憶部710を参照して、特定したユーザ属性に対応するアバターに対応する操作を促す情報を、出力対象の情報に決定する。そして、第2の出力制御部702は、決定した出力対象の情報を、第1の情報処理端末102に出力する。 To explain in more detail, for example, the second output control unit 702 specifies the user attribute based on the received attribute information of the second user. Next, the second output control unit 702 refers to the storage unit 710 that stores information indicating the correspondence between user attributes and information prompting operations corresponding to the avatars, and outputs the avatars corresponding to the identified user attributes. The information that prompts the corresponding operation is determined as the information to be output. Then, the second output control unit 702 outputs the determined output target information to the first information processing terminal 102.

これにより、第2のユーザの特徴を考慮して、アバターに対応する操作を促す情報を出力することができる。例えば、ユーザ属性「10歳未満」が特定された場合に、子供向けの動きを指定可能な選択肢や、子供の応対が得意なオペレータを指定可能な選択肢や、子供向けのアバターを指定可能な選択肢などを、オペレータに提示することができる。 Thereby, it is possible to output information that prompts an operation corresponding to the avatar, taking into account the characteristics of the second user. For example, when the user attribute "under 10 years old" is specified, there are options that allow you to specify movements for children, options that allow you to specify an operator who is good at interacting with children, and options that allow you to specify an avatar that is suitable for children. etc. can be presented to the operator.

なお、第2の情報処理端末103において、第2のユーザの属性情報は、例えば、入力装置304を用いたユーザ操作により入力されることにしてもよい。この場合、第1の情報処理端末102は、チャットの開始指示とともに、入力された第2のユーザの属性情報を、情報処理装置101に送信する。 Note that, in the second information processing terminal 103, the second user's attribute information may be input by a user operation using the input device 304, for example. In this case, the first information processing terminal 102 transmits the input attribute information of the second user to the information processing apparatus 101 along with an instruction to start a chat.

また、第2の情報処理端末103は、カメラ306により撮影された画像情報を解析して、第2のユーザの年代、性別、服装、車椅子の有無、同伴者の有無などの属性情報を取得してもよい。また、第2の情報処理端末103は、マイクロフォン308(図3参照)により受音された音声情報を解析して、第2のユーザの性別、言語などの属性情報を取得してもよい。 Further, the second information processing terminal 103 analyzes the image information captured by the camera 306 and obtains attribute information such as the second user's age, gender, clothing, presence or absence of a wheelchair, and presence or absence of a companion. It's okay. Further, the second information processing terminal 103 may analyze audio information received by the microphone 308 (see FIG. 3) to obtain attribute information such as gender and language of the second user.

また、通信部703は、第2のユーザの属性情報として、カメラ306により撮影された画像情報や、マイクロフォン308により受音された音声情報を受信することにしてもよい。この場合、情報処理装置101は、例えば、受信した画像情報や音声情報から、ユーザの特徴を表す情報を取得することにしてもよい。すなわち、画像情報や音声情報を解析する処理は、第2の情報処理端末103で行わず、情報処理装置101で行うことにしてもよい。 The communication unit 703 may also receive image information captured by the camera 306 and audio information received by the microphone 308 as the second user's attribute information. In this case, the information processing apparatus 101 may, for example, acquire information representing the user's characteristics from the received image information or audio information. That is, the process of analyzing image information and audio information may not be performed by the second information processing terminal 103, but may be performed by the information processing apparatus 101.

なお、画像情報や音声情報からユーザの特徴を表す情報を取得する技術としては、既存のいかなる技術を用いることにしてもよい。例えば、第2の情報処理端末103または情報処理装置101は、深層学習などの機械学習に基づく手法により、画像や音声の特徴量から、年代、性別、服装、言語、車椅子の有無、同伴者の有無などの情報を抽出することにしてもよい。 Note that any existing technology may be used as the technology for acquiring information representing the user's characteristics from image information and audio information. For example, the second information processing terminal 103 or the information processing device 101 uses a method based on machine learning such as deep learning to determine the age, gender, clothing, language, presence or absence of a wheelchair, and the presence or absence of a companion from image and audio features. Information such as presence/absence may be extracted.

また、第2の出力制御部702は、第2の情報処理端末103におけるアバターを通した会話において受け付けた情報に基づいて、出力対象の情報を決定することにしてもよい。ここで、会話において受け付けた情報は、アバターを通した第1のユーザと第2のユーザとの会話内容を表す情報である。 Further, the second output control unit 702 may decide the information to be output based on information received in a conversation through an avatar at the second information processing terminal 103. Here, the information received in the conversation is information representing the content of the conversation between the first user and the second user through the avatar.

例えば、会話において受け付けた情報は、第2の情報処理端末103の入力装置304(図3参照)を用いた第2のユーザの操作により、選択された選択肢を示す情報や、入力された情報などである。すなわち、第2の出力制御部702は、第2の情報処理端末103における有人対応によるアバターを通した会話内容を考慮して、出力対象の情報を決定する。 For example, information received in a conversation may include information indicating a selected option or information input by the second user's operation using the input device 304 (see FIG. 3) of the second information processing terminal 103. It is. That is, the second output control unit 702 determines the information to be output, taking into consideration the content of the conversation through the avatar in the second information processing terminal 103 .

会話制御部704は、第2の情報処理端末103における第2のユーザを検出した場合、第2の情報処理端末103におけるチャットボットでの会話を開始することにしてもよい。具体的には、例えば、会話制御部704は、チャットボットでの会話を開始するためのチャットの開始指示が受信された場合、第2の情報処理端末103におけるチャットボットでの会話に適用するトークスクリプトを決定する。 When the conversation control unit 704 detects the second user at the second information processing terminal 103, the conversation control unit 704 may start a conversation using a chatbot at the second information processing terminal 103. Specifically, for example, when the conversation control unit 704 receives a chat start instruction for starting a chatbot conversation, the conversation control unit 704 selects a talk to be applied to the chatbot conversation on the second information processing terminal 103. Decide on a script.

より詳細に説明すると、例えば、会話制御部704は、第2の情報処理端末103からチャットの開始指示とともに受信された第2のユーザの属性情報に基づいて、ユーザ属性を特定する。つぎに、会話制御部704は、図6に示したスクリプトテーブル140を参照して、特定したユーザ属性に対応するスクリプトを、トークスクリプトに決定する。 To explain in more detail, for example, the conversation control unit 704 identifies the user attribute based on the second user's attribute information received from the second information processing terminal 103 together with the chat start instruction. Next, the conversation control unit 704 refers to the script table 140 shown in FIG. 6 and determines the script corresponding to the specified user attribute as the talk script.

そして、会話制御部704は、決定したトークスクリプトを用いて、第2の情報処理端末103におけるチャットボットでの会話を開始する。これにより、第2の情報処理端末103を使用する第2のユーザの特徴に応じて、チャットボットでの会話を制御することができる。 Then, the conversation control unit 704 starts a chatbot conversation on the second information processing terminal 103 using the determined talk script. Thereby, the conversation in the chatbot can be controlled according to the characteristics of the second user who uses the second information processing terminal 103.

また、第2の出力制御部702は、第2の情報処理端末103におけるチャットボットでの会話において受け付けた情報に基づいて、出力対象の情報を決定することにしてもよい。すなわち、第2の出力制御部702は、第2の情報処理端末103におけるチャットボットでの会話内容を考慮して、出力対象の情報を決定する。 Further, the second output control unit 702 may determine information to be output based on information received in a chatbot conversation on the second information processing terminal 103. That is, the second output control unit 702 determines the information to be output, taking into consideration the content of the conversation in the chatbot on the second information processing terminal 103.

より詳細に説明すると、例えば、第2の出力制御部702は、アバターを通した会話、または、チャットボットでの会話において受け付けた情報に基づいて、会話内容を特定する。そして、第2の出力制御部702は、図4に示した選択肢管理テーブル120を参照して、特定した会話内容に対応する選択肢を、出力対象の情報に決定する。 To explain in more detail, for example, the second output control unit 702 specifies the content of the conversation based on information received in a conversation through an avatar or a conversation with a chatbot. Then, the second output control unit 702 refers to the option management table 120 shown in FIG. 4 and determines the option corresponding to the specified conversation content as the information to be output.

一例として、アバターを通した会話、または、チャットボットでの会話において受け付けた情報から特定される会話内容を「会話内容C1」とする。会話内容C1は、例えば、アバターを通した会話、または、チャットボットでの会話において選択された選択肢の組み合わせである。この場合、第2の出力制御部702は、例えば、選択肢管理テーブル120を参照して、特定した会話内容C1に対応する選択肢ch1~ch4を、出力対象の情報に決定する。選択肢ch1~ch4は、例えば、アバターの動きを指定するための選択肢や、アバターを通してユーザへの応対を行うオペレータを指定するための選択肢などである。 As an example, the conversation content specified from information received in a conversation through an avatar or a conversation with a chatbot is referred to as "conversation content C1." The conversation content C1 is, for example, a combination of options selected in a conversation through an avatar or a conversation with a chatbot. In this case, the second output control unit 702, for example, refers to the option management table 120 and determines options ch1 to ch4 corresponding to the identified conversation content C1 as information to be output. Options ch1 to ch4 are, for example, options for specifying the movement of the avatar, options for specifying the operator who responds to the user through the avatar, and the like.

なお、アバターを通した会話、または、チャットボットでの会話において受け付けた情報は、例えば、不図示のチャットログDBから特定される。また、第1の情報処理端末102に出力される、アバターに対応する操作を促す情報の出力例については、図10を用いて後述する。 Note that information received in a conversation through an avatar or a conversation with a chatbot is specified, for example, from a chat log DB (not shown). Further, an example of the output of information that prompts an operation corresponding to an avatar, which is output to the first information processing terminal 102, will be described later using FIG. 10.

第1の出力制御部701は、出力された情報に対応する操作を第1の情報処理端末102において受け付けた場合、受け付けた操作と第2の情報処理端末103が検出した外部環境情報とに基づいて、アバターの出力を制御する。ここで、外部環境情報は、アバターが表示される第2の情報処理端末103における外部の環境を表す情報である。 When the first information processing terminal 102 receives an operation corresponding to the output information, the first output control unit 701 performs a control based on the received operation and the external environment information detected by the second information processing terminal 103. to control the output of the avatar. Here, the external environment information is information representing the external environment of the second information processing terminal 103 on which the avatar is displayed.

例えば、外部環境情報は、時間、場所、季節、天気、温度、湿度などを表す。時間は、例えば、時刻、時間帯、日付などである。外部環境情報は、第2の情報処理端末103から取得される。具体的には、例えば、通信部703は、第2の情報処理端末103からチャットの開始指示を受信するとともに、第2の情報処理端末103が検出した外部環境情報を受信することにしてもよい。 For example, external environment information represents time, location, season, weather, temperature, humidity, etc. The time is, for example, a time of day, a time zone, a date, or the like. External environment information is acquired from the second information processing terminal 103. Specifically, for example, the communication unit 703 may receive a chat start instruction from the second information processing terminal 103 and may also receive external environment information detected by the second information processing terminal 103. .

なお、第2の情報処理端末103は、例えば、不図示の環境センサにより、または、外部サーバに問い合わせることにより、時間、季節、天気、温度、湿度などを表す外部環境情報を検出する。また、第2の情報処理端末103は、GPSユニット309(図3参照)により、自端末の現在位置を示す位置情報を、場所を表す外部環境情報として検出してもよい。 Note that the second information processing terminal 103 detects external environmental information representing time, season, weather, temperature, humidity, etc., using an unillustrated environmental sensor or by inquiring an external server. Further, the second information processing terminal 103 may detect, by the GPS unit 309 (see FIG. 3), position information indicating the current position of the second information processing terminal 103 as external environment information indicating the location.

具体的には、例えば、第1の出力制御部701は、受け付けた操作と第2の情報処理端末103が検出した外部環境情報とに基づいて、アバターの動きを決定する。そして、第1の出力制御部701は、決定した動きに基づいて、アバターの出力を変更する。 Specifically, for example, the first output control unit 701 determines the movement of the avatar based on the received operation and the external environment information detected by the second information processing terminal 103. Then, the first output control unit 701 changes the output of the avatar based on the determined movement.

ここで、第1の情報処理端末102において、入力装置304を用いた第1のユーザの操作により、「手を振る」というアバターの動きを指定する選択肢を選択する操作を受け付けた場合を想定する。この場合、第1の出力制御部701は、第1の情報処理端末102から、「手を振る」というアバターの動きを指定する選択肢を選択する操作を受け付ける。 Here, assume that the first information processing terminal 102 receives an operation by the first user using the input device 304 to select an option for specifying the avatar's movement of "waving hand". . In this case, the first output control unit 701 receives an operation from the first information processing terminal 102 to select an option that specifies the avatar's movement of "waving hand."

そして、第1の出力制御部701は、第2の情報処理端末103が検出した外部環境情報から特定される外部環境に応じて、アバターがどのように「手を振る」のかを決定して、アバターの出力を変更する。アバターの動きを外部環境に応じてどのように調整するのかは、例えば、あらかじめ設定されている。 Then, the first output control unit 701 determines how the avatar will "wave" according to the external environment specified from the external environment information detected by the second information processing terminal 103, Change avatar output. For example, how to adjust the movement of the avatar according to the external environment is set in advance.

より詳細に説明すると、例えば、第1の出力制御部701は、記憶部710を参照して、「手を振る」というアバターの動きの内容を、外部環境に応じて決定する。記憶部710は、例えば、アバターの動きごとに、当該動きの内容と外部環境との対応関係を示す情報を記憶する。 To explain in more detail, for example, the first output control unit 701 refers to the storage unit 710 and determines the content of the avatar's movement of “waving” according to the external environment. For example, the storage unit 710 stores, for each movement of the avatar, information indicating the correspondence between the content of the movement and the external environment.

例えば、第2の情報処理端末103が検出した外部環境情報から特定される外部環境を「時間帯:昼間」とする。この場合、第1の出力制御部701は、例えば、夜間の時間帯よりも、明るく大きなモーションで手を振るように、アバターの出力を変更することにしてもよい。 For example, it is assumed that the external environment specified from the external environment information detected by the second information processing terminal 103 is "time zone: daytime". In this case, the first output control unit 701 may change the output of the avatar so that the avatar waves in a brighter and louder motion than during nighttime hours, for example.

また、第2の情報処理端末103が検出した外部環境情報から特定される外部環境を「温度:氷点下」とする。この場合、第1の出力制御部701は、例えば、寒さで震えているような感じで手を振るように、アバターの出力を変更することにしてもよい。 Further, the external environment specified from the external environment information detected by the second information processing terminal 103 is "temperature: below freezing." In this case, the first output control unit 701 may change the output of the avatar so that the avatar waves its hands as if it is shivering from the cold, for example.

また、第2の情報処理端末103が検出した外部環境情報から特定される外部環境を「場所:ホテル」とする。この場合、第1の出力制御部701は、例えば、ホテルマンが客を見送る感じで手を振るように、アバターの出力を変更する。 Further, the external environment specified from the external environment information detected by the second information processing terminal 103 is assumed to be "location: hotel". In this case, the first output control unit 701 changes the output of the avatar so that, for example, the hotelier waves his hand as if he is seeing off a guest.

また、第1の出力制御部701は、受け付けた操作に基づいて、アバターの顔部分の出力を変更することにしてもよい。ここで、第1の情報処理端末102において、入力装置304を用いた第1のユーザの操作により、オペレータOPを指定する選択肢を選択する操作を受け付けた場合を想定する。 Further, the first output control unit 701 may change the output of the face portion of the avatar based on the received operation. Here, assume that the first information processing terminal 102 receives an operation by the first user using the input device 304 to select an option for specifying the operator OP.

この場合、第1の出力制御部701は、第1の情報処理端末102から、オペレータOPを指定する選択肢を選択する操作を受け付ける。そして、第1の出力制御部701は、アバターの顔部分を、指定されたオペレータOPに対応するアバターの顔に変更する。これにより、ユーザへの応対を行うオペレータに合わせて、アバターの顔を変更することができる。 In this case, the first output control unit 701 receives an operation from the first information processing terminal 102 to select an option for specifying the operator OP. Then, the first output control unit 701 changes the face part of the avatar to the face of the avatar corresponding to the specified operator OP. Thereby, the face of the avatar can be changed according to the operator who responds to the user.

また、第1の出力制御部701は、受け付けた操作に基づいて、第1のユーザが切り替わる場合、第2の情報処理端末103の接続先の第1の情報処理端末102を切り替えることにしてもよい。例えば、第1のユーザが「オペレータOP1」から「オペレータOP2」に切り替わる場合、第1の出力制御部701は、第2の情報処理端末103の接続先の第1の情報処理端末102を、オペレータOP2が使用する第1の情報処理端末102に切り替える。 Furthermore, the first output control unit 701 determines to switch the first information processing terminal 102 to which the second information processing terminal 103 is connected when the first user is switched based on the received operation. good. For example, when the first user switches from "operator OP1" to "operator OP2", the first output control unit 701 switches the first information processing terminal 102 to which the second information processing terminal 103 is connected to the operator Switch to the first information processing terminal 102 used by OP2.

また、第1の出力制御部701は、第2の情報処理端末103が検出した外部環境情報に基づいて、アバターの体部分の出力を変更することにしてもよい。ここで、第2の情報処理端末103が検出した外部環境情報から特定される外部環境を「季節:夏」とする。この場合、第1の出力制御部701は、例えば、アバターの体部分を、夏服を着た体に変更する。 Further, the first output control unit 701 may change the output of the avatar's body part based on external environment information detected by the second information processing terminal 103. Here, it is assumed that the external environment specified from the external environment information detected by the second information processing terminal 103 is "season: summer". In this case, the first output control unit 701 changes the body part of the avatar to a body wearing summer clothes, for example.

また、第2の情報処理端末103が検出した外部環境情報から特定される外部環境を「場所:ホテル」とする。この場合、第1の出力制御部701は、例えば、アバターの体部分を、ホテルの制服を着た体に変更する。これにより、第2の情報処理端末103が設置された場所や季節に合わせて、アバターの服装を変更することができる。 Further, the external environment specified from the external environment information detected by the second information processing terminal 103 is assumed to be "location: hotel". In this case, the first output control unit 701 changes the body part of the avatar to one wearing a hotel uniform, for example. This allows the avatar's clothing to be changed depending on the location where the second information processing terminal 103 is installed and the season.

より詳細に説明すると、例えば、第1の出力制御部701は、図5に示したアバター管理テーブル130を参照して、受け付けた操作に対応するアバター管理情報を特定する。一例として、選択肢ch1を選択する操作を受け付けた場合を想定する。また、第2の情報処理端末103が検出した外部環境情報から特定される外部環境を「E2」とする。 To explain in more detail, for example, the first output control unit 701 refers to the avatar management table 130 shown in FIG. 5 and identifies avatar management information corresponding to the received operation. As an example, assume that an operation to select option ch1 is accepted. Further, the external environment specified from the external environment information detected by the second information processing terminal 103 is assumed to be "E2".

この場合、第1の出力制御部701は、アバター管理テーブル130を参照して、選択肢ch1に対応し、かつ、外部環境E2に対応するアバター管理情報500-2を特定する。そして、第1の出力制御部701は、アバター管理情報500-2を参照して、顔データfc1に基づいて、アバターの顔部分を変更する。 In this case, the first output control unit 701 refers to the avatar management table 130 and specifies the avatar management information 500-2 that corresponds to the option ch1 and corresponds to the external environment E2. Then, the first output control unit 701 refers to the avatar management information 500-2 and changes the face part of the avatar based on the face data fc1.

また、第1の出力制御部701は、アバター管理情報500-2を参照して、体データbd2に基づいて、アバターの体部分を変更する。第1の出力制御部701は、アバター管理情報500-2を参照して、第2の情報処理端末103の接続先の第1の情報処理端末102を、オペレータOP2が使用する第1の情報処理端末102に切り替える。 Further, the first output control unit 701 refers to the avatar management information 500-2 and changes the body part of the avatar based on the body data bd2. The first output control unit 701 refers to the avatar management information 500-2 and controls the first information processing terminal 102 to which the second information processing terminal 103 is connected to the first information processing unit used by the operator OP2. Switch to terminal 102.

ただし、オペレータの切り替わりが発生しない場合は、第2の情報処理端末103の接続先の第1の情報処理端末102の切り替わりも発生しない。また、アバター管理テーブル130からアバター管理情報が特定されなかった場合は、第1の出力制御部701は、アバターの顔部分および体部分の出力の変更は行わないことにしてもよい。 However, if operator switching does not occur, switching of the first information processing terminal 102 to which the second information processing terminal 103 is connected also does not occur. Furthermore, if the avatar management information is not specified from the avatar management table 130, the first output control unit 701 may decide not to change the output of the avatar's face and body parts.

また、第1の出力制御部701は、第2の情報処理端末103における第2のユーザを検出した場合、第2のユーザに対応する履歴情報があるか否かを判断することにしてもよい。そして、第1の出力制御部701は、第2のユーザに対応する履歴情報がある場合、当該履歴情報に含まれるアバターの情報に基づいて、アバターの出力を制御することにしてもよい。 Further, when the first output control unit 701 detects the second user at the second information processing terminal 103, the first output control unit 701 may determine whether there is history information corresponding to the second user. . If there is history information corresponding to the second user, the first output control unit 701 may control the output of the avatar based on the avatar information included in the history information.

ここで、履歴情報は、第2のユーザが第2の情報処理端末103を使用したことを示す情報である。履歴情報は、例えば、第2のユーザを一意に識別する識別情報と、第2のユーザが第2の情報処理端末103を使用した際に出力されたアバターを特定可能な情報とを含む。 Here, the history information is information indicating that the second user used the second information processing terminal 103. The history information includes, for example, identification information that uniquely identifies the second user, and information that allows identification of the avatar output when the second user uses the second information processing terminal 103.

例えば、第2の情報処理端末103が商業施設や店舗に設置され、第2の情報処理端末103の使用にあたり、商業施設や店舗の会員IDを入力する場合を想定する。この場合、第2のユーザを一意に識別する識別情報は、例えば、会員IDである。また、第2の情報処理端末103が企業施設に設置され、第2の情報処理端末103の使用にあたり、社員IDを入力する場合を想定する。この場合、第2のユーザを一意に識別する識別情報は、例えば、社員IDである。 For example, assume that the second information processing terminal 103 is installed in a commercial facility or store, and when using the second information processing terminal 103, the member ID of the commercial facility or store is input. In this case, the identification information that uniquely identifies the second user is, for example, a member ID. Further, it is assumed that the second information processing terminal 103 is installed in a corporate facility and that an employee ID is input when using the second information processing terminal 103. In this case, the identification information that uniquely identifies the second user is, for example, an employee ID.

会員IDや社員IDは、例えば、チャットの開始指示に含まれる。なお、ユーザ属性は、会員IDや社員IDから特定されることにしてもよい。例えば、社員IDに対応付けられている社員情報から、第2のユーザの性別、年齢、勤務年数、年収などを、ユーザ属性として特定することができる。 For example, the member ID and employee ID are included in the chat start instruction. Note that the user attribute may be specified from the member ID or employee ID. For example, the second user's gender, age, years of service, annual income, etc. can be specified as user attributes from the employee information associated with the employee ID.

アバターを特定可能な情報は、例えば、アバターの顔部分および体部分を特定する情報を含む。アバターの顔部分および体部分を特定する情報は、例えば、第2の情報処理端末103におけるアバターを通した会話が終了した際に表示されていたアバターの顔データおよび体データである。 The information that allows the avatar to be specified includes, for example, information that specifies the face and body parts of the avatar. The information specifying the face and body parts of the avatar is, for example, the face data and body data of the avatar that were displayed when the conversation through the avatar on the second information processing terminal 103 ended.

また、アバターを特定可能な情報には、アバターに対応するオペレータを特定する情報が含まれていてもよい。オペレータを特定する情報は、例えば、会話終了直前に第2のユーザへの応対を行っていたオペレータのオペレータIDである。履歴情報は、例えば、第2の情報処理端末103におけるアバターを通した会話が終了した際に、情報処理装置101が有する不図示の履歴情報DBに記憶される。 Further, the information that can identify the avatar may include information that identifies the operator corresponding to the avatar. The information identifying the operator is, for example, the operator ID of the operator who was responding to the second user immediately before the end of the conversation. The history information is stored in a history information DB (not shown) included in the information processing device 101, for example, when the conversation through the avatar on the second information processing terminal 103 ends.

一例として、社員IDを含むチャットの開始指示を受信した場合を想定する。この場合、第1の出力制御部701は、履歴情報DBを参照して、チャットの開始指示に含まれる社員IDを含む履歴情報があるか否かを判断する。ここで、社員IDを含む履歴情報がない場合、第1の出力制御部701は、履歴情報に基づくアバターの出力の変更は行わない。 As an example, assume that a chat start instruction including an employee ID is received. In this case, the first output control unit 701 refers to the history information DB and determines whether or not there is history information including the employee ID included in the chat start instruction. Here, if there is no history information including the employee ID, the first output control unit 701 does not change the output of the avatar based on the history information.

一方、社員IDを含む履歴情報がある場合、第1の出力制御部701は、履歴情報に含まれる顔データに基づいて、第2の情報処理端末103に出力するアバターの顔部分を変更する。また、第1の出力制御部701は、履歴情報に含まれる体データ2に基づいて、アバターの体部分を変更する。また、第1の出力制御部701は、第2の情報処理端末103の接続先の第1の情報処理端末102を、履歴情報に含まれるオペレータIDに対応する第1の情報処理端末102に切り替える。これにより、前回と同じ見た目のアバターを通して、前回と同じオペレータが第2のユーザへの応対を行うことが可能となり、キャラクターの一貫性を持たせることができる。 On the other hand, if there is history information including the employee ID, the first output control unit 701 changes the facial part of the avatar to be output to the second information processing terminal 103 based on the face data included in the history information. Further, the first output control unit 701 changes the body part of the avatar based on the body data 2 included in the history information. Further, the first output control unit 701 switches the first information processing terminal 102 to which the second information processing terminal 103 is connected to the first information processing terminal 102 corresponding to the operator ID included in the history information. . This allows the same operator as last time to respond to the second user through an avatar with the same appearance as last time, and it is possible to maintain character consistency.

また、第1の出力制御部701は、第2の情報処理端末103の周囲に存在する第2のユーザを検出した場合に、第2の情報処理端末103での操作を促す情報を、第2の情報処理端末103に出力することにしてもよい。第2の情報処理端末103での操作を促す情報は、例えば、「こんにちは。そこのあなた!」といった、第2の情報処理端末103の存在を気付かせるようなメッセージであってもよい。 Further, when the first output control unit 701 detects a second user existing around the second information processing terminal 103, the first output control unit 701 outputs information prompting the second user to operate the second information processing terminal 103. The data may be output to the information processing terminal 103. The information prompting the user to operate the second information processing terminal 103 may be, for example, a message that makes the user aware of the existence of the second information processing terminal 103, such as "Hello, you there!".

第2の情報処理端末103の周囲に存在する第2のユーザは、例えば、第2の情報処理端末103のカメラ306により撮影された画像情報から、または、第2の情報処理端末103の温度センサ(不図示)により検出される。具体的には、例えば、第1の出力制御部701は、「こんにちは。そこのあなた!」といったメッセージを、アバターの発言として、第2の情報処理端末103のスピーカ307から音声出力させることにしてもよい。これにより、例えば、商業施設や店舗の来店者などに能動的に呼びかけて、第2の情報処理端末103を利用した接客機会を増やすことができる。 The second user existing around the second information processing terminal 103 can, for example, use the image information taken by the camera 306 of the second information processing terminal 103 or the temperature sensor of the second information processing terminal 103. (not shown). Specifically, for example, the first output control unit 701 causes the speaker 307 of the second information processing terminal 103 to output a message such as "Hello, you there!" as the avatar's utterance. Good too. Thereby, for example, it is possible to actively call out to customers of a commercial facility or store, and increase opportunities for customer service using the second information processing terminal 103.

なお、上述した情報処理装置101の各機能部は、会話制御システム100内の複数のコンピュータにより実現されることにしてもよい。例えば、上述した情報処理装置101の機能部を、情報処理装置101と第1の情報処理端末102と第2の情報処理端末103とがそれぞれ機能を分担して実現することにしてもよい。 Note that each functional unit of the information processing device 101 described above may be realized by a plurality of computers within the conversation control system 100. For example, the information processing device 101, the first information processing terminal 102, and the second information processing terminal 103 may share the functions and realize the functional units of the information processing device 101 described above.

(会話制御システム100の一実施例)
つぎに、図8を用いて、会話制御システム100の一実施例について説明する。
(One embodiment of conversation control system 100)
Next, one embodiment of the conversation control system 100 will be described using FIG. 8.

図8は、会話制御システム100の一実施例を示す説明図である。情報処理装置101は、第1の情報処理端末102におけるオペレータOP1の操作に応じて動くアバターavを第2の情報処理端末103に出力する。情報処理装置101は、第2の情報処理端末103におけるユーザU1を検出した場合、アバターavに対応する操作を促す選択肢#1~#3を第1の情報処理端末102に出力する。 FIG. 8 is an explanatory diagram showing one embodiment of the conversation control system 100. The information processing device 101 outputs an avatar av that moves according to the operation of the operator OP1 on the first information processing terminal 102 to the second information processing terminal 103. When the information processing device 101 detects the user U1 at the second information processing terminal 103, it outputs options #1 to #3 for prompting the operation corresponding to the avatar av to the first information processing terminal 102.

選択肢#1~#3は、アバターavの動きや、アバターavを通してユーザU1への応対を行うオペレータを指定するための選択肢である。情報処理装置101は、出力した選択肢#1~#3を選択する操作を第1の情報処理端末102において受け付けた場合、受け付けた操作と第2の情報処理端末103が検出した外部環境情報とに基づいて、アバターavの出力を制御する。 Options #1 to #3 are options for specifying the movement of the avatar av and the operator who responds to the user U1 through the avatar av. When the information processing device 101 receives an operation to select the output options #1 to #3 at the first information processing terminal 102, the information processing device 101 compares the received operation with the external environment information detected by the second information processing terminal 103. Based on this, the output of the avatar AV is controlled.

例えば、情報処理装置101は、受け付けた操作と第2の情報処理端末103が検出した外部環境情報とに基づいて、アバターavの動きを決定し、決定した動きに基づいて、アバターavの出力を制御する。例えば、「手を振る」というアバターの動きを指定する選択肢が選択され、かつ、外部環境情報から特定される外部環境が「温度:氷点下」の場合、寒さで震えているような感じで手を振るように、アバターavの動きを制御することができる。 For example, the information processing device 101 determines the movement of the avatar av based on the received operation and the external environment information detected by the second information processing terminal 103, and outputs the avatar av based on the determined movement. Control. For example, if the option to specify the avatar's movement of ``waving hands'' is selected and the external environment specified from the external environment information is ``temperature: below freezing'', the avatar's hands may appear as if it is shivering from the cold. You can control the movement of the avatar AV, such as shaking it.

また、情報処理装置101は、受け付けた操作に基づいて、アバターavの顔部分fcの出力を変更する。例えば、オペレータOPを指定する選択肢が選択された場合、アバターavの顔部分fcを、指定されたオペレータOPに対応するアバターavの顔に変更することができる。 Furthermore, the information processing device 101 changes the output of the face portion fc of the avatar av based on the received operation. For example, when an option to specify an operator OP is selected, the face portion fc of the avatar av can be changed to the face of the avatar av corresponding to the specified operator OP.

また、情報処理装置101は、第2の情報処理端末103が検出した外部環境情報に基づいて、アバターavの体部分bdの出力を変更する。例えば、外部環境情報から特定される外部環境が「温度:氷点下」の場合、アバターの体部分bdを、防寒具を着た体に変更することができる。 Further, the information processing device 101 changes the output of the body part bd of the avatar av based on the external environment information detected by the second information processing terminal 103. For example, when the external environment specified from the external environment information is "temperature: below freezing", the avatar's body part bd can be changed to a body wearing winter gear.

(第2の情報処理端末103に表示されるトーク画面の画面例)
つぎに、図9および図10を用いて、第2の情報処理端末103のディスプレイ303に表示されるトーク画面の画面例について説明する。
(Screen example of talk screen displayed on second information processing terminal 103)
Next, an example of the talk screen displayed on the display 303 of the second information processing terminal 103 will be described using FIGS. 9 and 10.

ここでは、第2の情報処理端末103が、企業施設に設置され、社員の人に利用されるデジタルボードである場合を想定する。また、チャットボット対応からのエスカレーションにより、アバターを通した有人対応を行う場合を想定する。また、第2の情報処理端末103が取得した第2のユーザの属性情報から特定されるユーザ属性を「30代×男性」とする。 Here, it is assumed that the second information processing terminal 103 is a digital board installed in a corporate facility and used by employees. In addition, we assume that the escalation from chatbot support involves manned support using avatars. Further, it is assumed that the user attribute specified from the second user's attribute information acquired by the second information processing terminal 103 is “30s x male”.

この場合、情報処理装置101は、スクリプトテーブル140を参照して、ユーザ属性「30代×男性」に対応するトークスクリプトを用いて、第2の情報処理端末103におけるチャットボットでの会話を開始する。ユーザ属性「30代×男性」に対応するトークスクリプトは、例えば、キャリアアップに関する会話を行うスクリプトである。 In this case, the information processing device 101 refers to the script table 140 and starts a chatbot conversation on the second information processing terminal 103 using the talk script corresponding to the user attribute "30s x male". . The talk script corresponding to the user attribute "30s x male" is, for example, a script for having a conversation about career advancement.

図9は、第2の情報処理端末103に表示されるトーク画面の画面例を示す説明図(その1)である。図9において、トーク画面900は、第2の情報処理端末103における第2のユーザが検出され、チャットボットでの会話を開始した際に、第2の情報処理端末103に表示されるトーク画面の一例である。図9中、アバターavは、チャットボットのキャラクター、または、オペレータの操作に応じて動くキャラクターを表す。 FIG. 9 is an explanatory diagram (part 1) showing an example of the talk screen displayed on the second information processing terminal 103. In FIG. 9, a talk screen 900 is a talk screen displayed on the second information processing terminal 103 when a second user at the second information processing terminal 103 is detected and starts a conversation with the chatbot. This is an example. In FIG. 9, avatar av represents a chatbot character or a character that moves in response to an operator's operation.

トーク画面900には、アバターavのメッセージm1とともに、キャリアアップに関する選択ボタン901,902が会話形式で表示されている。トーク画面900において、第2の情報処理端末103の入力装置304を用いた第2のユーザの操作入力により、選択ボタン901を選択すると、30代に人気の講座に関する会話を行うことができる。 On the talk screen 900, selection buttons 901 and 902 regarding career advancement are displayed in a conversational format along with the message m1 of the avatar AV. On the talk screen 900, when the second user selects the selection button 901 through an operation input using the input device 304 of the second information processing terminal 103, a conversation about courses popular among people in their 30s can be held.

また、トーク画面900において、選択ボタン902を選択すると、DX(Digital Transformation)に関する講座に関する会話を行うことができる。また、トーク画面900において、言語ボタンb1,b2,b3,b4を選択すると、使用言語を切り替えることができる。例えば、言語ボタンb2を選択すると、使用言語を日本語から英語に切り替えることができる。 Furthermore, by selecting a selection button 902 on the talk screen 900, a conversation regarding a course on DX (Digital Transformation) can be held. Furthermore, by selecting language buttons b1, b2, b3, and b4 on the talk screen 900, the language to be used can be switched. For example, by selecting the language button b2, the language to be used can be switched from Japanese to English.

また、トーク画面900において、マイクボタンb5を選択することで、音声によりメッセージを入力することができる。トーク画面900において、選択された選択肢を示す情報や、入力された情報は、第2の情報処理端末103から情報処理装置101に送信される。この結果、トーク画面900が更新される。 Furthermore, by selecting the microphone button b5 on the talk screen 900, a message can be input by voice. On the talk screen 900, information indicating the selected option and input information are transmitted from the second information processing terminal 103 to the information processing apparatus 101. As a result, the talk screen 900 is updated.

ここでは、トーク画面900において、選択ボタン901が選択された場合を想定する。この場合、トーク画面900には、アバターavのメッセージm2とともに、第2のユーザの希望内容を聞き出すための選択ボタン911~919が会話形式で表示される。 Here, it is assumed that the selection button 901 is selected on the talk screen 900. In this case, on the talk screen 900, along with the message m2 of the avatar av, selection buttons 911 to 919 for asking the second user's desired content are displayed in a conversational format.

トーク画面900において、第2のユーザは、選択ボタン911~919のような選択肢を選択することで、自分が受講したい講座についての希望内容を選択することができる。第2のユーザが受講したい講座についての希望内容の選択が終了すると、チャットボット対応から、アバターavを通した有人対応に切り替わる。 On the talk screen 900, the second user can select the desired content of the course he or she wants to take by selecting options such as selection buttons 911 to 919. When the second user finishes selecting the desired content of the course he/she wants to attend, the chatbot response is switched to the manned response via the avatar AV.

ここでは、トーク画面900において、「エンジニア向」、「英語」および「中級」の選択肢が選択された場合を想定する。この場合、第1の情報処理端末102のディスプレイ303に、図10に示すようなオペレータ支援画面1000が表示され、チャットボット対応から、アバターavを通した有人対応に切り替わる。 Here, it is assumed that the options "for engineers", "English", and "intermediate" are selected on the talk screen 900. In this case, an operator support screen 1000 as shown in FIG. 10 is displayed on the display 303 of the first information processing terminal 102, and the chatbot support is switched to the manned support using the avatar AV.

図10は、第1の情報処理端末102に表示されるオペレータ支援画面の画面例を示す説明図である。図10において、オペレータ支援画面1000は、オペレータの操作を支援する操作画面の一例である。オペレータは、第1の情報処理端末102を使用する第1のユーザである。 FIG. 10 is an explanatory diagram showing an example of the operator support screen displayed on the first information processing terminal 102. In FIG. 10, an operator support screen 1000 is an example of an operation screen that supports operations by an operator. The operator is the first user who uses the first information processing terminal 102.

オペレータ支援画面1000は、トーク画面900と、会話履歴1010とを含む。トーク画面900は、第2の情報処理端末103に表示されるトーク画面であり、第2の情報処理端末103に表示されるトーク画面と同期して表示内容が切り替わる。会話履歴1010は、第2の情報処理端末103において行われた会話の内容を示す情報である。 Operator support screen 1000 includes talk screen 900 and conversation history 1010. The talk screen 900 is a talk screen displayed on the second information processing terminal 103, and the display content changes in synchronization with the talk screen displayed on the second information processing terminal 103. The conversation history 1010 is information indicating the content of the conversation that took place at the second information processing terminal 103.

オペレータ(第1のユーザ)は、オペレータ支援画面1000内のトーク画面900により、第2の情報処理端末103に表示されている画面内容を確認することができる。また、オペレータは、会話履歴1010により、第2の情報処理端末103において行われた会話の内容を確認することができる。 The operator (first user) can check the screen content displayed on the second information processing terminal 103 using the talk screen 900 within the operator support screen 1000. Further, the operator can check the contents of the conversation that took place on the second information processing terminal 103 based on the conversation history 1010.

また、オペレータ支援画面1000は、動作ボタンb11~b13を含む。オペレータ支援画面1000において、第1の情報処理端末102の入力装置304を用いたオペレータの操作入力により、動作ボタンb11を選択すると、アバターavに、手を振る動きをさせることができる。この際、第2の情報処理端末103の外部環境に応じて、アバターavの手を振る動きが制御される。 The operator support screen 1000 also includes operation buttons b11 to b13. On the operator support screen 1000, when the operator selects the action button b11 using the input device 304 of the first information processing terminal 102, the avatar av can be made to wave. At this time, the waving motion of the avatar av is controlled according to the external environment of the second information processing terminal 103.

また、オペレータ支援画面1000において、動作ボタンb12を選択すると、アバターavに、うなずく動きをさせることができる。この際、第2の情報処理端末103の外部環境に応じて、アバターavのうなずく動きが制御される。 Furthermore, when the action button b12 is selected on the operator support screen 1000, the avatar av can be made to nod. At this time, the nodding movement of the avatar av is controlled according to the external environment of the second information processing terminal 103.

また、オペレータ支援画面1000において、動作ボタンb13を選択すると、アバターavに、喜ぶ動きをさせることができる。この際、第2の情報処理端末103の外部環境に応じて、アバターavの喜ぶ動きが制御される。 Furthermore, by selecting the action button b13 on the operator support screen 1000, the avatar av can be made to make movements that make the user happy. At this time, the happy movements of the avatar av are controlled according to the external environment of the second information processing terminal 103.

また、オペレータ支援画面1000は、音声合成ボタンb14と、QR送付ボタンb15とを含む。オペレータ支援画面1000において、音声合成ボタンb14を選択すると、第1の情報処理端末102において入力したテキストを音声に変換して、第2の情報処理端末103に出力する音声合成処理を行うことができる。 The operator support screen 1000 also includes a voice synthesis button b14 and a QR sending button b15. When the voice synthesis button b14 is selected on the operator support screen 1000, a voice synthesis process can be performed in which the text input on the first information processing terminal 102 is converted into voice and output to the second information processing terminal 103. .

これにより、オペレータが入力したテキスト(あるいは、オペレータの音声を認識して得られるテキスト)を音声に変換して、アバターavのメッセージとして音声出力することができる。 Thereby, the text input by the operator (or the text obtained by recognizing the operator's voice) can be converted into voice and output as a voice message of the avatar AV.

また、オペレータ支援画面1000において、QR送付ボタンb15を選択すると、QR(Quick Response)コードを、第2の情報処理端末103に出力することができる。QRコードは、例えば、チャットボットによりおすすめの講座を紹介するスクリプトなどを特定する情報である。QRコードは、登録商標である。 Furthermore, when the QR sending button b15 is selected on the operator support screen 1000, a QR (Quick Response) code can be output to the second information processing terminal 103. The QR code is information that specifies, for example, a script that introduces recommended courses by a chatbot. QR code is a registered trademark.

これにより、第2のユーザは、例えば、自身のスマートフォン(第2の情報処理端末103)により、デジタルボード(第2の情報処理端末103)に表示されたQRコードを読み込むことにより、自身のスマートフォンにおいてチャットボットでの会話を開始することができる。なお、第2の情報処理端末103に出力するQRコードは、例えば、第1の情報処理端末102における第1のユーザの操作に応じて任意に選択可能である。 As a result, the second user can, for example, read the QR code displayed on the digital board (second information processing terminal 103) with his or her own smartphone (second information processing terminal 103), You can start a conversation with a chatbot. Note that the QR code output to the second information processing terminal 103 can be arbitrarily selected, for example, according to the operation of the first user on the first information processing terminal 102.

また、オペレータ支援画面1000には、メッセージ1020とともに、選択肢1021~1023が表示されている。ここで、メッセージ1020および選択肢1021~1023は、第2の情報処理端末103に出力するアバターに対応する操作を促す情報の一例である。 Further, on the operator support screen 1000, options 1021 to 1023 are displayed along with a message 1020. Here, the message 1020 and the options 1021 to 1023 are examples of information output to the second information processing terminal 103 that prompts an operation corresponding to the avatar.

メッセージ1020および選択肢1021~1023は、トーク画面900における会話内容(例えば、第2のユーザが受講したい講座についての希望内容)に応じて決定された情報である。メッセージ1020は、第2のユーザへの応対を行うオペレータを指定するよう促すメッセージである。 The message 1020 and the options 1021 to 1023 are information determined according to the content of the conversation on the talk screen 900 (for example, the desired content of the course that the second user wants to take). Message 1020 is a message prompting the user to specify an operator who will respond to the second user.

選択肢1021~1023は、第2のユーザへの応対を行うオペレータを指定するための選択肢である。ここでは、第2のユーザの希望内容に合った講座についての知識が豊富なオペレータの候補が、選択肢1021~1023として提示されている。 Options 1021 to 1023 are options for specifying the operator who will respond to the second user. Here, operator candidates who are knowledgeable about courses that match the content desired by the second user are presented as options 1021 to 1023.

オペレータ支援画面1000において、選択肢1021を選択すると、「情報技術系講座向け担当者」をオペレータとして指定することができる。また、オペレータ支援画面1000において、選択肢1022を選択すると、「外国語講座向け担当者」をオペレータとして指定することができる。また、オペレータ支援画面1000において、選択肢1023を選択すると、「論文講座向け担当者」をオペレータとして指定することができる。 By selecting option 1021 on operator support screen 1000, it is possible to designate "person in charge of information technology courses" as the operator. Furthermore, by selecting option 1022 on the operator support screen 1000, a "person in charge of foreign language courses" can be designated as the operator. Furthermore, by selecting the option 1023 on the operator support screen 1000, it is possible to designate a "person in charge of dissertation courses" as the operator.

オペレータは、例えば、トーク画面900や会話履歴1010などを参照して、どのオペレータが応対するのがよいのかを判断することができる。なお、図示は省略するが、オペレータ支援画面1000には、第2の情報処理端末103のカメラ306により撮影された第2のユーザの画像が表示されていてもよい。この場合、オペレータは、第2のユーザがどんな感じの人であるかを確認して、どのオペレータが応対するのがよいのかを判断することができる。 The operator can, for example, refer to the talk screen 900, conversation history 1010, etc. to determine which operator should respond. Although not shown, the operator support screen 1000 may display an image of the second user taken by the camera 306 of the second information processing terminal 103. In this case, the operator can check what kind of person the second user is and determine which operator should respond to the second user.

ここでは、オペレータ支援画面1000において、選択肢1022が選択された場合を想定する。この場合、トーク画面900に「該当オペレータにおつなぎします。」といったメッセージが表示された後、図11に示すようなトーク画面1100が、第2の情報処理端末103のディスプレイ303に表示される。 Here, it is assumed that option 1022 is selected on operator support screen 1000. In this case, after a message such as "You will be connected to the corresponding operator" is displayed on the talk screen 900, a talk screen 1100 as shown in FIG. 11 is displayed on the display 303 of the second information processing terminal 103. .

図11は、第2の情報処理端末103に表示されるトーク画面の画面例を示す説明図(その2)である。図11において、トーク画面1100は、「外国語講座向け担当者」がオペレータとして指定された場合に、第2の情報処理端末103に表示されるトーク画面の一例である。 FIG. 11 is an explanatory diagram (part 2) showing an example of the talk screen displayed on the second information processing terminal 103. In FIG. 11, a talk screen 1100 is an example of a talk screen displayed on the second information processing terminal 103 when a "person in charge of foreign language courses" is designated as the operator.

なお、「外国語講座向け担当者」がオペレータとして指定されると、第2の情報処理端末103の接続先の第1の情報処理端末102が、「外国語講座向け担当者」が使用する第1の情報処理端末102に切り替わる。また、トーク画面1100には、有人対応中である旨の情報1110が表示される。 Note that when the "person in charge of foreign language courses" is designated as the operator, the first information processing terminal 102 to which the second information processing terminal 103 is connected will be the first information processing terminal 102 used by the "person in charge of foreign language courses". 1 information processing terminal 102. Further, on the talk screen 1100, information 1110 indicating that the service is manned is displayed.

図11中、アバターavは、「外国語講座向け担当者」であるオペレータの操作に応じて動くキャラクターを表す。アバターavの顔部分は、図10に示したオペレータ支援画面1000において選択された選択肢1022に対応する顔データ(例えば、図5参照)に基づき変更されたものである。 In FIG. 11, avatar av represents a character that moves in response to the operations of an operator who is a "person in charge of foreign language courses." The face part of the avatar av has been changed based on the face data (for example, see FIG. 5) corresponding to the option 1022 selected on the operator support screen 1000 shown in FIG. 10.

アバターavの体部分は、第2の情報処理端末103が検出した外部環境情報から特定される外部環境に対応する体データ(例えば、図5参照)に基づき変更されたものである。ここでは、外部環境情報から特定される外部環境が「季節:夏」のため、夏服を着た体に変更されている。 The body parts of avatar av have been changed based on body data (for example, see FIG. 5) corresponding to the external environment specified from the external environment information detected by the second information processing terminal 103. Here, since the external environment specified from the external environment information is "season: summer", the body is changed to one wearing summer clothes.

「外国語講座向け担当者」であるオペレータは、アバターavを通して第2のユーザと会話を行うことができる。この際、図9に示したアバターavから顔部分や体部分が変更されているため、第2のユーザに対して、別の人と会話をしているかのように演出することができる。 The operator who is the "person in charge of foreign language courses" can have a conversation with the second user through the avatar AV. At this time, since the face and body parts of the avatar av shown in FIG. 9 have been changed, it is possible to make the second user feel as if they are having a conversation with another person.

図11の例では、「外国語講座向け担当者」であるオペレータからのメッセージm11が、アバターavを通して表示されている。また、メッセージm11によるオペレータからの問いかけに対して、第2のユーザのメッセージm12が入力されている。また、第2のユーザのメッセージm12に対して、「外国語講座向け担当者」であるオペレータからのメッセージm13が、アバターavを通して表示されている。 In the example of FIG. 11, a message m11 from an operator who is a "person in charge of foreign language courses" is displayed through the avatar av. Furthermore, in response to the question from the operator via message m11, a message m12 from a second user is input. Furthermore, in response to the second user's message m12, a message m13 from an operator who is a "person in charge of foreign language courses" is displayed through the avatar av.

このように、第2のユーザは、アバターavを通して、自分の希望内容に合った講座についての知識が豊富なオペレータと会話して、どのような講座を受講するのがよいのかといったことを相談することができる。 In this way, the second user uses the avatar AV to talk to an operator who has a wealth of knowledge about courses that match his or her desired content, and consults with the operator about what kind of courses he or she should take. be able to.

(情報処理装置101のアバター制御処理手順)
つぎに、図12および図13を用いて、情報処理装置101のアバター制御処理手順について説明する。ここでは、チャットボット対応からのエスカレーションにより、アバターを通した有人対応を行う場合を例に挙げて説明する。
(Avatar control processing procedure of information processing device 101)
Next, the avatar control processing procedure of the information processing device 101 will be explained using FIGS. 12 and 13. Here, we will explain an example of a case in which a chatbot response is escalated to a manned response using an avatar.

図12および図13は、情報処理装置101のアバター制御処理手順の一例を示すフローチャートである。図12において、まず、情報処理装置101は、第1の情報処理端末102における第1のユーザの操作に応じて動くアバターを第2の情報処理端末103に出力する(ステップS1201)。 12 and 13 are flowcharts illustrating an example of an avatar control processing procedure of the information processing apparatus 101. In FIG. 12, first, the information processing apparatus 101 outputs an avatar that moves according to the first user's operation on the first information processing terminal 102 to the second information processing terminal 103 (step S1201).

つぎに、情報処理装置101は、第2の情報処理端末103から、チャットの開始指示とともに、第2の情報処理端末103が検出した第2のユーザの属性情報および外部環境情報を受信したか否かを判断する(ステップS1202)。ただし、チャットの開始指示は、チャットボットでの会話を開始するためのチャットの開始指示とする。 Next, the information processing device 101 determines whether or not it has received from the second information processing terminal 103 the chat start instruction as well as the second user's attribute information and external environment information detected by the second information processing terminal 103. (Step S1202). However, the chat start instruction is a chat start instruction for starting a conversation with the chatbot.

ここで、情報処理装置101は、チャットの開始指示とともに、第2のユーザの属性情報および外部環境情報を受信するのを待つ(ステップS1202:No)。情報処理装置101は、チャットの開始指示とともに、第2のユーザの属性情報および外部環境情報を受信した場合(ステップS1202:Yes)、受信した第2のユーザの属性情報に基づいて、ユーザ属性を特定する(ステップS1203)。 Here, the information processing apparatus 101 waits to receive the second user's attribute information and external environment information together with the chat start instruction (step S1202: No). When the information processing device 101 receives the second user's attribute information and external environment information together with the chat start instruction (step S1202: Yes), the information processing device 101 determines the user attributes based on the received second user's attribute information. Specify (step S1203).

つぎに、情報処理装置101は、スクリプトテーブル140を参照して、特定したユーザ属性に対応するスクリプトを、トークスクリプトに決定する(ステップS1204)。トークスクリプトは、第2の情報処理端末103におけるチャットボットでの会話に適用するスクリプトである。 Next, the information processing apparatus 101 refers to the script table 140 and determines the script corresponding to the identified user attribute as the talk script (step S1204). The talk script is a script applied to a chatbot conversation on the second information processing terminal 103.

そして、情報処理装置101は、決定したトークスクリプトを用いて、第2の情報処理端末103におけるチャットボットでの会話を開始する(ステップS1205)。つぎに、情報処理装置101は、第2の情報処理端末103におけるチャットボットでの会話において受け付けた情報に基づいて、特定の条件を満たすか否かを判断する(ステップS1206)。 Then, the information processing apparatus 101 starts a chatbot conversation on the second information processing terminal 103 using the determined talk script (step S1205). Next, the information processing apparatus 101 determines whether a specific condition is satisfied based on the information received in the chatbot conversation on the second information processing terminal 103 (step S1206).

具体的には、例えば、情報処理装置101は、第2の情報処理端末103におけるチャットボットでの会話内容が、選択肢管理テーブル120内のいずれかの会話内容に対応する場合に、特定の条件を満たすと判断する。一方、選択肢管理テーブル120内のいずれの会話内容にも対応しない場合は、情報処理装置101は、特定の条件を満たさないと判断する。 Specifically, for example, the information processing device 101 sets a specific condition when the conversation content in the chatbot on the second information processing terminal 103 corresponds to any conversation content in the option management table 120. It is determined that it satisfies the requirements. On the other hand, if the conversation content does not correspond to any of the conversation contents in the option management table 120, the information processing device 101 determines that the specific condition is not satisfied.

ステップS1205において、特定の条件を満たさない場合(ステップS1206:No)、情報処理装置101は、第2の情報処理端末103におけるチャットボットでの会話を終了するか否かを判断する(ステップS1207)。なお、チャットボットでの会話は、例えば、トークスクリプトに従って、または、第2のユーザの終了操作に応じて終了する。 In step S1205, if the specific condition is not satisfied (step S1206: No), the information processing device 101 determines whether to end the conversation with the chatbot on the second information processing terminal 103 (step S1207). . Note that the conversation in the chatbot ends, for example, according to a talk script or in response to an end operation by the second user.

ここで、チャットボットでの会話を終了しない場合(ステップS1207:No)、情報処理装置101は、ステップS1206に戻る。一方、チャットボットでの会話を終了する場合には(ステップS1207:Yes)、情報処理装置101は、本フローチャートによる一連の処理を終了する。 Here, if the conversation with the chatbot is not ended (step S1207: No), the information processing apparatus 101 returns to step S1206. On the other hand, if the conversation with the chatbot is to be ended (step S1207: Yes), the information processing apparatus 101 ends the series of processes according to this flowchart.

また、ステップS1206において、特定の条件を満たす場合(ステップS1206:Yes)、情報処理装置101は、チャットボット対応から有人対応の会話に切り替えて(ステップS1208)、図13に示すステップS1301に移行する。 Further, in step S1206, if a specific condition is satisfied (step S1206: Yes), the information processing apparatus 101 switches from chatbot-based conversation to manned-based conversation (step S1208), and moves to step S1301 shown in FIG. 13. .

図13のフローチャートにおいて、まず、情報処理装置101は、選択肢管理テーブル120を参照して、第2の情報処理端末103におけるチャットボットでの会話内容に対応する選択肢を、第1の情報処理端末102に出力する(ステップS1301)。具体的には、例えば、情報処理装置101は、チャットボットでの会話内容に対応する選択肢を、図10に示したようなオペレータ支援画面1000に表示する。 In the flowchart of FIG. 13, the information processing device 101 first refers to the option management table 120 and selects options corresponding to the content of the chatbot conversation on the second information processing terminal 103 from the first information processing terminal 103. (Step S1301). Specifically, for example, the information processing apparatus 101 displays options corresponding to the content of the chatbot conversation on an operator support screen 1000 as shown in FIG. 10 .

つぎに、情報処理装置101は、出力したいずれかの選択肢が選択されたか否かを判断する(ステップS1302)。ここで、情報処理装置101は、いずれかの選択肢が選択されるのを待つ(ステップS1302:No)。情報処理装置101は、いずれかの選択肢が選択された場合(ステップS1302:Yes)、アバター出力変更処理を実行する(ステップS1303)。 Next, the information processing apparatus 101 determines whether any of the output options has been selected (step S1302). Here, the information processing apparatus 101 waits for one of the options to be selected (step S1302: No). If any option is selected (step S1302: Yes), the information processing apparatus 101 executes avatar output change processing (step S1303).

アバター出力変更処理は、選択された選択肢に応じて、第2の情報処理端末103に表示されるアバターの出力を制御する処理である。アバター出力変更処理の具体的な処理手順については、図14を用いて後述する。 The avatar output change process is a process for controlling the output of the avatar displayed on the second information processing terminal 103 according to the selected option. The specific processing procedure of the avatar output change processing will be described later using FIG. 14.

つぎに、情報処理装置101は、第2の情報処理端末103におけるアバターを通した会話において受け付けた情報に基づいて、特定の条件を満たすか否かを判断する(ステップS1304)。具体的には、例えば、情報処理装置101は、有人対応によるアバターを通した会話内容が、選択肢管理テーブル120内のいずれかの会話内容に対応する場合に、特定の条件を満たすと判断する。一方、選択肢管理テーブル120内のいずれの会話内容にも対応しない場合、情報処理装置101は、特定の条件を満たさないと判断する。 Next, the information processing apparatus 101 determines whether a specific condition is satisfied based on the information received in the conversation through the avatar at the second information processing terminal 103 (step S1304). Specifically, for example, the information processing device 101 determines that a specific condition is satisfied when the content of the conversation through the avatar by the manned person corresponds to the content of any conversation in the option management table 120. On the other hand, if the conversation content does not correspond to any of the conversation contents in the option management table 120, the information processing device 101 determines that the specific condition is not satisfied.

ここで、特定の条件を満たさない場合(ステップS1304:No)、情報処理装置101は、第2の情報処理端末103における有人対応によるアバターを通した会話を終了するか否かを判断する(ステップS1305)。なお、有人対応によるアバターを通した会話は、例えば、第2のユーザの終了操作に応じて終了する。 Here, if the specific condition is not satisfied (step S1304: No), the information processing device 101 determines whether to end the conversation through the avatar by the manned response at the second information processing terminal 103 (step S1304: No). S1305). Note that the conversation through the avatar with the attendant ends, for example, in response to the second user's end operation.

ここで、有人対応によるアバターを通した会話を終了しない場合(ステップS1305:No)、情報処理装置101は、ステップS1304に戻る。一方、有人対応によるアバターを通した会話を終了する場合には(ステップS1305:Yes)、情報処理装置101は、本フローチャートによる一連の処理を終了する。 Here, if the conversation through the avatar with the attendant is not ended (step S1305: No), the information processing apparatus 101 returns to step S1304. On the other hand, if the conversation through the avatar by the manned person is to be ended (step S1305: Yes), the information processing apparatus 101 ends the series of processes according to this flowchart.

また、ステップS1304において、特定の条件を満たす場合(ステップS1304:Yes)、情報処理装置101は、選択肢管理テーブル120を参照して、第2の情報処理端末103における、有人対応によるアバターを通した会話の内容に対応する選択肢を、第1の情報処理端末102に出力して(ステップS1306)、ステップS1302に戻る。 In addition, in step S1304, if the specific condition is satisfied (step S1304: Yes), the information processing device 101 refers to the option management table 120, and the information processing device 101 refers to the option management table 120 to determine whether the second information processing terminal 103 uses the manned avatar. The options corresponding to the content of the conversation are output to the first information processing terminal 102 (step S1306), and the process returns to step S1302.

これにより、第2の情報処理端末103を使用する第2のユーザの特徴に応じて、チャットボットでの会話を制御することができる。また、チャットボット対応からのエスカレーションにより、アバターを通した有人対応を行うことができる。 Thereby, the conversation in the chatbot can be controlled according to the characteristics of the second user who uses the second information processing terminal 103. Additionally, escalation from chatbot support allows for manned support through avatars.

つぎに、図14を用いて、図13に示したステップS1303のアバター出力変更処理の具体的な処理手順について説明する。 Next, the specific processing procedure of the avatar output changing process in step S1303 shown in FIG. 13 will be described using FIG. 14.

図14は、アバター出力変更処理の具体的処理手順の一例を示すフローチャートである。図14のフローチャートにおいて、まず、情報処理装置101は、図12に示したステップS1202において受信された外部環境情報に基づいて、第2の情報処理端末103の外部環境を特定する(ステップS1401)。 FIG. 14 is a flowchart illustrating an example of a specific procedure for changing the avatar output. In the flowchart of FIG. 14, first, the information processing apparatus 101 identifies the external environment of the second information processing terminal 103 based on the external environment information received in step S1202 shown in FIG. 12 (step S1401).

つぎに、情報処理装置101は、図13に示したステップS1302において選択された選択肢が、アバターの動き、または、オペレータのいずれを指定するものであるか否かを判断する(ステップS1402)。 Next, the information processing apparatus 101 determines whether the option selected in step S1302 shown in FIG. 13 specifies the movement of the avatar or the operator (step S1402).

ここで、アバターの動きを指定するものである場合(ステップS1402:アバターの動き)、情報処理装置101は、指定された動きと、特定した外部環境とに基づいて、アバターの動きを決定する(ステップS1403)。そして、情報処理装置101は、決定した動きに基づいて、第2の情報処理端末103に表示するアバターの出力を変更して(ステップS1404)、アバター出力変更処理を呼び出したステップに戻る。 Here, if the movement of the avatar is to be specified (step S1402: movement of the avatar), the information processing apparatus 101 determines the movement of the avatar based on the specified movement and the specified external environment ( Step S1403). The information processing apparatus 101 then changes the output of the avatar displayed on the second information processing terminal 103 based on the determined movement (step S1404), and returns to the step that called the avatar output change process.

一方、オペレータを指定するものである場合(ステップS1402:オペレータ)、情報処理装置101は、アバター管理テーブル130を参照して、選択された選択肢に対応するアバター管理情報を特定する(ステップS1405)。つぎに、情報処理装置101は、特定したアバター管理情報を参照して、アバターの顔データを特定する(ステップS1406)。 On the other hand, if an operator is to be specified (step S1402: operator), the information processing apparatus 101 refers to the avatar management table 130 and specifies avatar management information corresponding to the selected option (step S1405). Next, the information processing apparatus 101 refers to the specified avatar management information and specifies the face data of the avatar (step S1406).

つぎに、情報処理装置101は、特定したアバター管理情報を参照して、特定した外部環境に対応するアバターの体データを特定する(ステップS1407)。つぎに、情報処理装置101は、特定したアバター管理情報を参照して、第2の情報処理端末103の接続先の第1の情報処理端末102を切り替える(ステップS1408)。 Next, the information processing apparatus 101 refers to the specified avatar management information and specifies the body data of the avatar corresponding to the specified external environment (step S1407). Next, the information processing apparatus 101 refers to the specified avatar management information and switches the first information processing terminal 102 to which the second information processing terminal 103 is connected (step S1408).

そして、情報処理装置101は、特定した顔データおよび体データに基づいて、第2の情報処理端末103に表示するアバターの出力を変更して(ステップS1409)、アバター出力変更処理を呼び出したステップに戻る。 Then, the information processing device 101 changes the output of the avatar displayed on the second information processing terminal 103 based on the specified face data and body data (step S1409), and returns to the step that called the avatar output change process. return.

これにより、ユーザへの応対を行うオペレータの操作に応じて、第2の情報処理端末103の外部環境に合わせてアバターの動きを制御することができる。また、ユーザへの応対を行うオペレータに合わせて、アバターの顔部分や体部分を変更することができる。 Thereby, the movement of the avatar can be controlled in accordance with the external environment of the second information processing terminal 103 in accordance with the operation of the operator who responds to the user. Furthermore, the face and body parts of the avatar can be changed depending on the operator who responds to the user.

以上説明したように、実施の形態にかかる情報処理装置101によれば、第1の情報処理端末102における第1のユーザの操作に応じて動くアバターを、第2の情報処理端末103に出力することができる。また、情報処理装置101によれば、第2の情報処理端末103における第2のユーザを検出した場合、アバターに対応する操作を促す情報を第1の情報処理端末102に出力することができる。アバターに対応する操作を促す情報は、例えば、アバターの動作を指定する操作を促す情報や、アバターを通して第2のユーザへの応対を行うオペレータを指定する操作を促す情報である。そして、情報処理装置101によれば、出力した情報に対応する操作を第1の情報処理端末102において受け付けた場合、受け付けた操作と第2の情報処理端末103が検出した外部環境情報とに基づいて、アバターの出力を制御することができる。 As described above, according to the information processing apparatus 101 according to the embodiment, an avatar that moves in response to the first user's operation on the first information processing terminal 102 is output to the second information processing terminal 103. be able to. Further, according to the information processing device 101, when the second user at the second information processing terminal 103 is detected, information that prompts an operation corresponding to the avatar can be output to the first information processing terminal 102. The information that prompts an operation corresponding to the avatar is, for example, information that prompts an operation to specify an action of the avatar, or information that prompts an operation to specify an operator who will respond to the second user through the avatar. According to the information processing device 101, when an operation corresponding to the output information is received at the first information processing terminal 102, based on the received operation and the external environment information detected by the second information processing terminal 103, You can control the output of your avatar.

これにより、ユーザへの応対を行うオペレータの操作に応じて、第2の情報処理端末103の外部環境に合わせてアバターの出力を制御することができる。 Thereby, the output of the avatar can be controlled in accordance with the external environment of the second information processing terminal 103 in accordance with the operation of the operator who responds to the user.

また、情報処理装置101によれば、受け付けた操作と第2の情報処理端末103が検出した外部環境情報とに基づいて、アバターの動きを決定し、決定した動きに基づいて、アバターの出力を変更することができる。 Further, according to the information processing device 101, the movement of the avatar is determined based on the received operation and the external environment information detected by the second information processing terminal 103, and the output of the avatar is determined based on the determined movement. Can be changed.

これにより、ユーザへの応対を行うオペレータの操作に応じて、第2の情報処理端末103の外部環境に合わせてアバターの動きを制御することができる。例えば、「手を振る」というアバターの動きが指定された際に、第2の情報処理端末103の外部環境が「温度:氷点下」であれば、寒さで震えているような感じで手を振るように、アバターの動きを制御することができる。また、「おじぎ」というアバターの動きが指定された際に、第2の情報処理端末103の外部環境が「場所:ホテル」であれば、ホテルマンのような作法でおじぎをするように、アバターavの動きを制御することができる。 Thereby, the movement of the avatar can be controlled in accordance with the external environment of the second information processing terminal 103 in accordance with the operation of the operator who responds to the user. For example, when the avatar's movement of "waving hands" is specified and the external environment of the second information processing terminal 103 is "temperature: below freezing", the avatar will wave its hands as if it is shivering from the cold. You can control the movement of your avatar. Furthermore, when the avatar's movement of "bowing" is specified and the external environment of the second information processing terminal 103 is "location: hotel", the avatar's movement is changed to bow in the manner of a hotel worker. AV movement can be controlled.

また、情報処理装置101によれば、受け付けた操作に基づいて、アバターの顔部分の出力を変更し、外部環境情報に基づいて、アバターの体部分の出力を変更することができる。 Further, according to the information processing device 101, the output of the avatar's face can be changed based on the received operation, and the output of the avatar's body can be changed based on external environment information.

これにより、ユーザへの応対を行うオペレータに合わせて、アバターの顔部分(見た目)を変更することができる。また、第2の情報処理端末103の外部環境に合わせて、アバターの体部分(見た目)を変更することができる。例えば、第2の情報処理端末103が設置された場所や季節に合わせて、アバターの服装を変更することができる。例えば、第2の情報処理端末103の外部環境が「場所:ホテル」であれば、アバターの体部分を、ホテルマンのような服装に変更することができる。また、第2の情報処理端末103の外部環境が「季節:夏」であれば、アバターの体部分を、夏服の服装に変更することができる。 Thereby, the face part (appearance) of the avatar can be changed according to the operator who responds to the user. Further, the body parts (appearance) of the avatar can be changed according to the external environment of the second information processing terminal 103. For example, the avatar's clothing can be changed depending on the location where the second information processing terminal 103 is installed or the season. For example, if the external environment of the second information processing terminal 103 is "location: hotel", the avatar's body parts can be changed to clothes like a hotel worker. Further, if the external environment of the second information processing terminal 103 is "season: summer", the body part of the avatar can be changed to summer clothes.

情報処理装置101によれば、第2の情報処理端末103における第2のユーザを検出した場合、第2のユーザに対応する履歴情報があるか否かを判断し、第2のユーザに対応する履歴情報がある場合、当該履歴情報に含まれるアバターの情報に基づいて、アバターの出力を制御することができる。 According to the information processing apparatus 101, when the second user at the second information processing terminal 103 is detected, it is determined whether or not there is history information corresponding to the second user, and the process is performed to correspond to the second user. If there is history information, the output of the avatar can be controlled based on the avatar information included in the history information.

これにより、例えば、第2の情報処理端末103を第2のユーザが前回使用したときと同じ見た目のアバターを通して、前回と同じオペレータが第2のユーザへの応対を行うことが可能となり、キャラクターの一貫性を持たせることができる。 As a result, for example, the same operator can respond to the second user through an avatar that looks the same as when the second user used the second information processing terminal 103 last time. It can be consistent.

情報処理装置101によれば、第2の情報処理端末103における第2のユーザを検出した場合、第2のユーザの属性情報に基づいて、アバターに対応する操作を促す情報を第1の情報処理端末102に出力することができる。 According to the information processing device 101, when the second user at the second information processing terminal 103 is detected, the first information processing process generates information prompting an operation corresponding to the avatar based on the attribute information of the second user. It can be output to the terminal 102.

これにより、第2のユーザの特徴を考慮して、第2のユーザに合った選択肢、例えば、アバターの動作や第2のユーザへの応対を行うオペレータを指定する選択肢を提示可能となり、オペレータの応対業務を支援することができる。例えば、第2のユーザが子供であれば、子供が喜びそうな動作を選択肢として提示したり、子供の応対が得意なオペレータにつなぐための選択肢を提示したりすることができる。 As a result, it is possible to present options suitable for the second user, taking into account the characteristics of the second user, for example, options for specifying the operator who will perform the avatar's movements and respond to the second user. Able to support reception duties. For example, if the second user is a child, it is possible to present options for actions that children would enjoy, or to connect the user to an operator who is good at dealing with children.

情報処理装置101によれば、第2の情報処理端末103における第2のユーザを検出した場合、第2の情報処理端末103におけるアバターを通した会話において受け付けた情報に基づいて、アバターに対応する操作を促す情報を第1の情報処理端末102に出力することができる。 According to the information processing device 101, when the second user at the second information processing terminal 103 is detected, the information processing device 101 responds to the avatar based on the information received in the conversation through the avatar at the second information processing terminal 103. Information prompting operation can be output to the first information processing terminal 102.

これにより、第2の情報処理端末103における有人対応によるアバターを通した会話内容を考慮して、第2のユーザに合った選択肢を提示可能となり、オペレータの応対業務を支援することができる。例えば、アバターを通した会話の中で第2のユーザが希望する内容を聞き出して、それについての知識が豊富なオペレータにつなぐための選択肢を提示することができる。 This makes it possible to present options suitable for the second user, taking into account the content of the conversation through the avatar by the manned person at the second information processing terminal 103, and to support the operator's reception work. For example, it is possible to find out what the second user wants in a conversation through the avatar and present options for connecting to an operator who is knowledgeable about the content.

情報処理装置101によれば、第2の情報処理端末103における第2のユーザを検出した場合、第2の情報処理端末103におけるチャットボットでの会話を開始し、チャットボットでの会話において受け付けた情報に基づいて、アバターの動きに対応する操作を促す情報を第1の情報処理端末102に出力することができる。 According to the information processing device 101, when detecting the second user at the second information processing terminal 103, it starts a conversation with the chatbot on the second information processing terminal 103, and receives a message received in the chatbot conversation. Based on the information, information that prompts an operation corresponding to the movement of the avatar can be output to the first information processing terminal 102.

これにより、第2の情報処理端末103におけるチャットボットでの会話内容を考慮して、第2のユーザに合った選択肢を提示可能となり、オペレータの応対業務を支援することができる。例えば、チャットボットでの会話の中で第2のユーザが希望する内容を聞き出して、それについての知識が豊富なオペレータにつなぐための選択肢を提示することができる。 This makes it possible to present options suitable for the second user in consideration of the content of the conversation in the chatbot on the second information processing terminal 103, thereby supporting the operator's response work. For example, it is possible to find out what the second user wants in a conversation with a chatbot and present options for connecting the second user with an operator who is knowledgeable about the content.

これらのことから、会話制御システム100および情報処理装置101によれば、バリエーション豊富なアバターの動きを実現するとともに、ユーザに合った適切なオペレータによる応対を実現してサービスの品質向上を図ることができる。 Therefore, according to the conversation control system 100 and the information processing device 101, it is possible to realize a wide variety of avatar movements and to improve the quality of the service by providing an appropriate response from an operator that suits the user. can.

なお、本実施の形態で説明したアバター制御方法は、予め用意されたプログラムをパーソナル・コンピュータやワークステーション等のコンピュータで実行することにより実現することができる。本アバター制御プログラムは、ハードディスク、フレキシブルディスク、CD-ROM、DVD、USBメモリ等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。また、本アバター制御プログラムは、インターネット等のネットワークを介して配布してもよい。 Note that the avatar control method described in this embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. This avatar control program is recorded on a computer-readable recording medium such as a hard disk, flexible disk, CD-ROM, DVD, or USB memory, and is executed by being read from the recording medium by the computer. Further, this avatar control program may be distributed via a network such as the Internet.

また、本実施の形態で説明した情報処理装置101は、スタンダードセルやストラクチャードASIC(Application Specific Integrated Circuit)などの特定用途向けICやFPGAなどのPLD(Programmable Logic Device)によっても実現することができる。 Further, the information processing device 101 described in this embodiment can also be realized by a specific application IC such as a standard cell or a structured ASIC (Application Specific Integrated Circuit), or a PLD (Programmable Logic Device) such as an FPGA.

上述した実施の形態に関し、さらに以下の付記を開示する。 Regarding the embodiments described above, the following additional notes are further disclosed.

(付記1)第1の情報処理端末における第1のユーザの操作に応じて動くアバターを第2の情報処理端末に出力し、
前記第2の情報処理端末における第2のユーザを検出した場合、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力し、
出力した前記情報に対応する操作を前記第1の情報処理端末において受け付けた場合、受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの出力を制御する、
処理をコンピュータに実行させることを特徴とするアバター制御プログラム。
(Additional Note 1) Outputting an avatar that moves in accordance with the operation of the first user on the first information processing terminal to the second information processing terminal,
If a second user at the second information processing terminal is detected, outputting information prompting an operation corresponding to the avatar to the first information processing terminal;
When the first information processing terminal receives an operation corresponding to the outputted information, the output of the avatar is controlled based on the received operation and external environment information detected by the second information processing terminal. do,
An avatar control program characterized by causing a computer to perform processing.

(付記2)前記制御する処理は、
受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの動きを決定し、決定した前記動きに基づいて、前記アバターの出力を変更する、ことを特徴とする付記1に記載のアバター制御プログラム。
(Additional note 2) The process to be controlled is
A movement of the avatar is determined based on the received operation and external environment information detected by the second information processing terminal, and an output of the avatar is changed based on the determined movement. The avatar control program according to supplementary note 1.

(付記3)前記制御する処理は、
受け付けた前記操作に基づいて、前記アバターの顔部分の出力を変更し、
前記外部環境情報に基づいて、前記アバターの体部分の出力を変更する、
ことを特徴とする付記1に記載のアバター制御プログラム。
(Additional Note 3) The process to be controlled is
changing the output of the facial part of the avatar based on the received operation;
changing the output of the body part of the avatar based on the external environment information;
The avatar control program according to supplementary note 1.

(付記4)前記第2の情報処理端末における第2のユーザを検出した場合、前記第2のユーザに対応する履歴情報があるか否かを判断し、
前記第2のユーザに対応する履歴情報がある場合、当該履歴情報に含まれる前記アバターの情報に基づいて、前記アバターの出力を制御する、
処理を前記コンピュータに実行させることを特徴とする付記1に記載のアバター制御プログラム。
(Supplementary Note 4) When a second user in the second information processing terminal is detected, determining whether there is history information corresponding to the second user,
If there is history information corresponding to the second user, controlling the output of the avatar based on information about the avatar included in the history information;
The avatar control program according to supplementary note 1, which causes the computer to execute the process.

(付記5)前記第2の情報処理端末における第2のユーザを検出した場合、前記第2のユーザの属性情報に基づいて、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力する、
処理を前記コンピュータに実行させることを特徴とする付記1に記載のアバター制御プログラム。
(Supplementary Note 5) When a second user at the second information processing terminal is detected, information prompting the user to perform an operation corresponding to the avatar is sent to the first information processing terminal based on the attribute information of the second user. output to,
The avatar control program according to supplementary note 1, which causes the computer to execute the process.

(付記6)前記第2の情報処理端末における第2のユーザを検出した場合、前記第2の情報処理端末における前記アバターを通した会話において受け付けた情報に基づいて、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力する、
処理を前記コンピュータに実行させることを特徴とする付記1に記載のアバター制御プログラム。
(Supplementary Note 6) When a second user is detected at the second information processing terminal, an operation corresponding to the avatar is performed based on information received in a conversation through the avatar at the second information processing terminal. outputting prompting information to the first information processing terminal;
The avatar control program according to supplementary note 1, which causes the computer to execute the process.

(付記7)前記第2の情報処理端末における第2のユーザを検出した場合、前記第2の情報処理端末におけるチャットボットでの会話を開始し、
前記チャットボットでの会話において受け付けた情報に基づいて、前記アバターの動きに対応する操作を促す情報を前記第1の情報処理端末に出力する、
処理を前記コンピュータに実行させることを特徴とする付記1に記載のアバター制御プログラム。
(Additional Note 7) When detecting a second user on the second information processing terminal, start a conversation with a chatbot on the second information processing terminal,
outputting information that prompts an operation corresponding to the movement of the avatar to the first information processing terminal based on information received in the conversation with the chatbot;
The avatar control program according to supplementary note 1, which causes the computer to execute the process.

(付記8)前記アバターに対応する操作を促す情報は、前記アバターの動作を指定する操作を促す情報である、ことを特徴とする付記1に記載のアバター制御プログラム。 (Supplementary note 8) The avatar control program according to supplementary note 1, wherein the information prompting an operation corresponding to the avatar is information prompting an operation specifying an action of the avatar.

(付記9)前記アバターに対応する操作を促す情報は、前記アバターを通して前記第2のユーザへの応対を行うオペレータを指定する操作を促す情報である、ことを特徴とする付記3に記載のアバター制御プログラム。 (Supplementary note 9) The avatar according to supplementary note 3, wherein the information prompting an operation corresponding to the avatar is information prompting an operation to specify an operator who will respond to the second user through the avatar. control program.

(付記10)第1の情報処理端末における第1のユーザの操作に応じて動くアバターを第2の情報処理端末に出力し、
前記第2の情報処理端末における第2のユーザを検出した場合、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力し、
出力した前記情報に対応する操作を前記第1の情報処理端末において受け付けた場合、受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの出力を制御する、
処理をコンピュータが実行することを特徴とするアバター制御方法。
(Additional Note 10) Outputting an avatar that moves according to the operation of the first user on the first information processing terminal to the second information processing terminal,
If a second user at the second information processing terminal is detected, outputting information prompting an operation corresponding to the avatar to the first information processing terminal;
When the first information processing terminal receives an operation corresponding to the outputted information, the output of the avatar is controlled based on the received operation and external environment information detected by the second information processing terminal. do,
An avatar control method characterized in that processing is executed by a computer.

(付記11)第1の情報処理端末における第1のユーザの操作に応じて動くアバターを第2の情報処理端末に出力する第1の出力制御部と、
前記第2の情報処理端末における第2のユーザを検出した場合、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力する第2の出力制御部と、を有し、
前記第1の出力制御部は、
前記第2の出力制御部によって出力された前記情報に対応する操作を前記第1の情報処理端末において受け付けた場合、受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの出力を制御する、
ことを特徴とする情報処理装置。
(Additional Note 11) A first output control unit that outputs an avatar that moves according to the operation of the first user on the first information processing terminal to the second information processing terminal;
a second output control unit that outputs information prompting an operation corresponding to the avatar to the first information processing terminal when a second user at the second information processing terminal is detected;
The first output control section includes:
When the first information processing terminal receives an operation corresponding to the information output by the second output control unit, the received operation and the external environment information detected by the second information processing terminal controlling the output of the avatar based on;
An information processing device characterized by:

100 会話制御システム
101 情報処理装置
102 第1の情報処理端末
103 第2の情報処理端末
110 ネットワーク
120 選択肢管理テーブル
130 アバター管理テーブル
140 スクリプトテーブル
200,300 バス
201,301 CPU
202,302 メモリ
203 ディスクドライブ
204 ディスク
205,305 通信I/F
206 可搬型記録媒体I/F
207 可搬型記録媒体
303 ディスプレイ
304 入力装置
306 カメラ
307 スピーカ
308 マイクロフォン
309 GPSユニット
701 第1の出力制御部
702 第2の出力制御部
703 通信部
704 会話制御部
710 記憶部
900,1100 トーク画面
1000 オペレータ支援画面
100 Conversation control system 101 Information processing device 102 First information processing terminal 103 Second information processing terminal 110 Network 120 Choice management table 130 Avatar management table 140 Script table 200,300 Bus 201,301 CPU
202,302 Memory 203 Disk Drive 204 Disk 205,305 Communication I/F
206 Portable recording medium I/F
207 Portable recording medium 303 Display 304 Input device 306 Camera 307 Speaker 308 Microphone 309 GPS unit 701 First output control section 702 Second output control section 703 Communication section 704 Conversation control section 710 Storage section 900, 1100 Talk screen 1000 Operator Support screen

Claims (8)

第1の情報処理端末における第1のユーザの操作に応じて動くアバターを第2の情報処理端末に出力し、
前記第2の情報処理端末における第2のユーザを検出した場合、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力し、
出力した前記情報に対応する操作を前記第1の情報処理端末において受け付けた場合、受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの出力を制御する、
処理をコンピュータに実行させることを特徴とするアバター制御プログラム。
outputting an avatar that moves in response to an operation of a first user on a first information processing terminal to a second information processing terminal;
If a second user at the second information processing terminal is detected, outputting information prompting an operation corresponding to the avatar to the first information processing terminal;
When the first information processing terminal receives an operation corresponding to the outputted information, the output of the avatar is controlled based on the received operation and external environment information detected by the second information processing terminal. do,
An avatar control program characterized by causing a computer to perform processing.
前記制御する処理は、
受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの動きを決定し、決定した前記動きに基づいて、前記アバターの出力を変更する、ことを特徴とする請求項1に記載のアバター制御プログラム。
The process to be controlled is
A movement of the avatar is determined based on the received operation and external environment information detected by the second information processing terminal, and an output of the avatar is changed based on the determined movement. The avatar control program according to claim 1.
前記制御する処理は、
受け付けた前記操作に基づいて、前記アバターの顔部分の出力を変更し、
前記外部環境情報に基づいて、前記アバターの体部分の出力を変更する、
ことを特徴とする請求項1に記載のアバター制御プログラム。
The process to be controlled is
changing the output of the facial part of the avatar based on the received operation;
changing the output of the body part of the avatar based on the external environment information;
The avatar control program according to claim 1, characterized in that:
前記第2の情報処理端末における第2のユーザを検出した場合、前記第2のユーザに対応する履歴情報があるか否かを判断し、
前記第2のユーザに対応する履歴情報がある場合、当該履歴情報に含まれる前記アバターの情報に基づいて、前記アバターの出力を制御する、
処理を前記コンピュータに実行させることを特徴とする請求項1に記載のアバター制御プログラム。
When detecting a second user in the second information processing terminal, determining whether there is history information corresponding to the second user;
If there is history information corresponding to the second user, controlling the output of the avatar based on information about the avatar included in the history information;
The avatar control program according to claim 1, which causes the computer to execute the process.
前記第2の情報処理端末における第2のユーザを検出した場合、前記第2のユーザの属性情報に基づいて、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力する、
処理を前記コンピュータに実行させることを特徴とする請求項1に記載のアバター制御プログラム。
If a second user at the second information processing terminal is detected, outputting information prompting an operation corresponding to the avatar to the first information processing terminal based on attribute information of the second user;
The avatar control program according to claim 1, which causes the computer to execute the process.
前記第2の情報処理端末における第2のユーザを検出した場合、前記第2の情報処理端末における前記アバターを通した会話において受け付けた情報に基づいて、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力する、
処理を前記コンピュータに実行させることを特徴とする請求項1に記載のアバター制御プログラム。
When a second user on the second information processing terminal is detected, information prompting the avatar to perform a corresponding operation is sent to the second information processing terminal based on information received in a conversation through the avatar on the second information processing terminal. Output to the first information processing terminal,
The avatar control program according to claim 1, which causes the computer to execute the process.
第1の情報処理端末における第1のユーザの操作に応じて動くアバターを第2の情報処理端末に出力し、
前記第2の情報処理端末における第2のユーザを検出した場合、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力し、
出力した前記情報に対応する操作を前記第1の情報処理端末において受け付けた場合、受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの出力を制御する、
処理をコンピュータが実行することを特徴とするアバター制御方法。
outputting an avatar that moves in response to an operation of a first user on a first information processing terminal to a second information processing terminal;
If a second user at the second information processing terminal is detected, outputting information prompting an operation corresponding to the avatar to the first information processing terminal;
When the first information processing terminal receives an operation corresponding to the outputted information, the output of the avatar is controlled based on the received operation and external environment information detected by the second information processing terminal. do,
An avatar control method characterized in that processing is executed by a computer.
第1の情報処理端末における第1のユーザの操作に応じて動くアバターを第2の情報処理端末に出力する第1の出力制御部と、
前記第2の情報処理端末における第2のユーザを検出した場合、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力する第2の出力制御部と、を有し、
前記第1の出力制御部は、
前記第2の出力制御部によって出力された前記情報に対応する操作を前記第1の情報処理端末において受け付けた場合、受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの出力を制御する、
ことを特徴とする情報処理装置。
a first output control unit that outputs an avatar that moves in response to a first user's operation on the first information processing terminal to a second information processing terminal;
a second output control unit that outputs information prompting an operation corresponding to the avatar to the first information processing terminal when a second user at the second information processing terminal is detected;
The first output control section includes:
When the first information processing terminal receives an operation corresponding to the information output by the second output control unit, the received operation and the external environment information detected by the second information processing terminal controlling the output of the avatar based on;
An information processing device characterized by:
JP2022522145A 2020-05-12 2020-05-12 Avatar control program, avatar control method, and information processing device Active JP7371770B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/019006 WO2021229692A1 (en) 2020-05-12 2020-05-12 Avatar control program, avatar control method and information processing device

Publications (3)

Publication Number Publication Date
JPWO2021229692A1 JPWO2021229692A1 (en) 2021-11-18
JPWO2021229692A5 JPWO2021229692A5 (en) 2022-09-14
JP7371770B2 true JP7371770B2 (en) 2023-10-31

Family

ID=78525485

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022522145A Active JP7371770B2 (en) 2020-05-12 2020-05-12 Avatar control program, avatar control method, and information processing device

Country Status (2)

Country Link
JP (1) JP7371770B2 (en)
WO (1) WO2021229692A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024058439A1 (en) * 2022-09-13 2024-03-21 삼성전자주식회사 Method and apparatus for determining persona of avatar object arranged in virtual space

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007199997A (en) 2006-01-26 2007-08-09 Advanced Telecommunication Research Institute International Dialog support system
JP2015220534A (en) 2014-05-15 2015-12-07 株式会社リコー Auxiliary apparatus, auxiliary system and auxiliary method for communication, and program
JP2019105944A (en) 2017-12-11 2019-06-27 トヨタ自動車株式会社 Display control device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4709598B2 (en) * 2005-07-11 2011-06-22 公立大学法人岡山県立大学 Call terminal with avatar display function
KR101825094B1 (en) * 2016-06-08 2018-02-02 한양대학교 산학협력단 Method and device for planning grasp motion
JP7012953B2 (en) * 2017-08-30 2022-01-31 株式会社国際電気通信基礎技術研究所 Sensory stimulation presentation system, program and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007199997A (en) 2006-01-26 2007-08-09 Advanced Telecommunication Research Institute International Dialog support system
JP2015220534A (en) 2014-05-15 2015-12-07 株式会社リコー Auxiliary apparatus, auxiliary system and auxiliary method for communication, and program
JP2019105944A (en) 2017-12-11 2019-06-27 トヨタ自動車株式会社 Display control device

Also Published As

Publication number Publication date
WO2021229692A1 (en) 2021-11-18
JPWO2021229692A1 (en) 2021-11-18

Similar Documents

Publication Publication Date Title
CN110998725B (en) Generating a response in a dialog
US20220284896A1 (en) Electronic personal interactive device
US20220254343A1 (en) System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs
US11468894B2 (en) System and method for personalizing dialogue based on user's appearances
KR101992424B1 (en) Apparatus for making artificial intelligence character for augmented reality and service system using the same
CN109176535B (en) Interaction method and system based on intelligent robot
JP7396396B2 (en) Information processing device, information processing method, and program
CN109521927B (en) Robot interaction method and equipment
CN110598576A (en) Sign language interaction method and device and computer medium
CN107480766B (en) Method and system for content generation for multi-modal virtual robots
CN109086860B (en) Interaction method and system based on virtual human
CN111565143B (en) Instant messaging method, equipment and computer readable storage medium
US20230108256A1 (en) Conversational artificial intelligence system in a virtual reality space
US20180336450A1 (en) Platform to Acquire and Represent Human Behavior and Physical Traits to Achieve Digital Eternity
JP7371770B2 (en) Avatar control program, avatar control method, and information processing device
CN114048299A (en) Dialogue method, apparatus, device, computer-readable storage medium, and program product
CN113205569A (en) Image drawing method and device, computer readable medium and electronic device
JPWO2021229692A5 (en)
CN112820265B (en) Speech synthesis model training method and related device
KR101912554B1 (en) Fairy tale creation and sharing system
CN114449297A (en) Multimedia information processing method, computing equipment and storage medium
JP2020025221A (en) Communication support device, communication support system, and communication method
CN112138410B (en) Interaction method of virtual objects and related device
JP7064159B1 (en) Information processing methods, programs, and information processing equipment
US20230230293A1 (en) Method and system for virtual intelligence user interaction

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220722

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231002

R150 Certificate of patent or registration of utility model

Ref document number: 7371770

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150