JP7371770B2 - Avatar control program, avatar control method, and information processing device - Google Patents
Avatar control program, avatar control method, and information processing device Download PDFInfo
- Publication number
- JP7371770B2 JP7371770B2 JP2022522145A JP2022522145A JP7371770B2 JP 7371770 B2 JP7371770 B2 JP 7371770B2 JP 2022522145 A JP2022522145 A JP 2022522145A JP 2022522145 A JP2022522145 A JP 2022522145A JP 7371770 B2 JP7371770 B2 JP 7371770B2
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- avatar
- processing terminal
- information
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 417
- 238000000034 method Methods 0.000 title claims description 52
- 230000008569 process Effects 0.000 claims description 33
- 230000004044 response Effects 0.000 claims description 31
- 230000001815 facial effect Effects 0.000 claims description 3
- 238000013515 script Methods 0.000 description 36
- 238000010586 diagram Methods 0.000 description 22
- 238000004891 communication Methods 0.000 description 20
- 230000008859 change Effects 0.000 description 16
- 230000009471 action Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 230000008014 freezing Effects 0.000 description 4
- 238000007710 freezing Methods 0.000 description 4
- 206010008531 Chills Diseases 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241001122315 Polites Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 230000009118 appropriate response Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000009223 counseling Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、アバター制御プログラム、アバター制御方法および情報処理装置に関する。 The present invention relates to an avatar control program, an avatar control method, and an information processing device.
近年、チャットボットと呼ばれる技術を利用した自動応答システムがある。チャットボットは、人工知能を利用して、人間との対話やメッセージのやりとりを行うコンピュータシステムである。また、チャットボットでの会話において、特定の条件を満たす場合に、チャットボット対応から有人対応の会話に切り替える場合がある。 In recent years, there have been automated response systems that utilize technology called chatbots. A chatbot is a computer system that uses artificial intelligence to interact and exchange messages with humans. In addition, in a conversation with a chatbot, if specific conditions are met, the conversation may be switched from chatbot support to manned conversation.
先行技術としては、ユーザに関する情報を取得し、取得した情報からユーザの状態を推定し、推定結果に基づいて、キャラクターに動作および/または発言を行わせるための情報を生成し、生成した情報を出力するものがある。また、情報処理端末から、チャットボットとの会話の開始指示とともに、情報処理端末が取得したユーザの属性情報を受信し、ユーザの属性情報に基づいて決定されるスクリプト情報を用いて、情報処理端末におけるチャットボットとの会話を開始する技術がある。また、リアルタイム会話の解析に基づいて、電話呼がボットから人間に移行されるべきかどうかを決定し、移行されるべきであるとの決定に応答して、ボットから人間へ電話呼を移行させる技術がある。 The prior art involves acquiring information about the user, estimating the user's state from the acquired information, generating information for making the character take action and/or speaking based on the estimation result, and using the generated information. There is something to output. In addition, the information processing terminal receives an instruction to start a conversation with the chatbot as well as the user's attribute information acquired by the information processing terminal, and uses script information determined based on the user's attribute information to There are techniques to start a conversation with a chatbot in . It also determines whether the phone call should be transferred from the bot to the human based on analysis of the real-time conversation, and in response to the determination that the phone call should be transferred, transfers the phone call from the bot to the human. There is technology.
しかしながら、従来技術では、デジタルボードなどに表示されるアバターを通して、オペレータがユーザへの応対を行うにあたり、アバターの動きが定型的なものとなるという問題がある。 However, in the conventional technology, when an operator responds to a user through an avatar displayed on a digital board or the like, there is a problem in that the movements of the avatar become stereotypical.
一つの側面では、本発明は、外部環境に合わせてアバターの出力を制御することを目的とする。 In one aspect, the present invention aims to control the output of an avatar in accordance with the external environment.
1つの実施態様では、第1の情報処理端末における第1のユーザの操作に応じて動くアバターを第2の情報処理端末に出力し、前記第2の情報処理端末における第2のユーザを検出した場合、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力し、出力した前記情報に対応する操作を前記第1の情報処理端末において受け付けた場合、受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの出力を制御する、アバター制御プログラムが提供される。 In one embodiment, an avatar that moves in response to an operation by a first user on a first information processing terminal is output to a second information processing terminal, and a second user on the second information processing terminal is detected. In this case, when information prompting an operation corresponding to the avatar is output to the first information processing terminal, and an operation corresponding to the outputted information is received at the first information processing terminal, the received operation and the An avatar control program is provided that controls output of the avatar based on external environment information detected by the second information processing terminal.
本発明の一側面によれば、外部環境に合わせてアバターの出力を制御することができるという効果を奏する。 According to one aspect of the present invention, it is possible to control the output of the avatar in accordance with the external environment.
以下に図面を参照して、本発明にかかるアバター制御プログラム、アバター制御方法および情報処理装置の実施の形態を詳細に説明する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of an avatar control program, an avatar control method, and an information processing apparatus according to the present invention will be described in detail below with reference to the drawings.
(実施の形態)
まず、実施の形態にかかる情報処理装置101を含む会話制御システム100のシステム構成例について説明する。会話制御システム100は、例えば、チャットボットによる自動応答やオペレータによる有人対応により、店舗の案内や、企業におけるキャリア相談などを行ったりするサービスに適用される。
(Embodiment)
First, a system configuration example of the
図1は、会話制御システム100のシステム構成例を示す説明図である。図1において、会話制御システム100は、情報処理装置101と、第1の情報処理端末102と、第2の情報処理端末103と、を含む。会話制御システム100において、情報処理装置101、第1の情報処理端末102および第2の情報処理端末103は、有線または無線のネットワーク110を介して接続される。ネットワーク110は、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、インターネットなどである。会話制御システム100には、例えば、複数の第1の情報処理端末102と、複数の第2の情報処理端末103とが含まれる。
FIG. 1 is an explanatory diagram showing an example of a system configuration of a
ここで、情報処理装置101は、アバターの出力を制御するコンピュータである。アバターは、第1の情報処理端末102における第1のユーザの操作に応じて動くキャラクターであり、例えば、ネットワーク上の仮想空間でのオペレータの分身として表示される。情報処理装置101は、例えば、サーバである。
Here, the
情報処理装置101は、例えば、選択肢管理テーブル120、アバター管理テーブル130およびスクリプトテーブル140を有する。選択肢管理テーブル120、アバター管理テーブル130およびスクリプトテーブル140の記憶内容については、図4~図6を用いて後述する。
The
第1の情報処理端末102は、第1のユーザが使用するコンピュータであり、第2の情報処理端末103に表示されるアバターを操作可能である。第1のユーザは、例えば、第2の情報処理端末103を使用するユーザへの対応を行うオペレータである。第1の情報処理端末102において、第1のユーザは、第2の情報処理端末103に表示されるアバターを通して、第2のユーザと会話を行うことができる。第1の情報処理端末102は、例えば、PC(Personal Computer)、タブレットPCなどである。
The first
第2の情報処理端末103は、第2のユーザが使用するコンピュータである。第2の情報処理端末103は、例えば、店舗や施設などに設置され、不特定多数の人に利用されるデジタルボードである。また、第2の情報処理端末103は、店舗や施設で貸し出される、あるいは、ユーザ個人が所有するスマートフォン、タブレットPCなどであってもよい。施設は、例えば、商業施設、企業施設、公共施設などである。
The second
また、第2の情報処理端末103は、第2のユーザが、チャットボットでの会話を行う際に利用可能であってもよい。第2の情報処理端末103において、第2のユーザは、例えば、メッセージを入力したり、選択肢を選択したりすることで、チャットボットオペレータと対話しながら、所望の回答を探したり、サービスを利用したりすることができる。回答は、例えば、FAQ(Frequently Asked Question)である。
Further, the second
FAQは、「頻繁に尋ねられる質問」の意味であり、あらかじめ予想される質問に対して、質問と回答とをまとめたものである。質問は、何らかの問題の解決方法を問うものであってもよく、また、話し言葉による問いかけであってもよい。回答は、質問された問題の解決方法を示す回答や、話し言葉による問いかけに対する回答などである。 FAQ means "frequently asked questions" and is a collection of questions and answers to anticipated questions. The question may ask how to solve some problem, or may be a spoken question. The answers include answers that show how to solve the posed problem and answers to spoken questions.
なお、図示は省略するが、情報処理装置101は、例えば、FAQマスタやチャットログDB(Database)などを有する。FAQマスタは、FAQを記憶する。チャットログDBは、チャットログを記憶する。チャットログは、第2のユーザとの会話に関する会話履歴である。チャットログは、例えば、ルームIDと対応付けて、チャットログDBに記憶される。ルームIDによれば、チャットボットやオペレータとの一連の会話を特定することができる。
Although not shown, the
ここで、オペレータがアバターを通してユーザへの応対を行うことで、チャットボットによる自動応答に比べて、きめ細かい対応を行うことが期待できる。一方で、オペレータがアバターを通してユーザへの応対を行うにあたり、アバターの動きが定型的なものとなると、人間と話しているような感じをユーザに与えることは難しい。 Here, by having the operator respond to the user through an avatar, it can be expected that the user will be able to receive a more detailed response than an automatic response provided by a chatbot. On the other hand, when an operator responds to a user through an avatar, if the avatar's movements become routine, it is difficult to give the user the feeling that he or she is talking to a human being.
このため、オペレータの操作に応じて、手を振ったり、うなずいたり、笑ったりするなどの動きをアバターにさせることが考えられる。これにより、ユーザへの応対内容に応じてアバターの動きを変化させることができる。しかし、時間、場所、天候などによって、アバターの好ましい動きが異なる場合がある。 For this reason, it is conceivable to have the avatar make movements such as waving, nodding, or smiling in response to the operator's operations. Thereby, the movement of the avatar can be changed depending on the content of the response to the user. However, the preferred movement of the avatar may differ depending on the time, location, weather, etc.
例えば、昼間の時間帯は、夜間の時間帯に比べて、明るく大きなモーションで動かすことが好ましい場合がある。また、場所によっては、礼儀正しく落ち着いた感じで動かすことが好ましい場合があるし、子供向けに明るく大きなモーションで動かすことが好ましい場合がある。 For example, it may be preferable to move brightly and with a larger motion during daytime hours than during nighttime hours. Also, depending on the location, it may be preferable to move in a polite and calm manner, or it may be preferable to move in a bright and loud motion for children.
そこで、実施の形態では、アバターを通してオペレータがユーザへの応対を行うにあたり、ユーザへの応対内容だけでなく、時間、場所、天候などの外部環境を考慮して、アバターの動きを制御することで、バリエーション豊富なアバターの動きを実現するアバター制御方法について説明する。 Therefore, in the embodiment, when an operator responds to a user through an avatar, the movement of the avatar is controlled by taking into account not only the content of the response to the user but also the external environment such as time, location, and weather. , we will explain an avatar control method that realizes a wide variety of avatar movements.
(情報処理装置101のハードウェア構成例)
つぎに、情報処理装置101のハードウェア構成例について説明する。
(Example of hardware configuration of information processing device 101)
Next, an example of the hardware configuration of the
図2は、情報処理装置101のハードウェア構成例を示すブロック図である。図2において、情報処理装置101は、CPU(Central Processing Unit)201と、メモリ202と、ディスクドライブ203と、ディスク204と、通信I/F(Interface)205と、可搬型記録媒体I/F206と、可搬型記録媒体207と、を有する。また、各構成部は、バス200によってそれぞれ接続される。
FIG. 2 is a block diagram showing an example of the hardware configuration of the
ここで、CPU201は、情報処理装置101の全体の制御を司る。CPU201は、複数のコアを有していてもよい。メモリ202は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)およびフラッシュROMなどを有する。具体的には、例えば、フラッシュROMがOS(Operating System)のプログラムを記憶し、ROMがアプリケーションプログラムを記憶し、RAMがCPU201のワークエリアとして使用される。メモリ202に記憶されるプログラムは、CPU201にロードされることで、コーディングされている処理をCPU201に実行させる。
Here, the
ディスクドライブ203は、CPU201の制御に従ってディスク204に対するデータのリード/ライトを制御する。ディスク204は、ディスクドライブ203の制御で書き込まれたデータを記憶する。ディスク204としては、例えば、磁気ディスク、光ディスクなどが挙げられる。
The
通信I/F205は、通信回線を通じてネットワーク110に接続され、ネットワーク110を介して外部のコンピュータ(例えば、図1に示した第1の情報処理端末102、第2の情報処理端末103)に接続される。そして、通信I/F205は、ネットワーク110と装置内部とのインターフェースを司り、外部のコンピュータからのデータの入出力を制御する。通信I/F205には、例えば、モデムやLANアダプタなどを採用することができる。
The communication I/
可搬型記録媒体I/F206は、CPU201の制御に従って可搬型記録媒体207に対するデータのリード/ライトを制御する。可搬型記録媒体207は、可搬型記録媒体I/F206の制御で書き込まれたデータを記憶する。可搬型記録媒体207としては、例えば、CD(Compact Disc)-ROM、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリなどが挙げられる。
The portable recording medium I/
なお、情報処理装置101は、上述した構成部のほかに、例えば、SSD(Solid State Drive)、入力装置、ディスプレイ等を有することにしてもよい。また、情報処理装置101は、上述した構成部のうち、例えば、ディスクドライブ203、ディスク204、可搬型記録媒体I/F206、可搬型記録媒体207を有していなくてもよい。
Note that the
(第1の情報処理端末102および第2の情報処理端末103のハードウェア構成例)
つぎに、第1の情報処理端末102および第2の情報処理端末103のハードウェア構成例について説明する。ただし、ここでは、第1の情報処理端末102および第2の情報処理端末103を「情報処理端末102,103」と表記する。
(Example of hardware configuration of first
Next, an example of the hardware configuration of the first
図3は、情報処理端末102,103のハードウェア構成例を示すブロック図である。図3において、情報処理端末102,103は、CPU301と、メモリ302と、ディスプレイ303と、入力装置304と、通信I/F305と、カメラ306と、スピーカ307と、マイクロフォン308と、GPS(Global Positioning System)ユニット309と、を有する。また、各構成部はバス300によってそれぞれ接続される。
FIG. 3 is a block diagram showing an example of the hardware configuration of the
ここで、CPU301は、情報処理端末102,103の全体の制御を司る。CPU301は、複数のコアを有していてもよい。メモリ302は、例えば、ROM、RAMおよびフラッシュROMなどを有する記憶部である。具体的には、例えば、フラッシュROMやROMが各種プログラムを記憶し、RAMがCPU301のワークエリアとして使用される。メモリ302に記憶されるプログラムは、CPU301にロードされることで、コーディングされている処理をCPU301に実行させる。
Here, the
ディスプレイ303は、カーソル、アイコンあるいはツールボックスをはじめ、文書、画像、機能情報などのデータを表示する表示装置である。ディスプレイ303としては、例えば、液晶ディスプレイや有機EL(Electroluminescence)ディスプレイなどを採用することができる。
The
入力装置304は、文字、数字、各種指示などの入力のためのキーを有し、データの入力を行う。入力装置304は、タッチパネル式の入力パッドやテンキーなどであってもよく、また、キーボードやマウスなどであってもよい。
The
通信I/F305は、通信回線を通じてネットワーク110に接続され、ネットワーク110を介して外部のコンピュータ(例えば、図1に示した情報処理装置101、第1の情報処理端末102、第2の情報処理端末103)に接続される。そして、通信I/F305は、ネットワーク110と自装置内部とのインターフェースを司り、外部装置からのデータの入出力を制御する。
The communication I/
カメラ306は、画像(静止画または動画)を撮影して画像データを出力する撮影装置である。スピーカ307は、電気信号を音声に変換して、音声を出力する。マイクロフォン308は、音声を受音して電気信号に変換する。
The
GPSユニット309は、GPS衛星からの電波を受信し、情報処理端末102,103の位置情報を出力する。情報処理端末102,103の位置情報は、例えば、緯度、経度などの地球上の1点を特定する情報である。また、衛星として、例えば、準天頂衛星システムの衛星を用いることにしてもよい。
The
なお、情報処理端末102,103は、上述した構成部のほかに、例えば、HDD(Hard Disk Drive)、SSD、近距離無線通信I/F、可搬型記録媒体I/F、可搬型記録媒体などを有することにしてもよい。第2の情報処理端末103は、GPSユニット309を有していなくてもよい。
In addition to the above-mentioned components, the
(各種テーブル120,130,140の記憶内容)
つぎに、図4~図6を用いて、情報処理装置101が有する各種テーブル120,130,140の記憶内容について説明する。各種テーブル120,130,140は、例えば、図2に示したメモリ202、ディスク204などの記憶装置により実現される。
(Memory contents of various tables 120, 130, 140)
Next, the stored contents of the various tables 120, 130, and 140 included in the
図4は、選択肢管理テーブル120の記憶内容の一例を示す説明図である。図4において、選択肢管理テーブル120は、会話内容、選択肢1、選択肢2、選択肢3、選択肢4および選択肢5のフィールドを有し、各フィールドに情報を設定することで、選択肢管理情報(例えば、選択肢管理情報400-1~400-3)をレコードとして記憶する。
FIG. 4 is an explanatory diagram showing an example of the storage contents of the option management table 120. In FIG. 4, the option management table 120 has fields for conversation content, option 1,
会話内容は、アバターを通したオペレータとの会話やチャットボットでの会話の内容を特定する情報である。例えば、会話内容は、アバターを通したオペレータとの会話やチャットボットでの会話において、選択された選択肢や、入力された情報などを示す。 The conversation content is information that specifies the content of the conversation with the operator through the avatar or the conversation with the chatbot. For example, the conversation content indicates options selected, information input, etc. in a conversation with an operator through an avatar or a conversation with a chatbot.
選択肢1~5は、アバターに対応する選択肢であり、会話内容に対応付けて用意される。選択肢1~5は、例えば、アバターを操作可能なオペレータに提示される。すなわち、アバターを通したオペレータとの会話やチャットボットでの会話の内容に応じて、オペレータに提示する選択肢を切り替える。 Options 1 to 5 are options corresponding to avatars, and are prepared in association with conversation content. Options 1 to 5 are presented to an operator who can operate the avatar, for example. That is, the options presented to the operator are changed depending on the content of the conversation with the operator through the avatar or the chatbot.
例えば、選択肢管理情報400-1は、会話内容C1に対応する選択肢ch1~ch4を示す。なお、ここでは、会話内容に対応する選択肢の最大数として、「5」を例に挙げて説明するが、これに限らない。例えば、選択肢の最大数は、5未満であってもよく、また、6以上であってもよい。 For example, option management information 400-1 indicates options ch1 to ch4 corresponding to conversation content C1. In addition, although "5" is given as an example and is demonstrated here as the maximum number of options corresponding to the content of a conversation, it is not limited to this. For example, the maximum number of options may be less than 5, or may be 6 or more.
図5は、アバター管理テーブル130の記憶内容の一例を示す説明図である。図5において、アバター管理テーブル130は、オペレータID、選択肢、顔データ、外部環境および体データのフィールドを有し、各フィールドに情報を設定することで、アバター管理情報(例えば、アバター管理情報500-1,500-2)をレコードとして記憶する。 FIG. 5 is an explanatory diagram showing an example of the stored contents of the avatar management table 130. In FIG. 5, the avatar management table 130 has fields for operator ID, options, face data, external environment, and body data, and by setting information in each field, avatar management information (for example, avatar management information 500- 1,500-2) is stored as a record.
ここで、選択肢は、第1の情報処理端末102に選択可能に表示される選択肢(例えば、図4に示した選択肢1~5)に対応する。顔データは、アバターの顔部分の見た目を特定する情報である。例えば、顔データは、選択肢に対応付けて用意される。外部環境は、アバターが表示される第2の情報処理端末103における外部の環境を表す。例えば、外部環境は、時間(時刻、時間帯、日付など)、場所、季節、天気、温度、湿度などを表す。
Here, the options correspond to options (for example, options 1 to 5 shown in FIG. 4) that are selectably displayed on the first
体データは、アバターの体部分の見た目を特定する情報である。例えば、体データは、外部環境に対応付けて用意される。オペレータIDは、選択肢に対応するオペレータを一意に識別する識別子である。例えば、オペレータIDは、オペレータが使用する第1の情報処理端末102を一意に識別する識別子であってもよい。
Body data is information that specifies the appearance of the avatar's body parts. For example, body data is prepared in association with the external environment. The operator ID is an identifier that uniquely identifies the operator corresponding to the option. For example, the operator ID may be an identifier that uniquely identifies the first
例えば、アバター管理情報500-1は、選択肢ch1に対応する顔データfc1およびオペレータOP1と、外部環境E1に対応する体データbd1とを示す。 For example, avatar management information 500-1 indicates face data fc1 and operator OP1 corresponding to option ch1, and body data bd1 corresponding to external environment E1.
図6は、スクリプトテーブル140の記憶内容の一例を示す説明図である。図6において、スクリプトテーブル140は、ユーザ属性およびスクリプトのフィールドを有し、各フィールドに情報を設定することで、スクリプト管理情報(例えば、スクリプト管理情報600-1~600-3)をレコードとして記憶する。 FIG. 6 is an explanatory diagram showing an example of the stored contents of the script table 140. In FIG. 6, the script table 140 has user attribute and script fields, and by setting information in each field, script management information (for example, script management information 600-1 to 600-3) is stored as a record. do.
ここで、ユーザ属性は、ユーザの特徴を表す情報である。例えば、ユーザ属性は、年齢、年代、性別、使用言語、服装、同行者の有無などを表す。スクリプトは、チャットボットの会話の流れを定義した情報(シナリオ)であり、ユーザ属性と対応付けて用意される。スクリプトは、チャットのトーク処理を定義した情報である。 Here, the user attribute is information representing the user's characteristics. For example, user attributes include age, generation, gender, language used, clothing, presence or absence of companions, and the like. The script is information (scenario) that defines the conversation flow of the chatbot, and is prepared in association with user attributes. The script is information that defines chat processing.
トーク処理は、チャットボットの動作(挙動)を実現するための処理である。例えば、トーク処理は、発話する処理、選択肢を表示する処理、ユーザ操作に応じて選択肢を選択する処理、選択された選択肢や入力された情報に応じた手続きを行う処理、トーク処理を終了する処理などを含む。 The talk process is a process for realizing the operation (behavior) of the chatbot. For example, the talk process includes the process of speaking, the process of displaying options, the process of selecting options according to user operations, the process of performing procedures according to the selected options and input information, and the process of terminating the talk process. Including.
すなわち、スクリプトテーブル140では、ユーザ属性に対応するスクリプトをあらかじめ用意しておく。例えば、年代の違いによって、よく選ばれるFAQが変化する傾向がある。一例を挙げると、30代~40代のユーザは、他の年代のユーザと比べて、キャリアアップに関するFAQを選ぶ傾向がある。また、言語の違いによっても、よく選ばれるFAQが変化する傾向がある。一例を挙げると、講座を受講するにあたり、日本語以外の言語を話す人(例えば、外国人)は、日本語を話す人と比べて、日本語講座に関するFAQを選ぶ傾向がある。 That is, in the script table 140, scripts corresponding to user attributes are prepared in advance. For example, frequently selected FAQs tend to change depending on the age group. For example, users in their 30s and 40s are more likely to choose FAQs related to career advancement than users in other age groups. Frequently selected FAQs also tend to change depending on the language. For example, when taking a course, people who speak a language other than Japanese (eg, foreigners) are more likely to choose FAQs regarding Japanese courses than people who speak Japanese.
例えば、スクリプト管理情報600-1は、ユーザ属性UA1に対応するスクリプトSP1を示す。なお、時間や場所などの違いによっても、よく選ばれるFAQが変化する場合がある。このため、スクリプトテーブル140には、ユーザ属性と外部環境との組み合わせに対応するスクリプトをあらかじめ用意しておくことにしてもよい。 For example, script management information 600-1 indicates script SP1 corresponding to user attribute UA1. Note that frequently selected FAQs may change depending on the time or location. For this reason, scripts corresponding to combinations of user attributes and external environments may be prepared in advance in the script table 140.
(情報処理装置101の機能的構成例)
図7は、情報処理装置101の機能的構成例を示すブロック図である。図7において、情報処理装置101は、第1の出力制御部701と、第2の出力制御部702と、通信部703と、会話制御部704と、記憶部710と、を含む。具体的には、例えば、第1の出力制御部701~会話制御部704は、図2に示したメモリ202、ディスク204、可搬型記録媒体207などの記憶装置に記憶されたプログラムをCPU201に実行させることにより、または、通信I/F205により、その機能を実現する。各機能部の処理結果は、例えば、メモリ202、ディスク204などの記憶装置に記憶される。記憶部710は、例えば、メモリ202、ディスク204などの記憶装置により実現される。具体的には、例えば、記憶部710は、図4に示した選択肢管理テーブル120、図5に示したアバター管理テーブル130、図6に示したスクリプトテーブル140、FAQマスタ、チャットログDBなどを記憶する。
(Functional configuration example of information processing device 101)
FIG. 7 is a block diagram showing an example of the functional configuration of the
第1の出力制御部701は、第1の情報処理端末102における第1のユーザの操作に応じて動くアバターを第2の情報処理端末103に出力する。ここで、第1のユーザは、例えば、第2の情報処理端末103を使用するユーザへの対応を行うオペレータである。アバターは、例えば、オペレータの分身として表示されるキャラクターである。
The first
具体的には、例えば、第1の出力制御部701は、第2の情報処理端末103が起動されたことに応じて、第2の情報処理端末103にアバターを出力する。また、第1の出力制御部701は、第2の情報処理端末103の入力装置304(図3参照)を用いた第1のユーザの起動操作に応じて、第2の情報処理端末103にアバターを出力することにしてもよい。
Specifically, for example, the first
また、第1の出力制御部701は、例えば、第1の情報処理端末102における第1のユーザの操作に応じて、アバターのメッセージや選択肢を第2の情報処理端末103に出力する。アバターのメッセージや選択肢は、例えば、ディスプレイ303(図3参照)に表示されてもよく、また、スピーカ307(図3参照)から音声出力されてもよい。
Further, the first
また、第1の出力制御部701は、第2の情報処理端末103が多言語対応の場合、第1のユーザにより日本語によるメッセージが入力された際に、入力されたメッセージを第2の情報処理端末103で選択された外国語に翻訳して、第2の情報処理端末103に出力することにしてもよい。さらに、第1の出力制御部701は、第2のユーザにより外国語によりメッセージが入力された際に、入力されたメッセージを日本語に翻訳して、第1の情報処理端末102に出力することにしてもよい。
Furthermore, when the second
また、第1の出力制御部701は、例えば、モーションセンサにより検知されるオペレータ(話者)の顔の動きに合わせて、アバターの顔の表情を変化させることにしてもよい。なお、第2の情報処理端末103の起動時にどのようなアバターを出力するかは、例えば、あらかじめ設定されている。
Further, the first
第2の出力制御部702は、第2の情報処理端末103における第2のユーザを検出した場合、アバターに対応する操作を促す情報を第1の情報処理端末102に出力する。ここで、第2のユーザは、第2の情報処理端末103を使用するユーザである。第2の情報処理端末103が商業施設や店舗に設置されるデジタルボードである場合を例に挙げると、第2のユーザは、例えば、顧客である。
When the second
また、第2の情報処理端末103が企業施設に設置されるデジタルボードである場合を例に挙げると、第2のユーザは、例えば、社員である。また、第2の情報処理端末103が公共施設に設置されるデジタルボードである場合を例に挙げると、第2のユーザは、例えば、観光客である。
Moreover, taking as an example the case where the second
第2のユーザは、例えば、第2の情報処理端末103において検出される。具体的には、例えば、第2の情報処理端末103は、自端末のカメラ306(図3参照)により撮影された画像情報から人物を検知した場合に、第2のユーザを検出する。また、第2の情報処理端末103は、不図示の温度センサにより人物を検知した場合に、第2のユーザを検出することにしてもよい。
The second user is detected, for example, at the second
また、第2の情報処理端末103は、自端末の入力装置304(図3参照)を用いたユーザ操作により、会話開始ボタンなどが押下された場合に、第2のユーザを検出することにしてもよい。第2の情報処理端末103は、第2のユーザを検出した場合、第2のユーザを検出したことを示す情報を情報処理装置101に送信する。
Further, the second
第2のユーザを検出したことを示す情報は、例えば、チャットの開始指示として、第2の情報処理端末103から情報処理装置101に送信されることにしてもよい。ここで、チャットの開始指示は、アバターを通したオペレータとの会話を開始するためのものである。また、チャットの開始指示は、チャットボットでの会話を開始するためのものであってもよい。
Information indicating that the second user has been detected may be transmitted from the second
第2の情報処理端末103からのチャットの開始指示は、通信部703によって受信される。第2の出力制御部702は、例えば、通信部703によってチャットの開始指示が受信された場合に、第2の情報処理端末103における第2のユーザを検出したと判断する。これにより、情報処理装置101において、第2の情報処理端末103における第2のユーザが検出されたことを判断することができる。
A chat start instruction from the second
ただし、第2のユーザの検出処理は、情報処理装置101において行われてもよい。例えば、情報処理装置101は、第2の情報処理端末103からカメラ306により撮影された画像情報を受信し、受信した画像情報から人物を検知することにより、第2のユーザを検出することにしてもよい。
However, the second user detection process may be performed in the
アバターに対応する操作は、例えば、アバターの動きを指定する操作である。アバターの動きとしては、例えば、手を振る、うなずく、おじぎをする、喜ぶなどが挙げられる。また、アバターに対応する操作は、アバターを通してユーザへの応対を行うオペレータを指定する操作であってもよい。また、アバターに対応する操作は、アバターを指定する操作であってもよい。 The operation corresponding to the avatar is, for example, an operation that specifies the movement of the avatar. Examples of the avatar's movements include waving, nodding, bowing, and being happy. Further, the operation corresponding to the avatar may be an operation for specifying an operator who will respond to the user through the avatar. Further, the operation corresponding to an avatar may be an operation for specifying an avatar.
アバターに対応する操作を促す情報は、例えば、アバターにどのような動きをさせるかを指定するための選択肢や、アバターを通してユーザへの応対を行うオペレータを指定するための選択肢などである。アバターに対応する操作を促す情報には、いずれかの選択肢を選択するよう促すメッセージが含まれていてもよい。 The information that prompts the operation corresponding to the avatar includes, for example, an option for specifying what kind of movement the avatar should make, an option for specifying an operator who will respond to the user through the avatar, and the like. The information prompting the user to perform an operation corresponding to the avatar may include a message prompting the user to select one of the options.
ここで、第1の情報処理端末102に出力されるアバターに対応する操作を促す情報は、あらかじめ決められた情報であってもよい。例えば、手を振る、うなずく、喜ぶなどのアバターの基本的な動作を指定する選択肢は、あらかじめ決められていてもよい。
Here, the information output to the first
また、第2の出力制御部702は、第2のユーザの属性情報に基づいて、出力対象の情報を決定することにしてもよい。ここで、出力対象の情報とは、第1の情報処理端末102に出力されるアバターに対応する操作を促す情報である。第2のユーザの属性情報は、第2のユーザの属性を特定する情報である。
Further, the second
例えば、第2のユーザの属性情報は、第2のユーザの年齢、年代、性別、言語、服装、車椅子の有無、同伴者の有無などを特定可能な情報である。第2のユーザの属性情報は、第2の情報処理端末103から取得される。具体的には、例えば、通信部703は、第2の情報処理端末103からチャットの開始指示を受信するとともに、第2の情報処理端末103が取得した第2のユーザの属性情報を受信することにしてもよい。
For example, the second user's attribute information is information that can specify the second user's age, generation, gender, language, clothing, presence or absence of a wheelchair, presence or absence of a companion, and the like. The second user's attribute information is acquired from the second
より詳細に説明すると、例えば、第2の出力制御部702は、受信された第2のユーザの属性情報に基づいて、ユーザ属性を特定する。つぎに、第2の出力制御部702は、ユーザ属性とアバターに対応する操作を促す情報との対応関係を示す情報を記憶する記憶部710を参照して、特定したユーザ属性に対応するアバターに対応する操作を促す情報を、出力対象の情報に決定する。そして、第2の出力制御部702は、決定した出力対象の情報を、第1の情報処理端末102に出力する。
To explain in more detail, for example, the second
これにより、第2のユーザの特徴を考慮して、アバターに対応する操作を促す情報を出力することができる。例えば、ユーザ属性「10歳未満」が特定された場合に、子供向けの動きを指定可能な選択肢や、子供の応対が得意なオペレータを指定可能な選択肢や、子供向けのアバターを指定可能な選択肢などを、オペレータに提示することができる。 Thereby, it is possible to output information that prompts an operation corresponding to the avatar, taking into account the characteristics of the second user. For example, when the user attribute "under 10 years old" is specified, there are options that allow you to specify movements for children, options that allow you to specify an operator who is good at interacting with children, and options that allow you to specify an avatar that is suitable for children. etc. can be presented to the operator.
なお、第2の情報処理端末103において、第2のユーザの属性情報は、例えば、入力装置304を用いたユーザ操作により入力されることにしてもよい。この場合、第1の情報処理端末102は、チャットの開始指示とともに、入力された第2のユーザの属性情報を、情報処理装置101に送信する。
Note that, in the second
また、第2の情報処理端末103は、カメラ306により撮影された画像情報を解析して、第2のユーザの年代、性別、服装、車椅子の有無、同伴者の有無などの属性情報を取得してもよい。また、第2の情報処理端末103は、マイクロフォン308(図3参照)により受音された音声情報を解析して、第2のユーザの性別、言語などの属性情報を取得してもよい。
Further, the second
また、通信部703は、第2のユーザの属性情報として、カメラ306により撮影された画像情報や、マイクロフォン308により受音された音声情報を受信することにしてもよい。この場合、情報処理装置101は、例えば、受信した画像情報や音声情報から、ユーザの特徴を表す情報を取得することにしてもよい。すなわち、画像情報や音声情報を解析する処理は、第2の情報処理端末103で行わず、情報処理装置101で行うことにしてもよい。
The
なお、画像情報や音声情報からユーザの特徴を表す情報を取得する技術としては、既存のいかなる技術を用いることにしてもよい。例えば、第2の情報処理端末103または情報処理装置101は、深層学習などの機械学習に基づく手法により、画像や音声の特徴量から、年代、性別、服装、言語、車椅子の有無、同伴者の有無などの情報を抽出することにしてもよい。
Note that any existing technology may be used as the technology for acquiring information representing the user's characteristics from image information and audio information. For example, the second
また、第2の出力制御部702は、第2の情報処理端末103におけるアバターを通した会話において受け付けた情報に基づいて、出力対象の情報を決定することにしてもよい。ここで、会話において受け付けた情報は、アバターを通した第1のユーザと第2のユーザとの会話内容を表す情報である。
Further, the second
例えば、会話において受け付けた情報は、第2の情報処理端末103の入力装置304(図3参照)を用いた第2のユーザの操作により、選択された選択肢を示す情報や、入力された情報などである。すなわち、第2の出力制御部702は、第2の情報処理端末103における有人対応によるアバターを通した会話内容を考慮して、出力対象の情報を決定する。
For example, information received in a conversation may include information indicating a selected option or information input by the second user's operation using the input device 304 (see FIG. 3) of the second
会話制御部704は、第2の情報処理端末103における第2のユーザを検出した場合、第2の情報処理端末103におけるチャットボットでの会話を開始することにしてもよい。具体的には、例えば、会話制御部704は、チャットボットでの会話を開始するためのチャットの開始指示が受信された場合、第2の情報処理端末103におけるチャットボットでの会話に適用するトークスクリプトを決定する。
When the
より詳細に説明すると、例えば、会話制御部704は、第2の情報処理端末103からチャットの開始指示とともに受信された第2のユーザの属性情報に基づいて、ユーザ属性を特定する。つぎに、会話制御部704は、図6に示したスクリプトテーブル140を参照して、特定したユーザ属性に対応するスクリプトを、トークスクリプトに決定する。
To explain in more detail, for example, the
そして、会話制御部704は、決定したトークスクリプトを用いて、第2の情報処理端末103におけるチャットボットでの会話を開始する。これにより、第2の情報処理端末103を使用する第2のユーザの特徴に応じて、チャットボットでの会話を制御することができる。
Then, the
また、第2の出力制御部702は、第2の情報処理端末103におけるチャットボットでの会話において受け付けた情報に基づいて、出力対象の情報を決定することにしてもよい。すなわち、第2の出力制御部702は、第2の情報処理端末103におけるチャットボットでの会話内容を考慮して、出力対象の情報を決定する。
Further, the second
より詳細に説明すると、例えば、第2の出力制御部702は、アバターを通した会話、または、チャットボットでの会話において受け付けた情報に基づいて、会話内容を特定する。そして、第2の出力制御部702は、図4に示した選択肢管理テーブル120を参照して、特定した会話内容に対応する選択肢を、出力対象の情報に決定する。
To explain in more detail, for example, the second
一例として、アバターを通した会話、または、チャットボットでの会話において受け付けた情報から特定される会話内容を「会話内容C1」とする。会話内容C1は、例えば、アバターを通した会話、または、チャットボットでの会話において選択された選択肢の組み合わせである。この場合、第2の出力制御部702は、例えば、選択肢管理テーブル120を参照して、特定した会話内容C1に対応する選択肢ch1~ch4を、出力対象の情報に決定する。選択肢ch1~ch4は、例えば、アバターの動きを指定するための選択肢や、アバターを通してユーザへの応対を行うオペレータを指定するための選択肢などである。
As an example, the conversation content specified from information received in a conversation through an avatar or a conversation with a chatbot is referred to as "conversation content C1." The conversation content C1 is, for example, a combination of options selected in a conversation through an avatar or a conversation with a chatbot. In this case, the second
なお、アバターを通した会話、または、チャットボットでの会話において受け付けた情報は、例えば、不図示のチャットログDBから特定される。また、第1の情報処理端末102に出力される、アバターに対応する操作を促す情報の出力例については、図10を用いて後述する。
Note that information received in a conversation through an avatar or a conversation with a chatbot is specified, for example, from a chat log DB (not shown). Further, an example of the output of information that prompts an operation corresponding to an avatar, which is output to the first
第1の出力制御部701は、出力された情報に対応する操作を第1の情報処理端末102において受け付けた場合、受け付けた操作と第2の情報処理端末103が検出した外部環境情報とに基づいて、アバターの出力を制御する。ここで、外部環境情報は、アバターが表示される第2の情報処理端末103における外部の環境を表す情報である。
When the first
例えば、外部環境情報は、時間、場所、季節、天気、温度、湿度などを表す。時間は、例えば、時刻、時間帯、日付などである。外部環境情報は、第2の情報処理端末103から取得される。具体的には、例えば、通信部703は、第2の情報処理端末103からチャットの開始指示を受信するとともに、第2の情報処理端末103が検出した外部環境情報を受信することにしてもよい。
For example, external environment information represents time, location, season, weather, temperature, humidity, etc. The time is, for example, a time of day, a time zone, a date, or the like. External environment information is acquired from the second
なお、第2の情報処理端末103は、例えば、不図示の環境センサにより、または、外部サーバに問い合わせることにより、時間、季節、天気、温度、湿度などを表す外部環境情報を検出する。また、第2の情報処理端末103は、GPSユニット309(図3参照)により、自端末の現在位置を示す位置情報を、場所を表す外部環境情報として検出してもよい。
Note that the second
具体的には、例えば、第1の出力制御部701は、受け付けた操作と第2の情報処理端末103が検出した外部環境情報とに基づいて、アバターの動きを決定する。そして、第1の出力制御部701は、決定した動きに基づいて、アバターの出力を変更する。
Specifically, for example, the first
ここで、第1の情報処理端末102において、入力装置304を用いた第1のユーザの操作により、「手を振る」というアバターの動きを指定する選択肢を選択する操作を受け付けた場合を想定する。この場合、第1の出力制御部701は、第1の情報処理端末102から、「手を振る」というアバターの動きを指定する選択肢を選択する操作を受け付ける。
Here, assume that the first
そして、第1の出力制御部701は、第2の情報処理端末103が検出した外部環境情報から特定される外部環境に応じて、アバターがどのように「手を振る」のかを決定して、アバターの出力を変更する。アバターの動きを外部環境に応じてどのように調整するのかは、例えば、あらかじめ設定されている。
Then, the first
より詳細に説明すると、例えば、第1の出力制御部701は、記憶部710を参照して、「手を振る」というアバターの動きの内容を、外部環境に応じて決定する。記憶部710は、例えば、アバターの動きごとに、当該動きの内容と外部環境との対応関係を示す情報を記憶する。
To explain in more detail, for example, the first
例えば、第2の情報処理端末103が検出した外部環境情報から特定される外部環境を「時間帯:昼間」とする。この場合、第1の出力制御部701は、例えば、夜間の時間帯よりも、明るく大きなモーションで手を振るように、アバターの出力を変更することにしてもよい。
For example, it is assumed that the external environment specified from the external environment information detected by the second
また、第2の情報処理端末103が検出した外部環境情報から特定される外部環境を「温度:氷点下」とする。この場合、第1の出力制御部701は、例えば、寒さで震えているような感じで手を振るように、アバターの出力を変更することにしてもよい。
Further, the external environment specified from the external environment information detected by the second
また、第2の情報処理端末103が検出した外部環境情報から特定される外部環境を「場所:ホテル」とする。この場合、第1の出力制御部701は、例えば、ホテルマンが客を見送る感じで手を振るように、アバターの出力を変更する。
Further, the external environment specified from the external environment information detected by the second
また、第1の出力制御部701は、受け付けた操作に基づいて、アバターの顔部分の出力を変更することにしてもよい。ここで、第1の情報処理端末102において、入力装置304を用いた第1のユーザの操作により、オペレータOPを指定する選択肢を選択する操作を受け付けた場合を想定する。
Further, the first
この場合、第1の出力制御部701は、第1の情報処理端末102から、オペレータOPを指定する選択肢を選択する操作を受け付ける。そして、第1の出力制御部701は、アバターの顔部分を、指定されたオペレータOPに対応するアバターの顔に変更する。これにより、ユーザへの応対を行うオペレータに合わせて、アバターの顔を変更することができる。
In this case, the first
また、第1の出力制御部701は、受け付けた操作に基づいて、第1のユーザが切り替わる場合、第2の情報処理端末103の接続先の第1の情報処理端末102を切り替えることにしてもよい。例えば、第1のユーザが「オペレータOP1」から「オペレータOP2」に切り替わる場合、第1の出力制御部701は、第2の情報処理端末103の接続先の第1の情報処理端末102を、オペレータOP2が使用する第1の情報処理端末102に切り替える。
Furthermore, the first
また、第1の出力制御部701は、第2の情報処理端末103が検出した外部環境情報に基づいて、アバターの体部分の出力を変更することにしてもよい。ここで、第2の情報処理端末103が検出した外部環境情報から特定される外部環境を「季節:夏」とする。この場合、第1の出力制御部701は、例えば、アバターの体部分を、夏服を着た体に変更する。
Further, the first
また、第2の情報処理端末103が検出した外部環境情報から特定される外部環境を「場所:ホテル」とする。この場合、第1の出力制御部701は、例えば、アバターの体部分を、ホテルの制服を着た体に変更する。これにより、第2の情報処理端末103が設置された場所や季節に合わせて、アバターの服装を変更することができる。
Further, the external environment specified from the external environment information detected by the second
より詳細に説明すると、例えば、第1の出力制御部701は、図5に示したアバター管理テーブル130を参照して、受け付けた操作に対応するアバター管理情報を特定する。一例として、選択肢ch1を選択する操作を受け付けた場合を想定する。また、第2の情報処理端末103が検出した外部環境情報から特定される外部環境を「E2」とする。
To explain in more detail, for example, the first
この場合、第1の出力制御部701は、アバター管理テーブル130を参照して、選択肢ch1に対応し、かつ、外部環境E2に対応するアバター管理情報500-2を特定する。そして、第1の出力制御部701は、アバター管理情報500-2を参照して、顔データfc1に基づいて、アバターの顔部分を変更する。
In this case, the first
また、第1の出力制御部701は、アバター管理情報500-2を参照して、体データbd2に基づいて、アバターの体部分を変更する。第1の出力制御部701は、アバター管理情報500-2を参照して、第2の情報処理端末103の接続先の第1の情報処理端末102を、オペレータOP2が使用する第1の情報処理端末102に切り替える。
Further, the first
ただし、オペレータの切り替わりが発生しない場合は、第2の情報処理端末103の接続先の第1の情報処理端末102の切り替わりも発生しない。また、アバター管理テーブル130からアバター管理情報が特定されなかった場合は、第1の出力制御部701は、アバターの顔部分および体部分の出力の変更は行わないことにしてもよい。
However, if operator switching does not occur, switching of the first
また、第1の出力制御部701は、第2の情報処理端末103における第2のユーザを検出した場合、第2のユーザに対応する履歴情報があるか否かを判断することにしてもよい。そして、第1の出力制御部701は、第2のユーザに対応する履歴情報がある場合、当該履歴情報に含まれるアバターの情報に基づいて、アバターの出力を制御することにしてもよい。
Further, when the first
ここで、履歴情報は、第2のユーザが第2の情報処理端末103を使用したことを示す情報である。履歴情報は、例えば、第2のユーザを一意に識別する識別情報と、第2のユーザが第2の情報処理端末103を使用した際に出力されたアバターを特定可能な情報とを含む。
Here, the history information is information indicating that the second user used the second
例えば、第2の情報処理端末103が商業施設や店舗に設置され、第2の情報処理端末103の使用にあたり、商業施設や店舗の会員IDを入力する場合を想定する。この場合、第2のユーザを一意に識別する識別情報は、例えば、会員IDである。また、第2の情報処理端末103が企業施設に設置され、第2の情報処理端末103の使用にあたり、社員IDを入力する場合を想定する。この場合、第2のユーザを一意に識別する識別情報は、例えば、社員IDである。
For example, assume that the second
会員IDや社員IDは、例えば、チャットの開始指示に含まれる。なお、ユーザ属性は、会員IDや社員IDから特定されることにしてもよい。例えば、社員IDに対応付けられている社員情報から、第2のユーザの性別、年齢、勤務年数、年収などを、ユーザ属性として特定することができる。 For example, the member ID and employee ID are included in the chat start instruction. Note that the user attribute may be specified from the member ID or employee ID. For example, the second user's gender, age, years of service, annual income, etc. can be specified as user attributes from the employee information associated with the employee ID.
アバターを特定可能な情報は、例えば、アバターの顔部分および体部分を特定する情報を含む。アバターの顔部分および体部分を特定する情報は、例えば、第2の情報処理端末103におけるアバターを通した会話が終了した際に表示されていたアバターの顔データおよび体データである。
The information that allows the avatar to be specified includes, for example, information that specifies the face and body parts of the avatar. The information specifying the face and body parts of the avatar is, for example, the face data and body data of the avatar that were displayed when the conversation through the avatar on the second
また、アバターを特定可能な情報には、アバターに対応するオペレータを特定する情報が含まれていてもよい。オペレータを特定する情報は、例えば、会話終了直前に第2のユーザへの応対を行っていたオペレータのオペレータIDである。履歴情報は、例えば、第2の情報処理端末103におけるアバターを通した会話が終了した際に、情報処理装置101が有する不図示の履歴情報DBに記憶される。
Further, the information that can identify the avatar may include information that identifies the operator corresponding to the avatar. The information identifying the operator is, for example, the operator ID of the operator who was responding to the second user immediately before the end of the conversation. The history information is stored in a history information DB (not shown) included in the
一例として、社員IDを含むチャットの開始指示を受信した場合を想定する。この場合、第1の出力制御部701は、履歴情報DBを参照して、チャットの開始指示に含まれる社員IDを含む履歴情報があるか否かを判断する。ここで、社員IDを含む履歴情報がない場合、第1の出力制御部701は、履歴情報に基づくアバターの出力の変更は行わない。
As an example, assume that a chat start instruction including an employee ID is received. In this case, the first
一方、社員IDを含む履歴情報がある場合、第1の出力制御部701は、履歴情報に含まれる顔データに基づいて、第2の情報処理端末103に出力するアバターの顔部分を変更する。また、第1の出力制御部701は、履歴情報に含まれる体データ2に基づいて、アバターの体部分を変更する。また、第1の出力制御部701は、第2の情報処理端末103の接続先の第1の情報処理端末102を、履歴情報に含まれるオペレータIDに対応する第1の情報処理端末102に切り替える。これにより、前回と同じ見た目のアバターを通して、前回と同じオペレータが第2のユーザへの応対を行うことが可能となり、キャラクターの一貫性を持たせることができる。
On the other hand, if there is history information including the employee ID, the first
また、第1の出力制御部701は、第2の情報処理端末103の周囲に存在する第2のユーザを検出した場合に、第2の情報処理端末103での操作を促す情報を、第2の情報処理端末103に出力することにしてもよい。第2の情報処理端末103での操作を促す情報は、例えば、「こんにちは。そこのあなた!」といった、第2の情報処理端末103の存在を気付かせるようなメッセージであってもよい。
Further, when the first
第2の情報処理端末103の周囲に存在する第2のユーザは、例えば、第2の情報処理端末103のカメラ306により撮影された画像情報から、または、第2の情報処理端末103の温度センサ(不図示)により検出される。具体的には、例えば、第1の出力制御部701は、「こんにちは。そこのあなた!」といったメッセージを、アバターの発言として、第2の情報処理端末103のスピーカ307から音声出力させることにしてもよい。これにより、例えば、商業施設や店舗の来店者などに能動的に呼びかけて、第2の情報処理端末103を利用した接客機会を増やすことができる。
The second user existing around the second
なお、上述した情報処理装置101の各機能部は、会話制御システム100内の複数のコンピュータにより実現されることにしてもよい。例えば、上述した情報処理装置101の機能部を、情報処理装置101と第1の情報処理端末102と第2の情報処理端末103とがそれぞれ機能を分担して実現することにしてもよい。
Note that each functional unit of the
(会話制御システム100の一実施例)
つぎに、図8を用いて、会話制御システム100の一実施例について説明する。
(One embodiment of conversation control system 100)
Next, one embodiment of the
図8は、会話制御システム100の一実施例を示す説明図である。情報処理装置101は、第1の情報処理端末102におけるオペレータOP1の操作に応じて動くアバターavを第2の情報処理端末103に出力する。情報処理装置101は、第2の情報処理端末103におけるユーザU1を検出した場合、アバターavに対応する操作を促す選択肢#1~#3を第1の情報処理端末102に出力する。
FIG. 8 is an explanatory diagram showing one embodiment of the
選択肢#1~#3は、アバターavの動きや、アバターavを通してユーザU1への応対を行うオペレータを指定するための選択肢である。情報処理装置101は、出力した選択肢#1~#3を選択する操作を第1の情報処理端末102において受け付けた場合、受け付けた操作と第2の情報処理端末103が検出した外部環境情報とに基づいて、アバターavの出力を制御する。
Options #1 to #3 are options for specifying the movement of the avatar av and the operator who responds to the user U1 through the avatar av. When the
例えば、情報処理装置101は、受け付けた操作と第2の情報処理端末103が検出した外部環境情報とに基づいて、アバターavの動きを決定し、決定した動きに基づいて、アバターavの出力を制御する。例えば、「手を振る」というアバターの動きを指定する選択肢が選択され、かつ、外部環境情報から特定される外部環境が「温度:氷点下」の場合、寒さで震えているような感じで手を振るように、アバターavの動きを制御することができる。
For example, the
また、情報処理装置101は、受け付けた操作に基づいて、アバターavの顔部分fcの出力を変更する。例えば、オペレータOPを指定する選択肢が選択された場合、アバターavの顔部分fcを、指定されたオペレータOPに対応するアバターavの顔に変更することができる。
Furthermore, the
また、情報処理装置101は、第2の情報処理端末103が検出した外部環境情報に基づいて、アバターavの体部分bdの出力を変更する。例えば、外部環境情報から特定される外部環境が「温度:氷点下」の場合、アバターの体部分bdを、防寒具を着た体に変更することができる。
Further, the
(第2の情報処理端末103に表示されるトーク画面の画面例)
つぎに、図9および図10を用いて、第2の情報処理端末103のディスプレイ303に表示されるトーク画面の画面例について説明する。
(Screen example of talk screen displayed on second information processing terminal 103)
Next, an example of the talk screen displayed on the
ここでは、第2の情報処理端末103が、企業施設に設置され、社員の人に利用されるデジタルボードである場合を想定する。また、チャットボット対応からのエスカレーションにより、アバターを通した有人対応を行う場合を想定する。また、第2の情報処理端末103が取得した第2のユーザの属性情報から特定されるユーザ属性を「30代×男性」とする。
Here, it is assumed that the second
この場合、情報処理装置101は、スクリプトテーブル140を参照して、ユーザ属性「30代×男性」に対応するトークスクリプトを用いて、第2の情報処理端末103におけるチャットボットでの会話を開始する。ユーザ属性「30代×男性」に対応するトークスクリプトは、例えば、キャリアアップに関する会話を行うスクリプトである。
In this case, the
図9は、第2の情報処理端末103に表示されるトーク画面の画面例を示す説明図(その1)である。図9において、トーク画面900は、第2の情報処理端末103における第2のユーザが検出され、チャットボットでの会話を開始した際に、第2の情報処理端末103に表示されるトーク画面の一例である。図9中、アバターavは、チャットボットのキャラクター、または、オペレータの操作に応じて動くキャラクターを表す。
FIG. 9 is an explanatory diagram (part 1) showing an example of the talk screen displayed on the second
トーク画面900には、アバターavのメッセージm1とともに、キャリアアップに関する選択ボタン901,902が会話形式で表示されている。トーク画面900において、第2の情報処理端末103の入力装置304を用いた第2のユーザの操作入力により、選択ボタン901を選択すると、30代に人気の講座に関する会話を行うことができる。
On the
また、トーク画面900において、選択ボタン902を選択すると、DX(Digital Transformation)に関する講座に関する会話を行うことができる。また、トーク画面900において、言語ボタンb1,b2,b3,b4を選択すると、使用言語を切り替えることができる。例えば、言語ボタンb2を選択すると、使用言語を日本語から英語に切り替えることができる。
Furthermore, by selecting a
また、トーク画面900において、マイクボタンb5を選択することで、音声によりメッセージを入力することができる。トーク画面900において、選択された選択肢を示す情報や、入力された情報は、第2の情報処理端末103から情報処理装置101に送信される。この結果、トーク画面900が更新される。
Furthermore, by selecting the microphone button b5 on the
ここでは、トーク画面900において、選択ボタン901が選択された場合を想定する。この場合、トーク画面900には、アバターavのメッセージm2とともに、第2のユーザの希望内容を聞き出すための選択ボタン911~919が会話形式で表示される。
Here, it is assumed that the
トーク画面900において、第2のユーザは、選択ボタン911~919のような選択肢を選択することで、自分が受講したい講座についての希望内容を選択することができる。第2のユーザが受講したい講座についての希望内容の選択が終了すると、チャットボット対応から、アバターavを通した有人対応に切り替わる。
On the
ここでは、トーク画面900において、「エンジニア向」、「英語」および「中級」の選択肢が選択された場合を想定する。この場合、第1の情報処理端末102のディスプレイ303に、図10に示すようなオペレータ支援画面1000が表示され、チャットボット対応から、アバターavを通した有人対応に切り替わる。
Here, it is assumed that the options "for engineers", "English", and "intermediate" are selected on the
図10は、第1の情報処理端末102に表示されるオペレータ支援画面の画面例を示す説明図である。図10において、オペレータ支援画面1000は、オペレータの操作を支援する操作画面の一例である。オペレータは、第1の情報処理端末102を使用する第1のユーザである。
FIG. 10 is an explanatory diagram showing an example of the operator support screen displayed on the first
オペレータ支援画面1000は、トーク画面900と、会話履歴1010とを含む。トーク画面900は、第2の情報処理端末103に表示されるトーク画面であり、第2の情報処理端末103に表示されるトーク画面と同期して表示内容が切り替わる。会話履歴1010は、第2の情報処理端末103において行われた会話の内容を示す情報である。
オペレータ(第1のユーザ)は、オペレータ支援画面1000内のトーク画面900により、第2の情報処理端末103に表示されている画面内容を確認することができる。また、オペレータは、会話履歴1010により、第2の情報処理端末103において行われた会話の内容を確認することができる。
The operator (first user) can check the screen content displayed on the second
また、オペレータ支援画面1000は、動作ボタンb11~b13を含む。オペレータ支援画面1000において、第1の情報処理端末102の入力装置304を用いたオペレータの操作入力により、動作ボタンb11を選択すると、アバターavに、手を振る動きをさせることができる。この際、第2の情報処理端末103の外部環境に応じて、アバターavの手を振る動きが制御される。
The
また、オペレータ支援画面1000において、動作ボタンb12を選択すると、アバターavに、うなずく動きをさせることができる。この際、第2の情報処理端末103の外部環境に応じて、アバターavのうなずく動きが制御される。
Furthermore, when the action button b12 is selected on the
また、オペレータ支援画面1000において、動作ボタンb13を選択すると、アバターavに、喜ぶ動きをさせることができる。この際、第2の情報処理端末103の外部環境に応じて、アバターavの喜ぶ動きが制御される。
Furthermore, by selecting the action button b13 on the
また、オペレータ支援画面1000は、音声合成ボタンb14と、QR送付ボタンb15とを含む。オペレータ支援画面1000において、音声合成ボタンb14を選択すると、第1の情報処理端末102において入力したテキストを音声に変換して、第2の情報処理端末103に出力する音声合成処理を行うことができる。
The
これにより、オペレータが入力したテキスト(あるいは、オペレータの音声を認識して得られるテキスト)を音声に変換して、アバターavのメッセージとして音声出力することができる。 Thereby, the text input by the operator (or the text obtained by recognizing the operator's voice) can be converted into voice and output as a voice message of the avatar AV.
また、オペレータ支援画面1000において、QR送付ボタンb15を選択すると、QR(Quick Response)コードを、第2の情報処理端末103に出力することができる。QRコードは、例えば、チャットボットによりおすすめの講座を紹介するスクリプトなどを特定する情報である。QRコードは、登録商標である。
Furthermore, when the QR sending button b15 is selected on the
これにより、第2のユーザは、例えば、自身のスマートフォン(第2の情報処理端末103)により、デジタルボード(第2の情報処理端末103)に表示されたQRコードを読み込むことにより、自身のスマートフォンにおいてチャットボットでの会話を開始することができる。なお、第2の情報処理端末103に出力するQRコードは、例えば、第1の情報処理端末102における第1のユーザの操作に応じて任意に選択可能である。
As a result, the second user can, for example, read the QR code displayed on the digital board (second information processing terminal 103) with his or her own smartphone (second information processing terminal 103), You can start a conversation with a chatbot. Note that the QR code output to the second
また、オペレータ支援画面1000には、メッセージ1020とともに、選択肢1021~1023が表示されている。ここで、メッセージ1020および選択肢1021~1023は、第2の情報処理端末103に出力するアバターに対応する操作を促す情報の一例である。
Further, on the
メッセージ1020および選択肢1021~1023は、トーク画面900における会話内容(例えば、第2のユーザが受講したい講座についての希望内容)に応じて決定された情報である。メッセージ1020は、第2のユーザへの応対を行うオペレータを指定するよう促すメッセージである。
The
選択肢1021~1023は、第2のユーザへの応対を行うオペレータを指定するための選択肢である。ここでは、第2のユーザの希望内容に合った講座についての知識が豊富なオペレータの候補が、選択肢1021~1023として提示されている。
オペレータ支援画面1000において、選択肢1021を選択すると、「情報技術系講座向け担当者」をオペレータとして指定することができる。また、オペレータ支援画面1000において、選択肢1022を選択すると、「外国語講座向け担当者」をオペレータとして指定することができる。また、オペレータ支援画面1000において、選択肢1023を選択すると、「論文講座向け担当者」をオペレータとして指定することができる。
By selecting
オペレータは、例えば、トーク画面900や会話履歴1010などを参照して、どのオペレータが応対するのがよいのかを判断することができる。なお、図示は省略するが、オペレータ支援画面1000には、第2の情報処理端末103のカメラ306により撮影された第2のユーザの画像が表示されていてもよい。この場合、オペレータは、第2のユーザがどんな感じの人であるかを確認して、どのオペレータが応対するのがよいのかを判断することができる。
The operator can, for example, refer to the
ここでは、オペレータ支援画面1000において、選択肢1022が選択された場合を想定する。この場合、トーク画面900に「該当オペレータにおつなぎします。」といったメッセージが表示された後、図11に示すようなトーク画面1100が、第2の情報処理端末103のディスプレイ303に表示される。
Here, it is assumed that
図11は、第2の情報処理端末103に表示されるトーク画面の画面例を示す説明図(その2)である。図11において、トーク画面1100は、「外国語講座向け担当者」がオペレータとして指定された場合に、第2の情報処理端末103に表示されるトーク画面の一例である。
FIG. 11 is an explanatory diagram (part 2) showing an example of the talk screen displayed on the second
なお、「外国語講座向け担当者」がオペレータとして指定されると、第2の情報処理端末103の接続先の第1の情報処理端末102が、「外国語講座向け担当者」が使用する第1の情報処理端末102に切り替わる。また、トーク画面1100には、有人対応中である旨の情報1110が表示される。
Note that when the "person in charge of foreign language courses" is designated as the operator, the first
図11中、アバターavは、「外国語講座向け担当者」であるオペレータの操作に応じて動くキャラクターを表す。アバターavの顔部分は、図10に示したオペレータ支援画面1000において選択された選択肢1022に対応する顔データ(例えば、図5参照)に基づき変更されたものである。
In FIG. 11, avatar av represents a character that moves in response to the operations of an operator who is a "person in charge of foreign language courses." The face part of the avatar av has been changed based on the face data (for example, see FIG. 5) corresponding to the
アバターavの体部分は、第2の情報処理端末103が検出した外部環境情報から特定される外部環境に対応する体データ(例えば、図5参照)に基づき変更されたものである。ここでは、外部環境情報から特定される外部環境が「季節:夏」のため、夏服を着た体に変更されている。
The body parts of avatar av have been changed based on body data (for example, see FIG. 5) corresponding to the external environment specified from the external environment information detected by the second
「外国語講座向け担当者」であるオペレータは、アバターavを通して第2のユーザと会話を行うことができる。この際、図9に示したアバターavから顔部分や体部分が変更されているため、第2のユーザに対して、別の人と会話をしているかのように演出することができる。 The operator who is the "person in charge of foreign language courses" can have a conversation with the second user through the avatar AV. At this time, since the face and body parts of the avatar av shown in FIG. 9 have been changed, it is possible to make the second user feel as if they are having a conversation with another person.
図11の例では、「外国語講座向け担当者」であるオペレータからのメッセージm11が、アバターavを通して表示されている。また、メッセージm11によるオペレータからの問いかけに対して、第2のユーザのメッセージm12が入力されている。また、第2のユーザのメッセージm12に対して、「外国語講座向け担当者」であるオペレータからのメッセージm13が、アバターavを通して表示されている。 In the example of FIG. 11, a message m11 from an operator who is a "person in charge of foreign language courses" is displayed through the avatar av. Furthermore, in response to the question from the operator via message m11, a message m12 from a second user is input. Furthermore, in response to the second user's message m12, a message m13 from an operator who is a "person in charge of foreign language courses" is displayed through the avatar av.
このように、第2のユーザは、アバターavを通して、自分の希望内容に合った講座についての知識が豊富なオペレータと会話して、どのような講座を受講するのがよいのかといったことを相談することができる。 In this way, the second user uses the avatar AV to talk to an operator who has a wealth of knowledge about courses that match his or her desired content, and consults with the operator about what kind of courses he or she should take. be able to.
(情報処理装置101のアバター制御処理手順)
つぎに、図12および図13を用いて、情報処理装置101のアバター制御処理手順について説明する。ここでは、チャットボット対応からのエスカレーションにより、アバターを通した有人対応を行う場合を例に挙げて説明する。
(Avatar control processing procedure of information processing device 101)
Next, the avatar control processing procedure of the
図12および図13は、情報処理装置101のアバター制御処理手順の一例を示すフローチャートである。図12において、まず、情報処理装置101は、第1の情報処理端末102における第1のユーザの操作に応じて動くアバターを第2の情報処理端末103に出力する(ステップS1201)。
12 and 13 are flowcharts illustrating an example of an avatar control processing procedure of the
つぎに、情報処理装置101は、第2の情報処理端末103から、チャットの開始指示とともに、第2の情報処理端末103が検出した第2のユーザの属性情報および外部環境情報を受信したか否かを判断する(ステップS1202)。ただし、チャットの開始指示は、チャットボットでの会話を開始するためのチャットの開始指示とする。
Next, the
ここで、情報処理装置101は、チャットの開始指示とともに、第2のユーザの属性情報および外部環境情報を受信するのを待つ(ステップS1202:No)。情報処理装置101は、チャットの開始指示とともに、第2のユーザの属性情報および外部環境情報を受信した場合(ステップS1202:Yes)、受信した第2のユーザの属性情報に基づいて、ユーザ属性を特定する(ステップS1203)。
Here, the
つぎに、情報処理装置101は、スクリプトテーブル140を参照して、特定したユーザ属性に対応するスクリプトを、トークスクリプトに決定する(ステップS1204)。トークスクリプトは、第2の情報処理端末103におけるチャットボットでの会話に適用するスクリプトである。
Next, the
そして、情報処理装置101は、決定したトークスクリプトを用いて、第2の情報処理端末103におけるチャットボットでの会話を開始する(ステップS1205)。つぎに、情報処理装置101は、第2の情報処理端末103におけるチャットボットでの会話において受け付けた情報に基づいて、特定の条件を満たすか否かを判断する(ステップS1206)。
Then, the
具体的には、例えば、情報処理装置101は、第2の情報処理端末103におけるチャットボットでの会話内容が、選択肢管理テーブル120内のいずれかの会話内容に対応する場合に、特定の条件を満たすと判断する。一方、選択肢管理テーブル120内のいずれの会話内容にも対応しない場合は、情報処理装置101は、特定の条件を満たさないと判断する。
Specifically, for example, the
ステップS1205において、特定の条件を満たさない場合(ステップS1206:No)、情報処理装置101は、第2の情報処理端末103におけるチャットボットでの会話を終了するか否かを判断する(ステップS1207)。なお、チャットボットでの会話は、例えば、トークスクリプトに従って、または、第2のユーザの終了操作に応じて終了する。
In step S1205, if the specific condition is not satisfied (step S1206: No), the
ここで、チャットボットでの会話を終了しない場合(ステップS1207:No)、情報処理装置101は、ステップS1206に戻る。一方、チャットボットでの会話を終了する場合には(ステップS1207:Yes)、情報処理装置101は、本フローチャートによる一連の処理を終了する。
Here, if the conversation with the chatbot is not ended (step S1207: No), the
また、ステップS1206において、特定の条件を満たす場合(ステップS1206:Yes)、情報処理装置101は、チャットボット対応から有人対応の会話に切り替えて(ステップS1208)、図13に示すステップS1301に移行する。
Further, in step S1206, if a specific condition is satisfied (step S1206: Yes), the
図13のフローチャートにおいて、まず、情報処理装置101は、選択肢管理テーブル120を参照して、第2の情報処理端末103におけるチャットボットでの会話内容に対応する選択肢を、第1の情報処理端末102に出力する(ステップS1301)。具体的には、例えば、情報処理装置101は、チャットボットでの会話内容に対応する選択肢を、図10に示したようなオペレータ支援画面1000に表示する。
In the flowchart of FIG. 13, the
つぎに、情報処理装置101は、出力したいずれかの選択肢が選択されたか否かを判断する(ステップS1302)。ここで、情報処理装置101は、いずれかの選択肢が選択されるのを待つ(ステップS1302:No)。情報処理装置101は、いずれかの選択肢が選択された場合(ステップS1302:Yes)、アバター出力変更処理を実行する(ステップS1303)。
Next, the
アバター出力変更処理は、選択された選択肢に応じて、第2の情報処理端末103に表示されるアバターの出力を制御する処理である。アバター出力変更処理の具体的な処理手順については、図14を用いて後述する。
The avatar output change process is a process for controlling the output of the avatar displayed on the second
つぎに、情報処理装置101は、第2の情報処理端末103におけるアバターを通した会話において受け付けた情報に基づいて、特定の条件を満たすか否かを判断する(ステップS1304)。具体的には、例えば、情報処理装置101は、有人対応によるアバターを通した会話内容が、選択肢管理テーブル120内のいずれかの会話内容に対応する場合に、特定の条件を満たすと判断する。一方、選択肢管理テーブル120内のいずれの会話内容にも対応しない場合、情報処理装置101は、特定の条件を満たさないと判断する。
Next, the
ここで、特定の条件を満たさない場合(ステップS1304:No)、情報処理装置101は、第2の情報処理端末103における有人対応によるアバターを通した会話を終了するか否かを判断する(ステップS1305)。なお、有人対応によるアバターを通した会話は、例えば、第2のユーザの終了操作に応じて終了する。
Here, if the specific condition is not satisfied (step S1304: No), the
ここで、有人対応によるアバターを通した会話を終了しない場合(ステップS1305:No)、情報処理装置101は、ステップS1304に戻る。一方、有人対応によるアバターを通した会話を終了する場合には(ステップS1305:Yes)、情報処理装置101は、本フローチャートによる一連の処理を終了する。
Here, if the conversation through the avatar with the attendant is not ended (step S1305: No), the
また、ステップS1304において、特定の条件を満たす場合(ステップS1304:Yes)、情報処理装置101は、選択肢管理テーブル120を参照して、第2の情報処理端末103における、有人対応によるアバターを通した会話の内容に対応する選択肢を、第1の情報処理端末102に出力して(ステップS1306)、ステップS1302に戻る。
In addition, in step S1304, if the specific condition is satisfied (step S1304: Yes), the
これにより、第2の情報処理端末103を使用する第2のユーザの特徴に応じて、チャットボットでの会話を制御することができる。また、チャットボット対応からのエスカレーションにより、アバターを通した有人対応を行うことができる。
Thereby, the conversation in the chatbot can be controlled according to the characteristics of the second user who uses the second
つぎに、図14を用いて、図13に示したステップS1303のアバター出力変更処理の具体的な処理手順について説明する。 Next, the specific processing procedure of the avatar output changing process in step S1303 shown in FIG. 13 will be described using FIG. 14.
図14は、アバター出力変更処理の具体的処理手順の一例を示すフローチャートである。図14のフローチャートにおいて、まず、情報処理装置101は、図12に示したステップS1202において受信された外部環境情報に基づいて、第2の情報処理端末103の外部環境を特定する(ステップS1401)。
FIG. 14 is a flowchart illustrating an example of a specific procedure for changing the avatar output. In the flowchart of FIG. 14, first, the
つぎに、情報処理装置101は、図13に示したステップS1302において選択された選択肢が、アバターの動き、または、オペレータのいずれを指定するものであるか否かを判断する(ステップS1402)。
Next, the
ここで、アバターの動きを指定するものである場合(ステップS1402:アバターの動き)、情報処理装置101は、指定された動きと、特定した外部環境とに基づいて、アバターの動きを決定する(ステップS1403)。そして、情報処理装置101は、決定した動きに基づいて、第2の情報処理端末103に表示するアバターの出力を変更して(ステップS1404)、アバター出力変更処理を呼び出したステップに戻る。
Here, if the movement of the avatar is to be specified (step S1402: movement of the avatar), the
一方、オペレータを指定するものである場合(ステップS1402:オペレータ)、情報処理装置101は、アバター管理テーブル130を参照して、選択された選択肢に対応するアバター管理情報を特定する(ステップS1405)。つぎに、情報処理装置101は、特定したアバター管理情報を参照して、アバターの顔データを特定する(ステップS1406)。
On the other hand, if an operator is to be specified (step S1402: operator), the
つぎに、情報処理装置101は、特定したアバター管理情報を参照して、特定した外部環境に対応するアバターの体データを特定する(ステップS1407)。つぎに、情報処理装置101は、特定したアバター管理情報を参照して、第2の情報処理端末103の接続先の第1の情報処理端末102を切り替える(ステップS1408)。
Next, the
そして、情報処理装置101は、特定した顔データおよび体データに基づいて、第2の情報処理端末103に表示するアバターの出力を変更して(ステップS1409)、アバター出力変更処理を呼び出したステップに戻る。
Then, the
これにより、ユーザへの応対を行うオペレータの操作に応じて、第2の情報処理端末103の外部環境に合わせてアバターの動きを制御することができる。また、ユーザへの応対を行うオペレータに合わせて、アバターの顔部分や体部分を変更することができる。
Thereby, the movement of the avatar can be controlled in accordance with the external environment of the second
以上説明したように、実施の形態にかかる情報処理装置101によれば、第1の情報処理端末102における第1のユーザの操作に応じて動くアバターを、第2の情報処理端末103に出力することができる。また、情報処理装置101によれば、第2の情報処理端末103における第2のユーザを検出した場合、アバターに対応する操作を促す情報を第1の情報処理端末102に出力することができる。アバターに対応する操作を促す情報は、例えば、アバターの動作を指定する操作を促す情報や、アバターを通して第2のユーザへの応対を行うオペレータを指定する操作を促す情報である。そして、情報処理装置101によれば、出力した情報に対応する操作を第1の情報処理端末102において受け付けた場合、受け付けた操作と第2の情報処理端末103が検出した外部環境情報とに基づいて、アバターの出力を制御することができる。
As described above, according to the
これにより、ユーザへの応対を行うオペレータの操作に応じて、第2の情報処理端末103の外部環境に合わせてアバターの出力を制御することができる。
Thereby, the output of the avatar can be controlled in accordance with the external environment of the second
また、情報処理装置101によれば、受け付けた操作と第2の情報処理端末103が検出した外部環境情報とに基づいて、アバターの動きを決定し、決定した動きに基づいて、アバターの出力を変更することができる。
Further, according to the
これにより、ユーザへの応対を行うオペレータの操作に応じて、第2の情報処理端末103の外部環境に合わせてアバターの動きを制御することができる。例えば、「手を振る」というアバターの動きが指定された際に、第2の情報処理端末103の外部環境が「温度:氷点下」であれば、寒さで震えているような感じで手を振るように、アバターの動きを制御することができる。また、「おじぎ」というアバターの動きが指定された際に、第2の情報処理端末103の外部環境が「場所:ホテル」であれば、ホテルマンのような作法でおじぎをするように、アバターavの動きを制御することができる。
Thereby, the movement of the avatar can be controlled in accordance with the external environment of the second
また、情報処理装置101によれば、受け付けた操作に基づいて、アバターの顔部分の出力を変更し、外部環境情報に基づいて、アバターの体部分の出力を変更することができる。
Further, according to the
これにより、ユーザへの応対を行うオペレータに合わせて、アバターの顔部分(見た目)を変更することができる。また、第2の情報処理端末103の外部環境に合わせて、アバターの体部分(見た目)を変更することができる。例えば、第2の情報処理端末103が設置された場所や季節に合わせて、アバターの服装を変更することができる。例えば、第2の情報処理端末103の外部環境が「場所:ホテル」であれば、アバターの体部分を、ホテルマンのような服装に変更することができる。また、第2の情報処理端末103の外部環境が「季節:夏」であれば、アバターの体部分を、夏服の服装に変更することができる。
Thereby, the face part (appearance) of the avatar can be changed according to the operator who responds to the user. Further, the body parts (appearance) of the avatar can be changed according to the external environment of the second
情報処理装置101によれば、第2の情報処理端末103における第2のユーザを検出した場合、第2のユーザに対応する履歴情報があるか否かを判断し、第2のユーザに対応する履歴情報がある場合、当該履歴情報に含まれるアバターの情報に基づいて、アバターの出力を制御することができる。
According to the
これにより、例えば、第2の情報処理端末103を第2のユーザが前回使用したときと同じ見た目のアバターを通して、前回と同じオペレータが第2のユーザへの応対を行うことが可能となり、キャラクターの一貫性を持たせることができる。
As a result, for example, the same operator can respond to the second user through an avatar that looks the same as when the second user used the second
情報処理装置101によれば、第2の情報処理端末103における第2のユーザを検出した場合、第2のユーザの属性情報に基づいて、アバターに対応する操作を促す情報を第1の情報処理端末102に出力することができる。
According to the
これにより、第2のユーザの特徴を考慮して、第2のユーザに合った選択肢、例えば、アバターの動作や第2のユーザへの応対を行うオペレータを指定する選択肢を提示可能となり、オペレータの応対業務を支援することができる。例えば、第2のユーザが子供であれば、子供が喜びそうな動作を選択肢として提示したり、子供の応対が得意なオペレータにつなぐための選択肢を提示したりすることができる。 As a result, it is possible to present options suitable for the second user, taking into account the characteristics of the second user, for example, options for specifying the operator who will perform the avatar's movements and respond to the second user. Able to support reception duties. For example, if the second user is a child, it is possible to present options for actions that children would enjoy, or to connect the user to an operator who is good at dealing with children.
情報処理装置101によれば、第2の情報処理端末103における第2のユーザを検出した場合、第2の情報処理端末103におけるアバターを通した会話において受け付けた情報に基づいて、アバターに対応する操作を促す情報を第1の情報処理端末102に出力することができる。
According to the
これにより、第2の情報処理端末103における有人対応によるアバターを通した会話内容を考慮して、第2のユーザに合った選択肢を提示可能となり、オペレータの応対業務を支援することができる。例えば、アバターを通した会話の中で第2のユーザが希望する内容を聞き出して、それについての知識が豊富なオペレータにつなぐための選択肢を提示することができる。
This makes it possible to present options suitable for the second user, taking into account the content of the conversation through the avatar by the manned person at the second
情報処理装置101によれば、第2の情報処理端末103における第2のユーザを検出した場合、第2の情報処理端末103におけるチャットボットでの会話を開始し、チャットボットでの会話において受け付けた情報に基づいて、アバターの動きに対応する操作を促す情報を第1の情報処理端末102に出力することができる。
According to the
これにより、第2の情報処理端末103におけるチャットボットでの会話内容を考慮して、第2のユーザに合った選択肢を提示可能となり、オペレータの応対業務を支援することができる。例えば、チャットボットでの会話の中で第2のユーザが希望する内容を聞き出して、それについての知識が豊富なオペレータにつなぐための選択肢を提示することができる。
This makes it possible to present options suitable for the second user in consideration of the content of the conversation in the chatbot on the second
これらのことから、会話制御システム100および情報処理装置101によれば、バリエーション豊富なアバターの動きを実現するとともに、ユーザに合った適切なオペレータによる応対を実現してサービスの品質向上を図ることができる。
Therefore, according to the
なお、本実施の形態で説明したアバター制御方法は、予め用意されたプログラムをパーソナル・コンピュータやワークステーション等のコンピュータで実行することにより実現することができる。本アバター制御プログラムは、ハードディスク、フレキシブルディスク、CD-ROM、DVD、USBメモリ等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。また、本アバター制御プログラムは、インターネット等のネットワークを介して配布してもよい。 Note that the avatar control method described in this embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. This avatar control program is recorded on a computer-readable recording medium such as a hard disk, flexible disk, CD-ROM, DVD, or USB memory, and is executed by being read from the recording medium by the computer. Further, this avatar control program may be distributed via a network such as the Internet.
また、本実施の形態で説明した情報処理装置101は、スタンダードセルやストラクチャードASIC(Application Specific Integrated Circuit)などの特定用途向けICやFPGAなどのPLD(Programmable Logic Device)によっても実現することができる。
Further, the
上述した実施の形態に関し、さらに以下の付記を開示する。 Regarding the embodiments described above, the following additional notes are further disclosed.
(付記1)第1の情報処理端末における第1のユーザの操作に応じて動くアバターを第2の情報処理端末に出力し、
前記第2の情報処理端末における第2のユーザを検出した場合、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力し、
出力した前記情報に対応する操作を前記第1の情報処理端末において受け付けた場合、受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの出力を制御する、
処理をコンピュータに実行させることを特徴とするアバター制御プログラム。
(Additional Note 1) Outputting an avatar that moves in accordance with the operation of the first user on the first information processing terminal to the second information processing terminal,
If a second user at the second information processing terminal is detected, outputting information prompting an operation corresponding to the avatar to the first information processing terminal;
When the first information processing terminal receives an operation corresponding to the outputted information, the output of the avatar is controlled based on the received operation and external environment information detected by the second information processing terminal. do,
An avatar control program characterized by causing a computer to perform processing.
(付記2)前記制御する処理は、
受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの動きを決定し、決定した前記動きに基づいて、前記アバターの出力を変更する、ことを特徴とする付記1に記載のアバター制御プログラム。
(Additional note 2) The process to be controlled is
A movement of the avatar is determined based on the received operation and external environment information detected by the second information processing terminal, and an output of the avatar is changed based on the determined movement. The avatar control program according to supplementary note 1.
(付記3)前記制御する処理は、
受け付けた前記操作に基づいて、前記アバターの顔部分の出力を変更し、
前記外部環境情報に基づいて、前記アバターの体部分の出力を変更する、
ことを特徴とする付記1に記載のアバター制御プログラム。
(Additional Note 3) The process to be controlled is
changing the output of the facial part of the avatar based on the received operation;
changing the output of the body part of the avatar based on the external environment information;
The avatar control program according to supplementary note 1.
(付記4)前記第2の情報処理端末における第2のユーザを検出した場合、前記第2のユーザに対応する履歴情報があるか否かを判断し、
前記第2のユーザに対応する履歴情報がある場合、当該履歴情報に含まれる前記アバターの情報に基づいて、前記アバターの出力を制御する、
処理を前記コンピュータに実行させることを特徴とする付記1に記載のアバター制御プログラム。
(Supplementary Note 4) When a second user in the second information processing terminal is detected, determining whether there is history information corresponding to the second user,
If there is history information corresponding to the second user, controlling the output of the avatar based on information about the avatar included in the history information;
The avatar control program according to supplementary note 1, which causes the computer to execute the process.
(付記5)前記第2の情報処理端末における第2のユーザを検出した場合、前記第2のユーザの属性情報に基づいて、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力する、
処理を前記コンピュータに実行させることを特徴とする付記1に記載のアバター制御プログラム。
(Supplementary Note 5) When a second user at the second information processing terminal is detected, information prompting the user to perform an operation corresponding to the avatar is sent to the first information processing terminal based on the attribute information of the second user. output to,
The avatar control program according to supplementary note 1, which causes the computer to execute the process.
(付記6)前記第2の情報処理端末における第2のユーザを検出した場合、前記第2の情報処理端末における前記アバターを通した会話において受け付けた情報に基づいて、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力する、
処理を前記コンピュータに実行させることを特徴とする付記1に記載のアバター制御プログラム。
(Supplementary Note 6) When a second user is detected at the second information processing terminal, an operation corresponding to the avatar is performed based on information received in a conversation through the avatar at the second information processing terminal. outputting prompting information to the first information processing terminal;
The avatar control program according to supplementary note 1, which causes the computer to execute the process.
(付記7)前記第2の情報処理端末における第2のユーザを検出した場合、前記第2の情報処理端末におけるチャットボットでの会話を開始し、
前記チャットボットでの会話において受け付けた情報に基づいて、前記アバターの動きに対応する操作を促す情報を前記第1の情報処理端末に出力する、
処理を前記コンピュータに実行させることを特徴とする付記1に記載のアバター制御プログラム。
(Additional Note 7) When detecting a second user on the second information processing terminal, start a conversation with a chatbot on the second information processing terminal,
outputting information that prompts an operation corresponding to the movement of the avatar to the first information processing terminal based on information received in the conversation with the chatbot;
The avatar control program according to supplementary note 1, which causes the computer to execute the process.
(付記8)前記アバターに対応する操作を促す情報は、前記アバターの動作を指定する操作を促す情報である、ことを特徴とする付記1に記載のアバター制御プログラム。 (Supplementary note 8) The avatar control program according to supplementary note 1, wherein the information prompting an operation corresponding to the avatar is information prompting an operation specifying an action of the avatar.
(付記9)前記アバターに対応する操作を促す情報は、前記アバターを通して前記第2のユーザへの応対を行うオペレータを指定する操作を促す情報である、ことを特徴とする付記3に記載のアバター制御プログラム。
(Supplementary note 9) The avatar according to
(付記10)第1の情報処理端末における第1のユーザの操作に応じて動くアバターを第2の情報処理端末に出力し、
前記第2の情報処理端末における第2のユーザを検出した場合、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力し、
出力した前記情報に対応する操作を前記第1の情報処理端末において受け付けた場合、受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの出力を制御する、
処理をコンピュータが実行することを特徴とするアバター制御方法。
(Additional Note 10) Outputting an avatar that moves according to the operation of the first user on the first information processing terminal to the second information processing terminal,
If a second user at the second information processing terminal is detected, outputting information prompting an operation corresponding to the avatar to the first information processing terminal;
When the first information processing terminal receives an operation corresponding to the outputted information, the output of the avatar is controlled based on the received operation and external environment information detected by the second information processing terminal. do,
An avatar control method characterized in that processing is executed by a computer.
(付記11)第1の情報処理端末における第1のユーザの操作に応じて動くアバターを第2の情報処理端末に出力する第1の出力制御部と、
前記第2の情報処理端末における第2のユーザを検出した場合、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力する第2の出力制御部と、を有し、
前記第1の出力制御部は、
前記第2の出力制御部によって出力された前記情報に対応する操作を前記第1の情報処理端末において受け付けた場合、受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの出力を制御する、
ことを特徴とする情報処理装置。
(Additional Note 11) A first output control unit that outputs an avatar that moves according to the operation of the first user on the first information processing terminal to the second information processing terminal;
a second output control unit that outputs information prompting an operation corresponding to the avatar to the first information processing terminal when a second user at the second information processing terminal is detected;
The first output control section includes:
When the first information processing terminal receives an operation corresponding to the information output by the second output control unit, the received operation and the external environment information detected by the second information processing terminal controlling the output of the avatar based on;
An information processing device characterized by:
100 会話制御システム
101 情報処理装置
102 第1の情報処理端末
103 第2の情報処理端末
110 ネットワーク
120 選択肢管理テーブル
130 アバター管理テーブル
140 スクリプトテーブル
200,300 バス
201,301 CPU
202,302 メモリ
203 ディスクドライブ
204 ディスク
205,305 通信I/F
206 可搬型記録媒体I/F
207 可搬型記録媒体
303 ディスプレイ
304 入力装置
306 カメラ
307 スピーカ
308 マイクロフォン
309 GPSユニット
701 第1の出力制御部
702 第2の出力制御部
703 通信部
704 会話制御部
710 記憶部
900,1100 トーク画面
1000 オペレータ支援画面
100
202,302
206 Portable recording medium I/F
207
Claims (8)
前記第2の情報処理端末における第2のユーザを検出した場合、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力し、
出力した前記情報に対応する操作を前記第1の情報処理端末において受け付けた場合、受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの出力を制御する、
処理をコンピュータに実行させることを特徴とするアバター制御プログラム。 outputting an avatar that moves in response to an operation of a first user on a first information processing terminal to a second information processing terminal;
If a second user at the second information processing terminal is detected, outputting information prompting an operation corresponding to the avatar to the first information processing terminal;
When the first information processing terminal receives an operation corresponding to the outputted information, the output of the avatar is controlled based on the received operation and external environment information detected by the second information processing terminal. do,
An avatar control program characterized by causing a computer to perform processing.
受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの動きを決定し、決定した前記動きに基づいて、前記アバターの出力を変更する、ことを特徴とする請求項1に記載のアバター制御プログラム。 The process to be controlled is
A movement of the avatar is determined based on the received operation and external environment information detected by the second information processing terminal, and an output of the avatar is changed based on the determined movement. The avatar control program according to claim 1.
受け付けた前記操作に基づいて、前記アバターの顔部分の出力を変更し、
前記外部環境情報に基づいて、前記アバターの体部分の出力を変更する、
ことを特徴とする請求項1に記載のアバター制御プログラム。 The process to be controlled is
changing the output of the facial part of the avatar based on the received operation;
changing the output of the body part of the avatar based on the external environment information;
The avatar control program according to claim 1, characterized in that:
前記第2のユーザに対応する履歴情報がある場合、当該履歴情報に含まれる前記アバターの情報に基づいて、前記アバターの出力を制御する、
処理を前記コンピュータに実行させることを特徴とする請求項1に記載のアバター制御プログラム。 When detecting a second user in the second information processing terminal, determining whether there is history information corresponding to the second user;
If there is history information corresponding to the second user, controlling the output of the avatar based on information about the avatar included in the history information;
The avatar control program according to claim 1, which causes the computer to execute the process.
処理を前記コンピュータに実行させることを特徴とする請求項1に記載のアバター制御プログラム。 If a second user at the second information processing terminal is detected, outputting information prompting an operation corresponding to the avatar to the first information processing terminal based on attribute information of the second user;
The avatar control program according to claim 1, which causes the computer to execute the process.
処理を前記コンピュータに実行させることを特徴とする請求項1に記載のアバター制御プログラム。 When a second user on the second information processing terminal is detected, information prompting the avatar to perform a corresponding operation is sent to the second information processing terminal based on information received in a conversation through the avatar on the second information processing terminal. Output to the first information processing terminal,
The avatar control program according to claim 1, which causes the computer to execute the process.
前記第2の情報処理端末における第2のユーザを検出した場合、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力し、
出力した前記情報に対応する操作を前記第1の情報処理端末において受け付けた場合、受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの出力を制御する、
処理をコンピュータが実行することを特徴とするアバター制御方法。 outputting an avatar that moves in response to an operation of a first user on a first information processing terminal to a second information processing terminal;
If a second user at the second information processing terminal is detected, outputting information prompting an operation corresponding to the avatar to the first information processing terminal;
When the first information processing terminal receives an operation corresponding to the outputted information, the output of the avatar is controlled based on the received operation and external environment information detected by the second information processing terminal. do,
An avatar control method characterized in that processing is executed by a computer.
前記第2の情報処理端末における第2のユーザを検出した場合、前記アバターに対応する操作を促す情報を前記第1の情報処理端末に出力する第2の出力制御部と、を有し、
前記第1の出力制御部は、
前記第2の出力制御部によって出力された前記情報に対応する操作を前記第1の情報処理端末において受け付けた場合、受け付けた前記操作と前記第2の情報処理端末が検出した外部環境情報とに基づいて、前記アバターの出力を制御する、
ことを特徴とする情報処理装置。 a first output control unit that outputs an avatar that moves in response to a first user's operation on the first information processing terminal to a second information processing terminal;
a second output control unit that outputs information prompting an operation corresponding to the avatar to the first information processing terminal when a second user at the second information processing terminal is detected;
The first output control section includes:
When the first information processing terminal receives an operation corresponding to the information output by the second output control unit, the received operation and the external environment information detected by the second information processing terminal controlling the output of the avatar based on;
An information processing device characterized by:
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/019006 WO2021229692A1 (en) | 2020-05-12 | 2020-05-12 | Avatar control program, avatar control method and information processing device |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021229692A1 JPWO2021229692A1 (en) | 2021-11-18 |
JPWO2021229692A5 JPWO2021229692A5 (en) | 2022-09-14 |
JP7371770B2 true JP7371770B2 (en) | 2023-10-31 |
Family
ID=78525485
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022522145A Active JP7371770B2 (en) | 2020-05-12 | 2020-05-12 | Avatar control program, avatar control method, and information processing device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7371770B2 (en) |
WO (1) | WO2021229692A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024058439A1 (en) * | 2022-09-13 | 2024-03-21 | 삼성전자주식회사 | Method and apparatus for determining persona of avatar object arranged in virtual space |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007199997A (en) | 2006-01-26 | 2007-08-09 | Advanced Telecommunication Research Institute International | Dialog support system |
JP2015220534A (en) | 2014-05-15 | 2015-12-07 | 株式会社リコー | Auxiliary apparatus, auxiliary system and auxiliary method for communication, and program |
JP2019105944A (en) | 2017-12-11 | 2019-06-27 | トヨタ自動車株式会社 | Display control device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4709598B2 (en) * | 2005-07-11 | 2011-06-22 | 公立大学法人岡山県立大学 | Call terminal with avatar display function |
KR101825094B1 (en) * | 2016-06-08 | 2018-02-02 | 한양대학교 산학협력단 | Method and device for planning grasp motion |
JP7012953B2 (en) * | 2017-08-30 | 2022-01-31 | 株式会社国際電気通信基礎技術研究所 | Sensory stimulation presentation system, program and method |
-
2020
- 2020-05-12 JP JP2022522145A patent/JP7371770B2/en active Active
- 2020-05-12 WO PCT/JP2020/019006 patent/WO2021229692A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007199997A (en) | 2006-01-26 | 2007-08-09 | Advanced Telecommunication Research Institute International | Dialog support system |
JP2015220534A (en) | 2014-05-15 | 2015-12-07 | 株式会社リコー | Auxiliary apparatus, auxiliary system and auxiliary method for communication, and program |
JP2019105944A (en) | 2017-12-11 | 2019-06-27 | トヨタ自動車株式会社 | Display control device |
Also Published As
Publication number | Publication date |
---|---|
WO2021229692A1 (en) | 2021-11-18 |
JPWO2021229692A1 (en) | 2021-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110998725B (en) | Generating a response in a dialog | |
US20220284896A1 (en) | Electronic personal interactive device | |
US20220254343A1 (en) | System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs | |
US11468894B2 (en) | System and method for personalizing dialogue based on user's appearances | |
KR101992424B1 (en) | Apparatus for making artificial intelligence character for augmented reality and service system using the same | |
CN109176535B (en) | Interaction method and system based on intelligent robot | |
JP7396396B2 (en) | Information processing device, information processing method, and program | |
CN109521927B (en) | Robot interaction method and equipment | |
CN110598576A (en) | Sign language interaction method and device and computer medium | |
CN107480766B (en) | Method and system for content generation for multi-modal virtual robots | |
CN109086860B (en) | Interaction method and system based on virtual human | |
CN111565143B (en) | Instant messaging method, equipment and computer readable storage medium | |
US20230108256A1 (en) | Conversational artificial intelligence system in a virtual reality space | |
US20180336450A1 (en) | Platform to Acquire and Represent Human Behavior and Physical Traits to Achieve Digital Eternity | |
JP7371770B2 (en) | Avatar control program, avatar control method, and information processing device | |
CN114048299A (en) | Dialogue method, apparatus, device, computer-readable storage medium, and program product | |
CN113205569A (en) | Image drawing method and device, computer readable medium and electronic device | |
JPWO2021229692A5 (en) | ||
CN112820265B (en) | Speech synthesis model training method and related device | |
KR101912554B1 (en) | Fairy tale creation and sharing system | |
CN114449297A (en) | Multimedia information processing method, computing equipment and storage medium | |
JP2020025221A (en) | Communication support device, communication support system, and communication method | |
CN112138410B (en) | Interaction method of virtual objects and related device | |
JP7064159B1 (en) | Information processing methods, programs, and information processing equipment | |
US20230230293A1 (en) | Method and system for virtual intelligence user interaction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220722 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220722 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230919 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231002 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7371770 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |