WO2021117166A1 - 会話制御プログラム、会話制御方法及び会話制御装置 - Google Patents
会話制御プログラム、会話制御方法及び会話制御装置 Download PDFInfo
- Publication number
- WO2021117166A1 WO2021117166A1 PCT/JP2019/048519 JP2019048519W WO2021117166A1 WO 2021117166 A1 WO2021117166 A1 WO 2021117166A1 JP 2019048519 W JP2019048519 W JP 2019048519W WO 2021117166 A1 WO2021117166 A1 WO 2021117166A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- chatbot
- user
- avatar
- conversation control
- utterance
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
Definitions
- the present invention relates to a conversation control program, a conversation control method, and a conversation control device.
- an automatic response system that talks with humans by voice or text
- the automatic response system may be used to respond to inquiries from users of the service.
- an automatic response system there is known a method of outputting an image of a character called an avatar together with text and voice to make the avatar appear to be speaking.
- One aspect is to make the automatic response system respond more adapted to the user's input.
- the conversation control program causes the computer to execute a script spoken by the chatbot and a process of determining one or more uttering main characters according to the information input by the user in the conversation with the chatbot.
- the conversation control program causes the computer to execute a process of causing the chatbot to speak based on the determined script and character.
- the automatic response system can be made to respond more adapted to the user's input.
- FIG. 1 is a block diagram showing a configuration example of a conversation control device.
- FIG. 2 is an explanatory diagram illustrating the operation of the avatar.
- FIG. 3 is a diagram showing an example of a screen for displaying an avatar.
- FIG. 4 is a diagram showing an example of a screen for displaying an avatar.
- FIG. 5 is a diagram showing an example of a screen for displaying an avatar.
- FIG. 6 is a diagram showing an example of a screen for displaying an avatar.
- FIG. 7 is a diagram showing an example of a backlog.
- FIG. 8 is a diagram showing an example of a conversation with an avatar.
- FIG. 9 is a diagram showing an example of a screen for displaying a plurality of avatar candidates.
- FIG. 9 is a diagram showing an example of a screen for displaying a plurality of avatar candidates.
- FIG. 10 is a diagram showing an example of an avatar that displays an advertisement during a conversation.
- FIG. 11 is a diagram showing an example of a plurality of avatars talking in different languages.
- FIG. 12 is a flowchart showing a processing flow of the conversation control device.
- FIG. 13 is a diagram illustrating a hardware configuration example.
- FIG. 1 is a block diagram showing a configuration example of a conversation control device.
- the conversation control device 10 is a device for realizing an automatic response system.
- the automatic response system is called a chatbot.
- the chatbot outputs predetermined information as a voice or text utterance according to the voice or text input by the user.
- the conversation control device 10 is connected to the terminal device 20.
- the conversation control device 10 is a server.
- the terminal device 20 is a PC, a smartphone, or the like connected to the conversation control device 10 which is a server via the Internet.
- the user inputs information to the terminal device 20 via a predetermined interface.
- the user can enter information, for example by voice or text.
- the terminal device 20 transmits the input information to the conversation control device 10.
- the conversation control device 10 determines the content of the utterance to the user based on the transmitted information, and outputs the determined content of the utterance to the terminal device 20.
- the conversation control device 10 includes a communication unit 11, an input unit 12, an output unit 13, a storage unit 14, and a control unit 15.
- the communication unit 11 is an interface for communicating data with other devices.
- the communication unit 11 is, for example, a NIC (Network Interface Card).
- the input unit 12 is an input device such as a keyboard or a mouse.
- the output unit 13 is an output device such as a display or a speaker.
- the input unit 12 and the output unit 13 may be interfaces connected to other devices including the terminal device 20.
- the user inputs voice or text to the chatbot via the terminal device 20.
- the output unit 13 outputs a screen presented by the chatbot to the user to the terminal device 20, and causes the terminal device 20 to display the screen.
- the storage unit 14 is an example of a storage device that stores data, a program executed by the control unit 15, and the like, such as a hard disk and a memory.
- the storage unit 14 stores the script information 141, the condition information 142, and the avatar information 143.
- Script information 141 is a script for utterance.
- a script is a text that indicates the content of an utterance.
- the chatbot may output the script as it is as an utterance, or may output the script with a predetermined edit.
- Condition information 142 is a condition for operating an avatar, which will be described later.
- the chatbot compares the information input by the user with the condition information 142, and when the information matches the condition, operates the avatar corresponding to the condition.
- Avatar information 143 is information about an image displayed as an avatar.
- a character is associated with the avatar.
- a role is set for each character. Therefore, for example, the avatar information 143 may be information that combines an image of the avatar, identification information for identifying the character, and information indicating the role of the character.
- control unit 15 for example, a program stored in an internal storage device is executed with RAM as a work area by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), or the like. Is realized by. Further, the control unit 15 may be realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array), for example.
- the control unit 15 includes a determination unit 151, an operation unit 152, and an utterance unit 153.
- the determination unit 151 determines the script spoken by the chatbot and one or more uttering main characters according to the information input by the user in the conversation with the chatbot.
- the determination unit 151 determines a script for responding to the user's utterance from the scripts included in the script information 141. Further, the determination unit 151 collates the utterance content and the like input by the user with the conditions of the condition information 142, and determines one or more utterance-based characters.
- the operation unit 152 operates the avatar.
- the operation unit 152 displays an avatar corresponding to the character determined by the determination process according to the utterance of the chatbot.
- FIG. 2 is an explanatory diagram illustrating the operation of the avatar. As shown in FIG. 2, the operation unit 152 can perform an operation of switching a single avatar displayed on the chat screen to another single avatar, or an operation of making a plurality of avatars. Further, the operation unit 152 may perform an operation of reducing the number of avatars to be displayed.
- the operation unit 152 displays the avatar corresponding to the character determined by the determination process according to the utterance of the chatbot.
- the operation unit 152 can display a plurality of avatars corresponding to each character on the same screen.
- the operation unit 152 can increase or decrease the number of avatars to be displayed according to the information input by the user or the utterance of the chatbot.
- the utterance unit 153 causes the chatbot to speak based on the determined script and character. As shown in FIG. 2, the utterance unit 153 can display the utterance text in the balloon emitted from the avatar displayed on the screen.
- the chatbot is realized by the processing of the determination unit 151, the operation unit 152, and the utterance unit 153.
- an operation example of the chatbot will be described using an example of a screen for displaying an avatar.
- 3 to 6 are diagrams showing an example of a screen for displaying an avatar.
- the chat screen in the following description may be one that the output unit 13 directly outputs, or one that the output unit 13 outputs to the terminal device 20.
- the avatar 301a, the avatar 301b, the text input field 302, the send button 303, and the backlog button 304 are displayed on the chat screen.
- the text input field 302 and presses the send button 303 the text is input to the conversation control device 10 as the utterance content of the user.
- the pressing means the operation of pressing the button by clicking the mouse or tapping the touch panel.
- the character of avatar 301a has roles such as “subordinate”, “beginner”, and “non-expert”.
- the character of Avatar 301b has roles such as “superior”, “advanced”, and "expert”.
- the avatar 301b mainly answers the question from the user. Then, the avatar 301a supports the user's understanding by supplementing or striking the explanation given by the avatar 301b.
- the utterance unit 153 causes both avatars to make an utterance that prompts the user to speak.
- the user inputs a question in the text input field 302 and presses the send button 303.
- the determination unit 151 presents a question similar to the user's question, and determines a script for making an utterance prompting the user to select from the questions. Further, the decision unit 151 determines that the avatar 301b utters a script prompting the selection, and the avatar 301a utters a script that plays the emotions of the respondents.
- the utterance unit 153 in response to the decision of the decision unit 151, the utterance unit 153 presents the question options and causes the avatar 301b to say “Is it in this?". Further, the utterance unit 153 causes the avatar 301a to speak "pounding".
- the avatar 301b utters the script of the answer to the question selected by the user among the presented question options, and the avatar 301a utters the supplementary script to the answer. Decide to do.
- the avatar 301b utters, "It is necessary to transfer the phone book data, open the telephone, and insert / replace the SIM card.”
- Avatar 301a utters, "Opening is necessary when a new contract / contract change or the shape of the SIM card is changed" in order to supplement the answer of Avatar 301b.
- FIG. 6 when the user asks "What is the official name of the SIM?", The decision unit 151 utters the script of the answer to the question by the avatar 301b, and the script corresponding to each other is uttered. Avatar 301a decides to speak.
- the avatar 301b is "The official name of the SIM is” Subscriber Identity Mobile ". ". After that, Avatar 301a utters "I see, it will be studying! To supplement the answer of Avatar 301b.
- the operation unit 152 may output an animation in which the avatar 301a strikes each other. In this way, the operation unit 152 can display such that the other avatar responds to the utterance by any one of the plurality of avatars.
- the chatbot of this embodiment can give each character of a plurality of avatars a role.
- the user can feel a feeling close to the situation of having a conversation with a real respondent, and the satisfaction level of the service is improved.
- FIG. 7 is a diagram showing an example of a backlog.
- the output unit 13 displays the backlog screen.
- the history of utterance contents and the utterance subject of each utterance content are displayed.
- the utterance subject is the user and each avatar.
- the chatbot can operate the display mode of the avatar according to various scenes. For example, when responding to a complaint, the user's complaints and dissatisfaction can be supplemented by replacing the avatar with the role of the superior of the person in charge of the counter or the person in charge of the complaint, and the user's feelings can be switched and responded. It is possible to prevent standardization.
- FIG. 8 is a diagram showing an example of a conversation with an avatar.
- the chat screen provided by the chatbot may replace the balloons as shown in FIGS. 3 to 6 or may be in the timeline format as shown in FIG.
- the avatar with the reference numeral 201 in FIG. 8 is the user's avatar.
- the user 201 asks a question to the avatar 301a. Then, the user 201 makes an utterance requesting more detailed information about the term "cholinergic action" that appears in the response from the avatar 301a.
- the script information 141 does not include a script for explaining the "cholinergic action”. Therefore, the avatar 301a makes an utterance that the "cholinergic action” and the "cholinergic action” cannot be explained.
- the operation unit 152 changes the avatar 301a to the avatar 301b in order to switch the user's dissatisfaction with the answer. Then, the avatar 301b, who has the role of superior, first utters an apology and then presents to the user the result of searching the Web for "cholinergic drug" related to the user's question.
- the chatbot can express the difference in the reliability and response level of the information provided by the difference in the avatar.
- the search result on the Web is not, for example, the official answer of the company that presents the answer, and it is difficult to guarantee the reliability. Therefore, when the utterance unit 153 presents the search result on the Web, that is the case. Explicitly speak.
- the determination unit 151 can determine the character based on the content of the user's utterance in the conversation with the chatbot, the number of utterances of the user, the time zone in which the user utters, the time required for the user to utter, and the like. For example, in the example of FIG. 8, the determination unit 151 determines a character having a superior role based on the utterance content of the user. Further, for example, the determination unit 151 may determine a child character if the utterance time zone is daytime, and may determine an adult character if the utterance time zone is nighttime. Further, for example, the determination unit 151 may determine an expert character when the time required for the user to speak is long. For example, the utterance unit 153 causes an expert avatar to make an utterance that provides information that assists the user's thinking.
- the determination unit 151 may determine the character depending on whether or not the chatbot has a response to the inquiry by the user. In the example of FIG. 8, since there was no answer to the question about "cholinergic action", the determination unit 151 determined the superior avatar.
- the determination unit 151 determines "advanced”, "expert”, and " Determine the character with the role of "superior”.
- the determination unit 151 determines the character in charge of the FAQ different from the current avatar. To do.
- the determination unit 151 determines a character having the role of an assistant who gives supplementary information.
- the determination unit 151 determines a character having the roles of "superior” and "complaint charge”. Further, if a word related to a specific organization is included in the user's utterance, the determination unit 151 determines a character having a role in charge of the organization.
- the determination unit 151 determines the character related to advertising or marketing.
- the determination unit 151 determines the character. For example, the user may call an avatar responsible for a particular language in the bilingual model.
- a new avatar or a scenario with a new script when added, they may be preferentially decided according to a predetermined schedule. As a result, the novelty of the production can encourage the user to use the repeat.
- the operation unit 152 may display a plurality of avatars as candidates, and may enlarge and display one of the plurality of avatars according to the information input by the user or the utterance of the chatbot.
- FIG. 9 is a diagram showing an example of a screen for displaying a plurality of avatar candidates.
- the operation unit 152 displays the avatar 312a, the avatar 312b, the avatar 312c, and the avatar 312d as candidates. Then, the determination unit 151 determines the avatar to be spoken from the candidates according to the user's utterance.
- the avatar 312a, the avatar 312b, the avatar 312c, and the avatar 312d are the mascot characters of each team belonging to the baseball league.
- the decision unit 151 decides that the avatar 312b speaks in response to the user's utterance that "A player has retired.” It is assumed that the team to which player A belongs is stored in the condition information 142 as the team of the avatar 312b. Then, the utterance unit 153 causes the avatar 312b to speak about player A after retirement, saying, "I'm glad if you become a manager" from the standpoint of the team. In addition, the introduction part of the conversation and the topic about the whole league are not associated with any team, and MC Avatar 311 who has a role that covers the whole speaks. Further, when the chat service is provided to each team, the ratio of the cost for using the service can be calculated according to the number of times the avatar of each team speaks.
- FIG. 10 is a diagram showing an example of an avatar that displays an advertisement during a conversation.
- Avatar 321a answers a question about the stadium from user 201.
- the determination unit 151 determines the avatar 321b for the advertisement and determines the script for obtaining the permission to display the advertisement.
- the avatar 321b presents that it intends to display an advertisement related to the seasoning, and then causes the user 201 to select whether or not to allow the advertisement display. Then, when the user 201 chooses to allow the advertisement display, the avatar 321b presents the product and displays the advertisement. In this way, the avatar asks the user in advance whether or not to display the advertisement, so that the advertisement can be displayed without offending the user.
- the user can determine whether or not to see the advertisement after obtaining the answer. It is possible to prevent a decrease in satisfaction.
- the utterance unit 153 may have a plurality of avatars utter the same content in different languages.
- FIG. 11 is a diagram showing an example of a plurality of avatars talking in different languages.
- Avatar 321b speaks the explanation of "Nanshuji” in Japanese.
- Avatar 321a speaks the explanation of "Nanshuji” in English.
- an attendant of a foreign tourist who has come to Japan can use such a function to perform a smooth attendance.
- foreign tourists and attendants can learn expressions in each other's language on the same matter.
- FIG. 12 is a flowchart showing a processing flow of the conversation control device.
- the conversation control device 10 accepts the input of the user's utterance content (step S11).
- the conversation control device 10 determines the script and the character based on the conditions (step S12).
- the conversation control device 10 determines whether or not the operation of the avatar is necessary (step S13). For example, when the avatar of the determined character is different from the avatar currently displayed, or when the number of avatars increases or decreases, the conversation control device 10 determines that the operation of the avatar is necessary.
- step S13 determines that the operation of the avatar is necessary (step S13, Yes)
- the conversation control device 10 operates the avatar (step S14) and proceeds to step S15.
- step S13, No determines that the operation of the avatar is not necessary
- step S15 without operating the avatar. Then, the conversation control device 10 speaks based on the determined script and character (step S15).
- the determination unit 151 determines the script to be spoken by the chatbot and one or more uttering main characters according to the information input by the user in the conversation with the chatbot.
- the utterance unit 153 causes the chatbot to utter based on the determined script and character.
- the conversation control device 10 can automatically determine the script and the character according to the utterance of the user and control the utterance.
- the automatic response system can be made to respond according to the user's input.
- the decision unit 151 determines whether the chatbot has the content of the user's speech in the conversation with the chatbot, the number of speeches of the user, the time zone in which the user spoke, the time required for the user to speak, and the answer to the inquiry by the user.
- the character is determined based on at least one of whether or not.
- the conversation control device 10 can change the character in charge based on the conditions of various utterance contents, as in the case of responding to inquiries in the real world. As a result, according to the conversation control device 10, the satisfaction level of the user can be improved.
- the operation unit 152 displays the avatar corresponding to the character determined by the determination process according to the utterance of the chatbot.
- the operation unit 152 displays a plurality of avatars corresponding to each character on the same screen.
- the operation unit 152 increases or decreases the number of avatars to be displayed according to the information input by the user or the utterance of the chatbot. As a result, it is possible to give the user a feeling that a plurality of persons in charge with different roles are responding to inquiries as in the real world.
- the operation unit 152 displays a plurality of avatars as candidates, and enlarges and displays one of the plurality of avatars according to the information input by the user or the utterance of the chatbot.
- a plurality of organizations or a plurality of groups can share inquiries and answers.
- the service range can be expanded, and at the same time, costs such as operating costs of the automatic response system can be divided.
- the operation unit 152 displays such that the other avatar responds to the utterance by any of the plurality of avatars. As a result, the user can get the feeling that the person in charge in front of him / her is actually having a conversation, as in the real world.
- the conversation control device 10 displays a plurality of avatars having different skin colors. For the same reason, the conversation control device 10 may display a plurality of avatars having different ages, genders, and the like.
- the conversation control device 10 may make two avatars speak as if they were performing a comic dialogue. For example, the conversation control device 10 causes one avatar to make an utterance with so-called blur, and the other avatar to make an utterance corresponding to Tsukkomi.
- one of the plurality of avatars may be changed depending on the day of the week or the like.
- the conversation control device 10 fixes the main avatar every day and displays a different avatar for each day of the week as a sub avatar.
- the display mode of the utterance on the chat screen may be a balloon format as shown in FIG. 3, and a plurality of balloons may be output from one avatar. As a result, it is possible to express dynamics and enhance the appealing effect to the user.
- each component of each device shown in the figure is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific forms of distribution and integration of each device are not limited to those shown in the figure. That is, all or a part thereof can be functionally or physically distributed / integrated in an arbitrary unit according to various loads, usage conditions, and the like. Further, each processing function performed by each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.
- FIG. 13 is a diagram illustrating a hardware configuration example.
- the conversation control device 10 includes a communication interface 10a, an HDD (Hard Disk Drive) 10b, a memory 10c, and a processor 10d. Further, the parts shown in FIG. 13 are connected to each other by a bus or the like.
- HDD Hard Disk Drive
- the communication interface 10a is a network interface card or the like, and communicates with other servers.
- the HDD 10b stores a program and a DB that operate the functions shown in FIG.
- the processor 10d is a hardware that operates a process that executes each function described in FIG. 1 or the like by reading a program that executes the same processing as each processing unit shown in FIG. 2 from the HDD 10b or the like and expanding the program into the memory 10c. It is a wear circuit. That is, this process executes the same function as each processing unit of the conversation control device 10. Specifically, the processor 10d reads a program having the same functions as the determination unit 151, the operation unit 152, and the utterance unit 153 from the HDD 10b or the like. Then, the processor 10d executes a process of executing the same processing as the determination unit 151, the operation unit 152, the utterance unit 153, and the like.
- the conversation control device 10 operates as an information processing device that executes the conversation control method by reading and executing the program. Further, the conversation control device 10 can realize the same function as that of the above-described embodiment by reading the program from the recording medium by the medium reading device and executing the read program.
- the program referred to in the other embodiment is not limited to being executed by the conversation control device 10.
- the present invention can be similarly applied when another computer or server executes a program, or when they execute a program in cooperation with each other.
- This program can be distributed via networks such as the Internet.
- this program is recorded on a computer-readable recording medium such as a hard disk, flexible disk (FD), CD-ROM, MO (Magneto-Optical disk), DVD (Digital Versatile Disc), and is recorded from the recording medium by the computer. It can be executed by being read.
- Conversation control device 11
- Communication unit 12
- Input unit 13
- Output unit 14
- Control unit 20
- Terminal device 141
- Script information 142
- Condition information 143
- Avatar information 151
- Decision unit 152
- Operation unit 153
- Speaking unit
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
会話制御装置は、問い合わせサービス等を提供するチャットボットとの会話において、ユーザが入力した発話内容等に応じて、チャットボットが発話するスクリプト、及び1以上の発話主体のキャラクターを決定する。キャラクターには、部下、上長、専門家、初心者といったロール、及びキャラクターの画像であるアバターが対応付けられている。会話制御装置は、決定したスクリプト及びキャラクターを基に、単数又は複数のアバターを表示し、当該アバターに発話をさせる。
Description
本発明は、会話制御プログラム、会話制御方法及び会話制御装置に関する。
従来、音声やテキストにより人間と会話をする自動応答システムが知られている。自動応答システムは、サービスの利用者からの問い合わせの対応に用いられる場合がある。また、自動応答システムにおいて、テキストや音声とともにアバターと呼ばれるキャラクターの画像を出力し、当該アバターが発話をしているように見せる手法が知られている。
しかしながら、上記の手法では、自動応答システムに、ユーザの入力に適合した応答をさせることが難しい場合があるという問題がある。例えば、アバターが1つしか用意されていない場合、そのアバターがユーザの問い合わせ内容にふさわしいとは限らない。
1つの側面では、自動応答システムに、ユーザの入力により適合した応答をさせることを目的とする。
1つの態様において、会話制御プログラムは、チャットボットとの会話においてユーザが入力した情報に応じて、チャットボットが発話するスクリプト、及び1以上の発話主体のキャラクターを決定する処理をコンピュータに実行させる。また、会話制御プログラムは、決定したスクリプト及びキャラクターを基に、チャットボットに発話をさせる処理をコンピュータに実行させる。
1つの側面では、自動応答システムに、ユーザの入力により適合した応答をさせることができる。
以下に、本発明に係る会話制御プログラム、会話制御方法及び会話制御装置の実施例を図面に基づいて詳細に説明する。なお、この実施例により本発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
[機能構成]
図1を用いて、実施例に係る会話制御装置の構成を説明する。図1は、会話制御装置の構成例を示すブロック図である。会話制御装置10は、自動応答システムを実現するための装置である。本実施例では、自動応答システムをチャットボットと呼ぶ。チャットボットは、ユーザが入力した音声やテキストに応じて、所定の情報を音声やテキストによる発話として出力する。
図1を用いて、実施例に係る会話制御装置の構成を説明する。図1は、会話制御装置の構成例を示すブロック図である。会話制御装置10は、自動応答システムを実現するための装置である。本実施例では、自動応答システムをチャットボットと呼ぶ。チャットボットは、ユーザが入力した音声やテキストに応じて、所定の情報を音声やテキストによる発話として出力する。
図1に示すように、会話制御装置10は、端末装置20と接続される。例えば、会話制御装置10は、サーバである。また、端末装置20は、サーバである会話制御装置10とインターネットを介して接続されたPCやスマートフォン等である。
ユーザは、所定のインタフェースを介して、端末装置20に情報を入力する。ユーザは、例えば音声又はテキストにより情報を入力することができる。端末装置20は、入力された情報を会話制御装置10に送信する。会話制御装置10は、送信された情報に基づき、ユーザに対する発話の内容を決定し、決定した発話の内容を端末装置20に対し出力する。
図1に示すように、会話制御装置10は、通信部11、入力部12、出力部13、記憶部14及び制御部15を有する。通信部11は、他の装置との間でのデータの通信を行うためのインタフェースである。通信部11は、例えばNIC(Network Interface Card)である。入力部12は、例えばキーボードやマウス等の入力装置である。出力部13は、ディスプレイやスピーカ等の出力装置である。
また、入力部12及び出力部13は、端末装置20を含む他の装置と接続されるインタフェースであってもよい。その場合、ユーザは、端末装置20を介して、チャットボットへの音声やテキストの入力を行う。また、出力部13は、チャットボットがユーザに提示する画面を端末装置20に出力し、当該画面を端末装置20に表示させる。
記憶部14は、データや制御部15が実行するプログラム等を記憶する記憶装置の一例であり、例えばハードディスクやメモリ等である。記憶部14は、スクリプト情報141、条件情報142及びアバター情報143を記憶する。
スクリプト情報141は、発話のためのスクリプトである。例えば、スクリプトは、発話内容を示すテキストである。チャットボットは、スクリプトをそのまま発話として出力してもよいし、スクリプトに所定の編集を加えたものを出力してもよい。
条件情報142は、後述するアバターを操作するための条件である。チャットボットは、ユーザが入力した情報を条件情報142と照らし合わせ、情報が条件に合致した場合、当該条件に対応するアバターの操作を行う。
アバター情報143は、アバターとして表示される画像に関する情報である。アバターにはキャラクターが対応付けられている。また、各キャラクターにはロールが設定されている。このため、例えば、アバター情報143は、アバターの画像と、キャラクターを識別するための識別情報と、当該キャラクターのロールを示す情報とを組み合わせた情報であってもよい。
制御部15は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部15は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。制御部15は、決定部151、操作部152、及び発話部153を有する。
決定部151は、チャットボットとの会話においてユーザが入力した情報に応じて、チャットボットが発話するスクリプト、及び1以上の発話主体のキャラクターを決定する。決定部151は、ユーザの発話へ応答するためのスクリプトを、スクリプト情報141に含まれるスクリプトの中から決定する。さらに、決定部151は、ユーザが入力した発話内容等を条件情報142の条件と照合し、1以上の発話主体のキャラクターを決定する。
操作部152は、アバターの操作を行う。操作部152は、チャットボットの発話に合わせて、決定する処理によって決定されたキャラクターに対応するアバターを表示する。図2は、アバターの操作を説明する説明図である。図2に示すように、操作部152は、チャット画面に表示されている単数のアバターを、単数の別のアバターに切り替える操作や、アバターを複数にする操作を行うことができる。また、操作部152は、表示するアバターの数を減らす操作を行ってもよい。
操作部152は、チャットボットの発話に合わせて、決定する処理によって決定されたキャラクターに対応するアバターを表示する。操作部152は、決定されたキャラクターが複数である場合はそれぞれのキャラクターに対応する複数のアバターを同一画面内に表示することができる。また、操作部152は、ユーザが入力した情報又はチャットボットの発話に応じて表示するアバターの数を増減させることができる。
発話部153は、決定したスクリプト及びキャラクターを基に、チャットボットに発話をさせる。発話部153は、図2のように、画面上に表示されたアバターから出る吹き出し内に発話のテキストを表示することができる。
決定部151、操作部152及び発話部153の処理によりチャットボットが実現される。ここで、アバターを表示する画面の例を用いて、チャットボットの動作例について説明する。図3から図6は、アバターを表示する画面の例を示す図である。また、以降の説明におけるチャット画面は、出力部13が直接出力するものであってもよいし、出力部13が端末装置20に出力させるものであってもよい。
図3に示すように、チャット画面には、アバター301a、アバター301b、テキスト入力欄302、送信ボタン303、バックログボタン304が表示される。ユーザがテキスト入力欄302にテキストを入力し、送信ボタン303を押下すると、当該テキストがユーザの発話内容として会話制御装置10に入力される。なお、押下とは、マウスのクリックやタッチパネルのタップによりボタンを押す動作を表すものとする。
図3から図6の例では、アバター301aのキャラクターは、「部下」、「初心者」、「非専門家」といったロールを持っている。一方、アバター301bのキャラクターは、「上長」、「上級者」、「専門家」といったロールを持っている。
例えば、ユーザからの質問に対しては、アバター301bが主に回答を行う。そして、アバター301aは、アバター301bによる説明に対し、補足をしたり相づちを打ったりすることでユーザの理解を支援する。
図3に示すように、まず、発話部153は、両方のアバターに、ユーザの発話を促す発話をさせる。ユーザは、テキスト入力欄302に質問を入力し、送信ボタン303を押下する。
ここで、ユーザが入力した「オンラインで買った携帯電話は、すぐ使える?」という質問に対する回答はスクリプト情報141には用意されていないものとする。このとき、決定部151は、ユーザの質問に類似する質問を提示して、その中から選択することを促す発話をするためのスクリプトを決定する。さらに、決定部151は、当該選択を促すスクリプトをアバター301bが発話し、回答者側の心情を演じるスクリプトをアバター301aが発話することを決定する。
図4に示すように、決定部151の決定を受けて、発話部153は、質問の選択肢を提示するとともに、アバター301bに「この中にあるかな?」と発話させる。さらに、発話部153は、アバター301aに「どきどき」と発話させる。
さらに、図5に示すように、決定部151は、提示された質問の選択肢のうち、ユーザが選択した質問に対する回答のスクリプトをアバター301bが発話し、当該回答に対する補足のスクリプトをアバター301aが発話することを決定する。図5の例では、アバター301bは、「電話帳データの移行や電話機の開通、SIMカードの挿入・差し替えが必要となります。」と発話する。その後、アバター301aは、アバター301bの回答を補足するために、「開通は、新規契約・契約変更やSIMカードの形状が変更となった場合に必要です。」と発話する。
さらに、図6にしめすように、ユーザから「SIMの正式名称は?」との質問があった場合、決定部151は、質問に対する回答のスクリプトをアバター301bが発話し、相づちに相当するスクリプトをアバター301aが発話することを決定する。図6の例では、アバター301bは、「SIMの正式名称は、「Subscriber Identity Mobile」です。」と発話する。その後、アバター301aは、アバター301bの回答を補足するために、「なるほど、勉強になります!」と発話する。
また、このとき、操作部152は、アバター301aが相づちを打つようなアニメーションを出力してもよい。このように、操作部152は、複数のアバターのうちのいずれかによる発話に対し、他のアバターが応答するような表示を行うことができる。
このように、本実施例のチャットボットは、複数のアバターのそれぞれのキャラクターにロールを持たせることができる。これにより、ユーザは、現実の回答者と会話をしている状況に近い感覚を覚えることができ、サービスへの満足度を向上する。
図7は、バックログの例を示す図である。バックログボタン304が押下されると、出力部13はバックログ画面を表示する。バックログ画面には、発話内容の履歴と各発話内容の発話主体が表示される。発話主体は、ユーザ及び各アバターである。
また、チャットボットは、様々なシーンに応じてアバターの表示態様を操作することができる。例えば、クレーム対応の際に、当該クレームに関する専任者や窓口担当者の上長のロールを持つアバターに交代することで、ユーザのクレームや不満を補足した上で、ユーザの気持ちを切り替え、対応の画一化を防止することができる。
図8は、アバターとの会話の例を示す図である。チャットボットが提供するチャット画面は、図3から図6のような吹き出しを置き換えていくものであってもよいし、図8のようなタイムライン形式のものであってもよい。図8の符号201が付されたアバターは、ユーザのアバターである。
まず、ユーザ201は、アバター301aに対し質問をする。そして、ユーザ201は、アバター301aからの回答の中で現れた「コリン作動性作用」という用語についてさらに詳細な情報を求める発話をする。ここで、スクリプト情報141には、「コリン作動性作用」について説明するためのスクリプトが含まれていないものとする。このため、アバター301aは、「コリン作動性作用」及び「コリン作動性」についての説明ができない旨の発話をする。
このとき、操作部152は、回答に対するユーザの不満の感情を切り替えるため、アバター301aをアバター301bに変更する。そして、上長のロールを持つアバター301bは、まず、謝罪の発話をした後、ユーザの質問に関連する「コリン作動薬」をWebで検索した結果をユーザに提示する。
このように、チャットボットは、提供する情報の信頼度や回答レベルの違いをアバターの違いにより表現することができる。また、Webでの検索結果は、例えば回答を提示する企業の公式回答ではなく、また信頼性を保証することも難しいため、発話部153は、Webでの検索結果を提示する場合は、そのことを明示して発話する。
ここで、決定部151は、チャットボットとの会話におけるユーザの発話内容、ユーザの発話件数、ユーザが発話した時間帯、ユーザが発話に要した時間等を基にキャラクターを決定することができる。例えば、図8の例では、決定部151は、ユーザの発話内容を基に、上長のロールを持つキャラクターを決定した。また、例えば、決定部151は、発話の時間帯が日中であれば子供のキャラクターを決定し、夜間であれば大人のキャラクターを決定してもよい。また、例えば、決定部151は、ユーザが発話に要した時間が長い場合は、専門家のキャラクターを決定してもよい。例えば、発話部153は、専門家のアバターに、ユーザの思考を補助するような情報を提供する発話をさせる。
また、決定部151は、ユーザによる問い合わせへの回答をチャットボットが有しているか否かによってキャラクターを決定してもよい。図8の例では、「コリン作動性作用」についての質問への回答がなかったため、決定部151は、上長のアバターを決定した。
例えば、ユーザの質問に対し、回答がヒットしないこと、又はユーザの満足度が低い旨の回答をすることが所定回数続いた場合、決定部151は、「上級者」、「専門家」、「上長」のロールを持つキャラクターを決定する。
また、図4のように質問の選択肢を提示し、「この中にはない」という回答がユーザによって所定回数された場合、決定部151は、現在のアバターとは異なるFAQを担当するキャラクターを決定する。
また、ユーザの発話回数が所定数を超えた場合、又はユーザの接続時間が所定の長さを超えた場合、決定部151は、補足情報を与えるアシスタントのロールを持つキャラクターを決定する。
また、ユーザ発話内にNGワード(クレーム等)が含まれていた場合、決定部151は、「上長」、「クレーム担当」のロールを持つキャラクターを決定する。また、ユーザの発話内に特定組織に関するワードが含まれていたら、決定部151は、当該組織を担当するロールを持つキャラクターを決定する。
また、ユーザの発話内に特定の商品や特定の機会に関するワードが含まれていたら、決定部151は、広告又はマーケティングに関するキャラクターを決定する。
また、ユーザが明に特定のキャラクターを呼び出す動きを行ったら、決定部151は、当該キャラクターを決定する。例えば、ユーザは、対訳モデルにおける特定の言語を担当するアバターを呼び出すことが考えられる。
また、新たなアバターや、新たなスクリプトによるシナリオが追加された場合、それらを所定のスケジュールで優先的に決定されるようにしてもよい。これにより、演出の新規性でユーザのリピート利用を促すことができる。
操作部152は、複数のアバターを候補として表示し、ユーザが入力した情報又はチャットボットの発話に応じて、複数のアバターのうちのいずれかを拡大して表示してもよい。図9は、複数のアバターの候補を表示する画面の例を示す図である。
図9に示すように、操作部152は、アバター312a、アバター312b、アバター312c、アバター312dを候補として表示する。そして、決定部151は、ユーザの発話に応じて発話するアバターを候補の中から決定する。ここでは、アバター312a、アバター312b、アバター312c、アバター312dは、野球リーグに所属する各チームのマスコットキャラクターであるものとする。
決定部151は、「A選手が引退したね」というユーザの発話に対し、アバター312bが発話することを決定する。条件情報142には、A選手の所属していたチームが、アバター312bのチームであることが記憶されているものとする。そして、発話部153は、アバター312bに、引退後のA選手に関して、チームの立場から「監督になってくれると嬉しいな」と発話させる。なお、会話の導入部や、リーグ全体に関する話題については、いずれのチームとも対応付けられておらず、全体を包括するロールを持つMCアバター311が発話する。また、チャットサービスを各チームに提供する場合、各チームのアバターが発話した回数に応じてサービス利用のための費用の割合を算出することができる。
また、発話部153は、会話中に広告用のアバターに発話をさせることができる。図10は、会話中に広告を表示するアバターの例を示す図である。図10に示すように、アバター321aは、ユーザ201からのスタジアムに関する質問に回答している。ここで、所定の条件が満たされた場合、決定部151は、広告用のアバター321bを決定し、広告を表示する許可を得るためのスクリプトを決定する。
アバター321bは、調味料に関する広告を表示しようとしていることを提示した上で、ユーザ201に広告表示を許可するか否かを選択させる。そして、ユーザ201が広告表示を許可することを選択した場合、アバター321bは、商品を提示して広告を表示する。このように、アバターがユーザに対して事前に広告表示の可否を尋ねることで、ユーザの気分を害することなく広告を表示することができる。
また、例えば、質問への回答中ではなく、回答が一通り終わったことを広告表示の条件とすることで、ユーザは回答を得た上で広告を見るか否かを判断できるので、広告による満足度の低下を抑止できる。
また、図11に示すように、発話部153は、複数のアバターに、それぞれ異なる言語で同じ内容の発話をさせてもよい。図11は、異なる言語で会話する複数のアバターの例を示す図である。図11の例では、アバター321bが「南宗寺」の説明を日本語で発話している。一方で、アバター321aが、「南宗寺」の説明を英語で発話している。例えば、日本に来た外国人観光客のアテンドがこのような機能を利用して、スムーズなアテンドを行うことができる。また、外国人観光客及びアテンドは、同じ事項に関して互いの言語での表現を学ぶことができる。
[処理の流れ]
図12を用いて、会話制御装置の処理の流れを説明する。図12は、会話制御装置の処理の流れを示すフローチャートである。図12に示すように、まず、会話制御装置10は、ユーザの発話内容の入力を受け付ける(ステップS11)。次に、会話制御装置10は、条件に基づいて、スクリプト及びキャラクターを決定する(ステップS12)。
図12を用いて、会話制御装置の処理の流れを説明する。図12は、会話制御装置の処理の流れを示すフローチャートである。図12に示すように、まず、会話制御装置10は、ユーザの発話内容の入力を受け付ける(ステップS11)。次に、会話制御装置10は、条件に基づいて、スクリプト及びキャラクターを決定する(ステップS12)。
ここで、会話制御装置10は、アバターの操作が必要であるか否かを判定する(ステップS13)。例えば、決定したキャラクターのアバターが現在表示中のアバターと異なるものである場合や、アバターの数が増減する場合に、会話制御装置10は、アバターの操作が必要であると判定する。
会話制御装置10は、アバターの操作が必要であると判定した場合(ステップS13、Yes)、アバターの操作を行い(ステップS14)、ステップS15へ進む。会話制御装置10は、アバターの操作が必要でないと判定した場合(ステップS13、No)、アバターの操作を行わずにステップS15へ進む。そして、会話制御装置10は、決定したスクリプト及びキャラクターを基に発話を行う(ステップS15)。
[効果]
これまで説明してきたように、決定部151は、チャットボットとの会話においてユーザが入力した情報に応じて、チャットボットが発話するスクリプト、及び1以上の発話主体のキャラクターを決定する。発話部153は、決定したスクリプト及びキャラクターを基に、チャットボットに発話をさせる。このように、会話制御装置10は、ユーザの発話に応じて、スクリプトやキャラクターを自動的に決定し発話を制御することができる。この結果、会話制御装置10によれば、自動応答システムに、ユーザの入力により適合した応答をさせることができる。
これまで説明してきたように、決定部151は、チャットボットとの会話においてユーザが入力した情報に応じて、チャットボットが発話するスクリプト、及び1以上の発話主体のキャラクターを決定する。発話部153は、決定したスクリプト及びキャラクターを基に、チャットボットに発話をさせる。このように、会話制御装置10は、ユーザの発話に応じて、スクリプトやキャラクターを自動的に決定し発話を制御することができる。この結果、会話制御装置10によれば、自動応答システムに、ユーザの入力により適合した応答をさせることができる。
決定部151は、チャットボットとの会話におけるユーザの発話内容、ユーザの発話件数、ユーザが発話した時間帯、ユーザが発話に要した時間、ユーザによる問い合わせへの回答をチャットボットが有しているか否か、のうち少なくとも1つを基に、キャラクターを決定する。このように、会話制御装置10は、現実社会の問い合わせ対応等と同様に、様々な発話内容の条件を基に担当者であるキャラクターを変化させることができる。この結果、会話制御装置10によれば、ユーザの満足度を向上させることができる。
操作部152は、チャットボットの発話に合わせて、決定する処理によって決定されたキャラクターに対応するアバターを表示する。この結果、会話制御装置10によれば、現実社会と同様に、発話内容に合った担当者が発話をしているような感覚をユーザに与えることができ、ユーザの満足度を向上させることができる。
操作部152は、決定されたキャラクターが複数である場合はそれぞれのキャラクターに対応する複数のアバターを同一画面内に表示する。また、操作部152は、ユーザが入力した情報又はチャットボットの発話に応じて表示するアバターの数を増減させる。これにより、現実社会と同様に、問い合わせに対しロールの異なる複数の担当者が対応している感覚をユーザに与えることができる。
操作部152は、複数のアバターを候補として表示し、ユーザが入力した情報又はチャットボットの発話に応じて、複数のアバターのうちのいずれかを拡大して表示する。このように、1つの自動応答システムにおいて、複数組織や複数団体が相乗りで問い合わせ回答ができる。その結果、会話制御装置10によれば、サービス範囲が広がると同時に、自動応答システムの運営費用等のコストを頭割りできる。
操作部152は、複数のアバターのうちのいずれかによる発話に対し、他のアバターが応答するような表示を行う。これにより、ユーザは、現実社会と同様に、実際に目の前の担当者同士で会話が行われているような感覚を得ることができる。
[他の実施形態]
例えば、アバターの人物が特定の人種に偏っている場合、人種差別的な意図があるように捉えられてしまう恐れがある。また、そこで、会話制御装置10は、肌の色が異なる複数のアバターを表示するようにしてもよい。同様の理由から、会話制御装置10は、年齢、性別等が異なる複数のアバターを表示するようにしてもよい。
例えば、アバターの人物が特定の人種に偏っている場合、人種差別的な意図があるように捉えられてしまう恐れがある。また、そこで、会話制御装置10は、肌の色が異なる複数のアバターを表示するようにしてもよい。同様の理由から、会話制御装置10は、年齢、性別等が異なる複数のアバターを表示するようにしてもよい。
また、会話制御装置10は、2人のアバターに、漫才を行っているような発話をさせてもよい。例えば、会話制御装置10は、一方のアバターにいわゆるボケを交えた発話をさせ、他方のアバターにツッコミに相当する発話をさせる。
また、複数のアバターのうちのいずれかを、曜日等によって変更するようにしてもよい。例えば、会話制御装置10は、メインのアバターを毎日固定とし、サブのアバターとして曜日ごとに異なるアバターを表示する。
また、チャット画面の発話の表示態様は、図3のような吹き出し形式で、かつ1つのアバターから複数の吹き出しが出るようなものであってもよい。これにより、ダイナミックさを表現し、ユーザへの訴求効果を高めることができる。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。また、実施例で説明した具体例、分布、数値等は、あくまで一例であり、任意に変更することができる。
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。また、実施例で説明した具体例、分布、数値等は、あくまで一例であり、任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア]
図13は、ハードウェア構成例を説明する図である。図13に示すように、会話制御装置10は、通信インタフェース10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図13に示した各部は、バス等で相互に接続される。
図13は、ハードウェア構成例を説明する図である。図13に示すように、会話制御装置10は、通信インタフェース10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図13に示した各部は、バス等で相互に接続される。
通信インタフェース10aは、ネットワークインタフェースカード等であり、他のサーバとの通信を行う。HDD10bは、図2に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10dは、図2に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図1等で説明した各機能を実行するプロセスを動作させるハードウェア回路である。すなわち、このプロセスは、会話制御装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、決定部151、操作部152及び発話部153と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、決定部151、操作部152及び発話部153等と同様の処理を実行するプロセスを実行する。
このように会話制御装置10は、プログラムを読み出して実行することで会話制御方法を実行する情報処理装置として動作する。また、会話制御装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、会話制御装置10によって実行されることに限定されるものではない。例えば、他のコンピュータ又はサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
このプログラムは、インターネット等のネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
10 会話制御装置
11 通信部
12 入力部
13 出力部
14 記憶部
15 制御部
20 端末装置
141 スクリプト情報
142 条件情報
143 アバター情報
151 決定部
152 操作部
153 発話部
11 通信部
12 入力部
13 出力部
14 記憶部
15 制御部
20 端末装置
141 スクリプト情報
142 条件情報
143 アバター情報
151 決定部
152 操作部
153 発話部
Claims (9)
- チャットボットとの会話においてユーザが入力した情報に応じて、前記チャットボットが発話するスクリプト、及び1以上の発話主体のキャラクターを決定し、
決定したスクリプト及びキャラクターを基に、前記チャットボットに発話をさせる
処理をコンピュータに実行させることを特徴とする会話制御プログラム。 - 前記決定する処理は、前記チャットボットとの会話における前記ユーザの発話内容、前記ユーザの発話件数、前記ユーザが発話した時間帯、前記ユーザが発話に要した時間、前記ユーザによる問い合わせへの回答を前記チャットボットが有しているか否か、のうち少なくとも1つを基に、前記キャラクターを決定する
ことを特徴とする請求項1に記載の会話制御プログラム。 - 前記チャットボットの発話に合わせて、前記決定する処理によって決定されたキャラクターに対応するアバターを表示する
処理をさらに実行させることを特徴とする請求項1に記載の会話制御プログラム。 - 前記表示する処理は、前記決定されたキャラクターが複数である場合はそれぞれのキャラクターに対応する複数のアバターを同一画面内に表示することを特徴とする請求項3に記載の会話制御プログラム。
- 前記表示する処理は、前記情報又は前記チャットボットの発話に応じて表示するアバターの数を増減させることを特徴とする請求項3に記載の会話制御プログラム。
- 前記表示する処理は、複数のアバターを候補として表示し、前記情報又は前記チャットボットの発話に応じて、前記複数のアバターのうちのいずれかを拡大して表示することを特徴とする請求項3に記載の会話制御プログラム。
- 前記表示する処理は、複数のアバターのうちのいずれかによる発話に対し、他のアバターが応答するような表示を行うことを特徴とする請求項3に記載の会話制御プログラム。
- チャットボットとの会話においてユーザが入力した情報に応じて、前記チャットボットが発話するスクリプト、及び1以上の発話主体のキャラクターを決定し、
決定したスクリプト及びキャラクターを基に、前記チャットボットに発話をさせる
処理をコンピュータが実行することを特徴とする会話制御方法。 - チャットボットとの会話においてユーザが入力した情報に応じて、前記チャットボットが発話するスクリプト、及び1以上の発話主体のキャラクターを決定する決定部と、
決定したスクリプト及びキャラクターを基に、前記チャットボットに発話をさせる発話部と、
を有することを特徴とする会話制御装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021563517A JP7334800B2 (ja) | 2019-12-11 | 2019-12-11 | 会話制御プログラム、会話制御方法及び会話制御装置 |
PCT/JP2019/048519 WO2021117166A1 (ja) | 2019-12-11 | 2019-12-11 | 会話制御プログラム、会話制御方法及び会話制御装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/048519 WO2021117166A1 (ja) | 2019-12-11 | 2019-12-11 | 会話制御プログラム、会話制御方法及び会話制御装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2021117166A1 true WO2021117166A1 (ja) | 2021-06-17 |
Family
ID=76330025
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2019/048519 WO2021117166A1 (ja) | 2019-12-11 | 2019-12-11 | 会話制御プログラム、会話制御方法及び会話制御装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7334800B2 (ja) |
WO (1) | WO2021117166A1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019045902A (ja) * | 2017-08-29 | 2019-03-22 | 中部電力株式会社 | 情報処理システム、方法、およびプログラム |
KR20190059731A (ko) * | 2017-11-23 | 2019-05-31 | 주식회사 케이티 | 멀티 도메인 기반의 챗봇 시스템 및 챗봇 서비스 제공 방법 |
JP2019091387A (ja) * | 2017-11-14 | 2019-06-13 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
WO2019220518A1 (ja) * | 2018-05-14 | 2019-11-21 | 富士通株式会社 | 回答プログラム、回答方法および回答装置 |
-
2019
- 2019-12-11 JP JP2021563517A patent/JP7334800B2/ja active Active
- 2019-12-11 WO PCT/JP2019/048519 patent/WO2021117166A1/ja active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019045902A (ja) * | 2017-08-29 | 2019-03-22 | 中部電力株式会社 | 情報処理システム、方法、およびプログラム |
JP2019091387A (ja) * | 2017-11-14 | 2019-06-13 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
KR20190059731A (ko) * | 2017-11-23 | 2019-05-31 | 주식회사 케이티 | 멀티 도메인 기반의 챗봇 시스템 및 챗봇 서비스 제공 방법 |
WO2019220518A1 (ja) * | 2018-05-14 | 2019-11-21 | 富士通株式会社 | 回答プログラム、回答方法および回答装置 |
Non-Patent Citations (1)
Title |
---|
OGAWA, TAKEFUMI,: "Conference Support System Using Pseudo - 3D Space on the WWW", IEICE TECHNICAL REPORT, vol. 100, no. 91, 19 May 2000 (2000-05-19), pages 55 - 60 * |
Also Published As
Publication number | Publication date |
---|---|
JP7334800B2 (ja) | 2023-08-29 |
JPWO2021117166A1 (ja) | 2021-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Pearl | Designing voice user interfaces: Principles of conversational experiences | |
JP6719747B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
US11183187B2 (en) | Dialog method, dialog system, dialog apparatus and program that gives impression that dialog system understands content of dialog | |
Warnicke et al. | Turn-organisation in mediated phone interaction using Video Relay Service (VRS) | |
JP6719741B2 (ja) | 対話方法、対話装置、及びプログラム | |
JP6699010B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
WO2021196614A1 (zh) | 一种信息的交互方法、交互装置、电子设备及存储介质 | |
WO2017200078A1 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
WO2020070923A1 (ja) | 対話装置、その方法、およびプログラム | |
Shoba et al. | ‘Locally acquired foreign accent’(LAFA) in contemporary Ghana | |
WO2020027073A1 (ja) | 情報処理装置および情報処理方法 | |
JP2022531994A (ja) | 人工知能ベースの会話システムの生成および動作 | |
JP2018181018A (ja) | 会話提供装置、会話提供方法及びプログラム | |
WO2021117166A1 (ja) | 会話制御プログラム、会話制御方法及び会話制御装置 | |
Meck | Communication and trust: A linguistic analysis | |
US11318373B2 (en) | Natural speech data generation systems and methods | |
KR20220136844A (ko) | 녹음 또는 녹화를 위한 고객의 사전 동의를 취득하는 방법 및 그 장치 | |
KR20220136846A (ko) | 고객 또는 영업 직원의 음성과 얼굴 이미지를 분석하여 피드백을 주는 방법 및 그 장치 | |
WO2021064947A1 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
JP7530688B1 (ja) | プログラム、コンピュータ、システムおよび情報処理方法 | |
JP7575977B2 (ja) | 複数のキャラクタを用いて対話するエージェントのプログラム、装置及び方法 | |
WO2022239053A1 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
US20230239401A1 (en) | Captioned telephone service system having text-to-speech and answer assistance functions | |
Lau | Compliment Responses in Vietnamese: The Influence of Genre and Context on Gender and Region | |
Davé | South Asians and the Call Center Narrative: Accents and Cross-Cultural Communication in TV’s Outsourced |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19955751 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2021563517 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19955751 Country of ref document: EP Kind code of ref document: A1 |