WO2022113951A1 - サーバ、制御方法および制御プログラム - Google Patents

サーバ、制御方法および制御プログラム Download PDF

Info

Publication number
WO2022113951A1
WO2022113951A1 PCT/JP2021/042844 JP2021042844W WO2022113951A1 WO 2022113951 A1 WO2022113951 A1 WO 2022113951A1 JP 2021042844 W JP2021042844 W JP 2021042844W WO 2022113951 A1 WO2022113951 A1 WO 2022113951A1
Authority
WO
WIPO (PCT)
Prior art keywords
conversation
control unit
information
user
server
Prior art date
Application number
PCT/JP2021/042844
Other languages
English (en)
French (fr)
Inventor
裕樹 伊東
薫 倉田
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Publication of WO2022113951A1 publication Critical patent/WO2022113951A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]

Definitions

  • This application relates to servers, control methods and control programs.
  • Patent Document 1 discloses a dialogue system that presents an open utterance, accepts the user's utterance for the open utterance, and determines the utterance based on the user's utterance content.
  • the server includes first conversation information indicating a first conversation having at least one directionality, and second conversation information indicating a second conversation having at least one directionality. It is provided with a storage unit for storing the first conversation information and an output control unit for outputting the second conversation information after the user's electronic device outputs the first conversation information.
  • the control method is a control method executed by a server capable of communicating with the user's electronic device, and includes a first conversation information indicating a first conversation having at least one directionality.
  • the second conversation information indicating the second conversation having at least one directionality is stored in the storage unit, and after the electronic device of the user is made to output the first conversation information, the second conversation information is stored. Includes outputting conversation information.
  • the control program tells the computer a first conversation information indicating a first conversation having at least one directionality and a second conversation indicating a second conversation having at least one directionality.
  • the conversation information is stored in the storage unit, and the user's electronic device is made to output the first conversation information and then the second conversation information.
  • FIG. 1 is a diagram showing an example of a system including a server according to an embodiment.
  • FIG. 2 is a diagram showing an example of a phase managed by the server shown in FIG.
  • FIG. 3 is a diagram showing an example of the first conversation information and the second conversation information managed by the server shown in FIG.
  • FIG. 4 is a diagram for explaining an example of the relationship between the scenario conversation of the server and the log according to the embodiment.
  • FIG. 5 is a diagram showing an example in which a server according to an embodiment displays a message on an electronic device.
  • FIG. 6 is a diagram showing an example of the configuration of the electronic device according to the embodiment.
  • FIG. 7 is a diagram showing an example of the configuration of the server according to the embodiment.
  • FIG. 1 is a diagram showing an example of a system including a server according to an embodiment.
  • FIG. 2 is a diagram showing an example of a phase managed by the server shown in FIG.
  • FIG. 3 is a diagram showing an example of the first conversation information and the second
  • FIG. 8 is a diagram for explaining an example of the change talk and the maintenance talk according to the embodiment.
  • FIG. 9 is a flowchart showing an example of output control executed by the server according to the embodiment.
  • FIG. 10 is a flowchart showing an example of the morning conversation process shown in FIG.
  • FIG. 11 is a flowchart showing an example of the daytime conversation process shown in FIG.
  • FIG. 12 is a flowchart showing an example of the night conversation process shown in FIG.
  • FIG. 13 is a flowchart showing an example of the transition control of Phase 1 executed by the server according to the embodiment.
  • FIG. 14 is a flowchart showing an example of the transition control of Phase 2 executed by the server according to the embodiment.
  • FIG. 15 is a flowchart showing an example of the transition control of the phase 3 executed by the server according to the embodiment.
  • FIG. 16 is a flowchart showing an example of the transition control of the phase 4 executed by the server according to the embodiment.
  • FIG. 17 is a diagram for explaining the transition operation of the phase executed by the server according to the embodiment.
  • FIG. 18 is a diagram for explaining other migration operations of the phase executed by the server according to the embodiment.
  • FIG. 1 is a diagram showing an example of a system including a server according to an embodiment.
  • FIG. 2 is a diagram showing an example of a phase managed by the server shown in FIG.
  • FIG. 3 is a diagram showing an example of the first conversation information and the second conversation information managed by the server shown in FIG.
  • the system 1 shown in FIG. 1 has a function of supporting the solution of the problem that the user U has by exchanging a chat with the user U and a directional conversation.
  • the system 1 includes an electronic device 100 that can be operated by the user U, and a server 200.
  • the electronic device 100 and the server 200 are configured to be able to communicate with each other via the network 400.
  • the electronic device 100 includes, for example, a smartphone, a personal computer, a head-mounted display, a tablet terminal, a television receiver, a game machine, and the like.
  • the electronic device 100 has a display unit 110 capable of displaying various information to the user U.
  • the electronic device 100 has, for example, a function of displaying information instructed by the server 200 on the display unit 110, a function of transmitting information acquired from the user U to the server 200, and the like.
  • the server 200 is, for example, a cloud server.
  • the server 200 is realized, for example, by a computer executing a program.
  • the server 200 can provide functions related to dialogue with the user U, support for improving the problems of the user U, and the like in cooperation with the electronic device 100.
  • the server 200 can provide, for example, a chat function for displaying a message indicating conversation information and a message obtained from the user U on the electronic device 100 in chronological order.
  • the server 200 can provide a function of recognizing a behavior change of the user U based on an answer or the like obtained from the user U and providing support suitable for the behavior change.
  • Behavior change means, for example, a change in the behavioral aspect of the user U.
  • the server 200 realizes conversations suitable for a plurality of stages until the behavior change of the user U is established.
  • the 1QAR method is a method in which a Question (question), an Answer (answer), and a Response (answer) are spoken as one set.
  • the server 200 operates the conversation scenario for the user U by dividing it into a plurality of phases.
  • the conversation scenario for example, the scenario of the conversation may be defined by the program, or the scenario information indicating the order of the conversation may be used.
  • the conversation scenario is, for example, a scenario in which a conversation is performed according to a time division.
  • the time division includes, but is not limited to, for example, the morning of 5:00 to 10:59, the daytime of 11:00 to 15:59, and the night division of 16:00 to 4:59.
  • the server 200 can provide a function of recognizing the behavior change of the user U and having a conversation suitable for each stage in each of the stages of Phase 1, Phase 2, Phase 3, Phase 4, and Phase 5. ..
  • Phase 1 is, for example, a phase aimed at involving user U.
  • Phase 1 is, for example, a phase in which a conversation is held with an attitude of understanding the user U at the stage of being involved with the user U, and a conversation is held in which the user U is interested in and notices the user U.
  • the server 200 causes the electronic device 100 to output a conversation focusing on confirmation conversation, for example.
  • the confirmation conversation includes, for example, a conversation in which it is possible to confirm whether or not the conversation with the user U is established.
  • Phase 2 is, for example, a phase aimed at drawing out the desire to improve from the user U.
  • Phase 2 is, for example, a phase in which a conversation is held to elicit a desire to improve from the user U.
  • the server 200 causes the electronic device 100 to output a conversation focusing on an intervention conversation, for example.
  • the intervention conversation includes, for example, a conversation that elicits a desire to improve from the user U.
  • Phase 3 is, for example, a phase aimed at creating an opportunity for user U to take action.
  • Phase 3 is, for example, a phase in which a conversation is held to create a trigger for the behavior change of the user U.
  • the server 200 causes the electronic device 100 to output a conversation focusing on an intervention conversation, for example.
  • Intervention conversations include, for example, conversations that trigger actions to improve.
  • Phase 4 is a phase aimed at giving the user U a feeling that the behavior has been changed, for example.
  • Phase 4 is, for example, a phase in which a conversation is performed to support the execution of the behavior change of the user U.
  • the server 200 causes the electronic device 100 to output, for example, an intervention conversation and a conversation focusing on recommendations.
  • Intervention conversations include, for example, conversations that give the feeling that behavior has been changed.
  • the recommendation includes, for example, a conversation for recommending an action, an article, or the like in order to give the user U a real feeling.
  • Phase 5 is, for example, a phase aimed at watching the new habits take root in the user U.
  • Phase 5 is, for example, a phase in which a conversation aimed at establishing behavior change is conducted.
  • the server 200 causes the electronic device 100 to output, for example, a conversation focusing on recommendations and content guidance.
  • Recommendations include, for example, conversations for recommending behaviors, articles, etc. in order to establish behavior change.
  • Content guidance includes, for example, conversations that guide content to establish behavior change.
  • the server 200 can provide a function of notifying the user U that there are a plurality of phases in stages until the behavior change of the user U becomes established.
  • the server 200 can migrate the phases in the order of Phase 1, Phase 2, Phase 3, Phase 4, and Phase 5.
  • the server 200 can provide a function of automatically shifting from the current phase to the next phase based on the conversation with the user U.
  • the server 200 may combine a plurality of phases into one phase.
  • the server 200 can provide a function to return from the current phase to the previous phase.
  • the server 200 manages a database including, for example, the first conversation information 310, the second conversation information 320, the answer information 500, and the like.
  • the server 200 manages, for example, the first conversation information 310 and the second conversation information 320 in association with each of Phase 1, Phase 2, Phase 3, Phase 4, and Phase 5.
  • the first conversation information 310 includes, for example, information capable of outputting a conversation having no directivity.
  • the conversation having no directivity means, for example, a conversation not aimed at improving the problem of the user U, a conversation for chatting, and the like.
  • the second conversation information 320 includes, for example, information capable of outputting a conversation having directivity.
  • the directional conversation means, for example, a conversation aimed at improving the problem of the user U.
  • the second conversation information 320 includes, for example, information capable of outputting a conversation for the purpose of lifestyle, living environment, taste, stress check, workplace diagnosis, content introduction, and the like.
  • the first conversation information 310 and the second conversation information 320 include, for example, information indicating a conversation of a question, an answer, and a response for each time zone, season, and the like.
  • the first conversation information 310 includes, for example, a first conversation such as a greeting, a chat, news, weather, a quiz, and play.
  • the first conversation includes, for example, a conversation that changes depending on whether it is seconds, hours, days, months, or years.
  • a conversation that changes with either seconds, hours, days, months, or years means, for example, a conversation that changes part of the conversation with either seconds, hours, days, months, or years.
  • the first conversation can be a conversation in which a character string suitable for a dialogue time zone, date and time, season, and the like is set.
  • the first conversation information 310 and the second conversation information 320 have a question item D1, an answer item D2, and a response item D3.
  • the question item D1 includes information indicating the content of the question to the user U.
  • the answer item D2 includes information indicating a plurality of answers selected by the user U.
  • the response item D3 includes information indicating a response to the answer selected by the user U.
  • the response item D3 includes information indicating a response corresponding to each of the plurality of responses of the response item D2.
  • the information indicating the conversation of "Good morning! It's a new morning!” Is set in the question item D1.
  • information indicating three options of "(a) good morning! (B) hmm! (C) goodbye! Is set in the answer item D2.
  • information indicating three responses of "(a) Thank you for coming! (B) Thank you for coming! (C) See you again! Is set in the response item D3.
  • the second conversation information 320 is, for example, conversation information for a user U who has a problem with weight.
  • information indicating the conversation "Did you drink yesterday?” Is set in the question item D1.
  • information indicating two options of "(a) yes (b) no" is set in the answer item D2.
  • information indicating three responses of "(a) Is it refreshed? (B) As expected! Is set in the response item D3.
  • the server 200 can provide a function of collecting the response information 500 of the user U by using the first conversation information 310 and the second conversation information 320.
  • the answer information 500 includes, for example, information that can identify the contents of the question item D1, the answer item D2, the response item D3, and the like.
  • the answer information 500 includes, for example, information that can identify whether or not there is an answer to the question.
  • the response information 500 includes information that can identify the date and time when a conversation such as a question, an answer, or a response is performed.
  • FIG. 4 is a diagram for explaining an example of the relationship between the scenario conversation of the server 200 and the log according to the embodiment.
  • the server 200 realizes a scenario conversation by using, for example, the scenario information 300 shown in FIG.
  • the scenario information 300 has items such as a scenario number, a scenario conversation, and a type of conversation information.
  • the scenario number indicates the order of the scenarios.
  • information indicating the type of the scenario conversation such as greeting / chat, directional conversation (1), directional conversation (2), directional conversation (3), and greeting is set.
  • the type of the first conversation information 310 or the second conversation information 320 used in the conversation is set.
  • information that can identify the first conversation information 310 or the second conversation information 320 used in the scenario conversation is set.
  • the scenario information 300 shows a scenario in which a greeting / chat, a directional conversation (1), a directional conversation (2), a directional conversation (3), and a greeting are performed in this order.
  • the scenario information 300 indicates that the first conversation information 310 is used in the greeting / chat and the scenario conversation of the greeting.
  • the scenario information 300 indicates that the second conversation information 320 according to the phase is used in the scenario conversations of the directional conversation (1), the directional conversation (2), and the directional conversation (3).
  • the server 200 Based on the scenario information 300, the server 200 performs a scenario conversation in the order of greeting / chat, directional conversation (1), directional conversation (2), directional conversation (3), and greeting. Controls the output of.
  • the server 200 has a function of creating log information 330 indicating a log indicating whether or not the scenario conversation is executed by the electronic device 100.
  • the log information 330 has items such as a scenario number and a log. In the item of the scenario number of the log information 330, for example, information indicating the scenario number of the corresponding scenario information 300 is set. In the log item of the scenario of the log information 330, for example, information indicating whether or not the scenario conversation corresponding to the scenario number has been executed is set.
  • the log item of the scenario of the log information 330 may be configured to set information indicating, for example, the date and time when the conversation was executed.
  • the scenario information 300 has been described as a scenario showing greeting / chat, directional conversation (1), directional conversation (2), directional conversation (3), and greeting. Not limited to.
  • the scenario information 300 may change the number of directional conversations according to the type of phase.
  • the server 200 will explain an example of a case where the server 200 supports the improvement of the problem by targeting the user U who has a problem with the body weight.
  • FIG. 5 is a diagram showing an example in which the server 200 according to the embodiment displays a message on the electronic device 100.
  • the electronic device 100 is executing the chatbot application. Chatbots can, for example, provide the ability to select and talk to scenarios and set answers. The chatbot does not present a solution to the user U, but acts as a listener, and by empathizing and understanding, the user U himself can realize counseling that promotes growth and transformation.
  • the application is executed by the user U, the electronic device 100 logs in to the server 200, and the user U starts using the server 200 from the electronic device 100.
  • the server 200 recognizes the user U and the phase, and displays the message screen 600 on the display unit 110 of the electronic device 100.
  • the server 200 acquires the scenario information 300 according to the logged-in time division, and starts a conversation with the user U based on the scenario information 300.
  • the server 200 controls the electronic device 100 so that the avatar 610 and the conversation message 620 indicated by the first conversation information 310 regarding the greeting are associated and displayed on the message screen 600.
  • the server 200 causes the electronic device 100 to display a message 620 indicating a conversation in a time division in which the user U logs in (accesses) to the server 200.
  • the message 620 is displayed as a balloon of the avatar 610.
  • the server 200 controls the electronic device 100 so that the message 630 indicating the plurality of options indicated by the response item D2 of the first conversation information 310 is displayed on the message screen 600 in association with the message 620.
  • the electronic device 100 displays a message screen 600 of "Mr. Sato, good morning! It's a new morning! And three messages 630 indicating the choices of "Good morning!, "Hmm” and "Goodbye!. Display on.
  • the electronic device 100 transmits the response information 500 indicating that the message 630 of "Hmm” is selected to the server 200.
  • the server 200 controls the electronic device 100 so that the message 640 indicating the answer of "Hmm” of the answer information 500 is displayed on the message screen 600 as the answer of the user U.
  • the electronic device 100 displays the message 640 of "Hmm” as the answer of the user U so as to be blown out from the right side of the message screen 600.
  • the server 200 Based on the scenario information 300, the server 200 extracts the response corresponding to "Hmm" from the first conversation information 310, and controls the electronic device 100 so that the message 640 of the response is displayed on the message screen 600. As a result, the electronic device 100 displays the message 620 of "Thank you for coming!” On the message screen 600 as a conversation of the avatar 610.
  • the scenario number SN1 of the scenario information 300 indicates a chat conversation following the greeting. Therefore, the server 200 controls the electronic device 100 so that the avatar 610 and the message 620 indicating the chat conversation indicated by the first conversation information 310 are associated and displayed on the message screen 600. The server 200 controls the electronic device 100 so that the message 630 indicating the answer option indicated by the first conversation information 310 is displayed on the message screen 600 in association with the message 620. As a result, the electronic device 100 displays a message screen 600 of "Tofu day is today" and three messages 630 indicating the choices of "I knew", “I didn't know” and "Goodbye!. To display.
  • the electronic device 100 transmits the response information 500 indicating that the message 630 of "I did not know” was selected to the server 200.
  • the server 200 controls the electronic device 100 so that the message 630 indicating the "did not know” answer of the answer information 500 is displayed on the message screen 600 as the answer of the user U.
  • the electronic device 100 displays the message 640 of "I did not know” as the answer of the user U so as to be blown out from the right side of the message screen 600.
  • the server 200 Based on the scenario information 300, the server 200 extracts the response corresponding to the "did not know” selected by the user U from the first conversation information 310, and displays the message 620 of the response on the message screen 600. Controls the electronic device 100. As a result, the electronic device 100 displays the message 620 of "It's a new discovery! On the message screen 600 as a conversation of the avatar 610.
  • the server 200 starts the process of controlling the scenario conversation of the directional conversation (1) of the scenario number SN2 based on the scenario information 300.
  • the server 200 controls the electronic device 100 so that the avatar 610 and the message 620 of the conversation related to the directional conversation (1) are associated and displayed on the message screen 600.
  • the server 200 controls the electronic device 100 so that, for example, the message 630 indicating the answer option indicated by the answer item D2 of the second conversation information 320 is displayed on the message screen 600 in association with the message 620.
  • the electronic device 100 displays a message 620 of "Did you drink yesterday?" And two messages 630 indicating "No" and "Yes” options on the message screen 600.
  • the electronic device 100 transmits the response information 500 indicating that the “Yes” message 630 has been selected to the server 200.
  • the server 200 extracts a response corresponding to "Yes” selected by the user U from the second conversation information 320 based on the scenario information 300, and displays the message 620 of the response on the message screen 600.
  • Control 100 As a result, the electronic device 100 displays the message 620 of "Is it refreshed?" On the message screen 360 as a conversation of the avatar 610.
  • the server 200 realizes a scenario conversation with the user U by combining the conversation between the first conversation information 310 and the second conversation information 320 based on the scenario information 300.
  • the server 200 can collect the answer information 500 obtained by the chat with the user U and the directional conversation in association with the displayed conversation.
  • the server 200 executes the conversation of the scenario numbers SN1 and SN2, and creates the log information 330 indicating that the subsequent scenario conversations are not executed.
  • FIG. 6 is a diagram showing an example of the configuration of the electronic device 100 according to the embodiment.
  • the electronic device 100 includes a display unit 110, an operation unit 120, an output unit 130, a sensor unit 140, a communication unit 150, a storage unit 160, and a control unit 170.
  • the control unit 170 is electrically connected to the display unit 110, the operation unit 120, the output unit 130, the sensor unit 140, the communication unit 150, the storage unit 160, and the like.
  • the display unit 110 has, for example, a display panel such as a liquid crystal display (Liquid Crystal Display) or an organic EL display (Organic Electro-Luminence Display).
  • the display unit 110 can display information such as characters, figures, and images according to the signal input from the control unit 170.
  • the information displayed by the display unit 110 includes various information such as the first conversation information 310, the second conversation information 320, and the response information 500 described above.
  • the operation unit 120 has one or more devices for accepting user operations.
  • Devices for accepting user operations include, for example, keys, buttons, touch screens, and the like.
  • the operation unit 120 can supply a signal corresponding to the received operation to the control unit 170.
  • the output unit 130 can output a sound signal input from the control unit 170 as sound.
  • the output unit 130 has, for example, a stereo speaker, a surround speaker, and the like.
  • the output unit 130 can output a monaural signal, a stereo signal, a surround signal, or the like input from the control unit 170 to the outside.
  • the sensor unit 140 can acquire various acquired information such as sounds and images related to the user U and the surroundings.
  • the sensor unit 140 includes, for example, a camera, a microphone, and the like.
  • the sensor unit 140 may include various sensors such as a geomagnetic sensor, a touch sensor, an infrared sensor, a temperature sensor, and a humidity sensor.
  • the sensor unit 140 can supply the acquired acquired information to the control unit 170.
  • the sensor unit 140 can supply the control unit 170 with acquired information indicating the voice of the user U acquired by the microphone.
  • the sensor unit 140 can supply the control unit 170 with acquired information indicating the image, video, etc. of the user U acquired by the camera.
  • the communication unit 150 can communicate with, for example, a server 200, another electronic device 100, and the like.
  • the communication unit 150 can support various communication standards.
  • the communication unit 150 can transmit and receive various information via, for example, a wired or wireless network.
  • the communication unit 150 can supply the received information to the control unit 170.
  • the communication unit 150 can transmit information to the destination specified by the control unit 170.
  • the storage unit 160 can store programs and data.
  • the storage unit 160 is also used as a work area for temporarily storing the processing result of the control unit 170.
  • the storage unit 160 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium.
  • the storage unit 160 may include a plurality of types of storage media.
  • the storage unit 160 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk, and a reading device for the storage medium.
  • the storage unit 160 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).
  • the storage unit 160 can store, for example, the program 161 and the first conversation information 310, the second conversation information 320, the answer information 500, and the like.
  • the program 161 includes an application and a control program that supports the operation of the application.
  • the application can provide, for example, a function for realizing a conversation with the user U in cooperation with the server 200.
  • the application causes, for example, display a screen on the display unit 110, and causes the control unit 170 to execute a process according to a gesture detected via the touch screen of the operation unit 120.
  • the control program is, for example, an OS.
  • the application and control program may be installed in the storage unit 160 via wireless communication by the communication unit 150 or a non-transient storage medium.
  • the first conversation information 310 includes, for example, information indicating a conversation such as a chat received from the server 200 and a plurality of options corresponding to the conversation.
  • the second conversation information 320 includes, for example, information indicating a directional conversation received from the server 200 and a plurality of options corresponding to the conversation.
  • the answer information 500 includes, for example, information indicating the answer of the user U acquired via the operation unit 120.
  • the storage unit 160 can store the first conversation information 310, the second conversation information 320, the answer information 500, and the like in chronological order.
  • the control unit 170 is an arithmetic processing device.
  • the arithmetic processing unit includes, for example, a CPU (Central Processing Unit), a System (System-on-a-Chip), an MCU (Micro Control Unit), an FPGA (Field-Programmable Gate Array), and a coprocessor. Not limited.
  • the control unit 170 comprehensively controls the operation of the electronic device 100 to realize various functions.
  • control unit 170 executes an instruction included in the program 161 stored in the storage unit 160 while referring to the information stored in the storage unit 160 as necessary. Then, the control unit 170 controls the functional unit according to the data and the instruction, thereby realizing various functions.
  • the functional unit includes, but is not limited to, for example, a display unit 110, an operation unit 120, an output unit 130, a sensor unit 140, and a communication unit 150.
  • the control unit 170 causes the display unit 110 to display a message indicating the conversations, options, etc.
  • the control unit 170 detects the user U's selection for the option via the operation unit 120, the control unit 170 controls to transmit the response information 500 indicating the selection result of the option to the server 200.
  • the functional configuration example of the electronic device 100 according to the present embodiment has been described above.
  • the above configuration described with reference to FIG. 6 is merely an example, and the functional configuration of the electronic device 100 according to the present embodiment is not limited to such an example.
  • the functional configuration of the electronic device 100 according to the present embodiment can be flexibly modified according to specifications and operations.
  • FIG. 7 is a diagram showing an example of the configuration of the server 200 according to the embodiment.
  • the server 200 includes a display unit 210, an operation unit 220, a communication unit 230, a storage unit 240, and a control unit 250.
  • the control unit 250 is electrically connected to the display unit 210, the operation unit 220, the communication unit 230, the storage unit 240, and the like.
  • the display unit 210 is configured to be able to display various information under the control of the control unit 250.
  • the display unit 210 has, for example, a display panel such as a liquid crystal display or an organic EL display.
  • the display unit 210 displays information such as characters, figures, and images according to the signal input from the control unit 250.
  • the operation unit 220 has one or more devices for accepting user operations.
  • Devices for accepting user operations include, for example, keys, buttons, touch screens, and the like.
  • the operation unit 220 can supply a signal corresponding to the received operation to the control unit 250.
  • the communication unit 230 can communicate with, for example, an electronic device 100, another communication device, or the like.
  • the communication unit 230 can support various communication standards.
  • the communication unit 230 can transmit and receive various information via, for example, a wired or wireless network.
  • the communication unit 230 can supply the received information to the control unit 250.
  • the communication unit 230 can transmit information to the destination specified by the control unit 250.
  • the storage unit 240 can store programs and data.
  • the storage unit 240 is also used as a work area for temporarily storing the processing result of the control unit 250.
  • the storage unit 240 may include any non-transient storage medium such as a semiconductor storage medium and a magnetic storage medium.
  • the storage unit 240 may include a plurality of types of storage media.
  • the storage unit 240 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk, and a reading device for the storage medium.
  • the storage unit 240 may include a storage device used as a temporary storage area such as a RAM.
  • the storage unit 240 can store, for example, a program 241, a scenario information 300, a first conversation information 310, a second conversation information 320, a log information 330, an answer information 500, and the like.
  • the program 241 causes the control unit 250 to execute various control-related functions for realizing a conversation with the user U in cooperation with the electronic device 100.
  • the scenario information 300 is information indicating a scenario, a rule, and the like of a conversation between the user U and the server 200.
  • the storage unit 240 may realize a database by storing a plurality of first conversation information 310 and second conversation information 320, or store the first conversation information 310 and the second conversation information 320 acquired from the database. You may.
  • the log information 330 includes, for example, information indicating a log of a conversation, a question, an answer, a response, and the like.
  • the response information 500 is, for example, information received from the electronic device 100 via the communication unit 230.
  • the response information 500 is associated with, for example, information that can identify the user U, the electronic device 100, and the like.
  • the control unit 250 is an arithmetic processing device. Arithmetic processing devices include, but are not limited to, for example, CPUs, SoCs, MCUs, FPGAs, and coprocessors. The control unit 250 can comprehensively control the operation of the server 200 and realize various functions.
  • control unit 250 can execute an instruction included in the program 241 stored in the storage unit 240 while referring to the information stored in the storage unit 240 as necessary. Then, the control unit 250 can control the function unit according to the data and the instruction, thereby realizing various functions.
  • the functional unit includes, but is not limited to, the display unit 210 and the communication unit 230, for example.
  • the control unit 250 has functional units such as a discrimination unit 251, a determination unit 252, a question unit 253, a counting unit 254, and an output control unit 255.
  • the control unit 250 realizes functions such as a discrimination unit 251, a determination unit 252, a question unit 253, a counting unit 254, and an output control unit 255 by executing the program 241.
  • the program 241 is a program for making the control unit 250 of the server 200 function as a discrimination unit 251, a determination unit 252, a question unit 253, a counting unit 254, and an output control unit 255.
  • the discrimination unit 251 determines whether the answer to the question obtained from the user U is the first type of answer or the second type of answer.
  • the determination unit 251 determines whether the answer is the first type of answer or the second type of answer, based on, for example, the response information of the user U acquired via the electronic device 100.
  • the first type of answer includes, for example, change talk.
  • the change talk includes all statements in favor of the changes expressed by User U himself.
  • the second type of answer includes, for example, maintenance talk.
  • the maintenance talk includes, for example, all of the status quo statements against change.
  • FIG. 8 is a diagram for explaining an example of the change talk and the maintenance talk according to the embodiment.
  • the change talk includes, for example, a preparatory change talk and an execution change talk.
  • the preparatory change talk includes, for example, the remark of the user U, which is unlikely to cause behavior change but causes the execution change talk.
  • Execution change talk includes, for example, a statement that is a sign of actual execution.
  • Preparation change talk includes, for example, classification of desires, abilities, reasons, needs, etc.
  • Wishes include, for example, change talks such as wanting to lose weight.
  • the maintenance talk for the change talk of desire includes, for example, remarks such as not wanting to exercise.
  • Abilities include change talks, such as being able to walk.
  • the maintenance talk for the ability change talk includes, for example, remarks such as being healthy without exercising.
  • Reasons include, for example, change talk such as losing weight by exercising.
  • the maintenance talk for the change talk of the reason includes remarks such as, for example, that there is no time to exercise. Needs include, for example, change talks such as being idempotent by summer.
  • the maintenance talk for the change talk of needs includes remarks such as the need for rest rather than exercise.
  • Execution change talk includes classifications such as commitment, activation, and stepping.
  • Commitments include change talks, such as exercising from tomorrow.
  • Maintenance talks for commitment change talks include, for example, remarks such as quitting a diet.
  • Activation includes, for example, change talks such as being willing to go on a diet.
  • the maintenance talk for the activation change talk includes, for example, remarks such as not being willing to exercise.
  • Stepping includes change talk, such as buying shoes for exercise.
  • Maintenance talks for step-by-step change talks include, for example, remarks such as resting exercise.
  • Change talk and maintenance talk are usually mixed.
  • the probability of behavior change increases when the number of remarks in change talk exceeds the number of remarks in maintenance talk. Therefore, in this disclosure, by strengthening the change talk, the number of remarks of the change talk is increased more than that of the maintenance talk.
  • the second conversation information 320 having directivity sets an answer corresponding to each of the preparation change talk, the execution change talk, and the maintenance talk as the answer item D2.
  • the discrimination unit 251 can discriminate in detail the answer to the question acquired from the user U.
  • the discrimination unit 251 determines whether the answer of the user U is a change talk or a maintenance talk.
  • the determination unit 251 refers to, for example, a database of change talk and maintenance talk, and determines whether the answer is change talk or maintenance talk.
  • the discrimination unit 251 may be configured to discriminate the answers by using, for example, a trained program in which the teacher data of the change talk answer and the maintenance talk answer are machine-learned.
  • the discrimination unit 251 stores the discrimination result in the storage unit 240.
  • the determination unit 252 determines whether to maintain the phase of the user currently in the first phase in the first phase or to shift to the second phase based on the determination result by the determination unit 251. Maintaining the first phase means, for example, not shifting from the current phase to another phase. Moving to the second phase means, for example, moving from the current phase to the next or previous phase. The determination unit 252 determines to move to the second phase when the discrimination result of the discrimination unit 251 is the answer of the first type, and when the discrimination result of the discrimination unit 251 is the answer of the second type. , Determine to maintain the first phase.
  • the determination unit 252 determines whether to maintain the phase of the user U in the first phase or shift to the second phase based on the determination result of the determination unit 251 in the predetermined period.
  • the predetermined period includes an arbitrary period such as, for example, one week or three days.
  • the determination unit 252 maintains the phase of the user U in the first phase based on the ratio of the number of the first type of answers and the number of the second type of answers in the answers obtained from the user U. Decide whether to do so or move to the second phase.
  • the determination unit 252 determines the number of answers of the first type and the number of answers of the second type in the answer, based on the ratio of the user.
  • the determination unit 252 determines whether to maintain the phase of the user U in the first phase or shift to the second phase based on the number or ratio of the execution change talks acquired from the user U.
  • Question unit 253 presents a question about the problem to user U.
  • the question unit 253 presents the question by transmitting the information of the question set in the question item D1 described above to the electronic device 100 and outputting the information to the electronic device 100.
  • the question unit 253 presents a question corresponding to the current phase and for obtaining an answer from the user U.
  • the decision unit 252 maintains the user U's phase in the first phase or shifts to the second phase based on whether the answer to the question by the question unit 253 is the second type of answer. To decide. The decision unit 252 decides whether to keep the user's phase in the first phase or move to the second phase based on the number of positive answers to the question. When the number of positive answers to the question is the number in which the behavior change of the user U in the phase is established, the determination unit 252 shifts the phase of the user U to the second phase. As the number in which the behavior change of the user U in the phase is established, for example, an arbitrary number can be set as an experimental result.
  • the counting unit 254 counts the number of times the confirmation conversation continues with the user U.
  • the confirmation conversation includes, for example, a conversation for determining whether or not the user U is a conversation.
  • the counting unit 254 counts, for example, the number of times the confirmation conversation in Phase 1 and the user U's response to the confirmation conversation. For example, in Phase 1, when a predetermined number of responses to the confirmation dialogue are obtained, the server 200 can determine that the conversation is established.
  • the predetermined number of times includes, for example, an arbitrary number of times such as 5 times and 10 times.
  • the counting unit 254 stores the counted result in the storage unit 240.
  • the determination unit 252 executes a process of determining whether to maintain the phase of the user U in the first phase or to shift to the second phase when the counting result of the counting unit 254 satisfies the determination condition.
  • the determination condition includes, for example, a condition of 10 or more answers in Phase 1.
  • the output control unit 255 outputs the conversation information for outputting the conversation corresponding to the phase to the electronic device 100 that can be operated by the user U.
  • the electronic device 100 that can be operated by the user U includes, for example, an electronic device 100 owned by the user U, an electronic device 100 that the user U can log in to, and the like.
  • the output control unit 255 instructs the electronic device 100 to output the conversation information via the communication unit 230, so that the electronic device 100 outputs the conversation information.
  • the output control unit 255 causes the electronic device 100 of the user U to output the first conversation information 310 and then outputs the second conversation information 320.
  • the output control unit 255 causes the electronic device 100 of the user U to output the first conversation information 310, then output the second conversation information 320, output the second conversation information 320, and then different first conversation information. Is output. That is, the output control unit 255 can realize a dialogue with the user U in a scenario conversation in which a chat, a directional conversation, and a chat are set as one set.
  • the output control unit 255 When the output control unit 255 outputs the first conversation information 310 at the time of the previous login of the user U, the output control unit 255 does not output the first conversation information 310 to the electronic device 100 based on the log information 330 at the time of the current login.
  • the first conversation information 310 or the second conversation information 320 is output to the electronic device 100.
  • the user U may log in to the same time segment again after the conversation in the time segment ends. In this case, since the output control unit 255 can avoid outputting the same conversation information, it is possible to suppress the user U from feeling annoyed by the conversation.
  • the output control unit 255 selects the first conversation information 310 and the second conversation information 320 based on the time division of the current time.
  • the output control unit 255 selects the first conversation information 310 that draws out the impression of the day from the user U.
  • the first conversation information 310 that draws out the impression of the day is, for example, conversation information including a conversation that asks the impression of the day.
  • the output control unit 255 causes the electronic device 100 to output the first conversation indicating that the user U is waiting for a predetermined time.
  • the planned number can be arbitrarily set for each of a plurality of phases, for example.
  • the output control unit 255 causes the electronic device 100 to output the first conversation information 310, which is not output by the electronic device 100 of the user U, among the plurality of first conversation information 310s.
  • the output control unit 255 extracts the first conversation information 310 that has not been output from the storage unit 240 based on the log information 330, and causes the electronic device 100 to output the first conversation information 310.
  • the functional configuration example of the server 200 according to the present embodiment has been described above.
  • the above configuration described with reference to FIG. 7 is merely an example, and the functional configuration of the server 200 according to the present embodiment is not limited to such an example.
  • the functional configuration of the server 200 according to this embodiment can be flexibly modified according to specifications and operations.
  • FIG. 9 is a flowchart showing an example of output control executed by the server 200 according to the embodiment.
  • the processing procedure shown in FIG. 9 is realized by the control unit 250 of the server 200 executing the program 241.
  • the processing procedure shown in FIG. 9 is executed at the timing when the user U logs in to the server 200 from the electronic device 100 or the like.
  • the control unit 250 of the server 200 determines whether or not the time division is morning (step S100). For example, when the current time is the morning time division, the control unit 250 determines that the time division is the morning. When the control unit 250 determines that the time division is morning (Yes in step S100), the control unit 250 advances the process to step S200.
  • the control unit 250 executes conversation processing in the morning in the time division (step S200).
  • the conversation process whose time division is morning includes, for example, a process of outputting the first conversation information 310 and the second conversation information 320 whose time division is suitable for the morning to the electronic device 100 in the order of scenario conversation.
  • FIG. 10 is a flowchart showing an example of the morning conversation process shown in FIG.
  • the control unit 250 executes a conversation process of a morning greeting based on the first conversation information 310 (step S201). For example, the control unit 250 randomly extracts the first conversation information 310 suitable for the current date and time from the plurality of first conversation information 310s indicating greetings, and outputs the output of the first conversation information 310 to the electronic device 100. Executes the process instructed to. When the output of the first conversation information 310 is completed, the control unit 250 creates log information 330 that can identify the first conversation information 310 and the date and time when the first conversation information 310 was output. When the process of step S201 is completed, the control unit 250 advances the process to step S202.
  • the control unit 250 determines whether or not the chat has been completed (step S202). For example, when the log information 330 indicates that the first conversation information 310 of the chat is output in the morning time division on the same date, the control unit 250 determines that the chat has been completed. When the control unit 250 determines that the chat has not been completed (No in step S202), the control unit 250 proceeds to the process in step S203.
  • the control unit 250 executes the conversation process of the chat based on the first conversation information 310 (step S203). For example, the control unit 250 extracts the first conversation information 310 that has not been output or has passed a certain period of time since it was output from the plurality of first conversation information 310s indicating chats, and the first conversation. A process of instructing the electronic device 100 to output the information 310 is executed. When the output of the first conversation information 310 is completed, the control unit 250 creates log information 330 that can identify the first conversation information 310 and the date and time when the first conversation information 310 was output. When the process of step S203 is completed, the control unit 250 advances the process to step S204.
  • the control unit 250 executes the conversation process of the directional conversation (1) based on the second conversation information 320 (step S204). For example, the control unit 250 acquires the second conversation information 320 corresponding to the directional conversation (1) based on the scenario information 300 corresponding to the phase of the user U, and asks, answers, and answers the second conversation information 320. A process of instructing the electronic device 100 to output the response is executed. When the output of the second conversation information 320 is completed, the control unit 250 creates the log information 330 that can identify the date and time when the directional conversation (1) is output. When the process of step S204 is completed, the control unit 250 advances the process to step S205.
  • the control unit 250 executes the conversation process of the directional conversation (2) based on the second conversation information 320 (step S205). For example, the control unit 250 acquires the second conversation information 320 corresponding to the next directional conversation (2) of the directional conversation (1) based on the scenario information 300, and asks the question of the second conversation information 320. A process of instructing the electronic device 100 to output an answer and a response is executed. When the output of the second conversation information 320 is completed, the control unit 250 creates the log information 330 that can identify the date and time when the directional conversation (2) is output. When the process of step S205 is completed, the control unit 250 advances the process to step S206.
  • the control unit 250 executes the conversation process of the directional conversation (3) based on the second conversation information 320 (step S206). For example, the control unit 250 acquires the second conversation information 320 corresponding to the next directional conversation (3) of the directional conversation (2) based on the scenario information 300, and asks the question of the second conversation information 320. A process of instructing the electronic device 100 to output an answer and a response is executed. When the output of the second conversation information 320 is completed, the control unit 250 creates the log information 330 that can identify the date and time when the directional conversation (3) is output. When the process of step S206 is completed, the control unit 250 advances the process to step S207.
  • the control unit 250 executes the conversation process of the ending greeting based on the first conversation information 310 (step S207). For example, the control unit 250 randomly extracts the first conversation information 310 suitable for the current date and time from the plurality of first conversation information 310 indicating the ending greeting, and electronically outputs the output of the first conversation information 310. The process instructed to the device 100 is executed. When the output of the first conversation information 310 is completed, the control unit 250 creates log information 330 that can identify the first conversation information 310 and the date and time when the first conversation information 310 was output. When the processing of step S207 is completed, the control unit 250 ends the processing procedure shown in FIG. 10 and returns to the processing of step S200 shown in FIG.
  • control unit 250 determines whether or not the directional conversation (1) has been completed (step S208). For example, when the log information 330 of the user U indicates that the directional conversation (1) has been output, the control unit 250 determines that the directional conversation (1) has been completed.
  • step S204 executes the conversation processing of the directional conversation (1) based on the second conversation information 320 (step S204).
  • the control unit 250 executes the conversation processing of the directional conversation (2) based on the second conversation information 320 (step S205).
  • the control unit 250 executes the conversation processing of the directional conversation (3) based on the second conversation information 320 (step S206). That is, the control unit 250 sequentially executes the conversation processing of the directional conversation (1), the directional conversation (2), and the directional conversation (3) without executing the conversation processing of the chat of the executed step S203. ..
  • the control unit 250 executes a conversation process of the ending greeting based on the first conversation information 310 (step S207).
  • step S207 the control unit 250 ends the processing procedure shown in FIG. 10 and returns to the processing of step S200 shown in FIG.
  • control unit 250 determines whether or not the directional conversation (2) has been completed (step S209). For example, when the log information 330 of the user U indicates that the directional conversation (2) has been output, the control unit 250 determines that the directional conversation (2) has been completed.
  • step S205 When the control unit 250 determines that the directional conversation (2) has not been completed (No in step S209), the control unit 250 proceeds to step S205, which has already described the process.
  • the control unit 250 executes the conversation processing of the directional conversation (2) based on the second conversation information 320 (step S205).
  • the control unit 250 executes the conversation process of the directional conversation (3) based on the second conversation information 320 indicated by the scenario information 300 (step S206). That is, the control unit 250 performs the conversation processing of the directional conversation (2) and the directional conversation (3) without executing the chat processing of the executed step S203 and the conversation processing of the directional conversation (1) of the step S204. Execute sequentially.
  • the control unit 250 executes a conversation process of the ending greeting based on the first conversation information 310 (step S207). When the processing of step S207 is completed, the control unit 250 ends the processing procedure shown in FIG. 10 and returns to the processing of step S200 shown in FIG.
  • control unit 250 determines whether or not the directional conversation (3) has been completed (step S210). For example, when the log information 330 of the user U indicates that the directional conversation (3) has been output, the control unit 250 determines that the directional conversation (3) has been completed.
  • step S210 When the control unit 250 determines that the directional conversation (3) has not been completed (No in step S210), the control unit 250 proceeds to step S206, which has already described the process.
  • the control unit 250 executes the conversation process of the directional conversation (3) based on the second conversation information 320 indicated by the scenario information 300 (step S206). That is, the control unit 250 does not execute the conversation processing of the executed chat in step S203, the directional conversation (1) in step S204, and the directional conversation (2) in step S205, and the directional conversation (3). Performs conversation processing only.
  • the control unit 250 executes a conversation process of the ending greeting based on the first conversation information 310 (step S207). When the processing of step S207 is completed, the control unit 250 ends the processing procedure shown in FIG. 10 and returns to the processing of step S200 shown in FIG.
  • step S211 executes a process for prompting the user U to wait (step S211).
  • the process of prompting the standby is, for example, a process of outputting the information for prompting the electronic device 100 to wait until the directional conversation (1) to the directional conversation (3) is completed and the process shifts to the next phase. Etc. are included.
  • step S211 ends the processing procedure shown in FIG. 10 and returns to the processing of step S200 shown in FIG.
  • step S200 when the processing of step S200 is completed, the control unit 250 ends the processing procedure shown in FIG.
  • step S300 determines whether or not the time division is daytime. For example, when the current time is a daytime time division, the control unit 250 determines that the time division is daytime. When the control unit 250 determines that the time division is daytime (Yes in step S300), the control unit 250 advances the process to step S400.
  • the control unit 250 executes a conversation process whose time division is daytime (step S400).
  • the conversation process whose time division is daytime includes, for example, a process of outputting the first conversation information 310 and the second conversation information 320 whose time division is suitable for daytime to the electronic device 100 in the order of scenario conversation.
  • FIG. 11 is a flowchart showing an example of the daytime conversation process shown in FIG.
  • the control unit 250 executes the conversation process of the daytime greeting based on the first conversation information 310 (step S401). For example, the control unit 250 randomly extracts the first conversation information 310 suitable for the current date and time from the plurality of first conversation information 310s indicating greetings, and outputs the output of the first conversation information 310 to the electronic device 100. Executes the process instructed to. When the output of the first conversation information 310 is completed, the control unit 250 creates log information 330 that can identify the first conversation information 310 and the date and time when the first conversation information 310 was output. When the process of step S401 is completed, the control unit 250 advances the process to step S402.
  • the control unit 250 executes the AB test process (step S402).
  • the AB test is a test in which two different patterns of Web pages are prepared and actually used by the user U to compare the effects.
  • the control unit 250 causes the user U to use the AB test by executing the AB test process, and stores the result information indicating the obtained effect in the storage unit 240 in association with the user U.
  • the control unit 250 advances the process to step S403.
  • the control unit 250 determines whether or not the directional conversation (1) has been completed (step S403). For example, when the log information 330 of the user U indicates that the directional conversation (1) has been output, the control unit 250 determines that the directional conversation (1) has been completed. When the control unit 250 determines that the directional conversation (1) has not been completed (No in step S403), the control unit 250 advances the process to step S404.
  • the control unit 250 executes the conversation process of the directional conversation (1) based on the second conversation information 320 (step S404). Since the conversation process of the directional conversation (1) is the same as the process of step S204 shown in FIG. 10, the description thereof will be omitted. When the process of step S404 is completed, the control unit 250 advances the process to step S405.
  • the control unit 250 executes the conversation process of the directional conversation (2) based on the second conversation information 320 (step S405). Since the conversation process of the directional conversation (2) is the same as the process of step S205 shown in FIG. 10, the description thereof will be omitted. When the process of step S405 is completed, the control unit 250 advances the process to step S406.
  • the control unit 250 executes the conversation process of the directional conversation (3) based on the second conversation information 320 (step S406). Since the conversation process of the directional conversation (3) is the same as the process of step S206 shown in FIG. 10, the description thereof will be omitted. When the process of step S406 is completed, the control unit 250 advances the process to step S407.
  • the control unit 250 executes the conversation process of the ending greeting based on the first conversation information 310 (step S407). Since the conversation process of the closing greeting is the same as the process of step S207 shown in FIG. 10, the description thereof will be omitted.
  • the control unit 250 ends the processing procedure shown in FIG. 11 and returns to the processing of step S400 shown in FIG.
  • control unit 250 determines whether or not the directional conversation (2) has been completed (step S408). For example, when the log information 330 of the user U indicates that the directional conversation (2) has been output, the control unit 250 determines that the directional conversation (2) has been completed.
  • step S405 executes the conversation processing of the directional conversation (2) based on the second conversation information 320 (step S405).
  • the control unit 250 executes the conversation processing of the directional conversation (3) based on the second conversation information 320 (step S406). That is, the control unit 250 sequentially executes the conversation processing of the directional conversation (2) and the directional conversation (3) without executing the conversation processing of the directional conversation (1) in the executed step S404.
  • the control unit 250 executes a conversation process of the ending greeting based on the first conversation information 310 (step S407). When the processing of step S407 is completed, the control unit 250 ends the processing procedure shown in FIG. 11 and returns to the processing of step S400 shown in FIG.
  • control unit 250 determines whether or not the directional conversation (3) has been completed (step S409). For example, when the log information 330 of the user U indicates that the directional conversation (3) has been output, the control unit 250 determines that the directional conversation (3) has been completed.
  • step S406 executes the conversation processing of the directional conversation (3) based on the second conversation information 320 (step S406). That is, the control unit 250 does not execute the conversation processing of the directional conversation (1) in step S404 and the directional conversation (2) in step S405, but executes only the conversation processing of the directional conversation (3). do.
  • the control unit 250 executes a conversation process of the ending greeting based on the first conversation information 310 (step S407). When the processing of step S407 is completed, the control unit 250 ends the processing procedure shown in FIG. 11 and returns to the processing of step S400 shown in FIG.
  • step S410 determines that the directional conversation (3) has been completed (Yes in step S409)
  • the control unit 250 proceeds to the process in step S410.
  • the control unit 250 executes a process for prompting the user U to wait (step S410).
  • step S410 ends the processing procedure shown in FIG. 11 and returns to the processing of step S400 shown in FIG.
  • step S400 when the processing of step S400 is completed, the control unit 250 ends the processing procedure shown in FIG.
  • step S500 determines whether or not the time division is night. For example, if the current time is a night time division, the control unit 250 determines that the time division is night. When the control unit 250 determines that the time division is night (Yes in step S500), the control unit 250 advances the process to step S600.
  • the control unit 250 executes a conversation process whose time division is night (step S600).
  • the conversation process whose time division is night includes, for example, a process of outputting the first conversation information 310 and the second conversation information 320 whose time division is suitable for night to the electronic device 100 in the order of scenario conversation.
  • FIG. 12 is a flowchart showing an example of the night conversation process shown in FIG.
  • the control unit 250 executes the conversation process of the evening greeting based on the first conversation information 310 (step S601). For example, the control unit 250 randomly extracts the first conversation information 310 suitable for the current date and time from the plurality of first conversation information 310 indicating the greeting at night, and electronically outputs the output of the first conversation information 310. The process instructed to the device 100 is executed. When the output of the first conversation information 310 is completed, the control unit 250 creates log information 330 that can identify the first conversation information 310 and the date and time when the first conversation information 310 was output. When the process of step S601 is completed, the control unit 250 advances the process to step S602.
  • the control unit 250 determines whether or not the impression of the day has been completed (step S602). For example, if the log information 330 indicates that the control unit 250 is executing the process of extracting the impression of the day on the same date, it is determined that the impression of the day has been completed. When the control unit 250 determines that the impression of the day has not been completed (No in step S602), the process proceeds to step S603.
  • the control unit 250 executes a process of drawing out the impression of the day (step S603).
  • the control unit 250 causes the electronic device 100 to output conversation information or the like asking the user U about the impression of the day by executing a process of drawing out the impression of the day.
  • the control unit 250 stores in the storage unit 240 the impression information indicating the impression of the day acquired from the user U via the electronic device 100.
  • the control unit 250 creates the log information 330 that can identify that the process of drawing out the impression of the day has been executed.
  • the control unit 250 advances the process to step S604.
  • the control unit 250 executes the conversation process of the directional conversation (1) based on the second conversation information 320 (step S604). Since the conversation process of the directional conversation (1) is the same as the process of step S204 shown in FIG. 10, the description thereof will be omitted. When the process of step S604 is completed, the control unit 250 advances the process to step S605.
  • the control unit 250 executes the conversation process of the directional conversation (2) based on the second conversation information 320 (step S605). Since the conversation process of the directional conversation (2) is the same as the process of step S205 shown in FIG. 10, the description thereof will be omitted. When the process of step S605 is completed, the control unit 250 advances the process to step S606.
  • the control unit 250 executes the conversation process of the directional conversation (3) based on the second conversation information 320 (step S606). Since the conversation process of the directional conversation (3) is the same as the process of step S206 shown in FIG. 10, the description thereof will be omitted. When the process of step S606 is completed, the control unit 250 advances the process to step S607.
  • the control unit 250 executes the conversation process of the ending greeting based on the first conversation information 310 (step S607). Since the conversation process of the closing greeting is the same as the process of step S207 shown in FIG. 10, the description thereof will be omitted.
  • the control unit 250 ends the processing procedure shown in FIG. 12 and returns to the processing of step S600 shown in FIG.
  • step S602 determines whether or not the impression of the day has been completed (Yes in step S602).
  • step S608 determines whether or not the directional conversation (1) has been completed. For example, when the log information 330 of the user U indicates that the directional conversation (1) has been output, the control unit 250 determines that the directional conversation (1) has been completed.
  • step S604 executes the conversation process of the directional conversation (1) based on the second conversation information 320 (step S604).
  • the control unit 250 executes the conversation processing of the directional conversation (2) based on the second conversation information 320 (step S605).
  • the control unit 250 executes the conversation process of the directional conversation (3) based on the second conversation information 320 (step S606). That is, the control unit 250 performs the conversation processing of the directional conversation (1), the directional conversation (2), and the directional conversation (3) without executing the process of drawing out the impression of the day of the executed step S603. Execute sequentially.
  • the control unit 250 executes a conversation process of the ending greeting based on the first conversation information 310 (step S607).
  • step S607 the control unit 250 ends the processing procedure shown in FIG. 12 and returns to the processing of step S600 shown in FIG.
  • control unit 250 determines whether or not the directional conversation (2) has been completed (step S609). For example, when the log information 330 of the user U indicates that the directional conversation (2) has been output, the control unit 250 determines that the directional conversation (2) has been completed.
  • step S605 When the control unit 250 determines that the directional conversation (2) has not been completed (No in step S609), the control unit 250 proceeds to step S605 already described.
  • the control unit 250 executes the conversation processing of the directional conversation (2) based on the second conversation information 320 (step S605).
  • the control unit 250 executes the conversation process of the directional conversation (3) based on the second conversation information 320 (step S606). That is, the control unit 250 does not execute the process of drawing out the impression of the day in step S603 and the conversation process of the directional conversation (1) in step S204, but the directional conversation (2) and the directional conversation ( 3) Conversation processing is executed in sequence.
  • the control unit 250 executes a conversation process of the ending greeting based on the first conversation information 310 (step S607).
  • step S607 When the processing of step S607 is completed, the control unit 250 ends the processing procedure shown in FIG. 12 and returns to the processing of step S600 shown in FIG.
  • control unit 250 determines whether or not the directional conversation (3) has been completed (step S610). For example, when the log information 330 of the user U indicates that the directional conversation (3) has been output, the control unit 250 determines that the directional conversation (3) has been completed.
  • step S606 executes the conversation process of the directional conversation (3) based on the second conversation information 320 (step S606). That is, the control unit 250 does not execute the process of drawing out the conversation of the day of the executed step S603, the conversation process of the directional conversation (1) of the step S604 and the conversation process of the directional conversation (2) of the step S605, and is oriented. Only the conversation processing of sexual conversation (3) is executed.
  • the control unit 250 executes a conversation process of the ending greeting based on the first conversation information 310 (step S607). When the processing of step S607 is completed, the control unit 250 ends the processing procedure shown in FIG. 12 and returns to the processing of step S600 shown in FIG.
  • step S610 when the control unit 250 determines that the directional conversation (3) has been completed (Yes in step S610), the control unit 250 proceeds to the process in step S611.
  • the control unit 250 executes a process for prompting the user U to wait (step S611).
  • step S611 the control unit 250 ends the processing procedure shown in FIG. 12 and returns to the processing of step S600 shown in FIG.
  • step S600 when the processing of step S600 is completed, the control unit 250 ends the processing procedure shown in FIG.
  • control unit 250 determines that the time division is not night (No in step S500)
  • the control unit 250 ends the processing procedure shown in FIG.
  • the server 200 described above has the first conversation information 310 indicating the first conversation having at least one directivity and the second conversation information 320 indicating the second conversation having at least one directivity. Can be stored in the storage unit 240.
  • the server 200 can cause the electronic device 100 of the user U to output the first conversation information 310 and then output the second conversation information 320.
  • the server 200 can realize a conversation with the user U by combining a conversation having no directivity and a conversation having the directivity, so that the personal information of the user U can be used in a natural conversation. I can hear it.
  • the server 200 causes the electronic device 100 of the user U to output the first conversation information 310, then output the second conversation information 320, output the second conversation information 320, and then output different first conversation information 310. It can be output.
  • the server 200 can alleviate the feeling of caution by sandwiching the conversation having directivity between the conversations having no directivity, so that the personal information of the user U can be relaxed. Can be heard in a natural conversation.
  • the server 200 has a question item D1 including a question content for the user U, an answer item D2 including a plurality of answers selected by the user U, and a response item D3 including a response to the answer selected by the user U.
  • the 1 conversation information 310 and the 2nd conversation information 320 can be output to the electronic device 100.
  • the server 200 can ask the user U to select the answer, so that the user's information can be heard as the answer.
  • the server 200 can store the log information 330 indicating at least one of the first conversation information 310 and the second conversation information 320 output to the electronic device 100 in the storage unit 240.
  • the server 200 outputs the first conversation information 310 at the time of the previous login of the user U, the first conversation information 310 is not output to the electronic device 100 at the time of the current login based on the log information 330.
  • the conversation information 310 or the second conversation information 320 can be output to an electronic device.
  • the server 200 can prevent the user U from getting tired of the dialogue with the server 200 by not outputting the same conversation information to the electronic device 100, so that the personal information of the user U can be heard in a natural conversation. You can get an opportunity.
  • the server 200 can select the first conversation information 310 and the second conversation information 320 based on the time division of the current time. As a result, the server 200 can give the user U a sense of familiarity by outputting the first conversation information 310 and the second conversation information 320 according to the time division to the electronic device 100, and information about the user U. Can be improved in the possibility of hearing.
  • the server 200 can select the first conversation information 310 that draws out the impression of the day from the user U. As a result, the server 200 can hear the information of the user U in one day by having the electronic device 100 output the first conversation information 310 that draws out the impression of the day when the time division becomes night.
  • the server 200 can have the electronic device output the first conversation indicating that the user U has waited for a predetermined time. As a result, when the number of conversations with the user U reaches the planned number, the server 200 causes the electronic device 100 to output the conversations connected with the user U, and does not forcibly retrieve the personal information of the user U. , It is possible to suppress a decrease in the relationship with the user U.
  • the server 200 can output the first conversation information 310 including at least one of conversations related to greetings, news, weather, quizzes, and play to the electronic device 100, for example.
  • the server 200 can give the user U a sense of intimacy by realizing a chat with the user U, and thus can improve the possibility of asking for information about the user U.
  • the server 200 can output, for example, the first conversation information 310 including a conversation that changes depending on any of seconds, hours, days, months, or years to the electronic device 100.
  • the server 200 can give the user U a sense of intimacy by realizing a conversation with the user U suitable for the date and time and the season, and thus can improve the possibility of asking for information about the user U. can.
  • the server 200 can output the first conversation information 310, which is not output by the electronic device 100 of the user U, to the electronic device among the plurality of first conversation information 310.
  • the server 200 can give the user U a sense of intimacy by realizing various conversations with the user, and thus can improve the possibility of asking for information about the user U.
  • FIG. 13 is a flowchart showing an example of the transition control of Phase 1 executed by the server 200 according to the embodiment.
  • the processing procedure shown in FIG. 13 is realized by the control unit 250 of the server 200 executing the program 241 when the phase of the user U is the phase 1.
  • the processing procedure shown in FIG. 13 is executed by the control unit 250 every time a predetermined period elapses from the start of the conversation with the user U, for example.
  • the control unit 250 collects the information generated in the phase 1 (step S1101). For example, the control unit 250 collects various information indicating the question to the user U, the answer of the user U, and the like performed in the phase 1 from the log information 330, the answer information 500, and the like stored in the storage unit 240. When the process of step S1101 is completed, the control unit 250 advances the process to step S1102.
  • the control unit 250 counts the number of confirmation conversations in phase 1 (step S1102). For example, the control unit 250 counts the number of times the confirmation conversation continues in Phase 1 based on the number of combinations of the collected questions and answers. When the process of step S1102 is completed, the control unit 250 advances the process to step S1103.
  • the control unit 250 determines whether or not the confirmation conversation is a predetermined number of times or more (step S1103). For example, when the number of times counted in step S1102 is the predetermined number of times or more, the control unit 250 determines that the confirmation conversation is the predetermined number of times or more. In the example shown in FIG. 13, the predetermined number of times is 10. When the control unit 250 determines that the confirmation conversation is a predetermined number of times or more (Yes in step S1103), the conversation with the user U is established, so the process proceeds to step S1104.
  • the control unit 250 shifts from Phase 1 to Phase 2 (step S1104). For example, the control unit 250 shifts (changes) the user's phase from phase 1 to phase 2, and reflects the shift to phase 2 in the log information 330.
  • the control unit 250 may perform a process of notifying the user U that the phase 2 has been started.
  • the control unit 250 ends the process procedure shown in FIG.
  • control unit 250 determines that the confirmation conversation is not more than a predetermined number of times (No in step S1103), the conversation with the user U is not established, so that the process shown in FIG. 13 is performed without shifting to the phase 2. End the procedure.
  • control unit 250 can automatically shift from the phase 1 related to the user to the phase 2 in which the user U draws out the feelings of improvement by executing the processing procedure shown in FIG.
  • FIG. 14 is a flowchart showing an example of the transition control of Phase 2 executed by the server 200 according to the embodiment.
  • the processing procedure shown in FIG. 14 is realized by the control unit 250 of the server 200 executing the program 241 when the phase of the user U is the phase 2.
  • the processing procedure shown in FIG. 14 is executed by the control unit 250 every time a predetermined period elapses from the start of the conversation with the user U, for example.
  • the control unit 250 collects the information generated in the phase 2 (step S1201). For example, the control unit 250 collects various information indicating the question to the user U, the answer of the user U, and the like performed in the phase 2 from the log information 330, the answer information 500, and the like stored in the storage unit 240.
  • the control unit 250 advances the process to step S1202.
  • a confirmation operation of the number of conversations may be added as in step S1102 of FIG.
  • the control unit 250 may count the number of confirmation conversations such as directional conversations in Phase 2.
  • the control unit 250 may count the number of times the confirmation conversation continues in Phase 2 based on the number of combinations of the collected questions and answers.
  • the control unit 250 may proceed to step S1202.
  • the control unit 250 determines the answer in Phase 2 (step S1202). For example, the control unit 250 compares the answer of the user U whose main theme is weight with the change talk and maintenance talk of the database, and based on the comparison result, whether the answer is a change talk or a maintenance talk. To determine. For example, the control unit 250 may determine the answer by using a trained program in which the teacher data of the change talk answer and the maintenance talk answer are machine-learned. When the control unit 250 determines that the answer is a change talk, the control unit 250 further determines whether the answer is a preparation change talk or an execution change talk, and determines the classification of the change talk. The control unit 250 determines the classification of the change talk by using the database of the preparation change talk and the execution change talk shown in FIG. The control unit 250 stores the determination result of the answer in the storage unit 240 in association with the response information 500. When the process of step S1202 is completed, the control unit 250 advances the process to step S1203.
  • the control unit 250 determines whether or not the preparation change talk is larger than the maintenance talk based on the determination result in step S1202 (step S1203). For example, the control unit 250 determines that the number of preparation change talks is larger than the number of maintenance talks when the number of preparation change talks in the phase 2 is larger than the number of maintenance talks. When the control unit 250 determines that the preparation change talk is larger than the maintenance talk (Yes in step S1203), it is highly possible that the problem of the user U can be drawn out, so the process proceeds to step S1204.
  • a process of asking an important question related to the phase transition such as "Do you consider the problem important?", May be added.
  • step S1204 when the control unit 250 receives the answer that the problem is important (Yes), the process proceeds to step S1204, and the answer that the problem is not important (No) is obtained. In that case, the process may be terminated or the process may be advanced to step S1201. Further, in this case, as a process before ending the process or proceeding to step S1201, the control unit 250 performs a process of changing the intervention point for the user as in step S1206 described later, and after this change process, performs a process. You may proceed to step S1201. In this case, the present disclosure can prevent Phase 2 from being repeated with the same intervention theme.
  • the control unit 250 shifts from Phase 2 to Phase 3 (step S1204). For example, the control unit 250 shifts (changes) the user's phase from phase 2 to phase 3, and reflects the shift to phase 3 in the log information 330.
  • the control unit 250 may perform a process of notifying the user U that the phase 3 has been started.
  • the control unit 250 ends the process procedure shown in FIG.
  • step S1205 determines whether or not the state in which the preparation change talk is not more than the maintenance talk is continuous for the determination period (step S1205).
  • the determination period can be arbitrarily set, for example, a period of 3 weeks, 1 month, or the like.
  • the determination period may be, for example, the same as the predetermined period or may be longer than the predetermined period.
  • the control unit 250 ends the processing procedure shown in FIG.
  • the processing procedure shown in FIG. 14 may be an operation in which the processing in step S1205 is omitted. That is, if the determination in step S1203 is No, the processing procedure may shift from step S1203 to step S1206.
  • step S1206 the control unit 250 changes the intervention point for the user U (step S1206).
  • the control unit 250 changes the intervention point for the user U from the main theme to the sub-theme, and continues Phase 2 based on the sub-theme. For example, if the main theme is a weight task, the control unit 250 changes to a sub-theme indicating promotion of exercise.
  • the control unit 250 ends the process procedure shown in FIG.
  • control unit 250 automatically shifts from the phase 2 in which the user U draws out the feelings he / she wants to improve to the phase 3 in which the user U can take action by executing the processing procedure shown in FIG. Can be migrated.
  • FIG. 15 is a flowchart showing an example of the transition control of Phase 3 executed by the server 200 according to the embodiment.
  • the processing procedure shown in FIG. 15 is realized by the control unit 250 of the server 200 executing the program 241 when the phase of the user U is the phase 3.
  • the processing procedure shown in FIG. 15 is executed by the control unit 250 every time a predetermined period elapses from the start of the conversation with the user U, for example.
  • the control unit 250 collects the information generated in the phase 3 (step S1301). For example, the control unit 250 collects various information indicating the question to the user U, the answer of the user U, and the like performed in the phase 3 from the log information 330, the answer information 500, and the like stored in the storage unit 240.
  • the control unit 250 advances the process to step S1302.
  • a confirmation operation of the number of conversations may be added as in step S1102 of FIG.
  • the control unit 250 may count the number of confirmation conversations such as directional conversations in Phase 3.
  • the control unit 250 may count the number of times the confirmation conversation continues in Phase 3 based on the number of combinations of the collected questions and answers.
  • the control unit 250 may proceed to step S1302.
  • the control unit 250 determines the answer in Phase 3 (step S1302). For example, the control unit 250 compares the answer of the user U whose main theme is weight with the change talk and maintenance talk of the database, and based on the comparison result, whether the answer is a change talk or a maintenance talk. To determine. For example, the control unit 250 may determine the answer by using a trained program in which the teacher data of the change talk answer and the maintenance talk answer are machine-learned. When the control unit 250 determines that the answer is a change talk, the control unit 250 further determines whether the answer is a preparation change talk or an execution change talk, and determines the classification of the change talk. The control unit 250 determines the classification of the change talk by using the database of the preparation change talk and the execution change talk shown in FIG. The control unit 250 stores the determination result of the answer in the storage unit 240 in association with the response information 500. When the process of step S1302 is completed, the control unit 250 advances the process to step S1303.
  • the control unit 250 determines whether or not the preparation change talk is larger than the maintenance talk based on the determination result in step S1302 (step S1303). For example, the control unit 250 determines that the number of preparation change talks is larger than the number of maintenance talks when the number of preparation change talks in the phase 3 is larger than the number of maintenance talks. When the control unit 250 determines that the preparation change talk is larger than the maintenance talk (Yes in step S1303), the control unit 250 advances the process to step S1304.
  • the control unit 250 determines whether or not the commitment is greater than the maintenance talk based on the determination result in step S1302 (step S1304). For example, the control unit 250 determines that the commitment is greater than the maintenance talk when the classification is greater than the number of execution change talks of the commitment than the number of maintenance talks. When the control unit 250 determines that the commitment is greater than the maintenance talk (Yes in step S1304), the control unit 250 can draw the intention of the commitment to the task from the user U, so the process proceeds to step S1305.
  • a process for asking an important question related to the phase transition such as "Are you confident in completing the behavior change?", May be added. In this case, the control unit 250 proceeds to step S1305 when the answer is confident (Yes), and ends the process when the answer is not confident (No). Alternatively, the process may proceed to step S1301.
  • the control unit 250 shifts from Phase 3 to Phase 4 (step S1305). For example, the control unit 250 shifts (changes) the user's phase from phase 3 to phase 4, and reflects the shift to phase 4 in the log information 330.
  • the control unit 250 may perform a process of notifying the user U that the phase 4 has been started. When the process of step S1305 is completed, the control unit 250 ends the process procedure shown in FIG.
  • control unit 250 determines that the commitment is not more than the maintenance talk (No in step S1304), it is highly possible that the user U has not triggered the action, so the control unit 250 does not move to the phase 4. , The processing procedure shown in FIG. 15 is terminated.
  • step S1306 determines whether or not the state in which the preparation change talk is not more than the maintenance talk is continuous for the determination period (step S1306).
  • step S1306 ends the processing procedure shown in FIG. In this disclosure, the operation of step S1306 may be omitted. That is, if the determination in step S1303 is No, the processing procedure may shift from step S1303 to step S1307.
  • control unit 250 determines that the determination period is continuous (Yes in step S1306), it determines that it is not the timing of the intervention, and proceeds to the process in step S1307.
  • the control unit 250 shifts from Phase 3 to Phase 2 (step S1307). For example, the control unit 250 shifts (changes) the phase of the user U from the phase 3 to the phase 2, and reflects the shift to the phase 2 in the log information 330.
  • the control unit 250 may perform a process of notifying the user U that the phase 2 has been started.
  • the control unit 250 ends the process procedure shown in FIG.
  • control unit 250 executes the processing procedure shown in FIG. 15 to give the user U a feeling that the behavior has been changed from the phase 3 showing the opportunity for the user U to take action. Can be automatically migrated to. Further, when the control unit 250 determines that it is not the timing of the intervention based on the response of the user U in the phase 3, the control unit 250 can automatically return from the phase 3 to the phase 2.
  • FIG. 16 is a flowchart showing an example of the transition control of Phase 4 executed by the server 200 according to the embodiment.
  • the processing procedure shown in FIG. 16 is realized by the control unit 250 of the server 200 executing the program 241 when the phase of the user U is the phase 4.
  • the processing procedure shown in FIG. 16 is executed by the control unit 250 every time a predetermined period elapses from the start of the conversation with the user U, for example.
  • the control unit 250 collects the information generated in the phase 4 (step S1401). For example, the control unit 250 collects various information indicating the question to the user U, the answer of the user U, and the like performed in the phase 4 from the log information 330, the answer information 500, and the like stored in the storage unit 240. When the process of step S1401 is completed, the control unit 250 advances the process to step S1402.
  • the control unit 250 determines the answer in Phase 4 (step S1402). For example, the control unit 250 compares the answer of the user U whose main theme is weight with the change talk and maintenance talk of the database, and based on the comparison result, whether the answer is a change talk or a maintenance talk. To determine. For example, the control unit 250 may determine the answer by using a trained program in which the teacher data of the change talk answer and the maintenance talk answer are machine-learned. When the control unit 250 determines that the answer is a change talk, the control unit 250 further determines whether the answer is a preparation change talk or an execution change talk, and determines the classification of the change talk. The control unit 250 determines the classification of the change talk by using the database of the preparation change talk and the execution change talk shown in FIG. The control unit 250 stores the determination result of the answer in the storage unit 240 in association with the response information 500. When the process of step S1402 is completed, the control unit 250 advances the process to step S1403.
  • the control unit 250 determines whether or not the preparation change talk is larger than the maintenance talk based on the determination result in step S1402 (step S1403). For example, the control unit 250 determines that the number of preparation change talks is larger than the number of maintenance talks when the number of preparation change talks in the phase 3 is larger than the number of maintenance talks. When the control unit 250 determines that the preparation change talk is larger than the maintenance talk (Yes in step S1403), the control unit 250 advances the process to step S1404.
  • step S1404 determines whether or not there are more steps than the maintenance talk. For example, the control unit 250 determines that if the number of execution change talks in which the classification is stepped is larger than the number of maintenance talks, the number of stepped steps is greater than the number of maintenance talks. When the control unit 250 determines that the number of steps is not more than the maintenance talk (No in step S1404), the control unit 250 ends the processing procedure shown in FIG. 16 without shifting from the phase 4 to another phase.
  • step S1405 determines whether or not the state in which the number of steps is taken but is greater than the maintenance talk is continuous for the determination period (step S1405). When it is determined that the determination period is not continuous (No in step S1405), the control unit 250 ends the processing procedure shown in FIG. 16 without shifting from the phase 4 to another phase. If the control unit 250 determines that the determination period is continuous (Yes in step S1405), the control unit 250 advances the process to step S1406.
  • the control unit 250 shifts from Phase 4 to Phase 5 (step S1406). For example, the control unit 250 shifts (changes) the user's phase from phase 4 to phase 5, and reflects the shift to phase 5 in the log information 330.
  • the control unit 250 may perform a process of notifying the user U that the phase 5 has been started. When the process of step S1406 is completed, the control unit 250 advances the process to step S1407.
  • the control unit 250 starts a process that supports the maintenance of behavior change (step S1407).
  • the process of supporting the maintenance of the behavior change includes, for example, a process of inducing the user U to the content for maintaining the behavior change, a process of recommending an appropriate article or service to the user U, and the like.
  • the control unit 250 ends the process procedure shown in FIG.
  • step S1408 determines whether or not the state in which the preparation change talk is not more than the maintenance talk is continuous for the determination period (step S1408).
  • step S1408 ends the processing procedure shown in FIG. In this disclosure, the operation of step S1408 may be omitted. That is, if the determination in step S1403 is No, the processing procedure may shift from step S1403 to step S1409.
  • control unit 250 determines that the determination period is continuous (Yes in step S1408), it determines that it is not the timing of behavior change, and proceeds to the process in step S1409.
  • the control unit 250 shifts from Phase 4 to Phase 3 (step S1409). For example, the control unit 250 shifts (changes) the phase of the user U from the phase 4 to the phase 3, and reflects the shift to the phase 3 in the log information 330.
  • the control unit 250 may perform a process of notifying the user U that the phase 2 has been started. When the process of step S1409 is completed, the control unit 250 ends the process procedure shown in FIG.
  • the control unit 250 has a phase 4 in which the user U feels that the behavior has been changed by executing the processing procedure shown in FIG. 16, and a phase 5 in which the new habit is watched so as to be established in the user U. Can be automatically migrated to. Further, the control unit 250 can automatically return from the phase 4 to the phase 3 when it is determined that it is not the timing of the behavior change.
  • FIG. 17 is a diagram for explaining a phase transition operation executed by the server 200 according to the embodiment.
  • the server 200 cooperates with the electronic device 100 of the user U to perform dialogue with the user U, transition control of a phase for improving the problem of the user U, and the like.
  • the server 200 determines the main theme and the sub-theme of the user U, and starts the process of Phase 1. For example, when the server 200 supports the improvement of the life of the user U, it is premised that the main theme is the drinking frequency and the sub-theme is snacking and weight measurement based on the result of the user U's pre-questionnaire. ..
  • the server 200 realizes a conversation related to the user U corresponding to the phase 1.
  • the server 200 determines that there are a predetermined number of confirmation conversations or more based on the log information 330 indicating the conversation in 1WEEK, the server 200 shifts from the phase 1 to the phase 2.
  • the server 200 realizes a conversation corresponding to Phase 2.
  • the server 200 conducts a conversation to elicit an improved feeling from the user U.
  • the server 200 performs a scenario conversation corresponding to Phase 2 in combination with the chat shown by the first conversation information 310 and the directional conversation shown by the second conversation information 320.
  • the server 200 asks the question of the question item D1 and obtains the answer information 500 for the question, the server 200 stores the question in the storage unit 240 in chronological order in association with the user U and the phase 2.
  • the server 200 determines that the number of preparatory change talks is larger than the number of maintenance talks during the 2WEEK period, the server 200 shifts from Phase 2 to Phase 3.
  • the server 200 realizes a conversation corresponding to Phase 3.
  • the server 200 conducts a conversation to give the user U an opportunity to take action.
  • the server 200 performs a scenario conversation corresponding to Phase 3 in combination with the chat shown by the first conversation information 310 and the directional conversation shown by the second conversation information 320.
  • the server 200 asks the question of the question item D1 and obtains the answer information 500 for the question, the server 200 stores the question in the storage unit 240 in chronological order in association with the user U and the phase 3.
  • the server 200 determines that the number of preparatory change talks is larger than the number of maintenance talks and the number of commitments is larger than the number of maintenance talks during the 3WEEK period, the server 200 shifts from Phase 3 to Phase 4.
  • the server 200 realizes a conversation corresponding to Phase 4.
  • Phase 4 the server 200 conducts a conversation to give the user U the feeling that the behavior has been changed.
  • the server 200 performs a scenario conversation corresponding to Phase 4 in combination with the chat shown by the first conversation information 310 and the directional conversation shown by the second conversation information 320.
  • the server 200 asks the question of the question item D1 and obtains the answer information 500 for the question, the server 200 stores the question in the storage unit 240 in chronological order in association with the user U and the phase 4.
  • the number of preparatory change talks is less than the number of maintenance talks, or the number of preparatory change talks is larger than the number of maintenance talks, but the number of steps is greater than the number of maintenance talks during the 4WEEK period. If it is determined that the number is small, Phase 4 is maintained. The server 200 determines that the user U has not been able to feel that the behavior has been changed, and 5WEEK continues Phase 4.
  • the server 200 realizes a conversation corresponding to Phase 4 as in 4WEEK.
  • the server 200 performs a scenario conversation corresponding to the phase 4 in combination with the chat shown by the first conversation information 310 and the directional conversation shown by the second conversation information 320.
  • the server 200 asks the question of the question item D1 and obtains the answer information 500 for the question
  • the server 200 stores the question in the storage unit 240 in chronological order in association with the user U and the phase 4. If the server 200 determines that the number of preparatory change talks is greater than the number of maintenance talks and the number of steps is greater than the number of maintenance talks during the 4WEEK and 5WEEK periods, the server 200 determines that the determination period is not continuous. Maintain Phase 4. The server 200 determines that the user U has not been able to feel that the behavior has been changed, and 6WEEK continues Phase 4.
  • the server 200 realizes a conversation corresponding to Phase 4 as in 4WEEK and 5WEEK.
  • the server 200 performs a scenario conversation corresponding to the phase 4 in combination with the chat shown by the first conversation information 310 and the directional conversation shown by the second conversation information 320.
  • the server 200 asks the question of the question item D1 and obtains the answer information 500 for the question
  • the server 200 stores the question in the storage unit 240 in chronological order in association with the user U and the phase 4.
  • the server 200 determines that the number of preparation change talks is larger than the number of maintenance talks, the number of steps is larger than the number of maintenance talks, and the determination period is continuous in the period from 4WEEK to 6WEEK. , Phase 4 to Phase 5.
  • the server 200 realizes a conversation corresponding to Phase 5.
  • Phase 5 the server 200 conducts a conversation to watch the new habit take root in User U.
  • the server 200 performs a scenario conversation corresponding to Phase 5 in combination with the chat shown by the first conversation information 310 and the directional conversation shown by the second conversation information 320.
  • the server 200 asks the question of the question item D1 and obtains the answer information 500 for the question, the server 200 stores the question in the storage unit 240 in chronological order in association with the user U and the phase 5.
  • the server 200 confirms that the new habit has been established, it ends Phase 5.
  • FIG. 18 is a diagram for explaining other migration operations of the phase executed by the server 200 according to the embodiment. Since Phase 1 of 1WEEK and Phase 2 of 2WEEK shown in FIG. 18 are the same as Phase 1 and Phase 2 shown in FIG. 17, the description thereof will be omitted.
  • the server 200 realizes a conversation corresponding to Phase 3.
  • the server 200 performs a scenario conversation corresponding to Phase 3 in combination with the chat shown by the first conversation information 310 and the directional conversation shown by the second conversation information 320.
  • the server 200 asks the question of the question item D1 and obtains the answer information 500 for the question
  • the server 200 stores the question in the storage unit 240 in chronological order in association with the user U and the phase 3. If the server 200 determines that the number of preparatory change talks is less than the number of maintenance talks and the determination period is not continuous during the 3WEEK period, the server 200 maintains Phase 3.
  • the server 200 determines that the user U has not shown an opportunity to move the action, and 4WEEK also continues the phase 3.
  • the server 200 realizes a conversation corresponding to Phase 3 as in 3WEEK.
  • the server 200 performs a scenario conversation corresponding to the phase 3 in combination with the chat shown by the first conversation information 310 and the directional conversation shown by the second conversation information 320.
  • the server 200 asks the question of the question item D1 and obtains the answer information 500 for the question
  • the server 200 stores the question in the storage unit 240 in chronological order in association with the user U and the phase 4. If the server 200 determines that the number of preparatory change talks is less than the number of maintenance talks and the determination period is not continuous during the 3WEEK and 4WEEK periods, the server 200 maintains Phase 3.
  • the server 200 determines that the user U has not shown an opportunity to move the action, and 5WEEK also continues the phase 3.
  • the server 200 realizes a conversation corresponding to Phase 3 as in 3WEEK and 4WEEK.
  • the server 200 performs a scenario conversation corresponding to the phase 3 in combination with the chat shown by the first conversation information 310 and the directional conversation shown by the second conversation information 320.
  • the server 200 asks the question of the question item D1 and obtains the answer information 500 for the question
  • the server 200 stores the question in the storage unit 240 in chronological order in association with the user U and the phase 4.
  • the server 200 determines that the number of preparation change talks is less than the number of maintenance talks and the determination period is not continuous in the period from 3WEEK to 5WEEK
  • the server 200 shifts from Phase 3 to Phase 2. That is, the server 200 determines that it is not the timing of the intervention, returns from 6WEEK to Phase 2, and reflects in the log information 330 that the intervention point has been changed from the main theme to the sub-theme.
  • the server 200 realizes a conversation corresponding to Phase 2.
  • the server 200 conducts a conversation to elicit an improved feeling from the user U based on the sub-theme.
  • the server 200 performs a scenario conversation corresponding to Phase 2 in combination with the chat shown by the first conversation information 310 and the directional conversation shown by the second conversation information 320.
  • the server 200 asks the question of the question item D1 and obtains the answer information 500 for the question, the server 200 stores the question in the storage unit 240 in chronological order in association with the user U and the phase 2.
  • the server 200 determines that the number of preparatory change talks is larger than the number of maintenance talks during the 2WEEK period, the server 200 shifts from Phase 2 to Phase 3.
  • the server 200 realizes a conversation corresponding to Phase 3.
  • the server 200 conducts a conversation based on the sub-theme to show an opportunity for the user U to take action.
  • the server 200 performs a scenario conversation corresponding to Phase 3 in combination with the chat shown by the first conversation information 310 and the directional conversation shown by the second conversation information 320.
  • the server 200 asks the question of the question item D1 and obtains the answer information 500 for the question, the server 200 stores the question in the storage unit 240 in chronological order in association with the user U and the phase 3.
  • the server 200 determines that the number of preparatory change talks is larger than the number of maintenance talks and the number of commitments is larger than the number of maintenance talks during the 3WEEK period, the server 200 shifts from Phase 3 to Phase 4. After 8WEEK, the server 200 realizes the conversation corresponding to the phase 4 and the phase 5 shown in FIG.
  • the server 200 determines whether the answer to the question obtained from the user U is the first type answer or the second type answer, and maintains the current phase based on the determination result. You can decide whether to do it or move on to the next phase. As a result, the server 200 can discriminate the behavior change from the answer of the user U and determine the phase suitable for the discriminant result. As a result, the server 200 can support the behavior change of the user U by talking with the user U according to the phase.
  • the server 200 determines to move to the next phase when the user U's answer is the first type of answer (change talk), and when it is the second type of answer (maintenance talk), the server 200 is currently Decide to maintain the phase of. As a result, the server 200 can accurately determine the state of the user U in the phase by discriminating the answer of the user U into the change talk and the maintenance talk. As a result, the server 200 can be in a phase suitable for the user U, so that the behavior change of the user U can be efficiently supported.
  • the server 200 can determine whether to maintain the phase of the user U in the first phase or to shift to the second phase based on the determination result of the phase in the predetermined period. As a result, the server 200 can improve the accuracy of determining the behavior change of the user U by paying attention to the response of the user U in the predetermined period.
  • the server 200 maintains the phase of the user U in the first phase based on the ratio of the number of responses of the first type to the number of answers of the second type in the answers obtained from the user U. You can decide whether to move to the second phase. As a result, the server 200 can improve the accuracy of determining the behavior change of the user U by paying attention to the number of responses of the user U in the predetermined period.
  • the server 200 of the user U is based on the ratio of the number of the first type of answers and the number of the second type of answers in the answers. It is possible to decide whether to keep the phase in the first phase or move to the second phase. As a result, when the server 200 confirms that the conversation with the user U is established, the server 200 pays attention to the number of responses of the user U in a predetermined period, thereby further improving the accuracy of determining the behavior change of the user U. be able to.
  • the server 200 keeps the user U's phase in the first phase based on the number or percentage of the execution change talks obtained from the user U. It is possible to decide whether to move to the second phase. As a result, the server 200 can further improve the accuracy of determining the behavior change of the user U by paying attention to the execution change talk obtained when the user U executes a predetermined operation.
  • the server 200 can accurately determine the user U from the answer by asking a question suitable for the phase, and thus can support the behavior change of the user U.
  • the server 200 can shift the phase of the user U to the second phase when the number of positive answers to the question is the number in which the behavior change of the user in the phase is established. As a result, since the server 200 can determine the transition and maintenance of the phase based on the positive answer of the user U, it is possible to support the behavior change in the phase suitable for the user U.
  • the server 200 counts the number of times that the confirmation conversation continues with the user U, and if the counting result satisfies the determination condition, the phase of the user U is maintained in the first phase or is shifted to the second phase. It is possible to execute a process of deciding whether or not to do so. As a result, when the server 200 confirms that the conversation with the user U is established, the server 200 pays attention to the number of responses of the user U in a predetermined period, thereby further improving the accuracy of determining the behavior change of the user U. be able to.
  • the server 200 realizes a conversation with the user U by a chatbot has been described, but the present invention is not limited to this.
  • the server 200 may be configured to obtain the answer of the user U by a voice conversation.
  • the server 200 may recognize the answer to the question from the utterance content of the user U by using known natural language understanding, natural language processing, and the like.
  • the system 1 may realize the function of the server 200 with the electronic device 100 of the user U.
  • the system 1 may realize the function of the server 200 by a plurality of computers.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Signal Processing (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

態様の1つに係るサーバ(200)は、少なくとも1以上の指向性を有していない第1会話を示す第1会話情報(310)と、少なくとも1以上の指向性を有する第2会話を示す第2会話情報(320)と、を記憶する記憶部(240)と、ユーザの電子機器に、第1会話情報(310)を出力させた後に、第2会話情報(320)を出力させる出力制御部(255)と、を備える。

Description

サーバ、制御方法および制御プログラム
 本出願は、サーバ、制御方法および制御プログラムに関する。
 ユーザとコンピュータとの対話によってユーザを指導することが知られている。例えば、特許文献1には、オープン発話を提示し、オープン発話に対するユーザの発話を受け付け、ユーザの発話内容に基づいた発話を決定する対話システムが開示されている。
国際公開第2017/200076号
 従来のユーザとコンピュータとの対話では、自然な会話でユーザから情報を聞き出すことに改善の余地があった。
 態様の1つに係るサーバは、少なくとも1以上の指向性を有していない第1会話を示す第1会話情報と、少なくとも1以上の指向性を有する第2会話を示す第2会話情報と、を記憶する記憶部と、ユーザの電子機器に、前記第1会話情報を出力させた後に、前記第2会話情報を出力させる出力制御部と、を備える。
 態様の1つに係る制御方法は、ユーザの電子機器と通信可能なサーバによって実行される制御方法であって、少なくとも1以上の指向性を有していない第1会話を示す第1会話情報と、少なくとも1以上の指向性を有する第2会話を示す第2会話情報と、を記憶部に記憶すること、前記ユーザの前記電子機器に、前記第1会話情報を出力させた後に、前記第2会話情報を出力させること、を含む。
 態様の1つに係る制御プログラムは、コンピュータに、少なくとも1以上の指向性を有していない第1会話を示す第1会話情報と、少なくとも1以上の指向性を有する第2会話を示す第2会話情報と、を記憶部に記憶すること、ユーザの電子機器に、前記第1会話情報を出力させた後に、前記第2会話情報を出力させること、を実行させる。
図1は、実施形態に係るサーバを備えるシステムの一例を示す図である。 図2は、図1に示すサーバが管理するフェーズの一例を示す図である。 図3は、図1に示すサーバが管理する第1会話情報及び第2会話情報の一例を示す図である。 図4は、実施形態に係るサーバのシナリオ会話とログとの関係の一例を説明するための図である。 図5は、実施形態に係るサーバが電子機器にメッセージを表示させる一例を示す図である。 図6は、実施形態に係る電子機器の構成の一例を示す図である。 図7は、実施形態に係るサーバの構成の一例を示す図である。 図8は、実施形態に係るチェンジトークと維持トークの一例を説明するための図である。 図9は、実施形態に係るサーバが実行する出力制御の一例を示すフローチャートである。 図10は、図9に示す朝の会話処理の一例を示すフローチャートである。 図11は、図9に示す昼の会話処理の一例を示すフローチャートである。 図12は、図9に示す夜の会話処理の一例を示すフローチャートである。 図13は、実施形態に係るサーバが実行するフェーズ1の移行制御の一例を示すフローチャートである。 図14は、実施形態に係るサーバが実行するフェーズ2の移行制御の一例を示すフローチャートである。 図15は、実施形態に係るサーバが実行するフェーズ3の移行制御の一例を示すフローチャートである。 図16は、実施形態に係るサーバが実行するフェーズ4の移行制御の一例を示すフローチャートである。 図17は、実施形態に係るサーバが実行するフェーズの移行動作を説明するための図である。 図18は、実施形態に係るサーバが実行するフェーズの他の移行動作を説明するための図である。
 本出願に係るサーバ等を実施するための複数の実施形態を、図面を参照しつつ詳細に説明する。なお、以下の説明により本出願が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下の説明において、同様の構成要素について同一の符号を付すことがある。さらに、重複する説明は省略することがある。
 図1は、実施形態に係るサーバを備えるシステムの一例を示す図である。図2は、図1に示すサーバが管理するフェーズの一例を示す図である。図3は、図1に示すサーバが管理する第1会話情報及び第2会話情報の一例を示す図である。
 図1に示すシステム1は、ユーザUとの雑談と指向性会話とを交えることで、ユーザUが抱えている課題の解決を支援する機能を有する。システム1は、ユーザUが操作可能な電子機器100と、サーバ200と、を備える。電子機器100とサーバ200とは、ネットワーク400を介して、相互に通信可能なように構成されている。
 電子機器100は、例えば、スマートフォン、パーソナル・コンピュータ、ヘッドマウントディスプレイ、タブレット端末、テレビジョン受信機、ゲーム機等を含む。以下では、電子機器100は、スマートフォンである場合の一例について説明する。電子機器100は、ユーザUに各種情報を表示可能な表示部110を有する。電子機器100は、例えば、サーバ200が指示した情報を表示部110に表示する機能、ユーザUから取得した情報をサーバ200に送信する機能等を有する。
 サーバ200は、例えば、クラウドサーバである。サーバ200は、例えば、コンピュータがプログラムを実行することによって実現される。サーバ200は、電子機器100と連携して、ユーザUとの対話、ユーザUの課題を改善する支援等に関する機能を提供できる。サーバ200は、例えば、会話情報を示すメッセージと、ユーザUから取得した回答をメッセージと、を時系列順で電子機器100に表示させるチャット機能を提供できる。サーバ200は、ユーザUから取得した回答等に基づいてユーザUの行動変容を認識し、該行動変更に適した支援を行う機能等を提供できる。行動変容とは、例えば、ユーザUの行動面の変化を意味する。
 サーバ200は、ユーザUの行動変容が定着するまで、複数の段階に適した会話を実現する。サーバ200は、例えば、段階における会話を、1QAR方式とすることができる。1QAR方式は、Question(質問)とAnswer(回答)とResponse(応答)とを1つのセットとして会話する方式である。サーバ200は、ユーザUに対する会話シナリオを、複数のフェーズに分けて運用する。会話シナリオは、例えば、プログラムで会話のシナリオを定義してもよいし、会話の順序を示すシナリオ情報を用いてもよい。会話シナリオは、例えば、時間区分に応じた会話を行うシナリオになっている。時間区分は、例えば、5:00から10:59の朝、11:00から15:59の昼、16:00から4:59の夜の区分を含むが、これに限定されない。
 図2に示す一例では、サーバ200は、フェーズ1、フェーズ2、フェーズ3、フェーズ4及びフェーズ5の段階ごとに、ユーザUの行動変容を認識し、段階に適した会話を行う機能を提供できる。
 フェーズ1は、例えば、ユーザUに関わることを目的としたフェーズである。フェーズ1は、例えば、ユーザUに関わるという段階で、ユーザUを理解するという姿勢で会話することと、ユーザUが自身に関心を持ち、気付いてもらう会話を行うフェーズである。サーバ200は、例えば、確認会話に重点を置いた会話を電子機器100に出力させる。確認会話は、例えば、ユーザUとの会話が成り立つか否かを確認可能な会話を含む。
 フェーズ2は、例えば、改善したい気持ちをユーザUから引き出すことを目的としたフェーズである。フェーズ2は、例えば、改善したいという気持ちをユーザUから引き出す会話を行うフェーズである。サーバ200は、例えば、介入会話に重点を置きた会話を電子機器100に出力させる。介入会話は、例えば、改善したい気持ちをユーザUから引き出す会話を含む。
 フェーズ3は、例えば、ユーザUが行動に移させるようにきっかけを作ることを目的としたフェーズである。フェーズ3は、例えば、ユーザUの行動変容へのきっかけ作りをする会話を行うフェーズである。サーバ200は、例えば、介入会話に重点を置きた会話を電子機器100に出力させる。介入会話は、例えば、改善する行動に移るきっかけを作るための会話を含む。
 フェーズ4は、例えば、行動を変えられたという実感をユーザUに持たせることを目的としたフェーズである。フェーズ4は、例えば、ユーザUの行動変容の実行をサポートする会話を行うフェーズである。サーバ200は、例えば、介入会話及びリコメンドに重点を置きた会話を電子機器100に出力させる。介入会話は、例えば、行動を変えられたという実感を持たせるための会話を含む。リコメンドは、例えば、ユーザUに実感を持たせるために、行動、物品等を勧めるための会話を含む。
 フェーズ5は、例えば、新しい習慣がユーザUに定着するように見守ることを目的としたフェーズである。フェーズ5は、例えば、行動変容の定着を目指す会話を行うフェーズである。サーバ200は、例えば、リコメンド及びコンテンツ誘導に重点を置きた会話を電子機器100に出力させる。リコメンドは、例えば、行動変容を定着させるために、行動、物品等を勧めるための会話を含む。コンテンツ誘導は、例えば、行動変容を定着させるためのコンテンツに誘導する会話を含む。
 サーバ200は、ユーザUの行動変容が定着するまでに、複数のフェーズが段階的にあることをユーザUに通知する機能を提供できる。サーバ200は、フェーズ1、フェーズ2、フェーズ3、フェーズ4及びフェーズ5の順にフェーズを移行できる。サーバ200は、ユーザUとの会話に基づいて、現在のフェーズから次のフェーズへ自動で移行する機能を提供できる。なお、サーバ200は、複数のフェーズを1つのフェーズとして合体してもよい。サーバ200は、現在のフェーズから前のフェーズへ戻す機能を提供できる。
 図1に戻り、サーバ200は、例えば、第1会話情報310、第2会話情報320、回答情報500等を含むデータベースを管理している。サーバ200は、例えば、第1会話情報310及び第2会話情報320を、フェーズ1、フェーズ2、フェーズ3、フェーズ4及びフェーズ5ごとに関連付けて管理している。
 第1会話情報310は、例えば、指向性を有していない会話等を出力可能な情報を含む。指向性を有していない会話とは、例えば、ユーザUの課題の改善を目的としていない会話、雑談を行うための会話等を意味する。第2会話情報320は、例えば、指向性を有する会話等を出力可能な情報を含む。指向性を有する会話とは、例えば、ユーザUの課題の改善を目的とした会話を意味する。第2会話情報320は、例えば、生活習慣、生活環境、嗜好、ストレスチェック、職場診断、コンテンツ紹介等を目的とした会話を出力可能な情報を含む。第1会話情報310及び第2会話情報320は、例えば、時間帯、季節等ごとに、質問、回答及び応答の会話を示す情報を含んでいる。第1会話情報310は、例えば、挨拶、雑談、ニュース、天気、クイズ、遊び等の第1会話を含む。第1会話は、例えば、秒、時、日、月もしくは年のいずれかにより変化する会話を含む。秒、時、日、月もしくは年のいずれかにより変化する会話とは、例えば、会話の一部を、秒、時、日、月もしくは年のいずれかにより変化させる会話を意味する。例えば、第1会話は、対話する時間帯、日時、季節等に適した文字列を設定した会話とすることができる。
 図3に示すように、第1会話情報310及び第2会話情報320は、質問項目D1と、回答項目D2と、応答項目D3とを有する。質問項目D1は、ユーザUに対する質問内容を示す情報を含む。回答項目D2は、ユーザUにより選択される複数の回答を示す情報を含む。応答項目D3は、ユーザUが選択した回答に対する応答を示す情報を含む。応答項目D3は、回答項目D2の複数の回答のそれぞれに応じた応答を示す情報を含む。
 図3に示す一例では、第1会話情報310は、「おはよう!新しい朝だ!」の会話を示す情報が質問項目D1に設定されている。第1会話情報310は、「(a)おはよう!(b)ふーん!(c)ばいばい!」の3つの選択肢を示す情報が回答項目D2に設定されている。第1会話情報310は、「(a)来てくれてありがとう!(b)来てくれてありがとう!(c)またね!」の3つの応答を示す情報が応答項目D3に設定されている。
 第2会話情報320は、例えば、体重に課題を持つユーザUに対する会話情報となっている。第2会話情報320は、「昨日はお酒飲んだ?」の会話を示す情報が質問項目D1に設定されている。第2会話情報320は、「(a)はい(b)いいえ」の2つの選択肢を示す情報が回答項目D2に設定されている。第2会話情報320は、「(a)リフレッシュになったかな?(b)さすがだね!」の3つの応答を示す情報が応答項目D3に設定されている。サーバ200は、第2会話情報320に基づくユーザUとの会話を実現することにより、ユーザUの回答等に基づいてユーザUの行動変容に関する情報を収集することができる。
 図1に戻り、サーバ200は、第1会話情報310と第2会話情報320とを用いて、ユーザUの回答情報500を収集する機能を提供できる。回答情報500は、例えば、質問項目D1、回答項目D2、応答項目D3等の内容を識別可能な情報を含む。回答情報500は、例えば、質問に対する回答の有無を識別可能な情報を含む。回答情報500は、質問、回答、応答等の会話を行った日時を識別可能な情報を含む。
 図4は、実施形態に係るサーバ200のシナリオ会話とログとの関係の一例を説明するための図である。サーバ200は、例えば、図4に示すシナリオ情報300を用いてシナリオ会話を実現する。シナリオ情報300は、例えば、シナリオ番号、シナリオ会話、会話情報の種類等といった項目を有する。シナリオ情報300は、シナリオ番号がシナリオの順序を示している。シナリオ会話の項目は、挨拶・雑談、指向性会話(1)、指向性会話(2)、指向性会話(3)、挨拶等のシナリオ会話の種類を示す情報が設定される。会話情報の種類の項目は、会話で用いる第1会話情報310または第2会話情報320の種類が設定される。会話情報の種類の項目は、シナリオ会話で用いる第1会話情報310または第2会話情報320を識別可能な情報が設定される。
 図4に示す一例では、シナリオ情報300は、挨拶・雑談、指向性会話(1)、指向性会話(2)、指向性会話(3)、挨拶の順序で会話を行うシナリオを示している。シナリオ情報300は、挨拶・雑談及び挨拶のシナリオ会話において、第1会話情報310を用いることを示している。シナリオ情報300は、指向性会話(1)、指向性会話(2)及び指向性会話(3)のシナリオ会話において、フェーズに応じた第2会話情報320を用いることを示している。
 サーバ200は、シナリオ情報300に基づいて、挨拶・雑談、指向性会話(1)、指向性会話(2)、指向性会話(3)及び挨拶の順序でシナリオ会話を行うように、電子機器100の出力を制御する。サーバ200は、電子機器100でシナリオ会話を実行させたか否かのログを示すログ情報330を作成する機能を有する。ログ情報330は、例えば、シナリオ番号、ログ等の項目を有する。ログ情報330のシナリオ番号の項目には、例えば、対応するシナリオ情報300のシナリオ番号を示す情報が設定される。ログ情報330のシナリオのログの項目には、例えば、シナリオ番号に対応するシナリオ会話を実行したか否かを示す情報が設定される。ログ情報330のシナリオのログの項目は、例えば、会話を実行した日時等を示す情報を設定する構成としてもよい。
 図4に示す一例では、シナリオ情報300は、挨拶・雑談、指向性会話(1)、指向性会話(2)、指向性会話(3)、挨拶を示すシナリオとした場合について説明したが、これに限定されない。例えば、シナリオ情報300は、フェーズの種類に応じた、指向性会話の数を変更してもよい。
 以下では、サーバ200は、体重に課題を持つユーザUを支援対象として、課題の改善を支援する場合の一例について説明する。
 図5は、実施形態に係るサーバ200が電子機器100にメッセージを表示させる一例を示す図である。図5に示す一例では、電子機器100は、チャットボットのアプリケーションを実行している。チャットボットは、例えば、シナリオや設定された回答を選択して会話する機能を提供できる。チャットボットは、ユーザUに解決策を提示するのではなく、聞き役となり、共感や理解することで、ユーザU自らが成長や変容を促すカウンセリングを実現できる。電子機器100は、ユーザUによってアプリケーションが実行されると、サーバ200にログインし、ユーザUが電子機器100からサーバ200の使用を開始する。サーバ200は、ユーザU及びフェーズを認識し、メッセージ画面600を電子機器100の表示部110に表示させる。
 サーバ200は、ログインした時間区分に応じたシナリオ情報300を取得し、該シナリオ情報300に基づくユーザUとの会話を開始する。
 シナリオ番号SN1では、サーバ200は、アバター610と、挨拶に関する第1会話情報310が示す会話のメッセージ620とを関連付けてメッセージ画面600に表示するように、電子機器100を制御する。サーバ200は、例えば、ユーザUがサーバ200にログイン(アクセス)した時間区分の会話を示すメッセージ620を、電子機器100に表示させる。
 メッセージ620は、アバター610の吹き出しとして表示されている。サーバ200は、第1会話情報310の回答項目D2が示す複数の選択肢を示すメッセージ630を、メッセージ620に関連付けてメッセージ画面600に表示するように、電子機器100を制御する。これにより、電子機器100は、「佐藤さん、おはよう!新しい朝だ!」のメッセージ620と、「おはよう!」、「ふーん」及び「ばいばい!」の選択肢を示す3つのメッセージ630とをメッセージ画面600に表示する。
 ユーザUは、3つの選択肢のうち、「ふーん」のメッセージ630を電子機器100で選択している。電子機器100は、「ふーん」のメッセージ630が選択されたことを示す回答情報500をサーバ200に送信する。サーバ200は、回答情報500の「ふーん」の回答を示すメッセージ640を、ユーザUの回答としてメッセージ画面600に表示するように、電子機器100を制御する。これにより、電子機器100は、ユーザUの回答として「ふーん」のメッセージ640を、メッセージ画面600の右側から吹き出すように表示する。
 サーバ200は、シナリオ情報300に基づいて、「ふーん」に応じた応答を第1会話情報310から抽出し、該応答のメッセージ640をメッセージ画面600に表示するように、電子機器100を制御する。これにより、電子機器100は、アバター610の会話として、「来てくれてありがとう!」のメッセージ620を、メッセージ画面600に表示する。
 シナリオ情報300のシナリオ番号SN1では、挨拶に続く雑談の会話が示されている。このため、サーバ200は、アバター610と、第1会話情報310が示す雑談の会話を示すメッセージ620とを関連付けてメッセージ画面600に表示するように、電子機器100を制御する。サーバ200は、第1会話情報310が示す回答の選択肢を示すメッセージ630を、メッセージ620に関連付けてメッセージ画面600に表示するように、電子機器100を制御する。これにより、電子機器100は、「今日は豆腐の日です」のメッセージ620と、「知ってた」、「知らなかった」及び「ばいばい!」の選択肢を示す3つのメッセージ630とをメッセージ画面600に表示する。
 ユーザUは、3つの選択肢のうち、「知らなかった」のメッセージ630を選択している。電子機器100は、「知らなかった」のメッセージ630が選択されたことを示す回答情報500をサーバ200に送信する。サーバ200は、回答情報500の「知らなかった」の回答を示すメッセージ630を、ユーザUの回答としてメッセージ画面600に表示するように、電子機器100を制御する。これにより、電子機器100は、ユーザUの回答として「知らなかった」のメッセージ640を、メッセージ画面600の右側から吹き出すように表示する。
 サーバ200は、シナリオ情報300に基づいて、ユーザUが選択した「知らなかった」に応じた応答を第1会話情報310から抽出し、該応答のメッセージ620をメッセージ画面600に表示するように、電子機器100を制御する。これにより、電子機器100は、アバター610の会話として、「新しい発見だね!」のメッセージ620を、メッセージ画面600に表示する。
 シナリオ番号SN1の会話が終了すると、サーバ200は、シナリオ情報300に基づいて、シナリオ番号SN2の指向性会話(1)のシナリオ会話を制御する処理を開始する。
 シナリオ番号SN2では、サーバ200は、アバター610と、指向性会話(1)に関する会話のメッセージ620とを関連付けてメッセージ画面600に表示するように、電子機器100を制御する。サーバ200は、例えば、第2会話情報320の回答項目D2が示す回答の選択肢を示すメッセージ630を、メッセージ620に関連付けてメッセージ画面600に表示するように、電子機器100を制御する。これにより、電子機器100は、「昨日はお酒飲んだ?」のメッセージ620と、「いいえ」及び「はい」の選択肢を示す2つのメッセージ630とをメッセージ画面600に表示する。
 ユーザUは、表示された2つの選択肢のうち、「はい」のメッセージ630を選択している。電子機器100は、「はい」のメッセージ630が選択されたことを示す回答情報500をサーバ200に送信する。サーバ200は、シナリオ情報300に基づいて、ユーザUが選択した「はい」に応じた応答を第2会話情報320から抽出し、該応答のメッセージ620をメッセージ画面600に表示するように、電子機器100を制御する。これにより、電子機器100は、アバター610の会話として、「リフレッシュになったかな?」のメッセージ620を、メッセージ画面360に表示する。
 以降も同様に、サーバ200は、シナリオ情報300に基づいて、第1会話情報310と第2会話情報320との会話を組み合わせることで、ユーザUとのシナリオ会話を実現する。その結果、サーバ200は、ユーザUとの雑談及び指向性会話によって得られた回答情報500を、表示した会話に関連付けて収集することができる。また、図5に示す一例の場合、サーバ200は、シナリオ番号SN1、SN2の会話を実行し、それ以降のシナリオ会話を実行していないことを示すログ情報330を作成する。
 図6は、実施形態に係る電子機器100の構成の一例を示す図である。図6に示すように、電子機器100は、表示部110と、操作部120と、出力部130と、センサ部140と、通信部150と、記憶部160と、制御部170と、を備える。制御部170は、表示部110、操作部120、出力部130、センサ部140、通信部150、記憶部160等と電気的に接続されている。
 表示部110は、例えば、液晶ディスプレイ(Liquid Crystal Display)、有機ELディスプレイ(Organic Electro-Luminescence Display)等の表示パネルを有する。表示部110は、制御部170から入力される信号に応じて、文字、図形、画像等の情報を表示できる。表示部110が表示する情報には、上述した第1会話情報310、第2会話情報320、回答情報500等の各種情報が含まれる。
 操作部120は、ユーザの操作を受け付けるための1ないし複数のデバイスを有する。ユーザの操作を受け付けるためのデバイスは、例えば、キー、ボタン、タッチスクリーン等を含む。操作部120は、受け付けた操作に応じた信号を制御部170へ供給できる。
 出力部130は、制御部170から入力される音信号を音として出力できる。出力部130は、例えば、ステレオスピーカ、サラウンドスピーカ等を有する。出力部130は、制御部170から入力されたモノラル信号、ステレオ信号、サラウンド信号等を外部に出力できる。
 センサ部140は、ユーザUや周囲に係る音、画像等の種々の取得情報を取得できる。本実施形態に係るセンサ部140は、例えば、カメラ、マイクロフォン等を含む。センサ部140は、例えば、地磁気センサ、タッチセンサ、赤外線センサ、温度センサ、湿度センサなどの様々なセンサを含んでもよい。センサ部140は、取得した取得情報を制御部170に供給できる。センサ部140は、マイクロフォンによって取得したユーザUの音声等を示す取得情報を制御部170に供給できる。センサ部140は、カメラで取得したユーザUの画像、映像等を示す取得情報を制御部170に供給できる。
 通信部150は、例えば、サーバ200、他の電子機器100等と通信できる。通信部150は、各種通信規格をサポートできる。通信部150は、例えば、有線又は無線ネットワーク等を介して各種情報を送受信できる。通信部150は、受信した情報を制御部170に供給できる。通信部150は、制御部170が指示した送信先に情報を送信できる。
 記憶部160は、プログラム及びデータを記憶できる。記憶部160は、制御部170の処理結果を一時的に記憶する作業領域としても利用される。記憶部160は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non-transitory)な記憶媒体を含んでよい。記憶部160は、複数の種類の記憶媒体を含んでよい。記憶部160は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。記憶部160は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
 記憶部160は、例えば、プログラム161、第1会話情報310、第2会話情報320、回答情報500等を記憶できる。プログラム161には、アプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、サーバ200と連携してユーザUとの会話を実現するための機能を提供できる。アプリケーションは、例えば、表示部110に画面を表示させ、操作部120のタッチスクリーンを介して検出されるジェスチャに応じた処理を制御部170に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信部150による無線通信又は非一過的な記憶媒体を介して記憶部160にインストールされてもよい。
 第1会話情報310は、例えば、サーバ200から受信した雑談等の会話と該会話に対応する複数の選択肢とを示す情報を含む。第2会話情報320は、例えば、サーバ200から受信した指向性を有する会話と、該会話に対応した複数の選択肢とを示す情報を含む。回答情報500は、例えば、操作部120を介して取得したユーザUの回答を示す情報を含む。記憶部160は、第1会話情報310、第2会話情報320、回答情報500等を時系列順に記憶できる。
 制御部170は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System-on-a-Chip)、MCU(Micro Control Unit)、FPGA(Field-Programmable Gate Array)、及びコプロセッサを含むが、これらに限定されない。制御部170は、電子機器100の動作を統括的に制御して各種の機能を実現する。
 具体的には、制御部170は、記憶部160に記憶されている情報を必要に応じて参照しつつ、記憶部160に記憶されているプログラム161に含まれる命令を実行する。そして、制御部170は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、表示部110、操作部120、出力部130、センサ部140、及び通信部150を含むが、これらに限定されない。
 制御部170は、通信部150を介して、サーバ200から会話、選択肢等に関する情報の出力が指示されると、会話、選択肢等を示すメッセージを表示部110に表示させる。制御部170は、操作部120を介して、選択肢に対するユーザUの選択を検出すると、選択肢の選択結果を示す回答情報500をサーバ200に送信する制御を行う。
 以上、本実施形態に係る電子機器100の機能構成例について説明した。なお、図6を用いて説明した上記の構成はあくまで一例であり、本実施形態に係る電子機器100の機能構成は係る例に限定されない。本実施形態に係る電子機器100の機能構成は、仕様や運用に応じて柔軟に変形可能である。
 図7は、実施形態に係るサーバ200の構成の一例を示す図である。図7に示すように、サーバ200は、表示部210と、操作部220と、通信部230と、記憶部240と、制御部250と、を備える。制御部250は、表示部210、操作部220、通信部230、記憶部240等と電気的に接続されている。
 表示部210は、制御部250の制御によって各種情報を表示可能なように構成されている。表示部210は、例えば、液晶ディスプレイ、有機ELディスプレイ等の表示パネルを有する。表示部210は、制御部250から入力される信号に応じて、文字、図形、画像等の情報を表示する。
 操作部220は、ユーザの操作を受け付けるための1ないし複数のデバイスを有する。ユーザの操作を受け付けるためのデバイスは、例えば、キー、ボタン、タッチスクリーン等を含む。操作部220は、受け付けた操作に応じた信号を制御部250へ供給できる。
 通信部230は、例えば、電子機器100、他の通信機器等と通信できる。通信部230は、各種通信規格をサポートできる。通信部230は、例えば、有線又は無線ネットワーク等を介して各種情報を送受信できる。通信部230は、受信した情報を制御部250に供給できる。通信部230は、制御部250が指示した送信先に情報を送信できる。
 記憶部240は、プログラム及びデータを記憶できる。記憶部240は、制御部250の処理結果を一時的に記憶する作業領域としても利用される。記憶部240は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的な記憶媒体を含んでよい。記憶部240は、複数の種類の記憶媒体を含んでよい。記憶部240は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。記憶部240は、RAM等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
 記憶部240は、例えば、プログラム241、シナリオ情報300、第1会話情報310、第2会話情報320、ログ情報330、回答情報500等を記憶できる。プログラム241は、電子機器100と連携してユーザUとの会話を実現するための各種制御に関する機能を制御部250に実行させる。シナリオ情報300は、上述したように、ユーザUとサーバ200との会話のシナリオ、ルール等を示す情報である。記憶部240は、複数の第1会話情報310及び第2会話情報320を記憶することでデータベースを実現してもよいし、データベースから取得した第1会話情報310及び第2会話情報320を記憶してもよい。ログ情報330は、例えば、会話、質問、回答、応答等のログを示す情報を含む。回答情報500は、例えば、通信部230を介して電子機器100から受信した情報である。回答情報500は、例えば、ユーザU、電子機器100等を識別可能な情報が関連付けられている。
 制御部250は、演算処理装置である。演算処理装置は、例えば、CPU、SoC、MCU、FPGA、及びコプロセッサを含むが、これらに限定されない。制御部250は、サーバ200の動作を統括的に制御して各種の機能を実現できる。
 具体的には、制御部250は、記憶部240に記憶されている情報を必要に応じて参照しつつ、記憶部240に記憶されているプログラム241に含まれる命令を実行できる。そして、制御部250は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現できる。機能部は、例えば、表示部210及び通信部230を含むが、これらに限定されない。
 制御部250は、判別部251、決定部252、質問部253、計数部254、出力制御部255等の機能部を有する。制御部250は、プログラム241を実行することによって、判別部251、決定部252、質問部253、計数部254、出力制御部255等の機能を実現する。プログラム241は、サーバ200の制御部250を、判別部251、決定部252、質問部253、計数部254及び出力制御部255として機能させるためのプログラムである。
 判別部251は、ユーザUから取得した質問に対する回答が、第1の種類の回答であるか、第2の種類の回答であるかを判別する。判別部251は、例えば、電子機器100を介して取得したユーザUの回答情報に基づいて、回答が第1の種類の回答であるか、第2の種類の回答であるかを判別する。第1の種類の回答は、例えば、チェンジトークを含む。チェンジトークは、ユーザU自身が表明する変化に賛成する発言の全て含む。第2の種類の回答は、例えば、維持トークを含む。維持トークは、例えば、変化に反対する現状維持の発言の全てを含む。
 図8は、実施形態に係るチェンジトークと維持トークの一例を説明するための図である。図8に示すように、チェンジトークは、例えば、準備チェンジトークと、実行チェンジトークと、を含む。準備チェンジトークは、例えば、行動変容は起き難いが、実行チェンジトークの起因となるユーザUの発言を含む。実行チェンジトークは、例えば、実際に実行することのサインとなる発言を含む。
 準備チェンジトークは、例えば、願望、能力、理由、ニーズ等の分類を含む。願望は、例えば、痩せたい等のチェンジトークを含む。これに対し、願望のチェンジトークに対する維持トークは、例えば、運動したくない等の発言を含む。能力は、例えば、歩くことができる等のチェンジトークを含む。これに対し、能力のチェンジトークに対する維持トークは、例えば、運動しなくても健康です等の発言を含む。理由は、例えば、運動すれば痩せる等のチェンジトークを含む。これに対し、理由のチェンジトークに対する維持トークは、例えば、運動する時間はありません等の発言を含む。ニーズは、例えば、夏までには痩せるべき等のチェンジトークを含む。これに対し、ニーズのチェンジトークに対する維持トークは、例えば、運動よりも休養が必要です等の発言を含む。
 実行チェンジトークは、例えば、コミットメント、活性化、段階を踏む等の分類を含む。コミットメントは、例えば、明日から運動します等のチェンジトークを含む。コミットメントのチェンジトークに対する維持トークは、例えば、ダイエットをやめます等の発言を含む。活性化は、例えば、ダイエットする気がある等のチェンジトークを含む。活性化のチェンジトークに対する維持トークは、例えば、運動する気がありません等の発言を含む。段階を踏むは、例えば、運動するためのシューズを買いました等のチェンジトークを含む。段階を踏むのチェンジトークに対する維持トークは、例えば、運動を休んでいます等の発言を含む。
 チェンジトークと維持トークは、混在していることが普通である。チェンジトークの発言数は、維持トークの発言数を上回ることによって行動変容の確率が上がる。よって、本開示では、チェンジトークを強化することで、維持トークよりもチェンジトークの発言数を増加させる。本開示では、準備チェンジトークから実行チェンジトークが増加するようにさせることができる。例えば、指向性を有する第2会話情報320は、回答項目D2として、準備チェンジトーク、実行チェンジトーク及び維持トークのそれぞれに対応した回答を設定している。これにより、判別部251は、ユーザUから取得した質問に対する回答を詳細に判別すること可能となっている。
 図7に戻り、判別部251は、ユーザUの回答がチェンジトークであるか、維持トークであるかを判別する。判別部251は、例えば、チェンジトーク及び維持トークのデータベースを参照し、回答がチェンジトークであるか、維持トークであるかを判別する。判別部251は、例えば、チェンジトークの回答と維持トークの回答との教師データを機械学習した学習済みのプログラムを用いて、回答を判別する構成としてもよい。判別部251は、判別結果を記憶部240に記憶する。
 決定部252は、判別部251による判別結果に基づいて、現在第1のフェーズにいるユーザのフェーズを、第1のフェーズに維持するか、第2のフェーズに移行するかを決定する。第1のフェーズに維持するとは、例えば、現在のフェーズから他のフェーズに移行させないことを意味する。第2のフェーズに移行するとは、例えば、現在のフェーズから次または以前のフェーズに移行することを意味する。決定部252は、判別部251の判別結果が第1の種類の回答である場合に、第2のフェーズに移行すると決定し、判別部251の判別結果が第2の種類の回答である場合に、第1のフェーズを維持すると決定する。
 決定部252は、所定期間における判別部251の判別結果に基づいて、ユーザUのフェーズを、第1のフェーズに維持するか、第2のフェーズに移行するかを決定する。所定期間は、例えば、1週間、3日間等の任意の期間を含む。決定部252は、ユーザUから取得した回答における、第1の種類の回答の個数と、第2の種類の回答の個数との割合に基づいて、ユーザUのフェーズを、第1のフェーズに維持するか、第2のフェーズに移行するかを決定する。決定部252は、ユーザUとの会話の数が閾値を超えた場合に、回答における、第1の種類の回答の個数と、第2の種類の回答の個数との割合に基づいて、ユーザのフェーズUを、第1のフェーズに維持するか、第2のフェーズに移行するかを決定する。決定部252は、ユーザUから取得した実行チェンジトークの数または割合に基づいて、ユーザUのフェーズを、第1のフェーズに維持するか、第2のフェーズに移行するかを決定する。
 質問部253は、ユーザUに対して課題に関する質問を提示する。質問部253は、上述した質問項目D1に設定された質問の情報を電子機器100に送信し、電子機器100に出力させることで、質問を提示する。質問部253は、現在のフェーズに対応し、かつユーザUから回答を得るための質問を提示する。
 決定部252は、質問部253による質問の回答が第2の種類の回答であるか否かに基づいて、ユーザUのフェーズを、第1のフェーズに維持するか、第2のフェーズに移行するかを決定する。決定部252は、質問に対する肯定的な回答の個数に基づいて、ユーザのフェーズを、第1のフェーズに維持するか、第2のフェーズに移行するかを決定する。決定部252は、質問に対する肯定的な回答の個数が、フェーズにおけるユーザUの行動変容が定着している個数である場合、ユーザUのフェーズを第2のフェーズに移行する。フェーズにおけるユーザUの行動変容が定着している個数は、例えば、実験結果、任意の個数を設定することができる。
 計数部254は、ユーザUと確認会話が継続する回数を計数する。確認会話は、例えば、会話が成り立つユーザUであるか否かを判定するための会話を含む。計数部254は、例えば、フェーズ1における確認会話と該確認会話に対するユーザUの回答との回数を計数する。例えば、フェーズ1において、確認対話に対して所定回数の回答が得られる場合、サーバ200は、会話が成り立っていると判断することができる。所定回数は、例えば、5回、10回等の任意の回数を含む。計数部254は、計数した結果を記憶部240に記憶する。
 決定部252は、計数部254の計数結果が判定条件を満たす場合に、ユーザUのフェーズを、第1のフェーズに維持するか、第2のフェーズに移行するかを決定する処理を実行する。判定条件は、例えば、フェーズ1において10回答以上の条件等を含む。
 出力制御部255は、フェーズに対応する会話を出力するための会話情報を、ユーザUが操作可能な電子機器100に出力させる。ユーザUが操作可能な電子機器100とは、例えば、ユーザUが所有する電子機器100、ユーザUがログイン可能な電子機器100等を含む。出力制御部255は、通信部230を介して、会話情報の出力を電子機器100に指示することで、会話情報を電子機器100に出力させる。
 出力制御部255は、ユーザUの電子機器100に、第1会話情報310を出力させた後に、第2会話情報320を出力させる。出力制御部255は、ユーザUの電子機器100に、第1会話情報310を出力させた後に、第2会話情報320を出力させ、第2会話情報320を出力させた後に、異なる第1会話情報を出力させる。すなわち、出力制御部255は、雑談、指向性会話、雑談を1つのセットとしたシナリオ会話でユーザUとの対話を実現できる。
 出力制御部255は、ユーザUの前回のログインの際に第1会話情報310を出力させている場合、今回のログインの際には、ログ情報330に基づいて電子機器100に出力させていない第1会話情報310または第2会話情報320を、電子機器100に出力させる。例えば、ユーザUは、時間区分における会話が終了した後、同じ時間区分に再度ログインする可能性がある。この場合、出力制御部255は、同じ会話情報を出力することを回避できるので、ユーザUが会話に煩わしさを感じることを抑制することができる。
 出力制御部255は、現在の時刻の時間区分に基づいて第1会話情報310及び第2会話情報320を選択する。出力制御部255は、現在の時刻が時間区分の夜である場合、ユーザUから1日の感想を引き出す第1会話情報310を選択する。1日の感想を引き出す第1会話情報310は、例えば、1日の感想を質問する会話を含む会話情報である。出力制御部255は、ユーザUに対する第2会話(指向性会話)が予定数終了している場合、ユーザUに所定時間の待機を示す旨の第1会話を電子機器100に出力させる。予定数は、例えば、複数のフェーズごとに任意に設定できる。出力制御部255は、複数の第1会話情報310のうち、ユーザUの電子機器100で出力させていない第1会話情報310を、電子機器100に出力させる。出力制御部255は、ログ情報330に基づいて、出力させていない第1会話情報310を記憶部240から抽出し、該第1会話情報310を電子機器100に出力させる。
 以上、本実施形態に係るサーバ200の機能構成例について説明した。なお、図7を用いて説明した上記の構成はあくまで一例であり、本実施形態に係るサーバ200の機能構成は係る例に限定されない。本実施形態に係るサーバ200の機能構成は、仕様や運用に応じて柔軟に変形可能である。
 図9は、実施形態に係るサーバ200が実行する出力制御の一例を示すフローチャートである。図9に示す処理手順は、サーバ200の制御部250がプログラム241を実行することによって実現される。図9に示す処理手順は、ユーザUが電子機器100からサーバ200にログインしたタイミング等に実行される。
 図9に示すように、サーバ200の制御部250は、時間区分が朝であるか否かを判定する(ステップS100)。例えば、制御部250は、現在の時刻が朝の時間区分である場合、時間区分が朝であると判定する。制御部250は、時間区分が朝であると判定した場合(ステップS100でYes)、処理をステップS200に進める。
 制御部250は、時間区分が朝の会話処理を実行する(ステップS200)。時間区分が朝の会話処理は、例えば、時間区分が朝に適した第1会話情報310及び第2会話情報320を、シナリオ会話の順序で電子機器100に出力させる処理等を含む。
 図10は、図9に示す朝の会話処理の一例を示すフローチャートである。図10に示すように、制御部250は、第1会話情報310に基づいて、朝の挨拶の会話処理を実行する(ステップS201)。例えば、制御部250は、挨拶を示す複数の第1会話情報310の中から、現在の日時に適した第1会話情報310をランダムに抽出し、該第1会話情報310の出力を電子機器100に指示する処理を実行する。制御部250は、第1会話情報310の出力が終了すると、第1会話情報310と該第1会話情報310を出力した日時等を識別可能なログ情報330を作成する。制御部250は、ステップS201の処理が終了すると、処理をステップS202に進める。
 制御部250は、雑談が済みであるか否かを判定する(ステップS202)。例えば、制御部250は、同一の日付で朝の時間区分に、雑談の第1会話情報310を出力させていることをログ情報330が示している場合、雑談が済みであると判定する。制御部250は、雑談が済みではないと判定した場合(ステップS202でNo)、処理をステップS203に進める。
 制御部250は、第1会話情報310に基づいて、雑談の会話処理を実行する(ステップS203)。例えば、制御部250は、雑談を示す複数の第1会話情報310の中から、出力していない、あるいは、出力してから一定期間が経過した第1会話情報310を抽出し、該第1会話情報310の出力を電子機器100に指示する処理を実行する。制御部250は、第1会話情報310の出力が終了すると、第1会話情報310と該第1会話情報310を出力した日時等を識別可能なログ情報330を作成する。制御部250は、ステップS203の処理が終了すると、処理をステップS204に進める。
 制御部250は、第2会話情報320に基づいて、指向性会話(1)の会話処理を実行する(ステップS204)。例えば、制御部250は、ユーザUのフェーズに対応したシナリオ情報300に基づいて、指向性会話(1)に対応する第2会話情報320を取得し、該第2会話情報320の質問、回答及び応答の出力を電子機器100に指示する処理を実行する。制御部250は、第2会話情報320の出力が終了すると、指向性会話(1)を出力した日時等を識別可能なログ情報330を作成する。制御部250は、ステップS204の処理が終了すると、処理をステップS205に進める。
 制御部250は、第2会話情報320に基づいて、指向性会話(2)の会話処理を実行する(ステップS205)。例えば、制御部250は、シナリオ情報300に基づいて、指向性会話(1)の次の指向性会話(2)に対応する第2会話情報320を取得し、該第2会話情報320の質問、回答及び応答の出力を電子機器100に指示する処理を実行する。制御部250は、第2会話情報320の出力が終了すると、指向性会話(2)を出力した日時等を識別可能なログ情報330を作成する。制御部250は、ステップS205の処理が終了すると、処理をステップS206に進める。
 制御部250は、第2会話情報320に基づいて、指向性会話(3)の会話処理を実行する(ステップS206)。例えば、制御部250は、シナリオ情報300に基づいて、指向性会話(2)の次の指向性会話(3)に対応する第2会話情報320を取得し、該第2会話情報320の質問、回答及び応答の出力を電子機器100に指示する処理を実行する。制御部250は、第2会話情報320の出力が終了すると、指向性会話(3)を出力した日時等を識別可能なログ情報330を作成する。制御部250は、ステップS206の処理が終了すると、処理をステップS207に進める。
 制御部250は、第1会話情報310に基づいて、終わりの挨拶の会話処理を実行する(ステップS207)。例えば、制御部250は、終わりの挨拶を示す複数の第1会話情報310の中から、現在の日時に適した第1会話情報310をランダムに抽出し、該第1会話情報310の出力を電子機器100に指示する処理を実行する。制御部250は、第1会話情報310の出力が終了すると、第1会話情報310と該第1会話情報310を出力した日時等を識別可能なログ情報330を作成する。制御部250は、ステップS207の処理が終了すると、図10に示す処理手順を終了し、図9に示すステップS200の処理に復帰する。
 また、制御部250は、雑談が済みであると判定した場合(ステップS202でYes)、処理をステップS208に進める。制御部250は、指向性会話(1)が済んでいるか否かを判定する(ステップS208)。例えば、制御部250は、ユーザUのログ情報330が指向性会話(1)を出力したことを示している場合、指向性会話(1)が済んでいると判定する。
 制御部250は、指向性会話(1)が済んでいないと判定した場合(ステップS208でNo)、処理を既に説明したステップS204に進める。制御部250は、第2会話情報320に基づいて、指向性会話(1)の会話処理を実行する(ステップS204)。制御部250は、第2会話情報320に基づいて、指向性会話(2)の会話処理を実行する(ステップS205)。制御部250は、第2会話情報320に基づいて、指向性会話(3)の会話処理を実行する(ステップS206)。すなわち、制御部250は、実行済みのステップS203の雑談の会話処理を実行せずに、指向性会話(1)、指向性会話(2)及び指向性会話(3)の会話処理を順次実行する。制御部250は、第1会話情報310に基づいて、終わりの挨拶の会話処理を実行する(ステップS207)。制御部250は、ステップS207の処理が終了すると、図10に示す処理手順を終了し、図9に示すステップS200の処理に復帰する。
 また、制御部250は、指向性会話(1)が済んでいると判定した場合(ステップS208でYes)、処理をステップS209に進める。制御部250は、指向性会話(2)が済んでいるか否かを判定する(ステップS209)。例えば、制御部250は、ユーザUのログ情報330が指向性会話(2)を出力したことを示している場合、指向性会話(2)が済んでいると判定する。
 制御部250は、指向性会話(2)が済んでいないと判定した場合(ステップS209でNo)、処理を既に説明したステップS205に進める。制御部250は、第2会話情報320に基づいて、指向性会話(2)の会話処理を実行する(ステップS205)。制御部250は、シナリオ情報300が示す第2会話情報320に基づいて、指向性会話(3)の会話処理を実行する(ステップS206)。すなわち、制御部250は、実行済みのステップS203の雑談及びステップS204の指向性会話(1)の会話処理を実行せずに、指向性会話(2)及び指向性会話(3)の会話処理を順次実行する。制御部250は、第1会話情報310に基づいて、終わりの挨拶の会話処理を実行する(ステップS207)。制御部250は、ステップS207の処理が終了すると、図10に示す処理手順を終了し、図9に示すステップS200の処理に復帰する。
 また、制御部250は、指向性会話(2)が済んでいると判定した場合(ステップS209でYes)、処理をステップS210に進める。制御部250は、指向性会話(3)が済んでいるか否かを判定する(ステップS210)。例えば、制御部250は、ユーザUのログ情報330が指向性会話(3)を出力したことを示している場合、指向性会話(3)が済んでいると判定する。
 制御部250は、指向性会話(3)が済んでいないと判定した場合(ステップS210でNo)、処理を既に説明したステップS206に進める。制御部250は、シナリオ情報300が示す第2会話情報320に基づいて、指向性会話(3)の会話処理を実行する(ステップS206)。すなわち、制御部250は、実行済みのステップS203の雑談、ステップS204の指向性会話(1)及びステップS205の指向性会話(2)の会話処理を実行せずに、指向性会話(3)の会話処理のみを実行する。制御部250は、第1会話情報310に基づいて、終わりの挨拶の会話処理を実行する(ステップS207)。制御部250は、ステップS207の処理が終了すると、図10に示す処理手順を終了し、図9に示すステップS200の処理に復帰する。
 また、制御部250は、指向性会話(3)が済んでいると判定した場合(ステップS210でYes)、処理をステップS211に進める。制御部250は、ユーザUに待機を促す処理を実行する(ステップS211)。待機を促す処理は、例えば、指向性会話(1)から指向性会話(3)が終了しており、次のフェーズに移行するまで待機することを促すための情報を電子機器100に出力させる処理等を含む。制御部250は、ステップS211の処理が終了すると、図10に示す処理手順を終了し、図9に示すステップS200の処理に復帰する。
 図9に戻り、制御部250は、ステップS200の処理が終了すると、図9に示す処理手順を終了させる。
 また、制御部250は、時間区分が朝ではないと判定した場合(ステップS100でNo)、処理をステップS300に進める。制御部250は、時間区分が昼であるか否かを判定する(ステップS300)。例えば、制御部250は、現在の時刻が昼の時間区分である場合、時間区分が昼であると判定する。制御部250は、時間区分が昼であると判定した場合(ステップS300でYes)、処理をステップS400に進める。
 制御部250は、時間区分が昼の会話処理を実行する(ステップS400)。時間区分が昼の会話処理は、例えば、時間区分が昼に適した第1会話情報310及び第2会話情報320を、シナリオ会話の順序で電子機器100に出力させる処理等を含む。
 図11は、図9に示す昼の会話処理の一例を示すフローチャートである。図11に示すように、制御部250は、第1会話情報310に基づいて、昼の挨拶の会話処理を実行する(ステップS401)。例えば、制御部250は、挨拶を示す複数の第1会話情報310の中から、現在の日時に適した第1会話情報310をランダムに抽出し、該第1会話情報310の出力を電子機器100に指示する処理を実行する。制御部250は、第1会話情報310の出力が終了すると、第1会話情報310と該第1会話情報310を出力した日時等を識別可能なログ情報330を作成する。制御部250は、ステップS401の処理が終了すると、処理をステップS402に進める。
 制御部250は、ABテストの処理を実行する(ステップS402)。ABテストは、異なる2パターンのWebページを用意し、実際にユーザUに利用させて効果を比較するテストである。制御部250は、ABテストの処理を実行することで、ABテストをユーザUに利用させ、得られた効果を示す結果情報をユーザUに関連付けて記憶部240に記憶する。制御部250は、ステップS402の処理が終了すると、処理をステップS403に進める。
 制御部250は、指向性会話(1)が済んでいるか否かを判定する(ステップS403)。例えば、制御部250は、ユーザUのログ情報330が指向性会話(1)を出力したことを示している場合、指向性会話(1)が済んでいると判定する。制御部250は、指向性会話(1)が済んでいないと判定した場合(ステップS403でNo)、処理をステップS404に進める。
 制御部250は、第2会話情報320に基づいて、指向性会話(1)の会話処理を実行する(ステップS404)。指向性会話(1)の会話処理は、図10に示したステップS204の処理と同一であるので、説明を省略する。制御部250は、ステップS404の処理が終了すると、処理をステップS405に進める。
 制御部250は、第2会話情報320に基づいて、指向性会話(2)の会話処理を実行する(ステップS405)。指向性会話(2)の会話処理は、図10に示したステップS205の処理と同一であるので、説明を省略する。制御部250は、ステップS405の処理が終了すると、処理をステップS406に進める。
 制御部250は、第2会話情報320に基づいて、指向性会話(3)の会話処理を実行する(ステップS406)。指向性会話(3)の会話処理は、図10に示したステップS206の処理と同一であるので、説明を省略する。制御部250は、ステップS406の処理が終了すると、処理をステップS407に進める。
 制御部250は、第1会話情報310に基づいて、終わりの挨拶の会話処理を実行する(ステップS407)。終わりの挨拶の会話処理は、図10に示したステップS207の処理と同一であるので、説明を省略する。制御部250は、ステップS407の処理が終了すると、図11に示す処理手順を終了し、図9に示すステップS400の処理に復帰する。
 また、制御部250は、指向性会話(1)が済んでいると判定した場合(ステップS403でYes)、処理をステップS408に進める。制御部250は、指向性会話(2)が済んでいるか否かを判定する(ステップS408)。例えば、制御部250は、ユーザUのログ情報330が指向性会話(2)を出力したことを示している場合、指向性会話(2)が済んでいると判定する。
 制御部250は、指向性会話(2)が済んでいないと判定した場合(ステップS408でNo)、処理を既に説明したステップS405に進める。制御部250は、第2会話情報320に基づいて、指向性会話(2)の会話処理を実行する(ステップS405)。制御部250は、第2会話情報320に基づいて、指向性会話(3)の会話処理を実行する(ステップS406)。すなわち、制御部250は、実行済みのステップS404の指向性会話(1)の会話処理を実行せずに、指向性会話(2)及び指向性会話(3)の会話処理を順次実行する。制御部250は、第1会話情報310に基づいて、終わりの挨拶の会話処理を実行する(ステップS407)。制御部250は、ステップS407の処理が終了すると、図11に示す処理手順を終了し、図9に示すステップS400の処理に復帰する。
 また、制御部250は、指向性会話(2)が済んでいると判定した場合(ステップS408でYes)、処理をステップS409に進める。制御部250は、指向性会話(3)が済んでいるか否かを判定する(ステップS409)。例えば、制御部250は、ユーザUのログ情報330が指向性会話(3)を出力したことを示している場合、指向性会話(3)が済んでいると判定する。
 制御部250は、指向性会話(3)が済んでいないと判定した場合(ステップS409でNo)、処理を既に説明したステップS406に進める。制御部250は、第2会話情報320に基づいて、指向性会話(3)の会話処理を実行する(ステップS406)。すなわち、制御部250は、実行済みのステップS404の指向性会話(1)及びステップS405の指向性会話(2)の会話処理を実行せずに、指向性会話(3)の会話処理のみを実行する。制御部250は、第1会話情報310に基づいて、終わりの挨拶の会話処理を実行する(ステップS407)。制御部250は、ステップS407の処理が終了すると、図11に示す処理手順を終了し、図9に示すステップS400の処理に復帰する。
 また、制御部250は、指向性会話(3)が済んでいると判定した場合(ステップS409でYes)、処理をステップS410に進める。制御部250は、ユーザUに待機を促す処理を実行する(ステップS410)。制御部250は、ステップS410の処理が終了すると、図11に示す処理手順を終了し、図9に示すステップS400の処理に復帰する。
 図9に戻り、制御部250は、ステップS400の処理が終了すると、図9に示す処理手順を終了させる。
 また、制御部250は、時間区分が昼ではないと判定した場合(ステップS300でNo)、処理をステップS500に進める。制御部250は、時間区分が夜であるか否かを判定する(ステップS500)。例えば、制御部250は、現在の時刻が夜の時間区分である場合、時間区分が夜であると判定する。制御部250は、時間区分が夜であると判定した場合(ステップS500でYes)、処理をステップS600に進める。
 制御部250は、時間区分が夜の会話処理を実行する(ステップS600)。時間区分が夜の会話処理は、例えば、時間区分が夜に適した第1会話情報310及び第2会話情報320を、シナリオ会話の順序で電子機器100に出力させる処理等を含む。
 図12は、図9に示す夜の会話処理の一例を示すフローチャートである。図12に示すように、制御部250は、第1会話情報310に基づいて、夜の挨拶の会話処理を実行する(ステップS601)。例えば、制御部250は、夜の挨拶を示す複数の第1会話情報310の中から、現在の日時に適した第1会話情報310をランダムに抽出し、該第1会話情報310の出力を電子機器100に指示する処理を実行する。制御部250は、第1会話情報310の出力が終了すると、第1会話情報310と該第1会話情報310を出力した日時等を識別可能なログ情報330を作成する。制御部250は、ステップS601の処理が終了すると、処理をステップS602に進める。
 制御部250は、1日の感想が済みであるか否かを判定する(ステップS602)。例えば、制御部250は、同一の日付で1日の感想を引き出す処理を実行していることをログ情報330が示している場合、1日の感想が済みであると判定する。制御部250は、1日の感想が済みではないと判定した場合(ステップS602でNo)、処理をステップS603に進める。
 制御部250は、1日の感想を引き出す処理を実行する(ステップS603)。例えば、制御部250は、1日の感想を引き出す処理を実行することで、1日の感想をユーザUに問いかける会話情報等を電子機器100に出力させる。制御部250は、電子機器100を介してユーザUから取得した1日の感想を示す感想情報を記憶部240に記憶する。制御部250は、1日の感想を引き出す処理が終了すると、1日の感想を引き出す処理を実行したことを識別可能なログ情報330を作成する。制御部250は、ステップS603の処理が終了すると、処理をステップS604に進める。
 制御部250は、第2会話情報320に基づいて、指向性会話(1)の会話処理を実行する(ステップS604)。指向性会話(1)の会話処理は、図10に示したステップS204の処理と同一であるので、説明を省略する。制御部250は、ステップS604の処理が終了すると、処理をステップS605に進める。
 制御部250は、第2会話情報320に基づいて、指向性会話(2)の会話処理を実行する(ステップS605)。指向性会話(2)の会話処理は、図10に示したステップS205の処理と同一であるので、説明を省略する。制御部250は、ステップS605の処理が終了すると、処理をステップS606に進める。
 制御部250は、第2会話情報320に基づいて、指向性会話(3)の会話処理を実行する(ステップS606)。指向性会話(3)の会話処理は、図10に示したステップS206の処理と同一であるので、説明を省略する。制御部250は、ステップS606の処理が終了すると、処理をステップS607に進める。
 制御部250は、第1会話情報310に基づいて、終わりの挨拶の会話処理を実行する(ステップS607)。終わりの挨拶の会話処理は、図10に示したステップS207の処理と同一であるので、説明を省略する。制御部250は、ステップS607の処理が終了すると、図12に示す処理手順を終了し、図9に示すステップS600の処理に復帰する。
 また、制御部250は、1日の感想が済みであると判定した場合(ステップS602でYes)、処理をステップS608に進める。制御部250は、指向性会話(1)が済んでいるか否かを判定する(ステップS608)。例えば、制御部250は、ユーザUのログ情報330が指向性会話(1)を出力したことを示している場合、指向性会話(1)が済んでいると判定する。
 制御部250は、指向性会話(1)が済んでいないと判定した場合(ステップS608でNo)、処理を既に説明したステップS604に進める。制御部250は、第2会話情報320に基づいて、指向性会話(1)の会話処理を実行する(ステップS604)。制御部250は、第2会話情報320に基づいて、指向性会話(2)の会話処理を実行する(ステップS605)。制御部250は、第2会話情報320に基づいて、指向性会話(3)の会話処理を実行する(ステップS606)。すなわち、制御部250は、実行済みのステップS603の1日の感想を引き出す処理を実行せずに、指向性会話(1)、指向性会話(2)及び指向性会話(3)の会話処理を順次実行する。制御部250は、第1会話情報310に基づいて、終わりの挨拶の会話処理を実行する(ステップS607)。制御部250は、ステップS607の処理が終了すると、図12に示す処理手順を終了し、図9に示すステップS600の処理に復帰する。
 また、制御部250は、指向性会話(1)が済んでいると判定した場合(ステップS608でYes)、処理をステップS609に進める。制御部250は、指向性会話(2)が済んでいるか否かを判定する(ステップS609)。例えば、制御部250は、ユーザUのログ情報330が指向性会話(2)を出力したことを示している場合、指向性会話(2)が済んでいると判定する。
 制御部250は、指向性会話(2)が済んでいないと判定した場合(ステップS609でNo)、処理を既に説明したステップS605に進める。制御部250は、第2会話情報320に基づいて、指向性会話(2)の会話処理を実行する(ステップS605)。制御部250は、第2会話情報320に基づいて、指向性会話(3)の会話処理を実行する(ステップS606)。すなわち、制御部250は、実行済みのステップS603の1日の感想を引き出す処理及びステップS204の指向性会話(1)の会話処理を実行せずに、指向性会話(2)及び指向性会話(3)の会話処理を順次実行する。制御部250は、第1会話情報310に基づいて、終わりの挨拶の会話処理を実行する(ステップS607)。制御部250は、ステップS607の処理が終了すると、図12に示す処理手順を終了し、図9に示すステップS600の処理に復帰する。
 また、制御部250は、指向性会話(2)が済んでいると判定した場合(ステップS609でYes)、処理をステップS610に進める。制御部250は、指向性会話(3)が済んでいるか否かを判定する(ステップS610)。例えば、制御部250は、ユーザUのログ情報330が指向性会話(3)を出力したことを示している場合、指向性会話(3)が済んでいると判定する。
 制御部250は、指向性会話(3)が済んでいないと判定した場合(ステップS610でNo)、処理を既に説明したステップS606に進める。制御部250は、第2会話情報320に基づいて、指向性会話(3)の会話処理を実行する(ステップS606)。すなわち、制御部250は、実行済みのステップS603の1日の会話を引き出す処理、ステップS604の指向性会話(1)及びステップS605の指向性会話(2)の会話処理を実行せずに、指向性会話(3)の会話処理のみを実行する。制御部250は、第1会話情報310に基づいて、終わりの挨拶の会話処理を実行する(ステップS607)。制御部250は、ステップS607の処理が終了すると、図12に示す処理手順を終了し、図9に示すステップS600の処理に復帰する。
 また、制御部250は、指向性会話(3)が済んでいると判定した場合(ステップS610でYes)、処理をステップS611に進める。制御部250は、ユーザUに待機を促す処理を実行する(ステップS611)。制御部250は、ステップS611の処理が終了すると、図12に示す処理手順を終了し、図9に示すステップS600の処理に復帰する。
 図9に戻り、制御部250は、ステップS600の処理が終了すると、図9に示す処理手順を終了させる。
 また、制御部250は、時間区分が夜ではないと判定した場合(ステップS500でNo)、図9に示す処理手順を終了させる。
 以上により、上述したサーバ200は、少なくとも1以上の指向性を有していない第1会話を示す第1会話情報310と、少なくとも1以上の指向性を有する第2会話を示す第2会話情報320と、を記憶部240に記憶できる。サーバ200は、ユーザUの電子機器100に、第1会話情報310を出力させた後に、第2会話情報320を出力させることができる。その結果、サーバ200は、指向性を有していない会話と指向性を有している会話とを組み合わせてユーザUとの会話を実現できるので、ユーザUの個人的な情報を自然な会話で聞き出すことができる。
 サーバ200は、ユーザUの電子機器100に、第1会話情報310を出力させた後に、第2会話情報320を出力させ、第2会話情報320を出力させた後に、異なる第1会話情報310を出力させることができる。その結果、サーバ200は、指向性を有していない会話の間に、指向性を有している会話を挟むことで、警戒感を持たせることを緩和できるので、ユーザUの個人的な情報を自然な会話で聞き出すことができる。
 サーバ200は、ユーザUに対する質問内容を含む質問項目D1と、ユーザUにより選択される複数の回答を含む回答項目D2と、ユーザUが選択した回答に対する応答を含む応答項目D3と、を有する第1会話情報310及び第2会話情報320を電子機器100に出力させることができる。その結果、サーバ200は、ユーザUに回答を選択させることで、ユーザの情報を回答として聞き出すことができる。
 サーバ200は、電子機器100に出力させた第1会話情報310及び第2会話情報320の少なくとも一方を示すログ情報330を記憶部240に記憶することができる。サーバ200は、ユーザUの前回のログインの際に第1会話情報310を出力させている場合、今回のログインの際には、ログ情報330に基づいて、電子機器100に出力させていない第1会話情報310または第2会話情報320を、電子機器に出力させることができる。その結果、サーバ200は、同一の会話情報を電子機器100に出力させないことで、ユーザUがサーバ200との対話に飽きることを防止できるので、ユーザUの個人的な情報を自然な会話で聞き出す機会を得ることができる。
 サーバ200は、現在の時刻の時間区分に基づいて第1会話情報310及び第2会話情報320を選択することができる。その結果、サーバ200は、時間区分に応じた第1会話情報310及び第2会話情報320を電子機器100に出力させることで、ユーザUに親近感を持たせことが可能となり、ユーザUに関する情報を聞き出す可能性を向上させることができる。
 サーバ200は、現在の時刻が時間区分の夜である場合、ユーザUから1日の感想を引き出す第1会話情報310を選択することができる。その結果、サーバ200は、時間区分が夜になると、1日の感想を引き出す第1会話情報310を電子機器100に出力させることで、ユーザUの1日における情報を会話で聞き出すことができる。
 サーバ200は、ユーザUに対する第2会話が予定数終了している場合、ユーザUに所定時間の待機を示す旨の第1会話を前記電子機器に出力させることができる。その結果、サーバ200は、ユーザUとの会話が予定数に達した場合に、ユーザUとのつなぎの会話を電子機器100に出力させ、ユーザUの個人的な情報を無理に聞き出さないので、ユーザUとの関係性の低下を抑制することができる。
 サーバ200は、例えば、挨拶、ニュース、天気、クイズ及び遊びに関する会話のうちの少なくとも1つを含む第1会話情報310を、電子機器100に出力させることができる。その結果、サーバ200は、ユーザUとの雑談を実現することで、ユーザUに親近感を持たせることができるので、ユーザUに関する情報を聞き出す可能性を向上させることができる。
 サーバ200は、例えば、秒、時、日、月もしくは年のいずれかにより変化する会話を含む第1会話情報310を、電子機器100に出力させることができる。その結果、サーバ200は、日時や季節に適したユーザUとの会話を実現することで、ユーザUに親近感を持たせることができるので、ユーザUに関する情報を聞き出す可能性を向上させることができる。
 サーバ200は、複数の第1会話情報310のうち、ユーザUの電子機器100で出力させていない第1会話情報310を、電子機器に出力させることができる。その結果、サーバ200は、ユーザと様々な会話を実現することで、ユーザUに親近感を持たせることができるので、ユーザUに関する情報を聞き出す可能性を向上させることができる。
 図13は、実施形態に係るサーバ200が実行するフェーズ1の移行制御の一例を示すフローチャートである。図13に示す処理手順は、ユーザUのフェーズがフェーズ1である場合に、サーバ200の制御部250がプログラム241を実行することによって実現される。図13に示す処理手順は、例えば、ユーザUとの会話を開始してから所定期間が経過するごとに、制御部250によって実行される。
 図13に示すように、制御部250は、フェーズ1で発生した情報を収集する(ステップS1101)。例えば、制御部250は、フェーズ1において実施したユーザUへの質問、ユーザUの回答等を示す各種情報を、記憶部240に記憶しているログ情報330、回答情報500等から収集する。制御部250は、ステップS1101の処理が終了すると、処理をステップS1102に進める。
 制御部250は、フェーズ1における確認会話の回数を計数する(ステップS1102)。例えば、制御部250は、収集した質問と回答との組み合わせの数に基づいて、フェーズ1で確認会話が継続した回数を計数する。制御部250は、ステップS1102の処理が終了すると、処理をステップS1103に進める。
 制御部250は、確認会話が所定回数以上であるか否かを判定する(ステップS1103)。例えば、制御部250は、ステップS1102で計数した回数が、所定回数以上である場合に、確認会話が所定回数以上であると判定する。図13に示す一例では、所定回数は、10回である。制御部250は、確認会話が所定回数以上であると判定した場合(ステップS1103でYes)、ユーザUとの会話が成り立っているので、処理をステップS1104に進める。
 制御部250は、フェーズ1からフェーズ2に移行する(ステップS1104)。例えば、制御部250は、ユーザのフェーズをフェーズ1からフェーズ2に移行(変更)し、フェーズ2に移行したことをログ情報330に反映する。制御部250は、フェーズ2に移行したことをユーザUに通知する処理を行ってもよい。制御部250は、ステップS1104の処理が終了すると、図13に示す処理手順を終了させる。
 また、制御部250は、確認会話が所定回数以上ではないと判定した場合(ステップS1103でNo)、ユーザUとの会話が成り立っていないので、フェーズ2に移行せずに、図13に示す処理手順を終了させる。
 以上により、制御部250は、図13に示す処理手順を実行することで、ユーザに関わるフェーズ1から、改善したい気持ちをユーザUから引き出すフェーズ2へ、自動的に移行させることができる。
 図14は、実施形態に係るサーバ200が実行するフェーズ2の移行制御の一例を示すフローチャートである。図14に示す処理手順は、ユーザUのフェーズがフェーズ2である場合に、サーバ200の制御部250がプログラム241を実行することによって実現される。図14に示す処理手順は、例えば、ユーザUとの会話を開始してから所定期間が経過するごとに制御部250によって実行される。
 図14に示すように、制御部250は、フェーズ2で発生した情報を収集する(ステップS1201)。例えば、制御部250は、フェーズ2において実施したユーザUへの質問、ユーザUの回答等を示す各種情報を、記憶部240に記憶しているログ情報330、回答情報500等から収集する。制御部250は、ステップS1201の処理が終了すると、処理をステップS1202に進める。ここで、本開示では、ステップS1201の後、図13のステップS1102のように、会話回数の確認動作を追加してもよい。この場合、制御部250は、フェーズ2における、例えば指向性会話などの確認会話の回数を計数するとしてもよい。例えば、制御部250は、収集した質問と回答との組み合わせの数に基づいて、フェーズ2で確認会話が継続した回数を計数するとしてもよい。制御部250は、この処理が終了すると、処理をステップS1202に進めるとしてもよい。
 制御部250は、フェーズ2における回答を判別する(ステップS1202)。例えば、制御部250は、体重に課題をメインテーマとするユーザUの回答とデータベースのチェンジトーク及び維持トークとを比較し、比較結果に基づいて回答がチェンジトークであるか、維持トークであるかを判別する。例えば、制御部250は、チェンジトークの回答と維持トークの回答との教師データを機械学習した学習済みのプログラムを用いて、回答を判別してもよい。制御部250は、回答がチェンジトークであると判定した場合、回答が準備チェンジトークであるか実行チェンジトークであるかをさらに判別し、チェンジトークの分類を判別する。制御部250は、図8に示した準備チェンジトークと実行チェンジトークとのデータベースを用いて、チェンジトークの分類を判別する。制御部250は、回答の判別結果を、回答情報500に関連付けて記憶部240に記憶する。制御部250は、ステップS1202の処理が終了すると、処理をステップS1203に進める。
 制御部250は、ステップS1202の判別結果に基づいて、準備チェンジトークが維持トークよりも多いか否かを判定する(ステップS1203)。例えば、制御部250は、フェーズ2における準備チェンジトークの回数が維持トークの回数よりも多い場合に、準備チェンジトークが維持トークよりも多いと判定する。制御部250は、準備チェンジトークが維持トークよりも多いと判定した場合(ステップS1203でYes)、ユーザUの課題を引き出せている可能性が高いので、処理をステップS1204に進める。ここで、本開示では、制御部250がステップS1203でYesと判定した後、「課題を重要として考えているか?」などの、フェーズ移行に関わる重要な質問を問いかける処理を追加してもよい。この場合、制御部250は、課題を重要と思っている(Yes)との回答を得た場合は、処理をステップS1204に進め、課題を重要と思っていない(No)との回答を得た場合は、処理を終了させる、若しくは処理をステップS1201に進めるとしてもよい。またこの場合、制御部250は、処理を終了若しくは、ステップS1201に進める前の処理として、後述するステップS1206のように、ユーザに対する介入ポイントを変更する処理を行い、この変更処理の後、処理をステップS1201に進めるとしてもよい。この場合、本開示では、同じ介入テーマでフェーズ2が繰り返されることを防止できる。
 制御部250は、フェーズ2からフェーズ3に移行する(ステップS1204)。例えば、制御部250は、ユーザのフェーズをフェーズ2からフェーズ3に移行(変更)し、フェーズ3に移行したことをログ情報330に反映する。制御部250は、フェーズ3に移行したことをユーザUに通知する処理を行ってもよい。制御部250は、ステップS1204の処理が終了すると、図14に示す処理手順を終了させる。
 また、制御部250は、準備チェンジトークが維持トークよりも多くないと判定した場合(ステップS1203でNo)、ユーザUの課題を引き出せていない可能性が高いので、処理をステップS1205に進める。制御部250は、準備チェンジトークが維持トークよりも多くない状態が、判定期間連続しているか否かを判定する(ステップS1205)。判定期間は、例えば、3週間、1か月等の期間を任意に設定することができる。判定期間は、例えば、所定期間と同一でもよいし、所定期間よりも長い期間であってもよい。制御部250は、判定期間連続していないと判定した場合(ステップS1205でNo)、図14に示す処理手順を終了させる。なお、本開示では、図14に示す処理手順は、ステップS1205の処理を省略した動作でもよい。すなわち、処理手順は、ステップS1203の判定でNoの場合、ステップS1203からステップS1206へと移行するとしてもよい。
 また、制御部250は、判定期間連続していると判定した場合(ステップS1205でYes)、処理をステップS1206に進める。制御部250は、ユーザUに対する介入ポイントを変更する(ステップS1206)。例えば、制御部250は、ユーザUに対する介入ポイントを、メインテーマからサブテーマに変更し、サブテーマに基づいてフェーズ2を継続する。例えば、メインテーマが体重の課題である場合、制御部250は、運動の促進を示すサブテーマに変更する。制御部250は、ステップS1206の処理が終了すると、図14に示す処理手順を終了させる。
 以上により、制御部250は、図14に示す処理手順を実行することで、改善したい気持ちをユーザUから引き出すフェーズ2から、ユーザUが行動に移せるようにきっかけを示すフェーズ3へ、自動的に移行させることができる。
 図15は、実施形態に係るサーバ200が実行するフェーズ3の移行制御の一例を示すフローチャートである。図15に示す処理手順は、ユーザUのフェーズがフェーズ3である場合に、サーバ200の制御部250がプログラム241を実行することによって実現される。図15に示す処理手順は、例えば、ユーザUとの会話を開始してから所定期間が経過するごとに制御部250によって実行される。
 図15に示すように、制御部250は、フェーズ3で発生した情報を収集する(ステップS1301)。例えば、制御部250は、フェーズ3において実施したユーザUへの質問、ユーザUの回答等を示す各種情報を、記憶部240に記憶しているログ情報330、回答情報500等から収集する。制御部250は、ステップS1301の処理が終了すると、処理をステップS1302に進める。ここで、本開示では、ステップS1301の後、図13のステップS1102のように、会話回数の確認動作を追加してもよい。この場合、制御部250は、フェーズ3における、例えば指向性会話などの確認会話の回数を計数するとしてもよい。例えば、制御部250は、収集した質問と回答との組み合わせの数に基づいて、フェーズ3で確認会話が継続した回数を計数するとしてもよい。制御部250は、この処理が終了すると、処理をステップS1302に進めるとしてもよい。
 制御部250は、フェーズ3における回答を判別する(ステップS1302)。例えば、制御部250は、体重に課題をメインテーマとするユーザUの回答とデータベースのチェンジトーク及び維持トークとを比較し、比較結果に基づいて回答がチェンジトークであるか、維持トークであるかを判別する。例えば、制御部250は、チェンジトークの回答と維持トークの回答との教師データを機械学習した学習済みのプログラムを用いて、回答を判別してもよい。制御部250は、回答がチェンジトークであると判定した場合、回答が準備チェンジトークであるか実行チェンジトークであるかをさらに判別し、チェンジトークの分類を判別する。制御部250は、図8に示した準備チェンジトークと実行チェンジトークとのデータベースを用いて、チェンジトークの分類を判別する。制御部250は、回答の判別結果を、回答情報500に関連付けて記憶部240に記憶する。制御部250は、ステップS1302の処理が終了すると、処理をステップS1303に進める。
 制御部250は、ステップS1302の判別結果に基づいて、準備チェンジトークが維持トークよりも多いか否かを判定する(ステップS1303)。例えば、制御部250は、フェーズ3における準備チェンジトークの回数が維持トークの回数よりも多い場合に、準備チェンジトークが維持トークよりも多いと判定する。制御部250は、準備チェンジトークが維持トークよりも多いと判定した場合(ステップS1303でYes)、処理をステップS1304に進める。
 制御部250は、ステップS1302の判別結果に基づいて、コミットメントが維持トークよりも多いか否かを判定する(ステップS1304)。例えば、制御部250は、分類がコミットメントの実行チェンジトークの回数が維持トークの回数よりも多い場合に、コミットメントが維持トークよりも多いと判定する。制御部250は、コミットメントが維持トークよりも多いと判定した場合(ステップS1304でYes)、ユーザUから課題に対するコミットメントの意思を引き出せているので、処理をステップS1305に進める。ここで、本開示では、ステップS1304でYesと判定した後の処理として、「行動変容をやり遂げる自信があるか?」などの、フェーズ移行に関わる重要な質問を行う処理を追加するとしてもよい。この場合、制御部250は、自信がある(Yes)との回答を得た場合は、処理をステップS1305に進め、自信がない(No)との回答を得た場合は、処理を終了させる、若しくは、処理をステップS1301に進めるとしてもよい。
 制御部250は、フェーズ3からフェーズ4に移行する(ステップS1305)。例えば、制御部250は、ユーザのフェーズをフェーズ3からフェーズ4に移行(変更)し、フェーズ4に移行したことをログ情報330に反映する。制御部250は、フェーズ4に移行したことをユーザUに通知する処理を行ってもよい。制御部250は、ステップS1305の処理が終了すると、図15に示す処理手順を終了させる。
 また、制御部250は、コミットメントが維持トークよりも多くないと判定した場合(ステップS1304でNo)、ユーザUが行動に移せるきっかけになっていない可能性が高いので、フェーズ4に移行せずに、図15に示す処理手順を終了させる。
 また、制御部250は、準備チェンジトークが維持トークよりも多くないと判定した場合(ステップS1303でNo)、ユーザUが行動に移せるきっかけになっていない可能性が高いので、処理をステップS1306に進める。制御部250は、準備チェンジトークが維持トークよりも多くない状態が、判定期間連続しているか否かを判定する(ステップS1306)。制御部250は、判定期間連続していないと判定した場合(ステップS1306でNo)、図15に示す処理手順を終了させる。なお、本開示では、ステップS1306の処理を省略した動作でもよい。すなわち、処理手順は、ステップS1303の判定がNoの場合、ステップS1303からステップS1307へと移行するとしてもよい。
 また、制御部250は、判定期間連続していると判定した場合(ステップS1306でYes)、介入のタイミングではないと判断し、処理をステップS1307に進める。制御部250は、フェーズ3からフェーズ2に移行する(ステップS1307)。例えば、制御部250は、ユーザUのフェーズをフェーズ3からフェーズ2に移行(変更)し、フェーズ2に移行したことをログ情報330に反映する。制御部250は、フェーズ2に移行したことをユーザUに通知する処理を行ってもよい。制御部250は、ステップS1307の処理が終了すると、図15に示す処理手順を終了させる。
 以上により、制御部250は、図15に示す処理手順を実行することで、ユーザUが行動に移せるようにきっかけを示すフェーズ3から、行動を変えられたという実感をユーザUに持たせるフェーズ4へ、自動的に移行させることができる。また、制御部250は、フェーズ3におけるユーザUの回答に基づいて介入のタイミングでないと判断した場合、フェーズ3からフェーズ2へ自動で戻すことができる。
 図16は、実施形態に係るサーバ200が実行するフェーズ4の移行制御の一例を示すフローチャートである。図16に示す処理手順は、ユーザUのフェーズがフェーズ4である場合に、サーバ200の制御部250がプログラム241を実行することによって実現される。図16に示す処理手順は、例えば、ユーザUとの会話を開始してから所定期間が経過するごとに制御部250によって実行される。
 図16に示すように、制御部250は、フェーズ4で発生した情報を収集する(ステップS1401)。例えば、制御部250は、フェーズ4において実施したユーザUへの質問、ユーザUの回答等を示す各種情報を、記憶部240に記憶しているログ情報330、回答情報500等から収集する。制御部250は、ステップS1401の処理が終了すると、処理をステップS1402に進める。
 制御部250は、フェーズ4における回答を判別する(ステップS1402)。例えば、制御部250は、体重に課題をメインテーマとするユーザUの回答とデータベースのチェンジトーク及び維持トークとを比較し、比較結果に基づいて回答がチェンジトークであるか、維持トークであるかを判別する。例えば、制御部250は、チェンジトークの回答と維持トークの回答との教師データを機械学習した学習済みのプログラムを用いて、回答を判別してもよい。制御部250は、回答がチェンジトークであると判定した場合、回答が準備チェンジトークであるか実行チェンジトークであるかをさらに判別し、チェンジトークの分類を判別する。制御部250は、図8に示した準備チェンジトークと実行チェンジトークとのデータベースを用いて、チェンジトークの分類を判別する。制御部250は、回答の判別結果を、回答情報500に関連付けて記憶部240に記憶する。制御部250は、ステップS1402の処理が終了すると、処理をステップS1403に進める。
 制御部250は、ステップS1402の判別結果に基づいて、準備チェンジトークが維持トークよりも多いか否かを判定する(ステップS1403)。例えば、制御部250は、フェーズ3における準備チェンジトークの回数が維持トークの回数よりも多い場合に、準備チェンジトークが維持トークよりも多いと判定する。制御部250は、準備チェンジトークが維持トークよりも多いと判定した場合(ステップS1403でYes)、処理をステップS1404に進める。
 制御部250は、ステップS1402の判別結果に基づいて、段階を踏むが維持トークよりも多いか否かを判定する(ステップS1404)。例えば、制御部250は、分類が段階を踏むの実行チェンジトークの回数が維持トークの回数よりも多い場合に、段階を踏むが維持トークよりも多いと判定する。制御部250は、段階を踏むが維持トークよりも多くないと判定した場合(ステップS1404でNo)、フェーズ4から他のフェーズに移行せずに、図16に示す処理手順を終了させる。
 また、制御部250は、段階を踏むが維持トークよりも多いと判定した場合(ステップS1404でYes)、処理をステップS1405に進める。制御部250は、段階を踏むが維持トークよりも多い状態が、判定期間連続しているか否かを判定する(ステップS1405)。制御部250は、判定期間連続していないと判定した場合(ステップS1405でNo)、フェーズ4から他のフェーズに移行せずに、図16に示す処理手順を終了させる。また、制御部250は、判定期間連続していると判定した場合(ステップS1405でYes)、処理をステップS1406に進める。
 制御部250は、フェーズ4からフェーズ5に移行する(ステップS1406)。例えば、制御部250は、ユーザのフェーズをフェーズ4からフェーズ5に移行(変更)し、フェーズ5に移行したことをログ情報330に反映する。制御部250は、フェーズ5に移行したことをユーザUに通知する処理を行ってもよい。制御部250は、ステップS1406の処理が終了すると、処理をステップS1407に進める。
 制御部250は、行動変容の維持をサポートする処理を開始する(ステップS1407)。行動変容の維持をサポートする処理は、例えば、行動変容を維持するコンテンツにユーザUを誘導する処理、適切な物品やサービスをユーザUに推薦する処理等を含む。制御部250は、ステップS1407の処理が終了すると、図16に示す処理手順を終了させる。
 また、制御部250は、準備チェンジトークが維持トークよりも多くないと判定した場合(ステップS1403でNo)、ユーザUが行動を変えられたという実感がない可能性が高いので、処理をステップS1408に進める。制御部250は、準備チェンジトークが維持トークよりも多くない状態が、判定期間連続しているか否かを判定する(ステップS1408)。制御部250は、判定期間連続していないと判定した場合(ステップS1408でNo)、図16に示す処理手順を終了させる。なお、本開示では、ステップS1408の処理を省略した動作でもよい。すなわち、処理手順は、ステップS1403の判定がNoの場合、ステップS1403からステップS1409へと移行するとしてもよい。
 また、制御部250は、判定期間連続していると判定した場合(ステップS1408でYes)、行動変容のタイミングではないと判断し、処理をステップS1409に進める。制御部250は、フェーズ4からフェーズ3に移行する(ステップS1409)。例えば、制御部250は、ユーザUのフェーズをフェーズ4からフェーズ3に移行(変更)し、フェーズ3に移行したことをログ情報330に反映する。制御部250は、フェーズ2に移行したことをユーザUに通知する処理を行ってもよい。制御部250は、ステップS1409の処理が終了すると、図16に示す処理手順を終了させる。
 以上により、制御部250は、図16に示す処理手順を実行することで、行動を変えられたという実感をユーザUに持たせるフェーズ4から、新しい習慣がユーザUに定着するように見守るフェーズ5へ、自動的に移行させることができる。また、制御部250は、行動変容のタイミングではないと判断した場合、フェーズ4からフェーズ3へ自動で戻すことができる。
 図17は、実施形態に係るサーバ200が実行するフェーズの移行動作を説明するための図である。
 図17に示す一例では、サーバ200は、ユーザUの電子機器100と連携して、該ユーザUとの対話、ユーザUの課題を改善するフェーズの移行制御等を行う。サーバ200は、ユーザUのメインテーマ及びサブテーマを決定し、フェーズ1の処理を開始する。例えば、サーバ200は、ユーザUの生活改善を支援する場合、ユーザUの事前アンケートの結果に基づいて、メインテーマを飲酒頻度、サブテーマを間食及び体重計測と設定していることを前提とする。
 図17に示す1WEEKでは、サーバ200は、フェーズ1に対応したユーザUに関わる会話を実現する。サーバ200は、1WEEKにおける会話を示すログ情報330に基づいて、確認会話が所定回数以上あったことを判定すると、フェーズ1からフェーズ2に移行する。
 2WEEKでは、サーバ200は、フェーズ2に対応した会話を実現する。フェーズ2では、サーバ200は、改善した気持ちをユーザUから引き出すための会話を実施する。サーバ200は、第1会話情報310が示す雑談と第2会話情報320が示す指向性会話と組み合わせて、フェーズ2に対応したシナリオ会話を行う。サーバ200は、質問項目D1の質問を行い、該質問に対する回答情報500を得ると、ユーザU及びフェーズ2に関連付けて記憶部240に時系列順に記憶する。サーバ200は、2WEEKの期間において、準備チェンジトークの回数が維持トークの回数よりも多いと判定すると、フェーズ2からフェーズ3に移行する。
 3WEEKでは、サーバ200は、フェーズ3に対応した会話を実現する。フェーズ3では、サーバ200は、ユーザUが行動に移せるようにきっかけを示すための会話を実施する。サーバ200は、第1会話情報310が示す雑談と第2会話情報320が示す指向性会話と組み合わせて、フェーズ3に対応したシナリオ会話を行う。サーバ200は、質問項目D1の質問を行い、該質問に対する回答情報500を得ると、ユーザU及びフェーズ3に関連付けて記憶部240に時系列順に記憶する。サーバ200は、3WEEKの期間において、準備チェンジトークの回数が維持トークの回数よりも多く、かつコミットメントの回数が維持トークの回数よりも多いと判定すると、フェーズ3からフェーズ4に移行する。
 4WEEKでは、サーバ200は、フェーズ4に対応した会話を実現する。フェーズ4では、サーバ200は、行動を変えられたという実感をユーザUに持たせるための会話を実施する。サーバ200は、第1会話情報310が示す雑談と第2会話情報320が示す指向性会話と組み合わせて、フェーズ4に対応したシナリオ会話を行う。サーバ200は、質問項目D1の質問を行い、該質問に対する回答情報500を得ると、ユーザU及びフェーズ4に関連付けて記憶部240に時系列順に記憶する。サーバ200は、4WEEKの期間において、準備チェンジトークの回数が維持トークの回数よりも少ない、または、準備チェンジトークの回数が維持トークの回数よりも多いが、段階を踏む回数が維持トークの回数よりも少ないと判定すると、フェーズ4を維持する。サーバ200は、行動を変えられたという実感をユーザUに持たせることができていないと判断し、5WEEKもフェーズ4を継続する。
 5WEEKでは、サーバ200は、4WEEKと同様に、フェーズ4に対応した会話を実現する。フェーズ4では、サーバ200は、第1会話情報310が示す雑談と第2会話情報320が示す指向性会話と組み合わせて、フェーズ4に対応したシナリオ会話を行う。サーバ200は、質問項目D1の質問を行い、該質問に対する回答情報500を得ると、ユーザU及びフェーズ4に関連付けて記憶部240に時系列順に記憶する。サーバ200は、4WEEK及び5WEEKの期間において、準備チェンジトークの回数が維持トークの回数よりも多く、かつ段階を踏む回数が維持トークの回数よりも多いが、判定期間連続していないと判定すると、フェーズ4を維持する。サーバ200は、行動を変えられたという実感をユーザUに持たせることができていないと判断し、6WEEKもフェーズ4を継続する。
 6WEEKでは、サーバ200は、4WEEK及び5WEEKと同様に、フェーズ4に対応した会話を実現する。フェーズ4では、サーバ200は、第1会話情報310が示す雑談と第2会話情報320が示す指向性会話と組み合わせて、フェーズ4に対応したシナリオ会話を行う。サーバ200は、質問項目D1の質問を行い、該質問に対する回答情報500を得ると、ユーザU及びフェーズ4に関連付けて記憶部240に時系列順に記憶する。サーバ200は、4WEEKから6WEEKの期間において、準備チェンジトークの回数が維持トークの回数よりも多く、かつ段階を踏む回数が維持トークの回数よりも多く、かつ、判定期間連続していると判定すると、フェーズ4からフェーズ5に移行する。
 7WEEKでは、サーバ200は、フェーズ5に対応した会話を実現する。フェーズ5では、サーバ200は、新しい習慣がユーザUに定着するように見守るための会話を実施する。サーバ200は、第1会話情報310が示す雑談と第2会話情報320が示す指向性会話と組み合わせて、フェーズ5に対応したシナリオ会話を行う。サーバ200は、質問項目D1の質問を行い、該質問に対する回答情報500を得ると、ユーザU及びフェーズ5に関連付けて記憶部240に時系列順に記憶する。サーバ200は、新しい習慣が定着したことを確認すると、フェーズ5を終了する。
 図18は、実施形態に係るサーバ200が実行するフェーズの他の移行動作を説明するための図である。図18に示す1WEEKのフェーズ1及び2WEEKのフェーズ2は、図17に示すフェーズ1及びフェーズ2と同一であるため、説明を省略する。
 図18に示す3WEEKでは、サーバ200は、フェーズ3に対応した会話を実現する。サーバ200は、第1会話情報310が示す雑談と第2会話情報320が示す指向性会話と組み合わせて、フェーズ3に対応したシナリオ会話を行う。サーバ200は、質問項目D1の質問を行い、該質問に対する回答情報500を得ると、ユーザU及びフェーズ3に関連付けて記憶部240に時系列順に記憶する。サーバ200は、3WEEKの期間において、準備チェンジトークの回数が維持トークの回数よりも少なく、かつ判定期間連続していないと判定すると、フェーズ3を維持する。サーバ200は、ユーザUが行動を移せるようにきっかけを示せていないと判断し、4WEEKもフェーズ3を継続する。
 4WEEKでは、サーバ200は、3WEEKと同様に、フェーズ3に対応した会話を実現する。フェーズ3では、サーバ200は、第1会話情報310が示す雑談と第2会話情報320が示す指向性会話と組み合わせて、フェーズ3に対応したシナリオ会話を行う。サーバ200は、質問項目D1の質問を行い、該質問に対する回答情報500を得ると、ユーザU及びフェーズ4に関連付けて記憶部240に時系列順に記憶する。サーバ200は、3WEEK及び4WEEKの期間において、準備チェンジトークの回数が維持トークの回数よりも少なく、かつ判定期間連続していないと判定すると、フェーズ3を維持する。サーバ200は、ユーザUが行動を移せるようにきっかけを示せていないと判断し、5WEEKもフェーズ3を継続する。
 5WEEKでは、サーバ200は、3WEEK及び4WEEKと同様に、フェーズ3に対応した会話を実現する。フェーズ3では、サーバ200は、第1会話情報310が示す雑談と第2会話情報320が示す指向性会話と組み合わせて、フェーズ3に対応したシナリオ会話を行う。サーバ200は、質問項目D1の質問を行い、該質問に対する回答情報500を得ると、ユーザU及びフェーズ4に関連付けて記憶部240に時系列順に記憶する。サーバ200は、3WEEKから5WEEKの期間において、準備チェンジトークの回数が維持トークの回数よりも少なく、かつ判定期間連続していないと判定すると、フェーズ3からフェーズ2に移行する。すなわち、サーバ200は、介入のタイミングではないと判断し、6WEEKからフェーズ2に戻し、メインテーマからサブテーマへ介入ポイントを変更したことをログ情報330に反映する。
 6WEEKでは、サーバ200は、フェーズ2に対応した会話を実現する。フェーズ2では、サーバ200は、サブテーマに基づいて、改善した気持ちをユーザUから引き出すための会話を実施する。サーバ200は、第1会話情報310が示す雑談と第2会話情報320が示す指向性会話と組み合わせて、フェーズ2に対応したシナリオ会話を行う。サーバ200は、質問項目D1の質問を行い、該質問に対する回答情報500を得ると、ユーザU及びフェーズ2に関連付けて記憶部240に時系列順に記憶する。サーバ200は、2WEEKの期間において、準備チェンジトークの回数が維持トークの回数よりも多いと判定すると、フェーズ2からフェーズ3に移行する。
 7WEEKでは、サーバ200は、フェーズ3に対応した会話を実現する。フェーズ3では、サーバ200は、サブテーマに基づいて、ユーザUが行動に移せるようにきっかけを示すための会話を実施する。サーバ200は、第1会話情報310が示す雑談と第2会話情報320が示す指向性会話と組み合わせて、フェーズ3に対応したシナリオ会話を行う。サーバ200は、質問項目D1の質問を行い、該質問に対する回答情報500を得ると、ユーザU及びフェーズ3に関連付けて記憶部240に時系列順に記憶する。サーバ200は、3WEEKの期間において、準備チェンジトークの回数が維持トークの回数よりも多く、かつコミットメントの回数が維持トークの回数よりも多いと判定すると、フェーズ3からフェーズ4に移行する。サーバ200は、8WEEK以降、図17に示したフェーズ4及びフェーズ5に対応した会話を実現する。
 以上により、サーバ200は、ユーザUから取得することで得た質問に対する回答が第1の種類の回答か、第2の種類の回答かを判別し、判別結果に基づいて、現在のフェーズを維持するか次のフェーズに移行するかを決定することができる。これにより、サーバ200は、ユーザUの回答から行動変容を判別し、判別結果に適したフェーズを決定することができる。その結果、サーバ200は、フェーズに応じたユーザUとの会話により、ユーザUの行動変容を支援することができる。
 サーバ200は、ユーザUの回答が、第1の種類の回答(チェンジトーク)である場合に、次のフェーズに移行すると決定し、第2の種類の回答(維持トーク)である場合に、現在のフェーズを維持すると決定する。これにより、サーバ200は、ユーザUの回答をチェンジトークと維持トークに判別することで、フェーズにおけるユーザUの状態を正確に判別することができる。その結果、サーバ200は、ユーザUに適したフェーズとすることができるので、ユーザUの行動変容を効率的に支援することができる。
 サーバ200は、所定期間におけるフェーズの判別結果に基づいて、ユーザUのフェーズを、第1のフェーズに維持するか、第2のフェーズに移行するかを決定することができる。その結果、サーバ200は、所定期間におけるユーザUの回答に着目することで、ユーザUの行動変容を判断する精度を向上させることができる。
 サーバ200は、ユーザUから取得した回答における、第1の種類の回答の個数と、第2の種類の回答の個数との割合に基づいて、ユーザUのフェーズを、第1のフェーズに維持するか、第2のフェーズに移行するかを決定することができる。その結果、サーバ200は、所定期間におけるユーザUの回答の回数に着目することで、ユーザUの行動変容を判断する精度を向上させることができる。
 サーバ200は、ユーザUとの会話の数が閾値を超えた場合に、回答における、第1の種類の回答の個数と、第2の種類の回答の個数との割合に基づいて、ユーザUのフェーズを、第1のフェーズに維持するか、第2のフェーズに移行するかを決定することができる。その結果、サーバ200は、ユーザUとの会話が成り立つことを確認した場合に、所定期間におけるユーザUの回答の回数に着目することで、ユーザUの行動変容を判断する精度をより一層向上させることができる。
 サーバ200は、第1の種類の回答が実行チェンジトークを含む場合、ユーザUから取得した実行チェンジトークの数または割合に基づいて、ユーザUのフェーズを、第1のフェーズに維持するか、第2のフェーズに移行するかを決定することができる。その結果、サーバ200は、ユーザUが所定の動作を実行した場合に得られる実行チェンジトークに着目することで、ユーザUの行動変容を判断する精度をより一層向上させることができる。
 サーバ200は、ユーザUに対して課題に関する質問を提示し、該質問の回答が第2の種類の回答であるか否かに基づいて、ユーザUのフェーズを、第1のフェーズに維持するか、第2のフェーズに移行するかを決定することができる。その結果、サーバ200は、フェーズに適した質問を行うことで、回答からユーザUを正確に判断することができるので、ユーザUの行動変容を支援することができる。
 サーバ200は、質問に対する肯定的な回答の個数が、フェーズにおけるユーザの行動変容が定着している個数である場合、ユーザUのフェーズを第2のフェーズに移行することができる。その結果、サーバ200は、ユーザUの肯定的な回答に基づいてフェーズの移行、維持を判断することができるので、ユーザUに適したフェーズで行動変容を支援することができる。
 サーバ200は、ユーザUと確認会話が継続する回数を計数し、計数結果が判定条件を満たす場合に、ユーザUのフェーズを、前記第1のフェーズに維持するか、前記第2のフェーズに移行するかを決定する処理を実行することができる。その結果、サーバ200は、ユーザUとの会話が成り立つことを確認した場合に、所定期間におけるユーザUの回答の回数に着目することで、ユーザUの行動変容を判断する精度をより一層向上させることができる。
 上述した実施形態では、サーバ200は、チャットボットによってユーザUとの会話を実現する場合について説明したが、これに限定されない。例えば、サーバ200は、音声による会話によってユーザUの回答を得る構成としてもよい。この場合、サーバ200は、公知である自然言語理解、自然言語処理等を用いて、ユーザUの発話内容から質問の回答を認識すればよい。
 上述した実施形態では、システム1では、サーバ200をクラウドサーバとした場合について説明したが、これに限定されない。例えば、システム1は、サーバ200の機能をユーザUの電子機器100で実現してもよい。例えば、システム1は、サーバ200の機能を複数のコンピュータによって実現してもよい。
 添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。
 1 システム
 100 電子機器
 110 表示部
 120 操作部
 130 出力部
 140 センサ部
 150 通信部
 160 記憶部
 161 プログラム
 170 制御部
 200 サーバ
 210 表示部
 220 操作部
 230 通信部
 240 記憶部
 241 プログラム
 251 判別部
 252 決定部
 253 質問部
 254 計数部
 255 出力制御部
 300 シナリオ情報
 310 第1会話情報
 320 第2会話情報
 330 ログ情報
 500 回答情報

Claims (12)

  1.  少なくとも1以上の指向性を有していない第1会話を示す第1会話情報と、少なくとも1以上の指向性を有する第2会話を示す第2会話情報と、を記憶する記憶部と、
     ユーザの電子機器に、前記第1会話情報を出力させた後に、前記第2会話情報を出力させる出力制御部と、
     を備える、サーバ。
  2.  請求項1に記載のサーバにおいて、
     前記出力制御部は、前記ユーザの前記電子機器に、前記第1会話情報を出力させた後に、前記第2会話情報を出力させ、前記第2会話情報を出力させた後に、異なる前記第1会話情報を出力させる、サーバ。
  3.  請求項1または2に記載のサーバにおいて、
     前記第1会話情報及び前記第2会話情報の少なくとも一方は、
     前記ユーザに対する質問内容を含む質問部と、
     前記ユーザにより選択される複数の回答を含む回答部と、
     前記ユーザが選択した回答に対する応答を含む応答部と、を有する、サーバ。
  4.  請求項1から3のいずれか1項に記載のサーバにおいて、
     前記記憶部は、前記電子機器に出力させた前記第1会話情報及び前記第2会話情報の少なくとも一方を示すログ情報を記憶し、
     前記出力制御部は、前記ユーザの前回のログインの際に前記第1会話情報を出力させている場合、今回のログインの際には、前記ログ情報に基づいて、前記電子機器に出力させていない前記第1会話情報または前記第2会話情報を、前記電子機器に出力させる、サーバ。
  5.  請求項1から4のいずれか1項に記載のサーバにおいて、
     前記出力制御部は、現在の時刻の時間区分に基づいて前記第1会話情報及び前記第2会話情報を選択する、サーバ。
  6.  請求項5に記載のサーバにおいて、
     前記出力制御部は、現在の時刻が前記時間区分の夜である場合、前記ユーザから1日の感想を引き出す前記第1会話情報を選択する、サーバ。
  7.  請求項1から6のいずれか1項に記載のサーバにおいて、
     前記出力制御部は、前記ユーザに対する前記第2会話が予定数終了している場合、前記ユーザに所定時間の待機を示す旨の前記第1会話を前記電子機器に出力させる、サーバ。
  8.  請求項1から7のいずれか1項に記載のサーバにおいて、
     前記第1会話は、挨拶、ニュース、天気、クイズ及び遊びに関する会話のうちの少なくとも1つを含む、サーバ。
  9.  請求項1から8のいずれか1項に記載のサーバにおいて、
     前記第1会話は、秒、時、日、月もしくは年のいずれかにより変化する会話を含む、サーバ。
  10.  請求項1から9のいずれか1項に記載のサーバにおいて、
     前記出力制御部は、複数の前記第1会話情報のうち、前記ユーザの前記電子機器で出力させていない前記第1会話情報を、前記電子機器に出力させる、サーバ。
  11.  ユーザの電子機器と通信可能なサーバによって実行される制御方法であって、
     少なくとも1以上の指向性を有していない第1会話を示す第1会話情報と、少なくとも1以上の指向性を有する第2会話を示す第2会話情報と、を記憶部に記憶すること、
     前記ユーザの前記電子機器に、前記第1会話情報を出力させた後に、前記第2会話情報を出力させること、
     を含む制御方法。
  12.  コンピュータに、
     少なくとも1以上の指向性を有していない第1会話を示す第1会話情報と、少なくとも1以上の指向性を有する第2会話を示す第2会話情報と、を記憶部に記憶すること、
     ユーザの電子機器に、前記第1会話情報を出力させた後に、前記第2会話情報を出力させること、
     を実行させる制御プログラム。
PCT/JP2021/042844 2020-11-26 2021-11-22 サーバ、制御方法および制御プログラム WO2022113951A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-196271 2020-11-26
JP2020196271A JP2022084407A (ja) 2020-11-26 2020-11-26 サーバ、制御方法および制御プログラム

Publications (1)

Publication Number Publication Date
WO2022113951A1 true WO2022113951A1 (ja) 2022-06-02

Family

ID=81754609

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/042844 WO2022113951A1 (ja) 2020-11-26 2021-11-22 サーバ、制御方法および制御プログラム

Country Status (2)

Country Link
JP (1) JP2022084407A (ja)
WO (1) WO2022113951A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005326670A (ja) * 2004-05-14 2005-11-24 Hiroshi Sato 移動端末装置、情報処理方法。並びにサービス提供システム。
WO2014073612A1 (ja) * 2012-11-08 2014-05-15 日本電気株式会社 会話文生成装置、会話文生成方法及び会話文生成プログラム
JP2019159551A (ja) * 2018-03-09 2019-09-19 パルスボッツ株式会社 対話装置、対話システム、表示装置、表示方法及びプログラム
CN110704582A (zh) * 2019-09-20 2020-01-17 联想(北京)有限公司 一种信息处理方法及装置、设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005326670A (ja) * 2004-05-14 2005-11-24 Hiroshi Sato 移動端末装置、情報処理方法。並びにサービス提供システム。
WO2014073612A1 (ja) * 2012-11-08 2014-05-15 日本電気株式会社 会話文生成装置、会話文生成方法及び会話文生成プログラム
JP2019159551A (ja) * 2018-03-09 2019-09-19 パルスボッツ株式会社 対話装置、対話システム、表示装置、表示方法及びプログラム
CN110704582A (zh) * 2019-09-20 2020-01-17 联想(北京)有限公司 一种信息处理方法及装置、设备

Also Published As

Publication number Publication date
JP2022084407A (ja) 2022-06-07

Similar Documents

Publication Publication Date Title
US11196863B2 (en) Method and system for virtual assistant conversations
JP7070652B2 (ja) 情報処理システム、情報処理方法、およびプログラム
WO2022089192A1 (zh) 一种互动处理方法、装置、电子设备和存储介质
US20160092588A1 (en) Systems And Methods for Contacting Target Person
US20220318306A1 (en) Video-based interaction implementation method and apparatus, device and medium
JP2007334732A (ja) ネットワークシステム及びネットワーク情報送受信方法
WO2021014937A1 (ja) コミュニケーション支援装置、コミュニケーション支援方法およびプログラム
WO2016052501A1 (ja) ユーザインタフェース装置、プログラム及びコンテンツの通知方法
WO2022113951A1 (ja) サーバ、制御方法および制御プログラム
WO2022113916A1 (ja) サーバ、制御方法および制御プログラム
US11095945B2 (en) Information processing device, method, and program
JP6186165B2 (ja) 情報システム、第二端末装置、情報処理方法およびプログラム
JP7371770B2 (ja) アバター制御プログラム、アバター制御方法および情報処理装置
JP7307576B2 (ja) プログラム及び情報処理装置
CN114080601A (zh) 信息处理系统、信息处理方法及记录介质
WO2022137960A1 (ja) プログラムおよび会話システム
JP7462375B2 (ja) サーバ、プログラム、情報処理方法
JP6863672B2 (ja) 通知システム、通知方法及びサーバ装置
US20210247894A1 (en) Social Matching Games in Dating Software
JP2019152761A (ja) 外国語習得支援システム、外国語習得支援方法および外国語習得支援プログラム
JP7528953B2 (ja) 情報処理装置、情報処理方法、表示装置及び表示方法
KR102347173B1 (ko) 맞춤형 복음 콘텐츠 생성 시스템 및 방법 그리고 이를 이용한 맞춤형 복음 콘텐츠 공유 방법
JP7290977B2 (ja) プログラム及び情報処理装置
JP7409628B2 (ja) 結婚式における音楽選曲のための自動選曲システム
CN118556245A (zh) 用于社交体验的虚拟大厅

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21897924

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21897924

Country of ref document: EP

Kind code of ref document: A1