WO2021250871A1 - 会話制御プログラム、会話制御方法および情報処理装置 - Google Patents

会話制御プログラム、会話制御方法および情報処理装置 Download PDF

Info

Publication number
WO2021250871A1
WO2021250871A1 PCT/JP2020/023112 JP2020023112W WO2021250871A1 WO 2021250871 A1 WO2021250871 A1 WO 2021250871A1 JP 2020023112 W JP2020023112 W JP 2020023112W WO 2021250871 A1 WO2021250871 A1 WO 2021250871A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
information processing
processing terminal
conversation
captured image
Prior art date
Application number
PCT/JP2020/023112
Other languages
English (en)
French (fr)
Inventor
裕子 堀添
和宏 中村
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to JP2022529975A priority Critical patent/JPWO2021250871A1/ja
Priority to PCT/JP2020/023112 priority patent/WO2021250871A1/ja
Publication of WO2021250871A1 publication Critical patent/WO2021250871A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/909Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location

Definitions

  • the present invention relates to a conversation control program, a conversation control method, and an information processing device.
  • chatbots are computer systems that uses artificial intelligence to interact with humans and exchange messages.
  • a chatbot may be used to provide a service that recommends recommended spots.
  • Prior art includes, for example, analyzing content and / or user information in one or more messages in order to provide suggestions to the user within a messaging application.
  • the present invention aims to collect user behavior information.
  • the chat bot conversation on the information processing terminal is started, and the recommendation information including the map information is output to the information processing terminal.
  • the information received in response to the conversation in the chatbot is a photographed image
  • the meta information corresponding to the photographed image and the position information corresponding to the photographed image are received from the information processing terminal, and the meta information and the information are received.
  • a conversation control program is provided that updates the recommendation information based on the position information and outputs the updated recommendation information to the information processing terminal.
  • the present invention has the effect of being able to collect user behavior information.
  • FIG. 1 is an explanatory diagram showing a system configuration example of the conversation control system 100.
  • FIG. 2 is a block diagram showing a hardware configuration example of the information processing apparatus 101.
  • FIG. 3 is a block diagram showing a hardware configuration example of the information processing terminals 102 and 103.
  • FIG. 4 is an explanatory diagram showing an example of the stored contents of the script table 120.
  • FIG. 5 is an explanatory diagram showing an example of the stored contents of the script inheritance table 130.
  • FIG. 6 is an explanatory diagram showing an example of the stored contents of the action information DB 140.
  • FIG. 7 is a block diagram showing a functional configuration example of the information processing apparatus 101.
  • FIG. 8 is an explanatory diagram showing an example of the stored contents of the frame table 800.
  • FIG. 9 is an explanatory diagram showing an embodiment of the conversation control system 100.
  • FIG. 10 is an explanatory diagram showing a screen example of a talk screen displayed on the first information processing terminal 102.
  • FIG. 11A is an explanatory diagram (No. 1) showing a screen example of the talk screen displayed on the second information processing terminal 103.
  • FIG. 11B is an explanatory diagram (No. 2) showing a screen example of the talk screen displayed on the second information processing terminal 103.
  • FIG. 11C is an explanatory diagram (No. 3) showing a screen example of the talk screen displayed on the second information processing terminal 103.
  • FIG. 11D is an explanatory diagram (No. 4) showing a screen example of the talk screen displayed on the second information processing terminal 103.
  • FIG. 10 is an explanatory diagram showing a screen example of a talk screen displayed on the first information processing terminal 102.
  • FIG. 11A is an explanatory diagram (No. 1) showing a screen example of the talk screen displayed on the second information processing
  • FIG. 11E is an explanatory diagram (No. 5) showing a screen example of the talk screen displayed on the second information processing terminal 103.
  • FIG. 12 is a flowchart showing an example of the first conversation control processing procedure of the information processing apparatus 101.
  • FIG. 13 is a flowchart (No. 1) showing an example of the second conversation control processing procedure of the information processing apparatus 101.
  • FIG. 14 is a flowchart (No. 2) showing an example of the second conversation control processing procedure of the information processing apparatus 101.
  • the conversation control system 100 is applied to a computer system that collects behavior information of a user such as a tourist by using, for example, a chatbot.
  • FIG. 1 is an explanatory diagram showing a system configuration example of the conversation control system 100.
  • the conversation control system 100 includes an information processing device 101, a first information processing terminal 102, a second information processing terminal 103, and an operator terminal 104.
  • the information processing device 101, the first information processing terminal 102, the second information processing terminal 103, and the operator terminal 104 are connected via a wired or wireless network 110.
  • the network 110 is, for example, a LAN (Local Area Network), a WAN (Wide Area Network), the Internet, or the like.
  • the information processing device 101 is a computer that controls the conversation of the chatbot.
  • the information processing apparatus 101 has, for example, a script table 120, a script takeover table 130, and an action information DB (Database) 140.
  • the information processing device 101 is, for example, a server.
  • the stored contents of the script table 120, the script takeover table 130, and the action information DB 140 will be described later with reference to FIGS. 4 to 6.
  • the first information processing terminal 102 is a stationary computer used when a user has a conversation with a chatbot.
  • the first information processing terminal 102 is a digital board installed in a store, a commercial facility, a station, an airport, or the like and used by an unspecified number of people.
  • the second information processing terminal 103 is a portable computer used when a user has a conversation with a chatbot.
  • the second information processing terminal 103 is a personal smartphone, a tablet PC (Personal Computer), or the like.
  • the user searches for a desired answer while interacting with the chat bot, for example, by inputting a message or selecting an option. , You can use the service.
  • the answer is, for example, FAQ (freaky Asked Question).
  • FAQ means "frequently asked questions" and is a collection of questions and answers to expected questions in advance.
  • the question may be a question of how to solve some problem, or it may be a spoken question. Answers include answers that indicate how to solve the question being asked, and answers to spoken questions.
  • the information processing device 101 has, for example, a FAQ master (not shown), a chat log DB, and the like.
  • the FAQ master stores the FAQ.
  • the chat log DB stores the chat log.
  • the chat log is a conversation history regarding a conversation between a user and a chatbot.
  • the chat log is stored in the chat log DB in association with the room ID, for example.
  • the room ID can identify a series of conversations in the chatbot.
  • the operator terminal 104 is a computer used by the operator.
  • the operator is a person who responds to the user when switching from the chatbot correspondence to the manned conversation.
  • the operator can communicate with the user by using the telephone function of the operator terminal 104, text communication, or the like.
  • the operator terminal 104 is, for example, a PC or a tablet PC.
  • the conversation control system 100 includes a plurality of first information processing terminals 102, a plurality of second information processing terminals 103, and a plurality of operator terminals 104.
  • the meta information or position information corresponding to the shot image is used instead of the shot image itself.
  • FIG. 2 is a block diagram showing a hardware configuration example of the information processing apparatus 101.
  • the information processing apparatus 101 includes a CPU (Central Processing Unit) 201, a memory 202, a disk drive 203, a disk 204, a communication I / F (Interface) 205, and a portable recording medium I / F 206. , And a portable recording medium 207. Further, each component is connected by a bus 200.
  • CPU Central Processing Unit
  • the CPU 201 controls the entire information processing device 101.
  • the CPU 201 may have a plurality of cores.
  • the memory 202 includes, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), a flash ROM, and the like.
  • the flash ROM stores the OS (Operating System) program
  • the ROM stores the application program
  • the RAM is used as the work area of the CPU 201.
  • the program stored in the memory 202 is loaded into the CPU 201 to cause the CPU 201 to execute the coded process.
  • the disk drive 203 controls data read / write to the disk 204 according to the control of the CPU 201.
  • the disk 204 stores the data written under the control of the disk drive 203. Examples of the disk 204 include a magnetic disk and an optical disk.
  • the communication I / F 205 is connected to the network 110 through a communication line, and is connected to an external computer (for example, the first information processing terminal 102, the second information processing terminal 103, and the operator terminal 104 shown in FIG. 1) via the network 110. ) Is connected.
  • the communication I / F 205 controls the interface between the network 110 and the inside of the device, and controls the input / output of data from an external computer.
  • a modem, a LAN adapter, or the like can be adopted for the communication I / F 205.
  • the portable recording medium I / F 206 controls data read / write to the portable recording medium 207 according to the control of the CPU 201.
  • the portable recording medium 207 stores data written under the control of the portable recording medium I / F 206.
  • Examples of the portable recording medium 207 include a CD (Compact Disc) -ROM, a DVD (Digital Versaille Disk), and a USB (Universal Serial Bus) memory.
  • the information processing device 101 may have, for example, an SSD (Solid State Drive), an input device, a display, or the like, in addition to the above-mentioned components. Further, the information processing apparatus 101 may not have, for example, a disk drive 203, a disk 204, a portable recording medium I / F 206, and a portable recording medium 207 among the above-mentioned components.
  • an SSD Solid State Drive
  • I / F 206 portable recording medium
  • FIG. 3 is a block diagram showing a hardware configuration example of the information processing terminals 102 and 103.
  • the information processing terminals 102 and 103 include a CPU 301, a memory 302, a display 303, an input device 304, a communication I / F 305, a camera 306, a speaker 307, a microphone 308, and a GPS (Global Positioning). It has a System) unit 309 and. Further, each component is connected by a bus 300.
  • the CPU 301 controls the entire information processing terminals 102 and 103.
  • the CPU 301 may have a plurality of cores.
  • the memory 302 is a storage unit having, for example, a ROM, a RAM, a flash ROM, and the like. Specifically, for example, a flash ROM or ROM stores various programs, and RAM is used as a work area of CPU 301.
  • the program stored in the memory 302 is loaded into the CPU 301 to cause the CPU 301 to execute the coded process.
  • the display 303 is a display device that displays data such as a cursor, an icon, a toolbox, a document, an image, and functional information.
  • a liquid crystal display for example, a liquid crystal display, an organic EL (Electroluminescence) display, or the like can be adopted.
  • the input device 304 has keys for inputting characters, numbers, various instructions, etc., and inputs data.
  • the input device 304 may be a touch panel type input pad, a numeric keypad, or the like, or may be a keyboard, a mouse, or the like.
  • the communication I / F 305 is connected to the network 110 through a communication line, and is connected to an external computer (for example, the information processing device 101 shown in FIG. 1 and the operator terminal 104) via the network 110. Then, the communication I / F 305 controls the interface between the network 110 and the inside of the own device, and controls the input / output of data from the external device.
  • an external computer for example, the information processing device 101 shown in FIG. 1 and the operator terminal 104
  • the camera 306 is an image pickup device that captures an image (still image or moving image) and outputs image data.
  • the speaker 307 converts an electric signal into voice and outputs the voice.
  • the microphone 308 receives voice and converts it into an electrical signal.
  • the GPS unit 309 receives radio waves from GPS satellites and outputs the position information of the information processing terminals 102 and 103.
  • the position information of the information processing terminals 102 and 103 is information for specifying one point on the earth such as latitude and longitude.
  • the satellite for example, a satellite of the quasi-zenith satellite system may be used.
  • the information processing terminals 102 and 103 may include, for example, an HDD (Hard Disk Drive), SSD, short-range wireless communication I / F, portable recording medium I / F, portable recording medium, and the like. May have.
  • the operator terminal 104 shown in FIG. 1 can also be realized by the same hardware configuration as the information processing terminals 102 and 103.
  • the script table 120 is realized by, for example, a storage device such as the memory 202 and the disk 204 shown in FIG.
  • FIG. 4 is an explanatory diagram showing an example of the stored contents of the script table 120.
  • the script table 120 has fields for an external environment and a script, and by setting information in each field, script management information (for example, script management information 400-1 to 400-3) is stored as a record. do.
  • script management information for example, script management information 400-1 to 400-3
  • the external environment is information representing the external environment.
  • the external environment represents a place (location), time, weather, temperature, humidity, and the like.
  • an external environment ID (for example, E1, E2, E3) that identifies the external environment is described.
  • the script is information (scenario) that defines the conversation flow of the chatbot, and is prepared in association with the external environment, for example.
  • a script ID for example, SP1, SP2, SP3 that identifies the script is expressed.
  • recommended information and frequently selected FAQs tend to change depending on the location and the weather. More specifically, for example, in Akihabara, there is a tendency to be more interested in consumer electronics mass retailers and electric stores than in other places. Also, rainy days tend to be more interested in indoor facilities such as movie theaters than sunny days.
  • the script table 120 a script corresponding to the external environment is prepared in advance.
  • the script may contain, for example, information about recommended spots.
  • Information on recommended spots includes introduction of recommended spots and map information including recommended spots.
  • the script management information 400-1 indicates the script SP1 corresponding to the external environment E1.
  • the script may be prepared in association with the combination of the user attribute and the external environment. That is, the script may be prepared in consideration of not only the external environment but also the user attributes representing the characteristics of the user.
  • the script takeover table 130 is realized by a storage device such as a memory 202 and a disk 204, for example.
  • FIG. 5 is an explanatory diagram showing an example of the stored contents of the script inheritance table 130.
  • the script takeover table 130 has fields for the takeover source script, conversation content, user attribute / external environment, takeover destination script, and recommendation information.
  • script inheritance information (for example, script inheritance information 500-1 to 500-3) is stored as a record.
  • the takeover source script is the takeover source script.
  • the conversation content is information that identifies the content of the conversation in the chatbot at the takeover source. For example, the conversation content indicates the selected options, the input information, and the like in the conversation in the chatbot at the takeover source.
  • User attribute / external environment indicates a combination of user attribute and external environment.
  • the user attribute is information representing the characteristics of the user.
  • the user attribute represents age, age, gender, language used, clothes, presence / absence of accompanying person, location information, and the like.
  • the user attribute may represent the age, age, gender, language used, clothes, and the like of the companion.
  • the takeover destination script is a takeover destination script, and is prepared in association with, for example, a combination of the takeover source script, user attributes, and external environment.
  • the FAQ that is often selected tends to change depending on the age, gender, language used, presence or absence of a companion, and the like.
  • the FAQ that is often selected tends to change depending on the location and the weather. Therefore, the script to be inherited is switched in consideration of the user attributes and the external environment.
  • Recommendation information is information to be recommended and includes map information.
  • the recommendation information is information about a recommended spot, and includes map information around the recommended spot.
  • the recommendation information is prepared in association with, for example, a combination of the takeover source script, the conversation content, and the user attribute.
  • the recommendation information corresponding to the combination of the takeover source script, the conversation content, the user attribute, and the external environment is prepared in advance.
  • the script takeover information 500-1 indicates the takeover destination script SP1-1 and the recommendation information RD1 corresponding to the takeover source script SP1, the conversation content C1, the user attribute UA1, and the external environment E1.
  • the action information DB 140 is realized by, for example, a storage device such as a memory 202 and a disk 204.
  • FIG. 6 is an explanatory diagram showing an example of the stored contents of the action information DB 140.
  • the behavior information DB 140 stores behavior information (for example, behavior information 600-1, 600-2).
  • Behavioral information includes room ID, purpose, nationality, location information, rating, gender age, number of people, season, day of the week, time zone and weather information.
  • the room ID is information that can identify a series of conversations in the chatbot.
  • the purpose indicates the purpose for which the user visits the place indicated by the location information. Nationality indicates the nationality of the user.
  • the location information indicates the place visited by the user.
  • the rating indicates the user's rating for the location. For example, the rating "Good” indicates that the rating is high. A rating of "Bad” indicates a low rating.
  • Gender age indicates the gender and age of the user.
  • the number of people indicates the number of users.
  • the season indicates the season when the place is visited.
  • the day of the week indicates the day of the week when the place was visited.
  • the time zone indicates the time zone when the place was visited.
  • the weather indicates the weather when the place is visited.
  • the behavior information 600-1 includes room ID "R100”, purpose “sightseeing”, nationality “Spanish”, location information “Tokyo Tower”, evaluation “Bad”, gender age “female in 60s”, and number of people “2 people”. , Season “winter”, day of the week “Sunday”, time zone “evening” and weather “rain”.
  • the action information includes, for example, an ID that uniquely identifies the action information, a time stamp indicating the date and time when the action information was recorded, and the like.
  • FIG. 7 is a block diagram showing a functional configuration example of the information processing apparatus 101.
  • the information processing apparatus 101 includes a communication unit 701, a determination unit 702, a conversation control unit 703, and a storage unit 710.
  • the communication unit 701 to the conversation control unit 703 causes the CPU 201 to execute a program stored in a storage device such as the memory 202, the disk 204, and the portable recording medium 207 shown in FIG.
  • the function is realized by the communication I / F 205.
  • the processing result of each functional unit is stored in a storage device such as a memory 202 or a disk 204, for example.
  • the storage unit 710 is realized by, for example, a storage device such as a memory 202 and a disk 204. Specifically, for example, the storage unit 710 has a script table 120 shown in FIG. 4, a script takeover table 130 shown in FIG. 5, an action information DB 140 shown in FIG. 6, a FAQ master (not shown), a chat log DB, and the like.
  • a script table 120 shown in FIG. 4 a script takeover table 130 shown in FIG. 5
  • an action information DB 140 shown in FIG. 6
  • FAQ master not shown
  • chat log DB chat log DB
  • the communication unit 701 receives a chat start instruction from the first information processing terminal 102.
  • the chat start instruction is for starting a conversation between the user and the chatbot.
  • the first information processing terminal 102 is, for example, a digital board installed at a station, an airport, or the like.
  • the communication unit 701 may receive the chat start instruction from the first information processing terminal 102 and also receive the external environment information acquired by the first information processing terminal 102.
  • the external environment information is information that identifies the external environment of the first information processing terminal 102.
  • the external environment information is information that can specify a place (position), time, weather, temperature, humidity, and the like.
  • the communication unit 701 may receive the chat start instruction from the first information processing terminal 102 and also receive the user information acquired by the first information processing terminal 102.
  • the user information is information that specifies a user attribute.
  • the user information is information that can identify the age, age, gender, language, clothes, presence / absence of a wheelchair, presence / absence of a companion, and the like.
  • the first information processing terminal 102 may be made to input user information and / or external environment information by a user's operation input using an input device 304 (see FIG. 3). In this case, the first information processing terminal 102 transmits the input user information and / or external environment information to the information processing apparatus 101 together with the chat start instruction.
  • the first information processing terminal 102 detects the user captured by the camera 306 (see FIG. 3) of the own terminal, or responds to the user's operation input using the input device 304, and / or user information and / or. External environment information may be acquired. In this case, the first information processing terminal 102 transmits the acquired user information and / or external environment information to the information processing apparatus 101 together with the chat start instruction.
  • the first information processing terminal 102 analyzes the image information (for example, a moving image) taken by the camera 306, and the user's age, gender, clothes, presence / absence of a wheelchair, and companion's. User information such as presence / absence may be acquired.
  • the first information processing terminal 102 analyzes the image information taken by the camera 306 and acquires the user information such as the companion's age, gender, clothes, and the presence or absence of a wheelchair. You may.
  • the first information processing terminal 102 may analyze the voice information received by the microphone 308 (see FIG. 3) to acquire user information such as the gender and language of the user or companion. Further, the first information processing terminal 102 may acquire external environmental information such as weather, temperature, and humidity by using an environment sensor (not shown) or by inquiring to an external server. Further, the first information processing terminal 102 may acquire the position information indicating the current position as the external environment information by the GPS unit 309 (see FIG. 3).
  • the first information processing terminal 102 uses a method based on machine learning such as deep learning to obtain information such as age, gender, clothes, language, presence / absence of a wheelchair, and presence / absence of a companion from the feature quantities of images and sounds. It may be extracted.
  • machine learning such as deep learning to obtain information such as age, gender, clothes, language, presence / absence of a wheelchair, and presence / absence of a companion from the feature quantities of images and sounds. It may be extracted.
  • the determination unit 702 determines a talk script to be applied to the conversation in the chatbot on the first information processing terminal 102. Specifically, for example, the determination unit 702 determines the talk script based on the external environment information received from the first information processing terminal 102 together with the chat start instruction with reference to the storage unit 710. In this case, the storage unit 710 stores scripts corresponding to each of the plurality of external environments.
  • the determination unit 702 may determine the talk script based on the user information received from the first information processing terminal 102 together with the chat start instruction with reference to the storage unit 710.
  • the storage unit 710 stores scripts corresponding to each of the plurality of user attributes.
  • the determination unit 702 may determine the talk script based on the user information and the external environment information received together with the chat start instruction from the first information processing terminal 102 with reference to the storage unit 710. good.
  • the storage unit 710 stores a script corresponding to each of a plurality of combinations of the user attribute and the external environment.
  • the determination unit 702 identifies the external environment of the first information processing terminal 102 based on the received external environment information. Then, the determination unit 702 determines the script corresponding to the specified external environment as the talk script with reference to the script table 120 shown in FIG.
  • the determination unit 702 determines the script corresponding to the specified external environment "location” Tokyo station “, time zone” daytime "" as the talk script with reference to the script table 120.
  • the conversation control unit 703 starts a conversation with the chatbot on the first information processing terminal 102 in response to the received chat start instruction. Specifically, for example, the conversation control unit 703 starts a conversation in the chatbot at the first information processing terminal 102 by using the determined talk script.
  • the conversation control unit 703 uses a chatbot to speak, display options, and execute procedures according to the selected options according to the talk script.
  • the conversation history (chat log) between the chatbot and the user in the first information processing terminal 102 is stored in, for example, a chat log DB (not shown) of the information processing device 101.
  • the communication unit 701 receives a chat start instruction from the second information processing terminal 103.
  • the second information processing terminal 103 is, for example, a user's personal smartphone.
  • the communication unit 701 may receive the chat start instruction from the second information processing terminal 103 and also receive the user information acquired by the second information processing terminal 103.
  • the communication unit 701 may receive the chat start instruction from the second information processing terminal 103 and also receive the external environment information acquired by the second information processing terminal 103.
  • the determination unit 702 determines a talk script to be applied to the conversation in the chatbot on the second information processing terminal 103. Specifically, for example, the determination unit 702 refers to the storage unit 710, and based on the user information and / or the external environment information received from the second information processing terminal 103 together with the chat start instruction, the talk script. May be decided.
  • the conversation control unit 703 When the conversation control unit 703 receives a chat start instruction from the second information processing terminal 103, the conversation control unit 703 starts a conversation in the chat bot at the second information processing terminal 103 and provides recommendation information including map information. Output to the second information processing terminal 103.
  • the recommendation information is information that is recommended to the user, and is, for example, information about a recommended spot.
  • the recommended spot is a recommended spot, for example, a tourist spot such as an art museum or a museum, or a store or an event venue in a facility such as a commercial facility or a department store.
  • Information about recommended spots includes, for example, introduction of recommended spots, introduction of products and services provided at recommended spots, coupon information that can be used at recommended spots, and the like.
  • the map information included in the recommendation information is, for example, the map information around the recommended spot.
  • the map information includes, for example, a route from the position of the second information processing terminal 102 to the recommended spot.
  • the route may include, for example, a route traveled on foot, or may include a route traveled by car or train.
  • the determination unit 702 determines the recommendation information to be output based on the user information received from the second information processing terminal 103 together with the chat start instruction with reference to the storage unit 710. You may.
  • the storage unit 710 stores, for example, the recommendation information corresponding to each of the plurality of user attributes.
  • the determination unit 702 may determine the recommendation information to be output based on the external environment information received from the second information processing terminal 103 together with the chat start instruction with reference to the storage unit 710.
  • the storage unit 710 stores, for example, the recommendation information corresponding to each of the plurality of external environments.
  • the determination unit 702 determines the recommendation information to be output based on the user information and the external environment information received from the second information processing terminal 103 together with the chat start instruction with reference to the storage unit 710. May be good.
  • the storage unit 710 stores, for example, the recommendation information corresponding to each of a plurality of combinations of the user attribute and the external environment.
  • the determination unit 702 determines the recommendation information to be output in consideration of the user attribute of the second information processing terminal 103 and the external environment. Then, the conversation control unit 703 starts a conversation with the chatbot in the first information processing terminal 102 by using the determined talk script, and at the same time, the determined output target recommendation information is transmitted to the second information processing terminal. Output to 103.
  • the user information and the external environment information received from the second information processing terminal 103 together with the chat start instruction are other information processing terminals different from the second information processing terminal 103, for example, the first information processing terminal. It may be the information acquired in 102.
  • a conversation on a chatbot on a digital board (first information processing terminal 102) installed at a station or airport may be continued on a user's personal smartphone (second information processing terminal 103).
  • the user information and the external environment information may be, for example, the information received in the conversation in the chatbot on the digital board (first information processing terminal 102).
  • the conversation control unit 703 After starting the first conversation in the chatbot of the first information processing terminal 102, the conversation control unit 703 guides the succession of the conversation when the conversation content received from the first information processing terminal 102 satisfies a predetermined condition. Is output to the first information processing terminal 102.
  • the conversation content includes, for example, selected choices and input messages.
  • the takeover guidance interrupts the conversation on the first information processing terminal 102 and prompts the user to continue the conversation on the second information processing terminal 103 carried by the user.
  • the takeover guide is information that can be obtained as takeover information by reading the takeover guide.
  • the takeover information includes information that identifies the takeover source script, for example, a script ID.
  • the takeover information includes information for specifying the conversation content in the chatbot on the first information processing terminal 102, which is the takeover source.
  • the information that identifies the conversation content may be the information itself received in the first conversation in the chatbot at the first information processing terminal 102.
  • the information received in the first conversation is, for example, the selected option or the input information in the first conversation.
  • the information received in the first conversation may include information specifying a purpose such as sightseeing or shopping. Further, the information received in the first conversation may include information for specifying a user attribute and an external environment.
  • the information for specifying the conversation content may be information for specifying the information received in the first conversation, for example, a chat log ID. Further, the information for specifying the conversation content may be information for specifying a place where the first conversation is interrupted (takeover place), for example, information for identifying the talk process in which the first conversation is interrupted.
  • the takeover guidance is displayed on the first information processing terminal 102 as code information such as a QR (Quick Response) code.
  • QR code is a registered trademark.
  • the conversation control unit 703 may output a message such as "To take over the conversation to the smartphone, read the QR code" to the first information processing terminal 102 together with the QR code.
  • the takeover guidance may be output from a non-contact IC (Integrated Circuit) tag (not shown) of the first information processing terminal 102.
  • the conversation control unit 703 decides to output a message such as "Please touch here to take over the conversation to the smartphone" to the non-contact IC tag portion of the first information processing terminal 102. You may.
  • the non-contact IC tag for example, an NFC (Near Field Communication) tag can be used.
  • predetermined conditions can be set arbitrarily.
  • the predetermined condition may be a condition that a predetermined option is selected, or may be a condition that a predetermined information is input.
  • Predetermined options include options for selecting recommended spots and routes, and options for linking to smartphones.
  • a screen example of the talk screen displayed on the display 303 of the first information processing terminal 102 will be described later with reference to, for example, FIG.
  • the conversation control unit 703 analyzes the conversation content received from the first information processing terminal 102 and determines whether or not the conversation content satisfies a predetermined condition. Then, when it is determined that the predetermined condition is satisfied, the conversation control unit 703 causes the first information processing terminal 102 to output the conversation takeover guidance.
  • which talk process is used to output the conversation takeover guidance may be preset in the talk script.
  • the second information processing terminal 103 acquires the takeover information by reading the takeover guide output from the first information processing terminal 102 by the reading unit 720. Specifically, for example, the second information processing terminal 103 acquires the takeover information by reading the QR code displayed on the display 303 of the first information processing terminal 102 by the reading unit 720. Further, the second information processing terminal 103 may acquire the takeover information by receiving the takeover guidance output from the non-contact IC tag of the first information processing terminal 102 by the reading unit 720. ..
  • the second information processing terminal 103 When the second information processing terminal 103 acquires the transfer information, the second information processing terminal 103 transmits a chat start instruction including the acquired transfer information to the information processing device 101. In this case, the communication unit 701 receives a chat start instruction including the takeover information from the second information processing terminal 103.
  • the conversation control unit 703 When the conversation control unit 703 receives the chat start instruction including the takeover information from the second information processing terminal 103, the conversation control unit 703 in the second information processing terminal 103 is based on the takeover information included in the chat start instruction. The second conversation following the first conversation in the chat bot is started, and the recommendation information including the map information is output to the second information processing terminal 103.
  • the decision unit 702 when the determination unit 702 receives a chat start instruction including the takeover information from the second information processing terminal 103, the decision unit 702 has a takeover source script, a conversation content, and a user attribute based on the takeover information. And identify the external environment.
  • the conversation content for example, a conversation content representing a purpose such as sightseeing or shopping is specified.
  • the determination unit 702 determines the takeover destination script corresponding to the specified combination of the takeover source script, the user attribute, and the external environment as the talk script with reference to the script takeover table 130 shown in FIG. Further, the determination unit 702 determines the recommendation information corresponding to the combination of the specified takeover source script, the user attribute, and the external environment as the recommendation information to be output by referring to the script takeover table 130. Then, the conversation control unit 703 starts the second conversation following the first conversation in the chatbot at the second information processing terminal 103 by using the determined talk script, and the determined output target. The recommendation information is output to the second information processing terminal 103.
  • FIGS. 11A to 11E A screen example of the talk screen displayed on the display 303 of the second information processing terminal 103 will be described later using, for example, FIGS. 11A to 11E.
  • the communication unit 701 receives the meta information corresponding to the captured image and the position information corresponding to the captured image from the second information processing terminal 103.
  • the captured image is, for example, a captured image of a user captured by a camera 306 (see FIG. 3) mounted on the second information processing terminal 103.
  • the captured image is captured using, for example, a frame image corresponding to the target spot, which is output to the second information processing terminal 103 when it is detected that the second information processing terminal 103 has arrived at the target spot.
  • the target spot is, for example, a recommended spot and is included in the map information of the recommendation information.
  • the map information includes, for example, a route from the position of the second information processing terminal 102 to the target spot (recommended spot). The route is determined according to user attributes such as age and gender, and an external environment such as weather and time.
  • the conversation control unit 703 detects that the second information processing terminal 103 has arrived at the target spot. More specifically, for example, the conversation control unit 703 receives the positioning result from the second information processing terminal 103, and the second information processing terminal 103 arrives at the target spot indoors based on the received positioning result. Detect that you have done it.
  • the positioning result is, for example, the position information of the GPS unit 309 shown in FIG.
  • the arrival of the second information processing terminal 103 at the target spot may be detected, for example, by indoor positioning using a beacon or Wi-Fi (registered trademark) using a communication device installed at the target spot. ..
  • the conversation control unit 703 detects that the second information processing terminal 103 has arrived at the target spot, the conversation control unit 703 refers to the frame table 800 as shown in FIG. 8 and obtains a frame image corresponding to the target spot. Identify. The conversation control unit 703 outputs the specified frame image to the second information processing terminal 103. Then, the communication unit 701 receives the meta information corresponding to the captured image captured using the output frame image and the position information corresponding to the captured image from the second information processing terminal 103.
  • the frame table 800 is realized by a storage device such as a memory 202 and a disk 204.
  • FIG. 8 is an explanatory diagram showing an example of the stored contents of the frame table 800.
  • the frame table 800 has spot and frame fields, and by setting information in each field, frame management information (for example, frame management information 800-1, 800-2) is stored as a record. ..
  • the spot is a recommended spot, for example, a museum, a museum, a zoo, a store, an event venue, or the like.
  • a frame is a frame image corresponding to a spot.
  • the frame for example, a frame image that shows that the image was taken at the target spot is prepared.
  • the conversation control unit 703 refers to the frame table 800 and specifies the frame image f1 corresponding to the target spot s1. Then, the conversation control unit 703 outputs the specified frame image f1 to the second information processing terminal 103.
  • a plurality of frame images may be associated with one target spot.
  • the conversation control unit 703 may, for example, output a plurality of frame images corresponding to the target spots so that any frame image can be selected from the plurality of frame images.
  • the second information processing terminal 103 when the second information processing terminal 103 receives a captured image in response to a conversation in a chatbot, the second information processing terminal 103 generates meta information corresponding to the captured image and acquires position information corresponding to the captured image. Then, the second information processing terminal 103 transmits the meta information corresponding to the captured image and the position information corresponding to the captured image to the information processing apparatus 101.
  • the meta information of the captured image includes, for example, information representing the attributes of the user included in the captured image.
  • the user's attribute is specified, for example, from the result of image recognition processing of the captured image.
  • the attributes of the user specified by image recognition processing of the captured image include, for example, gender, age, number of people, and the presence or absence of a wheelchair.
  • the image recognition process for the captured image may be executed, for example, in the second information processing terminal 103, or may be executed by using an image processing server (not shown) in cooperation with API (Application Programming Interface). ..
  • the captured image transmitted to the image processing server is deleted, for example, after the image recognition processing.
  • the meta information of the captured image may include, for example, information that identifies the information received in the conversation in the chatbot.
  • the conversation in the chatbot is, for example, a first conversation in the chatbot at the first information processing terminal 102 or a second conversation following the first conversation in the chatbot at the second information processing terminal 103. be.
  • the information received in the conversation in the chatbot may be, for example, information indicating the purpose, nationality, etc. of the user.
  • the purpose is, for example, sightseeing, shopping, playing, lodging, resting, eating, and the like.
  • the information received in the conversation in the chatbot may be, for example, information indicating the user's evaluation of the target spot. Evaluations include Good, Bad, and numerical values indicating satisfaction.
  • the meta information of the captured image may include, for example, information on the date and time when the captured image was captured, or information specifying the season, day of the week, time zone, weather, etc. specified from the date and time information.
  • Seasons are represented by, for example, spring, summer, autumn, winter, rainy season, Obon festival, and New Year's Day.
  • the day of the week is represented by, for example, Monday, Tuesday, Wednesday, Thursday, Friday, Saturday, Sunday, weekdays, holidays, and the like.
  • the time zone is represented by, for example, morning, noon, evening, night, and the like.
  • Weather is represented by, for example, sunny, cloudy, rainy, and the like.
  • the weather is specified by inquiring to an external server (not shown) based on the date and time information, for example, by API linkage.
  • the position information corresponding to the captured image is information that identifies the captured location.
  • the position information corresponding to the captured image may be, for example, the position information of the GPS unit 309 at the time of shooting, or information indicating a location such as a facility name or a store name specified from the position information of the GPS unit 309. There may be.
  • the second information processing terminal 103 determines, for example, whether or not the captured image includes the user, that is, whether or not the captured image is the user's image, based on the result of image recognition processing of the captured image. You may do it. Then, when the captured image is a user's image, the second information processing terminal 103 decides to transmit the meta information corresponding to the captured image and the position information corresponding to the captured image to the information processing apparatus 101. May be good. As a result, meta information including at least information representing the user's attribute can be transmitted to the information processing apparatus 101.
  • the conversation control unit 703 associates a series of conversations in the chatbot with identifiable information, and records meta information corresponding to the captured image and position information corresponding to the captured image.
  • Information that can identify a series of conversations in a chatbot is, for example, a room ID.
  • the room ID is, for example, a predetermined period (for example, when a conversation in the chatbot at the second information processing terminal 103 is started, even if the session between the second information processing terminal 103 and the information processing device 101 is disconnected. , 7 days) Valid identifier.
  • the conversation control unit 703 corresponds to the room ID capable of specifying a series of conversations in the chatbot in the second information processing terminal 103, the meta information corresponding to the captured image, and the captured image.
  • the action information including the position information is recorded in the action information DB 140 shown in FIG. According to the room ID, the action information of each shooting point can be linked.
  • the conversation control unit 703 updates the output recommendation information based on the meta information corresponding to the captured image and the position information corresponding to the captured image. Then, the conversation control unit 703 outputs the updated recommendation information to the second information processing terminal 103.
  • the recommendation information may be output in a conversation format in the chatbot, or may be output in another format different from the conversation format in the chatbot.
  • the recommendation information may be displayed in a different area from the area where the conversation in the chatbot is displayed on the talk screen displayed on the second information processing terminal 103.
  • the conversation control unit may update the recommendation information based on the user attribute specified from the meta information corresponding to the captured image and the position information corresponding to the captured image. Specifically, for example, the conversation control unit provides information on recommended spots around the place specified from the location information corresponding to the captured image according to the purpose, gender, age, number of people, nationality, etc. specified from the meta information. You may decide to update to.
  • the conversation control unit may update the recommendation information based on the external environment specified from the meta information corresponding to the captured image and the position information corresponding to the captured image. More specifically, for example, the conversation control unit is located around a place specified from the position information corresponding to the captured image according to the season, the day of the week, the time zone, the weather, etc. specified from the meta information. You may also update to information about recommended spots in.
  • the conversation control unit may update the recommendation information based on the user's evaluation of the target spot specified from the meta information corresponding to the captured image and the position information corresponding to the captured image. Specifically, for example, when the evaluation specified from the meta information is "Good”, the conversation control unit may update the information regarding the next target spot on the preselected tourist route. On the other hand, when the evaluation specified from the meta information is "Bad”, the conversation control unit may update the information regarding the new sightseeing route starting from the place specified from the position information corresponding to the captured image. good.
  • the determination unit 702 specifies the conversation content, the user attribute, and the external environment based on the meta information corresponding to the captured image and the position information corresponding to the captured image.
  • the conversation content for example, an evaluation for the target spot is specified.
  • the determination unit 702 specifies the talk script applied to the immediately preceding conversation in the chatbot at the second information processing terminal 103 as the takeover source script.
  • the determination unit 702 refers to the script inheritance table 130 and determines the inheritance destination script corresponding to the specified combination of the inheritance source script, the user attribute, and the external environment as the talk script. Further, the determination unit 702 determines the recommended information corresponding to the combination of the specified takeover source script, the user attribute, and the external environment as the updated recommendation information with reference to the script takeover table 130. Then, the conversation control unit 703 starts a conversation (continuation of the second conversation) in the chatbot on the second information processing terminal 103 using the determined talk script, and the determined updated recommendation. The information is output to the second information processing terminal 103.
  • the updated recommendation information may be defined in the talk script first applied to the conversation in the chatbot on the second information processing terminal 103. That is, when updating the recommendation information, the conversation control unit 703 does not switch the talk script, but recommends according to the conversation content in the chatbot and the position information corresponding to the captured image according to the talk script applied first. You may decide to update the information.
  • the meta information corresponding to the captured image is generated on the second information processing terminal 103 side, but the present invention is not limited to this.
  • the meta information corresponding to the captured image may be generated on the information processing apparatus 101 side.
  • the communication unit 701 captures the captured image and the captured image from the second information processing terminal 103. Receives the position information corresponding to the image.
  • the conversation control unit 703 recognizes the received captured image and generates meta information corresponding to the captured image.
  • the image recognition process for the captured image may be executed, for example, in the information processing apparatus 101, or may be executed by using an image processing server (not shown) in cooperation with the API. Further, the conversation control unit 703 deletes the captured image after generating the meta information corresponding to the captured image. This makes it possible to prevent private photographs and the like from remaining on the server (information processing device 101).
  • Each functional unit of the above-mentioned information processing apparatus 101 is realized by a plurality of computers in the conversation control system 100 (for example, the information processing apparatus 101, the first information processing terminal 102, and the second information processing terminal 103). You may decide.
  • FIG. 9 is an explanatory diagram showing an embodiment of the conversation control system 100.
  • the information processing apparatus 101 receives a chat start instruction from the second information processing terminal 103
  • the information processing apparatus 101 starts a chat in the chat bot at the second information processing terminal 103 and receives the recommendation information 910.
  • the recommendation information 910 is information about the target spot s1 and includes map information 920.
  • the map information 920 includes, for example, a route from the position of the second information processing terminal 102 to the target spot s1.
  • the information processing apparatus 101 When the information processing apparatus 101 detects that the second information processing terminal 103 has arrived at the target spot s1, the information processing apparatus 101 outputs the frame image f1 corresponding to the target spot s1 to the second information processing terminal 103.
  • the user can take a commemorative photo at the target spot s1 by using, for example, the frame image f1 displayed on the second information processing terminal 103.
  • the information processing device 101 receives the meta information corresponding to the captured image and the position information corresponding to the captured image from the second information processing terminal 103. do.
  • the captured image 930 is captured in response to the message prompting the capture using the frame image f1 in the conversation in the chatbot at the second information processing terminal 103.
  • the captured image 930 is a captured image including a user captured by the camera 306 of the second information processing terminal 103 using the frame image f1.
  • the second information processing terminal 103 transmits the meta information d1 corresponding to the captured image 930 received in response to the conversation in the chatbot and the position information d2 corresponding to the captured image 930 to the information processing device 101. Send.
  • the information processing apparatus 101 receives the meta information d1 corresponding to the captured image 930 and the position information d2 corresponding to the captured image 930 from the second information processing terminal 103. At this time, the captured image 930 is stored in the second information processing terminal 103, but is not stored in the information processing device 101. That is, the photographed image 930, which is a private photograph, is not stored on the information processing apparatus 101.
  • the information processing device 101 records the action information 940 including the meta information d1 corresponding to the received photographed image 930 and the position information d2 corresponding to the photographed image 930 in the action information DB 140 in association with the room ID.
  • the room ID is information that can identify a series of conversations in the chatbot at the second information processing terminal 103.
  • the information processing device 101 updates the recommendation information based on the received meta information and the location information. Then, the information processing apparatus 101 outputs the updated recommendation information to the second information processing terminal 103.
  • the recommendation information 910 is updated based on the meta information d1 and the position information d2, and the updated recommendation information 910 is output to the second information processing terminal 103.
  • the recommendation information regarding the next target spot can be output to guide the user to the next target spot.
  • the recommendation information regarding the next target spot can be output to guide the user to the next target spot.
  • the first information processing terminal 102 is a digital board installed at XX station and used by an unspecified number of people.
  • the external environment specified from the external environment information acquired by the first information processing terminal 102 is defined as "place” XX station ", time zone” daytime "".
  • the information processing apparatus 101 starts a conversation with the chatbot on the first information processing terminal 102 by using the talk script corresponding to the external environment "place” Tokyo station ", time zone” daytime "".
  • FIG. 10 is an explanatory diagram showing a screen example of a talk screen displayed on the first information processing terminal 102.
  • the talk screen 1000 is an example of an operation screen displayed on the first information processing terminal 102 when a conversation on the chatbot is started.
  • the avatar av represents a chatbot character.
  • the weather can be selected by selecting any of the selection buttons 1011 and 1012 by the user's operation input using the input device 304 (see FIG. 3) of the first information processing terminal 102.
  • the companion can be selected.
  • the purpose can be selected by selecting any of the selection buttons 1031, 1032 by the operation input of the user.
  • Information indicating the selected selection button is transmitted from the first information processing terminal 102 to the information processing device 101.
  • the language buttons b1, b2, and b3 are selected on the talk screen 1000, the language to be used can be switched. For example, by selecting the language button b2, the language used can be switched from Japanese to English.
  • the talk screen 1000 displays the recommendation information 1040 corresponding to the weather "sunny", the companion “with children", and the purpose “sightseeing” in a conversational format, and also displays the QR code 1050.
  • the recommendation information 1040 includes map information 1060.
  • the map information 1060 includes a sightseeing route 1070 that goes around a plurality of recommended spots (for example, spots s1 to s6) starting from the position p1 (installation place) of the first information processing terminal 102.
  • any of the recommended spots in the map information 1060 is selected, detailed information about the selected recommended spot can be displayed. For example, when the spot s1 is selected on the talk screen 1000, detailed information about the spot s1 can be displayed in a pop-up.
  • the user can confirm the recommended sightseeing route 1070 and confirm the information about the recommended spot on the sightseeing route 1070.
  • the detailed information about the recommended spot indicates, for example, the introduction of the spot, the contents of the products and services sold at the spot, and the like.
  • the QR code 1050 is a hand-over guide for a conversation with a chatbot on the first information processing terminal 102.
  • the second information processing terminal 103 such as a smartphone owned by the user
  • the user can read the QR code 1050 in the second information processing terminal 103 and the chat bot in the first information processing terminal 102. You can take over the conversation.
  • a chat start instruction including the transfer information is transmitted to the information processing apparatus 101, and as a result, the second information processing terminal 103 is notified.
  • a screen example of the displayed talk screen will be described.
  • the conversation in the chatbot on the second information processing terminal 103 is, for example, the takeover source script, the conversation content "purpose” sightseeing “", the user attribute "accompanied person” with children "", and the external environment “weather” sunny “”. Started with the corresponding talk script.
  • FIG. 11A to 11E are explanatory views showing a screen example of a talk screen displayed on the second information processing terminal 103.
  • the talk screen 1100 is an example of an operation screen displayed when a conversation with a chatbot in the second information processing terminal 103 is started.
  • the avatar av represents the character of the chatbot.
  • the talk screen 1100 is displayed, for example, by the browser of the second information processing terminal 103.
  • the recommendation information 1110 is displayed in a conversation format together with the messages m1 and m2 of the avatar av, which is a conversation in the chatbot.
  • the message m1 is a message to guide the route selected by the first information processing terminal 102.
  • the message m2 is a message that guides the user to the target spot (for example, the spot s1).
  • Recommendation information 1110 is information about recommended spots.
  • the recommendation information 1110 is, for example, recommendation information determined according to the takeover source script, the conversation content "purpose” sightseeing “", the user attribute “accompanied person” with children “”, and the external environment “weather” sunny “”.
  • the recommendation information 1110 includes map information 1120.
  • the map information 1120 includes a sightseeing route RT that goes around a plurality of target spots (spots s1 to s7) starting from the current position p2 of the second information processing terminal 103 (the installation location of the first information processing terminal 102). According to the recommendation information 1110, the user can move to the recommended spot while checking the sightseeing route RT, for example.
  • any target spot in the map information 1120 is selected on the talk screen 1100, detailed information about the selected target spot may be displayed. For example, when the spot s1 is selected on the talk screen 1100, detailed information about the spot s1 may be displayed in a pop-up.
  • the second information processing terminal 103 arrives at the spot s1 as a result of the user moving with the second information processing terminal 103.
  • the recommendation information 1110 is displayed in a conversational format on the talk screen 1100 together with the messages m3 and m4 of the avatar av.
  • Message m3 is a message that the spot s1 has arrived.
  • the message m4 is a message urging the photographer to take a commemorative photo using the frame image corresponding to the spot s1.
  • the map information 1120 includes a sightseeing route RT that goes around a plurality of target spots starting from the current position p2 of the second information processing terminal 103.
  • the captured image is saved in the second information processing terminal 103 and is not saved on the server. A message to that effect is displayed.
  • the selection button b11 is selected by the user's operation input, it is possible to agree to take a commemorative photo.
  • the selection button b12 is selected by the user's operation input on the talk screen 1100, it is possible to refuse to take a commemorative photo. In this case, an avatar av message such as "Please continue to enjoy sightseeing" is displayed.
  • the selection button b11 is selected on the talk screen 1100.
  • the user's message m5 and the avatar av's message m6 are displayed on the talk screen 1100.
  • the message m5 is a message to take a commemorative photo.
  • the message m6 is a message to activate the frame.
  • the shooting screen 1200 as shown in FIG. 11B is displayed. Further, on the talk screen 1100, when the return button b14 is selected by the user's operation input, the talk screen 1100 shown on the right side of FIG. 11A can be returned. Here, it is assumed that the OK button b13 is selected on the talk screen 1100.
  • the shooting screen 1200 is an example of an operation screen for taking a commemorative photo using the frame image corresponding to the spot s1.
  • the icons 1201 to 1203 are icons that can select the frame image corresponding to the spot s1.
  • a frame image for taking a commemorative photo can be selected.
  • the frame image f1 is displayed on the finder screen 1210.
  • the shooting button b15 When the shooting button b15 is selected on the shooting screen 1200 by the user's operation input, the subject displayed on the finder screen 1210 including the frame image f1 (for example, the user of the second information processing terminal 103) can be shot. ..
  • the save button b16 is selected on the shooting screen 1200
  • the shot image can be saved in the second information processing terminal 103.
  • the end button b17 is selected on the shooting screen 1200, the shooting of the commemorative photo can be finished.
  • the messages m7 to m11 are displayed on the talk screen 1100.
  • the message m7 is a user's message indicating a frame image selected for taking a commemorative photo.
  • the message m8 is a message of the avatar av to display the frame image for taking a commemorative photo on another browser.
  • the message m9 is an avatar av message to the effect that the captured image 1130 captured using the frame image f1 is included and the captured image 1130 is stored in the second information processing terminal 103 main body.
  • the message m10 is a message to the effect that the commemorative photo has been taken.
  • the message m11 is a message aimed at taking a commemorative photo.
  • the message m12 is displayed.
  • the message m12 is a message prompting the evaluation of the spot s1.
  • the button b18 is selected by the user's operation input, the evaluation "Good" for the spot s1 can be input.
  • the button b19 is selected on the talk screen 1100, the evaluation "Bad" for the spot s1 can be input.
  • the button b19 is selected on the talk screen 1100.
  • the user's message m13 is displayed on the talk screen 1100.
  • the message m13 is a message indicating that the evaluation for the spot s1 is "Bad". For example, when the evaluation for the spot s1 is input, the meta information corresponding to the captured image 1130 and the position information corresponding to the captured image 1130 are transmitted from the second information processing terminal 103 to the information processing apparatus 101.
  • new action information is recorded in the action information DB 140.
  • the captured image 1130 received in the chatbot conversation on the second information processing terminal 103 is not recorded in the chat log (chat log DB) related to the chatbot conversation.
  • the recommendation information 1110 output to the second information processing terminal 103 is updated based on the meta information corresponding to the captured image 1130 and the position information corresponding to the captured image 1130.
  • the updated recommendation information 1110-1 is displayed in a conversational format together with the message m14 of the avatar av on the talk screen 1100.
  • the updated recommendation information 1110-1 is, for example, "weather” sunny “, companion” couple “, evaluation” Bad “” specified from the meta information corresponding to the captured image 1130, and the position corresponding to the captured image 1130. It was updated based on the information "Spot s1".
  • the updated recommendation information 1110-1 includes map information 112-1 and 1120-2.
  • the map information 1120-1 includes a new sightseeing route RT1 that goes around a plurality of target spots (spots s20 to s23) starting from the current position p2 of the second information processing terminal 103.
  • the map information 1120-2 includes a new sightseeing route RT2 that goes around a plurality of target spots (spots s10 to s13) starting from the current position p2 of the second information processing terminal 103.
  • Sightseeing route RT1 is a recommended route when the purpose is "sightseeing”.
  • the sightseeing route RT2 is a recommended route when the purpose is "meal”.
  • the talk screen 1100 for example, by selecting one of the map information 1120-1 and 1120-2, the displayed route can be changed.
  • the map information 1120-2 is selected on the talk screen 1100.
  • the updated recommendation information 1110-2 is displayed in a conversational format on the talk screen 1100 together with the messages m15 and m16.
  • the message m15 is a message from the user that the sightseeing route RT2 has been selected.
  • the message m16 is a message of the avatar av that encourages shooting and evaluation at the target spot.
  • the user can move to a new recommended spot while checking the sightseeing route RT2, for example.
  • the conversation control process is a process for controlling a conversation in a chatbot at the first information processing terminal 102.
  • FIG. 12 is a flowchart showing an example of the first conversation control processing procedure of the information processing apparatus 101.
  • the information processing apparatus 101 determines whether or not the external environment information acquired by the first information processing terminal 102 is received together with the chat start instruction from the first information processing terminal 102. (Step S1201).
  • the information processing apparatus 101 waits for receiving the external environment information together with the chat start instruction (step S1201: No).
  • the information processing apparatus 101 receives the external environment information together with the chat start instruction (step S1201: Yes)
  • the information processing apparatus 101 identifies the external environment based on the received external environment information (step S1202).
  • the information processing apparatus 101 refers to the script table 120 and determines a script corresponding to the specified external environment as a talk script (step S1203). Then, the information processing apparatus 101 starts a conversation in the chatbot at the first information processing terminal 102 using the determined talk script (step S1204).
  • the information processing apparatus 101 determines whether or not the conversation content received from the first information processing terminal 102 satisfies a predetermined condition (step S1205). For example, the information processing apparatus 101 satisfies a predetermined condition when it receives information indicating weather, a companion, a purpose, etc. in a conversation in a chatbot at the first information processing terminal 102 (see, for example, FIG. 10). Judge.
  • step S1205 determines whether or not to end the conversation in the chatbot at the first information processing terminal 102 (step S1206).
  • the conversation in the chatbot at the first information processing terminal 102 ends, for example, according to a talk script or in response to a user's forced termination operation.
  • step S1206: No if the conversation in the chatbot is not ended (step S1206: No), the information processing apparatus 101 returns to step S1205. On the other hand, when ending the conversation in the chatbot (step S1206: Yes), the information processing apparatus 101 ends a series of processes according to this flowchart.
  • step S1205 when the predetermined condition is satisfied in step S1205 (step S1205: Yes), the information processing apparatus 101 uses the takeover guidance of the chatbot conversation (first conversation) in the first information processing terminal 102 as a QR code. , Displayed on the display 303 of the first information processing terminal 102 (step S1207).
  • the information processing apparatus 101 determines whether or not the reading of the QR code is completed (step S1208). Whether or not the reading of the QR code is completed is determined by, for example, whether or not the second information processing terminal 103 has started the conversation following the conversation in the chatbot at the first information processing terminal 102. To.
  • the information processing apparatus 101 waits for the reading of the QR code to be completed (step S1208: No). Then, when the reading of the QR code is completed (step S1208: Yes), the information processing apparatus 101 can end a series of processes according to this flowchart.
  • the conversation in the chatbot is possible to control the conversation in the chatbot according to the external environment of the first information processing terminal 102 (for example, the digital board). Further, in the chatbot conversation, the conversation on the first information processing terminal 102 is interrupted according to the reception of information indicating the weather, companion, purpose, etc., and the second information processing terminal 103 (for example, a smartphone) can be encouraged to continue the conversation.
  • the first information processing terminal 102 for example, the digital board
  • the conversation on the first information processing terminal 102 is interrupted according to the reception of information indicating the weather, companion, purpose, etc.
  • the second information processing terminal 103 For example, a smartphone
  • the second conversation control process is a process for controlling the conversation in the chatbot in the second information processing terminal 103.
  • step S1301 the information processing apparatus 101 determines whether or not a chat start instruction including the takeover information has been received from the second information processing terminal 102 (step S1301).
  • the information processing apparatus 101 waits for receiving the chat start instruction including the takeover information (step S1301: No).
  • the information processing apparatus 101 receives the chat start instruction including the takeover information (step S1301: Yes)
  • the information processing apparatus 101 receives the takeover source script, the conversation content, the user attribute, and the external environment based on the takeover information included in the chat start instruction. (Step S1302).
  • the information processing apparatus 101 refers to the script takeover table 130, and determines the takeover destination script corresponding to the combination of the specified takeover source script, conversation content, user attribute, and external environment as the talk script (step S1303). ..
  • the information processing apparatus 101 refers to the script takeover table 130, and determines the recommendation information corresponding to the combination of the specified takeover source script, conversation content, user attribute, and external environment as the recommendation information to be output (recommendation information to be output). Step S1304).
  • the information processing apparatus 101 starts a conversation with the chatbot on the second information processing terminal 103 using the determined talk script (step S1305).
  • This conversation is, for example, a second conversation following the first conversation in the chatbot at the first information processing terminal 102.
  • the information processing apparatus 101 outputs the determined recommendation information of the output target to the second information processing terminal 103 (step S1306), and proceeds to step S1401 shown in FIG.
  • the recommendation information to be output is, for example, the recommendation information 1110 including the map information 1120 shown in FIG. 11A.
  • the information processing apparatus 101 determines whether or not it has detected that the second information processing terminal 103 has arrived at the target spot (step S1401).
  • the information processing apparatus 101 waits for detecting that the second information processing terminal 103 has arrived at the target spot (step S1401: No).
  • step S1401 When the information processing apparatus 101 detects that the second information processing terminal 103 has arrived at the target spot (step S1401: Yes), the information processing apparatus 101 refers to the frame table 800 and uses the frame image corresponding to the target spot as the second frame image. Output to the information processing terminal 103 (step S1402).
  • step S1403 has the information processing apparatus 101 received the meta information corresponding to the captured image captured using the output frame image and the position information corresponding to the captured image from the second information processing terminal 103? It is determined whether or not (step S1403).
  • the meta information and the position information corresponding to the captured image are transmitted when the information received in response to the conversation in the chatbot at the second information processing terminal 103 is the captured image.
  • the information processing apparatus 101 waits for receiving the meta information and the position information from the second information processing terminal 103 (step S1403: No).
  • the information processing apparatus 101 receives the meta information and the position information from the second information processing terminal 103 (step S1403: Yes)
  • the information processing apparatus 101 associates with the room ID and acts information including the received meta information and the position information. Is recorded in the action information DB 140 (step S1404).
  • the information processing apparatus 101 updates the recommendation information based on the received meta information and the position information (step S1405). Then, the information processing apparatus 101 outputs the updated recommendation information to the second information processing terminal 103 (step S1406).
  • the information processing apparatus 101 determines whether or not to end the conversation in the chatbot at the second information processing terminal 103 (step S1407).
  • the conversation in the chatbot at the second information processing terminal 103 ends, for example, according to the talk script or in response to the forced termination operation of the user.
  • step S1407: No if the conversation in the chatbot is not ended (step S1407: No), the information processing apparatus 101 returns to step S1401. On the other hand, when ending the conversation in the chatbot (step S1407: Yes), the information processing apparatus 101 ends a series of processes according to this flowchart.
  • the conversation in the chatbot in the first information processing terminal 102 can be taken over by the second information processing terminal 103, and the recommendation information including the map information can be output to the second information processing terminal 103. Further, when the second information processing terminal 103 arrives at the target spot, the recommendation information can be updated and the updated recommendation information can be output to the second information processing terminal 103.
  • the information processing apparatus 101 when a chat start instruction is received from the second information processing terminal 103, a conversation in the chat bot at the second information processing terminal 103 is performed. At the same time as starting, the recommendation information including the map information can be output to the second information processing terminal 103.
  • the conversation in the chatbot on the second information processing terminal 103 such as the smartphone used by the user
  • the recommendation information including the map information For example, by outputting the recommendation information including the map information including the route from the position of the second information processing terminal 103 to the target spot, the user can be guided (guided) to the target spot.
  • the meta information corresponding to the captured image and the position corresponding to the captured image from the second information processing terminal 103.
  • the captured image is, for example, an image of the user captured by the camera 306 mounted on the second information processing terminal 103.
  • the meta information includes, for example, information representing a user's attribute included in the captured image. Further, the meta information includes, for example, information for specifying a time zone, a weather, and the like specified from the date and time information when the captured image was taken.
  • the recommendation information is updated based on the meta information corresponding to the captured image and the position information corresponding to the captured image, and the updated recommendation information is sent to the second information processing terminal 103. Can be output.
  • the information processing apparatus 101 as the meta information corresponding to the captured image, it is possible to receive the meta information including the information specifying the information received in the conversation in the chatbot at the second information processing terminal 103. ..
  • the information received in the conversation in the chatbot is, for example, information regarding the evaluation of the target spot.
  • the recommendation information can be updated in consideration of the user's evaluation of the recommended target spot.
  • behavioral information including user's evaluation of the target spot can be collected, which can be useful for analysis of what kind of spot should be recommended to foreign tourists, for example.
  • the chat bot in the second information processing terminal 103 is based on the takeover information.
  • the recommendation information including the map information can be output to the second information processing terminal 103.
  • the takeover information indicates the takeover from the first conversation in the chatbot at the first information processing terminal 102.
  • the conversation in the chatbot on the first information processing terminal 102 such as a digital board can be taken over by the second information processing terminal 103 such as a smartphone.
  • the recommendation information including the map information can be provided in consideration of the conversation content in the chatbot in the first information processing terminal 102. For example, it is possible to recommend a spot that matches the characteristics of the user in consideration of the purpose, companion, weather, etc. specified from the conversation content in the chatbot on the first information processing terminal 102.
  • the information processing apparatus 101 it is possible to record the meta information and the position information corresponding to the captured image by associating a series of conversations in the chatbot with identifiable information.
  • Information that can identify a series of conversations in a chatbot is, for example, a room ID.
  • the information processing apparatus 101 when the information received in response to the conversation in the chatbot of the second information processing terminal 103 is a captured image, the captured image and the captured image from the second information processing terminal 103 are captured. It is possible to receive the position information corresponding to. Then, according to the information processing apparatus 101, it is possible to recognize the received captured image, generate meta information corresponding to the captured image, and delete the captured image.
  • the chat start instruction when the chat start instruction is received from the second information processing terminal 103 and the attribute information of the user of the second information processing terminal 103 is received, it is based on the received attribute information. Then, the chat bot conversation in the second information processing terminal 103 can be started, and the recommendation information including the map information can be output to the second information processing terminal 103.
  • the chat start instruction is received from the second information processing terminal 103 and the external environment information acquired by the second information processing terminal 103 is received
  • the received external environment information is received.
  • the chat bot conversation in the second information processing terminal 103 can be started, and the recommendation information including the map information can be output to the second information processing terminal 103.
  • the recommendation information including the map information including the route from the position of the second information processing terminal 103 to the target spot is output, and the second information processing terminal 103 arrives at the target spot. It is possible to detect that it has been done. Further, according to the information processing apparatus 101, when it is detected that the target spot has arrived, the frame image corresponding to the target spot can be output to the second information processing terminal 103. Then, the information processing apparatus 101 can receive the meta information corresponding to the captured image captured by using the output frame image and the position information corresponding to the captured image from the second information processing terminal 103.
  • a frame image for commemorative photography (for example, a local frame) corresponding to the target spot can be output to encourage the user to take an image.
  • the conversation control system 100 and the information processing apparatus 101 it is possible to collect the user's behavior information without giving the user a feeling of resistance.
  • the user can receive the recommendation information in the tourist area without downloading the application or registering the ID for providing the information.
  • the service provider in the tourist area can know the tendency of foreign tourists and the like, and can provide high-quality services that match the user attributes and the external environment.
  • the conversation control method described in this embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation.
  • This conversation control program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, a DVD, or a USB memory, and is executed by being read from the recording medium by the computer. Further, this conversation control program may be distributed via a network such as the Internet.
  • the information processing apparatus 101 described in the present embodiment can also be realized by a standard cell, an IC for a specific use such as a structured ASIC (Application Specific Integrated Circuit), or a PLD (Programmable Logic Device) such as an FPGA.
  • a standard cell an IC for a specific use such as a structured ASIC (Application Specific Integrated Circuit), or a PLD (Programmable Logic Device) such as an FPGA.
  • Conversation control system 101
  • Information processing device 102
  • First information processing terminal 103
  • Second information processing terminal 104
  • Operator terminal 110
  • Network 120
  • Script takeover table 140
  • Action information DB 200,300 Bus 201,301 CPU 202, 302 Memory 203 Disk drive 204 Disk 205, 305 Communication I / F 206 Portable recording medium I / F 207 Portable recording medium 303 Display 304 Input device 306 Camera 307 Speaker 308 Microphone 309 GPS unit 701 Communication unit 702 Determining unit 703 Conversation control unit 710 Storage unit 720 Reading unit 800 Frame table 910, 1040, 1110 Recommendation information 920, 1060, 1120 Map information 930, 1130 Photographed image 940 Action information 1000, 1100 Talk screen 1050 QR code 1070, RT, RT1, RT2 Sightseeing route 1200 Photographed screen

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

情報処理装置(101)は、第2の情報処理端末(103)からチャットの開始指示を受信した場合、第2の情報処理端末(103)におけるチャットボットでの会話を開始するとともに、レコメンド情報(910)を第2の情報処理端末(103)へ出力する。レコメンド情報(910)は、対象スポット(s1)に関する情報であり、地図情報(920)を含む。情報処理装置(101)は、チャットボットでの会話に応じて受け付けた情報が撮影画像の場合に、第2の情報処理端末(103)から撮影画像に対応するメタ情報と撮影画像に対応する位置情報とを受信する。情報処理装置(101)は、受信したメタ情報と位置情報とを含む行動情報を記録する。情報処理装置(101)は、受信したメタ情報と位置情報とに基づいてレコメンド情報(910)を更新し、更新後のレコメンド情報(910)を第2の情報処理端末(103)へ出力する。

Description

会話制御プログラム、会話制御方法および情報処理装置
 本発明は、会話制御プログラム、会話制御方法および情報処理装置に関する。
 近年、チャットボットと呼ばれる技術を利用した自動応答システムを導入する企業が増えている。チャットボットは、人工知能を利用して、人間との対話やメッセージのやりとりを行うコンピュータシステムである。例えば、チャットボットを利用して、おすすめスポットをレコメンドするサービスを行う場合がある。
 先行技術としては、例えば、メッセージング・アプリケーション内でユーザに提案を提供するために、1つ以上のメッセージにおけるコンテンツおよび/またはユーザ情報を分析するものがある。
特表2019-506659号公報
 しかしながら、従来技術では、観光客などのユーザがどのような行動をとっているのかを特定する情報を収集することが難しい。
 一つの側面では、本発明は、ユーザの行動情報を収集することを目的とする。
 1つの実施態様では、情報処理端末からチャットの開始指示を受信した場合、前記情報処理端末におけるチャットボットでの会話を開始するとともに、地図情報が含まれるレコメンド情報を前記情報処理端末へ出力し、前記チャットボットでの会話に応じて受け付けた情報が撮影画像の場合に、前記情報処理端末から前記撮影画像に対応するメタ情報と前記撮影画像に対応する位置情報とを受信し、前記メタ情報と前記位置情報とに基づいて前記レコメンド情報を更新して、更新後の前記レコメンド情報を前記情報処理端末へ出力する、会話制御プログラムが提供される。
 本発明の一側面によれば、ユーザの行動情報を収集することができるという効果を奏する。
図1は、会話制御システム100のシステム構成例を示す説明図である。 図2は、情報処理装置101のハードウェア構成例を示すブロック図である。 図3は、情報処理端末102,103のハードウェア構成例を示すブロック図である。 図4は、スクリプトテーブル120の記憶内容の一例を示す説明図である。 図5は、スクリプト引き継ぎテーブル130の記憶内容の一例を示す説明図である。 図6は、行動情報DB140の記憶内容の一例を示す説明図である。 図7は、情報処理装置101の機能的構成例を示すブロック図である。 図8は、フレームテーブル800の記憶内容の一例を示す説明図である。 図9は、会話制御システム100の一実施例を示す説明図である。 図10は、第1の情報処理端末102に表示されるトーク画面の画面例を示す説明図である。 図11Aは、第2の情報処理端末103に表示されるトーク画面の画面例を示す説明図(その1)である。 図11Bは、第2の情報処理端末103に表示されるトーク画面の画面例を示す説明図(その2)である。 図11Cは、第2の情報処理端末103に表示されるトーク画面の画面例を示す説明図(その3)である。 図11Dは、第2の情報処理端末103に表示されるトーク画面の画面例を示す説明図(その4)である。 図11Eは、第2の情報処理端末103に表示されるトーク画面の画面例を示す説明図(その5)である。 図12は、情報処理装置101の第1の会話制御処理手順の一例を示すフローチャートである。 図13は、情報処理装置101の第2の会話制御処理手順の一例を示すフローチャート(その1)である。 図14は、情報処理装置101の第2の会話制御処理手順の一例を示すフローチャート(その2)である。
 以下に図面を参照して、本発明にかかる会話制御プログラム、会話制御方法および情報処理装置の実施の形態を詳細に説明する。
(実施の形態)
 まず、実施の形態にかかる情報処理装置101を含む会話制御システム100のシステム構成例について説明する。会話制御システム100は、例えば、チャットボットを利用して、観光客などのユーザの行動情報を収集するコンピュータシステムに適用される。
 図1は、会話制御システム100のシステム構成例を示す説明図である。図1において、会話制御システム100は、情報処理装置101と、第1の情報処理端末102と、第2の情報処理端末103と、オペレータ端末104と、を含む。会話制御システム100において、情報処理装置101、第1の情報処理端末102、第2の情報処理端末103およびオペレータ端末104は、有線または無線のネットワーク110を介して接続される。ネットワーク110は、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、インターネットなどである。
 ここで、情報処理装置101は、チャットボットの会話を制御するコンピュータである。情報処理装置101は、例えば、スクリプトテーブル120、スクリプト引き継ぎテーブル130および行動情報DB(Database)140を有する。情報処理装置101は、例えば、サーバである。
 なお、スクリプトテーブル120、スクリプト引き継ぎテーブル130および行動情報DB140の記憶内容については、図4~図6を用いて後述する。
 第1の情報処理端末102は、ユーザがチャットボットとの会話を行う際に利用する設置型のコンピュータである。例えば、第1の情報処理端末102は、店舗、商業施設、駅、空港などに設置され、不特定多数の人に利用されるデジタルボードである。
 第2の情報処理端末103は、ユーザがチャットボットとの会話を行う際に利用する携帯型のコンピュータである。例えば、第2の情報処理端末103は、個人のスマートフォン、タブレットPC(Personal Computer)などである。
 第1の情報処理端末102および第2の情報処理端末103において、ユーザは、例えば、メッセージを入力したり、選択肢を選択したりすることで、チャットボットと対話しながら、所望の回答を探したり、サービスを利用したりすることができる。回答は、例えば、FAQ(Frequently Asked Question)である。
 FAQは、「頻繁に尋ねられる質問」の意味であり、あらかじめ予想される質問に対して、質問と回答とをまとめたものである。質問は、何らかの問題の解決方法を問うものであってもよく、また、話し言葉による問いかけであってもよい。回答は、質問された問題の解決方法を示す回答や、話し言葉による問いかけに対する回答などである。
 情報処理装置101は、例えば、不図示のFAQマスタやチャットログDBなどを有する。FAQマスタは、FAQを記憶する。チャットログDBは、チャットログを記憶する。チャットログは、ユーザとチャットボットとの会話に関する会話履歴である。チャットログは、例えば、ルームIDと対応付けて、チャットログDBに記憶される。ルームIDによれば、チャットボットでの一連の会話を特定できる。
 オペレータ端末104は、オペレータが使用するコンピュータである。オペレータは、チャットボット対応から有人対応の会話に切り替えた場合に、ユーザへの対応を行う者である。例えば、オペレータは、オペレータ端末104の電話機能や、テキストコミュニケーションなどを利用して、ユーザとやり取りすることができる。オペレータ端末104は、例えば、PCやタブレットPCである。
 なお、図1の例では、第1の情報処理端末102、第2の情報処理端末103およびオペレータ端末104をそれぞれ1台のみ表示したが、これに限らない。例えば、会話制御システム100には、複数の第1の情報処理端末102と、複数の第2の情報処理端末103と、複数のオペレータ端末104とが含まれる。
 ここで、外国人旅行客などの旅行者や観光客がどのような行動をとっているのかを特定する行動情報を収集したい場合がある。収集された行動情報は、例えば、観光案内などのサービスを行うにあたり、どのようなスポットをレコメンドすればよいのかの分析に役立てることができる。
 外国人旅行客などの行動情報を収集する手段として、行動情報収集用のアプリケーションを利用することが考えられる。しかし、外国人旅行客などの一時利用のユーザにとっては、情報提供のためにアプリダウンロードやID登録を行うのはハードルが高いため、データ収集が困難であるという問題がある。
 また、ユーザによってクラウド環境に投稿される写真や動画、その写真や動画に対する評価などを、ユーザがどのような行動をとっているのかを特定するための情報として収集することも考えられる。しかし、プライベートな写真や動画をアップすることになるため、ユーザによっては個人情報保護の観点から抵抗感を持つ場合がある。
 そこで、本実施の形態では、チャットボットを利用して、おすすめスポットなどに誘導しつつ、そのスポットで画像が撮影された場合に、撮影画像そのものではなく、撮影画像に対応するメタ情報や位置情報を収集することで、ユーザに抵抗感を持たせることなく、ユーザの行動情報を収集可能にする会話制御方法について説明する。
(情報処理装置101のハードウェア構成例)
 つぎに、情報処理装置101のハードウェア構成例について説明する。
 図2は、情報処理装置101のハードウェア構成例を示すブロック図である。図2において、情報処理装置101は、CPU(Central Processing Unit)201と、メモリ202と、ディスクドライブ203と、ディスク204と、通信I/F(Interface)205と、可搬型記録媒体I/F206と、可搬型記録媒体207と、を有する。また、各構成部は、バス200によってそれぞれ接続される。
 ここで、CPU201は、情報処理装置101の全体の制御を司る。CPU201は、複数のコアを有していてもよい。メモリ202は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)およびフラッシュROMなどを有する。具体的には、例えば、フラッシュROMがOS(Operating System)のプログラムを記憶し、ROMがアプリケーションプログラムを記憶し、RAMがCPU201のワークエリアとして使用される。メモリ202に記憶されるプログラムは、CPU201にロードされることで、コーディングされている処理をCPU201に実行させる。
 ディスクドライブ203は、CPU201の制御に従ってディスク204に対するデータのリード/ライトを制御する。ディスク204は、ディスクドライブ203の制御で書き込まれたデータを記憶する。ディスク204としては、例えば、磁気ディスク、光ディスクなどが挙げられる。
 通信I/F205は、通信回線を通じてネットワーク110に接続され、ネットワーク110を介して外部のコンピュータ(例えば、図1に示した第1の情報処理端末102、第2の情報処理端末103、オペレータ端末104)に接続される。そして、通信I/F205は、ネットワーク110と装置内部とのインターフェースを司り、外部のコンピュータからのデータの入出力を制御する。通信I/F205には、例えば、モデムやLANアダプタなどを採用することができる。
 可搬型記録媒体I/F206は、CPU201の制御に従って可搬型記録媒体207に対するデータのリード/ライトを制御する。可搬型記録媒体207は、可搬型記録媒体I/F206の制御で書き込まれたデータを記憶する。可搬型記録媒体207としては、例えば、CD(Compact Disc)-ROM、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリなどが挙げられる。
 なお、情報処理装置101は、上述した構成部のほかに、例えば、SSD(Solid State Drive)、入力装置、ディスプレイ等を有することにしてもよい。また、情報処理装置101は、上述した構成部のうち、例えば、ディスクドライブ203、ディスク204、可搬型記録媒体I/F206、可搬型記録媒体207を有していなくてもよい。
(第1の情報処理端末102および第2の情報処理端末103のハードウェア構成例)
 つぎに、第1の情報処理端末102および第2の情報処理端末103のハードウェア構成例について説明する。ただし、ここでは、第1の情報処理端末102および第2の情報処理端末103を「情報処理端末102,103」と表記する。
 図3は、情報処理端末102,103のハードウェア構成例を示すブロック図である。図3において、情報処理端末102,103は、CPU301と、メモリ302と、ディスプレイ303と、入力装置304と、通信I/F305と、カメラ306と、スピーカ307と、マイクロフォン308と、GPS(Global Positioning System)ユニット309と、を有する。また、各構成部はバス300によってそれぞれ接続される。
 ここで、CPU301は、情報処理端末102,103の全体の制御を司る。CPU301は、複数のコアを有していてもよい。メモリ302は、例えば、ROM、RAMおよびフラッシュROMなどを有する記憶部である。具体的には、例えば、フラッシュROMやROMが各種プログラムを記憶し、RAMがCPU301のワークエリアとして使用される。メモリ302に記憶されるプログラムは、CPU301にロードされることで、コーディングされている処理をCPU301に実行させる。
 ディスプレイ303は、カーソル、アイコンあるいはツールボックスをはじめ、文書、画像、機能情報などのデータを表示する表示装置である。ディスプレイ303としては、例えば、液晶ディスプレイや有機EL(Electroluminescence)ディスプレイなどを採用することができる。
 入力装置304は、文字、数字、各種指示などの入力のためのキーを有し、データの入力を行う。入力装置304は、タッチパネル式の入力パッドやテンキーなどであってもよく、また、キーボードやマウスなどであってもよい。
 通信I/F305は、通信回線を通じてネットワーク110に接続され、ネットワーク110を介して外部のコンピュータ(例えば、図1に示した情報処理装置101、オペレータ端末104)に接続される。そして、通信I/F305は、ネットワーク110と自装置内部とのインターフェースを司り、外部装置からのデータの入出力を制御する。
 カメラ306は、画像(静止画または動画)を撮影して画像データを出力する撮像装置である。スピーカ307は、電気信号を音声に変換して、音声を出力する。マイクロフォン308は、音声を受音して電気信号に変換する。
 GPSユニット309は、GPS衛星からの電波を受信し、情報処理端末102,103の位置情報を出力する。情報処理端末102,103の位置情報は、例えば、緯度、経度などの地球上の1点を特定する情報である。また、衛星として、例えば、準天頂衛星システムの衛星を用いることにしてもよい。
 なお、情報処理端末102,103は、上述した構成部のほかに、例えば、HDD(Hard Disk Drive)、SSD、近距離無線通信I/F、可搬型記録媒体I/F、可搬型記録媒体などを有することにしてもよい。また、図1に示したオペレータ端末104についても、情報処理端末102,103と同様のハードウェア構成により実現することができる。
(スクリプトテーブル120の記憶内容)
 つぎに、図4を用いて、情報処理装置101が有するスクリプトテーブル120の記憶内容について説明する。スクリプトテーブル120は、例えば、図2に示したメモリ202、ディスク204などの記憶装置により実現される。
 図4は、スクリプトテーブル120の記憶内容の一例を示す説明図である。図4において、スクリプトテーブル120は、外部環境およびスクリプトのフィールドを有し、各フィールドに情報を設定することで、スクリプト管理情報(例えば、スクリプト管理情報400-1~400-3)をレコードとして記憶する。
 ここで、外部環境は、外部の環境を表す情報である。例えば、外部環境は、場所(位置)、時間、天気、温度、湿度などを表す。ここでは、外部環境を識別する外部環境ID(例えば、E1,E2,E3)を表記している。
 スクリプトは、チャットボットの会話の流れを定義した情報(シナリオ)であり、例えば、外部環境に対応付けて用意される。ここでは、スクリプトを識別するスクリプトID(例えば、SP1,SP2,SP3)を表記している。例えば、場所や天気の違いによっても、おすすめする情報や、よく選ばれるFAQなどが変化する傾向がある。より具体的には、例えば、秋葉原では、他の場所と比べて、家電量販店や電気屋に興味を示す傾向がある。また、雨の日は、晴れの日と比べて、映画館などの屋内施設に興味を示す傾向がある。
 スクリプトテーブル120では、外部環境に対応するスクリプトをあらかじめ用意しておく。スクリプトには、例えば、おすすめスポットに関する情報が含まれる場合がある。おすすめスポットに関する情報は、おすすめスポットの紹介や、おすすめスポットを含む地図情報などである。
 例えば、スクリプト管理情報400-1は、外部環境E1に対応するスクリプトSP1を示す。なお、スクリプトは、ユーザ属性および外部環境の組み合わせに対応付けて用意されてもよい。すなわち、スクリプトは、外部環境だけでなく、ユーザの特徴を表すユーザ属性を考慮して用意されてもよい。
(スクリプト引き継ぎテーブル130の記憶内容)
 つぎに、図5を用いて、情報処理装置101が有するスクリプト引き継ぎテーブル130の記憶内容について説明する。スクリプト引き継ぎテーブル130は、例えば、メモリ202、ディスク204などの記憶装置により実現される。
 図5は、スクリプト引き継ぎテーブル130の記憶内容の一例を示す説明図である。図5において、スクリプト引き継ぎテーブル130は、引き継ぎ元スクリプト、会話内容、ユーザ属性/外部環境、引き継ぎ先スクリプトおよびレコメンド情報のフィールドを有する。各フィールドに情報を設定することで、スクリプト引き継ぎ情報(例えば、スクリプト引き継ぎ情報500-1~500-3)がレコードとして記憶される。
 ここで、引き継ぎ元スクリプトは、引き継ぎ元のスクリプトである。会話内容は、引き継ぎ元におけるチャットボットでの会話の内容を特定する情報である。例えば、会話内容は、引き継ぎ元におけるチャットボットでの会話において、選択された選択肢や、入力された情報などを示す。
 ユーザ属性/外部環境は、ユーザ属性と外部環境との組み合わせを示す。ユーザ属性は、ユーザの特徴を表す情報である。例えば、ユーザ属性は、年齢、年代、性別、使用言語、服装、同行者の有無、位置情報などを表す。また、同行者がいる場合には、ユーザ属性は、同行者の年齢、年代、性別、使用言語、服装などを表すものであってもよい。
 引き継ぎ先スクリプトは、引き継ぎ先のスクリプトであり、例えば、引き継ぎ元スクリプト、ユーザ属性および外部環境の組み合わせに対応付けて用意される。例えば、年代、性別、使用言語、同伴者の有無などの違いによって、よく選ばれるFAQが変化する傾向がある。また、場所や天気の違いによっても、よく選ばれるFAQが変化する傾向がある。このため、ユーザ属性および外部環境を考慮して、引き継ぎ先のスクリプトを切り替える。
 レコメンド情報(推薦情報)は、レコメンドする情報であり、地図情報を含む。例えば、レコメンド情報は、おすすめスポットに関する情報であり、おすすめスポット周辺の地図情報を含む。レコメンド情報は、例えば、引き継ぎ元スクリプト、会話内容およびユーザ属性の組み合わせに対応付けて用意される。
 例えば、年代や性別の違いによって、興味を示すものが異なる傾向がある。例えば、20代~40代の女性は、同年代の男性と比べて、買い物やカフェに興味を示す傾向がある。また、言語の違いによっても、興味を示すものが異なる傾向がある。例えば、日本語以外の言語を話す人(例えば、外国人)は、日本語を話す人と比べて、観光や多言語対応の店舗に興味を示す傾向がある。
 また、同伴者の有無によっても、興味を示すものが異なる傾向がある。例えば、子供連れの人は、子供連れで楽しめるイベントや子供連れで入店できる飲食店に興味を示す傾向がある。また、異性の同伴者がありの人(例えば、カップル)は、同伴者なしの場合に比べて、デートスポットに興味を示す傾向がある。
 また、場所や天気の違いによっても、興味を示すものが異なる傾向がある。例えば、秋葉原を訪れた人は、他の場所と比べて、家電量販店や電気屋に興味を示す傾向がある。雨の日は、晴れの日と比べて、ユーザが映画館などの屋内施設に興味を示す傾向がある。
 スクリプト引き継ぎテーブル130では、引き継ぎ元スクリプト、会話内容、ユーザ属性および外部環境の組み合わせに対応するレコメンド情報をあらかじめ用意しておく。例えば、スクリプト引き継ぎ情報500-1は、引き継ぎ元スクリプトSP1、会話内容C1、ユーザ属性UA1および外部環境E1に対応する、引き継ぎ先スクリプトSP1-1およびレコメンド情報RD1を示す。
(行動情報DB140の記憶内容)
 つぎに、図6を用いて、情報処理装置101が有する行動情報DB140の記憶内容について説明する。行動情報DB140は、例えば、メモリ202、ディスク204などの記憶装置により実現される。
 図6は、行動情報DB140の記憶内容の一例を示す説明図である。図6において、行動情報DB140は、行動情報(例えば、行動情報600-1,600-2)を記憶する。行動情報は、ルームID、目的、国籍、位置情報、評価、性年代、人数、季節、曜日、時間帯および天気の情報を含む。
 ここで、ルームIDは、チャットボットでの一連の会話を特定可能な情報である。目的は、位置情報が示す場所をユーザが訪れた目的を示す。国籍は、ユーザの国籍を示す。位置情報は、ユーザが訪れた場所を示す。評価は、場所に対するユーザの評価を示す。例えば、評価「Good」は、評価が高いことを示す。評価「Bad」は、評価が低いことを示す。
 性年代は、ユーザの性別および年代を示す。人数は、ユーザの人数を示す。季節は、場所を訪れた季節を示す。曜日は、場所を訪れた曜日を示す。時間帯は、場所を訪れた時間帯を示す。天気は、場所を訪れた際の天気を示す。
 例えば、行動情報600-1は、ルームID「R100」、目的「観光」、国籍「スペイン人」、位置情報「東京タワー」、評価「Bad」、性年代「60代女性」、人数「2人」、季節「冬」、曜日「日曜日」、時間帯「夕方」および天気「雨」の情報を含む。なお、図示は省略するが、行動情報には、例えば、行動情報を一意に識別するIDや、行動情報が記録された日時を示すタイムスタンプなどが含まれる。
(情報処理装置101の機能的構成例)
 図7は、情報処理装置101の機能的構成例を示すブロック図である。図7において、情報処理装置101は、通信部701と、決定部702と、会話制御部703と、記憶部710と、を含む。具体的には、例えば、通信部701~会話制御部703は、図2に示したメモリ202、ディスク204、可搬型記録媒体207などの記憶装置に記憶されたプログラムをCPU201に実行させることにより、または、通信I/F205により、その機能を実現する。各機能部の処理結果は、例えば、メモリ202、ディスク204などの記憶装置に記憶される。記憶部710は、例えば、メモリ202、ディスク204などの記憶装置により実現される。具体的には、例えば、記憶部710は、図4に示したスクリプトテーブル120、図5に示したスクリプト引き継ぎテーブル130、図6に示した行動情報DB140、不図示のFAQマスタ、チャットログDBなどを記憶する。
 通信部701は、第1の情報処理端末102からチャットの開始指示を受信する。ここで、チャットの開始指示は、ユーザとチャットボットとの会話を開始するためのものである。第1の情報処理端末102は、例えば、駅や空港などに設置されたデジタルボードである。
 具体的には、例えば、通信部701は、第1の情報処理端末102からチャットの開始指示を受信するとともに、第1の情報処理端末102が取得した外部環境情報を受信することにしてもよい。ここで、外部環境情報は、第1の情報処理端末102の外部環境を特定する情報である。例えば、外部環境情報は、場所(位置)、時間、天気、温度、湿度などを特定可能な情報である。
 また、通信部701は、第1の情報処理端末102からチャットの開始指示を受信するとともに、第1の情報処理端末102が取得したユーザ情報を受信することにしてもよい。ここで、ユーザ情報は、ユーザ属性を特定する情報である。例えば、ユーザ情報は、ユーザの年齢、年代、性別、言語、服装、車椅子の有無、同伴者の有無などを特定可能な情報である。
 例えば、第1の情報処理端末102は、入力装置304(図3参照)を用いたユーザの操作入力により、ユーザ情報および/または外部環境情報を入力させることにしてもよい。この場合、第1の情報処理端末102は、チャットの開始指示とともに、入力されたユーザ情報および/または外部環境情報を、情報処理装置101に送信する。
 また、第1の情報処理端末102は、自端末のカメラ306(図3参照)に写るユーザを検出した場合、または、入力装置304を用いたユーザの操作入力に応じて、ユーザ情報および/または外部環境情報を取得することにしてもよい。この場合、第1の情報処理端末102は、チャットの開始指示とともに、取得したユーザ情報および/または外部環境情報を、情報処理装置101に送信する。
 より詳細に説明すると、例えば、第1の情報処理端末102は、カメラ306により撮影された画像情報(例えば、動画)を解析して、ユーザの年代、性別、服装、車椅子の有無、同伴者の有無などのユーザ情報を取得してもよい。ユーザに同伴者がいる場合は、第1の情報処理端末102は、カメラ306により撮影された画像情報を解析して、同伴者の年代、性別、服装、車椅子の有無などのユーザ情報を取得してもよい。
 また、第1の情報処理端末102は、マイクロフォン308(図3参照)により受音された音声情報を解析して、ユーザまたは同伴者の性別、使用言語などのユーザ情報を取得してもよい。また、第1の情報処理端末102は、不図示の環境センサにより、または、外部サーバに問い合わせることにより、天気、温度、湿度など外部環境情報を取得してもよい。また、第1の情報処理端末102は、GPSユニット309(図3参照)により、現在位置を示す位置情報を外部環境情報として取得してもよい。
 なお、画像情報や音声情報からユーザの特徴を表す情報を取得する技術としては、既存のいかなる技術を用いることにしてもよい。例えば、第1の情報処理端末102は、深層学習などの機械学習に基づく手法により、画像や音声の特徴量から、年代、性別、服装、言語、車椅子の有無、同伴者の有無などの情報を抽出することにしてもよい。
 決定部702は、第1の情報処理端末102におけるチャットボットでの会話に適用するトークスクリプトを決定する。具体的には、例えば、決定部702は、記憶部710を参照して、第1の情報処理端末102からチャットの開始指示とともに受信された外部環境情報に基づいて、トークスクリプトを決定する。この場合、記憶部710は、複数の外部環境それぞれに対応するスクリプトを記憶する。
 また、決定部702は、記憶部710を参照して、第1の情報処理端末102からチャットの開始指示とともに受信されたユーザ情報に基づいて、トークスクリプトを決定することにしてもよい。この場合、記憶部710は、複数のユーザ属性それぞれに対応するスクリプトを記憶する。
 また、決定部702は、記憶部710を参照して、第1の情報処理端末102からチャットの開始指示とともに受信されたユーザ情報および外部環境情報に基づいて、トークスクリプトを決定することにしてもよい。この場合、記憶部710は、ユーザ属性と外部環境との複数通りの組み合わせそれぞれに対応するスクリプトを記憶する。
 より詳細に説明すると、例えば、決定部702は、受信された外部環境情報に基づいて、第1の情報処理端末102の外部環境を特定する。そして、決定部702は、図4に示したスクリプトテーブル120を参照して、特定した外部環境に対応するスクリプトを、トークスクリプトに決定する。
 例えば、外部環境情報から特定される外部環境を『場所「東京駅」、時間帯「昼間」』とする。この場合、決定部702は、スクリプトテーブル120を参照して、特定した外部環境『場所「東京駅」、時間帯「昼間」』に対応するスクリプトを、トークスクリプトに決定する。
 会話制御部703は、受信されたチャットの開始指示に応じて、第1の情報処理端末102におけるチャットボットでの会話を開始する。具体的には、例えば、会話制御部703は、決定されたトークスクリプトを用いて、第1の情報処理端末102におけるチャットボットでの会話を開始する。
 より詳細に説明すると、例えば、会話制御部703は、トークスクリプトに従って、チャットボットにより、発話したり、選択肢を表示したり、選択された選択肢に応じた手続きを実行したりする。なお、第1の情報処理端末102におけるチャットボットとユーザとの会話履歴(チャットログ)は、例えば、情報処理装置101が有する不図示のチャットログDBに記憶される。
 通信部701は、第2の情報処理端末103からチャットの開始指示を受信する。第2の情報処理端末103は、例えば、ユーザ個人のスマートフォンである。具体的には、例えば、通信部701は、第2の情報処理端末103からチャットの開始指示を受信するとともに、第2の情報処理端末103が取得したユーザ情報を受信することにしてもよい。また、通信部701は、第2の情報処理端末103からチャットの開始指示を受信するとともに、第2の情報処理端末103が取得した外部環境情報を受信することにしてもよい。
 決定部702は、第2の情報処理端末103におけるチャットボットでの会話に適用するトークスクリプトを決定する。具体的には、例えば、決定部702は、記憶部710を参照して、第2の情報処理端末103からチャットの開始指示とともに受信されたユーザ情報および/または外部環境情報に基づいて、トークスクリプトを決定することにしてもよい。
 会話制御部703は、第2の情報処理端末103からチャットの開始指示が受信された場合、第2の情報処理端末103におけるチャットボットでの会話を開始するとともに、地図情報が含まれるレコメンド情報を第2の情報処理端末103へ出力する。ここで、レコメンド情報は、ユーザに対してレコメンドする情報であり、例えば、おすすめスポットに関する情報である。
 おすすめスポットは、レコメンドする対象スポットであり、例えば、美術館、博物館などの観光スポットであってもよく、また、商業施設や百貨店などの施設内の店舗やイベント会場などであってもよい。おすすめスポットに関する情報は、例えば、おすすめスポットの紹介、おすすめスポットで提供される商品、サービスの紹介、おすすめスポットで使用可能なクーポン情報などである。
 レコメンド情報に含まれる地図情報は、例えば、おすすめスポット周辺の地図情報である。地図情報は、例えば、第2の情報処理端末102の位置から、おすすめスポットまでのルートを含む。ルートには、例えば、徒歩で移動する経路が含まれていてもよく、また、車や電車で移動する経路が含まれていてもよい。
 具体的には、例えば、決定部702は、記憶部710を参照して、第2の情報処理端末103からチャットの開始指示とともに受信されたユーザ情報に基づいて、出力対象のレコメンド情報を決定してもよい。記憶部710は、例えば、複数のユーザ属性それぞれに対応するレコメンド情報を記憶する。
 また、決定部702は、記憶部710を参照して、第2の情報処理端末103からチャットの開始指示とともに受信された外部環境情報に基づいて、出力対象のレコメンド情報を決定してもよい。この場合、記憶部710は、例えば、複数の外部環境それぞれに対応するレコメンド情報を記憶する。
 また、決定部702は、記憶部710を参照して、第2の情報処理端末103からチャットの開始指示とともに受信されたユーザ情報および外部環境情報に基づいて、出力対象のレコメンド情報を決定してもよい。この場合、記憶部710は、例えば、ユーザ属性と外部環境との複数通りの組み合わせそれぞれに対応するレコメンド情報を記憶する。
 すなわち、決定部702は、第2の情報処理端末103のユーザ属性や外部環境を考慮して、出力対象のレコメンド情報を決定する。そして、会話制御部703は、決定されたトークスクリプトを用いて、第1の情報処理端末102におけるチャットボットでの会話を開始するとともに、決定された出力対象のレコメンド情報を第2の情報処理端末103に出力する。
 ただし、第2の情報処理端末103からチャットの開始指示とともに受信されるユーザ情報や外部環境情報は、第2の情報処理端末103とは異なる他の情報処理端末、例えば、第1の情報処理端末102において取得された情報であってもよい。
 例えば、駅や空港などに設置されたデジタルボード(第1の情報処理端末102)におけるチャットボットでの会話の続きを、ユーザ個人のスマートフォン(第2の情報処理端末103)で行う場合がある。この場合、ユーザ情報や外部環境情報は、例えば、デジタルボード(第1の情報処理端末102)におけるチャットボットでの会話において受け付けた情報であってもよい。
 ここで、第1の情報処理端末102におけるチャットボットでの会話を第2の情報処理端末103に引き継ぐ際の動作例について説明する。
 会話制御部703は、第1の情報処理端末102におけるチャットボットでの第1の会話を開始後に、第1の情報処理端末102から受信する会話内容が所定条件を満たす場合に、会話の引き継ぎ案内を、第1の情報処理端末102に出力させる。ここで、会話内容は、例えば、選択された選択肢や、入力されたメッセージを含む。
 引き継ぎ案内は、第1の情報処理端末102での会話を中断して、ユーザが携帯する第2の情報処理端末103で会話の続きを行うよう促すものである。引き継ぎ案内は、当該引き継ぎ案内を読み取ることにより、引き継ぎ情報を取得可能な情報である。引き継ぎ情報には、引き継ぎ元スクリプトを識別する情報、例えば、スクリプトIDが含まれる。
 また、引き継ぎ情報には、引き継ぎ元である第1の情報処理端末102におけるチャットボットでの会話内容を特定する情報が含まれる。例えば、会話内容を特定する情報は、第1の情報処理端末102におけるチャットボットでの第1の会話において受け付けた情報そのものであってもよい。
 第1の会話において受け付けた情報は、例えば、第1の会話において、選択された選択肢や、入力された情報などである。第1の会話において受け付けた情報には、観光、買い物などの目的を特定する情報が含まれていてもよい。また、第1の会話において受け付けた情報には、ユーザ属性や外部環境を特定する情報が含まれていてもよい。
 また、会話内容を特定する情報は、第1の会話において受け付けた情報を特定する情報、例えば、チャットログのIDであってもよい。また、会話内容を特定する情報は、第1の会話が中断した箇所(引き継ぎ箇所)を特定する情報、例えば、第1の会話を中断したトーク処理を識別する情報であってもよい。
 引き継ぎ案内は、例えば、QR(Quick Response)コードなどのコード情報として、第1の情報処理端末102に表示される。QRコードは、登録商標である。この際、会話制御部703は、QRコードとともに、「スマートフォンへ会話を引き継ぐには、QRコードを読み込んでください」などのメッセージを、第1の情報処理端末102に出力させることにしてもよい。
 また、引き継ぎ案内は、第1の情報処理端末102の不図示の非接触IC(Integrated Circuit)タグから出力されることにしてもよい。この際、会話制御部703は、例えば、「スマートフォンへ会話を引き継ぐには、ここにタッチしてください」などのメッセージを、第1の情報処理端末102の非接触ICタグ部分に出力させることにしてもよい。非接触ICタグとしては、例えば、NFC(Near Field Communication)タグを用いることができる。
 また、所定条件は、任意に設定可能である。例えば、所定条件は、所定の選択肢が選択されたという条件であってもよく、また、所定の情報が入力されたという条件であってもよい。所定の選択肢は、おすすめスポットやルートを選択する選択肢や、スマートフォンへ連携するための選択肢などである。
 なお、第1の情報処理端末102のディスプレイ303に表示されるトーク画面の画面例については、例えば、図10を用いて後述する。
 具体的には、例えば、会話制御部703は、第1の情報処理端末102から受信する会話内容を解析して、会話内容が所定条件を満たすか否かを判断する。そして、会話制御部703は、所定条件を満たすと判断した場合に、会話の引き継ぎ案内を、第1の情報処理端末102に出力させる。ただし、どのトーク処理で、会話の引き継ぎ案内を出力させるかは、トークスクリプトにあらかじめ設定されていてもよい。
 第2の情報処理端末103は、読取部720により、第1の情報処理端末102から出力される引き継ぎ案内を読み取ることにより、引き継ぎ情報を取得する。具体的には、例えば、第2の情報処理端末103は、読取部720により、第1の情報処理端末102のディスプレイ303に表示されたQRコードを読み取ることにより、引き継ぎ情報を取得する。また、第2の情報処理端末103は、読取部720により、第1の情報処理端末102の非接触ICタグから出力される引き継ぎ案内を受信することにより、引き継ぎ情報を取得することにしてもよい。
 第2の情報処理端末103は、引き継ぎ情報を取得した場合、取得した引き継ぎ情報を含むチャットの開始指示を情報処理装置101に送信する。この場合、通信部701は、第2の情報処理端末103から、引き継ぎ情報を含むチャットの開始指示を受信する。
 会話制御部703は、第2の情報処理端末103から、引き継ぎ情報を含むチャットの開始指示が受信された場合、チャットの開始指示に含まれる引き継ぎ情報に基づいて、第2の情報処理端末103におけるチャットボットでの第1の会話に続く第2の会話を開始するとともに、地図情報が含まれるレコメンド情報を第2の情報処理端末103へ出力する。
 具体的には、例えば、決定部702は、第2の情報処理端末103から、引き継ぎ情報を含むチャットの開始指示が受信された場合、引き継ぎ情報に基づいて、引き継ぎ元スクリプト、会話内容、ユーザ属性および外部環境を特定する。会話内容としては、例えば、観光、買い物などの目的を表す会話内容が特定される。
 つぎに、決定部702は、図5に示したスクリプト引き継ぎテーブル130を参照して、特定した引き継ぎ元スクリプト、ユーザ属性および外部環境の組み合わせに対応する引き継ぎ先スクリプトを、トークスクリプトに決定する。また、決定部702は、スクリプト引き継ぎテーブル130を参照して、特定した引き継ぎ元スクリプト、ユーザ属性および外部環境の組み合わせに対応するレコメンド情報を、出力対象のレコメンド情報に決定する。そして、会話制御部703は、決定されたトークスクリプトを用いて、第2の情報処理端末103におけるチャットボットでの第1の会話に続く第2の会話を開始するとともに、決定された出力対象のレコメンド情報を第2の情報処理端末103に出力する。
 なお、第2の情報処理端末103のディスプレイ303に表示されるトーク画面の画面例については、例えば、図11A~図11Eを用いて後述する。
 通信部701は、チャットボットでの会話に応じて受け付けた情報が撮影画像の場合に、第2の情報処理端末103から撮影画像に対応するメタ情報と撮影画像に対応する位置情報とを受信する。ここで、撮影画像は、例えば、第2の情報処理端末103に搭載されたカメラ306(図3参照)により撮影されたユーザの撮影画像である。
 撮影画像は、例えば、第2の情報処理端末103が対象スポットに到着したことが検知された場合に第2の情報処理端末103に出力される、対象スポットに対応するフレーム画像を用いて撮影される。対象スポットは、例えば、おすすめスポットであり、レコメンド情報の地図情報に含まれる。地図情報には、例えば、第2の情報処理端末102の位置から、対象スポット(おすすめスポット)までのルートが含まれる。ルートは、例えば、年代、性別などのユーザ属性や、天気や時間などの外部環境に応じて決定される。
 具体的には、例えば、会話制御部703は、第2の情報処理端末103が対象スポットに到着したことを検知する。より詳細に説明すると、例えば、会話制御部703は、第2の情報処理端末103から測位結果を受信し、受信した測位結果に基づいて、第2の情報処理端末103が屋内に対象スポットに到着したことを検知する。
 測位結果は、例えば、図3に示したGPSユニット309の位置情報である。第2の情報処理端末103が対象スポットに到着したことは、例えば、対象スポットに設置される通信機を用いて、ビーコンやWi-Fi(登録商標)による屋内測位により検知することにしてもよい。
 つぎに、会話制御部703は、第2の情報処理端末103が対象スポットに到着したことを検知した場合、図8に示すようなフレームテーブル800を参照して、対象スポットに対応するフレーム画像を特定する。会話制御部703は、特定したフレーム画像を第2の情報処理端末103に出力する。そして、通信部701は、出力されたフレーム画像を用いて撮影された撮影画像に対応するメタ情報と、当該撮影画像に対応する位置情報とを第2の情報処理端末103から受信する。
 ここで、フレームテーブル800の記憶内容について説明する。フレームテーブル800は、例えば、メモリ202、ディスク204などの記憶装置により実現される。
 図8は、フレームテーブル800の記憶内容の一例を示す説明図である。図8において、フレームテーブル800は、スポットおよびフレームのフィールドを有し、各フィールドに情報を設定することで、フレーム管理情報(例えば、フレーム管理情報800-1,800-2)をレコードとして記憶する。
 ここで、スポットは、レコメンドする対象スポットであり、例えば、美術館、博物館、動物園、店舗、イベント会場などである。フレームは、スポットに対応するフレーム画像である。フレームとしては、例えば、対象スポットで撮影したことがわかるようなフレーム画像が用意される。
 例えば、第2の情報処理端末103が対象スポットs1に到着したことが検知されたとする。この場合、会話制御部703は、フレームテーブル800を参照して、対象スポットs1に対応するフレーム画像f1を特定する。そして、会話制御部703は、特定したフレーム画像f1を第2の情報処理端末103に出力する。
 また、一つの対象スポットに、複数のフレーム画像が対応付けられていてもよい。この場合、会話制御部703は、例えば、対象スポットに対応する複数のフレーム画像を、当該複数のフレーム画像の中から、いずれかのフレーム画像を選択可能に出力することにしてもよい。
 なお、第2の情報処理端末103のディスプレイ303に表示されるフレーム画像の具体例については、例えば、図9を用いて後述する。
 第2の情報処理端末103は、例えば、チャットボットでの会話に応じて撮影画像を受け付けた場合に、撮影画像に対応するメタ情報を生成するとともに、撮影画像に対応する位置情報を取得する。そして、第2の情報処理端末103は、撮影画像に対応するメタ情報と、撮影画像に対応する位置情報とを情報処理装置101に送信する。
 撮影画像のメタ情報は、例えば、撮影画像に含まれるユーザの属性を表す情報を含む。ユーザの属性は、例えば、撮影画像を画像認識処理した結果から特定される。撮影画像を画像認識処理して特定されるユーザの属性としては、例えば、性別、年代、人数、車椅子の有無などがある。
 撮影画像に対する画像認識処理は、例えば、第2の情報処理端末103において実行されてもよく、また、API(Application Programming Interface)連携により、不図示の画像処理サーバを利用して実行されてもよい。なお、画像処理サーバに送信された撮影画像は、例えば、画像認識処理後に削除される。
 撮影画像のメタ情報には、例えば、チャットボットでの会話において受け付けた情報を特定する情報が含まれていてもよい。チャットボットでの会話は、例えば、第1の情報処理端末102におけるチャットボットでの第1の会話や、第2の情報処理端末103におけるチャットボットでの第1の会話に続く第2の会話である。
 チャットボットでの会話において受け付けた情報は、例えば、ユーザの目的、国籍などを示す情報であってもよい。目的としては、例えば、観光、ショッピング、遊び、宿泊、休憩、食事などがある。また、チャットボットでの会話において受け付けた情報は、例えば、対象スポットに対するユーザの評価を示す情報であってもよい。評価としては、Good、Badや、満足度を示す数値などがある。
 また、撮影画像のメタ情報には、例えば、撮影画像が撮影された日時情報、または、当該日時情報から特定される季節、曜日、時間帯、天気などを特定する情報が含まれていてもよい。季節は、例えば、春、夏、秋、冬、梅雨、お盆、元旦などによって表される。曜日は、例えば、月、火、水、木、金、土、日、平日、祝日などによって表される。時間帯は、例えば、朝、昼、夕方、夜などによって表される。天気は、例えば、晴れ、曇り、雨などによって表される。天気は、例えば、API連携により、日時情報に基づいて、不図示の外部サーバに問い合わせることにより特定される。
 撮影画像に対応する位置情報は、撮影場所を特定する情報である。撮影画像に対応する位置情報は、例えば、撮影時のGPSユニット309の位置情報であってもよく、また、GPSユニット309の位置情報から特定される施設名、店舗名などの場所を示す情報であってもよい。
 なお、第2の情報処理端末103は、例えば、撮影画像を画像認識処理した結果に基づいて、撮影画像にユーザが含まれる、すなわち、撮影画像がユーザの画像であるか否かを判断することにしてもよい。そして、第2の情報処理端末103は、撮影画像がユーザの画像である場合に、撮影画像に対応するメタ情報と、撮影画像に対応する位置情報とを情報処理装置101に送信することにしてもよい。これにより、少なくともユーザの属性を表す情報が含まれるメタ情報を情報処理装置101に送信することができる。
 会話制御部703は、チャットボットでの一連の会話を特定可能な情報と対応付けて、撮影画像に対応するメタ情報と、撮影画像に対応する位置情報とを記録する。チャットボットでの一連の会話を特定可能な情報は、例えば、ルームIDである。ルームIDは、例えば、第2の情報処理端末103におけるチャットボットでの会話が開始されると、第2の情報処理端末103と情報処理装置101とのセッションが切断されても、所定期間(例えば、7日間)有効な識別子である。
 具体的には、例えば、会話制御部703は、第2の情報処理端末103におけるチャットボットでの一連の会話を特定可能なルームIDと、撮影画像に対応するメタ情報と、撮影画像に対応する位置情報とを含む行動情報を、図6に示した行動情報DB140に記録する。ルームIDによれば、各撮影ポイントの行動情報を紐付けることができる。
 会話制御部703は、撮影画像に対応するメタ情報と、撮影画像に対応する位置情報とに基づいて、出力したレコメンド情報を更新する。そして、会話制御部703は、更新後のレコメンド情報を第2の情報処理端末103へ出力する。
 レコメンド情報は、チャットボットでの会話形式で出力されてもよく、また、チャットボットでの会話形式とは異なる他の形式で出力されることにしてもよい。例えば、レコメンド情報は、第2の情報処理端末103に表示されるトーク画面において、チャットボットでの会話が表示される領域とは異なる他の領域に表示されることにしてもよい。
 例えば、会話制御部は、撮影画像に対応するメタ情報から特定されるユーザ属性と、撮影画像に対応する位置情報とに基づいて、レコメンド情報を更新することにしてもよい。具体的には、例えば、会話制御部は、メタ情報から特定される目的、性別、年代、人数、国籍などに応じて、撮影画像に対応する位置情報から特定される場所周辺のおすすめスポットに関する情報に更新することにしてもよい。
 また、会話制御部は、撮影画像に対応するメタ情報から特定される外部環境と、撮影画像に対応する位置情報とに基づいて、レコメンド情報を更新することにしてもよい。より詳細に説明すると、具体的には、例えば、会話制御部は、メタ情報から特定される季節、曜日、時間帯、天気などに応じて、撮影画像に対応する位置情報から特定される場所周辺のおすすめスポットに関する情報に更新することにしてもよい。
 また、会話制御部は、撮影画像に対応するメタ情報から特定される対象スポットに対するユーザの評価と、撮影画像に対応する位置情報とに基づいて、レコメンド情報を更新することにしてもよい。具体的には、例えば、会話制御部は、メタ情報から特定される評価が「Good」の場合、あらかじめ選択された観光ルート上の次の対象スポットに関する情報に更新することにしてもよい。一方、メタ情報から特定される評価が「Bad」の場合、会話制御部は、撮影画像に対応する位置情報から特定される場所を起点とする新たな観光ルートに関する情報に更新することにしてもよい。
 より詳細に説明すると、例えば、決定部702は、撮影画像に対応するメタ情報と撮影画像に対応する位置情報とに基づいて、会話内容、ユーザ属性および外部環境を特定する。会話内容としては、例えば、対象スポットに対する評価が特定される。また、決定部702は、第2の情報処理端末103におけるチャットボットでの直前の会話に適用したトークスクリプトを、引き継ぎ元スクリプトとして特定する。
 つぎに、決定部702は、スクリプト引き継ぎテーブル130を参照して、特定した引き継ぎ元スクリプト、ユーザ属性および外部環境の組み合わせに対応する引き継ぎ先スクリプトを、トークスクリプトに決定する。また、決定部702は、スクリプト引き継ぎテーブル130を参照して、特定した引き継ぎ元スクリプト、ユーザ属性および外部環境の組み合わせに対応するレコメンド情報を、更新後のレコメンド情報に決定する。そして、会話制御部703は、決定されたトークスクリプトを用いて、第2の情報処理端末103におけるチャットボットでの会話(第2の会話の続き)を開始するとともに、決定された更新後のレコメンド情報を第2の情報処理端末103に出力する。
 ただし、更新後のレコメンド情報は、第2の情報処理端末103におけるチャットボットでの会話に最初に適用したトークスクリプトに定義されていてもよい。すなわち、会話制御部703は、レコメンド情報を更新するにあたり、トークスクリプトを切り替えるのではなく、最初に適用したトークスクリプトに従って、チャットボットでの会話内容や撮影画像に対応する位置情報に応じて、レコメンド情報を更新していくことにしてもよい。
 上述した説明では、撮影画像に対応するメタ情報を第2の情報処理端末103側で生成することにしたが、これに限らない。例えば、撮影画像に対応するメタ情報は、情報処理装置101側で生成することにしてもよい。
 具体的には、例えば、通信部701は、第2の情報処理端末103におけるチャットボットでの会話に応じて受け付けた情報が撮影画像の場合に、第2の情報処理端末103から撮影画像と撮影画像に対応する位置情報とを受信する。この場合、会話制御部703は、受信された撮影画像を画像認識して撮影画像に対応するメタ情報を生成する。
 撮影画像に対する画像認識処理は、例えば、情報処理装置101において実行されてもよく、また、API連携により、不図示の画像処理サーバを利用して実行されてもよい。また、会話制御部703は、撮影画像に対応するメタ情報を生成した後、撮影画像を削除する。これにより、プライベートな写真などがサーバ(情報処理装置101)上に残ることを防ぐことができる。
 なお、上述した情報処理装置101の各機能部は、会話制御システム100内の複数のコンピュータ(例えば、情報処理装置101、第1の情報処理端末102および第2の情報処理端末103)により実現されることにしてもよい。
(会話制御システム100の一実施例)
 つぎに、図9を用いて、会話制御システム100の一実施例について説明する。
 図9は、会話制御システム100の一実施例を示す説明図である。図9において、情報処理装置101は、第2の情報処理端末103からチャットの開始指示を受信した場合、第2の情報処理端末103におけるチャットボットでの会話を開始するとともに、レコメンド情報910を第2の情報処理端末103へ出力する。
 レコメンド情報910は、対象スポットs1に関する情報であり、地図情報920を含む。地図情報920は、例えば、第2の情報処理端末102の位置から対象スポットs1までのルートを含む。
 情報処理装置101は、第2の情報処理端末103が対象スポットs1に到着したことを検知した場合、対象スポットs1に対応するフレーム画像f1を第2の情報処理端末103に出力する。ユーザは、例えば、第2の情報処理端末103に表示されるフレーム画像f1を用いて、対象スポットs1で記念写真をとることができる。
 情報処理装置101は、チャットボットでの会話に応じて受け付けた情報が撮影画像の場合に、第2の情報処理端末103から撮影画像に対応するメタ情報と撮影画像に対応する位置情報とを受信する。ここでは、第2の情報処理端末103におけるチャットボットでの会話において、フレーム画像f1を用いた撮影を促すメッセージに応じて、撮影画像930が撮影された場合を想定する。
 撮影画像930は、第2の情報処理端末103のカメラ306により、フレーム画像f1を用いて撮影されたユーザを含む撮影画像である。この場合、第2の情報処理端末103は、チャットボットでの会話に応じて受け付けた撮影画像930に対応するメタ情報d1と、撮影画像930に対応する位置情報d2とを、情報処理装置101に送信する。
 情報処理装置101は、第2の情報処理端末103から撮影画像930に対応するメタ情報d1と撮影画像930に対応する位置情報d2とを受信する。この際、撮影画像930は、第2の情報処理端末103には保存されるものの、情報処理装置101には保存されない。すなわち、プライベートな写真である撮影画像930が、情報処理装置101上に保存されることはない。
 情報処理装置101は、ルームIDと対応付けて、受信した撮影画像930に対応するメタ情報d1と、撮影画像930に対応する位置情報d2とを含む行動情報940を、行動情報DB140に記録する。ルームIDは、第2の情報処理端末103におけるチャットボットでの一連の会話を特定可能な情報である。
 これにより、第2の情報処理端末103のユーザがどのような行動をとったかを特定する行動情報を収集することができる。
 情報処理装置101は、受信したメタ情報と位置情報とに基づいてレコメンド情報を更新する。そして、情報処理装置101は、更新後のレコメンド情報を第2の情報処理端末103へ出力する。ここでは、メタ情報d1と位置情報d2とに基づいてレコメンド情報910が更新され、更新後のレコメンド情報910が第2の情報処理端末103へ出力される。
 例えば、第2の情報処理端末103のユーザが対象スポットs1に到着したタイミングで、次の対象スポットに関するレコメンド情報を出力して、次の対象スポットにユーザを誘導することができる。これにより、ユーザがどのような行動をとったかを特定する行動情報を効率的に収集することができる。
(第1の情報処理端末102に表示されるトーク画面の画面例)
 つぎに、図10を用いて、第1の情報処理端末102のディスプレイ303に表示されるトーク画面の画面例について説明する。トーク画面内のメッセージは、例えば、第1の情報処理端末102におけるチャットボットでの会話に適用するトークスクリプトに従って、入力された情報や、選択された選択肢に応じて表示される。
 ここでは、第1の情報処理端末102を、○×駅に設置され、不特定多数の人に利用されるデジタルボードとする。また、第1の情報処理端末102が取得した外部環境情報から特定される外部環境を『場所「○×駅」、時間帯「昼間」』とする。この場合、情報処理装置101は、外部環境『場所「東京駅」、時間帯「昼間」』に対応するトークスクリプトを用いて、第1の情報処理端末102におけるチャットボットでの会話を開始する。
 図10は、第1の情報処理端末102に表示されるトーク画面の画面例を示す説明図である。図10において、トーク画面1000は、チャットボットでの会話を開始した際に、第1の情報処理端末102に表示される操作画面の一例である。図10中、アバターavは、チャットボットのキャラクターを表す。
 トーク画面1000には、おすすめの観光ルートを案内するための質問として、天気、同伴者および目的に関する質問が会話形式で表示されている。トーク画面1000において、第1の情報処理端末102の入力装置304(図3参照)を用いたユーザの操作入力により、選択ボタン1011,1012のいずれかを選択すると、天気を選択することができる。
 トーク画面1000において、ユーザの操作入力により、選択ボタン1021,1022,1023のいずれかを選択すると、同伴者を選択することができる。トーク画面1000において、ユーザの操作入力により、選択ボタン1031,1032のいずれかを選択すると、目的を選択することができる。
 なお、選択された選択ボタン(選択肢)を示す情報は、第1の情報処理端末102から情報処理装置101に送信される。また、トーク画面1000において、言語ボタンb1,b2,b3を選択すると、使用言語を切り替えることができる。例えば、言語ボタンb2を選択すると、使用言語を日本語から英語に切り替えることができる。
 ここでは、選択ボタン1011が選択され、選択ボタン1021が選択され、選択ボタン1031が選択された場合を想定する。この場合、トーク画面1000には、天気「晴れ」、同伴者「お子様連れ」および目的「観光」に対応するレコメンド情報1040が会話形式で表示されるとともに、QRコード1050が表示される。
 レコメンド情報1040には、地図情報1060が含まれる。地図情報1060は、第1の情報処理端末102の位置p1(設置場所)を起点として、複数のおすすめスポット(例えば、スポットs1~s6)をまわる観光ルート1070を含む。
 トーク画面1000において、地図情報1060内のいずれかのおすすめスポットを選択すると、選択したおすすめスポットに関する詳細情報を表示することができる。例えば、トーク画面1000において、スポットs1を選択すると、スポットs1に関する詳細情報をポップアップ表示することができる。
 レコメンド情報1040によれば、ユーザは、おすすめの観光ルート1070を確認したり、観光ルート1070上のおすすめスポットに関する情報を確認したりすることができる。おすすめスポットに関する詳細情報は、例えば、スポットの紹介や、スポットで販売される商品、サービスの内容などを示す。
 QRコード1050は、第1の情報処理端末102におけるチャットボットでの会話に関する引き継ぎ案内である。ユーザは、自身が所有するスマートフォンなどの第2の情報処理端末103を用いて、QRコード1050を読み取ることにより、第2の情報処理端末103において、第1の情報処理端末102におけるチャットボットでの会話を引き継ぐことができる。
(第2の情報処理端末103に表示されるトーク画面の画面例)
 つぎに、図11A~図11Eを用いて、第2の情報処理端末103のディスプレイ303に表示されるトーク画面の画面例について説明する。トーク画面内のメッセージは、例えば、第2の情報処理端末103におけるチャットボットでの会話に適用するトークスクリプトに従って、入力された情報や、選択された選択肢に応じて表示される。
 ここでは、図10に示したトーク画面1000に表示されたQRコード1050を読み取ることにより、情報処理装置101に引き継ぎ情報を含むチャットの開始指示が送信された結果、第2の情報処理端末103に表示されるトーク画面の画面例について説明する。第2の情報処理端末103におけるチャットボットでの会話は、例えば、引き継ぎ元スクリプト、会話内容『目的「観光」』、ユーザ属性『同伴者「子供連れ」』および外部環境『天気「晴れ」』に対応するトークスクリプトを用いて開始される。
 図11A~図11Eは、第2の情報処理端末103に表示されるトーク画面の画面例を示す説明図である。図11Aにおいて、トーク画面1100は、第2の情報処理端末103におけるチャットボットでの会話を開始した際に表示される操作画面の一例である。図11A中、アバターavは、チャットボットのキャラクターを表す。トーク画面1100は、例えば、第2の情報処理端末103のブラウザにより表示される。
 トーク画面1100には、チャットボットでの会話であるアバターavのメッセージm1,m2とともに、レコメンド情報1110が会話形式で表示されている。メッセージm1は、第1の情報処理端末102において選択されたルートを案内する旨のメッセージである。メッセージm2は、対象スポット(例えば、スポットs1)に誘導するメッセージである。
 レコメンド情報1110は、おすすめスポットに関する情報である。レコメンド情報1110は、例えば、引き継ぎ元スクリプト、会話内容『目的「観光」』、ユーザ属性『同伴者「子供連れ」』および外部環境『天気「晴れ」』に応じて決定されたレコメンド情報である。
 レコメンド情報1110には、地図情報1120が含まれる。地図情報1120は、第2の情報処理端末103の現在位置p2(第1の情報処理端末102の設置場所)を起点として、複数の対象スポット(スポットs1~s7)をまわる観光ルートRTを含む。レコメンド情報1110によれば、ユーザは、例えば、観光ルートRTを確認しながら、おすすめスポットに移動することができる。
 なお、トーク画面1100において、地図情報1120内のいずれかの対象スポットを選択すると、選択した対象スポットに関する詳細情報を表示可能であってもよい。例えば、トーク画面1100において、スポットs1が選択されると、スポットs1に関する詳細情報がポップアップ表示されることにしてもよい。
 ここで、ユーザが第2の情報処理端末103を持って移動した結果、第2の情報処理端末103がスポットs1に到着した場合を想定する。この場合、図11Aに示すように、トーク画面1100に、アバターavのメッセージm3,m4とともに、レコメンド情報1110が会話形式で表示される。
 メッセージm3は、スポットs1に到着した旨のメッセージである。メッセージm4は、スポットs1に対応するフレーム画像を用いて記念写真を撮影するよう促すメッセージである。地図情報1120には、第2の情報処理端末103の現在位置p2を起点として、複数の対象スポットをまわる観光ルートRTが含まれる。
 なお、トーク画面1100において、ユーザの操作入力により、メッセージm4内の「※写真保存について」部分を選択すると、例えば、撮影画像は第2の情報処理端末103に保存され、サーバ上には保存されない旨のメッセージが表示される。
 トーク画面1100において、ユーザの操作入力により、選択ボタンb11を選択すると、記念写真を撮影することに同意することができる。一方、トーク画面1100において、ユーザの操作入力により、選択ボタンb12を選択すると、記念写真を撮影することを拒否することができる。この場合、「引き続き観光をお楽しみください」といったアバターavのメッセージが表示される。
 ここでは、トーク画面1100において、選択ボタンb11が選択された場合を想定する。この場合、図11Bに示すように、トーク画面1100に、ユーザのメッセージm5と、アバターavのメッセージm6が表示される。メッセージm5は、記念写真を撮影する旨のメッセージである。また、メッセージm6は、フレームを起動する旨のメッセージである。
 トーク画面1100において、ユーザの操作入力により、OKボタンb13を選択すると、図11Bに示すような撮影画面1200が表示される。また、トーク画面1100において、ユーザの操作入力により、戻るボタンb14を選択すると、図11Aの右側に示したトーク画面1100に戻ることができる。ここでは、トーク画面1100において、OKボタンb13が選択された場合を想定する。
 図11Bにおいて、撮影画面1200は、スポットs1に対応するフレーム画像を用いて記念写真を撮影するための操作画面の一例である。撮影画面1200において、アイコン1201~1203は、スポットs1に対応するフレーム画像を選択可能なアイコンである。
 撮影画面1200において、ユーザの操作入力により、アイコン1201~1203のいずれかを選択すると、記念写真を撮影するためのフレーム画像を選択することができる。ここでは、アイコン1202が選択された結果、ファインダ画面1210にフレーム画像f1が表示されている。
 撮影画面1200において、ユーザの操作入力により、撮影ボタンb15を選択すると、フレーム画像f1を含むファインダ画面1210に表示される被写体(例えば、第2の情報処理端末103のユーザ)を撮影することができる。
 また、撮影画面1200において、保存ボタンb16を選択すると、第2の情報処理端末103に撮影画像を保存することができる。また、撮影画面1200において、終了ボタンb17を選択すると、記念写真の撮影を終了することができる。
 図11Cにおいて、トーク画面1100には、メッセージm7~m11が表示されている。メッセージm7は、記念写真を撮影するために選択したフレーム画像を示すユーザのメッセージである。メッセージm8は、記念写真を撮影するためのフレーム画像を別ブラウザで表示する旨のアバターavのメッセージである。
 メッセージm9は、フレーム画像f1を用いて撮影された撮影画像1130を含み、撮影画像1130を第2の情報処理端末103本体に保存した旨のアバターavのメッセージである。メッセージm10は、記念写真の撮影を終了した旨のメッセージである。メッセージm11は、記念写真の撮影をねぎらうメッセージである。
 また、トーク画面1100には、メッセージm11が表示された後、メッセージm12が表示される。メッセージm12は、スポットs1に対する評価を促すメッセージである。トーク画面1100において、ユーザの操作入力により、ボタンb18を選択すると、スポットs1に対する評価「Good」を入力することができる。
 また、トーク画面1100において、ボタンb19を選択すると、スポットs1に対する評価「Bad」を入力することができる。ここでは、トーク画面1100において、ボタンb19が選択された場合を想定する。この場合、図11Dに示すように、トーク画面1100にユーザのメッセージm13が表示される。
 メッセージm13は、スポットs1に対する評価が「Bad」であることを示すメッセージである。例えば、スポットs1に対する評価が入力されると、撮影画像1130に対応するメタ情報と、撮影画像1130に対応する位置情報とが、第2の情報処理端末103から情報処理装置101に送信される。
 この結果、情報処理装置101において、新たな行動情報が行動情報DB140に記録される。なお、第2の情報処理端末103におけるチャットボットでの会話において受け付けた撮影画像1130は、チャットボットでの会話に関するチャットログ(チャットログDB)には記録されない。
 この場合、撮影画像1130に対応するメタ情報と、撮影画像1130に対応する位置情報とに基づいて、第2の情報処理端末103に出力されるレコメンド情報1110が更新される。ここでは、レコメンド情報1110が更新された結果、トーク画面1100に、アバターavのメッセージm14とともに、更新後のレコメンド情報1110-1が会話形式で表示される。
 更新後のレコメンド情報1110-1は、例えば、撮影画像1130に対応するメタ情報から特定される『天気「晴れ」、同伴者「カップル」、評価「Bad」』と、撮影画像1130に対応する位置情報『スポットs1』とに基づいて更新されたものである。
 ここでは、更新後のレコメンド情報1110-1には、地図情報1120-1,1120-2が含まれる。地図情報1120-1は、第2の情報処理端末103の現在位置p2を起点として、複数の対象スポット(スポットs20~s23)をまわる新たな観光ルートRT1を含む。
 また、地図情報1120-2は、第2の情報処理端末103の現在位置p2を起点として、複数の対象スポット(スポットs10~s13)をまわる新たな観光ルートRT2を含む。観光ルートRT1は、目的を「観光」とした場合のおすすめルートである。観光ルートRT2は、目的を「食事」とした場合のおすすめルートである。
 トーク画面1100において、例えば、地図情報1120-1,1120-2のいずれかを選択することにより、表示するルートを変更することができる。ここでは、トーク画面1100において、地図情報1120-2が選択された場合を想定する。
 この場合、図11Eに示すように、トーク画面1100に、メッセージm15,m16とともに、更新後のレコメンド情報1110-2が会話形式で表示される。メッセージm15は、観光ルートRT2を選択した旨のユーザのメッセージである。メッセージm16は、対象スポットでの撮影や評価を促すアバターavのメッセージである。
 更新後のレコメンド情報1110-2によれば、ユーザは、例えば、観光ルートRT2を確認しながら、新たなおすすめスポットに移動することができる。
(情報処理装置101の会話制御処理手順)
 つぎに、情報処理装置101の会話制御処理手順について説明する。まず、図12を用いて、情報処理装置101の第1の会話制御処理手順について説明する。第1の会話制御処理は、第1の情報処理端末102におけるチャットボットでの会話を制御する処理である。
 図12は、情報処理装置101の第1の会話制御処理手順の一例を示すフローチャートである。図12のフローチャートにおいて、まず、情報処理装置101は、第1の情報処理端末102からチャットの開始指示とともに、第1の情報処理端末102が取得した外部環境情報を受信したか否かを判断する(ステップS1201)。
 ここで、情報処理装置101は、チャットの開始指示とともに外部環境情報を受信するのを待つ(ステップS1201:No)。情報処理装置101は、チャットの開始指示とともに外部環境情報を受信した場合(ステップS1201:Yes)、受信した外部環境情報に基づいて、外部環境を特定する(ステップS1202)。
 つぎに、情報処理装置101は、スクリプトテーブル120を参照して、特定した外部環境に対応するスクリプトを、トークスクリプトに決定する(ステップS1203)。そして、情報処理装置101は、決定したトークスクリプトを用いて、第1の情報処理端末102におけるチャットボットでの会話を開始する(ステップS1204)。
 つぎに、情報処理装置101は、第1の情報処理端末102から受信する会話内容が所定条件を満たすか否かを判断する(ステップS1205)。例えば、情報処理装置101は、第1の情報処理端末102におけるチャットボットでの会話において、天気、同伴者、目的などを示す情報を受け付けた場合に(例えば、図10参照)、所定条件を満たすと判断する。
 ここで、所定条件を満たさない場合(ステップS1205:No)、情報処理装置101は、第1の情報処理端末102におけるチャットボットでの会話を終了するか否かを判断する(ステップS1206)。第1の情報処理端末102におけるチャットボットでの会話は、例えば、トークスクリプトに従って、または、ユーザの強制終了操作に応じて終了する。
 ここで、チャットボットでの会話を終了しない場合(ステップS1206:No)、情報処理装置101は、ステップS1205に戻る。一方、チャットボットでの会話を終了する場合(ステップS1206:Yes)、情報処理装置101は、本フローチャートによる一連の処理を終了する。
 また、ステップS1205において、所定条件を満たす場合(ステップS1205:Yes)、情報処理装置101は、第1の情報処理端末102におけるチャットボットでの会話(第1の会話)の引き継ぎ案内をQRコードとして、第1の情報処理端末102のディスプレイ303に表示させる(ステップS1207)。
 つぎに、情報処理装置101は、QRコードの読み取りが完了したか否かを判断する(ステップS1208)。なお、QRコードの読み取りが完了したか否かは、例えば、第2の情報処理端末103において、第1の情報処理端末102におけるチャットボットでの会話に続く会話が開始されたか否かによって判断される。
 ここで、情報処理装置101は、QRコードの読み取りが完了するのを待つ(ステップS1208:No)。そして、情報処理装置101は、QRコードの読み取りが完了した場合(ステップS1208:Yes)、本フローチャートによる一連の処理を終了することができる。
 これにより、第1の情報処理端末102(例えば、デジタルボード)の外部環境に応じて、チャットボットでの会話を制御することができる。また、チャットボットでの会話において、天気、同伴者、目的などを示す情報を受け付けたことに応じて、第1の情報処理端末102での会話を中断して、第2の情報処理端末103(例えば、スマートフォン)で会話の続きを行うよう促すことができる。
 つぎに、図13および図14を用いて、情報処理装置101の第2の会話制御処理手順について説明する。第2の会話制御処理は、第2の情報処理端末103におけるチャットボットでの会話を制御する処理である。
 図13および図14は、情報処理装置101の第2の会話制御処理手順の一例を示すフローチャートである。図13のフローチャートにおいて、まず、情報処理装置101は、第2の情報処理端末102から、引き継ぎ情報を含むチャットの開始指示を受信したか否かを判断する(ステップS1301)。
 ここで、情報処理装置101は、引き継ぎ情報を含むチャットの開始指示を受信するのを待つ(ステップS1301:No)。情報処理装置101は、引き継ぎ情報を含むチャットの開始指示を受信した場合(ステップS1301:Yes)、チャットの開始指示に含まれる引き継ぎ情報に基づいて、引き継ぎ元スクリプト、会話内容、ユーザ属性および外部環境を特定する(ステップS1302)。
 そして、情報処理装置101は、スクリプト引き継ぎテーブル130を参照して、特定した引き継ぎ元スクリプト、会話内容、ユーザ属性および外部環境の組み合わせに対応する引き継ぎ先スクリプトを、トークスクリプトに決定する(ステップS1303)。
 つぎに、情報処理装置101は、スクリプト引き継ぎテーブル130を参照して、特定した引き継ぎ元スクリプト、会話内容、ユーザ属性および外部環境の組み合わせに対応するレコメンド情報を、出力対象のレコメンド情報に決定する(ステップS1304)。
 つぎに、情報処理装置101は、決定したトークスクリプトを用いて、第2の情報処理端末103におけるチャットボットでの会話を開始する(ステップS1305)。この会話は、例えば、第1の情報処理端末102におけるチャットボットでの第1の会話に続く第2の会話である。
 そして、情報処理装置101は、決定した出力対象のレコメンド情報を第2の情報処理端末103へ出力して(ステップS1306)、図14に示すステップS1401に移行する。出力対象のレコメンド情報は、例えば、図11Aに示した地図情報1120が含まれるレコメンド情報1110である。
 図14のフローチャートにおいて、まず、情報処理装置101は、第2の情報処理端末103が対象スポットに到着したことを検知したか否かを判断する(ステップS1401)。ここで、情報処理装置101は、第2の情報処理端末103が対象スポットに到着したことを検知するのを待つ(ステップS1401:No)。
 情報処理装置101は、第2の情報処理端末103が対象スポットに到着したことを検知した場合(ステップS1401:Yes)、フレームテーブル800を参照して、対象スポットに対応するフレーム画像を第2の情報処理端末103へ出力する(ステップS1402)。
 つぎに、情報処理装置101は、第2の情報処理端末103から、出力したフレーム画像を用いて撮影された撮影画像に対応するメタ情報と、その撮影画像に対応する位置情報とを受信したか否かを判断する(ステップS1403)。撮影画像に対応するメタ情報と位置情報は、第2の情報処理端末103におけるチャットボットでの会話に応じて受け付けた情報が撮影画像の場合に送信される。
 ここで、情報処理装置101は、第2の情報処理端末103からメタ情報と位置情報とを受信するのを待つ(ステップS1403:No)。情報処理装置101は、第2の情報処理端末103からメタ情報と位置情報とを受信した場合(ステップS1403:Yes)、ルームIDと対応付けて、受信したメタ情報と位置情報とを含む行動情報を行動情報DB140に記録する(ステップS1404)。
 つぎに、情報処理装置101は、受信したメタ情報と位置情報とに基づいて、レコメンド情報を更新する(ステップS1405)。そして、情報処理装置101は、更新後のレコメンド情報を第2の情報処理端末103へ出力する(ステップS1406)。
 つぎに、情報処理装置101は、第2の情報処理端末103におけるチャットボットでの会話を終了するか否かを判断する(ステップS1407)。第2の情報処理端末103におけるチャットボットでの会話は、例えば、トークスクリプトに従って、または、ユーザの強制終了操作に応じて終了する。
 ここで、チャットボットでの会話を終了しない場合(ステップS1407:No)、情報処理装置101は、ステップS1401に戻る。一方、チャットボットでの会話を終了する場合(ステップS1407:Yes)、情報処理装置101は、本フローチャートによる一連の処理を終了する。
 これにより、第1の情報処理端末102におけるチャットボットでの会話を、第2の情報処理端末103で引き継ぐとともに、地図情報を含むレコメンド情報を第2の情報処理端末103へ出力することができる。また、第2の情報処理端末103が対象スポットに到着したことに応じて、レコメンド情報を更新して、更新後のレコメンド情報を第2の情報処理端末103へ出力することができる。
 以上説明したように、実施の形態にかかる情報処理装置101によれば、第2の情報処理端末103からチャットの開始指示を受信した場合、第2の情報処理端末103におけるチャットボットでの会話を開始するとともに、地図情報が含まれるレコメンド情報を第2の情報処理端末103へ出力することができる。
 これにより、ユーザが使用するスマートフォンなどの第2の情報処理端末103におけるチャットボットでの会話を制御するとともに、地図情報が含まれるレコメンド情報をユーザに提供することができる。例えば、第2の情報処理端末103の位置から対象スポットまでのルートを含む地図情報が含まれるレコメンド情報を出力することで、対象スポットまでユーザを誘導(案内)することができる。
 また、情報処理装置101によれば、チャットボットでの会話に応じて受け付けた情報が撮影画像の場合に、第2の情報処理端末103から撮影画像に対応するメタ情報と撮影画像に対応する位置情報とを受信することができる。撮影画像は、例えば、第2の情報処理端末103に搭載されたカメラ306により撮影されたユーザの画像である。メタ情報は、例えば、撮影画像に含まれるユーザの属性を表す情報を含む。また、メタ情報は、例えば、撮影画像が撮影された日時情報から特定される時間帯、天気などを特定する情報を含む。
 これにより、ユーザがどのような行動をとっているのかを特定する行動情報を収集することができる。この際、撮影画像そのものではなく、撮影画像に対応するメタ情報や位置情報を収集することで、ユーザに抵抗感を持たせることなく、行動情報を収集することができる。
 また、情報処理装置101によれば、撮影画像に対応するメタ情報と撮影画像に対応する位置情報とに基づいてレコメンド情報を更新して、更新後のレコメンド情報を第2の情報処理端末103へ出力することができる。
 これにより、ユーザが行った場所だけでなく、撮影画像のメタ情報から特定されるユーザの属性や時間帯、天気などを考慮して、レコメンド情報を更新することができる。例えば、性別、年代、人数などを考慮して、ユーザの特徴に合ったスポットをレコメンドすることができる。また、時間帯や天気などを考慮したルートを提供することができる。また、新たな対象スポットにユーザを誘導することができる。
 また、情報処理装置101によれば、撮影画像に対応するメタ情報として、第2の情報処理端末103におけるチャットボットでの会話において受け付けた情報を特定する情報を含むメタ情報を受信することができる。チャットボットでの会話において受け付けた情報は、例えば、対象スポットの評価に関する情報である。
 これにより、例えば、レコメンドした対象スポットに対するユーザの評価を考慮して、レコメンド情報を更新することができる。また、対象スポットに対するユーザの評価を含む行動情報を収集することができ、例えば、外国人旅行客などにどのようなスポットをレコメンドすればよいかの分析に役立てることができる。
 また、情報処理装置101によれば、第2の情報処理端末103から、引き継ぎ情報を含むチャットの開始指示を受信した場合、引き継ぎ情報に基づいて、第2の情報処理端末103におけるチャットボットでの第1の会話に続く第2の会話を開始するとともに、地図情報が含まれるレコメンド情報を第2の情報処理端末103へ出力することができる。引き継ぎ情報は、第1の情報処理端末102におけるチャットボットでの第1の会話からの引き継ぎを示す。
 これにより、デジタルボードなどの第1の情報処理端末102におけるチャットボットでの会話を、スマートフォンなどの第2の情報処理端末103で引き継ぐことができる。また、第1の情報処理端末102におけるチャットボットでの会話内容を考慮して、地図情報が含まれるレコメンド情報を提供することができる。例えば、第1の情報処理端末102におけるチャットボットでの会話内容から特定される目的、同伴者、天気などを考慮して、ユーザの特徴に合ったスポットをレコメンドすることができる。
 また、情報処理装置101によれば、チャットボットでの一連の会話を特定可能な情報と対応付けて、撮影画像に対応するメタ情報と位置情報とを記録することができる。チャットボットでの一連の会話を特定可能な情報は、例えば、ルームIDである。
 これにより、外国人旅行客などのユーザがどのような経路を移動したのかを特定可能な状態で行動情報を記録することができる。このため、外国人旅行客などの導線分析を行うことが可能となり、外国人旅行客などの移動傾向を考慮したより適切なレコメンドを実現することができる。
 また、情報処理装置101によれば、第2の情報処理端末103におけるチャットボットでの会話に応じて受け付けた情報が撮影画像の場合に、第2の情報処理端末103から撮影画像と、撮影画像に対応する位置情報とを受信することができる。そして、情報処理装置101によれば、受信した撮影画像を画像認識して、撮影画像に対応するメタ情報を生成するとともに、撮影画像を削除することができる。
 これにより、情報処理装置101側で撮影画像のメタ情報を生成可能となるとともに、行動情報収集時にプライベートな写真などが情報処理装置101上に残ることを防ぐことができる。
 また、情報処理装置101によれば、第2の情報処理端末103からチャットの開始指示を受信するとともに、第2の情報処理端末103のユーザの属性情報を受信した場合、受信した属性情報に基づいて、第2の情報処理端末103におけるチャットボットでの会話を開始するとともに、地図情報が含まれるレコメンド情報を第2の情報処理端末103へ出力することができる。
 これにより、第2の情報処理端末103のユーザ属性に応じて、第2の情報処理端末103におけるチャットボットでの会話を制御するとともに、地図情報が含まれるレコメンド情報を提供することができる。
 また、情報処理装置101によれば、第2の情報処理端末103からチャットの開始指示を受信するとともに、第2の情報処理端末103が取得した外部環境情報を受信した場合、受信した外部環境情報に基づいて、第2の情報処理端末103におけるチャットボットでの会話を開始するとともに、地図情報が含まれるレコメンド情報を第2の情報処理端末103へ出力することができる。
 これにより、第2の情報処理端末103の外部環境に応じて、第2の情報処理端末103におけるチャットボットでの会話を制御するとともに、地図情報が含まれるレコメンド情報を提供することができる。
 また、情報処理装置101によれば、第2の情報処理端末103の位置から対象スポットまでのルートを含む地図情報が含まれるレコメンド情報を出力し、第2の情報処理端末103が対象スポットに到着したことを検知することができる。また、情報処理装置101によれば、対象スポットに到着したことを検知した場合、対象スポットに対応するフレーム画像を第2の情報処理端末103に出力することができる。そして、情報処理装置101は、第2の情報処理端末103から、出力したフレーム画像を用いて撮影された撮影画像に対応するメタ情報と撮影画像に対応する位置情報とを受信することができる。
 これにより、ユーザが対象スポットに到着したことに応じて、対象スポットに対応する記念撮影用のフレーム画像(例えば、ご当地フレーム)を出力して、ユーザの画像を撮影するよう促すことができる。
 これらのことから、実施の形態にかかる会話制御システム100および情報処理装置101によれば、ユーザに抵抗感を持たせることなく、ユーザの行動情報を収集することができる。ユーザは、例えば、情報提供のためにアプリダウンロードやID登録を行うことなく、観光エリアでのレコメンド情報の提供を受けることができる。また、観光エリアのサービス提供者は、外国人旅行客などの傾向を知ることができ、ユーザ属性や外部環境などにあった高品質なサービスを提供することが可能となる。
 なお、本実施の形態で説明した会話制御方法は、あらかじめ用意されたプログラムをパーソナル・コンピュータやワークステーション等のコンピュータで実行することにより実現することができる。本会話制御プログラムは、ハードディスク、フレキシブルディスク、CD-ROM、DVD、USBメモリ等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。また、本会話制御プログラムは、インターネット等のネットワークを介して配布してもよい。
 また、本実施の形態で説明した情報処理装置101は、スタンダードセルやストラクチャードASIC(Application Specific Integrated Circuit)などの特定用途向けICやFPGAなどのPLD(Programmable Logic Device)によっても実現することができる。
 100 会話制御システム
 101 情報処理装置
 102 第1の情報処理端末
 103 第2の情報処理端末
 104 オペレータ端末
 110 ネットワーク
 120 スクリプトテーブル
 130 スクリプト引き継ぎテーブル
 140 行動情報DB
 200,300 バス
 201,301 CPU
 202,302 メモリ
 203 ディスクドライブ
 204 ディスク
 205,305 通信I/F
 206 可搬型記録媒体I/F
 207 可搬型記録媒体
 303 ディスプレイ
 304 入力装置
 306 カメラ
 307 スピーカ
 308 マイクロフォン
 309 GPSユニット
 701 通信部
 702 決定部
 703 会話制御部
 710 記憶部
 720 読取部
 800 フレームテーブル
 910,1040,1110 レコメンド情報
 920,1060,1120 地図情報
 930,1130 撮影画像
 940 行動情報
 1000,1100 トーク画面
 1050 QRコード
 1070,RT,RT1,RT2 観光ルート
 1200 撮影画面

Claims (11)

  1.  情報処理端末からチャットの開始指示を受信した場合、前記情報処理端末におけるチャットボットでの会話を開始するとともに、地図情報が含まれるレコメンド情報を前記情報処理端末へ出力し、
     前記チャットボットでの会話に応じて受け付けた情報が撮影画像の場合に、前記情報処理端末から前記撮影画像に対応するメタ情報と前記撮影画像に対応する位置情報とを受信し、
     前記メタ情報と前記位置情報とに基づいて前記レコメンド情報を更新して、更新後の前記レコメンド情報を前記情報処理端末へ出力する、
     処理をコンピュータに実行させることを特徴とする会話制御プログラム。
  2.  前記チャットの開始指示は、前記情報処理端末とは異なる他の情報処理端末におけるチャットボットでの第1の会話からの引き継ぎを示す引き継ぎ情報を含み、
     前記情報処理端末から前記チャットの開始指示を受信した場合、前記チャットの開始指示に含まれる前記引き継ぎ情報に基づいて、前記情報処理端末におけるチャットボットでの前記第1の会話に続く第2の会話を開始するとともに、地図情報が含まれるレコメンド情報を前記情報処理端末へ出力する、
     処理を前記コンピュータに実行させることを特徴とする請求項1に記載の会話制御プログラム。
  3.  前記チャットボットでの一連の会話を特定可能な情報と対応付けて、前記メタ情報と前記位置情報とを記録する、処理を前記コンピュータに実行させることを特徴とする請求項1に記載の会話制御プログラム。
  4.  前記チャットボットでの会話に応じて受け付けた情報が撮影画像の場合に、前記情報処理端末から前記撮影画像と前記撮影画像に対応する位置情報とを受信し、
     受信した前記撮影画像を画像認識して前記撮影画像に対応するメタ情報を生成するとともに、前記撮影画像を削除する、
     処理を前記コンピュータに実行させることを特徴とする請求項1に記載の会話制御プログラム。
  5.  前記撮影画像は、前記情報処理端末に搭載された撮像装置により撮影されたユーザの画像である、ことを特徴とする請求項1に記載の会話制御プログラム。
  6.  情報処理端末からチャットの開始指示を受信するとともに、前記情報処理端末のユーザの属性情報を受信した場合、受信した前記属性情報に基づいて、前記情報処理端末におけるチャットボットでの会話を開始するとともに、地図情報が含まれるレコメンド情報を前記情報処理端末へ出力する、処理を前記コンピュータに実行させることを特徴とする請求項1に記載の会話制御プログラム。
  7.  前記地図情報は、前記情報処理端末の位置から対象スポットまでのルートを含み、
     前記撮影画像は、前記情報処理端末が前記対象スポットに到着したことが検知された場合に前記情報処理端末に出力される、前記対象スポットに対応するフレーム画像を用いて撮影される、ことを特徴とする請求項1に記載の会話制御プログラム。
  8.  前記メタ情報は、前記撮影画像に含まれるユーザの属性を表す情報を含む、ことを特徴とする請求項1に記載の会話制御プログラム。
  9.  前記メタ情報は、前記チャットボットでの会話において受け付けた情報を特定する情報を含む、ことを特徴とする請求項1に記載の会話制御プログラム。
  10.  情報処理端末からチャットの開始指示を受信した場合、前記情報処理端末におけるチャットボットでの会話を開始するとともに、地図情報が含まれるレコメンド情報を前記情報処理端末へ出力し、
     前記チャットボットでの会話に応じて受け付けた情報が撮影画像の場合に、前記情報処理端末から前記撮影画像に対応するメタ情報と前記撮影画像に対応する位置情報とを受信し、
     前記メタ情報と前記位置情報とに基づいて前記レコメンド情報を更新して、更新後の前記レコメンド情報を前記情報処理端末へ出力する、
     処理をコンピュータが実行することを特徴とする会話制御方法。
  11.  情報処理端末からチャットの開始指示を受信した場合、前記情報処理端末におけるチャットボットでの会話を開始するとともに、地図情報が含まれるレコメンド情報を前記情報処理端末へ出力する会話制御部と、
     前記チャットボットでの会話に応じて受け付けた情報が撮影画像の場合に、前記情報処理端末から前記撮影画像に対応するメタ情報と前記撮影画像に対応する位置情報とを受信する通信部と、を有し、
     前記会話制御部は、
     前記メタ情報と前記位置情報とに基づいて前記レコメンド情報を更新して、更新後の前記レコメンド情報を前記情報処理端末へ出力する、ことを特徴とする情報処理装置。
PCT/JP2020/023112 2020-06-11 2020-06-11 会話制御プログラム、会話制御方法および情報処理装置 WO2021250871A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022529975A JPWO2021250871A1 (ja) 2020-06-11 2020-06-11
PCT/JP2020/023112 WO2021250871A1 (ja) 2020-06-11 2020-06-11 会話制御プログラム、会話制御方法および情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/023112 WO2021250871A1 (ja) 2020-06-11 2020-06-11 会話制御プログラム、会話制御方法および情報処理装置

Publications (1)

Publication Number Publication Date
WO2021250871A1 true WO2021250871A1 (ja) 2021-12-16

Family

ID=78847067

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/023112 WO2021250871A1 (ja) 2020-06-11 2020-06-11 会話制御プログラム、会話制御方法および情報処理装置

Country Status (2)

Country Link
JP (1) JPWO2021250871A1 (ja)
WO (1) WO2021250871A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016164655A (ja) * 2015-02-26 2016-09-08 Tepco光ネットワークエンジニアリング株式会社 インフラ設備の管理システムとその方法ならびにその表示システム、それに用いられるサーバ、端末装置およびプログラム
WO2018213322A1 (en) * 2017-05-16 2018-11-22 Google Llc Storing metadata related to captured images
JP6652231B1 (ja) * 2019-05-31 2020-02-19 富士通株式会社 会話制御プログラム、会話制御方法および情報処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016164655A (ja) * 2015-02-26 2016-09-08 Tepco光ネットワークエンジニアリング株式会社 インフラ設備の管理システムとその方法ならびにその表示システム、それに用いられるサーバ、端末装置およびプログラム
WO2018213322A1 (en) * 2017-05-16 2018-11-22 Google Llc Storing metadata related to captured images
JP6652231B1 (ja) * 2019-05-31 2020-02-19 富士通株式会社 会話制御プログラム、会話制御方法および情報処理装置

Also Published As

Publication number Publication date
JPWO2021250871A1 (ja) 2021-12-16

Similar Documents

Publication Publication Date Title
US11048941B2 (en) Imaging device and information acquisition system in which an acquired image and associated information are held on a display
TWI661723B (zh) 攜帶資訊機器及資訊取得系統
CN109067839A (zh) 推送游览指导信息、创建景点信息数据库的方法及装置
KR20170067503A (ko) 단말장치, 서버 및 이벤트 제안방법
JP5984685B2 (ja) 表示システム、サーバ、端末装置、表示方法およびプログラム
JP2010287059A (ja) 移動端末、サーバ装置、コミュニティ生成システム、表示制御方法およびプログラム
EP3125164A1 (en) Method and device for presenting ticket information
JP2006338553A (ja) コンテンツ再生装置
JP2019056956A (ja) 情報処理システム、情報処理プログラム、情報処理装置及び情報処理方法
JP2005100276A (ja) 情報処理システム、情報処理装置、情報処理方法及びプログラム
KR20100106377A (ko) 지리적 위치 결정 시스템, 관련 지리적 맵 및 관련 결정 서버
US20050162431A1 (en) Animation data creating method, animation data creating device, terminal device, computer-readable recording medium recording animation data creating program and animation data creating program
WO2021250871A1 (ja) 会話制御プログラム、会話制御方法および情報処理装置
US20220188348A1 (en) Content management device, content management system, and control method
US20050017976A1 (en) Cellular terminal, method for creating animation of cellular terminal, and animation creation system
JPWO2021250871A5 (ja)
WO2021205543A1 (ja) 会話制御プログラム、会話制御方法および情報処理装置
JP2014219333A (ja) 投稿情報表示システム、サーバ、端末装置、投稿情報表示方法およびプログラム
WO2021199216A1 (ja) 会話制御プログラム、会話制御方法および情報処理装置
JPWO2021205543A5 (ja)
JP6164633B2 (ja) 投稿情報表示システム、サーバ、端末装置、投稿情報表示方法およびプログラム
JPWO2021199216A5 (ja)
CN110942078A (zh) 聚合兴趣点数据的方法、装置、媒体文件服务器及存储介质
CN112115284B (zh) 多媒体推荐方法、装置、设备及存储介质
WO2021224992A1 (ja) 会話制御プログラム、会話制御方法および情報処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20940267

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022529975

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20940267

Country of ref document: EP

Kind code of ref document: A1