WO2019244715A1 - プログラム、情報処理方法、情報処理装置および情報処理システム - Google Patents

プログラム、情報処理方法、情報処理装置および情報処理システム Download PDF

Info

Publication number
WO2019244715A1
WO2019244715A1 PCT/JP2019/023112 JP2019023112W WO2019244715A1 WO 2019244715 A1 WO2019244715 A1 WO 2019244715A1 JP 2019023112 W JP2019023112 W JP 2019023112W WO 2019244715 A1 WO2019244715 A1 WO 2019244715A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
guest
user
cpu
user interface
Prior art date
Application number
PCT/JP2019/023112
Other languages
English (en)
French (fr)
Inventor
良樹 戸田
詩博 徐
Original Assignee
Tradfit株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tradfit株式会社 filed Critical Tradfit株式会社
Priority to SG11202012663PA priority Critical patent/SG11202012663PA/en
Priority to EP19823434.6A priority patent/EP3813009A4/en
Priority to US17/252,591 priority patent/US20210295837A1/en
Priority to JP2020512623A priority patent/JP6762060B2/ja
Priority to TW108121471A priority patent/TW202001777A/zh
Publication of WO2019244715A1 publication Critical patent/WO2019244715A1/ja
Priority to PH12020552193A priority patent/PH12020552193A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/12Hotels or restaurants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Definitions

  • the present invention relates to a program, an information processing method, an information processing device, and an information processing system.
  • a communication system has been proposed that establishes a natural language dialogue between the user and the robot.
  • the robot has a microphone and a speaker.
  • a user's utterance is acquired using a microphone, sent to a server, a response generated by referring to a conversation database is acquired from the server, and output from a speaker, thereby enabling dialogue with the user (Patent Document 1). .
  • ⁇ ⁇ Accommodation facilities such as hotels accept various guests with different attributes such as age, gender, nationality, and address.
  • attributes such as age, gender, nationality, and address.
  • One object of the present invention is to provide a program or the like for controlling information in a guest room according to information about a user, particularly, an attribute of the user.
  • the program acquires a request based on audio data acquired from a user interface installed in the guest room of the accommodation facility, and a user interface identifier for identifying the user interface, and based on the acquired user interface identifier, stays in the guest room. Acquiring the guest information concerning the inside guest, and causing the computer to execute processing for controlling the device in the guest room based on the acquired guest information and the request.
  • a program or the like for controlling information in a guest room according to information about a user, particularly, a user attribute.
  • FIG. 4 is an explanatory diagram illustrating an outline of an operation of the information processing system.
  • FIG. 2 is an explanatory diagram illustrating a configuration of an information processing system.
  • FIG. 4 is an explanatory diagram illustrating a record layout of a PMSDB.
  • FIG. 4 is an explanatory diagram illustrating a record layout of a speaker DB. It is explanatory drawing explaining the record layout of introduction facility DB. It is explanatory drawing explaining the outline
  • FIG. 9 is an explanatory diagram illustrating an example of a report screen.
  • 15 is a flowchart illustrating a flow of processing of a program according to the third embodiment.
  • FIG. 14 is an explanatory diagram for explaining an outline of a recommendation model according to a fourth embodiment.
  • 15 is a flowchart illustrating the flow of processing of a program according to a fourth embodiment.
  • FIG. 4 is an explanatory diagram illustrating a record layout of a user DB.
  • 18 is a flowchart illustrating a flow of processing of a program according to the fifth embodiment.
  • FIG. 14 is an explanatory diagram illustrating a configuration of an information processing system according to a sixth embodiment.
  • FIG. 19 is a sequence diagram illustrating an outline of an operation of the information processing system according to the sixth embodiment.
  • FIG. 9 is an explanatory diagram illustrating an example of a screen displayed on the display device.
  • FIG. 9 is an explanatory diagram illustrating an example of a screen displayed on the display device.
  • FIG. 19 is an explanatory diagram for explaining an outline of a recommendation model according to a seventh embodiment.
  • FIG. 19 is an explanatory diagram illustrating an example of a screen displayed on the display device according to the seventh embodiment.
  • FIG. 21 is a sequence diagram illustrating an outline of an operation of the information processing system according to the seventh embodiment.
  • FIG. 15 is an explanatory diagram illustrating a configuration of an information processing system according to an eighth embodiment. It is explanatory drawing explaining the record layout of a hotel category DB.
  • FIG. 39 is an explanatory diagram illustrating a modification of the recommendation model according to the ninth embodiment.
  • FIG. 24 is an explanatory diagram illustrating a record layout of a PMSDB according to the tenth embodiment.
  • FIG. 24 is an explanatory diagram illustrating a record layout of an external information DB according to the eleventh embodiment.
  • 129 is a flowchart illustrating a flow of processing of a program according to the eleventh embodiment.
  • FIG. 39 is a functional block diagram of an information processing system according to a twelfth embodiment.
  • FIG. 24 is an explanatory diagram illustrating a configuration of an information processing system according to Embodiment 13.
  • FIG. 1 is an explanatory diagram illustrating an outline of the operation of the information processing system 10.
  • the information processing system 10 includes a smart speaker 20 arranged in a guest room of an accommodation facility such as a hotel.
  • the smart speaker 20 has a substantially hemispherical shape, and has a circular touch panel 25 and a camera 28 on a plane portion.
  • the smart speaker 20 is installed so that the touch panel 25 faces obliquely upward.
  • the smart speaker 20 has a microphone 26 above the spherical portion and a speaker 27 below the spherical portion.
  • the smart speaker 20 will be described as a user interface.
  • the user interface can acquire information of a guest (user) and transmit the information to the guest.
  • the present invention is not limited to the smart speaker 20.
  • the guest utters a request, for example, "Tell me a Japanese restaurant.”
  • the information processing system 10 extracts a Japanese restaurant to be introduced to the guest, that is, recommended, based on the attribute of the guest recorded in the PMS (Property Management System: Hotel Management System).
  • the information processing system 10 utters “display three restaurants” from the speaker 27 and displays information on the first Japanese restaurant on the touch panel 25.
  • the content of the request is not limited to a Japanese restaurant as long as it relates to a product or service, and the information to be recommended may be information (product service information) related to the product or service.
  • the guest operates the touch panel 25 to compare the extracted information on the three restaurants.
  • the guest can display information such as a map of the location of the restaurant and a telephone number on the touch panel 25 by an operation such as tapping.
  • the operation of the touch panel 25 is the same as that of an existing smartphone or the like, and a detailed description thereof will be omitted.
  • the PMS is a management system of accommodation facilities, and records the address, name, nationality, fee settlement method, accompanying person, accommodation history, etc. of the guest.
  • the PMS is introduced for each accommodation facility or for each chain, and is used for processing such as accepting reservations, check-in, check-out, and settlement.
  • the information processing system 10 can present a Japanese restaurant that matches the user's preference and situation. For example, the information processing system 10 presents different Japanese restaurants depending on whether the user is accompanied by children or a couple. The information processing system 10 presents different Japanese restaurants depending on whether the user is in his 20s or 70s.
  • FIG. 2 is an explanatory diagram illustrating the configuration of the information processing system 10.
  • the information processing system 10 includes a management server 30, a voice response server 14, and a PMS server 15 (PMS connected to a network) in addition to the above-described smart speaker 20.
  • PMS server 15 PMS connected to a network
  • the smart speaker 20 includes a CPU (Central Processing Unit) 21, a main storage device 22, an auxiliary storage device 23, a communication unit 24, and a bus, in addition to the touch panel 25, the microphone 26, the speaker 27, and the camera 28 described above.
  • the CPU 21 is an arithmetic and control unit that executes the program of the present embodiment. As the CPU 21, one or a plurality of CPUs, a multi-core CPU, or the like is used.
  • the CPU 21 is connected to each hardware unit constituting the smart speaker 20 via a bus.
  • the main storage device 22 is a storage device such as an SRAM (Static Random Access Memory), a DRAM (Dynamic Random Access Memory), or a flash memory.
  • the main storage device 22 temporarily stores information necessary during the processing performed by the CPU 21 and programs being executed by the CPU 21.
  • the auxiliary storage device 23 is a storage device such as an SRAM, a flash memory, or a hard disk.
  • the auxiliary storage device 23 stores a program to be executed by the CPU 21 and various data necessary for executing the program.
  • the communication unit 24 is an interface for performing data communication between the smart speaker 20 and the network.
  • the touch panel 25 includes a display unit 251 such as a liquid crystal display panel, and an input unit 252 stacked on the display unit 251.
  • the shape of the smart speaker 20 shown in FIG. 1 is an example, and the smart speaker 20 is not limited to a substantially hemispherical shape.
  • the smart speaker 20 may have an arbitrary shape such as a columnar shape or a rectangular parallelepiped shape.
  • the smart speaker 20 may be a general-purpose information processing device such as a smartphone, a tablet, or a personal computer.
  • the smart speaker 20 may be configured by a combination of a general-purpose information processing device such as a personal computer and an external microphone, speaker and camera.
  • the management server 30 includes a CPU 31, a main storage device 32, an auxiliary storage device 33, a communication unit 34, and a bus.
  • CPU 31 is an arithmetic and control unit that executes the program of the present embodiment.
  • the CPU 31 one or more CPUs, a multi-core CPU, or the like is used.
  • the CPU 31 is connected via a bus to each component of the hardware constituting the management server 30.
  • the main storage device 32 is a storage device such as an SRAM, a DRAM, and a flash memory. In the main storage device 32, information necessary during the processing performed by the CPU 31 and a program being executed by the CPU 31 are temporarily stored.
  • the auxiliary storage device 33 is a storage device such as an SRAM, a flash memory, or a hard disk.
  • the auxiliary storage device 33 stores a speaker DB (Database) 41, an introduction facility DB 42, a recommendation model 48, a program to be executed by the CPU 31, and various data necessary for executing the program.
  • the recommended model 48 will be described later.
  • the speaker DB 41, the introduction facility DB 42, and the recommendation model 48 may be recorded in an external large-capacity storage device connected to the management server 30 or another server connected to the management server 30 via a network.
  • the communication unit 34 is an interface for performing data communication between the management server 30 and the network.
  • the management server 30 is a general-purpose information processing device such as a personal computer or a server machine.
  • the management server 30 may be a virtual machine operating on a large computer.
  • the management server 30 may be configured by combining a plurality of computers or server machines.
  • the voice response server 14 is an information processing device that acquires voice data from the smart speaker 20, performs processing such as voice recognition, and transmits voice data relating to a response to the smart speaker 20.
  • the PMS server 15 is an information processing device that manages the PMS.
  • the voice response server 14 and the PMS server 15 are general-purpose information processing devices such as a personal computer or a server machine.
  • the voice response server 14 and the PMS server 15 may be virtual machines operating on a large computer.
  • the voice response server 14 and the PMS server 15 may be configured by combining a plurality of computers or server machines.
  • FIG. 3 is an explanatory diagram illustrating the record layout of the PMSDB.
  • the PMSDB is a DB that records, among the information recorded in the PMS server 15, information relating to a user who is staying at an accommodation facility and making a reservation.
  • the PMSDB has a date field, an accommodation facility field, a guest field, and a status field.
  • the accommodation facility field has a name field and a room number field.
  • the guest field has a representative field, a number of accompanying persons field, a relation field, and a special note field.
  • the representative field has a name field, an age field, an address field, a gender field, and a nationality field.
  • the date is recorded in the date field.
  • the name of the accommodation facility is recorded in the name field.
  • the room number field records the room number of the guest room.
  • the name field records the name of the representative.
  • the age field records the age of the representative.
  • In the address field, the address of the representative is recorded.
  • the gender field records the gender of the representative.
  • the nationality field records the nationality of the representative.
  • the number of guests accompanying the representative is recorded in the number of accompanying guests field.
  • the relationship field records the relationship between the representative and the accompanying person.
  • special instructions regarding the guest are recorded in the special instructions field.
  • the status field records the status of the guest.
  • the information recorded in each subfield of the guest field is an example of the guest attribute related to the guest attribute.
  • $ PMSDB has one record for one guest room.
  • the data in each subfield of the guest field is acquired at the time of accepting a reservation, or is input by a receptionist at the time of check-in. For a guest who has stayed in the past, it may be acquired from data recorded at the time of past stay.
  • FIG. 4 is an explanatory diagram illustrating the record layout of the speaker DB 41.
  • the speaker DB 41 is a DB that records a speaker ID (Identifier) uniquely assigned to the smart speaker 20 and an installation location in association with each other.
  • a speaker ID is used as a specific example of identifying the smart speaker 20, but the user interface identifier for identifying the user interface may be any information for identifying the user interface. It may be a room number of a guest room where the user interface is installed, an IP address assigned to the user interface, or the like.
  • the speaker DB 41 has a speaker ID field and an installation location field.
  • the installation location field has an accommodation facility name field and a room number field.
  • the speaker ID is recorded in the speaker ID field.
  • the name of the accommodation facility is recorded in the accommodation facility name field.
  • the room number field records the room number of the guest room.
  • the speaker DB 41 has one record for one smart speaker 20.
  • FIG. 5 is an explanatory diagram illustrating the record layout of the introduction facility DB 42.
  • the introduction facility DB 42 is a DB that records the introduction facility ID uniquely assigned to the introduction facility introduced by the accommodation facility to the guest and the detailed information in association with each other.
  • the introduction facility DB 42 has an accommodation facility name field, an introduction facility ID field, a name field, and a facility detail field.
  • the facility details field includes a type field, a field within a facility, a member field, a feature field, and a URL (Uniform @ Resource @ Locator) field.
  • the name of the accommodation facility is recorded in the accommodation facility name field.
  • an introduction facility ID is recorded in the introduction facility.
  • the name field records the name of the referral facility.
  • the type field records the type of facility. In the accommodation facility field, whether or not the facility is an accommodation facility is recorded. That is, if the facility is in the accommodation facility, “YES” is recorded in the accommodation facility field. If the facility is outside the accommodation facility, “NO” is recorded in the accommodation facility field.
  • a facility in which “YES” is recorded in the accommodation facility field is an example of a facility provided in the accommodation facility.
  • the member field records whether or not the user is a member of a specific group.
  • the group is, for example, a group of facilities for tourists hosted by accommodation facilities, where “YES” indicates a facility that is a paying member, and “NO” indicates other facilities.
  • the group may be a local tourist association or a local shopping street.
  • the feature field records the features of the facility, such as the languages that can be supported and the services that can be provided.
  • a URL of a WEB (World Wide Web) site for displaying an advertisement of the facility on the touch panel 25 is recorded.
  • FIG. 6 is an explanatory diagram for explaining the outline of the recommendation model 48.
  • the recommendation model 48 is a model that receives input data relating to a user and outputs output data.
  • the input data includes the user's attributes, the user's request, and the user's emotion estimated by analyzing the user's voice.
  • the attribute of the user includes the matter recorded in each subfield of the guest field described with reference to FIG.
  • the attributes of the user may include a check-in time, a check-out time, a reservation method, a method of paying a room charge, and the like.
  • the user's request is a question item obtained by voice analysis of the user's request, such as “Japanese food store”, “convenience store” or “drug store”.
  • the user's emotion is, for example, “relax”, “angry”, “hurry”, “hungry” or “unwell”.
  • the emotion of the user may be expressed using a combination ratio of a plurality of emotions, such as “80% anger, 20% hungry”.
  • the input data may include weather and traffic information. For example, when the weather is bad, the recommendation model 48 outputs output data with a low degree of recommendation for a facility having a long moving distance on foot. When the train is delayed, the recommendation model 48 outputs output data in which the degree of recommendation of the facility where the train is a transportation means is small.
  • the input data may include room environment, such as room temperature, humidity, lighting color and brightness, and TV volume. For example, when the lighting in the guest room is dark, the recommendation model 48 outputs output data in which the degree of recommendation of the bar whose lighting has been reduced is high.
  • the output data is an introduction facility ID of a facility to be introduced to the user and a score indicating the degree of recommendation.
  • the recommendation model 48 creates, for example, a facility introduced by a veteran concierge with respect to various input data by machine learning such as deep learning based on teacher data collected by a questionnaire to the concierge.
  • the recommendation model 48 may be a program or the like that codes a decision tree that determines a facility to be introduced based on input data.
  • a specific example of collection of teacher data will be described. Show input data about one user to a veteran concierge.
  • the concierge responds by determining the facility to be introduced to the user.
  • the concierge may reply with only one facility to be introduced or rank or score a plurality of facilities.
  • the answer by the concierge is recorded in association with the input data, and is used as teacher data for machine learning.
  • the input data in the teacher data is used as an explanatory variable, and the answer is used as an objective variable.
  • the explanatory variable is input to the neural network, the parameters of the neural network are adjusted so that the output of the neural network approaches the objective variable.
  • a recommendation model 48 that outputs an answer that is close to the judgment of a veteran concierge, that is, a facility that is desirably introduced to a user related to the input data is created.
  • a specific example will be described using the record relating to room 334 in FIG. 3 as an example. If Mr. Wang Min, or a companion, is staying in a family of four with two infants, and asks for a restaurant to eat dinner, a veteran concierge will provide a restaurant with a private room or a casual restaurant. Here are some restaurants that are easy to enter. Similarly, if “Wang Min” or a companion asks for a sightseeing tour, a veteran concierge will introduce a sightseeing tour that can be enjoyed by young children.
  • the veteran concierge will take into account the couple's preferences and consider, for example, a restaurant with a beautiful night view. Introducing restaurants suitable for anniversaries. If you ask for a sightseeing tour, the veteran concierge will introduce a sightseeing tour for adults.
  • the veteran concierge gives different answers depending on the composition of the accompanying person, even if the representative is the same.
  • a recommendation model 48 that outputs an appropriate answer reflecting the structure of the accompanying person is realized.
  • the companion's detailed information can be added to the teacher data.
  • the recommendation model 48 that outputs a more appropriate answer according to the combination of the representative and the accompanying person is realized.
  • FIG. 7 is a sequence diagram showing an outline of the operation of the information processing system 10.
  • the user inputs a request to the smart speaker 20 by voice in a natural language such as “Tell me a Japanese restaurant”.
  • the sound is acquired by the microphone 26 (Step S501).
  • the CPU 21 transmits, to the voice response server 14, voice data obtained by converting the obtained voice to an electric signal, an image captured by the camera 28, and a speaker ID (step S502).
  • the voice response server 14 performs voice recognition based on the voice data and converts the user's request into a character string (step S511).
  • the voice response server 14 performs a semantic analysis based on the converted character string and determines the meaning of the user's request (step S512).
  • the voice response server 14 performs an emotion analysis for estimating the user's emotion at the time of speech based on the voice data (step S513).
  • a known method can be used for voice recognition, semantic analysis, and emotion analysis, and a detailed description thereof will be omitted.
  • emotion analysis information such as voice tone and speed may be used.
  • the voice response server 14 is based on the semantic analysis result and the emotion analysis result. It is determined whether there is an inquiry to the management server 30 (step S514). For example, when the user requests general information such as weather forecast or traffic information, the voice response server 14 determines that the inquiry to the management server 30 is unnecessary.
  • the voice response server 14 collects information from a web service or the like via the network and creates voice data for responding to the user.
  • the voice response server 14 transmits voice data to the smart speaker 20, and a response is output from the smart speaker 20 by voice. Since the process performed by the voice response server 14 when not making an inquiry to the management server 30 is known, the detailed description thereof will be omitted.
  • the voice response server 14 determines that an inquiry to the management server 30 is necessary.
  • the voice response server 14 transmits the request from the user and the emotion of the user obtained by analyzing the voice data, the image captured by the camera 28, and the speaker ID to the management server 30 (step S521).
  • the CPU 31 sequentially searches the speaker DB 41 and the PMSDB based on the speaker ID, and acquires the user attribute (step S522). When a plurality of persons stay in the same room, the CPU 31 determines a user who is a speaker based on an image captured by the camera 28.
  • the CPU 31 inputs the attributes, requests, and emotions of the user to the recommendation model 48 described with reference to FIG. 6, and acquires the introduced facility IDs of the facilities to be introduced to the user and their scores (step S523).
  • the CPU 31 extracts a predetermined number of introduced facility IDs based on, for example, scores.
  • the predetermined number is desirably about three. This is because if there is only one facility to be introduced, the user is not given the pleasure of making a selection, and if there are too many facilities to be introduced, the user feels a burden.
  • the CPU 31 searches the introduction facility DB 42 by using the introduction facility ID as a key and extracts a record.
  • the CPU 31 transmits information such as a URL concerning the facility to be introduced to the user to the voice response server 14 (step S524).
  • Information such as a URL relating to a facility to be introduced to the user is an example of product service information output by the CPU 31.
  • the CPU 31 may select an introduction facility ID related to the introduction facility to be introduced to the user from the introduction facility ID acquired from the recommendation model 48 based on a predetermined condition. For example, when there is information related to an introduced facility where a campaign that is not reflected in the recommendation model 48 is performed, the CPU 31 may preferentially introduce such a facility to the user.
  • the voice response server 14 creates a response using natural voice based on the received information (step S531).
  • the voice response server 14 transmits the voice data of the answer and the URL of the facility to be introduced to the smart speaker 20 (step S532).
  • the CPU 21 displays an image on the touch panel 25 based on the received URL and outputs sound from the speaker 27 (step S533).
  • the user operates the touch panel 25 to compare information on a plurality of introduced facilities.
  • the CPU 21 may perform processing such as reading out information displayed on the touch panel 25 and displaying a linked web site.
  • FIG. 8 is a flowchart illustrating the flow of processing of a program. The flow of the processing performed by the CPU 31 in a portion surrounded by a broken line in FIG. 7 will be described more specifically with reference to FIG.
  • the CPU 31 receives the request from the user, the emotion of the user, and the speaker ID transmitted by the voice response server 14 in step S521 described above (step S551).
  • the CPU 31 searches the speaker DB 41 using the received speaker ID as a key, and acquires the name of the accommodation facility and the room number where the smart speaker 20 is installed (step S552).
  • the CPU 31 transmits the name of the accommodation facility and the room number to the PMS server 15 and requests the attribute of the user (step S553).
  • the CPU 31 receives the attribute of the user from the PMS server 15 (step S554).
  • the CPU 31 performs face recognition of the photographed person based on the image data photographed by the camera 28, and estimates age, gender, and the like.
  • the CPU 31 determines the attribute of the speaker based on the attribute of the user received in step S554 and the estimated age, gender, and the like (step S555).
  • the CPU 31 determines that the sex of the speaker is a woman.
  • the CPU 31 determines that the speaker is the wife of the representative.
  • the CPU 31 determines that the gender of the speaker is a male and the representative registered in the PMSDB.
  • the CPU 31 may determine the attribute of the speaker by combining the image captured by the camera 28 and the voice quality of the voice acquired by the speaker 27.
  • the CPU 31 inputs the user's request and emotion received in step S551 and the attribute of the speaker estimated in step S555 to the recommendation model 48 (step S556).
  • the CPU 31 acquires the introduced facility IDs and the respective scores output from the recommendation model 48 (step S557).
  • the CPU 31 extracts a predetermined number of introduced facility IDs based on, for example, scores.
  • the CPU 31 searches the introduction facility DB 42 using the introduction facility ID as a key and extracts a record.
  • the CPU 31 transmits information such as a URL concerning the facility to be introduced to the user to the voice response server 14 (step S558).
  • Information such as a URL relating to a facility to be introduced to the user is an example of product service information output by the CPU 31.
  • the information processing system 10 that makes a response according to the attribute of the user using the guest room via the smart speaker 20 arranged in the guest room of the accommodation facility.
  • the smart speaker 20 By using the smart speaker 20, a user can easily request information in a natural language. For example, even a user who is not good at operating an information device such as a smartphone or a personal computer can use the sound without feeling resistance.
  • the information processing system 10 that guides safe facilities to guests with little intuition of land can be provided. .
  • the recommendation model 48 it is possible to provide the information processing system 10 that introduces facilities according to the attributes of the user, similarly to the veteran concierge.
  • the present embodiment by acquiring the user attributes from the PMS server 15, it is possible to provide the information processing system 10 that saves the user himself / herself from inputting preferences and constraints.
  • the attribute of the speaker is determined based on the information recorded in the PMS and the image captured by the camera 28. Therefore, even if a plurality of guests are staying in the same room, The information processing system 10 that makes a response according to the attribute of the user who made the request can be provided. If the room is a single room, the CPU 31 stores the attribute of the user received in step S554 in the auxiliary storage device 33 in association with the room number. May be omitted.
  • the voice response server 14 can process a plurality of languages. For example, when a user makes a request in Russian, a guest in Russian-speaking country can easily obtain information by responding in Russian.
  • the voice response server 14 may perform automatic voice translation in cooperation with, for example, an external translation service via a network.
  • the CPU 31 adds information indicating that the user is a Russian speaker to the input data to be input to the recommendation model 48 in step S556, so that information suitable for a Russian-speaking user can be acquired in step S557. Furthermore, it is desirable to convert characters in the video displayed on the touch panel 25 into Russian using machine translation or the like.
  • the image captured by the camera 28 may be transmitted from the smart speaker 20 to the management server 30 without passing through the voice response server 14. By doing so, the communication traffic amount can be reduced.
  • the smart speaker 20 does not have to include the camera 28. Even in such a case, in step S555, the CPU 31 can determine the speaker based on the voice quality of the user.
  • the smart speaker 20 may not include the display unit 251. In such a case, the smart speaker 20 provides information to the user only by voice and accepts an operation by the user.
  • the CPU 31 When a facility that sufficiently satisfies the user's request is not recorded in the facility introduction DB 42, or when the user desires, the CPU 31 extracts a facility to be introduced to the user by a WEB search or the like, and outputs the facility to the smart speaker 20. Is also good. In this case, the CPU 31 may acquire information from, for example, an affiliated restaurant introduction site and output the information to the smart speaker 20. The CPU 31 may cause the smart speaker 20 to output information on these facilities (for example, advertisement information).
  • the present embodiment relates to an information processing system 10 that accepts reservations for introduced facilities.
  • the description of the parts common to the first embodiment is omitted.
  • FIG. 9 is a flowchart illustrating the flow of processing of a program according to the second embodiment.
  • the processing up to step S558 is the same as the processing flow of the first embodiment described with reference to FIG.
  • the CPU 31 determines whether a reservation request for a facility introduced by a user via the smart speaker 20 has been received (step S561).
  • the reservation request is received, for example, by selecting a reservation button displayed on the touch panel 25.
  • the CPU 31 may receive the reservation request by voice via the voice response server 14 and the smart speaker 20.
  • step S561 When determining that the reservation request has not been received (NO in step S561), the CPU 31 ends the process thereafter. If it is determined that the reservation request has been received (YES in step S561), the CPU 31 determines whether or not the facility requested by the user to be reserved is a facility that can be reserved online (step S562).
  • CPU 31 If it is determined that the facility is not an online-reservable facility (NO in step S562), CPU 31 notifies the staff of the accommodation facility that the guest requests the reservation and the target facility (step S571).
  • the notification is displayed, for example, on the screen of a personal computer installed at the front desk.
  • the staff of the accommodation facility performs a so-called concierge service such as making a reservation for the facility on behalf of the user.
  • the CPU 31 thereafter terminates the processing.
  • the CPU 31 receives detailed information on the reservation from the user via the smart speaker 20 (step S563).
  • CPU 21 causes touch panel 25 to display an input form for receiving an input of a reservation time, the number of people, and the like, and receives an input by the user.
  • the CPU 21 may have a conversation with the user via the chatbot and receive detailed information on the reservation.
  • the CPU 31 transmits the detailed information on the reservation to the reservation target facility or the reservation site (step S564).
  • the CPU 31 receives reception information such as a reservation number indicating that the reservation has been received (step S565).
  • the CPU 31 determines whether or not the advance payment of the reservation money is necessary (step S566).
  • the information on the necessity of the deposit is included in the reception information received in step S565, for example.
  • Information on the necessity of the reservation fee may be included in the introduction facility DB 42.
  • step S566 When it is determined that the advance payment of the reservation money is not necessary (NO in step S566), the CPU 31 transmits the reception information to the smart speaker 20 (step S567). The CPU 31 thereafter terminates the processing.
  • the reception information is displayed on the touch panel 25 or output from the speaker 27.
  • the CPU 31 may acquire the user's mail address or messenger ID in step S563, and output the reception information via mail or messenger.
  • the CPU 31 may acquire the telephone number of the user in step S563 and output the reception information by SMS (Short Message Service).
  • CPU 31 transmits the reception information and the settlement request to smart speaker 20 (step S568). The CPU 31 thereafter terminates the processing.
  • the settlement of the deposit is performed by a two-dimensional bar code for settlement acquired through, for example, an online settlement company.
  • CPU 31 displays a two-dimensional barcode on touch panel 25 based on the settlement request transmitted in step S568.
  • Payment is performed by the user taking a barcode with a smartphone or the like and performing a predetermined operation.
  • the CPU 31 may display, on the touch panel 25, a request to hold the payment two-dimensional barcode over the camera 28 based on the payment request transmitted in step S568. Payment is performed by the CPU 31 transmitting the two-dimensional barcode photographed via the camera 28 to the online payment company.
  • the CPU 31 may output a payment screen of a credit card company and receive an input from a user.
  • the CPU 31 may output, to the touch panel 25, a confirmation screen relating to the settlement of the reservation money by attaching a room.
  • the information processing system 10 in which the user can easily reserve a facility introduced via the smart speaker 20.
  • a facility that does not have an online reservation system such as a local private business store, can provide a reservation service to the user by notifying the staff of the accommodation facility.
  • FIG. 10 is an explanatory diagram for explaining the record layout of the guidance history DB.
  • the guidance history DB is a DB recorded in the auxiliary storage device 33.
  • the guidance history DB may be recorded in an external large-capacity storage device connected to the management server 30 or another server connected to the management server 30 via a network.
  • the guidance history DB is a DB that records a speaker ID, guidance information output from the smart speaker 20 corresponding to the speaker ID, and whether or not the user has used the information.
  • the guidance history DB has a guidance ID field, a speaker ID field, and a usage record field.
  • the usage record field includes a date and time field, an introduction facility ID field, a reservation field, a coupon field, and a facility usage field.
  • the reservation field has a reception field, a settlement information field, and a reservation visit field.
  • the coupon field has a coupon ID field and a use field.
  • a guidance ID uniquely assigned to each guidance via the smart speaker 20 is recorded.
  • the speaker ID is recorded in the speaker ID field.
  • the date and time field the date and time at which the CPU 31 transmitted the information on the introduction facility to be introduced to the user in step S558 shown in FIGS. 8 and 9 is recorded.
  • the introduction facility ID field an introduction facility ID is recorded.
  • the reception field records whether or not a reservation request has been received from the user. "Available” means that a reservation request has been received, and “None” means that a reservation request has not been received. When a reservation request is received from the user but the reservation is not established, “impossible” is recorded in the reception field.
  • the payment information field records payment information when the reservation is settled at the time of reservation.
  • the payment information is, for example, information relating to a credit card or an account number of an online payment service. "Room assignment" means that the user pays a fee together with the accommodation fee.
  • the reservation visit field records whether the reserved user has visited the store. “Yes” indicates that the user who made the reservation came to the store as reserved. "-" Indicates that the reservation is not accepted. If the user who made the reservation does not come to the store, “unauthorized cancellation” is recorded in the reservation visit field.
  • the information recorded in the reservation visit field is an example of the result of the use of the user related to the reservation.
  • coupon ID field a coupon ID uniquely assigned to the coupon issued when guiding the user to the facility is recorded.
  • the coupon is displayed on touch panel 25 in the form of a two-dimensional barcode including information on the coupon ID, for example.
  • the user can acquire the displayed coupon by photographing a two-dimensional barcode using a smartphone or the like.
  • the coupon may be output by a printer installed in the guest room.
  • the coupon may be output from a printer installed at the front desk, and may be handed by front desk staff when the user goes out.
  • the use field records whether or not the issued coupon is used.
  • the facility use field records whether the user uses the facility. "Available” means that the user has used the facility, “None” means that the user is not using the facility, and "Unknown” means that the use of the facility cannot be determined. For example, when the user actually goes to the reserved facility, “Yes” is recorded based on the communication from the facility. When a reservation is received, “Yes” is automatically recorded, and when an inquiry indicating that a user does not come from a facility is received, the status may be changed to “No”.
  • the information recorded in each subfield of the usage record field is an example of information relating to the usage record of the information processing system 10.
  • FIG. 11 is an explanatory diagram illustrating an example of a report screen.
  • FIG. 11 is an example of a report based on the guidance history DB described with reference to FIG.
  • the horizontal axis indicates the month, and the vertical axis indicates the difference between the number of reservations and the target number.
  • the report shown in FIG. 11 is an example.
  • the user can create a report with a desired graph using, for example, general-purpose spreadsheet software. Software that automatically creates a report in a predetermined format may be used.
  • FIG. 12 is a flowchart illustrating the flow of processing of a program according to the third embodiment.
  • the program shown in FIG. 12 is a program executed at a predetermined point calculation cycle such as once a month, for example.
  • the CPU 31 performs initialization for setting the introduction facility point and the accommodation facility point to the initial value of zero (step S601).
  • the CPU 31 acquires one history record from the history DB (step S602).
  • the CPU 31 acquires a record in which the date and time within the predetermined point calculation cycle are recorded in the date and time field.
  • the CPU 31 searches the introduction facility DB 42 using the introduction facility ID recorded in the introduction facility ID field of the history record as a key, and determines whether or not the user is a member by referring to the member field of the extracted record (step S603). .
  • the CPU 31 calculates points related to the record acquired in step S602 (step S604).
  • the points are calculated by allocating points for each item, for example, one point for display on the touch panel 25, one point for issuing a coupon, one point for using a coupon, three points for receiving a reservation request, two points for advance settlement, and the like. .
  • the CPU 31 adds the calculated points to the introduced facility points related to the introduced facility corresponding to the introduced facility ID field of the history record acquired in step S602 (step S605).
  • the CPU 31 searches the speaker DB 41 to extract the record by using the speaker ID recorded in the speaker ID field of the record acquired in step S602 as a key, and extracts the accommodation facility name recorded in the accommodation facility name field (step S606). ). The CPU 31 adds the accommodation facility point to the accommodation facility point associated with the extracted accommodation facility name (step S607).
  • Accommodation points are determined at a fixed rate, for example, 10% of the points calculated in step S604.
  • the accommodation facility points may be determined by any other function or constant.
  • the accommodation facility points may be calculated for each individual accommodation facility, or may be calculated for an arbitrary group such as a chain shop group of the accommodation facilities.
  • the CPU 31 determines whether or not the processing of the history record has been completed (step S608). If it is determined that the processing of the history record corresponding to the predetermined point calculation cycle has not been completed (NO in step S608), or if it is determined that the user is not a member (NO in step S603), CPU 31 returns to step S602. .
  • the CPU 31 calculates a fee charged to each of the introduced facilities based on the introduced facility points (step S611).
  • the commission may be determined based on an arbitrary rule such as, for example, a predetermined fixed amount when exceeding a predetermined point, or a free charge up to a predetermined point.
  • the commission is an example of a fee paid by a facility introduced to a guest via the information processing system 10.
  • Fees are not limited to fees. For example, a system usage fee, a system management fee, or an introduction fee may be used.
  • the CPU 31 transmits the billing information for each referral facility (step S612).
  • the billing information may be transmitted, for example, by transmitting a bill to a person in charge of each referral facility or transmitting a billed amount to a settlement company such as a credit card company.
  • the CPU 31 may transmit the billing information to the management staff of the information processing system 10, and the management staff may issue and dispatch the bill.
  • the CPU 31 calculates a rebate to be paid to each accommodation facility where the smart speaker 20 is installed in the guest room based on the accommodation facility points (step S613).
  • the rebate may be determined based on an arbitrary rule, such as increasing the amount per point when a predetermined point is exceeded, or setting it to zero when the predetermined point is not reached.
  • the CPU 31 performs rebate remittance processing (step S614).
  • the remittance processing is, for example, a remittance instruction to a predetermined financial institution.
  • the CPU 31 may transmit remittance information to the management staff of the information processing system 10, and the management staff may perform a rebate remittance procedure. Thereafter, the CPU 31 ends the processing.
  • the information processing system 10 that automatically calculates the fee charged to the referral facility according to the number of referrals and the like, and charges the fee. According to the present embodiment, it is possible to provide the information processing system 10 that automatically calculates the rebate for the accommodation facility where the smart speaker 20 is installed and performs the payment process.
  • the recommendation model 48 may be updated by performing machine learning using the guidance content recorded in the guidance history DB, the attribute of the user who output the guidance, and the presence or absence of use of the user as teacher data. By appropriately updating the recommendation model 48, it is possible to provide the information processing system 10 that can respond to a change in fashion or the like.
  • the present embodiment relates to an information processing system 10 that controls an environment in a guest room based on a voice acquired from a smart speaker 20 and an attribute of a guest.
  • the description of the parts common to the first embodiment is omitted.
  • FIG. 13 is an explanatory diagram for explaining the outline of the recommendation model 48 according to the fourth embodiment.
  • the input data is the user's attributes, the user's instructions, the user's emotions estimated by analyzing the user's voice, and the like.
  • the input data may include weather, traffic information, and the like.
  • the output data is, for example, room environment such as room temperature, humidity, lighting color and brightness, and television volume. In the present embodiment, these environments are controlled based on instructions from CPU 21 or CPU 31.
  • FIG. 14 is a flowchart illustrating the flow of processing of a program according to the fourth embodiment.
  • the program shown in FIG. 14 is executed for each guest room when the check-in of the guest is received.
  • the CPU 31 transmits the name of the accommodation facility and the room number to the PMS server 15 and requests the attribute of the user (step S621).
  • the CPU 31 receives the attribute of the user from the PMS server 15 (step S622).
  • the CPU 31 determines the number of guests in the guest room based on the attributes of the user and the image data captured by the camera 28 (step S623).
  • the CPU 31 may determine the number of persons based on an output of a human sensor or the like installed at a door or the like of a passenger room.
  • the CPU 31 estimates the attributes of each user in the guest room based on the attributes, the number of users, and the image data captured by the camera 28 (step S624).
  • the CPU 31 inputs the attribute of one user estimated in step S624 to the recommendation model 48 (step S625).
  • the CPU 31 also inputs these information to the recommendation model 48.
  • the CPU 31 acquires the recommended environment output from the recommendation model 48 (step S626). The CPU 31 determines whether or not the processing has been completed for all the guests in the room (step S627). If it is determined that the processing has not been completed (NO in step S627), the CPU 31 returns to step S625.
  • CPU 31 determines a recommended environment for the guest room (step S628). For example, the CPU 31 determines recommended environments by averaging the recommended environments for each of a plurality of users. The CPU 31 may determine a recommended environment for a specific user such as an infant as a recommended environment for a guest room. The CPU 31 controls devices such as an air conditioner in the guest room to adjust the state of the guest room to the recommended environment (step S629).
  • the CPU 31 determines whether or not a change in the environment setting has been received from the user via the smart speaker 20 and the voice response server 14 (step S631). If it is determined that the change has been accepted (YES in step S631), CPU 31 changes the environment setting based on an instruction from the user. The CPU 31 records the received instruction in the auxiliary storage device 33 (Step S632). The CPU 31 returns to step S629.
  • step S633 determines whether to end the processing. For example, when a check-out is received, the CPU 31 determines to end the processing. If it is determined that the processing is to be ended (YES in step S633), CPU 31 ends the processing.
  • CPU 31 determines whether there is entry into or exit from a guest room (step S634).
  • the presence / absence of entry / exit is determined based on the image captured by the camera 28 and the voice acquired by the speaker 27.
  • the CPU 31 may determine the presence / absence of entry / exit based on an output of a human sensor or the like installed at a door or the like of a guest room.
  • step S634 If it is determined that there is no entry / exit (NO in step S634), CPU 31 returns to step S631. If it is determined that there is entry / exit (YES in step S634), CPU 31 returns to step S623.
  • the information processing system 10 that automatically controls the environment of the guest room according to the attribute of the guest. For example, when a guest from a country that prefers stronger cooling down checks in, CPU 31 quickly increases the cooling strength.
  • the environment of the guest room can be set to a state that suits the guest's preference by using the time until the guest arrives at the guest room.
  • the present embodiment relates to an information processing system 10 that can be used in places other than guest rooms, such as the front of accommodation facilities.
  • the description of the parts common to the first embodiment is omitted.
  • FIG. 15 is an explanatory diagram illustrating a record layout of the user DB.
  • the user DB is a DB recorded in the auxiliary storage device 33.
  • the user DB may be recorded in an external mass storage device connected to the management server 30 or in another server connected to the management server 30 via a network.
  • the user DB is a DB that records a user ID uniquely assigned to a user, basic information, accommodation information, biometric authentication data, and user preferences in association with each other.
  • the user DB records information on users who have used the accommodation facility in the past, in addition to users staying at the accommodation facility.
  • the user DB has a user ID field, a basic information field, an accommodation information field, a biometric data field, and a preference field.
  • the basic information field has subfields such as a name field and an age field.
  • the accommodation information field has a room number field. If a common user DB is used in an accommodation facility chain including many accommodation facilities, the accommodation information field includes an accommodation facility name field.
  • the biometric authentication data field includes a face authentication field and a voiceprint authentication field.
  • the biometric authentication field may further include an iris authentication field, a fingerprint authentication field, and the like.
  • the preference field includes a like field and a dislike field.
  • the user ID field stores a user ID uniquely assigned to the user.
  • basic information about the user such as the user's name and age, is recorded.
  • the room number field records the room number in which the user is staying. For users who are not staying, "none" is recorded in the room number field.
  • the face authentication field records face authentication data used for identifying a user based on an image captured by the camera 28.
  • voiceprint authentication data used for identifying a user based on the voice acquired by the microphone 26 is recorded.
  • the favorite field records what the user likes obtained from questionnaires to the user and past requests from the user.
  • the dislike field what the user dislikes acquired from the questionnaire to the user and the user's past requests and the like are recorded.
  • FIG. 16 is a flowchart illustrating the flow of processing of a program according to the fifth embodiment.
  • the illustration of the processing performed by the voice response server 14 is omitted.
  • the CPU 21 detects the approach of the user from the image captured by the camera 28 (step S641).
  • the CPU 21 transmits the image photographed by the camera 28 to the management server 30 (Step S642).
  • the CPU 31 receives the image (step S701).
  • the CPU 31 detects a user's face included in the image.
  • the CPU 31 performs face authentication based on the detected face and the face authentication information recorded in the face authentication field of the user DB (step S702).
  • CPU31 is, for example, "Hello. There is? The place you want to go,” the greeting such as the output from the speaker 27 (step S643).
  • the CPU 31 acquires the voice uttered by the user (step S644).
  • the CPU 31 transmits voice data to the management server 30 via the voice response server 14 (Step S645).
  • the CPU 31 receives the voice data and the request and emotion of the user analyzed by the voice response server 14 (step S703).
  • the CPU 31 performs voiceprint authentication based on the voice data and the voiceprint authentication information recorded in the voiceprint authentication field of the user DB (step S704).
  • the CPU 31 determines whether or not the user can be specified based on the face authentication performed in step S702 and the voiceprint authentication performed in step S704 (step S705). For example, when the results of the face authentication and the voiceprint authentication match, the CPU 31 determines that the user can be specified. The CPU 31 also determines that the user can be specified when one of the face authentication and the voiceprint authentication succeeds with high accuracy.
  • the CPU 31 may acquire the room number from the room key held by the user over the camera 28. In this case, the CPU 31 can specify the room number where the user stays without using the user DB. The CPU 31 may determine whether the room number acquired from the room key matches the result of the user's face authentication or voiceprint authentication. If they do not match, there is a possibility that the suspicious individual may have a room key, so the CPU 31 notifies the staff of the accommodation facility.
  • step S705 If it is determined that the user has been successfully identified (YES in step S705), the CPU 31 sends the user DB such as the presence or absence of the user accompanying the user from the PMS server 15 based on the room number recorded in the room number field of the user DB. An attribute that has not been recorded is acquired (step S706).
  • the CPU 31 inputs the user's request and emotion received in step S703, the information recorded in the basic information field of the user DB, and the user attribute acquired in step S706 to the recommendation model 48 (step S707).
  • the CPU 31 acquires the introduction facility ID and the score output from the recommendation model 48 (step S708).
  • step S705 If it is determined that the user identification has not been successful (NO in step S705), the CPU 31 acquires a predetermined facility corresponding to the request received in step S703 (step S711). After the end of step S708 or step S711, the CPU 31 transmits information such as a URL concerning the facility to be introduced to the user to the smart speaker 20 via the voice response server 14 (step S721).
  • the CPU 21 outputs sound for guidance from the speaker 27 and displays an image on the touch panel 25 (step S646). Thereafter, the CPU 21 ends the processing. If the user stays within the range detected by the smart speaker 20, the program described with reference to FIG. 16 is executed again.
  • the information processing system 10 that performs an appropriate response according to the attribute even to a user outside the guest room.
  • the information processing system 10 which responds to a user who is not recorded in the PMS because he or she uses a facility such as a restaurant but does not stay overnight is provided. Can be provided.
  • the information processing system 10 can be provided without making the user aware of personal authentication.
  • the information processing system 10 may be used, for example, in a restaurant at an accommodation facility for recommending food and wine to a user.
  • the recommendation model 48 outputs food, wine, and the like that can be provided in the restaurant.
  • the information processing system 10 may provide information to the user via the smart speaker 20 installed at, for example, the user's home, workplace, school, or public institution. It is possible to provide the information processing system 10 that continuously provides the service to the user recorded in the user DB by using the accommodation facility or the like.
  • Embodiment 6 The present embodiment relates to an information processing system 10 that controls a display device 56 installed in a guest room. The description of the parts common to the first embodiment is omitted.
  • FIG. 17 is an explanatory diagram illustrating the configuration of the information processing system 10 according to the sixth embodiment.
  • the information processing system 10 has a screen output information control device 50 and a display device 56 connected to the management server 30 via a network.
  • the smart speaker 20, the screen output information control device 50, and the display device 56 are arranged in a guest room.
  • the management server 30 is connected to the PMS server 15 via a private branch exchange (PBX) 16.
  • PBX private branch exchange
  • the screen output information control device 50 includes a CPU 51, a main storage device 52, an auxiliary storage device 53, a communication unit 54, a display device I / F 55, and a bus.
  • the CPU 51 is an arithmetic and control unit that executes the program according to the present embodiment. As the CPU 51, one or more CPUs or a multi-core CPU is used.
  • the CPU 51 is connected to each unit of hardware configuring the management server 30 via a bus.
  • the main storage device 52 is a storage device such as an SRAM, a DRAM, and a flash memory.
  • the main storage device 52 temporarily stores information required during the processing performed by the CPU 51 and a program being executed by the CPU 51.
  • the auxiliary storage device 53 is a storage device such as an SRAM, a flash memory, or a hard disk.
  • the auxiliary storage device 53 stores a program to be executed by the CPU 51 and various data necessary for executing the program.
  • the communication unit 54 is an interface for performing data communication between the screen output information control device 50 and the network.
  • the display device I / F 55 is an interface that connects the screen output information control device 50 and the display device 56.
  • the connection between the display device I / F 55 and the display device 56 may be a wired connection or a wireless connection.
  • the screen output information control device 50 is a general-purpose information processing device such as a personal computer, a tablet, or a smartphone.
  • the screen output information control device 50 may be an information processing device dedicated to the information processing system 10.
  • the display device 56 and the screen output information control device 50 may be an integrated device.
  • the display device 56, the screen output information control device 50, and the smart speaker 20 may be an integrated device.
  • the display device 56 is a so-called touch panel display in which the display unit 562 and the input unit 561 are stacked.
  • the display device 56 is, for example, a liquid crystal display device or an organic EL (Electro-Luminescence) display device, and has a display portion 562 that is larger than the touch panel 25.
  • the display device 56 may also serve as a television.
  • the PBX 16 is an exchange that controls an extension telephone in the accommodation facility and controls connection with an external telephone.
  • the management server 30 can acquire information from the PMS server 15 via the PBX 16 by transmitting a signal to the PBX 16 using a predetermined protocol.
  • FIG. 18 is a sequence diagram showing an outline of the operation of the information processing system 10 according to the sixth embodiment.
  • the operation up to step S523 is the same as the operation described using FIG.
  • the CPU 31 inputs the attributes, requests, and emotions of the guest into the recommendation model 48, and acquires the introduced facility IDs of the facilities to be introduced to the guest and their respective scores (step S523).
  • the CPU 31 searches the introduction facility DB 42 by using the introduction facility ID as a key and extracts a record.
  • the CPU 31 transmits information such as a URL relating to the facility to be introduced to the guest to the voice response server 14 (step S524).
  • the CPU 31 transmits information such as a URL concerning the facility to be introduced to the guest to the screen output information control device 50 (step S661).
  • Step S524 and step S661 may be performed simultaneously, or one of them may be performed first.
  • the screen output information control device 50 creates an answer screen in which information on facilities to be introduced to the guest is laid out appropriately based on the received information (step S662).
  • the voice response server 14 creates a response using natural voice based on the received information (step S531).
  • the voice response server 14 transmits the voice data of the answer and the URL of the facility to be introduced to the smart speaker 20 (step S532).
  • the voice response server 14 transmits voice data relating to the answer to the management server 30 (step S663).
  • the CPU 31 creates a caption corresponding to the audio data based on the received audio data (step S664).
  • the caption is created by summarizing the content of the audio data, for example, by performing a semantic analysis of the text generated by voice recognition of the audio data. By summarizing, the number of subtitles can be reduced to provide subtitles that are easy for the user to read.
  • the subtitle may be text in which audio data is directly converted into character information. Guests can see the same information in both the ears and eyes.
  • the CPU 31 transmits the created caption to the screen output information control device 50.
  • the CPU 51 displays the guidance screen created in step S662 and the received caption on the display unit 562 (step S665).
  • the CPU 21 displays an image on the touch panel 25 based on the received URL and outputs sound from the speaker 27 (step S533).
  • the guest operates the touch panel 25 or the input unit 561 to compare information on a plurality of introduced facilities. Based on an instruction from the guest, the CPU 21 may perform processing such as reading out the information displayed on the touch panel 25 and displaying a linked WEB site.
  • the voice response server 14 may create both a response using natural voice and subtitles summarizing the response in step S531. In such a case, the created caption is transmitted to the screen output information control device 50 via the management server 30.
  • the voice response server 14 may transmit text data obtained by converting voice data into text instead of voice data in step S663.
  • the CPU 31 performs semantic analysis of the text data received in step S664, summarizes the text data, and creates subtitles. Note that the CPU 31 may use the received text data as it is for the caption without summarizing in step S664.
  • FIGS. 19 and 20 are explanatory diagrams illustrating an example of a screen displayed on the display device 56.
  • FIG. FIG. 19 shows an example of a top screen displayed when the guest does not perform any operation.
  • a VOD (Video @ On @ Demand) button 711 On the top screen, a VOD (Video @ On @ Demand) button 711, a TV (Television) button 712, a service sightseeing information button 713, and an access information column 714 are displayed.
  • the top screen may display a welcome message, evacuation route guidance, and the like for the guest.
  • VOD button 711 When the VOD button 711 is selected, an output from a VOD system (not shown) is displayed on the display device 56.
  • TV button 712 When the TV button 712 is selected, a television screen acquired via a tuner (not shown) is displayed on the display device 56.
  • service sightseeing information button 713 When the service sightseeing information button 713 is selected, a screen showing in-house services, nearby sightseeing information, and the like, and a description of a method for asking a question via voice via the smart speaker 20 is displayed.
  • the access information column 714 displays information used when connecting a smartphone or the like brought by a guest to a wireless LAN (Local Area Network). On the top screen, a link or the like to the accommodation agreement may be displayed.
  • a wireless LAN Local Area Network
  • the CPU 51 causes the display device 56 to display a screen using a language according to the attribute of the guest.
  • the CPU 51 may determine the language to be used based on the language used by the guest.
  • FIG. 20 is a screen displayed on the display device 56 when the smart speaker 20 is operating in response to a request from a guest to “tell me a Japanese restaurant”.
  • the CPU 51 displays a list of Japanese restaurants recommended for the guest.
  • the screen shown in FIG. 20 also displays a link button to the WEB site of each restaurant and a link button to the map.
  • a caption field 715 is arranged at the bottom of the screen in FIG.
  • the CPU 51 displays a caption corresponding to the sound uttered by the smart speaker 20 in the caption field 715.
  • the guest can display information such as a map of the location of the restaurant and a telephone number on the display unit 562 by operating the input unit 561 such as tapping.
  • the operation of the display device 56 by tapping or the like is the same as that of an existing tablet or the like, and thus the detailed description is omitted.
  • the guest can check the introduced facility on a large screen.
  • the guest can check the contents of the guidance even when the utterance from the smart speaker 20 is missed.
  • the information processing system 10 that can be used by a guest with a hearing impairment.
  • the number of providers of the PBX 16 is smaller than that of the providers of the PMS server 15.
  • Embodiment 7 The present embodiment relates to an information processing system 10 that recommends contents such as VOD and television programs to guests. The description of the parts common to the sixth embodiment is omitted.
  • FIG. 21 is an explanatory diagram for explaining the outline of the recommendation model 48 according to the seventh embodiment.
  • the input data is the attributes of the guest, the guest's instructions, the guest's emotions, and the VOD or television selection by the guest.
  • the guest can use the VOD button 711 and the TV button 712 to select VOD or television.
  • the guest can also select the VOD button 711 and the TV button 712 by voice via the smart speaker 20 instead of operating the display unit 562.
  • the recommended model 48 outputs a score indicating a degree recommended to a guest about contents such as a movie and a television program that can be displayed on the display device 56. For example, when the guest selects the VOD button 711, the recommendation model 48 outputs a high score for content provided by a VOD system (not shown). When the guest selects the TV button 712, the recommendation model 48 outputs a high score for the viewable television program.
  • the recommendation model 48 outputs a score indicating the degree of recommendation regardless of whether the content is provided by the VOD system or a viewable television program.
  • the output of the recommendation model 48 is an example of information on the control content of the display device 56.
  • FIG. 22 is an explanatory diagram illustrating an example of a screen displayed on the display device 56 of the seventh embodiment.
  • FIG. 22 is an example of a screen displayed on the display device 56 by the CPU 51 when the guest does not explicitly select either the VOD button 711 or the TV button 712. From the recommendation model 48, a selection button 716 indicating a content for which a high score has been output is displayed.
  • the selection button 716 information for introducing the content, such as the name, logo, genre, review screen, introduction sentence, and broadcast time of each content is displayed.
  • the guest can view the information introducing the content and select the content to view.
  • the guest specifies the content to be viewed by tapping the display unit 562 or by voice.
  • the CPU 51 displays the specified content on the display device 56.
  • FIG. 23 is a sequence diagram showing an outline of the operation of the information processing system 10 according to the seventh embodiment.
  • the operation up to step S522 is the same as the operation described using FIG.
  • the CPU 31 inputs the attribute of the guest, the guest's instruction, the guest's emotion, and the VOD or TV selection by the guest into the recommendation model 48, and the content uniquely assigned to the content to be introduced to the guest.
  • the ID and the score of each content are obtained (step S671).
  • the CPU 31 acquires information for introducing the content corresponding to the content ID from a content server (not shown) (step S672).
  • the CPU 31 transmits information for introducing the content to be introduced to the guest to the voice response server 14 (step S673).
  • the CPU 31 transmits information for introducing the content to be introduced to the guest to the screen output information control device 50 (step S681).
  • Step S673 and step S681 may be performed simultaneously, or one of them may be performed first.
  • the CPU 51 displays, on the display device 56, a screen for displaying a list of contents to be introduced to guests described with reference to FIG. 22 (step S682).
  • the guest can view the information introducing the content and select the content to view.
  • the CPU 51 receives a selection by the user via the selection button 716 (step S683).
  • the CPU 51 transmits the result of the user's selection to the management server 30 (step S684).
  • the voice response server 14 creates an answer by natural voice based on the received information (step S674).
  • the voice response server 14 transmits the voice data of the answer and the URL of the facility to be introduced to the smart speaker 20 (step S675).
  • the CPU 21 displays an image on the touch panel 25 based on the received URL and outputs sound from the speaker 27 (step S676).
  • the guest operates the touch panel 25 or the input unit 561 to compare information on a plurality of introduced facilities. Based on an instruction from the guest, the CPU 21 may perform processing such as reading out the information displayed on the touch panel 25 and displaying a linked WEB site.
  • the CPU 51 accepts the selection by the user (step S677).
  • the CPU 21 transmits to the voice response server 14 voice data obtained by converting the obtained voice into an electric signal, a user instruction obtained from the touch panel 25, and a speaker ID (step S678).
  • the voice response server 14 determines the content requested by the user based on the received information (step S679).
  • the voice response server 14 transmits the result of the determination to the management server 30 (Step S680).
  • steps S683 to S684 and steps S677 to S680 is executed according to the operation by the user.
  • the content selected by the user is recorded in the auxiliary storage device 33 in association with the user ID (step S691).
  • the recorded data can be used for updating the recommendation model 48, improving the contents, and the like.
  • the CPU 31 transmits an instruction to acquire the content designated by the user to the CPU 51 (step S692).
  • the CPU 51 acquires the content acquired by the user from a content server (not shown) (step S693).
  • the CPU 51 displays the content on the display unit 562.
  • the CPU 51 may execute steps S692 and S693 by a so-called streaming method in which the file is simultaneously played while downloading the file from the content server.
  • the management server 30 may also serve as a content server.
  • the CPU 31 downloads a file from the content server and transmits the file to the CPU 51.
  • Content may be paid.
  • the guest is charged for the content based on the information recorded in step S691.
  • the fee for the content may be paid by any payment means such as credit card payment separately from the accommodation fee.
  • the target recommended to the guest is not limited to the content displayed on the display device 56.
  • a list of foods and drinks for which room service can be performed may be displayed.
  • various services that can be provided by the accommodation facility such as a laundry service and a massage service, may be displayed in a list.
  • An information processing system 10 that recommends various services according to the attributes of guests can be provided.
  • Embodiment 8 The present embodiment relates to an information processing system 10 that controls various devices in a guest room. The description of the parts common to the fourth embodiment is omitted.
  • FIG. 24 is an explanatory diagram illustrating the configuration of the information processing system 10 according to the eighth embodiment.
  • the information processing system 10 includes an information processing device 60 connected to the management server 30 via a network.
  • the smart speaker 20 and the information processing device 60 are arranged in a guest room.
  • Various devices such as a television 671, a lighting fixture 672, and an air conditioner 673 are installed in the guest room. Each device can be controlled by a remote controller 66.
  • the information processing device 60 includes a CPU 61, a main storage device 62, an auxiliary storage device 63, a communication unit 64, a remote control I / F 65, and a bus.
  • the CPU 61 is an arithmetic and control unit that executes the program of the present embodiment. As the CPU 61, one or a plurality of CPUs, a multi-core CPU, or the like is used.
  • the CPU 61 is connected to each unit of hardware constituting the information processing device 60 via a bus.
  • the main storage device 62 is a storage device such as an SRAM, a DRAM, and a flash memory.
  • the main storage device 62 temporarily stores information required during the processing performed by the CPU 61 and programs being executed by the CPU 61.
  • the auxiliary storage device 63 is a storage device such as an SRAM, a flash memory, or a hard disk.
  • the auxiliary storage device 63 stores a program to be executed by the CPU 61 and various data necessary for executing the program.
  • the communication unit 64 is an interface for performing data communication between the information processing device 60 and the network.
  • the remote controller I / F 65 is an interface for connecting the information processing device 60 and the remote controller 66.
  • the connection between the remote controller I / F 65 and the remote controller 66 may be a wired connection via, for example, a USB cable or a wireless connection such as BLUETOOTH (registered trademark) or a wireless LAN.
  • the remote controller 66 may be integrated with the information processing device 60.
  • the information processing device 60 may also serve as the screen output information control device 50 according to the sixth embodiment.
  • the information processing device 60 is a general-purpose information processing device such as a personal computer, a tablet, or a smartphone.
  • the information processing device 60 may be an information processing device dedicated to the information processing system 10.
  • the information processing device 60 and the smart speaker 20 may be an integrated device.
  • the CPU 31 determines the recommended environment of the guest room in step S628 of the program described with reference to FIG.
  • the CPU 31 transmits the determined recommended environment to the information processing device 60.
  • the CPU 61 controls devices in the guest room via the remote control I / F 65 and the remote control 66.
  • the information processing device 60 of the present embodiment may be used in combination with the seventh embodiment. Specifically, when the guest selects the viewing of the television program in the sequence described with reference to FIG. 23, in step S693, the CPU 61 controls the TV 671 via the remote control I / F 65 and the remote control 66, and At 671, the program specified by the guest is displayed.
  • a part of the equipment in the guest room such as the air conditioner 673 may be directly controlled by the CPU 31 via the network without passing through the information processing device 60.
  • the information processing system 10 that can be controlled from the management server 30 even when a general household product that cannot be controlled from a network is used for the television 671, the lighting fixture 672, the air conditioner 673, and the like. Can be provided.
  • an information processing system 10 that provides a service such as appropriate adjustment of an indoor environment to a guest who does not know an operation method for controlling various devices in a guest room.
  • Embodiment 9 This embodiment relates to an information processing system 10 that uses a common recommendation model 48 at accommodation facilities of the same category in the same area. The description of the parts common to the first embodiment is omitted.
  • FIG. 25 is an explanatory diagram for explaining the record layout of the hotel category DB.
  • the hotel category DB is a DB in which an area, an accommodation facility name, an accommodation facility category, and a corresponding recommendation model 48 are recorded in association with each other.
  • the hotel category DB has a region field, an accommodation facility name field, a category field, and a recommended model name field.
  • the area where the accommodation facility is located is recorded in the area field.
  • the name of the accommodation facility is recorded in the accommodation facility name field.
  • In the category field a category in which accommodation facilities are classified based on characteristics such as price range, scale, and customer class is recorded.
  • the name of the recommended model 48 used for each accommodation facility is recorded in the recommended model name field.
  • the hotel category DB has one record for one accommodation facility.
  • the category is divided into, for example, luxury hotels, luxury inns, large-scale business hotels, small and medium-sized business hotels, business inns, and private lodgings.
  • one accommodation facility may be assigned to one category.
  • FIG. 26 is an explanatory diagram illustrating a modification of the recommendation model 48 of the ninth embodiment.
  • categories are included in the input of the recommendation model 48.
  • the information processing system 10 that acquires facilities corresponding to each category can be provided.
  • the recommendation model 48 is generated for each region.
  • the present embodiment relates to an information processing system 10 in which the attribute of a guest includes a category of an accommodation facility where the guest has stayed in the past.
  • the categories are classified into, for example, luxury hotels, luxury inns, large-scale business hotels, small and medium-sized business hotels, business inns, and private lodgings. In the following description, they are indicated by reference numerals such as category A and category B. The description of the parts common to the first embodiment is omitted.
  • FIG. 27 is an explanatory diagram for explaining the record layout of the PMSDB according to the tenth embodiment.
  • the PMSDB shown in FIG. 27 is used instead of the PMSDB described with reference to FIG.
  • an accommodation history field is added to the guest field of the PMSDB described with reference to FIG.
  • the lodging history field has subfields for each category, such as an A field, a B field, and a C field.
  • the #A field records the number of days a guest has stayed at a category A lodging facility within a predetermined period.
  • B field the number of days that the guest stayed at the category B accommodation facility within a predetermined period is recorded.
  • C the number of days that the guest stayed at the category C accommodation facility within a predetermined period is recorded.
  • the present embodiment relates to an information processing apparatus that acquires additional information in cooperation with an external service such as an e-commerce service.
  • an external service such as an e-commerce service.
  • the description of the parts common to the first embodiment is omitted.
  • FIG. 28 is an explanatory diagram illustrating the record layout of the external information DB according to the eleventh embodiment.
  • the external information DB is a DB that records a user ID uniquely assigned to a user, basic information, and information on an external account held by the user in association with each other.
  • the user DB records information on users who have used the accommodation facility in the past, in addition to users staying at the accommodation facility.
  • the external information DB has a user ID field, a basic information field, an accommodation information field, and an external account field.
  • the basic information field has subfields such as a name field and an age field.
  • the accommodation information field has a room number field. If a common user DB is used in an accommodation facility chain including many accommodation facilities, the accommodation information field includes an accommodation facility name field.
  • the external account field includes subfields relating to the external service, such as the A site field and the B point field.
  • the user ID field stores a user ID uniquely assigned to the user.
  • basic information about the user such as the user's name and age, is recorded.
  • the room number field records the room number in which the user is staying. For users who are not staying, "none" is recorded in the room number field.
  • the ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ A site field stores account information used for cooperation with the external service “A site”.
  • account information used for cooperation with the external service “B point” is recorded.
  • account information used for coordination when the user permits coordination of accounts is recorded.
  • "-" In the external account field means that the user is not permitted to link with the account of the service.
  • FIG. 29 is a flowchart illustrating the flow of processing of a program according to the eleventh embodiment.
  • the program shown in FIG. 29 is used instead of the program described with reference to FIG. Steps S551 to S553 are the same as the program described with reference to FIG.
  • the CPU 31 receives the attribute of the guest and the account information of the external account from the PMS server 15 (step S731).
  • the CPU 31 acquires additional information related to the user attribute from the server that provides the external service based on the received account information (step S732). Subsequent processing is the same as step S555 and subsequent steps of the program described with reference to FIG.
  • a recommended facility for the user may be provided from the server providing the external service.
  • the server that provides the external service determines recommended facilities for the user based on the user's personal information and information on the accommodation facility that requested the information, and transmits the recommended facilities to the management server 30.
  • step S558 the CPU 31 displays the facility acquired in step S557 and the facility acquired in step S732 on one screen.
  • the CPU 31 may display the facility acquired in step S732 in a form such as "recommended facility from site A", in distinction from the facility acquired in step S557.
  • the information processing system 10 that provides more appropriate information to the guest can be provided by using the information obtained from the external service.
  • FIG. 30 is a functional block diagram of the information processing system 10 according to the twelfth embodiment.
  • the information processing system 10 includes a user interface 20 connected via a network, a management server 30, and a PMS server 15.
  • the user interface 20 is installed in the guest room of the accommodation facility.
  • the PMS server 15 is connected to a network via a private branch exchange 16 of the accommodation facility.
  • the management server 30 includes a first acquisition unit 85, a second acquisition unit 86, and a device control unit 87.
  • the first obtaining unit 85 obtains a request based on the audio data obtained from the user interface 20 and a user interface identifier for identifying the user interface 20.
  • the second acquisition unit 86 acquires, from the PMS server 15, guest information on the guest staying in the guest room based on the user interface identifier acquired by the first acquisition unit 85.
  • the device control unit 87 controls the devices in the guest room based on the guest information and the request acquired by the second acquisition unit 86.
  • Embodiment 13 The present embodiment relates to a mode of realizing the management server 30 for the information processing system 10 of the present embodiment by operating a general-purpose server computer 90 and a program 97 in combination.
  • FIG. 31 is an explanatory diagram illustrating the configuration of the information processing system 10 according to the thirteenth embodiment. The description of the parts common to the first embodiment is omitted.
  • the information processing system 10 includes a smart speaker 20, a voice response server 14, a PMS server 15, and a server computer 90 connected via a network.
  • the server computer 90 includes a CPU 31, a main storage device 32, an auxiliary storage device 33, a communication unit 34, a reading unit 36, and a bus.
  • the program 97 is recorded on a portable recording medium 96.
  • the CPU 31 reads the program 97 via the reading unit 36 and stores the program 97 in the auxiliary storage device 33. Further, the CPU 31 may read a program 97 stored in a semiconductor memory 98 such as a flash memory mounted on the server computer 90. Further, the CPU 31 may download the program 97 from another server computer (not shown) connected via the communication unit 34 and a network (not shown) and store the program 97 in the auxiliary storage device 33.
  • the program 97 is installed as a control program for the server computer 90, loaded into the main storage device 32, and executed. Thereby, the server computer 90 functions as the management server 30 described above.
  • the server in each embodiment does not constitute an independent server, and one server may serve as a plurality of servers.
  • the management server 30 and the voice response server 14 form independent servers, but one server may also serve as both servers.
  • the management server 30 and the PMS server 15 constitute independent servers, but one server may also serve as both servers.
  • Reference Signs List 10 Information processing system 14
  • PMS server 16 PBX (private branch exchange) 20
  • Smart Speaker (User Interface) 21 CPU 22
  • Main Storage Device 23 Auxiliary Storage Device 24
  • Communication Unit 25 Touch Panel 251 Display Unit 252 Input Unit 26
  • Microphone 27 Speaker 28
  • Camera 30 Management Server 31
  • CPU Reference Signs List 32 main storage device 33
  • auxiliary storage device 34 communication unit 36 reading unit 41 speaker DB 42
  • Referral Facility DB 48 recommendation model 50 screen output information control device 51
  • CPU 52 Main Storage Device 53
  • Communication Unit 55 Display Device I / F 56
  • Display unit 60 Information processing device 61
  • Remote control 671 TV 672
  • Lighting equipment 673 Air conditioner 711
  • VOD button 712 TV button 713
  • Service sightseeing information button 714 Access information field 715

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

ユーザに関する情報、特に、ユーザの属性に応じて客室内の機器を制御するプログラム等を提供すること。 プログラムは、宿泊施設の客室に設置されたユーザーインタフェース(20)から取得した音声データに基づくリクエスト、および、前記ユーザーインタフェース(20)を識別するユーザーインタフェース識別子を取得し、取得した前記ユーザーインタフェース識別子に基づいて前記客室に宿泊中の宿泊客にかかる宿泊客情報を取得し、取得した前記宿泊客情報および前記リクエストに基づいて、前記客室内の機器(56)を制御する処理をコンピュータに実行させる。

Description

プログラム、情報処理方法、情報処理装置および情報処理システム
 本発明は、プログラム、情報処理方法、情報処理装置および情報処理システムに関する。
 ユーザとロボットとの間で、自然言語による対話を成立させるコミュニケーションシステムが提案されている。ロボットは、マイクおよびスピーカを有する。マイクを用いてユーザの発話を取得してサーバに送り、会話データベースを参照して生成した応答をサーバから取得して、スピーカから出力することで、ユーザとの対話を行なえる(特許文献1)。
特開2017-191531号公報
 ホテル等の宿泊施設においては、年齢、性別、国籍、住所等の属性が異なるさまざまな宿泊客を受け入れる。特許文献1に開示されたシステムにおいては、個々の宿泊客の属性に基づいて、客室内の機器を制御することはできない。
 一つの側面では、ユーザに関する情報、特に、ユーザの属性に応じて客室内の機器を制御するプログラム等を提供することを目的とする。
 プログラムは、宿泊施設の客室に設置されたユーザーインタフェースから取得した音声データに基づくリクエスト、および、前記ユーザーインタフェースを識別するユーザーインタフェース識別子を取得し、取得した前記ユーザーインタフェース識別子に基づいて前記客室に宿泊中の宿泊客にかかる宿泊客情報を取得し、取得した前記宿泊客情報および前記リクエストに基づいて、前記客室内の機器を制御する処理をコンピュータに実行させる。
 一つの側面では、ユーザに関する情報、特に、ユーザの属性に応じて客室内の機器を制御するプログラム等を提供できる。
情報処理システムの動作の概要を示す説明図である。 情報処理システムの構成を説明する説明図である。 PMSDBのレコードレイアウトを説明する説明図である。 スピーカDBのレコードレイアウトを説明する説明図である。 紹介施設DBのレコードレイアウトを説明する説明図である。 リコメンドモデルの概要を説明する説明図である。 情報処理システムの動作の概要を示すシーケンス図である。 プログラムの処理の流れを説明するフローチャートである。 実施の形態2のプログラムの処理の流れを説明するフローチャートである。 案内履歴DBのレコードレイアウトを説明する説明図である。 レポート画面の例を説明する説明図である。 実施の形態3のプログラムの処理の流れを説明するフローチャートである。 実施の形態4のリコメンドモデルの概要を説明する説明図である。 実施の形態4のプログラムの処理の流れを説明するフローチャートである。 ユーザDBのレコードレイアウトを説明する説明図である。 実施の形態5のプログラムの処理の流れを説明するフローチャートである。 実施の形態6の情報処理システムの構成を説明する説明図である。 実施の形態6の情報処理システムの動作の概要を示すシーケンス図である。 表示装置に表示される画面の例を説明する説明図である。 表示装置に表示される画面の例を説明する説明図である。 実施の形態7のリコメンドモデルの概要を説明する説明図である。 実施の形態7の表示装置に表示される画面の例を説明する説明図である。 実施の形態7の情報処理システムの動作の概要を示すシーケンス図である。 実施の形態8の情報処理システムの構成を説明する説明図である。 ホテルカテゴリDBのレコードレイアウトを説明する説明図である。 実施の形態9のリコメンドモデルの変形例を説明する説明図である。 実施の形態10のPMSDBのレコードレイアウトを説明する説明図である。 実施の形態11の外部情報DBのレコードレイアウトを説明する説明図である。 実施の形態11のプログラムの処理の流れを説明するフローチャートである。 実施の形態12の情報処理システムの機能ブロック図である。 実施の形態13の情報処理システムの構成を示す説明図である。
[実施の形態1]
 図1は、情報処理システム10の動作の概要を示す説明図である。情報処理システム10は、ホテル等の宿泊施設の客室に配置されたスマートスピーカ20を含む。スマートスピーカ20は略半球形状であり、平面部に円形のタッチパネル25と、カメラ28とを有する。スマートスピーカ20は、タッチパネル25が斜め上方を向くように設置されている。スマートスピーカ20は、球面部分の上部にマイク26を、球面部分の下部にスピーカ27をそれぞれ有する。
 なお、実施の形態では、ユーザーインタフェースとして、スマートスピーカ20を用いて説明するが、ユーザーインタフェースは、宿泊客(ユーザ)の情報を取得し、宿泊客に情報を伝達することができるものであれば、スマートスピーカ20に限定されるものではない。例えば、マイクやスピーカの機能を備えるスマートフォンやPC等を用いて代替することも可能である。
 宿泊客がたとえば「和食の店を教えて」と、リクエストを発話する。情報処理システム10は、PMS(Property Management System:ホテル管理システム)に記録されている宿泊客の属性に基づいて、その宿泊客に紹介、すなわちリコメンドする和食レストランを抽出する。情報処理システム10は、スピーカ27から「3軒表示します」と発声するとともに、タッチパネル25に1軒目の和食レストランにかかる情報を表示する。なお、リクエストの内容は、商品またはサービスに関するものであれば和食の店に限られるものではなく、リコメンドする情報も商品またはサービスに関する情報(商品サービス情報)であればよい。
 宿泊客は、タッチパネル25を操作することにより、抽出された3軒のレストランにかかる情報を見比べる。宿泊客は、タップ等の操作により、レストランの所在地の地図および電話番号等の情報をタッチパネル25に表示させることができる。タッチパネル25の操作は、既存のスマートフォン等と同様であるため、詳細については説明を省略する。
 ここで、PMSについて簡単に説明する。PMSは、宿泊施設の管理システムであり、宿泊客の住所、氏名、国籍、料金決済方法、同行者および宿泊履歴等が記録されている。高級ホテル等、個々の顧客に応じたサービスを提供する宿泊施設で使用されるPMSには、宿泊客の好み、各種記念日およびアレルギー等の情報も記録されている。PMSは、宿泊施設ごとに、または、チェーン系列ごとに導入されており、予約の受け付け、チェックイン、チェックアウトおよび精算等の処理に使用される。
 PMSを参照することにより、情報処理システム10はユーザの好みおよび状況に合う和食レストランを提示できる。たとえば、ユーザが子供連れである場合と、カップルである場合とでは、情報処理システム10は異なる和食レストランを提示する。ユーザが20代である場合と、70代である場合とでも、情報処理システム10は異なる和食レストランを提示する。
 図2は、情報処理システム10の構成を説明する説明図である。情報処理システム10は、前述のスマートスピーカ20に加えて、管理サーバ30、音声応答サーバ14およびPMSサーバ15(ネットワーク接続されたPMS)を含む。
 スマートスピーカ20は、前述のタッチパネル25、マイク26、スピーカ27およびカメラ28に加えて、CPU(Central Processing Unit)21、主記憶装置22、補助記憶装置23、通信部24およびバスを備える。CPU21は、本実施の形態のプログラムを実行する演算制御装置である。CPU21には、一または複数のCPUまたはマルチコアCPU等が使用される。CPU21は、バスを介してスマートスピーカ20を構成するハードウェア各部と接続されている。
 主記憶装置22は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の記憶装置である。主記憶装置22には、CPU21が行なう処理の途中で必要な情報およびCPU21で実行中のプログラムが一時的に保存される。
 補助記憶装置23は、SRAM、フラッシュメモリまたはハードディスク等の記憶装置である。補助記憶装置23には、CPU21に実行させるプログラム、およびプログラムの実行に必要な各種データが保存される。
 通信部24は、スマートスピーカ20とネットワークとの間のデータ通信を行なうインターフェイスである。タッチパネル25は、液晶表示パネル等の表示部251と、表示部251に積層された入力部252とを備える。
 なお、図1に示すスマートスピーカ20の形状は例示であり、スマートスピーカ20は略半球状に限定しない。スマートスピーカ20は、柱状、直方体状等の任意の形状であっても良い。スマートスピーカ20は、スマートフォン、タブレットまたはパソコン等の汎用の情報処理装置であっても良い。スマートスピーカ20は、パソコン等の汎用の情報処理装置と、外付けのマイク、スピーカおよびカメラとの組合せにより構成されても良い。
 管理サーバ30は、CPU31、主記憶装置32、補助記憶装置33、通信部34およびバスを備える。CPU31は、本実施の形態のプログラムを実行する演算制御装置である。CPU31には、一または複数のCPUまたはマルチコアCPU等が使用される。CPU31は、バスを介して管理サーバ30を構成するハードウェア各部と接続されている。
 主記憶装置32は、SRAM、DRAM、フラッシュメモリ等の記憶装置である。主記憶装置32には、CPU31が行なう処理の途中で必要な情報およびCPU31で実行中のプログラムが一時的に保存される。
 補助記憶装置33は、SRAM、フラッシュメモリまたはハードディスク等の記憶装置である。補助記憶装置33には、スピーカDB(Database)41、紹介施設DB42、リコメンドモデル48、CPU31に実行させるプログラム、およびプログラムの実行に必要な各種データが保存される。なお、リコメンドモデル48については後述する。
 スピーカDB41、紹介施設DB42およびリコメンドモデル48は、管理サーバ30に接続された外部の大容量記憶装置、または、ネットワークを介して管理サーバ30に接続された他のサーバに記録されていても良い。
 通信部34は、管理サーバ30とネットワークとの間のデータ通信を行なうインターフェイスである。管理サーバ30は、パソコンまたはサーバマシン等の汎用の情報処理装置である。管理サーバ30は、大型計算機上で動作する仮想マシンでも良い。管理サーバ30は、複数のコンピュータまたはサーバマシンを組み合わせて構成されても良い。
 音声応答サーバ14は、スマートスピーカ20から音声データを取得して、音声認識等の処理を行なうとともに、応答にかかる音声データをスマートスピーカ20に送信する情報処理装置である。
 PMSサーバ15は、PMSの管理を行なう情報処理装置である。音声応答サーバ14およびPMSサーバ15は、パソコンまたはサーバマシン等の汎用の情報処理装置である。音声応答サーバ14およびPMSサーバ15は、大型計算機上で動作する仮想マシンでも良い。音声応答サーバ14およびPMSサーバ15は、複数の複数のコンピュータまたはサーバマシンを組み合わせて構成されても良い。
 図3は、PMSDBのレコードレイアウトを説明する説明図である。PMSDBは、PMSサーバ15に記録されている情報のうち、宿泊施設に宿泊中および予約中のユーザにかかる情報を関連づけて記録するDBである。PMSDBは、日付フィールド、宿泊施設フィールド、宿泊者フィールドおよび状態フィールドを有する。宿泊施設フィールドは、名称フィールドおよび部屋番号フィールドを有する。
 宿泊者フィールドは、代表者フィールド、同行者数フィールド、関係フィールドおよび特記事項フィールドを有する。代表者フィールドは、名前フィールド、年齢フィールド、住所フィールド、性別フィールドおよび国籍フィールドを有する。
 日付フィールドには、日付が記録されている。名称フィールドには、宿泊施設の名称が記録されている。部屋番号フィールドには、客室の部屋番号が記録されている。名前フィールドには代表者の名前が記録されている。年齢フィールドには、代表者の年齢が記録されている。住所フィールドには、代表者の住所が記録されている。性別フィールドには、代表者の性別が記録されている。国籍フィールドには、代表者の国籍が記録されている。
 同行者数フィールドには、代表者に同行して宿泊する宿泊者の人数が記録されている。関係フィールドには、代表者と同行者との関係が記録されている。特記事項フィールドには、宿泊者に関する特記事項が記録されている。状態フィールドには、宿泊者の状態が記録されている。宿泊者フィールドの各サブフィールドに記録された情報は、宿泊客の属性にかかる宿泊客属性の一例である。
 PMSDBは、1つの客室について、1つのレコードを有する。宿泊者フィールドの各サブフィールドのデータは、予約受付時に取得されるか、または、チェックイン時にフロントの担当者等により入力される。過去にも宿泊したことがある宿泊者に関しては、過去の宿泊時に記録されたデータから取得されても良い。
 図3中の333号室にかかるレコードを例にして説明を続ける。代表者フィールドの各サブフィールドには、代表者である「田中一郎」氏の年齢、住所、性別および国籍が記録されている。同行者数フィールドの「1」は、代表者である「田中一郎」氏と同行者1人の、合計2人が宿泊することを示す。関係フィールドの「夫婦」は、333号室に宿泊する2人が、夫婦であることを意味する。特記事項フィールドの「銀婚式」は、333号室に宿泊する夫婦が、銀婚式を迎えることを意味する。状態フィールドの「未到着」は、まだチェックインしていないことを意味する。
 図3中の334号室にかかるレコードを例にして説明を続ける。代表者フィールドの各サブフィールドには、代表者である「王敏」氏の年齢、住所、性別および国籍が記録されている。同行者数フィールドの「3」は、代表者である「王敏」氏と同行者3人の、合計4人が宿泊することを示す。関係フィールドの「家族」は、334号室に宿泊する4人が、家族連れであることを意味する。特記事項フィールドの「幼児2人」は、334号室に宿泊する4人のうち、2人が幼児であることを意味する。状態フィールドの「チェックイン済」は、チェックインが済んでいることを意味する。
 図4は、スピーカDB41のレコードレイアウトを説明する説明図である。スピーカDB41は、スマートスピーカ20に固有に付与されたスピーカID(Identifier)と設置場所とを関連づけて記録するDBである。なお、本実施の形態では、スマートスピーカ20を識別する具体例として、スピーカIDを用いるが、ユーザーインタフェースを識別するためのユーザーインタフェース識別子としては、ユーザーインタフェースを識別するための情報であればよく、当該ユーザーインタフェースが設置された客室の部屋番号や、ユーザーインタフェースに割り振られたIPアドレス等であってもよい。
 スピーカDB41は、スピーカIDフィールドおよび設置場所フィールドを有する。設置場所フィールドは、宿泊施設名フィールドおよび部屋番号フィールドを有する。スピーカIDフィールドには、スピーカIDが記録されている。宿泊施設名フィールドには、宿泊施設の名称が記録されている。部屋番号フィールドには、客室の部屋番号が記録されている。スピーカDB41は、1台のスマートスピーカ20について1つのレコードを有する。
 図5は、紹介施設DB42のレコードレイアウトを説明する説明図である。紹介施設DB42は、宿泊施設が宿泊客に紹介する紹介施設に固有に付与した紹介施設IDと、詳細情報とを関連づけて記録するDBである。
 紹介施設DB42は、宿泊施設名フィールド、紹介施設IDフィールド、名前フィールドおよび施設詳細フィールドを有する。施設詳細フィールドは、種類フィールド、宿泊施設内フィールド、会員フィールド、特徴フィールドおよびURL(Uniform Resource Locator)フィールドを有する。
 宿泊施設名フィールドには、宿泊施設の名称が記録されている。紹介施設IDフィールドには、紹介施設IDが記録されている。名前フィールドには、紹介施設の名前が記録されている。種類フィールドには、施設の種類が記録されている。宿泊施設内フィールドには、宿泊施設内の施設であるか否かが記録されている。すなわち、宿泊施設内の施設である場合には、宿泊施設内フィールドに「YES」が記録されている。宿泊施設外の施設である場合には、宿泊施設内フィールドに「NO」が記録されている。宿泊施設内フィールドに「YES」が記録されている施設は、宿泊施設内に設けられた施設の一例である。
 会員フィールドには、特定のグループの会員であるか否かが記録されている。グループは、たとえば宿泊施設が主催する観光客向け施設のグループであり、「YES」は有料会員である施設を、「NO」はそれ以外の施設をそれぞれ示す。なお、グループは、地域の観光協会、または、地元の商店街等であっても良い。
 特徴フィールドには、たとえば対応可能な言語、および、提供可能なサービス等、施設の特徴が記録されている。URLフィールドには、施設の広告等をタッチパネル25に表示させるWEB(World Wide Web)サイトのURLが記録されている。
 図6は、リコメンドモデル48の概要を説明する説明図である。リコメンドモデル48は、ユーザに関する入力データを受け付けて、出力データを出力するモデルである。入力データは、ユーザの属性、ユーザのリクエスト、およびユーザの声を分析して推測したユーザの感情等である。
 ユーザの属性は、図3を使用して説明した宿泊者フィールドの各サブフィールドに記録された事柄を含む。ユーザの属性は、チェックイン時刻、チェックアウト時刻、予約方法、および、宿泊料金の支払方法等を含んでも良い。ユーザのリクエストは、たとえば「和食の店」、「コンビニエンスストア」または「ドラッグストア」等、ユーザによるリクエストを音声分析して得た質問項目である。
 ユーザの感情は、たとえば「リラックス」、「怒り」、「焦り」、「空腹」または「体調不良」等である。ユーザの感情は、「怒り80パーセント、空腹20パーセント」のように、複数の感情の組合せ比率を用いて表現されても良い。
 入力データは、天候および交通情報等を含んでも良い。例えば、天候が悪い場合には、リコメンドモデル48は、徒歩での移動距離の長い施設の推奨度合いが小さい出力データを出力する。電車が遅延している場合には、リコメンドモデル48は、電車が交通手段となる施設の推奨度合いが小さい出力データを出力する。入力データは、客室の室温、湿度、照明の色と明るさ、および、テレビの音量等の客室の環境を含んでも良い。例えば、客室の照明が暗い場合、リコメンドモデル48は、照明を落としたバーの推奨度合いが大きい出力データを出力する。出力データは、ユーザに紹介する施設の紹介施設IDおよび推奨度合いの大小を示す点数である。
 リコメンドモデル48は、たとえば、さまざまな入力データに対してベテランのコンシェルジュが紹介する施設を、コンシェルジュへのアンケート等により収集した教師データに基づいて、ディープラーニング等の機械学習により作成する。リコメンドモデル48は入力データに基づいて紹介する施設を定める決定木をコーディングしたプログラム等であっても良い。
 教師データの収集について、具体例を説明する。一人のユーザに関する入力データをベテランのコンシェルジュに見せる。コンシェルジュは、ユーザに対して紹介する施設を判断して回答する。ここでコンシェルジュは、紹介する施設を1つだけ回答しても、複数の施設を順位づけまたは点数付けして回答しても良い。コンシェルジュによる回答は、入力データと関連づけて記録され、機械学習の教師データに使用される。
 以上に説明した教師データを使用した、機械学習について説明する。教師データ中の入力データを説明変数に、回答を目的変数にそれぞれ使用する。説明変数をニューラルネットワークに入力した場合に、ニューラルネットワークの出力が目的変数に近付くように、ニューラルネットワークのパラメータを調整する。以上により、入力データを入力した場合に、ベテランのコンシェルジュの判断に近い回答、すなわち、入力データにかかるユーザに紹介することが望ましい施設を出力するリコメンドモデル48が作成される。
 図3中の334号室にかかるレコードを例にして、具体例を説明する。幼児2人を連れた4人家族で宿泊している「王敏」氏、または同行者が、夕食を食べるレストランを尋ねた場合には、ベテランコンシェルジュは個室があるレストランまたはカジュアルレストラン等、幼児連れで入りやすいレストランを紹介する。同様に「王敏」氏、または同行者が観光ツアーを尋ねた場合には、ベテランコンシェルジュは幼児が楽しめる観光ツアーを紹介する。
 同じ「王敏」氏とその妻が夫婦だけで記念日に宿泊して夕食を食べるレストランを尋ねた場合には、ベテランコンシェルジュは夫婦の好みを勘案した上で、たとえば夜景が綺麗なレストラン等の、記念日にふさわしいレストランを紹介する。観光ツアーを尋ねた場合には、ベテランコンシェルジュは大人向けの観光ツアーを紹介する。
 さらに、「王敏」氏が出張のために単独で宿泊し、夕食を食べるレストランを訪ねた場合には、ベテランコンシェルジュは「王敏」氏自身の好みに合うレストランを紹介する。
 以上に例示したようにベテランコンシェルジュは、代表者が同一であっても、同行者の構成によって異なる回答を行なう。このようなベテランコンシェルジュの回答に基づいて作成した教師データを学習させることにより、同行者の構成を反映した適切な回答を出力するリコメンドモデル48が実現される。
 PMSDBに同行者の名前、年齢、住所、性別および国籍等の詳細情報が記録される場合には、同行者の詳細情報を教師データに加えることができる。代表者と同行者との組合せに応じて、さらに適切な回答を出力するリコメンドモデル48が実現される。
 図7は、情報処理システム10の動作の概要を示すシーケンス図である。ユーザが、スマートスピーカ20に対して、たとえば「和食の店を教えて」のように自然言語の音声によりリクエストを入力する。音声は、マイク26により取得される(ステップS501)。CPU21は、取得した音声を電気信号に変換した音声データと、カメラ28により撮影された画像と、スピーカIDとを音声応答サーバ14に送信する(ステップS502)。
 音声応答サーバ14は、音声データに基づいて音声認識を行ない、ユーザのリクエストを文字列に変換する(ステップS511)。音声応答サーバ14は、変換した文字列に基づいて意味解析を行ない、ユーザのリクエストの意味を判定する(ステップS512)。音声応答サーバ14は、音声データに基づいて発話時のユーザの感情を推定する感情解析を行なう(ステップS513)。なお、音声認識、意味解析および感情解析については公知の手法を使用できるため、詳細については説明を省略する。感情解析には、声のトーンやスピードの情報等を用いても良い。
 音声応答サーバ14は、意味解析結果および感情解析結果に基づいて。管理サーバ30への問合せの有無を判定する(ステップS514)。たとえば、ユーザが天気予報または交通情報などの一般的な情報についてリクエストしている場合は、音声応答サーバ14は管理サーバ30への問合せは不要であると判断する。
 管理サーバ30への問合せが不要であると判定した場合、音声応答サーバ14は、ネットワークを介してWEBサービス等から情報を収集して、ユーザへの応答にかかる音声データを作成する。音声応答サーバ14は、スマートスピーカ20に音声データを送信し、スマートスピーカ20から音声により応答が出力される。管理サーバ30への問合せを行なわない場合に音声応答サーバ14が行なう処理は公知であるため、詳細については説明を省略する。
 たとえば、ユーザが宿泊施設の近くの飲食店についてリクエストした場合、音声応答サーバ14は管理サーバ30への問合せが必要であると判定する。音声応答サーバ14は、音声データを解析して得たユーザからのリクエストおよびユーザの感情と、カメラ28により撮影された画像と、スピーカIDとを管理サーバ30に送信する(ステップS521)。
 以下では、管理サーバ30への問合せが必要と判定した場合の処理の概要を説明する。なお、破線で囲んだ部分の処理の詳細については、後述する。
 CPU31は、スピーカIDに基づいてスピーカDB41およびPMSDBを順次検索して、ユーザの属性を取得する(ステップS522)。複数の人物が同室に宿泊する場合、CPU31は、カメラ28により撮影された画像に基づいて話者であるユーザを判定する。
 CPU31は、ユーザの属性、リクエストおよび感情を、図6を使用して説明したリコメンドモデル48に入力して、ユーザに紹介する施設の紹介施設IDおよびそれぞれの点数を取得する(ステップS523)。CPU31は、たとえば点数に基づいて所定の数の紹介施設IDを抽出する。所定の数は、3つ程度であることが望ましい。紹介する施設が1件だけであれば、ユーザに選択の楽しみを与えられず、紹介する施設が多すぎると、却ってユーザに負担を感じさせるからである。
 CPU31は、紹介施設IDをキーとして、紹介施設DB42を検索してレコードを抽出する。CPU31は、ユーザに紹介する施設にかかるURL等の情報を音声応答サーバ14に送信する(ステップS524)。ユーザに紹介する施設にかかるURL等の情報は、CPU31が出力する商品サービス情報の一例である。
 CPU31はたとえばリコメンドモデル48から取得した紹介施設IDから、所定の条件に基づいて、ユーザに紹介する紹介施設にかかる紹介施設IDを選択しても良い。たとえば、リコメンドモデル48に反映されていないキャンペーンが行なわれている紹介施設にかかる情報がある場合、CPU31はそのような施設を優先的にユーザに紹介しても良い。
 音声応答サーバ14は、受信した情報に基づいて自然音声による回答を作成する(ステップS531)。音声応答サーバ14は、回答にかかる音声データおよび紹介する施設にかかるURLをスマートスピーカ20に送信する(ステップS532)。
 CPU21は、受信したURLに基づいてタッチパネル25に映像を表示するとともに、スピーカ27から音声を出力する(ステップS533)。ユーザは、タッチパネル25を操作して、複数の紹介施設に関する情報を見比べる。ユーザによる指示に基づいて、CPU21はタッチパネル25に表示された情報の読み上げ、リンク先のWEBサイトの表示等の処理を行なっても良い。
 図8は、プログラムの処理の流れを説明するフローチャートである。図8を使用して、図7中の破線で囲んだ部分でCPU31が行なう処理の流れをさらに具体的に説明する。
 CPU31は、音声応答サーバ14が前述のステップS521で送信した、ユーザからのリクエスト、ユーザの感情およびスピーカIDを受信する(ステップS551)。CPU31は、受信したスピーカIDをキーとしてスピーカDB41を検索して、スマートスピーカ20が設置された宿泊施設名および部屋番号を取得する(ステップS552)。
 CPU31は、宿泊施設名と部屋番号とをPMSサーバ15に送信して、ユーザの属性を要求する(ステップS553)。CPU31は、PMSサーバ15からユーザの属性を受信する(ステップS554)。
 CPU31は、カメラ28により撮影された画像データに基づいて、撮影された人物の顔認識を行ない、年齢、性別等を推定する。CPU31は、ステップS554で受信したユーザの属性と、推定した年齢、性別等に基づいて、話者の属性を判定する(ステップS555)。
 具体例を挙げて説明する。宿泊者が夫婦であり、スマートスピーカ20に話しかけている人物の外観が女性である場合、CPU31は話者の性別は女性であると判定する。ここで、PMSDBに登録された代表者が男性である場合、CPU31は、話者は代表者の妻であると判定する。宿泊者が単独の男性である場合、スマートスピーカ20に話しかけている人物の外観にかかわらず、CPU31は話者の性別は男性であり、PMSDBに登録された代表者本人であると判定する。なお、CPU31はカメラ28により撮影された画像と、スピーカ27により取得された音声の声質とを組み合わせて話者の属性を判定しても良い。
 CPU31は、ステップS551で受信したユーザのリクエストと感情、および、ステップS555で推定した話者の属性をリコメンドモデル48に入力する(ステップS556)。
 CPU31は、リコメンドモデル48から出力される紹介施設IDおよびそれぞれの点数を取得する(ステップS557)。CPU31は、たとえば点数に基づいて所定の数の紹介施設IDを抽出する。CPU31は、紹介施設IDをキーとして、紹介施設DB42を検索してレコードを抽出する。CPU31は、ユーザに紹介する施設にかかるURL等の情報を音声応答サーバ14に送信する(ステップS558)。ユーザに紹介する施設にかかるURL等の情報は、CPU31が出力する商品サービス情報の一例である。
 本実施の形態によると、宿泊施設の客室に配置されたスマートスピーカ20を介して、客室を使用するユーザの属性に応じた応答を行なう情報処理システム10を提供できる。スマートスピーカ20を使用することにより、ユーザは、自然言語により容易に情報を要求できる。たとえば、スマートフォンまたはパソコン等の情報機器の操作が苦手なユーザであっても、音声であれば抵抗感を感じずに使用できる。
 宿泊施設があらかじめ用意したリコメンドモデル48および紹介施設DB42に基づいて、ユーザに紹介する施設を抽出することにより、土地勘の乏しい宿泊客に対して安全な施設を案内する情報処理システム10を提供できる。
 本実施の形態によると、リコメンドモデル48を用いることにより、ベテランコンシェルジュと同様にユーザの属性に応じた施設を紹介する情報処理システム10を提供できる。本実施の形態によると、PMSサーバ15からユーザの属性を取得することにより、ユーザ自身が好みや制約条件を入力する手間を省ける情報処理システム10を提供できる。
 応答の都度、PMSに記録された情報と、カメラ28で撮影した画像とに基づいて話者の属性を判定するため、複数の宿泊客が同じ部屋に宿泊している場合であっても、リクエストをしたユーザの属性に応じた応答を行なう情報処理システム10を提供できる。なお、シングルルームの客室である場合には、CPU31は、ステップS554で受信したユーザの属性を部屋番号と関連づけて補助記憶装置33に記憶し、以後チェックアウトタイムまでの間はステップS553およびステップS554を省略しても良い。
 音声応答サーバ14は、複数の言語を処理できることが望ましい。たとえば、ユーザがロシア語でリクエストした場合には、ロシア語で応答することにより、ロシア語圏の宿泊客が容易に情報を得ることができる。音声応答サーバ14は、たとえばネットワークを介して外部の翻訳サービスと連携して、音声の自動翻訳を行なってよい。
 さらに、CPU31はステップS556においてリコメンドモデル48に入力する入力データにロシア語話者であることを追加することにより、ステップS557においてロシア語圏のユーザに適した情報を取得できる。さらに、機械翻訳等を用いて、タッチパネル25に表示する映像中の文字をロシア語に変換することが望ましい。
 以上の処理により、英語、中国語等のメジャーな外国語に限らず、数多くの外国語に対応できる情報処理システム10を提供できる。外国人の宿泊客は、自分の得意な言語を用いて容易に情報を得ることができる。
 カメラ28により撮影された画像は、音声応答サーバ14を介さずに、スマートスピーカ20から管理サーバ30に送信されても良い。このようにすることにより、通信トラフィック量を削減できる。
 スマートスピーカ20は、カメラ28を備えなくても良い。このような場合であっても、ステップS555においてCPU31はユーザの声質に基づいて話者を判定できる。スマートスピーカ20は、表示部251を備えなくても良い。このような場合、スマートスピーカ20は音声のみでユーザへの情報提供を行ない、ユーザによる操作を受け付ける。
 ユーザの要求に十分に合う施設が施設紹介DB42に記録されていない場合、または、ユーザが望む場合には、CPU31はWEB検索等によりユーザに紹介する施設を抽出し、スマートスピーカ20に出力させても良い。この場合、CPU31はたとえば提携しているレストラン紹介サイト等から、情報を取得し、スマートスピーカ20に出力させても良い。CPU31は、これらの施設の情報(例えば広告情報)をスマートスピーカ20に出力させても良い。
[実施の形態2]
 本実施の形態は、紹介した施設の予約を受け付ける情報処理システム10に関する。実施の形態1と共通する部分については、説明を省略する。
 図9は、実施の形態2のプログラムの処理の流れを説明するフローチャートである。ステップS558までの処理は、図8を使用して説明した実施の形態1の処理の流れと同一であるため、説明を省略する。
 CPU31は、スマートスピーカ20を介してユーザから紹介した施設にかかる予約要求を受け付けたか否かを判定する(ステップS561)。なお、予約要求はたとえばタッチパネル25に表示した予約ボタンの選択により受け付ける。CPU31は、音声応答サーバ14およびスマートスピーカ20を介して、音声により、予約要求を受け付けても良い。
 予約要求を受け付けていないと判定した場合(ステップS561でNO)、CPU31は、その後処理を終了する。予約要求を受け付けたと判定した場合(ステップS561でYES)、CPU31はユーザが予約を要求する施設がオンラインで予約可能な施設であるか否かを判定する(ステップS562)。
 オンライン予約可能な施設ではないと判定した場合(ステップS562でNO)、CPU31は宿泊施設のスタッフに、宿泊客が予約を要求する旨および対象の施設を通知する(ステップS571)。通知は、たとえばフロントに設置されたパソコンの画面に表示される。宿泊施設のスタッフは、ユーザに代わって施設の予約を行なう等の、いわゆるコンシェルジュサービスを行なう。CPU31は、その後処理を終了する。
 オンライン予約可能な施設であると判定した場合(ステップS562でYES)、CPU31はスマートスピーカ20を介してユーザから予約に関する詳細情報を受け付ける(ステップS563)。たとえば、CPU21は、タッチパネル25に予約時間および人数等の入力を受け付ける入力フォームを表示させて、ユーザによる入力を受け付ける。CPU21は、チャットボットを介してユーザとの会話を行ない、予約に関する詳細情報を受け付けても良い。
 CPU31は、予約に関する詳細情報を、予約対象の施設または予約サイトに送信する(ステップS564)。CPU31は、予約を受け付けたことを示す予約番号等の受付情報を受信する(ステップS565)。
 CPU31は、予約金の前払いが必要であるか否かを判定する(ステップS566)。予約金の要否にかかる情報は、たとえばステップS565で受信した受付情報に含まれている。予約金の要否にかかる情報は、紹介施設DB42に含まれていても良い。
 予約金の前払いが必要ではないと判定した場合(ステップS566でNO)、CPU31は、スマートスピーカ20に受付情報を送信する(ステップS567)。CPU31は、その後処理を終了する。
 受付情報は、タッチパネル25に表示されるか、またはスピーカ27から出力される。CPU31は、ステップS563においてユーザのメールアドレスまたはメッセンジャーIDを取得し、メールまたはメッセンジャーを介して受付情報を出力しても良い。CPU31は、ステップS563においてユーザの電話番号を取得し、SMS(Short Message Service)により受付情報を出力しても良い。
 予約金の前払いが必要であると判定した場合(ステップS566でYES)、CPU31は、スマートスピーカ20に受付情報および決済要求を送信する(ステップS568)。CPU31は、その後処理を終了する。
 予約金の決済は、たとえばオンライン決済会社を介して取得する決済用の2次元バーコードにより行なう。CPU31は、ステップS568で送信された決済要求に基づいて、タッチパネル25に2次元バーコードを表示する。ユーザがスマートフォン等でバーコードを撮影して所定の操作を行なうことにより、決済が行なわれる。
 CPU31は、ステップS568で送信された決済要求に基づいて、決済用の2次元バーコードをカメラ28にかざす旨の要求をタッチパネル25に表示しても良い。CPU31が、カメラ28を介して撮影された2次元バーコードをオンライン決済会社に送信することにより、決済が行なわれる。
 CPU31は、クレジットカード会社の決済画面を出力して、ユーザからの入力を受け付けても良い。CPU31は、部屋付けによる予約金の決済にかかる確認画面をタッチパネル25に出力しても良い。
 所定の時間内に予約金の決済が行なわれない場合、予約を受け付けた施設側で予約を取り消すか、または、宿泊施設のスタッフ等を通じてユーザへの確認を行なう。
 本実施の形態によると、スマートスピーカ20を介して紹介された施設を、ユーザが簡単に予約できる情報処理システム10を提供できる。たとえば地元の個人営業の店舗等の、オンライン予約システムを有さない施設であっても、宿泊施設のスタッフに通知することにより、ユーザに予約サービスを提供できる。
[実施の形態3]
 本実施の形態は、ユーザに対する案内の履歴を記録して、紹介した施設に対する紹介手数料、および、スマートスピーカ20を設置した宿泊施設に対して支払う費用(リベート、謝礼、報酬等。以下はリベートを具体例として説明する。)を算出する情報処理システム10に関する。実施の形態2と共通する部分については、説明を省略する。
 図10は、案内履歴DBのレコードレイアウトを説明する説明図である。案内履歴DBは、補助記憶装置33に記録されたDBである。案内履歴DBは、管理サーバ30に接続された外部の大容量記憶装置、または、ネットワークを介して管理サーバ30に接続された他のサーバに記録されていても良い。
 案内履歴DBは、スピーカIDと、当該スピーカIDに対応するスマートスピーカ20から出力された案内情報と、ユーザによる利用の有無とを関連づけて記録するDBである。案内履歴DBは、案内IDフィールド、スピーカIDフィールドおよび利用実績フィールドを有する。利用実績フィールドは、日時フィールド、紹介施設IDフィールド、予約フィールド、クーポンフィールドおよび施設利用フィールドを有する。予約フィールドは、受付フィールド、決済情報フィールドおよび予約来店フィールドを有する。クーポンフィールドは、クーポンIDフィールドおよび使用フィールドを有する。
 案内IDフィールドには、スマートスピーカ20を介した案内ごとに固有に付与した案内IDが記録されている。スピーカIDフィールドには、スピーカIDが記録されている。日時フィールドには、図8および図9中に示すステップS558において、CPU31が、ユーザに紹介する紹介施設にかかる情報を送信した日時が記録されている。紹介施設IDフィールドには、紹介施設IDが記録されている。
 受付フィールドには、ユーザから予約要求を受け付けたか否かが記録されている。「あり」は予約の依頼を受け付けたことを、「なし」は予約の依頼を受け付けていないことをそれぞれ意味する。ユーザから予約要求を受け付けたが予約が成立しなかった場合、受付フィールドには「不可」が記録される。
 決済情報フィールドには、予約時に予約金の決済を行なった場合の、決済情報が記録されている。決済情報は、たとえばクレジットカードまたはオンライン決済サービスの口座番号等にかかる情報である。「部屋付け」は、ユーザが宿泊料金と共に料金を支払うことを意味する。
 予約来店フィールドには、予約したユーザの来店有無が記録されている。「あり」は予約したユーザが予約通りに来店したことを示す。「-」は、予約を受け付けていないことを示す。予約したユーザが来店しない場合、予約来店フィールドには「無断キャンセル」が記録される。予約来店フィールドに記録される情報は、予約に関連するユーザの利用の実績の一例である。
 クーポンIDフィールドには、ユーザに施設を案内した際に発行したクーポンに固有に付与されたクーポンIDが記録される。クーポンは、たとえばクーポンIDにかかる情報を含む2次元バーコードの形態でタッチパネル25に表示される。ユーザは、スマートフォン等を用いて2次元バーコードを撮影することにより、表示されたクーポンを取得できる。
 クーポンは、客室に設置されたプリンタにより出力されても良い。クーポンは、フロントに設置されたプリンタにから出力され、ユーザが外出する際にフロントのスタッフにより手渡しされても良い。使用フィールドには、発行されたクーポンの使用有無が記録されている。
 施設利用フィールドには、ユーザによる施設の利用有無が記録されている。「あり」はユーザが施設を利用したことを、「なし」はユーザが施設を利用していないことを、「不明」は施設の利用有無を判定できないことをそれぞれ意味する。たとえば、予約した施設にユーザが実際に行った場合、施設からの連絡に基づいて「あり」が記録される。予約を受け付けた場合には自動的に「あり」が記録され、施設からユーザが来ない旨の問合せを受け付けた場合に「なし」に変更されても良い。
 発行したクーポンが使用された場合も、施設またはクーポン管理会社等からの連絡に基づいて施設利用フィールドに「あり」が記録される。2次元バーコードによりクーポンを発行し、スマートフォンの操作に基づき利用状況を取得するシステムは公知であるため詳細については説明を省略する。
 予約も、クーポンの発行も行なわれていない場合、ユーザが当該施設を利用したか否かを判定できないため、施設利用フィールドに「不明」が記録される。なお、ユーザへのアンケートを行ない、アンケートの結果に基づいて施設利用フィールドに「あり」または「なし」が記録されても良い。ユーザが宿泊施設に戻った際のフロント担当者との雑談等に基づいて、担当者により施設利用フィールドに「あり」または「なし」が記録されても良い。
 利用実績フィールドの各サブフィールドに記録された情報は、情報処理システム10の利用実績にかかる情報の一例である。
 図11は、レポート画面の例を説明する説明図である。図11は、図10を使用して説明した案内履歴DBに基づくレポートの例である。横軸は月を、縦軸は予約件数の目標件数に対する差異を示す。図11に示すレポートは例示である。ユーザは、たとえば、汎用の表計算ソフトウェアを使用して、所望のグラフを載せたレポート作成できる。あらかじめ定めた書式により、自動的にレポートを作成するソフトウェアが用いられても良い。
 たとえば、案内履歴DBのスピーカIDフィールドに記録されたスピーカIDに基づいて、宿泊客属性を取得し、宿泊客の年齢、国籍、または、同行者数等の属性ごとに分類したレポートを作成することができる。
 図12は、実施の形態3のプログラムの処理の流れを説明するフローチャートである。図12に示すプログラムは、たとえば月に1回等の所定のポイント算定周期で実行されるプログラムである。
 CPU31は、紹介施設ポイントおよび宿泊施設ポイントを初期値ゼロに設定する初期化を行なう(ステップS601)。CPU31は、履歴DBから1個の履歴レコードを取得する(ステップS602)。ここでCPU31は、日時フィールドに所定のポイント算定周期内の日時が記録されたレコードを取得する。
 CPU31は、履歴レコードの紹介施設IDフィールドに記録された紹介施設IDをキーとして紹介施設DB42を検索し、抽出したレコードの会員フィールドを参照して会員であるか否かを判定する(ステップS603)。
 会員であると判定した場合(ステップS603でYES)、CPU31はステップS602で取得したレコードに関するポイントを算出する(ステップS604)。ポイントは、たとえばタッチパネル25への表示について1点、クーポン発行について1点、クーポンの使用について1点、予約要求の受付について3点、事前決済について2点等、項目ごとに点数を割り当てて算出する。
 CPU31は、算出したポイントを、ステップS602で取得した履歴レコードの紹介施設IDフィールドに対応する紹介施設にかかる紹介施設ポイントに加算する(ステップS605)。
 CPU31はステップS602で取得したレコードのスピーカIDフィールドに記録されたスピーカIDをキーとして、スピーカDB41を検索してレコードを抽出し、宿泊施設名フィールドに記録された宿泊施設名を抽出する(ステップS606)。CPU31は、抽出した宿泊施設名にかかる宿泊施設ポイントに、宿泊施設ポイントを加算する(ステップS607)。
 宿泊施設ポイントは、たとえばステップS604で算出したポイントの10%のように定率で定める。宿泊施設ポイントは、その他任意の関数または定数により定めても良い。宿泊施設ポイントは、個々の宿泊施設ごとに算出されても、宿泊施設のチェーン店グループ等の任意のグループごとに算出されても良い。
 CPU31は、履歴レコードの処理を終了したか否かを判定する(ステップS608)。所定のポイント算定周期に対応する履歴レコードの処理が終了していないと判定した場合(ステップS608でNO)、または、会員ではないと判定した場合(ステップS603でNO)、CPU31はステップS602に戻る。
 所定のポイント算定周期に対応する履歴レコードの処理が終了したと判定した場合(ステップS608でYES)、CPU31は紹介施設ポイントに基づいてそれぞれの紹介施設に請求する手数料を算出する(ステップS611)。手数料は、たとえば1ポイント=1円のように定める。手数料は、たとえば所定のポイントを超えた場合に所定の定額にする、または、所定のポイントまでは無料にする等、任意のルールに基づいて定めても良い。
 手数料は、本情報処理システム10を介して宿泊客に紹介される施設が支払う料金の一例である。料金は手数料に限定しない。たとえばシステム利用料、システム管理料、または紹介料等でも良い。
 CPU31は、紹介施設ごとの請求情報を送信する(ステップS612)。請求情報の送信は、たとえば個々の紹介施設の担当者に対して請求書を送信してもよく、クレジットカード会社等の決済会社に対して請求金額を送信しても良い。CPU31は、情報処理システム10の管理スタッフに対して請求情報を送信し、管理スタッフが請求書の発行および発送を行なっても良い。
 CPU31は、宿泊施設ポイントに基づいて、客室にスマートスピーカ20を設置した各宿泊施設に支払うリベートを算出する(ステップS613)。リベートは、たとえば1ポイント=0.01円のように定める。リベートは、たとえば所定のポイントを超えた場合に、1ポイントあたりの金額を増加させる、または、所定のポイントに達しない場合はゼロにする等、任意のルールに基づいて定めても良い。
 CPU31は、リベートの送金処理を行なう(ステップS614)。送金処理は、たとえば所定の金融機関に対する送金指示である。CPU31は、情報処理システム10の管理スタッフに対して送金情報を送信し、管理スタッフがリベートの送金手続を行なっても良い。その後、CPU31は処理を終了する。
 本実施の形態によると、紹介回数等に応じて紹介施設に請求する手数料を自動的に算出し、請求する情報処理システム10を提供できる。本実施の形態によると、スマートスピーカ20を設置した宿泊施設に対するリベートを自動的に算出し、支払処理を行なう情報処理システム10を提供できる。
 案内履歴DBに記録された案内内容、案内を出力したユーザの属性およびユーザの利用の有無を教師データとして、機械学習を行ない、リコメンドモデル48を更新しても良い。リコメンドモデル48の更新を適宜行なうことにより、流行の変化等に対応可能な情報処理システム10を提供できる。
[実施の形態4]
 本実施の形態は、スマートスピーカ20から取得した音声、および、宿泊客の属性に基づいて、客室内の環境制御を行なう情報処理システム10に関する。実施の形態1と共通する部分については説明を省略する。
 図13は、実施の形態4のリコメンドモデル48の概要を説明する説明図である。入力データは、ユーザの属性、ユーザの指示、およびユーザの声を分析して推測したユーザの感情等である。入力データは、天候および交通情報等を入力データに含んでも良い。出力データは、たとえば客室の室温、湿度、照明の色と明るさ、および、テレビの音量等の客室の環境である。本実施の形態においては、これらの環境はCPU21またはCPU31による指示に基づいて制御される。
 図14は、実施の形態4のプログラムの処理の流れを説明するフローチャートである。図14に示すプログラムは宿泊客のチェックインを受け付けた場合にそれぞれの客室に関して実行される。
 CPU31は、宿泊施設名と部屋番号とをPMSサーバ15に送信して、ユーザの属性を要求する(ステップS621)。CPU31は、PMSサーバ15からユーザの属性を受信する(ステップS622)。
 CPU31は、ユーザの属性およびカメラ28により撮影された画像データに基づいて、客室内に入った宿泊客の人数を判定する(ステップS623)。CPU31は、客室のドア等に設置された人感センサ等の出力に基づいて、人数を判定しても良い。
 CPU31は、ユーザの属性、人数およびカメラ28により撮影された画像データに基づいて、客室内の個々のユーザの属性を推定する(ステップS624)。CPU31は、ステップS624で推定した一人のユーザの属性をリコメンドモデル48に入力する(ステップS625)。なお、スマートスピーカ20および音声応答サーバ14を介してユーザの指示および感情を取得した場合には、CPU31はこれらの情報もリコメンドモデル48に入力する。
 CPU31は、リコメンドモデル48から出力される推奨環境を取得する(ステップS626)。CPU31は、室内の宿泊客全員の処理を終了したか否かを判定する(ステップS627)。終了していないと判定した場合(ステップS627でNO)、CPU31はステップS625に戻る。
 終了したと判定した場合(ステップS627でYES)、CPU31は客室の推奨環境を決定する(ステップS628)。たとえば、CPU31は複数のユーザのそれぞれに関する推奨環境を平均して、推奨環境を決定する。CPU31は、たとえば乳幼児等の特定のユーザに対する推奨環境を客室の推奨環境に決定しても良い。CPU31は、客室内のエアコン等の機器を制御して、客室の状態を推奨環境に合わせる(ステップS629)。
 CPU31は、スマートスピーカ20および音声応答サーバ14を介して、ユーザから環境設定変更を受け付けたか否かを判定する(ステップS631)。変更を受け付けたと判定した場合(ステップS631でYES)、CPU31はユーザによる指示に基づいて環境設定を変更する。CPU31は、受け付けた指示を補助記憶装置33に記録する(ステップS632)。CPU31はステップS629に戻る。
 変更を受け付けていないと判定した場合(ステップS631でNO)、CPU31は処理を終了するか否かを判定する(ステップS633)。たとえば、チェックアウトを受け付けた場合、CPU31は処理を終了すると判定する。処理を終了すると判定した場合(ステップS633でYES)、CPU31は処理を終了する。
 処理を終了しないと判定した場合(ステップS633でNO)、CPU31は客室への入退室があるか否かを判定する(ステップS634)。入退室の有無は、カメラ28により撮影された画像およびスピーカ27により取得された音声に基づいて判定する。CPU31は、客室のドア等に設置された人感センサ等の出力に基づいて、入退室の有無を判定しても良い。
 入退室がないと判定した場合(ステップS634でNO)、CPU31はステップS631に戻る。入退室があると判定した場合(ステップS634でYES)、CPU31はステップS623に戻る。
 本実施の形態によると、宿泊客の属性に応じて客室の環境を自動的に制御する情報処理システム10を提供できる。たとえば、強めの冷房を好む国からの宿泊客がチェックインした場合、CPU31が速やかに冷房の強度を高める。これにより、宿泊客が客室に到着するまでの時間を利用して客室の環境を宿泊客の好みに合う状態に設定できる。
[実施の形態5]
 本実施の形態は、たとえば宿泊施設のフロント等の、客室以外の場所で使用できる情報処理システム10に関する。実施の形態1と共通する部分については、説明を省略する。
 図15は、ユーザDBのレコードレイアウトを説明する説明図である。ユーザDBは、補助記憶装置33に記録されたDBである。ユーザDBは、管理サーバ30に接続された外部の大容量記憶装置、または、ネットワークを介して管理サーバ30に接続された他のサーバに記録されていても良い。
 ユーザDBは、ユーザに固有に付与されたユーザIDと、基本情報と、宿泊情報と、生体認証データとユーザの嗜好とを関連づけて記録するDBである。ユーザDBには、宿泊施設に宿泊中のユーザに加えて、過去に宿泊施設を利用したユーザ等に関する情報が記録されている。
 ユーザDBは、ユーザIDフィールド、基本情報フィールド、宿泊情報フィールド、生体認証データフィールドおよび嗜好フィールドを有する。基本情報フィールドは、名前フィールドおよび年齢フィールド等のサブフィールドを有する。宿泊情報フィールドは、部屋番号フィールドを有する。なお、多くの宿泊施設を含む宿泊施設チェーン等で共通のユーザDBが使用される場合には、宿泊情報フィールドは宿泊施設名フィールドを含む。
 生体認証データフィールドは、顔認証フィールドおよび声紋認証フィールドを含む。生体認証フィールドは、さらに虹彩認証フィールド、指紋認証フィールド等を含んでも良い。嗜好フィールドは、好きフィールドおよび嫌いフィールドを含む。
 ユーザIDフィールドには、ユーザに固有に付与されたユーザIDが記録される。基本情報フィールドの各サブフィールドには、ユーザの名前、年齢等の、ユーザに関する基本情報が記録されている。部屋番号フィールドには、ユーザが宿泊中の部屋番号が記録されている。宿泊中ではないユーザについては、部屋番号フィールドに「なし」が記録されている。
 顔認証フィールドには、カメラ28が撮影した画像に基づいてユーザを識別する際に使用する顔認証データが記録されている。声紋認証フィールドには、マイク26が取得した音声に基づいてユーザを識別する際に使用する声紋認証データが記録されている。
 好きフィールドには、ユーザに対するアンケートおよびユーザの過去のリクエスト等から取得した、ユーザが好きなものが記録されている。嫌いフィールドには、ユーザに対するアンケートおよびユーザの過去のリクエスト等から取得した、ユーザが嫌いなものが記録されている。
 図16は、実施の形態5のプログラムの処理の流れを説明するフローチャートである。なお、図16においては、音声応答サーバ14が行なう処理の図示を省略する。CPU21は、カメラ28により撮影した画像により、ユーザの接近を検出する(ステップS641)。CPU21は、カメラ28により撮影した画像を管理サーバ30に送信する(ステップS642)。
 CPU31は、画像を受信する(ステップS701)。CPU31は、画像に含まれるユーザの顔を検出する。CPU31は、検出した顔と、ユーザDBの顔認証フィールドに記録された顔認証情報とに基づいて顔認証を行なう(ステップS702)。
 CPU31は、たとえば「こんにちは。行きたいところはありますか?」等の挨拶をスピーカ27から出力する(ステップS643)。CPU31は、ユーザが発話した音声を取得する(ステップS644)。CPU31は、音声応答サーバ14を介して管理サーバ30に音声データを送信する(ステップS645)。
 CPU31は、音声データおよび音声応答サーバ14で解析したユーザのリクエストおよび感情を受信する(ステップS703)。CPU31は、音声データとユーザDBの声紋認証フィールドに記録された声紋認証情報に基づいて声紋認証を行なう(ステップS704)。
 CPU31は、ステップS702で行なった顔認証およびステップS704で行なった声紋認証に基づいて、ユーザを特定できるか否かを判定する(ステップS705)。たとえば、顔認証と声紋認証との結果が一致する場合、CPU31はユーザを特定できると判定する。顔認証と声紋認証のいずれか一方が高い精度で成功した場合も、CPU31はユーザを特定できると判定する。
 CPU31は、ユーザがカメラ28にかざしたルームキーから、部屋番号を取得しても良い。この場合、CPU31はユーザDBを使用せずに、ユーザが宿泊する部屋番号を特定できる。なお、CPU31はルームキーから取得した部屋番号と、ユーザの顔認証または声紋認証の結果とが一致するか否かを判定しても良い。一致しない場合、不審者がルームキーを所持している可能性があるので、CPU31は宿泊施設のスタッフへの通知を行なう。
 ユーザの特定に成功したと判定した場合(ステップS705でYES)、CPU31はユーザDBの部屋番号フィールドに記録された部屋番号に基づいて、PMSサーバ15からユーザの同行者の有無等のユーザDBに記録されていない属性を取得する(ステップS706)。CPU31は、ステップS703で受信したユーザのリクエストと感情、ユーザDBの基本情報フィールドに記録された情報、および、ステップS706で取得したユーザの属性をリコメンドモデル48に入力する(ステップS707)。CPU31は、リコメンドモデル48から出力される紹介施設IDおよび点数を取得する(ステップS708)。
 ユーザの特定に成功していないと判定した場合(ステップS705でNO)、CPU31は、ステップS703で受信したリクエストに対応する所定の施設を取得する(ステップS711)。ステップS708またはステップS711の終了後、CPU31は、ユーザに紹介する施設にかかるURL等の情報を、音声応答サーバ14を介してスマートスピーカ20に送信する(ステップS721)。
 CPU21は、スピーカ27から案内にかかる音声を出力するとともに、タッチパネル25に映像を表示する(ステップS646)。その後、CPU21は処理を終了する。仮に、スマートスピーカ20により検知される範囲にユーザが留まっている場合には、図16を使用して説明したプログラムが再度実行される。
 本実施の形態によると、客室外にいるユーザに対しても、属性に応じた適切な応答を行なう情報処理システム10を提供できる。ユーザDBに設けられた基本情報フィールドを用いることにより、レストラン等の施設は利用するが宿泊しないためにPMSに記録されていないユーザに対しても、属性に応じた応答を行なう情報処理システム10を提供できる。
 顔認証および声紋認証を用いてユーザの識別を行なうため、個人認証についてユーザに意識させない情報処理システム10を提供できる。
 情報処理システム10は、たとえば宿泊施設のレストラン内でユーザに料理およびワイン等を推奨する用途に使用されても良い。このようにする場合、リコメンドモデル48は、レストランで提供可能な料理およびワイン等を出力する。
 情報処理システム10は、たとえばユーザの自宅、職場、学校、または公的機関等に設置されたスマートスピーカ20を介してユーザに情報提供しても良い。宿泊施設を利用する等によりユーザDBに記録されたユーザに対して、その後も継続的にサービスを提供する情報処理システム10を提供できる。
[実施の形態6]
 本実施の形態は、客室に設置された表示装置56を制御する情報処理システム10に関する。実施の形態1と共通する部分については説明は省略する。
 図17は、実施の形態6の情報処理システム10の構成を説明する説明図である。情報処理システム10は、ネットワークを介して管理サーバ30に接続された画面出力情報制御装置50および表示装置56を有する。スマートスピーカ20、画面出力情報制御装置50および表示装置56は、客室に配置されている。管理サーバ30は、PBX(Private Branch eXchange:構内交換機)16を介してPMSサーバ15と接続されている。
 画面出力情報制御装置50は、CPU51、主記憶装置52、補助記憶装置53、通信部54、表示装置I/F55およびバスを備える。CPU51は、本実施の形態のプログラムを実行する演算制御装置である。CPU51には、一または複数のCPUまたはマルチコアCPU等が使用される。CPU51は、バスを介して管理サーバ30を構成するハードウェア各部と接続されている。
 主記憶装置52は、SRAM、DRAM、フラッシュメモリ等の記憶装置である。主記憶装置52には、CPU51が行なう処理の途中で必要な情報およびCPU51で実行中のプログラムが一時的に保存される。
 補助記憶装置53は、SRAM、フラッシュメモリまたはハードディスク等の記憶装置である。補助記憶装置53にはCPU51に実行させるプログラム、およびプログラムの実行に必要な各種データが保存される。
 通信部54は、画面出力情報制御装置50とネットワークとの間のデータ通信を行なうインターフェイスである。表示装置I/F55は、画面出力情報制御装置50と表示装置56とを接続するインターフェイスである。表示装置I/F55と表示装置56との間の接続は、有線接続であっても無線接続であっても良い。
 画面出力情報制御装置50は、パソコン、タブレットまたはスマートフォン等の汎用の情報処理装置である。画面出力情報制御装置50は本情報処理システム10専用の情報処理装置であっても良い。表示装置56と画面出力情報制御装置50とは、一体の装置であっても良い。表示装置56と画面出力情報制御装置50とスマートスピーカ20とは、一体の装置であっても良い。
 表示装置56は、表示部562と入力部561とが積層された、いわゆるタッチパネルディスプレイである。表示装置56は、たとえば液晶表示装置、または、有機EL(Electro-Luminescence)表示装置等であり、タッチパネル25に比べて大型の表示部562を有する。表示装置56はテレビを兼ねても良い。
 PBX16は、宿泊施設内の内線電話の制御、および、外線電話との接続等を制御する交換機である。管理サーバ30は、PBX16に対して所定のプロトコルで信号を送信することにより、PBX16を介してPMSサーバ15から情報を取得できる。
 図18は、実施の形態6の情報処理システム10の動作の概要を示すシーケンス図である。ステップS523までの動作は、図7を使用して説明した動作と同様であるため、図示を省略する。
 CPU31は、宿泊客の属性、リクエストおよび感情を、リコメンドモデル48に入力して、宿泊客に紹介する施設の紹介施設IDおよびそれぞれの点数を取得する(ステップS523)。
 CPU31は、紹介施設IDをキーとして、紹介施設DB42を検索してレコードを抽出する。CPU31は、宿泊客に紹介する施設にかかるURL等の情報を音声応答サーバ14に送信する(ステップS524)。CPU31は、宿泊客に紹介する施設にかかるURL等の情報を画面出力情報制御装置50に送信する(ステップS661)。なお、ステップS524とステップS661とは、同時に実行されても、どちらか片方が先に実行されても良い。
 画面出力情報制御装置50は、受信した情報に基づいて宿泊客に紹介する施設に関する情報を適宜レイアウトした回答画面を作成する(ステップS662)。
 音声応答サーバ14は、受信した情報に基づいて自然音声による回答を作成する(ステップS531)。音声応答サーバ14は、回答にかかる音声データおよび紹介する施設にかかるURLをスマートスピーカ20に送信する(ステップS532)。音声応答サーバ14は、回答にかかる音声データを管理サーバ30に送信する(ステップS663)。
 CPU31は、受信した音声データに基づいて、音声データに対応する字幕を作成する(ステップS664)。字幕は、たとえば音声データを音声認識して生成したテキストの意味解析を行なうことにより、音声データの内容を要約して作成される。要約することにより字幕の文字数を少なくして、ユーザが読みやすい字幕を提供できる。
 字幕は、音声データをそのまま文字情報に変換したテキストであっても良い。宿泊客は、耳と目との両方で同一の情報を確認できる。
 CPU31は、作成した字幕を画面出力情報制御装置50に送信する。CPU51は、ステップS662で作成した案内画面と、受信した字幕とを、表示部562に表示する(ステップS665)。
 CPU21は、受信したURLに基づいてタッチパネル25に映像を表示するとともに、スピーカ27から音声を出力する(ステップS533)。宿泊客は、タッチパネル25または入力部561を操作して、複数の紹介施設に関する情報を見比べる。宿泊客による指示に基づいて、CPU21はタッチパネル25に表示された情報の読み上げ、リンク先のWEBサイトの表示等の処理を行なっても良い。
 音声応答サーバ14は、ステップS531において自然音声による回答と、回答を要約した字幕との両方を作成しても良い。そのようにする場合、作成された字幕は管理サーバ30を介して画面出力情報制御装置50に送信される。
 音声応答サーバ14は、ステップS663において音声データの代わりに音声データをテキストに変換したテキストデータを送信しても良い。CPU31は、ステップS664において受信したテキストデータの意味解析を行ない、要約して字幕を作成する。なお、CPU31は、ステップS664において要約を行なわず、受信したテキストデータをそのまま字幕に使用しても良い。
 図19および図20は、表示装置56に表示される画面の例を説明する説明図である。図19は、宿泊客が特に操作を行なっていない場合に表示されるトップ画面の例を示す。トップ画面には、VOD(Video On Demand)ボタン711、TV(Television)ボタン712、サービス観光情報ボタン713およびアクセス情報欄714が表示されている。トップ画面には、宿泊客に対するウェルカムメッセージ、避難経路の案内等が表示されても良い。
 VODボタン711が選択された場合、図示を省略するVODシステムからの出力が表示装置56に表示される。TVボタン712が選択された場合、図示を省略するチューナを介して取得されたテレビ画面が表示装置56に表示される。サービス観光情報ボタン713が選択された場合、館内サービスおよび近隣の観光情報等と、スマートスピーカ20を介して音声による質問を行なう方法の説明とを示す画面が表示される。
 アクセス情報欄714には、宿泊客が持参したスマートフォン等を無線LAN(Local Area Network)に接続する際に使用する情報が表示されている。トップ画面には、宿泊約款へのリンク等が表示されていても良い。
 なお、CPU51は、宿泊客の属性に応じた言語を用いた画面を表示装置56に表示させることが望ましい。CPU51は、宿泊客が使用した言語に基づいて、用いる言語を定めても良い。
 図20は、スマートスピーカ20が「和食の店を教えて」という宿泊客からのリクエストに応答して動作している場合に、表示装置56に表示される画面である。CPU51は、宿泊客にリコメンドする和食レストランを一覧表示する。図20に示す画面には、それぞれのレストランのWEBサイトへのリンクボタンおよび地図へのリンクボタンも表示されている。
 図20の画面の下部には、字幕欄715が配置されている。CPU51は、スマートスピーカ20が発声する音声に対応する字幕を、字幕欄715に表示する。
 宿泊客は、入力部561のタップ等の操作により、レストランの所在地の地図および電話番号等の情報を表示部562に表示させることができる。表示装置56のタップ等による操作は既存のタブレット等と同様であるため、詳細については説明を省略する。
 本実施の形態によると、タッチパネル25に加えて表示部562を使用することにより、宿泊客が大きな画面で紹介施設を確認できる。字幕欄715が表示されることにより、宿泊客は、スマートスピーカ20からの発声を聞き逃した場合でも案内の内容を確認できる。たとえば聴覚に障害のある宿泊客でも利用可能な情報処理システム10を提供できる。
 PMSサーバ15の提供事業者に比べて、PBX16の提供事業者の数は少ない。PBX16を介して管理サーバ30とPMSサーバ15とが接続することにより、PMSサーバ15から情報を取得する際に使用するプロトコルの種類が少ない情報処理システム10を提供できる。
[実施の形態7]
 本実施の形態は、VODおよびテレビ番組等のコンテンツを宿泊客にリコメンドする情報処理システム10に関する。実施の形態6と共通する部分については、説明を省略する。
 図21は、実施の形態7のリコメンドモデル48の概要を説明する説明図である。入力データは、宿泊客の属性、宿泊客の指示、宿泊客の感情、および、宿泊客によるVODまたはテレビの選択である。宿泊客は、VODボタン711およびTVボタン712を使用して、VODまたはテレビを選択できる。宿泊客は、表示部562を操作する代わりにスマートスピーカ20を介して音声によりVODボタン711およびTVボタン712を選択することもできる。
 リコメンドモデル48は、表示装置56に表示可能な映画およびテレビ番組等のコンテンツについて、宿泊客に推奨する程度を示す点数を出力する。たとえば、宿泊客がVODボタン711を選択した場合には、リコメンドモデル48は図示を省略するVODシステムが提供するコンテンツについて高い点数を出力する。宿泊客がTVボタン712を選択した場合には、リコメンドモデル48は視聴可能なテレビ番組について高い点数を出力する。
 宿泊客がVODボタン711およびTVボタン712のいずれも明示的に選択しない場合には、VODおよびテレビの両方が選択された状態と解釈される。リコメンドモデル48は、VODシステムが提供するコンテンツであるか、視聴可能なテレビ番組であるかにかかわらず、推奨する程度を示す点数を出力する。リコメンドモデル48の出力は、表示装置56の制御内容に関する情報の一例である。
 図22は、実施の形態7の表示装置56に表示される画面の例を説明する説明図である。図22は、宿泊客がVODボタン711およびTVボタン712のいずれも明示的に選択しない場合に、CPU51が表示装置56に表示する画面の例である。リコメンドモデル48から、高い点数が出力されたコンテンツを示す選択ボタン716が表示されている。
 選択ボタン716内には、それぞれのコンテンツの名称、ロゴ、ジャンル、ブレビュー画面、紹介文および放送時間等の、コンテンツを紹介する情報が表示される。宿泊客は、コンテンツを紹介する情報を見て、視聴するコンテンツを選択できる。
 宿泊客は、表示部562をタップするか、または音声により、視聴したいコンテンツを指定する。CPU51は、指定されたコンテンツを表示装置56に表示する。
 図23は、実施の形態7の情報処理システム10の動作の概要を示すシーケンス図である。ステップS522までの動作は、図7を使用して説明した動作と同様であるため、図示を省略する。
 CPU31は、宿泊客の属性、宿泊客の指示、宿泊客の感情、および、宿泊客によるVODまたはテレビの選択をリコメンドモデル48に入力して、宿泊客に紹介するコンテンツに固有に付与されたコンテンツIDおよびそれぞれのコンテンツの点数を取得する(ステップS671)。
 CPU31は、図示を省略するコンテンツサーバから、コンテンツIDに対応するコンテンツを紹介する情報を取得する(ステップS672)。CPU31は、宿泊客に紹介するコンテンツを紹介する情報を音声応答サーバ14に送信する(ステップS673)。CPU31は、宿泊客に紹介するコンテンツを紹介する情報を画面出力情報制御装置50に送信する(ステップS681)。なお、ステップS673とステップS681とは、同時に実行されても、どちらか片方が先に実行されても良い。
 CPU51は、図22を使用して説明した宿泊客に紹介するコンテンツを一覧表示する画面を表示装置56に表示する(ステップS682)。宿泊客は、コンテンツを紹介する情報を見て、視聴するコンテンツを選択できる。CPU51は、選択ボタン716を介してユーザによる選択を受け付ける(ステップS683)。CPU51は、ユーザによる選択結果を管理サーバ30に送信する(ステップS684)。
 音声応答サーバ14は、受信した情報に基づいて自然音声による回答を作成する(ステップS674)。音声応答サーバ14は、回答にかかる音声データおよび紹介する施設にかかるURLをスマートスピーカ20に送信する(ステップS675)。
 CPU21は、受信したURLに基づいてタッチパネル25に映像を表示するとともに、スピーカ27から音声を出力する(ステップS676)。宿泊客は、タッチパネル25または入力部561を操作して、複数の紹介施設に関する情報を見比べる。宿泊客による指示に基づいて、CPU21はタッチパネル25に表示された情報の読み上げ、リンク先のWEBサイトの表示等の処理を行なっても良い。
 ユーザが、音声またはタッチパネル25のタップ等により視聴するコンテンツを選択した場合、CPU51はユーザによる選択を受け付ける(ステップS677)。
 CPU21は、取得した音声を電気信号に変換した音声データと、タッチパネル25から取得したユーザによる指示と、スピーカIDとを音声応答サーバ14に送信する(ステップS678)。音声応答サーバ14は、受信した情報に基づいてユーザがリクエストしたコンテンツを判定する(ステップS679)。音声応答サーバ14は、判定した結果を管理サーバ30に送信する(ステップS680)。
 なお、ステップS683からステップS684と、ステップS677からステップS680とは、ユーザによる操作に応じていずれか一方が実行される。ステップS684またはステップS680の終了後、ユーザが選択したコンテンツがユーザIDと関連づけて補助記憶装置33に記録される(ステップS691)。記録されたデータは、リコメンドモデル48の更新、および、コンテンツの改善等に利用できる。
 CPU31は、CPU51にユーザにより指定されたコンテンツを取得する指示を送信する(ステップS692)。CPU51は、図示を省略するコンテンツサーバから、ユーザにより取得されたコンテンツを取得する(ステップS693)。CPU51は、表示部562にコンテンツを表示する。
 なお、CPU51は、コンテンツサーバからファイルをダウンロードしながら、同時に再生するいわゆるストリーミング方式によりステップS692およびステップS693を実行しても良い。
 管理サーバ30が、コンテンツサーバを兼ねても良い。このようにする場合、CPU31がコンテンツサーバからファイルをダウンロードして、CPU51に送信する。
 コンテンツは、有償であっても良い。その場合、ステップS691に記録された情報に基づいて、コンテンツの代金が宿泊客に請求される。コンテンツの料金は、宿泊料金とは別にクレジットカード決済等の任意の決済手段により支払われても良い。
 宿泊客にリコメンドする対象は、表示装置56に表示するコンテンツに限定しない。ステップS682で、ルームサービス可能な飲食物が一覧表示されても良い。図22を使用して説明した画面で、ランドリーサービス、マッサージサービス等、宿泊施設が提供可能な各種サービスが一覧表示されても良い。宿泊客の属性に応じて各種サービスをリコメンドする情報処理システム10を提供できる。
[実施の形態8]
 本実施の形態は、客室内の種々の機器を制御する情報処理システム10に関する。実施の形態4と共通する部分については、説明を省略する。
 図24は、実施の形態8の情報処理システム10の構成を説明する説明図である。情報処理システム10は、ネットワークを介して管理サーバ30に接続された情報処理装置60を有する。スマートスピーカ20および情報処理装置60は、客室に配置されている。客室には、テレビ671、照明器具672および空調装置673等の種々の機器が設置されている。それぞれの機器はリモコン66により制御可能である。
 情報処理装置60は、CPU61、主記憶装置62、補助記憶装置63、通信部64、リモコンI/F65およびバスを備える。CPU61は、本実施の形態のプログラムを実行する演算制御装置である。CPU61には、一または複数のCPUまたはマルチコアCPU等が使用される。CPU61は、バスを介して情報処理装置60を構成するハードウェア各部と接続されている。
 主記憶装置62は、SRAM、DRAM、フラッシュメモリ等の記憶装置である。主記憶装置62には、CPU61が行なう処理の途中で必要な情報およびCPU61で実行中のプログラムが一時的に保存される。
 補助記憶装置63は、SRAM、フラッシュメモリまたはハードディスク等の記憶装置である。補助記憶装置63にはCPU61に実行させるプログラム、およびプログラムの実行に必要な各種データが保存される。
 通信部64は、情報処理装置60とネットワークとの間のデータ通信を行なうインターフェイスである。リモコンI/F65は、情報処理装置60とリモコン66とを接続するインターフェイスである。リモコンI/F65とリモコン66との間の接続は、たとえばUSBケーブル等を介した有線接続であっても、BLUETOOTH(登録商標)または無線LANのような無線接続であっても良い。リモコン66は、情報処理装置60と一体であっても良い。情報処理装置60は、実施の形態6の画面出力情報制御装置50を兼ねても良い。
 情報処理装置60は、パソコン、タブレットまたはスマートフォン等の汎用の情報処理装置である。情報処理装置60は本情報処理システム10専用の情報処理装置であっても良い。情報処理装置60とスマートスピーカ20とは、一体の装置であっても良い。
 CPU31は、図14を使用して説明したプログラムのステップS628で客室の推奨環境を決定する。CPU31は、決定した推奨環境を情報処理装置60に送信する。ステップS629においてCPU61は、リモコンI/F65およびリモコン66を介して、客室内の機器を制御する。
 本実施の形態の情報処理装置60は、実施の形態7と組み合わせて使用されても良い。具体的には、図23を使用して説明したシークエンスにおいて宿泊客がテレビ番組の視聴を選択した場合、ステップS693においてCPU61は、リモコンI/F65およびリモコン66を介してTV671を制御して、テレビ671に宿泊客により指定された番組を表示する。
 たとえば空調装置673など客室内の機器の一部は、情報処理装置60を介さずにネットワークを介してCPU31により直接制御されても良い。
 本実施の形態によると、テレビ671、照明器具672および空調装置673等に、ネットワークからでは制御できない一般の家庭用の製品を使用する場合であっても管理サーバ30から制御可能な情報処理システム10を提供できる。
 本実施の形態によると、客室内の各種機器を制御するための操作方法を知らない宿泊客に対しても、適切な室内環境の調整等のサービスを提供する情報処理システム10を提供できる。
[実施の形態9]
 本実施の形態は、同じ地域にある同一カテゴリの宿泊施設で共通のリコメンドモデル48を使用する情報処理システム10に関する。実施の形態1と共通する部分については、説明を省略する。
 図25は、ホテルカテゴリDBのレコードレイアウトを説明する説明図である。ホテルカテゴリDBは、地域と、宿泊施設名と、宿泊施設のカテゴリと、対応するリコメンドモデル48とを関連づけて記録したDBである。
 ホテルカテゴリDBは、地域フィールド、宿泊施設名フィールド、カテゴリフィールドおよびリコメンドモデル名フィールドを有する。地域フィールドには、宿泊施設の存在する地域が記録されている。宿泊施設名フィールドには、宿泊施設の名称が記録されている。カテゴリフィールドには、価格帯、規模および客層等の特性に基づいて宿泊施設を分類したカテゴリが記録されている。リコメンドモデル名フィールドには、それぞれの宿泊施設に使用するリコメンドモデル48の名称が記録されている。ホテルカテゴリDBは、1つの宿泊施設について、一つのレコードを有する。
 カテゴリは、たとえば高級ホテル、高級旅館、大規模ビジネスホテル、中小規模ビジネスホテル、ビジネス旅館、民泊等に分けられる。独自のリコメンドモデル48を有する宿泊施設については、1つのカテゴリに1つの宿泊施設を割り当てても良い。
 たとえば民泊等の、規模が小さい宿泊施設では、十分な数の教師データを収集して独自のリコメンドモデル48を生成することは難しい。その一方、同一の地域で、同一のカテゴリの宿泊施設では、宿泊客の好みが共通している可能性が高い。カテゴリごとに、共通のリコメンドモデル48を生成して使用することで、規模が小さい宿泊施設でも利用できる情報処理システム10を提供できる。
 図26は、実施の形態9のリコメンドモデル48の変形例を説明する説明図である。宿泊施設のカテゴリごとに別々のリコメンドモデル48を使用する代わりに、リコメンドモデル48の入力にカテゴリが含まれている。一つのリコメンドモデル48を使用して、それぞれのカテゴリに応じた施設を取得する情報処理システム10を提供できる。なお、変形例においても、リコメンドモデル48は地域ごとに生成される。
[実施の形態10]
 本実施の形態は、宿泊客の属性に宿泊客が過去に宿泊した宿泊施設のカテゴリを含む情報処理システム10に関する。カテゴリは、たとえば高級ホテル、高級旅館、大規模ビジネスホテル、中小規模ビジネスホテル、ビジネス旅館、民泊等に分けられる。以下の説明では、カテゴリA、カテゴリB等の符号で示す。実施の形態1と共通する部分については、説明を省略する。
 図27は、実施の形態10のPMSDBのレコードレイアウトを説明する説明図である。図27に示すPMSDBは、図3を使用して説明したPMSDBの代わりに使用される。図27に示すPMSDBでは、図3を使用して説明したPMSDBの宿泊者フィールドに、宿泊履歴フィールドが追加されている。宿泊履歴フィールドは、Aフィールド、BフィールドおよびCフィールド等の、カテゴリごとのサブフィールドを有する。
 Aフィールドには宿泊客が所定期間内にカテゴリAの宿泊施設に宿泊した日数が記録されている。Bフィールドには宿泊客が所定期間内にカテゴリBの宿泊施設に宿泊した日数が記録されている。Cフィールドには宿泊客が所定期間内にカテゴリCの宿泊施設に宿泊した日数が記録されている。
 たとえば、同一の高級ホテルに宿泊中の宿泊客であっても、頻繁に同一カテゴリの高級ホテルを利用する宿泊客と、普段はビジネスホテルを利用する宿泊客と、滅多に宿泊施設を利用しない宿泊客とでは、好みが異なる。本実施の形態によると、このような好みに応じてリコメンドする情報処理システム10を提供できる。
[実施の形態11]
 本実施の形態では、Eコマースサービス等の外部サービスと連携して追加情報を取得する情報処理装置に関する。実施の形態1と共通する部分については、説明を省略する。
 図28は、実施の形態11の外部情報DBのレコードレイアウトを説明する説明図である。外部情報DBは、ユーザに固有に付与されたユーザIDと、基本情報と、ユーザの保有する外部アカウントの情報とを関連づけて記録するDBである。ユーザDBには、宿泊施設に宿泊中のユーザに加えて、過去に宿泊施設を利用したユーザ等に関する情報が記録されている。
 外部情報DBは、ユーザIDフィールド、基本情報フィールド、宿泊情報フィールド、および外部アカウントフィールドを有する。基本情報フィールドは、名前フィールドおよび年齢フィールド等のサブフィールドを有する。宿泊情報フィールドは、部屋番号フィールドを有する。なお、多くの宿泊施設を含む宿泊施設チェーン等で共通のユーザDBが使用される場合には、宿泊情報フィールドは宿泊施設名フィールドを含む。
 外部アカウントフィールドは、Aサイトフィールド、Bポイントフィールド等の、外部サービスに関するサブフィールドを含む。
 ユーザIDフィールドには、ユーザに固有に付与されたユーザIDが記録される。基本情報フィールドの各サブフィールドには、ユーザの名前、年齢等の、ユーザに関する基本情報が記録されている。部屋番号フィールドには、ユーザが宿泊中の部屋番号が記録されている。宿泊中ではないユーザについては、部屋番号フィールドに「なし」が記録されている。
 Aサイトフィールドには、外部サービスである「Aサイト」との連携に使用するアカウント情報が記録されている。Bポイントフィールドには、外部サービスである「Bポイント」との連携に使用するアカウント情報が記録されている。それぞれの外部アカウントフィールドには、ユーザがアカウントの連携を許可した場合に、連携に使用するアカウント情報が記録される。外部アカウントフィールドの「-」は、ユーザが当該サービスのアカウントとの連携を許可していないことを意味する。
 図29は、実施の形態11のプログラムの処理の流れを説明するフローチャートである。図29に示すプログラムは、図8を使用して説明したプログラムの代わりに使用される。ステップS551からステップS553は、図8を使用して説明したプログラムと同一であるため、説明を省略する。
 CPU31は、PMSサーバ15から宿泊客の属性およびを外部アカウントのアカウント情報を受信する(ステップS731)。CPU31は、受信したアカウント情報に基づいて外部サービスを提供するサーバからユーザの属性に関する追加情報を取得する(ステップS732)。以後の処理は、図8を使用して説明したプログラムのステップS555以降と同一であるため、説明を省略する。
 なお、ステップS732で、外部サービスを提供するサーバからユーザへのお薦め施設を提供しても良い。外部サービスを提供するサーバは、ユーザの個人情報と、情報を要求した宿泊施設に関する情報とに基づいて、ユーザへのお薦め施設を判定して、管理サーバ30に送信する。
 CPU31はステップS558において、ステップS557で取得した施設とステップS732で取得した施設とを一つの画面に表示する。CPU31は、ステップS732で取得した施設を、「Aサイトからのお薦め施設」のような形で、ステップS557で取得した施設と区別して表示しても良い。
 本実施の形態によると、外部サービスから取得した情報を用いることにより、宿泊客に対してさらに適切な情報を提供する情報処理システム10を提供できる。
[実施の形態12]
 図30は、実施の形態12の情報処理システム10の機能ブロック図である。情報処理システム10は、ネットワークを介して接続されたユーザーインタフェース20と、管理サーバ30と、PMSサーバ15とを備える。
 ユーザーインタフェース20は、宿泊施設の客室に設置されている。PMSサーバ15は、宿泊施設の構内交換機16を介してネットワークに接続されている。
 管理サーバ30は第1取得部85と、第2取得部86と、機器制御部87とを備える。第1取得部85は、ユーザーインタフェース20から取得した音声データに基づくリクエスト、および、ユーザーインタフェース20を識別するユーザーインタフェース識別子を取得する。
 第2取得部86は、第1取得部85が取得したユーザーインタフェース識別子に基づいて客室に宿泊中の宿泊客にかかる宿泊客情報をPMSサーバ15から取得する。機器制御部87は、第2取得部86が取得した宿泊客情報およびリクエストに基づいて、客室内の機器を制御する。
[実施の形態13]
 本実施の形態は、汎用のサーバコンピュータ90とプログラム97とを組み合わせて動作させることにより、本実施の形態の情報処理システム10用の管理サーバ30を実現する形態に関する。図31は、実施の形態13の情報処理システム10の構成を示す説明図である。なお、実施の形態1と共通する部分の説明は省略する。
 本実施の形態の情報処理システム10は、ネットワークを介して接続されたスマートスピーカ20、音声応答サーバ14、PMSサーバ15およびサーバコンピュータ90を備える。サーバコンピュータ90は、CPU31、主記憶装置32、補助記憶装置33、通信部34、読取部36およびバスを備える。
 プログラム97は、可搬型記録媒体96に記録されている。CPU31は、読取部36を介してプログラム97を読み込み、補助記憶装置33に保存する。またCPU31は、サーバコンピュータ90に実装されたフラッシュメモリ等の半導体メモリ98に記憶されたプログラム97を読出しても良い。さらに、CPU31は、通信部34および図示しないネットワークを介して接続される図示しない他のサーバコンピュータからプログラム97をダウンロードして補助記憶装置33に保存しても良い。
 プログラム97は、サーバコンピュータ90の制御プログラムとしてインストールされ、主記憶装置32にロードして実行される。これにより、サーバコンピュータ90は上述した管理サーバ30として機能する。
 各実施例で記載されている技術的特徴(構成要件)はお互いに組合せ可能であり、組み合わせすることにより、新しい技術的特徴を形成することができる。
 今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
 例えば、各実施例におけるサーバは、独立したサーバを構成せず、一のサーバが、複数のサーバの役割を果たしてもよい。具体的には、図2において、管理サーバ30と音声応答サーバ14は、独立したサーバを構成するが、一のサーバが、両サーバの役割を兼ねてもよい。同様に、図2において、管理サーバ30とPMSサーバ15は、独立したサーバを構成するが、一のサーバが、両サーバの役割を兼ねてもよい。
 10  情報処理システム
 14  音声応答サーバ
 15  PMSサーバ
 16  PBX(構内交換機)
 20  スマートスピーカ(ユーザーインタフェース)
 21  CPU
 22  主記憶装置
 23  補助記憶装置
 24  通信部
 25  タッチパネル
 251 表示部
 252 入力部
 26  マイク
 27  スピーカ
 28  カメラ
 30  管理サーバ
 31  CPU
 32  主記憶装置
 33  補助記憶装置
 34  通信部
 36  読取部
 41  スピーカDB
 42  紹介施設DB
 48  リコメンドモデル
 50  画面出力情報制御装置
 51  CPU
 52  主記憶装置
 53  補助記憶装置
 54  通信部
 55  表示装置I/F
 56  表示装置(機器)
 561 入力部
 562 表示部
 60  情報処理装置
 61  CPU
 62  主記憶装置
 63  補助記憶装置
 64  通信部
 65  リモコンI/F
 66  リモコン
 671 テレビ
 672 照明器具
 673 空調装置
 711 VODボタン
 712 TVボタン
 713 サービス観光情報ボタン
 714 アクセス情報欄
 715 字幕欄
 716 選択ボタン
 85  第1取得部
 86  第2取得部
 87  機器制御部
 90  サーバコンピュータ
 96  可搬型記録媒体
 97  プログラム
 98  半導体メモリ
 

Claims (10)

  1.  宿泊施設の客室に設置されたユーザーインタフェースから取得した音声データに基づくリクエスト、および、前記ユーザーインタフェースを識別するユーザーインタフェース識別子を取得し、
     取得した前記ユーザーインタフェース識別子に基づいて前記客室に宿泊中の宿泊客にかかる宿泊客情報を取得し、
     取得した前記宿泊客情報および前記リクエストに基づいて、前記客室に関する機器を制御する
     処理をコンピュータに実行させるプログラム。
  2.  前記機器は、前記客室に設置されたディスプレイの画面を制御する画面出力情報制御装置である
     請求項1に記載のプログラム。
  3.  取得した前記宿泊客情報および前記リクエストに基づいて、前記ユーザーインタフェースから音声を出力させるとともに、
     前記ユーザーインタフェースから前記音声に対応する文字情報を出力させる
     請求項1または請求項2に記載のプログラム。
  4.  前記宿泊客情報は、前記宿泊施設の構内交換機を介して取得される
     請求項1から請求項3のいずれか一つに記載のプログラム。
  5.  前記機器は、前記客室の環境を調整する空調装置または照明器具である
     請求項1から請求項4のいずれか一つに記載のプログラム。
  6.  前記宿泊客情報は、前記客室に宿泊中の宿泊客が過去に利用したホテルに関する情報を含む
     請求項1から請求項5のいずれか一つに記載のプログラム。
  7.  宿泊客情報と、音声データに基づく宿泊客のリクエストとが入力された場合に、機器の制御内容に関する情報を出力する複数のモデルから、前記宿泊施設に対応するモデルを選択し、
     取得した前記宿泊客情報と、取得した音声データに基づくリクエストとを、選択した前記モデルに入力して、出力される機器の制御内容に関する情報を取得し、
     取得した情報に基づいて前記客室内の機器を制御する
     請求項1から請求項6のいずれか一つに記載のプログラム。
  8.  宿泊施設の客室に設置されたユーザーインタフェースから取得した音声データに基づくリクエスト、および、前記ユーザーインタフェースを識別するユーザーインタフェース識別子を取得し、
     取得した前記ユーザーインタフェース識別子に基づいて前記客室に宿泊中の宿泊客にかかる宿泊客情報を取得し、
     取得した前記宿泊客情報および前記リクエストに基づいて、前記客室内の機器を制御する
     処理をコンピュータに実行させる情報処理方法。
  9.  宿泊施設の客室に設置されたユーザーインタフェースから取得した音声データに基づくリクエスト、および、前記ユーザーインタフェースを識別するユーザーインタフェース識別子を取得する第1取得部と、
     前記第1取得部が取得した前記ユーザーインタフェース識別子に基づいて前記客室に宿泊中の宿泊客にかかる宿泊客情報を取得する第2取得部と、
     前記第2取得部が取得した前記宿泊客情報および前記リクエストに基づいて、前記客室内の機器を制御する機器制御部と
     を備える情報処理装置。
  10.  宿泊施設の客室に設置されたユーザーインタフェースと、管理サーバと、宿泊施設の管理システムのサーバとがネットワークを介して接続された情報処理システムにおいて、
     前記宿泊施設の管理システムのサーバは、前記宿泊施設の構内交換機を介して前記ネットワークに接続されており、
     前記管理サーバは、
      前記ユーザーインタフェースから取得した音声データに基づくリクエスト、および、前記ユーザーインタフェースを識別するユーザーインタフェース識別子を取得する第1取得部と、
      前記第1取得部が取得した前記ユーザーインタフェース識別子に基づいて前記客室に宿泊中の宿泊客にかかる宿泊客情報を前記宿泊施設の管理システムのサーバから取得する第2取得部と、
      前記第2取得部が取得した前記宿泊客情報および前記リクエストに基づいて、前記客室内の機器を制御する機器制御部とを備える
     情報処理システム。
     
PCT/JP2019/023112 2018-06-21 2019-06-11 プログラム、情報処理方法、情報処理装置および情報処理システム WO2019244715A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
SG11202012663PA SG11202012663PA (en) 2018-06-21 2019-06-11 Program, information processing method, information processing device, and information processing system
EP19823434.6A EP3813009A4 (en) 2018-06-21 2019-06-11 PROGRAM, INFORMATION PROCESSING METHOD, INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING SYSTEM
US17/252,591 US20210295837A1 (en) 2018-06-21 2019-06-11 Non-Transitory Computer Readable Medium, Information Processing Method, Information Processing Device, and Information Processing System
JP2020512623A JP6762060B2 (ja) 2018-06-21 2019-06-11 プログラム、情報処理方法、情報処理装置および情報処理システム
TW108121471A TW202001777A (zh) 2018-06-21 2019-06-20 儲存程式之可移動型儲存媒體、資訊處理方法、資訊處理裝置以及資訊處理系統
PH12020552193A PH12020552193A1 (en) 2018-06-21 2020-12-17 Program, information processing method, information processing device, and information processing system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2018118253 2018-06-21
JP2018-118253 2018-06-21
PCT/JP2018/035498 WO2019244365A1 (ja) 2018-06-21 2018-09-25 プログラムおよび情報処理方法
JPPCT/JP2018/035498 2018-09-25

Publications (1)

Publication Number Publication Date
WO2019244715A1 true WO2019244715A1 (ja) 2019-12-26

Family

ID=68983597

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2018/035498 WO2019244365A1 (ja) 2018-06-21 2018-09-25 プログラムおよび情報処理方法
PCT/JP2019/023112 WO2019244715A1 (ja) 2018-06-21 2019-06-11 プログラム、情報処理方法、情報処理装置および情報処理システム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/035498 WO2019244365A1 (ja) 2018-06-21 2018-09-25 プログラムおよび情報処理方法

Country Status (7)

Country Link
US (1) US20210295837A1 (ja)
EP (1) EP3813009A4 (ja)
JP (8) JP6651162B1 (ja)
PH (1) PH12020552193A1 (ja)
SG (1) SG11202012663PA (ja)
TW (1) TW202001777A (ja)
WO (2) WO2019244365A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6904501B1 (ja) * 2020-09-09 2021-07-14 株式会社ぐるなび 情報処理システム、情報処理方法、プログラム及び記録媒体
WO2021140576A1 (ja) * 2020-01-07 2021-07-15 Tradfit株式会社 プログラムを記録した可搬型記録媒体、情報処理方法、情報処理装置および情報処理システム
JP6927457B1 (ja) * 2020-09-09 2021-09-01 株式会社ぐるなび 情報処理システム、情報処理方法、プログラム及び記録媒体
JP2022031453A (ja) * 2020-01-06 2022-02-18 Tradfit株式会社 情報処理装置、情報処理方法、プログラム及び管理システム
JP2022071080A (ja) * 2020-01-06 2022-05-13 Tradfit株式会社 情報処理装置、情報処理方法及びプログラム
JP2023115636A (ja) * 2022-02-08 2023-08-21 X1Studio株式会社 宿泊施設オペレーティングシステム、施設端末、方法およびプログラム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109446876B (zh) * 2018-08-31 2020-11-06 百度在线网络技术(北京)有限公司 手语信息处理方法、装置、电子设备和可读存储介质
CN111341312A (zh) * 2020-02-24 2020-06-26 百度在线网络技术(北京)有限公司 基于智能语音设备的数据分析方法、设备及存储介质
WO2021199216A1 (ja) * 2020-03-30 2021-10-07 富士通株式会社 会話制御プログラム、会話制御方法および情報処理装置
JP7080922B2 (ja) * 2020-05-21 2022-06-06 Necパーソナルコンピュータ株式会社 ネットワークシステム、ホスト装置、及びネットワーク制御方法
JP7022177B2 (ja) * 2020-07-13 2022-02-17 株式会社スーパーホテル ポイント付与方法、プログラム、およびポイント情報管理装置
JP7105843B2 (ja) * 2020-09-29 2022-07-25 楽天グループ株式会社 情報処理装置、方法及びプログラム
WO2022091237A1 (ja) * 2020-10-28 2022-05-05 日本電気株式会社 サーバ装置、情報提供システム、情報提供方法及び記憶媒体
JP7355790B2 (ja) * 2021-09-08 2023-10-03 プロパティエージェント株式会社 プログラム、システムおよび情報処理方法
JP7185968B1 (ja) 2022-04-28 2022-12-08 AI Infinity 株式会社 振動情報出力システム、及び振動情報出力プログラム
WO2023238278A1 (ja) * 2022-06-08 2023-12-14 三菱電機株式会社 サービス提供装置、プログラム及びサービス提供方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337866A (ja) * 2002-05-20 2003-11-28 Shimizu Corp 室内環境・情報管理統合化システム
JP2004503884A (ja) * 2000-06-16 2004-02-05 ルーネット カンパニー、 リミテッド ホテルビジネス情報システム
JP2009506404A (ja) * 2005-08-01 2009-02-12 シックス コンティネンツ ホテルズ,インク. 電子メニューおよびコンシェルジュ・システム
JP2016224609A (ja) * 2015-05-28 2016-12-28 京セラドキュメントソリューションズ株式会社 情報提供システム、情報提供方法、画像形成装置及び制御プログラム
JP2017191531A (ja) 2016-04-15 2017-10-19 ロボットスタート株式会社 コミュニケーションシステム、サーバ及びコミュニケーション方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2796476B2 (ja) * 1992-11-09 1998-09-10 株式会社テック 領収書発行装置
JP2002366672A (ja) * 2001-06-07 2002-12-20 Toppan Printing Co Ltd ホテルオーダーシステム
JP2005005899A (ja) * 2003-06-10 2005-01-06 Sharp Corp 自動応答機能を備えた電話装置
JP2009252013A (ja) * 2008-04-08 2009-10-29 Nec Corp データ処理システム、その中央管理装置、そのコンピュータプログラムおよびデータ処理方法
JP2011153759A (ja) * 2010-01-27 2011-08-11 Omron Corp 制御装置、制御装置連携システム、制御方法、および制御プログラム
JP2013128208A (ja) * 2011-12-19 2013-06-27 Panasonic Industrial Devices Sunx Co Ltd 客室制御システム
US20140129453A1 (en) * 2012-11-02 2014-05-08 Robert Brazell Personal Concierge on Mobile Computing Device
WO2015011867A1 (ja) * 2013-07-26 2015-01-29 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報管理方法
US11064565B2 (en) * 2014-02-14 2021-07-13 ATOM, Inc. Systems and methods for personifying interactive displays used in hotel guest rooms
GB2535769B (en) * 2015-02-27 2019-03-06 Energy Tech Institute Llp Method and apparatus for controlling an environment management system within a building
US20170343972A1 (en) * 2016-05-31 2017-11-30 JaQuar McMickle Interactive intellectual room assistant systems and method
US10313531B2 (en) * 2016-12-13 2019-06-04 Bullhead Innovations Ltd. Voice controlled room system
US10614804B2 (en) * 2017-01-24 2020-04-07 Honeywell International Inc. Voice control of integrated room automation system
US10580098B2 (en) * 2017-05-29 2020-03-03 Virtual OnQ Systems, LLC Voice activated hotel room monitor
US10803859B1 (en) * 2017-09-05 2020-10-13 Amazon Technologies, Inc. Speech processing for public devices

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004503884A (ja) * 2000-06-16 2004-02-05 ルーネット カンパニー、 リミテッド ホテルビジネス情報システム
JP2003337866A (ja) * 2002-05-20 2003-11-28 Shimizu Corp 室内環境・情報管理統合化システム
JP2009506404A (ja) * 2005-08-01 2009-02-12 シックス コンティネンツ ホテルズ,インク. 電子メニューおよびコンシェルジュ・システム
JP2016224609A (ja) * 2015-05-28 2016-12-28 京セラドキュメントソリューションズ株式会社 情報提供システム、情報提供方法、画像形成装置及び制御プログラム
JP2017191531A (ja) 2016-04-15 2017-10-19 ロボットスタート株式会社 コミュニケーションシステム、サーバ及びコミュニケーション方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022031453A (ja) * 2020-01-06 2022-02-18 Tradfit株式会社 情報処理装置、情報処理方法、プログラム及び管理システム
JP2022071080A (ja) * 2020-01-06 2022-05-13 Tradfit株式会社 情報処理装置、情報処理方法及びプログラム
JP7258382B2 (ja) 2020-01-06 2023-04-17 Tradfit株式会社 情報処理装置、情報処理方法及びプログラム
JP7364256B2 (ja) 2020-01-06 2023-10-18 Tradfit株式会社 情報処理装置、情報処理方法、プログラム及び管理システム
WO2021140576A1 (ja) * 2020-01-07 2021-07-15 Tradfit株式会社 プログラムを記録した可搬型記録媒体、情報処理方法、情報処理装置および情報処理システム
JP6904501B1 (ja) * 2020-09-09 2021-07-14 株式会社ぐるなび 情報処理システム、情報処理方法、プログラム及び記録媒体
JP6927457B1 (ja) * 2020-09-09 2021-09-01 株式会社ぐるなび 情報処理システム、情報処理方法、プログラム及び記録媒体
WO2022054173A1 (ja) * 2020-09-09 2022-03-17 株式会社ぐるなび 情報処理システム、情報処理方法、プログラム及び記録媒体
WO2022054171A1 (ja) * 2020-09-09 2022-03-17 株式会社ぐるなび 情報処理システム、情報処理方法、プログラム及び記録媒体
JP2023115636A (ja) * 2022-02-08 2023-08-21 X1Studio株式会社 宿泊施設オペレーティングシステム、施設端末、方法およびプログラム

Also Published As

Publication number Publication date
JP7297326B2 (ja) 2023-06-26
WO2019244365A1 (ja) 2019-12-26
JP6651162B1 (ja) 2020-02-19
JP2023029575A (ja) 2023-03-03
JPWO2019244365A1 (ja) 2020-07-09
JP2022046500A (ja) 2022-03-23
SG11202012663PA (en) 2021-01-28
JP2020080156A (ja) 2020-05-28
JP7111376B2 (ja) 2022-08-02
EP3813009A4 (en) 2022-03-16
JP6994790B2 (ja) 2022-01-14
US20210295837A1 (en) 2021-09-23
JPWO2019244715A1 (ja) 2020-06-25
PH12020552193A1 (en) 2021-07-26
JP2021007005A (ja) 2021-01-21
EP3813009A1 (en) 2021-04-28
JP2021101333A (ja) 2021-07-08
JP7214237B2 (ja) 2023-01-30
JP2023115051A (ja) 2023-08-18
JP7477121B2 (ja) 2024-05-01
TW202001777A (zh) 2020-01-01
JP6762060B2 (ja) 2020-09-30

Similar Documents

Publication Publication Date Title
JP7214237B2 (ja) プログラム、情報処理方法および情報処理装置
US10540707B2 (en) Commercial information providing system and commercial information providing method
US11902853B2 (en) Non-transitory computer readable recording medium, information processing method, and server device for providing region information
KR101734345B1 (ko) 매장의 실시간 혼잡도 정보제공을 통한 고객 관리시스템
KR20190141410A (ko) 키오스크 서비스 제공 시스템 및 방법
US10628872B2 (en) Browsing device, information processing system, method of controlling browsing device, recording medium, and program
KR20050109919A (ko) 컨텐츠 제작, 배급, 상호작용, 및 모니터링 시스템
JP2016139263A (ja) 旅行システム
KR20150042894A (ko) 프로필 이미지 카드를 공유하는 시스템 및 방법
JP6339285B1 (ja) サービス提供システム
EP3940619A1 (en) Device, program, and system for providing point services
JP5492029B2 (ja) 情報処理装置、コミュニケーション支援方法およびコミュニケーション支援用プログラム
JP2002183762A (ja) オブジェクト制御装置、オブジェクト制御方法およびオブジェクト制御システムならびに情報記録媒体
US20210166305A1 (en) Information processing apparatus, information processing method, and program
KR101900712B1 (ko) 사용자 의도에 따른 지능형 정보 제공 시스템, 방법 및 그에 대한 기록매체
WO2021140576A1 (ja) プログラムを記録した可搬型記録媒体、情報処理方法、情報処理装置および情報処理システム
KR20070112506A (ko) 정보 교류 기능을 가진 단말기, 이를 이용한 정보 교류서버시스템 및 방법
KR20210112616A (ko) 매장 운영 시스템 및 방법
KR101854357B1 (ko) 사용자 의도에 따른 지능형 정보 제공 시스템, 방법 및 그에 대한 기록매체
KR20230075866A (ko) 매장 내부 cctv 영상 확인 시스템
JP2024010563A (ja) 情報処理装置及び情報処理システム
JP2022071080A (ja) 情報処理装置、情報処理方法及びプログラム
KR100821590B1 (ko) 배경 이미지 선정방법 및 시스템과 이를 위한 프로그램기록매체

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19823434

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020512623

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2019823434

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2019823434

Country of ref document: EP

Effective date: 20210121