WO2022049710A1 - サービス提供装置、サービス提供システム、サービス提供方法及び非一時的なコンピュータ可読媒体 - Google Patents

サービス提供装置、サービス提供システム、サービス提供方法及び非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2022049710A1
WO2022049710A1 PCT/JP2020/033482 JP2020033482W WO2022049710A1 WO 2022049710 A1 WO2022049710 A1 WO 2022049710A1 JP 2020033482 W JP2020033482 W JP 2020033482W WO 2022049710 A1 WO2022049710 A1 WO 2022049710A1
Authority
WO
WIPO (PCT)
Prior art keywords
service providing
information
service
needs
content
Prior art date
Application number
PCT/JP2020/033482
Other languages
English (en)
French (fr)
Inventor
哲也 冬野
久美子 高塚
真由美 伊藤
大輔 福司
沙月 信清
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2020/033482 priority Critical patent/WO2022049710A1/ja
Publication of WO2022049710A1 publication Critical patent/WO2022049710A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Definitions

  • the present invention relates to a service providing device, a service providing system, a service providing method, and a non-temporary computer-readable medium, and in particular, a service providing device, a service providing system, a service providing method, and a service providing device for presenting service providing information to a target person.
  • a service providing device for presenting service providing information to a target person.
  • non-temporary computer readable media for presenting service providing information to a target person.
  • Patent Document 1 discloses a technique relating to a watching device for enabling elderly people who are not accustomed to operating a smartphone or a personal computer to easily perform asynchronous and two-way communication using a social networking service.
  • Patent Document 2 discloses a technique relating to a dialogue system including a life support robot system and a dialogue robot.
  • This disclosure is made in order to solve such a problem, and is a service providing device for effectively presenting service providing information to a person to be watched over by using a user interface suitable for the service.
  • the purpose is to provide a service provision system, a service provision method, and a non-temporary computer-readable medium.
  • the service providing device is A UI control means that controls a first user interface (UI) that is a dialogue partner with the target person on the terminal of the target person to be watched over.
  • UI user interface
  • a specific means for identifying the needs of the target person from the collected information collected via the first UI and A selection means for selecting a service provision means corresponding to the specified needs type from a plurality of service provision means corresponding to each of a plurality of types of needs, and a selection means. Equipped with The UI control means is In order to present the service provision information satisfying the specified needs to the terminal, the switching from the first UI to the second UI according to the selected service providing means is controlled.
  • the service providing system is The terminal of the person being watched over and A service providing device connected to the terminal via a network, Equipped with The service providing device is A UI control means for controlling a first user interface (UI) that is a dialogue partner with the target person in the terminal.
  • Equipped with The UI control means is In order to present the service provision information satisfying the specified needs to the terminal, the switching from the first UI to the second UI according to the selected service providing means is controlled.
  • the service providing method is The computer Collected information is collected on the terminal of the person being watched over via the first user interface (UI) that is the dialogue partner with the person concerned. Identify the needs of the target person from the collected information, Select the service providing means corresponding to the specified needs from among the plurality of service providing means corresponding to each of the plurality of types of needs, and select the service providing means corresponding to the specified needs. In order to present the service provision information satisfying the specified needs to the terminal, the switching from the first UI to the second UI according to the selected service providing means is controlled.
  • UI user interface
  • the non-temporary computer-readable medium in which the service providing program according to the fourth aspect of the present disclosure is stored is a non-temporary computer-readable medium.
  • a collection process that collects collected information via the first user interface (UI) that is the dialogue partner with the target person on the terminal of the target person to be watched over. Specific processing that identifies the needs of the target person from the collected information,
  • a service providing device for effectively presenting service providing information to a person to be watched using a user interface suitable for the service.
  • a service providing method for effectively presenting service providing information to a person to be watched using a user interface suitable for the service.
  • FIG. 1 It is a figure which shows the example of the communication with the family in the smartphone which concerns on this Embodiment 4. It is a figure which shows the example of the collection of the conversation information of the subject person in the tablet terminal which concerns on this Embodiment 4 and the notice of UI switching. It is a figure which shows the example of the presentation of the service provision information by the UI after switching which concerns on Embodiment 4. FIG. It is a figure which shows the example of the collection of the conversation information of the subject person in the tablet terminal which concerns on this Embodiment 4 and the notice of UI switching. It is a figure which shows the example of the presentation of the service provision information by the UI after switching which concerns on Embodiment 4. FIG.
  • FIG. 1 is a block diagram showing a configuration of a service providing device 1 according to the first embodiment.
  • the service providing device 1 is an information processing device for presenting service providing information according to the needs (direct or indirect request) of the target person to the target person who is being watched by the persons concerned.
  • the subject is generally the elderly.
  • the persons concerned are the families of elderly children and grandchildren, relatives, maids, caregivers, etc.
  • the service providing device 1 is connected to a network (not shown).
  • the network may be wired or wireless.
  • the network is connected to a terminal used by the target person.
  • the terminal may be an information processing terminal equipped with a camera, a microphone, a speaker, a touch panel, or the like, for example, a tablet terminal or the like.
  • the service providing device 1 may be realized as a single robot device.
  • the service providing device 1 includes a collecting unit 11, a specific unit 12, and a presenting unit 13.
  • the collecting unit 11 collects conversation information of the target person and related information about the target person or the related person.
  • the conversation information may be voice data in which the voice spoken by the target person is picked up by the terminal, or text information in which the voice data is converted by voice recognition.
  • Conversation information includes, for example, the subject's physical condition (statement that "the waist hurts"), the subject's wishes (statement that "I want to see the cherry blossoms"), and information about the subject's residence (statement that the air conditioner has broken ". ), Etc., but are not limited to these.
  • the conversation information may be the soliloquy of the subject.
  • the related information about the target person is information about the target person obtained from other than the conversation of the target person. For example, blood pressure or body temperature measured from a subject. Further, it may be the asset status (amount of savings) of the target person and the housing status (floor plan, furniture, type and arrangement of home appliances). Further, the history of the past service provision information provided to the target person and the consideration for the past service provision information may be used. In addition, the related information about the related person is the family relationship (number of children) of the target person, the schedule of the related person, the response information from the related person about the target person, and the like.
  • the specific unit 12 analyzes the conversation information and the related information to identify the needs of the target person.
  • the specifying unit 12 may identify needs by using a model that analyzes conversation information and related information, extracts keywords, inputs keywords, and outputs needs.
  • a known technique such as an AI (Artificial Intelligence) model can be applied to the model.
  • the model can be machine-learned with the accumulated conversation information and related information as teacher data and the needs as the correct answer.
  • the presentation unit 13 presents at least the service provision information satisfying the specified needs to the target person.
  • the presentation unit 13 may use a model (service providing means) for inputting needs and outputting service providing information.
  • a known technique such as an AI model can be applied to the model.
  • the model can be machine-learned with the accumulated conversation information, related information, and needs as teacher data and the service provision information as the correct answer.
  • the model may use a search engine or the like.
  • the service provision information is information about the service provided to the target person.
  • the service provision information is information that can solve the specified needs. For example, if the need is "want to go to the station", the service provision information will be the timetable of the bus from the nearest bus stop to the station.
  • the presentation unit 13 may display the service provision information on the terminal, for example. Further, the presentation unit 13 may present the service provision information to a person other than the target person, for example, a related person.
  • FIG. 2 is a flowchart showing the flow of the service providing method according to the first embodiment.
  • the collecting unit 11 collects the conversation information of the target person and the related information about the target person or the related person (S11).
  • the specifying unit 12 analyzes the conversation information and the related information to identify the needs of the target person (S12).
  • the presentation unit 13 presents at least the service provision information satisfying the specified needs to the target person (S13).
  • the needs of the target person are grasped from the conversation information and the related information of the target person, and the service provision information satisfying the needs is presented. Therefore, it is possible to automatically provide information suitable for the needs of a target person such as an elderly person without searching by himself / herself.
  • the needs are diverse, and for example, by properly using a plurality of service provision models, it is possible to provide appropriate services to the diverse needs of the person being watched over.
  • the service providing device 1 includes a processor, a memory, and a storage device as a configuration (not shown). Further, the storage device stores a computer program in which the processing of the recommendation method according to the present embodiment is implemented. Then, the processor reads the computer program from the storage device into the memory and executes the computer program. As a result, the processor realizes the functions of the collecting unit 11, the specifying unit 12, and the presenting unit 13.
  • the collection unit 11, the specific unit 12, and the presentation unit 13 may each be realized by dedicated hardware.
  • a part or all of each component of each device may be realized by a general-purpose or dedicated circuitry, a processor, or a combination thereof. These may be composed of a single chip or may be composed of a plurality of chips connected via a bus. A part or all of each component of each device may be realized by the combination of the circuit or the like and the program described above.
  • a processor a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an FPGA (field-programmable gate array), or the like can be used.
  • each component of the service providing device 1 when a part or all of each component of the service providing device 1 is realized by a plurality of information processing devices and circuits, the plurality of information processing devices and circuits may be centrally arranged. It may be distributed.
  • the information processing device, the circuit, and the like may be realized as a form in which each is connected via a communication network, such as a client-server system and a cloud computing system.
  • the function of the service providing device 1 may be provided in the SaaS (Software as a Service) format.
  • FIG. 3 is a block diagram showing a configuration of the service providing device 1a according to the second embodiment.
  • the service providing device 1a is an information processing device that requests a server provided with another service providing means to present the service providing information when the service providing information satisfying the needs of the target person cannot be provided by the device alone.
  • the service providing device 1a is connected to a network (not shown).
  • the network may be wired or wireless.
  • the (first) terminal used by the target person and the (first) server provided with other service providing means are connected to the network.
  • the service providing device 1a includes a specific unit 11a, a selection unit 12a, and a request unit 13a.
  • the identification unit 11a identifies the first needs of the person to be watched over.
  • the specific unit 11a may specify needs based on conversation information and related information as in the specific unit 12 described above.
  • the selection unit 12a selects a service providing means corresponding to the first type of needs from the plurality of service providing means.
  • the service providing means may be a model in which needs are input and service providing information is output as described above.
  • the service providing device 1a according to the present embodiment may not be equipped with the selected service providing means.
  • the requesting unit 13a presents the first server provided with the selected service providing means to present the first service providing information satisfying the first needs to at least the first terminal of the target person. Send the request.
  • FIG. 4 is a flowchart showing the flow of the service providing method according to the second embodiment.
  • the specific unit 11a identifies the first needs of the person to be watched (S11a).
  • the selection unit 12a selects a service providing means corresponding to the first type of needs from the plurality of service providing means (S12a).
  • the requesting unit 13a presents the first server provided with the selected service providing means to present the first service providing information satisfying the first needs to at least the first terminal of the target person.
  • the request is transmitted (S13a).
  • the server of the company when an external service provider provides a service providing means suitable for the needs of the target person, the server of the company is requested to present the service provision information to the target person. It is a thing.
  • the first server that receives the presentation request acquires the service provision information satisfying the needs from its own service providing means, and presents it to the target person's first terminal as in the presentation unit 13 described above, for example. be able to. Therefore, it is possible to realize smooth cooperation with the contents provided by a plurality of service providers.
  • the service providing device 1a includes a processor, a memory, and a storage device as a configuration (not shown). Further, the storage device stores a computer program in which the processing of the recommendation method according to the present embodiment is implemented. Then, the processor reads the computer program from the storage device into the memory and executes the computer program. As a result, the processor realizes the functions of the specific unit 11a, the selection unit 12a, and the request unit 13a.
  • the specific unit 11a, the selection unit 12a, and the request unit 13a may each be realized by dedicated hardware.
  • a part or all of each component of each device may be realized by a general-purpose or dedicated circuitry, a processor, or a combination thereof. These may be composed of a single chip or may be composed of a plurality of chips connected via a bus. A part or all of each component of each device may be realized by the combination of the circuit or the like and the program described above.
  • a processor a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an FPGA (field-programmable gate array), or the like can be used.
  • each component of the service providing device 1a when a part or all of each component of the service providing device 1a is realized by a plurality of information processing devices and circuits, the plurality of information processing devices and circuits may be centrally arranged. It may be distributed.
  • the information processing device, the circuit, and the like may be realized as a form in which each is connected via a communication network, such as a client-server system and a cloud computing system.
  • the function of the service providing device 1a may be provided in the SaaS (Software as a Service) format.
  • FIG. 5 is a block diagram showing the configuration of the service providing device 1b according to the third embodiment.
  • the service providing device 1b is information for controlling switching to a user interface (UI) according to the type of the service providing means when presenting the service providing information satisfying the needs of the target person to the terminal. It is a processing device.
  • the service providing device 1b is connected to a network (not shown).
  • the network may be wired or wireless. Further, the network is connected to a terminal used by the target person.
  • the service providing device 1b includes a UI control unit 11b, a specific unit 12b, and a selection unit 13b.
  • the UI control unit 11b controls a first user interface (UI) that is a dialogue partner with the target person at the terminal of the target person being watched over.
  • UI user interface
  • the UI includes display on the screen of the terminal and input / output of voice
  • a character represented by an animation image group is assumed as a dialogue partner.
  • the UI includes at least the character.
  • the specifying unit 12b identifies the needs of the target person from the collected information collected via the first UI.
  • the specific unit 12b may specify needs based on conversation information and related information as in the specific unit 12 described above.
  • the selection unit 13b selects a service providing means corresponding to the specified needs type from a plurality of service providing means corresponding to each of the plurality of types of needs.
  • the UI control unit 11b controls switching from the first UI to the second UI according to the service providing means selected in order to present the service provision information satisfying the specified needs to the terminal. ..
  • the UI control unit 11b may continue to control the second UI after switching.
  • the UI control unit 11b may request another server to switch to the second UI and transfer the control right of the UE of the terminal.
  • the "switching to the second UI" includes an image in which only the character is switched (to another animation image group), although the background image and the input format are not changed.
  • the "switching to the second UI” includes those in which the background image, the input format, and the like are switched and the character does not change.
  • the "switching to the second UI” includes a background image and an input format in which the character is also switched. It was
  • FIG. 6 is a flowchart showing the flow of the service providing method according to the third embodiment.
  • the UI control unit 11b collects collected information at the terminal of the target person being watched over via a first user interface (UI) that is a dialogue partner with the target person (S11b).
  • the specifying unit 12b identifies the needs of the target person from the collected information (S12b).
  • the selection unit 13b selects a service providing means corresponding to the type of needs specified from the plurality of service providing means (S13b).
  • the UI control unit 11b controls switching from the first UI to the second UI according to the selected service providing means in order to present the service providing information satisfying the specified needs to the terminal. (S14b).
  • the service provision information can be effectively presented to the target person by using the user interface suitable for the service.
  • the service providing device 1b includes a processor, a memory, and a storage device as a configuration (not shown). Further, the storage device stores a computer program in which the processing of the recommendation method according to the present embodiment is implemented. Then, the processor reads the computer program from the storage device into the memory and executes the computer program. As a result, the processor realizes the functions of the UI control unit 11b, the specific unit 12b, and the selection unit 13b.
  • the UI control unit 11b, the specific unit 12b, and the selection unit 13b may each be realized by dedicated hardware.
  • a part or all of each component of each device may be realized by a general-purpose or dedicated circuitry, a processor, or a combination thereof. These may be composed of a single chip or may be composed of a plurality of chips connected via a bus. A part or all of each component of each device may be realized by the combination of the circuit or the like and the program described above.
  • a processor a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an FPGA (field-programmable gate array), or the like can be used.
  • each component of the service providing device 1b when a part or all of each component of the service providing device 1b is realized by a plurality of information processing devices and circuits, the plurality of information processing devices and circuits may be centrally arranged. It may be distributed.
  • the information processing device, the circuit, and the like may be realized as a form in which each is connected via a communication network, such as a client-server system and a cloud computing system.
  • the function of the service providing device 1b may be provided in the SAAS (Software as a Service) format.
  • FIG. 7 is a block diagram showing an overall configuration of the service providing system 1000 according to the fourth embodiment.
  • the service providing system 1000 is an information system for monitoring the target person U1 so that he / she can live safely and securely, and presenting service provision information satisfying various needs to the target person U1 and the family U2.
  • the target person U1 is, for example, an elderly person living alone or an elderly person living in a nursing facility or the like.
  • the family U2 is an example of a person related to the subject U1 and is a child, grandchild, or relative of the subject U1.
  • the service providing system 1000 includes an authentication device 100, a tablet terminal 200, a health information measuring device 300, a smartphone 400, and a service providing server 500, 500a to 500d.
  • the authentication device 100, the tablet terminal 200, the smartphone 400, and the service providing servers 500, 500a to 500d are each connected via the network N.
  • the network N is a wired or wireless communication line.
  • biometric authentication is referred to as face authentication and biometric information is referred to as facial feature information, but other techniques using captured images can be applied to biometric authentication and biometric information.
  • data feature amount
  • data feature amount
  • the authentication device 100 is an information processing device that stores facial feature information of a plurality of persons. For example, it is assumed that the authentication device 100 stores the facial feature information of the subject U1 and the family U2. Further, the authentication device 100 collates the face image or face feature information included in the request with the face feature information of each user in response to the face recognition request received from the outside, and requests the collation result (authentication result). Reply to the original.
  • FIG. 8 is a block diagram showing the configuration of the authentication device 100 according to the fourth embodiment.
  • the authentication device 100 includes a face information DB (DataBase) 110, a face detection unit 120, a feature point extraction unit 130, a registration unit 140, and an authentication unit 150.
  • the face information DB 110 stores the user ID 111 and the face feature information 112 of the user ID in association with each other.
  • the face feature information 112 is a set of feature points extracted from the face image.
  • the authentication device 100 may delete the face feature information 112 in the face feature DB 110 in response to a request from the registered user of the face feature information 112. Alternatively, the authentication device 100 may be deleted after a certain period of time has elapsed from the registration of the face feature information 112.
  • the face detection unit 120 detects a face area included in the registered image for registering face information and outputs it to the feature point extraction unit 130.
  • the feature point extraction unit 130 extracts feature points from the face region detected by the face detection unit 120, and outputs face feature information to the registration unit 140. Further, the feature point extraction unit 130 extracts the feature points included in the face image received from the service providing server 500 or the like, and outputs the face feature information to the authentication unit 150.
  • the registration unit 140 newly issues the user ID 111 when registering the facial feature information.
  • the registration unit 140 registers the issued user ID 111 and the face feature information 112 extracted from the registered image in the face information DB 110 in association with each other.
  • the authentication unit 150 performs face authentication using the face feature information 112. Specifically, the authentication unit 150 collates the face feature information extracted from the face image with the face feature information 112 in the face information DB 110.
  • the authentication unit 150 returns to the service providing server 500 whether or not the facial feature information matches.
  • the presence or absence of matching of facial feature information corresponds to the success or failure of authentication.
  • the fact that the facial feature information matches (with matching) means that the degree of matching is equal to or higher than a predetermined value.
  • FIG. 9 is a flowchart showing the flow of the face information registration process according to the fourth embodiment.
  • the information registration terminal (not shown) photographs the body including the face of the target person U1 (user) and the family U2 (user), and makes a face information registration request including the photographed image (registered image) via the network N. And sends it to the authentication device 100.
  • the information registration terminal is, for example, an information processing device such as a personal computer, a smartphone, or a tablet terminal.
  • the information registration terminal may be a tablet terminal 200 or a smartphone 400.
  • the authentication device 100 acquires the registered image included in the face information registration request (S21). For example, the authentication device 100 receives the face information registration request from the information registration terminal via the network N. Next, the face detection unit 120 detects the face region included in the registered image (S22). Next, the feature point extraction unit 130 extracts feature points from the face region detected in step S22, and outputs face feature information to the registration unit 140 (S23). Finally, the registration unit 140 issues the user ID 111, associates the user ID 111 with the face feature information 112, and registers the user ID 111 in the face information DB 110 (S24). The authentication device 100 may receive the face feature information 112 from the information registration terminal and register it in the face information DB 110 in association with the user ID 111.
  • FIG. 10 is a flowchart showing the flow of face recognition processing by the authentication device 100 according to the fourth embodiment.
  • the feature point extraction unit 130 acquires a face image for authentication included in the face authentication request (S31).
  • the authentication device 100 receives a face authentication request from the service providing server 500 or the like via the network N, and extracts face feature information from the face image included in the face authentication request as in steps S21 to S23.
  • the authentication device 100 may receive facial feature information from the service providing server 500 or the like.
  • the authentication unit 150 collates the acquired face feature information with the face feature information 112 of the face information DB 110 (S32).
  • the authentication unit 150 identifies the user ID 111 of the user whose face feature information matches (S34). , The user ID 111 specified that the face authentication was successful is returned to the service providing server 500 or the like (S35).
  • the authentication unit 150 returns to the service providing server 500 or the like that the face authentication has failed (S36).
  • the health information measuring device 300 is a device that measures health information such as blood pressure and body temperature of the subject U1. Further, the health information measuring device 300 is connected to the tablet terminal 200 by wire or wirelessly, and outputs the measured value to the tablet terminal 200.
  • the tablet terminal 200 is an example of a terminal used by the target person U1.
  • the tablet terminal 200 is installed in the residence or the like of the target person U1.
  • the tablet terminal 200 displays a character imitating an animal or a robot by the installed software, and operates the character as a user interface to be a dialogue partner of the target person U1.
  • the tablet terminal 200 analyzes the content control information from the service providing server 500 or the like, displays the character, and outputs voice or text as the dialogue of the character. Further, the tablet terminal 200 picks up the utterance of the target person U1 and transmits the picked up voice information or the voice recognition result to the service providing server 500 or the like.
  • the target person U1 can have a dialogue (conversation) with the character displayed on the tablet terminal 200.
  • the tablet terminal 200 transmits the health information of the target person U1 acquired from the health information measuring device 300 to the service providing server 500 or the like via the network N.
  • the tablet terminal 200 When the tablet terminal 200 is the above-mentioned information registration terminal, the tablet terminal 200 captures a registered image used for face recognition of the target person U1. The tablet terminal 200 transmits a face information registration request including a registered image to the authentication device 100 via the network N. The target person U1 may take a registered image using another information terminal and register the face information.
  • the tablet terminal 200 captures an authentication face image used for face recognition of the target person U1.
  • the tablet terminal 200 transmits a face recognition request including an image for authentication to the service providing server 500 via the network N.
  • the tablet terminal 200 receives a response according to the face authentication result from the service providing server 500 via the network N, and displays the face authentication result on the screen via the character.
  • the tablet terminal 200 outputs the conversation content by voice via the character in response to the instruction of the conversation content from the service providing server 500, and collects the voice of the answer from the target person U1.
  • the tablet terminal 200 transmits the response information based on the picked-up voice to the service providing server 500 via the network N.
  • the tablet terminal 200 receives the content control information including the service provision information from the service provision server 500 or the like, reproduces the content based on the content control information, and outputs the service provision information.
  • the tablet terminal 200 may output the default character or the character of another service provider as a user interface by voice.
  • the tablet terminal 200 may present the service provision information to the target person U1 by receiving the WEB content from the service providing server 500d and displaying the WEB content on the screen. In this case, the character does not have to be displayed.
  • FIG. 11 is a block diagram showing the configuration of the tablet terminal 200 according to the fourth embodiment.
  • the tablet terminal 200 includes a camera 210, a microphone 220, a speaker 230, a touch panel 240, a communication unit 250, a memory 260, and a control unit 270.
  • the camera 210 is a photographing device that photographs the target person U1 according to the control of the control unit 270.
  • the microphone 220 is a sound collecting device that collects the voice spoken by the subject U1.
  • the speaker 230 is a device that outputs sound according to the control of the control unit 270.
  • the touch panel 240 includes a display device (display unit) such as a screen and an input device.
  • the communication unit 250 is a communication interface with the network N.
  • the memory 260 is a storage device in which a program for realizing each function of the tablet terminal 200 is stored.
  • the control unit 270 controls the hardware of the tablet terminal 200.
  • the control unit 270 includes a content processing unit 271.
  • the content processing unit 271 receives content control information including service provision information from the service provision server 500 and the like, and reproduces the content based on the content control information. Then, the content processing unit 271 presents the service provision information to the target person U1 by outputting the reproduced content via the speaker 230 and the touch panel 240.
  • the smartphone 400 is an example of a terminal used by the family U2. It is assumed that the smartphone 400 is owned by one of the family U2.
  • the smartphone 400 may be a tablet terminal, a PC (Personal Computer) equipped with or connected to a camera, or the like.
  • the smartphone 400 exchanges text data with the service providing server 500 and the like via a general-purpose SNS (Social Network Service) application.
  • SNS Social Network Service
  • the smartphone 400 may receive the service provision information from the service provision server 500 or the like and display it on the screen as a message.
  • the smartphone 400 When the smartphone 400 is the above-mentioned information registration terminal, the smartphone 400 captures a registered image used for face recognition of each family U2. The smartphone 400 transmits a face information registration request including a registered image to the authentication device 100 via the network N. The family U2 may take a registered image using another information terminal and register the face information.
  • FIG. 12 is a block diagram showing the configuration of the smartphone 400 according to the fourth embodiment.
  • the smartphone 400 includes a camera 410, a microphone 420, a speaker 430, a touch panel 440, a communication unit 450, a communication unit 450, a memory 460, and a control unit 470.
  • a known one may be used as the smartphone 400.
  • the camera 410 is a photographing device that photographs the family U2 under the control of the control unit 470.
  • the microphone 420 is a sound collecting device that collects the voice spoken by the family U2.
  • the speaker 430 is a device that outputs sound according to the control of the control unit 470.
  • the touch panel 440 includes a display device (display unit) such as a screen and an input device.
  • the communication unit 450 is a communication interface with the network N.
  • the memory 460 is a storage device in which a program for realizing each function of the smartphone 400 is stored.
  • the control unit 470 controls the hardware of the smartphone 400.
  • the control unit 470 includes an SNS application 471.
  • the SNS application 471 receives text information corresponding to the conversation content from the service providing server 500 or the like, and displays it as a character message on the screen. Further, the SNS application 471 transmits the text information input from the family U2 to the service providing server 500 or the like via the network N. Further, the SNS application 471 receives the service provision information from the service provision server 500 and the like, and displays it as a character message on the screen.
  • the service providing server 500 is an example of the service providing devices 1, 1a and 1b described above.
  • the service providing server 500 collects conversation information of the target person U1 and related information of the target person U1 or the family U2 through communication with the tablet terminal 200 and the smartphone 400.
  • the service providing server 500 identifies the needs of the target person U1 based on the collected information, and selects a service type (service providing means) corresponding to the needs.
  • the service providing server 500 acquires the service providing information satisfying the specified needs by using the corresponding service providing means, and transfers the selected service providing means to the tablet terminal 200 or the smartphone 400. Send.
  • the service providing server 500 acquires the service providing information from the service providing means of the external server and transmits it to the tablet terminal 200 or the smartphone 400.
  • the service providing server 500 transmits the needs to the external server and sends the service providing information to the tablet terminal 200. Send a presentation request to be presented.
  • the service providing server 500 transmits a presentation request to an external server when the specified needs cannot be satisfied (cannot be solved) by the service providing means provided by the service providing server 500.
  • the service providing server 500 does not necessarily have to be provided with the service providing means.
  • the service providing servers 500a to 500d are examples of external servers.
  • the service providing servers 500a and 500b are equipped with different service providing means corresponding to different needs types.
  • the service providing servers 500a and 500b output the service providing information by using the service providing means according to the needs received from the service providing server 500, and return the service providing information to the service providing server 500.
  • the service providing server 500b corresponds to the customized contents described later in the service providing server 500.
  • the service providing servers 500c and 500d are equipped with different service providing means corresponding to different types of needs, and independently return the service providing information satisfying the needs to the tablet terminal 200. It is assumed that the service providing server 500c has the same function as the above-mentioned service providing server 500. Therefore, the service providing server 500c is an example of the service providing devices 1, 1a and 1b described above. It is assumed that the service providing server 500d is a server on which a general-purpose WEB application is operated. The service providing server 500d searches a predetermined DB using the needs received from the service providing server 500 as a search key, and returns the search result to the tablet terminal 200 via the network N.
  • Each of the service providing servers 500 and 500a to 500d is an information processing device, and may be made redundant by a plurality of servers, or each functional block may be realized by a plurality of computers.
  • FIG. 13 is a block diagram showing a configuration of the service providing server 500 according to the fourth embodiment.
  • the configuration of the service providing server 500c is also the same as that in FIG.
  • the service providing server 500 includes a storage unit 510, a memory 520, a communication unit 530, and a control unit 540.
  • the storage unit 510 is a storage device such as a hard disk and a flash memory.
  • the storage unit 510 stores the program 511, the personal information DB 512, the needs specific model 513, the service type definition information 514, the service provision models 515 and 516, the format information 517, the default content 518, and the customized content 518.
  • the program 511 is a computer program in which the processing of the service providing method according to the fourth embodiment is implemented.
  • the personal information DB 512 is a database that manages personal information about the target person U1 and the family U2.
  • the user ID 5121 and the personal information 5122 are associated with each other.
  • the user ID 5121 is the identification information of the target person U1.
  • the personal information 5122 is information extracted from the conversation information of the subject U1 described above, the related information of the subject U1, and the related information of the family U2.
  • the personal information 5122 is, for example, a keyword included in the content answered by the target person U1 in response to a question from the character. Further, the personal information 5122 is a keyword included in the content answered by the subject U1 in response to a message from the family U2, for example.
  • the personal information 5122 is, for example, a keyword included in a soliloquy issued by the subject U1 in front of the tablet terminal 200. Further, the personal information 5122 is, for example, health information such as blood pressure and body temperature measured by the health information measuring device 300 from the subject U1. The personal information 5122 may be information analyzed from the collected information by the specific unit 552 described later.
  • the needs specific model 513 is a program module or model formula in which a process of estimating the needs (direct or indirect request) of the target person U1 from a plurality of keywords included in the personal information 5122 is implemented.
  • the needs specific model 513 is a mathematical model in which a plurality of keywords included in the personal information 5122 are used as input data and calculated by using a predetermined parameter (weighting coefficient) for each input data. For example, in a neural network or the like. It is an expression.
  • the needs specific model 513 may include the current time (month) and the like as input data.
  • the service type definition information 514 is information in which the needs type, the service type (service providing means), and the address to the providing server of the service providing means are associated with each other. For example, when the type of needs is a medical institution, it is assumed that the reservation system of the medical institution is associated with the service providing means and the service providing server 500a is associated with the providing server. Further, the service type definition information 514 is an internal service in which the service providing means is implemented in the service providing server 500 or an external service in which the service providing means is implemented in another service providing server 500a or the like for each service type. It is possible to distinguish. Further, in the service type definition information 514, it is possible to distinguish between the default content type and the customized content type for each service type. In the case of original content, it is assumed that the type of content is undefined.
  • the service provision models 515 and 516 are implemented in the service provision server 500 among different service provision means corresponding to different needs types. It is assumed that the service provision model 515 provides, for example, an advice statement by a character as service provision information.
  • the service provision model 516 shall provide, for example, a timetable of a route and a bus at a bus stop corresponding to needs as service provision information.
  • the service provision model 516 may be provided by another service provider.
  • the service provision models 515 and 516 are program modules and model formulas in which a process of estimating service provision information from needs is implemented.
  • the service provision model 515 is a mathematical model that is calculated by using the specified needs as input data and using predetermined parameters (weighting coefficients) for each input data, and is expressed by, for example, a neural network or the like. be.
  • the service provision model 516 is similar to the service provision model 515.
  • the format information 517 is information that defines the format of the content to be played on the screen (touch panel 240) of the tablet terminal 200.
  • the format information 517 defines, for example, a character arrangement position, a dialogue display position, a display position of buttons of other functions, and the like as a layout on the screen.
  • the format information 517 the default content 518 or the customized content 519 described later can be applied as the content.
  • the default content 518 is the information defined by the service providing server 500 by default among the contents applied to the format information 517.
  • the default content 518 includes an animation image group 5181 and dialogue information 5182.
  • the animation image group 5181 is a set of a plurality of images showing various frames of the software robot (character) to be a conversation partner with the target person U1.
  • the dialogue information 5182 is text information indicating a statement and a message of the corresponding character.
  • the default content 518 is used, for example, when the service type corresponds to the service provision model 515.
  • Customized content 519 is defined information customized by another service provider among the contents applied to the format information 517.
  • the customized content 519 includes an animation image group 5191 and dialogue information 5192.
  • the animation image group 5181 is a set of a plurality of images showing various frames of a character used as a user interface when presenting service provision information by the service provision model 516 to the target person U1.
  • the dialogue information 5192 is text information indicating a statement and a message of the corresponding character.
  • Customized content 519 is used, for example, when the service type corresponds to the service provision model 516.
  • the customized content 519 may be set by the service provider operating the service providing server 500c and used when presenting the service providing information acquired from the service providing server 500c.
  • the memory 520 is a volatile storage device such as a RAM (RandomAccessMemory), and is a storage area for temporarily holding information when the control unit 540 operates.
  • the communication unit 530 is a communication interface with the network N.
  • the control unit 540 is a processor, that is, a control device that controls each configuration of the service providing server 500.
  • the control unit 540 reads the program 511 from the storage unit 510 into the memory 520 and executes the program 511.
  • the control unit 540 functions as an authentication control unit 550, a collection unit 551, a specific unit 552, a selection unit 555, an acquisition unit 554, a generation unit 555, a presentation unit 556, a request unit 557, a notification unit 558, and a reception unit 559.
  • the authentication control unit 550 controls the biometric authentication of the subject using the biometric information extracted from the photographed image taken by the subject U1.
  • the photographed image may be an image taken by the family U2.
  • the authentication control unit 550 controls face authentication as biometric authentication. Specifically, the authentication control unit 550 receives a face recognition request from the tablet terminal 200 via the network N, and acquires a captured image included in the face recognition request. Then, the authentication control unit 550 controls face recognition for the face area of the target person U1 included in the captured image. That is, the authentication control unit 550 causes the authentication device 100 to perform face recognition on the acquired captured image.
  • the authentication control unit 550 transmits a face authentication request including the acquired captured image to the authentication device 100 via the network N, and receives the face authentication result from the authentication device 100.
  • the authentication control unit 550 may detect the face region of the target person U1 from the captured image and include the image of the face region in the face authentication request.
  • the authentication control unit 550 may extract the face feature information from the face region and include the face feature information in the face authentication request.
  • the collection unit 551 is an example of the collection unit 11 and the UI control unit 11b described above.
  • the collection unit 551 outputs the first voice corresponding to the content of the first question from the tablet terminal 200 of the target person U1. Then, the collecting unit 551 collects the answer information based on the second voice, which is the answer to the first question content input from the target person U1 to the tablet terminal 200, as conversation information from the tablet terminal 200.
  • the collecting unit 551 receives the first text information corresponding to the content of the first question input to the smartphone 400 of the family U2 from the smartphone 400, converts the first text information into the first voice, and converts the first text information into the first voice.
  • the converted first voice is output from the tablet terminal 200.
  • the collecting unit 551 causes the smartphone 400 to display the second text information corresponding to the content of the second question. Then, the collecting unit 551 collects the third text information, which is the answer to the second question content input from the family U2 to the smartphone 400, as related information from the smartphone 400.
  • the collecting unit 551 collects the health information measured from the subject U1 by the health information measuring device 300 as related information from the tablet terminal 200.
  • the collection unit 551 may collect conversation information and related information.
  • the collecting unit 551 extracts keywords as personal information from the collected collected information (conversation information and related information), and stores the user ID 5121 of the target person U1 and the personal information 5122 in association with each other in the storage unit 510. Further, the collecting unit 551 may further collect conversation information or related information from an external server provided with the service providing means, and store it in the storage unit 510 as personal information as described above.
  • the specific unit 552 is an example of the specific unit 12, the specific unit 11a, and the specific unit 12b described above.
  • the specific unit 552 identifies the needs of the target person U1 from a plurality of keywords included in the personal information 5122. Specifically, the specific unit 552 reads the personal information 5122 from the storage unit 510 and acquires the keyword (group). The specific unit 552 may analyze the collected information collected by the collection unit 551 and acquire (extract) the keyword as personal information. Further, the specific unit 552 may analyze the personal information 5122 read from the storage unit 510 and acquire it as a keyword. Then, the specifying unit 552 inputs the acquired keyword (group) into the needs specifying model 513, and identifies the needs by acquiring the needs as an output from the needs specifying model 513.
  • the specific unit 552 specifies the “bus timetable” (at the nearest bus stop) as a need using the needs identification model 513. For example, when the keywords are "blood pressure” and “high”, the specific unit 552 specifies “taking a drug” as a need by using the needs specifying model 513. For example, when the keywords are "waist” and “painful”, the specific unit 552 specifies “visiting a medical institution” as a need using the needs identification model 513. For example, when the keywords are "cherry blossom” and “want to see”, the specific unit 552 specifies "event related to cherry blossoms” as a need by using the needs identification model 513.
  • the specific unit 552 specifies “repair of the air conditioner” as a need by using the needs specifying model 513.
  • the specific unit 552 specifies "consultation of inheritance” as a need by using the needs identification model 513.
  • the specific unit 552 may include the current time as a keyword to be input to the needs specific model 513. For example, assuming that the conversation information spoken by the subject U1 in the past includes “strawberry” and “want to eat” as keywords, "May", which is the current time, is added as a keyword. In that case, the specific unit 552 inputs “strawberry”, “want to eat", and “May” into the needs specific model 513 as input data. In this case, the needs-specific model 513 outputs the strawberry varieties whose season is "May” as needs. That is, the specifying unit 552 may specify suitable needs in consideration of the past remarks of the subject U1 and the current time.
  • the selection unit 553 is an example of the selection unit 12a and the selection unit 13b described above.
  • the selection unit 553 selects a service providing means corresponding to the specified needs type from the plurality of service providing means. Specifically, the selection unit 553 refers to the service type definition information 514 and selects a service type (service providing means) from the needs specified by the specific unit 552.
  • the acquisition unit 554 inputs the specified needs to the selected service providing means and acquires the service provision information satisfying the needs. Specifically, when the selected service providing means is the service providing model 515 or 516 implemented in the service providing server 500, the acquisition unit 554 meets the needs specified by the service providing model 515 or 516. Get service provision information. Further, when the selected service providing means is implemented on the service providing server 500a or 500b (that is, when there is no switching of the control server), the acquisition unit 554 specifies the service providing server 500a or 500b. Send your needs. Then, the acquisition unit 554 acquires the service provision information output by inputting the specified needs to the service provision means implemented in the service provision server 500a or 500b by receiving the service provision information output from the server. do.
  • the acquisition unit 554 may acquire a part of the candidates for the plurality of service provision information output from the service provision means as the service provision information satisfying the needs. That is, the acquisition unit 554 may narrow down the candidates for the plurality of service provision information according to a predetermined standard. For example, when all of the candidates for the plurality of service provision information are presented to the target person U1, a large amount may not be selected by the target person U1. On the other hand, the acquisition unit 554 narrows down from a plurality of service provision information candidates by using other keywords that are not used to identify the needs from the personal information 5122 of the target person U1 as a predetermined standard. As a result, the target person U1 can receive the presentation of the service provision information carefully selected according to his / her preference.
  • the receiving unit 559 receives a presentation request including the second need of the target person U1 from another service providing server.
  • the presentation request includes the address information of the tablet terminal 200 to be the response destination together with the second need.
  • the acquisition unit 554 inputs the second need into the service provision model 515 or 516 to acquire the service provision information satisfying the second need.
  • the inquiry means (non-use) that generates the first voice corresponding to the inquiry content to the target person U1 and outputs it from the tablet terminal 200. (Shown) may be further provided.
  • the inquiry means may be the collection unit 551.
  • the acquisition unit 554 acquires the answer information based on the second voice, which is the answer to the inquiry content input from the target person U1 to the tablet terminal 200, from the tablet terminal 200.
  • the acquisition unit 554 inputs the answer information and the second need into the service providing means to acquire the second service providing information.
  • the acquisition unit 554 further acquires the collected information collected by the service providing server 500c or the like, and when the collected information satisfies the additional information, the collected information and the second need are input to the service providing means and the second is obtained. It is advisable to acquire the service provision information of 2.
  • the generation unit 555 generates content control information for playing back the content including the acquired service provision information on the tablet terminal 200 of the target person U1.
  • the generation unit 555 generates the content control information by using the content information and the service provision information corresponding to the service providing means.
  • the generation unit 555 generates content control information using the format information 517 and the acquired service provision information.
  • the presentation unit 556 is an example of the presentation unit 13 and the UI control unit 11b described above.
  • the presentation unit 556 presents the acquired service provision information to at least the target person U1. Specifically, the presentation unit 556 presents the content control information to the target person U1 by transmitting the content control information to the tablet terminal 200.
  • the presentation unit 556 may present the acquired service provision information to the family U2. That is, the presentation unit 556 may transmit the acquired service provision information as text information to the smartphone 400.
  • the request unit 557 is an example of the above-mentioned request unit 13a.
  • the request unit 557 transmits a presentation request for presenting the first service provision information satisfying the first need to at least the tablet terminal 200 of the target person U1 to the service providing server provided with the selected service providing means. do.
  • the request unit 557 transmits a presentation request when the selected service providing means is implemented in the service providing server 500c or 500d (that is, when the control server is switched). In other words, if the own device (service providing server 500) does not have the selected service providing means, the requesting unit 557 sends a presentation request to an external service providing server.
  • the notification unit 558 notifies the collected conversation information and related information to another service providing server provided with the service providing means.
  • the personal information of the target person U1 can be shared among the plurality of service providing servers, and more effective service providing information can be presented.
  • the selection unit 553 selects a bus time search service as a service providing means according to the type of needs. Then, the acquisition unit 554 inputs a route name, a bus stop name, etc. into the service providing means of the bus time search service, and acquires the timetable of the corresponding bus as the service provision information. Further, when the need is "taking medicine", the selection unit 553 selects advice as a service providing means from the type of need.
  • the acquisition unit 554 inputs the dose of the drug into the service providing means of the advice, and acquires the message of the advice (question) of "confirming whether or not the drug has been taken" as the service provision information. Further, when the needs are "visiting a medical institution" (name of the target person U1, medical history, etc.), the selection unit 553 selects the medical institution's consultation reservation service as a service providing means according to the type of needs. Then, the acquisition unit 554 inputs the name, medical history, etc. of the target person U1 into the service providing means of the consultation reservation service, and acquires the "schedule candidate for consultation reservation" as the service provision information.
  • the selection unit 553 selects the event search service as the service providing means.
  • the event search service is implemented in the service providing server 500d. Therefore, the request unit 557 sends a presentation request to the service providing server 500d with the "event related to cherry blossoms" as a need.
  • the need is "repair of air conditioner” (name, address, etc. of the target person U1
  • the selection unit 553 selects the home appliance repair service as a service providing means.
  • the acquisition unit 554 inputs the name, address, etc. of the target person U1 into the service providing means of the home appliance repair service, and acquires the "candidate for repair visit schedule" as the service provision information.
  • the selection unit 553 selects the inheritance consultation service of the bank as the service providing means.
  • the inheritance consultation service of the bank is implemented in the service providing server 500c. Therefore, the request unit 557 sends a presentation request to the service providing server 500c with "consultation on inheritance" (name of the target person U1 etc.) as a need.
  • the above-mentioned collection unit 551, presentation unit 556, and request unit 557 have aspects as UI control units. Therefore, the processing of the UI control unit will be described below.
  • the UI control unit is an example of the UI control unit 11b described above.
  • the UI control unit controls switching from the first UI to the second UI according to the selected service providing means in order to present the service providing information satisfying the specified needs to the tablet terminal 200.
  • the UI control unit controls switching to the second UI by playing back the content based on the generated content control information on the tablet terminal 200. Then, the UI control unit presents the first service provision information to the tablet terminal 200 via the second UI after switching. Further, when the animation image group 5191 described above corresponds to the second UI, the UI control unit presents the first service provision information via the animation image group 5191 after switching to the second UI. do.
  • the UI control unit outputs the second service providing information to the service providing server provided with the second service providing means to the second UI.
  • the switching is controlled by transmitting a presentation request for presenting to the tablet terminal 200.
  • the UI control unit causes the tablet terminal 200 to display a notice of switching to the second UI when switching is necessary.
  • FIG. 14 is a block diagram showing the configuration of the service providing server 500a according to the fourth embodiment.
  • the configuration of the service providing server 500b is also the same as that in FIG. Further, the same components as those in FIG. 13 are designated by the same reference numerals, and duplicate description will be omitted as appropriate.
  • the service providing server 500a includes a storage unit 510, a memory 520, a communication unit 530, and a control unit 540.
  • the storage unit 510 stores the program 511a and the service provision model 515a.
  • the program 511a is a computer program in which the service provision process in the service provision processing unit 550a is implemented.
  • the service provision model 515a is a service provision means corresponding to a specific type of needs.
  • the service provision model 515a is, for example, a medical institution reservation system.
  • the program 511a is read from the storage unit 510 into the memory 520, and the program 511a is executed.
  • the control unit 540 realizes the function of the service provision processing unit 550a.
  • the service provision processing unit 550a receives a request including the needs of the target person U1 from the service provision server 500 or the like, inputs the received needs into the service provision model 515a, and acquires the service provision information to be output.
  • the service provision processing unit 550a returns the acquired service provision information to the service provision server 500 or the like via the network N.
  • the service providing server 500c has the same configuration as that of FIG. Further, the service providing server 500d is generally a search server provided with a search engine as a service providing means. Therefore, the illustration of the internal configuration of the service providing server 500d is omitted.
  • FIG. 15 is a flowchart showing the flow of the service provision control process according to the fourth embodiment.
  • the collecting unit 551 collects conversation information or related information (S401). Then, the collecting unit 551 extracts personal information from the collected conversation information or related information and records it in the personal information DB 512 of the storage unit 510 (S402).
  • S401 conversation information or related information
  • S402 personal information DB 512 of the storage unit 510
  • an example of the collection process of conversation information or related information will be described below.
  • the facial feature information of each of the subject U1 and the family U2 has been registered in the authentication device 100 as described above.
  • FIG. 16 is a sequence diagram showing a flow of conversation information collection processing according to the fourth embodiment.
  • the tablet terminal 200 photographs the target person U1 (S511) and transmits the captured image to the service providing server 500 via the network N (S512).
  • the authentication control unit 550 of the service providing server 500 receives the captured image from the tablet terminal 200 via the network N, and transmits the face recognition request to the authentication device 100 via the network N (S513). At this time, the authentication control unit 550 includes at least one of the captured image acquired in step S512, the face region extracted from the captured image, and the face feature information extracted from the face region in the face authentication request. Then, the authentication control unit 550 receives the face recognition result from the authentication device 100 via the network N (S514). Here, it is assumed that the face recognition is successful. Therefore, the face authentication result includes the fact that it shows success and the user ID of the target person U1.
  • the collecting unit 551 identifies the target person U1 from the user ID included in the received face authentication result. That is, it is authenticated that the person in front of the tablet terminal 200 is the target person U1. Then, the collecting unit 551 generates a question content for the target person U1 (S516), and transmits the generated question content to the tablet terminal 200 via the network N (S517).
  • the content of the question may be text information or voice data.
  • the generation unit 555 may generate the question content. In that case, the generation unit 555 generates the content control information using the format information 517, the default content 518, and the question content.
  • the tablet terminal 200 receives the question content from the service providing server 500 via the network N, outputs the voice corresponding to the question content, and asks the target person U1 (S518). At this time, the tablet terminal 200 animates and reproduces a character image corresponding to the first UI, for example, an animation image group 5181 on the screen, and outputs a question by voice and displays the question content on the screen using the dialogue information 5182.
  • the tablet terminal 200 converts the text information into voice and then outputs the voice.
  • the target person U1 utters an answer to a question from a character in the tablet terminal 200 (S519).
  • the tablet terminal 200 collects the response of the target person U1 and transmits the response content to the service providing server 500 via the network N (S520).
  • the answer content may be text information or voice data.
  • the tablet terminal 200 may convert the collected voice into text information by voice recognition, and may transmit the converted text information as the answer content.
  • the collection unit 551 of the service providing server 500 receives the response content as conversation information from the tablet terminal 200 via the network N, extracts personal information from the conversation information, and associates it with the user ID 5121 in the personal information DB 512 of the storage unit 510. Personal information 5122 is recorded (S521).
  • FIG. 17 is a sequence diagram showing the flow of related information collection processing from the family according to the fourth embodiment.
  • the collection unit 551 of the service providing server 500 generates a question content for the family U2 (S531), and transmits the generated question content to the smartphone 400 via the network N (S532).
  • the content of the question is text information.
  • the smartphone 400 receives the question content from the service providing server 500 via the network N, and displays the received question content on the screen (S533).
  • the smartphone 400 may display the question content as a message from the character user of the service providing server 500 by the SNS application 471.
  • One of the family U2 inputs an answer to a question from a character user on the SNS application 471 (S534).
  • the smartphone 400 acquires the answer of the family U2 and transmits the answer content to the service providing server 500 via the network N (S535).
  • the content of the answer is text information.
  • the collection unit 551 of the service providing server 500 receives the response content as related information from the smartphone 400 via the network N, extracts personal information from the related information, and associates it with the personal information DB 512 of the storage unit 510 with the user ID 5121. Record personal information 5122 (S536). In addition, face recognition for family U2 may be performed before step S531.
  • FIG. 18 is a sequence diagram showing a flow of conversation information collection processing by a message from a family according to the fourth embodiment.
  • one of the family members U2 inputs a message to the target person U1 to the SNS application 471 of the smartphone 400 (S541).
  • the smartphone 400 transmits the input message as the message content to the service providing server 500 via the network N (S542).
  • the collection unit 551 of the service providing server 500 receives the message content as related information from the smartphone 400 via the network N, extracts personal information from the related information, and associates it with the personal information DB 512 of the storage unit 510 with the user ID 5121. Record personal information 5122 (S543).
  • the collecting unit 551 transmits the received message content to the tablet terminal 200 via the network N (S544).
  • the message content may be text information or voice data.
  • the generation unit 555 may generate the question content. In that case, the generation unit 555 generates the content control information using the format information 517, the default content 518, and the question content.
  • the tablet terminal 200 receives the message content from the service providing server 500 via the network N, outputs the voice corresponding to the message content, and transmits the message to the target person U1 (S545). At this time, the tablet terminal 200 animates the character image corresponding to the first UI, for example, the animation image group 5181 on the screen, and outputs the message content by voice and displays the message content on the screen by using the dialogue information 5182. When the received message content is text information, the tablet terminal 200 converts the text information into voice and then outputs the voice.
  • the target person U1 utters an answer to the message from the character in the tablet terminal 200 (S546).
  • the tablet terminal 200 collects the response of the target person U1 and transmits the response content to the service providing server 500 via the network N (S547).
  • the answer content may be text information or voice data.
  • the tablet terminal 200 may convert the collected voice into text information by voice recognition, and may transmit the converted text information as the answer content.
  • the collection unit 551 of the service providing server 500 receives the response content as conversation information from the tablet terminal 200 via the network N, extracts personal information from the conversation information, and associates it with the user ID 5121 in the personal information DB 512 of the storage unit 510. Personal information 5122 is recorded (S548).
  • the collection unit 551 transmits the received response content to the smartphone 400 via the network N (S549).
  • the content of the answer is text information.
  • the smartphone 400 receives the response content from the service providing server 500 via the network N, and displays the received response content on the screen (S550).
  • the target person U1 and the family U2 can easily communicate with each other via the service providing server 500, and personal information can be collected and accumulated from the message and the answer.
  • the identification unit 552 analyzes the personal information and identifies the needs of the target person U1 (S403). Then, the selection unit 553 selects a service type corresponding to the specified needs type (S404).
  • the acquisition unit 554 determines whether or not the selected service type indicates an internal service (S405).
  • the acquisition unit 554 may refer to the service type definition information 514 and determine whether or not the service is an external service. In other words, it can be said that the acquisition unit 554 determines whether or not the service provision model in the service provision server 500 can meet the specified needs (whether or not it can be solved).
  • the acquisition unit 554 acquires service provision information satisfying the needs from the service provision model 515 or 516 corresponding to the selected service type (S406). Then, the generation unit 555 determines whether the content is default or customized (S407). When the content is the default, the generation unit 555 generates the content control information using the default content 518 (S408). Specifically, the generation unit 555 reads the format information 517 and the default content 518 from the storage unit 510. Then, the generation unit 555 applies the service provision information acquired in step S406 and the default content 518 to the format information 517 to generate the content control information.
  • the generation unit 555 when the content is customized in step S407, the generation unit 555 generates the content control information using the customized content 519 (S409). Specifically, the generation unit 555 reads the format information 517 and the customized content 519 from the storage unit 510. Then, the generation unit 555 applies the service provision information and the customized content 519 acquired in step S406 to the format information 517 to generate the content control information.
  • the presentation unit 556 outputs (transmits) the generated content control information to the tablet terminal 200 via the network N (S410).
  • the service providing server 500 executes the external service process (S411). That is, when the service provision model in the service provision server 500 cannot meet (solve) the specified needs, the service provision server 500 executes the external service processing.
  • FIG. 19 is a flowchart showing the flow of external service processing according to the fourth embodiment.
  • the selection unit 553 selects a service providing server corresponding to the service type (S611). For example, the selection unit 553 selects a service providing server with reference to the service type definition information 514.
  • the selection unit 553 determines whether or not switching of the control server occurs (S612).
  • the "control server” refers to a server in which format information for presenting content is located, regardless of the location of the service providing means. For example, in the case of the service providing servers 500a and 500b, the service providing means exists on a server different from the service providing server 500, but the format information of the content to be presented to the target person U1 is on the service providing server 500.
  • Format information 517 is used. Therefore, when the server selected in step S611 is the service providing server 500a or 500b, the selection unit 553 determines that there is no switching of the control server. On the other hand, when the server selected in step S611 is the service providing server 500c or 500d, the selection unit 553 determines that the control server has been switched. For example, the selection unit 553 determines that there is no switching of the control server when the content type in the service type of the service type definition information 514 is defined. On the other hand, when the content type in the service type of the service type definition information 514 is not defined, the selection unit 553 determines that the control server is switched.
  • the acquisition unit 554 transmits a service provision information request including the needs specified in step S403 to the selected service provision server via the network N. (S613). Then, the acquisition unit 554 receives the service provision information from the service provision server via the network N (S614). After that, the generation unit 555 determines whether the content is default or customized (S615). When the content is the default, the generation unit 555 generates the content control information using the default content 518 as in step S408 (S616). On the other hand, when the content is customized in step S615, the generation unit 555 generates the content control information using the customized content 519 as in step S409 (S617). After that, the presentation unit 556 outputs (transmits) the generated content control information to the tablet terminal 200 via the network N (S618).
  • the request unit 557 transmits a presentation request including the needs specified in step S403 to the selected service providing server via the network N (S619).
  • the request unit 557 includes the address information of the tablet terminal 200 to be the response destination in the presentation request.
  • FIG. 20 is a flowchart showing the flow of presentation request processing according to the fourth embodiment.
  • the service providing server 500c transmits a presentation request to the service providing server 500c.
  • the service providing server 500c has the same configuration as the service providing server 500.
  • the service providing server 500c is described assuming that the service providing model (service providing means) is one, and the content information is only the customized content 519 and the default content 518 does not exist. Further, the customized content 519 of the service providing server 500c is different from that of the service providing server 500.
  • the receiving unit 559 of the service providing server 500c receives the presentation request from the service providing server 500 via the network N (S641).
  • the acquisition unit 554 determines whether or not additional information is required (S642). That is, the acquisition unit 554 determines whether or not additional information other than the needs included in the presentation request is required as the input of the service provision model 515.
  • the acquisition unit 554 may add the collected personal information in addition to the needs included in the presentation request.
  • the inquiry means (not shown) of the service provision server 500c transmits a question to the tablet terminal 200 (S643).
  • the destination at this time is the address information of the response destination included in the presentation request.
  • the inquiry means (or the generation unit 555) generates a first voice corresponding to the content of the inquiry to the target person U1 for obtaining additional information from the target person U1. Then, the inquiry means transmits the first voice to the tablet terminal 200 via the network N, and outputs the first voice from the tablet terminal 200.
  • the inquiry means may transmit the inquiry content itself instead of the first voice. In that case, the tablet terminal 200 converts the received inquiry content into voice and outputs it.
  • the acquisition unit 554 or the collection unit 551 receives the response information from the tablet terminal 200 (S644). Specifically, the acquisition unit 554 or the collection unit 551 acquires the answer information based on the second voice, which is the answer to the inquiry content input from the target person U1 to the tablet terminal 200, from the tablet terminal 200. Then, the acquisition unit 554 or the collection unit 551 extracts personal information from the acquired response information and records it in the personal information DB 512 of the storage unit 510 (S645).
  • step S646 the acquisition unit 554 acquires the service provision information (S646). Specifically, the acquisition unit 554 inputs the needs and personal information (answer information) included in the presentation request into the service provision model 515, and acquires the output service provision information. Then, the generation unit 555 generates the content control information using the customized content 519 in the same manner as in step S409 (S647). After that, the presentation unit 556 outputs (transmits) the generated content control information to the tablet terminal 200 via the network N (S648). The destination at this time is the address information of the response destination included in the presentation request.
  • FIG. 21 is a sequence diagram showing a flow of service provision processing according to the fourth embodiment.
  • the default content 518 is used as described above in cooperation with the service providing server 500a as an external service providing server. That is, the case where the switching of the first UI does not occur is shown.
  • the specific unit 552 analyzes the personal information and identifies the needs of the target person U1 (S701).
  • the selection unit 553 refers to the service type definition information 514 and determines the service type corresponding to the specified needs type (S702).
  • the service is determined to be an external service.
  • the selection unit 553 selects the service providing server associated with the determined service type with reference to the service type definition information 514 (S703).
  • the service providing server 500a having the configuration shown in FIG. 14 is selected.
  • the determination in step S612 described above may be performed. In that case, it is determined that the control server has not been switched.
  • the acquisition unit 554 transmits a service provision request including the specified needs to the service provision server 500a via the network N (S704).
  • the service provision processing unit 550a of the service provision server 500a receives the service provision request from the service provision server 500 via the network N, and identifies (acquires) the service provision information from the needs included in the service provision request by the service provision model 515a. (S705). Then, the service provision processing unit 550a transmits the specified service provision information to the service provision server 500 via the network N (S706).
  • the acquisition unit 554 of the service providing server 500 receives the service providing information from the service providing server 500a via the network N. Then, the generation unit 555 generates the content control information using the service provision information, the format information 517, and the default content 518 (S707). After that, the presentation unit 556 transmits the generated content control information to the tablet terminal 200 via the network N (S708).
  • the tablet terminal 200 receives the content control information from the service providing server 500 via the network N, and outputs the content based on the content control information (S709). That is, the tablet terminal 200 reproduces the default character based on the content control information and presents the service provision information.
  • the service provision information can be presented to the target person U1 without switching the first UI.
  • FIG. 22 is a sequence diagram showing the flow of the service provision process according to the fourth embodiment.
  • the customized content 519 in the service providing server 500c is used in cooperation with the service providing server 500c as an external service providing server. That is, it shows a case where switching from the first UI used for collecting personal information to the second UI for presenting service provision information occurs.
  • Steps S701 and S702 are the same as those in FIG. 21 described above.
  • the selection unit 553 selects the service providing server associated with the determined service type with reference to the service type definition information 514 (S703).
  • the service providing server 500c having the configuration shown in FIG. 13 is selected.
  • the determination in step S612 described above may be performed. In that case, it is determined that the control server has been switched.
  • the UI control unit (for example, the presentation unit 556) transmits a UI switching notice to the tablet terminal 200 via the network N (S711). Then, the tablet terminal 200 outputs the received UI switching notice (S712). For example, the character may display the switching notice message on the screen while outputting the UI switching notice by voice.
  • the request unit 557 transmits a presentation request including the specified needs to the service providing server 500c via the network N (S713).
  • the presentation request includes the address information of the tablet terminal 200 to be the response destination together with the second need.
  • the receiving unit 559 of the service providing server 500c acquires the needs included in the presentation request.
  • additional information is unnecessary. Therefore, the acquisition unit 554 of the service provision server 500c specifies (acquires) the service provision information from the acquired needs by the service provision model 515 (S714).
  • the generation unit 555 of the service providing server 500c generates the content control information by using the service providing information, the format information 517, and the customized content 519 (S715).
  • the presentation unit 556 of the service providing server 500c transmits the generated content control information to the tablet terminal 200 via the network N (S716).
  • the tablet terminal 200 receives the content control information from the service providing server 500c via the network N, and outputs the content based on the content control information (S717). That is, the tablet terminal 200 reproduces a character (unique to the service providing server 500c) different from the default based on the content control information, and presents the service providing information.
  • the service provision information is provided to the target person U1 by the UI suitable for the service provision means. Can be presented.
  • FIG. 23 is a sequence diagram showing the flow of the service provision process according to the fourth embodiment.
  • the customized content 519 in the service providing server 500c is used in cooperation with the service providing server 500c as an external service providing server.
  • the service providing server 500c is used as an external service providing server.
  • additional information is required in addition to the needs included in the presentation request.
  • Steps S701 to S712 are the same as those in FIG. 22 described above.
  • the acquisition unit 554 of the service providing server 500c determines whether or not additional information other than the needs included in the presentation request is required as the input of the service providing model 515 (S721).
  • additional information is required. For example, if the needs are "hot spring trips", it is assumed that there is a shortage of desired schedule candidates. In this case, the additional information is the "desired date".
  • the generation unit 555 generates the question content for asking for additional information from the target person U1. Then, the generation unit 555 generates the content control information by using the generated question content, the format information 517, and the customized content 519 (S722). After that, the presentation unit 556 of the service providing server 500c transmits the generated content control information to the tablet terminal 200 via the network N (S723).
  • the tablet terminal 200 receives the content control information from the service providing server 500c via the network N, and outputs the content based on the content control information (S724). At this time, the tablet terminal 200 reproduces the customized character (second UI) and outputs the inquiry by voice (S725). The subject U1 feels that the character is talking to the inquiry.
  • the target person U1 utters an answer to the inquiry from the character in the tablet terminal 200 (S726).
  • the tablet terminal 200 collects the response of the target person U1 and transmits the response content to the service providing server 500c via the network N (S727).
  • the answer content may be text information or voice data.
  • the tablet terminal 200 may convert the collected voice into text information by voice recognition, and may transmit the converted text information as the answer content.
  • the collection unit 551 or the acquisition unit 554 of the service providing server 500c receives the response content as conversation information from the tablet terminal 200 via the network N, extracts personal information from the conversation information, and stores the user in the personal information DB 512 of the storage unit 510.
  • the personal information 5122 is recorded in association with the ID 5121 (S728). Here, it is assumed that the extracted personal information satisfies the additional information.
  • the acquisition unit 554 identifies (acquires) the service provision information from the acquired needs and the extracted personal information (additional information) by the service provision model 515 (S729). After that, steps S715 to S717 are processed in the same manner as in FIG. 22 described above. That is, the tablet terminal 200 reproduces a character (unique to the service providing server 500c) different from the default based on the content control information, and presents the service providing information.
  • the service providing server 500d has a service providing means, it does not have the content to reproduce the character image by using the animation.
  • the service providing server 500d shall have a search engine as a service providing means. Therefore, in FIG. 22 described above, steps S701 to S713 are the same.
  • the service providing server 500d searches its own search engine using the needs included in the received presentation request as a search key, and identifies (acquires) the search result as the service providing information.
  • the service providing server 500d transmits the search result to the address information included as the response destination in the presentation request, that is, the tablet terminal 200, via the network N.
  • the tablet terminal 200 displays the received search result as service provision information.
  • the display of the tablet terminal 200 is switched from the first UI to the second UI (search result) even when the content for reproducing the character image by using the animation is not used. Therefore, the service provision information can be presented to the target person U1 with a UI suitable for the service.
  • the service providing server 500 generates a question content for the target person U1 when the face authentication of the target person U1 is successful by the tablet terminal 200 (S516). Therefore, the service providing server 500 transmits the question content to the tablet terminal 200 (S517), and displays and outputs the voice using the default character (S518).
  • FIG. 24 is a diagram showing an example of communication with the target person U1 in the tablet terminal 200 according to the fourth embodiment.
  • the tablet terminal 200 indicates that the question content "Is it fun recently?" Is displayed and voice output is performed via the character.
  • the subject U1 indicates that he uttered the answer "I want to go with my grandchildren on my favorite hot spring trip for the first time in a long time” in response to the question (S519). Therefore, the tablet terminal 200 collects the utterance content as a response and transmits the response content to the service providing server 500 (S520). Therefore, the service providing server 500 extracts keywords such as "hot spring trip", “grandchildren", and “wants to go” from the received response contents, and registers them in the personal information DB 512 (S521).
  • the service providing server 500 refers to the personal information DB 512, and subsequently generates the question content again in order to listen to the information related to the keyword (S516). Then, the service providing server 500 transmits the question content to the tablet terminal 200 (S517), and displays and outputs the voice using the default character (S518).
  • FIG. 25 is a diagram showing an example of communication with the target person U1 in the tablet terminal 200 according to the fourth embodiment.
  • the tablet terminal 200 indicates that the question content "How are you feeling today?" Is displayed and voice output is performed via the character.
  • the subject U1 responded to the question by saying, "I went for a walk and I am in good condition. There is no particular problem.” (S519). Therefore, the tablet terminal 200 collects the utterance content as a response and transmits the response content to the service providing server 500 (S520). Therefore, the service providing server 500 extracts keywords such as "walking" and "good condition” from the received response contents and registers them in the personal information DB 512 (S521).
  • the service providing server 500 refers to the personal information DB 512 and generates a question content to the family U2 based on the keyword of the personal information 5122 associated with the target person U1 (S531 in FIG. 17). Therefore, the service providing server 500 transmits the question content (text information) to the smartphone 400 (S532), and displays the question content as a message on the SNS application 471 (S533).
  • FIG. 26 is a diagram showing an example of communication with the family U2 in the smartphone 400 according to the fourth embodiment.
  • the smartphone 400 indicates that "Where do you want to go on a trip?" Is displayed as a message (question content) from the character corresponding to the animation image group 5181 of the default content 518.
  • the family U2 indicates that the answers "hot spring”, “want to see the autumn leaves", and “want to eat the Viking” were input to the SNS application 471 in response to the question (S534). Therefore, the smartphone 400 transmits the input answer content to the service providing server 500 (S535). Therefore, the service providing server 500 extracts the keywords "hot spring", “autumn leaves", “viking”, “eat”, etc. from the received response contents, and registers them in the personal information DB 512 (S536).
  • the service providing server 500 refers to the personal information DB 512, and subsequently generates the question content again in order to hear the information related to the travel schedule (S531). Therefore, the service providing server 500 transmits the question content (text information) to the smartphone 400 (S532), and displays the question content as a message on the SNS application 471 (S533).
  • FIG. 27 is a diagram showing an example of communication with the family U2 in the smartphone 400 according to the fourth embodiment.
  • the smartphone 400 indicates that the message (question content) from the above character is displayed as "When will I be able to go on a trip!.
  • the family U2 indicates that the answer "X month Y day kana" in response to the question was input to the SNS application 471 (S534). Therefore, the smartphone 400 transmits the input answer content to the service providing server 500 (S535). Therefore, the service providing server 500 extracts the keyword "X month Y day” and the like from the received reply contents and registers them in the personal information DB 512 (S536).
  • the service providing server 500 reads the personal information 5122 (keyword) associated with the user ID 5121 of the target person U1 from the personal information DB 512, and inputs each keyword into the needs specifying model 513. Then, the service providing server 500 specifies the needs "hot spring trip with family", “schedule candidate is X month Y day”, “low walking burden”, "all-you-can-eat buffet” and the like. The service providing server 500 selects the service type "travel plan" from the specified needs type. Here, it is assumed that the "travel plan" is the default content without switching between the external service and the control server. Further, here, for convenience of explanation, it is assumed that the service providing means of the service providing server 500a is a travel plan search engine.
  • the service providing server 500 transmits, for example, a service providing request including needs to the service providing server 500a.
  • the service providing server 500a searches with a travel plan search engine using the needs included in the received service provision request as a search key, and acquires a plurality of travel plan candidates. Then, the service providing server 500a returns the searched plurality of travel plan candidates to the service providing server 500.
  • the service providing server 500 receives a plurality of travel plan candidates from the service providing server 500a.
  • the service providing server 500 may narrow down the candidates to a predetermined number or less by using the personal information 5122 associated with the target person U1.
  • the service providing server 500 may narrow down the explanatory information of each candidate to the predetermined area. This makes it easier for the target person U1 such as the elderly to grasp the content of the presentation.
  • the narrowing down method may be changed according to the attribute of the target person U1.
  • the attributes of the target person U1 include age, preference, and travel experience so far.
  • the service providing server 500 may determine a narrowing method according to the attribute of the target person U1, and may narrow down a part of the candidates for a plurality of travel plans by the decided narrowing method.
  • a narrowing method for example, when the age is young, the hobby is traveling, or the travel experience is more than a predetermined number of times, the number of proposals (the number of narrowing down) may be larger than that of other attributes. ..
  • the service providing server 500 After that, the service providing server 500 generates content control information using the travel plan candidate (after narrowing down), the format information 517, and the default content 518, and transmits the content control information to the tablet terminal 200.
  • the tablet terminal 200 reproduces the content from the received content control information and presents a travel plan candidate.
  • FIG. 28 is a diagram showing an example of presenting a travel plan on the tablet terminal 200 according to the fourth embodiment.
  • the tablet terminal 200 indicates that the default character presents three travel plan candidates on the Xth and Yth days. In response to this, it is assumed that the subject U1 utters "Plan A looks good. Apply for Plan A.” Therefore, the tablet terminal 200 transmits the picked-up answer voice or the voice-recognized answer content to the service providing server 500 via the network N.
  • the example of presenting a travel plan is not limited to FIG. 28.
  • the content of the proposal may be changed according to the attributes of the target person U1. For example, if the target person U1 has a hobby or experience so far, many options to be proposed may be displayed. In addition, if it does not match the hobby of the target person U1 or if the field has no experience, the number of options to be proposed may be reduced. In addition, the number of options to be proposed may be determined according to the age of the subject U1.
  • the service providing server 500 recognizes that the target person U1 has selected Plan A and applied for it from the received response voice or response content. Therefore, the service providing server 500 notifies the smartphone 400 to that effect in order to request the family U2 to approve the application.
  • FIG. 29 is a diagram showing an example of communication with the family U2 in the smartphone 400 according to the fourth embodiment.
  • the smartphone 400 indicates that the message from the same character as above is displayed as "Grandpa applied for a trip on the Xth and Yth days. I am looking forward to traveling with my family.”
  • the family U2 indicates that they have entered "acceptance! And "thank you grandpa! In the SNS application 471. Therefore, the smartphone 400 transmits the input answer content to the service providing server 500.
  • the service providing server 500 confirms the travel plan application from the received reply from the family U2 and performs the payment process.
  • the target person U1 makes a payment and makes a payment.
  • face recognition may be used for the payment process.
  • the service providing server 500 notifies the target person U1 via the tablet terminal 200 that the plan A is to be settled, and acquires a photographed image taken for the settlement. Then, the service providing server 500 performs face authentication on the captured image, and if the face authentication is successful, the payment process of the plan A is performed by the credit card information associated with the target person U1.
  • the family U2 may register a photograph (photographed image) during the trip for the character of the SNS application 471 of the smartphone 400.
  • the smartphone 400 transmits the registered captured image to the service providing server 500.
  • the service providing server 500 generates the content control information using the received captured image, the format information 517 and the default content 518, and transmits the content control information to the tablet terminal 200.
  • the tablet terminal 200 can display the captured image on the screen by reproducing the content from the received content control information. Therefore, you can share your travel memories.
  • the target person U1 selects a travel plan and makes a payment
  • the family U2 may select and make a payment for the travel plan and present the travel to the target person U1.
  • the service providing server 500 collects conversation information and related information from the daily conversation with the target person U1 via the default character displayed on the tablet terminal 200. Then, the service providing server 500 analyzes the collected information and identifies the needs of the family trip to the target person U1. There, the service providing server 500 collects additional information to complement the identified needs. First, the service providing server 500 notifies the SNS application 471 of the smartphone 400 that the target person U1 desires a family trip.
  • the family U2 responds to the SNS application 471 with the desire for a family trip with the target person U1, and instructs, for example, to search for a travel itinerary candidate from their schedule information.
  • the smartphone 400 notifies the service providing server 500 of the above answer and instruction from the family U2.
  • the service providing server 500 selects an empty schedule from the schedule information of the family U2 based on the above answers and instructions.
  • the service providing server 500 conducts a hearing on the living condition of the target person U1. For example, the service providing server 500 listens to the frequency of going to the toilet, the necessity of a wheelchair when moving, the walking time per day, etc. via the default character displayed on the tablet terminal 200, and collects it as conversation information. ..
  • the service providing server 500 acquires a travel plan candidate from the travel search service providing means based on the needs of the family trip, the selected vacant schedule, the living condition interviewed, and other personal information collected in the past. ..
  • the search service providing means may be either an internal service or an external service.
  • the service providing server 500 presents the acquired travel plan candidate (service providing information) to the family U2 via the SNS application 471.
  • the family U2 selects a travel plan via the SNS application 471 and makes a payment.
  • the payment process may be performed by face authentication as described above.
  • the service providing server 500 presents a travel plan (service provision information) as a gift from the family U2 via the default character displayed on the tablet terminal 200. As a result, a present can be provided as a surprise to the target person U1.
  • the service in which the target person U1 and the family U2 participate together has been described, but the service in which the family U2 does not participate (for example, the target person U1 is trying to purchase something) is also a third party.
  • the service provision information may not be presented without the consent of (related parties, family U2).
  • the service providing server 500 detects the birthday of the family U2 (grandchild) of the target person U1 from the personal information 5122 of the personal information DB 512. Then, the service providing server 500 generates a question content that proposes a present for the celebration of the grandchild's birthday. Then, the service providing server 500 proposes a present for the celebration of the grandchild's birthday via the default character displayed on the tablet terminal 200. In response to this, it is assumed that the subject U1 agrees to the present and utters the content as a request, not a toy or a game, but something to be studied.
  • the tablet terminal 200 notifies the service providing server 500 of the request for collecting sound as answer information.
  • the service providing server 500 identifies the needs of "gifts for grandchildren" and “things to study” from the response information.
  • the service providing server 500 generates a question content to the grandchild based on the answer information, and displays "What do you want now?" In the message field of the grandchild user of the SNS application 471. Therefore, the grandchildren of the family U2 input "game software, animation DVD, program lesson, shining shoes” and the like into the SNS application 471.
  • the smartphone 400 notifies the service providing server 500 of the input content.
  • the service providing server 500 generates the inquiry content for the grandchild's parent (the child couple of the target person U1) of the family U2 based on the received input content. Then, the service providing server 500 displays "Are there any things you would like to study for your child?" And "How about the program lesson?" In the message field of the child couple user of the SNS application 471. Therefore, the child couple of the family U2 inputs to the SNS application 471, "The block program kit is also good for studying.”
  • the smartphone 400 notifies the service providing server 500 of the input content. Therefore, the service providing server 500 acquires gift candidates from the search engine of the gift selection service based on the identified needs and the received answers of the grandchildren and the child couple. Candidates for gifts are, for example, program kits and program classroom participation tickets.
  • the service providing server 500 presents the present candidate as the service providing information via the character of the tablet terminal 200.
  • the target person U1 selects a gift candidate and makes a payment via the tablet terminal 200.
  • the payment process may be performed by face authentication as described above.
  • the service providing server 500 displays in the message field of the child couple user of the SNS application 471 that the present has been purchased by the target person U1.
  • the service providing server 500 arranges the mailing of presents to the grandchildren of the family U2. As a result, the present will be delivered to the grandchild.
  • the grandchild inputs a thank-you message to the target person U1 via the SNS application 471.
  • the service providing server 500 outputs a thank-you message notified from the smartphone 400 via the character of the tablet terminal 200. As a result, the satisfaction level of the subject U1 is improved.
  • the contents of the gift from the target person U1 to the grandchild were confirmed with the grandchild's parent, but the confirmation (agreement) on the family U2 side is not always necessary.
  • the target person U1 or the family U2 may be able to set whether or not the consent of a third party (related person, family U2) is required for the presentation of the service provision information.
  • the service providing server 500c is provided with a search engine for regional event information as a service providing means.
  • the service providing server 500 collects conversation information and related information from the daily conversation with the target person U1 via the default character displayed on the tablet terminal 200.
  • FIG. 30 is a diagram showing an example of collecting conversation information of the target person U1 in the tablet terminal 200 according to the fourth embodiment and notifying the UI switching.
  • the subject U1 indicates that he said, "I want to see the cherry blossoms in bloom.”
  • the tablet terminal 200 transmits the picked-up utterance content to the service providing server 500.
  • the service providing server 500 analyzes the received utterance content and identifies "cherry blossoms" and "events" as needs.
  • the service providing server 500 selects the service type "providing regional event information" from the type of needs.
  • “providing event information” is an external service and the control server is switched.
  • the service providing server 500 generates a UI switching notice message, and generates content control information using the format information 517, the default content 518, and the UI switching notice message. Then, the service providing server 500 transmits the content control information to the tablet terminal 200.
  • the tablet terminal 200 reproduces the received content control information and outputs a UI switching notice saying "Let's inquire about event information" via the default character.
  • the service providing server 500 transmits a presentation request including "sakura” and "event” as needs to the selected service providing server 500c.
  • the service providing server 500c searches the search engine of its own regional event information using the needs included in the received presentation request as a search key, and acquires the search result.
  • the service providing server 500c generates content control information using the search result, the format information 517, and the customized content 519, and transmits the content control information to the tablet terminal 200.
  • the tablet terminal 200 reproduces the content from the received content control information. That is, the UI switches.
  • FIG. 31 is a diagram showing an example of presentation of service provision information by the UI after switching according to the fourth embodiment.
  • the tablet terminal 200 indicates that an image of a character different from the default character is displayed.
  • the tablet terminal 200 indicates that the display and voice output of "A cherry-blossom viewing event will be held in the nearby XX river on XX month and Y day. How is it?"
  • the service providing server 500b is provided with home appliance support as a service providing means.
  • the service providing server 500 collects conversation information and related information from the daily conversation with the target person U1 via the default character displayed on the tablet terminal 200.
  • FIG. 32 is a diagram showing an example of collecting conversation information of the target person U1 and notifying the UI switching in the tablet terminal 200 according to the fourth embodiment.
  • the subject U1 indicates that he said, "The air conditioner has stopped working at night.”
  • the tablet terminal 200 transmits the picked-up utterance content to the service providing server 500.
  • the service providing server 500 analyzes the received utterance content and identifies "air conditioner” and "not working” as needs.
  • the service providing server 500 selects the service type "home appliance support” from the type of needs.
  • “home appliance support” is assumed to be an external service, no control server switching, and customized content.
  • the service providing server 500 generates the UI switching notice message as described above, and generates the content control information using the format information 517, the default content 518, and the UI switching notice message. Then, the service providing server 500 transmits the content control information to the tablet terminal 200.
  • the tablet terminal 200 reproduces the received content control information and outputs a UI switching notice saying "Let's ask home appliance support" via the default character.
  • the service providing server 500 transmits a service providing request including "air conditioner” and “not working” as needs to the selected service providing server 500b.
  • the service providing server 500c inputs the needs included in the received service providing request into the service providing means of the home appliance support, acquires the visiting message, and returns the visiting message to the service providing server 500.
  • the service providing server 500 generates content control information using the received visit message, format information 517, and customized content 519, and transmits the content control information to the tablet terminal 200.
  • the tablet terminal 200 reproduces the content from the received content control information. That is, the UI switches.
  • FIG. 33 is a diagram showing an example of presentation of service provision information by the UI after switching according to the fourth embodiment.
  • the tablet terminal 200 indicates that an image of a character different from the default character is displayed.
  • the tablet terminal 200 indicates that the display and voice output "The air conditioner is not working properly. The staff will visit and confirm it immediately.”
  • the fifth embodiment is a modification of the fourth embodiment described above.
  • the biometric authentication function is built in the service providing device. Since the service providing system according to the fifth embodiment is the same as the service providing system 1000 described above, illustration and description thereof will be omitted.
  • the personal information DB 512 of FIG. 13 may associate the user ID 5121 with the facial feature information. That is, it can be said that the personal information DB 512 includes the above-mentioned face information DB 110.
  • the authentication control unit 550 controls face authentication by collating the face feature information of a plurality of persons with the face feature information of the target person U1. That is, the authentication control unit 550 performs face authentication by collating the face feature information extracted from the user's face area included in the acquired captured image with the face feature information stored in the storage unit 510. Get the face recognition result.
  • steps S513 and S514 in FIG. 16 described above are replaced with face recognition processing in the service providing server 500 by the authentication control unit 550.
  • the service provision information is acquired after specifying the needs from the collected information, but the present invention is not limited to this.
  • an AI model may be used in which the collected information is input and the service provision information satisfying the needs is output.
  • the AI model can be machine-learned with the accumulated conversation information and related information as teacher data and the service provision information as the correct answer.
  • the present invention is not limited to this.
  • the present disclosure can also be realized by causing the CPU to execute a computer program for arbitrary processing.
  • Non-temporary computer-readable media include various types of tangible storage mediums.
  • Examples of non-temporary computer-readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg, magneto-optical disks), CD-ROMs (ReadOnlyMemory), CD-Rs, Includes CD-R / W, DVD (DigitalVersatileDisc), semiconductor memory (eg, mask ROM, PROM (ProgrammableROM), EPROM (ErasablePROM), flash ROM, RAM (RandomAccessMemory)).
  • magnetic recording media eg, flexible disks, magnetic tapes, hard disk drives
  • magneto-optical recording media eg, magneto-optical disks
  • CD-ROMs ReadOnlyMemory
  • CD-Rs Includes CD-R / W, DVD (DigitalVersatileDisc)
  • semiconductor memory eg, mask ROM, PROM (ProgrammableROM), EPROM (ErasablePROM), flash
  • the program may also be supplied to the computer by various types of transient computer readable medium.
  • Examples of temporary computer readable media include electrical, optical, and electromagnetic waves.
  • the temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
  • a UI control means that controls a first user interface (UI) that is a dialogue partner with the target person on the terminal of the target person to be watched over.
  • UI user interface
  • a specific means for identifying the needs of the target person from the collected information collected via the first UI and A selection means for selecting a service provision means corresponding to the specified needs type from a plurality of service provision means corresponding to each of a plurality of types of needs, and a selection means.
  • the UI control means is A service providing device that controls switching from the first UI to the second UI according to the selected service providing means in order to present the service providing information satisfying the specified needs to the terminal.
  • Appendix A2 A storage means for storing content information corresponding to the first service providing means, When the selected service providing means is the first service providing means, the acquisition means for acquiring the first service providing information satisfying the specified needs by the first service providing means, and the acquisition means. Further provided with a generation means for generating content control information using the content information and the first service provision information.
  • the UI control means is By playing back the content based on the generated content control information on the terminal, switching to the second UI is controlled.
  • the service providing device according to Appendix A1, which presents the first service providing information to the terminal via the second UI after the switching.
  • the content information includes a second animation image group different from the first animation image group used in the first UI.
  • the UI control means is The service providing device according to Appendix A2, which presents the first service providing information via the second animation image group.
  • the acquisition means is output by transmitting the specified needs to the server including the first service providing means and inputting the specified needs to the first service providing means.
  • the UI control means is When the selected service providing means is the second service providing means, the second service providing information is presented to the terminal by the second UI to the server provided with the second service providing means.
  • the service providing device according to any one of Supplementary A1 to A4, which controls the switching by transmitting a presentation request for making the switch.
  • the UI control means is The service providing device according to any one of Supplementary A1 to A5, which causes the terminal to display a notice of switching to the second UI when the switching is necessary.
  • Appendix B1 The terminal of the person being watched over and A service providing device connected to the terminal via a network, Equipped with The service providing device is A UI control means for controlling a first user interface (UI) that is a dialogue partner with the target person in the terminal.
  • UI user interface
  • a specific means for identifying the needs of the target person from the collected information collected via the first UI and
  • a selection means for selecting a service provision means corresponding to the specified needs type from a plurality of service provision means corresponding to each of a plurality of types of needs, and a selection means.
  • the UI control means is A service providing system that controls switching from the first UI to the second UI according to the selected service providing means in order to present the service providing information satisfying the specified needs to the terminal.
  • the service providing device is A storage means for storing content information corresponding to the first service providing means, When the selected service providing means is the first service providing means, the acquisition means for acquiring the first service providing information satisfying the specified needs by the first service providing means, and the acquisition means.
  • a generation means for generating content control information using the content information and the first service provision information, and Further prepare The UI control means is By playing back the content based on the generated content control information on the terminal, switching to the second UI is controlled.
  • the service providing system which presents the first service providing information to the terminal via the second UI after the switching.
  • Appendix C1 The computer Collected information is collected on the terminal of the person being watched over via the first user interface (UI) that is the dialogue partner with the person concerned. Identify the needs of the target person from the collected information, Select the service providing means corresponding to the specified needs from among the plurality of service providing means corresponding to each of the plurality of types of needs, and select the service providing means corresponding to the specified needs.
  • Appendix D1 A collection process that collects collected information via the first user interface (UI) that is the dialogue partner with the target person on the terminal of the target person to be watched over. Specific processing that identifies the needs of the target person from the collected information, A selection process for selecting a service providing means corresponding to the specified needs type from a plurality of service providing means corresponding to each of a plurality of types of needs, and a selection process. A control process for controlling switching from the first UI to the second UI according to the selected service providing means in order to present the service provision information satisfying the specified needs to the terminal.
  • a non-temporary computer-readable medium that contains a service-providing program that causes a computer to run.
  • Service provision system 100 Authentication device 110 Face information DB 111 User ID 112 Face feature information 120 Face detection unit 130 Feature point extraction unit 140 Registration unit 150 Authentication unit 200 Tablet terminal 210 Camera 220 Microphone 230 Speaker 240 Touch panel 250 Communication unit 260 Memory 270 Control unit 271 Content processing unit 300 Health information measurement device 400 Smartphone 410 Camera 420 Microphone 430 Speaker 440 Touch panel 450 Communication unit 460 Memory 470 Control unit 471 SNS application 500 Service provision server 510 Storage unit 511 Program 512 Personal information DB 5121 User ID 5122 Personal information 513 Needs specific model 514 Service type definition information 515 Service provision model 516 Service provision model 517 Format information 518 Default content 5181 Animation image group 5182 Dialogue information 519 Customized content 5191 Animation image group 5192 Dialogue information 520 Memory 530 Communication unit 540 Control Part 550 Authentication

Abstract

サービス提供装置(1b)は、見守りの対象者の端末において当該対象者との対話相手となる第1のユーザインタフェース(UI)を制御するUI制御部(11b)と、第1のUIを介して収集した収集情報から対象者のニーズを特定する特定部(12b)と、複数の種類のニーズのそれぞれに対応した複数のサービス提供手段の中から特定されたニーズの種類に対応するサービス提供手段を選択する選択部(13b)と、を備え、UI制御部(11b)は、特定されたニーズを満たすサービス提供情報を端末へ提示するために、第1のUIから選択されたサービス提供手段に応じた第2のUIへの切替を制御する。

Description

サービス提供装置、サービス提供システム、サービス提供方法及び非一時的なコンピュータ可読媒体
 本発明は、サービス提供装置、サービス提供システム、サービス提供方法及び非一時的なコンピュータ可読媒体に関し、特に、対象者にサービス提供情報を提示するためのサービス提供装置、サービス提供システム、サービス提供方法及び非一時的なコンピュータ可読媒体に関する。
 近年、少子化、過疎化が進み、一人暮らしの高齢者の介護や見守り等の必要性が高まっている。特許文献1には、スマートフォンやパソコンの操作に慣れてない高齢者が容易にソーシャルネットワーキングサービスを用いて非同期かつ双方向のコミュニケーションをとれるようにするための見守り装置に関する技術が開示されている。特許文献2には、生活支援ロボットシステムと対話ロボットとを備えた対話システムに関する技術が開示されている。
特開2017-38266号公報 国際公開第2005/086051号
 ここで、高齢者等の見守り対象者には、複数のサービス提供事業者のサービスごとに適したユーザインタフェースによりサービスを提供することが効果的といえる。
 本開示は、このような問題点を解決するためになされたものであり、見守り対象者に対してサービスに適したユーザインタフェースを用いて効果的にサービス提供情報を提示するためのサービス提供装置、サービス提供システム、サービス提供方法及び非一時的なコンピュータ可読媒体を提供することを目的とする。
 本開示の第1の態様にかかるサービス提供装置は、
 見守りの対象者の端末において当該対象者との対話相手となる第1のユーザインタフェース(UI)を制御するUI制御手段と、
 前記第1のUIを介して収集した収集情報から前記対象者のニーズを特定する特定手段と、
 複数の種類のニーズのそれぞれに対応した複数のサービス提供手段の中から前記特定されたニーズの種類に対応するサービス提供手段を選択する選択手段と、
 を備え、
 前記UI制御手段は、
 前記特定されたニーズを満たすサービス提供情報を前記端末へ提示するために、前記第1のUIから前記選択されたサービス提供手段に応じた第2のUIへの切替を制御する。
 本開示の第2の態様にかかるサービス提供システムは、
 見守りの対象者の端末と、
 前記端末とネットワークを介して接続されたサービス提供装置と、
 を備え、
 前記サービス提供装置は、
 前記端末において前記対象者との対話相手となる第1のユーザインタフェース(UI)を制御するUI制御手段と、
 前記第1のUIを介して収集した収集情報から前記対象者のニーズを特定する特定手段と、
 複数の種類のニーズのそれぞれに対応した複数のサービス提供手段の中から前記特定されたニーズの種類に対応するサービス提供手段を選択する選択手段と、
 を備え、
 前記UI制御手段は、
 前記特定されたニーズを満たすサービス提供情報を前記端末へ提示するために、前記第1のUIから前記選択されたサービス提供手段に応じた第2のUIへの切替を制御する。
 本開示の第3の態様にかかるサービス提供方法は、
 コンピュータが、
 見守りの対象者の端末において当該対象者との対話相手となる第1のユーザインタフェース(UI)を介して収集情報を収集し、
 前記収集情報から前記対象者のニーズを特定し、
 複数の種類のニーズのそれぞれに対応した複数のサービス提供手段の中から前記特定されたニーズの種類に対応するサービス提供手段を選択し、
 前記特定されたニーズを満たすサービス提供情報を前記端末へ提示するために、前記第1のUIから前記選択されたサービス提供手段に応じた第2のUIへの切替を制御する。
 本開示の第4の態様にかかるサービス提供プログラムが格納された非一時的なコンピュータ可読媒体は、
 見守りの対象者の端末において当該対象者との対話相手となる第1のユーザインタフェース(UI)を介して収集情報を収集する収集処理と、
 前記収集情報から前記対象者のニーズを特定する特定処理と、
 複数の種類のニーズのそれぞれに対応した複数のサービス提供手段の中から前記特定されたニーズの種類に対応するサービス提供手段を選択する選択処理と、
 前記特定されたニーズを満たすサービス提供情報を前記端末へ提示するために、前記第1のUIから前記選択されたサービス提供手段に応じた第2のUIへの切替を制御する制御処理と、
 をコンピュータに実行させる。
 本開示により、見守り対象者に対してサービスに適したユーザインタフェースを用いて効果的にサービス提供情報を提示するためのサービス提供装置、サービス提供システム、サービス提供方法及び非一時的なコンピュータ可読媒体を提供することができる。
本実施形態1にかかるサービス提供装置の構成を示すブロック図である。 本実施形態1にかかるサービス提供方法の流れを示すフローチャートである。 本実施形態2にかかるサービス提供装置の構成を示すブロック図である。 本実施形態2にかかるサービス提供方法の流れを示すフローチャートである。 本実施形態3にかかるサービス提供装置の構成を示すブロック図である。 本実施形態3にかかるサービス提供方法の流れを示すフローチャートである。 本実施形態4にかかるサービス提供システムの全体構成を示すブロック図である。 本実施形態4にかかる認証装置の構成を示すブロック図である。 本実施形態4にかかる顔情報登録処理の流れを示すフローチャートである。 本実施形態4にかかる認証装置による顔認証処理の流れを示すフローチャートである。 本実施形態4にかかるタブレット端末の構成を示すブロック図である。 本実施形態4にかかるスマートフォンの構成を示すブロック図である。 本実施形態4にかかるサービス提供サーバの構成を示すブロック図である。 本実施形態4にかかるサービス提供サーバの構成を示すブロック図である。 本実施形態4にかかるサービス提供制御処理の流れを示すフローチャートである。 本実施形態4にかかる会話情報の収集処理の流れを示すシーケンス図である。 本実施形態4にかかる家族からの関連情報収集処理の流れを示すシーケンス図である。 本実施形態4にかかる家族からの伝言による会話情報収集処理の流れを示すシーケンス図である。 本実施形態4にかかる外部サービス処理の流れを示すフローチャートである。 本実施形態4にかかる提示要求処理の流れを示すフローチャートである。 本実施形態4にかかるサービス提供処理の流れを示すシーケンス図である。 本実施形態4にかかるサービス提供処理の流れを示すシーケンス図である。 本実施形態4にかかるサービス提供処理の流れを示すシーケンス図である。 本実施形態4にかかるタブレット端末における対象者とのコミュニケーションの例を示す図である。 本実施形態4にかかるタブレット端末における対象者とのコミュニケーションの例を示す図である。 本実施形態4にかかるスマートフォンにおける家族とのコミュニケーションの例を示す図である。 本実施形態4にかかるスマートフォンにおける家族とのコミュニケーションの例を示す図である。 本実施形態4にかかるタブレット端末における旅行プランの提示の例を示す図である。 本実施形態4にかかるスマートフォンにおける家族とのコミュニケーションの例を示す図である。 本実施形態4にかかるタブレット端末における対象者の会話情報の収集とUI切替予告の例を示す図である。 本実施形態4にかかる切替後のUIによるサービス提供情報の提示の例を示す図である。 本実施形態4にかかるタブレット端末における対象者の会話情報の収集とUI切替予告の例を示す図である。 本実施形態4にかかる切替後のUIによるサービス提供情報の提示の例を示す図である。
 以下では、本開示の実施形態について、図面を参照しながら詳細に説明する。各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。
<実施形態1>
 図1は、本実施形態1にかかるサービス提供装置1の構成を示すブロック図である。サービス提供装置1は、関係者による見守りの対象者に対して、対象者のニーズ(直接的又は間接的な要望)に応じたサービス提供情報を提示するための情報処理装置である。対象者は、一般的には高齢者である。関係者は、高齢者の子や孫の家族や親族やお手伝いさん、介護者等である。ここで、サービス提供装置1は、ネットワーク(不図示)に接続される。ネットワークは、有線であっても無線であってもよい。また、当該ネットワークには、対象者が利用する端末と接続されている。ここで、端末は、カメラ、マイク、スピーカ、タッチパネル等を搭載した情報処理端末、例えば、タブレット端末等であってもよい。尚、サービス提供装置1は、単体のロボット装置として実現されてもよい。
 サービス提供装置1は、収集部11と、特定部12と、提示部13とを備える。収集部11は、対象者の会話情報と当該対象者又は当該関係者に関する関連情報とを収集する。
 ここで、会話情報とは、対象者が発話した音声が上記端末により収音された音声データであるか、音声データが音声認識により変換されたテキスト情報であってもよい。会話情報は、例えば、対象者の体調(「腰が痛い」という発言)、対象者の希望(「桜が見たい」という発言)、対象者の住居に関する情報(「エアコンが壊れた」という発言)等が挙げられるが、これらに限定されない。また、会話情報は、対象者の独り言であってもよい。
 また、対象者に関する関連情報とは、対象者の会話以外から得られた対象者に関する情報である。例えば、対象者から測定された血圧や体温である。また、対象者の資産状況(貯金の額)、住宅の状況(間取り、家具、家電の種類や配置)であってもよい。また、対象者に提供された過去のサービス提供情報の履歴、過去のサービス提供情報に対する対価であってもよい。また、関係者に関する関連情報とは、対象者の家族関係(子供の数)、関係者のスケジュール、関係者から対象者に関する回答情報等である。
 特定部12は、会話情報と関連情報とを解析して、対象者のニーズを特定する。例えば、特定部12は、会話情報と関連情報とを解析してキーワードを抽出し、キーワードを入力してニーズを出力するモデルを用いてニーズを特定してもよい。尚、モデルには、AI(Artificial Intelligence)モデル等の公知技術を適用することができる。また、モデルは、蓄積された会話情報や関連情報を教師データとし、ニーズを正解として機械学習されたものを用いることができる。
 提示部13は、特定されたニーズを満たすサービス提供情報を少なくとも対象者へ提示する。例えば、提示部13は、ニーズを入力してサービス提供情報を出力するモデル(サービス提供手段)を用いてもよい。尚、モデルには、AIモデル等の公知技術を適用することができる。この場合、モデルは、蓄積された会話情報や関連情報やニーズを教師データとし、サービス提供情報を正解として機械学習されたものを用いることができる。または、モデルは、検索エンジン等を用いても良い。サービス提供情報とは、対象者に提供するサービスに関する情報である。また、サービス提供情報は、特定されたニーズを解決できる情報である。例えば、ニーズが「駅へ行きたいこと」である場合、サービス提供情報は、最寄りのバス停から駅行のバスの時刻表となる。また、提示部13は、例えば、上記端末にサービス提供情報を表示させてもよい。さらに、提示部13は、対象者以外、例えば、関係者にもにサービス提供情報を提示してもよい。
 図2は、本実施形態1にかかるサービス提供方法の流れを示すフローチャートである。まず、収集部11は、対象者の会話情報と当該対象者又は当該関係者に関する関連情報とを収集する(S11)。次に、特定部12は、会話情報と関連情報とを解析して、対象者のニーズを特定する(S12)。そして、提示部13は、特定されたニーズを満たすサービス提供情報を少なくとも対象者へ提示する(S13)。
 このように、本実施形態は、対象者の会話情報や関連情報から対象者のニーズを把握し、ニーズを満たすサービス提供情報を提示するものである。そのため、高齢者等の対象者が自ら検索等を行うことなく、自動的にニーズに適した情報を提供することができる。特に、ニーズは多様であり、例えば、複数のサービス提供モデルを使い分けることで、見守り対象者の多様なニーズに対して適切なサービスを提供することができる。
 尚、サービス提供装置1は、図示しない構成としてプロセッサ、メモリ及び記憶装置を備えるものである。また、当該記憶装置には、本実施形態にかかる推薦方法の処理が実装されたコンピュータプログラムが記憶されている。そして、当該プロセッサは、記憶装置からコンピュータプログラムを前記メモリへ読み込ませ、当該コンピュータプログラムを実行する。これにより、前記プロセッサは、収集部11、特定部12及び提示部13の機能を実現する。
 または、収集部11、特定部12及び提示部13は、それぞれが専用のハードウェアで実現されていてもよい。また、各装置の各構成要素の一部又は全部は、汎用または専用の回路(circuitry)、プロセッサ等やこれらの組合せによって実現されもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組合せによって実現されてもよい。また、プロセッサとして、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(field-programmable gate array)等を用いることができる。
 また、サービス提供装置1の各構成要素の一部又は全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。また、サービス提供装置1の機能がSaaS(Software as a Service)形式で提供されてもよい。
<実施形態2>
 図3は、本実施形態2にかかるサービス提供装置1aの構成を示すブロック図である。サービス提供装置1aは、上記対象者のニーズを満たすサービス提供情報を当該装置単体では提供できない場合に、他のサービス提供手段を備えるサーバにサービス提供情報の提示を要求する情報処理装置である。ここで、サービス提供装置1aは、ネットワーク(不図示)に接続される。ネットワークは、有線であっても無線であってもよい。また、当該ネットワークには、対象者が利用する(第1の)端末と他のサービス提供手段を備える(第1の)サーバとが接続されている。
 サービス提供装置1aは、特定部11aと、選択部12aと、要求部13aとを備える。特定部11aは、見守りの対象者の第1のニーズを特定する。例えば、特定部11aは、上述した特定部12のように会話情報や関連情報に基づいてニーズを特定してもよい。選択部12aは、複数のサービス提供手段の中から第1のニーズの種類に対応するサービス提供手段を選択する。ここで、サービス提供手段は、上述したようにニーズを入力してサービス提供情報を出力するモデルであってもよい。但し、本実施形態にかかるサービス提供装置1aは、選択されたサービス提供手段を搭載していなくてもよい。そして、選択部12aにより選択されたサービス提供手段は、サービス提供装置1a以外の装置に搭載されているものとする。そこで、要求部13aは、選択されたサービス提供手段を備える第1のサーバに対して、第1のニーズを満たす第1のサービス提供情報を少なくとも対象者の第1の端末へ提示させるための提示要求を送信する。
 図4は、本実施形態2にかかるサービス提供方法の流れを示すフローチャートである。まず、特定部11aは、見守りの対象者の第1のニーズを特定する(S11a)。次に、選択部12aは、複数のサービス提供手段の中から第1のニーズの種類に対応するサービス提供手段を選択する(S12a)。そして、要求部13aは、選択されたサービス提供手段を備える第1のサーバに対して、第1のニーズを満たす第1のサービス提供情報を少なくとも対象者の第1の端末へ提示させるための提示要求を送信する(S13a)。
 ここで、高齢者等の見守り対象者のニーズは多様であるため、複数のサービス提供事業者のサービスを選択的に提供できることが望ましい。そこで、本実施形態では、対象者のニーズに適したサービス提供手段が外部のサービス提供事業者が提供する場合、当該事業者のサーバに対して、対象者へのサービス提供情報の提示を要求するものである。これにより、提示要求を受け取った第1のサーバは、自身のサービス提供手段からニーズを満たすサービス提供情報を取得し、例えば、上述した提示部13のように対象者の第1の端末へ提示することができる。そのため、複数のサービス提供事業者の提供するコンテンツと円滑な連携を実現することができる。
 尚、サービス提供装置1aは、図示しない構成としてプロセッサ、メモリ及び記憶装置を備えるものである。また、当該記憶装置には、本実施形態にかかる推薦方法の処理が実装されたコンピュータプログラムが記憶されている。そして、当該プロセッサは、記憶装置からコンピュータプログラムを前記メモリへ読み込ませ、当該コンピュータプログラムを実行する。これにより、前記プロセッサは、特定部11a、選択部12a及び要求部13aの機能を実現する。
 または、特定部11a、選択部12a及び要求部13aは、それぞれが専用のハードウェアで実現されていてもよい。また、各装置の各構成要素の一部又は全部は、汎用または専用の回路(circuitry)、プロセッサ等やこれらの組合せによって実現されもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組合せによって実現されてもよい。また、プロセッサとして、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(field-programmable gate array)等を用いることができる。
 また、サービス提供装置1aの各構成要素の一部又は全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。また、サービス提供装置1aの機能がSaaS(Software as a Service)形式で提供されてもよい。
<実施形態3>
 図5は、本実施形態3にかかるサービス提供装置1bの構成を示すブロック図である。サービス提供装置1bは、上記対象者のニーズを満たすサービス提供情報を端末に提示する際に、サービス提供手段の種別に応じたユーザインタフェース(User Interface(UI))への切替を制御するための情報処理装置である。ここで、サービス提供装置1bは、ネットワーク(不図示)に接続される。ネットワークは、有線であっても無線であってもよい。また、当該ネットワークには、対象者が利用する端末と接続されている。
 サービス提供装置1bは、UI制御部11bと、特定部12bと、選択部13bとを備える。UI制御部11bは、見守りの対象者の端末において当該対象者との対話相手となる第1のユーザインタフェース(UI)を制御する。ここで、UIには、端末の画面への表示や音声の入出力を含み、対話相手として、アニメーション画像群により表現されるキャラクタを想定するものとする。そして、UIには、少なくとも当該キャラクタを含むものとする。特定部12bは、第1のUIを介して収集した収集情報から対象者のニーズを特定する。例えば、特定部12bは、上述した特定部12のように会話情報や関連情報に基づいてニーズを特定してもよい。選択部13bは、複数の種類のニーズのそれぞれに対応した複数のサービス提供手段の中から特定されたニーズの種類に対応するサービス提供手段を選択する。ここで、UI制御部11bは、特定されたニーズを満たすサービス提供情報を端末へ提示するために、第1のUIから選択されたサービス提供手段に応じた第2のUIへの切替を制御する。尚、UI制御部11bは、切替後の第2のUIを引き続き制御しても良い。または、UI制御部11bは、第2のUIへの切替を他のサーバに要求し、端末のUEの制御権を移譲してもよい。また、「第2のUIへの切替」には、背景画像や入力フォーマットなどは変わらないが、キャラクタのみが(別のアニメーション画像群に)切り替わるものを含む。または、「第2のUIへの切替」には、背景画像や入力フォーマットなどが切り替わり、キャラクタは変わらないものも含む。または、「第2のUIへの切替」には、背景画像や入力フォーマットと共にキャラクタも切り替わるものも含む。 
 図6は、本実施形態3にかかるサービス提供方法の流れを示すフローチャートである。UI制御部11bは、見守りの対象者の端末において当該対象者との対話相手となる第1のユーザインタフェース(UI)を介して収集情報を収集する(S11b)。次に、特定部12bは、収集情報から対象者のニーズを特定する(S12b)。そして、選択部13bは、複数のサービス提供手段の中から特定されたニーズの種類に対応するサービス提供手段を選択する(S13b)。その後、UI制御部11bは、特定されたニーズを満たすサービス提供情報を端末へ提示するために、第1のUIから、選択されたサービス提供手段に応じた第2のUIへの切替を制御する(S14b)。
 ここで、高齢者等の見守り対象者には、複数のサービス提供事業者のサービスごとに適したユーザインタフェースによりサービスを提供することが分かり易いといえる。そのため、本実施形態により対象者に対してサービスに適したユーザインタフェースを用いて効果的にサービス提供情報を提示することができる。
 尚、サービス提供装置1bは、図示しない構成としてプロセッサ、メモリ及び記憶装置を備えるものである。また、当該記憶装置には、本実施形態にかかる推薦方法の処理が実装されたコンピュータプログラムが記憶されている。そして、当該プロセッサは、記憶装置からコンピュータプログラムを前記メモリへ読み込ませ、当該コンピュータプログラムを実行する。これにより、前記プロセッサは、UI制御部11b、特定部12b及び選択部13bの機能を実現する。
 または、UI制御部11b、特定部12b及び選択部13bは、それぞれが専用のハードウェアで実現されていてもよい。また、各装置の各構成要素の一部又は全部は、汎用または専用の回路(circuitry)、プロセッサ等やこれらの組合せによって実現されもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組合せによって実現されてもよい。また、プロセッサとして、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(field-programmable gate array)等を用いることができる。
 また、サービス提供装置1bの各構成要素の一部又は全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。また、サービス提供装置1bの機能がSaaS(Software as a Service)形式で提供されてもよい。
<実施形態4>
 実施形態4は、上述した実施形態1から3の具体例である。図7は、本実施形態4にかかるサービス提供システム1000の全体構成を示すブロック図である。サービス提供システム1000は、見守りの対象者U1が安全、安心に生活できるように見守りを行うと共に、多様なニーズを満たすサービス提供情報を対象者U1や家族U2に提示するための情報システムである。対象者U1は、例えば、独居の高齢者又は介護施設等に入居している高齢者である。家族U2は、対象者U1の関係者の一例であり、対象者U1の子や孫、親族である。
 サービス提供システム1000は、認証装置100、タブレット端末200、健康情報測定装置300、スマートフォン400並びにサービス提供サーバ500、500a~500dを備える。認証装置100、タブレット端末200、スマートフォン400並びにサービス提供サーバ500、500a~500dのそれぞれは、ネットワークNを介して接続されている。ここで、ネットワークNは、有線又は無線の通信回線である。尚、以下の説明では、生体認証を顔認証とし、生体情報を顔特徴情報とするが、生体認証及び生体情報は撮影画像を利用する他の技術を適用可能である。例えば、生体情報は、指紋、声紋、静脈、網膜、瞳の虹彩の模様(パターン)といった個人に固有の身体的特徴から計算されるデータ(特徴量)を用いても構わない。
 認証装置100は、複数の人物の顔特徴情報を記憶する情報処理装置である。例えば、認証装置100は、対象者U1及び家族U2の顔特徴情報を記憶しているものとする。また、認証装置100は、外部から受信した顔認証要求に応じて、当該要求に含まれる顔画像又は顔特徴情報について、各ユーザの顔特徴情報と照合を行い、照合結果(認証結果)を要求元へ返信する。
 図8は、本実施形態4にかかる認証装置100の構成を示すブロック図である。認証装置100は、顔情報DB(DataBase)110と、顔検出部120と、特徴点抽出部130と、登録部140と、認証部150とを備える。顔情報DB110は、ユーザID111と当該ユーザIDの顔特徴情報112とを対応付けて記憶する。顔特徴情報112は、顔画像から抽出された特徴点の集合である。尚、認証装置100は、顔特徴情報112の登録ユーザからの要望に応じて、顔特徴DB110内の顔特徴情報112を削除してもよい。または、認証装置100は、顔特徴情報112の登録から一定期間経過後に削除してもよい。
 顔検出部120は、顔情報を登録するための登録画像に含まれる顔領域を検出し、特徴点抽出部130に出力する。特徴点抽出部130は、顔検出部120が検出した顔領域から特徴点を抽出し、登録部140に顔特徴情報を出力する。また、特徴点抽出部130は、サービス提供サーバ500等から受信した顔画像に含まれる特徴点を抽出し、認証部150に顔特徴情報を出力する。
 登録部140は、顔特徴情報の登録に際して、ユーザID111を新規に発行する。登録部140は、発行したユーザID111と、登録画像から抽出した顔特徴情報112とを対応付けて顔情報DB110へ登録する。認証部150は、顔特徴情報112を用いた顔認証を行う。具体的には、認証部150は、顔画像から抽出された顔特徴情報と、顔情報DB110内の顔特徴情報112との照合を行う。認証部150は、顔特徴情報の一致の有無をサービス提供サーバ500に返信する。顔特徴情報の一致の有無は、認証の成否に対応する。尚、顔特徴情報が一致する(一致有)とは、一致度が所定値以上である場合をいうものとする。
 図9は、本実施形態4にかかる顔情報登録処理の流れを示すフローチャートである。ここで、情報登録端末(不図示)は、対象者U1(ユーザ)や家族U2(ユーザ)の顔を含む身体を撮影し、撮影画像(登録画像)を含む顔情報登録要求をネットワークNを介して認証装置100へ送信する。情報登録端末は、例えば、パーソナルコンピュータ、スマートフォン又はタブレット端末等の情報処理装置である。例えば、情報登録端末は、タブレット端末200やスマートフォン400であってもよい。
 まず、認証装置100は、顔情報登録要求に含まれる登録画像を取得する(S21)。例えば、認証装置100は、顔情報登録要求を、情報登録端末からネットワークNを介して受け付ける。次に、顔検出部120は、登録画像に含まれる顔領域を検出する(S22)。次に、特徴点抽出部130は、ステップS22で検出した顔領域から特徴点を抽出し、登録部140に顔特徴情報を出力する(S23)。最後に、登録部140は、ユーザID111を発行し、当該ユーザID111と顔特徴情報112とを対応付けて顔情報DB110に登録する(S24)。なお、認証装置100は、情報登録端末から顔特徴情報112を受信し、ユーザID111と対応付けて顔情報DB110に登録してもよい。
 図10は、本実施形態4にかかる認証装置100による顔認証処理の流れを示すフローチャートである。まず、特徴点抽出部130は、顔認証要求に含まれる認証用の顔画像を取得する(S31)。例えば、認証装置100は、サービス提供サーバ500等からネットワークNを介して顔認証要求を受信し、顔認証要求に含まれる顔画像からステップS21からS23のように顔特徴情報を抽出する。または、認証装置100は、サービス提供サーバ500等から顔特徴情報を受信してもよい。次に、認証部150は、取得した顔特徴情報を、顔情報DB110の顔特徴情報112と照合する(S32)。顔特徴情報が一致した場合、つまり、顔特徴情報の一致度が所定値以上である場合(S33のYes)、認証部150は、顔特徴情報が一致したユーザのユーザID111を特定し(S34)、顔認証に成功した旨と特定したユーザID111とをサービス提供サーバ500等に返信する(S35)。一致する顔特徴情報が存在しない場合(S33のNo)、認証部150は、顔認証に失敗した旨をサービス提供サーバ500等に返信する(S36)。
 図7に戻り説明を続ける。健康情報測定装置300は、対象者U1の血圧や体温といった健康情報を測定する装置である。また、健康情報測定装置300は、タブレット端末200と有線又は無線で接続し、測定値をタブレット端末200へ出力する。
 タブレット端末200は、対象者U1が利用する端末の一例である。タブレット端末200は、対象者U1の住居等に設置されている。タブレット端末200は、インストールされたソフトウェアにより動物やロボットを模したキャラクタを表示し、キャラクタを対象者U1の対話相手となるユーザインタフェースとして動作する。タブレット端末200は、サービス提供サーバ500等からのコンテンツ制御情報を解析して、キャラクタを表示し、キャラクタのセリフとして音声出力やテキスト表示を行う。また、タブレット端末200は、対象者U1の発話を収音し、収音した音声情報又は音声認識結果をサービス提供サーバ500等へ送信する。これにより、対象者U1は、タブレット端末200に表示されたキャラクタと対話(会話)を行うことができる。また、タブレット端末200は、健康情報測定装置300から取得した対象者U1の健康情報をネットワークNを介してサービス提供サーバ500等へ送信する。
 タブレット端末200が上述した情報登録端末である場合、タブレット端末200は、対象者U1の顔認証に用いる登録画像を撮影する。タブレット端末200は、登録画像を含めた顔情報登録要求をネットワークNを介して認証装置100へ送信する。尚、対象者U1は、他の情報端末を用いて登録画像を撮影し、顔情報登録を行っても良い。
 また、タブレット端末200は、対象者U1の顔認証に用いる認証用の顔画像を撮影する。タブレット端末200は、認証用の画像を含めた顔認証要求をネットワークNを介してサービス提供サーバ500へ送信する。そして、タブレット端末200は、サービス提供サーバ500からネットワークNを介して顔認証結果に応じた応答を受信し、キャラクタを介して画面に顔認証結果を表示する。そして、タブレット端末200は、サービス提供サーバ500からの会話内容の指示に応じて、キャラクタを介して会話内容を音声出力し、対象者U1から回答の音声を収音する。そして、タブレット端末200は、収音した音声に基づく回答情報をネットワークNを介してサービス提供サーバ500へ送信する。また、タブレット端末200は、サービス提供サーバ500等からサービス提供情報を含むコンテンツ制御情報を受信し、コンテンツ制御情報に基づきコンテンツを再生し、サービス提供情報を出力する。このとき、タブレット端末200は、デフォルトのキャラクタ又は他のサービス事業者のキャラクタをユーザインタフェースとして音声出力してもよい。または、タブレット端末200は、サービス提供サーバ500dからWEBコンテンツを受信し、画面に当該WEBコンテンツを表示することにより、サービス提供情報を対象者U1に提示してもよい。この場合、キャラクタは表示されてなくてもよい。
 図11は、本実施形態4にかかるタブレット端末200の構成を示すブロック図である。タブレット端末200は、カメラ210、マイク220、スピーカ230、タッチパネル240、通信部250、メモリ260及び制御部270を備える。
 カメラ210は、制御部270の制御に応じて対象者U1の撮影を行う撮影装置である。マイク220は、対象者U1が発話した音声を収音する収音装置である。スピーカ230は、制御部270の制御に応じて音を出力する装置である。タッチパネル240は、画面等の表示装置(表示部)と入力装置を含む。通信部250は、ネットワークNとの通信インタフェースである。メモリ260は、タブレット端末200の各機能を実現するためのプログラムが格納される記憶装置である。制御部270は、タブレット端末200が有するハードウェアの制御を行う。制御部270は、コンテンツ処理部271を備える。
 コンテンツ処理部271は、サービス提供サーバ500等からサービス提供情報を含むコンテンツ制御情報を受信し、コンテンツ制御情報に基づきコンテンツを再生する。そして、コンテンツ処理部271は、再生したコンテンツをスピーカ230及びタッチパネル240を介して出力することにより、サービス提供情報を対象者U1に提示する。
 図7に戻り説明を続ける。スマートフォン400は、家族U2が利用する端末の一例である。スマートフォン400は、家族U2のうち一人が所持しているものとする。尚、スマートフォン400は、タブレット端末、カメラを搭載又は接続したPC(Personal Computer)等であってもよい。スマートフォン400は、汎用的なSNS(Social Network Service)アプリケーションを介して、サービス提供サーバ500等とテキストデータのやり取りを行う。例えば、SNSアプリケーションがメッセージアプリケーションの場合、上記キャラクタをユーザとし、家族U2のユーザとのメッセージのやり取りを行うことで、キャラクタを介して対象者U1とのメッセージのやり取りを実現する。特に、スマートフォン400は、サービス提供サーバ500等からサービス提供情報を受信し、メッセージとして画面に表示してもよい。
 スマートフォン400が上述した情報登録端末である場合、スマートフォン400は、家族U2のそれぞれの顔認証に用いる登録画像を撮影する。スマートフォン400は、登録画像を含めた顔情報登録要求をネットワークNを介して認証装置100へ送信する。尚、家族U2は、他の情報端末を用いて登録画像を撮影し、顔情報登録を行っても良い。
 図12は、本実施形態4にかかるスマートフォン400の構成を示すブロック図である。スマートフォン400は、カメラ410、マイク420、スピーカ430、タッチパネル440、通信部450、通信部450、メモリ460及び制御部470を備える。尚、スマートフォン400は、公知のものを用いても良い。
 カメラ410は、制御部470の制御に応じて家族U2の撮影を行う撮影装置である。マイク420は、家族U2が発話した音声を収音する収音装置である。スピーカ430は、制御部470の制御に応じて音を出力する装置である。タッチパネル440は、画面等の表示装置(表示部)と入力装置を含む。通信部450は、ネットワークNとの通信インタフェースである。メモリ460は、スマートフォン400の各機能を実現するためのプログラムが格納される記憶装置である。制御部470は、スマートフォン400が有するハードウェアの制御を行う。制御部470は、SNSアプリケーション471を備える。
 SNSアプリケーション471は、サービス提供サーバ500等から会話内容に対応するテキスト情報を受信し、画面上にキャラクタのメッセージとして表示する。また、SNSアプリケーション471は、家族U2から入力されたテキスト情報をネットワークNを介してサービス提供サーバ500等へ送信する。また、SNSアプリケーション471は、サービス提供サーバ500等からサービス提供情報を受信し、画面上にキャラクタのメッセージとして表示する。
 図7に戻り説明を続ける。サービス提供サーバ500は、上述したサービス提供装置1、1a及び1bの一例である。サービス提供サーバ500は、タブレット端末200やスマートフォン400とのやり取りを通じて対象者U1の会話情報や対象者U1又は家族U2の関連情報を収集する。サービス提供サーバ500は、収集した情報に基づいて対象者U1のニーズを特定し、当該ニーズに対応するサービス種別(サービス提供手段)を選択する。サービス提供サーバ500は、選択したサービス提供手段が装置内に実装されている場合、対応するサービス提供手段を用いて、特定されたニーズを満たすサービス提供情報を取得し、タブレット端末200又はスマートフォン400へ送信する。一方、選択したサービス提供手段が外部サーバに実装されている場合、サービス提供サーバ500は、当該外部サーバのサービス提供手段からサービス提供情報を取得し、タブレット端末200又はスマートフォン400へ送信する。または、選択したサービス提供手段が外部サーバに実装されており、外部サーバ側で提示を行う場合、サービス提供サーバ500は、当該外部サーバへニーズを送信し、タブレット端末200に対してサービス提供情報を提示させるよう、提示要求を送信する。言い換えると、サービス提供サーバ500は、特定されたニーズを自己が備えるサービス提供手段により満たすことができない(解決できない)場合に、外部サーバに提示要求を送信するものといえる。尚、サービス提供サーバ500は、必ずしもサービス提供手段を備えなくても良い。
 サービス提供サーバ500aから500dは、外部サーバの一例である。サービス提供サーバ500a及び500bは、異なるニーズの種類に対応した異なるサービス提供手段が実装されている。サービス提供サーバ500a及び500bは、サービス提供サーバ500から受信するニーズに応じてサービス提供手段を用いてサービス提供情報を出力し、当該サービス提供情報をサービス提供サーバ500へ返信する。尚、サービス提供サーバ500bは、サービス提供サーバ500内の後述するカスタマイズコンテンツに対応するものとする。
 サービス提供サーバ500c及び500dは、異なるニーズの種類に対応した異なるサービス提供手段が実装されており、ニーズを満たすサービス提供情報を独自にタブレット端末200へ返信する。サービス提供サーバ500cは、上述したサービス提供サーバ500と同等の機能を有するものとする。よって、サービス提供サーバ500cは、上述したサービス提供装置1、1a及び1bの一例である。サービス提供サーバ500dは、汎用的なWEBアプリケーションが稼働するサーバであるものとする。サービス提供サーバ500dは、サービス提供サーバ500から受信したニーズを検索キーとして所定のDBの検索を行い、検索結果をネットワークNを介してタブレット端末200へ返信する。
 尚、サービス提供サーバ500、500a~500dのそれぞれは、情報処理装置であり、複数台のサーバに冗長化されてもよく、各機能ブロックが複数台のコンピュータで実現されてもよい。
 次に、サービス提供サーバ500について詳細に説明する。図13は、本実施形態4にかかるサービス提供サーバ500の構成を示すブロック図である。尚、サービス提供サーバ500cの構成も図13と同様であるものとする。サービス提供サーバ500は、記憶部510、メモリ520、通信部530及び制御部540を備える。記憶部510は、ハードディスク、フラッシュメモリ等の記憶装置である。記憶部510は、プログラム511、個人情報DB512、ニーズ特定モデル513、サービス種別定義情報514、サービス提供モデル515及び516、フォーマット情報517、デフォルトコンテンツ518並びにカスタマイズコンテンツ519を記憶する。プログラム511は、本実施形態4にかかるサービス提供方法の処理が実装されたコンピュータプログラムである。
 個人情報DB512は、対象者U1と家族U2に関する個人情報を管理するデータベースである。個人情報DB512は、ユーザID5121と個人情報5122とが対応付けられている。ユーザID5121は、対象者U1の識別情報である。個人情報5122は、上述した対象者U1の会話情報、対象者U1の関連情報及び家族U2の関連情報から抽出された情報である。個人情報5122は、例えば、キャラクタからの問いかけに応じて対象者U1が回答した内容に含まれるキーワードである。また、個人情報5122は、例えば、家族U2からの伝言に応じて対象者U1が回答した内容に含まれるキーワードである。また、個人情報5122は、例えば、対象者U1がタブレット端末200の前で発した独り言に含まれるキーワードである。また、個人情報5122は、例えば、対象者U1から健康情報測定装置300により測定された血圧や体温等の健康情報である。尚、個人情報5122は、後述する特定部552により収集情報から解析された情報であってもよい。
 ニーズ特定モデル513は、個人情報5122に含まれる複数のキーワードから対象者U1のニーズ(直接的又は間接的な要望)を推定する処理が実装されたプログラムモジュールやモデル式である。例えば、ニーズ特定モデル513は、個人情報5122に含まれる複数のキーワードを入力データとし、各入力データに所定のパラメータ(重み付け係数)を用いて演算される数学モデルであり、例えば、ニューラルネットワーク等で表現されたものである。さらに、ニーズ特定モデル513は、入力データとして、現在の時期(何月)等を含めても良い。
 サービス種別定義情報514は、ニーズの種類とサービス種別(サービス提供手段)とサービス提供手段の提供サーバへのアドレスとが対応付けれた情報である。例えば、ニーズの種類が医療機関の場合、サービス提供手段として医療機関の予約システム、提供サーバとしてサービス提供サーバ500aが対応付けられているものとする。また、サービス種別定義情報514は、サービス種別ごとに、サービス提供サーバ500内にサービス提供手段が実装された内部サービスか、他のサービス提供サーバ500a等にサービス提供手段が実装された外部サービスかの区別が可能とする。また、サービス種別定義情報514は、サービス種別ごとに、コンテンツの種別がデフォルト又はカスタマイズの区別が可能とする。尚、独自コンテンツの場合、コンテンツの種別が未定義であるものとする。
 サービス提供モデル515及び516は、異なるニーズの種類に対応する異なるサービス提供手段のうちサービス提供サーバ500内に実装されたものである。サービス提供モデル515は、例えば、キャラクタによるアドバイス発言をサービス提供情報として提供するものとする。サービス提供モデル516は、例えば、ニーズに対応する路線及びバス停のバスの時刻表をサービス提供情報として提供するものとする。サービス提供モデル516は、他のサービス事業者により提供されたものであってもよい。
 サービス提供モデル515及び516は、ニーズからサービス提供情報を推定する処理が実装されたプログラムモジュールやモデル式である。例えば、サービス提供モデル515は、特定されたニーズを入力データとし、各入力データに所定のパラメータ(重み付け係数)を用いて演算される数学モデルであり、例えば、ニューラルネットワーク等で表現されたものである。サービス提供モデル516もサービス提供モデル515と同様である。
 フォーマット情報517は、タブレット端末200の画面(タッチパネル240)上で再生されるコンテンツの形式を定めた情報である。フォーマット情報517は、例えば、画面上のレイアウトとしてキャラクタの配置位置、セリフの表示位置、他の機能のボタンの表示位置等が定義されている。フォーマット情報517は、コンテンツとして後述するデフォルトコンテンツ518又はカスタマイズコンテンツ519を適用できる。
 デフォルトコンテンツ518は、フォーマット情報517に適用するコンテンツのうちサービス提供サーバ500がデフォルトで定義した情報である。デフォルトコンテンツ518は、アニメーション画像群5181とセリフ情報5182とを含む。アニメーション画像群5181は、対象者U1との会話相手となるソフトウェアロボット(キャラクタ)の種々のコマを示す複数の画像の集合である。セリフ情報5182は、対応するキャラクタの発言及びメッセージを示すテキスト情報である。デフォルトコンテンツ518は、例えば、サービス種別がサービス提供モデル515に対応する場合に用いられるものとする。
 カスタマイズコンテンツ519は、フォーマット情報517に適用するコンテンツのうち他のサービス事業者によりカスタマイズされた定義した情報である。カスタマイズコンテンツ519は、アニメーション画像群5191とセリフ情報5192とを含む。アニメーション画像群5181は、対象者U1にサービス提供モデル516によるサービス提供情報を提示する際に、ユーザインタフェースとして用いられるキャラクタの種々のコマを示す複数の画像の集合である。セリフ情報5192は、対応するキャラクタの発言及びメッセージを示すテキスト情報である。カスタマイズコンテンツ519は、例えば、サービス種別がサービス提供モデル516に対応する場合に用いられるものとする。または、カスタマイズコンテンツ519は、サービス提供サーバ500cを運用するサービス事業者により設定され、サービス提供サーバ500cから取得されるサービス提供情報を提示する際に用いられても良い。
 メモリ520は、RAM(Random Access Memory)等の揮発性記憶装置であり、制御部540の動作時に一時的に情報を保持するための記憶領域である。通信部530は、ネットワークNとの通信インタフェースである。
 制御部540は、サービス提供サーバ500の各構成を制御するプロセッサつまり制御装置である。制御部540は、記憶部510からプログラム511をメモリ520へ読み込ませ、プログラム511を実行する。これにより、制御部540は、認証制御部550、収集部551、特定部552、選択部553、取得部554、生成部555、提示部556、要求部557、通知部558及び受信部559の機能を実現する。
 認証制御部550は、対象者U1が撮影された撮影画像から抽出された生体情報を用いた当該対象者の生体認証を制御する。尚、撮影画像は、家族U2が撮影されたものであってもよい。また、本実施形態にかかる認証制御部550は、生体認証として顔認証を制御する。具体的には、認証制御部550は、ネットワークNを介してタブレット端末200から顔認証要求を受信し、顔認証要求に含まれる撮影画像を取得する。そして、認証制御部550は、撮影画像に含まれる対象者U1の顔領域に対する顔認証を制御する。すなわち、認証制御部550は、取得された撮影画像について、認証装置100に対して顔認証を行わせる。例えば、認証制御部550は、取得された撮影画像を含めた顔認証要求を、ネットワークNを介して認証装置100へ送信し、認証装置100から顔認証結果を受信する。尚、認証制御部550は、撮影画像から対象者U1の顔領域を検出し、顔領域の画像を顔認証要求に含めてもよい。または、認証制御部550は、顔領域から顔特徴情報を抽出し、顔特徴情報を顔認証要求に含めてもよい。
 収集部551は、上述した収集部11及びUI制御部11bの一例である。収集部551は、第1の問いかけ内容に対応する第1の音声を、対象者U1のタブレット端末200から出力させる。そして、収集部551は、対象者U1からタブレット端末200に入力された第1の問いかけ内容に対する回答である第2の音声に基づく回答情報を会話情報として、タブレット端末200から収集する。
 また、収集部551は、家族U2のスマートフォン400に入力された第1の問いかけ内容に対応する第1のテキスト情報をスマートフォン400から受信し、第1のテキスト情報を第1の音声に変換し、変換後の第1の音声をタブレット端末200から出力させる。さらに、収集部551は、第2の問いかけ内容に対応する第2のテキスト情報を、スマートフォン400に表示させる。そして、収集部551は、家族U2からスマートフォン400に入力された第2の問いかけ内容に対する回答である第3のテキスト情報を、スマートフォン400から関連情報として収集する。
 また、収集部551は、健康情報測定装置300により対象者U1から測定された健康情報を関連情報として、タブレット端末200から収集する。
 また、収集部551は、上述した顔認証に成功した場合、会話情報及び関連情報を収集するとよい。
 収集部551は、収集した収集情報(会話情報及び関連情報)からキーワードを個人情報として抽出し、対象者U1のユーザID5121と個人情報5122とを対応付けて記憶部510に保存する。さらに、収集部551は、サービス提供手段を備える外部サーバから会話情報又は関連情報をさらに収集し、上記同様、個人情報として記憶部510に保存するとよい。
 特定部552は、上述した特定部12、特定部11a及び特定部12bの一例である。特定部552は、個人情報5122に含まれる複数のキーワードから対象者U1のニーズを特定する。具体的には、特定部552は、記憶部510から個人情報5122を読み出し、キーワード(群)を取得する。尚、特定部552は、収集部551により収集された収集情報を解析してキーワードを個人情報として取得(抽出)してもよい。また、特定部552は、記憶部510から読み出した個人情報5122を解析してキーワードとして取得してもよい。そして、特定部552は、取得したキーワード(群)をニーズ特定モデル513に入力し、ニーズ特定モデル513からの出力としてニーズを取得することで特定する。
 例えば、キーワードが「(鉄道の)駅」「行きたい」である場合、特定部552は、ニーズ特定モデル513を用いて(最寄りのバス停の)「バスの時刻表」をニーズとして特定する。例えば、キーワードが「血圧」「高い」である場合、特定部552は、ニーズ特定モデル513を用いて「薬の服用」をニーズとして特定する。例えば、キーワードが「腰」「痛い」である場合、特定部552は、ニーズ特定モデル513を用いて「医療機関の受診」をニーズとして特定する。例えば、キーワードが「桜」「見たい」である場合、特定部552は、ニーズ特定モデル513を用いて「桜に関するイベント」をニーズとして特定する。例えば、キーワードが「エアコン」「壊れた」である場合、特定部552は、ニーズ特定モデル513を用いて「エアコンの修理」をニーズとして特定する。例えば、キーワードが「財産」「心配」である場合、特定部552は、ニーズ特定モデル513を用いて「遺産相続の相談」をニーズとして特定する。
 さらに、特定部552は、ニーズ特定モデル513へ入力するキーワードとして、現在の時期を含めても良い。例えば、対象者U1が過去に発話した会話情報の中にキーワードとして「苺」「食べたい」があったとして、さらにキーワードとして現在の時期である「5月」を追加するものとする。その場合、特定部552は、「苺」「食べたい」「5月」を入力データとしてニーズ特定モデル513に入力する。この場合、ニーズ特定モデル513は、「5月」が旬の時期である苺の品種をニーズとして出力する。つまり、特定部552は、対象者U1の過去の発言と現在の時期とを加味して好適なニーズを特定するようにしてもよい。
 選択部553は、上述した選択部12a及び選択部13bの一例である。選択部553は、複数のサービス提供手段の中から、特定されたニーズの種類に対応するサービス提供手段を選択する。具体的には、選択部553は、サービス種別定義情報514を参照し、特定部552により特定されたニーズから、サービス種別(サービス提供手段)を選択する。
 取得部554は、原則として、選択されたサービス提供手段に対して、特定されたニーズを入力して当該ニーズを満たすサービス提供情報を取得する。具体的には、選択されたサービス提供手段がサービス提供サーバ500内に実装されたサービス提供モデル515又は516である場合、取得部554は、サービス提供モデル515又は516により、特定されたニーズを満たすサービス提供情報を取得する。また、選択されたサービス提供手段がサービス提供サーバ500a又は500bに実装されたものである場合(つまり制御サーバの切替がない場合)、取得部554は、サービス提供サーバ500a又は500bに対して、特定されたニーズを送信する。そして、取得部554は、サービス提供サーバ500a又は500b内に実装されたサービス提供手段に、特定されたニーズが入力されることにより出力されたサービス提供情報を、当該サーバから受信することにより、取得する。
 取得部554は、サービス提供手段から出力される複数のサービス提供情報の候補のうち一部を、ニーズを満たすサービス提供情報として取得してもよい。つまり、取得部554は、複数のサービス提供情報の候補の中から、所定の基準で絞り込んでも良い。例えば、複数のサービス提供情報の候補の全てを対象者U1に提示した場合には、大量で対象者U1には選別ができない場合がある。これに対して、取得部554は、所定の基準として対象者U1の個人情報5122からニーズの特定に用いなかった他のキーワードを用いて、複数のサービス提供情報の候補の中から絞り込みを行う。これにより、対象者U1は、自身の好み沿った厳選されたサービス提供情報の提示を受けることができる。
 ここで、受信部559は、他のサービス提供サーバから対象者U1の第2のニーズを含む提示要求を受信する。ここで、提示要求には、第2のニーズと共に、応答先となるタブレット端末200のアドレス情報が含まれるものとする。取得部554は、他のサービス提供サーバから第2のニーズを受信した場合、第2のニーズをサービス提供モデル515又は516に入力して、第2のニーズを満たすサービス提供情報を取得する。
 この場合、サービス提供手段の入力として第2のニーズ以外の追加情報が必要な場合、対象者U1への問合せ内容に対応する第1の音声を生成し、タブレット端末200から出力させる問合せ手段(不図示)をさらに備えるとよい。尚、問合せ手段は、収集部551であってもよい。そして、取得部554は、対象者U1からタブレット端末200に入力された問合せ内容に対する回答である第2の音声に基づく回答情報をタブレット端末200から取得する。そして、取得部554は、回答情報がサービス提供手段の追加情報を満たす場合、当該回答情報と第2のニーズとをサービス提供手段に入力して第2のサービス提供情報を取得する。また、取得部554は、サービス提供サーバ500c等において収集された収集情報をさらに取得し、収集情報が追加情報を満たす場合、当該収集情報と第2のニーズとをサービス提供手段に入力して第2のサービス提供情報を取得するとよい。
 生成部555は、取得したサービス提供情報を含むコンテンツを対象者U1のタブレット端末200上で再生させるためのコンテンツ制御情報を生成する。言い換えると、生成部555は、サービス提供手段に対応するコンテンツ情報とサービス提供情報を用いてコンテンツ制御情報を生成する。具体的には、生成部555は、フォーマット情報517と取得したサービス提供情報とを用いてコンテンツ制御情報を生成する。
 提示部556は、上述した提示部13及びUI制御部11bの一例である。提示部556は、取得したサービス提供情報を少なくとも対象者U1へ提示する。具体的には、提示部556は、コンテンツ制御情報をタブレット端末200へ送信することにより、対象者U1への提示を行う。また、提示部556は、取得したサービス提供情報を家族U2に提示してもよい。つまり、提示部556は、取得したサービス提供情報をテキスト情報でスマートフォン400へ送信してもよい。
 要求部557は、上述した要求部13aの一例である。要求部557は、選択されたサービス提供手段を備えるサービス提供サーバに対して、第1のニーズを満たす第1のサービス提供情報を少なくとも対象者U1のタブレット端末200へ提示させるための提示要求を送信する。具体的には、要求部557は、選択されたサービス提供手段がサービス提供サーバ500c又は500dに実装されたものである場合(つまり制御サーバの切替がある場合)、提示要求を送信する。言い換えると、要求部557は、選択されたサービス提供手段を自装置(サービス提供サーバ500)が備えていない場合、外部のサービス提供サーバに対して、提示要求を送信する。
 通知部558は、収集した会話情報と関連情報を、サービス提供手段を備える他のサービス提供サーバへ通知する。これにより、複数のサービス提供サーバの間で、対象者U1の個人情報を共有でき、より効果的なサービス提供情報を提示できる。
 ここで、サービス提供情報の取得の具体例としては、次のようなものが挙げられる。ニーズが「バスの時刻表」(路線名、バス停名等)である場合、選択部553は、ニーズの種類からバスの時刻検索サービスをサービス提供手段として選択する。そして、取得部554は、バスの時刻検索サービスのサービス提供手段に路線名、バス停名等を入力して、該当するバスの時刻表をサービス提供情報として取得する。また、ニーズが「薬の服用」である場合、選択部553は、ニーズの種類からアドバイスをサービス提供手段として選択する。そして、取得部554は、アドバイスのサービス提供手段に薬の服用を入力して、「薬を服用したか否かの確認」のアドバイス(問いかけ)のメッセージをサービス提供情報として取得する。また、ニーズが「医療機関の受診」(対象者U1の氏名、病歴等)ある場合、選択部553は、ニーズの種類から医療機関の受診予約サービスをサービス提供手段として選択する。そして、取得部554は、受診予約サービスのサービス提供手段に対象者U1の氏名、病歴等を入力して、「受診予約の日程候補」をサービス提供情報として取得する。また、ニーズが「桜に関するイベント」である場合、選択部553は、イベントの検索サービスをサービス提供手段として選択する。ここで、イベントの検索サービスは、サービス提供サーバ500dに実装されているものとする。そこで、要求部557は、サービス提供サーバ500dに対して「桜に関するイベント」をニーズとして提示要求を送信する。また、ニーズが「エアコンの修理」(対象者U1の氏名、住所等)である場合、選択部553は、家電修理サービスをサービス提供手段として選択する。そして、取得部554は、家電修理サービスのサービス提供手段に、対象者U1の氏名、住所等を入力して、「修理訪問の日程候補」をサービス提供情報として取得する。また、ニーズが「遺産相続の相談」(対象者U1の氏名等)である場合、選択部553は、銀行の相続相談サービスをサービス提供手段として選択する。ここで、銀行の相続相談サービスは、サービス提供サーバ500cに実装されているものとする。そこで、要求部557は、サービス提供サーバ500cに対して「遺産相続の相談」(対象者U1の氏名等)をニーズとして提示要求を送信する。
 尚、上述した収集部551、提示部556及び要求部557は、UI制御部としての側面がある。そこで、以下ではUI制御部の処理を説明する。UI制御部は、上述したUI制御部11bの一例である。UI制御部は、特定されたニーズを満たすサービス提供情報をタブレット端末200へ提示するために、第1のUIから、選択されたサービス提供手段に応じた第2のUIへの切替を制御する。
 UI制御部は、生成したコンテンツ制御情報に基づくコンテンツをタブレット端末200上で再生することにより第2のUIへの切替を制御する。そして、UI制御部は、切替後の第2のUIを介して第1のサービス提供情報をタブレット端末200へ提示する。また、上述したアニメーション画像群5191を第2のUIに相当するものとした場合、UI制御部は、第2のUIへの切替後、アニメーション画像群5191を介して第1のサービス提供情報を提示する。
 また、UI制御部は、選択されたサービス提供手段が第2のサービス提供手段である場合、第2のサービス提供手段を備えるサービス提供サーバに対して、第2のサービス提供情報を第2のUIによりタブレット端末200へ提示させるための提示要求を送信することにより、切替を制御する。
 さらに、UI制御部は、切替が必要な場合、タブレット端末200へ第2のUIへの切替の予告を表示させる。
 図14は、本実施形態4にかかるサービス提供サーバ500aの構成を示すブロック図である。尚、サービス提供サーバ500bの構成も図14と同様であるものとする。また、図13と同様の構成については、同一の符号を付し、適宜、重複する説明を省略する。サービス提供サーバ500aは、記憶部510、メモリ520、通信部530及び制御部540を備える。記憶部510は、プログラム511a及びサービス提供モデル515aを記憶する。プログラム511aは、サービス提供処理部550aにおけるサービス提供処理が実装されたコンピュータプログラムである。サービス提供モデル515aは、特定のニーズの種類に対応するサービス提供手段である。サービス提供モデル515aは、例えば、医療機関の予約システムである。
 記憶部510からプログラム511aをメモリ520へ読み込ませ、プログラム511aを実行する。これにより、制御部540は、サービス提供処理部550aの機能を実現する。サービス提供処理部550aは、サービス提供サーバ500等から対象者U1のニーズを含む要求を受信し、受信したニーズをサービス提供モデル515aに入力して出力されるサービス提供情報を取得する。サービス提供処理部550aは、取得したサービス提供情報をネットワークNを介してサービス提供サーバ500等へ返信する。
 尚、サービス提供サーバ500cは、上述したように、図13と同等の構成であるものとする。また、サービス提供サーバ500dは、サービス提供手段として検索エンジンを備えた一般的に検索サーバであるものとする。そのため、サービス提供サーバ500dの内部構成の図示を省略する。
 図15は、本実施形態4にかかるサービス提供制御処理の流れを示すフローチャートである。まず、収集部551は、会話情報又は関連情報を収集する(S401)。そして、収集部551は、収集した会話情報又は関連情報から個人情報を抽出し、記憶部510の個人情報DB512に記録する(S402)。ここで、会話情報又は関連情報の収集処理の例について以下に説明する。尚、前提として、上述したとおり対象者U1及び家族U2の各人の顔特徴情報が認証装置100に登録済みであるものとする。
 図16は、本実施形態4にかかる会話情報の収集処理の流れを示すシーケンス図である。まず、タブレット端末200の前に対象者U1が存在しているものとする。そこで、タブレット端末200は、対象者U1を撮影し(S511)、撮影画像をネットワークNを介してサービス提供サーバ500へ送信する(S512)。
 サービス提供サーバ500の認証制御部550は、タブレット端末200からネットワークNを介して撮影画像を受信し、顔認証要求をネットワークNを介して認証装置100へ送信する(S513)。このとき、認証制御部550は、ステップS512で取得した撮影画像、当該撮影画像から抽出した顔領域、又は、当該顔領域から抽出した顔特徴情報の少なくともいずれかを顔認証要求に含める。そして、認証制御部550は、認証装置100からネットワークNを介して顔認証結果を受信する(S514)。ここでは、顔認証に成功したものとする。そのため、顔認証結果には、成功を示す旨と対象者U1のユーザIDとが含まれている。
 そして、収集部551は、受信した顔認証結果に含まれるユーザIDから対象者U1を特定する。つまり、タブレット端末200の前にいる人物が対象者U1であることを認証する。そして、収集部551は、対象者U1に対する問いかけ内容を生成し(S516)、生成した問いかけ内容をネットワークNを介してタブレット端末200へ送信する(S517)。ここで、問いかけ内容はテキスト情報でも音声データであってもよい。また、問いかけ内容の生成を、生成部555が行っても良い。その場合、生成部555は、フォーマット情報517とデフォルトコンテンツ518と問いかけ内容を用いてコンテンツ制御情報を生成する。
 タブレット端末200は、サービス提供サーバ500からネットワークNを介して問いかけ内容を受信し、問いかけ内容に対応する音声を出力し、対象者U1に対して問いかけを行う(S518)。このとき、タブレット端末200は、第1のUIに相当するキャラクタ画像、例えば、アニメーション画像群5181を画面上でアニメーション再生し、セリフ情報5182を用いて問いかけ内容を音声出力及び画面表示する。尚、受信した問いかけ内容がテキスト情報の場合、タブレット端末200は、テキスト情報を音声へ変換した上で音声出力を行う。
 対象者U1は、タブレット端末200内のキャラクタからの問いかけに対する回答を発話する(S519)。タブレット端末200は、対象者U1の回答を収音し、回答内容をネットワークNを介してサービス提供サーバ500へ送信する(S520)。ここで、回答内容は、テキスト情報でも音声データであってもよい。例えば、タブレット端末200は、収音した音声を音声認識によりテキスト情報に変換し、変換後のテキスト情報を回答内容として送信してもよい。
 サービス提供サーバ500の収集部551は、タブレット端末200からネットワークNを介して回答内容を会話情報として受信し、会話情報から個人情報を抽出し、記憶部510の個人情報DB512にユーザID5121と対応付けて個人情報5122を記録する(S521)。
 図17は、本実施形態4にかかる家族からの関連情報収集処理の流れを示すシーケンス図である。まず、サービス提供サーバ500の収集部551は、家族U2に対する問いかけ内容を生成し(S531)、生成した問いかけ内容をネットワークNを介してスマートフォン400へ送信する(S532)。ここで、問いかけ内容はテキスト情報である。
 スマートフォン400は、サービス提供サーバ500からネットワークNを介して問いかけ内容を受信し、受信した問いかけ内容を画面上に表示する(S533)。例えば、スマートフォン400は、SNSアプリケーション471により、サービス提供サーバ500のキャラクタユーザからのメッセージとして問いかけ内容を表示してもよい。
 家族U2の一人は、SNSアプリケーション471上のキャラクタユーザからの問いかけに対する回答を入力する(S534)。スマートフォン400は、家族U2の回答を取得し、回答内容をネットワークNを介してサービス提供サーバ500へ送信する(S535)。ここで、回答内容は、テキスト情報である。
 サービス提供サーバ500の収集部551は、スマートフォン400からネットワークNを介して回答内容を関連情報として受信し、関連情報から個人情報を抽出し、記憶部510の個人情報DB512にユーザID5121と対応付けて個人情報5122を記録する(S536)。尚、ステップS531の前に家族U2についての顔認証を行っても良い。
 図18は、本実施形態4にかかる家族からの伝言による会話情報収集処理の流れを示すシーケンス図である。まず、家族U2のうち一人がスマートフォン400のSNSアプリケーション471に対して対象者U1への伝言メッセージを入力する(S541)。スマートフォン400は、入力された伝言メッセージを伝言内容としてネットワークNを介してサービス提供サーバ500へ送信する(S542)。
 サービス提供サーバ500の収集部551は、スマートフォン400からネットワークNを介して伝言内容を関連情報として受信し、関連情報から個人情報を抽出し、記憶部510の個人情報DB512にユーザID5121と対応付けて個人情報5122を記録する(S543)。
 続いて、収集部551は、受信した伝言内容をネットワークNを介してタブレット端末200へ送信する(S544)。ここで、伝言内容はテキスト情報でも音声データであってもよい。また、問いかけ内容の生成を、生成部555が行っても良い。その場合、生成部555は、フォーマット情報517とデフォルトコンテンツ518と問いかけ内容を用いてコンテンツ制御情報を生成する。
 タブレット端末200は、サービス提供サーバ500からネットワークNを介して伝言内容を受信し、伝言内容に対応する音声を出力し、対象者U1に対して伝言を伝える(S545)。このとき、タブレット端末200は、第1のUIに相当するキャラクタ画像、例えば、アニメーション画像群5181を画面上でアニメーション再生し、セリフ情報5182を用いて伝言内容を音声出力及び画面表示する。尚、受信した伝言内容がテキスト情報の場合、タブレット端末200は、テキスト情報を音声へ変換した上で音声出力を行う。
 対象者U1は、タブレット端末200内のキャラクタからの伝言に対する回答を発話する(S546)。タブレット端末200は、対象者U1の回答を収音し、回答内容をネットワークNを介してサービス提供サーバ500へ送信する(S547)。ここで、回答内容は、テキスト情報でも音声データであってもよい。例えば、タブレット端末200は、収音した音声を音声認識によりテキスト情報に変換し、変換後のテキスト情報を回答内容として送信してもよい。
 サービス提供サーバ500の収集部551は、タブレット端末200からネットワークNを介して回答内容を会話情報として受信し、会話情報から個人情報を抽出し、記憶部510の個人情報DB512にユーザID5121と対応付けて個人情報5122を記録する(S548)。
 さらに、収集部551は、受信した回答内容をネットワークNを介してスマートフォン400へ送信する(S549)。ここで、回答内容はテキスト情報である。スマートフォン400は、サービス提供サーバ500からネットワークNを介して回答内容を受信し、受信した回答内容を画面上に表示する(S550)。
 このようにして、サービス提供サーバ500を介して対象者U1と家族U2が容易にコミュニケーションを取ることができ、その上、伝言と回答から個人情報を収集し、蓄積することができる。
 図15に戻り説明を続ける。ステップS402の後、所定のタイミングで、特定部552は、個人情報を解析して対象者U1のニーズを特定する(S403)。そして、選択部553は、特定されたニーズの種類に対応するサービス種別を選択する(S404)。ここで、取得部554は、選択されたサービス種別が内部サービスを示すか否かを判定する(S405)。例えば、取得部554は、サービス種別定義情報514を参照し、外部サービスか否かを判定してもよい。言い換えると、取得部554は、サービス提供サーバ500内のサービス提供モデルでは特定されたニーズを満たすことができるか否か(解決できるか否か)を判定するともいえる。
 ステップS405で内部サービスと判定された場合、取得部554は、選択されたサービス種別に対応するサービス提供モデル515又は516から、ニーズを満たすサービス提供情報を取得する(S406)。そして、生成部555は、コンテンツがデフォルトかカスタマイズかを判定する(S407)。コンテンツがデフォルトである場合、生成部555は、デフォルトコンテンツ518を用いたコンテンツ制御情報を生成する(S408)。具体的には、生成部555は、記憶部510からフォーマット情報517とデフォルトコンテンツ518を読み出す。そして、生成部555は、ステップS406で取得したサービス提供情報とデフォルトコンテンツ518をフォーマット情報517に適用してコンテンツ制御情報を生成する。
 一方、ステップS407でコンテンツがカスタマイズである場合、生成部555は、カスタマイズコンテンツ519を用いたコンテンツ制御情報を生成する(S409)。具体的には、生成部555は、記憶部510からフォーマット情報517とカスタマイズコンテンツ519を読み出す。そして、生成部555は、ステップS406で取得したサービス提供情報とカスタマイズコンテンツ519をフォーマット情報517に適用してコンテンツ制御情報を生成する。
 その後、提示部556は、生成したコンテンツ制御情報をネットワークNを介してタブレット端末200へ出力(送信)する(S410)。
 ステップS405で外部サービスと判定された場合、サービス提供サーバ500は、外部サービス処理を実行する(S411)。つまり、サービス提供サーバ500内のサービス提供モデルでは特定されたニーズを満たすことができない(解決できない)場合、サービス提供サーバ500は、外部サービス処理を実行する。
 図19は、本実施形態4にかかる外部サービス処理の流れを示すフローチャートである。まず、選択部553は、サービス種別に対応するサービス提供サーバを選択する(S611)。例えば、選択部553は、サービス種別定義情報514を参照してサービス提供サーバを選択する。次に、選択部553は、制御サーバの切替が発生するか否かを判定する(S612)。ここで、「制御サーバ」とは、サービス提供手段の所在に関わらず、コンテンツを提示する際のフォーマット情報が所在するサーバをいう。例えば、サービス提供サーバ500a及び500bの場合、サービス提供手段はサービス提供サーバ500とは別のサーバ上に存在するが、対象者U1に提示する際のコンテンツのフォーマット情報は、サービス提供サーバ500上のフォーマット情報517を用いる。そのため、ステップS611で選択されたサーバがサービス提供サーバ500a又は500bである場合、選択部553は、制御サーバの切替がないと判定する。一方、ステップS611で選択されたサーバがサービス提供サーバ500c又は500dである場合、選択部553は、制御サーバの切替があると判定する。例えば、選択部553は、サービス種別定義情報514のサービス種別におけるコンテンツ種別が定義されている場合、制御サーバの切替がないと判定する。一方、選択部553は、サービス種別定義情報514のサービス種別におけるコンテンツ種別が定義されていない場合、制御サーバの切替があると判定する。
 ステップS612で制御サーバの切替がないと判定した場合、取得部554は、ネットワークNを介して、選択されたサービス提供サーバへ、ステップS403で特定されたニーズを含めたサービス提供情報要求を送信する(S613)。そして、取得部554は、ネットワークNを介して、サービス提供サーバからサービス提供情報を受信する(S614)。その後、そして、生成部555は、コンテンツがデフォルトかカスタマイズかを判定する(S615)。コンテンツがデフォルトである場合、生成部555は、ステップS408と同様に、デフォルトコンテンツ518を用いたコンテンツ制御情報を生成する(S616)。一方、ステップS615でコンテンツがカスタマイズである場合、生成部555は、ステップS409と同様に、カスタマイズコンテンツ519を用いたコンテンツ制御情報を生成する(S617)。その後、提示部556は、生成したコンテンツ制御情報をネットワークNを介してタブレット端末200へ出力(送信)する(S618)。
 ステップS612で制御サーバの切替があると判定した場合、要求部557は、ネットワークNを介して、選択されたサービス提供サーバへ、ステップS403で特定されたニーズを含めた提示要求を送信する(S619)。このとき、要求部557は、提示要求に応答先となるタブレット端末200のアドレス情報を含める。
 図20は、本実施形態4にかかる提示要求処理の流れを示すフローチャートである。ここでは、サービス提供サーバ500がサービス提供サーバ500cへ提示要求を送信した場合について説明する。サービス提供サーバ500cは、上述した通りサービス提供サーバ500と同等の構成であるものとする。但し、サービス提供サーバ500cは、サービス提供モデル(サービス提供手段)が一つであり、コンテンツ情報は、カスタマイズコンテンツ519のみでデフォルトコンテンツ518が存在しないものとして説明する。また、サービス提供サーバ500cのカスタマイズコンテンツ519は、サービス提供サーバ500のものとは異なるものとする。
 まず、サービス提供サーバ500cの受信部559は、サービス提供サーバ500からネットワークNを介して提示要求を受信する(S641)。次に、取得部554は、追加情報が必要か否かを判定する(S642)。つまり、取得部554は、サービス提供モデル515の入力として、提示要求に含まれるニーズ以外の追加情報が必要か否かを判定する。このとき、取得部554は、提示要求に含まれるニーズに加えて収集済みの個人情報を加味してもよい。提示要求に含まれるニーズだけではサービス提供モデル515の入力として不足している場合、サービス提供サーバ500cの問合せ手段(不図示)は、タブレット端末200へ問いかけを送信する(S643)。このときの送信先は、上記提示要求に含まれる応答先のアドレス情報となる。具体的には、問合せ手段(又は生成部555)は、対象者U1から追加情報を聞き出すための対象者U1への問合せ内容に対応する第1の音声を生成する。そして、問合せ手段は、ネットワークNを介して第1の音声をタブレット端末200へ送信し、タブレット端末200から出力させる。尚、問合せ手段は、第1の音声の代わりに問合せ内容自体を送信してもよい。その場合、タブレット端末200は、受信した問合せ内容を音声に変換して出力する。
 そして、取得部554又は収集部551は、タブレット端末200から回答情報を受信する(S644)。具体的には、取得部554又は収集部551は、対象者U1からタブレット端末200に入力された問合せ内容に対する回答である第2の音声に基づく回答情報をタブレット端末200から取得する。そして、取得部554又は収集部551は、取得した回答情報から個人情報を抽出し、記憶部510の個人情報DB512に記録する(S645)。
 一方、ステップS642で追加情報が不要な場合、つまり、提示要求に含まれるニーズと個人情報とがサービス提供モデル515の入力として充足している場合、ステップS646へ進む。このとき、取得部554は、サービス提供情報を取得する(S646)。具体的には、取得部554は、サービス提供モデル515に提示要求に含まれるニーズと個人情報(回答情報)を入力し、出力されるサービス提供情報を取得する。そして、生成部555は、ステップS409と同様に、カスタマイズコンテンツ519を用いたコンテンツ制御情報を生成する(S647)。その後、提示部556は、生成したコンテンツ制御情報をネットワークNを介してタブレット端末200へ出力(送信)する(S648)。このときの送信先は、上記提示要求に含まれる応答先のアドレス情報となる。
 続いて、複数のサービス提供サーバで連携したサービス提携処理の流れについて説明する。前提として、対象者U1の個人情報は収集済みとする。図21は、本実施形態4にかかるサービス提供処理の流れを示すシーケンス図である。ここでは、外部のサービス提供サーバとしてサービス提供サーバ500aと連携し、上述したとおり、デフォルトコンテンツ518を使用するものとする。つまり、第1のUIの切替が発生しないケースを示す。
 まず、特定部552は、個人情報を解析して対象者U1のニーズを特定する(S701)。次に、選択部553は、サービス種別定義情報514を参照して、特定されたニーズの種類に対応するサービス種別を判定する(S702)。ここでは、外部サービスと判定されたものとする。そして、選択部553は、サービス種別定義情報514を参照して、判定されたサービス種別に対応付けられたサービス提供サーバを選択する(S703)。ここでは、図14の構成を有するサービス提供サーバ500aが選択されたものとする。尚、上述したステップS612の判定を行っても良い。その場合、制御サーバの切替がないと判定される。
 そこで、取得部554は、特定されたニーズを含めたサービス提供要求を、ネットワークNを介してサービス提供サーバ500aへ送信する(S704)。サービス提供サーバ500aのサービス提供処理部550aは、サービス提供サーバ500からネットワークNを介してサービス提供要求を受信し、サービス提供要求に含まれるニーズからサービス提供モデル515aによりサービス提供情報を特定(取得)する(S705)。そして、サービス提供処理部550aは、特定したサービス提供情報をネットワークNを介してサービス提供サーバ500へ送信する(S706)。
 サービス提供サーバ500の取得部554は、サービス提供サーバ500aからネットワークNを介してサービス提供情報を受信する。そして、生成部555は、当該サービス提供情報、フォーマット情報517及びデフォルトコンテンツ518を用いてコンテンツ制御情報を生成する(S707)。その後、提示部556は、生成したコンテンツ制御情報をネットワークNを介してタブレット端末200へ送信する(S708)。タブレット端末200はサービス提供サーバ500からネットワークNを介してコンテンツ制御情報を受信し、コンテンツ制御情報に基づいてコンテンツを出力する(S709)。すなわち、タブレット端末200は、コンテンツ制御情報に基づいてデフォルトのキャラクタを再生し、サービス提供情報を提示する。
 このように、外部のサービス提供サーバと連携しつつ、デフォルトコンテンツを用いることで、第1のUIの切替をすることなく、対象者U1にサービス提供情報を提示することができる。
 図22は、本実施形態4にかかるサービス提供処理の流れを示すシーケンス図である。ここでは、外部のサービス提供サーバとしてサービス提供サーバ500cと連携し、サービス提供サーバ500c内のカスタマイズコンテンツ519を使用するものとする。つまり、個人情報の収集に用いられた第1のUIから、サービス提供情報の提示を行う第2のUIへの切替が発生するケースを示す。
 ステップS701及びS702は、上述した図21と同様である。そして、選択部553は、サービス種別定義情報514を参照して、判定されたサービス種別に対応付けられたサービス提供サーバを選択する(S703)。ここでは、図13の構成を有するサービス提供サーバ500cが選択されたものとする。尚、上述したステップS612の判定を行っても良い。その場合、制御サーバの切替があると判定される。
 ここで、UI制御部(例えば提示部556)は、ネットワークNを介してタブレット端末200へUI切替予告を送信する(S711)。そして、タブレット端末200は、受信したUI切替予告を出力する(S712)。例えば、キャラクタがUI切替予告を音声出力しつつ、画面に切替予告メッセージを表示してもよい。
 併せて、要求部557は、ネットワークNを介して、サービス提供サーバ500cへ、特定されたニーズを含めた提示要求を送信する(S713)。ここで、提示要求には、第2のニーズと共に、応答先となるタブレット端末200のアドレス情報が含まれるものとする。サービス提供サーバ500cの受信部559は、提示要求を受信すると、提示要求に含まれるニーズを取得する。ここでは、追加情報が不要と判定されたものとする。そこで、サービス提供サーバ500cの取得部554は、取得されたニーズからサービス提供モデル515によりサービス提供情報を特定(取得)する(S714)。そして、サービス提供サーバ500cの生成部555は、当該サービス提供情報、フォーマット情報517及びカスタマイズコンテンツ519を用いてコンテンツ制御情報を生成する(S715)。その後、サービス提供サーバ500cの提示部556は、生成したコンテンツ制御情報をネットワークNを介してタブレット端末200へ送信する(S716)。タブレット端末200はサービス提供サーバ500cからネットワークNを介してコンテンツ制御情報を受信し、コンテンツ制御情報に基づいてコンテンツを出力する(S717)。すなわち、タブレット端末200は、コンテンツ制御情報に基づいてデフォルトとは異なる(サービス提供サーバ500c独自の)キャラクタを再生し、サービス提供情報を提示する。
 このように、外部のサービス提供サーバと連携しつつ、第1のUIからカスタマイズコンテンツを用いた第2のUIへ切替をすることで、サービス提供手段に即したUIにより対象者U1にサービス提供情報を提示することができる。
 図23は、本実施形態4にかかるサービス提供処理の流れを示すシーケンス図である。ここでは、図22と同様、外部のサービス提供サーバとしてサービス提供サーバ500cと連携し、サービス提供サーバ500c内のカスタマイズコンテンツ519を使用するものとする。但し、サービス提供情報を取得するためには、提示要求に含まれるニーズ以外に追加情報が必要なケースを説明する。
 ステップS701からS712は、上述した図22と同様である。そして、サービス提供サーバ500cの取得部554は、サービス提供モデル515の入力として、提示要求に含まれるニーズ以外の追加情報が必要か否かを判定する(S721)。ここでは、追加情報が必要と判定されたものとする。例えば、ニーズが「温泉旅行」であった場合に、希望する日程候補が不足していたものとする。この場合、追加情報は「希望日程」となる。
 そこで、生成部555は、対象者U1から追加情報を聞き出すための問いかけ内容を生成すする。そして、生成部555は、生成した問いかけ内容と、フォーマット情報517及びカスタマイズコンテンツ519を用いてコンテンツ制御情報を生成する(S722)。その後、サービス提供サーバ500cの提示部556は、生成したコンテンツ制御情報をネットワークNを介してタブレット端末200へ送信する(S723)。
 タブレット端末200はサービス提供サーバ500cからネットワークNを介してコンテンツ制御情報を受信し、コンテンツ制御情報に基づいてコンテンツを出力する(S724)。このとき、タブレット端末200は、カスタマイズしたキャラクタ(第2のUI)を再生し、問合せを音声出力する(S725)。対象者U1は、当該キャラクタから問合せを話しかけられていると感じる。
 そこで、対象者U1は、タブレット端末200内のキャラクタからの問合せに対する回答を発話する(S726)。タブレット端末200は、対象者U1の回答を収音し、回答内容をネットワークNを介してサービス提供サーバ500cへ送信する(S727)。ここで、回答内容は、テキスト情報でも音声データであってもよい。例えば、タブレット端末200は、収音した音声を音声認識によりテキスト情報に変換し、変換後のテキスト情報を回答内容として送信してもよい。
 サービス提供サーバ500cの収集部551又は取得部554は、タブレット端末200からネットワークNを介して回答内容を会話情報として受信し、会話情報から個人情報を抽出し、記憶部510の個人情報DB512にユーザID5121と対応付けて個人情報5122を記録する(S728)。ここで、抽出された個人情報が追加情報を満たしたものとする。
 そこで、取得部554は、取得されたニーズと抽出された個人情報(追加情報)からサービス提供モデル515によりサービス提供情報を特定(取得)する(S729)。以後は、上述した図22と同様に、ステップS715からS717が処理される。すなわち、タブレット端末200は、コンテンツ制御情報に基づいてデフォルトとは異なる(サービス提供サーバ500c独自の)キャラクタを再生し、サービス提供情報を提示する。
 尚、サービス提供サーバ500dは、サービス提供手段を有するが、アニメーションを用いてキャラクタ画像を再生するコンテンツを有さない。但し、サービス提供サーバ500dは、サービス提供手段として検索エンジンを有するものとする。よって、上述した図22のうち、ステップS701からS713までは同様である。そして、サービス提供サーバ500dは、受信した提示要求に含まれるニーズを検索キーとして、自身の検索エンジンを検索し、検索結果をサービス提供情報として特定(取得)する。そして、サービス提供サーバ500dは、提示要求に応答先として含まれるアドレス情報、つまり、タブレット端末200に対して、ネットワークNを介して検索結果を送信する。そして、タブレット端末200は、受信した検索結果をサービス提供情報として表示する。このように、アニメーションを用いてキャラクタ画像を再生するコンテンツを用いない場合であっても、タブレット端末200の表示は、第1のUIから第2のUI(検索結果)へと切り替わる。よって、対象者U1に対してサービスに適したUIでサービス提供情報を提示できる。
<実施例>
 続いて、本実施形態4を応用した実施例について説明する。まず、高齢者とその家族による旅行プランを提示する例について説明する。サービス提供サーバ500は、図16に示したように、タブレット端末200により対象者U1の顔認証に成功した場合、対象者U1に対する問いかけ内容を生成する(S516)。そこで、サービス提供サーバ500は、問いかけ内容をタブレット端末200へ送信し(S517)、デフォルトのキャラクタを用いて表示及び音声出力させる(S518)。
 図24は、本実施形態4にかかるタブレット端末200における対象者U1とのコミュニケーションの例を示す図である。タブレット端末200は、キャラクタを介して問いかけ内容「最近楽しいことしているかな?」を表示及び音声出力したことを示す。また、対象者U1は、問いかけに応じた回答「久しぶりに大好きな温泉旅行に孫たちと行きたいねぇ。」を発話したことを示す(S519)。そこで、タブレット端末200は、発話内容を回答として収音し、回答内容をサービス提供サーバ500へ送信する(S520)。そこで、サービス提供サーバ500は、受信した回答内容からキーワード「温泉旅行」「孫たち」「行きたい」等を抽出し、個人情報DB512に登録する(S521)。
 サービス提供サーバ500は、個人情報DB512を参照し、引き続き、キーワードに関連する情報の聞き取りを行うべく、再度、問いかけ内容を生成する(S516)。そして、サービス提供サーバ500は、上記同様、問いかけ内容をタブレット端末200へ送信し(S517)、デフォルトのキャラクタを用いて表示及び音声出力させる(S518)。
 図25は、本実施形態4にかかるタブレット端末200における対象者U1とのコミュニケーションの例を示す図である。タブレット端末200は、キャラクタを介して問いかけ内容「今日は体の調子はどうかな?」を表示及び音声出力したことを示す。また、対象者U1は、問いかけに応じて回答「お散歩にも行ったし、調子は良いですよ。特に問題ないです。」と発話したことを示す(S519)。そこで、タブレット端末200は、発話内容を回答として収音し、回答内容をサービス提供サーバ500へ送信する(S520)。そこで、サービス提供サーバ500は、受信した回答内容からキーワード「散歩」「調子は良い」等を抽出し、個人情報DB512に登録する(S521)。
 次に、サービス提供サーバ500は、個人情報DB512を参照し、対象者U1に対応付けられた個人情報5122のキーワードに基づき家族U2への問いかけ内容を生成する(図17のS531)。そこで、サービス提供サーバ500は、問いかけ内容(テキスト情報)をスマートフォン400へ送信し(S532)、SNSアプリケーション471上でメッセージとして問いかけ内容を表示させる(S533)。
 図26は、本実施形態4にかかるスマートフォン400における家族U2とのコミュニケーションの例を示す図である。スマートフォン400は、デフォルトコンテンツ518のアニメーション画像群5181に相当するキャラクタからのメッセージ(問いかけ内容)として「どんなところへ旅行に行ってみたい?」と表示したことを示す。これに対し、家族U2は、問いかけに応じた回答「温泉」「紅葉が見たい」「バイキングが食べたい」とSNSアプリケーション471へ入力したことを示す(S534)。そこで、スマートフォン400は、入力された回答内容をサービス提供サーバ500へ送信する(S535)。そこで、サービス提供サーバ500は、受信した回答内容からキーワード「温泉」「紅葉」「バイキング」「食べる」等を抽出し、個人情報DB512に登録する(S536)。
 サービス提供サーバ500は、個人情報DB512を参照し、引き続き、旅行日程に関連する情報の聞き取りを行うべく、再度、問いかけ内容を生成する(S531)。そこで、サービス提供サーバ500は、問いかけ内容(テキスト情報)をスマートフォン400へ送信し(S532)、SNSアプリケーション471上でメッセージとして問いかけ内容を表示させる(S533)。
 図27は、本実施形態4にかかるスマートフォン400における家族U2とのコミュニケーションの例を示す図である。スマートフォン400は、上記キャラクタからのメッセージ(問いかけ内容)として「いつ頃なら旅行に行けそう!」と表示したことを示す。これに対し、家族U2は、問いかけに応じた回答「X月Y日かな」とSNSアプリケーション471へ入力したことを示す(S534)。そこで、スマートフォン400は、入力された回答内容をサービス提供サーバ500へ送信する(S535)。そこで、サービス提供サーバ500は、受信した回答内容からキーワード「X月Y日」等を抽出し、個人情報DB512に登録する(S536)。
 その後、サービス提供サーバ500は、個人情報DB512から対象者U1のユーザID5121に対応付けられた個人情報5122(キーワード)を読み出し、各キーワードをニーズ特定モデル513に入力する。そして、サービス提供サーバ500は、ニーズ「家族との温泉旅行」「日程候補はX月Y日」「歩行の負担が低い」「バイキング食べ放題」等を特定する。サービス提供サーバ500は、特定したニーズの種類からサービス種別「旅行プラン」を選択する。ここでは、「旅行プラン」は外部サービス、制御サーバの切替なし、かつ、デフォルトコンテンツであるものとする。また、ここでは説明の便宜上、サービス提供サーバ500aのサービス提供手段が旅行プランの検索エンジンであるものとする。
 そこで、サービス提供サーバ500は、例えば、サービス提供サーバ500aへニーズを含めたサービス提供要求を送信する。サービス提供サーバ500aは、受信したサービス提供要求に含まれるニーズを検索キーとして、旅行プランの検索エンジンで検索し、複数の旅行プランの候補を取得する。そして、サービス提供サーバ500aは、検索された複数の旅行プランの候補をサービス提供サーバ500へ返信する。
 そして、サービス提供サーバ500は、サービス提供サーバ500aから複数の旅行プランの候補を受信する。ここで、旅行プランの候補が所定数以上である場合、サービス提供サーバ500は、対象者U1に対応付けられた個人情報5122を用いて、所定数以下に候補を絞り込んでも良い。または、旅行プランの候補の条件情報や説明情報が所定量以上である場合、サービス提供サーバ500は、所定領域に各候補の説明情報を絞り込んでも良い。これにより、高齢者等の対象者U1が提示内容を把握し易くなる。尚、複数の旅行プランの候補の中から一部に絞り込む場合、対象者U1の属性に応じて絞り込み方法を変更してもよい。例えば、対象者U1の属性として年齢、嗜好、今までの旅行経験等が挙げられる。そして、サービス提供サーバ500は、対象者U1の属性に応じて、絞り込み方法を決定し、決定した絞り込み方法により、複数の旅行プランの候補の中から一部に絞り込むとよい。ここで、絞り込み方法としては、例えば、年齢が若い、旅行が趣味である、又は、旅行経験が所定回数以上である場合に、他の属性よりも提案数(絞り込み数)を多くしてもよい。
 その後、サービス提供サーバ500は、(絞り込み後の)旅行プランの候補とフォーマット情報517とデフォルトコンテンツ518とを用いてコンテンツ制御情報を生成し、コンテンツ制御情報をタブレット端末200へ送信する。タブレット端末200は、受信したコンテンツ制御情報からコンテンツを再生して、旅行プランの候補を提示する。
 図28は、本実施形態4にかかるタブレット端末200における旅行プランの提示の例を示す図である。タブレット端末200は、デフォルトのキャラクタによりX月Y日における3つの旅行プランの候補を提示していることを示す。これに応じて、対象者U1は、「プランAが良さそう。プランAに申し込む。」と発話したものとする。そこで、タブレット端末200は、収音した回答音声又は音声認識した回答内容をネットワークNを介してサービス提供サーバ500へ送信する。尚、旅行プランの提示の例は図28に限定されない。上述したように、対象者U1の属性に応じて、提案内容を変更してもよい。例えば、対象者U1の趣味や今までの経験がある場合は、提案する選択肢を多く表示してもよい。また、対象者U1の趣味とは一致しない場合や、経験がない分野の場合、提案する選択肢を少なくしてもよい。また、対象者U1の年齢に応じて提案する選択肢の数を決定してもよい。
 サービス提供サーバ500は、受信した回答音声又は回答内容から、対象者U1がプランAを選択し、申し込んだことを認識する。そこで、サービス提供サーバ500は、家族U2に対して申込の承認を求めるため、スマートフォン400へその旨を通知する。
 図29は、本実施形態4にかかるスマートフォン400における家族U2とのコミュニケーションの例を示す図である。スマートフォン400は、上記同様のキャラクタからのメッセージとして「おじいちゃんがX月Y日に旅行の申込をしたよ。家族で旅行楽しみだね。」と表示したことを示す。これに応じて、家族U2は、「承諾!」「おじいちゃんありがとう!」とSNSアプリケーション471へ入力したことを示す。そこで、スマートフォン400は、入力された回答内容をサービス提供サーバ500へ送信する。
 そこで、サービス提供サーバ500は、受信した家族U2からの回答内容から、旅行プランの申込を確定し、決済処理を行う。ここでは、対象者U1が決済、支払いを行うものとする。決済処理は、例えば、顔認証を用いても良い。その場合、個人情報DB512のユーザID5121に対象者U1のクレジットカード情報等が対応付けられているものとする。そこで、サービス提供サーバ500は、タブレット端末200を介して対象者U1へプランAの決済を行う旨を通知し、決済のために撮影された撮影画像を取得する。そして、サービス提供サーバ500は、撮影画像を顔認証し、顔認証に成功した場合、対象者U1に対応付けられたクレジットカード情報により、プランAの決済処理を行う。
 その後、対象者U1と家族U2は、プランAに従った旅行に行ったものとする。そこで、家族U2は、スマートフォン400のSNSアプリケーション471の上記キャラクタに対して、旅行中の写真(撮影画像)を登録してもよい。これに応じて、スマートフォン400は、登録された撮影画像をサービス提供サーバ500へ送信する。そして、サービス提供サーバ500は、受信した撮影画像と、フォーマット情報517及びデフォルトコンテンツ518を用いてコンテンツ制御情報を生成し、タブレット端末200へ送信する。これにより、タブレット端末200は、受信したコンテンツ制御情報からコンテンツを再生することにより、画面に撮影画像を表示できる。そのため、旅行の思い出写真を共有できる。
 尚、上記の実施例では、対象者U1が旅行プランを選択し、決済を行ったが、家族U2が旅行プランを選択及び決済して対象者U1に対して旅行をプレゼントしてもよい。その場合、まず、サービス提供サーバ500は、タブレット端末200に表示されるデフォルトのキャラクタを介して、対象者U1との日常会話から会話情報や関連情報を収集する。そして、サービス提供サーバ500は、収集した情報を解析して、対象者U1に家族旅行のニーズを特定する。そこで、サービス提供サーバ500は、特定されたニーズを補完するための追加情報を収集する。まず、サービス提供サーバ500は、スマートフォン400のSNSアプリケーション471に対して、対象者U1が家族旅行を希望している旨を通知する。これにより、家族U2は、SNSアプリケーション471に対して対象者U1との家族旅行の希望を回答し、例えば、自分たちのスケジュール情報の中から旅行日程候補を探すよう指示する。スマートフォン400は、家族U2からの上記回答及び指示をサービス提供サーバ500へ通知する。サービス提供サーバ500は、上記回答及び指示に基づき、家族U2のスケジュール情報の中から空き日程を選出する。また、サービス提供サーバ500は、対象者U1に対して生活状態のヒアリングを行う。例えば、サービス提供サーバ500は、タブレット端末200に表示されるデフォルトのキャラクタを介して、トイレに行く頻度、移動時の車椅子の要否、1日の歩行可能時間等を聞き取り、会話情報として収集する。そして、サービス提供サーバ500は、家族旅行のニーズ、選出した空き日程、ヒアリングした生活状態、その他、過去に収集された個人情報に基づいて、旅行の検索サービス提供手段から旅行プランの候補を取得する。当該検索サービス提供手段は、内部サービス又は外部サービスのいずれであってもよい。そして、サービス提供サーバ500は、取得した旅行プランの候補(サービス提供情報)をSNSアプリケーション471を介して家族U2に提示する。そして、家族U2は、SNSアプリケーション471を介して旅行プランを選択し、決済を行う。ここで、決済処理は、上記同様、顔認証で行っても良い。そして、決済後、サービス提供サーバ500は、タブレット端末200に表示されるデフォルトのキャラクタを介して、家族U2からのプレゼントとして、旅行プラン(サービス提供情報)を提示する。これにより、対象者U1に対してサプライズでプレゼントを提供できる。
 尚、上記の実施例では、対象者U1と家族U2が共に参加するサービスを説明したが、家族U2が参加しないサービス(例えば対象者U1が何かを購入しようとしている)についても、第三者(関係者、家族U2)の同意がなければ、サービス提供情報を提示できないようにしてもよい。
 他の実施例として、対象者U1から家族U2(例えば孫)へギフトを贈るケースを説明する。まず、サービス提供サーバ500は、個人情報DB512の個人情報5122の中から対象者U1の家族U2(孫)の誕生日を検出する。そして、サービス提供サーバ500は、孫の誕生日のお祝いのプレゼントを提案する問いかけ内容を生成する。そして、サービス提供サーバ500は、タブレット端末200に表示されるデフォルトのキャラクタを介して、孫の誕生日のお祝いのプレゼントを提案する。これに応じて、対象者U1は、プレゼントに同意し、内容としておもちゃやゲームではなく、勉強になるものを要望として発話したものとする。そこで、タブレット端末200は、収音した要望を回答情報としてサービス提供サーバ500へ通知する。これにより、サービス提供サーバ500は、回答情報から「孫へのプレゼント」「勉強になるもの」というニーズを特定する。サービス提供サーバ500は、回答情報に基づいて孫への問いかけ内容を生成し、SNSアプリケーション471の孫ユーザのメッセージ欄に、「今、欲しいものは何?」と表示させる。そこで、家族U2の孫は、SNSアプリケーション471に対して、「ゲームソフト、アニメDVD、プログラム授業、光るシューズ」などを入力する。スマートフォン400は、入力内容をサービス提供サーバ500へ通知する。そして、サービス提供サーバ500は、受信した入力内容を基に、家族U2のうち孫の親(対象者U1の子夫婦)に向けた問合せ内容を生成する。そして、サービス提供サーバ500は、SNSアプリケーション471の子夫婦ユーザのメッセージ欄に、「お子さんの勉強になるもので挙げたいものはありますか?」「プログラム授業はどうですか?」と表示させる。そこで、家族U2の子夫婦は、SNSアプリケーション471に対して、「ブロックのプログラムキットは勉強にもなるから良い」と入力する。スマートフォン400は、入力内容をサービス提供サーバ500へ通知する。そこで、サービス提供サーバ500は、特定されたニーズと受信した孫や子夫婦の回答内容に基づいて、プレゼント選定サービスの検索エンジンからプレゼント候補を取得する。プレゼント候補は例えば、プログラムキットとプログラム教室参加券である。そして、サービス提供サーバ500は、タブレット端末200の上記キャラクタを介してプレゼント候補をサービス提供情報として提示する。そして、対象者U1は、タブレット端末200を介して、プレゼント候補を選択し、決済を行う。ここで、決済処理は、上記同様、顔認証で行っても良い。そして、決済後、サービス提供サーバ500は、プレゼントが対象者U1により購入された旨を、SNSアプリケーション471の子夫婦ユーザのメッセージ欄に表示させる。また、サービス提供サーバ500は、家族U2のうち孫へプレゼントの郵送の手配を行う。これにより、孫へプレゼントが届く。その後、孫は、SNSアプリケーション471を介して、対象者U1へのお礼メッセージを入力する。サービス提供サーバ500は、スマートフォン400から通知されたお礼メッセージを、タブレット端末200の上記キャラクタを介して出力する。これにより、対象者U1の満足度が向上する。
 尚、上記の実施例では、対象者U1から孫へのギフト内容について孫の親にも確認をしていたが、必ずしも家族U2側の確認(同意)は不要である。さらに、サービス提供情報の提示について、第三者(関係者、家族U2)の同意が必要か否かを対象者U1や家族U2が設定可能としてもよい。
 続いて、UI切替に関する実施例を説明する。ここでは、サービス提供サーバ500cが地域イベント情報の検索エンジンをサービス提供手段として備えるものとする。まず、サービス提供サーバ500は、タブレット端末200に表示されるデフォルトのキャラクタを介して、対象者U1との日常会話から会話情報や関連情報を収集する。
 図30は、本実施形態4にかかるタブレット端末200における対象者U1の会話情報の収集とUI切替予告の例を示す図である。ここでは、対象者U1は、「桜が咲いているところを見てみたいねぇ。」と発話したことを示す。このとき、タブレット端末200は、収音した発話内容をサービス提供サーバ500へ送信する。サービス提供サーバ500は、受信した発話内容を解析し、「桜」「イベント」をニーズとして特定する。ここで、サービス提供サーバ500は、ニーズの種類からサービス種別「地域イベント情報の提供」を選択する。ここで、「イベント情報の提供」は、外部サービス、かつ、制御サーバの切替ありであるものとする。そのため、サービス提供サーバ500は、UI切替予告メッセージを生成し、フォーマット情報517、デフォルトコンテンツ518及びUI切替予告メッセージを用いてコンテンツ制御情報を生成する。そして、サービス提供サーバ500は、コンテンツ制御情報をタブレット端末200へ送信する。タブレット端末200は、受信したコンテンツ制御情報を再生し、デフォルトのキャラクタを介して「イベント情報を問い合わせてみるね。」というUI切替予告を出力する。
 その後、サービス提供サーバ500は、選択されたサービス提供サーバ500cに対して、ニーズとして「桜」「イベント」を含む提示要求を送信する。サービス提供サーバ500cは、受信した提示要求に含まれるニーズを検索キーとして、自己の地域イベント情報の検索エンジンを検索し、検索結果を取得する。サービス提供サーバ500cは、検索結果とフォーマット情報517とカスタマイズコンテンツ519を用いてコンテンツ制御情報を生成し、タブレット端末200に対して送信する。タブレット端末200は、受信したコンテンツ制御情報からコンテンツを再生する。つまり、UIが切り替わる。
 図31は、本実施形態4にかかる切替後のUIによるサービス提供情報の提示の例を示す図である。ここでは、タブレット端末200は、デフォルトのキャラクタとは異なるキャラクタの画像が表示されたことを示す。また、タブレット端末200は、「X月Y日に近くのXX川でお花見イベントが開催されます。いかがでしょうか?」との表示及び音声出力を行ったことを示す。
 また、UI切替に関する他の実施例を説明する。ここでは、サービス提供サーバ500bが家電サポートをサービス提供手段として備えるものとする。まず、サービス提供サーバ500は、タブレット端末200に表示されるデフォルトのキャラクタを介して、対象者U1との日常会話から会話情報や関連情報を収集する。
 図32は、本実施形態4にかかるタブレット端末200における対象者U1の会話情報の収集とUI切替予告の例を示す図である。ここでは、対象者U1は、「夜にエアコンが動かなくなってしまった。」と発話したことを示す。このとき、タブレット端末200は、収音した発話内容をサービス提供サーバ500へ送信する。サービス提供サーバ500は、受信した発話内容を解析し、「エアコン」「動かない」をニーズとして特定する。ここで、サービス提供サーバ500は、ニーズの種類からサービス種別「家電サポート」を選択する。ここで、「家電サポート」は、外部サービス、かつ、制御サーバの切替なし、カスタマイズコンテンツであるものとする。そのため、サービス提供サーバ500は、上記同様、UI切替予告メッセージを生成し、フォーマット情報517、デフォルトコンテンツ518及びUI切替予告メッセージを用いてコンテンツ制御情報を生成する。そして、サービス提供サーバ500は、コンテンツ制御情報をタブレット端末200へ送信する。タブレット端末200は、受信したコンテンツ制御情報を再生し、デフォルトのキャラクタを介して「家電サポートに聞いてみるね。」というUI切替予告を出力する。
 その後、サービス提供サーバ500は、選択されたサービス提供サーバ500bに対して、ニーズとして「エアコン」「動かない」を含むサービス提供要求を送信する。サービス提供サーバ500cは、受信したサービス提供要求に含まれるニーズを、家電サポートのサービス提供手段に入力して、訪問メッセージを取得し、訪問メッセージをサービス提供サーバ500へ返信する。サービス提供サーバ500は、受信した訪問メッセージ、フォーマット情報517とカスタマイズコンテンツ519を用いてコンテンツ制御情報を生成し、タブレット端末200に対して送信する。タブレット端末200は、受信したコンテンツ制御情報からコンテンツを再生する。つまり、UIが切り替わる。
 図33は、本実施形態4にかかる切替後のUIによるサービス提供情報の提示の例を示す図である。ここでは、タブレット端末200は、デフォルトのキャラクタとは異なるキャラクタの画像が表示されたことを示す。また、タブレット端末200は、「エアコンの調子が悪いのですね。すぐにスタッフが訪問して確認致します。」との表示及び音声出力を行ったことを示す。
 このように、これらの実施例により、デフォルトのUIでは解決できないニーズに対して、解決できるサービス提供手段に対応するUIによりサービス提供情報を提示できる。よって、対象者U1は、適切に情報を認識することができる。
<実施形態5>
 本実施形態5は、上述した実施形態4の変形例である。本実施形態5は、生体認証機能をサービス提供装置に内蔵させたものである。本実施形態5にかかるサービス提供システムは、上述したサービス提供システム1000と同様であるため、図示及び説明を省略する。
 実施形態5にかかるサービス提供サーバ500は、図13の個人情報DB512がユーザID5121と顔特徴情報とを対応付ければ良い。つまり、個人情報DB512は、上述した顔情報DB110を包含するものといえる。
 そして、認証制御部550は、複数の人物の顔特徴情報と対象者U1の顔特徴情報とを照合して顔認証を制御する。すなわち、認証制御部550は、取得した撮影画像に含まれるユーザの顔領域から抽出された顔特徴情報と、記憶部510に記憶された顔特徴情報とを照合して顔認証を行うことにより、顔認証結果を取得する。
 尚、本実施形態では、上述した図16のステップS513及びS514が、認証制御部550によるサービス提供サーバ500内での顔認証処理に置き換わる。
 このように、本実施形態5においても上述した実施形態4と同様の効果を奏することができる。
<その他の実施形態>
 尚、上記実施形態では、収集情報からニーズを特定した上で、サービス提供情報を取得していたが、これに限られない。例えば、収集情報を入力とし、ニーズを満たすサービス提供情報を出力するAIモデルを用いても構わない。この場合、AIモデルは、蓄積された会話情報や関連情報を教師データとし、サービス提供情報を正解として機械学習されたものを用いることができる。
 尚、上述の実施形態では、ハードウェアの構成として説明したが、これに限定されるものではない。本開示は、任意の処理を、CPUにコンピュータプログラムを実行させることにより実現することも可能である。
 上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、DVD(Digital Versatile Disc)、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 なお、本開示は上記実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。また、本開示は、それぞれの実施形態を適宜組み合わせて実施されてもよい。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
 (付記A1)
 見守りの対象者の端末において当該対象者との対話相手となる第1のユーザインタフェース(UI)を制御するUI制御手段と、
 前記第1のUIを介して収集した収集情報から前記対象者のニーズを特定する特定手段と、
 複数の種類のニーズのそれぞれに対応した複数のサービス提供手段の中から前記特定されたニーズの種類に対応するサービス提供手段を選択する選択手段と、
 を備え、
 前記UI制御手段は、
 前記特定されたニーズを満たすサービス提供情報を前記端末へ提示するために、前記第1のUIから前記選択されたサービス提供手段に応じた第2のUIへの切替を制御する
 サービス提供装置。
 (付記A2)
 第1のサービス提供手段に対応するコンテンツ情報を記憶する記憶手段と、
 前記選択されたサービス提供手段が前記第1のサービス提供手段である場合、前記第1のサービス提供手段により前記特定されたニーズを満たす第1のサービス提供情報を取得する取得手段と、
 前記コンテンツ情報と前記第1のサービス提供情報を用いてコンテンツ制御情報を生成する生成手段と、をさらに備え、
 前記UI制御手段は、
 前記生成したコンテンツ制御情報に基づくコンテンツを前記端末上で再生することにより前記第2のUIへの切替を制御し、
 前記切替後の第2のUIを介して前記第1のサービス提供情報を前記端末へ提示する
 付記A1に記載のサービス提供装置。
 (付記A3)
 前記コンテンツ情報は、前記第1のUIにおいて用いられる第1のアニメーション画像群とは異なる第2のアニメーション画像群を含み、
 前記UI制御手段は、
 前記第2のアニメーション画像群を介して前記第1のサービス提供情報を提示する
 付記A2に記載のサービス提供装置。
 (付記A4)
 前記取得手段は、前記第1のサービス提供手段を備えるサーバに対して、前記特定されたニーズを送信し、前記第1のサービス提供手段に前記特定されたニーズが入力されることにより出力された前記第1のサービス提供情報を、前記サーバから受信することにより、取得する
 付記A2又はA3に記載のサービス提供装置。
 (付記A5)
 前記UI制御手段は、
 前記選択されたサービス提供手段が第2のサービス提供手段である場合、前記第2のサービス提供手段を備えるサーバに対して、前記第2のサービス提供情報を前記第2のUIにより前記端末へ提示させるための提示要求を送信することにより、前記切替を制御する
 付記A1乃至A4のいずれか1項に記載のサービス提供装置。
 (付記A6)
 前記UI制御手段は、
 前記切替が必要な場合、前記端末へ前記第2のUIへの切替の予告を表示させる
 付記A1乃至A5のいずれか1項に記載のサービス提供装置。
 (付記B1)
 見守りの対象者の端末と、
 前記端末とネットワークを介して接続されたサービス提供装置と、
 を備え、
 前記サービス提供装置は、
 前記端末において前記対象者との対話相手となる第1のユーザインタフェース(UI)を制御するUI制御手段と、
 前記第1のUIを介して収集した収集情報から前記対象者のニーズを特定する特定手段と、
 複数の種類のニーズのそれぞれに対応した複数のサービス提供手段の中から前記特定されたニーズの種類に対応するサービス提供手段を選択する選択手段と、
 を備え、
 前記UI制御手段は、
 前記特定されたニーズを満たすサービス提供情報を前記端末へ提示するために、前記第1のUIから前記選択されたサービス提供手段に応じた第2のUIへの切替を制御する
 サービス提供システム。
 (付記B2)
 前記サービス提供装置は、
 第1のサービス提供手段に対応するコンテンツ情報を記憶する記憶手段と、
 前記選択されたサービス提供手段が前記第1のサービス提供手段である場合、前記第1のサービス提供手段により前記特定されたニーズを満たす第1のサービス提供情報を取得する取得手段と、
 前記コンテンツ情報と前記第1のサービス提供情報を用いてコンテンツ制御情報を生成する生成手段と、
 をさらに備え、
 前記UI制御手段は、
 前記生成したコンテンツ制御情報に基づくコンテンツを前記端末上で再生することにより前記第2のUIへの切替を制御し、
 前記切替後の第2のUIを介して前記第1のサービス提供情報を前記端末へ提示する
 付記B1に記載のサービス提供システム。
 (付記C1)
 コンピュータが、
 見守りの対象者の端末において当該対象者との対話相手となる第1のユーザインタフェース(UI)を介して収集情報を収集し、
 前記収集情報から前記対象者のニーズを特定し、
 複数の種類のニーズのそれぞれに対応した複数のサービス提供手段の中から前記特定されたニーズの種類に対応するサービス提供手段を選択し、
 前記特定されたニーズを満たすサービス提供情報を前記端末へ提示するために、前記第1のUIから前記選択されたサービス提供手段に応じた第2のUIへの切替を制御する
 サービス提供方法。
 (付記D1)
 見守りの対象者の端末において当該対象者との対話相手となる第1のユーザインタフェース(UI)を介して収集情報を収集する収集処理と、
 前記収集情報から前記対象者のニーズを特定する特定処理と、
 複数の種類のニーズのそれぞれに対応した複数のサービス提供手段の中から前記特定されたニーズの種類に対応するサービス提供手段を選択する選択処理と、
 前記特定されたニーズを満たすサービス提供情報を前記端末へ提示するために、前記第1のUIから前記選択されたサービス提供手段に応じた第2のUIへの切替を制御する制御処理と、
 をコンピュータに実行させるサービス提供プログラムが格納された非一時的なコンピュータ可読媒体。
 以上、実施形態(及び実施例)を参照して本願発明を説明したが、本願発明は上記実施形態(及び実施例)に限定されものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 1 サービス提供装置
 11 収集部
 12 特定部
 13 提示部
 1a サービス提供装置
 11a 特定部
 12a 選択部
 13a 要求部
 1b サービス提供装置
 11b UI制御部
 12b 特定部
 13b 選択部
 1000 サービス提供システム
 100 認証装置
 110 顔情報DB
 111 ユーザID
 112 顔特徴情報
 120 顔検出部
 130 特徴点抽出部
 140 登録部
 150 認証部
 200 タブレット端末
 210 カメラ
 220 マイク
 230 スピーカ
 240 タッチパネル
 250 通信部
 260 メモリ
 270 制御部
 271 コンテンツ処理部
 300 健康情報測定装置
 400 スマートフォン
 410 カメラ
 420 マイク
 430 スピーカ
 440 タッチパネル
 450 通信部
 460 メモリ
 470 制御部
 471 SNSアプリケーション
 500 サービス提供サーバ
 510 記憶部
 511 プログラム
 512 個人情報DB
 5121 ユーザID
 5122 個人情報
 513 ニーズ特定モデル
 514 サービス種別定義情報
 515 サービス提供モデル
 516 サービス提供モデル
 517 フォーマット情報
 518 デフォルトコンテンツ
 5181 アニメーション画像群
 5182 セリフ情報
 519 カスタマイズコンテンツ
 5191 アニメーション画像群
 5192 セリフ情報
 520 メモリ
 530 通信部
 540 制御部
 550 認証制御部
 551 収集部
 552 特定部
 553 選択部
 554 取得部
 555 生成部
 556 提示部
 557 要求部
 558 通知部
 559 受信部
 500a サービス提供サーバ
 511a プログラム
 515a サービス提供モデル
 550a サービス提供処理部
 500b サービス提供サーバ
 500c サービス提供サーバ
 500d サービス提供サーバ
 N ネットワーク
 U1 対象者
 U2 家族

Claims (10)

  1.  見守りの対象者の端末において当該対象者との対話相手となる第1のユーザインタフェース(UI)を制御するUI制御手段と、
     前記第1のUIを介して収集した収集情報から前記対象者のニーズを特定する特定手段と、
     複数の種類のニーズのそれぞれに対応した複数のサービス提供手段の中から前記特定されたニーズの種類に対応するサービス提供手段を選択する選択手段と、
     を備え、
     前記UI制御手段は、
     前記特定されたニーズを満たすサービス提供情報を前記端末へ提示するために、前記第1のUIから前記選択されたサービス提供手段に応じた第2のUIへの切替を制御する
     サービス提供装置。
  2.  第1のサービス提供手段に対応するコンテンツ情報を記憶する記憶手段と、
     前記選択されたサービス提供手段が前記第1のサービス提供手段である場合、前記第1のサービス提供手段により前記特定されたニーズを満たす第1のサービス提供情報を取得する取得手段と、
     前記コンテンツ情報と前記第1のサービス提供情報を用いてコンテンツ制御情報を生成する生成手段と、をさらに備え、
     前記UI制御手段は、
     前記生成したコンテンツ制御情報に基づくコンテンツを前記端末上で再生することにより前記第2のUIへの切替を制御し、
     前記切替後の第2のUIを介して前記第1のサービス提供情報を前記端末へ提示する
     請求項1に記載のサービス提供装置。
  3.  前記コンテンツ情報は、前記第1のUIにおいて用いられる第1のアニメーション画像群とは異なる第2のアニメーション画像群を含み、
     前記UI制御手段は、
     前記第2のアニメーション画像群を介して前記第1のサービス提供情報を提示する
     請求項2に記載のサービス提供装置。
  4.  前記取得手段は、前記第1のサービス提供手段を備えるサーバに対して、前記特定されたニーズを送信し、前記第1のサービス提供手段に前記特定されたニーズが入力されることにより出力された前記第1のサービス提供情報を、前記サーバから受信することにより、取得する
     請求項2又は3に記載のサービス提供装置。
  5.  前記UI制御手段は、
     前記選択されたサービス提供手段が第2のサービス提供手段である場合、前記第2のサービス提供手段を備えるサーバに対して、前記第2のサービス提供情報を前記第2のUIにより前記端末へ提示させるための提示要求を送信することにより、前記切替を制御する
     請求項1乃至4のいずれか1項に記載のサービス提供装置。
  6.  前記UI制御手段は、
     前記切替が必要な場合、前記端末へ前記第2のUIへの切替の予告を表示させる
     請求項1乃至5のいずれか1項に記載のサービス提供装置。
  7.  見守りの対象者の端末と、
     前記端末とネットワークを介して接続されたサービス提供装置と、
     を備え、
     前記サービス提供装置は、
     前記端末において前記対象者との対話相手となる第1のユーザインタフェース(UI)を制御するUI制御手段と、
     前記第1のUIを介して収集した収集情報から前記対象者のニーズを特定する特定手段と、
     複数の種類のニーズのそれぞれに対応した複数のサービス提供手段の中から前記特定されたニーズの種類に対応するサービス提供手段を選択する選択手段と、
     を備え、
     前記UI制御手段は、
     前記特定されたニーズを満たすサービス提供情報を前記端末へ提示するために、前記第1のUIから前記選択されたサービス提供手段に応じた第2のUIへの切替を制御する
     サービス提供システム。
  8.  前記サービス提供装置は、
     第1のサービス提供手段に対応するコンテンツ情報を記憶する記憶手段と、
     前記選択されたサービス提供手段が前記第1のサービス提供手段である場合、前記第1のサービス提供手段により前記特定されたニーズを満たす第1のサービス提供情報を取得する取得手段と、
     前記コンテンツ情報と前記第1のサービス提供情報を用いてコンテンツ制御情報を生成する生成手段と、
     をさらに備え、
     前記UI制御手段は、
     前記生成したコンテンツ制御情報に基づくコンテンツを前記端末上で再生することにより前記第2のUIへの切替を制御し、
     前記切替後の第2のUIを介して前記第1のサービス提供情報を前記端末へ提示する
     請求項7に記載のサービス提供システム。
  9.  コンピュータが、
     見守りの対象者の端末において当該対象者との対話相手となる第1のユーザインタフェース(UI)を介して収集情報を収集し、
     前記収集情報から前記対象者のニーズを特定し、
     複数の種類のニーズのそれぞれに対応した複数のサービス提供手段の中から前記特定されたニーズの種類に対応するサービス提供手段を選択し、
     前記特定されたニーズを満たすサービス提供情報を前記端末へ提示するために、前記第1のUIから前記選択されたサービス提供手段に応じた第2のUIへの切替を制御する
     サービス提供方法。
  10.  見守りの対象者の端末において当該対象者との対話相手となる第1のユーザインタフェース(UI)を介して収集情報を収集する収集処理と、
     前記収集情報から前記対象者のニーズを特定する特定処理と、
     複数の種類のニーズのそれぞれに対応した複数のサービス提供手段の中から前記特定されたニーズの種類に対応するサービス提供手段を選択する選択処理と、
     前記特定されたニーズを満たすサービス提供情報を前記端末へ提示するために、前記第1のUIから前記選択されたサービス提供手段に応じた第2のUIへの切替を制御する制御処理と、
     をコンピュータに実行させるサービス提供プログラムが格納された非一時的なコンピュータ可読媒体。
PCT/JP2020/033482 2020-09-03 2020-09-03 サービス提供装置、サービス提供システム、サービス提供方法及び非一時的なコンピュータ可読媒体 WO2022049710A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/033482 WO2022049710A1 (ja) 2020-09-03 2020-09-03 サービス提供装置、サービス提供システム、サービス提供方法及び非一時的なコンピュータ可読媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/033482 WO2022049710A1 (ja) 2020-09-03 2020-09-03 サービス提供装置、サービス提供システム、サービス提供方法及び非一時的なコンピュータ可読媒体

Publications (1)

Publication Number Publication Date
WO2022049710A1 true WO2022049710A1 (ja) 2022-03-10

Family

ID=80491832

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/033482 WO2022049710A1 (ja) 2020-09-03 2020-09-03 サービス提供装置、サービス提供システム、サービス提供方法及び非一時的なコンピュータ可読媒体

Country Status (1)

Country Link
WO (1) WO2022049710A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005086051A1 (ja) * 2004-03-08 2005-09-15 National Institute Of Information And Communications Technology 対話システム、対話ロボット、プログラム及び記録媒体
JP2015092327A (ja) * 2013-09-30 2015-05-14 株式会社日本総合研究所 外出スケジュール自動作成装置及びその方法
JP2017038266A (ja) * 2015-08-11 2017-02-16 国立大学法人 長崎大学 見守り装置
JP2019528492A (ja) * 2017-05-16 2019-10-10 アップル インコーポレイテッドApple Inc. メディア探索用のインテリジェント自動アシスタント

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005086051A1 (ja) * 2004-03-08 2005-09-15 National Institute Of Information And Communications Technology 対話システム、対話ロボット、プログラム及び記録媒体
JP2015092327A (ja) * 2013-09-30 2015-05-14 株式会社日本総合研究所 外出スケジュール自動作成装置及びその方法
JP2017038266A (ja) * 2015-08-11 2017-02-16 国立大学法人 長崎大学 見守り装置
JP2019528492A (ja) * 2017-05-16 2019-10-10 アップル インコーポレイテッドApple Inc. メディア探索用のインテリジェント自動アシスタント

Similar Documents

Publication Publication Date Title
JP7076615B2 (ja) リモートケアサービスを実施させるシステムおよび方法
JP7036149B2 (ja) 情報処理システム、および制御方法
CN105894405A (zh) 基于人工智能的点餐交互系统和方法
KR102218752B1 (ko) 딥러닝과 빅데이터를 이용한 치주질환관리시스템
JP2005032167A (ja) 情報検索装置、情報検索方法、情報検索システム、クライアント装置およびサーバ装置
WO2018235379A1 (ja) サービス情報提供システムおよび制御方法
JP6114773B2 (ja) 情報処理装置及び方法
JP6242359B2 (ja) 情報処理装置及び方法
WO2022049710A1 (ja) サービス提供装置、サービス提供システム、サービス提供方法及び非一時的なコンピュータ可読媒体
WO2022049709A1 (ja) サービス提供装置、サービス提供システム、サービス提供方法及び非一時的なコンピュータ可読媒体
WO2022049708A1 (ja) サービス提供装置、サービス提供システム、サービス提供方法及び非一時的なコンピュータ可読媒体
KR20160073903A (ko) 개선된 개인 기억 정보와 속성 정보를 활용한 개인 추억 회상 및 자기 재생 시스템 및 그 방법
KR102410322B1 (ko) 심리 상담사 추천 시스템 및 심리 상담사 추천 방법
JP7418975B2 (ja) 情報処理装置
JP2022117899A (ja) 診療支援方法、装置、及びプログラム
JP7307576B2 (ja) プログラム及び情報処理装置
JP7412784B2 (ja) 動画送信システム、動画送信プログラム、及び動画送信方法
JP7290977B2 (ja) プログラム及び情報処理装置
JP2020035358A (ja) 人の属性に合った香り・匂いを生成するための方法、コンピュータ、およびプログラム
US20170270251A1 (en) Social Media for ID Verification
WO2023073828A1 (ja) 情報処理装置、情報処理システム、情報処理方法及び非一時的なコンピュータ可読媒体
JP6360218B2 (ja) 情報処理装置及び方法
JP2023008085A (ja) 動画送信システム、動画送信プログラム、及び動画送信方法
JP6230560B2 (ja) 情報処理装置及び方法
JP2023091218A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20952447

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20952447

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP