WO2020022294A1 - 情報処理システム、情報処理方法、および、記録媒体 - Google Patents

情報処理システム、情報処理方法、および、記録媒体 Download PDF

Info

Publication number
WO2020022294A1
WO2020022294A1 PCT/JP2019/028725 JP2019028725W WO2020022294A1 WO 2020022294 A1 WO2020022294 A1 WO 2020022294A1 JP 2019028725 W JP2019028725 W JP 2019028725W WO 2020022294 A1 WO2020022294 A1 WO 2020022294A1
Authority
WO
WIPO (PCT)
Prior art keywords
agent
user
character
advice
information processing
Prior art date
Application number
PCT/JP2019/028725
Other languages
English (en)
French (fr)
Inventor
井原 圭吾
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2020532393A priority Critical patent/JP7435447B2/ja
Priority to KR1020217000894A priority patent/KR20210036338A/ko
Priority to EP19842096.0A priority patent/EP3832560A4/en
Priority to US17/259,349 priority patent/US11327637B2/en
Priority to CN201980048947.0A priority patent/CN112534449A/zh
Publication of WO2020022294A1 publication Critical patent/WO2020022294A1/ja
Priority to US17/713,535 priority patent/US11809689B2/en
Priority to US18/370,661 priority patent/US20240012545A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/60ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to nutrition control, e.g. diets
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training

Definitions

  • the present disclosure relates to an information processing system, an information processing method, and a recording medium.
  • an agent system that recommends contents and actions according to a user's question, request, or context using a dedicated terminal such as a smartphone, a tablet terminal, a wearable device, or a home agent has been known.
  • Patent Document 1 regarding an agent character in a car navigation system, a technique of changing the visual aspect of the agent character in response to a change in the tendency of a user's action (user preference based on a spot or route search). Is disclosed. This allows the user to intuitively understand changes in his / her preferences and hobbies.
  • Patent Literature 2 discloses a technique of changing a personality parameter of a virtual pet according to accumulation of conversation between a user and the virtual pet.
  • Patent Literature 3 discloses a technique in a car navigation system that determines the character of an agent that communicates with a user according to the user's profile (age, gender, hobby) and surrounding environment (weather, vehicle type). ing.
  • an information processing system capable of presenting advice more effectively by updating the user interface of the agent according to a change in the behavior of the user with respect to the advice of the agent. Suggest a medium.
  • an information provided with a control unit that controls to update the user interface of the agent, based on whether or not the user has changed behavior in response to advice given to the user by the agent A processing system is proposed.
  • it includes controlling the processor to update the user interface of the agent in response to the advice given by the agent to the user, based on whether or not the user has changed behavior.
  • control unit that controls a computer to update a user interface of the agent in accordance with whether or not the user has changed behavior in response to an advice provided by the agent to the user.
  • the present invention proposes a recording medium on which a program for functioning is recorded.
  • FIG. 1 is a diagram illustrating an overview of an information processing system according to an embodiment of the present disclosure.
  • FIG. 1 is a diagram illustrating an example of an overall configuration of an information processing system according to an embodiment.
  • FIG. 2 is a block diagram illustrating an example of a configuration of the information processing apparatus according to the embodiment.
  • FIG. 7 is a diagram illustrating user parameters used when determining compatibility with a user according to the present embodiment.
  • FIG. 6 is a diagram illustrating an example of a relation table between user profile information and user parameters according to the embodiment.
  • FIG. 6 is a diagram illustrating character parameters used when determining compatibility with a user according to the embodiment. It is a figure showing an example of a personal character information input screen by this embodiment.
  • FIG. 6 is a diagram illustrating an example of a parameter that determines a property of a character according to the embodiment.
  • FIG. 4 is a diagram illustrating an example of user parameters assigned based on user profile data according to the embodiment. It is a flowchart which shows an example of the flow of the update process using the step parameter of the agent character by this embodiment. It is a figure explaining the case where the shape of the character by this embodiment is changed to an optimal character by changing infinitely in steps.
  • FIG. 1 is a diagram illustrating an overview of an information processing system according to an embodiment of the present disclosure.
  • the information processing system according to the present embodiment provides various information in response to a user's question or request, or provides an appropriate advice to the user. Then, the user interface of the agent is updated according to whether the user has changed the behavior.
  • the “user interface” refers to the appearance, voice, or personality of an agent that interacts with a user.
  • the user interface of the agent is updated according to whether or not the user has accepted the advice (specifically, whether or not the behavior has been changed).
  • the advice can be presented more effectively.
  • the agent character is updated (changed).
  • a grandmother character is selected from several agent characters, and the user interface (appearance, voice, character, etc.) of the agent is updated to the grandmother character.
  • an agent is software that autonomously supports a user's behavior, provides various information to the user (information recommendation, etc.), and interacts with the user. Interact with the user via
  • the agent is a general agent system that responds directly to the user in one short-term session, and for example, changes the behavior of the user to gradually approach the task from a long-term perspective. May be a new agent system (referred to as a master system) that prompts the user.
  • the “master” is a name (virtual presence) of a virtual agent that prompts the user to spontaneously change behavior.
  • a predetermined code of behavior (means for solving a problem in the community, a predetermined value standard (that is, a value), a predetermined life rhythm, and the like) is automatically generated for each specific community or each user, and the code of behavior is automatically generated. It is possible to solve community issues by indirectly promoting behavioral change based on the. In other words, while the user is acting in accordance with the master's words, without being aware of the code of conduct, the problem in the community is solved without being noticed, or the user takes an action that meets the value standard in the community Can improve the community situation.
  • FIG. 2 is a diagram illustrating an example of the entire configuration of the information processing system according to the present embodiment.
  • the information processing system includes an agent device 1 that functions as a user interface for presenting advice from an agent to a user, and an information processing device 2 that generates an agent character. .
  • the information processing device 2 acquires advice to a user from an external advice service system (specifically, the advice service server 3), and outputs the advice to the external agent device 1. At this time, the information processing device 2 updates the agent device 1 to the user interface of the selected character agent and presents advice.
  • an external advice service system specifically, the advice service server 3
  • the advice service server 3 is an example of a service system that generates various information to be presented to the user, such as music recommendation and dietary advice. For example, by subscribing to a service system to receive information provision, the user can enjoy advice from the service system as advice from a predetermined agent character in the agent device 1 used by the user.
  • the information processing apparatus 2 communicates with the advice service server 3 to obtain presentation information (advice) to the user, and presents the information as advice from an appropriate agent character at the agent device 1 used by the user. It can be used as a common platform (platform) that controls so that
  • the service system may be an existing information presenting service (for example, a system for recommending content (music, movies, events, games, etc.) or providing advice on healthcare, etc.) or an agent service.
  • a new system called the master system may be used, which prompts the user to change the behavior in order to gradually approach the problem solving from a long-term perspective.
  • the information processing device 2 appropriately selects (can also generate) an agent character, updates the agent device 1 on the user interface of the selected agent character, and performs control to present advice.
  • the update content of the user interface includes, for example, a change in the appearance, voice, or personality of the agent character.
  • the information processing device 2 changes the agent character according to the presence or absence of a change in the behavior of the user with respect to the advice from the agent performed using the agent device 1, and optimizes the user interface of the agent in the agent device 1. Whether or not the user has changed behavior can be determined based on, for example, various sensing data (camera data, audio data, biological information, motion sensor information, behavior history, position information, operation history, etc.) acquired from the sensing device 4.
  • the sensing device 4 may be a sensor (surveillance camera, microphone, or the like) installed around the user, may be a wearable device worn by the user, or may be provided in the agent device 1. Further, a plurality of sensing devices 4 may be provided.
  • the agent device 1 when the agent device 1 is a display device such as a smartphone, a tablet terminal, a TV device, an HMD (Head Mounted Display), or a projector device that projects an image, the agent is a virtual agent. Since the image is displayed on the display screen or the projection area, the character of the agent can be updated by switching the image.
  • the agent device 1 is an agent robot having a human-shaped exterior made of a soft material, the agent device 1 adjusts the internal air pressure or changes the exterior shape by projecting a rod-shaped arm from the interior. It is possible to Further, in an agent robot having a simple white shape, it is possible to switch the projection of the texture of the agent by a projector from the outside (or inside).
  • the output of the voice of the agent is, for example, that voiceprint data of the agent character is passed from the information processing apparatus 2 to the agent device 1, and the agent device 1 synthesizes a voice from the voiceprint data using a synthetic voice engine. It is supposed to speak.
  • the information processing device 2 can update the voice of the agent by transmitting voiceprint data of the character to be updated to the agent device 1.
  • the character of the agent may be reflected in the tone such as the wording and ending of the agent.
  • the information processing device 2 passes the updated personality information of the agent character to the agent device 1, and the agent device 1 presents an advice using a tone corresponding to the personality information.
  • the personality information may include information on tone.
  • the agent device 1 may be a display device such as a smartphone, a tablet terminal, a TV device, or an HMD, may be a projector device that projects an image, or may be a deformable agent. It may be a robot. Further, the agent device 1 may be a wearable device such as a smart band, a smart earphone, and a smart neck (neck-mounted speaker). Further, the agent device 1 may be a home voice recognition terminal (home terminal) (a so-called voice agent device). The agent device 1 has a function of restoring the agent character selected by the information processing device 2 (a display function, a voice output function (including a synthetic voice engine), a shape deformation function, and the like). The advice can be presented to the user as advice from a predetermined agent character.
  • the information processing device 2 a display function, a voice output function (including a synthetic voice engine), a shape deformation function, and the like.
  • the advice can be presented to the user as advice from a predetermined agent character.
  • the information processing device 2 may include the function of the advice service server 3, at least a part of the processing of the information processing device 2 may be performed by the agent device 1, or the entire information processing device 2 May be provided in the agent device 1.
  • FIG. 3 is a block diagram illustrating an example of a configuration of the information processing device 2 according to the present embodiment.
  • the information processing device 2 includes a control unit 200, a communication unit 210, and a storage unit 220.
  • Control unit 200 functions as an arithmetic processing device and a control device, and controls overall operations in the information processing device 2 according to various programs.
  • the control unit 200 is realized by an electronic circuit such as a CPU (Central Processing Unit) and a microprocessor. Further, the control unit 200 may include a ROM (Read Only Memory) for storing a program to be used and calculation parameters and the like, and a RAM (Random Access Memory) for temporarily storing parameters and the like that change as appropriate.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the control unit 200 also functions as a user information management unit 201, an advice service management unit 202, an initial character determination unit 203, an action change determination unit 204, and a character change unit 205.
  • the user information management unit 201 manages profile information and the like input by the user.
  • User profile information is stored in the user profile DB 221.
  • the character of the agent is changed based on a change in the behavior of the user with respect to the advice from the agent, and the character is optimized (the user is more likely to accept the advice and a character that can realize effective advice).
  • a character compatible with the user's personality and preference can be determined. You can choose.
  • the user's profile information includes, for example, gender, date of birth, respected person, genre of favorite entertainer, and the like.
  • the advice service management unit 202 acquires the advice information addressed to the user from the advice service server 3, and distributes the advice information to the agent device 1 used by the user. Information on which user has registered with which advice service may also be managed.
  • the initial character determination unit 203 determines an agent character (initial character) to be initially set in the agent device 1.
  • the initial character determination unit 203 selects a character compatible with the user from agent characters (see the private character DB 222 and the general-purpose character DB 223) prepared in advance based on, for example, the profile information of the user, and sets the character as the initial character. More specifically, for example, various parameters of the character compatible with the user are determined based on the profile information of the user, and these parameters are compared with the parameters of the character prepared in advance, and the character at the close coordinates is determined. , Selected as a good character.
  • UP user parameter
  • UP0 “category of favorite character”
  • UP0; 2 “entertainer”
  • UP0; 2 “entertainer”
  • UP0; 5 “anime character”
  • UP1 "favorite entertainment genre”
  • “idol” is value 1 (UP1; 1)
  • “singer” is value 2 (UP1; 2)
  • “actor” is value 3 (UP1; 3)
  • “talent” Is set to a value 4 (UP1; 4)
  • “comedy” is set to a value 5 (UP1; 5).
  • the parameters (UP0 to UP4) are applied in order from the data 1 (sex) of the profile data in accordance with the input contents of the user.
  • blank (-") is used.
  • all parameters UP0 to UP4 are filled by inputting all profile data.
  • the initial character determination unit 203 determines an initial character using parameters (CP; character parameters) of each agent character and parameters (UP0 to UP4) based on profile data of the user.
  • CP character parameters
  • CP character parameters
  • CP1 “entertainment genre”
  • finger has a value of 2 (CP1; 2)
  • actor has a value of 3 (CP1; 3)
  • talent has a value of 4 (CP1; 4)
  • parameters such as “comedy” value 5 (CP1; 5) are set.
  • each item of the CP and UP parameters has a corresponding content such as CP0: character category and UP0: favorite character category, and CP1: entertainment genre and UP0: favorite character category.
  • character is used as a generic term for shapes (appearances), timbres, personalities, and the like used when expressing an agent.
  • a plurality of agent characters according to the present embodiment may be prepared in advance as general-purpose characters on the system side.
  • General-purpose characters include commonly known and public characters, such as celebrities active in television and the like, and anime and manga characters.
  • Information on the general-purpose character is stored in the general-purpose character DB 223.
  • the character of the agent according to the present embodiment uses a general character as well as a personal character close to the user, for example, a personal character based on a family member, a friend, an acquaintance (a user's dad character, a user's grandmother character, and the like). It is also possible. Information on the private character is stored in the private character DB 222.
  • the information of each character to be stored includes appearance information (photographic images (2D, 3D data), illustrations, etc.), audio information (voiceprint data, etc.), personality (personality parameters, etc.), gender, age, and relationship with the user. (Or intimacy). It is assumed that information of private characters known only to the user, such as family members and acquaintances, is registered in advance by the user himself.
  • FIG. 7 is a diagram illustrating an example of a personal character information input screen. As shown in FIG. 7, the user can input and register information of a private character known only to the user, such as a family member or an acquaintance.
  • FIG. 8 shows an example of character parameters (CP values shown in FIG. 6) assigned to each character including general-purpose and private.
  • the CP information may be stored in each DB as information on each character.
  • a private character “user's own grandma” has “CP0; 1 (family / acquaintance)” based on information of the private character input by the user. Values such as “CP1 : ⁇ ( none)”, “CP2; 2 (1970s)” (calculated from the date of birth, etc.), “CP3; 5 (female)”, “CP4; 2 (grandparent)” ( (See FIG. 6).
  • the initial character determination unit 203 determines the initial character using the parameters (CP; character parameters) of each agent character and the parameters (UP; user parameters) based on the profile data of the user.
  • the method for determining the initial character is not particularly limited, but, for example, the following method is used.
  • each character having each value of CP0 to CP4 is arranged at a point of coordinates (CP0, CP1, CP2, CP3, CP4) on a multidimensional (5D) space having an axis of each parameter. become.
  • the initial character determination unit 203 obtains a distance from the coordinates (UP0, UP1, UP2, UP3, UP4) in the space to the coordinates of each character, and determines a character having the closest distance as the initial character.
  • the behavior change determination unit 204 determines the user's behavior change with respect to the advice. For example, the behavior change determination unit 204 can analyze various sensing data acquired from the sensing device 4 and determine the user's behavior change. A specific example of the behavior change determination will be described later using a flowchart.
  • the character change unit 205 changes (updates) an agent character (user interface) that causes the agent device 1 to interact with the user in accordance with the user's behavior change determined by the behavior change determination unit 204. For example, if the user has not changed the behavior even after giving the advice by the initial character a predetermined number of times, the character changing unit 205 extracts another agent character having an attribute close to the initial character from the private character DB 222 or the general-purpose character DB 223. The agent device 1 is controlled so as to change to the user interface of the selected character.
  • the character change (update) of the agent is realized by a change including at least one of appearance, voice, and personality. That is, a change in the character of the agent includes, for example, a change in appearance only, a change in appearance and voice, a change in voice only, a change in voice and character, a change in appearance and character, a change in character only, or a change in appearance, voice, and character. Is expected to change.
  • the character changing unit 205 continuously (repeatedly) changes the character according to the change in the behavior of the user, and allows the user to change the behavior more (that is, to accept the advice more effectively). Can be optimized. A specific example of such a change (update) of the agent character after the determination of the initial character will be described later using a flowchart.
  • the communication unit 210 is connected to an external device by wire or wirelessly, and transmits and receives data to and from the external device.
  • the communication unit 210 includes, for example, a wired / wireless LAN (Local Area Network), or Wi-Fi (registered trademark), Bluetooth (registered trademark) mobile communication network (LTE (Long Term Evolution), 3G (third generation mobile communication). Method)) and the like, it is possible to communicate with the network and transmit / receive data to / from the advice service server 3, the agent device 1, and the sensing device 4 via the network.
  • the storage unit 220 is realized by a ROM (Read Only Memory) that stores a program, an operation parameter, and the like used for the processing of the control unit 200, and a RAM (Random Access Memory) that temporarily stores appropriately changed parameters and the like.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the storage unit 220 stores, for example, a user profile DB (database) 221, a private character DB 222, and a general-purpose character DB 223.
  • the configuration of the information processing device 2 according to the present embodiment has been specifically described above.
  • the information processing device 2 may be realized by a server on a network, or may be realized by an edge server whose communication distance is relatively close to the agent device 1. Further, the information processing device 2 may be configured by a plurality of devices. Further, at least a part of the configuration of the information processing device 2 illustrated in FIG. 3 may be provided in an external device. Further, at least a part of each function of the control unit 200 of the information processing device 2 may be realized by the agent device 1. The function of the control unit 200 of the information processing apparatus 2 and each DB of the control unit 200 may be provided in the agent device 1.
  • the agent to which the determined initial character is applied notifies the user of the content of the advice generated by each advice service as appropriate. Further, in response to the notification, the user's behavior is measured using various sensing devices 4 such as a camera and a microphone (detection of behavior change).
  • the agent character is reselected (updated, that is, the user interface is changed). )I do.
  • FIG. 9 is a flowchart illustrating an example of the flow of an agent character update process according to the present embodiment.
  • the information processing device 2 selects an initial character determined by the initial character determination unit 203 as an agent (step S103). More specifically, the information processing device 2 transmits character information such as the appearance, voiceprint data, and personality of the selected initial character to the agent device 1, and the agent device 1 executes the presentation of advice for the selected initial character. Let it. The advice is appropriately acquired from the advice service system by the information processing device 2 and transmitted to the agent device 1.
  • the behavior change determination unit 204 determines whether or not the number of times the behavior change has been recognized is less than the expected value t among the advices performed N times by the selected character (step). S106).
  • the number of times the behavior change has been recognized is the number of times the user has followed the advice.
  • the behavior change determination unit 204 detects the number of times that the user has received the advice and changed the behavior based on various sensing data detected by the sensing device 4.
  • the agent device 1 when the agent device 1 is a home-use voice recognition terminal (home terminal) and thereby recommends music to the user, it is determined whether or not the user has requested the recommended music. For example, if music recommendation is performed ten times, and the number of requests for reproduction of the music is less than an expected predetermined threshold value, for example, seven, the behavior change determination unit 204 reselects (updates) a character. .
  • the agent device 1 when the user advises on the improvement of the eating habits, it is determined whether or not the user has made a menu according to the advice (whether or not the user has eaten according to the advice). For example, when the user gives a menu advice when taking a meal, and when the user falls below a predetermined threshold value expected to take a meal in accordance with the advice during ten meals, for example, seven times, the behavior change determination unit 204 Performs reselection (update) of the character. What kind of meal the user has eaten may be, for example, text input by the user himself, or the user may take an image of the dish with the camera of the agent device 1 and make a menu determination by image analysis using the agent device 1. Further, in a company or school cafeteria where IT is managed, a meal menu taken by the user may be determined from the user's adjustment data.
  • the information processing device 2 determines whether the number of times that the behavior change has been recognized is less than the expected value t among the N times of advice given by the reselected character in the agent device 1 (step S115). ).
  • step S115 determines the reselected character as a new agent (step S121).
  • step S115 if the number of times that the behavior change has been recognized is lower than the expected value t (step S115 / Yes), the character changing unit 205 adds 1 to n (step S118), and is again located at the n-th closest coordinate. A character is selected (step S112).
  • a character is set step by step from the initial character, and a character having a high advice effect to the user (ie, the user is more likely to change behavior (easy to accept advice)) Can be updated (optimized).
  • step S121 even after a new agent is determined in step S121, by performing the processing in step S106 and thereafter, it is possible to continuously optimize the agent character.
  • whether or not the behavior change has occurred may be determined based on the number of times (percentage) that the behavior change has been recognized while repeatedly performing the same advice by the same agent character.
  • the same advice does not necessarily have to be given continuously, and may be given a predetermined number of times within a certain period in addition to other advices.
  • the information processing apparatus 2 For example, every time the information processing apparatus 2 performs a bad habit of “biting a nail”, the same agent character notifies the advice of changing the bad habit over a day. If the ratio (the ratio at which the user changed the behavior according to the advice) that was effective for each advice (the ratio at which the behavior change occurred) exceeds 70%, the information processing device 2 is effective for the advice by the character. It can be determined that there was.
  • advice to be repeated is not limited to advice of exactly the same content, but may be advice of the same genre or advice from a common viewpoint (that is, advice having a common upper category).
  • the information processing apparatus 2 uses the same agent character every time it performs all actions described as bad habits, such as “poor extortion” and “tongue tapping” as well as “biting nails”.
  • advice for changing the action may be repeatedly performed. Then, whether or not each of these “advises for bad habits” is effective (whether or not the action is stopped) is continuously recorded.
  • the information processing apparatus 2 checks the number of times that the effect has been performed (the user has stopped the action according to the advice) when the execution of the advice reaches, for example, 10 times. The advice is judged to be effective.
  • the information processing apparatus 2 is not limited to repeating the recommendation of the same music, and the information processing apparatus 2 repeats the music of the common artist or the common genre a predetermined number of times to the user by the same agent character in the agent device 1. Recommend it. Then, based on the number of times that the user has requested the reproduction of the recommended music (the number of times the effect has been made), the information processing apparatus 2 has an effect on the advice by the character for a predetermined number of times (or a predetermined period of time). It is determined whether or not there is.
  • FIG. 10 is a diagram illustrating an example of parameters that determine the character properties according to the present embodiment.
  • a value can be set in ten steps from “manga style” to “realistic”.
  • P1 character's character
  • a value can be set in ten steps from “active” to “gentle”.
  • stepwise parameters of voice can be similarly set.
  • the stepwise parameters of the voiceprint data include, for example, “high voice (cute voice, youthful voice, restless voice, etc.)” to “low voice (heavy voice, calm voice, faint voice, etc.)”, or , “Loud voice” to "low voice” and the like are assumed. Further, “fast-slow”, “dialect-standard language”, and the like may be included in the gradual parameter of the character (tone).
  • each of the character parameters CP0 to CP4 is determined in 10 levels from 0 to 9.
  • a user parameter (UP) assigned based on the user's profile data can also be set in ten steps as shown in FIG.
  • FIG. 11 is a diagram showing an example of user parameters assigned based on user profile data.
  • the initial character determination unit 203 can determine the initial character based on each parameter (UP) assigned based on the profile data registered by the user. For example, among the ten values of each parameter of the character shown in FIG. 10, a character that is set to a value close to the value of UP assigned based on the profile of the target user and set as P0 to P3 is set as the initial character. .
  • the information processing device 2 can update the initial character as follows using the stepwise parameters with reference to the user's behavior change.
  • FIG. 12 is a flowchart showing an example of the flow of the update process using the stepwise parameters of the agent character according to the present embodiment.
  • the information processing apparatus 2 resets n to 0 (step S203), and in the parameter Pn of the character (for example, any of P0 to P3 shown in FIG. 10), the current setting value u (For example, any of the stepwise parameter values 0 to 9 shown in FIG. 10), advice is performed N times, and the number of behavioral changes is measured (step S206).
  • the parameter Pn of the character for example, any of P0 to P3 shown in FIG. 10
  • the current setting value u for example, any of the stepwise parameter values 0 to 9 shown in FIG. 10
  • advice is performed N times, and the number of behavioral changes is measured (step S206).
  • the information processing apparatus 2 changes the set value to u ⁇ 1 in Pn, gives advice N times, and measures the number of behavioral changes (step S209).
  • the information processing apparatus 2 changes the set value to u + 1 in Pn, gives advice N times, and measures the number of behavioral changes (step S212).
  • the information processing device 2 sets the setting value with the highest effect as a new setting value of the parameter Pn based on each measured number of behavioral changes (step S215).
  • the information processing device 2 can optimize at least one of the appearance, the voice, and the personality of the agent character.
  • the present disclosure is not limited to a method of selecting a character whose behavior has been most changed from a finite number of characters, and continuously changes the shape of the character by interpolating between the finite number of characters. . Then, by making it possible to select a character at an arbitrary position on the continuous line, the character can be changed in an infinite step and a more optimal character can be selected.
  • generation of a continuous change in shape can be performed using a path framework method for image interpolation or a machine learning method such as GAN (Generative Adversarial Network). If a machine learning method such as GAN is used, the same algorithm can be applied to not only the shape of the character but also the voice (voice) of the character.
  • GAN Geneative Adversarial Network
  • the shape is continuously changed from the initial character (character A) to the character (character B) closest to the initial character by using the above-described algorithm and the like. It is possible to select an arbitrary shape.
  • FIG. 14 is a flowchart illustrating an example of the flow of an update process using an infinite step change of the agent character according to the present embodiment.
  • the initial character determination unit 203 of the information processing device 2 selects an initial character as an agent (step S253).
  • the initial character is selected by using the parameter (CP) of each agent character and the parameter (UP) based on the profile data of the user to determine the axis of each parameter.
  • the character having the smallest distance D is determined as the initial character in the multi-dimensional (5-dimensional) space.
  • the behavior change determination unit 204 of the information processing device 2 determines whether the number of times that the behavior change is recognized is less than the expected value t among the N times of the advice given by the selected character (step S256). ).
  • the character changing unit 205 of the information processing device 2 performs image interpolation processing from the shapes of both characters to generate an image whose shape changes continuously (so-called image morphing) (step S265), and performs the continuous change. An image of an arbitrary number of steps is extracted on the line (step S268).
  • the character changing unit 205 of the information processing device 2 determines whether the number of times that the behavior change has been recognized is less than the expected value t among the N times of the advice performed by the applied character (step S277). .
  • step S280 the character changing unit 205 of the information processing device 2 adds 1 to m (step S280), and repeats steps S274 to S274 until the number of steps reaches the upper limit. Step S280 is repeated (step S283).
  • step S277 If the value is equal to or greater than the expected value t (step S277 / No), the character changing unit 205 of the information processing device 2 selects the applied character as a new agent (step S286).
  • the change in the shape of the character has been described as an example, but the present disclosure is not limited to this, and the other parameters such as the voice quality (voiceprint data) and the character (tone) of the character are also continuously changed. It is possible to select arbitrary data as an agent character after generating data that has been dynamically changed.
  • the information processing apparatus 2 determines the user's behavior change at the time of each of the music recommendation and the dietary advice, and according to the result of each behavioral change, provides a music recommendation advice service and a dietary life advice service.
  • a character that is more optimal may be selectively used.
  • the information processing system may use a method of setting an appearance frequency (probability) for each character and changing (updating) the agent character based on the appearance frequency.
  • the information processing apparatus 2 sets the appearance frequency (probability) for each of all the characters (for example, the total number M) prepared in advance.
  • FIG. 15 shows an example of the appearance frequency (probability) set for each character. All characters appear according to the set appearance frequency.
  • a character can be made to appear based on the frequency of appearance and evaluation can be performed.
  • the information processing apparatus 2 increases the frequency of appearance of the character m, as shown in FIG. Adjustment (reflection of evaluation) such as relatively lowering the appearance frequency of the character.
  • FIG. 16 is a flowchart illustrating an example of an operation flow of an agent character update process based on the appearance frequency of each character according to the present embodiment.
  • the initial character determination unit 203 of the information processing device 2 selects an initial character as an agent and gives a high appearance frequency i [%] (for example, 70%) (step S303).
  • the character changing unit 205 of the information processing device 2 determines a character m to appear according to the appearance frequency of each character, and gives advice to the user in the agent device 1 based on the determined character m (step S309). . Such processing may be performed each time the information processing apparatus 2 needs to acquire and present an advice addressed to the user from the advice service.
  • the behavior change determination unit 204 of the information processing device 2 acquires sensing data from the sensing device 4 and measures the user's behavior change (step S312).
  • the behavior change determining unit 204 of the information processing device 2 determines whether or not there is an expected behavior change with respect to the advice by the agent character (whether the user has followed the advice) (step S315).
  • step S315 when there is an expected behavior change (step S315 / Yes), the character changing unit 205 of the information processing device 2 raises the appearance frequency for the character m by a specified value a% (step S318).
  • step S315 / No the character changing unit 205 of the information processing device 2 lowers the appearance frequency for the character m by the specified value b% (step S324).
  • the new appearance frequency Qm ' (1-b / 100) * Qm.
  • the new appearance frequency Qn ' Qn + (b * Qm / 100) * (Qn / (100-Qm)).
  • a computer program for causing the functions of the information processing device 2 to be exhibited by hardware such as a CPU, a ROM, and a RAM built in the information processing device 2 can be created.
  • a computer-readable storage medium storing the computer program is provided.
  • the present technology may also have the following configurations.
  • (1) For the advice that the agent gave to the user, comprising a control unit that controls to update the user interface of the agent, depending on whether the user has changed behavior.
  • Information processing system. (2) The control unit includes: In response to the advice, the user is controlled to optimize the user interface of the agent so as to change behavior more. The information processing system according to (1).
  • (3) The control unit includes: When the behavior change of the user with respect to the advice is lower than a predetermined expected value, Controlling to change to another agent at least one of the appearance, sound, and personality of the agent, The information processing system according to (2).
  • the control unit includes: For at least one of the appearance, voice, and personality of the agent, agents that are different in a stepwise manner can be set in order, and the user when giving advice to the user by each agent Detecting the behavior change result of the agent, based on the detection result, control to optimize at least one of the appearance, voice, and personality of the agent, The information processing system according to (2) or (3).
  • the control unit includes: For each type of advice, control to optimize the user interface of the agent, The information processing system according to any one of (2) to (4).
  • the control unit includes: By the agent, at least a predetermined number of times the advice shared by the upper category is performed a predetermined number of times, the behavior change result of the user at the time of each advice is integrated, and the agent is optimized.
  • the information processing system according to (3) or (4).
  • the control unit includes: Appearance of the agent, voice, and personality, at least one of a plurality of agents that are different for at least one of different points to generate data that continuously changes, on the line of the generated continuous change, Extracting data in the process of changing at any number of steps, the agent can be set in the order of steps within the extracted number of steps, Detecting the behavior change result of the user when giving advice to the user by each agent, and, based on the detection result, optimizing at least one of the appearance, voice, and personality of the agent Control to become The information processing system according to any one of (2) to (6).
  • the control unit includes: An initial agent can be set as the user interface of the agent; The information processing system according to any one of (1) to (7).
  • the control unit includes: Setting the user interface of the initial agent according to the profile of the user; The information processing system according to (8).
  • the control unit includes: Setting a relatively high probability of appearance in the user interface of the initial agent, Set a relatively low probability of appearance on the user interface of agents other than the initial agent, According to the appearance probability, set the user interface of the agent, If the behavior change of the user occurs in response to the advice to the user through the user interface of the set agent, increase the appearance probability of the user interface of the set agent, and Control to reduce the probability of appearance of the user interface of the agent, The information processing system according to (8).
  • the control unit includes: Control to update the user interface of external agent devices, The information processing system according to any one of (1) to (8).
  • the control unit includes: Based on the advice to the user obtained from an external service, Controlling the agent device of the user to give the advice to the user, In response to the presented advice, control is performed to update the user interface of the agent device, depending on whether the user has changed behavior.
  • the information processing system according to (11).
  • the processor In response to the advice given by the agent to the user, including controlling to update the user interface of the agent, depending on whether the user has changed behavior. Information processing method.
  • Computer In response to the advice given by the agent to the user, a program for functioning as a control unit that controls to update the user interface of the agent according to whether or not the user has changed behavior has been recorded. , recoding media.

Abstract

エージェントのアドバイスに対するユーザの行動変容に応じてエージェントのユーザインタフェースを更新することで、より効果的にアドバイスを提示することが可能な情報処理システム、情報処理方法、および、記憶媒体を提供する。エージェントがユーザに対して行ったアドバイスに対して、前記ユーザが行動変容したか否かに応じて、前記エージェントのユーザインタフェースを更新するように制御する制御部(200)を備える、情報処理システム。

Description

情報処理システム、情報処理方法、および、記録媒体
 本開示は、情報処理システム、情報処理方法、および、記録媒体に関する。
 近年、スマートフォンやタブレット端末、ウェアラブルデバイス、または、ホームエージェント等の専用端末を用いて、ユーザの質問や要求、コンテキストに応じてコンテンツや行動の推薦を行うエージェントシステムが知られている。
 例えば下記特許文献1では、カーナビゲーションシステムにおけるエージェントキャラクターに関し、利用者の行為の傾向(スポットやルートの検索に基づくユーザの好み)の変化に対応させて、エージェントキャラクターの視覚的態様を変化させる技術が開示されている。これにより利用者は自己の嗜好や趣味の変化を直感的に理解することが可能となる。
 また、下記特許文献2では、ユーザとバーチャルペットとの会話の蓄積に応じて、バーチャルペットの性格パラメータを変化させる技術が開示されている。
 また、下記特許文献3では、カーナビゲーションシステムにおいて、ユーザとコミュニケーションを行うエージェントの性格を、ユーザのプロフィール(年齢、性別、趣味)や周辺環境(天候、車種)に応じて決定する技術が開示されている。
特開2010-204070号公報 特開2002-216026号公報 特開平11-259446号公報
 しかしながら、上述した先行技術文献に記載の技術では、エージェントがユーザにどのような影響を与えたかについては考慮されていない。ユーザにアドバイスを行うエージェントシステムにおいては、ユーザがそのアドバイスを受け入れたか否かを考慮し、より効果的なアドバイスを行うことが求められる。
 そこで、本開示では、エージェントのアドバイスに対するユーザの行動変容に応じてエージェントのユーザインタフェースを更新することで、より効果的にアドバイスを提示することが可能な情報処理システム、情報処理方法、および、記録媒体を提案する。
 本開示によれば、エージェントがユーザに対して行ったアドバイスに対して、前記ユーザが行動変容したか否かに応じて、前記エージェントのユーザインタフェースを更新するように制御する制御部を備える、情報処理システムを提案する。
 本開示によれば、プロセッサが、エージェントがユーザに対して行ったアドバイスに対して、前記ユーザが行動変容したか否かに応じて、前記エージェントのユーザインタフェースを更新するように制御することを含む、情報処理方法を提案する。
 本開示によれば、コンピュータを、エージェントがユーザに対して行ったアドバイスに対して、前記ユーザが行動変容したか否かに応じて、前記エージェントのユーザインタフェースを更新するように制御する制御部として機能させるためのプログラムが記録された、記録媒体を提案する。
 以上説明したように本開示によれば、エージェントのアドバイスに対するユーザの行動変容に応じてエージェントのユーザインタフェースを更新することで、より効果的にアドバイスを提示することが可能となる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態による情報処理システムの概要について説明する図である。 本実施形態による情報処理システムの全体構成の一例を示す図である。 本実施形態による情報処理装置の構成の一例を示すブロック図である。 本実施形態によるユーザとの相性を決定する際に用いるユーザのパラメータについて説明する図である。 本実施形態によるユーザのプロフィール情報とユーザパラメータとの関係表の一例を示す図である。 本実施形態によるユーザとの相性を決定する際に用いるキャラクターのパラメータについて説明する図である。 本実施形態による私的キャラクターの情報入力画面の一例を示す図である。 本実施形態による各キャラクターに割り当てられたキャラクターパラメータの一例を示す図である。 本実施形態によるエージェントキャラクターの更新処理の流れの一例を示すフローチャートである。 本実施形態によるキャラクターの性質を決めるパラメータの一例を示す図である。 本実施形態によるユーザのプロフィールデータに基づいて割り当てられるユーザパラメータの一例を示す図である。 本実施形態によるエージェントキャラクターの段階的パラメータを用いた更新処理の流れの一例を示すフローチャートである。 本実施形態によるキャラクターの形状を無限段階的に変化させて最適なキャラクターに更新する場合について説明する図である。 本実施形態によるエージェントキャラクターの無限段階的変化を用いた更新処理の流れの一例を示すフローチャートである。 本実施形態による各キャラクターに設定される出現頻度(確率)の一例を示す図である。 本実施形態による各キャラクターの出現頻度に基づくエージェントキャラクターの更新処理の動作の流れの一例を示すフローチャートである。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、説明は以下の順序で行うものとする。
 1.本開示の一実施形態による情報処理システムの概要
 2.情報処理装置2の構成例
 3.動作処理
  3-1.エージェントキャラクターの更新
  3-2.エージェントキャラクターの段階的調整に基づく更新
  3-3.エージェントキャラクターをアドバイスサービス毎に選択
  3-4.エージェントキャラクターの出現頻度に基づく更新
 4.まとめ
 <<1.本開示の一実施形態による情報処理システムの概要>>
 図1は、本開示の一実施形態による情報処理システムの概要について説明する図である。図1に示すように、本実施形態による情報処理システムは、ユーザの質問や要求に応じて様々な情報を提供したり、ユーザに適切なアドバイスを行ったりするエージェントシステムにおいて、エージェントのアドバイスに対してユーザが行動変容したか否かに応じて、エージェントのユーザインタフェースを更新する。本明細書において、「ユーザインタフェース」とは、ユーザとインタラクションを行うエージェントの外観や、声、または、性格等を意味する。
 例えば食生活のアドバイスとして、栄養バランスの取れた健康的な食事である「和食」をユーザに薦めたが、アドバイスを行っているエージェントのユーザインタフェースが、図1上段に示すような素行が悪そうなキャラクター等であると、ユーザがアドバイスを受け入れない(行動変容が起きない)状況も想定される。
 そこで本実施形態による情報処理システムでは、ユーザがアドバイスを受け入れたか否か(具体的には、行動変容したか否か)に応じて、エージェントのユーザインタフェースを更新し、例えばユーザが好きなキャラクターや尊敬している人物のキャラクター、または共感するキャラクター等、よりユーザがアドバイスを受け入れ易い(信頼感のある)キャラクターに変更すことで、より効果的にアドバイスを提示することを可能とする。
 例えば、上述したように図1上段に示すような素行が悪そうなキャラクター等で食生活のアドバイスを行ってもユーザが行動変容を起こさなかった場合(例えばいつもジャンクフードを食べているユーザに対して、栄養バランスの取れた健康的な食事を勧めても食生活が変容しなかった場合)、エージェントキャラクターを更新(変更)する。具体的には、例えばユーザが尊敬する人物が祖母の場合、いくつかあるエージェントキャラクターの中から、おばあさんキャラを選択し、エージェントのユーザインタフェース(外観、声、性格等)をおばあさんキャラに更新する。おばあさんキャラのエージェントからアドバイスを受けることで、ユーザはアドバイスを受け入れ易くなることが期待できる(例えば食生活の行動変容)。
 ここで、エージェントとは、ユーザの行動の支援や、ユーザへの様々な情報提供(情報推薦等)、ユーザとの対話等を自律的に行うソフトウェアであって、様々なデバイス(エージェントデバイス)を介して、ユーザとインタラクションを行う。エージェントは、ユーザに対して直接的で短期的な1セッションの応答を行う一般的なエージェントシステムの他、例えば、長期的な視野に立って徐々に課題解決に近付けていくための行動変容をユーザに促す新たなエージェントシステム(マスターシステムと称する)であってもよい。ここで、「マスター」とは、ユーザに自発的な行動変容を促す仮想的なエージェントの呼称(師匠的な存在)である。マスターシステムでは、例えば特定コミュニティやユーザ毎に所定の行動規範(コミュニティ内の課題を解決するための手段、所定の価値基準(すなわち価値観)、所定の生活リズム等)を自動生成し、行動規範に基づいて行動変容を間接的に促すことで、コミュニティの課題を解決することが可能である。すなわち、ユーザがマスターの言葉に従って行動しているうちに、行動規範を意識せずとも、気付かないうちにコミュニティ内の課題が解決されていたり、コミュニティ内の価値基準に合った行動を取ったりすることができ、コミュニティの状況が改善される。
 続いて、このような本実施形態による情報処理システムの全体構成について図2を参照して説明する。図2は、本実施形態による情報処理システムの全体構成の一例を示す図である。
 図2に示すように、本実施形態による情報処理システムは、ユーザに対してエージェントからのアドバイスを提示するユーザインタフェースとして機能するエージェントデバイス1と、エージェントキャラクターの生成を行う情報処理装置2とを含む。
 情報処理装置2は、外部のアドバイスサービスシステム(具体的には、アドバイスサービスサーバ3)からユーザへのアドバイスを取得し、当該アドバイスを、外部のエージェントデバイス1に出力する。この際、情報処理装置2は、選定したキャラクターエージェントのユーザインタフェースにエージェントデバイス1を更新し、アドバイスを提示する。
 アドバイスサービスサーバ3は、楽曲推薦や食生活のアドバイス等、ユーザへ提示する様々な情報を生成するサービスシステムの一例である。ユーザは、例えば情報提供を受けたいサービスシステムに加入することで、ユーザが利用するエージェントデバイス1において、所定のエージェントキャラクターからのアドバイスとして、当該サービスシステムからのアドバイスを享受することができる。本実施形態による情報処理装置2は、アドバイスサービスサーバ3と通信接続してユーザへの提示情報(アドバイス)を所得し、当該ユーザが利用するエージェントデバイス1において、適切なエージェントキャラクターからのアドバイスとして提示するように制御する共通基盤(プラットフォーム)として活用し得る。
 サービスシステム(アドバイスサービスサーバ3)は、既存の情報提示サービス(例えば、コンテンツ(音楽、映画、イベント、ゲーム等)の推薦や、ヘルスケア等のアドバイスの提示システムなど)、エージェントサービスであってもよいし、また、長期的な視野に立って徐々に課題解決に近付けていくための行動変容をユーザに促す上記マスターシステムと称する新たなシステムであってもよい。
 情報処理装置2は、適宜エージェントキャラクターを選定(生成も可能)し、当該選定したエージェントキャラクターのユーザインタフェースにエージェントデバイス1を更新し、アドバイスを提示させる制御を行う。ユーザインタフェースの更新内容としては、例えば、エージェントキャラクターの外観、声、または性格等の変更が挙げられる。また、情報処理装置2は、エージェントデバイス1を用いて行ったエージェントからのアドバイスに対するユーザの行動変容の有無に応じて、エージェントキャラクターを変更し、エージェントデバイス1におけるエージェントのユーザインタフェースを最適化する。ユーザの行動変容の有無は、例えば、センシングデバイス4から取得した各種センシングデータ(カメラデータ、音声データ、生体情報、モーションセンサ情報、行動履歴、位置情報、操作履歴等)に基づいて判定し得る。センシングデバイス4は、ユーザ周辺に設置されたセンサ(監視カメラ、マイク等)であってもよいし、ユーザが装着するウェアラブルデバイスであってもよいし、エージェントデバイス1に設けられていてもよい。また、センシングデバイス4は、複数であってもよい。
 ユーザインタフェースの外観の変更に関しては、例えばエージェントデバイス1が、スマートフォンやタブレット端末、TV装置、HMD(Head Mounted Display)等の表示装置、または、画像を投影するプロジェクター装置の場合、エージェントはバーチャルエージェントとして表示画面や投影領域に表示されるため、画像を切り替えることで、エージェントのキャラクターを更新することが可能となる。また、外観の変更は、エージェントデバイス1が、柔らかい素材で人型の外装からなるエージェントロボットの場合、内部の空気圧を調節したり、内部から棒状のアームを突き出すことで外装の形状を変化させたりすることが可能である。また、白くシンプルな形状のエージェントロボットにおいて、外側(もしくは内側)からプロジェクターでエージェントのテクスチャの投影を切り替えることが可能である。
 また、エージェントの声の出力は、例えば、エージェントキャラクターの声紋データが情報処理装置2からエージェントデバイス1に渡されて、エージェントデバイス1において、合成音声エンジンを用いて当該声紋データから音声を合成して発話することが想定される。この場合、情報処理装置2は、キャラクターを更新する場合、更新するキャラクターの声紋データをエージェントデバイス1に送信することで、エージェントの声の更新を行うことが可能となる。
 また、エージェントの性格は、エージェントの言い回しや語尾などの口調に反映されるようにしてもよい。例えば情報処理装置2は、エージェントキャラクターの性格を更新した場合、更新したエージェントキャラクターの性格情報をエージェントデバイス1に渡し、エージェントデバイス1は、当該性格情報に応じた口調を用いてアドバイスを提示する。性格情報には、口調に関する情報が含まれていてもよい。
 エージェントデバイス1は、上述したように、スマートフォンやタブレット端末、TV装置、HMD等の表示装置であってもよいし、画像を投影するプロジェクター装置であってもよいし、また、変形が可能なエージェントロボットであってもよい。また、エージェントデバイス1は、スマートバンド、スマートイヤホン、スマートネック(首掛け型スピーカ)等のウェアラブルデバイスであってもよい。また、エージェントデバイス1は、家庭用の音声認識端末(ホーム端末)であってもよい(いわゆる音声エージェント装置)。エージェントデバイス1は、情報処理装置2により選定されたエージェントキャラクターを復元する機能(表示機能、音声出力機能(合成音声エンジンを含む)、形状変形機能等)を有し、情報処理装置2から受信したアドバイスを、所定のエージェントキャラクターからのアドバイスとしてユーザに提示することが可能である。
 以上、本開示の一実施形態による情報処理システムについて説明した。なお、本実施形態による情報処理システムの構成は図2に示す例に限定されない。例えば、情報処理装置2がアドバイスサービスサーバ3の機能を含んでいてもよいし、情報処理装置2の少なくとも一部の処理を、エージェントデバイス1で行うようにしてもよいし、情報処理装置2全ての構成をエージェントデバイス1が有していてもよい。
 続いて、本実施形態による情報処理システムに含まれる情報処理装置2の具体的な構成について図面を参照して説明する。
 <<2.情報処理装置2の構成例>>
 図3は、本実施形態による情報処理装置2の構成の一例を示すブロック図である。図3に示すように、情報処理装置2は、制御部200、通信部210、および記憶部220を有する。
 <2-1.制御部200>
 制御部200は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置2内の動作全般を制御する。制御部200は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部200は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
 また、本実施形態による制御部200は、ユーザ情報管理部201、アドバイスサービス管理部202、初期キャラクター判定部203、行動変容判定部204、キャラクター変更部205としても機能する。
 (ユーザ情報管理部201)
 ユーザ情報管理部201は、ユーザが入力したプロフィール情報等を管理する。ユーザのプロフィール情報は、ユーザプロフィールDB221に格納される。本実施形態では、エージェントからのアドバイスに対するユーザの行動変容に基づいてエージェントのキャラクターを変更し、キャラクターを最適化する(ユーザがよりアドバイスを受け入れ易く、効果的なアドバイスを実現できるキャラクターにする)。一方、その初期のキャラクターの決定方法としては(まだ行動変容のフィードバックがユーザから得られていない状況のため)、例えばユーザのプロフィール情報を用いることで、ユーザの性格や好みと相性のよいキャラクターを選ぶことが可能となる。ユーザのプロフィール情報としては、例えば、性別、生年月日、尊敬する人物、好きな芸能人のジャンル等が挙げられる。
 (アドバイスサービス管理部202)
 アドバイスサービス管理部202は、アドバイスサービスサーバ3から、ユーザ宛のアドバイス情報を取得し、該当するユーザが利用するエージェントデバイス1に、当該アドバイス情報を配信する。どのユーザがどのアドバイスサービスに登録しているかの情報も管理してもよい。
 (初期キャラクター判定部203)
 初期キャラクター判定部203は、エージェントデバイス1に最初に設定するエージェントキャラクター(初期キャラクター)を判定する。初期キャラクター判定部203は、例えばユーザのプロフィール情報に基づいて、予め用意したエージェントキャラクター(私的キャラクターDB222、汎用キャラクターDB223を参照)から、ユーザと相性の良いキャラクターを選定し、初期キャラクターとする。より具体的には、例えばユーザのプロフィール情報に基づいてユーザと相性のよいキャラクターの各種パラメータを決定し、このパラメータと、予め用意されたキャラクターのパラメータとを比較して、近い座標にあるキャラクターを、相性の良いキャラクターとして選定する。
 (ユーザパラメータ;UPについて)
 ここで、図4を参照し、ユーザとの相性を決定する際に用いるユーザのパラメータ(UP;ユーザパラメータ)について説明する。ユーザパラメータとしては、例えば、UP0「好きなキャラのカテゴリー」として、「家族・知人」は値1(UP0;1)、「芸能人」は値2(UP0;2)、「歴史上の人物」は値3(UP0;3)、「架空の人物」は値4(UP0;4)、「アニメキャラクター」は値5(UP0;5)、といったパラメータを設定する。また、UP1「好きな芸能ジャンル」として、「アイドル」は値1(UP1;1)、「歌手」は値2(UP1;2)、「俳優」は値3(UP1;3)、「タレント」は値4(UP1;4)、「お笑い」は値5(UP1;5)、といったパラメータを設定する。
 このようなパラメータ設定に従い、ユーザが登録したプロフィール情報から、例えば図5に示すようなユーザパラメータとの関係表が生成される。図5に示すように、プロフィールデータのデータ1(性別)から順に、ユーザの入力内容に従って、各パラメータ(UP0~UP4の値が適用される。なお、表中、ブランク(”-”)になっている個所は、値を適用しない。全てのプロフィールデータが入力されることで、UP0~UP4の全てのパラメータが埋められる。
 (キャラクターパラメータ;CPについて)
 初期キャラクター判定部203は、各エージェントキャラクターのパラメータ(CP;キャラクターパラメータ)と、ユーザのプロフィールデータに基づくパラメータ(UP0~UP4)を用いて、初期キャラクターを決定する。ここで、図6を参照し、ユーザとの相性を決定する際に用いるキャラクターのパラメータ(CP;キャラクターパラメータ)について説明する。キャラクターパラメータとしては、例えば、CP0「キャラのカテゴリー」として、「家族・知人」は値1(CP0;1)、「芸能人」は値2(CP0;2)、「歴史上の人物」は値3(CP0;3)、「架空の人物」は値4(CP0;4)、「アニメキャラクター」は値5(CP0;5)、といったパラメータを設定する。また、CP1「芸能ジャンル」として、「アイドル」は値1(CP1;1)、「歌手」は値2(CP1;2)、「俳優」は値3(CP1;3)、「タレント」は値4(CP1;4)、「お笑い」は値5(CP1;5)、といったパラメータを設定する。
 なお、CPとUPのパラメータの各項目は、CP0:キャラのカテゴリーとUP0:好きなキャラのカテゴリーや、CP1:芸能ジャンルとUP0:好きなキャラのカテゴリーなど、それぞれ対応した内容となっている。
 続いて、予め用意されたキャラクターの各パラメータの一例について説明する。本明細書において「キャラクター」とは、エージェントを表現する際に用いる形状(外観)、声色、または性格等の総称として用いる。また、本実施形態によるエージェントのキャラクターは、汎用キャラクターとしてシステム側で予め複数用意されていてもよい。汎用キャラクターとは、テレビなどで活躍する芸能人、アニメやマンガのキャラクターなど、一般的に知られている、また、公的なキャラクターが含まれる。汎用キャラクターの情報は、汎用キャラクターDB223に格納されている。また、本実施形態によるエージェントのキャラクターは、汎用キャラクターの他、ユーザの身近な人物、例えば家族や友達、知り合いなどに基づく私的なキャラクター(ユーザのお父さんキャラクター、ユーザのおばあさんキャラクターなど)を利用することも可能である。私的キャラクターの情報は、私的キャラクターDB222に格納されている。
 格納される各キャラクターの情報は、外観情報(写真画像(2D、3Dデータ)、イラスト等)、音声情報(声紋データなど)、性格(性格パラメータなど)、性別、年代、および、ユーザとの続柄(または親密度合いなど)等を含む。家族や知り合いなど、ユーザにしか分からない私的キャラクターの情報は、ユーザ自身が予め登録しておくことを想定する。図7は、私的キャラクターの情報入力画面の一例を示す図である。図7に示すように、ユーザは、家族や知り合い等、ユーザにしか分からない私的キャラクターの情報を入力し、登録することが可能である。
 次に、このような汎用、私的を含めた各キャラクターに割り当てられるキャラクターパラメータ(図6に示すCPの値)の一例を、図8に示す。CP情報は、各キャラクターの情報として、各DBに格納されていてもよい。
 図8のキャラクター事例1として示すように、例えば「ユーザ自身のおばあちゃん」という私的キャラクターには、ユーザにより入力された当該私的キャラクターの情報に基づき、「CP0;1(家族・知人)」、「CP1:-(なし)」、「CP2;2(1970年代)」(生年月日等から算出)、「CP3;5(女性)」、「CP4;2(祖父母)」、というような値(図6参照)が割り振られる。
 また、図8のキャラクター事例2として示すように、例えばある有名な「ロック歌手」の汎用キャラクターには、「CP0;2(芸能人)」、「CP1:2(歌手)」、「CP2;3(1980年代)」、「CP3;1(男性)」、「CP4;5(他人)」、というような値(図6参照)が割り振られる。
 (初期キャラクターの決定の詳細)
 上述したように、初期キャラクター判定部203は、各エージェントキャラクターのパラメータ(CP;キャラクターパラメータ)と、ユーザのプロフィールデータに基づくパラメータ(UP;ユーザパラメータ)を用いて、初期キャラクターを決定する。初期キャラクターの決定手法とは特に限定しないが、例えば以下の手法が用いられる。
 例えば、CP0~CP4の各値を持つ各キャラクターは、各パラメータの軸を持つ多次元(5次元)空間上にて、座標(CP0,CP1,CP2,CP3,CP4)の地点に配置されることになる。
 初期キャラクター判定部203は、上記空間上の座標(UP0,UP1,UP2,UP3,UP4)から、各キャラクターの座標までの距離を求め、もっとも距離が近いキャラクターを初期キャラクターに決定する。
 距離の算出方法は、例えば下記の例が挙げられる。
n = 0~4において
UPn = 0 の場合
Dn = 0
UPn ≠ 0 の場合
Dn = (UPn - CPn) ^2
距離 D = (D1 + D2 + D3 + D4) ^1/2
(この距離Dが最も小さいキャラクターが初期キャラクターとして選択される。)
 (行動変容判定部204)
 行動変容判定部204は、アドバイスに対するユーザの行動変容を判定する。例えば行動変容判定部204は、センシングデバイス4から取得した各種センシングデータを解析し、ユーザの行動変容を判定することが可能である。行動変容判定の具体例については、フローチャートを用いて後述する。
 (キャラクター変更部205)
 キャラクター変更部205は、行動変容判定部204により判定されたユーザの行動変容に応じて、エージェントデバイス1でユーザとインタラクションを起こすエージェントキャラクター(ユーザインタフェース)の変更(更新)を行う。例えばキャラクター変更部205は、初期キャラクターによりアドバイスを所定回数行ってもユーザが行動変容を起こさなかった場合、当該初期キャラクターと近い属性を有する他のエージェントキャラクターを、私的キャラクターDB222や汎用キャラクターDB223から選択し、選択したキャラクターのユーザインタフェースに変更するよう、エージェントデバイス1を制御する。
 エージェントのキャラクター変更(更新)は、外観、声、および性格の、少なくともいずれか一つを含む変更により実現される。すなわち、エージェントのキャラクター変更として、例えば外観のみの変更、外観および声の変更、声のみの変更、声および性格の変更、外観および性格の変更、性格のみの変更、または、外観・声・性格全ての変更が想定される。キャラクター変更部205は、このようなユーザの行動変容に応じたキャラクター変更を継続的(繰り返し)に行い、ユーザが、より行動変容するよう(すなわち、より効果的にアドバイスを受け入れるよう)、エージェントキャラクターを最適化することが可能となる。このような、初期キャラクター決定後のエージェントキャラクターの変更(更新)の具体例については、フローチャートを用いて後述する。
 <2-2.通信部210>
 通信部210は、有線または無線により外部装置と接続し、外部装置とデータの送受信を行う。通信部210は、例えば有線/無線LAN(Local Area Network)、またはWi-Fi(登録商標)、Bluetooth(登録商標)携帯通信網(LTE(Long Term Evolution)、3G(第3世代の移動体通信方式))等により、ネットワークと通信接続し、ネットワークを介して、アドバイスサービスサーバ3や、エージェントデバイス1、センシングデバイス4とデータの送受信を行い得る。
 <2-3.記憶部220>
 記憶部220は、制御部200の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。
 本実施形態による記憶部220は、例えば、ユーザプロフィールDB(データベース)221、私的キャラクターDB222、および汎用キャラクターDB223を格納する。
 以上、本実施形態による情報処理装置2の構成について具体的に説明した。情報処理装置2は、ネットワーク上のサーバにより実現されてもよいし、通信距離が比較的エージェントデバイス1に近い位置にあるエッジサーバにより実現されてもよい。また、情報処理装置2は、複数の装置により構成されてもよい。また、図3に示す情報処理装置2の構成の少なくとも一部が外部装置にあってもよい。また、情報処理装置2の制御部200の各機能の少なくとも一部を、エージェントデバイス1により実現してもよい。また、情報処理装置2の制御部200の機能および制御部200の各DBをエージェントデバイス1に持たせてもよい。
 <<3.動作処理>>
 続いて、本実施形態による情報処理システムの動作処理について図面を用いて具体的に説明する。
  <3-1.エージェントキャラクターの更新>
 まず、図9を参照して、本実施形態によるエージェントキャラクターの更新について説明する。本実施形態による情報処理システムでは、決定した初期キャラクターが適用されたエージェントにより、各アドバイスサービスが生成するアドバイスの内容をユーザに適宜通知する。さらに、かかる通知を受けて、ユーザがどのような行動をとったか、カメラやマイク等の各種センシングデバイス4を用いて、その効果を計測する(行動変容の検出)。
 そして、情報処理装置2は、計画結果に応じて、十分な効果がなかった(すなわちアドバイスに対する行動変容が無かった)と判定した場合は、エージェントキャラクターの再選択(更新、すなわち、ユーザインタフェースの変更)を行う。
 このようなエージェントキャラクターの更新処理の流れの一例について、以下、図9を参照して具体的に説明する。図9は、本実施形態によるエージェントキャラクターの更新処理の流れの一例を示すフローチャートである。
 図9に示すように、まず、情報処理装置2は、初期キャラクター判定部203により判定した初期キャラクターをエージェントとして選択する(ステップS103)。具体的には、情報処理装置2は、選択した初期キャラクターの外観、声紋データ、および性格といったキャラクター情報を、エージェントデバイス1に送信し、エージェントデバイス1において、当該初期キャラクターでのアドバイスの提示を実行させる。アドバイスは、情報処理装置2によりアドバイスサービスシステムから適宜取得し、エージェントデバイス1に送信する。
 次に、情報処理装置2は、行動変容判定部204により、選択したキャラクターにてアドバイスをN回行ったうち、行動変容が認められた回数が期待値tを下回ったか否かを判断する(ステップS106)。行動変容が認められた回数とは、ユーザがアドバイスに従った回数である。行動変容判定部204は、センシングデバイス4により検出された各種センシングデータに基づいて、ユーザがアドバイスを受けて行動変容した回数を検出する。
 例えば、エージェントデバイス1が、家庭用の音声認識端末(ホーム端末)であって、これによりユーザに楽曲をレコメンドした場合に、ユーザがレコメンドされた曲をリクエストしたか否かを判断する。例えば10回の楽曲リコメンドを行い、その楽曲の再生をリクエストした回数が、期待する所定の閾値、例えば7回を下回った場合は、行動変容判定部204は、キャラクターの再選択(更新)を行う。
 また、例えば、エージェントデバイス1において、食生活の改善についてアドバイスした場合に、ユーザがアドバイスに従ったメニューにしたか否か(アドバイスに従った食事を摂ったかどうか)を判定する。例えばユーザが食事を採る際にメニューのアドバイスを行い、10回の食事中、アドバイスに従った食事を採ったのが期待する所定の閾値、例えば7回を下回った場合は、行動変容判定部204は、キャラクターの再選択(更新)を行う。ユーザがどのような食事を採ったかは、例えばユーザ自身がテキスト入力してもよいし、ユーザが料理をエージェントデバイス1のカメラで撮影し、エージェントデバイス1により画像解析でメニュー判定してもよいし、また、IT管理された会社や学校の食堂において、ユーザの精算データから、ユーザが摂った食事メニューを判定してもよい。
 次いで、情報処理装置2は、行動変容が認められた回数が期待値tを下回った場合(ステップS106/Yes)、n=1にセットし(ステップS109)、キャラクター変更部205により、選択されたキャラクター(ここでは、初期キャラクター)の座標から(割り当てられたCPが)n番目に近い座標に位置するキャラクターを再選択する(ステップS112)。
 続いて、情報処理装置2は、エージェントデバイス1において、再選択したキャラクターにてアドバイスをN回行ったうち、行動変容が認められた回数が期待値tを下回ったか否かを判断する(ステップS115)。
 そして、情報処理装置2は、行動変容が認められた回数が期待値tを下回らない場合(ステップS115/No)、再選択したキャラクターを新たなエージェントとして決定する(ステップS121)。
 一方、行動変容が認められた回数が期待値tを下回った場合(ステップS115/Yes)、キャラクター変更部205は、nに1加算し(ステップS118)、再度、n番目に近い座標に位置するキャラクターを選択する(ステップS112)。
 上記ステップS112~ステップS118を繰り返すことで、初期キャラクターから段階的にキャラクターを設定し、ユーザに対してアドバイス効果の高い(すなわち、ユーザが、より行動変容を起こしやすい(アドバイスを受け入れ易い))キャラクターに更新していく(最適化する)ことが可能となる。
 また、上記ステップS121において、新たなエージェントを決定した後も、上記ステップS106以降の処理を行うことで、継続的に、エージェントキャラクターの最適化を行うことが可能である。
 なお、本実施形態では、行動変容が起きたか否かを、同じエージェントキャラクターによる同じアドバイスを繰り返し行ったうちの行動変容が認められた回数(割合)に基づいて判定するようにしてもよい。同じアドバイスは、必ずしも続けて行わなくてもよく、他のアドバイスに混じえて、一定期間内に所定回数行うようにしてもよい。
 例えば、情報処理装置2は、「爪を噛む」という悪い癖を行う度に、それを改めさせるアドバイスを同じエージェントキャラクターにより通知することを、1日に渡って行う。そして、情報処理装置2は、各アドバイスに対して効果があった(ユーザがアドバイスに従ってその行為をやめた)割合(行動変容が起きた割合)が70%を超えた場合、そのキャラクターによるアドバイスに効果があったと判断できる。
 なお、繰り返すアドバイスは、全く同じ内容のアドバイスに限定されず、同じジャンルや共通する観点でのアドバイス(すなわち、上位カテゴリが共通するアドバイス)等であってもよい。
 例えば、情報処理装置2は、「爪を噛む」だけではなく「貧乏ゆすり」や「舌打ちをする」など、悪い癖と評される行為全体に対して、それらを行う度に、同じエージェントキャラクターにより、その行為を改めさせるアドバイスを繰り返し行うようにしてもよい。そして、これらの「悪い癖に対するアドバイス」それぞれに対して効果があったかどうか(行為をやめたかどうか)を記録し続ける。情報処理装置2は、アドバイスの実施が例えば10回に達したとき、効果があった(ユーザがアドバイスに従ってその行為をやめた)回数をみて、それが例えば7回を超えている場合、そのキャラクターによるアドバイスは効果があったと判断する。
 また、例えば楽曲レコメンドの場合は、同じ楽曲のレコメンドを繰り返すことに限定されず、情報処理装置2は、共通するアーティストまたは共通するジャンルの楽曲を所定回数繰り返しエージェントデバイス1において同じエージェントキャラクターによりユーザに対してレコメンドする。そして、情報処理装置2は、所定回数(または所定期間)のレコメンドに対し、ユーザがレコメンドされた楽曲の再生をリクエストした回数(効果があった回数)に基づいて、そのキャラクターによるアドバイスに効果があった否かを判断する。
 以上、本実施形態による動作処理の一例を説明した。なお図9に示す動作処理は一例であって、本開示は図9に示す例に限定されない。
  <3-2.エージェントキャラクターの段階的調整に基づく更新>
 エージェントのキャラクター選択方法について、上述した実施例は、予め複数のキャラクターを設定しておき、それらのキャラクターの性質を決める各パラメータ(CP;キャラクターパラメータ)から成る多次元空間上に各キャラクターを離散的に配置し、ユーザのプロフィールデータや行動変容に基づいてキャラクターを選択するといった手法を用いたが、本開示はこれに限定されない。
 例えば、固有のキャラクターから選択するのではなく、キャラクターの各パラメータを段階的に調節し、最適なキャラクターを探索する手法を用いてもよい。この場合、情報処理装置2は、エージェントキャラクターの外観、音声、および性格のうち、少なくともいずれか一つについて、段階的に異なっているエージェントキャラクターを順に設定することが可能となる。キャラクターの性質を決める各パラメータの一例を、図10に示すように制定する。図10は、本実施形態によるキャラクターの性質を決めるパラメータの一例を示す図である。
 図10に示すように、例えば、「P0:キャラクターのテイスト」として、「マンガ調」から「写実的」まで、例えば10段階で値を設定し得る。また、「P1:キャラクターの性格」としては、「活発」から「おとなしい」まで、同様に、例えば10段階で値を設定し得る。
 このように、キャラクターの性質を形成する各パラメータを、予め段階的に用意する。なお、図10には示していないが、音声(声紋データ)の段階的パラメータも同様に制定し得る。声紋データの段階的パラメータとしては、例えば、「高い声(可愛い声、若々しい声、落ち着かない声等)」から「低い声(重厚な声、落ち着いた声、かすれた声等)」、また、「大きい声」から「小さい声」等が想定される。また、「早口-ゆっくり」、「方言-標準語」等は、性格(口調)の段階的パラメータに含まれてもよい。
 本実施例では、一例として、キャラクターのパラメータCP0~CP4の各パラメータを、0~9の10段階で決定する。これに対し、ユーザのプロフィールデータに基づいて割り当てられるユーザパラメータ(UP)も、図11に示すように、10段階で設定し得る。
 図11は、ユーザのプロフィールデータに基づいて割り当てられるユーザパラメータの一例を示す図である。初期キャラクター判定部203は、ユーザに登録させたプロフィールデータに基づいて割り当てられる各パラメータ(UP)に基づいて、初期キャラクターを判定し得る。例えば図10に示すキャラクターの各パラメータの10段階の値のうち、対象ユーザのプロフィールに基づいて割り当てられたUPの値に近い値を、それぞれP0~P3の設定値としたキャラクターを初期キャラクターとする。
 そして、情報処理装置2は、ユーザの行動変容を参照し、段階的パラメータを用いて、次のように初期キャラクターの更新を行い得る。
 図12は、本実施例によるエージェントキャラクターの段階的パラメータを用いた更新処理の流れの一例を示すフローチャートである。
 図12に示すように、まず、情報処理装置2は、n=0にリセットし(ステップS203)、キャラクターのパラメータPnにおいて(例えば図10に示すP0~P3のいずれか)、現在の設定値uにて(例えば図10に示す段階的なパラメータの値0~9のいずれか)、アドバイスをN回行い、行動変容の回数を測定する(ステップS206)。
 次に、情報処理装置2は、同じくPnにおいて、設定値をu-1に変更して、アドバイスをN回行い、行動変容の回数を測定する(ステップS209)。
 次いで、情報処理装置2は、同じくPnにおいて、設定値をu+1に変更して、アドバイスをN回行い、行動変容の回数を測定する(ステップS212)。
 続いて、情報処理装置2は、各測定した行動変容の回数に基づいて、最も効果が高かった設定値を、パラメータPnの新たな設定値とする(ステップS215)。
 次に、情報処理装置2は、nを1加算し(ステップS218)、n=4になるまで(ここでは一例として、図10に示すように、パラメータがP0~P3までのため)、上記ステップS206~S218を繰り返す(ステップS221)。
 これにより、各パラメータの現在の設定値の段階的な前後の値をそれぞれ試すことで、よりアドバイスの受容効果が高いキャラクターにエージェントを徐々に変容させていくことが可能となる。すなわち、情報処理装置2は、エージェントキャラクターの外観、音声、および性格のうち、少なくともいずれか一つについて最適化していくことができる。
 (エージェントキャラクターの無限段階の更新)
 以上説明した例では、例えば予め用意した複数のキャラクターから選択する方法や、キャラクターのパラメータの値を10段階等の有限段階の値から選択して設定する方法について説明したが、本開示はこれに限定されない。
 本開示では、有限個のキャラクターから「最も行動変容が見受けられた」キャラクターを選択する手法に限定されず、有限個のキャラクターそれぞれの間を補間する形で、キャラクターの形状を連続的に変化させる。そして、その連続線上の任意の位置でのキャラクターを選択できるようにすることで、無限段階的にキャラクターを変化させ、より最適なキャラクターを選択できることを実現する。
 例えば形状の連続変化の生成は、画像補間のためのパスフレームワーク手法や、GAN(Generative Adversarial Network)などの機械学習手法を用いて行うことができる。また、GANなどの機械学習手法を用いれば、キャラクターの形状だけでなく、キャラクターの音声(声色)についても、同様のアルゴリズムが適用できる。
 これにより、例えば図13に示すように、初期キャラクター(キャラクターA)から、初期キャラクターから最も距離が近いキャラクター(キャラクターB)まで、上述したアルゴリズム等を用いて、その形状を連続的に変化させ、任意の形状を選択することを可能とする。
 以下、図14を参照して具体的に説明する。図14は、本実施例によるエージェントキャラクターの無限段階的変化を用いた更新処理の流れの一例を示すフローチャートである。
 図14に示すように、まず、情報処理装置2の初期キャラクター判定部203は、初期キャラクターをエージェントとして選択する(ステップS253)。初期キャラクターの選定は、例えば図4~図8を参照して上述したように、各エージェントキャラクターのパラメータ(CP)と、ユーザのプロフィールデータに基づくパラメータ(UP)を用いて、各パラメータの軸を持つ多次元(5次元)空間上にて、距離Dが最も小さいキャラクターを初期キャラクターに決定する。
 次に、情報処理装置2の行動変容判定部204は、選択したキャラクターにてアドバイスをN回行ったうち、行動変容が認められた回数が期待値tを下回ったか否かを判断する(ステップS256)。
 次いで、期待値tを下回った場合(ステップS256/Yes)、情報処理装置2のキャラクター変更部205は、n=1にセットし(ステップS259)、選択したキャラクターの座標から(各パラメータによる多次元空間上において)n番目に近い座標に位置するキャラクターを選択する(ステップS262)。
 次に、情報処理装置2のキャラクター変更部205は、両キャラクターの形状から画像補間の処理を行い、連続的に形状が変化する画像(いわゆる画像のモーフィング)を生成し(ステップS265)、連続変化の線上において、任意のステップ数の画像を抽出する(ステップS268)。
 次いで、情報処理装置2のキャラクター変更部205は、m=1にセットし(ステップS271)、m番目のステップの画像をキャラクターの形状として適用する(ステップS274)。
 続いて、情報処理装置2のキャラクター変更部205は、適用したキャラクターにてアドバイスをN回行ったうち、行動変容が認められた回数が期待値tを下回ったか否かを判断する(ステップS277)。
 次に、期待値tを下回った場合(ステップS277/Yes)、情報処理装置2のキャラクター変更部205は、mを1加算し(ステップS280)、ステップ数が上限に達するまで、上記ステップS274~ステップS280を繰り返す(ステップS283)。
 そして、期待値t以上となった場合(ステップS277/No)、情報処理装置2のキャラクター変更部205は、適用したキャラクターを新たなエージェントとして選択する(ステップS286)。
 このようにして、連続的に形状が変化する画像を生成した上で、任意の画像をエージェントキャラクターとして選択することが可能となる。
 なお、ここでは一例として、キャラクターの形状の変化について説明したが、本開示はこれに限定されず、キャラクターの声質(声紋データ)や、性格(口調)など、他のパラメータについても、同様に連続的に変化させたデータを生成した上で、任意のデータをエージェントキャラクターとして選択することが可能となる。
  <3-3.エージェントキャラクターをアドバイスサービス毎に選択>
 上述した実施例では、アドバイスの内容によらず、同一のエージェントキャラクターが選択されるものであるが、本開示はこれに限定されず、アドバイスサービス毎に、より効果のあるキャラクターを選択するようにしてもよい。
 例えば、情報処理装置2は、楽曲レコメンドと食生活のアドバイスそれぞれのアドバイス時のユーザの行動変容を判定し、各行動変容の結果応じて、楽曲レコメンドのアドバイスサービスと、食生活のアドバイスサービス毎に、より最適な(アドバイス受容の効果が高い)キャラクターを使い分けるようにしてもよい。
 これにより、例えば楽曲レコメンドの場合は、若くて容姿端麗な異性のキャラクターがユーザに受け入れられ易く効果が高いためユーザインタフェースを該当するキャラクターに変更し、また、食生活のアドバイスを行う場合は、親しみのあるユーザ自身のおばあさんのキャラクターがユーザに受け入れられ易いため、ユーザインタフェースを当該キャラクターに変更してアドバイスを行うようにする。
  <3-4.エージェントキャラクターの出現頻度に基づく更新>
 また、本開示による情報処理システムは、キャラクター毎に出現頻度(確率)を設定し、出現頻度に基づいて、エージェントキャラクターを変更(更新)する手法を用いてもよい。
 情報処理装置2は、予め用意した全てのキャラクター(例えば総数M)に対して、それぞれ出現頻度(確率)を設定する。ここで、図15に、各キャラクターに設定される出現頻度(確率)の一例を示す。全てのキャラクターは設定されている出現頻度に従って出現する。
 上述した実施例では、その時点での最適なキャラクターを一つ選択し、選択したキャラクターで一定期間繰り返し評価を行い(例えばN回)、その後にキャラクターの再選択(更新)を行うといったことを繰り返すものであったが、本実施例では、アドバイスを行う度に、出現頻度に基づいてキャラクターを出現させ、評価を行い得る。例えば情報処理装置2は、あるキャラクターmが出現して何らかのアドバイスをユーザに行い、それに対してユーザが行動変容を起こした場合、図15に示すように、当該キャラクターmの出現頻度を上げ、他のキャラクターの出現頻度を相対的に下げる等の調整(評価の反映)を行う。
 これにより、様々なキャラクターを出現頻度(確率)に基づいて出現させつつ、評価を全キャラクターに反映させ、ユーザが受け入れ易いキャラクターの出現頻度を、より効率的に上げていくことが可能となる。
 以下、図16を参照して具体的に説明する。図16は、本実施例による各キャラクターの出現頻度に基づくエージェントキャラクターの更新処理の動作の流れの一例を示すフローチャートである。
 図16に示すように、まず、情報処理装置2の初期キャラクター判定部203は、初期キャラクターをエージェントとして選択し、高い出現頻度i[%](例えば、70%)を与える(ステップS303)。
 次に、情報処理装置2の初期キャラクター判定部203は、初期キャラクターとして選択したキャラクター以外のキャラクターには、一律同じ出現頻度を与える(ステップS306)。例えばキャラクターの総数Mとした場合、初期キャラクター以外の各キャラクターに対しては、(100-i)/(M-1)[%]の出現頻度を与える。(例:M=31だとすると、(100-70)/(31-1)=1%)
 次いで、情報処理装置2のキャラクター変更部205は、各キャラクターの出現頻度に応じて、出現させるキャラクターmを決定し、決定したキャラクターmにより、エージェントデバイス1においてユーザへのアドバイスを行う(ステップS309)。かかる処理は、情報処理装置2がアドバイスサービスからユーザ宛のアドバイスを取得して提示する必要が生じる度に行うようにしてもよい。
 次に、情報処理装置2の行動変容判定部204は、センシングデバイス4からセンシングデータを取得し、ユーザの行動変容を測定する(ステップS312)。
 次いで、情報処理装置2の行動変容判定部204は、エージェントキャラクターによるアドバイスに対し、期待する行動変容があったか否か(ユーザがアドバイスに従ったか否か)を判断する(ステップS315)。
 次に、期待する行動変容があった場合(ステップS315/Yes)、情報処理装置2のキャラクター変更部205は、キャラクターmに対して、出現頻度を規定値a%引き上げる(ステップS318)。例えば、キャラクターmのこれまでの出現頻度をQmとすると、新しい出現頻度Qm’は、Qm'=(1+a/100)*Qmとなる。
 例:規定値10%引き上げる場合、Qmが70%だとすると、新しい出現頻度Qm’は77%となる。
 次いで、情報処理装置2のキャラクター変更部205は、他のキャラクターn(n=1~M、n≠m)に対しては、各キャラクターの今までの出現頻度に応じて出現頻度を引き下げる(ステップS321)。例えば、キャラクターnのこれまでの出現頻度をQnとすると、新しい出現頻度Qn’は、Qn'=Qn-(a*Qm/100)*(Qn/(100-Qm))となる。
 例:キャラクターmの出現頻度の増加分7%を、それ以外の30個のキャラクター(総数Mが31の場合、キャラクターm以外のキャラクターnは30個)のそれぞれの出現頻度に応じて分配して引き下げることになる。
 一方、期待する行動変容がなかった場合(ステップS315/No)、情報処理装置2のキャラクター変更部205は、キャラクターmに対して、出現頻度を規定値b%引き下げる(ステップS324)。例えば、キャラクターmのこれまでの出現頻度をQmとすると、新しい出現頻度Qm’は、Qm'=(1-b/100)*Qmとなる。
 例:規定値20%引き下げる場合、Qmが70%だとすると、新しい出現頻度Qm’は56%となる。
 そして、情報処理装置2のキャラクター変更部205は、他のキャラクターn(n=1~M、n≠m)に対しては、各キャラクターの今までの出現頻度に応じて出現頻度を引き上げる(ステップS327)。例えば、キャラクターnのこれまでの出現頻度をQnとすると、新しい出現頻度Qn’は、Qn'=Qn+(b*Qm/100)*(Qn/(100-Qm))となる。
 例:キャラクターmの出現頻度の削減分14%を、それ以外の30個のキャラクターのそれぞれの出現頻度に応じて分配して引き上げることになる。
 <<4.まとめ>>
 上述したように、本開示の実施形態による情報処理システムでは、エージェントのアドバイスに対するユーザの行動変容に応じてエージェントのユーザインタフェースを更新することで、より効果的にアドバイスを提示することが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上述した情報処理装置2に内蔵されるCPU、ROM、およびRAM等のハードウェアに、情報処理装置2の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、本技術は以下のような構成も取ることができる。
(1)
 エージェントがユーザに対して行ったアドバイスに対して、前記ユーザが行動変容したか否かに応じて、前記エージェントのユーザインタフェースを更新するように制御する制御部を備える、
 情報処理システム。
(2)
 前記制御部は、
  前記アドバイスに対して、前記ユーザが、より行動変容するように、前記エージェントの前記ユーザインタフェースを最適化するように制御する、
前記(1)に記載の情報処理システム。
(3)
 前記制御部は、
  前記アドバイスに対する前記ユーザの行動変容が、所定の期待値を下回るとき、
  前記エージェントの外観、音声、および性格のうち、少なくともいずれか一つが異なる他のエージェントに変更するように制御する、
前記(2)に記載の情報処理システム。
(4)
 前記制御部は、
  前記エージェントの外観、音声、および性格のうち、少なくともいずれか一つについて、段階的に異なっているエージェントを順に設定可能であり、それぞれのエージェントにより前記ユーザに対してアドバイスを行った際の前記ユーザの行動変容結果を検出し、検出結果に基づいて、前記エージェントの外観、音声、および性格のうち、少なくともいずれか一つについて最適化するように制御する、
前記(2)または(3)に記載の情報処理システム。
(5)
 前記制御部は、
  前記アドバイスの種類毎に、前記エージェントのユーザインタフェースを最適化するように制御する、
前記(2)~(4)のいずれか1項に記載の情報処理システム。
(6)
 前記制御部は、
  前記エージェントにより、少なくとも上位カテゴリが共通するアドバイスを所定回数行ったうちの、各アドバイス時における前記ユーザの行動変容結果を総合して、前記エージェントの最適化を行う、
前記(3)または(4)に記載の情報処理システム。
(7)
 前記制御部は、
  前記エージェントの外観、音声、および性格のうち、少なくともいずれか一つについて異なっている複数のエージェント間の異なっている箇所を連続的に変化させるデータを生成し、当該生成した連続変化の線上において、任意のステップ数で変化途中のデータを抽出し、抽出したステップ数内の段階順に前記エージェントが設定可能であり、
  それぞれのエージェントにより前記ユーザに対してアドバイスを行った際の前記ユーザの行動変容結果を検出し、検出結果に基づいて、前記エージェントの外観、音声、および性格のうち、少なくともいずれか一つについて最適化するように制御する、
前記(2)~(6)のいずれか1項に記載の情報処理システム。
(8)
 前記制御部は、
  前記エージェントの前記ユーザインタフェースとして、初期エージェントを設定可能である、
前記(1)~(7)のいずれか1項に記載の情報処理システム。
(9)
 前記制御部は、
  前記ユーザのプロファイルに応じて、前記初期エージェントの前記ユーザインタフェースを設定する、
前記(8)に記載の情報処理システム。
(10)
 前記制御部は、
  前記初期エージェントの前記ユーザインタフェースには比較的高い出現確率を設定し、
  前記初期エージェント以外のエージェントのユーザインタフェースには比較的低い出現確率を設定し、
  前記出現確率に応じて、前記エージェントの前記ユーザインタフェースを設定し、
  前記設定した前記エージェントの前記ユーザインタフェースを介して行った前記ユーザへのアドバイスに対して、前記ユーザの行動変容が起こった場合は、当該設定した前記エージェントの前記ユーザインタフェースの出現確率を上げ、他のエージェントのユーザインタフェースの出現確率を下げるように制御する、
前記(8)に記載の情報処理システム。
(11)
 前記制御部は、
  外部にあるエージェントデバイスのユーザインタフェースを更新するように制御する、
前記(1)~(8)のいずれか1項に記載の情報処理システム。
(12)
 前記制御部は、
  外部のサービスから取得した前記ユーザに対するアドバイスに基づき、
  前記ユーザのエージェントデバイスが当該ユーザに対して前記アドバイスを行うように制御し、
  提示した前記アドバイスに対して、前記ユーザが行動変容したか否かに応じて、前記エージェントデバイスのユーザインタフェースを更新するように制御する、
前記(11)に記載の情報処理システム。
(13)
 プロセッサが、
 エージェントがユーザに対して行ったアドバイスに対して、前記ユーザが行動変容したか否かに応じて、前記エージェントのユーザインタフェースを更新するように制御することを含む、
情報処理方法。
(14)
 コンピュータを、
 エージェントがユーザに対して行ったアドバイスに対して、前記ユーザが行動変容したか否かに応じて、前記エージェントのユーザインタフェースを更新するように制御する制御部として機能させるためのプログラムが記録された、
記録媒体。
 1  エージェントデバイス
 2  情報処理装置
 3  アドバイスサービスサーバ
 4  センシングデバイス
 200 制御部
 201 ユーザ情報管理部
 202 アドバイスサービス管理部
 203 初期キャラクター判定部
 204 行動変容判定部
 205 キャラクター変更部
 210 通信部
 220 記憶部
 221 ユーザプロフィールDB
 222 私的キャラクターDB
 223 汎用キャラクターDB

Claims (14)

  1.  エージェントがユーザに対して行ったアドバイスに対して、前記ユーザが行動変容したか否かに応じて、前記エージェントのユーザインタフェースを更新するように制御する制御部を備える、
     情報処理システム。
  2.  前記制御部は、
      前記アドバイスに対して、前記ユーザが、より行動変容するように、前記エージェントの前記ユーザインタフェースを最適化するように制御する、
    請求項1に記載の情報処理システム。
  3.  前記制御部は、
      前記アドバイスに対する前記ユーザの行動変容が、所定の期待値を下回るとき、
      前記エージェントの外観、音声、および性格のうち、少なくともいずれか一つが異なる他のエージェントに変更するように制御する、
    請求項2に記載の情報処理システム。
  4.  前記制御部は、
      前記エージェントの外観、音声、および性格のうち、少なくともいずれか一つについて、段階的に異なっているエージェントを順に設定可能であり、それぞれのエージェントにより前記ユーザに対してアドバイスを行った際の前記ユーザの行動変容結果を検出し、検出結果に基づいて、前記エージェントの外観、音声、および性格のうち、少なくともいずれか一つについて最適化するように制御する、
    請求項2に記載の情報処理システム。
  5.  前記制御部は、
      前記アドバイスの種類毎に、前記エージェントのユーザインタフェースを最適化するように制御する、
    請求項2に記載の情報処理システム。
  6.  前記制御部は、
      前記エージェントにより、少なくとも上位カテゴリが共通するアドバイスを所定回数行ったうちの、各アドバイス時における前記ユーザの行動変容結果を総合して、前記エージェントの最適化を行う、
    請求項3に記載の情報処理システム。
  7.  前記制御部は、
      前記エージェントの外観、音声、および性格のうち、少なくともいずれか一つについて異なっている複数のエージェント間の異なっている箇所を連続的に変化させるデータを生成し、当該生成した連続変化の線上において、任意のステップ数で変化途中のデータを抽出し、抽出したステップ数内の段階順に前記エージェントが設定可能であり、
      それぞれのエージェントにより前記ユーザに対してアドバイスを行った際の前記ユーザの行動変容結果を検出し、検出結果に基づいて、前記エージェントの外観、音声、および性格のうち、少なくともいずれか一つについて最適化するように制御する、
    請求項2に記載の情報処理システム。
  8.  前記制御部は、
      前記エージェントの前記ユーザインタフェースとして、初期エージェントを設定可能である、
    請求項1に記載の情報処理システム。
  9.  前記制御部は、
      前記ユーザのプロファイルに応じて、前記初期エージェントの前記ユーザインタフェースを設定する、
    請求項8に記載の情報処理システム。
  10.  前記制御部は、
      前記初期エージェントの前記ユーザインタフェースには比較的高い出現確率を設定し、
      前記初期エージェント以外のエージェントのユーザインタフェースには比較的低い出現確率を設定し、
      前記出現確率に応じて、前記エージェントの前記ユーザインタフェースを設定し、
      前記設定した前記エージェントの前記ユーザインタフェースを介して行った前記ユーザへのアドバイスに対して、前記ユーザの行動変容が起こった場合は、当該設定した前記エージェントの前記ユーザインタフェースの出現確率を上げ、他のエージェントのユーザインタフェースの出現確率を下げるように制御する、
    請求項8に記載の情報処理システム。
  11.  前記制御部は、
      外部にあるエージェントデバイスのユーザインタフェースを更新するように制御する、
    請求項1に記載の情報処理システム。
  12.  前記制御部は、
      外部のサービスから取得した前記ユーザに対するアドバイスに基づき、
      前記ユーザのエージェントデバイスが当該ユーザに対して前記アドバイスを行うように制御し、
      提示した前記アドバイスに対して、前記ユーザが行動変容したか否かに応じて、前記エージェントデバイスのユーザインタフェースを更新するように制御する、
    請求項11に記載の情報処理システム。
  13.  プロセッサが、
     エージェントがユーザに対して行ったアドバイスに対して、前記ユーザが行動変容したか否かに応じて、前記エージェントのユーザインタフェースを更新するように制御することを含む、
    情報処理方法。
  14.  コンピュータを、
     エージェントがユーザに対して行ったアドバイスに対して、前記ユーザが行動変容したか否かに応じて、前記エージェントのユーザインタフェースを更新するように制御する制御部として機能させるためのプログラムが記録された、
    記録媒体。
PCT/JP2019/028725 2018-07-27 2019-07-22 情報処理システム、情報処理方法、および、記録媒体 WO2020022294A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2020532393A JP7435447B2 (ja) 2018-07-27 2019-07-22 情報処理システム、情報処理方法、および、記録媒体
KR1020217000894A KR20210036338A (ko) 2018-07-27 2019-07-22 정보 처리 시스템, 정보 처리 방법, 및 기록 매체
EP19842096.0A EP3832560A4 (en) 2018-07-27 2019-07-22 INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD AND RECORDING MEDIUM
US17/259,349 US11327637B2 (en) 2018-07-27 2019-07-22 Information processing system, information processing method, and recording medium for updating virtual agent user interface
CN201980048947.0A CN112534449A (zh) 2018-07-27 2019-07-22 信息处理系统、信息处理方法和记录介质
US17/713,535 US11809689B2 (en) 2018-07-27 2022-04-05 Updating agent representation on user interface based on user behavior
US18/370,661 US20240012545A1 (en) 2018-07-27 2023-09-20 Information Processing System, Information Processing Method, and Recording Medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018141345 2018-07-27
JP2018-141345 2018-07-27

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US17/259,349 A-371-Of-International US11327637B2 (en) 2018-07-27 2019-07-22 Information processing system, information processing method, and recording medium for updating virtual agent user interface
US17/713,535 Continuation US11809689B2 (en) 2018-07-27 2022-04-05 Updating agent representation on user interface based on user behavior

Publications (1)

Publication Number Publication Date
WO2020022294A1 true WO2020022294A1 (ja) 2020-01-30

Family

ID=69182296

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/028725 WO2020022294A1 (ja) 2018-07-27 2019-07-22 情報処理システム、情報処理方法、および、記録媒体

Country Status (6)

Country Link
US (3) US11327637B2 (ja)
EP (1) EP3832560A4 (ja)
JP (1) JP7435447B2 (ja)
KR (1) KR20210036338A (ja)
CN (1) CN112534449A (ja)
WO (1) WO2020022294A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7263471B2 (ja) 2021-10-05 2023-04-24 ソフトバンク株式会社 情報処理装置、情報処理方法及び情報処理プログラム
WO2023079970A1 (ja) * 2021-11-04 2023-05-11 ソニーグループ株式会社 情報処理方法、情報処理システム及び情報処理装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021102991A1 (en) * 2019-11-29 2021-06-03 SideChef Group Limited Crowd-sourced data collection and labelling using gaming mechanics for machine learning model training

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11250395A (ja) * 1998-02-27 1999-09-17 Aqueous Reserch:Kk エージェント装置
JP2002216026A (ja) 2000-11-17 2002-08-02 Sony Corp 情報通信システム、エージェント端末、情報配信システム、エージェントプログラムが記憶された記憶媒体、エージェントアクセスプログラムが記憶された記憶媒体、専用処理プログラムが記憶された記憶媒体、エージェントプログラム、エージェントアクセスプログラム、及び、専用処理プログラム
JP2005258820A (ja) * 2004-03-11 2005-09-22 Toyota Motor Corp 感情誘導装置及び感情誘導方法
JP2010204070A (ja) 2009-03-06 2010-09-16 Toyota Motor Corp 情報端末装置
JP2011099747A (ja) * 2009-11-05 2011-05-19 Denso It Laboratory Inc 情報提示システム及び情報提示方法
JP2013509205A (ja) * 2009-09-14 2013-03-14 フレデリック エドマン カール 健康の改善のために生理学的監視及び電子媒体を利用するシステム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259446A (ja) 1998-03-12 1999-09-24 Aqueous Reserch:Kk エージェント装置
US6249720B1 (en) 1997-07-22 2001-06-19 Kabushikikaisha Equos Research Device mounted in vehicle
JP2000099441A (ja) 1998-09-25 2000-04-07 Fujitsu Ltd 情報を調整して提示する情報提示装置および方法
EP1085440A3 (en) * 1999-09-20 2003-11-26 Ncr International Inc. Information gathering and personalisation techniques
JP2001243097A (ja) * 2000-02-28 2001-09-07 Canon Inc 情報処理システム、情報処理装置、情報処理システムのデータ更新方法ならびに記録媒体
AU2003302232A1 (en) * 2002-11-13 2004-06-30 Educational Testing Service Systems and methods for testing over a distributed network
US20050054381A1 (en) * 2003-09-05 2005-03-10 Samsung Electronics Co., Ltd. Proactive user interface
US20050203729A1 (en) * 2004-02-17 2005-09-15 Voice Signal Technologies, Inc. Methods and apparatus for replaceable customization of multimodal embedded interfaces
JP4967233B2 (ja) * 2004-11-23 2012-07-04 広樹 島 プロファイリング手段を適用したエージェントベース社会シミュレーション装置
US20070074114A1 (en) * 2005-09-29 2007-03-29 Conopco, Inc., D/B/A Unilever Automated dialogue interface
JP2007279971A (ja) * 2006-04-05 2007-10-25 Kenwood Corp エージェント装置及びエージェントシステム
BRPI0809759A2 (pt) * 2007-04-26 2014-10-07 Ford Global Tech Llc "sistema informativo emotivo, sistemas de informações emotivas, métodos de condução emotiva de informações, sistemas informativos emotivos para um veículo de passageiro e método implementado por computador"
US20110230732A1 (en) 2009-09-14 2011-09-22 Philometron, Inc. System utilizing physiological monitoring and electronic media for health improvement
US9785883B2 (en) * 2012-04-27 2017-10-10 Excalibur Ip, Llc Avatars for use with personalized generalized content recommendations
US9510357B1 (en) * 2015-08-06 2016-11-29 Dell Products, Lp Method and apparatus for optimizing end to end radio communication management for users with multiple devices
US20160217532A1 (en) * 2015-01-23 2016-07-28 Sure, Inc. Securing Claim Data via Block-Chains for a Peer to Peer Platform
US10289919B2 (en) * 2015-01-27 2019-05-14 Hyundai Motor Company Vehicle and method of controlling the same
US20160292743A1 (en) 2015-04-02 2016-10-06 InMobi Pte Ltd. Mobile computing device advertisement positioning and dynamic repositioning
US10664572B2 (en) * 2015-08-06 2020-05-26 Microsoft Technology Licensing, Llc Recommendations for health benefit resources
US9779327B2 (en) * 2015-08-21 2017-10-03 International Business Machines Corporation Cognitive traits avatar for similarity matching
WO2017145466A1 (ja) * 2016-02-26 2017-08-31 ソニー株式会社 情報処理システム、クライアント端末、情報処理方法、および記録媒体
WO2017163515A1 (ja) * 2016-03-24 2017-09-28 ソニー株式会社 情報処理システム、情報処理装置、情報処理方法、および記録媒体
JP6915829B2 (ja) 2016-09-09 2021-08-04 米澤 朋子 親近アンビエントエージェントシステムおよびプログラム
US10540167B2 (en) * 2017-01-26 2020-01-21 Nice Ltd. Image based method and system for building object model and application states comparison and graphic-based interoperability with an application

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11250395A (ja) * 1998-02-27 1999-09-17 Aqueous Reserch:Kk エージェント装置
JP2002216026A (ja) 2000-11-17 2002-08-02 Sony Corp 情報通信システム、エージェント端末、情報配信システム、エージェントプログラムが記憶された記憶媒体、エージェントアクセスプログラムが記憶された記憶媒体、専用処理プログラムが記憶された記憶媒体、エージェントプログラム、エージェントアクセスプログラム、及び、専用処理プログラム
JP2005258820A (ja) * 2004-03-11 2005-09-22 Toyota Motor Corp 感情誘導装置及び感情誘導方法
JP2010204070A (ja) 2009-03-06 2010-09-16 Toyota Motor Corp 情報端末装置
JP2013509205A (ja) * 2009-09-14 2013-03-14 フレデリック エドマン カール 健康の改善のために生理学的監視及び電子媒体を利用するシステム
JP2011099747A (ja) * 2009-11-05 2011-05-19 Denso It Laboratory Inc 情報提示システム及び情報提示方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3832560A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7263471B2 (ja) 2021-10-05 2023-04-24 ソフトバンク株式会社 情報処理装置、情報処理方法及び情報処理プログラム
WO2023079970A1 (ja) * 2021-11-04 2023-05-11 ソニーグループ株式会社 情報処理方法、情報処理システム及び情報処理装置

Also Published As

Publication number Publication date
US11327637B2 (en) 2022-05-10
US20240012545A1 (en) 2024-01-11
JPWO2020022294A1 (ja) 2021-08-02
EP3832560A1 (en) 2021-06-09
US20220229527A1 (en) 2022-07-21
JP7435447B2 (ja) 2024-02-21
CN112534449A (zh) 2021-03-19
US11809689B2 (en) 2023-11-07
EP3832560A4 (en) 2021-09-15
KR20210036338A (ko) 2021-04-02
US20210271360A1 (en) 2021-09-02

Similar Documents

Publication Publication Date Title
US20240012545A1 (en) Information Processing System, Information Processing Method, and Recording Medium
US20230306478A1 (en) Apparatus, systems and methods for presenting content reviews in a virtual world
JP2021167950A (ja) 気分および/または挙動情報に基づく環境バックグラウンドノイズの修正のための方法、システムおよび媒体
KR102264600B1 (ko) 적응적 통지 네트워크용 시스템 및 방법
US20190044745A1 (en) Grouping electronic devices to coordinate action based on context awareness
JP5586436B2 (ja) 生活スタイル収集装置、ユーザインターフェース装置及び生活スタイル収集方法
US11647261B2 (en) Electrical devices control based on media-content context
JPWO2015198716A1 (ja) 情報処理装置及び情報処理方法並びにプログラム
JP6400871B1 (ja) 発話制御装置、発話制御方法、および発話制御プログラム
JPWO2011132403A1 (ja) 補聴器フィッティング装置
EP3468227A1 (en) A system with a computing program and a server for hearing device service requests
JP2023551476A (ja) ビデオゲームのコンテンツに含めるためのグラフィックインターチェンジフォーマットファイル識別
US20220020363A1 (en) System and method for configurable control of voice command systems
JP2019164709A (ja) 出力制御装置、出力制御方法、および出力制御プログラム
US11830030B2 (en) Methods and systems for transition-coded media, measuring engagement of transition-coded media, and distribution of components of transition-coded media
WO2020054361A1 (ja) 情報処理システム、情報処理方法、および記録媒体
US11729464B2 (en) Methods and systems for transition-coded media, measuring engagement of transition-coded media, and distribution of components of transition-coded media
JP6482703B1 (ja) 推定装置、推定方法および推定プログラム
US11961512B2 (en) System and method for providing voice assistance service
JP6787957B2 (ja) 発話制御装置、発話制御方法、および発話制御プログラム
JP2019046101A (ja) 対話制御装置、対話制御方法及び対話制御プログラム
US20230077756A1 (en) Methods and systems for transition-coded media, measuring engagement of transition-coded media, and distribution of components of transition-coded media
JP6499343B1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
JP7018002B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
US20220046319A1 (en) Adapting interactions with a television user

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19842096

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020532393

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019842096

Country of ref document: EP

Effective date: 20210301