WO2020213468A1 - 情報処理システム、情報処理方法、及びプログラム - Google Patents

情報処理システム、情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2020213468A1
WO2020213468A1 PCT/JP2020/015626 JP2020015626W WO2020213468A1 WO 2020213468 A1 WO2020213468 A1 WO 2020213468A1 JP 2020015626 W JP2020015626 W JP 2020015626W WO 2020213468 A1 WO2020213468 A1 WO 2020213468A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
personality
agent
user
expression
Prior art date
Application number
PCT/JP2020/015626
Other languages
English (en)
French (fr)
Inventor
至 清水
正一 土居
智子 河野
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN202080026714.3A priority Critical patent/CN114341922A/zh
Priority to JP2021514891A priority patent/JPWO2020213468A1/ja
Priority to US17/601,866 priority patent/US20220164544A1/en
Publication of WO2020213468A1 publication Critical patent/WO2020213468A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Definitions

  • This disclosure relates to information processing systems, information processing methods, and programs.
  • Patent Document 1 describes a technique for updating the possibility that an agent utters an utterance content indicated by the utterance text data in response to user feedback on the utterance text data of the agent.
  • Patent Document 1 requires feedback from the user who recognizes the content of the agent's utterance. For this reason, it has not been possible to control in real time the actions such as utterances expressed by the agent (hereinafter, the actions expressed by the agent are referred to as "expression actions"). Therefore, there has been a demand for a technique capable of controlling the expression act of the agent before the expression act such as the utterance by the agent is provided to the user.
  • the present disclosure proposes a new and improved information processing system, information processing method, and program capable of controlling the expression act of the agent before it is provided to the user. ..
  • a user information storage unit that stores user information about a user
  • a personality information storage unit that stores personality information that defines a personality unique to an agent
  • an expression act that is an act expressed by the agent.
  • An information processing system including a control unit that controls the information based on the personality information is provided.
  • the memory stores the user information about the user, the personality information that defines the personality unique to the agent is stored, and the processor uses the agent based on the personality information.
  • Information processing methods are provided, including controlling the expression act, which is the expression act.
  • the computer is based on a user information storage unit that stores user information about a user, a personality information storage unit that stores personality information that defines a personality unique to an agent, and the personality information.
  • a program that functions as an information processing device and includes a control unit that controls an expression act that is an act that is expressed by the agent.
  • FIG. 1 is a diagram showing a configuration of an information processing system 1 according to an embodiment of the present disclosure.
  • the information processing system 1 includes an information processing device 10 and a user terminal 20.
  • the information processing device 10 and the user terminal 20 are connected to each other via various networks 30.
  • the information processing device 10 and the user terminal 20 may be wirelessly connected to each other or may be wiredly connected to each other.
  • the information processing device 10 is a device that outputs information on various expression actions performed by an agent having a predetermined personality to a user terminal 20 connected via a network 30.
  • the configuration of the information processing apparatus 10 and the processing to be performed will be described in detail below.
  • the user terminal 20 is not limited to the smartphone as shown in FIG. 1, for example, a mobile phone terminal, a tablet terminal, a PC (personal computer), a game machine, a wearable terminal (smart eyeglass, smart band, smart watch, or It may be a smart neck, etc.). Further, the user terminal 20 may be a robot that imitates a human being, various animals, various characters, or the like.
  • FIG. 2 is a functional block diagram showing the configurations of the information processing device 10 and the user terminal 20 included in the information processing system 1 according to the embodiment of the present disclosure.
  • the information processing device 10 stores user information about the user and personality information that defines a personality unique to the agent, and further has a function of controlling an expression act that is an act that the agent expresses based on the personality information. Have. This function is realized by the cooperation of the interface (IF) 110, the storage unit 120, the condition generation unit 130, the meaning understanding unit 140, the candidate generation unit 150, and the control unit 160 included in the information processing device 10.
  • IF interface
  • the interface (IF) 110 the storage unit 120, the condition generation unit 130, the meaning understanding unit 140, the candidate generation unit 150, and the control unit 160 included in the information processing device 10.
  • the IF 110 has a function of transmitting and receiving various information to and from various communication devices via the network 30.
  • the IF 110 transmits and receives various information to and from various information processing terminals such as the user terminal 20 via the network 30.
  • the IF 110 can receive external information such as the position where the user exists or the time in the world where the user exists from the user terminal 20. Further, the IF 110 can receive various input information input by the user to the user terminal 20.
  • the storage unit 120 has a function of storing various types of information.
  • the storage unit 120 stores, for example, personality information that defines a personality unique to the agent. Further, the storage unit 120 may store environmental information regarding the environment in which the agent is placed and user information regarding the user.
  • the function of the storage unit 120 is realized by the cooperation of the environmental information storage unit 121, the user information storage unit 122, and the personality information storage unit 123 included in the storage unit 120.
  • the personality motif given to the agent may be a character such as a cartoon, an animation, a game, a drama, a movie, an entertainer or a celebrity who actually exists (or exists) in the real space, a historical person, or the like. Good.
  • the agent may also be an animal or anthropomorphic character. Further, the agent may be a person who reflects the personality of the user himself / herself, a person who reflects the personality of the user's friends, family, or acquaintances.
  • the environmental information storage unit 121 has a function of storing environmental information of the world in which the agent exists.
  • the environmental information includes various information about the agent's world, such as the time of the agent's world, the location where the agent is located, or the situation in which the agent is located.
  • the environmental information is referred to by the condition generation unit 130 as necessary.
  • the user information storage unit 122 has a function of storing user information about a user who uses the user terminal 20. This function is realized by the cooperation of the primary information storage unit 124, the secondary information storage unit 125, and the user history information storage unit 126 included in the user information storage unit 122.
  • the user information stored in the user information storage unit 122 is referred to by the condition generation unit 130 and the candidate generation unit 150 as necessary.
  • the primary information storage unit 124 stores user primary information, which is formal information of the user, as user information.
  • the user primary information includes primary information obtained from user input information, behavior history, and the like, and may include, for example, information such as the user's age, gender, name, residential area, behavior history, or purchase history.
  • the secondary information storage unit 125 stores the user secondary information which is information accompanying the user primary information and reflects the individuality of the user (information regarding the individuality of the user).
  • the user secondary information includes information estimated from the user primary information and the like, for example, information on the user's estimated preference information, information on the user's personality and personality, or information on the classification of purchase by the user (for example, the user purchases). Information that classifies the types of products that have been made) may be included.
  • the user history information storage unit 126 stores user history information, which is information related to the history of interactions between the user and the agent.
  • the user history information may include, for example, a history of conversations between the user and the agent, a history of words used by the user, information indicating what meaning the word was used by the user, and the like. This information may be used for estimating user secondary information.
  • the user information storage unit 122 has been described above.
  • the user information storage unit 122 stores user information of a plurality of users
  • the user information storage unit 122 stores user primary information, user secondary information, and user history information for each user. May be good.
  • the configuration of the user information storage unit 122 is not limited to the example shown in FIG. That is, the user information storage unit 122 does not have to divide and store the user information into the user primary information, the user secondary information, and the user history information.
  • the user information storage unit 122 may store user information as general user information and specific user information.
  • the general user information is default information regarding the characteristics of a standard or average user assumed by a service provider rather than a specific user.
  • the specific user information is information representing a difference in information unique to the user with respect to the characteristics of a standard or average user. For example, when a user has an extroverted personality than a standard user, the specific user information may include information indicating that the user has an extroverted personality than a standard user.
  • the personality information storage unit 123 has a function of storing personality information that defines a personality unique to an agent and agent history information regarding the usage history of the agent by the user. This function is realized by the cooperation of the basic information storage unit 127, the personality information storage unit 128, and the agent history information storage unit 129 included in the personality information storage unit 123.
  • the fact that the personality of an agent is unique means that, for example, in an agent product with the personality of a character appearing in a certain original work as a motif, the personality of the character can be exhibited, and it is unique to other product groups. Is. Alternatively, it is unique when a specific agent possessed by a certain user has specific personality information possessed only by the agent.
  • the personality information may be, for example, personality characteristic information of an agent, or may include information on the frequency of use of words included in dialogue, the meaning of words used, or the way of speaking. Further, the personality information may include information such as information on the preference of the agent, the place where the agent exists, the time in the world where the agent exists, the behavior according to the situation where the agent is placed, and the like. In the present embodiment, the personality information is divided into basic information that defines a standard personality that does not depend on an individual agent and personality information that defines the individuality of the agent, and is stored in the personality information storage unit 123. ..
  • the basic information storage unit 127 stores basic information that defines the expression actions generally performed by the agent. More specifically, the basic information is information that defines various universal expression actions that can be performed by various agents in common, and information that defines the basic personality of the agent. It can be said that. For example, the basic information may include information defined by associating a word such as Japanese with a general meaning of the word, as in a Japanese dictionary.
  • the basic information stored in the basic information storage unit 127 is transmitted to the candidate generation unit 150, and is used to generate a candidate for content such as an utterance by an agent, for example.
  • the personality information storage unit 128 stores personality information that defines the personality of the agent. More specifically, the personality information is information representing the difference in personality peculiar to the agent with respect to the basic personality of the agent. For example, the personality information may include information indicating that the personality of the agent suggests that the agent will use the lines with a higher probability than the agent having a basic personality. For example, the personality information may include information indicating that the agent is likely to speak an extroverted line when the agent has an extroverted personality. In addition, the above-mentioned basic information and individuality information are also referred to as personality information. The personality information may change depending on the agent history information described later or the usage status of the user.
  • the agent's expression behavior is controlled based on personality information.
  • the expression act of the agent is controlled to the expression act more in line with the individuality of the agent.
  • the personality information may be information specified based on the draft regarding the agent.
  • the personality information may be information defined based on the personality of the character, which is the original draft of the agent.
  • the expression act of the agent is controlled so as to be the expression act in accordance with the draft regarding the agent.
  • the agent history information storage unit 129 has a function of storing agent history information regarding the history of user interaction with the agent.
  • the agent history information may include, for example, information on the history representing the number of times the agent has been used by the user, the time, the category of instruction, the content of instruction, and the like.
  • the personality information storage unit 123 may store bibliographic information about the character on which the agent is based, in addition to the personality information and the agent history information.
  • the bibliographic information may include, for example, information on the agent's name, gender, age, graphic, or character settings related to the agent (eg, hometown settings, family structure settings, etc.).
  • the personality information storage unit 123 classifies the personality information related to the agent into the agent primary information, the agent secondary information, and the agent history information in the same manner as the user primary information, the user secondary information, and the user history information in the user information. You may memorize it.
  • the personality information storage unit 123 may store personality information related to a plurality of agents.
  • the personality information storage unit 123 may store, for example, basic information, individuality information, and agent history information relating to each agent.
  • the personality information storage unit 123 may store one basic information as basic information common to a plurality of agents.
  • new user information may be transmitted from the user terminal 20 to the information processing device 10. This is due to the case where the user information is updated, for example, by the user inputting new information or accumulating the action history.
  • the user information stored in the user information storage unit 122 may be updated by adding the new user information to the originally stored user information. In this way, the user information stored in the user information storage unit 122 may change.
  • the personality information stored in the personality information storage unit 123 does not have to be affected by changes in the user information stored in the user information storage unit 122. More specifically, even if the user information changes, the personality information does not have to change.
  • the act of expressing the agent is controlled based on the personality information. Since the personality information is not affected by the change of the user information, the expression act of the agent is controlled so as to be the expression act more in line with the individuality of the agent regardless of the change of the user information.
  • the personality information of the agent may change according to the change of the user information. In this case, the agent can be close to the changes of the user and act as a personality according to the user's preference.
  • the user information is also referred to, and the personality information of the agent is also updated according to the update of the user information.
  • the condition generation unit 130 has a function of generating condition information regarding preconditions for the agent to perform an expression act.
  • the condition generation unit 130 integrates the external information acquired from the user terminal 20 via the IF 110, the environmental information acquired from the environmental information storage unit 121, and the user information acquired from the user information storage unit 122, thereby combining the condition information. Generate.
  • the generated condition information is transmitted to the meaning understanding unit 140.
  • the meaning understanding unit 140 has a function of understanding the meaning of the input information transmitted from the user terminal 20 based on the condition information. For example, the meaning understanding unit 140 understands the meaning of a word included in the input information by the user based on the user information included in the condition information. The result understood by the meaning understanding unit 140 is transmitted to the candidate generation unit 150 as semantic information.
  • the candidate generation unit 150 has a function of generating an action candidate that is a candidate for an action expressed by an agent based on user information, semantic information, and basic information. For example, the candidate generation unit 150 generates an utterance by an agent as an action candidate as an expression act. The generated action candidate is transmitted to the action control unit 161 included in the control unit 160. The candidate generation unit 150 may generate one action candidate or a plurality of action candidates.
  • the control unit 160 has a function of controlling the expression action of the agent based on the personality information of the agent and outputting the expression action to the output unit 230 included in the user terminal 20. This function is realized by the cooperation of the action control unit 161 and the output control unit 162 included in the control unit 160.
  • the action control unit 161 has a function of controlling the expression action of the agent based on the personality information of the agent. More specifically, the action control unit 161 displays the expression action candidates generated by the candidate generation unit 150 by the output unit 230 included in the user terminal 20 based on the individuality information of the agent. Decide what to do.
  • the information representing the determined expression action is transmitted to the output control unit 162, and is transmitted to the output unit 230 included in the user terminal 20 via the IF 110 and the network 30. As a result, the agent's expression action is output to the output unit 230. In this way, the expression behavior of the agent is controlled.
  • the action control unit 161 controls the expression action when the expression action is an utterance by an agent.
  • the candidate generation unit 150 generates one action candidate.
  • the action control unit 161 determines whether or not the action candidate is to be expressed according to the degree of consistency between the action candidate generated by the candidate generation unit 150 and the individuality information of the agent. Control the expression act by.
  • the action control unit 161 may determine that the action candidate is not an expression act when the degree of consistency between the action candidate and the individuality information is low.
  • the action control unit 161 acts. It may be determined that the degree of consistency between the candidate and the individuality information is low. In this case, the act control unit 161 may determine that the act candidate is not an express act. At this time, the action control unit 161 may transmit the request information requesting the generation of a new action candidate to the candidate generation unit 150. The candidate generation unit 150 newly generates an action candidate according to the request information and transmits the action candidate to the action control unit 161.
  • the action control unit 161 may determine that the action candidate is an expression act when the degree of consistency between the action candidate and the individuality information is high. In this case, the action control unit 161 transmits information representing the action candidate to the output control unit 162.
  • the agent can perform an act of expression that suits the personality of the agent.
  • the output control unit 162 has a function of outputting the expression action of the agent to various known output devices capable of outputting information.
  • the output control unit 162 displays the agent to the output unit 230 of the user terminal 20 by transmitting information indicating the expression action to the output unit 230 of the user terminal 20 via the IF 110 and the network 30. Control the output of actions.
  • the output control unit 162 can cause the output unit 230 to output a voice representing the agent's utterance by transmitting information indicating the agent's utterance to the output unit 230.
  • the output control unit 162 indicates to the output unit 230 how the agent is performing the expression act by transmitting information representing an image showing the state in which the agent is performing the expression act to the output unit 230. You can also output an image. By outputting the agent expression action from the output unit 230 in this way, the user of the user terminal 20 can recognize the agent expression action.
  • the user terminal 20 has a function of transmitting the acquired external information or input information to the information processing device 10. Further, the user terminal 20 has a function of outputting an agent's expression action based on the information received from the information processing device 10. This function is realized by the cooperation of the external information storage unit 210, the input unit 220, and the output unit 230 included in the user terminal 20.
  • the external information storage unit 210 has a function of storing external information.
  • the external information is information on the world in which the user exists, which is different from the world in which the agent exists. For example, various information such as the position of the user, the time in the world in which the user exists, or the event in which the user participates. It may be included.
  • the external information is transmitted to the IF 110 via the network 30 and transmitted to the condition generation unit 130.
  • the input unit 220 has a function of inputting various information from the user.
  • the input unit 220 may include a sound acquisition device having a function of acquiring various sound waves such as a user's voice.
  • the sound acquisition device is a device having a function of acquiring various known sounds such as a microphone.
  • the input unit 220 may be a device having a function of inputting various known information such as a keyboard or a mouse.
  • the information input by the device may be character information represented by, for example, a character string.
  • the information input to the input unit 220 is transmitted to the IF 110 included in the information processing device 10 via the network 30 and transmitted to the meaning understanding unit 140.
  • the output unit 230 has a function of outputting the expression act of the agent.
  • the output unit 230 may include a sound output device having a function of outputting various known sounds such as a speaker.
  • the sound output device outputs the content of the utterance, which is the expression act of the agent, as voice.
  • the output unit 230 may be provided with various known image output devices having a function of outputting an image.
  • the image output device outputs, for example, an image representing the expression act of the agent, which is the expression act of the agent.
  • FIG. 3 is a flowchart showing an example of a method of generating personality information of an agent.
  • a method of generating personality information will be described with reference to the flowchart of FIG.
  • agent information about the agent is prepared (step S101).
  • agent information For example, as agent information, original information such as an original story about an agent or setting information such as a character appearing in the original is prepared. In addition, if the original does not exist in the agent, agent information may be newly specified.
  • personality information is learned or set based on agent information (step S103).
  • personality information may be generated based on various known machine learning algorithms.
  • the personality information may be set in a format in which various parameters that define the personality information are directly input based on the agent information, for example, under the supervision of the original author. As described above, the personality information of the agent is generated.
  • the first method is a method of referring to the generated personality information and generating an expression act such as an agent's utterance or action from the personality information. For example, based on the personality information, an expression act such as an utterance according to the personality of the agent is generated.
  • the second method is a method in which the individuality information biases the generation probability of the expression act with respect to the standard expression act generated based on the basic information of the agent. For example, when the personality of the agent is an extroverted personality, the act of expression is controlled so as to speak more diplomatic content.
  • the third method is that among the candidates for the expression act generated based on the basic information of the agent, the candidate is not the expression act based on the individuality information for the inappropriate candidate that does not match the personality information. This is how to fix it. For example, if the agent has an extroverted personality and the candidate for the expression act generated based on the basic information is an introverted expression act, the agent is prevented from performing the expression act. The act of expression is controlled.
  • FIG. 4 is a flowchart showing an example of processing by the information processing apparatus 10 according to the embodiment of the present disclosure.
  • a processing example will be described with reference to the flowchart of FIG.
  • the condition generation unit 130 acquires information (step S201). More specifically, the condition generation unit 130 acquires external information transmitted from the user terminal 20, environmental information transmitted from the environmental information storage unit 121, and user information transmitted from the user information storage unit 122.
  • condition generation unit 130 integrates the information acquired in step S201 and generates condition information (step S203).
  • the generated condition information is transmitted to the meaning understanding unit 140.
  • the meaning understanding unit 140 understands the meaning content of the input information input to the user terminal 20 (step S205). More specifically, the meaning understanding unit 140 acquires the input information input to the user terminal 20 by the user, and understands the meaning and content of the input information based on the condition information. The semantic information representing the result understood by the semantic understanding unit 140 is transmitted to the candidate generation unit 150.
  • the candidate generation unit 150 generates an action candidate (step S207). More specifically, the candidate generation unit 150 generates action candidates by the agent based on the semantic information, the user information, and the personality information. In the following, as an example, the candidate generation unit 150 will be described as generating one utterance candidate, which is a candidate for the content to be spoken by the agent, as an action candidate. The candidate generation unit 150 may generate a plurality of action candidates. The generated information representing the utterance candidate is transmitted to the action control unit 161 included in the control unit 160.
  • the action control unit 161 corrects the utterance candidate based on the individuality information (step S209). For example, the action control unit 161 determines whether or not the utterance candidate is an expression act according to the degree of consistency between the utterance candidate generated by the candidate generation unit 150 and the individuality information. For example, the candidate generation unit 150 calculates the degree of consistency between the utterance content and the individuality information, and compares the calculated degree of consistency with the threshold value. For example, when the degree of consistency between the utterance candidate and the individuality information is low and the degree of consistency is lower than the threshold value, the candidate generation unit 150 does not make the utterance candidate an act of expressing the agent.
  • the action control unit 161 may request the candidate generation unit 150 to generate a new utterance candidate.
  • the action control unit 161 modifies the new utterance candidate.
  • the action control unit 161 expresses the utterance candidate generated by the candidate generation unit 150 by the agent. And. In this case, the action control unit 161 transmits information representing the utterance candidate to the output control unit 162.
  • the information representing the utterance candidate is transmitted to the IF 110 and transmitted to the output unit 230 included in the user terminal 20 via the network 30.
  • the action control unit 161 displays the action candidates according to the degree of consistency between the action candidates that are candidates for the expression action (for example, speech act) generated based on the basic information and the individuality information.
  • the expression act of the agent is controlled by determining whether or not the act is an act. As a result, the expression act is controlled so that the agent performs the expression act that is more consistent with the individuality of the agent.
  • the output unit 230 outputs the utterance by the agent (step S211). For example, the output unit 230 outputs an image representing the agent, and outputs a voice so that the agent speaks the content of the utterance candidate received in step S209. As a result, the user can recognize the utterance of the agent together with the image of the agent.
  • step S213 additional processing is performed.
  • the additional processing may be performed when it is not easy to determine whether the degree of consistency between the utterance candidate and the individuality information is high or low. More specifically, the additional processing may be performed when the degree of consistency between the utterance candidate and the individuality information calculated in step S211 is a value near the threshold value. That is, if the degree of consistency is not a value near the threshold value, additional processing may not be performed.
  • the tolerance of the utterance candidate is confirmed by the supervisor or user such as the original author of the agent.
  • Tolerance is the degree of appropriateness for an agent to speak the content of an expression candidate when the personality of the agent is taken into consideration.
  • step S213 the processing of the flowchart shown in either FIG. 5 or FIG. 6 may be carried out by appropriately selecting it.
  • FIG. 5 is a flowchart showing the first additional process.
  • FIG. 6 is a flowchart showing a second additional process. First, the first additional process will be described with reference to the flowchart shown in FIG.
  • the action control unit 161 transmits information about the agent (for example, information about the name or personality of the agent) and information representing an utterance candidate as an information set (step S221).
  • the information set is transmitted to, for example, an information processing terminal (not shown) used by the supervisor of the agent (for example, the original author of the agent) via the IF 110 and the network 30.
  • the information set is output to the information processing terminal of the supervisor, and the supervisor can recognize the contents of the information set.
  • the tolerance of the utterance candidate is confirmed based on the information set (step S223). More specifically, the supervisor may confirm the tolerance of the utterance candidate by confirming the appropriateness of the content of the expression candidate based on the personality of the agent. For example, if the utterance candidate is not suitable for the personality of the agent, the supervisor determines that the utterance candidate has a low tolerance. On the other hand, when the utterance candidate is suitable in light of the personality of the agent, the supervisor determines that the utterance candidate has a high tolerance.
  • step S225 re-learning of personality information is carried out based on the confirmation result in step S223 (step S225).
  • the confirmation result is transmitted to the personality information storage unit 123 included in the information processing device 10, and the personality information storage unit 123 uses the confirmation result as input data based on various known machine learning algorithms. You may relearn the information.
  • the personality information stored in the personality information storage unit 123 is updated based on the confirmation result by the supervisor.
  • the confirmation result may be stored in a device different from the information processing device 10 shown in FIG.
  • personality information is relearned in the device.
  • the personality information relearned here is transmitted to the information processing device 10 and transmitted to the personality information storage unit 123, so that the personality information already stored in the personality information storage unit 123 is relearned personality information. May be updated to.
  • the supervisor confirms the tolerance of the utterance candidates. For example, it may be measured how many utterance candidates (for example, 1000 utterance candidates) do not meet the intention of the supervisor (speaking candidates with low tolerance) among a certain amount of utterance candidates. For example, if the ratio of utterance candidates that does not meet the supervisor's intention among a certain amount of utterance candidates falls below a predetermined ratio (for example, 1%), the personality information may be passed.
  • a predetermined ratio for example, 1%
  • the user of the user terminal 20 confirms the tolerance of the utterance by the agent in light of the personality of the agent (step S231).
  • the information regarding the agent's utterance output by the user terminal 20 is notified to the supervisor (step S233).
  • information about the agent's utterance is transmitted from the user terminal 20 to the information processing terminal used by the supervisor.
  • the information on the utterance includes information on the content of the utterance by the agent, the tolerance confirmed in step S231, the preconditions, and the like. Information on these utterances may be linked to a time stamp and transmitted to an information processing terminal used by the supervisor.
  • steps S235 and S237 are carried out. Since the processes of steps S235 and S237 are substantially the same as the processes of steps S223 and S225 described with reference to FIG. 5, description thereof will be omitted here.
  • step S237 is completed, the second additional process shown in FIG. 6 is completed.
  • the agent may perform an expression act other than the utterance.
  • the agent when the agent is, for example, a robot character, the agent may perform an action expressing curiosity, an action expressing positiveness, an empathic action, or the like as an expression action.
  • the agent may perform a gesture or a gesture as an act of expression.
  • the agent may perform the expression of facial expressions.
  • the agent may perform a recommendation act of recommending various acts, objects, events, etc. to the user as an expression act.
  • the information processing device 10 controls the expression act by the agent based on the personality information of the agent. Therefore, the expression action is controlled before the expression action of the agent is output to the user.
  • FIG. 7 is a flowchart showing a first method of generating personality information. Hereinafter, description will be given with reference to the flowchart of FIG. 7.
  • the learning data is prepared (step S301).
  • the learning data may be, for example, information about the setting material of the original work of the agent.
  • the setting material of the original may be a set of lines.
  • the learning data may include fragmented lines appearing in the agent's original work.
  • the training data may also include information about the conditions under which the dialogue is issued.
  • the information about the condition may include, for example, information about the agent's emotions (eg, danger, temptation, reassurance, etc.) when the agent issues a line.
  • the learning data may include information about the person to whom the dialogue is issued.
  • the training data may include information about what kind of agent the call (ie, the line of the agent's partner) is in response.
  • the learning data may be prepared by a supervisor such as the original author of the agent, for example.
  • the training data is identified based on the five-factor model (step S303).
  • the five-factor model is a model that defines personality based on the five factors of extroversion, nervousness, honesty, harmony, and openness.
  • the learning data is identified and the scores of the five factors are specified based on the information regarding the dialogue, which is the learning data prepared in step S301. For example, if there are many positive expressions in the dialogue, a high score for extroversion may be given. In addition, when there are many negative expressions in the dialogue, a high score may be given to the nervous characteristics. Scores for the five factors may be given, for example, by the original author. In addition, scores for the five factors may be assigned based on various known machine learning algorithms.
  • personality information is generated (step S305). More specifically, personality information is generated based on the scores of the five factors identified in step S303.
  • the role of personality information will be described.
  • Each factor of the five factors has a high possibility that various words or word combinations (hereinafter, collectively referred to as simply "words") are uttered according to the magnitude of the score of the factors.
  • words various words or word combinations
  • the personality information has a role of defining the probability that various words are spoken to the agent. For example, if an extrovert factor is given a high score, the probability that the agent will speak a positive word is high.
  • the five-factor model defines the actions of agents under specific circumstances. Therefore, for example, when the information processing apparatus 10 actually controls the expression action such as utterance, the expression action such as utterance may be controlled in consideration of the specific situation.
  • the training data is identified based on the five-factor model, but the training data is not limited to this, and the training data may be identified based on various known personality theories such as the MBTI method and the Enneagram method. In addition, the training data may be identified based on an emotional theory such as Russell's ring model. Further, the model used for identifying the training data is a predetermined model defined by the user, a model similar to the model defined for any of the existing characters, or a model based on the feature amount acquired by machine learning. It may be various models such as.
  • FIG. 8 is a flowchart showing a second method of generating personality information.
  • a second method of generating personality information will be described with reference to the flowchart of FIG.
  • step S401 the learning data is prepared (step S401). Since the process in step S401 is substantially the same as the process in step S301 described with reference to FIG. 7, description thereof will be omitted here.
  • the personality information defines the probability of generating a suitable dialogue or word combination as a response to an agent's utterance content or input from a user when placed in a certain situation.
  • the probability is based on the frequency of appearance of lines and words uttered by the original character, or the combination of utterances or answers to specific situations and utterances of other characters when generating personality information, and the lines and words that the character is likely to utter. Is defined as the space of probability of.
  • the agent can perform an expression act similar to the expression act performed by the character of the agent in the original work.
  • FIG. 9 is a flowchart showing a third method of generating personality information.
  • description will be given with reference to FIG.
  • personality information is prepared (step S501).
  • the method for generating the personality information prepared here is not particularly limited.
  • the personality information may be generated by the first or second generation method of the personality information described with reference to FIG. 7 or FIG.
  • a scenario is generated based on the machine learning algorithm (step S503).
  • personality information prepared in step S501 is used as input data.
  • the scenario generated here may be a situation that can be recalled from the agent's original work, for example, or a situation that can be recalled from the agent's original work, etc. and does not exist in the agent's original work. It may be.
  • the scenario may be a virtual dialogue or story in various situations such as an agent guiding situation, a content recommendation situation, and the like.
  • the personality information is relearned based on the machine learning algorithm based on the scenario generated in step S503 (step S505).
  • the scenario generated in step S503 may be a scenario that does not exist in the original work of the agent. Therefore, by using the personality information generated based on the scenario generated in step S503, it is possible to make the agent express according to the image of the agent even in the scenario that does not exist in the original. ..
  • FIG. 10 is a flowchart showing a fourth method of generating personality information.
  • the basic information is prepared (step S601).
  • the basic information may be, for example, information representing the meaning of a dictionary-like word. That is, the basic information may be information that does not specify the individuality of the agent.
  • step S603 let the agent output the expression action based on the basic information (step S603).
  • the expression action for example, an image showing the expression action of the agent may be displayed on the image output device, or the sound of the agent may be output to the sound output device.
  • the act of expression is recognized by a supervisor such as the original author of the agent, for example.
  • step S605 feedback is provided as to whether or not the expression is preferable.
  • the supervisor may give feedback based on an image recalled from the original work of the agent or the like. More specifically, the supervisor may determine whether or not the act of expression is suitable for the image of the agent.
  • the personality information is corrected based on the expression act output in step S603 and the feedback in step S605 (step S607).
  • the personality information may be modified so that the words or word combinations determined to be unfavorable in step S605 occur less frequently as an expression act.
  • the modification of personality information may be linked to environmental information. More specifically, for example, in some situations, the frequency of occurrence of a word is low, but in other situations, even if the personality information is modified so that the frequency of occurrence of the word does not change. Good.
  • the personality information formed may be generated as information representing a difference from the basic information prepared in step S601.
  • the personality information of an agent can be generated based on the dialogue between the supervisor and the agent. That is, the supervisor can correct the personality information while interacting with the agent according to the flowchart shown in FIG.
  • the supervisor may be the original author who created the character that is the original of the agent, the provider who provides the agent to the user, or the user of the user terminal 20.
  • the supervisor is the user, the user can enjoy generating personality information.
  • the supervisor is a user, the user can treat the agent as the content generated by the user by selling the personality information generated by the user.
  • These application examples may be applied to games such as character training games or virtual idol games.
  • the user can update the personality information at any time regardless of the progress of the game.
  • FIG. 11 is a flowchart showing a fifth method of generating personality information.
  • description will be given with reference to the flowchart of FIG.
  • a questionnaire is prepared (step S701).
  • the questionnaire may be a question about a character's personality or behavior, or a question about a five-factor score.
  • the questionnaire is answered (step S703).
  • the questionnaire is answered, for example, by the original author of the character.
  • the five factors of the character are determined based on the answer result of the questionnaire (step S705). If the answer result includes the five-factor score itself, the score may be determined as the five-factor score. In addition, the scores of the five factors may be determined based on the information such as the character or behavior of the character answered in step S703.
  • word information is generated based on the determined five factors (step S707).
  • the word information is information that defines how often or under what circumstances various words are used by an agent.
  • word information for each score of the five factors is used.
  • the word information for each score of the five factors is information that defines, for example, how often or under what circumstances various words are used according to the score of the five factors. For example, when the extroversion factor is high, it is known that a specific positive word is likely to be spoken.
  • Word information is generated based on the scores of the five factors determined in step S705 and the word information for each score. The word information may be included in the personality information.
  • FIG. 12 is a flowchart showing a sixth method of generating personality information.
  • the personality of the agent changes stepwise due to the growth of the agent.
  • the character has a growth period of boyhood, adolescence, and adulthood, and it is assumed that the character's personality is different in each growth period.
  • the agent also has a different personality in each growth period as in the original.
  • personality information can be generated according to a stage such as a growth period of an agent.
  • a sixth method of generating personality information will be described with reference to FIG.
  • the learning data is prepared (step S801).
  • information about dialogue in the setting information of the original is prepared as learning data.
  • the lines of boyhood which is the initial stage of the agent's growth period, are prepared by the service provider of the agent as learning data in the product at the shipping stage of the product provided by the agent.
  • personality information is generated based on the machine learning algorithm (step S803).
  • personality information is generated based on the machine learning algorithm using the learning data prepared in step S801 as input data.
  • personality information is generated based on learning data originally prepared by the service provider.
  • steps S805 to S807 which will be described later, when new learning data is prepared, personality information is generated using the newly prepared learning data as input data. For example, when an agent service is provided to a user, personality information is generated based on new learning data prepared according to the progress of the service.
  • step S805 it is determined whether or not new personality information is generated. For example, it may be determined whether or not new personality information is generated according to the stage of the personality information of the character (for example, personality information in boyhood, adolescence, adulthood, etc.). For example, when the personality information is the personality information generated based on the learning data prepared in step S801 (for example, the personality information generated based on the learning data at the shipping stage), the personality information is newly generated. May be determined. On the other hand, when the processes in steps S803 to S807 are repeatedly executed and the growth period of the agent is the final stage (for example, the adult period), new personality information may not be generated. If no new personality information is generated (step S805: No), the process of FIG. 12 ends. On the other hand, when new personality information is generated (step S805: Yes), the process proceeds to step S807.
  • step S805 when it is determined that new personality information is generated (step S805: Yes), new learning data is prepared (step S807).
  • the new learning data may be, for example, information such as dialogue according to the growth stage of the personality of the agent. For example, if the already generated personality information is the agent's adolescent personality information, the new learning data may be the agent's adolescent learning data. Further, when the personality information already generated is the personality information of the agent in adolescence, the new learning data may be the learning data regarding the adulthood of the agent.
  • personality information is generated based on the new learning data. For example, when the new learning data is adolescent learning data, adolescent personality information is generated. At this time, for example, when the already generated personality information is the personality information of the boyhood, the personality information of the boyhood is updated to the personality information of the adolescence. In this way, according to the sixth method of generating personality information, the personality information can be updated according to the change in the personality of the agent. If the new learning data is learning data related to adulthood, personality information of adulthood is generated in step S803. At this time, if the personality information already generated is the adolescent personality information, the adolescent personality information will be updated to the adult personality information.
  • the personality information generated based on the new learning data may be replaced with the already generated personality information, or may coexist with the already generated personality information.
  • the update of personality information may be performed based on a predetermined trigger.
  • the trigger may be, for example, various conditions over time or the number of conversations between the user and the agent.
  • the original setting material used as learning data does not have to be dialogue.
  • the setting material of the original may be a material related to a character setting collection, a relationship with another character, a character's character, and the like.
  • the setting material of the original may include a material generated by extracting the character of the character based on an act such as an utterance by the character in the original.
  • the setting material of the original may include various setting information such as the character's family structure, birthplace, biography, special skill, or favorite food.
  • the original character of the agent is not limited to a fantasy character, but may be a real person.
  • personality information of a real person may be generated by analyzing an act such as an actual utterance or action of the real person.
  • personality information may be generated by analyzing the personality characteristics of a real person such as a TV personality or an idol or the habit of speaking by using the first or second generation method of personality information.
  • the personality information is stored in the personality information storage unit 123 included in the information processing device 10.
  • personality information about an existing person is generated, the person who actually exists may supervise the personality information as a supervisor.
  • the expression act of the agent may be controlled based on information other than personality information.
  • the expression act of the agent may be controlled based on the words prohibiting the expression act by the agent or the prohibition information regarding the act.
  • the prohibited information may be held as information different from the personality information, or may be generated in advance as a part of the personality information.
  • the prohibited information may be updated as appropriate independently of the personality information, and may be added or updated to the agent.
  • the prohibited information is not limited to prohibited words or phrases, and may include information on prohibited behaviors or actions.
  • prohibited words are not limited to words that the agent does not want to speak, but words that the user does not want to use (for example, "I want to die”, “I want to kill”, etc.) are defined. May be done.
  • the personality information stipulates how the agent should behave so as not to conflict with the prohibited information.
  • the behavior may differ depending on the agent.
  • additional learning which is additional learning, is applied to the already generated personality information.
  • the personality information may be updated by the implementation.
  • the personality information updated by the additional learning is transmitted to the information processing device 10 via, for example, the network 30, and is transmitted to the personality information storage unit 123, so that the personality information stored in the personality information storage unit 123 is stored. May be updated.
  • FIG. 13 is a block diagram showing a configuration of an information processing device 11 and a user terminal 20 included in the information processing system 2 according to the first application example.
  • the difference between the configuration of the information processing device 11 according to the first application example and the configuration of the information processing device 10 shown in FIG. 2 is that the information processing device 11 according to the first application example includes an update unit 190. It is a point.
  • the update unit 190 has a function of updating the personality information stored in the personality information storage unit 123.
  • the action control unit 161 controls the expression action of the agent based on the updated personality information. For this reason, the personality is appropriately updated even when various changes such as changes in the state of the agent's growth stage or changes in the user's world (for example, changes in fashionable things) occur. As a result, the user can enjoy the agent's natural expression.
  • the update unit 190 may update action information related to various actions that the agent can perform, such as expression of facial expressions by the agent. This allows the agent's expression behavior to be better controlled.
  • the update unit 190 may update the prohibited information.
  • the update unit 190 may update the prohibited information so that the agent does not perform an act such as an unfavorable utterance or action. More specifically, when there is a problem in the content of an act such as an utterance or an action specified in the personality information, the update unit 190 may update the prohibited information so that the act is suppressed. .. Examples of problems include ethically or socially unfavorable utterances or acts, such as fairness, ethical perspectives, expressions that include political intent, or expressions that are considered unfavorable from a cultural background. Be done. Such expressions change depending on the times and the usage environment, but by updating the prohibited information by the update unit 190, the agent can perform an act according to the change of the times, for example.
  • the external device of the information processing device 11 according to the first application example or the storage unit 180 included in the information processing device 11 collects information on undesired utterances or actions based on, for example, a report from a user for a certain period of time. You may.
  • the update unit 190 updates the personality information based on the collected information.
  • the updated personality information may be replaced with the original personality information, or may be stored in the personality information storage unit 181 in the form of being added to the original personality information.
  • the update unit 190 may update personality information regarding trends. For example, the update unit 190 may update the personality information so that the popular word is frequently used as an expression act by the agent. Further, the update unit 190 may update the personality information so that the obsolete wording is less frequently used by the agent as an act of expression. In addition, the update unit 190 may update the personality information so that the agent uses a new word or a comedy one-shot gag that has been newly used in the world as an act of expression. In this way, the update unit 190 updates the personality information regarding the fashion, so that the agent can perform the expression act according to the fashion.
  • the update unit 190 may update the personality information at the stage when the setting information of the character that is the original of the agent is accumulated. For example, when the information about the original dialogue is accumulated, the updating unit 190 may update the personality information by adding the information about the accumulated dialogue to the personality information.
  • the update unit 190 may update the personality information to new personality information according to the changed status information, triggered by a change in the status information regarding the status of the agent.
  • the update unit 190 may acquire status information from, for example, the agent history information storage unit 129.
  • the status information may be the status of the story in which the agent is placed, or the status of the agent itself.
  • the update unit 190 may update the personality information to new personality information according to the growth information after the change, for example, in response to a change in the growth information regarding the growth stage of the agent.
  • the update unit 190 may be provided with personality information necessary for updating in advance.
  • the update unit 190 updates the personality information based on the growth of the agent, for example, to the personality information according to the growth stage of the agent based on the personality information prepared in advance.
  • the update unit 190 may update the personality information by adding additional information that defines a new personality of the agent to the personality information.
  • the update unit 190 may update the personality information by adding the additional information to the personality information in response to a charge from the user.
  • the initial personality information is the personality information generated based on the original will be described.
  • the update unit 190 converts more detailed additional information based on the setting material of the original into personality information.
  • the personality information storage unit 181 initially stores only basic information.
  • personality information is transmitted to the update unit 190, and the update unit 190 is concerned.
  • Personality information may be updated by storing individuality information in the individuality information storage unit 184. By adding the additional information to the personality information in this way, the agent can perform a more individual expression act.
  • the update unit 190 may update the personality information according to the event information regarding the event in which the user participates. For example, when a user participates in an event, for example, event information about the event prepared by the event organizer is transmitted to the information processing device 10 and transmitted to the update unit 190.
  • the event information may include information representing the event or information regarding the personality of the character involved in the event.
  • the update unit 190 updates the personality information so that the agent has, for example, the personality of the character (for example, the entertainer who appears in the event) involved in the event according to the transmitted event information. In this way, since the personality information is updated according to the event information, the agent can perform an expression act according to the character appearing in the event in which the user participates, for example.
  • the update information may be transmitted to the update unit 190 included in the information processing device 11 according to the event in which the user participates. For example, when the user participates in an event related to the original character of the agent, update information about the character is transmitted from a predetermined server or the like to the update unit 190 included in the information processing device 11.
  • the update unit 190 updates the personality information stored in the personality information storage unit 181 based on the update information.
  • the update information may be unique information unique to the event in which the user participated.
  • the personality update information may be the latest material of the comedian or the difference information from the update information transmitted last time.
  • the function of the update unit 190 may be possessed by the personality information storage unit 181.
  • FIG. 14 is a block diagram showing a configuration of an information processing device 12 and a user terminal 20 included in the information processing system 3 according to the second application example.
  • the information processing device 12 causes the output unit 230 of the user terminal 20 to output advertisement information related to various advertisements.
  • the advertisement control unit 164 included in the information processing device 12 determines the content of the advertisement based on the advertisement information stored in the advertisement DB 185, and the output control unit 162 determines the advertisement.
  • the output control unit 162 causes the output unit 230 to output an advertisement.
  • the advertisement is output from the output unit 230, and the user can recognize the advertisement information.
  • the information processing device 12 enables an advertisement advertiser who publishes an advertisement to present an advertisement to a user via an agent.
  • the information processing device 12 can make the agent introduce a product or a service by causing the output unit 230 to output an expression act such as an utterance.
  • the content introduced may be further accompanied by the agent's own comments.
  • the information processing device 12 can have the output unit 230 present a link or an advertisement image.
  • the advertisement control unit 164 included in the information processing device 12 determines the content of the advertisement to be output to the output unit 230 based on the advertisement information stored in the advertisement DB 185 and the personality information. For example, the advertisement control unit 164 analyzes the metadata given to the advertisement or the text appearing in the advertisement, and the output unit 230 does not output the content of the advertisement that deviates from the personality range of the agent. You may control the content. In addition, the advertisement control unit 164 may change the advertisement placement frequency, placement time zone, or recommendation level according to the degree of consistency between the personality information of the agent and the content of the advertisement.
  • the advertisement control unit 164 may control the content of the advertisement so that the advertisement related to the story of the original story related to the agent or the setting of the character of the original work or the background is output to the output unit 230. That is, the advertisement control unit 164 controls the advertisement content so that the content associated with the setting or background of the original story or character is output.
  • the advertisement control unit 164 presents an event for interacting with another person such as a party, or an advertisement for improving the ability. May be controlled. Further, when an agent with low integrity is presented, the advertisement control unit 164 may control the content of the advertisement so that the advertisement is presented comfortably, such as an event with a strong gambling or entertainment element. In this case, the advertisement control unit 164 may impose certain restrictions on the content of the output advertisement so that the content of the advertisement presented by the output unit 230 does not touch the law.
  • personality information may be generated based on the dialogue in the original.
  • the advertisement control unit 164 puts an advertisement related to the noun.
  • the content of the advertisement may be controlled so as not to make the agent corresponding to the personality information. For example, if the original character of the agent emits a line that dislikes a specific food, the advertisement control unit 164 may control the content of the advertisement so that the agent does not advertise the food. ..
  • the information processing device 10 according to the third application example has substantially the same configuration as the information processing device 10 shown in FIG.
  • the information processing apparatus 10 provides a service related to a place or an event via the output unit 230.
  • the action control unit 161 controls the expression action so that the agent performs an action linked to a place related to the agent, the user, or the like, based on the personality information of the agent. For example, the action control unit 161 controls the expression action based on the place information indicating the place related to the agent such as the place of origin of the agent. As a result, the agent can perform an expression act that is more consistent with the individuality of the agent.
  • the action control unit 161 may control the expression action of the agent so as to recommend the action related to the place related to the agent to the user.
  • the action control unit 161 controls the expression action so that the agent recommends a pilgrimage to a sacred place or a local tour of the place related to the agent. As a result, the user can more enjoy the expression act according to the individuality of the agent.
  • the action control unit 161 may control the expression action so that the agent recommends a place according to the personality of the agent. For example, when an agent has a highly extroverted personality, the action control unit 161 controls the expression action so that the agent recommends a place or event where many people gather to the user. You may. In addition, the action control unit 161 may control the expression action so that the agent recommends a cautious route when the agent has a personality with a high nervous tendency.
  • FIG. 15 is a block diagram showing a configuration of an information processing device 13 and a user terminal 20 included in the information processing system 4 according to the fourth application example.
  • the personality information storage unit 123 stores personality information regarding each of the plurality of agents. That is, the personality information storage unit 123 stores basic information, individuality information, and agent history information regarding each of the plurality of agents.
  • the information processing device 13 shown in FIG. 15 includes a selection unit 191 in addition to the functional unit included in the information processing device 10 shown in FIG.
  • the selection unit 191 has a function of selecting at least one or more agents from a plurality of agents based on personality information.
  • the candidate generation unit 150 generates an action candidate of the selected agent, and the action control unit 161 controls the expression action of the selected agent. As a result, even when a plurality of agents exist, an appropriate agent can be selected based on the personality information.
  • the selection unit 191 selects an agent to be presented from a plurality of agents according to the situation. More specifically, the selection unit 191 may select an agent based on information about the service provided to the user. For example, when a service for presenting news to a user is provided, the selection unit 191 selects an agent having a talented type personality. By selecting an appropriate agent according to the service in this way, the quality of service is improved.
  • FIG. 16 is a flowchart showing a processing example carried out by the information processing apparatus 10 in the fifth application example. Hereinafter, description will be given with reference to the flowchart of FIG.
  • personality information is generated (step S901).
  • the personality information may be generated by the method for generating the personality information described with reference to FIGS. 7 to 12.
  • step S903 the draft of the script representing the content of the expression act is modified based on the personality information.
  • a functional unit having the same function as the candidate generation unit 150 generates an action candidate based on the personality information
  • a functional unit having the same function as the action control unit 161 modifies the action candidate based on the personality information. You may.
  • step S903 the correction result of step S903 is finally confirmed (step S905).
  • the modification result is finally confirmed by the original author of the character.
  • the fifth application example has been described above. According to the fifth application example, the draft is modified based on the personality information before the original author confirms the draft of the script. Since the original author only needs to finally confirm the revised draft, the burden of confirming the draft is reduced.
  • the action control unit 161 may change the content of the news read out by the agent according to the personality information of the agent.
  • personality information about the agent may be periodically transmitted to the information processing device 10.
  • personality information about different agents may be transmitted to the information processing device 10 every day.
  • the information processing apparatus 10 can present different agents to the user every day.
  • the information processing device 10 may provide the user terminal 20 with a service of acting as a proxy for telephone correspondence by an agent.
  • the action control unit 161 may control the expression action of the agent so that the method of answering the telephone call by the agent differs depending on the personality information.
  • the information processing device 10 may present to the user the content that recommends various contents.
  • the content may be, for example, music, books, movies, television programs, cooking recipes, and the like.
  • the content of the presented content may be determined based on the character of the agent or the setting in the original work of the agent. For example, when a cooking recipe is recommended, the mood according to the personality of the agent making the recommendation may be reflected in the cooking recipe.
  • the information processing device 10 may cause the output unit 230 to speak a word to the agent on a daily basis based on personality information.
  • the action control unit 161 may control the expression action so that the agent performs the expression action related to the weather or the event of the day. For example, the action control unit 161 may control the expression action so that the agent presents the user's schedule. More specifically, the action control unit 161 may control the expression action of the agent so as to present the highly cooperative agent with a thick schedule with a friend.
  • FIG. 17 is a functional block diagram showing an example of the hardware configuration of the information processing apparatus 10 constituting the information processing system 1 according to the embodiment of the present disclosure.
  • the information processing device 10 constituting the information processing system 1 mainly includes a CPU 601, a ROM 602, and a RAM 603. Further, the information processing device 10 further includes a host bus 604, a bridge 605, an external bus 606, an interface 607, an input device 608, an output device 609, a storage device 610, a drive 612, and a connection port 614. And a communication device 616.
  • the CPU 601 functions as an arithmetic processing device and a control device, and controls all or a part of the operation in the information processing device 10 according to various programs recorded in the ROM 602, the RAM 603, the storage device 610, or the removable recording medium 613.
  • the ROM 602 stores programs, calculation parameters, and the like used by the CPU 601.
  • the RAM 603 primarily stores a program used by the CPU 601 and parameters that change as appropriate in the execution of the program. These are connected to each other by a host bus 604 composed of an internal bus such as a CPU bus.
  • the candidate generation unit 150, the action control unit 161 and the output control unit 162 shown in FIG. 2 may be configured by the CPU 601.
  • the host bus 604 is connected to an external bus 606 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 605. Further, an input device 608, an output device 609, a storage device 610, a drive 612, a connection port 614, and a communication device 616 are connected to the external bus 606 via the interface 607.
  • PCI Peripheral Component Interconnect / Interface
  • the input device 608 is an operating means operated by the user, such as a mouse, keyboard, touch panel, buttons, switches, levers, and pedals. Further, the input device 608 may be, for example, a remote control means (so-called remote controller) using infrared rays or other radio waves, or an externally connected device such as a mobile phone or PDA that supports the operation of the information processing device 10. It may be 615. Further, the input device 608 is composed of, for example, an input control circuit that generates an input signal based on the information input by the user using the above-mentioned operating means and outputs the input signal to the CPU 601. By operating the input device 608, the user of the information processing device 10 can input various data to the information processing device 10 and instruct the processing operation.
  • a remote control means such as a mobile phone or PDA that supports the operation of the information processing device 10. It may be 615.
  • the input device 608 is composed of, for example, an input control circuit that generates an input signal based on the information input by
  • the output device 609 is composed of a device capable of visually or audibly notifying the user of the acquired information.
  • Such devices include display devices such as CRT display devices, liquid crystal display devices, plasma display devices, EL display devices and lamps, audio output devices such as speakers and headphones, and printer devices.
  • the output device 609 outputs, for example, the results obtained by various processes performed by the information processing device 10.
  • the display device displays the results obtained by various processes performed by the information processing device 10 as text or an image.
  • the audio output device converts an audio signal composed of reproduced audio data, acoustic data, and the like into an analog signal and outputs the signal.
  • the storage device 610 is a data storage device configured as an example of the storage unit 120 of the information processing device 10.
  • the storage device 610 is composed of, for example, a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, an optical magnetic storage device, or the like.
  • the storage device 610 stores programs executed by the CPU 601, various data, and the like.
  • the storage unit 120 shown in FIG. 2 may be configured by the storage device 610.
  • the drive 612 is a reader / writer for a recording medium, and is built in or externally attached to the information processing device 10.
  • the drive 612 reads the information recorded on the removable recording medium 613 such as the mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, and outputs the information to the RAM 603.
  • the drive 612 can also write a record to a removable recording medium 613 such as a mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory.
  • the removable recording medium 613 is, for example, DVD media, HD-DVD media, Blu-ray (registered trademark) media, or the like.
  • the removable recording medium 613 may be a compact flash (registered trademark) (CF: CompactFlash), a flash memory, an SD memory card (Secure Digital memory card), or the like. Further, the removable recording medium 613 may be, for example, an IC card (Integrated Circuit card) or an electronic device equipped with a non-contact type IC chip.
  • CF CompactFlash
  • SD memory card Secure Digital memory card
  • the connection port 614 is a port for directly connecting to the information processing device 10.
  • Examples of the connection port 614 include a USB (Universal Serial Bus) port, an IEEE1394 port, a SCSI (Small Computer System Interface) port, and the like.
  • Another example of the connection port 614 is an RS-232C port, an optical audio terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) port, and the like.
  • the communication device 616 is, for example, a communication interface composed of a communication device or the like for connecting to a communication network (network) 617.
  • the communication device 616 is, for example, a communication card for a wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), WUSB (Wireless USB), or the like.
  • the communication device 616 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), a modem for various communications, or the like.
  • the communication device 616 can transmit and receive signals and the like to and from the Internet and other communication devices in accordance with a predetermined protocol such as TCP / IP.
  • the communication network 617 connected to the communication device 616 is composed of a network connected by wire or wireless, and may be, for example, the Internet, a home LAN, infrared communication, radio wave communication, satellite communication, or the like. ..
  • the above is an example of a hardware configuration capable of realizing the functions of the information processing device 10 constituting the information processing system 1 according to the embodiment of the present disclosure.
  • Each of the above-mentioned components may be configured by using general-purpose members, or may be configured by hardware specialized for the function of each component. Therefore, it is possible to appropriately change the hardware configuration to be used according to the technical level at each time when the present embodiment is implemented.
  • FIG. 17 various configurations corresponding to the information processing apparatus 10 constituting the information processing system 1 are naturally provided.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like.
  • the above computer program may be distributed via a network, for example, without using a recording medium.
  • the number of computers for executing the computer program is not particularly limited. For example, a plurality of computers (for example, a plurality of servers, etc.) may execute the computer program in cooperation with each other.
  • the configuration included in the information processing device 10 and the user terminal 20 is not limited to the examples shown in FIGS. 2 or 13 to 15.
  • Each functional unit included in the information processing device 10 and the user terminal 20 is appropriately provided in the information processing device 10 and the user terminal 20.
  • the user information storage unit 122 included in the information processing device 10 in the above embodiment may be provided in the user terminal 20.
  • a user information storage unit that stores user information about the user
  • a personality information storage unit that stores personality information that defines the personality unique to the agent
  • a control unit that controls the expression act, which is the act expressed by the agent, based on the personality information.
  • Information processing system equipped with (2)
  • the personality information is not affected by changes in the user information.
  • the personality information is information defined based on the draft regarding the agent.
  • the personality information includes basic information that defines the basic personality of the agent and personality information that defines the personality of the agent.
  • the information processing system according to any one of (1) to (3) above.
  • the control unit sets the action candidate as the expression action according to the degree of consistency between the action candidate which is the candidate for the expression action generated based on the basic information and the individuality information. By determining whether or not, the expression act by the agent is controlled.
  • (6) Further equipped with an update unit that updates the personality information with new personality information.
  • the control unit controls the expression act by the agent based on the new personality information.
  • the information processing system according to any one of (1) to (5) above.
  • the update unit updates information on fashion with respect to the personality information.
  • the personality information includes action information regarding actions that the agent can perform.
  • the update unit updates the action information.
  • the personality information includes verbal information about words that the agent can say.
  • the update unit updates the word information.
  • the information processing system according to (8) above. (10)
  • the update unit updates the personality information with the new personality information according to the changed status information, triggered by a change in the status information regarding the status of the agent.
  • the status information includes growth information regarding the growth stage of the agent.
  • the updating unit updates the personality information with the new personality information according to the changed growth information, triggered by the change of the growth information.
  • the information processing system according to (10) above. (12)
  • the updating unit updates the personality information by adding additional information defining a new personality of the agent to the personality information.
  • the update unit updates the personality information according to the event information about the event in which the user participates.
  • the information processing system according to any one of (6) to (12) above.
  • the personality information includes location information representing a location for the agent.
  • the control unit controls the expression act based on the location information.
  • the information processing system according to any one of (1) to (13).
  • the control unit controls the expression action so that the agent recommends the action related to the place to the user.
  • the personality information storage unit stores personality information regarding each of the plurality of agents.
  • a selection unit for selecting at least one or more of the agents from the plurality of agents based on the plurality of personality information is further provided.
  • the control unit controls the expression action of the selected agent based on the personality information about the selected agent.
  • the information processing system according to any one of (1) to (15) above.
  • the selection unit selects the agent based on the relationship between the personality information about each of the plurality of agents and the information about the service provided to the user.
  • the control unit causes the user to output the controlled expression action in the form of a script.
  • (19) Memory is Remembering user information about the user To store personality information that defines the personality unique to the agent, The processor Controlling the expression act, which is the expression expression by the agent, based on the personality information, Information processing methods, including.
  • a user information storage unit that stores user information about the user
  • a personality information storage unit that stores personality information that defines the personality unique to the agent
  • a control unit that controls an expression act, which is an act expressed by the agent, based on the personality information.
  • a program that functions as an information processing device.
  • Information processing device 120 Storage unit 122 User information storage unit 123 Personal information storage unit 127 Basic information storage unit 128 Individuality information storage unit 150 Candidate generation unit 160 Control unit 161 Action control unit 162 Output control unit 164 Advertisement Control unit 190 Update unit 191 Selection unit 20 User terminal 220 Input unit 230 Output unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

ユーザに関するユーザ情報を記憶するユーザ情報記憶部と、エージェントに固有の人格を規定する人格情報を記憶する人格情報記憶部と、前記エージェントが表出する行為である表出行為を、前記人格情報に基づいて、制御する制御部と、を備える、情報処理システムが提供される。

Description

情報処理システム、情報処理方法、及びプログラム
 本開示は、情報処理システム、情報処理方法、及びプログラムに関する。
 近年、パーソナルコンピュータ、スマートフォン又はタブレット端末などの情報処理端末を用いて、特定のキャラクターを模したエージェントによる発話などの行為を楽しむことができるサービスが普及している。こうしたエージェントの原作となるキャラクターは、一般的に特定の人格を持っている。このため、エージェントは、当該人格に応じた振る舞いを行うことが望まれている。
 例えば、特許文献1には、エージェントの発話文データに対するユーザのフィードバックに応じて、エージェントが当該発話文データで示される発話内容を発話する可能性を更新する技術が記載されている。
国際公開第2017/191696号
 特許文献1に記載の技術では、エージェントの発話内容を認識したユーザのフィードバックが必要である。このため、エージェントから表出される発話等の行為(以下、エージェントにより表出される行為を、「表出行為」と称する。)をリアルタイムに制御することができなかった。そこで、エージェントによる発話等の表出行為がユーザに提供される前に、エージェントの表出行為を制御することができる技術が希求されていた。
 そこで、本開示では、エージェントの表出行為がユーザに提供される前に、当該表出行為を制御することが可能な、新規かつ改良された情報処理システム、情報処理方法、及びプログラムを提案する。
 本開示によれば、ユーザに関するユーザ情報を記憶するユーザ情報記憶部と、エージェントに固有の人格を規定する人格情報を記憶する人格情報記憶部と、前記エージェントが表出する行為である表出行為を、前記人格情報に基づいて、制御する制御部と、を備える、情報処理システムが提供される。
 また、本開示によれば、メモリが、ユーザに関するユーザ情報を記憶することと、エージェントに固有の人格を規定する人格情報を記憶することと、プロセッサが、前記人格情報に基づいて、前記エージェントによる表出する行為である表出行為を制御することと、を含む、情報処理方法が提供される。
 また、本開示によれば、コンピュータを、ユーザに関するユーザ情報を記憶するユーザ情報記憶部と、エージェントに固有の人格を規定する人格情報を記憶する人格情報記憶部と、前記人格情報に基づいて、前記エージェントによる表出する行為である表出行為を制御する制御部と、を備える、情報処理装置として機能させる、プログラムが提供される。
本開示の一実施形態に係る情報処理システム1の構成を示す図である。 本開示の一実施形態に係る情報処理システム1が備える情報処理装置10及びユーザ端末20の構成を示す機能ブロック図である。 エージェントの人格情報を生成する方法の一例を示すフローチャート図である。 本開示の一実施形態に係る情報処理装置10による処理の一例を示すフローチャート図である。 第1の追加処理を示すフローチャート図である。 第2の追加処理を示すフローチャート図である。 人格情報の第1の生成方法を示すフローチャート図である。 人格情報の第2の生成方法を示すフローチャート図である。 人格情報の第3の生成方法を示すフローチャート図である。 人格情報の第4の生成方法を示すフローチャート図である。 人格情報の第5の生成方法を示すフローチャート図である。 人格情報の第6の生成方法を示すフローチャート図である。 第1の応用例に係る情報処理システム2が備える情報処理装置11及びユーザ端末20の構成を示すブロック図である。 第2の応用例に係る情報処理システム3が備える情報処理装置12及びユーザ端末20の構成を示すブロック図である。 第4の応用例に係る情報処理システム4が備える情報処理装置13及びユーザ端末20の構成を示すブロック図である。 第5の応用例において、情報処理装置10が実施する処理例を示すフローチャート図である。 本開示の一実施形態に係る情報処理システム1を構成する情報処理装置10のハードウェア構成の一例を示す機能ブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.実施形態の概略
  1.1.情報処理システムの構成
  1.2.人格情報の生成
  1.3.処理例
  1.4.効果
 2.人格情報の生成例のバリエーション
 3.応用例
  3.1.第1の応用例(人格情報の更新)
  3.2.第2の応用例(広告出稿の管理)
  3.3.第3の応用例(場所・イベントに応じたサービス)
  3.4.第4の応用例(シチュエーションに応じたサービス)
  3.5.第5の応用例(スクリプトの監修)
  3.6.その他の応用例
 4.ハードウェア構成
 5.補足
 <1.実施形態の概略>
 まず、図1~4を参照して、本開示の一実施形態の概略について説明する。
<<1.1.情報処理システムの構成>>
 まず、図1を参照して、本開示の一実施形態に係る情報処理システム1の構成について説明する。図1は、本開示の一実施形態に係る情報処理システム1の構成を示す図である。図1に示すように、情報処理システム1は、情報処理装置10とユーザ端末20とを備える。情報処理装置10とユーザ端末20とは、互いに各種のネットワーク30を介して接続されている。なお、情報処理装置10とユーザ端末20とは、互いに無線で接続されていてもよいし、有線で接続されていてもよい。
 情報処理装置10は、ネットワーク30を介して接続されたユーザ端末20に対して、所定の人格が規定されているエージェントが実施する各種の表出行為に関する情報を出力する装置である。かかる情報処理装置10の構成や実施される処理については、以下で改めて詳細に説明する。
 なお、ユーザ端末20は、図1に示すようなスマートフォンに限定されず、例えば携帯電話端末、タブレット端末、PC(パーソナルコンピュータ)、ゲーム機、ウェアラブル端末(スマートアイグラス、スマートバンド、スマートウォッチ、又はスマートネック等)等であってもよい。また、ユーザ端末20は、人間、各種の動物、各種のキャラクター等を模したロボットであってもよい。
 次に、図2を参照して、本開示の一実施形態に係る情報処理装置10とユーザ端末20とが備える構成について説明する。図2は、本開示の一実施形態に係る情報処理システム1が備える情報処理装置10及びユーザ端末20の構成を示す機能ブロック図である。
 (情報処理装置)
 情報処理装置10は、ユーザに関するユーザ情報及びエージェントに固有の人格を規定する人格情報を記憶し、さらに、エージェントが表出する行為である表出行為を、当該人格情報に基づいて制御する機能を有する。当該機能は、情報処理装置10が備えるインターフェース(IF)110、記憶部120、条件生成部130、意味理解部140、候補生成部150、及び制御部160が協働することにより実現される。以下、情報処理装置10が備える各機能部について説明する。
 IF110は、ネットワーク30を介して、各種の通信装置との間で各種の情報を送受信する機能を有する。例えば、IF110は、ネットワーク30を介してユーザ端末20等の各種の情報処理端末との間で各種の情報を送受信する。例えば、IF110は、ユーザ端末20からユーザが存在する位置又はユーザが存在する世界の時刻などの外部情報を受信することができる。また、IF110は、ユーザがユーザ端末20に入力した各種の入力情報を受信することができる。
 記憶部120は、各種の情報を記憶する機能を有する。記憶部120は、例えば、エージェントに固有の人格を規定する人格情報を記憶する。また、記憶部120は、エージェントが置かれている環境に関する環境情報及びユーザに関するユーザ情報を記憶してもよい。記憶部120が有する機能は、記憶部120が備える環境情報記憶部121、ユーザ情報記憶部122及び人格情報記憶部123が協働することにより実現される。
 ここで、エージェントに付与される人格のモチーフは、漫画、アニメ、ゲーム、ドラマ、映画等のキャラクター、実空間に実在する(又は実在した)芸能人や著名人、歴史上の人物等であってもよい。また、エージェントは、動物又は擬人化されたキャラクターであってもよい。さらに、エージェントは、ユーザ本人の人格を反映した人物、ユーザの友人、家族、又は知人などの人格を反映した人物であってもよい。
 環境情報記憶部121は、エージェントが存在する世界の環境情報を記憶する機能を有する。環境情報は、例えば、エージェントの世界の時刻、エージェントが存在している位置、又は、エージェントが置かれている状況などの当該エージェントの世界に関する各種の情報を含む。環境情報は、条件生成部130により、必要に応じて参照される。
 ユーザ情報記憶部122は、ユーザ端末20を使用するユーザに関するユーザ情報を記憶する機能を有する。当該機能は、ユーザ情報記憶部122が備える一次情報記憶部124、二次情報記憶部125、及びユーザ履歴情報記憶部126が協働することにより実現される。ユーザ情報記憶部122が記憶しているユーザ情報は、条件生成部130及び候補生成部150により、必要に応じて参照される。
 一次情報記憶部124は、ユーザの形式的な情報であるユーザ一次情報をユーザ情報として記憶している。ユーザ一次情報は、ユーザによる入力情報や行動履歴等から得られる一次的な情報を含み、例えば、ユーザの年齢、性別、名前、居住エリア、行動履歴、又は購買履歴などの情報を含んでもよい。
 二次情報記憶部125は、ユーザ一次情報に付随する情報であって、ユーザの個性を反映した情報である(ユーザの個性に関する情報である)ユーザ二次情報を記憶している。ユーザ二次情報は、ユーザ一次情報等から推定される情報を含み、例えば、ユーザの推定される嗜好情報、ユーザの人格やパーソナリティに関する情報、又はユーザによる購買の区分に関する情報(例えば、ユーザが購入した商品の種類を区分した情報)を含んでもよい。
 ユーザ履歴情報記憶部126は、ユーザとエージェントとのやりとりの履歴に関する情報であるユーザ履歴情報を記憶している。ユーザ履歴情報は、例えば、ユーザとエージェントとの会話の履歴、ユーザが使用した単語の履歴、又はユーザによりどのような意味で単語が使われたのか、を表す情報等を含んでもよい。これらの情報は、ユーザ二次情報の推定のために用いられてもよい。
 以上、ユーザ情報記憶部122について説明した。なお、ユーザ情報記憶部122が、複数のユーザのユーザ情報を記憶する場合には、ユーザ情報記憶部122は、ユーザ毎に、ユーザ一次情報、ユーザ二次情報、及びユーザ履歴情報を記憶してもよい。
 また、ユーザ情報記憶部122が有する構成は、図2に示す例に限らない。つまり、ユーザ情報記憶部122は、ユーザ情報を、ユーザ一次情報、ユーザ二次情報、およびユーザ履歴情報に区分して記憶していなくてもよい。例えば、ユーザ情報記憶部122は、ユーザ情報を、一般ユーザ情報及び特定ユーザ情報として記憶してもよい。ここで、一般ユーザ情報は、特定のユーザではなく、サービス提供者が仮定する標準的な、あるいは平均的なユーザの特性に関するデフォルト情報である。また、特定ユーザ情報は、標準的または平均的なユーザの特性に対して、ユーザに固有の情報の差分を表す情報である。例えば、ユーザが標準的なユーザよりも外向的な人格を有している場合には、特定ユーザ情報は、標準的なユーザよりも外向的な人格を有することを表す情報を含んでもよい。
 人格情報記憶部123は、エージェントに固有の人格を規定する人格情報及びユーザによる当該エージェントの使用履歴に関するエージェント履歴情報を記憶する機能を有する。当該機能は、人格情報記憶部123が備える基本情報記憶部127、個性情報記憶部128、及びエージェント履歴情報記憶部129が協働することにより実現される。ここでエージェントの人格が固有であるとは、たとえばある原作作品に登場するキャラクターの人格をモチーフとしたエージェント製品において、当該キャラクターの人格を発揮しうるという意味で、他の製品群に対して固有である。あるいは、あるユーザの保有する特定のエージェントが、当該エージェントのみが有する特定の人格情報をもつ場合に、固有である。
 人格情報は、例えば、エージェントのパーソナリティ特性情報であってもよいし、セリフに含まれる単語の使用頻度、使用する単語の意味、又は話し方などに関する情報を含んでもよい。さらに、人格情報は、エージェントの嗜好、エージェントが存在する場所、エージェントが存在する世界の時間、エージェントが置かれている状況などに応じた振る舞いに関する情報などの情報を含んでもよい。本実施形態では、人格情報は、個別のエージェントに拠らない標準的な人格を規定する基本情報と、エージェントの個性を規定する個性情報と、に区分けして人格情報記憶部123に記憶される。
 基本情報記憶部127は、エージェントが一般的に行う表出行為を規定する基本情報を記憶している。より具体的には、基本情報は、様々なエージェントが共通して実施しうるような各種の普遍的な表出行為を規定する情報であり、エージェントが有する基礎的な人格を規定する情報であるともいえる。例えば、基本情報は、国語辞典のように、日本語等の単語と当該単語の一般的な意味を対応付けて規定した情報を含んでもよい。基本情報記憶部127に記憶された基本情報は、候補生成部150に伝達され、例えば、エージェントによる発話等の内容の候補を生成するために用いられる。
 個性情報記憶部128は、エージェントの個性を規定する個性情報を記憶している。より具体的には、個性情報は、エージェントの基本的な人格に対する、エージェントに固有の人格の差分を表す情報である。例えば、個性情報は、エージェントの人格から、当該エージェントが使用することが想起されるセリフについては、基本的な人格を有するエージェントよりも高い確率で使用することを表す情報を含んでもよい。例えば、個性情報は、エージェントが外向的な人格を有している場合には、外向的なセリフを発話し易いことを表す情報を含んでもよい。なお、上述した基本情報と個性情報とを併せて、人格情報とも称する。なお、人格情報は、後述するエージェント履歴情報又はユーザの利用状況に応じて、変化する場合もある。
 エージェントの表出行為は、人格情報に基づいて制御される。エージェントの表出行為が、基本情報に加えて、個性情報に基づいて制御されることにより、エージェントの表出行為は、よりエージェントの個性に即した表出行為に制御される。
 ここで、人格情報は、エージェントに関する原案に基づいて規定される情報であってもよい。例えば、人格情報は、エージェントの原案であるキャラクターの人格に基づいて規定される情報であってもよい。これにより、エージェントの表出行為は、当該エージェントに関する原案に即した表出行為となるように制御される。
 エージェント履歴情報記憶部129は、ユーザがエージェントとやりとりした履歴に関するエージェント履歴情報を記憶する機能を有している。エージェント履歴情報は、例えば、ユーザによりエージェントが使用された回数、時間、指示のカテゴリや指示内容等を表す履歴に関する情報を含んでもよい。
 人格情報記憶部123は、人格情報とエージェント履歴情報とに加えて、エージェントの基となったキャラクターに関する書誌的情報を記憶してもよい。書誌的情報は、例えば、エージェントの名前、性別、年齢、グラフィック、又は当該エージェントに関わるキャラクターの設定(例えば、出身地の設定、家族構成の設定など)等に関する情報を含んでもよい。
 また、人格情報記憶部123は、エージェントに関する人格情報を、ユーザ情報におけるユーザ一次情報、ユーザ二次情報、およびユーザ履歴情報と同様に、エージェント一次情報、エージェント二次情報、及びエージェント履歴情報に分類して記憶してもよい。
 また、人格情報記憶部123は、複数のエージェントに関する人格情報を記憶してもよい。この場合、人格情報記憶部123は、例えば、各々のエージェントの関する基本情報、個性情報、及びエージェント履歴情報を記憶してもよい。なお、人格情報記憶部123は、1つの基本情報を複数のエージェントに共通の基本情報として記憶してもよい。
 また、ユーザ端末20から情報処理装置10に新たなユーザ情報が送信される場合がある。これは、例えばユーザによる新たな情報の入力や、行動履歴の蓄積等により、ユーザ情報が更新される場合による。この場合、ユーザ情報記憶部122に記憶されたユーザ情報は、当該新たなユーザ情報を元々記憶していたユーザ情報に付加することにより、更新されてもよい。このように、ユーザ情報記憶部122が記憶しているユーザ情報は、変化する場合がある。
 人格情報記憶部123が記憶している人格情報は、ユーザ情報記憶部122に記憶されたユーザ情報の変化に影響を受けなくてもよい。より具体的には、当該ユーザ情報が変化した場合であっても、人格情報は変化しなくてもよい。後述するように、エージェントの表出行為は、当該人格情報に基づいて制御される。人格情報がユーザ情報の変化に影響を受けないため、エージェントの表出行為は、ユーザ情報の変化に依らず、よりエージェントの個性に即した表出行為となるように制御される。
 その一方で、例えばユーザ情報の変化に応じて、エージェントの人格情報も変化してもよい。この場合には、エージェントは、ユーザの変化に寄り添ったり、ユーザの好みに応じた人格としてふるまったりすることが可能になる。具体的には、エージェントの人格情報の生成にあたり、ユーザ情報も参照するとともに、ユーザ情報の更新に応じてエージェントの人格情報も更新されることになる。
 条件生成部130は、エージェントが表出行為を行うための前提条件に関する条件情報を生成する機能を有する。条件生成部130は、IF110を介してユーザ端末20から取得した外部情報、環境情報記憶部121から取得した環境情報、及びユーザ情報記憶部122から取得したユーザ情報を統合することにより、条件情報を生成する。生成された条件情報は、意味理解部140に伝達される。
 意味理解部140は、条件情報に基づいて、ユーザ端末20から送信された入力情報の意味を理解する機能を有する。例えば、意味理解部140は、条件情報に含まれるユーザ情報に基づいて、ユーザによる入力情報に含まれる単語の意味を理解する。意味理解部140が理解した結果は、意味情報として候補生成部150に伝達される。
 候補生成部150は、ユーザ情報と、意味情報と、基本情報とに基づいて、エージェントによる表出行為の候補である行為候補を生成する機能を有する。例えば、候補生成部150は、表出行為として、エージェントによる発話を行為候補として生成する。生成された行為候補は、制御部160が備える行為制御部161に伝達される。なお、候補生成部150が生成する行為候補は1つであってもよいし、複数であってもよい。
 制御部160は、エージェントの表出行為を、当該エージェントの人格情報に基づいて制御し、当該表出行為をユーザ端末20が備える出力部230に出力させる機能を有する。当該機能は、制御部160が備える行為制御部161及び出力制御部162が協働することにより実現される。
 行為制御部161は、エージェントの表出行為を、当該エージェントの人格情報に基づいて制御する機能を有する。より具体的には、行為制御部161は、候補生成部150により生成された表出行為の候補を、当該エージェントの個性情報に基づいて、ユーザ端末20が備える出力部230により出力される表出行為を決定する。決定された表出行為を表す情報は、出力制御部162に伝達され、IF110及びネットワーク30を介して、ユーザ端末20が備える出力部230に送信される。これにより、出力部230にエージェントの表出行為が出力される。このようにして、エージェントの表出行為が制御される。
 ここで、表出行為がエージェントによる発話である場合に、行為制御部161が表出行為を制御する方法の一例について説明する。ここでは、候補生成部150が行為候補を一つ生成した場合について説明する。例えば、行為制御部161は、候補生成部150が生成した行為候補と、エージェントの個性情報と、の整合度合に応じて、行為候補を表出行為とするか否かを判定することにより、エージェントによる表出行為を制御する。例えば、行為制御部161は、行為候補と個性情報との整合度合が低い場合には、当該行為候補を表出行為としないことを判定してもよい。例えば、エージェントが外向的のキャラクターであり、個性情報に外向的な人格を表す情報が含まれる場合に、行為候補が内向的な内容を含む発話である場合には、行為制御部161は、行為候補と個性情報との整合度合が低いことを判定してもよい。この場合、行為制御部161は、当該行為候補を表出行為としないことを判定してもよい。このとき、行為制御部161は、候補生成部150に、新たな行為候補を生成することを要求する要求情報を伝達してもよい。候補生成部150は、当該要求情報に応じて、新たに行為候補を生成し、行為制御部161に伝達する。
 一方、行為制御部161は、行為候補と個性情報との整合度合が高い場合には、当該行為候補を表出行為とすることを判定してもよい。この場合、行為制御部161は、行為候補を表す情報を出力制御部162に伝達する。
 以上のように、行為制御部161が、行為候補と、個性情報との整合度合に応じて、行為候補を表出行為とするか否かを判定することにより、表出行為を制御すると、エージェントは、当該エージェントの人格により即した表出行為を行うことができる。
 出力制御部162は、情報を出力することが可能な各種の公知の出力装置に、エージェントの表出行為を出力させる機能を有する。例えば、出力制御部162は、IF110及びネットワーク30を介して、ユーザ端末20が備える出力部230に表出行為を表す情報を送信することにより、ユーザ端末20が備える出力部230にエージェントの表出行為の出力を制御する。例えば、出力制御部162は、エージェントの発話を表す情報を出力部230に送信することにより、出力部230にエージェントの発話を表す音声を出力させることができる。また、出力制御部162は、エージェントが表出行為を行っている様子を示す画像を表す情報を出力部230に送信することにより、出力部230にエージェントが表出行為を行っている様子を示す画像を出力させることもできる。このようにして出力部230からエージェントの表出行為が出力されることにより、ユーザ端末20のユーザは、エージェントの表出行為を認識することができる。
 以上、情報処理装置10が備える機能について説明した。次に、ユーザ端末20が備える機能について説明する。
 ユーザ端末20は、取得した外部情報又は入力情報を情報処理装置10に送信する機能を有する。また、ユーザ端末20は、情報処理装置10から受信した情報に基づいてエージェントの表出行為を出力する機能を有する。当該機能は、ユーザ端末20が備える外部情報記憶部210、入力部220、及び出力部230が協働することにより実現される。
 外部情報記憶部210は、外部情報を記憶する機能を有する。外部情報は、エージェントが存在する世界と異なる、ユーザが存在する世界の情報であり、例えば、ユーザの位置、ユーザが存在する世界の時刻、又はユーザが参加しているイベントなどの各種の情報を含んでもよい。外部情報は、ネットワーク30を介して、IF110に送信され、条件生成部130に伝達される。
 入力部220は、ユーザからの各種の情報を入力する機能を有する。例えば、入力部220は、ユーザの音声などの各種の音波を取得する機能を有する音取得装置を備えてもよい。音取得装置は、例えば、マイクなどの各種の公知の音を取得する機能を有する装置である。また、入力部220は、キーボード又はマウスなどの各種の公知の情報を入力する機能を有する装置であってもよい。当該装置により入力される情報は、例えば文字列などで表される文字情報であってもよい。入力部220に入力された情報は、ネットワーク30を介して、情報処理装置10が備えるIF110に送信され、意味理解部140に伝達される。
 出力部230は、エージェントの表出行為を出力する機能を有する。例えば、出力部230は、スピーカーなどの各種の公知の音を出力する機能を有する音出力装置を備えてもよい。音出力装置は、エージェントの表出行為である発話の内容を音声として出力する。また、出力部230は、画像を出力する機能を有する各種の公知の画像出力装置を備えてもよい。画像出力装置は、例えば、エージェントの表出行為である当該エージェントの表出行為を表す画像を出力する。出力部230がエージェントの表出行為を出力することにより、ユーザは当該エージェントの表出行為を認識することができる。
 以上、情報処理システム1が備える情報処理装置10及びユーザ端末20の構成の概略について説明した。
<<1.2.人格情報の生成>>
 次に、図3を参照して、エージェントの人格情報を生成する方法の一例について説明する。図3は、エージェントの人格情報を生成する方法の一例を示すフローチャート図である。以下、図3のフローチャートに沿って、人格情報を生成する方法について説明する。
 まず、エージェントに関するエージェント情報が用意される(ステップS101)。例えば、エージェント情報として、エージェントに関する原作の物語などの原作情報又は当該原作に現れるキャラクターなどの設定情報などが用意される。また、当該エージェントに原作が存在しない場合には、エージェント情報が新たに規定されてもよい。
 次に、人格情報が、エージェント情報に基づいて、学習又は設定される(ステップS103)。例えば、人格情報は、各種の公知の機械学習アルゴリズムに基づいて、生成されてもよい。また、人格情報は、エージェント情報に基づいて、例えば原作者の監修のもと、人格情報を規定する各種パラメータを直接入力する形式で設定されてもよい。以上のようにして、エージェントの人格情報が生成される。
 次に、人格情報を用いてエージェントの表出行為を制御する方法について、3つの例を簡単に説明する。
 第1の方法は、生成された人格情報を参照し、当該人格情報からエージェントの発話又は行動などの表出行為を生成する方法である。例えば、人格情報に基づいて、エージェントの人格に即した発話等の表出行為が生成される。
 第2の方法は、エージェントの基本情報に基づいて生成される標準的な表出行為に対して、個性情報が当該表出行為の生成確率にバイアスをかける方法である。例えば、エージェントの人格が外向的な人格である場合には、より外交的な内容を発話するように、表出行為が制御される。
 第3の方法は、エージェントの基本情報に基づいて生成された表出行為の候補のうち、人格情報と整合しないような不適切な候補について、個性情報に基づいて当該候補が表出行為とならないように修正する方法である。例えば、エージェントが外向的な人格であるとき、基本情報に基づいて生成された表出行為の候補が内向的な表出行為である場合には、当該表出行為がエージェントに実施されないように、表出行為が制御される。
 以上、人格情報に基づいて、エージェントの表出行為を制御する3つの方法について説明した。本開示の実施形態では、上記の第3の方法によるエージェントの表出行為の制御について説明する。
<<1.3.処理例>>
 以下、図4~6を参照して、本開示の一実施形態に係る情報処理装置10による処理の一例について説明する。図4は、本開示の一実施形態に係る情報処理装置10による処理の一例を示すフローチャート図である。以下、図4のフローチャートに沿って、処理例を説明する。
 まず、条件生成部130は、情報を取得する(ステップS201)。より具体的には、条件生成部130は、ユーザ端末20から送信される外部情報、環境情報記憶部121から伝達される環境情報、およびユーザ情報記憶部122から伝達されるユーザ情報を取得する。
 次に、条件生成部130は、ステップS201で取得した情報を統合し、条件情報を生成する(ステップS203)。生成された条件情報は、意味理解部140に伝達される。
 次に、意味理解部140は、ユーザ端末20に入力された入力情報の意味内容を理解する(ステップS205)。より具体的には、意味理解部140は、ユーザによりユーザ端末20端末に入力された入力情報を取得し、条件情報に基づいて、当該入力情報の意味内容を理解する。意味理解部140が理解した結果を表す意味情報は、候補生成部150に伝達される。
 次に、候補生成部150は、行為候補を生成する(ステップS207)。より具体的には、候補生成部150は、意味情報、ユーザ情報、及び人格情報に基づいて、エージェントによる行為候補を生成する。以下では、一例として、候補生成部150は、行為候補として、エージェントが発話する内容の候補である発話候補を1つ生成するものとして説明する。なお、候補生成部150は、複数の行為候補を生成してもよい。生成された発話候補を表す情報は、制御部160が備える行為制御部161に伝達される。
 次に、行為制御部161は、個性情報に基づいて、発話候補を修正する(ステップS209)。例えば、行為制御部161は、候補生成部150が生成した発話候補と、個性情報との整合度合に応じて、発話候補を表出行為とするか否かを判定する。例えば、候補生成部150は、発話内容と個性情報との整合度合を算出し、算出された整合度合と閾値とを比較する。例えば、発話候補と個性情報との整合度合が低く、当該整合度合が閾値よりも低い場合には、候補生成部150は、発話候補をエージェントの表出行為とさせないこととする。この場合、行為制御部161は、候補生成部150に対して、新たな発話候補を生成するように要求してもよい。候補生成部150が新たな発話候補を生成する場合には、行為制御部161は、当該新たな発話候補を修正する。一方、発話候補と個性情報との整合度合が高く、整合度合が閾値以上である場合には、行為制御部161は、候補生成部150が生成した発話候補を、エージェントが表出する表出行為とする。この場合、行為制御部161は、発話候補を表す情報を出力制御部162に伝達する。当該発話候補を表す情報は、IF110に伝達され、ネットワーク30を介して、ユーザ端末20が備える出力部230に送信される。
 このように、行為制御部161は、基本情報に基づいて生成された表出行為(例えば、発話行為)の候補である行為候補と、個性情報と、の整合度合に応じて、行為候補を表出行為とするか否かを判定することにより、エージェントの表出行為を制御する。これにより、エージェントがよりエージェントが有する個性と整合度合が高い表出行為を行うように、表出行為が制御される。
 次に、出力部230は、エージェントによる発話を出力する(ステップS211)。例えば、出力部230は、エージェントを表す画像を出力するとともに、当該エージェントが、ステップS209において受信した発話候補の内容を発話するように音声を出力する。これにより、ユーザはエージェントの画像と共に、当該エージェントの発話を認識することができる。
 次に、追加処理が実施される(ステップS213)。追加処理は、発話候補と個性情報との整合度合が高いか低いかの判定が容易でない場合に実施されてもよい。より具体的には、当該追加処理は、ステップS211において算出される発話候補と個性情報との整合度合が、閾値付近の値である場合に実施されてもよい。つまり、整合度合が閾値付近の値でない場合には、追加処理が実施されなくてもよい。
 追加処理では、エージェントの原作者等の監修者又はユーザにより、発話候補の許容度が確認される。許容度とは、エージェントの人格を考慮したときにおける、エージェントが表出候補の内容を発話することのふさわしさの度合いである。
 ステップS213では、図5又は図6のいずれかに示すフローチャートの処理が、適宜選択されることにより実施されてもよい。図5は、第1の追加処理を示すフローチャート図である。また、図6は、第2の追加処理を示すフローチャート図である。まず、図5に示すフローチャートに沿って、第1の追加処理を説明する。
 まず、行為制御部161が、エージェントに関する情報(例えば、エージェントの名前又は人格に関する情報など)と、発話候補を表す情報と、を情報セットとして送信する(ステップS221)。情報セットは、例えば、当該エージェントの監修者(例えば、当該エージェントの原作者)が使用する情報処理端末(図示しない)に、IF110及びネットワーク30を介して、送信される。情報セットは、監修者の情報処理端末に出力され、監修者は、情報セットの内容を認識することができる。
 次に、情報セットに基づいて、発話候補の許容度が確認される(ステップS223)。より具体的には、監修者は、エージェントの人格に基づいて、表出候補の内容のふさわしさを確認することにより、発話候補の許容度を確認してもよい。例えば、発話候補がエージェントの人格に照らしてふさわしくない場合には、監修者は、発話候補の許容度が低いこと判定する。一方、発話候補が、エージェントの人格に照らしてふさわしい場合には、監修者は、発話候補の許容度が高いことを判定する。
 次に、ステップS223における確認結果に基づき、人格情報の再学習が実施される(ステップS225)。例えば、ステップS223において確認結果が、情報処理装置10が備える人格情報記憶部123に送信され、人格情報記憶部123が当該確認結果を入力データとして、各種の公知の機械学習アルゴリズムに基づいて、人格情報を再学習してもよい。これにより、これにより人格情報記憶部123が記憶している人格情報が、監修者による確認結果に基づいて更新される。
 また、当該確認結果が、図2に示す情報処理装置10とは異なる装置に蓄積されてもよい。当該装置に所定量の確認結果が蓄積されると、当該装置において人格情報が再学習される。ここで再学習された人格情報が、情報処理装置10に送信され、人格情報記憶部123に伝達されることにより、人格情報記憶部123に既に記憶された人格情報が、再学習された人格情報に更新されてもよい。
 以上、図5に示す第1の追加処理について説明した。第1の追加処理では、監修者により、発話候補の許容度が確認される。例えば、一定量の発話候補(例えば、1000個の発話候補等)の中に、どの程度監修者の意図にそぐわない発話候補(許容度の低い発話候補)があるのかが計測されてもよい。例えば、一定量の発話候補の中における監修者の意図にそぐわない発話候補の割合が、所定の割合(例えば、1%)を下回ったら、当該人格情報を合格としてもよい。
 以上、図5を参照して、第1の追加処理について説明した。次に、図6を参照して、第2の追加処理について説明する。
 まず、ユーザ端末20のユーザは、エージェントによる発話の許容度を、当該エージェントの人格に照らして確認する(ステップS231)。
 次に、ユーザ端末20により出力されたエージェントの発話に関する情報が、監修者に通報される(ステップS233)。例えば、エージェントの発話に関する情報が、ユーザ端末20から監修者が使用する情報処理端末に送信される。発話に関する情報には、エージェントによる発話の内容、ステップS231において確認された許容度、及び前提条件などに関する情報が含まれる。これらの発話に関する情報は、タイムスタンプに紐づけられて監修者が使用する情報処理端末に送信されてもよい。
 次に、ステップS235及びS237の処理が実施される。ステップS235及びステップS237の処理は、図5を参照して説明したステップS223及びS225の処理と実質的に同一であるため、ここでは説明を省略する。ステップS237の処理が終了すると、図6に示す第2の追加処理が終了する。
 図5又は図6に示す追加処理が終了すると、図4に戻って、ステップS213の処理が終了し、図4に示す処理が終了する。以上、本開示の一実施形態に係る情報処理装置10の処理について説明した。
 なお、ここでは、エージェントが、表出行為として発話を行う例について説明したが、これに限らず、エージェントは、発話以外の表出行為を行ってもよい。例えば、エージェントが例えばロボットのキャラクターである場合には、当該エージェントは、好奇心を表す行動、積極性を表す行動、又は共感的行動などを表出行動として行ってもよい。また、エージェントは、身振り又は手振りを表出行為として行ってもよい。また、エージェントは、顔の表情をつくることを表出行為として行ってもよい。さらに、エージェントは、ユーザに対して各種の行為、物、又はイベントなどを推薦する推薦行為を表出行為として行ってもよい。
<<1.4.効果>>
 本開示の一実施形態に係る情報処理装置10は、エージェントによる表出行為を、当該エージェントの人格情報に基づいて制御する。このため、エージェントの表出行為がユーザに出力される前に、表出行為が制御される。
<2.人格情報の生成例のバリエーション>
 上記の実施形態では、図3を参照して、エージェントの人格情報の生成方法の一例について説明した。ここでは、図7~図12を参照して、人格情報の生成方法のバリエーションについて説明する。
 まず、図7を参照して、人格情報の第1の生成方法について説明する。図7は、人格情報の第1の生成方法を示すフローチャート図である。以下、図7のフローチャートに沿って説明する。
 まず、学習データが用意される(ステップS301)。ここで、学習データは、例えば、エージェントの原作の設定資料に関する情報であってもよい。例えば、原作の設定資料は、セリフのセットであってもよい。より具体的には、学習データは、当該エージェントの原作中に登場するセリフを断片化したものを含んでもよい。また、学習データは、セリフが発せられる条件に関する情報を含んでもよい。当該条件に関する情報は、例えば、エージェントがセリフを発する際における、当該エージェントの感情(例えば、危険、誘惑、安心など)に関する情報を含んでもよい。また、学習データは、セリフを発せられる相手に関する情報を含んでもよい。さらに、学習データは、どのようなエージェントに対する呼びかけ(つまり、エージェントの相手のセリフ)への返答であるかに関する情報を含んでもよい。学習データは、例えば、エージェントの原作者などの監修者によって用意されてもよい。
 次に、五因子モデルに基づいて、学習データが識別される(ステップS303)。ここで、五因子モデルとは、外向性、神経質特性、誠実性、調和性、及び開放性の五因子に基づいて、人格を規定するモデルである。ここでは、ステップS301において用意された学習データである、セリフに関する情報に基づいて、学習データが識別され、五因子のスコアが特定される。例えば、セリフにポジティブな表現が多い場合には、外向性に高いスコアが付与されてもよい。また、セリフにネガティブな表現が多い場合には、神経質特性に高いスコアが付与されてもよい。五因子についてのスコアは、例えば、原作者により付与されてもよい。また、公知の各種の機械学習アルゴリズムに基づいて、五因子についてのスコアが付与されてもよい。
 次に、人格情報が生成される(ステップS305)。より具体的には、ステップS303において特定された五因子のスコアに基づいて、人格情報が生成される。ここで、人格情報がもつ役割について説明する。五因子の各々の因子は、因子のスコアの大きさに応じて、各種の単語又は単語の組み合わせ(以下、これらをまとめて単に「単語」ともいう。)が発話される可能性の高さが知られている。このため、人格情報は、各種の単語がエージェントに発話される確率を規定する役割をもつ。例えば、外向性の因子に高いスコアが付与されている場合には、エージェントによりポジティブな単語が発話される確率が高くなる。このような人格情報が人格情報記憶部123に記憶されることにより、エージェントの表出行為は、五因子モデルに基づいて生成された人格情報に基づいて、制御される。
 なお、五因子モデルは、特定の状況下におけるエージェントの行為を規定する。このため、例えば実際に情報処理装置10により発話等の表出行為が制御される際に、当該特定の状況も加味して、発話等の表出行為が制御されてもよい。
 ここでは、五因子モデルに基づいて、学習データが識別されたが、これに限らず、MBTI法やエニアグラム法等の各種の公知のパーソナリティ理論に基づいて、学習データが識別されてもよい。また、ラッセルの円環モデルなどの情動理論に基づいて、学習データが識別されてもよい。さらに、学習データを識別する際に用いられるモデルは、ユーザが定義する所定のモデル、既存のキャラクターのいずれかについて規定されたモデルに似たモデル、又は機械学習により取得される特徴量に基づくモデルなどの各種のモデルであってもよい。
 次に、図8を参照して、人格情報の第2の生成方法について説明する。図8は、人格情報の第2の生成方法を示すフローチャート図である。以下、図8のフローチャートに沿って、人格情報の第2の生成方法を説明する。
 まず、学習データが用意される(ステップS401)。ステップS401における処理は、図7を参照して説明したステップS301における処理と実質的に同一であるため、ここでは説明を省略する。
 次に、人格情報が、ステップS401において用意された学習データと、機械学習アルゴリズムに基づいて、生成される(ステップS403)。ここで、生成される人格情報の役割について説明する。当該人格情報は、ある状況に置かれた場合におけるエージェントの発話内容や、ユーザからの入力に対する応答として、適したセリフ又は単語の組み合わせの生成確率を規定する。当該確率は、人格情報の生成にあたり、原作のキャラクターの発するセリフや単語の出現頻度、あるいは、特定の状況や他キャラクターの発話に対する発話又は回答の組合せなどに基づき、当該キャラクターが発しやすいセリフや単語の確率の空間として定義される。これにより、エージェントは、原作における当該エージェントのキャラクターが行う表出行為に似た表出行為を行うことができるようになる。
 次に、図9を参照して、人格情報の第3の生成方法について説明する。人格情報の第3の生成方法では、人格情報に基づいて、エージェントのシナリオが生成される。さらに、当該シナリオに基づいて、人格情報を再学習される。図9を参照して、人格情報の第3の生成方法について説明する。図9は、人格情報の第3の生成方法を示すフローチャート図である。以下、図9に沿って説明する。
 まず、人格情報が用意される(ステップS501)。ここで用意される人格情報を生成する方法は、特に限定されない。例えば、当該人格情報は、図7又は図8を参照して説明した人格情報の第1又は第2の生成方法により生成されてもよい。
 次に、機械学習アルゴリズムに基づいて、シナリオが生成される(ステップS503)。機械学習には、入力データとして、ステップS501において用意された人格情報が用いられる。ここで生成されたシナリオは、エージェントの例えば原作等から想起し得る状況であってもよいし、エージェントの原作等から想起し得うる状況であって当該エージェントの原作には存在しない状況でのシナリオであってもよい。例えば、当該シナリオは、エージェントが道案内する状況、コンテンツを推薦する状況等の各種の状況における仮想的な対話又は物語であってもよい。
 次に、ステップS503において生成されたシナリオに基づいて、人格情報が、機械学習アルゴリズムに基づいて、再学習される(ステップS505)。ステップS503で生成されるシナリオはエージェントの原作に存在しないシナリオである場合がある。このため、ステップS503において生成されたシナリオに基づいて生成された人格情報を用いることにより、原作に存在しないシナリオにおいても、エージェントに当該エージェントのイメージに沿った表出行為をさせることが可能になる。
 次に、図10を参照して、人格情報の第4の生成方法について説明する。図10は、人格情報の第4の生成方法を示すフローチャート図である。
 まず、基本情報が用意される(ステップS601)。ここで、基本情報は、例えば、辞書的な単語の意味を表す情報であってもよい。つまり、基本情報は、エージェントの個性を規定しない情報であってもよい。
 次に、エージェントに、基本情報に基づく表出行為を出力させる(ステップS603)。表出行為は、例えば、画像出力装置にエージェントの表出行為を表す画像が表示されたり、音出力装置にエージェントの音声が出力されたりしてもよい。当該表出行為は、例えば、エージェントの原作者などの監修者に認識される。
 次に、表出行為が好ましいか否かについてのフィードバックが実施される(ステップS605)。当該判定は、例えば、監修者が、エージェントの原作等から想起されるイメージに基づいて、フィードバックを実施してもよい。より具体的には、監修者は、表出行為がエージェントのイメージにふさわしい行為か否かを判定してもよい。
 次に、ステップS603において出力された表出行為と、ステップS605におけるフィードバックと、に基づいて、人格情報が修正される(ステップS607)。例えば、ステップS605において好ましくないと判定された単語又は単語の組み合わせが、表出行為として発生する頻度が低くなるように、人格情報が修正されてもよい。また、人格情報の修正は、環境情報に紐づけられてもよい。より具体的には、例えば、ある状況においては、ある単語の発生頻度が低くなるが、それ以外の状況においては、当該単語の発生頻度に変化が変わらないように、人格情報が修正されてもよい。なお、形成される人格情報は、ステップS601において用意された基本情報との差分を表す情報として生成されてもよい。
 ここで、生成された人格情報の応用例について説明する。例えば、製品開発段階では、監修者とエージェントとの対話に基づいて、エージェントの人格情報を生成することができる。つまり、監修者は、図10に示すフローチャートに沿って、エージェントと対話をしながら人格情報を修正することができる。なお、監修者は、エージェントの原作となるキャラクターを作成した原作者であってもよいし、エージェントをユーザに提供する提供者であってもよいし、ユーザ端末20のユーザであってもよい。監修者が当該ユーザである場合には、当該ユーザは、楽しみながら人格情報を生成することができる。また、監修者がユーザである場合には、当該ユーザは、自らが生成した人格情報を販売等することにより、エージェントをユーザが生成したコンテンツとして扱うことができる。これらの応用例は、例えば、キャラクター育成系のゲーム又はバーチャルアイドルのゲーム等のゲームに適用されてもよい。ユーザは、ゲームの進行状況に関わらず、任意の時点で人格情報の更新を行うことができる。
 次に、図11を参照して、人格情報の第5の生成方法について説明する。図11は、人格情報の第5の生成方法を示すフローチャート図である。以下、図11のフローチャートに沿って説明する。
 まず、質問票が用意される(ステップS701)。例えば、当該質問票は、キャラクターの性格又は振る舞いに関する質問、又は五因子のスコアに関する質問あってもよい。
 次に、質問票に回答される(ステップS703)。当該質問票は、例えば、キャラクターの原作者等によって回答される。
 次に、質問票の回答結果に基づいて、キャラクターの五因子が決定される(ステップS705)。当該回答結果に五因子のスコアそのものが含まれている場合には、当該スコアが五因子のスコアとして決定されてもよい。また、ステップS703において回答されたキャラクターの性格又は行動等の情報に基づいて、五因子のスコアが決定されてもよい。
 次に、決定された五因子に基づいて、単語情報が生成される(ステップS707)。ここで、単語情報とは、各種の単語がエージェントによりどの程度の頻度又はどのような状況で使用されるのかを規定する情報である。ここで、単語情報の生成には、五因子のスコア別の単語情報が用いられる。五因子のスコア別の単語情報は、五因子のスコアに応じて、例えば、各種の単語がどの程度の頻度又はどのような状況で使用されるのかを規定する情報である。例えば外向性因子が高い場合には、特定のポジティブな単語が発話されやすいなどの傾向が知られている。ステップS705において決定された五因子のスコアと、スコア別の単語情報と、に基づいて、単語情報が生成される。なお、当該単語情報は、人格情報に含まれてもよい。
 次に、図12を参照して、人格情報の生成方法の応用例について説明する。図12は、人格情報の第6の生成方法を示すフローチャート図である。ここでは、エージェントの人格が、当該エージェントの成長などにより段階的に変化することが想定されている。例えば、原作において、キャラクターには少年期、青年期、大人期の成長期があり、各々の成長期においてキャラクターの人格が異なる場合が想定される。ここでは、エージェントも、原作と同様に各々の成長期で人格が異なる。人格情報の第6の生成方法によれば、例えば、エージェントの成長期等の段階に応じた人格情報を生成することができる。以下、図12に沿って、人格情報の第6の生成方法について説明する。
 まず、学習データが用意される(ステップS801)。例えば、原作の設定情報における、セリフに関する情報等が学習データとして用意される。例えば、エージェントの成長期の初期段階である少年期のセリフ等が、当該エージェントのサービス提供者により、当該エージェントによるサービスを提供する製品の出荷段階において、当該製品における学習データとして用意される。
 次に、機械学習アルゴリズムに基づいて、人格情報が生成される(ステップS803)。前回の処理がステップS801における処理である場合には、ステップS801において用意された学習データを入力データとして、機械学習アルゴリズムに基づき、人格情報が生成される。例えば、サービス提供者により元々用意されていた学習データに基づき、人格情報が生成される。
 一方、後述するステップS805~ステップS807における処理において、新たに学習データが用意されている場合には、新たに用意された学習データを入力データとして、人格情報が生成される。例えば、ユーザにエージェントのサービスが提供されている際に、当該サービスの進展に応じて用意された新たな学習データに基づき、人格情報が生成される。
 次に、新たに人格情報が生成されるか否かが判定される(ステップS805)。例えば、キャラクターの人格情報の段階(例えば、少年期、青年期又は大人期などにおける人格情報)に応じて、新たに人格情報が生成されるか否かが判定されてもよい。例えば、人格情報が、ステップS801において用意された学習データに基づき生成された人格情報(例えば、出荷段階の学習データに基づき生成された人格情報)である場合には、新たに人格情報が生成されると判定されてもよい。一方、ステップS803~S807における処理が繰り返し実施されることで、エージェントの成長期が最終段階(例えば大人期)となっている場合には、新たな人格情報が生成されなくてもよい。新たな人格情報が生成されない場合(ステップS805:No)、図12の処理は終了する。一方、新たな人格情報が生成される場合(ステップS805:Yes)、ステップS807に進む。
 ステップS805において、新たな人格情報が生成されることが判定される(ステップS805:Yes)と、新たな学習データが用意される(ステップS807)。当該新たな学習データは、例えば、エージェントの人格の成長段階に応じたセリフ等の情報であってもよい。例えば、既に生成されている人格情報が、エージェントの少年期の人格情報である場合には、新たな学習データは、エージェントの青年期に関する学習データであってもよい。また、既に生成されている人格情報が、エージェントの青年期の人格情報である場合には、新たな学習データは、エージェントの大人期に関する学習データであってもよい。
 次に、ステップS803に戻って、新たな学習データに基づいて、人格情報が生成される。例えば、新たな学習データが青年期に関する学習データである場合には、青年期の人格情報が生成される。このとき、例えば、既に生成されている人格情報が少年期の人格情報である場合には、少年期の人格情報から青年期の人格情報に更新されることになる。このようにして、人格情報の第6の生成方法によれば、エージェントの人格の変化に応じて、人格情報を更新することができる。なお、新たな学習データが大人期に関する学習データである場合には、ステップS803において、大人期の人格情報が生成される。このとき、既に生成されている人格情報が青年期の人格情報である場合には、青年期の人格情報が大人期の人格情報に更新されることになる。
 なお、新たな学習データに基づいて生成された人格情報は、既に生成されている人格情報に置き換わってもよいし、既に生成されている人格情報と共に併存してもよい。また、人格情報の更新は、所定のトリガに基づいて実施されてもよい。当該トリガは、例えば、時間の経過又はユーザとエージェントとの会話の回数の経過各種の条件であってもよい。
 以上、6つの人格情報の生成方法について説明した。ここで、人格情報の生成方法について補足する。例えば、学習データとして用いられる原作の設定資料は、セリフでなくてもよい。例えば、原作の設定資料は、キャラクターの設定集、他のキャラクターとの関係、キャラクターの性格などに関する資料であってもよい。また、原作の設定資料には、原作におけるキャラクターによる発話などの行為に基づき、当該キャラクターの性格が抽出されることにより生成された資料が含まれてもよい。また、原作の設定資料には、キャラクターの家族構成、出身地、略歴、特技、又は好物などの各種の設定情報が含まれてもよい。
 また、エージェントの原作となるキャラクターは、空想上のキャラクターに限らず、実在する人物であってもよい。例えば、実在する人物の実際の発話又は行動などの行為を解析することにより、当該実在する人物の人格情報が生成されてもよい。例えば、人格情報の第1又は第2の生成方法を用いて、TVタレント又はアイドルなどの実在する人物のパーソナリティ特性又は発話の癖などが解析することにより、人格情報が生成されてもよい。当該人格情報は、情報処理装置10が備える人格情報記憶部123に記憶される。また、実在する人物に関する人格情報が生成される場合には、実在する人物の本人が監修者として、当該人格情報を監修してもよい。
 ここまでは、エージェントの人格情報に基づいて、エージェントの表出行為を制御する例について説明した。これに限らず、エージェントの表出行為は、人格情報以外の情報に基づいて制御されてもよい。例えば、エージェントによる表出行為を禁止する言葉又は行為に関する禁止情報に基づいて、エージェントの表出行為が制御されてもよい。例えば、当該禁止情報は、人格情報とは異なる情報として保持されてもよいし、人格情報の一部として予め生成されてもよい。禁止情報が人格情報とは異なる情報として保持される場合、禁止情報は、人格情報とは独立して適宜アップデートされ、エージェントに対して追加又は更新されてもよい。なお、禁止情報には、禁止される言葉又は言い回しに限らず、禁止される振る舞い又は行動に関する情報が含まれてもよい。なお、禁止される言葉としては、エージェントが発話することが好ましくないワードに限らず、ユーザにより使用されることが好ましくないワード(たとえば、例えば、「死にたい」、「殺したい」等)が規定されてもよい。この場合、エージェントが、禁止情報に抵触しないように、どのように振る舞うべきかが人格情報に規定される。また、当該振る舞いは、エージェントによって異なってもよい。
 また、キャラクターの原作の物語が進み、人格情報記憶部123に記憶された人格情報の基礎となる学習データが増えた場合には、追加の学習である追加学習が既に生成された人格情報に対して実施されることにより、当該人格情報が更新されてもよい。追加学習により更新された人格情報が、例えば、ネットワーク30などを介して、情報処理装置10に送信され、人格情報記憶部123に伝達されることにより、人格情報記憶部123に記憶された人格情報が更新されてもよい。
<3.応用例>
 以下、図1~図6を参照して説明した本開示の実施形態の応用例について説明する。
<<3.1.第1の応用例(人格情報の更新)>>
 まず、第1の応用例として、図13を参照して、人格情報が更新される例について説明する。図13は、第1の応用例に係る情報処理システム2が備える情報処理装置11及びユーザ端末20の構成を示すブロック図である。
 第1の応用例に係る情報処理装置11の構成と、図2に示した情報処理装置10の構成と、で異なる点は、第1の応用例に係る情報処理装置11が更新部190を備える点である。
 更新部190は、人格情報記憶部123に記憶された人格情報を更新する機能を有する。行為制御部161は、更新された人格情報に基づいて、エージェントの表出行為を制御する。このため、エージェントの成長段階等の状態が変化、又はユーザの世界における変化(例えば、流行している事柄の変化等)などの各種の変化が生じた場合にも、人格が適宜更新されることにより、ユーザは、エージェントの違和感のない表出行為を楽しむことができる。なお、上記実施形態では、エージェントが表出行為として発話を行う例について主に説明したが、更新部190が更新する内容は、人格情報に含まれるエージェントによる発話に関する情報に限られない。更新部190は、エージェントによる表情の表出などのエージェントが行い得る各種の行為に関する行為情報を更新してもよい。これにより、エージェントの表出行為がより適切に制御されるようになる。
 また、更新部190は、禁止情報を更新してもよい。例えば、更新部190は、好ましくない発話又は行動等の行為をエージェントが行わないように、禁止情報を更新してもよい。より具体的には、更新部190は、人格情報に規定された発話又は行動などの行為の内容に問題がある場合には、当該行為が抑制されるように、禁止情報を更新してもよい。問題がある場合の例としては、例えば公平性や倫理的観点、政治的意図を含む表現、あるいは文化的背景から好ましくないとされる表現など、倫理的又は社会的に好ましくない発話や行為が挙げられる。こうした表現は、時代や使用環境によっても変化するところ、更新部190により、禁止情報が更新されることで、エージェントは、例えば、時代の変化等に応じた行為を行うことができる。
 また、第1の応用例に係る情報処理装置11の外部装置又は、当該情報処理装置11が備える記憶部180が、例えばユーザからの報告に基づく、好ましくない発話又は行動に関する情報を一定期間収集してもよい。更新部190は、当該収集された情報に基づいて、人格情報を更新する。なお、更新された人格情報は、元の人格情報に置き換わってもよいし、元の人格情報に付与するかたちで人格情報記憶部181に記憶されてもよい。
 また、更新部190は、人格情報について、流行に関する情報を更新してもよい。例えば、更新部190は、流行している言葉がエージェントにより表出行為として使用される頻度が高くなるように、人格情報を更新してもよい。さらに、更新部190は、廃れた言い回しがエージェントにより表出行為として使用される頻度が低くなるように、人格情報を更新してもよい。また、更新部190は、世間で新たに使われるようになった新規単語又はお笑いの一発ギャグなどをエージェントが表出行為として使用するように、人格情報を更新してもよい。このように、更新部190が、人格情報について、流行に関する情報を更新することにより、エージェントは、流行に合わせた表出行為をすることができるようになる。
 また、更新部190は、エージェントの原作となるキャラクターの設定情報が蓄積された段階で、人格情報を更新してもよい。例えば、原作のセリフに関する情報が蓄積されている場合には、更新部190は、人格情報に当該蓄積されたセリフに関する情報を付与することにより、人格情報を更新してもよい。
 また、更新部190は、エージェントの状況に関する状況情報の変化をきっかけに、人格情報を変化後の状況情報に応じた新規人格情報に更新してもよい。更新部190は、状況情報を例えば、エージェント履歴情報記憶部129から取得してもよい。例えば、状況情報は、エージェントが置かれているストーリーの状況、又はエージェント自身の状況などであってもよい。状況情報の変化をきっかけに、人格情報が変化後の状況に応じた新規人格情報に更新されることにより、エージェントは、状況の変化に応じた表出行為を行うことができる。
 また、更新部190は、例えばエージェントの成長段階に関する成長情報の変化に応じて、人格情報を変化後の成長情報に応じた新規人格情報に更新してもよい。この場合、更新部190は、予め更新に必要な人格情報を備えていてもよい。更新部190は、例えばエージェントの成長に基づいて、人格情報を、予め備えている人格情報に基づいて、当該エージェントの成長段階に応じた人格情報に更新する。
 また、更新部190は、人格情報にエージェントの新たな人格を規定する付加情報を付加することにより、人格情報を更新してもよい。例えば、更新部190は、ユーザからの課金に応じて、付加情報を人格情報に付加することにより、人格情報を更新してもよい。ここで、当初の人格情報は、原作に基づいて生成された人格情報である場合について説明する。ユーザによる追加費用が支払われると、当該追加費用が支払われたことを表す情報が更新部190に送信され、更新部190は、原作の設定資料等に基づく、より詳細な付加情報を人格情報に付加することにより、当該人格情報をよりカスタマイズされた人格情報に更新する。また、人格情報記憶部181は、当初基本情報のみを記憶しており、例えば、上述のようにユーザから追加費用が支払われると、個性情報が更新部190に送信され、更新部190は、当該個性情報を個性情報記憶部184に記憶させることにより、人格情報を更新してもよい。このように、人格情報に付加情報が付加されることにより、エージェントは、より個性的な表出行為を行うことができるようになる。
 更新部190は、ユーザが参加するイベントに関するイベント情報に応じて、人格情報を更新してもよい。例えば、ユーザがイベントに参加すると、例えばイベントの主催者が用意している当該イベントに関するイベント情報が情報処理装置10に送信され、更新部190に伝達される。イベント情報には、当該イベントを表す情報又は、当該イベントに関わるキャラクターの人格に関する情報が含まれてもよい。更新部190は、送信されたイベント情報に応じて、例えばイベントに関わるキャラクター(例えば、イベントに出てくる芸人)の人格をエージェントが持つように、人格情報を更新する。このように、イベント情報に応じて人格情報が更新されるため、エージェントは、例えば、ユーザが参加するイベントに出てくるキャラクターに応じた表出行為を行うことができる。
 ユーザが参加するイベントに応じて、更新情報が、情報処理装置11が備える更新部190に送信されてもよい。例えば、ユーザがエージェントの原作キャラクターに関連するイベントに参加すると、所定のサーバ等から当該キャラクターに関する更新情報が、情報処理装置11が備える更新部190に送信される。更新部190は、更新情報に基づいて、人格情報記憶部181に記憶された人格情報を更新する。ここで、更新情報は、ユーザが参加したイベントならではの固有の情報であってもよい。また、エージェントの原作キャラクターがお笑いタレントを模したキャラクターである場合には、人格更新情報は、当該お笑いタレントの最新のネタ又は前回送信された更新情報からの差分の情報であってもよい。
 以上、第1の応用例について説明した。なお、更新部190が有する機能は、人格情報記憶部181が有していてもよい。
<<3.2.第2の応用例(広告出稿の管理)>>
 次に、図14を参照して、第2の応用例について説明する。図14は、第2の応用例に係る情報処理システム3が備える情報処理装置12及びユーザ端末20の構成を示すブロック図である。第2の応用例では、情報処理装置12が、ユーザ端末20の出力部230に各種の広告に関する広告情報を出力させる。より具体的には、第2の応用例では、情報処理装置12が備える広告制御部164が広告DB185に記憶された広告情報に基づいて広告の内容を決定し、出力制御部162に決定した広告の内容を伝達し、出力制御部162が出力部230に広告を出力させる。これにより出力部230から広告が出力され、ユーザは、広告情報を認識することができる。
 第2の応用例に係る情報処理装置12は、広告を出稿する広告出稿者が、エージェントを介してユーザに広告を提示することを可能とする。例えば、情報処理装置12は、出力部230に、エージェントが発話などの表出行為を出力させることにより、当該エージェントに商品又はサービスについて紹介させることができる。紹介される内容には、さらに、エージェントの独自のコメントが付与されてもよい。また、情報処理装置12は、出力部230に、リンクを提示させたり、広告画像を提示させたりすることもできる。
 このとき、情報処理装置12が備える広告制御部164は、広告DB185に記憶された広告情報と、人格情報とに基づいて、出力部230に出力させる広告の内容を決定する。例えば、広告制御部164は、広告に付与されたメタデータ又は広告中に登場する文章を解析し、エージェントの人格範囲から逸脱する広告の内容については、出力部230に出力させないように、広告の内容を制御してもよい。また、広告制御部164は、エージェントの人格情報と、広告の内容との整合度合に応じて、当該広告の出稿頻度、出稿時間帯、又はおすすめ度を変化させてもよい。
 また、広告制御部164は、エージェントに係る原作の物語又は原作のキャラクターの設定又は背景に関連した広告が出力部230に出力されるように、広告の内容を制御してもよい。つまり、広告制御部164は、原作の物語又はキャラクターの設定又は背景に紐づいた内容が出力されるように、広告内容を制御する。
 例えば、広告制御部164は、外向性の高い人格を有するエージェントが提示される場合には、パーティなど他人と交流するイベント、又は能力を向上するための広告が提示されるように、広告の内容を制御してもよい。また、誠実性の低いエージェントが提示される場合には、広告制御部164は、ギャンブル又は娯楽要素の強いイベントなど享楽的に広告が提示されるように、広告の内容を制御してもよい。なお、この場合には、出力部230により提示される広告の内容が法に触れないように、広告制御部164は、出力される広告の内容に一定の制限をかけてもよい。
 また、人格情報が、原作におけるセリフに基づいて生成されている場合がある。この場合、人格情報において、ある名詞(例えば、食べ物の名前など)がネガティブな意味又は「嫌悪」などの言葉と紐づけられている場合には、広告制御部164は、当該名詞に関する広告を当該人格情報に対応するエージェントにさせないように、広告の内容を制御してもよい。例えば、エージェントの原作キャラクターが特定の食べ物を嫌っているセリフを発している場合には、広告制御部164は、当該エージェントに当該食べ物の広告をさせないように、広告の内容を制御してもよい。
<<3.3.第3の応用例(場所・イベントに応じたサービス)>>
 次に、第3の応用例について説明する。第3の応用例に係る情報処理装置10は、図2に示した情報処理装置10と実質的に同一の構成を有する。第3の応用例では、情報処理装置10は、場所又はイベントに関するサービスを、出力部230を介して提供する。
 行為制御部161は、エージェントの人格情報に基づいて、当該エージェントが、当該エージェント又はユーザ等に関連する場所に連動する行為を行うように、表出行為を制御する。例えば、行為制御部161は、エージェントの出身地など、エージェントに関する場所を表す場所情報に基づいて、表出行為を制御する。これにより、エージェントは、よりエージェントの個性との整合度合が高い表出行為を行うことができる。
 また、行為制御部161は、ユーザにエージェントに関連する場所に関する行為を推薦するように、エージェントの表出行為を制御してもよい。例えば、行為制御部161は、エージェントが、当該エージェントに関連する場所における聖地巡り又は当該場所のご当地巡り等を推薦するように、表出行為を制御する。これにより、ユーザは、エージェントの個性に応じた表出行為を、より楽しむことができる。
 また、行為制御部161は、エージェントが、当該エージェントの人格に応じた場所を推薦するように、表出行為を制御してもよい。例えば、エージェントが外向性の高い人格を有している場合には、行為制御部161は、当該エージェントが、多くの人が集まる場所又はイベントをユーザに推薦するように、表出行為を制御してもよい。また、行為制御部161は、エージェントが神経質傾向の高い人格を有している場合には、当該エージェントが慎重なルートを推薦するように、表出行為を制御してもよい。
<<3.4.第4の応用例(シチュエーションに応じたサービス)>>
 次に、第4の応用例について、図15を参照して説明する。図15は第4の応用例に係る情報処理システム4が備える情報処理装置13及びユーザ端末20の構成を示すブロック図である。
 第4の応用例では、人格情報記憶部123は、複数のエージェントの各々に関する人格情報を記憶している。つまり、人格情報記憶部123は、複数のエージェントの各々に関する基本情報、個性情報、及びエージェント履歴情報を記憶している。図15に示す情報処理装置13は、図2に示した情報処理装置10が備える機能部に加えて、選択部191を備える。選択部191は、人格情報に基づいて、複数のエージェントから少なくとも1以上のエージェントを選択する機能を有する。また、候補生成部150は、当該選択されたエージェントの行為候補生成し、行為制御部161は、当該選択されたエージェントの表出行為を制御する。これにより、複数のエージェントが存在する場合であっても、人格情報に基づいて、適切なエージェントを選択することができる。
 また、選択部191は、シチュエーションに応じて、複数のエージェントから提示するエージェントを選択する。より具体的には、選択部191は、ユーザに提供されるサービスに関する情報に基づいて、エージェントを選択してもよい。例えば、ユーザにニュースを提示するサービスが行われる場合には、選択部191は、秀才タイプの人格を有するエージェントを選択する。このようにサービスに応じた適切なエージェントが選択されることにより、サービスの質が高められる。
<<3.5.第5の応用例(スクリプトの監修)>>
 次に、第5の応用例について説明する。第5の応用例では、エージェントによる発話などの表出行為がユーザ端末20の出力部230に出力されず、スクリプト(例えば、台本等)で管理される。より具体的には、図16を参照して、第5の応用例について説明する。図16は、第5の応用例において、情報処理装置10が実施する処理例を示すフローチャート図である。以下、図16のフローチャートに沿って説明する。
 まず、人格情報が生成される(ステップS901)。例えば、図7~図12を参照して説明した人格情報の生成方法により、人格情報が生成されてもよい。
 次に、表出行為の内容を表すスクリプトのドラフトが、人格情報に基づいて、修正される(ステップS903)。例えば、候補生成部150と同一の機能を有する機能部が、人格情報に基づいて行為候補を生成し、行為制御部161と同一の機能を有する機能部が、行為候補を人格情報に基づいて修正してもよい。
 次に、ステップS903の修正結果が最終確認される(ステップS905)。例えば、当該修正結果は、キャラクターの原作者により最終確認される。
 以上、第5の応用例について説明した。第5の応用例によれば、原作者がスクリプトのドラフトを確認される前に、人格情報に基づいて当該ドラフトが修正される。原作者は、当該修正されたドラフトを最終確認すればよいので、ドラフトを確認する負担が軽減される。
<<3.6.その他の応用例>>
 本開示の実施形態に係るその他の応用例について説明する。例えば、ユーザにニュースを提示するサービスが提供される場合には、行為制御部161は、エージェントが読み上げるニュースの内容を、当該エージェントの人格情報に応じて、変更してもよい。
 また、情報処理装置10には、定期的にエージェントに関する人格情報が送信されてもよい。例えば、情報処理装置10に、日々異なるエージェントに関する人格情報が送信されてもよい。これにより、情報処理装置10は、日々異なるエージェントをユーザに提示することが可能になる。
 また、情報処理装置10は、ユーザ端末20にエージェントによる電話対応の代理をするサービスを提供してもよい。この場合、行為制御部161は、人格情報に応じて、エージェントによる電話応対の仕方が異なるように、当該エージェントの表出行為を制御してもよい。
 情報処理装置10は、各種のコンテンツを推薦する内容をユーザに提示してもよい。当該コンテンツは、例えば、音楽、本、映画、テレビ番組、又は料理レシピ等であってもよい。この場合、提示されるコンテンツの内容は、エージェントの性格又は当該エージェントの原作における設定に基づいて、決定されてもよい。例えば、料理レシピが推薦される場合には、当該推薦を行うエージェントの性格に応じた気分などが、当該料理レシピに反映されてもよい。
 情報処理装置10は、出力部230に、人格情報に基づいて、日々当該エージェントにひとこと発話させてもよい。行為制御部161は、その日の天気又はイベントなどに関連する表出行為をエージェントがするように、表出行為を制御してもよい。例えば、行為制御部161は、エージェントがユーザのスケジュールを提示するように、表出行為を制御してもよい。より具体的には、行為制御部161は、協調性の高いエージェントには、友人とのスケジュールを厚めに提示するように、当該エージェントの表出行為を制御してもよい。
<4.ハードウェア構成>
 続いて、図17を参照しながら、本開示の一実施形態に係る情報処理システム1を構成する情報処理装置10のハードウェア構成の一例について、詳細に説明する。図17は、本開示の一実施形態に係る情報処理システム1を構成する情報処理装置10のハードウェア構成の一例を示す機能ブロック図である。
 本実施形態に係る情報処理システム1を構成する情報処理装置10は、主に、CPU601と、ROM602と、RAM603と、を備える。また、情報処理装置10は、更に、ホストバス604と、ブリッジ605と、外部バス606と、インタフェース607と、入力装置608と、出力装置609と、ストレージ装置610と、ドライブ612と、接続ポート614と、通信装置616とを備える。
 CPU601は、演算処理装置及び制御装置として機能し、ROM602、RAM603、ストレージ装置610又はリムーバブル記録媒体613に記録された各種プログラムに従って、情報処理装置10内の動作全般又はその一部を制御する。ROM602は、CPU601が使用するプログラムや演算パラメータ等を記憶する。RAM603は、CPU601が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるホストバス604により相互に接続されている。例えば、図2に示す候補生成部150、行為制御部161、及び出力制御部162は、CPU601により構成され得る。
 ホストバス604は、ブリッジ605を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス606に接続されている。また、外部バス606には、インタフェース607を介して、入力装置608、出力装置609、ストレージ装置610、ドライブ612、接続ポート614及び通信装置616が接続される。
 入力装置608は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、レバー及びペダル等、ユーザが操作する操作手段である。また、入力装置608は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、情報処理装置10の操作に対応した携帯電話やPDA等の外部接続機器615であってもよい。さらに、入力装置608は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU601に出力する入力制御回路などから構成されている。情報処理装置10のユーザは、この入力装置608を操作することにより、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりすることができる。
 出力装置609は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置609は、例えば、情報処理装置10が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置10が行った各種処理により得られた結果を、テキスト又はイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。
 ストレージ装置610は、情報処理装置10の記憶部120の一例として構成されたデータ格納用の装置である。ストレージ装置610は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により構成される。このストレージ装置610は、CPU601が実行するプログラムや各種データ等を格納する。例えば、図2に示す記憶部120は、ストレージ装置610により構成され得る。
 ドライブ612は、記録媒体用リーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ612は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体613に記録されている情報を読み出して、RAM603に出力する。また、ドライブ612は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体613に記録を書き込むことも可能である。リムーバブル記録媒体613は、例えば、DVDメディア、HD-DVDメディア又はBlu-ray(登録商標)メディア等である。また、リムーバブル記録媒体613は、コンパクトフラッシュ(登録商標)(CF:CompactFlash)、フラッシュメモリ又はSDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体613は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)又は電子機器等であってもよい。
 接続ポート614は、情報処理装置10に直接接続するためのポートである。接続ポート614の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート等がある。接続ポート614の別の例として、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポート等がある。この接続ポート614に外部接続機器615を接続することで、情報処理装置10は、外部接続機器615から直接各種のデータを取得したり、外部接続機器615に各種のデータを提供したりする。
 通信装置616は、例えば、通信網(ネットワーク)617に接続するための通信デバイス等で構成された通信インタフェースである。通信装置616は、例えば、有線若しくは無線LAN(Local Area Network)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置616は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置616は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置616に接続される通信網617は、有線又は無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信又は衛星通信等であってもよい。
 以上、本開示の実施形態に係る情報処理システム1を構成する情報処理装置10の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。なお、図17では図示しないが、情報処理システム1を構成する情報処理装置10に対応する各種の構成を当然備える。
 なお、上述のような本実施形態に係る情報処理システム1を構成する情報処理装置10の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。また、当該コンピュータプログラムを実行させるコンピュータの数は特に限定されない。例えば、当該コンピュータプログラムを、複数のコンピュータ(例えば、複数のサーバ等)が互いに連携して実行してもよい。
<5.補足>
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、情報処理装置10及びユーザ端末20が備える構成は、図2又は図13~15に示した例に限られない。情報処理装置10及びユーザ端末20が備える各機能部は、適宜、情報処理装置10及びユーザ端末20に設けられる。例えば、上記の実施形態において情報処理装置10が備えるユーザ情報記憶部122は、ユーザ端末20に設けられてもよい。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 ユーザに関するユーザ情報を記憶するユーザ情報記憶部と、
 エージェントに固有の人格を規定する人格情報を記憶する人格情報記憶部と、
 前記エージェントが表出する行為である表出行為を、前記人格情報に基づいて、制御する制御部と、
 を備える、情報処理システム。
(2)
 前記人格情報は、前記ユーザ情報の変化に影響を受けない、
 前記(1)に記載の情報処理システム。
(3)
 前記人格情報は、前記エージェントに関する原案に基づいて規定される情報である、
 前記(1)又は(2)に記載の情報処理システム。
(4)
 前記人格情報は、前記エージェントの基本的な人格を規定する基本情報と、前記エージェントの個性を規定する個性情報と、を含む、
 前記(1)~(3)のいずれか1項に記載の情報処理システム。
(5)
 前記制御部は、前記基本情報に基づいて生成された前記表出行為の候補である行為候補と、前記個性情報と、の整合度合に応じて、前記行為候補を前記表出行為とするか否かを判定することにより、前記エージェントによる表出行為を制御する、
 前記(4)に記載の情報処理システム。
(6)
 前記人格情報を新たな新規人格情報に更新する更新部を、更に備え、
 前記制御部は、前記新規人格情報に基づいて、前記エージェントによる表出行為を制御する、
 前記(1)~(5)のいずれか1項に記載の情報処理システム。
(7)
 前記更新部は、前記人格情報について、流行に関する情報を更新する、
 前記(6)に記載の情報処理システム。
(8)
 前記人格情報は、前記エージェントが行い得る行為に関する行為情報を含み、
 前記更新部は、前記行為情報を更新する、
 前記(6)又は(7)に記載の情報処理システム。
(9)
 前記人格情報は、前記エージェントが発し得る言葉に関する言葉情報を含み、
 前記更新部は、前記言葉情報を更新する、
 前記(8)に記載の情報処理システム。
(10)
 前記更新部は、前記エージェントの状況に関する状況情報の変化をきっかけに、前記人格情報を、変化後の前記状況情報に応じた前記新規人格情報に更新する、
 前記(6)~(9)のいずれか1項に記載の情報処理システム。
(11)
 前記状況情報は、前記エージェントの成長段階に関する成長情報を含み、
 前記更新部は、前記成長情報の変化をきっかけに、前記人格情報を、変化後の前記成長情報に応じた前記新規人格情報に更新する、
 前記(10)に記載の情報処理システム。
(12)
 前記更新部は、前記人格情報に前記エージェントの新たな人格を規定する付加情報を付加することにより、前記人格情報を更新する、
 前記(6)~(11)のいずれか1項に記載の情報処理システム。
(13)
 前記更新部は、前記ユーザが参加するイベントに関するイベント情報に応じて、前記人格情報を更新する、
 前記(6)~(12)のいずれか1項に記載の情報処理システム。
(14)
 前記人格情報は、前記エージェントに関する場所を表す場所情報を含み、
 前記制御部は、前記場所情報に基づいて、前記表出行為を制御する、
 前記(1)~(13)のいずれか1項に記載の情報処理システム。
(15)
 前記制御部は、前記エージェントが、前記ユーザに前記場所に関する行為を推薦するように、前記表出行為を制御する、
 前記(14)に記載の情報処理システム。
(16)
 前記人格情報記憶部は、複数の前記エージェントの各々に関する人格情報を記憶し、
 複数の前記人格情報に基づいて、複数の前記エージェントから少なくとも1以上の前記エージェントを選択する選択部を、更に備え、
 前記制御部は、選択された前記エージェントに関する前記人格情報に基づいて、選択された前記エージェントの表出行為を制御する、
 前記(1)~(15)のいずれか1項に記載の情報処理システム。
(17)
 前記選択部は、複数の前記エージェントの各々に関する前記人格情報と、前記ユーザに提供されるサービスに関する情報と、の関係に基づいて、前記エージェントを選択する、
 前記(16)に記載の情報処理システム。
(18)
 前記制御部は、制御された前記表出行為をスクリプトの形式で前記ユーザに出力させる、
 前記(1)~(17)のいずれか1項に記載の情報処理システム。
(19)
 メモリが、
 ユーザに関するユーザ情報を記憶することと、
 エージェントに固有の人格を規定する人格情報を記憶することと、
 プロセッサが、
 前記人格情報に基づいて、前記エージェントによる表出する行為である表出行為を制御することと、
 を含む、情報処理方法。
(20)
 コンピュータを、
 ユーザに関するユーザ情報を記憶するユーザ情報記憶部と、
 エージェントに固有の人格を規定する人格情報を記憶する人格情報記憶部と、
 前記人格情報に基づいて、前記エージェントによる表出する行為である表出行為を制御する制御部と、
 を備える、情報処理装置として機能させる、プログラム。
 10、11、12、13   情報処理装置
  120          記憶部
   122         ユーザ情報記憶部
   123         人格情報記憶部
    127        基本情報記憶部
    128        個性情報記憶部
  150          候補生成部
  160          制御部
   161         行為制御部
   162         出力制御部
   164         広告制御部
  190          更新部
   191          選択部
 20            ユーザ端末
  220          入力部
  230          出力部

Claims (20)

  1.  ユーザに関するユーザ情報を記憶するユーザ情報記憶部と、
     エージェントに固有の人格を規定する人格情報を記憶する人格情報記憶部と、
     前記エージェントが表出する行為である表出行為を、前記人格情報に基づいて、制御する制御部と、
     を備える、情報処理システム。
  2.  前記人格情報は、前記ユーザ情報の変化に影響を受けない、
     請求項1に記載の情報処理システム。
  3.  前記人格情報は、前記エージェントに関する原案に基づいて規定される情報である、
     請求項1に記載の情報処理システム。
  4.  前記人格情報は、前記エージェントが一般的に実施する前記表出行為を規定する基本情報と、前記エージェントの個性を規定する個性情報と、を含む、
     請求項1に記載の情報処理システム。
  5.  前記制御部は、前記基本情報に基づいて生成された前記表出行為の候補である行為候補と、前記個性情報と、の整合度合に応じて、前記行為候補を前記表出行為とするか否かを判定することにより、前記エージェントによる表出行為を制御する、
     請求項4に記載の情報処理システム。
  6.  前記人格情報を新たな新規人格情報に更新する更新部を、更に備え、
     前記制御部は、前記新規人格情報に基づいて、前記エージェントによる表出行為を制御する、
     請求項1に記載の情報処理システム。
  7.  前記更新部は、前記人格情報について、流行に関する情報を更新する、
     請求項6に記載の情報処理システム。
  8.  前記人格情報は、前記エージェントが行い得る行為に関する行為情報を含み、
     前記更新部は、前記行為情報を更新する、
     請求項6に記載の情報処理システム。
  9.  前記人格情報は、前記エージェントが発し得る言葉に関する言葉情報を含み、
     前記更新部は、前記言葉情報を更新する、
     請求項8に記載の情報処理システム。
  10.  前記更新部は、前記エージェントの状況に関する状況情報の変化をきっかけに、前記人格情報を、変化後の前記状況情報に応じた前記新規人格情報に更新する、
     請求項6に記載の情報処理システム。
  11.  前記状況情報は、前記エージェントの成長段階に関する成長情報を含み、
     前記更新部は、前記成長情報の変化をきっかけに、前記人格情報を、変化後の前記成長情報に応じた前記新規人格情報に更新する、
     請求項10に記載の情報処理システム。
  12.  前記更新部は、前記人格情報に前記エージェントの新たな人格を規定する付加情報を付加することにより、前記人格情報を更新する、
     請求項6に記載の情報処理システム。
  13.  前記更新部は、前記ユーザが参加するイベントに関するイベント情報に応じて、前記人格情報を更新する、
     請求項6に記載の情報処理システム。
  14.  前記人格情報は、前記エージェントに関する場所を表す場所情報を含み、
     前記制御部は、前記場所情報に基づいて、前記表出行為を制御する、
     請求項1に記載の情報処理システム。
  15.  前記制御部は、前記エージェントが、前記ユーザに前記場所に関する行為を推薦するように、前記表出行為を制御する、
     請求項14に記載の情報処理システム。
  16.  前記人格情報記憶部は、複数の前記エージェントの各々に関する人格情報を記憶し、
     複数の前記人格情報に基づいて、複数の前記エージェントから少なくとも1以上の前記エージェントを選択する選択部を、更に備え、
     前記制御部は、選択された前記エージェントに関する前記人格情報に基づいて、選択された前記エージェントの表出行為を制御する、
     請求項1に記載の情報処理システム。
  17.  前記選択部は、複数の前記エージェントの各々に関する前記人格情報と、前記ユーザに提供されるサービスに関する情報と、の関係に基づいて、前記エージェントを選択する、
     請求項16に記載の情報処理システム。
  18.  前記制御部は、制御された前記表出行為をスクリプトの形式で前記ユーザに出力させる、
     請求項1に記載の情報処理システム。
  19.  メモリが、
     ユーザに関するユーザ情報を記憶することと、
     エージェントに固有の人格を規定する人格情報を記憶することと、
     プロセッサが、
     前記人格情報に基づいて、前記エージェントによる表出する行為である表出行為を制御することと、
     を含む、情報処理方法。
  20.  コンピュータを、
     ユーザに関するユーザ情報を記憶するユーザ情報記憶部と、
     エージェントに固有の人格を規定する人格情報を記憶する人格情報記憶部と、
     前記人格情報に基づいて、前記エージェントによる表出する行為である表出行為を制御する制御部と、
     を備える、情報処理装置として機能させる、プログラム。
PCT/JP2020/015626 2019-04-16 2020-04-07 情報処理システム、情報処理方法、及びプログラム WO2020213468A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202080026714.3A CN114341922A (zh) 2019-04-16 2020-04-07 信息处理系统、信息处理方法和程序
JP2021514891A JPWO2020213468A1 (ja) 2019-04-16 2020-04-07
US17/601,866 US20220164544A1 (en) 2019-04-16 2020-04-07 Information processing system, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-078088 2019-04-16
JP2019078088 2019-04-16

Publications (1)

Publication Number Publication Date
WO2020213468A1 true WO2020213468A1 (ja) 2020-10-22

Family

ID=72837822

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/015626 WO2020213468A1 (ja) 2019-04-16 2020-04-07 情報処理システム、情報処理方法、及びプログラム

Country Status (4)

Country Link
US (1) US20220164544A1 (ja)
JP (1) JPWO2020213468A1 (ja)
CN (1) CN114341922A (ja)
WO (1) WO2020213468A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7441365B1 (ja) 2023-09-13 2024-02-29 株式会社あかつき 情報処理システム、プログラム、情報処理方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220253609A1 (en) * 2021-02-08 2022-08-11 Disney Enterprises, Inc. Social Agent Personalized and Driven by User Intent
US20230214742A1 (en) * 2022-01-06 2023-07-06 International Business Machines Corporation Intelligent personality matching with virtual reality

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001056225A (ja) * 1999-08-17 2001-02-27 Equos Research Co Ltd エージェント装置
JP2005326670A (ja) * 2004-05-14 2005-11-24 Hiroshi Sato 移動端末装置、情報処理方法。並びにサービス提供システム。
WO2017163515A1 (ja) * 2016-03-24 2017-09-28 ソニー株式会社 情報処理システム、情報処理装置、情報処理方法、および記録媒体

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10664741B2 (en) * 2016-01-14 2020-05-26 Samsung Electronics Co., Ltd. Selecting a behavior of a virtual agent
US20180349447A1 (en) * 2017-06-02 2018-12-06 Apple Inc. Methods and systems for customizing suggestions using user-specific information
US20190122146A1 (en) * 2017-10-23 2019-04-25 Artificial Intelligence Foundation, Inc. Dynamic and Intuitive Aggregation of a Training Dataset

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001056225A (ja) * 1999-08-17 2001-02-27 Equos Research Co Ltd エージェント装置
JP2005326670A (ja) * 2004-05-14 2005-11-24 Hiroshi Sato 移動端末装置、情報処理方法。並びにサービス提供システム。
WO2017163515A1 (ja) * 2016-03-24 2017-09-28 ソニー株式会社 情報処理システム、情報処理装置、情報処理方法、および記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7441365B1 (ja) 2023-09-13 2024-02-29 株式会社あかつき 情報処理システム、プログラム、情報処理方法

Also Published As

Publication number Publication date
US20220164544A1 (en) 2022-05-26
CN114341922A (zh) 2022-04-12
JPWO2020213468A1 (ja) 2020-10-22

Similar Documents

Publication Publication Date Title
US20220284896A1 (en) Electronic personal interactive device
US20220366281A1 (en) Modeling characters that interact with users as part of a character-as-a-service implementation
WO2020213468A1 (ja) 情報処理システム、情報処理方法、及びプログラム
EP3766066B1 (en) Generating response in conversation
TWI379205B (en) Instant communication interacting system and method thereof
EP3259754B1 (en) Method and device for providing information
WO2017189559A1 (en) Multiple interactive personalities robot
US11646026B2 (en) Information processing system, and information processing method
KR20160100811A (ko) 정보 제공 방법 및 디바이스
WO2018061774A1 (ja) 情報処理システム、情報処理装置、情報処理方法、及び記憶媒体
US20190248001A1 (en) Conversation output system, conversation output method, and non-transitory recording medium
CN110442867A (zh) 图像处理方法、装置、终端及计算机存储介质
CN110524547B (zh) 会话装置、机器人、会话装置控制方法以及存储介质
CN117201706A (zh) 基于控制策略的数字人合成方法、系统、设备及介质
WO2022141142A1 (zh) 一种确定目标音视频的方法及系统
CN114115533A (zh) 智能交互方法和装置
JP2022157293A (ja) コンテンツ再生制御システム及びプログラム
JP6858721B2 (ja) コンテンツに関する対話を実施可能な対話制御装置、プログラム及び方法
Singh Analysis of Currently Open and Closed-source Software for the Creation of an AI Personal Assistant
JP6993034B1 (ja) コンテンツ再生方法、及びコンテンツ再生システム
JP7294924B2 (ja) 対話エージェントシステム
Campbell et al. Expressivity in interactive speech synthesis; some paralinguistic and nonlinguistic issues of speech prosody for conversational dialogue systems
JP2022159632A (ja) 学習方法、及びコンテンツ再生装置
JP2022157292A (ja) コンテンツ再生制御システム及びプログラム
CN117241077A (zh) 语音互动方法、装置和电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20792168

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021514891

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20792168

Country of ref document: EP

Kind code of ref document: A1