WO2018061776A1 - 情報処理システム、情報処理装置、情報処理方法、及び記憶媒体 - Google Patents

情報処理システム、情報処理装置、情報処理方法、及び記憶媒体 Download PDF

Info

Publication number
WO2018061776A1
WO2018061776A1 PCT/JP2017/033084 JP2017033084W WO2018061776A1 WO 2018061776 A1 WO2018061776 A1 WO 2018061776A1 JP 2017033084 W JP2017033084 W JP 2017033084W WO 2018061776 A1 WO2018061776 A1 WO 2018061776A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
conversion
unit
information
information processing
Prior art date
Application number
PCT/JP2017/033084
Other languages
English (en)
French (fr)
Inventor
祐紀 金子
田中 康成
政久 篠崎
久子 吉田
Original Assignee
株式会社東芝
東芝デジタルソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝, 東芝デジタルソリューションズ株式会社 filed Critical 株式会社東芝
Priority to CN201780059201.0A priority Critical patent/CN109791571A/zh
Priority to US16/336,779 priority patent/US20190228760A1/en
Publication of WO2018061776A1 publication Critical patent/WO2018061776A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Definitions

  • Embodiments described herein relate generally to an information processing system, an information processing apparatus, an information processing method, and a storage medium.
  • the problem to be solved by the present invention is to provide an information processing system, an information processing apparatus, an information processing method, and a storage medium that can achieve both versatility and diversity.
  • the information processing system includes a dialogue unit, a storage unit, and a system / user conversion unit.
  • the dialogue unit generates a statement and interacts with the user.
  • the storage unit stores conversion information indicating a conversion rule for speech.
  • the system / user conversion unit uses the conversion information stored in the storage unit to convert the utterance generated by the dialogue unit into a mode according to the user.
  • FIG. 1 is a first diagram showing an example of a response presented by the information processing system according to the embodiment.
  • FIG. 1 is a first diagram showing an example of a response presented by the information processing system according to the embodiment.
  • FIG 2 is a second diagram showing an example of a response presented by the information processing system according to the embodiment.
  • the flowchart which shows the flow of the process by the information processing system which concerns on the embodiment.
  • the block diagram which shows the structure of the response control apparatus which concerns on the same embodiment.
  • FIG. 1 is a diagram showing an outline of the information processing system 1.
  • the information processing system 1 is a system that returns comments such as opinions and options in response to user comments.
  • a message returned by the information processing system 1 in response to a user's message is referred to as a “response”.
  • the exchange between the user's utterance and the utterance generated by the information processing system 1 is referred to as “dialog”.
  • the utterance from the user input to the information processing system 1 and the response output from the information processing system 1 are not limited to voice but may be text or the like.
  • the information processing system 1 is provided with a configuration for generating a response.
  • a unit of a configuration that can generate a response independently is referred to as an “agent”.
  • the information processing system 1 includes a plurality of agents. Each agent has a different personality.
  • “individuality” refers to an element that affects the response tendency, the content of the response, the method of expressing the response, and the like.
  • the individuality of each agent is used for information used to generate a response (for example, machine learning teacher data, history information, user information, etc. described later), logical expansion in response generation, and response generation. It is determined by factors such as algorithm. Agent personalization may be performed in any manner.
  • the information processing system 1 presents responses generated by a plurality of agents having different personalities, the information processing system 1 can propose various ideas and options to the user and support the user's decision.
  • FIG. 2 is a diagram showing an outline of the filter according to the present embodiment.
  • the dialogue according to the present embodiment first, the user makes a comment such as a question (p1).
  • the agents a1, a2,... Each generate a response to the user's utterance (p2-1, p2-2,).
  • the response generated by the agent depends on the content of the user's message and does not depend on the user.
  • the system / user conversion filter lf converts the response of the agents a1, a2,... According to the user and presents it to the user (p3-1, p3-2,).
  • the system / user conversion filter lf is provided for each user.
  • the user evaluates the responses of the agents a1, a2,. This evaluation is reflected in the conversion process by the system / user conversion filter lf and the response generation process by the agents a1, a2,... (P4, p5). In this way, the information processing system 1 does not present the responses of the agents a1, a2,. Therefore, a desired response according to the user can be presented.
  • FIG. 3 is a block diagram illustrating a configuration of the information processing system 1.
  • the information processing system 1 includes a plurality of terminal devices 10-1, 10-2, ... and a response control device 30.
  • the terminal devices 10-1, 10-2,... are collectively referred to as the terminal device 10 unless otherwise specified.
  • the terminal device 10 and the response control device 30 are communicably connected via a network NW.
  • the terminal device 10 is an electronic device including a computer system. Specifically, the terminal device 10 is a personal computer, a mobile phone, a tablet, a smartphone, a PHS (Personal Handy-phone System) terminal device, a game machine, or the like. The terminal device 10 receives input from the user or presents information to the user.
  • a personal computer a mobile phone, a tablet, a smartphone, a PHS (Personal Handy-phone System) terminal device, a game machine, or the like.
  • the terminal device 10 receives input from the user or presents information to the user.
  • the response control device 30 is an electronic device including a computer system. Specifically, the response control device 30 is a server device or the like.
  • the response control device 30 implements an agent and a filter (for example, a system / user conversion filter lf).
  • an agent and a filter for example, a system / user conversion filter lf.
  • Artificial intelligence is a computer system that mimics human intelligent functions such as learning, inference, and judgment.
  • An algorithm for realizing the artificial intelligence may be arbitrary. Specifically, artificial intelligence may be realized by a neural network, case-based reasoning, or the like.
  • the terminal device 10 receives a speech input from the user.
  • the terminal device 10 transmits information indicating the user's speech to the response control device 30.
  • the response control device 30 receives information indicating the user's speech from the terminal device 10.
  • the response control device 30 refers to the information indicating the user's speech and generates information indicating the response according to the user's speech.
  • the response control device 30 converts information indicating the response using a filter, and generates information indicating the conversion result.
  • the response control device 30 transmits information indicating the conversion result to the terminal device 10.
  • the terminal device 10 receives information indicating the conversion result from the response control device 30.
  • the terminal device 10 refers to the information indicating the conversion result, and presents the converted response content by display or voice.
  • FIG. 4 is a block diagram illustrating a configuration of the terminal device 10.
  • the terminal device 10 includes a communication unit 11, an input unit 12, a display unit 13, an audio output unit 14, a storage unit 15, and a control unit 16.
  • the communication unit 11 transmits and receives various information to and from other devices connected to the network NW such as the response control device 30.
  • the communication unit 11 includes a communication IC (Integrated Circuit) and the like.
  • the input unit 12 receives input of various information.
  • the input unit 12 accepts input of speech by the user, selection of a conversation scene, and the like.
  • the input unit 12 may accept input from the user by any method such as character input, voice input, and pointing.
  • the input unit 12 includes a keyboard, a mouse, a touch sensor, a microphone, and the like.
  • the display unit 13 displays various information. For example, the display unit 13 displays the content of the user's speech, the content of the agent's response, and the like.
  • the display unit 13 includes a liquid crystal display panel, an organic EL (Electro-Luminescence) display panel, and the like.
  • the audio output unit 14 reproduces various sound sources. For example, the audio output unit 14 outputs the response contents and the like as audio.
  • the audio output unit 14 includes a speaker, a woofer, and the like.
  • the storage unit 15 stores various information.
  • the storage unit 15 stores a program that can be executed by a CPU (Central Processing Unit) included in the terminal device 10, information that is referred to by the program, and the like.
  • the storage unit 15 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
  • the control unit 16 controls various configurations included in the terminal device 10.
  • the control unit 16 is realized by a CPU included in the terminal device 10 executing a program stored in the storage unit 15.
  • the control unit 16 includes a dialogue processing unit 161.
  • the dialogue processing unit 161 controls input / output processing for dialogue.
  • the dialogue processing unit 161 executes processing for providing a user interface for dialogue.
  • the dialogue processing unit 161 controls transmission / reception of information indicating a user's remarks and information indicating a response conversion result with the response control device 30.
  • FIG. 5 is a block diagram illustrating a configuration of the response control device 30.
  • the response control device 30 includes a communication unit 31, a storage unit 32, and a control unit 33.
  • the communication unit 31 transmits / receives various information to / from other devices connected to the network NW such as the terminal device 10.
  • the communication unit 31 includes a communication IC and the like.
  • the storage unit 32 stores various information.
  • the storage unit 32 stores a program that can be executed by a CPU included in the response control device 30, information that is referred to by the program, and the like.
  • the storage unit 32 includes a ROM, a RAM, and the like.
  • the storage unit 32 includes a system / user conversion information storage unit 321, one or more agent configuration information storage units 322-1, 322-2,..., A user information storage unit 323, and a history information storage unit 324.
  • the agent configuration information storage units 322-1, 322-2,... are collectively referred to as an agent configuration information storage unit 322 unless otherwise specified.
  • the system / user conversion information storage unit 321 stores system / user conversion information.
  • the system / user conversion information is information indicating a conversion rule by the system / user conversion filter lf. That is, the system / user conversion information is an example of conversion information indicating a conversion rule for a message.
  • the system / user conversion information is set for each user and stored for each user.
  • the system / user conversion information includes information such as parameters of an activation function that varies as a result of machine learning, for example, machine learning.
  • the system / user conversion filter lf may be, for example, information that uniquely associates a response with a conversion result for the response. This association may be performed by a table or the like, or may be performed by a function or the like.
  • the agent configuration information storage unit 322 stores agent configuration information.
  • the agent configuration information is information indicating the configuration of the agent execution unit 35 described later.
  • the agent configuration information includes information such as parameters of an activation function that varies due to machine learning, for example, as a result of machine learning.
  • the agent configuration information is an example of information indicating response generation rules in dialogue.
  • the agent configuration information may be, for example, information in which a user's utterance and a response to the utterance are uniquely associated.
  • the user information is information indicating user attributes.
  • FIG. 6 is a diagram illustrating a data configuration of user information.
  • the user information includes, for example, user identification information (“user” in FIG. 6), age information (“age” in FIG. 6), gender information (“sex” in FIG. 6), and preference information (“Gender” in FIG. 6). “Preferences”) and user personality information (“personality” in FIG. 6) are associated with each other.
  • User identification information is information for uniquely identifying a user.
  • Age information is information indicating the age of the user.
  • Gender information is information indicating the gender of the user.
  • the preference information is information indicating the user's preference.
  • the user personality information is information indicating the personality of the user.
  • the user is associated with the attribute.
  • the user information indicates the individuality of the user. Therefore, the terminal device 10 and the response control device 30 can confirm the individuality of the user by referring to the user information.
  • the history information storage unit 324 stores history information.
  • the history information is information indicating a history of dialogue between the user and the information processing system 1.
  • the history information may be managed for each user.
  • FIG. 7 is a diagram illustrating a data configuration of history information.
  • the history information associates topic identification information (“topic” in FIG. 7), positive keyword information (“positive keyword” in FIG. 7), and negative keyword information (“negative keyword” in FIG. 7) with each other. Information.
  • Topic identification information is information for uniquely identifying conversations.
  • the positive keyword information is information indicating a keyword for which the user has shown a positive reaction in the dialogue.
  • the negative keyword information is information indicating a keyword for which the user has reacted negatively in the dialogue.
  • one or more positive keyword information and negative keyword information may be associated with one scene identification information.
  • the history information indicates the history of dialogue. That is, by referring to the history information, it is possible to grasp the tendency of response desired for each user from the history information. Therefore, the terminal device 10 and the response control device 30 can prevent a proposal that is difficult for the user to accept by referring to the history information, or can make a proposal that is easy for the user to accept.
  • the control unit 33 controls various configurations included in the response control device 30.
  • the control unit 33 is realized by a CPU included in the response control device 30 executing a program stored in the storage unit 32.
  • the control unit 33 includes a dialogue processing unit 331, a system / user filter unit 34, and one or more agent execution units 35-1, 35-2,.
  • the agent execution units 35-1, 35-2,... are collectively referred to as the agent execution unit 35 unless otherwise specified.
  • the dialogue processing unit 331 controls input / output processing for dialogue.
  • the dialogue processing unit 331 is configured on the response control device 30 side corresponding to the dialogue processing unit 161 of the terminal device 10.
  • the dialogue processing unit 331 controls transmission / reception of information indicating a user's speech and information indicating a conversion result of a response with the terminal device 10.
  • the dialogue processing unit 331 manages history information. For example, when a positive statement is included in the user's statement in the dialogue, the dialogue processing unit 331 specifies the keyword of the user's statement or the response keyword corresponding to the statement, and registers the keyword in the positive keyword information To do. For example, when a negative message is included in the user's message, the dialogue processing unit 331 identifies the keyword of the user's message or the response keyword corresponding to the message and registers it in the negative keyword information. As described above, the dialogue processing unit 331 may add, edit, and delete history information in accordance with the data configuration of the history information.
  • the system / user filter unit 34 functions as a system / user conversion filter lf.
  • the system / user filter unit 34 functions as a system / user conversion filter lf for each user.
  • the system / user filter unit 34 may perform processing with reference to information related to the user such as user information and history information.
  • the system / user filter unit 34 includes a system / user conversion unit 341 and a system / user conversion learning unit 342.
  • the system / user conversion unit 341 converts the response generated by the agent execution unit 35 based on the system / user conversion information.
  • the conversion of the response may be performed by concealing, replacing, derivation of the response content, changing the expression method, or the like.
  • the concealment of the response content is not presenting part or all of the response content.
  • the replacement is to replace the response content with another wording.
  • Deriving means generating another statement derived from the response content.
  • Changing the expression method means changing the style of the response, nuance, etc. without changing the substantial content of the response.
  • the change in expression method includes a change in the tone of the agent.
  • the system / user conversion learning unit 342 performs machine learning for realizing the function of the system / user conversion filter lf.
  • the system / user conversion learning unit 342 can execute two types of machine learning, that is, machine learning performed before the start of use by the user and machine learning based on user evaluation in a dialog.
  • the result of machine learning by the system / user conversion learning unit 342 is reflected in the system / user conversion information.
  • “evaluation” is described as an index representing the accuracy and accuracy of response for the user.
  • Teacher data used for machine learning by the system / user conversion learning unit 342 includes a response (for example, p2-1, p2-2, etc. shown in FIG. 2) and a conversion result (for example, p3-1, p3 shown in FIG.
  • User information and history information may be associated with the teacher data.
  • the evaluation may be a true or false binary value or a value of three or more levels. By repeating machine learning using such teacher data, the system / user conversion unit 341 can convert the response into a mode according to the user.
  • the system / user conversion learning unit 342 may perform machine learning based on user evaluation in a dialogue for each user. That is, the system / user conversion information may be stored for each user. Hereinafter, as an example, a case where machine learning is performed for each user will be described. In this case, the evaluation of the conversion result of the response to a certain user's utterance is reflected only in the user's system / user conversion information. By performing such machine learning, the system / user conversion unit 341 can convert the agent response into a desirable mode for each user.
  • the agent execution units 35-1, 35-2,... Function as different agents (for example, agents a1, a2,... Shown in FIG. 2).
  • the agent execution units 35-1, 35-2,... are realized based on the agent configuration information stored in the agent configuration information storage units 322-1, 322-2,.
  • the agent execution units 35-1, 35-2,... include dialogue units 351-1, 351-2,... And agent learning units 352-1, 352-2,.
  • the dialogue units 351-1, 351-2,... are collectively referred to as the dialogue unit 351.
  • agent learning units 352-1, 352-2,... are collectively referred to as agent learning unit 352.
  • the agent execution unit 35 is restricted from referring to information related to a user such as user information and history information.
  • the dialogue unit 351 generates an agent response to the user's utterance.
  • the agent learning unit 352 performs machine learning for realizing the function of the agent execution unit 35.
  • the agent learning unit 352 can execute two types of machine learning, that is, machine learning performed before the start of use by the user and machine learning based on user evaluation in the dialog. The result of machine learning by the agent learning unit 352 is reflected in the agent configuration information.
  • Teacher data used for machine learning by the agent learning unit 352 includes a user's utterance (eg, p1 shown in FIG. 2), a response (eg, p2-1, p2-2 shown in FIG. 2), an evaluation, and the like. , Are associated with each other.
  • This teacher data is data in which a user's speech (for example, p1 shown in FIG. 2), a response conversion result (for example, p3-1, p3-2, etc. shown in FIG. 2), and an evaluation are associated with each other. It may be.
  • the agent learning unit 352 may use, as teacher data, a response made by another agent execution unit 35 that is not the agent execution unit 35 including the agent learning unit 352. By repeating learning using such teacher data, the dialogue unit 351 can generate a response according to the user's statement.
  • This teacher data may be associated with user information or history information.
  • the agent learning unit 352 uses machine data that does not associate user information and history information. A case where learning is performed will be described.
  • the dialogue unit 351 can generate a response that is purely dependent on the content of the message, not the user. That is, the agent execution unit 35 can have a general-purpose configuration common to the users.
  • FIG. 8 is a flowchart showing the flow of processing by the information processing system 1.
  • the terminal device 10 receives a user's statement. Thereafter, the information processing system 1 advances the processing to step S102.
  • the response control device 30 generates a response of each agent in response to the user's message received in step S100 based on the agent configuration information. Thereafter, the information processing system 1 advances the processing to step S104.
  • Step S104 The response control device 30 converts the response generated in step S102 based on user information, history information, system / user conversion information, and the like.
  • the terminal device 10 presents the user's utterance and the conversion result of the response generated according to the utterance to the user. Thereafter, the information processing system 1 advances the processing to step S106.
  • Step S106 The response control device 30 performs machine learning of the system / user conversion filter lf and the agent based on the interaction result.
  • the dialogue result is a generalization of the user's reaction and dialogue with respect to the presented conversion result, and indicates evaluation with respect to the system / user conversion filter lf and the agent.
  • the dialog result may be for the entire dialog or for individual responses. Thereafter, the information processing system 1 ends the process shown in FIG.
  • the user's evaluation (dialogue result) for machine learning in step S106 may be specified from the user's speech or may be input by the user after the dialogue.
  • the evaluation may be input as a binary value of affirmation and negative, may be input as a value of three or more levels, or may be converted from a natural sentence to a value.
  • the evaluation may be performed based on the characteristics of the dialogue. For example, the number of user utterances, the number of responses, the length of the dialogue, etc. in the dialogue indicates that the dialogue was active. Therefore, the number of user utterances, the number of responses, and the length of the dialogue in the dialogue may be used as evaluation indexes.
  • the evaluation target in the case of evaluating the filter may be the system / user conversion filter lf of the user who has performed the evaluation, or the system / user conversion filter lf of the user having the same attribute as the user who has performed the evaluation. May be.
  • the evaluation target when evaluating agents may be all agents or a part of agents. For example, the evaluation of the entire dialogue may be reflected in the system / user conversion filter lf of the user who performed the evaluation, the system / user conversion filter lf of the user having the same attribute as the user, all the agents who participated in the dialogue, and the like.
  • the evaluation of the response may be reflected in the system / user conversion filter lf of the user who performed the evaluation, the system / user conversion filter lf of the same user as the attribute of the user concerned, or only in the agent who made the response. May be.
  • FIGS. 9 and 10 are diagrams illustrating examples of presentation of responses by the information processing system 1.
  • the medical consultation that “there is a chest grip” is performed by the user.
  • the user is a medical staff
  • the user is a company employee. Medical personnel are required to provide accurate medical information. Therefore, in the example shown in FIG. 9, the filter presents the responses of the agents a1 and a2 as they are without any conversion.
  • the filter converts a response that indicates the presence or absence of stress by the agent a ⁇ b> 1 into a response that presents a stress relieving method.
  • the filter converts the response indicating the possibility of the disease by the agent a2 into a response that hides a part of the disease name and presents a countermeasure.
  • the information processing system 1 (an example of an information processing system) includes a dialogue unit 351 (an example of a dialogue unit), a storage unit 32 (an example of a storage unit), and a system / user filter unit 34 (system / An example of a user conversion unit).
  • the dialogue unit 351 generates a response (an example of a statement) and interacts with the user.
  • the storage unit 32 stores system / user conversion information (an example of conversion information) indicating a conversion rule for speech.
  • the system / user filter unit 34 uses the system / user conversion information stored in the storage unit 32 to convert the utterance generated by the dialogue unit 351 into a mode according to the user.
  • the response generated by the dialogue unit 351 is converted into a mode according to the user by the system / user filter unit 34. For example, even if the response generated by the dialogue unit 351 includes content that makes the user feel uncomfortable or information that is not desired to be presented to the user, the response is converted to reduce the discomfort. , Or suppress the presentation of information. For example, the response generated by the dialogue unit 351 is converted into a polite expression or converted into a bulleted expression, thereby making it easier for the user to accept or confirm. Therefore, the information processing system 1 can make a response according to the user. The information processing system 1 separates the generation of the response and the conversion of the response from the user. Therefore, the response generation is not dependent on the user, ensuring versatility, and the response conversion is performed by the user. Diversity can be secured by relying on That is, the information processing system 1 can achieve both versatility and diversity.
  • the storage unit 32 stores system / user conversion information for each user.
  • the system / user filter unit 34 uses the system / user conversion information (an example of the conversion information) for each user stored in the storage unit 32 to convert the message generated by the dialogue unit 351 into a mode according to the user.
  • the response generated by the dialogue unit 351 is converted into a mode according to the user using the system / user conversion information for each user. That is, the response is converted according to a conversion rule dedicated to each user. Therefore, the information processing system 1 can easily perform conversion suitable for individual users having different personalities. Therefore, the information processing system 1 can make a response according to the user.
  • the information processing system 1A (not shown) according to the second embodiment is a system that converts and presents a response by an agent. However, the information processing system 1A is different in that the user's speech is converted.
  • FIG. 11 is a diagram illustrating an outline of a filter according to the present embodiment.
  • the user makes a comment such as a question (p′1).
  • the user / system conversion filter uf converts the user's speech and outputs it to each agent a1, a2,... (P′2).
  • the user / system conversion filter uf may be provided for each user or may be common among the users.
  • the agents a1, a2,... Each generate a response to the user's utterance (p′3-1, p′3-2,). In this conversion, for example, deletion of personal information or correction of expression is performed.
  • the system / user conversion filter lf converts the response of the agents a1, a2,... According to the user and presents it to the user (p′4-1, p′4-2,).
  • the user evaluates the responses of the agents a1, a2,. This evaluation is reflected in conversion processing by the user / system conversion filter uf, conversion processing by the system / user conversion filter lf, and response generation processing by the agents a1, a2,... (P′5, p′6, p ′). 7).
  • the information processing system 1A does not output the user's remarks as they are to the agents a1, a2,. Therefore, for example, the personal information of the user is learned by the agents a1, a2,..., And is prevented from being used when responding to other users, or the agent a1, a2,. It is possible to improve the accuracy of response by.
  • the information processing system 1A includes a response control device 30A instead of the response control device 30 included in the information processing system 1.
  • FIG. 12 is a block diagram showing a configuration of the response control device 30A.
  • the storage unit 32 of the response control device 30A includes a user / system conversion information storage unit 325A.
  • the control unit 33 of the response control device 30A includes a user / system filter unit 36A.
  • the user / system conversion information storage unit 325A stores user / system conversion information.
  • the user / system conversion information is information indicating a conversion rule by the user / system conversion filter uf. That is, the user / system conversion information is an example of conversion information indicating a conversion rule for speech.
  • the user / system conversion information includes information such as parameters of an activation function that varies as a result of machine learning, for example, machine learning.
  • the user / system conversion filter uf may be, for example, information that uniquely associates a speech and a conversion result for the speech. This association may be performed by a table or the like, or may be performed by a function or the like.
  • the user / system filter unit 36A functions as a user / system conversion filter uf.
  • the user / system filter unit 36A includes a user / system conversion unit 361A and a user / system conversion learning unit 362A.
  • the user / system conversion unit 361A converts the user's utterance based on the user / system conversion information.
  • the conversion of the user's speech may be performed by concealing, replacing, deriving, or changing the expression method of the speech content.
  • Concealment of the content of a statement means not to present part or all of the content of a statement.
  • Replacing means replacing the content of a statement with another wording.
  • Derivation is the generation of another statement derived from the content of the statement.
  • Changing the expression method means changing the style of the utterance, nuance, etc. without changing the substantial content of the utterance.
  • the change of the expression method includes morphological analysis of the words constituting the utterance, showing the result together, shortening the utterance content, and the like. That is, it is possible to eliminate the habit of saying the user.
  • the user / system conversion learning unit 362 performs machine learning for realizing the function of the user / system conversion filter uf.
  • the user / system conversion learning unit 362 can execute two types of machine learning, that is, machine learning that is performed before the start of use by the user and machine learning that is performed by user evaluation in a dialog.
  • the result of machine learning by the user / system conversion learning unit 362 is reflected in the user / system conversion information.
  • the teacher data used for machine learning by the user / system conversion learning unit 362 includes statements (for example, p′1 illustrated in FIG. 11), conversion results (for example, p′2 illustrated in FIG. 11), and evaluation.
  • the associated data may be a true or false binary value or a value of three or more levels. By repeating learning using such teacher data, the user / system conversion unit 361A can convert a user's speech.
  • FIG. 13 is a flowchart showing the flow of processing by the information processing system 1A. Steps S100, S102, and S104 shown in FIG. 13 are the same as steps S100, S102, and S104 shown in FIG. (Step SA101) After step S100, the response control device 30A converts the user's remarks received in step S100 based on user information, history information, user / system conversion information, and the like. Thereafter, the information processing system 1A advances the process to step S102.
  • Step SA106 After step S104, the response control device 30A performs machine learning of the user / system conversion filter uf, the system / user conversion filter lf, and the agent based on the interaction result.
  • the interaction result is a user's reaction to the presented conversion result, and indicates an evaluation with respect to the user / system conversion filter uf, the system / user conversion filter lf, and the agent. Thereafter, the information processing system 1A ends the process illustrated in FIG.
  • the user / system conversion filter uf may control learning by the system / user conversion filter lf and the agent. For example, the user / system conversion filter uf selects (determines) the system / user conversion filter lf and the agent that perform machine learning, and only the system / user conversion filter lf and the agent that performs machine learning perform the user learning. Evaluation (dialogue result) may be notified. On the other hand, the user / system conversion filter uf does not notify the user evaluation to the system / user conversion filter lf and the agent that do not perform machine learning.
  • the evaluation performed due to the conversion is made to be learned only by the system / user conversion filter lf. Good.
  • the user's reaction is related to the response content that does not change before and after the conversion by the system / user conversion filter lf, for the evaluation performed without causing the conversion, only the agent learns. It's okay.
  • the agent to be learned may be selected according to the relationship between the user and the agent, the agent attribute, and the like.
  • the relationship between the user and the agent for example, the history of evaluation of each agent by the user is managed.
  • the learning may be performed only for an agent who has obtained a higher evaluation, that is, an agent having a good compatibility with the user.
  • the attribute of the agent for example, the learning may be performed only for the agent having the same attribute as the agent that made the response evaluated by the user.
  • Agent attributes may be managed by setting in advance information indicating the attributes for each agent.
  • a category for example, a category, personality, or the like may be set.
  • a category is a classification of agents, for example, a specialized field of agents in dialogue.
  • Personality is the tendency of responses such as aggressiveness and emotional expression.
  • Control of learning of the system / user conversion filter lf and the agent may be performed by a configuration different from the user / system conversion filter uf, such as the dialogue processing unit 331, for example.
  • the information processing system 1A (an example of an information processing system) includes the dialogue processing unit 331 (an example of a reception unit) and a user / system filter unit 36A (an example of a user / system conversion unit). .
  • the dialogue processing unit 331 receives a comment from the user.
  • the user / system filter unit 36 ⁇ / b> A converts the message received by the dialogue processing unit 331 into a mode corresponding to the dialogue unit 351.
  • the user's remarks are converted into a mode corresponding to the dialogue unit 351.
  • the personal information is deleted.
  • the expression of the user's utterance is unsuitable for processing by the dialogue unit 351, it is converted into a mode suitable for the processing by the dialogue unit 351. Therefore, the information processing system 1 can protect personal information and generate an appropriate response.
  • the information processing system 1A (an example of an information processing system) includes a system / user filter unit 34 (an example of a system / user conversion unit) and a user / system filter unit 36A (an example of a first determination unit).
  • the system / user filter unit 34 performs conversion based on machine learning.
  • the user / system filter unit 36A determines whether or not to perform the machine learning.
  • the system / user filter unit 34 performs only necessary machine learning. Therefore, the information processing system 1A can improve the accuracy of conversion.
  • the information processing system 1A (an example of an information processing system) includes a plurality of agent execution units 35 (an example of a dialogue unit) and a user / system filter unit 36A (also an example of a second determination unit).
  • the agent execution unit 35 generates a statement based on machine learning.
  • the user / system filter unit 36 ⁇ / b> A selects the agent execution unit 35 that performs machine learning among the plurality of agent execution units 35.
  • the information processing system 1A narrows down the agent execution unit 35 that performs machine learning.
  • the responses of the agent execution units 35 may be homogenized.
  • the information processing system 1A selects the machine learning target, the individuality of the individual agent execution unit 35 can be maintained, and both versatility and diversity of responses can be achieved.
  • the information processing system 1A can improve the accuracy of responses to users with similar personalities, for example, by setting a machine learning target as an agent compatible with the user.
  • An information processing system 1B (not shown) according to the third embodiment is a system that converts and presents a response by an agent, as in the information processing system 1.
  • the information processing system 1B is different in that it includes a plurality of system / user conversion filters.
  • FIG. 14 is a diagram illustrating an outline of a filter according to the present embodiment.
  • a case where three system / user conversion filters lf1, lf2, and lf3 are provided will be described.
  • the individual system / user conversion filters lf1, lf2, and lf3 are not distinguished, they are collectively referred to as a system / user conversion filter lf.
  • the user first utters a question or the like (p ′′ 1), and then the agents a1, a2,... Each generate a response to the user's utterance (p ′′ 2-
  • the first system / user conversion filter lf1 converts the response of the agents a1, a2,...
  • the second system / user conversion filter lf2 converts the conversion result of the second system / user conversion filter lf1 according to the user and presents it to the user ( p ′′ 4-1, p ′′ 4-2, etc.)
  • the information processing system 1 B includes the third system / user conversion filter lf 3, but the third system / user conversion filter lf 3 is applied. Without third system Conversion by a user conversion filter lf3 is not performed.
  • the user evaluates the responses of the agents a1, a2,. This evaluation is reflected in the conversion processing by the applied system / user conversion filters lf1, lf2 and the response generation processing by the agents a1, a2,... (P ′′ 5-1, p ′′ 5-2, p ′′). 6)
  • the information processing system 1B can convert the responses of the agents a1, a2,... By a plurality of system / user conversion filters, and can select a system / user conversion filter to be applied. Therefore, for example, by switching a system / user conversion filter to be applied for each user, a desired response according to the user can be presented.
  • the information processing system 1B includes a response control device 30B instead of the response control device 30 included in the information processing system 1.
  • FIG. 15 is a block diagram illustrating a configuration of the response control device 30B.
  • the storage unit 32 of the response control device 30B includes system / user conversion information storage units 321B-1, 321B-2,... Instead of the system / user conversion information storage unit 321.
  • the system / user conversion information storage units 321-1, 321-2,... are collectively referred to as a system / user conversion information storage unit 321B.
  • the control unit 33 of the response control device 30B includes a dialogue unit 351B instead of the dialogue unit 351.
  • the control unit 33 of the response control device 30B includes system / user filter units 34B-1, 34B-2,... Instead of the system / user filter unit 34.
  • the system / user filter units 34B-1, 34B-2,... are collectively referred to as a system / user filter unit 34B.
  • the system / user conversion information storage unit 321B stores system / user conversion information.
  • the system / user conversion information according to the present embodiment differs in that it is information for each attribute of the user, not for each user.
  • the dialogue processing unit 331B controls input / output processing for dialogue in the same manner as the dialogue processing unit 331.
  • the dialogue processing unit 331B selects the system / user conversion filter lf to be applied according to the user.
  • the dialogue processing unit 331B refers to user information of a user who has a dialogue and confirms the attribute of the user. Then, the dialogue processing unit 331B searches the system / user conversion information using the attribute of the user who interacts, and selects the system / user conversion filter lf that matches the attribute of the user who interacts. Specifically, when the user is a male, the system / user conversion filter lf for men is selected, and when the user is an elementary school student, the system / user conversion filter lf for young people is selected.
  • the system / user filter unit 34B functions as a system / user conversion filter lf in the same manner as the system / user filter unit 34.
  • the system / user filter unit 34B is different in that it functions not as a system / user conversion filter lf for each user but as a system / user conversion filter lf for each user attribute.
  • FIG. 16 is a flowchart showing the flow of processing by the information processing system 1B.
  • a case will be described in which two system / user conversion filters lf are selected as application targets for user interaction. Steps S100 and S102 shown in FIG. 16 are the same as steps S100 and S102 shown in FIG.
  • Step SB104 After the process of step S102, the response control device 30B converts the response generated in step S102 based on the user information, the history information, and the system / user conversion information of the first system / user conversion filter lf1. . Thereafter, the information processing system 1B advances the process to step SB105.
  • Step SB105 The response control device 30B converts the response generated in step SB104 based on user information, history information, and system / user conversion information of the second system / user conversion filter lf2. Thereafter, the information processing system 1B advances the process to step SB106.
  • Step SB106 The response control device 30B performs machine learning of the applied two system / user conversion filters lf and the agent based on the interaction result.
  • the interaction result is a user's reaction to the presented conversion result, and indicates an evaluation of the applied system / user conversion filter lf and the agent. Thereafter, the information processing system 1B ends the process illustrated in FIG.
  • the storage unit 32 stores system / user conversion information (an example of conversion information) for each user attribute.
  • the system / user filter unit 34 searches the system / user conversion information stored in the storage unit 32 using user attributes, and uses the conversion information specified by the search to output the remarks generated by the dialogue unit 351. It converts into the mode according to the user.
  • the response generated by the dialogue unit 351 is converted into a mode according to the user based on the attribute of the user. That is, the response conversion corresponding to each user is performed using a general conversion rule for each user attribute. For this reason, the information processing system 1B can easily perform conversion according to the user with less load compared to setting conversion rules dedicated to individual users. Therefore, the information processing system 1 can make a response according to the user.
  • An information processing system 1C (not shown) according to the fourth embodiment is a system that converts and presents a response by an agent, as in the information processing system 1.
  • the response control device 30 is provided with a filter function, whereas in the information processing system 1C, the filter function is provided on the user terminal device side.
  • the information processing system 1C includes a terminal device 10C and a response control device 30C instead of the terminal device 10 and the response control device 30 included in the information processing system 1.
  • FIG. 17 is a block diagram illustrating a configuration of the terminal device 10C.
  • the storage unit 15 of the terminal device 10C includes a system / user conversion information storage unit 151C, a user information storage unit 152C, and a history information storage unit 153C.
  • the control unit 16 of the terminal device 10C includes a system / user filter unit 17C.
  • the system / user filter unit 17C includes a system / user conversion unit 171C and a system / user conversion learning unit 172C.
  • the system / user conversion information storage unit 151C has the same configuration as the system / user conversion information storage unit 321.
  • the user information storage unit 152C has the same configuration as the user information storage unit 323.
  • the history information storage unit 153C has the same configuration as the history information storage unit 324.
  • the system / user filter unit 17C has the same configuration as the system / user filter unit 34.
  • the system / user conversion unit 171C has the same configuration as the system / user conversion unit 341.
  • the system / user conversion learning unit 172C has the same configuration as the system / user conversion learning unit 342.
  • FIG. 18 is a block diagram illustrating a configuration of the response control device 30C.
  • the storage unit 32 of the response control device 30C does not include the system / user conversion information storage unit 321 included in the storage unit 32 of the response control device 30.
  • the control unit 33 of the response control device 30C does not include the system / user filter unit 34.
  • the terminal device 10C includes the system / user filter unit 17C.
  • the arbitrary configurations in the above-described embodiments may be separately provided in a separate device or may be combined.
  • system / user conversion filter “lf” has been described as indicating a conversion rule corresponding to the user, but the present invention is not limited thereto.
  • the system / user conversion filter lf may indicate a conversion rule corresponding to the agent, or may indicate a conversion rule corresponding to a combination of the user and the agent. That is, the conversion rule according to the relationship between the user and the agent may be indicated.
  • the data structure of various information is not limited to the above.
  • the association of each information may be performed directly or indirectly.
  • Information that is not essential for processing may be omitted, or similar information may be added to perform processing.
  • the user's whereabouts and occupation may be included as user information.
  • the history information may be information that records the dialogue itself, instead of collecting the content of the dialogue as in the above embodiment.
  • each statement may be presented in time series.
  • the response may be presented without clarifying the response agent that made the response.
  • the agent execution unit 35 may generate a response or perform machine learning with reference to information about the user.
  • personal information can be protected by restricting the information related to the user to the agent execution unit 35.
  • the agent execution unit 35 when used for responses to a plurality of users, the result of machine learning for other users is reflected in the response to a certain user. If the machine learning includes personal information of other users, the generated response may include personal information and the user's personal information may be leaked. In this regard, by limiting the reference to user information, personal information is not included in the response. As described above, the use of arbitrary information described in the embodiment may be limited by designation from the user or initial setting.
  • control unit 16 and the control unit 33 are software function units, but may be a hardware function unit such as an LSI (Large Scale Integration).
  • LSI Large Scale Integration
  • a program for realizing the functions of the terminal devices 10 and 10C and the response control devices 30 and 30A to 30C is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system.
  • the processing as the terminal devices 10 and 10C and the response control devices 30 and 30A to 30C may be performed by executing them.
  • “loading and executing a program recorded on a recording medium into a computer system” includes installing the program in the computer system.
  • the “computer system” here includes an OS and hardware such as peripheral devices.
  • the “computer system” may include a plurality of computer devices connected via a network including a communication line such as the Internet, WAN, LAN, and dedicated line.
  • Computer-readable recording medium refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in a computer system.
  • the recording medium storing the program may be a non-transitory recording medium such as a CD-ROM.
  • the recording medium also includes an internal or external recording medium that can be accessed from a distribution server in order to distribute the program.
  • the code of the program stored in the recording medium of the distribution server may be different from the code of the program that can be executed by the terminal device. That is, the format stored in the distribution server is not limited as long as it can be downloaded from the distribution server and installed in a form that can be executed by the terminal device.
  • the program may be divided into a plurality of parts, downloaded at different timings, and combined in the terminal device, or the distribution server that distributes each of the divided programs may be different.
  • the “computer-readable recording medium” holds a program for a certain period of time, such as a volatile memory (RAM) inside a computer system that becomes a server or a client when the program is transmitted via a network.
  • the program may be for realizing a part of the functions described above.
  • achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.
  • Part or all of the functions of the terminal devices 10 and 10C and the response control devices 30 and 30A to 30C may be realized as an integrated circuit such as an LSI.
  • Each function described above may be individually made into a processor, or a part or all of them may be integrated into a processor.
  • the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. When integrated circuit technology that replaces LSI emerges due to advances in semiconductor technology, an integrated circuit based on this technology may be used.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)
  • Document Processing Apparatus (AREA)

Abstract

実施形態の情報処理システムは、対話部と、記憶部と、システム/ユーザ変換部と、を持つ。対話部は、発言を生成してユーザとの対話を行う。記憶部は、発言の変換規則を示す変換情報を記憶する。システム/ユーザ変換部は、前記記憶部に記憶された変換情報を用いて、前記対話部が生成した発言をユーザに応じた態様に変換する。

Description

情報処理システム、情報処理装置、情報処理方法、及び記憶媒体
 本発明の実施形態は、情報処理システム、情報処理装置、情報処理方法、及び記憶媒体に関する。
 情報処理技術を用いて、ユーザからの問いかけに対する解を探索し、ユーザに提示するシステムが存在する。しかしながら、従来の技術では、問いかけに対する応答が画一的であったり、ユーザに依存してしまったりするため、汎用性と多様性を両立させることができない場合があった。
特表2008-512789号公報
 本発明が解決しようとする課題は、汎用性と多様性を両立させることができる情報処理システム、情報処理装置、情報処理方法、及び記憶媒体を提供することである。
 実施形態の情報処理システムは、対話部と、記憶部と、システム/ユーザ変換部と、を持つ。対話部は、発言を生成してユーザとの対話を行う。記憶部は、発言の変換規則を示す変換情報を記憶する。システム/ユーザ変換部は、前記記憶部に記憶された変換情報を用いて、前記対話部が生成した発言をユーザに応じた態様に変換する。
第1の実施形態に係る情報処理システムの概要を示す図。 同実施形態に係るフィルタの概要を示す図。 同実施形態に係る情報処理システムの構成を示すブロック図。 同実施形態に係る端末装置の構成を示すブロック図。 同実施形態に係る応答制御装置の構成を示すブロック図。 同実施形態に係るユーザ情報のデータ構成を示す図。 同実施形態に係る履歴情報のデータ構成を示す図。 同実施形態に係る情報処理システムによる処理の流れを示すフローチャート。 同実施形態に係る情報処理システムによる応答の提示例を示す第1図。 同実施形態に係る情報処理システムによる応答の提示例を示す第2図。 第2の実施形態に係るフィルタの概要を示す図。 同実施形態に係る応答制御装置の構成を示すブロック図。 同実施形態に係る情報処理システムによる処理の流れを示すフローチャート。 第3の実施形態に係るフィルタの概要を示す図。 同実施形態に係る応答制御装置の構成を示すブロック図。 同実施形態に係る情報処理システムによる処理の流れを示すフローチャート。 第4の実施形態に係る端末装置の構成を示すブロック図。 同実施形態に係る応答制御装置の構成を示すブロック図。
 以下、実施形態の情報処理システム、情報処理装置、情報処理方法、及びプログラムを、図面を参照して説明する。
 (第1の実施形態)
 第1の実施形態に係る情報処理システム1の概要について説明する。
 図1は、情報処理システム1の概要を示す図である。
 図1に示すように、情報処理システム1は、ユーザの発言に応じて、意見や選択肢等の発言を返すシステムである。以下では、ユーザの発言に対して、情報処理システム1が返す発言を「応答」と称する。以下では、ユーザの発言と情報処理システム1が生成する発言とのやり取りを、「対話」と称する。情報処理システム1に入力されるユーザからの発言や、情報処理システム1から出力される応答は、音声に限らずテキスト等でもよい。
 情報処理システム1には、応答を生成するための構成が設けられている。以下では、独立して応答を生成可能な構成の単位を「エージェント」と称する。情報処理システム1は、複数のエージェントを備える。各エージェントは、異なる個性を有する。以下では、「個性」とは、応答の傾向、応答の内容、応答の表現方法等に影響する要素をいう。例えば、各エージェントの個性は、応答を生成するために用いられる情報(例えば、機械学習の教師データ、後述する履歴情報、ユーザ情報等)の内容、応答の生成における論理展開、応答の生成に用いられるアルゴリズム等の要素により定められる。エージェントの個性付けは、任意の方法で行われてよい。このように、情報処理システム1は、個性が異なる複数のエージェントにより生成された応答を提示するため、ユーザに対して多様な考え方や選択肢を提案し、ユーザの決断を支援することができる。
 本実施形態では、各エージェントによる応答は、フィルタによる変換を経て、ユーザに提示される。ここで、図2を参照して、対話の流れとフィルタによる変換との概要について説明する。
 図2は、本実施形態に係るフィルタの概要を示す図である。
 本実施形態に係る対話では、まず、ユーザが質問等の発言を行う(p1)。次に、エージェントa1、a2、…は、それぞれ、ユーザの発言に対する応答を生成する(p2-1、p2-2、…)。エージェントが生成する応答は、ユーザの発言内容に依存し、ユーザには依存しない。
 次に、システム/ユーザ変換フィルタlfは、エージェントa1、a2、…の応答を、ユーザに応じて変換し、ユーザに提示する(p3-1、p3-2、…)。本実施形態では、システム/ユーザ変換フィルタlfは、ユーザごとに設けられている。次に、ユーザは、エージェントa1、a2、…の応答を評価する。この評価は、システム/ユーザ変換フィルタlfによる変換処理と、エージェントa1、a2、…による応答の生成処理とに反映される(p4、p5)。このように、情報処理システム1は、エージェントa1、a2、…の応答をそのまま提示するのではなく、変換してから提示する。従って、ユーザに応じた望ましい応答を提示することができる。
 次に、情報処理システム1の構成について説明する。
 図3は、情報処理システム1の構成を示すブロック図である。
 情報処理システム1は、複数の端末装置10-1、10-2、…と、応答制御装置30とを備える。以下では、特に区別しない限り、複数の端末装置10-1、10-2、…を、端末装置10と総称する。端末装置10と、応答制御装置30とは、ネットワークNWを介して通信可能に接続されている。
 端末装置10は、コンピュータシステムを備える電子機器である。具体的には、端末装置10は、パーソナルコンピュータ、携帯電話、タブレット、スマートフォン、PHS(Personal Handy-phone System)端末装置、ゲーム機等である。端末装置10は、ユーザからの入力を受け付けたり、ユーザに対して情報の提示を行ったりする。
 応答制御装置30は、コンピュータシステムを備える電子機器である。具体的には、応答制御装置30は、サーバ装置等である。応答制御装置30は、エージェントとフィルタ(例えば、システム/ユーザ変換フィルタlf)とを実装する。本実施形態では、一例として、エージェントとフィルタとが人工知能により実現される場合について説明する。人工知能とは、学習、推論、判断等の人間の知的な機能を模倣するコンピュータシステムである。人工知能を実現するためのアルゴリズムは、任意であってよい。具体的には、人工知能は、ニューラルネットワーク、事例ベース推論等により実現されてよい。
 ここで、情報処理システム1による処理の流れの概要について説明する。
 端末装置10は、ユーザから発言の入力を受け付ける。端末装置10は、ユーザの発言を示す情報を、応答制御装置30に送信する。応答制御装置30は、ユーザの発言を示す情報を、端末装置10から受信する。応答制御装置30は、ユーザの発言を示す情報を参照し、ユーザの発言に応じた応答を示す情報を生成する。応答制御装置30は、応答を示す情報を、フィルタにより変換し、変換結果を示す情報を生成する。応答制御装置30は、変換結果を示す情報を端末装置10に送信する。端末装置10は、変換結果を示す情報を、応答制御装置30から受信する。端末装置10は、変換結果を示す情報を参照し、変換された応答の内容を、表示や音声により提示する。
 次に、端末装置10の構成について説明する。
 図4は、端末装置10の構成を示すブロック図である。
 端末装置10は、通信部11と、入力部12と、表示部13と、音声出力部14と、記憶部15と、制御部16と、を備える。
 通信部11は、応答制御装置30等のネットワークNWに接続する他の装置と、各種情報を送受信する。通信部11は、通信用IC(Integrated Circuit)等を含む。
 入力部12は、各種情報の入力を受け付ける。例えば、入力部12は、ユーザによる発言の入力、対話のシーンの選択などを受け付ける。入力部12は、文字入力、音声入力、ポインティング等の任意の方法により、ユーザからの入力を受け付けてよい。入力部12は、キーボード、マウス、タッチセンサ、マイク等を含む。
 表示部13は、各種情報を表示する。例えば、表示部13は、ユーザの発言の内容、エージェントの応答の内容等を表示する。表示部13は、液晶ディスプレイパネル、有機EL(Electro-Luminescence)ディスプレイパネル等を含む。
 音声出力部14は、各種音源を再生する。例えば、音声出力部14は、応答の内容等を音声出力する。音声出力部14は、スピーカ、ウーファー等を含む。
 記憶部15は、各種情報を記憶する。例えば、記憶部15は、端末装置10が備えるCPU(Central Processing Unit)により実行可能なプログラムや、当該プログラムが参照する情報等を記憶する。記憶部15は、ROM(Read Only Memory)、RAM(Random Access Memory)等を含む。
 制御部16は、端末装置10が備える各種構成を制御する。例えば、制御部16は、端末装置10が備えるCPUが、記憶部15に記憶されたプログラムを実行することにより実現される。制御部16は、対話処理部161を備える。
 対話処理部161は、対話のための入出力処理を制御する。例えば、対話処理部161は、対話のためのユーザインタフェースを提供するための処理を実行する。例えば、対話処理部161は、応答制御装置30との間におけるユーザの発言を示す情報や応答の変換結果を示す情報の送受信を制御する。
 次に、応答制御装置30の構成について説明する。
 図5は、応答制御装置30の構成を示すブロック図である。
 応答制御装置30は、通信部31と、記憶部32と、制御部33と、を備える。
 通信部31は、端末装置10等のネットワークNWに接続する他の装置と、各種情報を送受信する。通信部31は、通信用IC等を含む。
 記憶部32は、各種情報を記憶する。例えば、記憶部32は、応答制御装置30が備えるCPUにより実行可能なプログラムや、当該プログラムが参照する情報等を記憶する。
記憶部32は、ROM、RAM等を含む。記憶部32は、システム/ユーザ変換情報記憶部321と、1以上のエージェント構成情報記憶部322-1、322-2、…と、ユーザ情報記憶部323と、履歴情報記憶部324と、を備える。以下では、特に区別しない限り、エージェント構成情報記憶部322-1、322-2、…を、エージェント構成情報記憶部322と総称する。
 システム/ユーザ変換情報記憶部321は、システム/ユーザ変換情報を記憶する。システム/ユーザ変換情報とは、システム/ユーザ変換フィルタlfによる変換規則を示す情報である。つまり、システム/ユーザ変換情報とは、発言の変換規則を示す変換情報の一例である。本実施形態では、一例として、システム/ユーザ変換情報が、ユーザごとに設定され、ユーザごとに記憶される場合について説明する。例えば、システム/ユーザ変換フィルタlfがニューラルネットワークにより実現される場合、システム/ユーザ変換情報は、機械学習の結果、例えば機械学習により変動する活性化関数のパラメータ等の情報を含む。システム/ユーザ変換フィルタlfが人工知能以外で実現される場合、システム/ユーザ変換フィルタlfは、例えば、応答と、応答に対する変換結果と、を一義的に対応付けた情報等であってよい。この対応付けは、テーブル等により行われてもよいし、関数等により行われてもよい。
 エージェント構成情報記憶部322は、エージェント構成情報を記憶する。エージェント構成情報とは、後述するエージェント実行部35の構成を示す情報である。例えば、エージェント実行部35がニューラルネットワークにより実現される場合、エージェント構成情報は、機械学習の結果、例えば機械学習により変動する活性化関数のパラメータ等の情報を含む。エージェント構成情報は、対話における応答の生成規則を示す情報の一例である。エージェント実行部35が人工知能以外で実現される場合、エージェント構成情報は、例えば、ユーザの発言と、発言に対する応答と、を一義的に対応付けた情報等であってよい。
 ユーザ情報とは、ユーザの属性を示す情報である。ここで、ユーザ情報のデータ構成の例について説明する。
 図6は、ユーザ情報のデータ構成を示す図である。
 ユーザ情報は、例えば、ユーザ識別情報(図6における「ユーザ」)と、年齢情報(図6における「年齢」)と、性別情報(図6における「性別」)と、嗜好情報(図6における「嗜好」)と、ユーザ性格情報(図6における「性格」)と、を互いに対応付けた情報である。
 ユーザ識別情報とは、ユーザを一意に識別するための情報である。年齢情報とは、ユーザの年齢を示す情報である。性別情報とは、ユーザの性別を示す情報である。嗜好情報とは、ユーザの嗜好を示す情報である。ユーザ性格情報とは、ユーザの性格を示す情報である。
 このように、ユーザ情報では、ユーザと、その属性とが対応付けられている。換言すると、ユーザ情報は、ユーザの個性を示す。従って、端末装置10と応答制御装置30とは、ユーザ情報を参照することにより、ユーザの個性を確認することができる。
 図5に戻り、応答制御装置30の構成について、説明を続ける。
 履歴情報記憶部324は、履歴情報を記憶する。履歴情報とは、ユーザと情報処理システム1との間における対話の履歴を示す情報である。履歴情報は、ユーザごとに管理されてよい。ここで、履歴情報のデータ構成の例について説明する。
 図7は、履歴情報のデータ構成を示す図である。
 履歴情報は、トピック識別情報(図7における「トピック」)と、肯定キーワード情報(図7における「肯定キーワード」)と、否定キーワード情報(図7における「否定キーワード」)と、を互いに対応付けた情報である。
 トピック識別情報とは、対話を一意に識別するための情報である。肯定キーワード情報とは、対話において、ユーザが肯定的な反応を示したキーワードを示す情報である。否定キーワード情報とは、対話において、ユーザが否定的な反応を示したキーワードを示す情報である。履歴情報では、1つのシーン識別情報に対して、1以上の肯定キーワード情報、否定キーワード情報が対応付けられてよい。
 このように、履歴情報は、対話の履歴を示す。つまり、履歴情報を参照することにより、各ユーザにとって望ましい応答の傾向を、履歴情報から把握することができる。従って、端末装置10と応答制御装置30とは、履歴情報を参照することにより、ユーザが受け入れにくい提案を行うことを防いだり、ユーザが受け入れやすい提案を行ったりすることができる。
 図5に戻り、応答制御装置30の構成について、説明を続ける。
 制御部33は、応答制御装置30が備える各種構成を制御する。例えば、制御部33は、応答制御装置30が備えるCPUが、記憶部32に記憶されたプログラムを実行することにより実現される。制御部33は、対話処理部331と、システム/ユーザフィルタ部34と、1以上のエージェント実行部35-1、35-2、…とを備える。以下では、特に区別しない限り、エージェント実行部35-1、35-2、…を、エージェント実行部35と総称する。
 対話処理部331は、対話のための入出力処理を制御する。対話処理部331は、端末装置10の対話処理部161に対応する応答制御装置30側の構成である。例えば、対話処理部331は、端末装置10との間において、ユーザの発言を示す情報や応答の変換結果を示す情報の送受信を制御する。
 対話処理部331は、履歴情報を管理する。例えば、対話処理部331は、対話においてユーザの発言に肯定的な文言が含まれている場合、その文言に対応するユーザの発言のキーワード、又は、応答のキーワードを特定し、肯定キーワード情報に登録する。
例えば、対話処理部331は、ユーザの発言に否定的な文言が含まれている場合、その文言に対応するユーザの発言のキーワード、又は、応答のキーワードを特定し、否定キーワード情報に登録する。このように、対話処理部331は、履歴情報のデータ構成に合せて、履歴情報の追記、編集、削除等を行ってよい。
 システム/ユーザフィルタ部34は、システム/ユーザ変換フィルタlfとして機能する。本実施形態では、一例として、システム/ユーザフィルタ部34は、ユーザごとのシステム/ユーザ変換フィルタlfとして機能する。システム/ユーザフィルタ部34は、ユーザ情報や履歴情報等のユーザに係る情報を参照して処理を行ってよい。システム/ユーザフィルタ部34は、システム/ユーザ変換部341と、システム/ユーザ変換学習部342と、を備える。
 システム/ユーザ変換部341は、エージェント実行部35が生成した応答を、システム/ユーザ変換情報に基づいて変換する。応答の変換は、応答内容の隠蔽、置換、派生、表現方法の変更等により行われてよい。応答内容の隠蔽とは、応答内容の一部又は全てを提示しないことである。置換とは、応答内容を他の文言に置換することである。派生とは、応答内容から導き出される他の発言を生成することである。表現方法の変更とは、応答の実質的な内容を変更せずに、応答の文体やニュアンス等を変更することである。例えば、表現方法の変更には、エージェントの口調の変更が含まれる。
 システム/ユーザ変換学習部342は、システム/ユーザ変換フィルタlfの機能を実現するための機械学習を行う。システム/ユーザ変換学習部342は、ユーザの利用開始前に行なわれる機械学習と、対話におけるユーザの評価による機械学習との2種類の機械学習を実行可能である。システム/ユーザ変換学習部342による機械学習の結果は、システム/ユーザ変換情報に反映される。なお、以下では、「評価」とは、ユーザにとっての応答の精度や的確さを表す指標であるとして説明する。システム/ユーザ変換学習部342による機械学習に用いられる教師データは、応答(例えば、図2に示すp2-1、p2-2等)と、変換結果(例えば、図2に示すp3-1、p3-2等)と、評価と、を対応付けたデータである。この教師データには、ユーザ情報や履歴情報が対応付けられていてもよい。評価は、真偽の2値であってもよいし、3段階以上の値であってもよい。このような教師データを用いて機械学習を重ねることにより、システム/ユーザ変換部341は、応答をユーザに応じた態様に変換することができる。
 システム/ユーザ変換学習部342は、対話におけるユーザの評価による機械学習を、ユーザごと区別して行ってよい。つまり、システム/ユーザ変換情報は、ユーザごとに記憶されてよい。以下では、一例として、ユーザごとに機械学習を行う場合について説明する。この場合は、あるユーザの発言に対する応答の変換結果の評価を、そのユーザのシステム/ユーザ変換情報のみに反映させる。このような機械学習を行うことにより、システム/ユーザ変換部341は、エージェントの応答を、ユーザごとに望ましい態様に変換することができるようになる。
 エージェント実行部35-1、35-2、…は、それぞれ、異なるエージェント(例えば、図2に示すエージェントa1、a2、…)として機能する。エージェント実行部35-1、35-2、…は、エージェント構成情報記憶部322-1、322-2、…に記憶されるエージェント構成情報に基づいて実現される。エージェント実行部35-1、35-2、…は、対話部351-1、351-2、…と、エージェント学習部352-1、352-2、…とを備える。以下では、対話部351-1、351-2、…を、対話部351と総称する。以下では、エージェント学習部352-1、352-2、…を、エージェント学習部352と総称する。本実施形態では、一例として、エージェント実行部35は、ユーザ情報や履歴情報等のユーザに係る情報の参照が制限されている。
 対話部351は、ユーザの発言に対するエージェントの応答を生成する。
 エージェント学習部352は、エージェント実行部35の機能を実現するための機械学習を行う。エージェント学習部352は、ユーザの利用開始前に行なわれる機械学習と、対話におけるユーザの評価による機械学習との2種類の機械学習を実行可能である。エージェント学習部352による機械学習の結果は、エージェント構成情報に反映される。
 エージェント学習部352による機械学習に用いられる教師データは、ユーザの発言(例えば、図2に示すp1等)と、応答(例えば、図2に示すp2-1、p2-2等)と、評価と、を対応付けたデータである。この教師データは、ユーザの発言(例えば、図2に示すp1等)と、応答の変換結果(例えば、図2に示すp3-1、p3-2等)と、評価と、を対応付けたデータであってもよい。エージェント学習部352は、そのエージェント学習部352を含むエージェント実行部35ではない、別のエージェント実行部35が行った応答を教師データとして用いてもよい。このような教師データを用いて学習を重ねることにより、対話部351は、ユーザの発言に応じた応答を生成可能になる。
 この教師データには、ユーザ情報や履歴情報が対応付けられていてもよいが、本実施形態では、一例として、エージェント学習部352は、ユーザ情報や履歴情報を対応付けない教師データを用いて機械学習を行う場合について説明する。これにより、対話部351は、ユーザではなく、発言内容に純粋に依存した応じた応答を生成可能になる。つまり、エージェント実行部35を各ユーザ間で共通の汎用的な構成とすることができる。
 次に、情報処理システム1の動作について説明する。
 図8は、情報処理システム1による処理の流れを示すフローチャートである。
(ステップS100)端末装置10は、ユーザの発言を受け付ける。その後、情報処理システム1は、ステップS102に処理を進める。
(ステップS102)応答制御装置30は、ステップS100で受け付けたユーザの発言に対する各エージェントの応答を、エージェント構成情報に基づいて生成する。その後、情報処理システム1は、ステップS104に処理を進める。
(ステップS104)応答制御装置30は、ステップS102で生成した応答を、ユーザ情報、履歴情報、システム/ユーザ変換情報等に基づいて変換する。端末装置10は、ユーザの発言と、当該発言に応じて生成された応答の変換結果とを、ユーザに提示する。その後、情報処理システム1は、ステップS106に処理を進める。
(ステップS106)応答制御装置30は、システム/ユーザ変換フィルタlf及びエージェントの機械学習を、対話結果に基づいて行う。対話結果とは、提示された変換結果に対するユーザの反応や対話の総括であり、システム/ユーザ変換フィルタlf及びエージェントに対する評価を示す。対話結果は、対話全体に対するものであってもよいし、個々の応答に対するものであってもよい。その後、情報処理システム1は、図8に示す処理を終了する。
 ステップS106における機械学習のためのユーザの評価(対話結果)は、ユーザの発言から特定してもよいし、対話後にユーザに入力させてもよい。評価は、肯定と否定との2値で入力されてもよいし、3段階以上の値で入力されてもよいし、自然文から値に変換されてもよい。評価は、対話の特徴に基づいて行われてもよい。例えば、対話におけるユーザの発言の数、応答の数、対話の長さ等は、対話が活発であったことを示す。そこで、対話におけるユーザの発言の数、応答の数、対話の長さを、評価の指標としてもよい。
 フィルタを評価する場合の評価対象は、評価を行ったユーザのシステム/ユーザ変換フィルタlfであってもよいし、評価を行ったユーザと属性が同じであるユーザのシステム/ユーザ変換フィルタlfであってもよい。エージェントを評価する場合の評価対象は、全てのエージェントであってもよいし、エージェントの一部であってもよい。例えば、対話全体に対する評価は、評価を行ったユーザのシステム/ユーザ変換フィルタlf、当該ユーザと属性が同じユーザのシステム/ユーザ変換フィルタlf、対話に参加した全てのエージェント等に反映されてよい。応答に対する評価は、評価を行ったユーザのシステム/ユーザ変換フィルタlf、当該ユーザと属性が同じユーザのシステム/ユーザ変換フィルタlfに反映されてもよいし、その応答を行ったエージェントにのみ反映されてもよい。
 次に、対話における応答の提示態様について説明する。
 図9、図10は、情報処理システム1による応答の提示例を示す図である。
 図9と図10とに示す例では、いずれも、「胸のつかえがある」との医療相談がユーザにより行われている。ただし、図9に示す例では、ユーザは医療関係者であるのに対して、図10に示す例では、ユーザは会社員である。医療関係者に対しては、正確な医療情報の提供が求められる。そこで、図9に示す例では、フィルタは、エージェントa1、a2の応答をあえて変換することなくそのまま提示している。
 これに対して、会社員に対しては、必ずしも正確に医療情報を提供することが最適とは限らない。例えば、ユーザがストレスの有無を指摘されることを嫌う場合や深刻な病気である可能性をむやみに通知して、いたずらに不安にさせることは望ましくない場合等がある。そこで、図10に示す例では、フィルタは、エージェントa1によるストレスの有無について指摘する応答を、ストレスの解消方法を提示する応答に変換している。フィルタは、エージェントa2による病気の可能性を指摘する応答を、病名の一部を伏せ、対処方法を提示する応答に変換している。
 以上説明したように、情報処理システム1(情報処理システムの一例)は、対話部351(対話部の一例)と、記憶部32(記憶部の一例)と、システム/ユーザフィルタ部34(システム/ユーザ変換部の一例)と、を備える。対話部351は、応答(発言の一例)を生成してユーザとの対話を行う。記憶部32は、発言の変換規則を示すシステム/ユーザ変換情報(変換情報の一例)を記憶する。システム/ユーザフィルタ部34は、記憶部32に記憶されたシステム/ユーザ変換情報を用いて、対話部351が生成した発言をユーザに応じた態様に変換する。
 これにより、対話部351が生成した応答は、システム/ユーザフィルタ部34によりユーザに応じた態様に変換される。例えば、対話部351が生成した応答に、ユーザにとって不快感を与える内容やユーザへの提示が望ましくない情報が含まれている場合であっても、応答を変換して、不快感を低減したり、情報の提示を抑制したりする。例えば、対話部351が生成した応答を、丁寧な表現に変換したり、箇条書きの表現に変換したりすることにより、ユーザに受け入れやすくしたり、確認しやすくする。従って、情報処理システム1は、ユーザに応じた応答を行うことができる。そして、情報処理システム1は、ユーザに応答の生成と応答の変換とを別の処理としているため、応答の生成についてはユーザに依存させないことで汎用性を確保しつつ、応答の変換についてはユーザに依存させることで多様性を確保することができる。つまり、情報処理システム1は、汎用性と多様性とを両立させることができる。
 情報処理システム1において、記憶部32は、システム/ユーザ変換情報をユーザごとに記憶する。システム/ユーザフィルタ部34は、記憶部32に記憶されたユーザごとのシステム/ユーザ変換情報(変換情報の一例)を用いて、対話部351が生成した発言をユーザに応じた態様に変換する。
 これにより、対話部351が生成した応答は、ユーザごとのシステム/ユーザ変換情報を用いて、ユーザに応じた態様に変換される。つまり、個々のユーザ専用の変換規則により応答の変換が行われる。そのため、情報処理システム1は、個性が異なる個々のユーザに適した変換を行いやすい。従って、情報処理システム1は、ユーザに応じた応答を行うことができる。
 (第2の実施形態)
 第2の実施形態について説明する。本実施形態では、上述した構成と同様の構成については、同一の符号を付し、説明を援用する。
 第2の実施形態に係る情報処理システム1A(不図示)は、情報処理システム1と同様に、エージェントによる応答を変換して提示するシステムである。ただし、情報処理システム1Aは、ユーザの発言を変換する点が異なる。
 ここで、図11を参照して、対話の流れとフィルタによる変換との概要について説明する。
 図11は、本実施形態に係るフィルタの概要を示す図である。
 本実施形態の対話では、まず、ユーザが質問等の発言を行う(p’1)。次に、ユーザ/システム変換フィルタufは、ユーザの発言を変換し、各エージェントa1、a2、…に出力する(p’2)。ユーザ/システム変換フィルタufは、ユーザごとに設けられてもよいし、各ユーザ間で共通であってもよい。ここでは、一例として、ユーザ/システム変換フィルタufが、各ユーザ間で共通である場合について説明する。次に、エージェントa1、a2、…は、それぞれ、ユーザの発言に対する応答を生成する(p’3-1、p’3-2、…)。この変換では、例えば、個人情報の削除や表現の修正等が行われる。
 次に、システム/ユーザ変換フィルタlfは、エージェントa1、a2、…の応答を、ユーザに応じて変換し、ユーザに提示する(p’4-1、p’4-2、…)。次に、ユーザは、エージェントa1、a2、…の応答を評価する。この評価は、ユーザ/システム変換フィルタufによる変換処理、システム/ユーザ変換フィルタlfによる変換処理、エージェントa1、a2、…による応答の生成処理に反映される(p’5、p’6、p’7)。このように、情報処理システム1Aは、ユーザの発言をそのままエージェントa1、a2、…に出力するのではなく、変換してから出力する。そのため、例えば、ユーザの個人情報がエージェントa1、a2、…に学習され、他のユーザに対する応答時に利用されてしまうことを防いだり、ユーザの発言の意図を正確に把握してエージェントa1、a2、…による応答の精度を向上させたりすることができる。
 次に、情報処理システム1Aの構成について説明する。
 情報処理システム1Aは、情報処理システム1が備える応答制御装置30に代えて、応答制御装置30Aを備える。
 図12は、応答制御装置30Aの構成を示すブロック図である。
 応答制御装置30Aの記憶部32は、ユーザ/システム変換情報記憶部325Aを備える。応答制御装置30Aの制御部33は、ユーザ/システムフィルタ部36Aを備える。
 ユーザ/システム変換情報記憶部325Aは、ユーザ/システム変換情報を記憶する。
ユーザ/システム変換情報とは、ユーザ/システム変換フィルタufによる変換規則を示す情報である。つまり、ユーザ/システム変換情報とは、発言の変換規則を示す変換情報の一例である。例えば、ユーザ/システム変換フィルタufがニューラルネットワークにより実現される場合、ユーザ/システム変換情報は、機械学習の結果、例えば機械学習により変動する活性化関数のパラメータ等の情報を含む。ユーザ/システム変換フィルタufが人工知能以外で実現される場合、ユーザ/システム変換フィルタufは、例えば、発言と、発言に対する変換結果と、を一義的に対応付けた情報等であってよい。この対応付けは、テーブル等により行われてもよいし、関数等により行われてもよい。
 ユーザ/システムフィルタ部36Aは、ユーザ/システム変換フィルタufとして機能する。ユーザ/システムフィルタ部36Aは、ユーザ/システム変換部361Aと、ユーザ/システム変換学習部362Aと、を備える。
 ユーザ/システム変換部361Aは、ユーザの発言を、ユーザ/システム変換情報に基づいて変換する。ユーザの発言の変換は、発言内容の隠蔽、置換、派生、表現方法の変更等により行われてよい。発言内容の隠蔽とは、発言内容の一部又は全てを提示しないことである。置換とは、発言内容を、他の文言に置換することである。派生とは、発言内容から導き出される他の発言を生成することである。表現方法の変更とは、発言の実質的な内容を変更せずに、発言の文体やニュアンス等を変更することである。例えば、表現方法の変更には、発言を構成する文言を形態素解析して、その結果を合せて示すこと、発言内容を短文化すること等が含まれる。つまり、ユーザの言い回しの癖の解消等を行ってよい。
 ユーザ/システム変換学習部362は、ユーザ/システム変換フィルタufの機能を実現するための機械学習を行う。ユーザ/システム変換学習部362は、ユーザの利用開始前に行なわれる機械学習と、対話におけるユーザの評価による機械学習との2種類の機械学習を実行可能である。ユーザ/システム変換学習部362による機械学習の結果は、ユーザ/システム変換情報に反映される。ユーザ/システム変換学習部362による機械学習に用いられる教師データは、発言(例えば、図11に示すp’1)と、変換結果(例えば、図11に示すp’2)と、評価と、を対応付けたデータである。評価は、真偽の2値であってもよいし、3段階以上の値であってもよい。このような教師データを用いて学習を重ねることにより、ユーザ/システム変換部361Aは、ユーザの発言を変換可能になる。
 次に、情報処理システム1Aの動作について説明する。
 図13は、情報処理システム1Aによる処理の流れを示すフローチャートである。
 図13に示すステップS100、S102、S104は、図8に示すステップS100、S102、S104と同様であるため、説明を援用する。
(ステップSA101)ステップS100の後、応答制御装置30Aは、ステップS100で受け付けたユーザの発言を、ユーザ情報、履歴情報、ユーザ/システム変換情報等に基づいて変換する。その後、情報処理システム1Aは、ステップS102に処理を進める。
(ステップSA106)ステップS104の後、応答制御装置30Aは、ユーザ/システム変換フィルタuf、システム/ユーザ変換フィルタlf及びエージェントの機械学習を、対話結果に基づいて行う。対話結果とは、提示された変換結果に対するユーザの反応であり、ユーザ/システム変換フィルタuf、システム/ユーザ変換フィルタlf及びエージェントに対する評価を示す。その後、情報処理システム1Aは、図13に示す処理を終了する。
 ユーザ/システム変換フィルタufは、システム/ユーザ変換フィルタlf及びエージェントによる学習を制御してよい。例えば、ユーザ/システム変換フィルタufは、機械学習を行わせるシステム/ユーザ変換フィルタlf及びエージェントを選択(判定)し、機械学習を行わせるシステム/ユーザ変換フィルタlf及びエージェントに対してのみ、ユーザの評価(対話結果)を通知してよい。これに対して、ユーザ/システム変換フィルタufは、機械学習を行わせないシステム/ユーザ変換フィルタlf及びエージェントに対しては、ユーザの評価を通知しない。
 例えば、ユーザの反応がシステム/ユーザ変換フィルタlfにより削除された応答内容に関するものである場合等、変換に起因して行われた評価については、システム/ユーザ変換フィルタlfにのみ学習を行わせてよい。これに対して、ユーザの反応がシステム/ユーザ変換フィルタlfによる変換前後で変化がない応答内容に関するものである場合等、変換に起因しないで行われた評価については、エージェントにのみ学習を行わせてよい。
 例えば、学習を行わせるエージェントを、ユーザとエージェントとの関係性、エージェントの属性等に応じて選択してよい。ユーザとエージェントとの関係性に応じて選択する場合、例えば、ユーザによる各エージェントの評価の履歴を管理しておく。そして、より高い評価を獲得しているエージェント、いわばユーザと相性の良いエージェントに対してのみ学習を行わせるようにしてよい。エージェントの属性に応じて選択する場合、例えば、ユーザにより評価された応答を行ったエージェントと、同じ属性を有するエージェントに対してのみ、学習を行わせるようにしてよい。
 エージェントの属性は、エージェントごとにその属性を示した情報を、予め設定しておくことにより管理されてよい。エージェントの属性としては、例えば、カテゴリや性格等が設定されてよい。カテゴリとは、エージェントの分類であり、例えば、対話におけるエージェントの専門分野である。性格とは、積極性や感情表現等の応答の傾向である。システム/ユーザ変換フィルタlf及びエージェントの学習の制御は、例えば、対話処理部331等、ユーザ/システム変換フィルタufとは異なる構成により行われてもよい。
 以上説明したように、情報処理システム1A(情報処理システムの一例)は、対話処理部331(受付部の一例)と、ユーザ/システムフィルタ部36A(ユーザ/システム変換部の一例)と、を備える。対話処理部331は、ユーザから発言を受け付ける。ユーザ/システムフィルタ部36Aは、対話処理部331が受け付けた発言を、対話部351に応じた態様に変換する。
 これにより、ユーザの発言は、対話部351に応じた態様に変換される。例えば、ユーザの発言に個人情報が含まれている場合には、個人情報が削除される。例えば、ユーザの発言の表現が対話部351による処理に不適である場合には、対話部351による処理に適した態様に変換される。従って、情報処理システム1は、個人情報を保護したり、適切な応答を生成したりすることができる。
 情報処理システム1A(情報処理システムの一例)は、システム/ユーザフィルタ部34(システム/ユーザ変換部の一例)と、ユーザ/システムフィルタ部36A(第1判定部の一例)と、を備える。システム/ユーザフィルタ部34は、機械学習に基づいて変換を行う。ユーザ/システムフィルタ部36Aは、前記機械学習をするか否かを判定する。
 これにより、システム/ユーザフィルタ部34が必要な機械学習のみを行う。従って、情報処理システム1Aは、変換の精度を向上させることができる。
 情報処理システム1A(情報処理システムの一例)は、複数のエージェント実行部35(対話部の一例)と、ユーザ/システムフィルタ部36A(第2判定部の一例でもある)と、を備える。エージェント実行部35は、機械学習に基づいて発言を生成する。ユーザ/システムフィルタ部36Aは、複数のエージェント実行部35のうち、機械学習するエージェント実行部35を選択する。
 つまり、情報処理システム1Aは、機械学習するエージェント実行部35を絞り込む。
これに対して、複数のエージェント実行部35が同様の機械学習を行った場合には、各エージェント実行部35の応答が均質化されてしまう可能性がある。この点、情報処理システム1Aは、機械学習の対象を選択するため、個々のエージェント実行部35の個性を維持し、応答の汎用性と多様性を両立させることができる。情報処理システム1Aは、例えば、機械学習の対象を、ユーザと相性の良いエージェントとすることにより、個性が類似するユーザへの応答の精度を向上させることができる。
 (第3の実施形態)
 第3の実施形態について説明する。本実施形態では、上述した構成と同様の構成については、同一の符号を付し、説明を援用する。
 第3の実施形態に係る情報処理システム1B(不図示)は、情報処理システム1と同様に、エージェントによる応答を変換して提示するシステムである。ただし、情報処理システム1Bは、複数のシステム/ユーザ変換フィルタを備える点が異なる。
 ここで、図14を参照して、対話の流れとフィルタによる変換との概要について説明する。
 図14は、本実施形態に係るフィルタの概要を示す図である。
 ここでは、一例として、3つのシステム/ユーザ変換フィルタlf1、lf2、lf3を備える場合について説明する。以下では、個々のシステム/ユーザ変換フィルタlf1、lf2、lf3を区別しない場合には、システム/ユーザ変換フィルタlfと総称する。
 本実施形態に係る対話では、まず、ユーザが質問等の発言を行う(p”1)。次に、エージェントa1、a2、…は、それぞれ、ユーザの発言に対する応答を生成する(p”2-1、p”2-2、…)。次に、第1システム/ユーザ変換フィルタlf1は、エージェントa1、a2、…の応答を、ユーザに応じて変換し、ユーザに提示する(p”3-1、p”3-2、…)。次に、第2システム/ユーザ変換フィルタlf2は、第2のシステム/ユーザ変換フィルタlf1の変換結果を、ユーザに応じて変換し、ユーザに提示する(p”4-1、p”4-2、…)。ここで、この例では、情報処理システム1Bは、第3システム/ユーザ変換フィルタlf3を備えるが、第3システム/ユーザ変換フィルタlf3は適用せず、第3システム/ユーザ変換フィルタlf3による変換は行わない。
 次に、ユーザは、エージェントa1、a2、…の応答を評価する。この評価は、適用したシステム/ユーザ変換フィルタlf1、lf2による変換処理と、エージェントa1、a2、…による応答の生成処理とに反映される(p”5-1、p”5-2、p”6)。このように、情報処理システム1Bは、エージェントa1、a2、…の応答を、複数のシステム/ユーザ変換フィルタにより変換可能である。そして、適用するシステム/ユーザ変換フィルタを選択可能である。従って、例えば、ユーザごとに適用するシステム/ユーザ変換フィルタを切り替えることにより、ユーザに応じた望ましい応答を提示することができる。
 次に、情報処理システム1Bの構成について説明する。
 情報処理システム1Bは、情報処理システム1が備える応答制御装置30に代えて、応答制御装置30Bを備える。
 図15は、応答制御装置30Bの構成を示すブロック図である。
 応答制御装置30Bの記憶部32は、システム/ユーザ変換情報記憶部321に代えて、システム/ユーザ変換情報記憶部321B-1、321B-2、…を備える。以下では、システム/ユーザ変換情報記憶部321-1、321-2、…を、システム/ユーザ変換情報記憶部321Bと総称する。応答制御装置30Bの制御部33は、対話部351に代えて対話部351Bを備える。応答制御装置30Bの制御部33は、システム/ユーザフィルタ部34に代えてシステム/ユーザフィルタ部34B-1、34B-2、…を備える。以下では、システム/ユーザフィルタ部34B-1、34B-2、…を、システム/ユーザフィルタ部34Bと総称する。
 システム/ユーザ変換情報記憶部321Bは、システム/ユーザ変換情報を記憶する。
ただし、本実施形態に係るシステム/ユーザ変換情報は、ユーザごとではなく、ユーザの属性ごとの情報である点が異なる。
 対話処理部331Bは、対話処理部331と同様に、対話のための入出力処理を制御する。対話処理部331Bは、適用するシステム/ユーザ変換フィルタlfを、ユーザに応じて選択する。例えば、対話処理部331Bは、対話するユーザのユーザ情報を参照し、ユーザの属性を確認する。そして、対話処理部331Bは、対話するユーザの属性を用いてシステム/ユーザ変換情報を検索し、対話するユーザの属性に合致するシステム/ユーザ変換フィルタlfを選択する。具体的は、ユーザが男性である場合には男性用のシステム/ユーザ変換フィルタlfを選択したり、ユーザが小学生である場合には青少年用のシステム/ユーザ変換フィルタlfを選択したりする。
 システム/ユーザフィルタ部34Bは、システム/ユーザフィルタ部34と同様に、システム/ユーザ変換フィルタlfとして機能する。ただし、システム/ユーザフィルタ部34Bは、ユーザごとのシステム/ユーザ変換フィルタlfではなく、ユーザの属性ごとのシステム/ユーザ変換フィルタlfとして機能する点が異なる。
 次に、情報処理システム1Bの動作について説明する。
 図16は、情報処理システム1Bによる処理の流れを示すフローチャートである。
 ここでは、一例として、ユーザとの対話のために、2つのシステム/ユーザ変換フィルタlfが適用対象として選択されている場合について説明する。図16に示すステップS100、S102は、図8に示すステップS100、S102と同様であるため、説明を援用する。
(ステップSB104)ステップS102の処理の後、応答制御装置30Bは、ステップS102で生成した応答を、ユーザ情報、履歴情報、第1システム/ユーザ変換フィルタlf1のシステム/ユーザ変換情報に基づいて変換する。その後、情報処理システム1Bは、ステップSB105に処理を進める。
(ステップSB105)応答制御装置30Bは、ステップSB104で生成した応答を、ユーザ情報、履歴情報、第2システム/ユーザ変換フィルタlf2のシステム/ユーザ変換情報に基づいて変換する。その後、情報処理システム1Bは、ステップSB106に処理を進める。
(ステップSB106)応答制御装置30Bは、適用した2つのシステム/ユーザ変換フィルタlf及びエージェントの機械学習を、対話結果に基づいて行う。対話結果とは、提示された変換結果に対するユーザの反応であり、適用したシステム/ユーザ変換フィルタlf及びエージェントに対する評価を示す。その後、情報処理システム1Bは、図16に示す処理を終了する。
 以上説明したように、情報処理システム1B(情報処理システムの一例)において、記憶部32(記憶部の一例)は、システム/ユーザ変換情報(変換情報の一例)を、ユーザの属性ごとに記憶する。システム/ユーザフィルタ部34は、記憶部32に記憶されたシステム/ユーザ変換情報をユーザの属性を用いて検索し、検索により特定された変換情報を用いて、対話部351が生成した発言を当該ユーザに応じた態様に変換する。
 これにより、対話部351が生成した応答は、ユーザの属性に基づいて、ユーザに応じた態様に変換される。つまり、ユーザ属性ごとの汎用的な変換規則を用いて、個々のユーザに応じた応答の変換が行われる。そのため、情報処理システム1Bは、個々のユーザ専用の変換規則を設定するのに比して少ない負荷で、ユーザに応じた変換を行いやすい。従って、情報処理システム1は、ユーザに応じた応答を行うことができる。
(第4の実施形態)
 第4の実施形態について説明する。本実施形態では、上述した構成と同様の構成については、同一の符号を付し、説明を援用する。
 第4の実施形態に係る情報処理システム1C(不図示)は、情報処理システム1と同様に、エージェントによる応答を変換して提示するシステムである。ただし、情報処理システム1では、応答制御装置30にフィルタの機能を持たせたのに対して、情報処理システム1Cでは、ユーザの端末装置側にフィルタの機能を持たせた点が異なる。
 情報処理システム1Cの構成について説明する。
 情報処理システム1Cは、情報処理システム1が備える端末装置10と応答制御装置30とに代えて、端末装置10Cと応答制御装置30Cを備える。
 図17は、端末装置10Cの構成を示すブロック図である。
 端末装置10Cの記憶部15は、システム/ユーザ変換情報記憶部151Cと、ユーザ情報記憶部152Cと、履歴情報記憶部153Cとを備える。端末装置10Cの制御部16は、システム/ユーザフィルタ部17Cを備える。システム/ユーザフィルタ部17Cは、システム/ユーザ変換部171Cと、システム/ユーザ変換学習部172Cと、を備える。
 システム/ユーザ変換情報記憶部151Cは、システム/ユーザ変換情報記憶部321と同様の構成である。ユーザ情報記憶部152Cは、ユーザ情報記憶部323と同様の構成である。履歴情報記憶部153Cは、履歴情報記憶部324と同様の構成である。
 システム/ユーザフィルタ部17Cは、システム/ユーザフィルタ部34と同様の構成である。システム/ユーザ変換部171Cは、システム/ユーザ変換部341と同様の構成である。システム/ユーザ変換学習部172Cは、システム/ユーザ変換学習部342と同様の構成である。
 図18は、応答制御装置30Cの構成を示すブロック図である。
 応答制御装置30Cの記憶部32は、応答制御装置30の記憶部32が備えるシステム/ユーザ変換情報記憶部321を備えない。応答制御装置30Cの制御部33は、システム/ユーザフィルタ部34を備えない。
 以上説明したように、情報処理システム1C(情報処理システムの一例)では、端末装置10Cがシステム/ユーザフィルタ部17Cを備える。このように、上述した各実施形態における任意の構成は、別体の装置に分離して備えられてよいし、組み合わされてもよい。
 上記各実施形態では、システム/ユーザ変換フィルタlfは、ユーザに応じた変換規則を示すものとして説明したが、これには限らない。システム/ユーザ変換フィルタlfは、エージェントに応じた変換規則を示してもよいし、ユーザとエージェントとの組み合わせに応じた変換規則を示してもよい。つまり、ユーザとエージェントとの関係性に応じた変換規則を示してもよい。
 上記実施形態において、各種情報のデータ構成は、上述したものに限られない。
各情報の対応付けは、直接的に行われてもよいし、間接的に行われてもよい。処理に必須ではない情報を省略してもよいし、類似の情報を追加して処理を行ってもよい。例えば、ユーザ情報として、ユーザの居所や職業等を含めてもよい。例えば、履歴情報は、上記実施形態のように、対話の内容を集約したものでなく、対話そのものを記録した情報であってもよい。
 上記実施形態において、応答の提示態様は、上述したものに限られない。例えば、各発言は、時系列に提示されてもよい。例えば、応答を行った応答用エージェントを明確にすることなく応答を提示してもよい。
 上記実施形態では、ユーザ情報や履歴情報等のユーザに関する情報の参照が、エージェント実行部35に対して制限されている場合について説明したが、これには限らない。例えば、エージェント実行部35は、ユーザに関する情報を参照して応答の生成や機械学習を行ってもよい。ただし、エージェント実行部35に対してユーザに関する情報を制限することにより、個人情報を保護することができる。
 例えば、エージェント実行部35を複数のユーザへの応答に利用する場合は、あるユーザへの応答において、他のユーザへの機械学習の結果が反映される。この機械学習に他のユーザの個人情報が含まれると、生成された応答に個人情報が含まれて、ユーザの個人情報が流出してしまう恐れがある。この点、ユーザ情報の参照を制限することにより、応答に個人情報が含まれることがなくなる。このように、実施形態で説明した任意の情報の利用は、ユーザからの指定や初期設定で制限されてよい。
 上記各実施形態では、制御部16、制御部33はソフトウェア機能部であるものとしたが、LSI(Large Scale Integration)等のハードウェア機能部であってもよい。
 以上説明した少なくともひとつの実施形態によれば、システム/ユーザフィルタ部34を持つことにより、ユーザの発言に対して、ユーザに応じた応答を行うことができる。
 上述の端末装置10、10C、応答制御装置30、30A~30Cの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより端末装置10、10C、応答制御装置30、30A~30Cとしての処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。
「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD-ROM等の非一過性の記録媒体であってもよい。記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部または外部に設けられた記録媒体も含まれる。配信サーバの記録媒体に記憶されるプログラムのコードは、端末装置で実行可能な形式のプログラムのコードと異なるものでもよい。すなわち、配信サーバからダウンロードされて端末装置で実行可能な形でインストールができるものであれば、配信サーバで記憶される形式は問わない。プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に端末装置で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
 上述した端末装置10、10C、応答制御装置30、30A~30Cの機能の一部または全部を、LSI等の集積回路として実現してもよい。上述した各機能は個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。
半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。

Claims (9)

  1.  発言を生成してユーザとの対話を行う対話部と、
     発言の変換規則を示す変換情報を記憶する記憶部と、
     前記記憶部に記憶された変換情報を用いて、前記対話部が生成した発言をユーザに応じた態様に変換するシステム/ユーザ変換部と、
     を備える情報処理システム。
  2.  ユーザから発言を受け付ける受付部と、
     前記受付部により受け付けられた発言を、前記対話部に応じた態様に変換するユーザ/システム変換部と、
     を更に備える請求項1に記載の情報処理システム。
  3.  前記システム/ユーザ変換部は、記憶部に記憶されたユーザごとの変換情報を用いて、前記対話部が生成した発言をユーザに応じた態様に変換する
     請求項1に記載の情報処理システム。
  4.  前記システム/ユーザ変換部は、記憶部に記憶されたユーザの属性ごとの変換情報を、ユーザの属性を用いて検索し、検索により得られた変換情報を用いて、前記対話部が生成した発言を当該ユーザに応じた態様に変換する
     請求項1に記載の情報処理システム。
  5.  前記システム/ユーザ変換部は、機械学習に基づいて変換を行い、
     前記機械学習をするか否かを判定する第1判定部、
     を更に備える請求項1に記載の情報処理システム。
  6.  前記対話部は、機械学習に基づいて発言を生成し、
     複数の前記対話部の中から、機械学習する対話部を判定する第2判定部、
     を更に備える請求項1に記載の情報処理システム。
  7.  発言を生成してユーザとの対話を行う対話部と、
     発言の変換規則を示す変換情報を記憶部から読み出し、前記読み出した変換情報を用いて、前記対話部が生成した発言をユーザに応じた態様に変換するシステム/ユーザ変換部と、
     を備える情報処理装置。
  8.  発言の変換規則を示す変換情報を記憶する記憶部を備える情報処理システムによる情報処理方法であって、
     前記情報処理システムが、発言を生成してユーザとの対話を行う第1ステップと、
     前記情報処理システムが、前記記憶部に記憶された変換情報を用いて、前記第1ステップにおいて生成した発言をユーザに応じた態様に変換する第2ステップと、
     を含む情報処理方法。
  9.  コンピュータに、
     発言を生成してユーザとの対話を行う第1ステップと、
     発言の変換規則を示す変換情報を記憶部から読み出し、前記読み出した変換情報を用いて、前記第1ステップにおいて生成した発言をユーザに応じた態様に変換する第2ステップと、
     を実行させるためのプログラムを記憶した記憶媒体。
PCT/JP2017/033084 2016-09-29 2017-09-13 情報処理システム、情報処理装置、情報処理方法、及び記憶媒体 WO2018061776A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201780059201.0A CN109791571A (zh) 2016-09-29 2017-09-13 信息处理系统、信息处理装置、信息处理方法及存储介质
US16/336,779 US20190228760A1 (en) 2016-09-29 2017-09-13 Information processing system, information processing apparatus, information processing method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016191015A JP2018055422A (ja) 2016-09-29 2016-09-29 情報処理システム、情報処理装置、情報処理方法、及びプログラム
JP2016-191015 2016-09-29

Publications (1)

Publication Number Publication Date
WO2018061776A1 true WO2018061776A1 (ja) 2018-04-05

Family

ID=61760293

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/033084 WO2018061776A1 (ja) 2016-09-29 2017-09-13 情報処理システム、情報処理装置、情報処理方法、及び記憶媒体

Country Status (4)

Country Link
US (1) US20190228760A1 (ja)
JP (1) JP2018055422A (ja)
CN (1) CN109791571A (ja)
WO (1) WO2018061776A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10826864B2 (en) 2018-07-27 2020-11-03 At&T Intellectual Property I, L.P. Artificially intelligent messaging

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6550603B1 (ja) * 2018-04-25 2019-07-31 メドケア株式会社 指導支援システム、指導支援方法及び指導支援サーバ
WO2019225201A1 (ja) * 2018-05-25 2019-11-28 ソニー株式会社 情報処理装置及び情報処理方法、並びに情報処理システム
JP2022047550A (ja) * 2019-01-23 2022-03-25 ソニーグループ株式会社 情報処理装置、及び情報処理方法
JP7293743B2 (ja) * 2019-03-13 2023-06-20 日本電気株式会社 処理装置、処理方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002031814A1 (en) * 2000-10-10 2002-04-18 Intel Corporation Language independent voice-based search system
WO2016104736A1 (ja) * 2014-12-26 2016-06-30 株式会社オルツ コミュニケーション提供システム及びコミュニケーション提供方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100779978B1 (ko) * 2000-09-12 2007-11-27 소니 가부시끼 가이샤 정보제공시스템, 정보제공장치 및 정보제공방법과데이터기록매체
US7127402B2 (en) * 2001-01-12 2006-10-24 International Business Machines Corporation Method and apparatus for converting utterance representations into actions in a conversational system
KR102011495B1 (ko) * 2012-11-09 2019-08-16 삼성전자 주식회사 사용자의 심리 상태 판단 장치 및 방법
US20150161606A1 (en) * 2013-12-11 2015-06-11 Mastercard International Incorporated Method and system for assessing financial condition of a merchant
JP6302707B2 (ja) * 2014-03-06 2018-03-28 クラリオン株式会社 対話履歴管理装置、対話装置および対話履歴管理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002031814A1 (en) * 2000-10-10 2002-04-18 Intel Corporation Language independent voice-based search system
WO2016104736A1 (ja) * 2014-12-26 2016-06-30 株式会社オルツ コミュニケーション提供システム及びコミュニケーション提供方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10826864B2 (en) 2018-07-27 2020-11-03 At&T Intellectual Property I, L.P. Artificially intelligent messaging

Also Published As

Publication number Publication date
US20190228760A1 (en) 2019-07-25
CN109791571A (zh) 2019-05-21
JP2018055422A (ja) 2018-04-05

Similar Documents

Publication Publication Date Title
WO2018061776A1 (ja) 情報処理システム、情報処理装置、情報処理方法、及び記憶媒体
US10944708B2 (en) Conversation agent
KR102625761B1 (ko) 사용자 프로그래머블 자동화 어시스턴트
US10079013B2 (en) Sharing intents to provide virtual assistance in a multi-person dialog
WO2017217507A1 (ja) コミュニケーションを支援する人工知能システム
US8934652B2 (en) Visual presentation of speaker-related information
US8811638B2 (en) Audible assistance
WO2018061774A1 (ja) 情報処理システム、情報処理装置、情報処理方法、及び記憶媒体
US20130144595A1 (en) Language translation based on speaker-related information
US20150149182A1 (en) Sharing Intents to Provide Virtual Assistance in a Multi-Person Dialog
US20130144619A1 (en) Enhanced voice conferencing
US20180268821A1 (en) Virtual assistant for generating personal suggestions to a user based on intonation analysis of the user
Khadija et al. AI-powered health chatbots: toward a general architecture
Chubb et al. Interactive storytelling for children: A case-study of design and development considerations for ethical conversational AI
Griol et al. Modeling the user state for context-aware spoken interaction in ambient assisted living
JP2016076117A (ja) 情報処理装置及び発話内容出力方法
WO2020213468A1 (ja) 情報処理システム、情報処理方法、及びプログラム
JP6712387B2 (ja) コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム
US20200066267A1 (en) Dialog Manager for Supporting Multi-Intent Dialogs
Inupakutika et al. Integration of NLP and Speech-to-text Applications with Chatbots
US20150127593A1 (en) Platform to Acquire and Represent Human Behavior and Physical Traits to Achieve Digital Eternity
KR102507809B1 (ko) 공감대 형성을 통한 심리 치료용 인공지능 대화 시스템
Hung et al. Context‐Centric Speech‐Based Human–Computer Interaction
Upadhyaya et al. Smart Multi-linguistic Health Awareness System using RASA Model
Vineeth et al. A Proposed Chatbot Psykh Your Personal Therapist and Stress Buster Using RASA Open-Source Framework

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17855732

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17855732

Country of ref document: EP

Kind code of ref document: A1