WO2018169000A1 - 対話システム及びそのためのコンピュータプログラム - Google Patents

対話システム及びそのためのコンピュータプログラム Download PDF

Info

Publication number
WO2018169000A1
WO2018169000A1 PCT/JP2018/010230 JP2018010230W WO2018169000A1 WO 2018169000 A1 WO2018169000 A1 WO 2018169000A1 JP 2018010230 W JP2018010230 W JP 2018010230W WO 2018169000 A1 WO2018169000 A1 WO 2018169000A1
Authority
WO
WIPO (PCT)
Prior art keywords
utterance
response
emotion
score
input
Prior art date
Application number
PCT/JP2018/010230
Other languages
English (en)
French (fr)
Inventor
阿部 憲幸
可奈子 大西
健太郎 鳥澤
カナサイ クルンカライ
豊 木俵
Original Assignee
国立研究開発法人情報通信研究機構
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立研究開発法人情報通信研究機構 filed Critical 国立研究開発法人情報通信研究機構
Priority to KR1020197025856A priority Critical patent/KR20190127708A/ko
Priority to US16/487,041 priority patent/US11113335B2/en
Publication of WO2018169000A1 publication Critical patent/WO2018169000A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Definitions

  • the present invention relates to a dialog system using a computer, and more particularly to a dialog system capable of improving the connection of dialog by making an appropriate response according to the emotion of a dialog partner (user).
  • FIG. 1 shows a schematic system configuration of such a conventional dialogue system.
  • a conventional dialogue system 50 receives an input utterance 52 (here, text data) and receives an input utterance emotion estimation unit 70 that estimates the emotion of the user who made the utterance.
  • the response utterance emotion determination unit 72 that determines the emotion of the response utterance based on the emotion estimated by the input utterance emotion estimation unit 70, the emotion determined by the response utterance emotion determination unit 72, and the contents of the input utterance 52 are considered.
  • a response utterance selection / generation unit 74 for selecting a response utterance candidate from a response utterance database (not shown) prepared in advance and generating and outputting a response utterance 54 is included.
  • a response utterance emotion determination unit 72 is added between the input utterance emotion estimation unit 70 and the response utterance selection / generation unit 74.
  • the existing response utterance selection / generation processing cannot be used as it is, and it is necessary to create the response utterance selection / generation unit 74 in a form that further considers the emotion of the response utterance.
  • An object of the present invention is to provide a dialog system that can generate an appropriate response utterance according to the emotion of an input utterance more easily by utilizing the response utterance selection / generation mechanism of an existing system.
  • the dialogue system includes a response utterance generating unit that receives an input utterance and generates a response utterance original for the input utterance, and a plurality of emotions represented by the input utterance and a plurality of emotions.
  • the input utterance emotion estimation means for estimating the emotion of the input utterance by calculating the input utterance emotion score representing the degree of coincidence with the emotion, and the response utterance emotion that is the emotion score for each of a plurality of emotions with respect to the response utterance original sentence
  • Response utterance emotion score calculation means for calculating a score and response utterance original text generated by the response utterance generation means are converted according to a conversion method defined by the input utterance emotion score and the value of the response utterance emotion score.
  • Response utterance conversion means for generating and outputting.
  • the response utterance conversion means includes a character string storage means for storing a character string to be given to the response utterance original text, and a character string storage means according to a selection method defined by the input utterance emotion score and the response utterance emotion score values. Means for selecting a character string and attaching it to the response utterance text to generate a response utterance.
  • the dialogue system further includes history storage means for storing a history of the input utterance emotion score calculated for the input utterance.
  • the response utterance conversion means is configured to select an arbitrary character from the character string storage means according to a selection method defined by the input utterance emotion score, the response utterance emotion score, and the value of the input utterance emotion score of the previous input utterance stored in the history storage means. Means for selecting a column and assigning to the response utterance text to generate a response utterance;
  • the character string is a conjunctive and / or a companion
  • the character string storage means includes a conjunctive storage means for storing a reverse conjunctive conjunction and a conflict storage means for storing the conflict.
  • the response utterance conversion means selects a conjunction and / or a companion from the conjunction storage means and / or the interaction storage means in accordance with a selection method defined by the values of the input utterance emotion score and the response utterance emotion score, and assigns them to the response utterance original text Means for generating a response utterance.
  • each of the plurality of emotions is classified into a first polarity and a second polarity different from the first polarity.
  • the dialogue system further includes, for each of the input utterance emotion score and the response utterance emotion score, first polarity calculation means for calculating a first polarity score comprising a sum of emotion scores of the first polarity, and a first polarity score of the input utterance. And means for adding a word indicating consent to the response utterance in response to the absolute value of the difference from the first polarity score of the response utterance being equal to or less than a threshold value.
  • the computer program according to the second aspect of the present invention causes a computer to function as each unit of any of the above-described devices.
  • FIG. 1 It is a figure which shows the example of the emotion score of an input utterance. It is a figure which shows the example of the emotion score of a response speech. It is a figure which shows the relationship between emotion and the corresponding interest. It is a block diagram which shows schematic structure of the dialogue system which concerns on the 2nd Embodiment of this invention. It is a figure which shows the emotion score with respect to the last input utterance, and the emotion score with respect to the present input utterance. It is a block diagram which shows schematic structure of the response speech conversion part shown in FIG. It is a flowchart which shows the control structure of the computer program which implement
  • FIG. 1 It is a block diagram which shows schematic structure of the dialogue system which concerns on the 3rd Embodiment of this invention. It is a block diagram which shows schematic structure of the response speech conversion part shown in FIG. It is a figure which shows the storage content of the character string database (DB) shown in FIG. It is a flowchart which shows the control structure of the computer program which implement
  • DB character string database
  • FIG. 2 shows a block diagram of the interactive system 100 according to the first embodiment of the present invention.
  • the dialogue system 100 uses an existing method based on the input utterance emotion estimation unit 120 that estimates the user's emotion from the input utterance 52, and is illustrated in FIG. 2.
  • a response utterance selection unit 122 that selects a response utterance from the dialogue / response beta base and a response utterance selected by the response utterance selection unit 122, depending on the emotion estimated by the input utterance emotion estimation unit 120,
  • a response utterance conversion unit 124 that converts the response utterance by adding the conflict and outputs the final response utterance 102.
  • input utterance emotion estimation unit 120 receives an input of a word string (actually a word vector) constituting input utterance 52
  • input utterance emotion estimator 120 inputs utterances for each of a plurality of emotion items prepared in advance.
  • the input utterance 52 is received by receiving the convolutional neural network (CNN) 152 that has been learned in advance and the input utterance 52 so as to output a score indicating how much the emotion of the utterer 52 matches the emotion item.
  • the CNN input generation unit 150 for generating and giving the input to the CNN 152 by converting each word constituting the word into a corresponding word vector, and the score output by the CNN 152 for each emotion item are temporarily stored for each emotion item And a score storage unit 154.
  • the CNN 152 has the same number of outputs as the number of emotion items, and outputs a score indicating the probability that the input utterance 52 indicates the emotion item for each emotion item. Therefore, when the outputs of CNN 152 are summed, the value is 1.
  • the input utterance emotion estimation unit 120 further includes an emotion polarity storage unit 156 that stores the polarity of emotion (positive or negative) indicated by each emotion item, and an emotion polarity storage unit that stores each emotion item stored in the score storage unit 154.
  • a polarity score calculation unit 158 that calculates a total value of the scores and stores them in the score storage unit 154 by distinguishing between positive ones and negative ones according to the corresponding polarities stored in 156.
  • the positive total value is referred to as a positive value
  • the negative total value is referred to as a negative value
  • these are collectively referred to as a polarity score.
  • emotion polarity storage unit 156 stores the polarity (positive or negative) for each emotion item (happy, sad, fun, painful). Although these emotion items are described as four in the present embodiment, they are actually composed of more words that are preliminarily extracted from a large amount of documents and are considered to represent emotions. When differentiating emotion items in the form of words, even if the original is the same word, it may be stored as separate emotion items depending on the shape. In the present embodiment, the polarity of each emotion item is also given manually. Of course, this polarity may be determined using a discriminator by machine learning or the like.
  • the response utterance selection unit 122 shown in FIG. 2 is an existing one, and an input sentence and a response sentence for the input sentence collected in advance from dialogue sentences on the web and social network services
  • the input utterance 52 is searched,
  • a response utterance search unit 200 that selects and outputs a response utterance most appropriate as a response to the input utterance 52, and a response utterance original sentence 220 by performing a ending change suitable for the current dialogue with respect to the response utterance output by the response utterance search unit 200.
  • a ending change processing unit 204 to be generated.
  • the response utterance original sentence 220 which is the output of the ending change processing section 204, is given to the response utterance conversion section 124 shown in FIG.
  • response utterance conversion unit 124 receives response utterance original sentence 220 from ending change processing unit 204, and generates an input to CNN by the same technique as CNN input generation unit 150 shown in FIG. Unit 240, the same CNN 242 as CNN 152 shown in FIG. 3, and a score storage unit 244 similar to the score storage unit 154 shown in FIG. Including.
  • the response utterance conversion unit 124 calculates the polarity score of the response utterance original sentence 220 from the score stored in the score storage unit 244, and the score storage unit 244.
  • the emotion polarity storage unit 246 and the polarity score calculation unit 248 stored in the memory, the conjunction storage unit 250 that stores the conjunction that may be added before the response utterance, and the possibility that the same may be added before the response utterance.
  • the emotion DB 252 storing a certain conflict and the emotion of the input utterance 52 estimated by the input utterance emotion estimation unit 120 (see FIG.
  • the conjunction storage unit 250 stores conjunctions of reverse connection such as “But”, “But”, “But”, etc.
  • the interaction DB 252 stores the interaction to be given to the response utterance original sentence 220 for each emotion item.
  • two or more conflicts may be stored in one emotion item.
  • FIG. 7 is a flowchart showing a control structure of a computer program that causes the computer to function as a conjunction / conjunction giving unit 254.
  • this program is stored in positive value P of input utterance 52 stored in score storage unit 154 of input utterance emotion estimation unit 120 shown in FIG. 2, and in score storage unit 244 shown in FIG.
  • step 280 When the absolute value of the difference between the response utterance original sentence 220 and the positive value Psystem is 0.5 or more, and when the determination in step 280 is affirmative, the conjunction storage unit 250 stores “ However, step 282 that randomly selects one of the conjunctive conjunctions such as “but” but “but” and assigns it to the head of the response utterance original sentence 220, and after step 282, and the determination of step 280 is negative.
  • the affirmative obtains the back-channel feedback in accordance with the emotion item from Aizuchi DB 252, and a step 286 to be added to the beginning of the response utterance original 220.
  • the conjunction and the cooperation provision part 254 which concern on this Embodiment select one at random from them.
  • the program further determines whether the absolute value of the difference between the positive value P of the input utterance 52 and the positive value Psystem of the response utterance original sentence 220 is 0.1 or less when the determination in step 284 is negative. If the determination in step 288 and step 288 is affirmative, one of the words “Yes” and “I see” indicating that the other party's utterance is heard is selected at random and placed at the top of the response utterance original sentence 220. Step 290 to be added, and Step 292 that outputs the converted response utterance original sentence 220 as the response utterance 102 in any case after Step 286, after Step 290, and when the determination at Step 288 is negative.
  • the dialogue system 50 operates as follows.
  • the emotion polarity storage units 156 and 246 shown in FIGS. 3 and 6 respectively, the polarity is stored in advance for each emotion item as shown in FIG.
  • CNNs 152 and 242 it is assumed that learning is performed so as to output a score of each emotion item for the input utterance when a word vector of a word constituting the input utterance is given.
  • the input sentence / response sentence pair DB 202 shown in FIG. 5 is constructed so that a large number of input sentence / response sentence pairs collected from a corpus such as the web can be retrieved using the input sentence as a key.
  • several conjunctions of reverse connection are stored in the conjunction storage unit 250 shown in FIG. 6, and one or a plurality of conflicts are stored for each emotion item in the conflict DB 252.
  • a word vector is used as an input to CNNs 152 and 242.
  • the present invention is not limited to such an embodiment.
  • the word vector may be input in the form of an identifier string. Good.
  • CNN input generation unit 150 generates an input to CNN 152 by converting the words constituting input utterance 52 into a word vector, and gives the input to CNN 152.
  • the CNN 152 outputs the score of the input utterance 52 for each emotion item stored in the emotion polarity storage unit 156.
  • This score is stored in the score storage unit 154.
  • An example of this score is shown in FIG.
  • the polarity score calculation unit 158 classifies each emotion item stored in the score storage unit 154 into positive and negative with reference to the emotion polarity storage unit 156, calculates a positive value and a negative value, and stores them in the score storage unit 154. save.
  • the score is a probability and the sum is 1, the sum of the positive value and the negative value is also 1.
  • the positive value and the negative value may be calculated by any method as long as a difference between the relative values can be obtained.
  • response utterance search unit 200 searches input sentence / response sentence pair DB 202 using input utterance 52 as a key, thereby obtaining a response utterance original sentence suitable as a response utterance for input utterance 52 as input sentence / response sentence pair.
  • the ending change processing unit 204 changes the ending of the response utterance original sentence according to the current dialogue to obtain the response utterance original sentence 220, which is output to the response utterance conversion unit 124 shown in FIG.
  • CNN input generation unit 240 of response utterance conversion unit 124 generates a word vector that is input from response utterance original sentence 220 to CNN 242 in the same manner as CNN input generation unit 150, and provides the generated word vector to CNN 242.
  • the CNN 242 outputs a score for each emotion item stored in the emotion polarity storage unit 246. This score is stored in the score storage unit 244.
  • the polarity score calculation unit 248 classifies each emotion item stored in the score storage unit 244 into positive and negative with reference to the emotion polarity storage unit 246, calculates a positive value and a negative value, and stores them in the score storage unit 244. save.
  • FIG. 9 shows an example of the score calculated for the response utterance candidate stored in the score storage unit 244.
  • the conjunction / conflicting unit 254 uses the score stored in the score storage unit 244 and the score stored in the score storage unit 154 of the input utterance emotion estimation unit 120 for the response utterance original sentence 220 as follows.
  • the response utterance original sentence 220 is output as the response utterance 102 with a conjunctive conjunctive or conjunctive attached to the head.
  • step 280 if the difference between positive value P of input utterance 52 stored in score storage unit 154 and positive value Psystem of response utterance original sentence 220 is 0.5 or more (determination in step 280 is affirmative). Any one of the converse conjunctions stored in the conjunction storage unit 250 is selected at random and added to the head of the response utterance original sentence 220.
  • step 286 the interaction corresponding to the emotion item is extracted from the interaction DB 252 and the response utterance original text 220.
  • a conjunction is given in step 282
  • a conflict is given before that.
  • a response is given to the head of the response utterance original sentence 220.
  • step 292 the converted response utterance original sentence 220 is output.
  • step 284 determines whether the difference between the positive value of the input utterance 52 and the positive value of the response utterance original sentence 220 is 0.1 or less. If the determination is affirmative, the emotions of the input utterance 52 and the response utterance original sentence 220 are considered to be substantially the same. In this case, either “Yes” or “I see.” Is selected at random in step 290 and added to the head of the response utterance original 220, and the converted response utterance original 220 is output in step 292.
  • the selection was made based on the emotion score and polarity score of the utterance and the emotion score and polarity score of the response utterance original sentence.
  • a conjunction and / or a companion is added to the head of the response utterance text and output.
  • the response utterance selection unit 122 shown in FIG. 2 can generate and output an appropriate response utterance according to the emotion expressed by the input utterance 52 while using the existing one as it is.
  • dialogue system 330 is input by input utterance emotion estimation unit 120 and response utterance selection unit 122, which are the same as those shown in FIG. 2, and input utterance emotion estimation unit 120.
  • a history storage unit 350 that stores a history of scores for each emotion item calculated for the utterance 52, a score of the input utterance 52 calculated by the input utterance emotion estimation unit 120, and a previous input stored in the history storage unit 350
  • a response utterance conversion unit 352 for converting a response utterance original by adding a conjunction and / or a companion to the response utterance original selected by the response utterance selection unit 122 based on the score of the utterance, and outputting the response utterance 360 as a response utterance 360; including.
  • FIG. 12 shows an example of the score history stored in the history storage unit 350 in FIG. 11 and the score history obtained from the current input utterance 52.
  • the score obtained from the previous input utterance (“previous score”) and the score obtained from the current input utterance 52 (current “score”) are used.
  • Transform response utterance text is also used for conversion of the response utterance original sentence. It should be noted that there is no history when the conversation is started, but in this case, the emotion score of all the history is set to 0.
  • response utterance conversion unit 352 has the same configuration as response utterance conversion unit 124 shown in FIG. 6, but in place of conjunction / conjunction provision unit 254 shown in FIG. The difference is that 380 is included.
  • the conjunction / conflicting unit 380 includes an emotion score and a polarity score for the input utterance 52 obtained by the input utterance emotion estimation unit 120, an emotion score obtained from the previous input utterance stored in the history storage unit 350, and Using the history polarity score calculated from the emotion score and the emotion polarity stored in the emotion polarity storage unit 246, a response utterance of the conjunction and / or the interaction stored in the conjunction storage unit 250 and the interaction DB 252 is performed.
  • a response utterance 360 is output at the top of the original sentence 220.
  • FIG. 14 is a flowchart showing the control structure of a computer program that implements the conjunction / conflicting unit 380 by a computer.
  • this program has substantially the same structure as that shown in FIG. 7, but differs in that step 400 is included instead of step 284 in FIG.
  • step 400 for each emotion item, the difference between the previous emotion score and the current emotion score (
  • F i (t ⁇ 1) indicates a score in the history of the same emotion item), and determines whether the value is 0.3 or more.
  • This step 400 is different from that shown in FIG. If the determination in step 400 is affirmative, the control proceeds to step 286 as in FIG. 7, and if the determination is negative, the control proceeds to step 288 as in FIG.
  • all the history emotion scores stored in history storage unit 350 are initialized with the emotion score initial value.
  • the initial value of the emotion score is preferably 1.0 / (number of emotion score items) so that the sum is 1.0.
  • the input utterance emotion estimation unit 120 calculates an emotion score for the input utterance 52 and stores it in the history storage unit 350.
  • the emotion score stored in the history storage unit 350 is given to the conjunction / conflict provision unit 380 of the response utterance conversion unit 352 shown in FIG.
  • the response utterance selection unit 122 retrieves and extracts the response utterance original sentence for the input utterance 52 in the input sentence / response sentence pair DB 202 (see FIG. 5), and provides it to the response utterance conversion unit 352.
  • CNN input generation unit 240 and CNN 242 calculate the emotion score of response utterance original sentence 220 and store it in score storage unit 244.
  • the polarity score calculation unit 248 calculates the polarity score of the emotion score stored in the score storage unit 244 using the emotion polarity stored in the emotion polarity storage unit 246 and stores it in the score storage unit 244.
  • the conjunction / conjunction assigning unit 380 selects a conjunctive conjunctive and / or conjunctive according to the flowchart shown in FIG. 14, assigns it to the head of the response utterance original sentence 220, and outputs a response utterance 360.
  • the operation of the conjunction / conflicting unit 380 according to the flowchart shown in FIG. 14 is the same as that of the first embodiment except for the determination in step 400. Therefore, details thereof will not be repeated here.
  • the emotion of the input utterance changes greatly, a response according to the change of the emotion is given to the response utterance.
  • a response according to the change of the emotion is given to the response utterance.
  • FIG. 15 shows the configuration of an interactive system 430 according to the third embodiment of the present invention.
  • the dialogue system 430 is different from the dialogue system 330 according to the second embodiment shown in FIG. 11 in that the history of emotion scores stored in the history storage unit 350 is used instead of the response utterance conversion unit 352 shown in FIG.
  • the response utterance is converted by adding a character string to the response utterance original text by a method different from the response utterance conversion unit 352
  • the response utterance conversion unit 450 that outputs the response utterance 432 is included.
  • response utterance conversion unit 450 has the same configuration as response utterance conversion unit 352 of the second embodiment shown in FIG. 13, but replaces conjunction storage unit 250 and interaction DB 252 of FIG. The difference is that it includes a character string DB 470 that stores a character string prepared in advance corresponding to a change in emotion, which is different from a mere conjunction or a match.
  • the response utterance conversion unit 450 further replaces the conjunction / conflict provision unit 380 of FIG. 13 with the history of the emotion score stored in the history storage unit 350 and the emotion score calculated for the input utterance 52 by the input utterance emotion estimation unit 120.
  • the character string DB 470 is searched for and extracted the character string to be added to the head of the response utterance original sentence 220, and the response utterance original sentence 220 It differs from the response utterance conversion unit 352 also in that it includes a character string adding unit 472 that is attached to the head of the character string and output as a response utterance 432.
  • the character string stored in character string DB 470 is, for example, “You may be happy,” and “You are happy,” for the feeling of “happy”. , "Is a character string that leads to a reverse utterance to the other party's utterance. This is because the character string assigning unit 472, which will be described later, has a control structure that responds based on the immediately preceding partner's remark when the opponent's emotion changes greatly. It goes without saying that various methods can be considered for selecting the character string depending on the determination method in the character string assigning unit 472.
  • FIG. 18 is a flowchart showing a control structure of a program for realizing the function of the character string adding unit 472 by a computer.
  • this program has substantially the same control structure as the program of the second embodiment shown in FIG. 14, but does not include step 282 in FIG. 14, and the determination result in step 280 is negative. Is different in that the control proceeds to step 288 instead of step 400.
  • This program further obtains the corresponding character string from the character string DB 470 using the emotion with the largest score difference as a key when the determination in step 400 is affirmative instead of step 286 in FIG. 14 is different from FIG. 14 in that step 502 is added to the head of the.
  • the control proceeds to step 288, and thereafter, the control is the same as that shown in FIG. Further, after step 502, control proceeds to step 252 in the same manner as after step 286 in FIG.
  • the operation of the dialogue system 430 according to the present embodiment is basically the same as that of the second embodiment.
  • the difference between the positive value of the input utterance and the positive value of the system utterance is 0.5 or more, each emotion score of the history of the input utterance, and each emotion of the current input utterance
  • the dialogue system 430 operates as follows. That is, in this embodiment, in this embodiment, a character string corresponding to an emotion that gives the maximum value of the difference in emotion scores is selected from the character string DB 470 shown in FIG. It is given to the head of the original utterance 220.
  • system philosophy of the second embodiment and the third embodiment may be mixed, and a response utterance may be generated according to any method for each input utterance.
  • the determination methods in the conjunction / conferencing unit 254 and 380 and the character string providing unit 472 in each of the above embodiments are not limited to the above embodiment.
  • the threshold for determination in step 284 of FIG. 7 and step 400 of FIG. 14 and FIG. 18 changes according to the number of emotion items used. Although it is desirable to set these values to appropriate values by prior experiments or the like, arbitrary values may be selected regardless of experiments.
  • the present invention is characterized in that it provides a framework in which a response utterance can be processed using an emotion score of an input utterance after selecting the response utterance by an existing method.
  • a response utterance can be processed using an emotion score of an input utterance after selecting the response utterance by an existing method.
  • FIG. 19 shows the external appearance of the computer system 630
  • FIG. 20 shows the internal configuration of the computer system 630.
  • a computer system 630 includes a computer 640 having a memory port 652 and a DVD (Digital Versatile Disk) drive 650, a keyboard 646, a mouse 648, and a monitor 642, all connected to the computer 640. Including.
  • DVD Digital Versatile Disk
  • the computer 640 includes a CPU (Central Processing Unit) 656, a bus 666 connected to the CPU 656, the memory port 652, and the DVD drive 650, and a startup program.
  • ROM Read-only memory
  • RAM random access memory
  • Computer system 630 further includes a network interface (I / F) 644 that provides a connection to network 668 that allows communication with other terminals.
  • Computer programs for causing the computer system 630 to function as the interactive systems 100, 330, and 430 according to the above-described embodiments and their respective functional units are stored in the DVD 662 or the removable memory 664 installed in the DVD drive 650 or the memory port 652. And further transferred to the hard disk 654. Alternatively, the program may be transmitted to the computer 640 through the network 668 and stored in the hard disk 654. The program is loaded into the RAM 660 when executed. The program may be loaded directly from the DVD 662 into the RAM 660 from the removable memory 664 or via the network 668.
  • This program includes an instruction sequence including a plurality of instructions for causing the computer 640 to function as each functional unit of the interactive systems 100, 330, and 430 according to the above embodiment.
  • Some of the basic functions necessary to cause computer 640 to perform this operation are an operating system or third party program running on computer 640 or various dynamically linked programming toolkits or programs installed on computer 640. Provided by the library. Therefore, this program itself does not necessarily include all the functions necessary for realizing the system, apparatus, and method of this embodiment.
  • the program is a system as described above, by dynamically calling the appropriate program in the appropriate function or programming toolkit or program library at run time in a controlled manner to obtain the desired result. It is only necessary to include an instruction for realizing a function as an apparatus or a method. Of course, all necessary functions may be provided only by an independent program.
  • This invention can be applied to all industries where it is useful to give answers to questions, such as science, engineering, education, manufacturing, and service industries.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Data Mining & Analysis (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】簡便に、既存のシステムの応答発話選択・生成の仕組みを活かして、入力発話の感情に応じて適切な応答発話を生成できる対話システムを提供する。 【解決手段】対話システム100は、入力発話52に対する応答発話原文を生成する応答発話選択部122と、複数の感情の各々に対し、入力発話が表す感情と複数の感情とが合致する度合いを表す入力発話感情スコアを算出することにより入力発話の感情を推定する入力発話感情推定部120と、応答発話原文に対し、複数の感情の各々に対する感情スコアである応答発話感情スコアを算出し、応答発話原文を、入力発話感情スコア及び応答発話感情スコアの値により定められる変換方法にしたがって変換して応答発話102を生成し出力する応答発話変換部124とを含む。

Description

対話システム及びそのためのコンピュータプログラム
 この発明はコンピュータを用いた対話システムに関し、特に、対話相手(ユーザ)の感情に応じて適切な応答を行うことにより対話のつながりをよくすることができる対話システムに関する。本出願は、2017年3月16日に日本国に出願した出願番号2017-051504を基礎とする優先権を主張しており、その全体をここに参照により援用する。
 コンピュータを用いた対話システムが実用化されている。典型的にはそうしたシステムでは、入力発話の感情を推定した後、予め準備された発話データベースから、推定された感情に応じた応答発話候補を選択して応答とするものがあった。さらに、入力発話から推定されたユーザの感情に基づいて、応答発話の感情を決定し、決定された感情にふさわしい発話を行うことによって対話のつながりを良くしようとするものが、後掲の特許文献1に開示されている。図1に、そうした従来の対話システムの概略のシステム構成を示す。
 図1を参照して、従来の対話システム50は、入力発話52(ここではテキストデータであるものとする。)を受けて、その発話をしたユーザの感情を推定する入力発話感情推定部70と、入力発話感情推定部70により推定された感情に基づいて応答発話の感情を決定する応答発話感情決定部72と、応答発話感情決定部72により決定された感情と入力発話52の内容とを考慮して、予め準備された応答発話用のデータベース(図示せず)から応答発話候補を選択し、応答発話54を生成して出力するための応答発話選択・生成部74とを含む。
特開2015-14834号公報
 しかし、特許文献1に開示されたシステム構成では、入力発話感情推定部70と応答発話選択・生成部74との間に応答発話感情決定部72が追加される。こうした構成では、既存の応答発話の選択・生成処理をそのまま用いることができず、応答発話の感情をさらに考慮した形で応答発話選択・生成部74を作成する必要がある。
 本発明は、より簡便に、既存のシステムの応答発話選択・生成の仕組みを活かして、入力発話の感情に応じて適切な応答発話を生成できる対話システムを提供することを目的とする。
 本発明の第1の局面に係る対話システムは、入力発話を受け、当該入力発話に対する応答発話原文を生成する応答発話生成手段と、複数の感情の各々に対し、入力発話が表す感情と複数の感情とが合致する度合いを表す入力発話感情スコアを算出することにより入力発話の感情を推定する入力発話感情推定手段と、応答発話原文に対し、複数の感情の各々に対する感情スコアである応答発話感情スコアを算出するための応答発話感情スコア算出手段と、応答発話生成手段により生成された応答発話原文を、入力発話感情スコア及び応答発話感情スコアの値により定められる変換方法にしたがって変換して応答発話を生成し出力する応答発話変換手段とを含む。
 好ましくは、応答発話変換手段は、応答発話原文に付与すべき文字列を記憶する文字列記憶手段と、入力発話感情スコア及び応答発話感情スコアの値により定められる選択方法にしたがって文字列記憶手段から文字列を選択し、応答発話原文に付与して応答発話を生成するための手段とを含む。
 より好ましくは、対話システムは、さらに、入力発話に対して算出された入力発話感情スコアの履歴を記憶する履歴記憶手段を含む。応答発話変換手段は、入力発話感情スコア及び応答発話感情スコア、並びに履歴記憶手段に記憶された以前の入力発話の入力発話感情スコアの値により定められる選択方法にしたがって文字列記憶手段から任意の文字列を選択し、応答発話原文に付与して応答発話を生成するための手段を含む。
 さらに好ましくは、文字列は接続詞及び/又は相槌であり、文字列記憶手段は、逆接の接続詞を記憶する接続詞記憶手段と、相槌を記憶する相槌記憶手段とを含む。応答発話変換手段は、入力発話感情スコア及び応答発話感情スコアの値により定められる選択方法にしたがって接続詞記憶手段及び/又は相槌記憶手段から接続詞及び/又は相槌を選択し、応答発話原文に付与して応答発話を生成するための手段を含む。
 好ましくは、複数の感情の各々は、いずれも第1の極性及び当該第1の極性と異なる第2の極性とに分類される。対話システムはさらに、入力発話感情スコア及び応答発話感情スコアの各々について、第1の極性の感情スコアの合計からなる第1極性スコアを算出する第1極性算出手段と、入力発話の第1極性スコアと、応答発話の第1極性スコアとの差の絶対値がしきい値以下であることに応答して、同意を示す文言を応答発話に付与するための手段とを含む。
 本発明の第2の局面に係るコンピュータプログラムは、コンピュータを、上記したいずれかの装置の各手段として機能させる。
従来の対話システムの概略構成を示すブロック図である。 本発明の第1の実施の形態に係る対話システムの概略構成を示すブロック図である。 図2に示す対話システムの入力発話感情推定部の構成を示すブロック図である。 図3に示す感情極性記憶部に記憶されている情報の構成を示す図である。 図2に示す応答発話選択部の概略構成を示すブロック図である。 図2に示す応答発話変換部の概略構成を示すブロック図である。 図6に示す接続詞・相槌付与部の機能を実現するコンピュータプログラムの制御構造を示すフローチャートである。 入力発話の感情スコアの例を示す図である。 応答発話の感情スコアの例を示す図である。 感情と対応する相槌との関係を示す図である。 本発明の第2の実施の形態に係る対話システムの概略構成を示すブロック図である。 直前の入力発話に対する感情スコアと現在の入力発話に対する感情スコアとを示す図である。 図11に示す応答発話変換部の概略構成を示すブロック図である。 図13に示す接続詞・相槌付与部の機能を実現するコンピュータプログラムの制御構造を示すフローチャートである。 本発明の第3の実施の形態に係る対話システムの概略構成を示すブロック図である。 図15に示す応答発話変換部の概略構成を示すブロック図である。 図16に示す文字列データベース(DB)の格納内容を示す図である。 図16に示す文字列付与部の機能を実現するコンピュータプログラムの制御構造を示すフローチャートである。 本発明の各実施の形態に係る応答発話変換部を実現するコンピュータの外観を示す図である。 図19に示すコンピュータのハードウェア構成を示すブロック図である。
 以下の説明及び図面では、同一の部品には同一の参照番号を付してある。したがって、それらについての詳細な説明は繰返さない。
 [第1の実施の形態]
 <構成>
 図2に、本発明の第1の実施の形態に係る対話システム100のブロック図を示す。図2を参照して、この対話システム100は、入力発話52からユーザの感情を推定する入力発話感情推定部120と、入力発話52に基づいて、既存の手法を用いて、図2には図示しない対話・応答ベータベースから応答発話を選択する応答発話選択部122と、応答発話選択部122により選択された応答発話に対し、入力発話感情推定部120により推定された感情に応じて、接続詞又は相槌を追加することによって応答発話を変換し、最終的な応答発話102を出力する応答発話変換部124とを含む。
 図3を参照して、入力発話感情推定部120は、入力発話52を構成する単語列(実際には単語ベクトル)の入力を受けると、予め準備された複数個の感情項目の各々について入力発話52の発話者の感情がその感情項目にどの程度適合しているかを示すスコアを出力するように予め学習済のコンボリューショナルニューラルネットワーク(CNN)152と、入力発話52を受けて、入力発話52を構成する各単語を対応する単語ベクトルに変換することによりCNN152への入力を生成しCNN152に与えるためのCNN入力生成部150と、CNN152が感情項目ごとに出力するスコアを感情項目ごとに一時記憶するスコア記憶部154とを含む。CNN152は、感情項目数と同じ数の出力を持ち、感情項目ごとに、入力発話52がその感情項目を示す確率を示すスコアを出力する。したがって、CNN152の出力を合計するとその値は1となる。
 入力発話感情推定部120はさらに、各感情項目が示す感情の極性(ポジティブかネガティブか)を記憶した感情極性記憶部156と、スコア記憶部154に記憶された各感情項目について、感情極性記憶部156に記憶された対応する極性に応じてポジティブなものとネガティブなものとに区別してそれぞれスコアの合計値を算出しスコア記憶部154に保存する極性スコア算出部158とを含む。以下、ポジティブなものの合計値をポジティブ値、ネガティブなものの合計値をネガティブ値、これらをまとめて極性スコアと呼ぶ。
 図4を参照して、感情極性記憶部156は感情項目(嬉しい、悲しい、楽しい、しんどい)ごとにその極性(ポジティブ又はネガティブ)を記憶している。これら感情項目は、本実施の形態では4個として説明するが、実際には予め大量の文書から抽出した、感情を表すと考えられるより多くの単語からなる。単語の形で感情項目を区別する場合、元は同じ単語であってもその形により別々の感情項目として記憶してもよい。本実施の形態ではまた、各感情項目の極性は人手で付与している。もちろん、この極性を例えば機械学習等による判別器を用いて判定してもよい。
 図5を参照して、図2に示す応答発話選択部122は既存のものであって、予めウェブ及びソーシャル・ネットワーク・サービス上の対話文から収集した、入力文とその入力文に対する応答文とのペアを大量に記憶し、入力文をキーにして応答文を検索可能な入力文・応答文ペアデータベース(DB)202と、入力発話52を受けて、入力発話52に対する応答発話を検索し、入力発話52に対する応答として最もふさわしい応答発話を選択し出力する応答発話検索部200と、応答発話検索部200が出力した応答発話に対し、現在の対話にふさわしい語尾変化を行って応答発話原文220を生成する語尾変化処理部204とを含む。語尾変化処理部204の出力である応答発話原文220は図2に示す応答発話変換部124に与えられる。
 図6を参照して、応答発話変換部124は、語尾変化処理部204から応答発話原文220を受取り、図3に示すCNN入力生成部150と同じ手法によりCNNへの入力を生成するCNN入力生成部240と、図3に示すCNN152と同一のCNN242と、CNN242が応答発話原文220に対して出力するスコアを各感情項目別に記憶する、図3に示すスコア記憶部154と同様のスコア記憶部244とを含む。
 応答発話変換部124はさらに、図3に示す感情極性記憶部156及び極性スコア算出部158と同様、スコア記憶部244に記憶されたスコアから応答発話原文220の極性スコアを算出しスコア記憶部244に保存する感情極性記憶部246及び極性スコア算出部248と、応答発話の前に追加される可能性がある接続詞を記憶した接続詞記憶部250と、同じく応答発話の前に追加される可能性がある相槌を記憶した相槌DB252と、入力発話感情推定部120(図2を参照)により推定された入力発話52の感情を受け、スコア記憶部244から出力される各感情項目のスコア及び極性スコアに基づいて、応答発話原文220の先頭に適切な接続詞又は相槌を追加して応答発話102を生成し出力する接続詞・相槌付与部254とを含む。
 本実施の形態では、接続詞記憶部250には「でも、」「だけど、」「しかし、」等の逆接の接続詞が記憶されている。また相槌DB252には、図10に示すように、感情項目ごとに、応答発話原文220に付与すべき相槌が記憶されている。本実施の形態では、図10の「嬉しい」で示されるように、1つの感情項目に2つ以上の相槌が記憶されていてもよい。
 図7に、コンピュータを接続詞・相槌付与部254として機能させるコンピュータプログラムの制御構造をフローチャート形式で示す。図7を参照して、このプログラムは、図2に示す入力発話感情推定部120のスコア記憶部154に保存された入力発話52のポジティブ値Pと、図6に示すスコア記憶部244に保存された応答発話原文220のポジティブ値Psystemとの差の絶対値が0.5以上か否かを判定するステップ280と、ステップ280の判定が肯定のときに、接続詞記憶部250に記憶されている「でも、」「だけど、」「しかし、」等の逆接の接続詞から1つをランダムに選択し応答発話原文220の先頭に付与するステップ282と、ステップ282の後、及びステップ280の判定が否定であったときに、図3のスコア記憶部154に記憶された各感情項目のスコアの内の最大値が0.4以上か否かを判定するステップ284と、ステップ284の判定が肯定のときに、相槌DB252からその感情項目に応じた相槌を取得し、応答発話原文220の先頭に付与するステップ286とを含む。なお、ある感情項目に対して相槌DB252に複数の相槌が記憶されている場合、本実施の形態に係る接続詞・相槌付与部254はそれらの内からランダムに1つを選択する。
 このプログラムはさらに、ステップ284の判定が否定であるときに、入力発話52のポジティブ値Pと応答発話原文220のポジティブ値Psystemとの差の絶対値が0.1以下か否かを判定するステップ288と、ステップ288の判定が肯定であるときに、「うんうん」、「なるほど」という、相手の発話を聞いていることを示す単語のいずれかをランダムに選択し応答発話原文220の先頭に付与するステップ290と、ステップ286の後、ステップ290の後、及びステップ288の判定が否定であるときのいずれにおいても変換後の応答発話原文220を応答発話102として出力するステップ292とを含む。
 <動作>
 上記した第1の実施の形態に係る対話システム50は以下のように動作する。予め、図3及び図6にそれぞれ示す感情極性記憶部156及び246には、図4に示すように感情項目ごとに極性が記憶されている。同様に、CNN152及び242については、入力発話を構成する単語の単語ベクトルが与えられると、その入力発話に対する各感情項目のスコアを出力するよう学習が行われているものとする。また図5に示す入力文・応答文ペアDB202にはウェブ等のコーパスから収集された大量の入力文・応答文ペアが、入力文をキーに応答文を検索可能なように構築されている。さらに、図6に示す接続詞記憶部250には逆接の接続詞がいくつか記憶されており、相槌DB252には感情項目ごとに相槌が1又は複数個記憶されている。
 なお、本実施の形態では、CNN152及び242への入力として単語ベクトルを用いているが、本発明はそうした実施の形態には限定されず、例えば単語の識別子列の形で入力するようにしてもよい。
 図3を参照して、CNN入力生成部150は、入力発話52を構成する単語を単語ベクトルに変換することによりCNN152への入力を生成しCNN152に与える。CNN152は、入力に応答して、感情極性記憶部156に記憶された各感情項目について入力発話52のスコアを出力する。このスコアはスコア記憶部154に記憶される。このスコア例を図8に示す。極性スコア算出部158は、スコア記憶部154に記憶された各感情項目を、感情極性記憶部156を参照してポジティブ及びネガティブに分類し、ポジティブ値及びネガティブ値を算出してスコア記憶部154に保存する。
 図8に示される例では、ポジティブ値は0.1+0.1=0.2、ネガティブ値は0.3+0.5=0.8である。なお、この実施の形態では、スコアが確率でありその和が1となるので、ポジティブ値とネガティブ値との和も1となる。もちろん、ポジティブ値及びネガティブ値は、両者の相対的な大きさの相違が得られるような方法であればどのような方法で算出しても良い。
 図5を参照して、応答発話検索部200は、入力発話52をキーに入力文・応答文ペアDB202を検索することにより入力発話52に対する応答発話としてふさわしい応答発話原文を入力文・応答文ペアDB202から取出し、語尾変化処理部204に与える。語尾変化処理部204は、この応答発話原文に、現在の対話に応じた語尾変化を行って応答発話原文220とし、図6に示す応答発話変換部124に出力する。
 図6を参照して、応答発話変換部124のCNN入力生成部240は、CNN入力生成部150と同様に応答発話原文220からCNN242への入力となる単語ベクトルを生成しCNN242に与える。CNN242はこの単語ベクトルに応答し、感情極性記憶部246に記憶されている各感情項目についてスコアを出力する。このスコアはスコア記憶部244に記憶される。極性スコア算出部248は、スコア記憶部244に記憶された各感情項目について感情極性記憶部246を参照してポジティブ及びネガティブに分類し、ポジティブ値とネガティブ値とを算出し、スコア記憶部244に保存する。
 スコア記憶部244に記憶された応答発話候補に対して計算されたスコアの例を図9に示す。この例では、ポジティブ値は0.1+0.1=0.2、ネガティブ値は0.2+0.6=0.8である。
 接続詞・相槌付与部254は、応答発話原文220に対して、スコア記憶部244に記憶されたスコア及び入力発話感情推定部120のスコア記憶部154に記憶されたスコアを用いて、以下のように応答発話原文220の先頭に逆接の接続詞又は相槌を付与して応答発話102として出力する。
 図7を参照して、スコア記憶部154に記憶された入力発話52のポジティブ値Pと応答発話原文220のポジティブ値Psystemとの差が0.5以上(ステップ280の判定が肯定)であれば、接続詞記憶部250に記憶された逆接の接続詞のいずれかをランダムに選択し、応答発話原文220の先頭に付与する。
 続いて、ユーザ発話の感情項目のスコアの最大値Fmaxが0.4以上(ステップ284の判定が肯定で)であればステップ286で相槌DB252からその感情項目に対応する相槌を取出し、応答発話原文220に付与する。ここでは、ステップ282で接続詞が付与されている場合にはその前に相槌が付与される。接続詞が付与されていない場合には応答発話原文220の先頭に相槌が付与される。この後、ステップ292でこうした変換後の応答発話原文220が出力される。
 一方、ステップ284の判定が否定であればさらにステップ288で入力発話52のポジティブ値と応答発話原文220のポジティブ値との差が0.1以下か否かが判定される。判定が肯定であれば、入力発話52と応答発話原文220との感情はほぼ同じと考えられる。この場合にはステップ290で「うんうん。」及び「なるほど。」のいずれかをランダムに選択して応答発話原文220の先頭に付与し、ステップ292で変換後の応答発話原文220を出力する。
 以上のように本実施の形態によれば、既存の122で応答発話の原文を選択した後、発話の感情スコア及び極性スコアと、応答発話原文の感情スコア及び極性スコアとに基づいて選択された接続詞及び/又は相槌が応答発話原文の先頭に付与されて出力される。図2に示す応答発話選択部122としては既存のものをそのまま利用しながら、入力発話52により表される感情に応じて適切な応答発話を生成し出力できる。感情を考慮せずに応答発話を選択するような従来の対話システムの末尾に応答発話変換部124を追加することで感情を考慮した適切な応答発話を行うことができるという効果がある。
 [第2の実施の形態]
 <構成>
 応答発話の変換手法としては種々のものを選択できる。この第2の実施の形態は、その1例である。この実施の形態では、過去の入力発話に対して算出された感情スコア及び極性スコアが履歴として残され、この履歴を用いて応答発話の変換が行われる。なお、この第2の実施の形態では、直前の入力発話に対する履歴のみを用いるが、さらに前の履歴を用いるようにしてもよい。
 図11を参照して、この第2の実施の形態に係る対話システム330は、図2に示すものと同じ入力発話感情推定部120及び応答発話選択部122と、入力発話感情推定部120により入力発話52について算出された感情項目ごとのスコアの履歴を記憶する履歴記憶部350と、入力発話感情推定部120により算出された入力発話52のスコアと、履歴記憶部350に記憶された前回の入力発話のスコアとに基づいて、応答発話選択部122により選択された応答発話原文に接続詞及び/又は相槌を付与して応答発話原文を変換し応答発話360として出力するための応答発話変換部352とを含む。
 図12に、図11の履歴記憶部350に記憶されたスコアの履歴と今回の入力発話52から得られたスコアの履歴の例を示す。前述したとおり、本実施の形態では、直前の入力発話から得られたスコア(「前のスコア」)と、今回の入力発話52から得られたスコア(今回の「スコア」)とを利用して応答発話原文を変換する。図12には示していないが前述したとおり履歴の極性スコアも応答発話原文の変換に利用する。なお、対話を開始する場合には履歴が存在しないが、その場合には全ての履歴の感情スコアを0とする。
 図13を参照して、応答発話変換部352は、図6に示す応答発話変換部124と同様の構成であるが、図6に示す接続詞・相槌付与部254に代えて、接続詞・相槌付与部380を含む点で異なる。接続詞・相槌付与部380は、入力発話感情推定部120により得られた入力発話52に対する感情スコア及び極性スコアと、履歴記憶部350に記憶されている、前の入力発話から得られた感情スコアと、この感情スコアと感情極性記憶部246に記憶された感情極性とから算出される履歴の極性スコアとを用いて、接続詞記憶部250及び相槌DB252に記憶されている接続詞及び/又は相槌を応答発話原文220の先頭に付与して応答発話360を出力する。
 図14に、コンピュータにより接続詞・相槌付与部380を実現するコンピュータプログラムの制御構造をフローチャート形式で示す。図14を参照して、このプログラムは、図7に示すものとほぼ同じ構造であるが、図7のステップ284に代えて、ステップ400を含む点で異なる。ステップ400は、感情項目ごとに、直前の感情スコアと現在の感情スコアとの差(|Fit-Fi(t-1)|、ただし、Fitはi番目の感情項目の、現在のスコアを示し、Fi(t-1)は同じ感情項目の、履歴にあるスコアを示す。)の最大値を求め、その値が0.3以上か否かを判定する。このステップ400を含む点で図7に示すものと異なる。ステップ400の判定が肯定である場合には、図7と同様ステップ286に制御が進み、否定である場合にはステップ288に進む点も図7と同様である。
 <動作>
 この第2の実施の形態では、図11を参照して、最初に履歴記憶部350に記憶されている履歴の感情スコアは全て感情スコア初期値で初期化する。感情スコア初期値は、合計が1.0となるように、1.0/(感情スコアの項目数)とするのが良い。入力発話52が入力されると、入力発話感情推定部120は入力発話52に対する感情スコアを算出し履歴記憶部350に格納される。この履歴記憶部350に格納された感情スコアは、図13に示す応答発話変換部352の接続詞・相槌付与部380に与えられる。応答発話選択部122は入力発話52に対する応答発話原文を入力文・応答文ペアDB202(図5参照)において検索して取出し、応答発話変換部352に与える。
 図13を参照して、CNN入力生成部240及びCNN242は応答発話原文220の感情スコアを算出しスコア記憶部244に記憶する。極性スコア算出部248は感情極性記憶部246に記憶された感情極性を用いてスコア記憶部244に記憶された感情スコアの極性スコアを算出しスコア記憶部244に保存する。
 接続詞・相槌付与部380は、図14に示すフローチャートにしたがって逆接の接続詞及び/又は相槌を選択し、応答発話原文220の先頭に付与して応答発話360を出力する。図14に示すフローチャートに従った接続詞・相槌付与部380の動作は、ステップ400の判定を除き第1の実施の形態のものと同様である。したがってここではその詳細は繰返さない。
 この第2の実施の形態によれば、入力発話の感情が大きく変化した場合に、その感情の変化に応じた相槌が応答発話に付与される。対話の相手方から見ると、単に発話したときの感情だけでなく、感情の変化に対しても敏感に変化する応答が得られることになり、対話がより滑らかになるという効果がある。
 [第3の実施の形態]
 <構成>
 図15に、本発明の第3の実施の形態に係る対話システム430の構成を示す。この対話システム430が図11に示す第2の実施の形態に係る対話システム330と異なるのは、図11に示す応答発話変換部352に代えて、履歴記憶部350に記憶された感情スコアの履歴と、入力発話52に対して入力発話感情推定部120から得られた感情スコアとを用いて、応答発話変換部352とは異なる手法で応答発話原文に文字列を付与することで応答発話を変換し応答発話432として出力する応答発話変換部450を含む点である。
 図16を参照して、応答発話変換部450は、図13に示す第2の実施の形態の応答発話変換部352と同様の構成を持つが、図13の接続詞記憶部250及び相槌DB252に代えて、単なる接続詞又は相槌とは異なる、感情の変化に対応して予め準備された文字列を記憶した文字列DB470とを含む点で異なる。応答発話変換部450はさらに、図13の接続詞・相槌付与部380に代えて、履歴記憶部350に記憶された感情スコアの履歴、入力発話感情推定部120により入力発話52について算出された感情スコア、及び応答発話原文220から得られた感情スコア、並びにこれら感情スコアの極性スコアに基づいて、文字列DB470から応答発話原文220の先頭に付与すべき文字列を検索して取出し、応答発話原文220の先頭に付与して応答発話432として出力する文字列付与部472を含む点においても、応答発話変換部352とは異なっている。
 図17を参照して、本実施の形態では、文字列DB470に記憶された文字列は、例えば「嬉しい」という感情にたいして「君は嬉しいかもしれないけど、」及び「貴方はハッピーなんだろうが、」というように、相手の発言に対する逆接的な発話を導く文字列となっている。これは、後述する文字列付与部472において、相手の感情が大きく変化したときに、その直前の相手の発言に基づいて応答するような制御構造になっているためである。この文字列の選択については、文字列付与部472における判定の方法によって色々な方法が考えられることはいうまでもない。
 図18に、コンピュータにより文字列付与部472の機能を実現するプログラムの制御構造をフローチャート形式で示す。図18を参照して、このプログラムは、図14に示す第2の実施の形態のプログラムとほぼ同じ制御構造を持つが、図14のステップ282を含まない点、及びステップ280の判定結果が否定であるときにステップ400ではなくステップ288に制御が進む点において異なる。このプログラムはさらに、図14のステップ286に代えて、ステップ400の判定が肯定であるときに、文字列DB470からスコア差が最大の感情をキーにして対応する文字列を取得し応答発話原文220の先頭に付与するステップ502を含む点においても図14と異なっている。なお、本実施の形態では、ステップ280及び400の判定が否定のときには制御はステップ288に進み、それ以後は図14に示したものと同じである。またステップ502の後には、図14のステップ286の後と同様に制御はステップ252に進む。
 <動作>
 本実施の形態に係る対話システム430の動作は基本的に第2の実施の形態と同様である。ただし、図18に示すフローチャートから分かるように、入力発話のポジティブ値とシステム発話のポジティブ値との差が0.5以上でかつ入力発話の履歴の各感情スコアと、現在の入力発話の各感情スコアの差の最大値が0.3以上の場合には対話システム430は以下のように動作する。すなわち、この場合、本実施の形態では、単なる相槌ではなく、ステップ502において、感情スコアの差の最大値を与えるような感情に対応する文字列が図17に示す文字列DB470から選択され、応答発話原文220の先頭に付与される。単に逆接の接続詞が付与されるのではなく、入力発話の感情と応答発話の感情とがかなり異なっているときには、感情項目の内で特に異なっている感情に応じて、逆接の接続詞と同様の働きを持ち、かつ具体的に応答発話を発するための導入となる文字列が付与される。そのため、対話が機械的なものにならず、自然に感じられるという効果がある。
 なお、第2の実施の形態と第3の実施の形態とのシステムの考え方を混在させ、入力発話ごとに何れかの方法にしたがって応答発話を生成するようにしてもよい。
 さらに、上記各実施の形態における接続詞・相槌付与部254及び380、並びに文字列付与部472における判定方法が上記実施の形態に限定されないことは当然である。また、判断結果にしたがってどのような接続詞、相槌、及び文字列を選択し、応答発話に付与するかも、実施の際の設計にしたがって様々に変化させることができる。
 また、図7のステップ284、図14及び図18のステップ400における判定のためのしきい値は、使用される感情項目の数に応じて変化する。これらの値は、事前の実験等により適切な値に設定して置くことが望ましいが、必ずしも実験によらず、任意の値を選択してもよい。
 本発明では、既存の手法により応答発話を選択した後に、入力発話の感情スコアを用いて応答発話を加工できる枠組みを提供する点に大きな特徴がある。入力発話の感情に応じて応答発話を変換する場合、応答発話の選択手法に変更を加える必要がなく、応答発話の選択手法とは独立に、入力発話の感情に応じて適切な応答発話を簡便に生成できるという効果がある。
 [コンピュータによる実現]
 本発明の実施の形態に係る対話システム100、330及び430及びその構成要素は、いずれもコンピュータハードウェアと、そのコンピュータハードウェア上で実行されるコンピュータプログラムとにより実現できる。図19はこのコンピュータシステム630の外観を示し、図20はコンピュータシステム630の内部構成を示す。
 図19を参照して、コンピュータシステム630は、メモリポート652及びDVD(Digital Versatile Disk)ドライブ650を有するコンピュータ640と、いずれもコンピュータ640に接続されたキーボード646と、マウス648と、モニタ642とを含む。
 図20を参照して、コンピュータ640は、メモリポート652及びDVDドライブ650に加えて、CPU(中央処理装置)656と、CPU656、メモリポート652及びDVDドライブ650に接続されたバス666と、起動プログラム等を記憶する読出専用メモリ(ROM)658と、バス666に接続され、上記対話システム100、330及び430の各部の機能を実現するプログラム命令、システムプログラム及び作業データ等を記憶するランダムアクセスメモリ(RAM)660と、ハードディスク654を含む。コンピュータシステム630はさらに、他端末との通信を可能とするネットワーク668への接続を提供するネットワークインターフェイス(I/F)644を含む。
 コンピュータシステム630を上記した実施の形態に係る対話システム100、330及び430及びその各機能部として機能させるためのコンピュータプログラムは、DVDドライブ650又はメモリポート652に装着されるDVD662又はリムーバブルメモリ664に記憶され、さらにハードディスク654に転送される。又は、プログラムはネットワーク668を通じてコンピュータ640に送信されハードディスク654に記憶されてもよい。プログラムは実行の際にRAM660にロードされる。DVD662から、リムーバブルメモリ664から又はネットワーク668を介して、直接にRAM660にプログラムをロードしてもよい。
 このプログラムは、コンピュータ640を、上記実施の形態に係る対話システム100、330及び430の各機能部として機能させるための複数の命令からなる命令列を含む。コンピュータ640にこの動作を行わせるのに必要な基本的機能のいくつかはコンピュータ640上で動作するオペレーティングシステム若しくはサードパーティのプログラム又はコンピュータ640にインストールされる、ダイナミックリンク可能な各種プログラミングツールキット又はプログラムライブラリにより提供される。したがって、このプログラム自体はこの実施の形態のシステム、装置及び方法を実現するのに必要な機能全てを必ずしも含まなくてよい。このプログラムは、命令の内、所望の結果が得られるように制御されたやり方で適切な機能又はプログラミングツールキット又はプログラムライブラリ内の適切なプログラムを実行時に動的に呼出すことにより、上記したシステム、装置又は方法としての機能を実現する命令のみを含んでいればよい。もちろん、独立したプログラムのみで必要な機能を全て提供してもよい。
 今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内での全ての変更を含む。
 この発明は、科学、工学、教育、製造業、サービス業など、質問に対して回答を与えることが有益な全ての産業に適用できる。
50、100、330、430 対話システム
52 入力発話
54、102、360、432 応答発話
70、120 入力発話感情推定部
72 応答発話感情決定部
74 応答発話選択・生成部
122 応答発話選択部
124、352、450 応答発話変換部
150、240 CNN入力生成部
152、242 CNN
154、244 スコア記憶部
156、246 感情極性記憶部
158、248 極性スコア算出部
200 応答発話検索部
202 入力文・応答文ペアDB
204 語尾変化処理部
220 応答発話原文
250 接続詞記憶部
252 相槌DB
254、380 接続詞・相槌付与部
350 履歴記憶部
470 文字列DB
472 文字列付与部

Claims (6)

  1. 入力発話を受け、当該入力発話に対する応答発話原文を生成する応答発話生成手段と、
     複数の感情の各々に対し、前記入力発話が表す感情と前記複数の感情とが合致する度合いを表す入力発話感情スコアを算出することにより前記入力発話の感情を推定する入力発話感情推定手段と、
     前記応答発話原文に対し、前記複数の感情の各々に対する感情スコアである応答発話感情スコアを算出するための応答発話感情スコア算出手段と、
     前記応答発話生成手段により生成された応答発話原文を、前記入力発話感情スコア及び前記応答発話感情スコアの値により定められる変換方法にしたがって変換して応答発話を生成し出力する応答発話変換手段とを含む、対話システム。
  2. 前記応答発話変換手段は、
     前記応答発話原文に付与すべき文字列を記憶する文字列記憶手段と、
     前記入力発話感情スコア及び前記応答発話感情スコアの値により定められる選択方法にしたがって前記文字列記憶手段から文字列を選択し、前記応答発話原文に付与して応答発話を生成するための手段とを含む、請求項1に記載の対話システム。
  3. さらに、入力発話に対して算出された前記入力発話感情スコアの履歴を記憶する履歴記憶手段を含み、
     前記応答発話変換手段は、
     前記入力発話感情スコア及び前記応答発話感情スコア、並びに前記履歴記憶手段に記憶された以前の入力発話の前記入力発話感情スコアの値により定められる選択方法にしたがって前記文字列記憶手段から任意の文字列を選択し、前記応答発話原文に付与して応答発話を生成するための手段を含む、請求項2に記載の対話システム。
  4. 前記文字列は接続詞及び/又は相槌であり、前記文字列記憶手段は、
     逆接の接続詞を記憶する接続詞記憶手段と、
     相槌を記憶する相槌記憶手段とを含み、
    前記応答発話変換手段は、
     前記入力発話感情スコア及び前記応答発話感情スコアの値により定められる選択方法にしたがって前記接続詞記憶手段及び/又は前記相槌記憶手段から接続詞及び/又は相槌を選択し、前記応答発話原文に付与して応答発話を生成するための手段を含む、請求項2または3に記載の対話システム。
  5. 前記複数の感情の各々は、いずれも第1の極性及び当該第1の極性と異なる第2の極性とに分類され、
     さらに、前記入力発話感情スコア及び前記応答発話感情スコアの各々について、前記第1の極性の感情スコアの合計からなる第1極性スコアを算出する第1極性算出手段と、
     前記入力発話の前記第1極性スコアと、前記応答発話の前記第1極性スコアとの差の絶対値がしきい値以下であることに応答して、同意を示す文言を前記応答発話に付与するための手段とを含む、請求項1~請求項4のいずれかに記載の対話システム。
  6. コンピュータを、請求項1~5の何れかに記載の対話システムとして機能させる、コンピュータプログラム。
PCT/JP2018/010230 2017-03-16 2018-03-15 対話システム及びそのためのコンピュータプログラム WO2018169000A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020197025856A KR20190127708A (ko) 2017-03-16 2018-03-15 대화 시스템 및 그것을 위한 컴퓨터 프로그램
US16/487,041 US11113335B2 (en) 2017-03-16 2018-03-15 Dialogue system and computer program therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017051504A JP6884947B2 (ja) 2017-03-16 2017-03-16 対話システム及びそのためのコンピュータプログラム
JP2017-051504 2017-03-16

Publications (1)

Publication Number Publication Date
WO2018169000A1 true WO2018169000A1 (ja) 2018-09-20

Family

ID=63523141

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/010230 WO2018169000A1 (ja) 2017-03-16 2018-03-15 対話システム及びそのためのコンピュータプログラム

Country Status (4)

Country Link
US (1) US11113335B2 (ja)
JP (1) JP6884947B2 (ja)
KR (1) KR20190127708A (ja)
WO (1) WO2018169000A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111833907A (zh) * 2020-01-08 2020-10-27 北京嘀嘀无限科技发展有限公司 一种人机交互方法与终端、计算机可读存储介质
IT201900008295A1 (it) * 2019-06-06 2020-12-06 Univ Degli Studi Di Verona Metodo per l’allenamento della prevenzione ad un disastro, nonché sistema computerizzato ed un programma eseguibile al calcolatore per l’implementazione di tale metodo.
WO2021217769A1 (zh) * 2020-04-27 2021-11-04 平安科技(深圳)有限公司 基于情绪识别的答复方法、装置、计算机设备及存储介质

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10741169B1 (en) * 2018-09-25 2020-08-11 Amazon Technologies, Inc. Text-to-speech (TTS) processing
CN109977215B (zh) 2019-03-29 2021-06-18 百度在线网络技术(北京)有限公司 基于关联兴趣点的语句推荐方法和装置
KR102673867B1 (ko) * 2020-02-13 2024-06-07 주식회사 케이티 맞장구 대화 말뭉치 제공 장치 및 방법
US11393462B1 (en) * 2020-05-13 2022-07-19 Amazon Technologies, Inc. System to characterize vocal presentation
US20230086653A1 (en) * 2021-09-17 2023-03-23 The Toronto-Dominion Bank Systems and methods for automated response to online reviews
US20230298580A1 (en) * 2022-03-18 2023-09-21 Google Llc Emotionally Intelligent Responses to Information Seeking Questions

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006071936A (ja) * 2004-09-01 2006-03-16 Matsushita Electric Works Ltd 対話エージェント
JP2009129405A (ja) * 2007-11-28 2009-06-11 Toyota Central R&D Labs Inc 感情推定装置、事例感情情報生成装置、及び感情推定プログラム
JP2015014834A (ja) * 2013-07-03 2015-01-22 株式会社Lassic 機械対話による感情推定システム及びそのプログラム
JP2016024631A (ja) * 2014-07-18 2016-02-08 ヤフー株式会社 提示装置、提示方法及び提示プログラム
JP2016090775A (ja) * 2014-11-04 2016-05-23 トヨタ自動車株式会社 応答生成装置、応答生成方法およびプログラム
US20160210985A1 (en) * 2013-09-25 2016-07-21 Intel Corporation Improving natural language interactions using emotional modulation
US20170052971A1 (en) * 2015-08-17 2017-02-23 International Business Machines Corporation Sentiment Aggregation

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001215993A (ja) * 2000-01-31 2001-08-10 Sony Corp 対話処理装置および対話処理方法、並びに記録媒体
JP2013109575A (ja) 2011-11-21 2013-06-06 Nec Corp メンタルケア装置、メンタルケア方法及びメンタルケアプログラム
EP3185523B1 (en) * 2015-12-21 2018-10-10 Wipro Limited System and method for providing interaction between a user and an embodied conversational agent
US9812151B1 (en) * 2016-11-18 2017-11-07 IPsoft Incorporated Generating communicative behaviors for anthropomorphic virtual agents based on user's affect

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006071936A (ja) * 2004-09-01 2006-03-16 Matsushita Electric Works Ltd 対話エージェント
JP2009129405A (ja) * 2007-11-28 2009-06-11 Toyota Central R&D Labs Inc 感情推定装置、事例感情情報生成装置、及び感情推定プログラム
JP2015014834A (ja) * 2013-07-03 2015-01-22 株式会社Lassic 機械対話による感情推定システム及びそのプログラム
US20160210985A1 (en) * 2013-09-25 2016-07-21 Intel Corporation Improving natural language interactions using emotional modulation
JP2016024631A (ja) * 2014-07-18 2016-02-08 ヤフー株式会社 提示装置、提示方法及び提示プログラム
JP2016090775A (ja) * 2014-11-04 2016-05-23 トヨタ自動車株式会社 応答生成装置、応答生成方法およびプログラム
US20170052971A1 (en) * 2015-08-17 2017-02-23 International Business Machines Corporation Sentiment Aggregation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SHITAOKA, KAZUYA ET AL.,: "Active Listening System for a Conversation Robot", 58TH SPECIAL INTEREST GROUP ON SPOKEN LANGUAGE UNDERSTANDING AND DIALOGUE PROCESSING, 5 February 2010 (2010-02-05), pages 61 - 66 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT201900008295A1 (it) * 2019-06-06 2020-12-06 Univ Degli Studi Di Verona Metodo per l’allenamento della prevenzione ad un disastro, nonché sistema computerizzato ed un programma eseguibile al calcolatore per l’implementazione di tale metodo.
CN111833907A (zh) * 2020-01-08 2020-10-27 北京嘀嘀无限科技发展有限公司 一种人机交互方法与终端、计算机可读存储介质
WO2021217769A1 (zh) * 2020-04-27 2021-11-04 平安科技(深圳)有限公司 基于情绪识别的答复方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
US20200233908A1 (en) 2020-07-23
KR20190127708A (ko) 2019-11-13
JP2018156273A (ja) 2018-10-04
JP6884947B2 (ja) 2021-06-09
US11113335B2 (en) 2021-09-07

Similar Documents

Publication Publication Date Title
WO2018169000A1 (ja) 対話システム及びそのためのコンピュータプログラム
CN109844741B (zh) 在自动聊天中生成响应
CN109785824B (zh) 一种语音翻译模型的训练方法及装置
CN111159368B (zh) 一种个性化对话的回复生成方法
JP2019528512A (ja) 人工知能に基づくヒューマンマシンインタラクション方法及び装置
JP6804763B2 (ja) 対話システム、対話装置及びそのためのコンピュータプログラム
CN106875940B (zh) 一种基于神经网络的机器自学习构建知识图谱训练方法
JP5195414B2 (ja) 応答生成装置及びプログラム
JP2007219149A (ja) 応答生成装置、方法及びプログラム
JP2006178063A (ja) 対話処理装置
JPWO2017200078A1 (ja) 対話方法、対話システム、対話装置、およびプログラム
KR20220000046A (ko) 대화형 지능 서비스 제공 챗봇 제작 시스템 및 방법
Kao et al. Model of multi-turn dialogue in emotional chatbot
JP2016001242A (ja) 質問文生成方法、装置、及びプログラム
JP2019036171A (ja) 対話シナリオコーパスの作成支援システム
CN109800295A (zh) 基于情感词典和词概率分布的情感会话生成方法
CN116401354A (zh) 一种文本处理方法、装置、存储介质及设备
CN112199486A (zh) 一种办公场景的任务型多轮对话方法及系统
CN111400479B (zh) 针对多轮对话的问题识别方法和装置
CN113609301A (zh) 一种基于知识图谱的对话方法、介质及系统
JP6449368B2 (ja) 会話提供装置、会話提供方法及びプログラム
WO2020080228A1 (ja) 発話生成装置、方法、及びプログラム
KR20210123545A (ko) 사용자 피드백 기반 대화 서비스 제공 방법 및 장치
Gobron et al. An Interdisciplinary VR-architecture for 3D Chatting with Non-verbal Communication.
JP2018180459A (ja) 音声合成システム、音声合成方法、及び音声合成プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18768649

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20197025856

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18768649

Country of ref document: EP

Kind code of ref document: A1