WO2021117180A1 - 対話処理装置、学習装置、対話処理方法、学習方法及びプログラム - Google Patents

対話処理装置、学習装置、対話処理方法、学習方法及びプログラム Download PDF

Info

Publication number
WO2021117180A1
WO2021117180A1 PCT/JP2019/048632 JP2019048632W WO2021117180A1 WO 2021117180 A1 WO2021117180 A1 WO 2021117180A1 JP 2019048632 W JP2019048632 W JP 2019048632W WO 2021117180 A1 WO2021117180 A1 WO 2021117180A1
Authority
WO
WIPO (PCT)
Prior art keywords
question
answer
past
model parameter
batch
Prior art date
Application number
PCT/JP2019/048632
Other languages
English (en)
French (fr)
Inventor
康仁 大杉
いつみ 斉藤
京介 西田
久子 浅野
準二 富田
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to PCT/JP2019/048632 priority Critical patent/WO2021117180A1/ja
Priority to JP2021563529A priority patent/JP7342971B2/ja
Priority to US17/784,004 priority patent/US20230034414A1/en
Publication of WO2021117180A1 publication Critical patent/WO2021117180A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/44Statistical methods, e.g. probability models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • G06F40/56Natural language generation

Definitions

  • the present invention relates to a dialogue processing device, a learning device, a dialogue processing method, a learning method, and a program.
  • Machine reading is a technology that takes a question and a document as input and generates an answer to the question from the document.
  • machine reading comprehension which has been actively studied in the past, is a question-and-answer format. That is, in machine reading comprehension, even if a plurality of questions are input, these questions are treated independently, and answers are generated independently for each question.
  • interactive machine reading comprehension in which questions and answers are repeated alternately has also been studied.
  • Non-Patent Document 1 describes a technique for outputting a start position and an end position of a range of answers in a document as an interactive machine reading comprehension that generates an answer to a current question.
  • the question history is a history of past questions
  • the answer history is a history of past answers.
  • the first and second turns are topic A
  • the third to fourth turns are topic B
  • the fifth turn is topic.
  • the topic may change in the dialogue, such as A.
  • the technique described in Cited Document 1 considers the question history and the answer history of the immediately preceding N turn.
  • One embodiment of the present invention has been made in view of the above points, and an object of the present invention is to generate an answer in consideration of the history required for answering the current question.
  • the dialogue processing device is a question history which is a set of a question Q i which is a word string representing a current question in an interactive machine reading task and a word string representing a past question. Enter ⁇ Q 1 , ..., Q i-1 ⁇ and the answer history ⁇ A 1 , ..., A i-1 ⁇ , which is a set of word strings representing past answers to the past question.
  • a context coding means that generates a context coding vector u that reflects at least one of the attributes and importance of each of the past question and the past answer using the first model parameter learned in advance, and the question.
  • FIG. It is a figure which shows an example of the whole structure of the dialogue processing apparatus in Example 1.
  • FIG. It is a flowchart which shows an example of the dialogue processing in Example 1.
  • FIG. It is a figure which shows an example of the whole structure of the dialogue processing apparatus in Example 2.
  • FIG. It is a flowchart which shows an example of the learning process in Example 2.
  • FIG. It is a flowchart which shows an example of the learning process of an interactive machine reading task.
  • It is a flowchart which shows an example of the learning process of a classification task.
  • the dialogue processing device 10 capable of generating an answer in consideration of the history (question history and answer history) necessary for answering the current question in the interactive machine reading comprehension will be described.
  • the past questions in the question history will be referred to as “past questions”
  • the past answers in the answer history will be referred to as “past answers”.
  • the answer to the current question is generated using the model realized by the neural network. Therefore, in the dialogue processing device 10 according to the present embodiment, “during learning” for learning the parameters of this model (hereinafter, also referred to as “model parameters”) and the trained model parameters are used for the current question. There is an “inference time” that produces an answer.
  • an interactive machine reading task that answers the current question while using the history (question history and answer history) and the attribute and importance of each sentence in the given document are used.
  • model parameters are learned by multi-task learning of interactive machine reading tasks and classification tasks. This gives the trained model the ability to generate answers to the current question with reference to history and the ability to classify each sentence based on the attributes and importance of each sentence in a given document. be able to. That is, this trained model can judge the validity of each past question and each past answer to the answer of the current question, and can answer the current question based on the validity.
  • Example 1 the model parameters have been learned by multi-task learning of the interactive machine reading task and the classification task, and the inference time for generating the answer to the current question using the learned model parameters is described in Example 1. This will be described, and the learning time of learning the model parameters by multi-task learning of the interactive machine reading task and the classification task will be described in Example 2.
  • Example 1 In the first embodiment, it is assumed that the model parameters have been learned, and the dialogue processing device 10 that generates the answer to the current question will be described.
  • FIG. 1 is a diagram showing an example of the overall configuration of the dialogue processing device 10 in the first embodiment.
  • the dialogue processing device 10 in the first embodiment has a dialogue processing unit 110 and a model parameter storage unit 210.
  • the dialogue processing unit 110 inputs the current question Q i , the question history ⁇ Q 1 , ..., Q i-1 ⁇ , the answer history ⁇ A 1 , ..., A i-1 ⁇ , and the document P. , using the learned model parameters stored in the model parameter storage unit 210, generates and outputs an answer a i to the current question Q i.
  • i represents a turn.
  • a turn is, as mentioned above, a set of one question and one answer to this question (ie, one dialogue).
  • the document may be referred to as, for example, a "passage", a "search target text", or the like.
  • the current question Q i each past question Q 1 , ..., Q i-1 , in the question history ⁇ Q 1 , ..., Q i-1 ⁇ , the answer history ⁇ A 1 , ...,
  • Each past answer A 1 , ..., A i-1 , and document P in A i-1 ⁇ are represented by word strings.
  • the dialogue processing unit 110 includes a context coding unit 111, a matching unit 112, and a response prediction unit 113. Each of these parts is realized by a neural network.
  • the model parameters the model parameters used by the context coding unit 111 (that is, the parameters of the neural network that realizes the context coding unit 111) are referred to as “first model parameters”.
  • the model parameter used by the matching unit 112 is referred to as a “second model parameter”
  • the model parameter used by the response prediction unit 113 is referred to as a “third model parameter”.
  • the context coding unit 111 learns by inputting the current question Q i , the question history ⁇ Q 1 , ..., Q i-1 ⁇ and the answer history ⁇ A 1 , ..., A i-1 ⁇ .
  • the context is encoded to reflect the attributes and importance of the past question and the past answer in the question history and the answer history, and the context coding vector u is generated and output.
  • the context coding vector u is generated and output.
  • the current question, each past question, and each past answer are regarded as one sentence, and between each sentence. It can be distinguished by inserting a special character in.
  • consideration of the attributes and importance of each sentence can be obtained by learning a classification task that classifies each sentence based on the attributes and importance of each sentence in a certain document.
  • the sentence is represented by a sequence of one or more words (word sequence).
  • the context coding vector u generated and output by the context coding unit 111 is
  • d 1 is the number of dimensions of the feature quantity.
  • L 1 indicates the total number of words of Q i , ⁇ Q 1 , ..., Q i-1 ⁇ and ⁇ A 1 , ..., A i-1 ⁇ , and the beginning, end, sentence delimiter, etc. of the sentence. It is the number of words obtained by adding the number of words of the special characters to be represented.
  • a model called BERT Bidirectional Encoder Representations from Transformers
  • each sentence is added in order to add a class token [CLS] at the beginning and distinguish each of Q i , Q 1 , ..., Q i-1 , A 1 , ..., A i-1.
  • CCS class token
  • SEP separator token
  • a context-encoded vector u is obtained as an output.
  • PAD padding tokens
  • the matching unit 112 describes the current question Q i and history (question history ⁇ Q 1 , ..., Q i-1 ⁇ and answer history ⁇ A 1 , ..., A i) for each word in the document P. -1 ⁇ ) is used to generate and output features that take into account the information. That is, the matching unit 112 is input with the document P and context coding vector u, using the learned second model parameter, feature amounts in consideration of the information of the current question Q i and history
  • d 2 is the number of dimensions of the feature quantity.
  • L 2 is the number of words obtained by adding the number of words in the document P and the number of words in the special character.
  • the requirements of the neural network that realizes the matching unit 112 include the document P, the current question Q i , the question history ⁇ Q 1 , ..., Q i-1 ⁇ , and the answer history ⁇ A 1 , ..., A i. It is necessary to match -1 ⁇ on a word-by-word basis.
  • the model to be used can be used.
  • the document P is input to the Character Embed Layer and the Word Embed Layer, and is input to the Attention Layer via the Contextual Embed Layer.
  • the context-coded vector u is also input to the Attention Layer. Then, the output of the Attention Layer may be used as the feature amount v.
  • the roles of the context coding unit 111 and the matching unit 112 are distinguished by using the Segment Embedding. That is, by making the Segment Embedding of Q i , Q 1 , ..., Q i-1 , A 1 , ..., A i-1 different from the Segment Embedding of P, the context coding unit 111 and The roles of the matching unit 112 are distinguished.
  • the feature amount v the feature amount corresponding to the document P in the BERT output may be used.
  • the answer prediction unit 113 inputs the feature amount v of the document P that matches the current question Q i and the question history and the answer history in word units, and uses the learned third model parameter to answer the current question Q i. It generates and outputs an a i.
  • the answer Ai is represented by a word string, and there are two types of generation methods.
  • the first method is an extraction format in which a word string in the document P is extracted and used as an answer
  • the second method is not only the words in the document P but also the words in a predetermined vocabulary set.
  • It is a generation format that uses to generate an answer.
  • the probability that each word in the document P is the start position and the probability that it is the end position of the answer range is predicted, and the answer range is derived by dynamic programming based on these prediction results. , it is necessary to word strings in this answer range and answers a i.
  • the generation format it is necessary to generate the answer Ai word by word.
  • Examples of the neural network that can be used in the extraction format include a model composed of the Modeling Layer and the Output Layer described in Reference 2 above.
  • the feature amount v is input to the Modeling Layer and the Output Layer, and the probability that each word in the document P is the start position and the probability that it is the end position are output.
  • examples of the neural network that can be used in the generation format include the Pointer-Generator Model described in Reference 3 below.
  • the feature amount v is input to the encoder of the Pointer-Generator Model, and the probability indicating the importance of the word in the document P is output. And this probability, and inputs the probability indicating the importance of the external predetermined vocabulary set predetermined for decoder Pointer- Generator Model, generates an answer A i.
  • the matching unit 112 and the answer prediction unit 113 do not have to be divided into two functional units.
  • the matching unit 112 and the answer prediction unit 113 may form one functional unit.
  • the model parameter storage unit 210 stores learned model parameters (that is, learned first model parameters, learned second model parameters, and learned third model parameters).
  • FIG. 2 is a flowchart showing an example of the dialogue processing in the first embodiment.
  • the context coding unit 111 of the dialogue processing unit 110 includes the current question Q i , the question history ⁇ Q 1 , ..., Q i-1 ⁇ and the answer history ⁇ A 1 , ..., A i-1.
  • the matching unit 112 of the dialogue processing unit 110 takes the document P and the context-coded vector u output in step S101 as inputs, and uses the learned second model parameter to generate the feature amount v. And output (step S102).
  • the answer prediction unit 113 of the interaction unit 110 is input with the feature quantity v output in step S102 described above, by using the learned third model parameter, and generates and outputs an answer A i (step S103) .
  • an answer to the current question Q i past questions and answers A i (in other words in consideration of attributes and importance of past answer in the history, the emphasis in the past questions and past answers associated with current question Q i It is possible to generate and output the answer Ai) in consideration of the above.
  • Example 2 In the second embodiment, it is assumed that the model parameters have not been learned, and the dialogue processing device 10 that learns these model parameters will be described.
  • FIG. 3 is a diagram showing an example of the overall configuration of the dialogue processing device 10 in the second embodiment.
  • the dialogue processing device 10 in the second embodiment includes a dialogue processing unit 110, a batch set creation unit 120, an update unit 130, a model parameter storage unit 210, and a learning data set storage unit 220.
  • a dialogue processing unit 110 includes a dialogue processing unit 110, a batch set creation unit 120, an update unit 130, a model parameter storage unit 210, and a learning data set storage unit 220.
  • the model parameter storage unit 210 stores model parameters that have not been learned.
  • model parameters that have not been learned will be simply referred to as "model parameters”.
  • the learning data set storage unit 220 stores the learning data set used for learning the model parameters.
  • the learning data set a learning data set composed of the learning data of the interactive machine reading task and a learning data set composed of the learning data of the classification task are used. These learning data sets are collected in advance and stored in the learning data set storage unit 220.
  • the learning data set for the interactive machine reading task for example, the data set described in Reference 4 below can be used.
  • Each learning data contained in the learning data set of the interactive machine reading task includes the current question Q i , the question history ⁇ Q 1 , ..., Q i-1 ⁇ and the answer history ⁇ A 1 , ..., A i-1 ⁇ , document P, and correct answer
  • the correct answer to the current question Q i will also be referred to as " ⁇ A i".
  • the correct answer ⁇ Ai is represented by a set of a start position and an end position in the range of answers in the document P.
  • the correct answer ⁇ Ai is represented by a word string.
  • each learning data included in the learning data set of the classification task includes the sentence set ⁇ S 1 , ..., S
  • S j 1, ...,
  • is also referred to as " ⁇ c j".
  • S j is a sentence (word string), and
  • each sentence in the original sentence can be given a binary label as to whether or not the sentence is included in the summary sentence. For example, if the sentence is included in the abstract, a label indicating "high” importance is given as a label, and if the sentence is not included in the abstract, a label indicating "low” importance is given as a label. Can be granted.
  • each sentence in the original text is given a binary label indicating the importance as described above, so that each sentence is based on the importance.
  • Reference 5 is a data set in which one label indicating the topic / content of the dialogue is given to one dialogue between two speakers. For example, a dialogue asking for the location of the nearest gas station (a total of about 3 turns) is labeled "navigate”.
  • a dialogue asking for the location of the nearest gas station (a total of about 3 turns) is labeled "navigate”.
  • three types of labels "schedule", “navigate”, and "weather”, are used. Therefore, when using this data set, by assigning the label assigned to the dialogue to each utterance in the dialogue, one of the three labels is attached to the sentence representing each utterance. To do.
  • the batch set creation unit 120 is a batch for learning from the learning data set (the learning data set for the interactive machine reading task and the learning data set for the classification task) stored in the learning data set storage unit 220. Create a set.
  • a batch is a set of a predetermined number of training data.
  • the model parameters are updated on a batch-by-batch basis.
  • the training data set may be called a "batch", and the set obtained by dividing the training data set by a predetermined number of training data may be called a "mini-batch". In this specification, a predetermined number is used.
  • the set in which the training data set is divided by the number of training data of is called a "batch".
  • the dialogue processing unit 110 has a sentence set ⁇ S 1 , ..., Which is included in the training data in the batch (that is, the training data of the classification task). Taking S
  • the dialogue processing unit 110 includes a context coding unit 111, a matching unit 112, a response prediction unit 113, and a classification unit 114.
  • a context coding unit 111 a matching unit 112
  • a response prediction unit 113 a response prediction unit 113
  • a classification unit 114 Each of these parts is realized by a neural network.
  • model parameters used by the classification unit 114 that is, the parameters of the neural network that realizes the classification unit 114) will be referred to as “fourth model parameters”.
  • matching unit 112 and the reply prediction unit 113 When using the learning data of the interactive machine reading task context coding unit 111, matching unit 112 and the reply prediction unit 113 generates and outputs an answer A i by the same treatment as in Example 1. However, instead of the trained model parameters, the untrained model parameters (that is, the untrained first model parameters to the third model parameters) are used.
  • the context coding unit 111 and the classification unit 114 use the untrained model parameters (that is, the untrained first model parameter and the fourth model parameter).
  • are estimated and output. That is, for example, when the context coding unit 111 is realized by BERT, the class token [CLS] is added at the beginning, and each sentence S 1 , ..., S
  • C is the number of classes
  • L 3 is the number of words obtained by adding the total number of words in the sentence set ⁇ S 1 , ..., S
  • the x vector (C-dimensional vector) corresponding to the position of [SEP] is used as a vector representing the probability that the sentence belongs to each class.
  • statement S j is the probability that belong respectively obtained for each class, the class c j of the statement S j belongs is estimated by the classification unit 114.
  • Updating unit 130 uses the error between the correct answer ⁇ A i and answers A i generated and output by the reply prediction unit 113, the model parameters stored in the model parameter storage unit 210 (first model parameter, second 3 Model parameters) are updated. Further, the update unit 130 includes the class ⁇ c 1 , c 2 , ..., c
  • the 4th model parameter is also a learning target (update target) at the time of learning, but the 4th model parameter is not used at the time of inference. This is because the dialogue processing unit 110 at the time of inference does not include the classification unit 114.
  • FIG. 4 is a flowchart showing an example of the learning process in the second embodiment. It is assumed that the model parameters stored in the model parameter storage unit 210 are initialized to appropriate values before the start of the learning process.
  • the batch set creation unit 120 creates a batch set B in which the batch set B d and the batch set B c are combined, and randomly shuffles the order of each batch included in the batch set B (step S202). .. As a result, a batch set B containing a batch of interactive machine reading tasks and a batch of classification tasks in a random order is obtained.
  • the dialogue processing unit 110 reads the first unread batch among the batches included in the batch set B (step S203).
  • step S207 the dialogue processing unit 110 determines whether or not there is an unread batch in the batch set B.
  • step S207 If it is determined in step S207 that there is an unread batch, the dialogue processing unit 110 returns to step S203. As a result, for each batch included in the batch set B, either step S205 or step S206 described above is executed according to the identifier.
  • step S207 when it is not determined in step S207 above that there are unread batches (that is, when all the batches in the batch set B have been read), the dialogue processing unit 110 has converged on learning. Whether or not it is determined (step S208).
  • the dialogue processing unit 110 sets all the batches in the batch set B as unread and returns to the above step S203. As a result, the above steps S203 to S207 are executed again using the batch set B.
  • step S208 above when it is determined in step S208 above that the learning has converged, the dialogue processing unit 110 ends the learning process.
  • the learning convergence condition includes, for example, that the above steps S203 to S207 are repeatedly executed a predetermined number of times.
  • the trained model parameters are obtained by the multi-task learning of the interactive machine reading task and the classification task (that is, the learning process of the above step S205 and the learning process of the above step S206).
  • the trained first model parameters to the trained fourth model parameters only the trained first model parameters to the trained third model parameters are used at the time of inference.
  • FIG. 5 is a flowchart showing an example of a learning process of an interactive machine reading task.
  • the context coding unit 111 of the dialogue processing unit 110 answers the current question Q i and the question history ⁇ Q 1 , ..., Q i-1 ⁇ included in the learning data read in step S301 above.
  • the context-coded vector u is generated and output using the first model parameter (step S302).
  • the matching unit 112 of the dialogue processing unit 110 receives the document P included in the learning data read in the above step S301 and the context coding vector u output in the above step S302 as inputs, and the second model The feature quantity v is generated and output using the parameters (step S303).
  • reply prediction unit 113 of the interaction unit 110 is input with the feature quantity v output in step S303 described above, by using the third model parameter, and generates and outputs an answer A i (step S304).
  • the dialogue processing unit 110 determines whether or not there is unread learning data in the batch (step S305).
  • step S305 If it is determined in step S305 above that there is unread learning data, the dialogue processing unit 110 returns to step S301 above. As a result, the above steps S301 to S304 are executed for each learning data included in the batch.
  • the update unit 130 when it is not determined that there is unread training data at step S305 described above, the update unit 130, and the answer A i output in step S304 described above, respectively of each of those answers A i using the difference from the correct answers ⁇ a i to, updating the first model parameter to third model parameters stored in the model parameter storage unit 210 (step S306).
  • the update unit 130 may update the first model parameter to the third model parameter by using a known optimization method used for learning the interactive machine reading task.
  • FIG. 6 is a flowchart showing an example of the learning process of the classification task.
  • the context coding unit 111 of the dialogue processing unit 110 receives the first model parameter as an input of the sentence set ⁇ S 1 , ..., S
  • the classification unit 114 of the dialogue processing unit 110 takes the context coded vector u output in step S402 above as an input, and uses the second model parameter to generate the probability x that each sentence belongs to each class. And output (step S403).
  • is estimated (step S404).
  • the dialogue processing unit 110 determines whether or not there is unread learning data in the batch (step S405).
  • step S405 If it is determined in step S405 above that there is unread learning data, the dialogue processing unit 110 returns to step S401 above. As a result, the above steps S401 to S404 are executed for each learning data included in the batch.
  • the update unit 130 outputs ⁇ c 1 , c 2 , ..., C
  • the update unit 130 may update the first model parameter and the fourth model parameter by using a known optimization method used for learning the classification task.
  • FIG. 7 is a diagram showing an example of the hardware configuration of the dialogue processing device according to the embodiment.
  • the dialogue processing device 10 is realized by a general computer or a computer system, and includes an input device 301, a display device 302, an external I / F 303, and a communication I / F 304. It has a processor 305 and a memory device 306. Each of these hardware is communicably connected via bus 307.
  • the input device 301 is, for example, a keyboard, a mouse, a touch panel, or the like.
  • the display device 302 is, for example, a display or the like.
  • the dialogue processing device 10 does not have to have at least one of the input device 301 and the display device 302.
  • the external I / F 303 is an interface with an external device.
  • the external device includes a recording medium 303a and the like.
  • the dialogue processing device 10 can read or write the recording medium 303a via the external I / F 303.
  • the recording medium 303a may store one or more programs that realize each functional unit (interaction processing unit 110, batch set creation unit 120, and update unit 130) of the dialogue processing device 10.
  • the recording medium 303a includes, for example, a CD (Compact Disc), a DVD (Digital Versatile Disk), an SD memory card (Secure Digital memory card), a USB (Universal Serial Bus) memory card, and the like.
  • a CD Compact Disc
  • DVD Digital Versatile Disk
  • SD memory card Secure Digital memory card
  • USB Universal Serial Bus
  • the communication I / F 304 is an interface for connecting the dialogue processing device 10 to the communication network.
  • One or more programs that realize each functional unit of the dialogue processing device 10 may be acquired (downloaded) from a predetermined server device or the like via the communication I / F 304.
  • the processor 305 is, for example, various arithmetic units such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit). Each functional unit included in the dialogue processing device 10 is realized, for example, by a process in which one or more programs stored in the memory device 306 are executed by the processor 305.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the memory device 306 is, for example, various storage devices such as HDD (Hard Disk Drive), SSD (Solid State Drive), RAM (Random Access Memory), ROM (Read Only Memory), and flash memory.
  • Each storage unit (model parameter storage unit 201 and learning data set storage unit 220) included in the dialogue processing device 10 can be realized by using, for example, the memory device 306.
  • At least one of these storage units may be realized by using a storage device (for example, a database server or the like) connected to the dialogue processing device 10 via a communication network.
  • the dialogue processing device 10 can realize the above-mentioned dialogue processing and learning processing by having the hardware configuration shown in FIG. 7.
  • the hardware configuration shown in FIG. 7 is an example, and the dialogue processing device 10 may have another hardware configuration.
  • the dialogue processing device 10 may have a plurality of processors 305, or may have a plurality of memory devices 306.
  • Dialogue processing device 110 Dialogue processing unit 111 Context coding unit 112 Matching unit 113 Answer prediction unit 114 Classification unit 120 Batch set creation unit 130 Update unit 210 Model parameter storage unit 220 Learning data set storage unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Data Mining & Analysis (AREA)
  • Machine Translation (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)

Abstract

一実施形態に係る対話処理装置は、対話型機械読解タスクにおける現在の質問を表す単語列である質問Qと、過去の質問を表す単語列の集合である質問履歴{Q,・・・,Qi-1}と、前記過去の質問に対する過去の回答を表す単語列の集合である回答履歴{A,・・・,Ai-1}とを入力として、予め学習済みの第1モデルパラメータを用いて、前記過去の質問及び前記過去の回答それぞれの属性及び重要度の少なくとも一方を反映した文脈符号化ベクトルuを生成する文脈符号化手段と、前記質問Qに対する回答Aの生成に用いられる文書Pと、前記文脈符号化ベクトルuとを入力として、予め学習済みの第2モデルパラメータを用いて、前記文書Pと前記過去の質問及び前記過去の回答とのマッチングを行い、前記質問Qに対する回答Aを生成する回答生成手段と、を有することを特徴とする。

Description

対話処理装置、学習装置、対話処理方法、学習方法及びプログラム
 本発明は、対話処理装置、学習装置、対話処理方法、学習方法及びプログラムに関する。
 機械読解に関する研究が従来から盛んに行われている。機械読解とは、質問と文書とを入力として、文書から質問に対する回答を生成する技術のことである。
 ここで、従来から盛んに研究されている機械読解は一問一答形式である。すなわち、機械読解では、仮に複数の質問が入力されたとしても、これらの質問は独立に扱われ、それぞれの質問に対して独立に回答が生成される。これに対して、近年では、質問と回答とが交互に繰り返されるような対話型の機械読解も研究されている。
 対話型の機械読解とは、文書と現在の質問と質問履歴と回答履歴とを入力として、現在の質問に対する回答を生成する技術のことである。このため、対話型の機械読解では、質問と回答とが繰り返される中で、これまでの対話の内容(つまり、質問履歴と回答履歴)を踏まえた回答を生成することができる。例えば、非特許文献1には、現在の質問に対する回答を生成する対話型の機械読解として、文書内で回答となる範囲の開始位置と終了位置とを出力する技術が記載されている。なお、質問履歴とは過去の質問の履歴のことであり、回答履歴とは過去の回答の履歴のことである。
Hsin-Yuan Huang, Eunsol Choi, and Wen-tau Yih. FlowQA: Grasping flow in history for conversational machine comprehension. arXiv preprint arXiv:1810.06683, 2018.
 ところで、対話型の機械読解では、全ての質問履歴及び回答履歴が現在の質問にとって重要であるとは限らない。しかしながら、例えば、非特許文献1に記載されている技術では直前のいくつかの質問履歴及び回答履歴を考慮しており、現在の質問に対する回答に必要な質問履歴及び回答履歴を取捨選択することができなかった。
 例えば、1つの質問とこの質問に対する1つの回答との組を1ターンと表記した場合、1ターン目~2ターン目は話題A、3ターン目~4ターン目は話題B、5ターン目は話題Aといったように対話の中で話題が変化することが有り得る。このとき、引用文献1に記載されている技術では直前のNターンの質問履歴及び回答履歴を考慮している。
 したがって、例えば、N=2、かつ、現在の質問が話題Aに関する質問である場合、5ターン目の話題Aに関する対話中の質問及び回答と、4ターン目の話題Bに関する対話中の質問及び回答とが履歴として考慮され、1ターン目~2ターン目の話題Aに関する対話中の質問及び回答は履歴として利用することができなかった。また、例えば、N=5、かつ、現在の質問が話題Aに関する質問である場合、1ターン目~5ターン目の対話中の質問及び回答が履歴として考慮されるが、現在の質問の話題Aとは関連の薄い話題Bの対話中の質問及び回答も履歴として考慮されてしまっていた。
 本発明の一実施形態は、上記の点に鑑みてなされたもので、現在の質問に対する回答に必要な履歴を考慮した回答を生成することを目的とする。
 上記目的を達成するため、一実施形態に係る対話処理装置は、対話型機械読解タスクにおける現在の質問を表す単語列である質問Qと、過去の質問を表す単語列の集合である質問履歴{Q,・・・,Qi-1}と、前記過去の質問に対する過去の回答を表す単語列の集合である回答履歴{A,・・・,Ai-1}とを入力として、予め学習済みの第1モデルパラメータを用いて、前記過去の質問及び前記過去の回答それぞれの属性及び重要度の少なくとも一方を反映した文脈符号化ベクトルuを生成する文脈符号化手段と、前記質問Qに対する回答Aの生成に用いられる文書Pと、前記文脈符号化ベクトルuとを入力として、予め学習済みの第2モデルパラメータを用いて、前記文書Pと前記過去の質問及び前記過去の回答とのマッチングを行い、前記質問Qに対する回答Aを生成する回答生成手段と、を有することを特徴とする。
 現在の質問に対する回答に必要な履歴を考慮した回答を生成することができる。
実施例1における対話処理装置の全体構成の一例を示す図である。 実施例1における対話処理の一例を示すフローチャートである。 実施例2における対話処理装置の全体構成の一例を示す図である。 実施例2における学習処理の一例を示すフローチャートである。 対話型機械読解タスクの学習処理の一例を示すフローチャートである。 クラス分類タスクの学習処理の一例を示すフローチャートである。 一実施形態に係る対話処理装置のハードウェア構成の一例を示す図である。
 以下、本発明の一実施形態について説明する。本実施形態では、対話型の機械読解において、現在の質問に対する回答に必要な履歴(質問履歴及び回答履歴)を考慮した回答を生成することが可能な対話処理装置10について説明する。なお、以降では、質問履歴中の過去の質問の「過去質問」、回答履歴中の過去の回答を「過去回答」とも表す。
 ここで、対話型の機械読解では、ニューラルネットワークにより実現されるモデルを用いて現在の質問に対する回答を生成する。このため、本実施形態に係る対話処理装置10には、このモデルのパラメータ(以降、「モデルパラメータ」とも表す。)を学習する「学習時」と、学習済みモデルパラメータを用いて現在の質問に対する回答を生成する「推論時」とが存在する。
 本実施形態における学習時では、履歴(質問履歴及び回答履歴)を利用しながら現在の質問に回答する対話型の機械読解タスクと、与えられた文書内の各文の属性や重要度に基づいて各文を分類するクラス分類タスクとの両方を用いてモデルパラメータを学習する。言い換えれば、対話型機械読解タスク及びクラス分類タスクのマルチタスク学習によりモデルパラメータを学習する。これにより、学習済みのモデルは、履歴を参照しながら現在の質問に対する回答を生成する能力と、与えられた文書の各文の属性や重要度に基づいて各文を分類する能力とを獲得することができる。すなわち、この学習済みのモデルは、現在の質問の回答に対する各過去質問及び各過去回答の有効性を判断し、その有効性に基づいて現在の質問に回答することが可能となる。
 以降では、対話型機械読解タスク及びクラス分類タスクのマルチタスク学習によりモデルパラメータが学習済みであるものとして、この学習済みモデルパラメータを用いて現在の質問に対する回答を生成する推論時について実施例1で説明し、対話型機械読解タスク及びクラス分類タスクのマルチタスク学習によりモデルパラメータを学習する学習時について実施例2で説明する。
 [実施例1]
 実施例1では、モデルパラメータは学習済みであるものとして、現在の質問に対する回答を生成する対話処理装置10について説明する。
 <全体構成>
 まず、実施例1における対話処理装置10の全体構成について、図1を参照しながら説明する。図1は、実施例1における対話処理装置10の全体構成の一例を示す図である。
 図1に示すように、実施例1における対話処理装置10は、対話処理部110と、モデルパラメータ記憶部210とを有する。
 対話処理部110は、現在の質問Qと質問履歴{Q,・・・,Qi-1}と回答履歴{A,・・・,Ai-1}と文書Pとを入力として、モデルパラメータ記憶部210に記憶されている学習済みモデルパラメータを用いて、現在の質問Qに対する回答Aを生成及び出力する。ここで、iはターンを表す。ターンとは、上述したように、1つの質問とこの質問に対する1つの回答との組(つまり、1回の対話)のことである。また、文書は、例えば、「パッセージ」や「検索対象テキスト」等と称されてもよい。
 なお、現在の質問Q、質問履歴{Q,・・・,Qi-1}中の各過去質問Q,・・・,Qi-1、回答履歴{A,・・・,Ai-1}中の各過去回答A,・・・,Ai-1、及び文書Pはそれぞれ単語列で表される。
 対話処理部110には、文脈符号化部111と、マッチング部112と、回答予測部113とが含まれる。これら各部は、それぞれニューラルネットワークで実現される。以降では、モデルパラメータのうち、文脈符号化部111が用いるモデルパラメータ(つまり、文脈符号化部111を実現するニューラルネットワークのパラメータ)を「第1モデルパラメータ」と表す。同様に、モデルパラメータのうち、マッチング部112が用いるモデルパラメータを「第2モデルパラメータ」、回答予測部113が用いるモデルパラメータを「第3モデルパラメータ」と表す。
 文脈符号化部111は、現在の質問Qと質問履歴{Q,・・・,Qi-1}と回答履歴{A,・・・,Ai-1}とを入力として、学習済み第1モデルパラメータを用いて、質問履歴及び回答履歴中の過去質問及び過去回答の属性や重要度を反映した文脈の符号化を行って、文脈符号化ベクトルuを生成及び出力する。ここで、このような文脈符号化ベクトルuを得るためには、現在の質問と質問履歴中の各過去質問と回答履歴中の各過去回答とを区別することと、それぞれの属性や重要性を考慮することが必要である。
 現在の質問と質問履歴中の各過去質問と回答履歴中の各過去回答との区別については、例えば、現在の質問や各過去質問、各過去回答のそれぞれを1つの文として、各文の間に特殊文字を挿入することで区別できる。一方で、各文の属性や重要性の考慮については、或る文書中の各文の属性や重要度に基づいて各文を分類するクラス分類タスクの学習により獲得することができる。なお、文は、1つ以上の単語の列(単語列)で表される。
 文脈符号化部111によって生成及び出力される文脈符号化ベクトルuは、
Figure JPOXMLDOC01-appb-M000001
である。ここで、dは特徴量の次元数である。また、LはQ、{Q,・・・,Qi-1}及び{A,・・・,Ai-1}の合計単語数と、文頭や文末、文の区切り等を表す特殊文字の単語数とを足した単語数である。
 文脈符号化部111を実現するニューラルネットワークとしては、例えば、以下の参考文献1に記載されているBERT(Bidirectional Encoder Representations from Transformers)と呼ばれるモデルを用いることができる。この場合、先頭にクラストークン[CLS]を付加すると共に、Q、Q,・・・,Qi-1,A,・・・,Ai-1の各々を区別するため、各文をセパレータトークン[SEP]で接続した単語列をBERTに入力し、出力として文脈符号化ベクトルuを得る。このとき、BERTに入力される単語列の単語数が所定の単語数に満たない場合には、末尾にパディングトークン[PAD]を必要な数だけ付加する。
 参考文献1:J. Devlin, M.-W. Chang, K. Lee, and K. Toutanova. Bert:Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805,2018.
 マッチング部112は、文書P内の各単語に対して現在の質問Qと履歴(質問履歴{Q,・・・,Qi-1}及び回答履歴{A,・・・,Ai-1})の情報を考慮した特徴量を生成及び出力する。すなわち、マッチング部112は、文書Pと文脈符号化ベクトルuとを入力として、学習済み第2モデルパラメータを用いて、現在の質問Qと履歴の情報を考慮した特徴量
Figure JPOXMLDOC01-appb-M000002
を生成及び出力する。ここで、dは特徴量の次元数である。また、Lは文書Pの単語数と特殊文字の単語数とを足した単語数である。
 マッチング部112を実現するニューラルネットワークの要件としては、文書Pと現在の質問Q並びに質問履歴{Q,・・・,Qi-1}及び回答履歴{A,・・・,Ai-1}とを単語単位でマッチングすることが必要である。この要件を満たすニューラルネットワークのモデルは複数考えられるが、例えば、以下の参考文献2に記載されているBiDirectional Attention Flow Modelに含まれるCharacter Embed LayerとWord Embed LayerとContextual Embed LayerとAttention Layerとで構成されるモデルを用いることができる。この場合、文書PをCharacter Embed Layer及びWord Embed Layerに入力し、Contextual Embed Layerを経てAttention Layerに入力する。また、文脈符号化ベクトルuもAttention Layerに入力する。そして、Attention Layerの出力を特徴量vとして用いればよい。
 参考文献2:Min Joon Seo, Aniruddha Kembhavi, Ali Farhadi, and Hannaneh Hajishirzi. Bidirectional attention flow for machine comprehension. In ICLR 2017.
 なお、上記の参考文献1に記載されているBERTは文脈符号化部111及びマッチング部112の両方の要件を満たすため、文脈符号化部111及びマッチング部112をBERT単体で実現することも可能である。この場合、Q,Q,・・・,Qi-1,A,・・・,Ai-1,Pをセパレータトークン[SEP]で接続した単語列をBERTに入力する。このとき、Segment Embeddingを用いて、文脈符号化部111とマッチング部112の役割を区別する。すなわち、Q,Q,・・・,Qi-1,A,・・・,Ai-1のSegment Embeddingと、PのSegment Embeddingとを異ならせることで、文脈符号化部111とマッチング部112の役割を区別する。特徴量vとしては、BERTの出力のうち、文書Pに対応する特徴量を用いればよい。
 回答予測部113は、現在の質問Q並びに質問履歴及び回答履歴と単語単位でマッチングした文書Pの特徴量vを入力として、学習済み第3モデルパラメータを用いて、現在の質問Qに対する回答Aを生成及び出力する。ここで、回答Aは単語列で表され、その生成方法には2種類ある。
 1つ目の生成方法は文書P内の単語列を抜き出して回答とする抽出形式であり、2つ目の方法は文書P内の単語だけでなく予め定められた所定の語彙集合内の単語も用いて回答を生成する生成形式である。抽出形式では、文書P内の各単語が回答範囲の開始位置である確率と終了位置である確率とをそれぞれ予測し、これらの予測結果に基づいて動的計画法で回答範囲を導出した上で、この回答範囲内の単語列を回答Aとすることが必要である。一方で、生成形式では、回答Aを単語毎に生成することが必要である。
 抽出形式で利用可能なニューラルネットワークとしては、例えば、上記の参考文献2に記載されているModeling LayerとOutput Layerとで構成されるモデルが挙げられる。この場合、Modeling Layer及びOutput Layerに特徴量vを入力し、文書P内の各単語が開始位置である確率と終了位置である確率とを出力する。
 一方で、生成形式で利用可能ニューラルネットワークとしては、例えば、以下の参考文献3に記載されているPointer-Generator Modelが挙げられる。この場合、Pointer-Generator Modelの符号化器に特徴量vを入力し、文書P内の単語の重要度を示す確率を出力する。この確率と、予め定められた外部の所定の語彙集合の重要度を示す確率とをPointer- Generator Modelの復号器に入力し、回答Aを生成する。
 参考文献3:Abigail See, Peter J. Liu, and Christopher D. Manning. Get to the point: Summarization with pointer-generator networks. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1073-1083, July 2017.
 なお、マッチング部112と回答予測部113とが2つの機能部に分かれている必要はなく、例えば、マッチング部112と回答予測部113とで1つの機能部が構成されていてもよい。
 モデルパラメータ記憶部210は、学習済みモデルパラメータ(つまり、学習済み第1モデルパラメータ、学習済み第2モデルパラメータ及び学習済み第3モデルパラメータ)を記憶する。
 <対話処理>
 以降では、現在の質問Qと質問履歴{Q,・・・,Qi-1}と回答履歴{A,・・・,Ai-1}とを入力として、学習済みモデルパラメータを用いて、現在の回答Qに対する回答Aを生成及び出力する処理(対話処理)について、図2を参照しながら説明する。図2は、実施例1における対話処理の一例を示すフローチャートである。
 まず、対話処理部110の文脈符号化部111は、現在の質問Qと質問履歴{Q,・・・,Qi-1}と回答履歴{A,・・・,Ai-1}とを入力として、学習済み第1モデルパラメータを用いて、文脈符号化ベクトルuを生成及び出力する(ステップS101)。
 次に、対話処理部110のマッチング部112は、文書Pと、上記のステップS101で出力された文脈符号化ベクトルuとを入力として、学習済み第2モデルパラメータを用いて、特徴量vを生成及び出力する(ステップS102)。
 そして、対話処理部110の回答予測部113は、上記のステップS102で出力された特徴量vを入力として、学習済み第3モデルパラメータを用いて、回答Aを生成及び出力する(ステップS103)。これにより、現在の質問Qに対する回答として、履歴中の過去質問及び過去回答の属性や重要度を考慮した回答A(言い換えれば、現在の質問Qに関連する過去質問や過去回答を重点的に考慮した回答A)を生成及び出力することができる。
 [実施例2]
 実施例2では、モデルパラメータは学習済みでないものとして、これらのモデルパラメータを学習する対話処理装置10について説明する。
 <全体構成>
 まず、実施例2における対話処理装置10の全体構成について、図3を参照しながら説明する。図3は、実施例2における対話処理装置10の全体構成の一例を示す図である。
 図3に示すように、実施例2における対話処理装置10は、対話処理部110と、バッチ集合作成部120と、更新部130と、モデルパラメータ記憶部210と、学習用データセット記憶部220とを有する。
 モデルパラメータ記憶部210は、学習済みでないモデルパラメータを記憶する。なお、以降では、学習済みでないモデルパラメータを単に「モデルパラメータ」と表す。
 学習用データセット記憶部220は、モデルパラメータの学習に用いられる学習用データセットを記憶する。ここで、実施例2では、学習用データセットとして、対話型機械読解タスクの学習データで構成される学習用データセットと、クラス分類タスクの学習データで構成される学習用データセットとを用いる。これらの学習用データセットは予め収集等しておき、学習用データセット記憶部220に記憶される。
 対話型機械読解タスクの学習用データセットとしては、例えば、以下の参考文献4に記載されているデータセットを用いることができる。
 参考文献4:Eunsol Choi, He He, Mohit Iyyer, Mark Yatskar, Wentau Yih, Yejin Choi, Percy Liang, and Luke Zettlemoyer. 2018. QuAC : Question Answering in Context. In EMNLP. ArXiv: 1808.07036.
 対話型機械読解タスクの学習用データセットに含まれる各学習データは、現在の質問Qと質問履歴{Q,・・・,Qi-1}と回答履歴{A,・・・,Ai-1}と文書Pと正解回答
Figure JPOXMLDOC01-appb-M000003
とで構成される。以降では、現在の質問Qに対する正解回答を「^A」とも表記する。なお、抽出形式の対話型機械読解タスクである場合は正解回答^Aは、文書P中で回答となる範囲の開始位置と終了位置との組で表される。一方で、生成形式の対話型機械読解タスクである場合は正解回答^Aは、単語列で表される。
 また、クラス分類タスクの学習用データセットとしては、与えられた文書の各文の属性や重要度に基づいて各文を分類する能力を獲得可能なデータセットを用いる。このため、クラス分類タスクの学習用データセットは、文毎に属性や重要度を示すラベルが付与された学習データのデータセットである必要がある。すなわち、クラス分類タスクの学習用データセットに含まれる各学習データは、分類対象の文集合{S,・・・,S|S|}と各文の正解クラス
Figure JPOXMLDOC01-appb-M000004
とで構成される。以降では、S(j=1,・・・,|S|)に対する正解クラスを「^c」とも表記する。なお、Sは文(単語列)、|S|は文集合に含まれる文数である。
 与えられた各文の重要度に基づいて各文を分類する能力を獲得可能なデータセットとしては、上記の参考文献3に記載されているデータセットを用いることができる。このデータセットは、原文と要約文との組で構成される学習データのデータセットであり、文書要約に用いられている。このため、原文の各文に対して、当該文が要約文に含まれるか否かの2値のラベルを付与することができる。例えば、当該文が要約文に含まれる場合にはラベルとして重要度「高」を示すラベルを付与し、当該文が要約文に含まれない場合にはラベルとして重要度「低」を示すラベルを付与することができる。
 したがって、上記の参考文献3に記載されているデータセットを用いて、原文の各文に対して、上記のような重要度を示す2値のラベルを付与することで、重要度に基づいて各文を分類する能力を獲得可能なデータセットが得られる。言い換えれば、これにより、上記の参考文献3に記載されているデータセットを用いて、原文の各文が、要約文に含まれるか否かを予測(つまり、各文が要約文に含まれるか否かを分類)するクラス分類タスクに利用可能なデータセットが得られる。このため、このようなデータセットを用いて学習を行うことで、モデルは各文の重要度を推定することが可能になる。
 また、与えられた各文の属性に基づいて各文を分類する能力を獲得可能なデータセットとしては、例えば、以下の参考文献5に記載されているデータセットを用いることができる。
 参考文献5:Mihail Eric, Lakshmi Krishnan, Francois Charette, and Christopher D. Manning, "Key-Value Retrieval Networks for Task-Oriented Dialogue"
 この参考文献5に記載されているデータセットは、2話者間の対話1つに対して、その対話の話題・内容を表すラベルが1つ付与されたデータセットである。例えば、最寄りのガソリンスタンドの場所を尋ねる対話(合計3ターン程度)に対して「navigate」のラベルが付与されている。上記の参考文献5に記載されているデータセットでは、「schedule」、「navigate」、「weather」の3通りのラベルが用いられている。したがって、このデータセットを用いる場合は、対話に付与されたラベルを対話内の各発話に付与することにより、これら各発話を表す文に3通りのラベルのうちの1つのラベルを付与して使用する。
 バッチ集合作成部120は、学習用データセット記憶部220に記憶されている学習用データセット(対話型機械読解タスクの学習用データセットとクラス分類タスクの学習用データセット)から、学習用のバッチ集合を作成する。
 すなわち、バッチ集合作成部120は、例えば、対話型機械読解タスクの学習用データセットをバッチ単位に分割してバッチ集合Bを作成すると共に、クラス分類タスクの学習用データセットをバッチ単位に分割してバッチ集合Bを作成する。そして、バッチ集合作成部120は、バッチ集合Bに含まれる各バッチに対して識別子idx=1を付与すると共に、バッチ集合Bに含まれる各バッチに対して識別子idx=0を付与した上で、これらのバッチを合わせたバッチ集合Bを作成し、このバッチ集合Bに含まれる各バッチの順番をランダムにシャッフルする。これにより、モデルパラメータの学習用のバッチ集合Bが作成される。バッチとは、予め決められた数の学習データの集合である。後述するように、バッチ単位でモデルパラメータが更新される。なお、学習用データセットを「バッチ」、予め決められた数の学習データ数で学習用データセットを分割した集合を「ミニバッチ」と呼ぶこともあるが、本明細書では、予め決められた数の学習データ数で学習用データセットを分割した集合を「バッチ」と称する。
 対話処理部110は、バッチ集合Bに含まれるバッチ内の各学習データを用いて、対話型機械読解タスクによって回答の生成及び出力、又は、クラス分類タスクによってクラスの推定及び出力を行う。すなわち、対話処理部110は、当該バッチの識別子がidx=1の場合は、当該バッチ内の学習データ(つまり、対話型機械読解タスクの学習データ)に含まれる現在の質問Qと質問履歴{Q,・・・,Qi-1}と回答履歴{A,・・・,Ai-1}と文書Pとを入力として、モデルパラメータを用いて、現在の質問Qに対する回答Aを生成及び出力する。一方で、対話処理部110は、当該バッチの識別子がidx=0の場合は、当該バッチ内の学習データ(つまり、クラス分類タスクの学習データ)に含まれる文集合{S,・・・,S|S|}を入力として、クラス{c,c,・・・,c|S|}を推定及び出力する。
 ここで、実施例2では、対話処理部110には、文脈符号化部111と、マッチング部112と、回答予測部113と、分類部114とが含まれる。これら各部は、それぞれニューラルネットワークで実現される。以降では、分類部114が用いるモデルパラメータ(つまり、分類部114を実現するニューラルネットワークのパラメータ)を「第4モデルパラメータ」と表す。
 対話型機械読解タスクの学習データを用いる場合には、文脈符号化部111、マッチング部112及び回答予測部113は、実施例1と同様の処理により回答Aを生成及び出力する。ただし、学習済みモデルパラメータの代わりに、学習済みでないモデルパラメータ(つまり、学習済みでない第1モデルパラメータ~第3モデルパラメータ)を用いる。
 一方で、クラス分類タスクの学習データを用いる場合には、文脈符号化部111及び分類部114は、学習済みでないモデルパラメータ(つまり、学習済みでない第1モデルパラメータ及び第4モデルパラメータ)を用いて、クラス{c,c,・・・,c|S|}を推定及び出力する。すなわち、例えば、文脈符号化部111がBERTで実現されている場合には、先頭にクラストークン[CLS]を付加すると共に、各文S,・・・,S|S|をセパレータトークン[SEP]で接続した単語列をBERTに入力し、文脈符号化ベクトルuを生成及び出力する。そして、例えば、1層の線形変換層で構成されるニューラルネットワークで実現される分類部114に文脈符号化ベクトルuを入力し、各文が各クラスにそれぞれ属する確率
Figure JPOXMLDOC01-appb-M000005
を得る。ここで、Cはクラス数であり、Lは文集合{S,・・・,S|S|}の合計単語数と特殊文字の単語数とを足した単語数である。このとき、各文を区切る[SEP]で文を代表させる場合は、[SEP]の位置に対応するxのベクトル(C次元のベクトル)を、その文が各クラスにそれぞれ属する確率を表すベクトルとして用いる。これにより、文Sが各クラスにそれぞれ属する確率が得られ、当該文Sが属するクラスcが分類部114によって推定される。
 更新部130は、回答予測部113によって生成及び出力された回答Aと正解回答^Aとの誤差を用いて、モデルパラメータ記憶部210に記憶されているモデルパラメータ(第1モデルパラメータ~第3モデルパラメータ)を更新する。また、更新部130は、分類部114によって推定及び出力されたクラス{c,c,・・・,c|S|}と正解クラス{^c,^c,・・・,^c|S|}との誤差を用いて、モデルパラメータ記憶部210に記憶されているモデルパラメータ(第1モデルパラメータ及び第4モデルパラメータ)を更新する。
 なお、学習時には第4モデルパラメータも学習対象(更新対象)となるが、推論時には第4モデルパラメータは用いられない。推論時の対話処理部110には、分類部114が含まれないためである。
 <学習処理>
 以降では、学習データを用いて、モデルパラメータ(第1モデルパラメータ~第4モデルパラメータ)を学習する処理(学習処理)について、図4を参照しながら説明する。図4は、実施例2における学習処理の一例を示すフローチャートである。なお、モデルパラメータ記憶部210に記憶されているモデルパラメータは、学習処理の開始前に、適当な値に初期化されているものとする。
 まず、バッチ集合作成部120は、学習用データセット記憶部220に記憶されている学習用データセットからバッチ集合Bとバッチ集合Bとを作成し、バッチ集合Bに含まれる各バッチには識別子idx=1を付与し、バッチ集合Bに含まれる各バッチには識別子idx=0を付与する(ステップS201)。
 すなわち、バッチ集合作成部120は、対話型機械読解タスクの学習用データセットをバッチ単位に分割してバッチ集合Bを作成し、このバッチ集合Bに含まれる各バッチに識別子idx=1を付与する。同様に、バッチ集合作成部120は、クラス分類タスクの学習用データセットをバッチ単位に分割してバッチ集合Bを作成し、このバッチ集合Bに含まれる各バッチに識別子idx=0を付与する。なお、識別子idx=1は当該バッチが対話型機械読解タスクの学習データで構成されるバッチであることを表し、識別子idx=0は当該バッチがクラス分類タスクの学習データで構成されるバッチであることを表す。
 次に、バッチ集合作成部120は、バッチ集合Bとバッチ集合Bとを合わせたバッチ集合Bを作成し、このバッチ集合Bに含まれる各バッチの順番をランダムにシャッフルする(ステップS202)。これにより、対話型機械読解タスクのバッチとクラス分類タスクのバッチとがランダムな順番で含まれるバッチ集合Bが得られる。
 対話処理部110は、バッチ集合Bに含まれるバッチのうち、未読込の先頭のバッチを読み込む(ステップS203)。
 次に、対話処理部110は、上記のステップS203で読み込んだバッチに付与されている識別子がidx=1又はidx=0のいずれであるかを判定する(ステップS204)。
 上記のステップS204で識別子がidx=1であると判定された場合、対話処理装置10は、対話型機械読解タスクの学習処理を行う(ステップS205)。すなわち、対話処理装置10は、機械読解タスクの学習データを用いて、第1モデルパラメータ~第3モデルパラメータを学習する。なお、対話型機械読解タスクの学習処理の詳細については後述する。
 一方で、上記のステップS204で識別子がidx=0であると判定された場合、対話処理装置10は、クラス分類タスクの学習処理を行う(ステップS206)。すなわち、対話処理装置10は、クラス分類タスクの学習データを用いて、第1モデルパラメータ及び第4モデルパラメータを学習する。なお、クラス分類タスクの学習処理の詳細については後述する。
 上記のステップS205又はステップS206に続いて、対話処理部110は、バッチ集合Bの中に未読込のバッチがあるか否かを判定する(ステップS207)。
 上記のステップS207で未読込のバッチがあると判定された場合、対話処理部110は、上記のステップS203に戻る。これにより、バッチ集合Bに含まれる各バッチに対して、その識別子に応じて、上記のステップS205又はステップS206のいずれかが実行される。
 一方で、上記のステップS207で未読込のバッチがあると判定されなかった場合(つまり、バッチ集合Bの中の全てのバッチが読込済みである場合)、対話処理部110は、学習が収束したか否かを判定する(ステップS208)。
 そして、上記のステップS208で学習が収束したと判定されなかった場合、対話処理部110は、バッチ集合Bの中の全てのバッチを未読込として、上記のステップS203に戻る。これにより、当該バッチ集合Bを用いて、上記のステップS203~ステップS207が再度実行される。
 一方で、上記のステップS208で学習が収束したと判定された場合、対話処理部110は、学習処理を終了する。これにより、学習済みモデルパラメータが得られる。なお、学習の収束条件としては、例えば、上記のステップS203~ステップS207が所定の回数繰り返し実行されたこと等が挙げられる。
 このように、実施例2では、対話型機械読解タスクとクラス分類タスクのマルチタスク学習(つまり、上記のステップS205の学習処理と上記のステップS206の学習処理)により学習済みモデルパラメータを得る。なお、上述したように、学習済み第1モデルパラメータ~学習済み第4モデルパラメータのうち、推論時には、学習済み第1モデルパラメータ~学習済み第3モデルパラメータのみを用いる。
  ≪対話型機械読解タスクの学習処理≫
 次に、上記のステップS205における対話型機械読解タスクの学習処理の詳細について、図5を参照しながら説明する。図5は、対話型機械読解タスクの学習処理の一例を示すフローチャートである。
 まず、対話処理部110は、上記のステップ203で読み込んだバッチ(idx=1が付与されているバッチ)に含まれる学習データのうち、未読込の学習データを読み込む(ステップS301)。
 次に、対話処理部110の文脈符号化部111は、上記のステップS301で読み込んだ学習データに含まれる現在の質問Qと質問履歴{Q,・・・,Qi-1}と回答履歴{A,・・・,Ai-1}とを入力として、第1モデルパラメータを用いて、文脈符号化ベクトルuを生成及び出力する(ステップS302)。
 次に、対話処理部110のマッチング部112は、上記のステップS301で読み込んだ学習データに含まれる文書Pと、上記のステップS302で出力された文脈符号化ベクトルuとを入力として、第2モデルパラメータを用いて、特徴量vを生成及び出力する(ステップS303)。
 次に、対話処理部110の回答予測部113は、上記のステップS303で出力された特徴量vを入力として、第3モデルパラメータを用いて、回答Aを生成及び出力する(ステップS304)。
 次に、対話処理部110は、当該バッチの中に未読込の学習データがあるか否かを判定する(ステップS305)。
 上記のステップS305で未読込の学習データがあると判定された場合、対話処理部110は、上記のステップS301に戻る。これにより、当該バッチに含まれる各学習データに対して、上記のステップS301~ステップS304が実行される。
 一方で、上記のステップS305で未読込の学習データがあると判定されなかった場合、更新部130は、上記のステップS304で出力された各回答Aと、これらの各回答Aのそれぞれ対応する正解回答^Aとの誤差を用いて、モデルパラメータ記憶部210に記憶されている第1モデルパラメータ~第3モデルパラメータを更新する(ステップS306)。なお、更新部130は、対話型機械読解タスクの学習に用いられる既知の最適化手法を用いて第1モデルパラメータ~第3モデルパラメータを更新すればよい。
  ≪クラス分類タスクの学習処理≫
 次に、上記のステップS206におけるクラス分類タスクの学習処理の詳細について、図6を参照しながら説明する。図6は、クラス分類タスクの学習処理の一例を示すフローチャートである。
 まず、対話処理部110は、上記のステップ203で読み込んだバッチ(idx=0が付与されているバッチ)に含まれる学習データのうち、未読込の学習データを読み込む(ステップS401)。
 次に、対話処理部110の文脈符号化部111は、上記のステップS401で読み込んだ学習データに含まれる文集合{S,・・・,S|S|}の入力として、第1モデルパラメータを用いて、文脈符号化ベクトルuを生成及び出力する(ステップS402)。
 次に、対話処理部110の分類部114は、上記のステップS402で出力された文脈符号化ベクトルuを入力として、第2モデルパラメータを用いて、各文が各クラスにそれぞれ属する確率xを生成及び出力する(ステップS403)。
 次に、対話処理部110の分類部114は、上記のステップS403で出力された確率xから、各文S,・・・,S|S|が属するクラス{c,c,・・・,c|S|}を推定する(ステップS404)。
 次に、対話処理部110は、当該バッチの中に未読込の学習データがあるか否かを判定する(ステップS405)。
 上記のステップS405で未読込の学習データがあると判定された場合、対話処理部110は、上記のステップS401に戻る。これにより、当該バッチに含まれる各学習データに対して、上記のステップS401~ステップS404が実行される。
 一方で、上記のステップS405で未読込の学習データがあると判定されなかった場合、更新部130は、上記のステップS403で出力された{c,c,・・・,c|S|}と、正解クラス{^c,^c,・・・,^c|S|}との誤差を用いて、モデルパラメータ記憶部210に記憶されている第1モデルパラメータ及び第4モデルパラメータを更新する(ステップS406)。なお、更新部130は、クラス分類タスクの学習に用いられる既知の最適化手法を用いて第1モデルパラメータ及び第4モデルパラメータを更新すればよい。
 <ハードウェア構成>
 最後に、本実施形態に係る対話処理装置10のハードウェア構成について、図7を参照しながら説明する。図7は、一実施形態に係る対話処理装置のハードウェア構成の一例を示す図である。
 図7に示すように、本実施形態に係る対話処理装置10は一般的なコンピュータ又はコンピュータシステムで実現され、入力装置301と、表示装置302と、外部I/F303と、通信I/F304と、プロセッサ305と、メモリ装置306とを有する。これら各ハードウェアは、それぞれがバス307を介して通信可能に接続されている。
 入力装置301は、例えば、キーボードやマウス、タッチパネル等である。表示装置302は、例えば、ディスプレイ等である。なお、対話処理装置10は、入力装置301及び表示装置302のうちの少なくとも一方を有していなくてもよい。
 外部I/F303は、外部装置とのインタフェースである。外部装置には、記録媒体303a等がある。対話処理装置10は、外部I/F303を介して、記録媒体303aの読み取りや書き込み等を行うことができる。記録媒体303aには、対話処理装置10が有する各機能部(対話処理部110、バッチ集合作成部120及び更新部130)を実現する1以上のプログラムが格納されていてもよい。
 なお、記録媒体303aには、例えば、CD(Compact Disc)、DVD(Digital Versatile Disk)、SDメモリカード(Secure Digital memory card)、USB(Universal Serial Bus)メモリカード等がある。
 通信I/F304は、対話処理装置10を通信ネットワークに接続するためのインタフェースである。なお、対話処理装置10が有する各機能部を実現する1以上のプログラムは、通信I/F304を介して、所定のサーバ装置等から取得(ダウンロード)されてもよい。
 プロセッサ305は、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等の各種演算装置である。対話処理装置10が有する各機能部は、例えば、メモリ装置306に格納されている1以上のプログラムがプロセッサ305に実行させる処理により実現される。
 メモリ装置306は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等の各種記憶装置である。対話処理装置10が有する各記憶部(モデルパラメータ記憶部201及び学習用データセット記憶部220)は、例えば、メモリ装置306を用いて実現可能である。なお、これら各記憶部のうちの少なくとも1つの記憶部が、対話処理装置10と通信ネットワークを介して接続される記憶装置(例えば、データベースサーバ等)を用いて実現されていてもよい。
 本実施形態に係る対話処理装置10は、図7に示すハードウェア構成を有することにより、上述した対話処理や学習処理を実現することができる。なお、図7に示すハードウェア構成は一例であって、対話処理装置10は、他のハードウェア構成を有していてもよい。例えば、対話処理装置10は、複数のプロセッサ305を有していてもよいし、複数のメモリ装置306を有していてもよい。
 本発明は、具体的に開示された上記の実施形態に限定されるものではなく、請求の範囲の記載から逸脱することなく、種々の変形や変更、既知の技術との組み合わせ等が可能である。
 10    対話処理装置
 110   対話処理部
 111   文脈符号化部
 112   マッチング部
 113   回答予測部
 114   分類部
 120   バッチ集合作成部
 130   更新部
 210   モデルパラメータ記憶部
 220   学習用データセット記憶部

Claims (8)

  1.  対話型機械読解タスクにおける現在の質問を表す単語列である質問Qと、過去の質問を表す単語列の集合である質問履歴{Q,・・・,Qi-1}と、前記過去の質問に対する過去の回答を表す単語列の集合である回答履歴{A,・・・,Ai-1}とを入力として、予め学習済みの第1モデルパラメータを用いて、前記過去の質問及び前記過去の回答それぞれの属性及び重要度の少なくとも一方を反映した文脈符号化ベクトルuを生成する文脈符号化手段と、
     前記質問Qに対する回答Aの生成に用いられる文書Pと、前記文脈符号化ベクトルuとを入力として、予め学習済みの第2モデルパラメータを用いて、前記文書Pと前記過去の質問及び前記過去の回答とのマッチングを行い、前記質問Qに対する回答Aを生成する回答生成手段と、
     を有することを特徴とする対話処理装置。
  2.  前記第1モデルパラメータ及び前記第2モデルパラメータは、前記対話型機械読解タスクと、単語列で表される文を複数のクラスに分類するクラス分類タスクとのマルチタスク学習によって学習されたパラメータである、ことを特徴とする請求項1に記載の対話処理装置。
  3.  対話型機械読解タスクにおける現在の質問を表す単語列である質問Qと、過去の質問を表す単語列の集合である質問履歴{Q,・・・,Qi-1}と、前記過去の質問に対する過去の回答を表す単語列の集合である回答履歴{A,・・・,Ai-1}とを接続した第1入力単語列、又は、クラス分類タスクで分類対象となる各文をそれぞれ表す単語列を接続した第2入力単語列のいずれかを入力として、第1モデルパラメータを用いて、前記第1入力単語列又は前記第2入力単語列で表される文脈の文脈符号化ベクトルuを生成する文脈符号化手段と、
     前記質問Qに対する回答Aの生成に用いられる文書Pと、前記第1入力単語列から生成された文脈符号化ベクトルuとを入力として、第2モデルパラメータを用いて、前記文書Pと前記第1入力単語列に含まれる前記過去の質問及び前記過去の回答とのマッチングを行い、前記質問Qに対する回答Aを生成する回答生成手段と、
     前記第2入力単語列から生成された文脈符号化ベクトルuを入力として、第3モデルパラメータを用いて、前記各文のそれぞれが属するクラスを推定するクラス推定手段と、
     前記回答Aと前記質問Qに対する正解回答との誤差を用いて、前記第1モデルパラメータと前記第2モデルパラメータとを更新する第1更新手段と、
     前記クラスと前記分類対象となる各文のそれぞれが属する正解クラスとの誤差を用いて、前記第1モデルパラメータと前記第3モデルパラメータを更新する第2更新手段と、
     を有することを特徴とする学習装置。
  4.  前記学習装置は、
     前記分類対象となる各文と、前記各文のそれぞれが属する正解クラスとが含まれる学習データで構成される第1学習用データセットを用いて、前記クラス推定手段によるクラスの推定と、前記第2更新手段による更新とを行い、
     前記分類対象となる各文と前記正解クラスは、原文に含まれる各文と前記各文のそれぞれが要約文に含まれるか否かを示す重要度であり、前記原文と前記要約文とが含まれるデータセットから作成される、又は/及び、1以上の文で構成される対話に含まれる各文と前記対話における話題又は内容を示す属性であり、前記対話と前記対話における話題又は内容を表すラベルとが含まれるデータセットから作成される、ことを特徴とする請求項3に記載の学習装置。
  5.  前記第1学習用データセットと、前記対話型機械読解タスクの学習に用いられる第2学習用データセットとをそれぞれ複数のバッチに分割し、前記複数のバッチで構成されるバッチ集合を作成するバッチ集合作成手段と、
     前記バッチ集合に含まれるバッチ毎に、前記バッチが、前記第1学習用データセットから分割されたバッチ又は前記第2学習用データセットから分割されたバッチのいずれであるかを判定する判定手段と、を有し、
     前記文脈符号化手段は、
     前記第1学習用データセットから分割されたバッチであると判定された場合、前記バッチを構成する学習データに含まれる各文をそれぞれ表す単語列を接続した第2入力単語列を入力として、前記文脈符号化ベクトルuを生成し、
     前記第2学習用データセットから分割されたバッチであると判定された場合、前記バッチを構成する学習データに含まれる前記質問Qと前記質問履歴{Q,・・・,Qi-1}と前記回答履歴{A,・・・,Ai-1}とを接続した第1入力単語列を入力として、前記文脈符号化ベクトルuを生成する、ことを特徴とする請求項4に記載の学習装置。
  6.  対話型機械読解タスクにおける現在の質問を表す単語列である質問Qと、過去の質問を表す単語列の集合である質問履歴{Q,・・・,Qi-1}と、前記過去の質問に対する過去の回答を表す単語列の集合である回答履歴{A,・・・,Ai-1}とを入力として、予め学習済みの第1モデルパラメータを用いて、前記過去の質問及び前記過去の回答それぞれの属性及び重要度の少なくとも一方を反映した文脈符号化ベクトルuを生成する文脈符号化手順と、
     前記質問Qに対する回答Aの生成に用いられる文書Pと、前記文脈符号化ベクトルuとを入力として、予め学習済みの第2モデルパラメータを用いて、前記文書Pと前記過去の質問及び前記過去の回答とのマッチングを行い、前記質問Qに対する回答Aを生成する回答生成手順と、
     をコンピュータが実行することを特徴とする対話処理方法。
  7.  対話型機械読解タスクにおける現在の質問を表す単語列である質問Qと、過去の質問を表す単語列の集合である質問履歴{Q,・・・,Qi-1}と、前記過去の質問に対する過去の回答を表す単語列の集合である回答履歴{A,・・・,Ai-1}とを接続した第1入力単語列、又は、クラス分類タスクで分類対象となる各文をそれぞれ表す単語列を接続した第2入力単語列のいずれかを入力として、第1モデルパラメータを用いて、前記第1入力単語列又は前記第2入力単語列で表される文脈の文脈符号化ベクトルuを生成する文脈符号化手順と、
     前記質問Qに対する回答Aの生成に用いられる文書Pと、前記第1入力単語列から生成された文脈符号化ベクトルuとを入力として、第2モデルパラメータを用いて、前記文書Pと前記第1入力単語列に含まれる前記過去の質問及び前記過去の回答とのマッチングを行い、前記質問Qに対する回答Aを生成する回答生成手順と、
     前記第2入力単語列から生成された文脈符号化ベクトルuを入力として、第3モデルパラメータを用いて、前記各文のそれぞれが属するクラスを推定するクラス推定手順と、
     前記回答Aと前記質問Qに対する正解回答との誤差を用いて、前記第1モデルパラメータと前記第2モデルパラメータとを更新する第1更新手順と、
     前記クラスと前記分類対象となる各文のそれぞれが属する正解クラスとの誤差を用いて、前記第1モデルパラメータと前記第3モデルパラメータを更新する第2更新手順と、
     をコンピュータが実行することを特徴とする学習方法。
  8.  コンピュータを、請求項1又は2に記載の対話処理装置における各手段、又は、請求項3乃至5の何れか一項に記載の学習装置における各手段、として機能させるためのプログラム。
PCT/JP2019/048632 2019-12-12 2019-12-12 対話処理装置、学習装置、対話処理方法、学習方法及びプログラム WO2021117180A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2019/048632 WO2021117180A1 (ja) 2019-12-12 2019-12-12 対話処理装置、学習装置、対話処理方法、学習方法及びプログラム
JP2021563529A JP7342971B2 (ja) 2019-12-12 2019-12-12 対話処理装置、学習装置、対話処理方法、学習方法及びプログラム
US17/784,004 US20230034414A1 (en) 2019-12-12 2019-12-12 Dialogue processing apparatus, learning apparatus, dialogue processing method, learning method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/048632 WO2021117180A1 (ja) 2019-12-12 2019-12-12 対話処理装置、学習装置、対話処理方法、学習方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2021117180A1 true WO2021117180A1 (ja) 2021-06-17

Family

ID=76330031

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/048632 WO2021117180A1 (ja) 2019-12-12 2019-12-12 対話処理装置、学習装置、対話処理方法、学習方法及びプログラム

Country Status (3)

Country Link
US (1) US20230034414A1 (ja)
JP (1) JP7342971B2 (ja)
WO (1) WO2021117180A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7232485B1 (ja) 2022-07-01 2023-03-03 株式会社ジョインポイントテック 情報処理装置、情報処理システム、情報処理方法及びプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11727209B2 (en) * 2020-04-27 2023-08-15 Adobe Inc. Systems for role classification
US11720615B2 (en) * 2021-07-30 2023-08-08 DSilo Inc. Self-executing protocol generation from natural language text
CN113779225B (zh) * 2021-09-17 2024-06-28 工银科技有限公司 实体链接模型的训练方法、实体链接方法及装置
CN117235239B (zh) * 2023-11-13 2024-02-20 智慧眼科技股份有限公司 一种主动式对话大模型构建装置、方法、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002132812A (ja) * 2000-10-19 2002-05-10 Nippon Telegr & Teleph Corp <Ntt> 質問応答方法、質問応答システム及び質問応答プログラムを記録した記録媒体
JP2018206307A (ja) * 2017-06-09 2018-12-27 エヌ・ティ・ティ レゾナント株式会社 情報処理装置、情報処理方法、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002132812A (ja) * 2000-10-19 2002-05-10 Nippon Telegr & Teleph Corp <Ntt> 質問応答方法、質問応答システム及び質問応答プログラムを記録した記録媒体
JP2018206307A (ja) * 2017-06-09 2018-12-27 エヌ・ティ・ティ レゾナント株式会社 情報処理装置、情報処理方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ATSUSHI OTSUKA, KYOSUKE NISHIDA, ITSUMI SAITO, HISAKO ASANO, JUNJI TOMITA: "Neural Question Generation Model to Identify Question Intention", DBSJ JAPANESE JOURNAL, vol. 17-J, 6, March 2019 (2019-03-01), pages 1 - 8, XP055762755, Retrieved from the Internet <URL:http://dbsj.org/wp-content/uploads/2019/02/DBSJ_17_06_otsuka.pdf> [retrieved on 20200306] *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7232485B1 (ja) 2022-07-01 2023-03-03 株式会社ジョインポイントテック 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2024006380A (ja) * 2022-07-01 2024-01-17 株式会社ジョインポイントテック 情報処理装置、情報処理システム、情報処理方法及びプログラム

Also Published As

Publication number Publication date
US20230034414A1 (en) 2023-02-02
JPWO2021117180A1 (ja) 2021-06-17
JP7342971B2 (ja) 2023-09-12

Similar Documents

Publication Publication Date Title
WO2021117180A1 (ja) 対話処理装置、学習装置、対話処理方法、学習方法及びプログラム
Uc-Cetina et al. Survey on reinforcement learning for language processing
JP7087938B2 (ja) 質問生成装置、質問生成方法及びプログラム
WO2020088330A1 (en) Latent space and text-based generative adversarial networks (latext-gans) for text generation
CN108604311B (zh) 利用层级式外部存储器的增强神经网络
JP6649536B1 (ja) 対話処理装置、学習装置、対話処理方法、学習方法及びプログラム
CN110234018B (zh) 多媒体内容描述生成方法、训练方法、装置、设备及介质
CN112905735A (zh) 用于自然语言处理的方法和设备
JP7315065B2 (ja) 質問生成装置、質問生成方法及びプログラム
CN110210032A (zh) 文本处理方法及装置
KR102227939B1 (ko) 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 방법 및 장치
CN110110331B (zh) 文本生成方法、装置、介质和计算设备
US20220067590A1 (en) Automatic knowledge graph construction
Tang et al. Modelling student behavior using granular large scale action data from a MOOC
CN112825249A (zh) 语音处理方法和设备
CN113609284A (zh) 一种融合多元语义的文本摘要自动生成方法及装置
JP2022516227A (ja) 自然言語ソリューション
CN114492661B (zh) 文本数据分类方法和装置、计算机设备、存储介质
CN112183062B (zh) 一种基于交替解码的口语理解方法、电子设备和存储介质
CN117057414A (zh) 一种面向文本生成的多步协作式提示学习的黑盒知识蒸馏方法及系统
CN111368531A (zh) 翻译文本处理方法、装置、计算机设备和存储介质
KR20210044003A (ko) 단어 임베딩 방법 및 장치와 단어 검색 방법
CN115357712A (zh) 方面级情感分析方法、装置、电子设备及存储介质
CN113704466B (zh) 基于迭代网络的文本多标签分类方法、装置及电子设备
WO2021186525A1 (ja) 発話生成装置、発話生成方法、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19956000

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021563529

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19956000

Country of ref document: EP

Kind code of ref document: A1