WO2019216316A1 - 対話データ生成装置、対話データ生成方法、およびプログラム - Google Patents
対話データ生成装置、対話データ生成方法、およびプログラム Download PDFInfo
- Publication number
- WO2019216316A1 WO2019216316A1 PCT/JP2019/018268 JP2019018268W WO2019216316A1 WO 2019216316 A1 WO2019216316 A1 WO 2019216316A1 JP 2019018268 W JP2019018268 W JP 2019018268W WO 2019216316 A1 WO2019216316 A1 WO 2019216316A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- sentence
- data
- utterance
- question
- utterance sentence
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/44—Statistical methods, e.g. probability models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Definitions
- the present invention relates to a dialog data generation device, a dialog data generation method, and a program, and more particularly to a dialog data generation device, a dialog data generation method, and a program for generating a question sentence in a dialog system.
- Dialog systems that interact with users can be broadly divided into two types: task-oriented dialog systems and non-task-oriented dialog systems.
- the task-oriented dialogue system achieves a specific task by dialogue with the system. For example, it is used in a flight reservation system and a weather information guidance system (Non-Patent Document 1). These systems generally have a structure of a frame (consisting of a slot made up of a slot name and a slot value), and a dialog proceeds based on the frame.
- the task-oriented dialogue system has such a structure, it is possible to generate a question sentence that listens to an unfilled slot and ask for information about the other party.
- a non-task-oriented dialogue system handles a dialogue with no purpose, and the content of the dialogue is a so-called chat.
- chat since the chat includes various topics, unlike the task-oriented dialog system, it does not have a slot structure, and it is obvious what question words should be used to ask questions. Absent.
- the conventional non-task-oriented dialogue system realizes dialogue with the user by a rule-based method or a machine learning method.
- the rule-based method has a problem that it is necessary to manually create a large number of rules in order to dig a wide range of dialogues because the rules are written manually.
- the conventional non-task-oriented dialog system cannot realize a dialog system that digs deeply into a dialog at low cost, so that there is a problem that the interaction between the dialog system and the user cannot be facilitated. It was.
- the present invention has been made in view of the above points, and a dialog data generation apparatus, a dialog data generation method, and a program capable of generating dialog data for generating a question sentence for deepening conversation at low cost
- the purpose is to provide.
- the dialog data generation device includes a first utterance sentence that is a sentence uttered by a first user and a second utterance that is a sentence uttered by a second user and is a response to the first utterance sentence.
- An input unit that accepts input of a plurality of data consisting of a sentence and a sentence uttered by the first user and a third utterance sentence that is a response to the second utterance sentence; and the input unit accepts For each of the plurality of data, when the second utterance sentence of the data is a question sentence using an interrogative word, the first utterance sentence of the data, the second utterance sentence of the data, A dialogue data generation unit that generates a set of the above as dialogue data.
- the input unit includes a first utterance sentence uttered by the first user and a sentence uttered by the second user, the first utterance sentence being Accepting input of a plurality of data consisting of a combination of a second utterance sentence that is a response and a sentence uttered by the first user and a third utterance sentence that is a response to the second utterance sentence; For each of the plurality of data received by the input unit, the generation unit, when the second utterance sentence of the data is a question sentence using a question word, the first utterance sentence of the data, A set of the data and the second utterance is generated as dialogue data.
- the input unit includes a first utterance sentence that is a sentence uttered by the first user and a sentence uttered by the second user, Input of a plurality of data composed of a set of a second utterance sentence that is a response to the first utterance sentence and a third utterance sentence that is a sentence uttered by the first user and is a response to the second utterance sentence.
- a first utterance sentence that is a sentence uttered by the first user and a sentence uttered by the second user
- Input of a plurality of data composed of a set of a second utterance sentence that is a response to the first utterance sentence and a third utterance sentence that is a sentence uttered by the first user and is a response to the second utterance sentence.
- the dialogue data generation unit when the second utterance sentence of the data is a question sentence using a question word, the first utterance sentence of the data, A set of the data and the second utterance sentence is generated as dialogue data.
- the first utterance sentence that is a sentence uttered by the first user the second utterance sentence that is a sentence uttered by the second user and is a response to the first utterance sentence
- the first utterance sentence of the data uses a question word
- the conversation data for generating a question sentence for deepening the conversation. Can be generated to cost.
- the dialog data generation unit of the dialog data generation device for each of the plurality of data received by the input unit, the second utterance of the data is tense, place, subject, subject, In the case where a question sentence including a reason, method, degree, or state is included, and a question sentence, a pair of the first utterance sentence of the data and the second utterance sentence of the data is generated as dialogue data. be able to.
- the dialogue data generation device is configured such that when the first utterance sentence included in the dialogue data is input to each of the plurality of dialogue data obtained by the dialogue data generation unit, the dialogue data A question generation model learning unit that learns a neural network that generates a sentence from the input sentence so as to output the second utterance sentence included in.
- the dialogue data generation apparatus further includes a question sentence generation unit that inputs an input utterance sentence to the neural network and uses an output of the neural network as a question sentence for the utterance sentence. it can.
- the program according to the present invention is a program for functioning as each unit of the dialog data generation apparatus.
- dialog data generation device dialog data generation method, and program of the present invention, it is possible to generate dialog data for generating a question sentence for deepening conversation at low cost.
- FIG. 1 is a block diagram showing a configuration of a dialogue data generation apparatus 10 according to an embodiment of the present invention.
- the dialogue data generation device 10 is composed of a computer including a CPU, a RAM, and a ROM storing a program for executing a model learning processing routine and a question sentence generation processing routine described later. It is configured as shown.
- the dialogue data generation apparatus 10 includes an input unit 100, a dialogue data generation unit 110, a question generation model learning unit 120, a question generation model storage unit 130, and an input unit 140. , A question sentence generation unit 150 and an output unit 160.
- the input unit 100 includes a first utterance sentence that is a sentence uttered by the first user, a sentence uttered by the second user, a second utterance sentence that is a response to the first utterance sentence, and the first utterance sentence. It accepts input of a plurality of data consisting of a set of a sentence uttered by one user and a third utterance sentence that is a response to the second utterance sentence.
- the plurality of data are responses to the first utterance sentence that is the utterance of the first user and the first utterance sentence by the second user from a chat system, a social networking service (SNS) that posts the utterance sentence, or the like.
- a set of a second utterance sentence and a third utterance sentence that is a response to the second utterance sentence by the first user is extracted and collected in advance.
- a plurality of data may be input to the input unit 100 by a device that automatically collects these from a public chat system or SNS on the Internet.
- the input unit 100 When the input unit 100 receives input of a plurality of data composed of a set of the first utterance sentence, the second utterance sentence, and the third utterance sentence, the input data is sent to the dialog data generation unit 110. give.
- the dialogue data generation unit 110 For each of the plurality of data received by the input unit 100, the dialogue data generation unit 110 includes a question sentence regarding the tense, place, subject, object, reason, method, degree, or state of the second utterance of the data. In the case of a question sentence, a pair of the first utterance sentence of the data and the second utterance sentence of the data is generated as dialogue data.
- the second utterance sentence of the data is a question sentence, and “when, where, who, what, why, It is determined whether or not to include a question word when asking about so-called 5W1H (When, Where, Who, What, What, How).
- the dialogue data generation unit 110 determines whether or not the question is a 5W1H question, not just an utterance of a question sentence (for example, an utterance ending with “?”).
- chat dialogue needs to continue the dialogue for as long as possible, if the question can be answered with Yes / No, the dialogue ends when the other party answers the question.
- dialogue data is created with a question sentence by 5W1H so that the dialogue can be continued by asking a question that digs deep into the content of the utterance.
- the question is not limited to 5W1H, and any question word may be used as long as it is not a question that can be answered in Yes / No, such as who (Whom) or who (Whose).
- the utterance “What did you say” in the second utterance of the top data is used when inquiring about the object “what”. It is a question sentence that includes a word that is an interrogative word. For this reason, the dialogue data generation unit 110 is the first utterance sentence of the data “I went to Kyoto during this time. ] And the set of the second utterance sentence are set as dialogue data.
- the dialogue data generation unit 110 does not use the combination of the first utterance sentence and the second utterance sentence of the data as the conversation data.
- the second utterance sentence that is a question sentence using the interrogative word is the utterance sentence. It is thought that the quality as a question sentence which digs deeply is high.
- the dialog data generation unit 110 may use a learner that has been learned in advance to determine whether or not the question text is asking a question using 5W1H.
- the dialog data generation unit 110 passes the generated plurality of dialog data to the question generation model learning unit 120.
- the question generation model learning unit 120 outputs the second utterance sentence included in the conversation data when the first utterance sentence included in the conversation data is input for each of the plurality of conversation data. Learn a neural network that generates sentences from input sentences.
- the question generation model learning unit 120 inputs the first utterance sentence of the dialogue data as the utterance sentence for each of the plurality of dialogue data generated by the conversation data generation unit 110, the utterance sentence A question generation model that is a neural network that generates a sentence from the input sentence is learned so that the question sentence that becomes a response to the second utterance sentence of the dialogue data is learned (FIG. 4).
- the question generation model is learned in the Encoder-Decoder framework. That is, the first utterance sentence of the dialogue data is input as an utterance sentence (input), and the question generation model is learned using Encoder-Decoder so that the second utterance sentence of the dialogue data becomes the question sentence (output).
- the question generation model is learned using Encoder-Decoder so that the second utterance sentence of the dialogue data becomes the question sentence (output).
- Reference 1 Oriol Vinyals, Quoc Le, "A Neural Conversational Model", [online], 2015, Internet ⁇ URL: https: //arxiv.org/abs/1506.05869>.
- the question generation model learning unit 120 stores the learned question generation model in the question generation model storage unit 130.
- the question generation model storage unit 130 stores a learned question generation model.
- the input unit 140 receives an input of an utterance sentence from a dialogue system or a user, and passes the utterance sentence to the question sentence generation unit 150.
- the question sentence generation unit 150 inputs the input utterance sentence to the neural network, and uses the output of the neural network as a question sentence for the utterance sentence.
- the question sentence generation unit 150 acquires a question generation model from the question generation model storage unit 130.
- the question sentence generation unit 150 acquires an utterance sentence from the input unit 140, the question sentence generation unit 150 inputs the utterance sentence to the acquired question generation model and generates a question sentence using a question word.
- a question sentence using a question word can be generated even if it does not correspond to the first utterance sentence of any generated dialogue data.
- the question sentence generation unit 150 passes the generated question sentence to the output unit 160.
- the output unit 160 outputs the generated question sentence. For example, as an utterance of the dialogue system, it is output by a method such as displaying the question sentence to a user who is interacting with the dialogue system.
- FIG. 5 is a flowchart showing a model learning processing routine according to the embodiment of the present invention.
- the conversation data generation apparatus 10 executes a model learning process routine shown in FIG.
- the input unit 100 is a first utterance sentence which is a sentence uttered by the first user and a sentence uttered by the second user, which is a response to the first utterance sentence.
- Input of a plurality of data consisting of a set of an utterance sentence and a third utterance sentence which is a sentence uttered by the first user and is a response to the second utterance sentence is accepted.
- step S110 the dialog data generation unit 110 selects the first data among the plurality of data received in step S100.
- step S120 the dialogue data generation unit 110 determines whether or not the second utterance sentence of the data is a question sentence including a question word regarding tense, place, subject, object, reason, method, degree, or state. To do.
- step S120 If the second utterance sentence of the selected data is not a question sentence including a question word (NO in step S120), the process proceeds to step S140.
- the dialog data generation unit 110 includes the first utterance sentence of the data, A set of the data and the second utterance sentence is generated as dialogue data.
- step S140 the dialogue data generation unit 110 determines whether or not the above processing has been performed for all of the plurality of input data.
- step S150 the dialog data generation unit 110 selects the next data.
- step S160 the question generation model learning unit 120 determines the first utterance included in the dialog data for each of the generated plurality of dialog data.
- a neural network that generates a sentence from the input sentence is learned so that the second utterance sentence included in the dialogue data is output.
- step S170 the question generation model learning unit 120 stores the learned neural network in the question generation model storage unit 130.
- FIG. 6 is a flowchart showing a question sentence generation processing routine according to the embodiment of the present invention.
- step S200 the input unit 140 receives an input of an utterance sentence from a dialog system, a user, or the like.
- step S210 the question sentence generation unit 150 acquires a neural network from the question generation model storage unit 130.
- step S220 the question sentence generation unit 150 inputs the input utterance sentence to the neural network, and uses the output of the neural network as a question sentence for the utterance sentence.
- step S230 the output unit 160 outputs the generated question sentence.
- the first utterance sentence that is a sentence uttered by the first user and the sentence uttered by the second user,
- Each of a plurality of data consisting of a set of a second utterance sentence that is a response to the first utterance sentence and a third utterance sentence that is a sentence uttered by the first user and is a response to the second utterance sentence
- the second utterance sentence of the data is a question sentence whose response to the second utterance sentence does not become an affirmative sentence or a negative sentence
- the first utterance sentence and the second utterance sentence of the data are used as conversation data.
- the question sentence generation unit 150 generates a question sentence using a neural network learned based on a plurality of conversation data, but the present invention is not limited to this, and the generated plurality of conversations is not limited thereto.
- a question sentence may be generated using the data.
- the second utterance sentence of the conversation data is generated as a question sentence. May be.
- multiple conversation data may be used as chat conversation scenarios.
- the third utterance sentence is used only in terms of whether or not the response is made by the person who uttered the first utterance sentence with respect to the second utterance sentence, and the chat system or the utterance sentence is posted.
- data consisting of a set of a first utterance sentence, a second utterance sentence, and a third utterance sentence collected from a social networking service (SNS) or the like is described as an example, but is limited to this. It is not a thing.
- the third utterance sentence is appropriate as a response to the second utterance sentence, and only the first utterance sentence determined that the third utterance sentence is appropriate as a response to the second utterance sentence. And it may be inputted as data consisting of a set of the second utterance sentence and the third utterance sentence.
- the third utterance sentence is appropriate as a response to the second utterance sentence is determined by a method of accepting an input of a result visually confirmed, and the relationship between the second utterance sentence and the third utterance sentence is a response
- a method of automatically determining whether or not there is a relationship can be used.
- the program has been described as an embodiment in which the program is installed in advance.
- the program can be provided by being stored in a computer-readable recording medium.
- Dialogue data generation apparatus 100 Input part 110 Dialogue data generation part 120 Question generation model learning part 130 Question generation model memory
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
会話を深掘りする質問文を生成するための対話データを低コストに生成することができるようにする。 対話データ生成部110が、第1のユーザが発話した文である第1発話文と、第2のユーザが発話した文であって、当該第1発話文に対する応答である第2発話文と、当該第1のユーザが発話した文であって、当該第2発話文に対する応答である第3発話文との組からなる複数のデータの各々について、当該データの第2発話文が、疑問詞を用いた質問文である場合に、当該データの第1発話文と、当該データの第2発話文との組を対話データとして生成する。
Description
本発明は、対話データ生成装置、対話データ生成方法、およびプログラムに係り、特に、対話システムにおいて質問文を生成するための対話データ生成装置、対話データ生成方法、およびプログラムに関する。
ユーザとの間で対話を行う対話システムは、大きく分けて、タスク指向型対話システムと非タスク指向型対話システムの二種類に分けられる。
タスク指向型対話システムは、特定のタスクをシステムとの対話により達成するものである。例えば、フライトの予約システムや、天気情報案内システム(非特許文献1)に用いられている。これらのシステムでは、一般的にフレーム(スロット名とスロット値からなるスロットから構成される)という構造を持ち、フレームに基づいて対話が進行する。
タスク指向型対話システムでは、このような構造を持っているため、埋まっていないスロットを聞く質問文を生成して、相手の情報を聞き出すということができる。
一方、非タスク指向型対話システムは、目的のない対話を扱い、対話の内容はいわゆる雑談である。
Ryuichiro Higashinaka, Katsuhito Sudoh, Mikio Nakano, "Incorporating Discourse Features into Confidence Scoring of Intention Recognition Results in Spoken Dialogue Systems", Speech Communication, Volume 48, Issues 3-4, 2006, pp.417-436.
しかし、雑談には、様々な話題が含まれるため、タスク指向型対話システムと異なり、スロットという構造は持っておらず、どういった疑問詞を用いて質問をすれば良いのかということは自明ではない。
このため、非タスク指向型対話システムでは、相手の発話を深掘りする質問文を生成することは困難である、という問題があった。
このような問題を解決すべく、従来の非タスク指向型対話システムでは、ルールベースによる手法や、機械学習による手法によって、ユーザとの対話を実現している。
しかし、ルールベースによる手法では、人手でルールを記載するため、対話を幅広く深掘りするためには、大量のルールを人手で作成する必要がある、という問題があった。
また、機械学習の手法では、相手の発話に対する質問文である発話といったデータが世の中に存在しておらず、十分に学習するためのデータ量を用意することが困難である。すなわち、質問文生成を目的とした機械学習のためのコーパス(学習用データ)を用意することが困難である、という問題があった。
まとめると、従来の非タスク指向型対話システムでは、低コストに対話を深掘りする対話システムを実現することができないため、対話システムとユーザとのインタラクションを円滑にすることができない、という問題があった。
本発明は上記の点に鑑みてなされたものであり、会話を深掘りする質問文を生成するための対話データを低コストに生成することができる対話データ生成装置、対話データ生成方法、およびプログラムを提供することを目的とする。
本発明に係る対話データ生成装置は、第1のユーザが発話した文である第1発話文と、第2のユーザが発話した文であって、前記第1発話文に対する応答である第2発話文と、前記第1のユーザが発話した文であって、前記第2発話文に対する応答である第3発話文との組からなる複数のデータの入力を受け付ける入力部と、前記入力部が受け付けた前記複数のデータの各々について、前記データの前記第2発話文が、疑問詞を用いた質問文である場合に、前記データの前記第1発話文と、前記データの前記第2発話文との組を対話データとして生成する対話データ生成部と、を備えて構成される。
また、本発明に係る対話データ生成方法は、入力部が、第1のユーザが発話した文である第1発話文と、第2のユーザが発話した文であって、前記第1発話文に対する応答である第2発話文と、前記第1のユーザが発話した文であって、前記第2発話文に対する応答である第3発話文との組からなる複数のデータの入力を受け付け、対話データ生成部が、前記入力部が受け付けた前記複数のデータの各々について、前記データの前記第2発話文が、疑問詞を用いた質問文である場合に、前記データの前記第1発話文と、前記データの前記第2発話文との組を対話データとして生成する。
本発明に係る対話データ生成装置及び対話データ生成方法によれば、入力部が、第1のユーザが発話した文である第1発話文と、第2のユーザが発話した文であって、当該第1発話文に対する応答である第2発話文と、第1のユーザが発話した文であって、当該第2発話文に対する応答である第3発話文との組からなる複数のデータの入力を受け付ける。
そして、対話データ生成部が、入力部が受け付けた複数のデータの各々について、当該データの第2発話文が、疑問詞を用いた質問文である場合に、当該データの第1発話文と、当該データの第2発話文との組を対話データとして生成する。
このように、第1のユーザが発話した文である第1発話文と、第2のユーザが発話した文であって、当該第1発話文に対する応答である第2発話文と、当該第1のユーザが発話した文であって、当該第2発話文に対する応答である第3発話文との組からなる複数のデータの各々について、当該データの第2発話文が、疑問詞を用いた質問文である場合に、当該データの第1発話文と、当該データの第2発話文との組を対話データとして生成することにより、会話を深掘りする質問文を生成するための対話データを低コストに生成することができる。
また、本発明に係る対話データ生成装置の前記対話データ生成部は、前記入力部が受け付けた前記複数のデータの各々について、前記データの前記第2発話文が、時制、場所、主体、対象、理由、方法、程度、又は状態に関する疑問詞を含み、かつ、疑問文である場合に、前記データの前記第1発話文と、前記データの前記第2発話文との組を対話データとして生成することができる。
また、本発明に係る対話データ生成装置は、前記対話データ生成部により得られた複数の対話データの各々について、前記対話データに含まれる前記第1発話文を入力としたときに、前記対話データに含まれる前記第2発話文を出力するように、入力された文から文を生成するニューラルネットワークを学習する質問生成モデル学習部を更に備えることができる。
また、本発明に係る対話データ生成装置は、入力された発話文を、前記ニューラルネットワークに入力し、前記ニューラルネットワークの出力を、前記発話文に対する質問文とする質問文生成部を更に備えることができる。
本発明に係るプログラムは、上記の対話データ生成装置の各部として機能させるためのプログラムである。
本発明の対話データ生成装置、対話データ生成方法、およびプログラムによれば、会話を深掘りする質問文を生成するための対話データを低コストに生成することができる。
以下、本発明の実施の形態について図面を用いて説明する。
<本発明の実施の形態に係る対話データ生成装置の構成>
図1を参照して、本発明の実施の形態に係る対話データ生成装置10の構成について説明する。図1は、本発明の実施の形態に係る対話データ生成装置10の構成を示すブロック図である。
図1を参照して、本発明の実施の形態に係る対話データ生成装置10の構成について説明する。図1は、本発明の実施の形態に係る対話データ生成装置10の構成を示すブロック図である。
対話データ生成装置10は、CPUと、RAMと、後述するモデル学習処理ルーチン及び質問文生成処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成され、機能的には次に示すように構成されている。
図1に示すように、本実施形態に係る対話データ生成装置10は、入力部100、対話データ生成部110と、質問生成モデル学習部120と、質問生成モデル記憶部130と、入力部140と、質問文生成部150と、出力部160とを備えて構成される。
入力部100は、第1のユーザが発話した文である第1発話文と、第2のユーザが発話した文であって、当該第1発話文に対する応答である第2発話文と、当該第1のユーザが発話した文であって、当該第2発話文に対する応答である第3発話文との組からなる複数のデータの入力を受け付ける。
当該複数のデータは、チャットシステムや、発話文を投稿するソーシャルネットワーキングサービス(SNS)等から、第1のユーザの発話である第1発話文と、第2のユーザによる第1発話文に対する応答である第2発話文と、第1のユーザによる第2発話文に対する応答である第3発話文との組を予め抜き出して収集したものである。
例えば、図2に示すように、第1のユーザであるAから『この間京都に行ったよ』という発話があったとすると、これを第1発話文とする。そして、第2のユーザであるBから、第1発話文に対して、『なにしに行ったの?』という応答があったとすると、これを第2発話文とする。更に、ユーザAから、第2発話文に対して、『紅葉を見に行ってきたよ。きれいだった。』という応答があったとすると、これを第3発話文とする。
なお、公開されているインターネット上のチャットシステムやSNS等から、自動的にこれらを収集する装置等により、当該複数のデータが入力部100に入力されるように構成してもよい。
そして、入力部100は、このような第1発話文と、第2発話文と、第3発話文との組からなる複数のデータの入力を受け付けると、対話データ生成部110に当該複数のデータを渡す。
対話データ生成部110は、入力部100が受け付けた複数のデータの各々について、当該データの第2発話文が、時制、場所、主体、対象、理由、方法、程度、又は状態に関する疑問詞を含み、かつ、疑問文である場合に、当該データの第1発話文と、当該データの第2発話文との組を対話データとして生成する。
具体的には、まず、対話データ生成部110は、複数のデータの各々について、当該データの第2発話文が、疑問文であり、かつ、「いつ、どこ、誰が、なにしに、なんで、どのように、どんな」等、いわゆる5W1H(When、Where、Who、What、Why、How)について質問する際の疑問詞を含むか否かを判定する。
すなわち、対話データ生成部110は、単なる疑問文の発話(例えば「?」で終わっている発話等)を判定するのではなく、5W1Hの質問かどうかを判定する。
なぜなら、雑談対話は、可能な限り長く対話を続けることが必要とされるため、Yes/Noで答えられるような質問だと、相手がその質問に答えたところで対話が終了してしまう。
そこで、発話の内容を深掘りするような質問をすることにより、対話が継続できるようにすべく、5W1Hによる質問文により対話データを作成する。なお、5W1Hに限定されるものでなく、誰に(Whom)、誰の(Whose)等、Yes/Noで答えられるような質問でない場合に用いられる疑問詞であれば、何でもよい。
例えば、図3のような複数のデータの各々について、1番上のデータの第2発話文『なにしにいったの』という発話は、「なにしに」という対象について質問する際に用いられる疑問詞である単語を含んだ質問文である。このため、対話データ生成部110は、当該データの第1発話文である『この間京都に行った。』及び当該第2発話文の組を対話データとする。
また、例えば、図3において1番下のデータの第2発話文『金曜日といえば、飲み会ですよね?』は、質問文ではあるものの、Yes/Noで答えることができる質問であるため、対話データ生成部110は、当該データの第1発話文及び第2発話文の組を対話データとしない。
また、第2発話文の直後の第3発話文が、第1のユーザによる第2発話文に対する応答であるものであるため、疑問詞を用いた質問文である第2発話文は、発話の内容を深掘りする質問文としての質が高いと考えられる。
また、対話データ生成部110は、5W1Hを用いて質問している質問文であるか否かの判定に、予め学習した判定器を用いてもよい。
そして、対話データ生成部110は、生成した複数の対話データを、質問生成モデル学習部120に渡す。
質問生成モデル学習部120は、複数の対話データの各々について、当該対話データに含まれる第1発話文を入力としたときに、当該対話データに含まれる当該第2発話文を出力するように、入力された文から文を生成するニューラルネットワークを学習する。
具体的には、質問生成モデル学習部120は、対話データ生成部110により生成された複数の対話データの各々について、当該対話データの第1発話文を発話文として入力した場合に、当該発話文への応答となる質問文が当該対話データの第2発話文となるように、入力された文から文を生成するニューラルネットワークである質問生成モデルを学習する(図4)。
例えば、質問生成モデルを、Encoder-Decoderの枠組みで学習する。すなわち、当該対話データの第1発話文を発話文(入力)として入力し、当該対話データの第2発話文を質問文(出力)となるように、Encoder-Decoderを用いて質問生成モデルを学習する(例えば、参考文献1)。
[参考文献1]Oriol Vinyals, Quoc Le, "A Neural Conversational Model", [online], 2015, インターネット<URL:https://arxiv.org/abs/1506.05869>.
[参考文献1]Oriol Vinyals, Quoc Le, "A Neural Conversational Model", [online], 2015, インターネット<URL:https://arxiv.org/abs/1506.05869>.
そして、質問生成モデル学習部120は、学習した質問生成モデルを、質問生成モデル記憶部130に格納する。
質問生成モデル記憶部130は、学習済みの質問生成モデルを格納している。
入力部140は、対話システムやユーザ等から発話文の入力を受け付け、当該発話文を質問文生成部150に渡す。
質問文生成部150は、入力された発話文を、ニューラルネットワークに入力し、当該ニューラルネットワークの出力を、当該発話文に対する質問文とする。
具体的には、まず、質問文生成部150は、質問生成モデル記憶部130から質問生成モデルを取得する。
次に、質問文生成部150は、入力部140から発話文を取得すると、取得した質問生成モデルに当該発話文を入力して、疑問詞を用いた質問文を生成する。
ここで、Encoder-Decoderを用いる事で、生成された何れの対話データの第1発話文に該当しなくても、疑問詞を用いた質問文を生成することができる。
そして、質問文生成部150は、生成した質問文を、出力部160に渡す。
出力部160は、生成された質問文を出力する。例えば、対話システムの発話として、当該対話システムと対話しているユーザに対して、当該質問文を表示する等の方法により出力する。
<本発明の実施の形態に係る対話データ生成装置の作用>
図5は、本発明の実施の形態に係るモデル学習処理ルーチンを示すフローチャートである。
図5は、本発明の実施の形態に係るモデル学習処理ルーチンを示すフローチャートである。
入力部100にデータが入力されると、対話データ生成装置10において、図5に示すモデル学習処理ルーチンが実行される。
まず、ステップS100において、入力部100が、第1のユーザが発話した文である第1発話文と、第2のユーザが発話した文であって、当該第1発話文に対する応答である第2発話文と、当該第1のユーザが発話した文であって、当該第2発話文に対する応答である第3発話文との組からなる複数のデータの入力を受け付ける。
ステップS110において、対話データ生成部110は、上記ステップS100により受け付けた複数のデータのうち、1番目のデータを選択する。
ステップS120において、対話データ生成部110は、当該データの第2発話文が、時制、場所、主体、対象、理由、方法、程度、又は状態に関する疑問詞を含む質問文であるか否かを判定する。
選択されているデータの第2発話文が、疑問詞を含む質問文でない場合(ステップS120のNO)、ステップS140に進む。
一方、選択されているデータの第2発話文が、疑問詞を含む質問文である場合(ステップS120のYES)、ステップS130において、対話データ生成部110は、当該データの第1発話文と、当該データの第2発話文との組を対話データとして生成する。
ステップS140において、対話データ生成部110は、入力された複数のデータの全てについて、上記処理を行ったか否かを判定する。
全てのデータについて処理していない場合(ステップS140のNO)、ステップS150において、対話データ生成部110は、次のデータを選択する。
一方、全てのデータについて処理している場合(ステップS140のYES)、ステップS160において、質問生成モデル学習部120は、生成された複数の対話データの各々について、当該対話データに含まれる第1発話文を入力としたときに、当該対話データに含まれる当該第2発話文を出力するように、入力された文から文を生成するニューラルネットワークを学習する。
ステップS170において、質問生成モデル学習部120は、学習したニューラルネットワークを、質問生成モデル記憶部130に格納する。
図6は、本発明の実施の形態に係る質問文生成処理ルーチンを示すフローチャートである。
入力部140に発話文が入力されると、対話データ生成装置10において、図6に示す質問文生成処理ルーチンが実行される。
まず、ステップS200において、入力部140が、対話システムやユーザ等から発話文の入力を受け付ける。
ステップS210において、質問文生成部150は、質問生成モデル記憶部130からニューラルネットワークを取得する。
ステップS220において、質問文生成部150は、入力された発話文を、ニューラルネットワークに入力し、当該ニューラルネットワークの出力を、当該発話文に対する質問文とする。
ステップS230において、出力部160は、生成された質問文を出力する。
以上説明したように、本発明の実施形態に係る対話データ生成装置によれば、第1のユーザが発話した文である第1発話文と、第2のユーザが発話した文であって、当該第1発話文に対する応答である第2発話文と、当該第1のユーザが発話した文であって、当該第2発話文に対する応答である第3発話文との組からなる複数のデータの各々について、当該データの第2発話文が、当該第2発話文に対する応答が肯定文又は否定文とならない質問文である場合に、当該データの第1発話文及び第2発話文を対話データとすることにより、会話を深掘りする質問文を生成するための対話データを低コストに生成することができる。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
上述の実施形態では、質問文生成部150は、複数の対話データに基づいて学習されたニューラルネットワークを用いて質問文を生成したが、これに限定されるものではなく、生成された複数の対話データを用いて、質問文を生成してもよい。
例えば、入力された発話文が、生成された複数の対話データの何れかの対話データの第1発話文と同一、又は最も類似する場合に、当該対話データの第2発話文を質問文として生成してもよい。
また、複数の対話データを雑談対話のシナリオとして利用してもよい。
また、上述の実施形態では、第3発話文を、第2発話文に対して第1発話文を発話した者による応答であるか否かという観点でのみ用い、チャットシステムや発話文を投稿するソーシャルネットワーキングサービス(SNS)等から収集される、第1発話文と第2発話文と、第3発話文との組からなるデータを入力とする場合を例に説明したが、これに限定されるものではない。
第3発話文が、第2発話文に対する応答として適切であるか否かを判断し、第3発話文が、第2発話文に対する応答として適切であると判断されたもののみ、第1発話文と、第2発話文と、第3発話文との組からなるデータとして入力するようにしてもよい。
これにより、対話データとして生成される第2発話文について、深掘りするための質問文としての質を更に高めることができる。
なお、第3発話文が、第2発話文に対する応答として適切であるか否かの判断は、目視で確認した結果の入力を受け付ける方法、第2発話文と第3発話文との関係が応答関係にあるか否かを自動的に判定する方法等を用いることができる。
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。
10 対話データ生成装置
100 入力部
110 対話データ生成部
120 質問生成モデル学習部
130 質問生成モデル記憶部
140 入力部
150 質問文生成部
160 出力部
100 入力部
110 対話データ生成部
120 質問生成モデル学習部
130 質問生成モデル記憶部
140 入力部
150 質問文生成部
160 出力部
Claims (6)
- 第1のユーザが発話した文である第1発話文と、第2のユーザが発話した文であって、前記第1発話文に対する応答である第2発話文と、前記第1のユーザが発話した文であって、前記第2発話文に対する応答である第3発話文との組からなる複数のデータの入力を受け付ける入力部と、
前記入力部が受け付けた前記複数のデータの各々について、前記データの前記第2発話文が、疑問詞を用いた質問文である場合に、前記データの前記第1発話文と、前記データの前記第2発話文との組を対話データとして生成する対話データ生成部と、
を備えることを特徴とする対話データ生成装置。 - 前記対話データ生成部は、前記入力部が受け付けた前記複数のデータの各々について、前記データの前記第2発話文が、時制、場所、主体、対象、理由、方法、程度、又は状態に関する疑問詞を含み、かつ、疑問文である場合に、前記データの前記第1発話文と、前記データの前記第2発話文との組を対話データとして生成する
ことを特徴とする請求項1記載の対話データ生成装置。 - 前記対話データ生成部により得られた複数の対話データの各々について、前記対話データに含まれる前記第1発話文を入力としたときに、前記対話データに含まれる前記第2発話文を出力するように、入力された文から文を生成するニューラルネットワークを学習する質問生成モデル学習部
を更に備えることを特徴とする請求項1又は2記載の対話データ生成装置。 - 入力された発話文を、前記ニューラルネットワークに入力し、前記ニューラルネットワークの出力を、前記発話文に対する質問文とする質問文生成部
を更に備えることを特徴とする請求項3記載の対話データ生成装置。 - 入力部が、第1のユーザが発話した文である第1発話文と、第2のユーザが発話した文であって、前記第1発話文に対する応答である第2発話文と、前記第1のユーザが発話した文であって、前記第2発話文に対する応答である第3発話文との組からなる複数のデータの入力を受け付け、
対話データ生成部が、前記入力部が受け付けた前記複数のデータの各々について、前記データの前記第2発話文が、疑問詞を用いた質問文である場合に、前記データの前記第1発話文と、前記データの前記第2発話文との組を対話データとして生成する
を特徴とする対話データ生成方法。 - コンピュータを、請求項1乃至4の何れか1項記載の対話データ生成装置の各部として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/053,744 US12026460B2 (en) | 2018-05-09 | 2019-05-07 | Dialogue data generation device, dialogue data generation method, and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018090637A JP6775545B2 (ja) | 2018-05-09 | 2018-05-09 | 対話データ生成装置、対話データ生成方法、およびプログラム |
JP2018-090637 | 2018-05-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019216316A1 true WO2019216316A1 (ja) | 2019-11-14 |
Family
ID=68468285
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2019/018268 WO2019216316A1 (ja) | 2018-05-09 | 2019-05-07 | 対話データ生成装置、対話データ生成方法、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US12026460B2 (ja) |
JP (1) | JP6775545B2 (ja) |
WO (1) | WO2019216316A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7409005B2 (ja) * | 2019-10-30 | 2024-01-09 | 株式会社三洋物産 | 遊技機 |
JP7409009B2 (ja) * | 2019-10-30 | 2024-01-09 | 株式会社三洋物産 | 遊技機 |
JP7409007B2 (ja) * | 2019-10-30 | 2024-01-09 | 株式会社三洋物産 | 遊技機 |
JP7409008B2 (ja) * | 2019-10-30 | 2024-01-09 | 株式会社三洋物産 | 遊技機 |
JP7409006B2 (ja) * | 2019-10-30 | 2024-01-09 | 株式会社三洋物産 | 遊技機 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017027234A (ja) * | 2015-07-17 | 2017-02-02 | 日本電信電話株式会社 | フレーム作成装置、方法、及びプログラム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8332394B2 (en) * | 2008-05-23 | 2012-12-11 | International Business Machines Corporation | System and method for providing question and answers with deferred type evaluation |
US8275803B2 (en) * | 2008-05-14 | 2012-09-25 | International Business Machines Corporation | System and method for providing answers to questions |
JP5377430B2 (ja) * | 2009-07-08 | 2013-12-25 | 本田技研工業株式会社 | 質問応答データベース拡張装置および質問応答データベース拡張方法 |
JP6428954B2 (ja) * | 2016-02-18 | 2018-11-28 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP6819990B2 (ja) * | 2016-08-16 | 2021-01-27 | 国立研究開発法人情報通信研究機構 | 対話システム及びそのためのコンピュータプログラム |
JP6515897B2 (ja) * | 2016-09-28 | 2019-05-22 | トヨタ自動車株式会社 | 音声対話システムおよび発話意図理解方法 |
JP6721179B2 (ja) * | 2016-10-05 | 2020-07-08 | 国立研究開発法人情報通信研究機構 | 因果関係認識装置及びそのためのコンピュータプログラム |
CA3055379C (en) * | 2017-03-10 | 2023-02-21 | Eduworks Corporation | Automated tool for question generation |
CN107273487A (zh) * | 2017-06-13 | 2017-10-20 | 北京百度网讯科技有限公司 | 基于人工智能的聊天数据的生成方法、装置及计算机设备 |
KR102289917B1 (ko) * | 2017-06-30 | 2021-08-12 | 삼성에스디에스 주식회사 | 화행 정보를 이용한 대화 처리 방법 및 그 장치 |
US11734520B2 (en) * | 2018-10-05 | 2023-08-22 | Nippon Telegraph And Telephone Corporation | Dialog apparatus, method and program for the same |
-
2018
- 2018-05-09 JP JP2018090637A patent/JP6775545B2/ja active Active
-
2019
- 2019-05-07 WO PCT/JP2019/018268 patent/WO2019216316A1/ja active Application Filing
- 2019-05-07 US US17/053,744 patent/US12026460B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017027234A (ja) * | 2015-07-17 | 2017-02-02 | 日本電信電話株式会社 | フレーム作成装置、方法、及びプログラム |
Non-Patent Citations (3)
Title |
---|
KAWASHIMA, TAKAHIRO ET AL.,: "Response generation in a lifelog chat dialogue system using tweets including experiences", LECTURE PROCEEDINGS (2) OF THE 80TH (2018) NATIONAL CONFERENCE OF ARTIFICIAL INTELLIGENCE AND COGNITIVE SCIENCE, 13 March 2018 (2018-03-13), pages 2-421 - 2-422 * |
OHARA, KOHEI ET AL.,: "Detection of the need for repeating questions towards the realization of a dialogue agent that autonomously asks for missing information", THE 9TH FORUM ON DATA ENGINEERING AND INFORMATION MANAGEMENT (THE 15TH ANNUAL CONFERENCE OF THE DATABASE SOCIETY OF JAPAN), 31 March 2017 (2017-03-31), XP055651727, Retrieved from the Internet <URL:http://db-event.jpn.org/deim2017/papers/339.pdf> * |
TAICHI KATAYAMA ET AL.,: "Question Generation to Deepen Your Talk", THE 32ND ANNUAL CONFERENCE OF THE JAPANESE SOCIETY FOR ARTIFICIAL INTELLIGENCE, 2018, 30 July 2018 (2018-07-30), pages 1 - 3, XP055651731, Retrieved from the Internet <URL:https://www.jstage.jst.go.jp/article/pjsai/JSAI2018/0/JSAI2018_4G103/_article/-char/ja> [retrieved on 20190702] * |
Also Published As
Publication number | Publication date |
---|---|
US20210342553A1 (en) | 2021-11-04 |
JP6775545B2 (ja) | 2020-10-28 |
US12026460B2 (en) | 2024-07-02 |
JP2019197363A (ja) | 2019-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019216316A1 (ja) | 対話データ生成装置、対話データ生成方法、およびプログラム | |
Moussalli et al. | Intelligent personal assistants: can they understand and be understood by accented L2 learners? | |
Litman et al. | Speech technologies and the assessment of second language speaking: Approaches, challenges, and opportunities | |
US20190034414A1 (en) | Method for providing dialogue service with chatbot assisted by human agents | |
Kim et al. | Design principles and architecture of a second language learning chatbot | |
CN107133709B (zh) | 一种客户服务的质量检验方法、装置及系统 | |
US11605384B1 (en) | Duplex communications for conversational AI by dynamically responsive interrupting content | |
US11316979B2 (en) | Detecting vocabulary skill level and correcting misalignment in remote interactions | |
JP2016212541A (ja) | 対話装置、対話方法、及びそのコンピュータプログラム | |
CN108431883A (zh) | 语言学习系统以及语言学习程序 | |
JP2016001242A (ja) | 質問文生成方法、装置、及びプログラム | |
JP2018197924A (ja) | 情報処理装置、対話処理方法、及び対話処理プログラム | |
KR20210059995A (ko) | 학습 기반의 외국어 말하기 평가 방법 및 그 시스템 | |
US11361754B2 (en) | Method and system for speech effectiveness evaluation and enhancement | |
Gbenga et al. | An improved rapid response model for university admission enquiry system using chatbot | |
US11776546B1 (en) | Intelligent agent for interactive service environments | |
KR20190074508A (ko) | 챗봇을 위한 대화 모델의 데이터 크라우드소싱 방법 | |
WO2014045546A1 (ja) | メンタルヘルスケア支援装置、システム、方法およびプログラム | |
KR100898104B1 (ko) | 상호 대화식 학습 시스템 및 방법 | |
WO2020090857A1 (ja) | 語学力評価方法及び語学力評価システム | |
KR102372070B1 (ko) | 외국어 회화 학습 장치 및 방법 | |
JP2021125164A (ja) | 情報処理装置、チャットボットアシストプログラム及びチャットボットアシスト方法 | |
Putri et al. | Why am I Changed? The Convergent Process in a Multilingual Community: Speech Accommodation Perspective | |
EP3770904A1 (en) | Multi-domain trainable dialogue agent | |
Franceschi | Making sure everybody is on the same page: interactional communication strategies in BELF encounters |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19798969 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19798969 Country of ref document: EP Kind code of ref document: A1 |