JP6680659B2 - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP6680659B2
JP6680659B2 JP2016195731A JP2016195731A JP6680659B2 JP 6680659 B2 JP6680659 B2 JP 6680659B2 JP 2016195731 A JP2016195731 A JP 2016195731A JP 2016195731 A JP2016195731 A JP 2016195731A JP 6680659 B2 JP6680659 B2 JP 6680659B2
Authority
JP
Japan
Prior art keywords
sentence
question
answer
learning
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016195731A
Other languages
Japanese (ja)
Other versions
JP2018060273A (en
Inventor
真 中辻
真 中辻
池田 成宏
成宏 池田
伊東 久
久 伊東
翔太 相樂
翔太 相樂
明久 藤田
明久 藤田
Original Assignee
エヌ・ティ・ティ レゾナント株式会社
エヌ・ティ・ティ レゾナント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エヌ・ティ・ティ レゾナント株式会社, エヌ・ティ・ティ レゾナント株式会社 filed Critical エヌ・ティ・ティ レゾナント株式会社
Priority to JP2016195731A priority Critical patent/JP6680659B2/en
Publication of JP2018060273A publication Critical patent/JP2018060273A/en
Application granted granted Critical
Publication of JP6680659B2 publication Critical patent/JP6680659B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。   The present invention relates to an information processing device, an information processing method, and a program.

近年、機械学習(例えば、深層学習(Deep Learning)手法)を利用して、入力された質問に対して、回答を出力する技術が知られている(例えば、非特許文献1を参照)。このような従来技術を用いた情報処理装置では、例えば、過去に蓄積された回答などの予め用意された既存の回答のうちから、適切であると推定された回答が選択されて出力される。   In recent years, there is known a technique of outputting an answer to an input question by using machine learning (for example, deep learning method) (for example, see Non-Patent Document 1). In the information processing apparatus using such a conventional technique, an answer estimated to be appropriate is selected and output from existing answers prepared in advance such as answers accumulated in the past.

Tan M, Xiang B, Zhou B, “LSTM-BASED DEEP LEARNING MODELS FOR NONFACTOID ANSWER SELECTION”1511.04108v1, 12 Nov 2015Tan M, Xiang B, Zhou B, “LSTM-BASED DEEP LEARNING MODELS FOR NONFACTOID ANSWER SELECTION” 1511.04108v1, 12 Nov 2015

しかしながら、上述した従来の情報処理装置では、例えば、質問が理由や事象の説明に基づく回答を求めるNon-Factoid型質問である場合に、回答が複雑な長文になるが、質問に対して、予め用意された既存の回答が出力されるため、新たな回答を生成することは困難である。そのため、上述した従来の情報処理装置では、質問に対して、文面に違和感のある不自然な回答が出力される場合があった。   However, in the above-described conventional information processing device, for example, when the question is a Non-Factoid type question that asks for an answer based on the explanation of the reason or phenomenon, the answer becomes a complicated long sentence, Since the prepared existing answer is output, it is difficult to generate a new answer. Therefore, in the above-described conventional information processing apparatus, an unnatural answer with a sense of discomfort may be output in response to a question.

本発明は、上記問題を解決すべくなされたもので、その目的は、質問に対して、違和感を低減した自然な文面の回答を生成することができる情報処理装置、情報処理方法、及びプログラムを提供することにある。   The present invention has been made to solve the above problems, and an object thereof is to provide an information processing device, an information processing method, and a program capable of generating a natural text answer with a reduced sense of discomfort for a question. To provide.

上記問題を解決するために、本発明の一態様は、入力された入力質問文を取得する質問取得部と、質問文と、回答文において、予め定められた文章の筋道により分割される複数の部分項目それぞれに対応する正解文及び不正解文との組を複数有する学習情報に基づいて、機械学習された学習結果に基づいて、前記質問取得部によって取得された前記入力質問文に対する回答文を生成する回答生成部とを備え、前記学習結果は、前記質問文を単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の前記単語の並び順に基づいて生成した質問特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された質問中間ベクトルと、前記複数の部分項目それぞれに対応した正解中間ベクトルであって、前記正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された正解中間ベクトルと、前記複数の部分項目それぞれに対応した不正解中間ベクトルであって、前記不正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した不正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された不正解中間ベクトルとの前記複数の部分項目の組合せに基づいて算出される損失関数により最適化されて学習されることを特徴とする情報処理装置である。   In order to solve the above problems, one embodiment of the present invention is a question acquisition unit that acquires an input input question sentence, a question sentence, and a plurality of answer sentences that are divided by a predetermined sentence path. Based on learning information having a plurality of pairs of correct and incorrect sentences corresponding to each partial item, based on the learning result machine-learned, the answer sentence to the input question sentence acquired by the question acquisition unit, An answer generation unit for generating, the learning result is a question feature generated based on the arrangement order of the words in the forward and backward bidirectional time series of the feature vector obtained by converting the question sentence for each word. A question intermediate vector generated by learning the word sequence bidirectionally based on a vector group and a correct answer intermediate vector corresponding to each of the plurality of partial items, wherein the correct answer sentence is Based on a correct feature vector group generated by converting the feature vector for each word based on the arrangement order of the bidirectional words, a correct intermediate vector generated by learning the arrangement of the words bidirectionally, An incorrect answer intermediate vector corresponding to each of the plurality of sub-items, wherein a feature vector obtained by converting the incorrect answer sentence into words is generated in an incorrect answer feature vector group based on the arrangement order of the bidirectional words. Based on the loss function calculated based on the combination of the plurality of partial items with the incorrect intermediate vector generated by learning the word sequence bidirectionally, and learning is performed. Is an information processing device.

また、本発明の一態様は、上記の情報処理装置において、前記学習結果は、前記質問文に含まれる単語の特徴ベクトルと、前記質問文に関連する用語の特徴ベクトルとを平均化して学習された追加ベクトルに基づいて生成された、前記質問中間ベクトル、前記正解中間ベクトル、及び不正解中間ベクトルに基づいて学習されることを特徴とする。   Further, according to an aspect of the present invention, in the information processing device, the learning result is learned by averaging a feature vector of a word included in the question sentence and a feature vector of a term related to the question sentence. It is characterized in that learning is performed based on the question intermediate vector, the correct answer intermediate vector, and the incorrect answer intermediate vector generated based on the additional vector.

また、本発明の一態様は、上記の情報処理装置において、前記質問特徴ベクトル群は、前記質問文と前記追加ベクトルとに基づいて変換され、前記正解特徴ベクトル群は、前記正解文と前記追加ベクトルとに基づいて変換され、前記不正解特徴ベクトル群は、前記不正解文と前記追加ベクトルとに基づいて変換されることを特徴とする。   Further, according to an aspect of the present invention, in the information processing device, the question feature vector group is converted based on the question sentence and the additional vector, and the correct answer feature vector group is the correct answer sentence and the addition sentence. The incorrect answer feature vector group is converted based on the vector and the incorrect answer sentence and the additional vector.

また、本発明の一態様は、上記の情報処理装置において、前記学習結果は、前記複数の部分項目のうちの第1の部分項目に対応する前記正解中間ベクトル及び前記不正解中間ベクトルに基づいて、前記第1の部分項目と異なる第2の部分項目に対応する正解特徴ベクトル群及び不正解特徴ベクトル群が更新されて学習されることを特徴とする。   Further, according to an aspect of the present invention, in the information processing device, the learning result is based on the correct answer intermediate vector and the incorrect answer intermediate vector corresponding to a first partial item of the plurality of partial items. , And the correct answer feature vector group and the incorrect answer feature vector group corresponding to the second partial item different from the first partial item are updated and learned.

また、本発明の一態様は、上記の情報処理装置において、前記学習情報に基づいて機械学習し、前記学習結果を生成する学習処理部を備えることを特徴とする。   Further, according to an aspect of the present invention, in the above information processing device, a learning processing unit that performs machine learning based on the learning information and generates the learning result is characterized.

また、本発明の一態様は、質問取得部が、入力された入力質問文を取得する質問取得ステップと、回答生成部が、質問文と、回答文において、予め定められた文章の筋道により分割される複数の部分項目それぞれに対応する正解文及び不正解文との組を複数有する学習情報に基づいて、機械学習された学習結果に基づいて、前記質問取得ステップによって取得された前記入力質問文に対する回答文を生成する回答生成ステップとを含み、前記学習結果は、前記質問文を単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の前記単語の並び順に基づいて生成した質問特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された質問中間ベクトルと、前記複数の部分項目それぞれに対応した正解中間ベクトルであって、前記正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された正解中間ベクトルと、前記複数の部分項目それぞれに対応した不正解中間ベクトルであって、前記不正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した不正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された不正解中間ベクトルとの前記複数の部分項目の組合せに基づいて算出される損失関数により最適化されて学習されることを特徴とする情報処理方法である。   Further, according to one aspect of the present invention, the question acquisition unit obtains the input input question sentence, the question acquisition step, and the answer generation unit divides the question sentence and the answer sentence according to a predetermined sentence path. Based on learning information having a plurality of correct answer sentences and incorrect answer sentences corresponding to each of the plurality of partial items, based on the learning result machine-learned, the input question sentence acquired by the question acquisition step And an answer generation step of generating an answer sentence for the learning result, based on the arrangement sequence of the words in the forward and backward bidirectional time series of the feature vector obtained by converting the question sentence into words. A question intermediate vector generated by bidirectionally learning the sequence of words based on the generated question feature vector group, and a correct answer intermediate vector corresponding to each of the plurality of partial items. Based on a group of correct feature vectors generated from the correct answer sentence for each word based on the arrangement order of the bidirectional words, the arrangement of the words is learned bidirectionally. A correct answer intermediate vector generated by the above, and an incorrect answer intermediate vector corresponding to each of the plurality of partial items, wherein a characteristic vector obtained by converting the incorrect answer sentence for each word is based on the arrangement order of the bidirectional words. Optimal by the loss function calculated based on the combination of the plurality of partial items with the incorrect answer intermediate vector generated by learning the word sequence bidirectionally based on the incorrect answer feature vector group generated It is an information processing method characterized by being digitized and learned.

また、本発明の一態様は、コンピュータに、質問取得部が、入力された入力質問文を取得する質問取得ステップと、回答生成部が、質問文と、回答文において、予め定められた文章の筋道により分割される複数の部分項目それぞれに対応する正解文及び不正解文との組を複数有する学習情報に基づいて、機械学習された学習結果に基づいて、前記質問取得ステップによって取得された前記入力質問文に対する回答文を生成する回答生成ステップとを実行させるためのプログラムであり、前記学習結果は、前記質問文を単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の前記単語の並び順に基づいて生成した質問特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された質問中間ベクトルと、前記複数の部分項目それぞれに対応した正解中間ベクトルであって、前記正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された正解中間ベクトルと、前記複数の部分項目それぞれに対応した不正解中間ベクトルであって、前記不正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した不正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された不正解中間ベクトルとの前記複数の部分項目の組合せに基づいて算出される損失関数により最適化されて学習されることを特徴とするプログラムである。   Further, according to an aspect of the present invention, a question acquisition unit that causes a computer to acquire an input input question sentence, and an answer generation unit include a question sentence and a predetermined sentence in the answer sentence. Based on learning information having a plurality of pairs of correct and incorrect sentences corresponding to each of a plurality of partial items divided by a way, based on a learning result machine-learned, the acquired by the question acquisition step A program for executing an answer generation step of generating an answer sentence for an input question sentence, wherein the learning result is a feature vector obtained by converting the question sentence for each word in both forward and backward chronological order. Based on a question feature vector group generated based on the order of arrangement of the words, the question intermediate vector generated by learning the arrangement of the words bidirectionally, A correct answer intermediate vector corresponding to each of a number of sub-items, based on a correct answer feature vector group generated based on the arrangement order of the bidirectional words, the feature vector obtained by converting the correct answer sentence for each word, A correct answer intermediate vector generated by learning the sequence of words bidirectionally, and an incorrect answer intermediate vector corresponding to each of the plurality of partial items, wherein the incorrect answer sentence is converted into a feature vector for each word. A combination of the plurality of sub-items with an incorrect answer intermediate vector generated by learning the word sequence bidirectionally based on an incorrect answer feature vector group generated based on the bidirectional word arrangement order. The program is characterized by being optimized and learned by a loss function calculated based on.

本発明によれば、質問に対して、違和感を低減した自然な文面の回答を生成することができる。   According to the present invention, it is possible to generate a natural answer to a question with less discomfort.

本実施形態による情報処理システムの一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the information processing system by this embodiment. 本実施形態における学習処理部及び学習処理の一例を説明する図である。It is a figure explaining an example of a learning processing part and learning processing in this embodiment. 本実施形態におけるセマンティクスでバイアスをかけた単語ベクトルの学習手法の一例を説明する図である。It is a figure explaining an example of the learning method of the word vector biased by the semantics in this embodiment. 本実施形態における情報処理装置の質問文から回答文を生成する処理の一例を示すフローチャートである。It is a flow chart which shows an example of processing which generates an answer sentence from a question sentence of an information processor in this embodiment. 本実施形態における回答文の生成の概念の一例を説明する図である。It is a figure explaining an example of the concept of generation of a reply sentence in this embodiment. 本実施形態における回答生成方式と、従来技術との比較を示す図である。It is a figure which shows comparison with the reply generation system in this embodiment, and a prior art.

以下、本発明の一実施形態による情報処理装置について図面を参照して説明する。   An information processing apparatus according to an embodiment of the present invention will be described below with reference to the drawings.

図1は、本実施形態による情報処理システム100の一例を示す概略ブロック図である。
図1に示すように、情報処理システム100は、情報処理装置1と、端末装置2とを備えている。情報処理装置1と、端末装置2とは、ネットワークNW1を介して接続されている。
情報処理システム100は、例えば、情報処理装置1に接続した端末装置2に、投稿された質問及び回答を表示して、ユーザ間で情報共有するQ&Aサービスなどの情報サービスを提供する。
FIG. 1 is a schematic block diagram showing an example of an information processing system 100 according to this embodiment.
As shown in FIG. 1, the information processing system 100 includes an information processing device 1 and a terminal device 2. The information processing device 1 and the terminal device 2 are connected via the network NW1.
The information processing system 100 displays posted questions and answers on the terminal device 2 connected to the information processing device 1, and provides an information service such as a Q & A service for sharing information between users.

端末装置2は、情報処理システム100が提供する情報サービスを利用するために、ユーザが使用するクライアント端末である。なお、図1に示す例では、説明を簡略化するため、情報処理装置1に1台の端末装置2が接続されている例を示しているが、複数の端末装置2が、情報処理装置1に接続されてもよい。   The terminal device 2 is a client terminal used by a user to use the information service provided by the information processing system 100. In addition, in the example shown in FIG. 1, for simplification of description, an example in which one terminal device 2 is connected to the information processing device 1 is shown, but a plurality of terminal devices 2 are connected to the information processing device 1. May be connected to.

情報処理装置1は、例えば、Q&Aサービスなどの情報サービスを提供するサーバ装置である。情報処理装置1は、例えば、端末装置2を介してユーザから受け付けた質問文を、Q&Aサービスに登録して閲覧可能にするとともに、端末装置2を介して他のユーザから受け付けた回答文を登録して閲覧可能にする。また、情報処理装置1は、機械学習を利用して、登録された質問文に対する回答文を生成し、当該回答文をQ&Aサービスに登録して閲覧可能にする。また、情報処理装置1は、NW(ネットワーク)通信部11と、記憶部12と、制御部13とを備えている。   The information processing device 1 is, for example, a server device that provides an information service such as a Q & A service. The information processing device 1 registers, for example, a question sentence received from a user via the terminal device 2 in the Q & A service so that the question sentence can be browsed, and an answer sentence received from another user via the terminal device 2 is registered. And make it viewable. Further, the information processing device 1 uses machine learning to generate an answer sentence for the registered question sentence, and registers the answer sentence in the Q & A service so that the question sentence can be browsed. Further, the information processing device 1 includes an NW (network) communication unit 11, a storage unit 12, and a control unit 13.

NW通信部11は、例えば、インターネットなどを利用してネットワークNW1に接続し、ネットワークNW1を介して各種情報の通信を行う。NW通信部11は、例えば、ネットワークNW1を介して、接続要求のあった端末装置2に接続し、各種情報の通信を行う。   The NW communication unit 11 is connected to the network NW1 using the Internet, for example, and communicates various information via the network NW1. The NW communication unit 11 connects to the terminal device 2 that has made a connection request, for example, via the network NW1 and communicates various information.

記憶部12は、情報処理装置1が実行する各種処理に利用される情報を記憶する。記憶部12は、例えば、サービス記憶部121と、学習結果記憶部122とを備えている。
サービス記憶部121は、例えば、ユーザによって端末装置2からQ&Aサービスに投稿された質問文及び回答文などの投稿情報を記憶する。
学習結果記憶部122は、後述する学習処理部132によって、機械学習された学習結果を記憶する。なお、学習結果の詳細については後述する。
The storage unit 12 stores information used for various processes executed by the information processing device 1. The storage unit 12 includes, for example, a service storage unit 121 and a learning result storage unit 122.
The service storage unit 121 stores, for example, posted information such as question sentences and answer sentences posted by the user from the terminal device 2 to the Q & A service.
The learning result storage unit 122 stores the learning result machine-learned by the learning processing unit 132 described later. The details of the learning result will be described later.

制御部13は、例えば、CPU(Central Processing Unit)などを含むプロセッサであり、情報処理装置1を統括的に制御する。制御部13は、例えば、上述したQ&Aサービスなどの情報サービスを提供する処理や、学習結果記憶部122が記憶する学習結果の生成処理、情報処理装置1がNW通信部11を介して取得した質問文に対する回答文の瀬市営処理などの各種処理を実行する。また、制御部13は、サービス提供部131と、学習処理部132と、質問取得部133と、回答生成部134とを備えている。   The control unit 13 is, for example, a processor including a CPU (Central Processing Unit) and the like, and controls the information processing device 1 as a whole. The control unit 13 provides, for example, a process of providing an information service such as the Q & A service described above, a process of generating a learning result stored in the learning result storage unit 122, and a question acquired by the information processing device 1 via the NW communication unit 11. Executes various processes such as the municipal processing of answer sentences to sentences. The control unit 13 also includes a service providing unit 131, a learning processing unit 132, a question acquisition unit 133, and an answer generation unit 134.

サービス提供部131は、情報処理装置1が提供する情報サービスに関する処理を実行する。サービス提供部131は、例えば、端末装置2からNW通信部11を介して、受け付けた質問文及び回答文を投稿情報として、サービス記憶部121に記憶させる。また、サービス提供部131は、例えば、Q&Aサービスの閲覧を希望する端末装置2に対して、サービス記憶部121に記憶されている投稿情報を、NW通信部11を介して端末装置2に出力し、端末装置2に表示させる。また、サービス提供部131は、後述する回答生成部134が生成した回答文を、サービス記憶部121に記憶させる。なお、サービス提供部131は、Q&Aサービスにおいて、例えば、「恋愛」、「家族」、「料理」など、カテゴリ(分類)ごとに分かれて、情報をユーザに提供するものとする。   The service providing unit 131 executes processing related to the information service provided by the information processing device 1. The service providing unit 131, for example, causes the service storage unit 121 to store the received question text and answer text as post information from the terminal device 2 via the NW communication unit 11. Further, the service providing unit 131 outputs the posting information stored in the service storage unit 121 to the terminal device 2 via the NW communication unit 11 for the terminal device 2 desiring to browse the Q & A service, for example. , On the terminal device 2. Further, the service providing unit 131 causes the service storage unit 121 to store the answer sentence generated by the answer generating unit 134 described below. In the Q & A service, the service providing unit 131 is supposed to provide information to the user by category (classification) such as “love”, “family”, and “cooking”.

学習処理部132は、質問文と、回答文において、予め定められた文章の筋道(シナリオ)により分割される複数の部分項目それぞれに対応する正解文及び不正解文との組を複数有する学習情報に基づいて、機械学習を実行して学習結果を生成する。ここで、例えば、回答文の文章の筋道(シナリオ)を、「結論」、「補足」の順に定めた場合には、部分項目は、「結論」及び「補足」であり、回答文の文章の筋道(シナリオ)を、「雑談」、「事例」、「結論」の順番に定めた場合には、部分項目は、「雑談」、「事例」、及び「結論」である。
なお、以下の説明では、複数の部分項目の一例として、「結論」及び「補足」である場合について説明する。
The learning processing unit 132 has a plurality of sets of a question sentence and a correct sentence and an incorrect sentence corresponding to each of a plurality of partial items in the answer sentence divided according to a predetermined sentence scenario (scenario). Machine learning is performed to generate a learning result. Here, for example, when the scenario (scenario) of the sentence of the answer sentence is set in the order of “conclusion” and “supplementary”, the partial items are “conclusion” and “supplementary”, and When the scenario (scenario) is defined in the order of “chat”, “case”, and “conclusion”, the partial items are “chat”, “case”, and “conclusion”.
In the following description, the case of “conclusion” and “supplement” will be described as an example of a plurality of partial items.

また、学習処理部132は、例えば、サービス記憶部121が記憶するQ&Aサービスの投稿情報(質問文及び回答文)を入力情報として、深層学習(デープラーニング)技術を利用して、学習結果を生成する。学習処理部132は、学習処理の入力情報(学習情報)として、質問文と、正解の回答文、及び正解以外の回答文の中から任意に抽出した不正解文の組を学習情報として使用する。学習処理部132は、生成した学習結果を学習結果記憶部122に記憶させる。ここで、図2を参照して、本実施形態における学習処理部132の構成及び学習処理について説明する。   In addition, the learning processing unit 132 generates a learning result by using the deep learning technology by using, for example, the Q & A service posting information (question sentence and answer sentence) stored in the service storage unit 121 as input information. To do. The learning processing unit 132 uses, as the learning information, a set of a question sentence, a correct answer sentence, and an incorrect answer sentence arbitrarily extracted from the answer sentence other than the correct sentence, as input information (learning information) for the learning process. . The learning processing unit 132 stores the generated learning result in the learning result storage unit 122. Here, the configuration and learning process of the learning processing unit 132 according to the present embodiment will be described with reference to FIG. 2.

図2は、本実施形態における学習処理部132及び学習処理の一例を説明する図である。
図2に示すように、学習処理部132は、ベクトル変換部10と、QA−LSTM(Question Answering-Long Short-Term Memory)部(20−1、20−2)と、損失関数生成部30とを備えている。
FIG. 2 is a diagram illustrating an example of the learning processing unit 132 and learning processing according to this embodiment.
As shown in FIG. 2, the learning processing unit 132 includes a vector conversion unit 10, a QA-LSTM (Question Answering-Long Short-Term Memory) unit (20-1, 20-2), and a loss function generating unit 30. Is equipped with.

ベクトル変換部10は、学習情報の組に含まれる、質問文、正解文、及び不正解文をそれぞれ特徴ベクトルに変換する。なお、正解文及び不正解文は、例えば、「結論」と「補足」の部分項目のそれぞれに分けて特徴ベクトルを生成する。また、ベクトル変換部10は、例えば、サービス記憶部121が記憶する学習情報に基づいて、セマンティクスでバイアスをかけて単語ベクトルを事前学習する。例えば、「恋愛」のカテゴリのQ&Aサービスにおいて、「距離」、「好き」、「恋人」などの単語(トークン)が含まれる可能性が高く、これらをより強調するように、バイアスをかける学習を行う。具体的には、ベクトル変換部10は、例えば、図3に示すような学習手法を用いて、事前学習を行う。   The vector conversion unit 10 converts each of the question sentence, the correct answer sentence, and the incorrect answer sentence included in the set of learning information into a feature vector. The correct sentence and the incorrect sentence are, for example, divided into “conclusion” and “supplementary” sub-items to generate feature vectors. In addition, the vector conversion unit 10 pre-learns a word vector by biasing it with semantics based on the learning information stored in the service storage unit 121, for example. For example, in the Q & A service of the “love” category, words (tokens) such as “distance”, “like”, “lover” are likely to be included, and learning to bias them is emphasized to emphasize these. To do. Specifically, the vector conversion unit 10 performs pre-learning by using a learning method as shown in FIG. 3, for example.

図3は、本実施形態におけるセマンティクスでバイアスをかけた単語ベクトルの学習手法の一例を説明する図である。
図3に示す例は、「単語A」、「単語B」、・・・「単語F」、「単語G」の順番に並ぶ対象文があった場合に、ベクトル変換部10は、例えば、当該対象文(例えば、質問文)のカテゴリトークン及びタイトルトークンと、「単語A」、「単語B」、・・・「単語F」とのそれぞれを単語ベクトルに変換して平均化し、与えられた文脈において以下の言葉「単語G」を予測する学習を行う。ここで、カテゴリトークンは、当該対象文のカテゴリ(分類)を示す単語(用語)であり、例えば、上述したQ&Aサービスのカテゴリである「恋愛」、「家族」などである。また、タイトルトークンは、当該対象文(例えば、質問文)に割り当てられたタイトルから抽出される名詞により定義され、例えば、上述した「距離」、「好き」、「恋人」などである。1つのカテゴリトークンが、例えば、質問文に割り当てられる間に、複数のタイトルトークンが、タイトルから抽出されてもよい。
FIG. 3 is a diagram illustrating an example of a learning method of a word vector biased by the semantics in the present embodiment.
In the example shown in FIG. 3, when there is a target sentence arranged in the order of “word A”, “word B”, ... “Word F”, “word G”, the vector conversion unit 10 The category token and title token of the target sentence (for example, question sentence) and each of "word A", "word B", ... "Word F" are converted into word vectors and averaged, and the given context is given. In, learning is performed to predict the following word "word G". Here, the category token is a word (term) indicating the category (classification) of the target sentence, and is, for example, “love”, “family” or the like, which is the category of the Q & A service described above. The title token is defined by a noun extracted from the title assigned to the target sentence (for example, question sentence), and is, for example, “distance”, “like”, “lover”, etc. described above. Multiple title tokens may be extracted from the title while one category token is assigned to the question text, for example.

ベクトル変換部10は、単語ベクトルだけでなく、カテゴリトークンのカテゴリベクトル及びカテゴリトークンのタイトルベクトルを学習する。これらの追加ベクトルは、セマンティクスのバイアスとして機能する。このように、ベクトル変換部10は、例えば、質問文に含まれる単語の特徴ベクトルと、質問文に関連する用語の特徴ベクトルとを平均化して、追加ベクトル(例えば、カテゴリベクトル及びタイトルベクトル)を事前学習し、当該追加ベクトルに基づいて、学習情報の組に含まれる、質問文、正解文、及び不正解文をそれぞれに対して、単語ごとに特徴ベクトルに変換する。なお、ベクトル変換部10は、事前学習した学習結果を学習結果記憶部122に記憶させる。   The vector conversion unit 10 learns not only the word vector but also the category vector of the category token and the title vector of the category token. These additional vectors act as a semantic bias. In this way, the vector conversion unit 10 averages the feature vectors of the words included in the question sentence and the feature vectors of the terms related to the question sentence to obtain additional vectors (for example, a category vector and a title vector). Pre-learning is performed, and based on the additional vector, each of the question sentence, the correct answer sentence, and the incorrect answer sentence included in the set of learning information is converted into a feature vector for each word. Note that the vector conversion unit 10 stores the learning result that has been pre-learned in the learning result storage unit 122.

例えば、図2に示す例では、ベクトル変換部10は、質問文を、特徴ベクトルの集合である特徴ベクトル列Wに変換する。また、ベクトル変換部10は、「結論」の正解文を、特徴ベクトルの集合である特徴ベクトル列Wac+に変換し、「結論」の不正解文を、特徴ベクトルの集合である特徴ベクトル列Wac−に変換する。また、ベクトル変換部10は、「補足」の正解文を、特徴ベクトルの集合である特徴ベクトル列Was+に変換し、「補足」の不正解文を、特徴ベクトルの集合である特徴ベクトル列Was−に変換する。 For example, in the example illustrated in FIG. 2, the vector conversion unit 10 converts the question sentence into a feature vector sequence W q that is a set of feature vectors. Further, the vector conversion unit 10 converts the correct answer sentence of “conclusion” into a feature vector sequence W ac + which is a set of feature vectors, and the incorrect answer sentence of “conclusion” is a feature vector sequence W which is a set of feature vectors. Convert to ac- . Further, the vector conversion unit 10 converts the “supplementary” correct answer sentence into a feature vector sequence W as + that is a set of feature vectors, and the “supplementary” incorrect answer sentence is a feature vector sequence W that is a set of feature vectors. Convert to as- .

QA−LSTM部(20−1、20−2)は、双方向に学習するニューラルネットワークであるbiLSTM(bidirectional Long Short-Term Memory)である。QA−LSTM部20−1は、「結論」用のbiLSTMであり、QA−LSTM部20−2は、「補足」用のbiLSTMである。なお、本実施形態において、QA−LSTM部20−1と、QA−LSTM部20−2とは、同様の構成であり、学習処理部132が備える任意のQA−LSTM部を示す場合、又は特に区別しない場合には、QA−LSTM部20として説明する。   The QA-LSTM units (20-1, 20-2) are bidirectional long short-term memories (biLSTMs) that are bidirectional learning neural networks. The QA-LSTM unit 20-1 is a biLSTM for “conclusion”, and the QA-LSTM unit 20-2 is a biLSTM for “supplementation”. Note that in the present embodiment, the QA-LSTM unit 20-1 and the QA-LSTM unit 20-2 have the same configuration and indicate any QA-LSTM unit included in the learning processing unit 132, or particularly When no distinction is made, the QA-LSTM unit 20 will be described.

QA−LSTM部20は、質問埋め込みベクトル生成部21と、正解埋め込みベクトル生成部22と、不正解埋め込みベクトル生成部23とを備えている。
質問埋め込みベクトル生成部21は、質問文を単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の単語の並び順に基づいて生成した双方向ベクトル列24(質問特徴ベクトル群)に基づいて、単語の並びを双方向に学習して、質問埋め込みベクトルOを生成する。質問埋め込みベクトル生成部21は、例えば、質問文の特徴ベクトル列Wから双方向ベクトル列24を生成し、当該双方向ベクトル列24の各要素の最大値を抽出して蓄積するマックスプーリング(Max pooling)処理により質問埋め込みベクトルO(質問中間ベクトル)を生成する。
The QA-LSTM unit 20 includes a question embedding vector generation unit 21, a correct answer embedding vector generation unit 22, and an incorrect answer embedding vector generation unit 23.
The question embedding vector generation unit 21 generates a feature vector obtained by converting a question sentence for each word based on the sequence of forward and backward bidirectional words arranged in time series (a bidirectional vector sequence 24 (question feature vector group). ), The sequence of words is bidirectionally learned to generate the question embedding vector O q . The question embedding vector generation unit 21 generates, for example, a bidirectional vector sequence 24 from the feature vector sequence W q of the question sentence, and extracts the maximum value of each element of the bidirectional vector sequence 24 and stores the max pooling (Max). The question embedding vector O q (question intermediate vector) is generated by the (pooling) processing.

正解埋め込みベクトル生成部22は、正解文を単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の単語の並び順に基づいて生成した双方向ベクトル列25(正解特徴ベクトル群)に基づいて、単語の並びを双方向に学習して、正解埋め込みベクトルOa+を生成する。正解埋め込みベクトル生成部22は、例えば、正解文の特徴ベクトル列Wa+から双方向ベクトル列25を生成し、当該双方向ベクトル列25の各要素の最大値を抽出して蓄積するマックスプーリング処理により正解埋め込みベクトルOa+(正解中間ベクトル)を生成する。 The correct answer embedded vector generation unit 22 generates a feature vector in which a correct sentence is converted for each word based on a time-series forward and backward bidirectional word arrangement order (a correct feature vector group 25). ), The word sequence is bidirectionally learned to generate the correct answer embedding vector O a + . The correct-embedded vector generation unit 22 generates the bidirectional vector sequence 25 from the feature vector sequence W a + of the correct sentence, extracts the maximum value of each element of the bidirectional vector sequence 25, and stores it by the max pooling process. The correct answer embedding vector O a + (correct answer intermediate vector) is generated.

不正解埋め込みベクトル生成部23は、不正解文を単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の単語の並び順に基づいて生成した双方向ベクトル列26(不正解特徴ベクトル群)に基づいて、単語の並びを双方向に学習して、正解埋め込みベクトルOa−を生成する。不正解埋め込みベクトル生成部23は、例えば、不正解文の特徴ベクトル列Wa−から双方向ベクトル列26を生成し、当該双方向ベクトル列26の各要素の最大値を抽出して蓄積するマックスプーリング処理により不正解埋め込みベクトルOa−(不正解中間ベクトル)を生成する。 The incorrect answer embedded vector generation unit 23 generates a bidirectional vector sequence 26 (incorrect answer, which is generated based on a sequence of forward and backward bidirectional words in a time series of a feature vector obtained by converting an incorrect sentence for each word. Based on the feature vector group), the word arrangement is bidirectionally learned to generate the correct answer embedding vector O a− . The incorrect answer embedded vector generation unit 23 generates, for example, a bidirectional vector sequence 26 from the feature vector sequence W a- of the incorrect answer sentence, and extracts the maximum value of each element of the bidirectional vector sequence 26 and accumulates it. An incorrect answer embedded vector O a− (incorrect answer intermediate vector) is generated by the pooling process.

なお、QA−LSTM部20の基本となるLSTMについては、非特許文献1に開示されている。基本的なLSTMでは、学習する際に、入力される時系列の入力X={x(1),x(2),・・・,x(N)}とし、x(t)をt番目の単語の特徴ベクトルとした場合に、双方向ベクトル列(24、25、26)の内部のベクトルである各双方向ベクトルh(t)が、t時間ごとに以下の式(1)により更新される。   Non-Patent Document 1 discloses the LSTM that is the basis of the QA-LSTM unit 20. In the basic LSTM, when learning, the time-series input is X = {x (1), x (2), ..., x (N)}, and x (t) is the t-th When the word feature vector is used, each bidirectional vector h (t), which is an internal vector of the bidirectional vector sequence (24, 25, 26), is updated by the following equation (1) every t hours. .

Figure 0006680659
Figure 0006680659

ここで、基本的なLSTMのアーキテクチャにおいて、3つのゲート(input i,forget f,output o)と、セルメモリーベクトルcとがある。また、しσ()はシグモイド関数である。また、W、W、W、W、U、U,U、U、b、b,b、bは学習されるネットワークパラメータである。 Here, the basic architecture of LSTM, 3 one gate (input i t, forget f t , output o t) and, there is a cell memory vector c t. Also, σ () is a sigmoid function. W i , W f , W o , W c , U i , U f , U o , U c , b i , b f , b o , and b c are learned network parameters.

QA−LSTM部20−1は、「結論」用のbiLSTMであり、特徴ベクトル列(W、Wac+、Wac−)に基づいて、質問埋め込みベクトルOqc、正解埋め込みベクトルOac+、及び不正解埋め込みベクトルOac−を生成する。QA−LSTM部20−1は、質問埋め込みベクトル生成部21−1と、正解埋め込みベクトル生成部22−1と、不正解埋め込みベクトル生成部23−1とを備えている。質問埋め込みベクトル生成部21−1は、特徴ベクトル列Wから双方向ベクトル列24−1を生成し、マックスプーリング処理により質問埋め込みベクトルOqcを生成する。また、正解埋め込みベクトル生成部22−1は、特徴ベクトル列Wac+から双方向ベクトル列25−1を生成し、マックスプーリング処理により正解埋め込みベクトルOac+を生成する。また、不正解埋め込みベクトル生成部23−1は、特徴ベクトル列Wac−から双方向ベクトル列26−1を生成し、マックスプーリング処理により正解埋め込みベクトルOac−を生成する。 QA-LSTM unit 20-1 is a biLSTM for "conclusion" feature vector sequence (W q, W ac +, W ac-) based on the question embedded vector O qc, correct embedded vector O ac +, and not The correct embedded vector Oac- is generated. The QA-LSTM section 20-1 includes a question embedded vector generation section 21-1, a correct answer embedded vector generation section 22-1, and an incorrect answer embedded vector generation section 23-1. The question embedding vector generation unit 21-1 generates the bidirectional vector sequence 24-1 from the feature vector sequence W q, and generates the question embedding vector O qc by the max pooling process. Further, the correct answer embedded vector generation unit 22-1 generates a bidirectional vector sequence 25-1 from the feature vector sequence W ac + and generates a correct answer embedded vector O ac + by the max pooling process. In addition, the incorrect solution embedded vector generation unit 23-1 generates the bidirectional vector sequence 26-1 from the feature vector sequence W ac− and the correct answer embedded vector O ac− by the max pooling process.

QA−LSTM部20−2は、「補足」用のbiLSTMであり、特徴ベクトル列(W、Was+、Was−)に基づいて、質問埋め込みベクトルOqs、正解埋め込みベクトルOas+、及び不正解埋め込みベクトルOas−を生成する。QA−LSTM部20−2は、質問埋め込みベクトル生成部21−2と、正解埋め込みベクトル生成部22−2と、不正解埋め込みベクトル生成部23−2とを備えている。質問埋め込みベクトル生成部21−2は、特徴ベクトル列Wから双方向ベクトル列24−2を生成し、マックスプーリング処理により質問埋め込みベクトルOqsを生成する。また、正解埋め込みベクトル生成部22−2は、特徴ベクトル列Was+から双方向ベクトル列25−2を生成し、マックスプーリング処理により正解埋め込みベクトルOas+を生成する。また、不正解埋め込みベクトル生成部23−2は、特徴ベクトル列Was−から双方向ベクトル列26−2を生成し、マックスプーリング処理により不正解埋め込みベクトルOas−を生成する。 The QA-LSTM unit 20-2 is a biLSTM for “supplementation”, and based on the feature vector sequence (W q , W as + , W as− ), the question embedding vector O qs , the correct answer embedding vector O as + , and the non- correction vector. The correct embedded vector O as- is generated. The QA-LSTM unit 20-2 includes a question embedding vector generation unit 21-2, a correct answer embedding vector generation unit 22-2, and an incorrect answer embedding vector generation unit 23-2. The question embedding vector generation unit 21-2 generates a bidirectional vector sequence 24-2 from the feature vector sequence W q, and generates a question embedding vector O qs by the max pooling process. Further, the correct answer embedded vector generation unit 22-2 generates a bidirectional vector sequence 25-2 from the feature vector sequence W as + and generates a correct answer embedded vector O as + by the max pooling process. In addition, the incorrect solution embedded vector generation unit 23-2 generates the bidirectional vector sequence 26-2 from the feature vector sequence W as− and generates the incorrect solution embedded vector O as− by the max pooling process.

また、QA−LSTM部20−2は、学習する際に、アテンションメカニズムを利用して、双方向ベクトル列25−2及び双方向ベクトル列26−2を更新する。QA−LSTM部20−2は、例えば、QA−LSTM部20−1が生成した「結論」に対応する正解埋め込みベクトルOas+及び不正解埋め込みベクトルOas−ルに基づいて、「補足」に対応する双方向ベクトル列25−2(正解特徴ベクトル群)及び双方向ベクトル列26−2(不正解特徴ベクトル群)を更新する。具体的に、QA−LSTM部20−2は、以下の式(2)により、双方向ベクトル列25−2及び双方向ベクトル列26−2の内部ベクトルである双方向ベクトルh(t)を更新する。 Further, the QA-LSTM section 20-2 updates the bidirectional vector sequence 25-2 and the bidirectional vector sequence 26-2 by using the attention mechanism when learning. The QA-LSTM unit 20-2 corresponds to “supplement” based on, for example, the correct answer embedding vector O as + and the incorrect answer embedding vector O as− that correspond to the “conclusion” generated by the QA-LSTM unit 20-1. The bidirectional vector sequence 25-2 (correct feature vector group) and the bidirectional vector sequence 26-2 (incorrect feature vector group) are updated. Specifically, the QA-LSTM unit 20-2 calculates the bidirectional vector h s (t), which is the internal vector of the bidirectional vector sequence 25-2 and the bidirectional vector sequence 26-2, by the following equation (2). Update.

Figure 0006680659
Figure 0006680659

ここで、tは、時間のステップであり、Wsm、Wcm、及びwmbは、アテンションパラメータである。また、(t)は、更新後の双方向ベクトルを示す。なお、本文中の上付の〜は文字の真上に付けられた記号を表すものとする。 Where t is the time step and W sm , W cm , and w mb are attention parameters. Further, ~ hs (t) indicates the updated bidirectional vector. In addition, the superscript "~" in the text represents a symbol directly above the character.

損失関数生成部30は、QA−LSTM部20−1が生成した質問埋め込みベクトルOqc、正解埋め込みベクトルOac+、及び不正解埋め込みベクトルOac−と、QA−LSTM部20−2が生成した質問埋め込みベクトルOqs、正解埋め込みベクトルOas+、及び不正解埋め込みベクトルOas−とに基づいて、コサイン類似度を利用した損失関数Lを生成する。損失関数生成部30は、「結論」と、「補足」と、「正解」、「不正解」との組み合わせに基づいて、損失関数Lを生成する。損失関数生成部30は、例えば、以下の式(3)により、損失関数Lを算出する。なお、損失関数Lは、学習中の質問と回答との各組合せにおけるコサイン値が最大になるように設定されている。 The loss function generation unit 30 generates the question embedding vector O qc , the correct answer embedding vector O ac + , and the incorrect answer embedding vector O ac− generated by the QA-LSTM unit 20-1, and the question generated by the QA-LSTM unit 20-2. The loss function L using the cosine similarity is generated based on the embedding vector O qs , the correct embedding vector O as + , and the incorrect answer embedding vector O as− . The loss function generation unit 30 generates the loss function L based on a combination of “conclusion”, “supplement”, “correct answer”, and “incorrect answer”. The loss function generation unit 30 calculates the loss function L by, for example, the following equation (3). The loss function L is set so that the cosine value in each combination of the question and the answer during learning becomes maximum.

Figure 0006680659
Figure 0006680659

ここで、[y,z]は、ベクトルyとベクトルzとの結合を示す。Oは、[Oqc,Oqs]である。また、Mは、定数を示し、k(0<k<1)は、マージンをコントロールするパラメータである。
学習処理部132は、上述のような構成を用いて算出された損失関数Lによって最適化して学習結果を生成し、生成した学習結果を学習結果記憶部122に記憶させる。学習処理部132は、上述した式(1)の「結論」用のパラメータセット{W、W、W、W、U、U,U、U、b、b,b、bと、「補足」用のパラメータセット{W、W、W、W、U、U,U、U、b、b,b、bと、アテンションパラメータ{Wsm、Wcm、wmb}とを含む学習結果を生成する。
Here, [y, z] indicates a combination of the vector y and the vector z. O q is [O qc , O qs ]. Further, M indicates a constant, and k (0 <k <1) is a parameter for controlling the margin.
The learning processing unit 132 optimizes the loss function L calculated using the configuration described above to generate a learning result, and stores the generated learning result in the learning result storage unit 122. The learning processing unit 132 uses the “conclusion” parameter set {W i , W f , W o , W c , U i , U f , U o , U c , b i , b f of the above-mentioned Expression (1). , B o , b c } c and a parameter set for “supplementation” {W i , W f , W o , W c , U i , U f , U o , U c , b i , b f , b o. , B c } s and an attention parameter {W sm , W cm , w mb } are generated.

なお、上述した例では、回答文のシナリオを「結論」及び「補足」の2つの部分項目により構成する例を説明したが、2つ以上の部分項目により構成するようにしてもよい。その場合、学習処理部132によって学習される学習結果は、質問文から生成された質問埋め込みベクトルOと、複数の部分項目それぞれに対応した正解埋め込みベクトルOa+と、複数の部分項目それぞれに対応した不正解中間ベクトルOa−との複数の部分項目の組合せに基づいて算出される損失関数Lにより最適化されて学習される。 In the above example, an example in which the scenario of the answer sentence is composed of two partial items of “conclusion” and “supplement” has been described, but it may be composed of two or more partial items. In that case, the learning result learned by the learning processing unit 132 corresponds to the question embedding vector O q generated from the question sentence, the correct answer embedding vector O a + corresponding to each of the plurality of partial items, and each of the plurality of partial items. It is optimized and learned by the loss function L calculated based on the combination of the plurality of partial items with the incorrect intermediate vector O a− .

図1に説明に戻り、質問取得部133は、情報処理装置1に入力された入力質問文を取得する。質問取得部133は、例えば、サービス記憶部121が記憶している質問文の中から、入力質問文を取得する。   Returning to FIG. 1, the question acquisition unit 133 acquires the input question text input to the information processing device 1. The question acquisition unit 133 acquires the input question text from the question texts stored in the service storage unit 121, for example.

回答生成部134は、上述した学習処理部132によって学習された学習結果に基づいて、質問取得部133によって取得された入力質問文に対する回答文を生成する。ここで、学習結果は、上述したように、質問文と、回答文において、予め定められた文章の筋道により分割される複数の部分項目それぞれに対応する正解文及び不正解文との組を複数有する学習情報に基づいて、機械学習された結果であり、学習結果記憶部122に記憶されている。すなわち、回答生成部134は、学習結果記憶部122が記憶する学習結果に基づいて、複数の部分項目を結合して生成された回答文を生成する。また、回答生成部134は、生成した回答文をサービス提供部131に供給して、当該回答文を、入力質問文の回答の投稿として、サービス記憶部121に記憶させる。   The answer generation unit 134 generates an answer sentence for the input question sentence acquired by the question acquisition unit 133 based on the learning result learned by the learning processing unit 132 described above. Here, as described above, the learning result includes a plurality of sets of a question sentence and a correct sentence and an incorrect sentence corresponding to each of a plurality of partial items in the answer sentence, which are divided by a predetermined passage of the sentence. It is a result of machine learning based on the learning information that it has, and is stored in the learning result storage unit 122. That is, the answer generation unit 134 generates an answer sentence generated by combining a plurality of partial items based on the learning result stored in the learning result storage unit 122. Further, the answer generation unit 134 supplies the generated answer sentence to the service providing unit 131, and stores the answer sentence in the service storage unit 121 as a post of the answer to the input question sentence.

次に、図面を参照して、本実施形態による情報処理装置1の動作について説明する。
<学習処理>
ます、情報処理装置1における学習処理部132の学習処理について、図2を参照して説明する。
Next, the operation of the information processing device 1 according to the present embodiment will be described with reference to the drawings.
<Learning process>
First, the learning process of the learning processing unit 132 in the information processing device 1 will be described with reference to FIG.

学習処理部132は、以下の(1)〜(6)の手順をN回繰り返して、学習処理を実行する。   The learning processing unit 132 repeats the following procedures (1) to (6) N times to execute the learning process.

(1)学習処理部132は、まず、学習情報のそれぞれの組情報(質問文q、「結論」の正解文ac+、「結論」の不正解文ac−、「補足」の正解文as+、「補足」の不正解文as−)を取得する。学習処理部132のベクトル変換部10が、当該組情報を特徴ベクトル列(W、Wac+、Wac−、Was+、Was−)に変換する。 (1) The learning processing unit 132 first sets each set of learning information (question sentence q, correct sentence ac + of “conclusion”, incorrect sentence ac− of “conclusion”, correct sentence as + of “supplement”, “ Incorrect answer sentence "as-)" is acquired. Vector converter 10 of the learning processing unit 132, the assembled information feature vector sequence (W q, W ac +, W ac-, W as +, W as-) into a.

(2)次に、QA−LSTM部20−1は、特徴ベクトル列(W、Wac+、Wac−)に基づいて、質問埋め込みベクトルOqc、正解埋め込みベクトルOac+、及び不正解埋め込みベクトルOac−を生成する。QA−LSTM部20−1は、双方向ベクトル列(24−1、25−1、26−1)のt番目の各双方向ベクトル(hqc(t)、hac+(t)、hac−(t))をそれぞれマックスプーリング処理して、質問埋め込みベクトルOqc、正解埋め込みベクトルOac+、及び不正解埋め込みベクトルOac−を生成する。 (2) Next, the QA-LSTM unit 20-1 uses the feature vector sequence (W q , W ac + , W ac− ) to query embedded vector O qc , correct embedded vector O ac + , and incorrect embedded vector. Oac- is generated. The QA-LSTM unit 20-1 includes the t-th bidirectional vectors (h qc (t), h ac + (t), h ac- of the bidirectional vector sequence (24-1, 25-1 , 26-1 ). (T)) is subjected to max pooling processing to generate a question embedding vector O qc , a correct answer embedding vector O ac + , and an incorrect answer embedding vector O ac− .

(3)次に、QA−LSTM部20−2は、まず、質問埋め込みベクトルOqsを生成する。QA−LSTM部20−2は、双方向ベクトル列24−2のt番目の各双方向ベクトルhqs(t)をマックスプーリング処理して、質問埋め込みベクトルOqsを生成する。 (3) Next, the QA-LSTM section 20-2 first generates the question embedding vector O qs . The QA-LSTM unit 20-2 performs max pooling processing on each t-th bidirectional vector h qs (t) of the bidirectional vector sequence 24-2 to generate a question embedding vector O qs .

(4)次に、QA−LSTM部20−2は、双方向ベクトル列(25−2、26−2)のt番目の各双方向ベクトル(has+(t)、has−(t))を、正解埋め込みベクトルOac+、及び不正解埋め込みベクトルOac−を用いて更新する。すなわち、QA−LSTM部20−2は、上述した式(2)を用いて、各双方向ベクトル(has+(t)、has−(t))を更新して、更新ベクトル(as+(t)、as−(t))を生成する。 (4) Next, the QA-LSTM unit 20-2 causes the t-th bidirectional vector (h as + (t), h as- (t)) of the bidirectional vector sequence (25-2, 26-2 ). Are updated using the correct answer embedding vector O ac + and the incorrect answer embedding vector O ac− . That is, the QA-LSTM unit 20-2 updates each bidirectional vector (has + (t), has- (t)) using the above-described equation (2), and updates the updated vector ( ~ has +). (T), ~ has- (t)) are generated.

(5)次に、QA−LSTM部20−2は、更新ベクトル(as+(t)、as−(t))をそれぞれマックスプーリング処理して、正解埋め込みベクトルOas+、及び不正解埋め込みベクトルOas−を生成する。 (5) Next, the QA-LSTM unit 20-2 performs max pooling processing on each of the update vectors ( ~ has + (t), ~ has- (t)) to obtain the correct answer embedding vector Oas + and the incorrect answer. Generate the embedding vector O as- .

(6)次に、学習処理部132は、生成した各埋め込みベクトル(Oqc、Oac+、Oac−、Oqs、Oas+、Oas−)の組合せにより、損失関数Lを算出する。学習処理部132の損失関数生成部30が、例えば、上述した式(3)を用いて、損失関数Lを算出する。そして、学習処理部132は、算出した損失関数Lにより、各パラメータを最適化する。学習処理部132は、例えば、「結論」用のパラメータセット{W、W、W、W、U、U,U、U、b、b,b、bと、「補足」用のパラメータセット{W、W、W、W、U、U,U、U、b、b,b、bと、アテンションパラメータ{Wsm、Wcm、wmb}とを最適化する。 (6) Next, the learning processing unit 132 calculates the loss function L based on the combination of the generated embedded vectors (O qc , O ac + , O ac− , O qs , O as + , O as− ). The loss function generation unit 30 of the learning processing unit 132 calculates the loss function L using, for example, Expression (3) described above. Then, the learning processing unit 132 optimizes each parameter by the calculated loss function L. The learning processing unit 132 may use, for example, the “conclusion” parameter set {W i , W f , W o , W c , U i , U f , U o , U c , b i , b f , b o , b. c } c and the parameter set for “supplementation” {W i , W f , W o , W c , U i , U f , U o , U c , b i , b f , b o , b c } s. And the attention parameter {W sm , W cm , w mb }.

学習処理部132は、上述した(1)〜(6)の手順をN回繰り返してして学習し、当該学習結果を学習結果記憶部122に記憶させる。   The learning processing unit 132 repeats the procedure of (1) to (6) described above N times to perform learning, and stores the learning result in the learning result storage unit 122.

<回答文の生成処理>
次に、図面を参照して、本実施形態における情報処理装置1の質問文から回答文を生成する処理について説明する。
図4は、本実施形態における情報処理装置1の質問文から回答文を生成する処理の一例を示すフローチャートである。
<Response sentence generation process>
Next, with reference to the drawings, a process of generating an answer sentence from a question sentence of the information processing apparatus 1 according to the present embodiment will be described.
FIG. 4 is a flowchart showing an example of processing of generating an answer sentence from a question sentence of the information processing device 1 according to the present embodiment.

図4に示すように、情報処理装置1は、まず、質問文をサービス記憶部121から取得する(ステップS101)。情報処理装置1の質問取得部133は、サービス記憶部121が記憶している質問文の中から、入力質問文を取得する。   As shown in FIG. 4, the information processing apparatus 1 first acquires a question sentence from the service storage unit 121 (step S101). The question acquisition unit 133 of the information processing device 1 acquires the input question text from the question texts stored in the service storage unit 121.

次に、情報処理装置1の回答生成部134は、質問文と、学習結果記憶部122が記憶する学習結果とに基づいて、回答文を生成する(ステップS102)。回答生成部134は、例えば、図2及び図3示す学習処理により学習されたが学習結果に基づいて、質問文から回答文を生成する。   Next, the answer generation unit 134 of the information processing device 1 generates an answer sentence based on the question sentence and the learning result stored in the learning result storage unit 122 (step S102). The answer generation unit 134 generates an answer sentence from the question sentence based on the learning result learned by the learning process shown in FIGS. 2 and 3, for example.

なお、回答生成部134は、既存の回答文を単に選択するのではなく、文章の筋道を考慮した部分項目を適切に組み合わせて新たな回答文を生成する。例えば、図5に示す例は、部分項目を、「雑談」、「事例」、及び「結論」とした場合の回答文の生成例である。   Note that the answer generation unit 134 does not simply select an existing answer sentence, but generates a new answer sentence by appropriately combining partial items in consideration of the passage of the sentence. For example, the example illustrated in FIG. 5 is an example of generating an answer sentence when the partial items are “chat”, “case”, and “conclusion”.

図5において、回答生成部134は、学習結果に基づいて、「雑談」、「事例」、及び「結論」の組合せの適正(部分項目のつながりの適正)を考慮して、例えば、「雑談」として、“いろいろありますね。”を選択し、「事例」として、“人は出会いと別れを繰り返すから。”を選択する。また、回答生成部134は、「結論」として、“時間が解決する。”を選択する。そして、回答生成部134は、“いろいろありますね。人は出会いと別れを繰り返すから。時間が解決する。”という回答文を生成する。なお、回答生成部134は、学習結果が部分項目のつながりの適正を考慮しているため、部分項目の各項目の単体として最適なものが選択されるのではなく、違和感のない回答文が生成されるように、部分項目の各項目を選択して、回答文を生成する。   In FIG. 5, the answer generation unit 134 considers the appropriateness of the combination of “chat”, “case”, and “conclusion” (adequacy of connection of partial items) based on the learning result, for example, “chat” , Select "There are various things", and select "Because people repeat encounters and parting." Further, the answer generation unit 134 selects “time is resolved.” As the “conclusion”. Then, the answer generation unit 134 generates an answer sentence "There are various things. People repeat encounters and parting. Time is resolved." Since the answer generation unit 134 considers the appropriateness of the connection of the partial items in the learning result, the optimum one is not selected as each item of the partial items, and an answer sentence with no discomfort is generated. As described above, each item of the partial items is selected to generate the answer sentence.

次に、情報処理装置1の回答生成部134は、サービス記憶部121に回答文を記憶させる(ステップS103)。すなわち、回答生成部134は、生成した回答文をサービス提供部131に供給して、当該回答文を、入力質問文の回答の投稿として、サービス記憶部121に記憶させる。これにより、情報処理装置1にネットワークNW1を介して接続し端末装置2から、質問文に対して、回答生成部134が生成した回答文を閲覧可能になる。ステップS103の処理後に、情報処理装置1は、回答文を生成する処理を終了する。   Next, the answer generation unit 134 of the information processing device 1 stores the answer sentence in the service storage unit 121 (step S103). That is, the answer generation unit 134 supplies the generated answer sentence to the service providing unit 131, and stores the answer sentence in the service storage unit 121 as a post of the answer to the input question sentence. This allows the terminal device 2 to connect to the information processing device 1 via the network NW1 and browse the answer sentence generated by the answer generation unit 134 with respect to the question sentence. After the processing of step S103, the information processing device 1 ends the processing of generating the answer sentence.

次に、図6を参照して、本実施形態による情報処理装置1が生成した回答文の評価結果について説明する。   Next, with reference to FIG. 6, an evaluation result of the answer sentence generated by the information processing apparatus 1 according to the present embodiment will be described.

図6は、本実施形態における回答生成方式と、従来技術との比較を示す図である。
図6において、「QA−LSTM」は、比較のために、非特許文献1に記載の技術を使用した場合の評価結果を示している。なお、「QA−LSTM」では、本実施形態のように回答文の生成を実行しないため、選択された部分項目を単純に結合して評価している。
また、「Sematic−LSTM」は、本実施形態によるセマンティクスでバイアスを「QA−LSTM」に適用した場合の評価結果である。なお、この場合も「QA−LSTM」と同様に、回答文の生成を実行しないため、選択された部分項目を単純に結合して評価している。
FIG. 6 is a diagram showing a comparison between the answer generation method according to the present embodiment and the conventional technique.
In FIG. 6, “QA-LSTM” indicates an evaluation result when the technique described in Non-Patent Document 1 is used for comparison. In "QA-LSTM", the answer sentence is not generated as in the present embodiment, and thus the selected partial items are simply combined and evaluated.
Further, “Sematic-LSTM” is an evaluation result when the bias is applied to “QA-LSTM” with the semantics according to the present embodiment. In this case as well, as in the case of "QA-LSTM", since the answer sentence is not generated, the selected partial items are simply combined and evaluated.

また、「本実施形態の回答生成方式」は、学習処理部132の方式であり、上述した式(2)のアテンションメカニズムを利用しない場合「アテンションなし」と、アテンションメカニズムを利用する場合「アテンションあり」との評価結果である。なお、「本実施形態の回答生成方式」では、上述した本実施形態によるセマンティクスでバイアスをかける処理を適用している。   Further, the “response generation method of the present embodiment” is a method of the learning processing unit 132, and “not attention” is used when the attention mechanism of the above-mentioned expression (2) is not used and “attention is used” when the attention mechanism is used. Is the evaluation result. In the “response generation method of the present embodiment”, the processing of applying the bias with the semantics according to the present embodiment described above is applied.

また、評価結果は、トップKに対する平均適合率APを示している、なお、平均適合率APは、以下の式(4)により算出される。   Further, the evaluation result shows the average precision rate AP for the top K. The average precision rate AP is calculated by the following equation (4).

Figure 0006680659
Figure 0006680659

ここで、Nは、ランクがK番目である場合に、トップjのうちの正しい回答の数を示し、Dは、(質問とペアにされる)全ての正しい回答の数を示している。 Here, N j indicates the number of correct answers in the top j when the rank is K, and D indicates the number of all correct answers (paired with the question).

また、評価の際に使用した学習情報は、Q&Aサービス「教えてgoo」において、「恋愛相談」、「旅行」、「医療」などを含む16個のカテゴリに蓄積された質問文及び回答文を使用している。また、部分項目は、「結論」及び「補足」の2つの場合である。   In addition, the learning information used at the time of evaluation is the question and answer sentences accumulated in 16 categories including “love consultation”, “travel”, “medical care”, etc. in the Q & A service “Teach me google”. I'm using it. Further, the partial items are two cases of "conclusion" and "supplement".

図6に示すように、本実施形態による手法を使用した「Sematic−LSTM」、及び「本実施形態の回答生成方式」(「アテンションなし」、「アテンションあり」)のいずれの場合も、従来技術の「QA−LSTM」よりも平均適合率APが高い。例えば、「本実施形態の回答生成方式」(「アテンションあり」)の平均適合率AP(K=1)の値は、“0.3901”であり、「QA−LSTM」の平均適合率AP(K=1)の値である“0.3262”よりも約20%高い値である。
また、上述したQ&Aサービス「教えてgoo」の恋愛相談において、123個に質問に対して、本実施形態による情報処理装置1により生成した回答文を適用した場合に、123個のうち、21個の回答文がベストアンサー(最適回答)に質問者によって選ばれた。
As shown in FIG. 6, in both cases of “Sematic-LSTM” using the method according to the present embodiment and “response generation method of the present embodiment” (“no attention”, “with attention”), the conventional technique is used. The average precision rate AP is higher than that of "QA-LSTM". For example, the value of the average precision rate AP (K = 1) of the “response generation method of the present embodiment” (“attention”) is “0.3901”, and the average precision rate AP of the “QA-LSTM” ( It is about 20% higher than "0.3262" which is the value of K = 1).
Further, in the love consultation of the Q & A service “Teach me goo” described above, when the answer sentence generated by the information processing apparatus 1 according to the present embodiment is applied to 123 questions, 21 of the 123 questions are applied. Was selected by the questioner as the best answer.

以上説明したように、本実施形態による情報処理装置1は、質問取得部133と、回答生成部134とを備える。質問取得部133は、入力された入力質問文を取得する。回答生成部134は、質問文と、回答文において、予め定められた文章の筋道により分割される複数の部分項目それぞれに対応する正解文及び不正解文との組を複数有する学習情報に基づいて、機械学習された学習結果に基づいて、質問取得部133によって取得された入力質問文に対する回答文を生成する。ここで、学習結果は、質問埋め込みベクトルO(質問中間ベクトル)と、複数の部分項目それぞれに対応した正解埋め込みベクトル(Oac+、Oas+)(正解中間ベクトル)と、複数の部分項目それぞれに対応した不正解埋め込みベクトル(Oac−、Oas−)(不正解中間ベクトル)と、の複数の部分項目の組合せに基づいて算出される損失関数Lにより最適化されて学習される。質問埋め込みベクトルOは、質問文を単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の単語の並び順に基づいて生成した双方向ベクトル列24(質問特徴ベクトル群)に基づいて、単語の並びを双方向に学習して生成される。正解埋め込みベクトル(Oac+、Oas+)は、正解文を単語ごとに変換された特徴ベクトルを双方向の単語の並び順に基づいて生成した双方向ベクトル列25(正解特徴ベクトル群)に基づいて、単語の並びを双方向に学習して生成される。不正解埋め込みベクトル(Oac−、Oas−)は、不正解文を単語ごとに変換された特徴ベクトルを双方向の単語の並び順に基づいて生成した双方向ベクトル列26(不正解特徴ベクトル群)に基づいて、単語の並びを双方向に学習して生成される。 As described above, the information processing device 1 according to the present embodiment includes the question acquisition unit 133 and the answer generation unit 134. The question acquisition unit 133 acquires the input input question text. The answer generation unit 134 is based on the learning information having a plurality of sets of question sentences and correct and incorrect sentences corresponding to each of a plurality of partial items in the answer sentence, which are divided according to a predetermined sentence path. An answer sentence to the input question sentence acquired by the question acquisition unit 133 is generated based on the learning result of the machine learning. Here, the learning result includes the question embedding vector O q (question intermediate vector), the correct answer embedding vectors (O ac + , O as + ) (correct answer intermediate vector) corresponding to each of the plurality of partial items, and each of the plurality of partial items. Learning is performed by optimization with a loss function L calculated based on a combination of a plurality of partial items of the corresponding incorrect answer embedding vector (O ac− , O as− ) (incorrect answer intermediate vector). The question embedding vector O q is a bidirectional vector sequence 24 (question feature vector group) in which a feature vector obtained by converting a question sentence for each word is generated based on a sequence of forward and backward bidirectional words arranged in time series. Based on, it is generated by learning the sequence of words in both directions. The correct answer embedding vector (O ac + , O as + ) is based on a bidirectional vector sequence 25 (correct answer feature vector group) generated based on a bidirectional word arrangement sequence of feature vectors obtained by converting correct sentences for each word. It is generated by learning the sequence of words in both directions. The incorrect answer embedding vector (O ac− , O as− ) is a bidirectional vector sequence 26 (incorrect answer characteristic vector group) generated based on the bidirectional word arrangement order of feature vectors obtained by converting an incorrect answer sentence for each word. ), It is generated by learning the sequence of words in both directions.

これにより、本実施形態による情報処理装置1は、学習結果に基づいて、各部分項目の回答のつながりを最適化して選択された各部分項目の回答文が結合されて、新たな回答文を作成することができる。よって、本実施形態による情報処理装置1は、質問に対して、違和感を低減した自然な文面の回答を生成することができる。   As a result, the information processing apparatus 1 according to the present embodiment creates a new answer sentence by combining the answer sentences of the selected partial items by optimizing the connection of the responses of the partial items based on the learning result. can do. Therefore, the information processing apparatus 1 according to the present embodiment can generate a natural text response with a reduced sense of discomfort for a question.

また、本実施形態では、例えば、上記の式(3)に基づいて、損失関数Lが算出される。損失関数Lは、各部分項目の組み合わせを同時に最適化するため、本実施形態による情報処理装置1は、回答文を生成するのに適切な部分項目を選択することができる。   Further, in the present embodiment, the loss function L is calculated based on, for example, the above equation (3). Since the loss function L optimizes the combination of the respective sub-items at the same time, the information processing apparatus 1 according to the present embodiment can select the sub-items suitable for generating the answer sentence.

また、本実施形態では、学習結果は、学習処理部132によって、質問文に含まれる単語の特徴ベクトルと、質問文に関連する用語の特徴ベクトルとを平均化して学習された追加ベクトル(例えば、カテゴリベクトル及びタイトルベクトル)に基づいて生成された、質問埋め込みベクトルO、正解埋め込みベクトル(Oac+、Oas+)、及び不正解埋め込みベクトル(Oac−、Oas−)に基づいて学習される。例えば、双方向ベクトル列24は、質問文と追加ベクトルとに基づいて変換され、双方向ベクトル列25は、正解文と追加ベクトルとに基づいて変換され、双方向ベクトル列26は、不正解文と追加ベクトルとに基づいて変換される。すなわち、学習結果は、学習処理部132によって、カテゴリによるセマンティクスでバイアスをかけて学習される。
これにより、本実施形態による情報処理装置1は、質問に対して、例えば、カテゴリに特化した回答を生成することができる。よって、本実施形態による情報処理装置1は、質問に対して、さらに最適な回答文を生成することができる。
Further, in the present embodiment, the learning result is an additional vector learned by averaging the feature vector of the word included in the question sentence and the feature vector of the term related to the question sentence by the learning processing unit 132 (for example, Learning is performed based on the question embedding vector O q , the correct answer embedding vector (O ac + , O as + ), and the incorrect answer embedding vector (O ac− , O as− ) generated based on the category vector and the title vector). . For example, the bidirectional vector sequence 24 is converted based on the question sentence and the additional vector, the bidirectional vector sequence 25 is converted based on the correct answer sentence and the additional vector, and the bidirectional vector sequence 26 is converted into the incorrect answer sentence. And the additional vector. That is, the learning result is learned by the learning processing unit 132 while biasing the semantics according to the category.
Thereby, the information processing apparatus 1 according to the present embodiment can generate, for example, a category-specific answer to a question. Therefore, the information processing apparatus 1 according to the present embodiment can generate a more optimal answer sentence for a question.

また、本実施形態では、学習結果は、学習処理部132によって、複数の部分項目のうちの第1の部分項目(例えば、「結論」)に対応する正解埋め込みベクトル(Oac+)及び不正解埋め込みベクトル(Oac−)に基づいて、第1の部分項目と異なる第2の部分項目(例えば、「補正」)に対応する双方向ベクトル列25−2及び双方向ベクトル列26−2が更新されて学習される。すなわち、学習処理部132は、上述した式(2)を用いたアテンションメカニズムにより、双方向ベクトル列25−2及び双方向ベクトル列26−2の各双方向ベクトル(h(t))を更新させて学習する。
これにより、本実施形態による情報処理装置1は、部分項目の間の関連(例えば、部分項目のつながり)を最適化した学習を行うことができる。そのため、本実施形態による情報処理装置1は、部分項目を組み合わせて、より自然な回答文を生成することができる。
Further, in the present embodiment, the learning result is obtained by the learning processing unit 132 as the correct answer embedding vector (O ac + ) and the incorrect answer embedding corresponding to the first partial item (for example, “conclusion”) of the plurality of partial items. The bidirectional vector sequence 25-2 and the bidirectional vector sequence 26-2 corresponding to the second partial item (for example, “correction”) different from the first partial item are updated based on the vector (O ac− ). Be learned. That is, the learning processing unit 132 updates each bidirectional vector (h (t)) of the bidirectional vector sequence 25-2 and the bidirectional vector sequence 26-2 by the attention mechanism using the above-described equation (2). To learn.
As a result, the information processing apparatus 1 according to the present embodiment can perform learning that optimizes the relationship between partial items (for example, the connection of partial items). Therefore, the information processing apparatus 1 according to the present embodiment can combine partial items to generate a more natural answer sentence.

また、本実施形態による情報処理装置1は、学習情報に基づいて機械学習し、学習結果を生成する学習処理部132を備える。
これにより、本実施形態による情報処理装置1は、自装置で学習して学習結果を生成することができる。また、本実施形態による情報処理装置1は、例えば、再学習して、質問に対する回答を改善することができる。
The information processing apparatus 1 according to the present embodiment also includes a learning processing unit 132 that performs machine learning based on learning information and generates a learning result.
Thereby, the information processing apparatus 1 according to the present embodiment can learn by itself and generate a learning result. Further, the information processing apparatus 1 according to the present embodiment can improve the answer to the question by re-learning, for example.

なお、学習処理部132は、所定の条件(例えば、定期的、あるいは、平均適合率APが所定の値以下に低下した、など)に基づいて、学習結果を再学習してもよい。
これにより、本実施形態による情報処理装置1は、時間の変化に対応して、質問に対する回答を改善することができる。
Note that the learning processing unit 132 may re-learn the learning result based on a predetermined condition (for example, periodically or when the average matching rate AP drops below a predetermined value).
As a result, the information processing apparatus 1 according to the present embodiment can improve the answer to the question in response to the change in time.

また、本実施形態による情報処理方法は、質問取得ステップと、回答生成ステップとを含む。質問取得ステップにおいて、質問取得部133が、入力された入力質問文を取得する。回答生成ステップにおいて、回答生成部134が、質問文と、回答文において、予め定められた文章の筋道により分割される複数の部分項目それぞれに対応する正解文及び不正解文との組を複数有する学習情報に基づいて、機械学習された上述した学習結果に基づいて、質問取得ステップによって取得された入力質問文に対する回答文を生成する。
これにより、本実施形態による情報処理方法は、上述した情報処理装置1と同様の効果を奏し、質問に対して、違和感を低減した自然な文面の回答を生成することができる。
Further, the information processing method according to the present embodiment includes a question acquisition step and an answer generation step. In the question acquisition step, the question acquisition unit 133 acquires the input input question text. In the answer generation step, the answer generation unit 134 has a plurality of sets of a question sentence and a correct sentence and an incorrect sentence corresponding to each of a plurality of partial items in the answer sentence divided by a predetermined sentence path. Based on the learning information, the answer sentence to the input question sentence acquired in the question obtaining step is generated based on the above-described learning result that is machine-learned.
As a result, the information processing method according to the present embodiment has the same effect as that of the information processing apparatus 1 described above, and can generate a natural text answer with a reduced sense of discomfort to a question.

なお、本発明は、上記の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
例えば、上記の実施形態において、情報処理装置1は、学習処理部132を備える例を説明したが、これに限定されるものではなく、学習結果を取得できる状態であれば、学習処理部132を備えなくてもよい。
It should be noted that the present invention is not limited to the above-described embodiment, and can be modified within a range not departing from the spirit of the present invention.
For example, although the information processing apparatus 1 includes the learning processing unit 132 in the above-described embodiment, the information processing apparatus 1 is not limited to this. It does not have to be provided.

また、情報処理装置1は、サービス記憶部121と、学習結果記憶部122とを備える例を説明したが、サービス記憶部121と、学習結果記憶部122とのいずれか一方又は両方を、例えば、外部のサーバ装置が備えるようにしてもよい。また、情報処理装置1は、制御部13が備える機能部の一部を外部のサーバ装置が備えるようにしてもよい。
なお、上記の実施形態において、情報処理装置1は、1台のサーバ装置により構成される例を説明したが、複数の装置により構成されてもよい。
Further, although the information processing apparatus 1 has been described with reference to the example including the service storage unit 121 and the learning result storage unit 122, one or both of the service storage unit 121 and the learning result storage unit 122 may be, for example, It may be provided in an external server device. Further, in the information processing device 1, an external server device may include a part of the functional units included in the control unit 13.
In the above embodiment, the information processing device 1 has been described as an example including one server device, but may include a plurality of devices.

また、上記の実施形態において、情報処理装置1は、回答文を「結論」及び「補足」の2つの部分項目により構成する場合の一例を説明したが、これに限定されるものではなく、3つ以上の部分項目に対応させてもよい。
また、上記の実施形態において、情報処理装置1は、部分項目ごとにQA−LSTM部20を備える手法と、カテゴリによるセマンティクスでバイアスをかけて学習される手法と、アテンションメカニズムによる手法とを適用する例を説明したが、これに限定されるものではない。情報処理装置1は、例えば、これらの手法の一部を適用しない形態であってもよいし、これらの手法のうちの1つを適用形態であってもよい。
Further, in the above embodiment, the information processing apparatus 1 has described an example in which the answer sentence is composed of two partial items of “conclusion” and “supplement”, but the present invention is not limited to this. You may correspond to one or more partial items.
Further, in the above-described embodiment, the information processing apparatus 1 applies the method including the QA-LSTM section 20 for each partial item, the method in which the semantics by category is biased to learn, and the method by the attention mechanism. Although an example has been described, the present invention is not limited to this. The information processing device 1 may be, for example, a mode in which some of these methods are not applied, or may be in a mode in which one of these methods is applied.

なお、上述した情報処理装置1が備える各構成は、内部に、コンピュータシステムを有している。そして、上述した情報処理装置1が備える各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述した情報処理装置1が備える各構成における処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD−ROM等の非一過性の記録媒体であってもよい。
Each configuration included in the above-described information processing device 1 has a computer system inside. Then, a program for realizing the function of each configuration included in the above-described information processing apparatus 1 is recorded in a computer-readable recording medium, and the program recorded in this recording medium is read into a computer system and executed. The processing in each configuration included in the information processing apparatus 1 described above may be performed according to. Here, “reading and executing a program recorded in a recording medium on a computer system” includes installing the program in the computer system. The "computer system" here includes an OS and hardware such as peripheral devices.
Further, the “computer system” may include a plurality of computer devices connected via a network including the Internet, WAN, LAN, and a communication line such as a dedicated line. The "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in a computer system. As described above, the recording medium storing the program may be a non-transitory recording medium such as a CD-ROM.

また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部又は外部に設けられた記録媒体も含まれる。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に情報処理装置1が備える各構成で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。   The recording medium also includes a recording medium provided inside or outside accessible from the distribution server for distributing the program. It should be noted that a configuration in which the programs are divided into a plurality of pieces and downloaded at different timings and then combined in the configurations provided in the information processing apparatus 1 or a distribution server that distributes each of the divided programs may be different. Further, the "computer-readable recording medium" holds a program for a certain period of time, such as a volatile memory (RAM) inside a computer system which is a server or a client when the program is transmitted via a network. It also includes things. Further, the program may be for realizing some of the functions described above. Further, it may be a so-called difference file (difference program) that can realize the above-mentioned functions in combination with a program already recorded in the computer system.

また、上述した機能の一部又は全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。上述した各機能は個別にプロセッサ化してもよいし、一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、又は汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。   Further, some or all of the above-mentioned functions may be realized as an integrated circuit such as an LSI (Large Scale Integration). Each of the functions described above may be individually implemented as a processor, or a part or all of the functions may be integrated and implemented as a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. In addition, when a technology for forming an integrated circuit that replaces LSI appears due to the progress of semiconductor technology, an integrated circuit according to the technology may be used.

1 情報処理装置
2 端末装置
10 ベクトル変換部
11 NW通信部
12 記憶部
13 制御部
20、20−1、20−2 QA−LSTM部
21、21−1、21−2 質問埋め込みベクトル生成部
22、22−1、22−2 正解埋め込みベクトル生成部
23、23−1、23−2 不正解埋め込みベクトル生成部
24、24−1、24−2、25、25−1、25−2、26、26−1、26−2 双方向ベクトル列
30 損失関数生成部
100 情報処理システム
121 サービス記憶部
122 学習結果記憶部
131 サービス提供部
132 学習処理部
133 質問取得部
134 回答生成部
NW1 ネットワーク
DESCRIPTION OF SYMBOLS 1 Information processing apparatus 2 Terminal device 10 Vector conversion part 11 NW communication part 12 Storage part 13 Control part 20, 20-1, 20-2 QA-LSTM part 21, 21-1, 21-2 Question embedded vector generation part 22, 22-1, 22-2 Correct embedded vector generation unit 23, 23-1, 23-2 Incorrect embedded vector generation unit 24, 24-1, 24-2, 25, 25-1, 25-2, 26, 26 -1,26-2 Bidirectional vector sequence 30 Loss function generation unit 100 Information processing system 121 Service storage unit 122 Learning result storage unit 131 Service providing unit 132 Learning processing unit 133 Question acquisition unit 134 Answer generation unit NW1 network

Claims (7)

入力された入力質問文を取得する質問取得部と、
質問文と、回答文において、予め定められた文章の筋道により分割される複数の部分項目それぞれに対応する正解文及び不正解文との組を複数有する学習情報に基づいて、機械学習された学習結果に基づいて、前記質問取得部によって取得された前記入力質問文に対する回答文を生成する回答生成部と
を備え、
前記学習結果は、
前記質問文を単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の前記単語の並び順に基づいて生成した質問特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された質問中間ベクトルと、
前記複数の部分項目それぞれに対応した正解中間ベクトルであって、前記正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された正解中間ベクトルと、
前記複数の部分項目それぞれに対応した不正解中間ベクトルであって、前記不正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した不正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された不正解中間ベクトルと
の前記複数の部分項目の組合せに基づいて算出される損失関数により最適化されて学習される
ことを特徴とする情報処理装置。
A question acquisition unit that acquires the input input question text,
Machine-learned learning based on learning information having a plurality of pairs of correct and incorrect sentences corresponding to a plurality of sub-items divided by a predetermined sentence path in a question sentence and an answer sentence An answer generation unit that generates an answer sentence to the input question sentence acquired by the question acquisition unit based on the result,
The learning result is
Based on a question feature vector group generated by converting the question sentence for each word into a sequence of forward and backward bidirectional sequences of words in a time series, the sequence of the words is defined as the bidirectional sequence. The question intermediate vector generated by learning
A correct intermediate vector corresponding to each of the plurality of sub-items, based on a correct characteristic vector group generated based on the arrangement order of the bidirectional words of the characteristic vector converted the correct sentence for each word, A correct answer intermediate vector generated by learning the sequence of the words in the two directions,
An incorrect answer intermediate vector corresponding to each of the plurality of sub-items, wherein a feature vector obtained by converting the incorrect answer sentence into words is generated in an incorrect answer feature vector group based on the arrangement order of the bidirectional words. On the basis of the loss function calculated based on the combination of the plurality of partial items with the incorrect intermediate vector generated by learning the word sequence bidirectionally, the learning is performed by being optimized. Information processing device.
前記学習結果は、
前記質問文に含まれる単語の特徴ベクトルと、前記質問文に関連する用語の特徴ベクトルとを平均化して学習された追加ベクトルに基づいて生成された、前記質問中間ベクトル、前記正解中間ベクトル、及び不正解中間ベクトルに基づいて学習される
ことを特徴とする請求項1に記載の情報処理装置。
The learning result is
A feature vector of a word included in the question sentence and a feature vector of a term related to the question sentence are generated based on an additional vector learned by averaging, the question intermediate vector, the correct intermediate vector, and The information processing apparatus according to claim 1, wherein learning is performed based on an incorrect answer intermediate vector.
前記質問特徴ベクトル群は、前記質問文と前記追加ベクトルとに基づいて変換され、
前記正解特徴ベクトル群は、前記正解文と前記追加ベクトルとに基づいて変換され、
前記不正解特徴ベクトル群は、前記不正解文と前記追加ベクトルとに基づいて変換される
ことを特徴とする請求項2に記載の情報処理装置。
The question feature vector group is converted based on the question sentence and the additional vector,
The correct answer feature vector group is converted based on the correct answer sentence and the additional vector,
The information processing device according to claim 2, wherein the incorrect solution feature vector group is converted based on the incorrect solution sentence and the additional vector.
前記学習結果は、
前記複数の部分項目のうちの第1の部分項目に対応する前記正解中間ベクトル及び前記不正解中間ベクトルに基づいて、前記第1の部分項目と異なる第2の部分項目に対応する正解特徴ベクトル群及び不正解特徴ベクトル群が更新されて学習される
ことを特徴とする請求項1から請求項3のいずれか一項に記載の情報処理装置。
The learning result is
A correct answer feature vector group corresponding to a second partial item different from the first partial item based on the correct intermediate vector and the incorrect intermediate vector corresponding to the first partial item of the plurality of partial items The incorrect information feature vector group is updated and learned. The information processing device according to claim 1.
前記学習情報に基づいて機械学習し、前記学習結果を生成する学習処理部を備える
ことを特徴とする請求項1から請求項4のいずれか一項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 4, further comprising a learning processing unit that performs machine learning based on the learning information and generates the learning result.
質問取得部が、入力された入力質問文を取得する質問取得ステップと、
回答生成部が、質問文と、回答文において、予め定められた文章の筋道により分割される複数の部分項目それぞれに対応する正解文及び不正解文との組を複数有する学習情報に基づいて、機械学習された学習結果に基づいて、前記質問取得ステップによって取得された前記入力質問文に対する回答文を生成する回答生成ステップと
を含み、
前記学習結果は、
前記質問文を単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の前記単語の並び順に基づいて生成した質問特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された質問中間ベクトルと、
前記複数の部分項目それぞれに対応した正解中間ベクトルであって、前記正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された正解中間ベクトルと、
前記複数の部分項目それぞれに対応した不正解中間ベクトルであって、前記不正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した不正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された不正解中間ベクトルと
の前記複数の部分項目の組合せに基づいて算出される損失関数により最適化されて学習される
ことを特徴とする情報処理方法。
A question acquisition step in which the question acquisition unit acquires the input input question text,
The answer generation unit, based on the learning information having a plurality of pairs of correct sentence and incorrect sentence corresponding to each of a plurality of sub-items divided by a predetermined sentence course in the question sentence and the answer sentence, An answer generation step of generating an answer sentence to the input question sentence obtained by the question obtaining step based on a learning result machine-learned,
The learning result is
Based on a question feature vector group generated by converting the question sentence for each word into a sequence of forward and backward bidirectional sequences of words in a time series, the sequence of the words is defined as the bidirectional sequence. The question intermediate vector generated by learning
A correct intermediate vector corresponding to each of the plurality of sub-items, based on a correct characteristic vector group generated based on the arrangement order of the bidirectional words of the characteristic vector converted the correct sentence for each word, A correct answer intermediate vector generated by learning the sequence of the words in the two directions,
An incorrect answer intermediate vector corresponding to each of the plurality of sub-items, wherein a feature vector obtained by converting the incorrect answer sentence into words is generated in an incorrect answer feature vector group based on the arrangement order of the bidirectional words. On the basis of the loss function calculated based on the combination of the plurality of partial items with the incorrect intermediate vector generated by learning the word sequence bidirectionally, the learning is performed by being optimized. Information processing method.
コンピュータに、
質問取得部が、入力された入力質問文を取得する質問取得ステップと、
回答生成部が、質問文と、回答文において、予め定められた文章の筋道により分割される複数の部分項目それぞれに対応する正解文及び不正解文との組を複数有する学習情報に基づいて、機械学習された学習結果に基づいて、前記質問取得ステップによって取得された前記入力質問文に対する回答文を生成する回答生成ステップと
を実行させるためのプログラムであり、
前記学習結果は、
前記質問文を単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の前記単語の並び順に基づいて生成した質問特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された質問中間ベクトルと、
前記複数の部分項目それぞれに対応した正解中間ベクトルであって、前記正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された正解中間ベクトルと、
前記複数の部分項目それぞれに対応した不正解中間ベクトルであって、前記不正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した不正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された不正解中間ベクトルと
の前記複数の部分項目の組合せに基づいて算出される損失関数により最適化されて学習される
ことを特徴とするプログラム。
On the computer,
A question acquisition step in which the question acquisition unit acquires the input input question text,
The answer generation unit, based on the learning information having a plurality of pairs of correct sentence and incorrect sentence corresponding to each of a plurality of sub-items divided by a predetermined sentence course in the question sentence and the answer sentence, A program for executing an answer generation step of generating an answer sentence to the input question sentence acquired by the question acquisition step, based on a learning result machine-learned,
The learning result is
Based on a question feature vector group generated by converting the question sentence for each word into a sequence of forward and backward bidirectional sequences of words in a time series, the sequence of the words is defined as the bidirectional sequence. The question intermediate vector generated by learning
A correct intermediate vector corresponding to each of the plurality of sub-items, based on a correct characteristic vector group generated based on the arrangement order of the bidirectional words of the characteristic vector converted the correct sentence for each word, A correct answer intermediate vector generated by learning the sequence of the words in the two directions,
An incorrect answer intermediate vector corresponding to each of the plurality of sub-items, wherein a feature vector obtained by converting the incorrect answer sentence into words is generated in an incorrect answer feature vector group based on the arrangement order of the bidirectional words. On the basis of the loss function calculated based on the combination of the plurality of partial items with the incorrect intermediate vector generated by learning the word sequence bidirectionally, the learning is performed by being optimized. And the program.
JP2016195731A 2016-10-03 2016-10-03 Information processing device, information processing method, and program Active JP6680659B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016195731A JP6680659B2 (en) 2016-10-03 2016-10-03 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016195731A JP6680659B2 (en) 2016-10-03 2016-10-03 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2018060273A JP2018060273A (en) 2018-04-12
JP6680659B2 true JP6680659B2 (en) 2020-04-15

Family

ID=61909920

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016195731A Active JP6680659B2 (en) 2016-10-03 2016-10-03 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP6680659B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7149560B2 (en) * 2018-04-13 2022-10-07 国立研究開発法人情報通信研究機構 Request translation system, training method for request translation model and request judgment model, and dialogue system
JP2020052858A (en) * 2018-09-28 2020-04-02 大和ハウス工業株式会社 Information management system
CN111309875B (en) * 2018-12-10 2023-08-04 百度在线网络技术(北京)有限公司 Method, device, equipment and storage medium for answering questions
WO2020174826A1 (en) * 2019-02-25 2020-09-03 日本電信電話株式会社 Answer generating device, answer learning device, answer generating method, and answer generating program
CN110222345A (en) * 2019-06-18 2019-09-10 卓尔智联(武汉)研究院有限公司 Cloze Test answer method, apparatus, electronic equipment and storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5431532B2 (en) * 2012-06-08 2014-03-05 日本電信電話株式会社 Question answering apparatus, model learning apparatus, method, and program
US10387430B2 (en) * 2015-02-26 2019-08-20 International Business Machines Corporation Geometry-directed active question selection for question answering systems

Also Published As

Publication number Publication date
JP2018060273A (en) 2018-04-12

Similar Documents

Publication Publication Date Title
JP6680659B2 (en) Information processing device, information processing method, and program
JP6871809B2 (en) Information processing equipment, information processing methods, and programs
US20190005399A1 (en) Learning device, generation device, learning method, generation method, and non-transitory computer readable storage medium
Ma et al. Classification of power quality disturbances via deep learning
Heiss Structural choice analysis with nested logit models
JPWO2020174826A1 (en) Answer generator, answer learning device, answer generation method, and answer generation program
JP6611053B2 (en) Subject estimation system, subject estimation method and program
CN116756579B (en) Training method of large language model and text processing method based on large language model
Singh et al. Learn TensorFlow 2.0: Implement Machine Learning and Deep Learning Models with Python
Han et al. Curiosity‐driven recommendation strategy for adaptive learning via deep reinforcement learning
JP2017199355A (en) Recommendation generation
Potapov et al. Universal empathy and ethical bias for artificial general intelligence
CN112000788A (en) Data processing method and device and computer readable storage medium
Demirtas et al. Concurrent generation of ordinal and normal data
Bao et al. Safe control of nonlinear systems in LPV framework using model-based reinforcement learning
US20190122117A1 (en) Learning device, non-transitory computer readable storage medium, and learning method
Liebert Communicative strategies of popularization of science (including science exhibitions, museums, magazines)
JP6955392B2 (en) Decision device, decision method, and decision program
Fry The engineering of cybernetic systems
JP2019096189A (en) Music selection apparatus, method for selecting music, and program
Taniguchi et al. Active exploration based on information gain by particle filter for efficient spatial concept formation
JP7088795B2 (en) Information processing equipment, information processing methods, and programs
CN113961796A (en) Mobile internet-based education platform interaction method and system and electronic equipment
WO2023112169A1 (en) Training method, estimation method, training device, estimation device, training program, and estimation program
Inagawa et al. A support system for healthy eating habits: Optimization of recipe retrieval

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20161014

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200319

R150 Certificate of patent or registration of utility model

Ref document number: 6680659

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250