JP2018206307A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2018206307A
JP2018206307A JP2017114483A JP2017114483A JP2018206307A JP 2018206307 A JP2018206307 A JP 2018206307A JP 2017114483 A JP2017114483 A JP 2017114483A JP 2017114483 A JP2017114483 A JP 2017114483A JP 2018206307 A JP2018206307 A JP 2018206307A
Authority
JP
Japan
Prior art keywords
sentence
answer
learning
question
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017114483A
Other languages
Japanese (ja)
Other versions
JP6871809B2 (en
Inventor
真 中辻
Makoto Nakatsuji
真 中辻
伊東 久
Hisashi Ito
久 伊東
毘蘆 呉
Pilu Wu
毘蘆 呉
翔太 相樂
Shota Sagara
翔太 相樂
明久 藤田
Akihisa Fujita
明久 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Resonant Inc
Original Assignee
NTT Resonant Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Resonant Inc filed Critical NTT Resonant Inc
Priority to JP2017114483A priority Critical patent/JP6871809B2/en
Publication of JP2018206307A publication Critical patent/JP2018206307A/en
Application granted granted Critical
Publication of JP6871809B2 publication Critical patent/JP6871809B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To generate an answer of a natural text obtained by reducing discomfort for a question.SOLUTION: An information processing device includes an answer generation part for generating an answer sentence to an input question sentence on the basis of a machine-learned learning result. The learning result generates a context vector by encoding a question sentence on the basis of an alignment sequence of sequential words by one word at a time, and is learned by being optimized by a loss function calculated by combining an encoder/decoder model for performing learning by decoding a known partial answer sentence in each of a plurality of partial items on the basis of the generated context vector and a sentence unit learning model for performing learning on the basis of a combination of a plurality of partial items of a question intermediate vector generated by learning on the basis of alignment sequence of bidirectional words of the question sentence with set information including a partial answer sentence and a question sentence decoded on the basis of the encoder/decoder model and an answer intermediate vector generated by learning on the basis of alignment sequence of bidirectional words of the partial answer sentence, respectively corresponding to each of the plurality of partial items.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program.

近年、機械学習(例えば、深層学習(Deep Learning)手法)を利用して、入力された質問に対して、回答を出力する技術が知られている(例えば、非特許文献1を参照)。このような従来技術を用いた情報処理装置では、例えば、過去に蓄積された回答などの予め用意された既知の回答のうちから、適切であると推定された回答が選択されて出力される。   In recent years, a technique for outputting an answer to an inputted question using machine learning (for example, deep learning technique) is known (for example, see Non-Patent Document 1). In such an information processing apparatus using the conventional technology, for example, an answer estimated to be appropriate is selected and output from previously prepared answers such as answers accumulated in the past.

Tan M, Xiang B, Zhou B, “LSTM-BASED DEEP LEARNING MODELS FOR NONFACTOID ANSWER SELECTION”1511.04108v1, 12 Nov 2015Tan M, Xiang B, Zhou B, “LSTM-BASED DEEP LEARNING MODELS FOR NONFACTOID ANSWER SELECTION” 1511.04108v1, 12 Nov 2015

しかしながら、上述した従来の情報処理装置では、例えば、質問が理由や事象の説明に基づく回答を求めるNon-Factoid型質問である場合に、回答が複雑な長文になるが、質問に対して、予め用意された既知の回答が出力されるため、新たな回答を生成することは困難である。そのため、上述した従来の情報処理装置では、質問に対して、文面に違和感のある不自然な回答が出力される場合があった。   However, in the above-described conventional information processing apparatus, for example, when the question is a non-factorial type question that asks for an answer based on the explanation of the reason or the event, the answer becomes a complicated long sentence. Since a prepared known answer is output, it is difficult to generate a new answer. For this reason, in the conventional information processing apparatus described above, an unnatural answer with an uncomfortable feeling may be output to the question.

本発明は、上記問題を解決すべくなされたもので、その目的は、質問に対して、違和感を低減した自然な文面の回答を生成することができる情報処理装置、情報処理方法、及びプログラムを提供することにある。   The present invention has been made to solve the above problems, and an object of the present invention is to provide an information processing apparatus, an information processing method, and a program capable of generating a natural sentence answer with reduced discomfort for a question. It is to provide.

上記問題を解決するために、本発明の一態様は、入力された入力質問文を取得する質問取得部と、質問文と、回答文において、予め定められた文章の筋道により分割される複数の部分項目それぞれに対応する既知の部分回答文との組を複数有する学習情報に基づいて機械学習された学習結果に基づいて、前記質問取得部によって取得された前記入力質問文に対する回答文を生成する回答生成部とを備え、前記学習結果は、前記質問文を1単語ずつ順次単語の並び順に基づいてエンコードして文脈ベクトルを生成し、生成した前記文脈ベクトルに基づいて、前記複数の部分項目ごとの前記既知の部分回答文をデコードして学習するエンコーダデコーダモデルと、前記エンコーダデコーダモデルに基づいてデコードされた前記複数の部分項目ごとの部分回答文と、前記質問文とを含む組情報を入力情報として、前記質問文を前記単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の前記単語の並び順に基づいて生成した質問特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された質問中間ベクトルと、前記複数の部分項目それぞれに対応した回答中間ベクトルであって、前記部分回答文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した回答特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された回答中間ベクトルと、の前記複数の部分項目の組合せに基づいて学習する文単位学習モデルと、を組み合わせて算出される損失関数により最適化されて学習されることを特徴とする情報処理装置である。   In order to solve the above-described problem, an aspect of the present invention provides a question acquisition unit that acquires an input question sentence that is input, a question sentence, and answer sentences that are divided by a predetermined sentence path. Generate an answer sentence for the input question sentence acquired by the question acquisition unit based on a learning result machine-learned based on learning information having a plurality of pairs with known partial answer sentences corresponding to the respective partial items. An answer generation unit, wherein the learning result is generated by encoding the question sentence one word at a time based on the word arrangement order, and generating a context vector, and for each of the plurality of partial items based on the generated context vector An encoder / decoder model that decodes and learns the known partial response sentence, and each of the plurality of partial items decoded based on the encoder / decoder model Based on the combination information including the partial answer sentence and the question sentence as input information, the feature vector obtained by converting the question sentence for each word is based on the arrangement order of the words in both the forward and reverse directions in time series. A question intermediate vector generated by bi-directional learning of the word sequence based on the question feature vector group generated in response, and an answer intermediate vector corresponding to each of the plurality of partial items, the partial answer An answer intermediate vector generated by learning the word sequence bidirectionally based on an answer feature vector group generated based on the bidirectional order of the words. And a sentence unit learning model that learns based on a combination of the plurality of sub-items, and is learned by being optimized by a loss function that is calculated in combination. It is an information processing apparatus.

また、本発明の一態様は、上記の情報処理装置において、前記文単位学習モデルは、前記エンコーダデコーダモデルの途中学習結果及び前記文脈ベクトルに基づいて生成した回答文を前記部分回答文とし、当該部分回答文と前記質問文とを含む組情報を前記入力情報として学習することを特徴とする。   Further, according to one aspect of the present invention, in the information processing apparatus, the sentence unit learning model uses an answer sentence generated based on an intermediate learning result of the encoder decoder model and the context vector as the partial answer sentence, A group information including a partial answer sentence and the question sentence is learned as the input information.

また、本発明の一態様は、上記の情報処理装置において、前記エンコーダデコーダモデルは、前記既知の部分回答文における単語ごとに関連するトピック情報に基づいて、前記既知の部分回答文をデコードして学習することを特徴とする。   According to another aspect of the present invention, in the information processing apparatus, the encoder decoder model decodes the known partial answer sentence based on topic information related to each word in the known partial answer sentence. It is characterized by learning.

また、本発明の一態様は、上記の情報処理装置において、前記既知の回答文には、前記質問文に対する正解文と、不正解文とが含まれ、前記回答生成部は、前記質問文と、前記複数の部分項目それぞれに対応する前記正解文及び前記不正解文との組を複数有する前記学習情報に基づいて機械学習された前記学習結果に基づいて、前記回答文を生成し、前記エンコーダデコーダモデルは、前記文脈ベクトルに基づいて、前記複数の部分項目ごとの前記正解文及び前記不正解文をデコードして学習し、前記文単位学習モデルは、前記質問中間ベクトルと、前記複数の部分項目それぞれに対応した正解中間ベクトルであって、前記正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された正解中間ベクトルと、前記複数の部分項目それぞれに対応した不正解中間ベクトルであって、前記不正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した不正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された不正解中間ベクトルと、の前記複数の部分項目の組合せに基づいて学習することを特徴とする。   Further, according to one aspect of the present invention, in the information processing apparatus, the known answer sentence includes a correct answer sentence and an incorrect answer sentence with respect to the question sentence, and the answer generation unit includes the question sentence and Generating the answer sentence based on the learning result machine-learned based on the learning information having a plurality of sets of the correct answer sentence and the incorrect answer sentence corresponding to each of the plurality of partial items, and the encoder The decoder model decodes and learns the correct sentence and the incorrect sentence for each of the plurality of partial items based on the context vector, and the sentence unit learning model includes the question intermediate vector, the plurality of partial parts Correct feature vectors corresponding to each item, wherein the correct feature vectors are generated based on the bi-directional order of the words. A correct answer intermediate vector generated by learning the word sequence bidirectionally and an incorrect answer intermediate vector corresponding to each of the plurality of partial items, wherein the incorrect answer sentence is converted for each word. A plurality of incorrect answer intermediate vectors generated by learning the word arrangement bidirectionally based on an incorrect answer feature vector group generated based on the bidirectional word arrangement order. Learning based on a combination of the partial items.

また、本発明の一態様は、上記の情報処理装置において、前記学習結果は、前記複数の部分項目のうちの第1の部分項目に対応する前記正解中間ベクトル及び前記不正解中間ベクトルに基づいて、前記第1の部分項目と異なる第2の部分項目に対応する正解特徴ベクトル群及び不正解特徴ベクトル群が更新されて学習されることを特徴とする。   According to another aspect of the present invention, in the information processing apparatus, the learning result is based on the correct intermediate vector and the incorrect intermediate vector corresponding to the first partial item of the plurality of partial items. The correct feature vector group and the incorrect feature vector group corresponding to the second partial item different from the first partial item are updated and learned.

また、本発明の一態様は、上記の情報処理装置において、前記学習情報に基づいて機械学習し、前記学習結果を生成する学習処理部を備えることを特徴とする。   Further, according to one embodiment of the present invention, the information processing apparatus includes a learning processing unit that performs machine learning based on the learning information and generates the learning result.

また、本発明の一態様は、質問取得部が、入力された入力質問文を取得する質問取得ステップと、回答生成部が、質問文と、回答文において、予め定められた文章の筋道により分割される複数の部分項目それぞれに対応する既知の部分回答文との組を複数有する学習情報に基づいて機械学習された学習結果に基づいて、前記質問取得ステップによって取得された前記入力質問文に対する回答文を生成する回答生成ステップとを含み、前記学習結果は、前記質問文を1単語ずつ順次単語の並び順に基づいてエンコードして文脈ベクトルを生成し、生成した前記文脈ベクトルに基づいて、前記複数の部分項目ごとの前記既知の部分回答文をデコードして学習するエンコーダデコーダモデルと、前記エンコーダデコーダモデルに基づいてデコードされた前記複数の部分項目ごとの部分回答文と、前記質問文とを含む組情報を入力情報として、前記質問文を前記単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の前記単語の並び順に基づいて生成した質問特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された質問中間ベクトルと、前記複数の部分項目それぞれに対応した回答中間ベクトルであって、前記部分回答文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した回答特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された回答中間ベクトルと、の前記複数の部分項目の組合せに基づいて学習する文単位学習モデルと、を組み合わせて算出される損失関数により最適化されて学習されることを特徴とする情報処理方法である。   Further, according to one aspect of the present invention, the question acquisition unit acquires the input question sentence that has been input, and the answer generation unit divides the question sentence and the answer sentence according to a predetermined sentence path Answer to the input question sentence acquired by the question acquisition step based on learning results machine-learned based on learning information having a plurality of pairs with known partial answer sentences corresponding to each of the plurality of partial items An answer generation step of generating a sentence, wherein the learning result is obtained by encoding the question sentence one word at a time based on the word arrangement order to generate a context vector, and based on the generated context vector, An encoder / decoder model that decodes and learns the known partial response sentence for each sub-item, and is decoded based on the encoder / decoder model. In addition, the group information including the partial answer sentence for each of the plurality of partial items and the question sentence is used as input information, and the feature vector obtained by converting the question sentence for each word is used in both the forward and reverse directions in time series. A question intermediate vector generated by learning the word arrangement bidirectionally based on a question feature vector group generated on the basis of the arrangement order of the words in the direction, and an intermediate answer corresponding to each of the plurality of partial items Learning the word sequence bidirectionally based on a response feature vector group, which is a vector and the feature vector obtained by converting the partial answer sentence into words is generated based on the bidirectional word sequence. And a sentence unit learning model that learns based on the combination of the plurality of partial items of the answer intermediate vector generated An information processing method characterized in that it is learned.

また、本発明の一態様は、コンピュータに、入力された入力質問文を取得する質問取得ステップと、質問文と、回答文において、予め定められた文章の筋道により分割される複数の部分項目それぞれに対応する既知の部分回答文との組を複数有する学習情報に基づいて機械学習された学習結果に基づいて、前記質問取得ステップによって取得された前記入力質問文に対する回答文を生成する回答生成ステップとを実行させるためのプログラムであり、前記学習結果は、前記質問文を1単語ずつ順次単語の並び順に基づいてエンコードして文脈ベクトルを生成し、生成した前記文脈ベクトルに基づいて、前記複数の部分項目ごとの前記既知の部分回答文をデコードして学習するエンコーダデコーダモデルと、前記エンコーダデコーダモデルに基づいてデコードされた前記複数の部分項目ごとの部分回答文と、前記質問文とを含む組情報を入力情報として、前記質問文を前記単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の前記単語の並び順に基づいて生成した質問特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された質問中間ベクトルと、前記複数の部分項目それぞれに対応した回答中間ベクトルであって、前記部分回答文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した回答特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された回答中間ベクトルと、の前記複数の部分項目の組合せに基づいて学習する文単位学習モデルと、を組み合わせて算出される損失関数により最適化されて学習されることを特徴とするプログラムである。   Further, according to one aspect of the present invention, each of a plurality of partial items divided by a predetermined sentence path in a question acquisition step, a question sentence, and an answer sentence for acquiring an input question sentence input to a computer An answer generation step of generating an answer sentence for the input question sentence acquired by the question acquisition step based on a learning result machine-learned based on learning information having a plurality of pairs with known partial answer sentences corresponding to The learning result is obtained by encoding the question sentence one word at a time based on the word arrangement order to generate a context vector, and on the basis of the generated context vector, An encoder / decoder model for decoding and learning the known partial response sentence for each partial item, and an encoder / decoder model based on the encoder / decoder model The group information including the partial answer sentence for each of the plurality of partial items decoded and the question sentence is used as input information, and the feature vector obtained by converting the question sentence for each word is used as the forward and reverse time series. Corresponding to each of the plurality of partial items and the question intermediate vector generated by learning the word arrangement bidirectionally based on the question feature vector group generated based on the word arrangement order of the bidirectional directions An answer intermediate vector, wherein the partial answer sentence is converted for each word based on an answer feature vector group generated based on the bidirectional order of the word order, Loss function calculated by combining an answer intermediate vector generated by learning in a direction and a sentence unit learning model that learns based on a combination of the plurality of partial items Is a program characterized in that it is learned more optimized.

本発明によれば、質問に対して、違和感を低減した自然な文面の回答を生成することができる。   ADVANTAGE OF THE INVENTION According to this invention, the reply of the natural sentence which reduced discomfort can be produced | generated with respect to a question.

本実施形態による情報処理システムの一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the information processing system by this embodiment. 本実施形態における学習モデルの一例を説明する図である。It is a figure explaining an example of the learning model in this embodiment. 本実施形態におけるデコーダモデルの一例を説明する図である。It is a figure explaining an example of the decoder model in this embodiment. 本実施形態における学習処理部及び学習処理の一例を説明する図である。It is a figure explaining an example of the learning process part in this embodiment, and a learning process. 本実施形態におけるエンコーダデコーダモデルの一例を説明する図である。It is a figure explaining an example of the encoder decoder model in this embodiment. 本実施形態における学習処理の一例を示すフローチャートである。It is a flowchart which shows an example of the learning process in this embodiment. 本実施形態における情報処理装置の質問文から回答文を生成する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which produces | generates an answer sentence from the question sentence of the information processing apparatus in this embodiment. 本実施形態における回答生成方式と、従来技術との比較を示す図である。It is a figure which shows the comparison with the reply production | generation method in this embodiment, and a prior art. 本実施形態における情報処理装置が生成した回答文の一例を説明する図である。It is a figure explaining an example of the reply sentence which the information processor in this embodiment generated.

以下、本発明の一実施形態による情報処理装置について図面を参照して説明する。   An information processing apparatus according to an embodiment of the present invention will be described below with reference to the drawings.

図1は、本実施形態による情報処理システム100の一例を示す概略ブロック図である。
図1に示すように、情報処理システム100は、情報処理装置1と、端末装置2とを備えている。情報処理装置1と、端末装置2とは、ネットワークNW1を介して接続されている。
情報処理システム100は、例えば、情報処理装置1に接続した端末装置2に、投稿された質問及び回答を表示して、ユーザ間で情報共有するQ&Aサービスなどの情報サービスを提供する。
FIG. 1 is a schematic block diagram illustrating an example of an information processing system 100 according to the present embodiment.
As illustrated in FIG. 1, the information processing system 100 includes an information processing device 1 and a terminal device 2. The information processing device 1 and the terminal device 2 are connected via a network NW1.
The information processing system 100 provides an information service such as a Q & A service that displays posted questions and answers on the terminal device 2 connected to the information processing device 1 and shares information between users.

端末装置2は、情報処理システム100が提供する情報サービスを利用するために、ユーザが使用するクライアント端末である。なお、図1に示す例では、説明を簡略化するため、情報処理装置1に1台の端末装置2が接続されている例を示しているが、複数の端末装置2が、情報処理装置1に接続されてもよい。   The terminal device 2 is a client terminal used by a user in order to use an information service provided by the information processing system 100. In the example illustrated in FIG. 1, for simplicity of explanation, an example in which one terminal device 2 is connected to the information processing device 1 is illustrated. However, a plurality of terminal devices 2 are connected to the information processing device 1. May be connected.

情報処理装置1は、例えば、Q&Aサービスなどの情報サービスを提供するサーバ装置である。情報処理装置1は、例えば、端末装置2を介してユーザから受け付けた質問文を、Q&Aサービスに登録して閲覧可能にするとともに、端末装置2を介して他のユーザから受け付けた回答文を登録して閲覧可能にする。また、情報処理装置1は、機械学習を利用して、登録された質問文に対する回答文を生成し、当該回答文をQ&Aサービスに登録して閲覧可能にする。また、情報処理装置1は、NW(ネットワーク)通信部11と、記憶部12と、制御部13とを備えている。   The information processing apparatus 1 is a server apparatus that provides an information service such as a Q & A service, for example. The information processing apparatus 1 registers, for example, a question sentence received from the user via the terminal apparatus 2 in the Q & A service so that it can be browsed, and registers an answer sentence received from another user via the terminal apparatus 2 And make it viewable. Further, the information processing apparatus 1 uses machine learning to generate an answer sentence for the registered question sentence, and registers the answer sentence in the Q & A service so that it can be viewed. Further, the information processing apparatus 1 includes an NW (network) communication unit 11, a storage unit 12, and a control unit 13.

NW通信部11は、例えば、インターネットなどを利用してネットワークNW1に接続し、ネットワークNW1を介して各種情報の通信を行う。NW通信部11は、例えば、ネットワークNW1を介して、接続要求のあった端末装置2に接続し、各種情報の通信を行う。   The NW communication unit 11 is connected to the network NW1 using, for example, the Internet, and communicates various information via the network NW1. For example, the NW communication unit 11 is connected to the terminal device 2 that has made a connection request via the network NW1 and communicates various information.

記憶部12は、情報処理装置1が実行する各種処理に利用される情報を記憶する。記憶部12は、例えば、サービス記憶部121と、学習結果記憶部122とを備えている。
サービス記憶部121は、例えば、ユーザによって端末装置2からQ&Aサービスに投稿された質問文及び回答文などの投稿情報を記憶する。
学習結果記憶部122は、後述する学習処理部132によって、機械学習された学習結果を記憶する。なお、学習結果の詳細については後述する。
The storage unit 12 stores information used for various processes executed by the information processing apparatus 1. The storage unit 12 includes, for example, a service storage unit 121 and a learning result storage unit 122.
The service storage unit 121 stores, for example, posting information such as a question sentence and an answer sentence posted by the user from the terminal device 2 to the Q & A service.
The learning result storage unit 122 stores the learning result machine-learned by the learning processing unit 132 described later. Details of the learning result will be described later.

制御部13は、例えば、CPU(Central Processing Unit)などを含むプロセッサであり、情報処理装置1を統括的に制御する。制御部13は、例えば、上述したQ&Aサービスなどの情報サービスを提供する処理や、学習結果記憶部122が記憶する学習結果の生成処理、情報処理装置1がNW通信部11を介して取得した質問文に対する回答文の生成処理などの各種処理を実行する。また、制御部13は、サービス提供部131と、学習処理部132と、質問取得部133と、回答生成部134とを備えている。   The control unit 13 is a processor including, for example, a CPU (Central Processing Unit) and the like, and comprehensively controls the information processing apparatus 1. The control unit 13 includes, for example, a process for providing an information service such as the Q & A service described above, a generation process for a learning result stored in the learning result storage unit 122, and a question acquired by the information processing apparatus 1 via the NW communication unit 11. Various processes such as an answer sentence generation process for a sentence are executed. The control unit 13 includes a service providing unit 131, a learning processing unit 132, a question acquisition unit 133, and an answer generation unit 134.

サービス提供部131は、情報処理装置1が提供する情報サービスに関する処理を実行する。サービス提供部131は、例えば、端末装置2からNW通信部11を介して、受け付けた質問文及び回答文を投稿情報として、サービス記憶部121に記憶させる。また、サービス提供部131は、例えば、Q&Aサービスの閲覧を希望する端末装置2に対して、サービス記憶部121に記憶されている投稿情報を、NW通信部11を介して端末装置2に出力し、端末装置2に表示させる。また、サービス提供部131は、後述する回答生成部134が生成した回答文を、サービス記憶部121に記憶させる。なお、サービス提供部131は、Q&Aサービスにおいて、例えば、「恋愛」、「家族」、「料理」など、カテゴリ(分類)ごとに分かれて、情報をユーザに提供するものとする。   The service providing unit 131 executes processing related to the information service provided by the information processing apparatus 1. For example, the service providing unit 131 causes the service storage unit 121 to store the received question sentence and answer sentence from the terminal device 2 via the NW communication unit 11 as post information. For example, the service providing unit 131 outputs the posting information stored in the service storage unit 121 to the terminal device 2 via the NW communication unit 11 for the terminal device 2 that desires to browse the Q & A service. To be displayed on the terminal device 2. In addition, the service providing unit 131 causes the service storage unit 121 to store an answer sentence generated by an answer generation unit 134 described later. In the Q & A service, the service providing unit 131 provides information to the user in categories (classifications) such as “love”, “family”, and “cooking”, for example.

学習処理部132は、質問文と、既知の回答文において、予め定められた文章の筋道(シナリオ)により分割される複数の部分項目それぞれに対応する部分回答文との組を複数有する学習情報に基づいて、機械学習を実行して学習結果を生成する。ここで、例えば、回答文の文章の筋道(シナリオ)を、「結論」、「補足」の順に定めた場合には、部分項目は、「結論」及び「補足」であり、回答文の文章の筋道(シナリオ)を、「雑談」、「事例」、「結論」の順番に定めた場合には、部分項目は、「雑談」、「事例」、及び「結論」である。
なお、以下の説明では、複数の部分項目の一例として、「結論」及び「補足」である場合について説明する。
The learning processing unit 132 generates learning information having a plurality of pairs of a question sentence and a partial answer sentence corresponding to each of a plurality of partial items divided by a predetermined sentence path (scenario) in a known answer sentence. Based on this, machine learning is executed to generate a learning result. Here, for example, when the path of the sentence of the answer sentence is defined in the order of “conclusion” and “supplement”, the partial items are “conclusion” and “supplement”, and the sentence of the answer sentence When the path (scenario) is determined in the order of “chat”, “example”, and “conclusion”, the partial items are “chat”, “example”, and “conclusion”.
In the following description, a case of “conclusion” and “supplement” will be described as an example of a plurality of partial items.

また、学習処理部132は、例えば、サービス記憶部121が記憶するQ&Aサービスの投稿情報(既知の質問文及び既知の回答文)を入力情報として、深層学習(ディープラーニング)技術を利用した学習モデルにより学習した学習結果を生成する。なお、既知の回答文には、質問文に対する正解文と、不正解文とが含まれる。学習処理部132は、学習処理の入力情報(学習情報)として、質問文と、正解の回答文、及び正解以外の回答文の中から任意に抽出した不正解文の組を学習情報として使用する。学習処理部132は、生成した学習結果を学習結果記憶部122に記憶させる。
なお、本実施形態の学習モデル、学習処理部132の構成、及び学習処理の詳細ついては、後述する。
The learning processing unit 132 also uses, for example, a learning model that uses deep learning technology with the post information (known question sentence and known answer sentence) of the Q & A service stored in the service storage unit 121 as input information. The learning result learned by is generated. The known answer sentence includes a correct answer sentence and an incorrect answer sentence for the question sentence. The learning processing unit 132 uses, as learning information, a combination of a question sentence, a correct answer sentence, and an incorrect answer sentence extracted from answer sentences other than the correct answer as input information (learning information) for the learning process. . The learning processing unit 132 causes the learning result storage unit 122 to store the generated learning result.
The details of the learning model, the configuration of the learning processing unit 132, and the learning processing of this embodiment will be described later.

質問取得部133は、情報処理装置1に入力された入力質問文を取得する。質問取得部133は、例えば、サービス記憶部121が記憶している質問文の中から、入力質問文を取得する。   The question acquisition unit 133 acquires an input question sentence input to the information processing apparatus 1. For example, the question acquisition unit 133 acquires an input question sentence from the question sentences stored in the service storage unit 121.

回答生成部134は、上述した学習処理部132によって学習された学習結果に基づいて、質問取得部133によって取得された入力質問文に対する回答文を生成する。すなわち、回答生成部134は、学習結果記憶部122が記憶する学習結果に基づいて、複数の部分項目を結合して生成された回答文を生成する。また、回答生成部134は、生成した回答文をサービス提供部131に供給して、当該回答文を、入力質問文の回答の投稿として、サービス記憶部121に記憶させる。   The answer generation unit 134 generates an answer sentence for the input question sentence acquired by the question acquisition unit 133 based on the learning result learned by the learning processing unit 132 described above. That is, the answer generation unit 134 generates an answer sentence generated by combining a plurality of partial items based on the learning result stored in the learning result storage unit 122. In addition, the answer generation unit 134 supplies the generated answer sentence to the service providing unit 131 and causes the service storage unit 121 to store the answer sentence as a post of an answer to the input question sentence.

次に、図2及び図3を参照して、本実施形態における学習モデルについて説明する。
図2は、本実施形態における学習モデルM1の一例を説明する図である。
図2に示すように、本実施形態における学習モデルM1は、深層学習技術を利用したモデルであり、エンコーダデコーダモデルM11と、文単位学習モデルM12とを組み合わせたモデルである。
Next, a learning model in the present embodiment will be described with reference to FIGS.
FIG. 2 is a diagram illustrating an example of the learning model M1 in the present embodiment.
As shown in FIG. 2, the learning model M1 in the present embodiment is a model using a deep learning technique, and is a model in which an encoder / decoder model M11 and a sentence unit learning model M12 are combined.

エンコーダデコーダモデルM11は、質問文を1単語ずつ順次単語の並び順に基づいてエンコードして文脈ベクトル10(Context vector)を生成し、生成した文脈ベクトル10に基づいて、複数の部分項目ごとの既知の部分回答文をデコードして学習する。エンコーダデコーダモデルM11は、例えば、ニューラルエンコーダデコーダモデルであり、まずに、一度に質問文の1つの単語(トークン)をエンコードし、回答文を一度に1つの単語(トークン)をデコードする。エンコーダデコーダモデルM11は、複数の部分項目ごとの既知の回答文を生成するようにデコードして学習するモデルである。エンコーダデコーダモデルM11は、質問文の言葉(WORD)を質問文である入力文Xによって調整することにより、逐次生成する。また、目標文は、Y={y(1),・・・,y(T)}とする。エンコーダデコーダモデルM11において、損失関数Lは、以下の式(1)により表される。   The encoder / decoder model M11 generates a context vector 10 by encoding the question sentence one word at a time based on the word arrangement order. Based on the generated context vector 10, a known item for each of the plurality of partial items is generated. Decode and learn partial answer sentences. The encoder decoder model M11 is, for example, a neural encoder decoder model, and first encodes one word (token) of a question sentence at a time and decodes one word (token) at a time in an answer sentence. The encoder / decoder model M11 is a model that learns by decoding so as to generate a known answer sentence for each of a plurality of partial items. The encoder / decoder model M11 sequentially generates words by adjusting the word (WORD) of the question sentence with the input sentence X that is the question sentence. The target sentence is Y = {y (1),..., Y (T)}. In the encoder / decoder model M11, the loss function L is expressed by the following equation (1).

Figure 2018206307
Figure 2018206307

なお、エンコーダデコーダモデルM11は、エンコーダモデルM111と、デコーダモデルM112とを含んでいる。
エンコーダモデルM111は、質問の全体の意味を捕えるために、両方向にエンコードされるbiLSTM(bidirectional Long Short-Term Memory)を使用する。エンコーダモデルM111は、biLSTMの出力の各要素の最大値を抽出して蓄積するマックスプーリング(Max pooling)処理により文脈ベクトル10を生成する。
The encoder / decoder model M11 includes an encoder model M111 and a decoder model M112.
The encoder model M111 uses biLSTM (bidirectional Long Short-Term Memory) encoded in both directions in order to capture the whole meaning of the question. The encoder model M111 generates the context vector 10 by Max pooling processing that extracts and accumulates the maximum value of each element of the biLSTM output.

デコーダモデルM112は、エンコーダモデルM111によって生成された文脈ベクトル10に基づいて、部分回答文(結論回答文ac及び補足回答文as)を出力するように学習するモデルであり、LSTM(Long Short-Term Memory)を利用して、各単語を予測するモデルである。ここでは、デコーダモデルM112は、文脈ベクトル10に基づいて、結論回答文acをデコードするとともに、補足回答文asをデコードするモデルである。
デコーダモデルM112は、例えば、「遠距離」、「恋愛」、「は」、「愛」、「を」、・・・という質問文qをエンコーダモデルM111によりエンコードした文脈ベクトル10に基づいて、「遠距離」、「恋愛」、「は」、「真実の」、「愛」、・・・という既知の部分回答文(結論回答文ac)をデコードするように学習する。また、デコーダモデルM112は、文脈ベクトル10に基づいて、「遠距離」、「恋愛」、「は」、「あなたの」、「愛」、・・・という既知の部分回答文(補足回答文as)をデコードするように学習する。
The decoder model M112 is a model that learns to output a partial answer sentence (a conclusion answer sentence ac and a supplemental answer sentence as) based on the context vector 10 generated by the encoder model M111, and is a LSTM (Long Short-Term This is a model that predicts each word using (Memory). Here, the decoder model M112 is a model that decodes the conclusion answer sentence ac and also the supplementary answer sentence as based on the context vector 10.
The decoder model M112, for example, is based on the context vector 10 obtained by encoding the question sentence q “Long distance”, “Love”, “Ha”, “Love”, “O”,... By the encoder model M111. Learning is performed so as to decode known partial answer sentences (conclusion answer sentences ac) such as “long distance”, “love”, “ha”, “true”, “love”,. Also, the decoder model M112 is based on the context vector 10 and includes known partial answer sentences (supplementary answer sentences as, “long distance”, “love”, “ha”, “your”, “love”,...). ) To decode.

なお、デコーダモデルM112は、図3に示すように、部分回答文における単語ごとに関連するトピック情報に基づいて、既知の部分回答文をデコードして学習するC−LSTM(Contextual-Long Short-Term Memory)により学習するモデルである。   As shown in FIG. 3, the decoder model M112 decodes a known partial answer sentence based on topic information related to each word in the partial answer sentence, and learns C-LSTM (Contextual-Long Short-Term). This is a model that learns by (Memory).

図3は、本実施形態におけるデコーダモデルの一例を説明する図である。
図3に示す例では、単語「情報」に対応するトピック情報は、「IT」(情報技術)であり、単語「社会」に対応するトピック情報は、「公共」である。また、単語「とは」、「、」(読点)、及び「が」に対応するトピック情報は、「接続」であり、単語「資源」に対応するトピック情報は、「IT」である。このように、トピック情報は、例えば、単語の関連分野を示す情報である。
デコーダモデルM112は、図3に示すような回答文(部分回答文)の単語列と、各単語に対応するトピック情報とに基づいて、回答文(部分回答文)を生成すうように、学習する。
FIG. 3 is a diagram for explaining an example of the decoder model in the present embodiment.
In the example shown in FIG. 3, the topic information corresponding to the word “information” is “IT” (information technology), and the topic information corresponding to the word “society” is “public”. The topic information corresponding to the words “to”, “,” (reading marks), and “ga” is “connection”, and the topic information corresponding to the word “resource” is “IT”. Thus, topic information is information which shows the related field of a word, for example.
The decoder model M112 learns to generate an answer sentence (partial answer sentence) based on a word string of an answer sentence (partial answer sentence) as shown in FIG. 3 and topic information corresponding to each word. .

図2の説明に戻り、文単位学習モデルM12は、上述したエンコーダデコーダモデルM11の出力(部分回答文)と、質問文qとを入力情報として、文ごとに学習するセンテンスバイセンテンス(Sentence-by-sentence)モデルである。文単位学習モデルM12は、質問文qと、複数の部分項目の部分回答文とのそれぞれについて、biLSTM及びマックスプーリング処理を利用して、エンコーダデコーダモデルM11とデコーダモデルM112とを組み合わせた損失関数Lwにより最適化されて学習する。   Returning to the description of FIG. 2, the sentence-by-sentence learning model M12 uses a sentence-by-sentence (Sentence-by sentence) for learning for each sentence using the output (partial answer sentence) of the encoder decoder model M11 and the question sentence q as input information. -sentence) model. The sentence unit learning model M12 uses a biLSTM and a max pooling process for each of the question sentence q and the partial answer sentences of a plurality of partial items, and combines a loss function Lw that combines the encoder decoder model M11 and the decoder model M112. Optimized for learning.

なお、文単位学習モデルM12は、エンコーダデコーダモデルM11の途中学習結果及び文脈ベクトル10に基づいて生成した回答文を部分回答文とし、当該部分回答文と質問文とを含む組情報を入力情報として学習するようにしてもよい。また、文単位学習モデルM12の入力情報は、例えば、部分回答文と質問文とを含む組情報をベクトル化した情報(特徴ベクトル)である。
また、文単位学習モデルM12は、複数の部分項目のうちの第1の部分項目に対応する出力に基づいて、第1の部分項目と異なる第2の部分項目に対応するbiLSTMが更新されて学習されるアテンションメカニズムを利用するようにしてもよい。
The sentence unit learning model M12 uses the answer sentence generated based on the learning result of the encoder decoder model M11 and the context vector 10 as a partial answer sentence, and sets information including the partial answer sentence and the question sentence as input information. You may make it learn. The input information of the sentence unit learning model M12 is, for example, information (feature vector) obtained by vectorizing group information including a partial answer sentence and a question sentence.
In addition, the sentence unit learning model M12 learns by updating the biLSTM corresponding to the second partial item different from the first partial item based on the output corresponding to the first partial item among the plurality of partial items. An attention mechanism may be used.

次に、図4及び図5を参照して、本実施形態における学習処理部132及び学習処理について説明する。
図4は、本実施形態における学習処理部132及び学習処理の一例を説明する図である。なお、図4に示す例では、学習の入力情報の一部となる既知の回答文に、質問文に対する正解文と、不正解文とが含まれる場合の一例について説明する。
Next, the learning processing unit 132 and the learning process in the present embodiment will be described with reference to FIGS.
FIG. 4 is a diagram illustrating an example of the learning processing unit 132 and learning processing in the present embodiment. In the example illustrated in FIG. 4, an example will be described in which a known answer sentence that is a part of learning input information includes a correct answer sentence and an incorrect answer sentence for the question sentence.

図4に示すように、学習処理部132は、エンコーダデコーダモデルM11と、QA−LSTM(Question Answering-Long Short-Term Memory)部(20−1、20−2)と、損失関数生成部30とを備えている。   As shown in FIG. 4, the learning processing unit 132 includes an encoder / decoder model M11, a QA-LSTM (Question Answering-Long Short-Term Memory) unit (20-1, 20-2), a loss function generation unit 30, It has.

エンコーダデコーダモデルM11は、上述した図2に示すエンコーダデコーダモデルM11を、正解文と不正解文とに対応させたモデルであり、例えば、図5に示すようなモデルである。ここで、エンコーダデコーダモデルM11は、学習情報の組に含まれる、質問文q、「結論」の正解文ac+、「結論」の不正解文ac−、「補足」の正解文as+、及び「補足」の不正解文as−に基づいて学習する。   The encoder decoder model M11 is a model in which the encoder decoder model M11 shown in FIG. 2 described above is associated with a correct answer sentence and an incorrect answer sentence, for example, a model as shown in FIG. Here, the encoder / decoder model M11 includes the question sentence q, the correct sentence ac + of the “conclusion”, the incorrect sentence ac− of the “conclusion”, the correct sentence as + of the “supplement”, and the “supplement” included in the set of learning information. "Based on the incorrect sentence as-".

図5は、本実施形態におけるエンコーダデコーダモデルM11の一例を説明する図である。
図5に示すように、エンコーダデコーダモデルM11は、エンコーダモデルM111と、デコーダモデルM112とを含んでおり、上述した質問文q、「結論」の正解文ac+、「結論」の不正解文ac−、「補足」の正解文as+、及び「補足」の不正解文as−の組情報に基づいて学習する。
FIG. 5 is a diagram illustrating an example of the encoder / decoder model M11 in the present embodiment.
As shown in FIG. 5, the encoder / decoder model M11 includes an encoder model M111 and a decoder model M112. The question sentence q, the correct sentence ac + of the “conclusion”, and the incorrect answer sentence ac− of the “conclusion”. , Learning based on the set information of the correct sentence as + of “supplement” and the incorrect sentence as− of “supplement”.

エンコーダモデルM111は、上述した図2と同様に、質問文qを1単語ずつ順次単語の並び順に基づいてエンコードして文脈ベクトル10を生成する。
また、デコーダモデルM112は、当該文脈ベクトル10に基づいて、「結論」の正解文ac+、「結論」の不正解文ac−、「補足」の正解文as+、及び「補足」の不正解文aq−のそれぞれを生成するようにデコードして学習する。
このように、エンコーダデコーダモデルM11は、文脈ベクトル10に基づいて、複数の部分項目ごとの正解文及び不正解文をデコードして学習する。ここで、エンコーダデコーダモデルM11によって生成された「結論」の正解文及び不正解文と、「補足」の正解文及び不正解文とを、「結論」の正解文ac2+、「結論」の不正解文ac2−、「補足」の正解文as2+、及び「補足」の不正解文as2−とする。また、「結論」の正解文ac2+、「結論」の不正解文ac2−、「補足」の正解文as2+、及び「補足」の不正解文as2−は、特徴ベクトルとして出力されるものとする。
Similarly to FIG. 2 described above, the encoder model M111 generates the context vector 10 by encoding the question sentence q one word at a time based on the word arrangement order.
Also, the decoder model M112 determines that the correct sentence ac + of “conclusion”, the incorrect sentence ac− of “conclusion”, the correct sentence as + of “supplement”, and the incorrect sentence aq of “supplement” based on the context vector 10. Decode and learn to generate each of-.
As described above, the encoder / decoder model M11 decodes and learns the correct answer sentence and the incorrect answer sentence for each of the plurality of partial items based on the context vector 10. Here, the correct sentence and incorrect answer sentence of “conclusion” generated by the encoder / decoder model M11, the correct answer sentence and incorrect answer sentence of “supplement”, the correct answer ac2 + of “conclusion”, and the incorrect answer of “conclusion” The sentence ac2-, the correct sentence as2 + of "supplement", and the incorrect answer sentence as2- of "supplement". In addition, the correct sentence ac2 + of “conclusion”, the incorrect answer sentence ac2- of “conclusion”, the correct sentence as2 + of “supplement”, and the incorrect answer sentence as2- of “supplement” are output as feature vectors.

図4の説明に戻り、学習処理部132は、エンコーダデコーダモデルM11の出力である質問文q、「結論」の正解文ac2+、「結論」の不正解文ac2−、「補足」の正解文as2+、及び「補足」の不正解文as2−を、それぞれの特徴ベクトル群に変換する。すなわち、学習処理部132は、質問文qを、特徴ベクトルの集合である特徴ベクトル列Wに変換する。また、学習処理部132は、「結論」の正解文ac2+を、特徴ベクトルの集合である特徴ベクトル列Wac+に変換し、「結論」の不正解文ac2−を、特徴ベクトルの集合である特徴ベクトル列Wac−に変換する。また、学習処理部132は、「補足」の正解文as2+を、特徴ベクトルの集合である特徴ベクトル列Was+に変換し、「補足」の不正解文as2−を、特徴ベクトルの集合である特徴ベクトル列Was−に変換する。 Returning to the description of FIG. 4, the learning processing unit 132 outputs the question sentence q, which is the output of the encoder decoder model M11, the correct sentence ac2 + of “conclusion”, the incorrect answer sentence ac2- of “conclusion”, and the correct sentence as2 + of “supplement”. And “supplement” incorrect answer sentence as2- are converted into respective feature vector groups. That is, the learning processing unit 132 converts the question sentence q into a feature vector sequence W q that is a set of feature vectors. Further, the learning processing unit 132 converts the correct sentence ac2 + of “conclusion” into a feature vector string W ac + that is a set of feature vectors, and the incorrect answer sentence ac2 of “conclusion” is a feature that is a set of feature vectors. Convert to a vector sequence W ac- . Further, the learning processing unit 132 converts the “supplementary” correct sentence as2 + into a feature vector string W as + that is a set of feature vectors, and the “supplementary” incorrect answer sentence as2− is a feature that is a set of feature vectors. Convert to vector sequence W as- .

QA−LSTM部(20−1、20−2)は、双方向に学習するニューラルネットワークであるbiLSTMである。QA−LSTM部20−1は、「結論」用のbiLSTMであり、QA−LSTM部20−2は、「補足」用のbiLSTMである。なお、本実施形態において、QA−LSTM部20−1と、QA−LSTM部20−2とは、同様の構成であり、学習処理部132が備える任意のQA−LSTM部を示す場合、又は特に区別しない場合には、QA−LSTM部20として説明する。   The QA-LSTM unit (20-1, 20-2) is biLSTM which is a neural network that learns in both directions. The QA-LSTM unit 20-1 is a biLSTM for “conclusion”, and the QA-LSTM unit 20-2 is a biLSTM for “supplement”. In the present embodiment, the QA-LSTM unit 20-1 and the QA-LSTM unit 20-2 have the same configuration, and indicate any QA-LSTM unit included in the learning processing unit 132, or particularly When not distinguished, it demonstrates as the QA-LSTM part 20. FIG.

QA−LSTM部20は、質問埋め込みベクトル生成部21と、正解埋め込みベクトル生成部22と、不正解埋め込みベクトル生成部23とを備えている。
質問埋め込みベクトル生成部21は、質問文を単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の単語の並び順に基づいて生成した双方向ベクトル列24(質問特徴ベクトル群)に基づいて、単語の並びを双方向に学習して、質問埋め込みベクトルOを生成する。質問埋め込みベクトル生成部21は、例えば、質問文の特徴ベクトル列Wから双方向ベクトル列24を生成し、当該双方向ベクトル列24の各要素の最大値を抽出して蓄積するマックスプーリング処理により質問埋め込みベクトルO(質問中間ベクトル)を生成する。
The QA-LSTM unit 20 includes a question embedding vector generation unit 21, a correct answer embedding vector generation unit 22, and an incorrect answer embedding vector generation unit 23.
The question embedding vector generation unit 21 generates a feature vector obtained by converting a question sentence for each word based on a bi-directional vector sequence 24 (question feature vector group) based on a time-series forward and reverse word arrangement order. ) To learn the word sequence bidirectionally to generate a question embedding vector Oq . The question embedding vector generation unit 21 generates, for example, a bidirectional vector sequence 24 from the feature vector sequence W q of the question sentence, and performs max pooling processing that extracts and accumulates the maximum value of each element of the bidirectional vector sequence 24. A question embedding vector O q (question intermediate vector) is generated.

正解埋め込みベクトル生成部22は、正解文を単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の単語の並び順に基づいて生成した双方向ベクトル列25(正解特徴ベクトル群)に基づいて、単語の並びを双方向に学習して、正解埋め込みベクトルOa+を生成する。正解埋め込みベクトル生成部22は、例えば、正解文の特徴ベクトル列Wa+から双方向ベクトル列25を生成し、当該双方向ベクトル列25の各要素の最大値を抽出して蓄積するマックスプーリング処理により正解埋め込みベクトルOa+(正解中間ベクトル)を生成する。 The correct embedded vector generation unit 22 generates a feature vector obtained by converting a correct sentence for each word based on a time-series forward and reverse bidirectional word arrangement order (a correct feature vector group 25). ) To learn the word sequence bidirectionally to generate the correct embedded vector O a + . The correct embedded vector generation unit 22 generates, for example, a bidirectional vector sequence 25 from the feature vector sequence W a + of the correct sentence, and extracts and accumulates the maximum value of each element of the bidirectional vector sequence 25 by a max pooling process. A correct answer embedding vector O a + (correct answer intermediate vector) is generated.

不正解埋め込みベクトル生成部23は、不正解文を単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の単語の並び順に基づいて生成した双方向ベクトル列26(不正解特徴ベクトル群)に基づいて、単語の並びを双方向に学習して、正解埋め込みベクトルOa−を生成する。不正解埋め込みベクトル生成部23は、例えば、不正解文の特徴ベクトル列Wa−から双方向ベクトル列26を生成し、当該双方向ベクトル列26の各要素の最大値を抽出して蓄積するマックスプーリング処理により不正解埋め込みベクトルOa−(不正解中間ベクトル)を生成する。 The incorrect answer embedding vector generating unit 23 generates a feature vector obtained by converting the incorrect answer sentence for each word based on the time-series forward and reverse bidirectional word arrangement order (an incorrect vector string 26 (incorrect answer). Based on the feature vector group), the word sequence is learned bidirectionally to generate the correct embedded vector O a− . The incorrect answer embedded vector generation unit 23 generates, for example, a bidirectional vector string 26 from the feature vector string W a− of the incorrect answer sentence, and extracts and accumulates the maximum value of each element of the bidirectional vector string 26. An incorrect solution embedding vector O a− (incorrect solution intermediate vector) is generated by the pooling process.

なお、QA−LSTM部20の基本となるLSTMについては、非特許文献1に開示されている。基本的なLSTMでは、学習する際に、入力される時系列の入力X={x(1),x(2),・・・,x(N)}とし、x(t)をt番目の単語の特徴ベクトルとした場合に、双方向ベクトル列(24、25、26)の内部のベクトルである各双方向ベクトルh(t)が、t時間ごとに以下の式(2)により更新される。   Note that Non-Patent Document 1 discloses the LSTM that is the basis of the QA-LSTM unit 20. In basic LSTM, when learning, a time-series input X = {x (1), x (2),..., X (N)} is set, and x (t) is the t-th input. When word feature vectors are used, each bidirectional vector h (t), which is a vector inside the bidirectional vector sequence (24, 25, 26), is updated by the following equation (2) every t time. .

Figure 2018206307
Figure 2018206307

ここで、基本的なLSTMのアーキテクチャにおいて、3つのゲート(input i,forget f,output o)と、セルメモリーベクトルcとがある。また、σ()はシグモイド関数である。また、W、W、W、W、U、U,U、U、b、b,b、bは学習されるネットワークパラメータである。 Here, in the basic LSTM architecture, there are three gates (input i t , forget f t , output o t ) and a cell memory vector c t . Σ () is a sigmoid function. W i , W f , W o , W c , U i , U f , U o , U c , b i , b f , b o , and b c are network parameters to be learned.

QA−LSTM部20−1は、「結論」用のbiLSTMであり、特徴ベクトル列(W、Wac+、Wac−)に基づいて、質問埋め込みベクトルOqc、正解埋め込みベクトルOac+、及び不正解埋め込みベクトルOac−を生成する。QA−LSTM部20−1は、質問埋め込みベクトル生成部21−1と、正解埋め込みベクトル生成部22−1と、不正解埋め込みベクトル生成部23−1とを備えている。質問埋め込みベクトル生成部21−1は、特徴ベクトル列Wから双方向ベクトル列24−1を生成し、マックスプーリング処理により質問埋め込みベクトルOqcを生成する。また、正解埋め込みベクトル生成部22−1は、特徴ベクトル列Wac+から双方向ベクトル列25−1を生成し、マックスプーリング処理により正解埋め込みベクトルOac+を生成する。また、不正解埋め込みベクトル生成部23−1は、特徴ベクトル列Wac−から双方向ベクトル列26−1を生成し、マックスプーリング処理により正解埋め込みベクトルOac−を生成する。 The QA-LSTM unit 20-1 is a biLSTM for “conclusion”, and based on a feature vector sequence (W q , W ac + , W ac− ), a question embedding vector O qc , a correct embedding vector O ac + , A correct answer embedding vector Oac- is generated. The QA-LSTM unit 20-1 includes a question embedding vector generation unit 21-1, a correct answer embedding vector generation unit 22-1, and an incorrect answer embedding vector generation unit 23-1. Question embedding vector generation unit 21-1 generates a bidirectional vector sequence 24-1 from the feature vector sequence W q, generates the vector O qc embedded questions by Max pooling process. In addition, the correct embedded vector generation unit 22-1 generates a bidirectional vector sequence 25-1 from the feature vector sequence W ac + and generates a correct embedded vector O ac + by a max pooling process. Also, incorrect embedding vector generation unit 23-1 generates a bidirectional vector sequence 26-1 from the feature vector sequence W ac-, generates the correct embedded vector O ac-by Max pooling process.

QA−LSTM部20−2は、「補足」用のbiLSTMであり、特徴ベクトル列(W、Was+、Was−)に基づいて、質問埋め込みベクトルOqs、正解埋め込みベクトルOas+、及び不正解埋め込みベクトルOas−を生成する。QA−LSTM部20−2は、質問埋め込みベクトル生成部21−2と、正解埋め込みベクトル生成部22−2と、不正解埋め込みベクトル生成部23−2とを備えている。質問埋め込みベクトル生成部21−2は、特徴ベクトル列Wから双方向ベクトル列24−2を生成し、マックスプーリング処理により質問埋め込みベクトルOqsを生成する。また、正解埋め込みベクトル生成部22−2は、特徴ベクトル列Was+から双方向ベクトル列25−2を生成し、マックスプーリング処理により正解埋め込みベクトルOas+を生成する。また、不正解埋め込みベクトル生成部23−2は、特徴ベクトル列Was−から双方向ベクトル列26−2を生成し、マックスプーリング処理により不正解埋め込みベクトルOas−を生成する。 The QA-LSTM unit 20-2 is a biLSTM for “supplement”, and based on a feature vector sequence (W q , W as + , W as− ), a question embedding vector O qs , a correct embedding vector O as + , A correct answer embedding vector O as− is generated. The QA-LSTM unit 20-2 includes a question embedding vector generation unit 21-2, a correct answer embedding vector generation unit 22-2, and an incorrect answer embedding vector generation unit 23-2. The question embedding vector generation unit 21-2 generates a bidirectional vector sequence 24-2 from the feature vector sequence W q, and generates a question embedding vector O qs by a max pooling process. The correct embedded vector generation unit 22-2 generates a bidirectional vector sequence 25-2 from the feature vector sequence W as + and generates a correct embedded vector O as + by the max pooling process. The incorrect answer embedded vector generation unit 23-2 generates a bidirectional vector string 26-2 from the feature vector string W as− and generates an incorrect answer embedded vector O as− by the max pooling process.

また、QA−LSTM部20−2は、学習する際に、アテンションメカニズムを利用して、双方向ベクトル列25−2及び双方向ベクトル列26−2を更新する。QA−LSTM部20−2は、例えば、QA−LSTM部20−1が生成した「結論」に対応する正解埋め込みベクトルOas+及び不正解埋め込みベクトルOas−ルに基づいて、「補足」に対応する双方向ベクトル列25−2(正解特徴ベクトル群)及び双方向ベクトル列26−2(不正解特徴ベクトル群)を更新する。具体的に、QA−LSTM部20−2は、以下の式(3)により、双方向ベクトル列25−2及び双方向ベクトル列26−2の内部ベクトルである双方向ベクトルh(t)を更新する。 Further, when learning, the QA-LSTM unit 20-2 updates the bidirectional vector sequence 25-2 and the bidirectional vector sequence 26-2 using an attention mechanism. For example, the QA-LSTM unit 20-2 corresponds to “supplement” based on the correct embedded vector O as + and the incorrect embedded vector O as− corresponding to the “conclusion” generated by the QA-LSTM unit 20-1. The bidirectional vector sequence 25-2 (correct answer feature vector group) and the bidirectional vector sequence 26-2 (incorrect answer feature vector group) to be updated are updated. Specifically, the QA-LSTM unit 20-2 calculates the bidirectional vector h s (t), which is an internal vector of the bidirectional vector sequence 25-2 and the bidirectional vector sequence 26-2, using the following equation (3). Update.

Figure 2018206307
Figure 2018206307

ここで、tは、時間のステップであり、Wsm、Wcm、及びwmbは、アテンションパラメータである。また、(t)は、更新後の双方向ベクトルを示す。なお、本文中の上付の〜は文字の真上に付けられた記号を表すものとする。 Here, t is a time step, and W sm , W cm , and w mb are attention parameters. In addition, ~ h s (t) shows a bi-directional vector after update. Note that the superscript “˜” in the text represents a symbol attached immediately above the character.

また、QA−LSTM部20−1が生成した質問埋め込みベクトルOqc、正解埋め込みベクトルOac+、及び不正解埋め込みベクトルOac−と、QA−LSTM部20−2が生成した質問埋め込みベクトルOqs、正解埋め込みベクトルOas+、及び不正解埋め込みベクトルOas−とに基づいて、コサイン類似度を利用した損失関数Lsは、例えば、以下の式(4)により表される。すなわち、上述した文単位学習モデルM12に対応する損失関数Lsは、式(4)により表される。なお、文単位学習モデルM12において、損失関数Lsは、「結論」と、「補足」と、「正解」と、「不正解」との組み合わせに基づいて、算出される。 Further, the question embedding vector O qc , the correct answer embedding vector O ac + and the incorrect answer embedding vector O ac− generated by the QA-LSTM unit 20-1, and the question embedding vector O qs generated by the QA-LSTM unit 20-2, Based on the correct answer embedding vector O as + and the incorrect answer embedding vector O as− , the loss function Ls using the cosine similarity is expressed by, for example, the following formula (4). That is, the loss function Ls corresponding to the sentence unit learning model M12 described above is expressed by the equation (4). In the sentence unit learning model M12, the loss function Ls is calculated based on a combination of “conclusion”, “supplement”, “correct answer”, and “incorrect answer”.

Figure 2018206307
Figure 2018206307

ここで、[y,z]は、ベクトルyとベクトルzとの結合を示す。Oは、[Oqc,Oqs]である。また、Mは、定数を示し、k(0<k<1)は、マージンをコントロールするパラメータである。 Here, [y, z] indicates a combination of the vector y and the vector z. O q is [O qc , O qs ]. M represents a constant, and k (0 <k <1) is a parameter for controlling the margin.

損失関数生成部30は、エンコーダデコーダモデルM11と、文単位学習モデルM12とを組み合わせて損失関数Lwを算出する。すなわち、損失関数生成部30は、上述した式(1)の損失関数Lと式(4)の損失関数Lsとを組み合わせて以下の式(5)により、損失関数Lwを算出する。   The loss function generation unit 30 calculates the loss function Lw by combining the encoder / decoder model M11 and the sentence unit learning model M12. That is, the loss function generation unit 30 calculates the loss function Lw by the following equation (5) by combining the loss function L of equation (1) and the loss function Ls of equation (4).

Figure 2018206307
Figure 2018206307

ここで、αは、重み付けを2つの損失関数でコントロールするパラメータである。
なお、損失関数Lwは、学習中の質問と回答との各組合せにおけるコサイン値が最大になるように設定されている。
Here, α is a parameter for controlling weighting by two loss functions.
The loss function Lw is set so that the cosine value in each combination of the question and the answer being learned is maximized.

学習処理部132は、上述のような構成を用いて算出された損失関数Lwによって最適化して学習結果を生成し、生成した学習結果を学習結果記憶部122に記憶させる。学習処理部132は、上述した式(2)の「結論」用のパラメータセット{W、W、W、W、U、U,U、U、b、b,b、bと、「補足」用のパラメータセット{W、W、W、W、U、U,U、U、b、b,b、bと、アテンションパラメータ{Wsm、Wcm、wmb}と、を含む学習結果を生成する。 The learning processing unit 132 generates a learning result by optimization using the loss function Lw calculated using the above-described configuration, and stores the generated learning result in the learning result storage unit 122. The learning processing unit 132 sets the “conclusion” parameter set {W i , W f , W o , W c , U i , U f , U o , U c , b i , b f in Equation (2) described above. , B o , b c } c and “supplement” parameter set {W i , W f , W o , W c , U i , U f , U o , U c , b i , b f , b o , B c } s and attention parameters {W sm , W cm , w mb } are generated.

なお、上述した例では、回答文のシナリオを「結論」及び「補足」の2つの部分項目により構成する例を説明したが、2つ以上の部分項目により構成するようにしてもよい。その場合、学習処理部132によって学習される学習結果は、質問文から生成された質問埋め込みベクトルOと、複数の部分項目それぞれに対応した正解埋め込みベクトルOa+と、複数の部分項目それぞれに対応した不正解中間ベクトルOa−との複数の部分項目の組合せに基づいて算出される損失関数Lwにより最適化されて学習される。 In the above-described example, the example in which the scenario of the answer sentence is configured by the two partial items “conclusion” and “supplement” has been described. However, the scenario may be configured by two or more partial items. In this case, the learning result learned by the learning processing unit 132 corresponds to the question embedding vector O q generated from the question sentence, the correct embedded vector O a + corresponding to each of the plurality of partial items, and each of the plurality of partial items. The learning is optimized by the loss function Lw calculated based on the combination of the plurality of partial items with the incorrect answer intermediate vector O a− .

次に、図面を参照して、本実施形態による情報処理装置1の動作について説明する。
<学習処理>
ます、情報処理装置1における学習処理部132の学習処理について、図6を参照して説明する。
Next, the operation of the information processing apparatus 1 according to the present embodiment will be described with reference to the drawings.
<Learning process>
First, the learning process of the learning processing unit 132 in the information processing apparatus 1 will be described with reference to FIG.

図6は、本実施形態における学習処理の一例を示すフローチャートである。
図6に示すように、学習処理部132は、まず、変数nに“1”を代入する(ステップS101)。なお、変数nは、学習の繰り返し回数をカウントする。この例では、NN回の学習を繰り返す場合について説明する。
FIG. 6 is a flowchart illustrating an example of the learning process in the present embodiment.
As shown in FIG. 6, the learning processing unit 132 first substitutes “1” for the variable n (step S101). Note that the variable n counts the number of learning repetitions. In this example, a case where learning is repeated NN times will be described.

次に、学習処理部132は、質問文及び回答文の組を入力情報として取得する(ステップS102)。学習処理部132は、例えば、複数ある既存の質問文と既存の回答文との組情報のうちから、図4に示すように、質問文qと結論回答文ac及び補足回答文as(「結論」の正解文ac+、「結論」の不正解文ac−、「補足」の正解文as+、及び「補足」の不正解文as−)との組情報を取得する。   Next, the learning processing unit 132 acquires a combination of a question sentence and an answer sentence as input information (step S102). As shown in FIG. 4, the learning processing unit 132, for example, from among a plurality of pairs of existing question sentences and existing answer sentences, the question sentence q, the conclusion answer sentence ac, and the supplementary answer sentence as (“conclusion” ”Correct answer ac +,“ conclusion ”incorrect answer ac−,“ supplement ”correct answer as +, and“ supplement incorrect answer as−) ”.

次に、学習処理部132は、質問文qをエンコードする(ステップS103)。学習処理部132は、取得した質問文qを、上述したエンコーダデコーダモデルM11のエンコーダモデルM111によりエンコードする。すなわち、学習処理部132は、取得した質問文qを、biLSTM及びマックスプーリング処理によってエンコードして、文脈ベクトル10を生成する。ここでの文脈ベクトル10は、質問ベクトルである。   Next, the learning processing unit 132 encodes the question sentence q (step S103). The learning processing unit 132 encodes the obtained question sentence q by the encoder model M111 of the encoder decoder model M11 described above. That is, the learning processing unit 132 encodes the acquired question sentence q by the biLSTM and the max pooling process to generate the context vector 10. The context vector 10 here is a question vector.

次に、学習処理部132は、結論回答文ac及び補足回答文asをデコードする(ステップS104)。学習処理部132は、結論回答文ac及び補足回答文asを学習するために、例えば、予め用意された2つのタイプ識別ベクトル(部分項目ベクトル)を使用する。学習処理部132は、エンコーダデコーダモデルM11のデコーダモデルM112において、タイプ識別ベクトルをエンコーダモデルM111により生成された文脈ベクトル10とともに入力情報として使用し、目標のタイプ(部分項目)の回答文(結論回答文ac及び補足回答文as)になるようにデコードする。   Next, the learning processing unit 132 decodes the conclusion answer sentence ac and the supplementary answer sentence as (step S104). The learning processing unit 132 uses, for example, two type identification vectors (partial item vectors) prepared in advance to learn the conclusion answer sentence ac and the supplementary answer sentence as. In the decoder model M112 of the encoder decoder model M11, the learning processing unit 132 uses the type identification vector as input information together with the context vector 10 generated by the encoder model M111, and the target type (partial item) answer sentence (conclusion answer) Decoding so as to become a sentence ac and a supplemental answer sentence as).

ここで、デコーダモデルM112の出力列(単語列)は、一度に、1つの単語(トークン)を構成する。また、タイプ識別ベクトルは、C−LSTMモデルにおける文脈ベクトルであるという点で同様である。これによって、学習処理部132は、単一のエンコーダデコーダネットワークによって、入力した回答タイプの識別情報(「結論」及び「補足」)に従って、目的のシーケンス(回答文)を生成することができる。
なお、学習処理部132は、図5に示すように、「結論」と「補足」とのそれぞれについて、正解文と不正解文とをデコードする。また、学習処理部132は、ステップS104において、「結論」と「補足」との回答文を、1文字(1単語)ずつ学習する。
Here, the output string (word string) of the decoder model M112 constitutes one word (token) at a time. The type identification vector is the same in that it is a context vector in the C-LSTM model. Thereby, the learning processing unit 132 can generate a target sequence (answer sentence) according to the input answer type identification information (“conclusion” and “supplement”) by a single encoder / decoder network.
As shown in FIG. 5, the learning processing unit 132 decodes the correct answer sentence and the incorrect answer sentence for each of “conclusion” and “supplement”. In step S104, the learning processing unit 132 learns the answer sentences “conclusion” and “supplement” one character (one word) at a time.

次に、学習処理部132は、結論回答文ac2及び補足回答文as2を生成する(ステップS105)。学習処理部132は、1組の質問文qと結論回答文ac及び補足回答文asとの組情報のためにそれぞれ学習した上述したエンコーダデコーダ学習過程において、次に出力を予測するための入力として、予測された出力単語を単に供給して、結論回答文ac2及び補足回答文as2を生成する。なお、この処理は、上述したステップS104の処理においての学習が、EOS(end of sequence;結論回答文ac又は補足回答文asの最後の文字)まで進んだ場合に、そのときまでの更新パラメータ(途中学習結果)によって、一旦、結論回答文ac2及び補足回答文as2を生成する処理である。すなわち、学習処理部132は、エンコーダデコーダモデルM11の途中学習結果及び文脈ベクトル10に基づいて、結論回答文ac2及び補足回答文as2を生成する。具体的に、学習処理部132は、図4に示すように、「結論」の正解文ac2+、「結論」の不正解文ac2−、「補足」の正解文as2+、及び「補足」の不正解文as2−を生成する。   Next, the learning processing unit 132 generates a conclusion answer sentence ac2 and a supplementary answer sentence as2 (step S105). As the input for predicting the next output in the above-described encoder / decoder learning process in which the learning processing unit 132 has learned for each pair information of the question sentence q, the conclusion answer sentence ac, and the supplementary answer sentence as. The predicted output word is simply supplied to generate the conclusion answer sentence ac2 and the supplementary answer sentence as2. In this process, when the learning in the process of step S104 described above has advanced to EOS (end of sequence; the last character of the conclusion answer sentence ac or the supplementary answer sentence as), the update parameter ( This is a process of temporarily generating a conclusion answer sentence ac2 and a supplementary answer sentence as2 according to the learning result on the way. That is, the learning processing unit 132 generates the conclusion answer sentence ac2 and the supplementary answer sentence as2 based on the intermediate learning result of the encoder decoder model M11 and the context vector 10. Specifically, as shown in FIG. 4, the learning processing unit 132 determines that the correct sentence ac2 + for “conclusion”, the incorrect answer sentence ac2- for “conclusion”, the correct sentence as2 + for “supplement”, and the incorrect answer for “supplement”. A sentence as2- is generated.

次に、学習処理部132は、質問文q、結論回答文ac2、及び補足回答文as2を文単位学習モデルM12に入力して、損失関数Lwを生成する(ステップS106)。学習処理部132は、例えば、以下の(a)〜(f)の処理により、損失関数Lwを生成する。
(a)学習処理部132は、まず、図4に示すように、質問文q、「結論」の正解文ac2+、「結論」の不正解文ac2−、「補足」の正解文as2+、「補足」の不正解文as2−の組情報を特徴ベクトル列(W、Wac+、Wac−、Was+、Was−)に変換する。
Next, the learning processing unit 132 inputs the question sentence q, the conclusion answer sentence ac2, and the supplementary answer sentence as2 to the sentence unit learning model M12, and generates a loss function Lw (step S106). For example, the learning processing unit 132 generates the loss function Lw by the following processes (a) to (f).
(A) First, as shown in FIG. 4, the learning processing unit 132, the question sentence q, the correct sentence ac2 + of “conclusion”, the incorrect answer sentence ac2- of “conclusion”, the correct sentence as2 + of “supplement”, and the “supplementary” Is converted into a feature vector sequence (W q , W ac + , W ac− , W as + , W as− ).

(b)次に、学習処理部132のQA−LSTM部20−1は、特徴ベクトル列(W、Wac+、Wac−)に基づいて、質問埋め込みベクトルOqc、正解埋め込みベクトルOac+、及び不正解埋め込みベクトルOac−を生成する。また、QA−LSTM部20−1は、双方向ベクトル列(24−1、25−1、26−1)のt番目の各双方向ベクトル(hqc(t)、hac+(t)、hac−(t))をそれぞれマックスプーリング処理して、質問埋め込みベクトルOqc、正解埋め込みベクトルOac+、及び不正解埋め込みベクトルOac−を生成する。 (B) Next, QA-LSTM 20-1 of the learning processing unit 132, feature vector sequence (W q, W ac +, W ac-) based on the question embedded vector O qc, correct embedded vector O ac +, And an incorrect answer embedding vector Oac- is generated. In addition, the QA-LSTM unit 20-1 includes the t-th bidirectional vectors (h qc (t), h ac + (t), h of the bidirectional vector sequence (24-1, 25-1, 26-1). ac- (t)) is subjected to a max pooling process to generate a question embedding vector O qc , a correct answer embedding vector O ac + , and an incorrect answer embedding vector O ac- .

(c)次に、学習処理部132のQA−LSTM部20−2は、まず、質問埋め込みベクトルOqsを生成する。QA−LSTM部20−2は、双方向ベクトル列24−2のt番目の各双方向ベクトルhqs(t)をマックスプーリング処理して、質問埋め込みベクトルOqsを生成する。 (C) Next, the QA-LSTM unit 20-2 of the learning processing unit 132 first generates a question embedding vector O qs . The QA-LSTM unit 20-2 performs max pooling processing on each t-th bidirectional vector h qs (t) of the bidirectional vector sequence 24-2, and generates a question embedded vector O qs .

(d)次に、QA−LSTM部20−2は、双方向ベクトル列(25−2、26−2)のt番目の各双方向ベクトル(has+(t)、has−(t))を、正解埋め込みベクトルOac+、及び不正解埋め込みベクトルOac−を用いて更新する。すなわち、QA−LSTM部20−2は、上述した式(2)を用いて、各双方向ベクトル(has+(t)、has−(t))を更新して、更新ベクトル(as+(t)、as−(t))を生成する。 (D) Next, the QA-LSTM unit 20-2 calculates each of the t-th bidirectional vectors (h as + (t), h as- (t)) of the bidirectional vector sequence (25-2, 26-2 ). Is updated using the correct answer embedding vector O ac + and the incorrect answer embedding vector O ac− . That, QA-LSTM section 20-2, using Equation (2) above, each bidirectional vector (h as + (t), h as- (t)) to update the update vector (~ h the as + (T), ~ has- (t)).

(e)次に、QA−LSTM部20−2は、更新ベクトル(as+(t)、as−(t))をそれぞれマックスプーリング処理して、正解埋め込みベクトルOas+、及び不正解埋め込みベクトルOas−を生成する。
(f)そして、学習処理部132の損失関数生成部30は、生成した各埋め込みベクトル(Oqc、Oac+、Oac−、Oqs、Oas+、Oas−)、及び式(5)に基づいて、損失関数Lwを生成する。
(E) Next, QA-LSTM unit 20-2, the update vector (~ h as + (t) , ~ h as- (t)) of each processing Max pooling, correct embedded vector O the as +, and incorrect answers An embedding vector O as- is generated.
(F) Then, the loss function generation unit 30 of the learning processing unit 132 applies the generated embedding vectors (O qc , O ac + , O ac− , O qs , O as + , O as− ) and Expression (5). Based on this, a loss function Lw is generated.

次に、学習処理部132は、生成した損失関数Lwにより最適化する(ステップS107)。学習処理部132は、算出した損失関数Lwにより、各パラメータを最適化する。学習処理部132は、例えば、「結論」用のパラメータセット{W、W、W、W、U、U,U、U、b、b,b、bと、「補足」用のパラメータセット{W、W、W、W、U、U,U、U、b、b,b、bと、アテンションパラメータ{Wsm、Wcm、wmb}とを最適化する。学習処理部132は、最適化した各パラメータを学習結果として学習結果記憶部122に記憶させる。 Next, the learning processing unit 132 optimizes with the generated loss function Lw (step S107). The learning processing unit 132 optimizes each parameter with the calculated loss function Lw. For example, the learning processing unit 132 sets a parameter set for “conclusion” {W i , W f , W o , W c , U i , U f , U o , U c , b i , b f , b o , b c } c and a “supplementary” parameter set {W i , W f , W o , W c , U i , U f , U o , U c , b i , b f , b o , b c } s And the attention parameters {W sm , W cm , w mb }. The learning processing unit 132 stores the optimized parameters in the learning result storage unit 122 as learning results.

次に、学習処理部132は、入力情報が終了であるか否かを判定する(ステップS108)。学習処理部132は、入力情報である質問文qと結論回答文ac及び補足回答文as(「結論」の正解文ac+、「結論」の不正解文ac−、「補足」の正解文as+、及び「補足」の不正解文as−)との次の組情報があるか否かを判定する。学習処理部132は、入力情報が終了である場合(ステップS108:YES)に、処理をステップS109に進める。また、学習処理部132は、入力情報が終了でない(次の入力情報がある)場合(ステップS108:YES)に、処理をステップS102に戻す。   Next, the learning processing unit 132 determines whether or not the input information is complete (step S108). The learning processing unit 132 includes a question sentence q, which is input information, a conclusion answer sentence ac, and a supplementary answer sentence as (a correct sentence ac + of “conclusion”, an incorrect sentence ac− of “conclusion”, a correct sentence as + of “supplement”, And it is determined whether there is next set information with an incorrect sentence as-) of “supplement”. When the input information is the end (step S108: YES), the learning processing unit 132 proceeds with the process to step S109. If the input information is not finished (there is next input information) (step S108: YES), the learning processing unit 132 returns the process to step S102.

ステップS109において、学習処理部132は、変数nが繰り返し回数NN以上(n≧NN)であるか否かを判定する。すなわち、学習処理部132は、ステップS102からステップS108までの処理をNN回繰り返して学習したか否かを判定する。学習処理部132は、変数nが繰り返し回数NN以上である場合(ステップS109:YES)に、この学習処理を終了する。また、学習処理部132は、変数nが繰り返し回数NN未満である場合(ステップS109:NO)に、処理をステップS110に進める。   In step S109, the learning processing unit 132 determines whether or not the variable n is equal to or greater than the number of repetitions NN (n ≧ NN). That is, the learning processing unit 132 determines whether or not learning has been repeated NN times from step S102 to step S108. The learning processing unit 132 ends the learning process when the variable n is equal to or greater than the repetition count NN (step S109: YES). Moreover, the learning process part 132 advances a process to step S110, when the variable n is less than the repetition frequency NN (step S109: NO).

ステップS110において、学習処理部132は、変数nに“n+1”を代入して、処理をステップS102に戻す。すなわち、学習処理部132は、変数nの値に“1”を加算して、処理をステップS102に戻す。
このように、学習処理部132は、ステップS102からステップS108までの処理をNN回繰り返して学習させ、当該学習結果を学習結果記憶部122に記憶させる。
In step S110, the learning processing unit 132 assigns “n + 1” to the variable n and returns the process to step S102. That is, the learning processing unit 132 adds “1” to the value of the variable n, and returns the process to step S102.
As described above, the learning processing unit 132 repeatedly learns the processing from step S102 to step S108 NN times, and stores the learning result in the learning result storage unit 122.

<回答文の生成処理>
次に、図面を参照して、本実施形態における情報処理装置1の質問文から回答文を生成する処理について説明する。
図7は、本実施形態における情報処理装置1の質問文から回答文を生成する処理の一例を示すフローチャートである。
<Answer generation process>
Next, processing for generating an answer sentence from a question sentence of the information processing apparatus 1 according to the present embodiment will be described with reference to the drawings.
FIG. 7 is a flowchart illustrating an example of processing for generating an answer sentence from a question sentence of the information processing apparatus 1 according to the present embodiment.

図7に示すように、情報処理装置1は、まず、質問文をサービス記憶部121から取得する(ステップS201)。情報処理装置1の質問取得部133は、サービス記憶部121が記憶している質問文の中から、入力質問文を取得する。   As shown in FIG. 7, the information processing apparatus 1 first acquires a question sentence from the service storage unit 121 (step S201). The question acquisition unit 133 of the information processing apparatus 1 acquires an input question sentence from the question sentences stored in the service storage unit 121.

次に、情報処理装置1の回答生成部134は、入力質問文と、学習結果記憶部122が記憶する学習結果とに基づいて、回答文を生成する(ステップS202)。なお、ここでの学習結果は、学習処理部132によって、上述した文字単位(単語単位)で学習するエンコーダデコーダモデルM11と、文ごとに学習するセンテンスバイセンテンスモデルである文単位学習モデルM12とを組み合わせて学習されている。すなわち、回答生成部134は、例えば、図6に示す学習処理により学習されたが学習結果に基づいて、入力質問文から回答文を生成する。   Next, the answer generation unit 134 of the information processing device 1 generates an answer sentence based on the input question sentence and the learning result stored in the learning result storage unit 122 (step S202). The learning result is obtained by using the above-described encoder decoder model M11 that learns in character units (word units) and a sentence unit learning model M12 that is a sentence bi-sentence model that learns for each sentence. Learned in combination. That is, for example, the answer generation unit 134 generates an answer sentence from the input question sentence based on the learning result learned by the learning process shown in FIG.

なお、回答生成部134は、既存の回答文を単に選択するのではなく、文章の筋道を考慮した部分項目の部分回答文を適切に組み合わせて新たな回答文を生成する。また、回答生成部134は、文字単位(単語単位)で学習するエンコーダデコーダモデルM11を組み合わせることにより、「結論」及び「補足」の部分回答文を既存の回答文から単純に選択するのではなく、部分回答文を単語単位で選択して、新たな回答文を生成する。   Note that the answer generation unit 134 does not simply select an existing answer sentence, but generates a new answer sentence by appropriately combining the partial answer sentences of the partial items in consideration of the sentence path. Further, the answer generation unit 134 does not simply select the “conclusion” and “supplement” partial answer sentences from the existing answer sentences by combining the encoder decoder model M11 that learns in character units (word units). The partial answer sentence is selected in units of words, and a new answer sentence is generated.

次に、回答生成部134は、サービス記憶部121に回答文を記憶させる(ステップS203)。すなわち、回答生成部134は、生成した回答文をサービス提供部131に供給して、当該回答文を、入力質問文の回答の投稿として、サービス記憶部121に記憶させる。これにより、情報処理装置1にネットワークNW1を介して接続し端末装置2から、質問文に対して、回答生成部134が生成した回答文を閲覧可能になる。ステップS203の処理後に、情報処理装置1は、回答文を生成する処理を終了する。   Next, the answer generation unit 134 stores the answer sentence in the service storage unit 121 (step S203). That is, the answer generation unit 134 supplies the generated answer sentence to the service providing unit 131 and causes the service storage unit 121 to store the answer sentence as a post of an answer to the input question sentence. Thereby, it is possible to view the answer sentence generated by the answer generation unit 134 with respect to the question sentence from the terminal device 2 connected to the information processing apparatus 1 via the network NW1. After the process of step S203, the information processing apparatus 1 ends the process of generating an answer sentence.

次に、図8を参照して、本実施形態による情報処理装置1が生成した回答文の評価結果について説明する。   Next, with reference to FIG. 8, the evaluation result of the answer sentence generated by the information processing apparatus 1 according to the present embodiment will be described.

図8は、本実施形態における方式と、従来技術との比較を示す図である。
図8において、「Seq2seq」は、比較のために、センテンスバイセンテンスモデルである文単位学習モデルM12のよる式(4)による損失関数Lsのみを使用した場合の評価結果を示している。また、「C−LSTM」は、上述したC−LSTMモデルによる式(1)による損失関数Lを使用した場合の評価結果である。
FIG. 8 is a diagram showing a comparison between the method in the present embodiment and the prior art.
In FIG. 8, “Seq2seq” indicates an evaluation result when only the loss function Ls according to the expression (4) by the sentence unit learning model M12 which is a sentence bi-sentence model is used for comparison. “C-LSTM” is an evaluation result when the loss function L according to the equation (1) based on the C-LSTM model described above is used.

また、「本実施形態の方式」は、上述した本実施形態の学習処理部132による式(5)による損失関数Lsを使用した場合の方式である。
また、評価結果の「ROUGE−1」(uni-gram)、「ROUGE−2」(bigram)、及び「ROUGE−L」(Longest common subsequence)は、ROUGE(Recall-Oriented Understudy for Gisting Evaluation)シリーズの評価指標である。「ROUGE−1」、「ROUGE−2」、及び「ROUGE−L」は、いずれも“0”〜“1.0”の範囲で示され、値が大きい程、評価が高いことを意味している。なお、ROUGEの詳細については、例えば、技術文献(Chin-Yew Lin,“ROUGE: A Package for Automatic Evaluation of Summaries”,In Text Summarization Branches Out: Proceedings of the ACL-04 Workshop, pages 74-81,2004.)に記載されている。
The “method of this embodiment” is a method in the case of using the loss function Ls according to the equation (5) by the learning processing unit 132 of this embodiment described above.
The evaluation results “ROUGE-1” (uni-gram), “ROUGE-2” (bigram), and “ROUGE-L” (Longest common subsequence) are the ROUGE (Recall-Oriented Understudy for Gisting Evaluation) series. It is an evaluation index. “ROUGE-1”, “ROUGE-2”, and “ROUGE-L” are all shown in the range of “0” to “1.0”, and the larger the value, the higher the evaluation. Yes. For details on ROUGE, see, for example, the technical literature (Chin-Yew Lin, “ROUGE: A Package for Automatic Evaluation of Summaries”, In Text Summarization Branches Out: Proceedings of the ACL-04 Workshop, pages 74-81, 2004. .)It is described in.

また、評価の際に使用した学習情報は、Q&Aサービス「教えてgoo」において、「恋愛相談」、「旅行」、「医療」などを含む16個のカテゴリに蓄積された5000組の質問文及び回答文を使用している。また、部分項目は、「結論」及び「補足」の2つの場合である。   In addition, the learning information used in the evaluation includes 5000 sets of question texts accumulated in 16 categories including “Love Consultation”, “Travel”, “Medical”, etc. in the Q & A service “Teach me goo” Answer text is used. The partial items are two cases of “conclusion” and “supplement”.

また、評価のためのテストデータとして、質問文q、結論回答文ac及び補足回答文asの100組を2セット準備し、評価結果は、平均値を示している。また、当該評価において、文字の埋め込み数を“300”とし、式(5)におけるαを“0.5”、繰り返し回数NNを“500”としている。   As test data for evaluation, two sets of 100 sets of a question sentence q, a conclusion answer sentence ac, and a supplementary answer sentence as are prepared, and the evaluation result shows an average value. In this evaluation, the number of embedded characters is “300”, α in equation (5) is “0.5”, and the number of repetitions NN is “500”.

図8に示すように、「本実施形態による方式」の評価結果は、「ROUGE−1」が“0.4546”であり、「ROUGE−2」が“0.2030”であり、「ROUGE−L」が“0.3311”である。「本実施形態による方式」の評価結果は、「ROUGE−1」、「ROUGE−2」、及び「ROUGE−L」のいずれも、従来の「Seq2seq」及び「C−LSTM」よりも高い値である。   As shown in FIG. 8, the evaluation results of the “method according to this embodiment” are “ROUGE-1” is “0.4546”, “ROUGE-2” is “0.2030”, and “ROUGE−” L "is" 0.3311 ". The evaluation results of the “method according to the present embodiment” indicate that “ROUGE-1”, “ROUGE-2”, and “ROUGE-L” are higher values than the conventional “Seq2seq” and “C-LSTM”. is there.

また、図9は、本実施形態における情報処理装置1が生成した回答文の一例を説明する図である。
なお、図9において、「C−LSTMにより生成した回答文」は、比較のために、上述したC−LSTMモデルを使用した場合の回答文を示している。
図9に示すように、「C−LSTMにより生成した回答文」では、質問文に対して“相手のことを思いやれないということは、その人がいると思いますよ。大きさを待ったほうが良いと思います。”というような不自然な回答文となる。
FIG. 9 is a diagram illustrating an example of an answer sentence generated by the information processing apparatus 1 according to the present embodiment.
In FIG. 9, “An answer sentence generated by C-LSTM” indicates an answer sentence when the above-described C-LSTM model is used for comparison.
As shown in Fig. 9, in "An answer sentence generated by C-LSTM", I think that there is a person that "I can't think of the other party" with respect to the question sentence. It is an unnatural answer like “I think it ’s good.”

これに対して、本実施形態による情報処理装置1が生成した回答文は、“勇気を出して、あなたの気持ちを伝えれば良いと思います。少し優柔不断な様子が伺えますね。”となり、違和感を低減した自然な文面の回答を生成することができる。   On the other hand, the response sentence generated by the information processing apparatus 1 according to the present embodiment is “I think it's enough to give your courage and convey your feelings. It is possible to generate a natural sentence answer with reduced discomfort.

以上説明したように、本実施形態による情報処理装置1は、質問取得部133と、回答生成部134とを備える。質問取得部133は、入力された入力質問文を取得する。回答生成部134は、質問文と、回答文において、予め定められた文章の筋道により分割される複数の部分項目それぞれに対応する既知の部分回答文との組を複数有する学習情報に基づいて機械学習された学習結果に基づいて、質問取得部133によって取得された入力質問文に対する回答文を生成する。ここで、学習結果は、エンコーダデコーダモデルM11と、文単位学習モデルM12と、を組み合わせて算出される損失関数Lwにより最適化されて学習される。また、エンコーダデコーダモデルM11は、質問文を1単語ずつ順次単語の並び順に基づいてエンコードして文脈ベクトル10を生成し、生成した文脈ベクトル10に基づいて、複数の部分項目ごとの既知の部分回答文をデコードして学習する。   As described above, the information processing apparatus 1 according to the present embodiment includes the question acquisition unit 133 and the answer generation unit 134. The question acquisition unit 133 acquires the input question sentence that has been input. The answer generation unit 134 uses a machine based on learning information having a plurality of pairs of a question sentence and a known partial answer sentence corresponding to each of a plurality of partial items divided by a predetermined sentence path in the answer sentence. Based on the learned result, an answer sentence for the input question sentence acquired by the question acquisition unit 133 is generated. Here, the learning result is optimized and learned by a loss function Lw calculated by combining the encoder / decoder model M11 and the sentence unit learning model M12. Further, the encoder / decoder model M11 generates a context vector 10 by encoding the question sentence one word at a time based on the word arrangement order, and based on the generated context vector 10, a known partial answer for each of a plurality of partial items is generated. Decode and learn sentences.

また、文単位学習モデルM12は、エンコーダデコーダモデルM11に基づいてデコードされた複数の部分項目ごとの部分回答文と、質問文とを含む組情報を入力情報とする。文単位学習モデルM12は、質問埋め込みベクトルO(質問中間ベクトル)と、複数の部分項目それぞれに対応した回答中間ベクトル(正解埋め込みベクトル(Oac+、Oas+)及び不正解埋め込みベクトル(Oac−、Oas−))と、の複数の部分項目の組合せに基づいて学習する。ここで、質問埋め込みベクトルO(質問中間ベクトル)は、入力情報の質問文を単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の単語の並び順に基づいて生成した双方向ベクトル列24(質問特徴ベクトル群)に基づいて、単語の並びを双方向に学習して生成される。また、回答中間ベクトル(正解埋め込みベクトル(Oac+、Oas+)及び不正解埋め込みベクトル(Oac−、Oas−))は、部分回答文を単語ごとに変換された特徴ベクトルを双方向の単語の並び順に基づいて生成した回答特徴ベクトル群(双方向ベクトル列25及び双方向ベクトル列26)に基づいて、単語の並びを双方向に学習して生成される。 The sentence unit learning model M12 uses, as input information, combination information including a partial answer sentence for each of a plurality of partial items decoded based on the encoder / decoder model M11 and a question sentence. The sentence unit learning model M12 includes a question embedding vector O q (question intermediate vector), an answer intermediate vector (correct answer embedding vector (O ac + , O as + ) and an incorrect answer embedding vector (O ac− ) corresponding to each of a plurality of partial items. , O as− )), and learning based on a combination of a plurality of partial items. Here, the question embedding vector O q (question intermediate vector) is a feature vector obtained by converting the question sentence of the input information for each word based on the time-series forward and reverse bidirectional word arrangement order. Based on the bidirectional vector sequence 24 (question feature vector group), it is generated by learning the word sequence bidirectionally. The answer intermediate vectors (correct answer embedding vectors (O ac + , O as + ) and incorrect answer embedding vectors (O ac− , O as− )) are bi-directional words obtained by converting partial answer sentences for each word. Based on the answer feature vector group (bidirectional vector string 25 and bidirectional vector string 26) generated based on the arrangement order of the words, it is generated by bi-directionally learning the word arrangement.

これにより、本実施形態による情報処理装置1は、エンコーダデコーダモデルM11と文単位学習モデルM12とを組み合わせて一括して学習した学習結果に基づいて、回答文を生成するため、文字(単語)単位で回答文を生成することができるとともに、各部分項目の回答のつながりを最適化して選択された各部分項目の回答文が結合されて、新たな回答文を作成することができる。よって、本実施形態による情報処理装置1は、質問に対して、違和感を低減した自然な文面の回答を生成することができる。すなわち、本実施形態による情報処理装置1は、自然な言葉(単語)や文の順序を持ち、従来のチャットボットによる短文回答などよりも複雑な回答を生成することができる。このように、本実施形態による情報処理装置1は、1文字生成で、且つ、長文、複雑、多様なNon-Factoid型質問に対する回答に適用可能である。   Thereby, the information processing apparatus 1 according to the present embodiment generates an answer sentence based on a learning result obtained by collectively learning the encoder / decoder model M11 and the sentence unit learning model M12. Can generate an answer sentence, and the answer sentence of each partial item selected by optimizing the connection of the answers of the partial items can be combined to create a new answer sentence. Therefore, the information processing apparatus 1 according to the present embodiment can generate a natural sentence answer with reduced discomfort with respect to the question. That is, the information processing apparatus 1 according to the present embodiment has a natural word (word) or sentence order, and can generate a more complex answer than a short sentence answer by a conventional chatbot. As described above, the information processing apparatus 1 according to the present embodiment can generate one character and can be applied to answers to long, complicated, and various non-factoroid questions.

また、本実施形態では、文単位学習モデルM12は、エンコーダデコーダモデルM11の途中学習結果及び文脈ベクトル10に基づいて生成した回答文(例えば、「結論」の正解文ac2+、「結論」の不正解文ac2−、「補足」の正解文as2+、及び「補足」の不正解文as2−など)を部分回答文とする。文単位学習モデルM12は、当該部分回答文と質問文とを含む組情報を入力情報として学習する。
これにより、本実施形態による情報処理装置1は、エンコーダデコーダモデルM11の途中学習結果に基づいて再生成したより自然な文面となる回答文を入力情報として学習するため、質問に対して、さらに違和感を低減した自然な文面の回答を生成することができる。
In the present embodiment, the sentence unit learning model M12 is the answer sentence generated based on the intermediate learning result of the encoder decoder model M11 and the context vector 10 (for example, the correct sentence ac2 + of “conclusion”, the incorrect answer of “conclusion”). Sentence ac2-, correct sentence as2 + of "supplement", incorrect answer sentence as2- of "supplement", and the like) are partial answer sentences. The sentence unit learning model M12 learns the combination information including the partial answer sentence and the question sentence as input information.
As a result, the information processing apparatus 1 according to the present embodiment learns, as input information, an answer sentence that is a more natural sentence regenerated based on the intermediate learning result of the encoder / decoder model M11. It is possible to generate a natural sentence answer with reduced.

また、本実施形態では、エンコーダデコーダモデルM11は、既知の部分回答文における単語ごとに関連するトピック情報に基づいて、既知の部分回答文をデコードして学習する。すなわち、エンコーダデコーダモデルM11は、例えば、C−LSTMにより学習するモデルである。
これにより、本実施形態による情報処理装置1は、トピック情報により、関連の低い文字(単語)が選ばれることを低減することができるため、文字(単語)単位で、さらに違和感を低減した自然な文面の回答を生成することができる。
In this embodiment, the encoder / decoder model M11 decodes and learns a known partial answer sentence based on topic information related to each word in the known partial answer sentence. That is, the encoder decoder model M11 is a model that learns by C-LSTM, for example.
Thereby, since the information processing apparatus 1 according to the present embodiment can reduce the selection of a less relevant character (word) based on the topic information, it is natural to further reduce the sense of discomfort for each character (word). A written answer can be generated.

また、本実施形態では、既知の回答文には、質問文に対する正解文と、不正解文とが含まれる。回答生成部134は、質問文と、複数の部分項目それぞれに対応する正解文及び不正解文との組を複数有する学習情報に基づいて機械学習された学習結果に基づいて、回答文を生成する。エンコーダデコーダモデルM11は、文脈ベクトル10に基づいて、複数の部分項目ごとの正解文及び不正解文をデコードして学習する。文単位学習モデルM12は、質問埋め込みベクトルO(質問中間ベクトル)と、複数の部分項目それぞれに対応した正解埋め込みベクトル(Oac+、Oas+)(正解中間ベクトル)と、複数の部分項目それぞれに対応した不正解埋め込みベクトル(Oac−、Oas−)(不正解中間ベクトル)と、の複数の部分項目の組合せに基づいて学習する。ここで、正解埋め込みベクトル(Oac+、Oas+)は、正解文を単語ごとに変換された特徴ベクトルを双方向の単語の並び順に基づいて生成した双方向ベクトル列25(正解特徴ベクトル群)に基づいて、単語の並びを双方向に学習して生成される。また、不正解埋め込みベクトル(Oac−、Oas−)は、不正解文を単語ごとに変換された特徴ベクトルを双方向の単語の並び順に基づいて生成した双方向ベクトル列26(不正解特徴ベクトル群)に基づいて、単語の並びを双方向に学習して生成される。 In this embodiment, the known answer sentence includes a correct answer sentence and an incorrect answer sentence for the question sentence. The answer generation unit 134 generates an answer sentence based on a learning result that is machine-learned based on learning information that includes a plurality of pairs of a question sentence and a correct answer sentence and an incorrect answer sentence corresponding to each of the plurality of partial items. . Based on the context vector 10, the encoder / decoder model M11 decodes and learns the correct and incorrect answer sentences for each of the partial items. The sentence unit learning model M12 includes a question embedding vector O q (question intermediate vector), a correct answer embedding vector (O ac + , O as + ) (correct answer intermediate vector) corresponding to each of the plurality of partial items, and a plurality of partial items. Learning is performed based on a combination of a plurality of partial items of a corresponding incorrect answer embedding vector (O ac− , O as− ) (incorrect answer intermediate vector). Here, the correct embedded vector (O ac + , O as + ) is a bidirectional vector sequence 25 (correct feature vector group) generated based on a bidirectional word arrangement order based on a feature vector obtained by converting a correct sentence for each word. Based on this, it is generated by bi-directional learning of word sequences. The incorrect answer embedding vector (O ac− , O as− ) is a bidirectional vector string 26 (incorrect answer feature) generated based on a bidirectional word arrangement order from a feature vector obtained by converting an incorrect answer sentence for each word. Based on the vector group), the word sequence is generated by bidirectional learning.

これにより、本実施形態による情報処理装置1は、正解文と不正解文とを用いて学習された学習結果に基づいて、回答文を生成するため、さらに違和感を低減した自然な文面の回答を生成することができる。   Thereby, since the information processing apparatus 1 according to the present embodiment generates an answer sentence based on the learning result learned using the correct answer sentence and the incorrect answer sentence, a natural sentence answer with further reduced discomfort can be obtained. Can be generated.

また、本実施形態では、学習結果は、複数の部分項目のうちの第1の部分項目(例えば、「結論」)に対応する正解埋め込みベクトル(Oac+、Oas+)及び不正解埋め込みベクトル(Oac−、Oas−)に基づいて、第1の部分項目と異なる第2の部分項目(例えば、「補足」)に対応する双方向ベクトル列25及び双方向ベクトル列26(不正解特徴ベクトル群)が更新されて学習される。すなわち、学習処理部132は、上述した式(3)を用いたアテンションメカニズムにより、双方向ベクトル列25−2及び双方向ベクトル列26−2の各双方向ベクトル(h(t))を更新させて学習する。
これにより、本実施形態による情報処理装置1は、部分項目の間の関連(例えば、部分項目のつながり)を最適化した学習を行うことができる。そのため、本実施形態による情報処理装置1は、部分項目を組み合わせて、より自然な回答文を生成することができる。
Further, in the present embodiment, the learning result includes correct answer embedding vectors (O ac + , O as + ) and incorrect answer embedding vectors (O O + ) corresponding to a first partial item (for example, “conclusion”) among a plurality of partial items. ac− , O as− ), the bidirectional vector sequence 25 and the bidirectional vector sequence 26 (incorrect feature vector group) corresponding to a second partial item (for example, “supplement”) different from the first partial item. ) Is updated and learned. That is, the learning processing unit 132 updates each bidirectional vector (h (t)) of the bidirectional vector sequence 25-2 and the bidirectional vector sequence 26-2 by the attention mechanism using the above-described equation (3). To learn.
Thereby, the information processing apparatus 1 according to the present embodiment can perform learning that optimizes the relationship between the partial items (for example, the connection of the partial items). Therefore, the information processing apparatus 1 according to the present embodiment can generate a more natural answer sentence by combining partial items.

また、本実施形態による情報処理装置1は、学習情報に基づいて機械学習し、学習結果を生成する学習処理部132を備える。
これにより、本実施形態による情報処理装置1は、自装置で学習して学習結果を生成することができる。また、本実施形態による情報処理装置1は、例えば、再学習して、質問に対する回答を改善することができる。
Further, the information processing apparatus 1 according to the present embodiment includes a learning processing unit 132 that performs machine learning based on learning information and generates a learning result.
Thereby, the information processing apparatus 1 according to the present embodiment can learn by itself and generate a learning result. In addition, the information processing apparatus 1 according to the present embodiment can improve the answer to the question, for example, by re-learning.

また、本実施形態では、例えば、上記の式(5)に基づいて、損失関数Lwが算出される。損失関数Lwは、文字(単語)単位での学習と各部分項目の組み合わせとを同時に最適化するため、本実施形態による情報処理装置1は、回答文を生成するのに適切な部分項目を生成することができる。   In the present embodiment, for example, the loss function Lw is calculated based on the above equation (5). Since the loss function Lw simultaneously optimizes learning in character (word) units and combinations of partial items, the information processing apparatus 1 according to the present embodiment generates partial items suitable for generating an answer sentence. can do.

なお、学習処理部132は、所定の条件(例えば、定期的、あるいは、評価値(例えば、ROUGE)が所定の値以下に低下した、など)に基づいて、学習結果を再学習してもよい。
これにより、本実施形態による情報処理装置1は、時間の変化に対応して、質問に対する回答を改善することができる。
Note that the learning processing unit 132 may re-learn the learning result based on a predetermined condition (for example, periodically or based on an evaluation value (for example, ROUGE) being reduced to a predetermined value or less). .
Thereby, the information processing apparatus 1 according to the present embodiment can improve the answer to the question in response to a change in time.

また、本実施形態による情報処理方法は、質問取得ステップと、回答生成ステップとを含む。質問取得ステップにおいて、質問取得部133が、入力された入力質問文を取得する。回答生成ステップにおいて、回答生成部134が、質問文と、回答文において、予め定められた文章の筋道により分割される複数の部分項目それぞれに対応する正解文及び不正解文との組を複数有する学習情報に基づいて、機械学習された上述した学習結果に基づいて、質問取得ステップによって取得された入力質問文に対する回答文を生成する。
これにより、本実施形態による情報処理方法は、上述した情報処理装置1と同様の効果を奏し、質問に対して、違和感を低減した自然な文面の回答を生成することができる。
The information processing method according to the present embodiment includes a question acquisition step and an answer generation step. In the question acquisition step, the question acquisition unit 133 acquires the input sentence that has been input. In the answer generation step, the answer generation unit 134 has a plurality of combinations of the question sentence and the correct answer sentence and the incorrect answer sentence corresponding to each of the plurality of partial items divided in the answer sentence according to a predetermined sentence path. Based on the learning information, an answer sentence to the input question sentence acquired by the question acquisition step is generated based on the above-described learning result that has been machine-learned.
Thereby, the information processing method according to the present embodiment produces the same effect as that of the information processing apparatus 1 described above, and can generate a natural sentence answer with reduced discomfort for the question.

なお、本発明は、上記の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
例えば、上記の実施形態において、情報処理装置1は、学習処理部132を備える例を説明したが、これに限定されるものではなく、学習結果を取得できる状態であれば、学習処理部132を備えなくてもよい。
In addition, this invention is not limited to said embodiment, It can change in the range which does not deviate from the meaning of this invention.
For example, in the above-described embodiment, the information processing apparatus 1 has been described with an example including the learning processing unit 132. However, the present invention is not limited to this, and the learning processing unit 132 is not limited to this, as long as the learning result can be acquired. It does not have to be provided.

また、情報処理装置1は、サービス記憶部121と、学習結果記憶部122とを備える例を説明したが、サービス記憶部121と、学習結果記憶部122とのいずれか一方又は両方を、例えば、外部のサーバ装置が備えるようにしてもよい。また、情報処理装置1は、制御部13が備える機能部の一部を外部のサーバ装置が備えるようにしてもよい。
なお、上記の実施形態において、情報処理装置1は、1台のサーバ装置により構成される例を説明したが、複数の装置により構成されてもよい。
Moreover, although the information processing apparatus 1 demonstrated the example provided with the service memory | storage part 121 and the learning result memory | storage part 122, either one or both of the service memory | storage part 121 and the learning result memory | storage part 122, for example, An external server device may be provided. Further, in the information processing apparatus 1, an external server device may include a part of the functional units included in the control unit 13.
In the above embodiment, the example in which the information processing apparatus 1 is configured by one server apparatus has been described. However, the information processing apparatus 1 may be configured by a plurality of apparatuses.

また、上記の実施形態において、情報処理装置1は、回答文を「結論」及び「補足」の2つの部分項目により構成する場合の一例を説明したが、これに限定されるものではなく、3つ以上の部分項目に対応させてもよい。
また、上記の実施形態の文単位学習モデルM12において、情報処理装置1は、部分項目ごとにQA−LSTM部20を備える手法と、アテンションメカニズムによる手法とを適用する例を説明したが、これに限定されるものではない。情報処理装置1は、文単位学習モデルM12において、例えば、これらの手法の一部を適用しない形態であってもよい。
Further, in the above-described embodiment, the information processing apparatus 1 has described an example in which the answer sentence is configured by two partial items of “conclusion” and “supplement”, but is not limited thereto. You may make it respond | correspond to two or more partial items.
Moreover, in the sentence unit learning model M12 of the above-described embodiment, the information processing apparatus 1 has described the example in which the method including the QA-LSTM unit 20 for each partial item and the method based on the attention mechanism are applied. It is not limited. In the sentence unit learning model M12, for example, the information processing apparatus 1 may have a form in which some of these methods are not applied.

また、上記の実施形態において、文単位学習モデルM12の損失関数Lsが、上述した式(4)により算出される例を説明したが、これに限定されるものではなく、以下の式(6)により算出されてもよい。   In the above embodiment, the example has been described in which the loss function Ls of the sentence unit learning model M12 is calculated by the above-described equation (4). However, the present invention is not limited to this, and the following equation (6) May be calculated.

Figure 2018206307
Figure 2018206307

また、上記の実施形態の学習処理において、エンコーダデコーダモデルM11の途中学習結果及び文脈ベクトル10に基づいて再生成した回答文(例えば、結論回答文ac2、補足回答文as2など)を文単位学習モデルM12の入力情報とする例を説明したが、これに限定されるものではない。学習処理部132は、デコードの学習に利用した再生成する前の回答文を、文単位学習モデルM12の入力情報とするようにしてもよい。   In the learning process of the above embodiment, the reply sentence (for example, the conclusion answer sentence ac2, the supplementary answer sentence as2, etc.) regenerated based on the intermediate learning result of the encoder decoder model M11 and the context vector 10 is used as the sentence unit learning model. Although the example which uses M12 as input information has been described, the present invention is not limited to this. The learning processing unit 132 may use, as input information of the sentence unit learning model M12, the answer sentence before re-generation used for decoding learning.

なお、上述した情報処理装置1が備える各構成は、内部に、コンピュータシステムを有している。そして、上述した情報処理装置1が備える各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述した情報処理装置1が備える各構成における処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD−ROM等の非一過性の記録媒体であってもよい。
Each configuration included in the information processing apparatus 1 described above has a computer system therein. And the program for implement | achieving the function of each structure with which the information processing apparatus 1 mentioned above is provided is recorded on a computer-readable recording medium, and the program recorded on this recording medium is read into a computer system and executed. The processing in each configuration included in the information processing apparatus 1 described above may be performed. Here, “loading and executing a program recorded on a recording medium into a computer system” includes installing the program in the computer system. The “computer system” here includes an OS and hardware such as peripheral devices.
Further, the “computer system” may include a plurality of computer devices connected via a network including a communication line such as the Internet, WAN, LAN, and dedicated line. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. As described above, the recording medium storing the program may be a non-transitory recording medium such as a CD-ROM.

また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部又は外部に設けられた記録媒体も含まれる。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に情報処理装置1が備える各構成で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。   The recording medium also includes a recording medium provided inside or outside that is accessible from the distribution server in order to distribute the program. It should be noted that the program may be divided into a plurality of parts and downloaded at different timings, and the structure combined with each component included in the information processing apparatus 1 or the distribution server that distributes each of the divided programs may be different. Furthermore, the “computer-readable recording medium” holds a program for a certain period of time, such as a volatile memory (RAM) inside a computer system that becomes a server or a client when the program is transmitted via a network. Including things. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

また、上述した機能の一部又は全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。上述した各機能は個別にプロセッサ化してもよいし、一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、又は汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。   Moreover, you may implement | achieve part or all of the function mentioned above as integrated circuits, such as LSI (Large Scale Integration). Each function described above may be individually made into a processor, or a part or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. In addition, when an integrated circuit technology that replaces LSI appears due to the advancement of semiconductor technology, an integrated circuit based on the technology may be used.

1 情報処理装置
2 端末装置
10 文脈ベクトル
11 NW通信部
12 記憶部
13 制御部
20、20−1、20−2 QA−LSTM部
21、21−1、21−2 質問埋め込みベクトル生成部
22、22−1、22−2 正解埋め込みベクトル生成部
23、23−1、23−2 不正解埋め込みベクトル生成部
24、24−1、24−2、25、25−1、25−2、26、26−1、26−2 双方向ベクトル列
30 損失関数生成部
100 情報処理システム
121 サービス記憶部
122 学習結果記憶部
131 サービス提供部
132 学習処理部
133 質問取得部
134 回答生成部
M1 学習モデル
M11 エンコーダデコーダモデル
M12 文単位学習モデル
M111 エンコーダモデル
M112 デコーダモデル
NW1 ネットワーク
DESCRIPTION OF SYMBOLS 1 Information processing apparatus 2 Terminal apparatus 10 Context vector 11 NW communication part 12 Storage part 13 Control part 20, 20-1, 20-2 QA-LSTM part 21, 21-1, 21-2 Question embedding vector generation part 22, 22 -1, 22-2 Correct answer embedded vector generator 23, 23-1, 23-2 Incorrect answer embedded vector generator 24, 24-1, 24-2, 25, 25-1, 25-2, 26, 26- 1, 26-2 Bidirectional vector sequence 30 Loss function generation unit 100 Information processing system 121 Service storage unit 122 Learning result storage unit 131 Service providing unit 132 Learning processing unit 133 Question acquisition unit 134 Answer generation unit M1 Learning model M11 Encoder decoder model M12 sentence unit learning model M111 encoder model M112 decoder model NW1 network The

Claims (8)

入力された入力質問文を取得する質問取得部と、
質問文と、回答文において、予め定められた文章の筋道により分割される複数の部分項目それぞれに対応する既知の部分回答文との組を複数有する学習情報に基づいて機械学習された学習結果に基づいて、前記質問取得部によって取得された前記入力質問文に対する回答文を生成する回答生成部と
を備え、
前記学習結果は、
前記質問文を1単語ずつ順次単語の並び順に基づいてエンコードして文脈ベクトルを生成し、生成した前記文脈ベクトルに基づいて、前記複数の部分項目ごとの前記既知の部分回答文をデコードして学習するエンコーダデコーダモデルと、
前記エンコーダデコーダモデルに基づいてデコードされた前記複数の部分項目ごとの部分回答文と、前記質問文とを含む組情報を入力情報として、前記質問文を前記単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の前記単語の並び順に基づいて生成した質問特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された質問中間ベクトルと、前記複数の部分項目それぞれに対応した回答中間ベクトルであって、前記部分回答文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した回答特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された回答中間ベクトルと、の前記複数の部分項目の組合せに基づいて学習する文単位学習モデルと、
を組み合わせて算出される損失関数により最適化されて学習される
ことを特徴とする情報処理装置。
A question acquisition unit for acquiring the input question text,
In a learning result obtained by machine learning based on learning information having a plurality of pairs of a question sentence and a known partial answer sentence corresponding to each of a plurality of partial items divided by a predetermined sentence path in the answer sentence And an answer generation unit that generates an answer sentence for the input question sentence acquired by the question acquisition part,
The learning result is
The question sentence is sequentially encoded word by word based on the word arrangement order to generate a context vector, and based on the generated context vector, the known partial answer sentence for each of the plurality of partial items is decoded and learned. An encoder / decoder model to
Using as input information set information including a partial answer sentence for each of the plurality of partial items decoded based on the encoder decoder model and the question sentence, a feature vector obtained by converting the question sentence into words is sometimes used. A plurality of question intermediate vectors generated by learning the word sequence bidirectionally based on a question feature vector group generated based on the sequence of the words in both the forward and reverse directions of the sequence; An answer intermediate vector corresponding to each of the partial items, and based on the answer feature vector group generated based on the bidirectional order of the words, the feature vector obtained by converting the partial answer sentence for each word, A sentence unit learning model for learning based on a combination of the plurality of partial items of an answer intermediate vector generated by learning the word sequence in the bidirectional direction;
An information processing apparatus characterized by being optimized and learned by a loss function calculated by combining.
前記文単位学習モデルは、前記エンコーダデコーダモデルの途中学習結果及び前記文脈ベクトルに基づいて生成した回答文を前記部分回答文とし、当該部分回答文と前記質問文とを含む組情報を前記入力情報として学習する
ことを特徴とする請求項1に記載の情報処理装置。
The sentence unit learning model uses an answer sentence generated based on an intermediate learning result of the encoder decoder model and the context vector as the partial answer sentence, and sets information including the partial answer sentence and the question sentence as the input information The information processing apparatus according to claim 1, wherein learning is performed as follows.
前記エンコーダデコーダモデルは、前記既知の部分回答文における単語ごとに関連するトピック情報に基づいて、前記既知の部分回答文をデコードして学習する
ことを特徴とする請求項1又は請求項2に記載の情報処理装置。
The said encoder decoder model decodes and learns the said known partial answer sentence based on the topic information relevant for every word in the said known partial answer sentence. The claim 1 or Claim 2 characterized by the above-mentioned. Information processing device.
前記既知の回答文には、前記質問文に対する正解文と、不正解文とが含まれ、
前記回答生成部は、前記質問文と、前記複数の部分項目それぞれに対応する前記正解文及び前記不正解文との組を複数有する前記学習情報に基づいて機械学習された前記学習結果に基づいて、前記回答文を生成し、
前記エンコーダデコーダモデルは、前記文脈ベクトルに基づいて、前記複数の部分項目ごとの前記正解文及び前記不正解文をデコードして学習し、
前記文単位学習モデルは、前記質問中間ベクトルと、前記複数の部分項目それぞれに対応した正解中間ベクトルであって、前記正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された正解中間ベクトルと、前記複数の部分項目それぞれに対応した不正解中間ベクトルであって、前記不正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した不正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された不正解中間ベクトルと、の前記複数の部分項目の組合せに基づいて学習する
ことを特徴とする請求項1から請求項3のいずれか一項に記載の情報処理装置。
The known answer sentence includes a correct answer sentence and an incorrect answer sentence for the question sentence,
The answer generator is based on the learning result machine-learned based on the learning information including a plurality of sets of the question sentence and the correct answer sentence and the incorrect answer sentence corresponding to each of the plurality of partial items. , Generate the answer sentence,
The encoder decoder model decodes and learns the correct answer sentence and the incorrect answer sentence for each of the plurality of partial items based on the context vector,
The sentence-by-sentence learning model includes the question intermediate vector and a correct answer intermediate vector corresponding to each of the plurality of partial items, and a feature vector obtained by converting the correct answer sentence for each word is used as the bidirectional arrangement of the words. A correct answer intermediate vector generated by learning the word sequence bidirectionally based on a correct answer feature vector group generated based on the order, and an incorrect answer intermediate vector corresponding to each of the plurality of partial items, The incorrect answer sentence is generated by learning the word sequence bidirectionally based on the incorrect feature vector group generated based on the bidirectional order of the word order. The information processing according to any one of claims 1 to 3, wherein learning is performed based on a combination of the plurality of partial items with an incorrect answer intermediate vector. Science device.
前記学習結果は、
前記複数の部分項目のうちの第1の部分項目に対応する前記正解中間ベクトル及び前記不正解中間ベクトルに基づいて、前記第1の部分項目と異なる第2の部分項目に対応する正解特徴ベクトル群及び不正解特徴ベクトル群が更新されて学習される
ことを特徴とする請求項4に記載の情報処理装置。
The learning result is
Correct feature vector group corresponding to a second partial item different from the first partial item based on the correct intermediate vector and the incorrect intermediate vector corresponding to the first partial item of the plurality of partial items The information processing apparatus according to claim 4, wherein the incorrect answer feature vector group is updated and learned.
前記学習情報に基づいて機械学習し、前記学習結果を生成する学習処理部を備える
ことを特徴とする請求項1から請求項5のいずれか一項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 5, further comprising a learning processing unit that performs machine learning based on the learning information and generates the learning result.
質問取得部が、入力された入力質問文を取得する質問取得ステップと、
回答生成部が、質問文と、回答文において、予め定められた文章の筋道により分割される複数の部分項目それぞれに対応する既知の部分回答文との組を複数有する学習情報に基づいて機械学習された学習結果に基づいて、前記質問取得ステップによって取得された前記入力質問文に対する回答文を生成する回答生成ステップと
を含み、
前記学習結果は、
前記質問文を1単語ずつ順次単語の並び順に基づいてエンコードして文脈ベクトルを生成し、生成した前記文脈ベクトルに基づいて、前記複数の部分項目ごとの前記既知の部分回答文をデコードして学習するエンコーダデコーダモデルと、
前記エンコーダデコーダモデルに基づいてデコードされた前記複数の部分項目ごとの部分回答文と、前記質問文とを含む組情報を入力情報として、前記質問文を前記単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の前記単語の並び順に基づいて生成した質問特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された質問中間ベクトルと、前記複数の部分項目それぞれに対応した回答中間ベクトルであって、前記部分回答文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した回答特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された回答中間ベクトルと、の前記複数の部分項目の組合せに基づいて学習する文単位学習モデルと、
を組み合わせて算出される損失関数により最適化されて学習される
ことを特徴とする情報処理方法。
A question acquisition step in which the question acquisition unit acquires the inputted input question sentence;
The answer generation unit performs machine learning based on learning information including a plurality of pairs of a question sentence and a known partial answer sentence corresponding to each of a plurality of partial items divided by a predetermined sentence path in the answer sentence. An answer generation step of generating an answer sentence for the input question sentence acquired by the question acquisition step based on the learned result,
The learning result is
The question sentence is sequentially encoded word by word based on the word arrangement order to generate a context vector, and based on the generated context vector, the known partial answer sentence for each of the plurality of partial items is decoded and learned. An encoder / decoder model to
Using as input information set information including a partial answer sentence for each of the plurality of partial items decoded based on the encoder decoder model and the question sentence, a feature vector obtained by converting the question sentence into words is sometimes used. A plurality of question intermediate vectors generated by learning the word sequence bidirectionally based on a question feature vector group generated based on the sequence of the words in both the forward and reverse directions of the sequence; An answer intermediate vector corresponding to each of the partial items, and based on the answer feature vector group generated based on the bidirectional order of the words, the feature vector obtained by converting the partial answer sentence for each word, A sentence unit learning model for learning based on a combination of the plurality of partial items of an answer intermediate vector generated by learning the word sequence in the bidirectional direction;
An information processing method characterized by being optimized and learned by a loss function calculated by combining.
コンピュータに、
入力された入力質問文を取得する質問取得ステップと、
質問文と、回答文において、予め定められた文章の筋道により分割される複数の部分項目それぞれに対応する既知の部分回答文との組を複数有する学習情報に基づいて機械学習された学習結果に基づいて、前記質問取得ステップによって取得された前記入力質問文に対する回答文を生成する回答生成ステップと
を実行させるためのプログラムであり、
前記学習結果は、
前記質問文を1単語ずつ順次単語の並び順に基づいてエンコードして文脈ベクトルを生成し、生成した前記文脈ベクトルに基づいて、前記複数の部分項目ごとの前記既知の部分回答文をデコードして学習するエンコーダデコーダモデルと、
前記エンコーダデコーダモデルに基づいてデコードされた前記複数の部分項目ごとの部分回答文と、前記質問文とを含む組情報を入力情報として、前記質問文を前記単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の前記単語の並び順に基づいて生成した質問特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された質問中間ベクトルと、前記複数の部分項目それぞれに対応した回答中間ベクトルであって、前記部分回答文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した回答特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された回答中間ベクトルと、の前記複数の部分項目の組合せに基づいて学習する文単位学習モデルと、
を組み合わせて算出される損失関数により最適化されて学習される
ことを特徴とするプログラム。
On the computer,
A question acquisition step for acquiring the input question sentence,
In a learning result obtained by machine learning based on learning information having a plurality of pairs of a question sentence and a known partial answer sentence corresponding to each of a plurality of partial items divided by a predetermined sentence path in the answer sentence And an answer generation step of generating an answer sentence for the input question sentence acquired by the question acquisition step,
The learning result is
The question sentence is sequentially encoded word by word based on the word arrangement order to generate a context vector, and based on the generated context vector, the known partial answer sentence for each of the plurality of partial items is decoded and learned. An encoder / decoder model to
Using as input information set information including a partial answer sentence for each of the plurality of partial items decoded based on the encoder decoder model and the question sentence, a feature vector obtained by converting the question sentence into words is sometimes used. A plurality of question intermediate vectors generated by learning the word sequence bidirectionally based on a question feature vector group generated based on the sequence of the words in both the forward and reverse directions of the sequence; An answer intermediate vector corresponding to each of the partial items, and based on the answer feature vector group generated based on the bidirectional order of the words, the feature vector obtained by converting the partial answer sentence for each word, A sentence unit learning model for learning based on a combination of the plurality of partial items of an answer intermediate vector generated by learning the word sequence in the bidirectional direction;
A program characterized by being optimized and learned by a loss function calculated by combining.
JP2017114483A 2017-06-09 2017-06-09 Information processing equipment, information processing methods, and programs Active JP6871809B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017114483A JP6871809B2 (en) 2017-06-09 2017-06-09 Information processing equipment, information processing methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017114483A JP6871809B2 (en) 2017-06-09 2017-06-09 Information processing equipment, information processing methods, and programs

Publications (2)

Publication Number Publication Date
JP2018206307A true JP2018206307A (en) 2018-12-27
JP6871809B2 JP6871809B2 (en) 2021-05-12

Family

ID=64957248

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017114483A Active JP6871809B2 (en) 2017-06-09 2017-06-09 Information processing equipment, information processing methods, and programs

Country Status (1)

Country Link
JP (1) JP6871809B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110059174A (en) * 2019-04-28 2019-07-26 科大讯飞股份有限公司 Inquiry guidance method and device
JP6649536B1 (en) * 2019-05-28 2020-02-19 日本電信電話株式会社 Dialogue processing device, learning device, dialogue processing method, learning method and program
CN110852071A (en) * 2019-11-08 2020-02-28 科大讯飞股份有限公司 Knowledge point detection method, device, equipment and readable storage medium
CN111125386A (en) * 2019-12-02 2020-05-08 腾讯科技(北京)有限公司 Media resource processing method and device, storage medium and electronic device
CN111324728A (en) * 2020-01-22 2020-06-23 腾讯科技(深圳)有限公司 Text event abstract generation method and device, electronic equipment and storage medium
CN112559707A (en) * 2020-12-16 2021-03-26 四川智仟科技有限公司 Knowledge-driven customer service question and answer method
JPWO2021117180A1 (en) * 2019-12-12 2021-06-17
JP2021106016A (en) * 2020-09-21 2021-07-26 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Dialog generation method, device, electronic equipment, and medium
CN114781596A (en) * 2022-03-28 2022-07-22 上海易康源医疗健康科技有限公司 Neural network training method, text similarity detection method and dialogue system
WO2022224462A1 (en) * 2021-04-23 2022-10-27 富士通株式会社 Information processing program, information processing method, and information processing device
CN116932726A (en) * 2023-08-04 2023-10-24 重庆邮电大学 Open domain dialogue generation method based on controllable multi-space feature decoupling
CN117609437A (en) * 2023-10-16 2024-02-27 北京百度网讯科技有限公司 Information acquisition method, device, equipment and medium based on large language model
JP7563832B2 (en) 2023-03-17 2024-10-08 Necプラットフォームズ株式会社 Processing device, processing method, and program

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
内山 育海: ""世界で広がる動画のAI活用 民放キー局が本腰入れる理由"", 日経エレクトロニクス, vol. 第1180号, JPN6021009552, 20 May 2017 (2017-05-20), JP, pages 18 - 20, ISSN: 0004466732 *
大塚 淳史,外4名: ""答えを先読みする文書検索手法の提案"", 第9回データ工学と情報マネジメントに関するフォーラム (第15回日本データベース学会年次大会), JPN6021009553, 6 July 2017 (2017-07-06), JP, ISSN: 0004466733 *
小林 颯介,外3名: ""談話内における局所文脈の動的分散表現"", 言語処理学会第22回年次大会 発表論文集, JPN6021009551, 28 November 2016 (2016-11-28), JP, pages 1137 - 1140, ISSN: 0004466731 *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110059174B (en) * 2019-04-28 2023-05-30 科大讯飞股份有限公司 Query guiding method and device
CN110059174A (en) * 2019-04-28 2019-07-26 科大讯飞股份有限公司 Inquiry guidance method and device
JP6649536B1 (en) * 2019-05-28 2020-02-19 日本電信電話株式会社 Dialogue processing device, learning device, dialogue processing method, learning method and program
WO2020240709A1 (en) * 2019-05-28 2020-12-03 日本電信電話株式会社 Dialog processing device, learning device, dialog processing method, learning method, and program
CN110852071A (en) * 2019-11-08 2020-02-28 科大讯飞股份有限公司 Knowledge point detection method, device, equipment and readable storage medium
CN110852071B (en) * 2019-11-08 2023-10-24 科大讯飞股份有限公司 Knowledge point detection method, device, equipment and readable storage medium
CN111125386A (en) * 2019-12-02 2020-05-08 腾讯科技(北京)有限公司 Media resource processing method and device, storage medium and electronic device
JP7342971B2 (en) 2019-12-12 2023-09-12 日本電信電話株式会社 Dialogue processing device, learning device, dialogue processing method, learning method and program
JPWO2021117180A1 (en) * 2019-12-12 2021-06-17
WO2021117180A1 (en) * 2019-12-12 2021-06-17 日本電信電話株式会社 Dialog processing device, learning device, dialog processing method, learning method, and program
CN111324728A (en) * 2020-01-22 2020-06-23 腾讯科技(深圳)有限公司 Text event abstract generation method and device, electronic equipment and storage medium
CN111324728B (en) * 2020-01-22 2023-08-22 腾讯科技(深圳)有限公司 Text event abstract generation method and device, electronic equipment and storage medium
JP7204802B2 (en) 2020-09-21 2023-01-16 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Dialogue generation method, device, electronic device and medium
JP2021106016A (en) * 2020-09-21 2021-07-26 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Dialog generation method, device, electronic equipment, and medium
CN112559707A (en) * 2020-12-16 2021-03-26 四川智仟科技有限公司 Knowledge-driven customer service question and answer method
WO2022224462A1 (en) * 2021-04-23 2022-10-27 富士通株式会社 Information processing program, information processing method, and information processing device
CN114781596A (en) * 2022-03-28 2022-07-22 上海易康源医疗健康科技有限公司 Neural network training method, text similarity detection method and dialogue system
JP7563832B2 (en) 2023-03-17 2024-10-08 Necプラットフォームズ株式会社 Processing device, processing method, and program
CN116932726A (en) * 2023-08-04 2023-10-24 重庆邮电大学 Open domain dialogue generation method based on controllable multi-space feature decoupling
CN116932726B (en) * 2023-08-04 2024-05-10 重庆邮电大学 Open domain dialogue generation method based on controllable multi-space feature decoupling
CN117609437A (en) * 2023-10-16 2024-02-27 北京百度网讯科技有限公司 Information acquisition method, device, equipment and medium based on large language model

Also Published As

Publication number Publication date
JP6871809B2 (en) 2021-05-12

Similar Documents

Publication Publication Date Title
JP6871809B2 (en) Information processing equipment, information processing methods, and programs
Foster Generative deep learning
CN110738026B (en) Method and device for generating description text
US20190005399A1 (en) Learning device, generation device, learning method, generation method, and non-transitory computer readable storage medium
CN110347799B (en) Language model training method and device and computer equipment
CN109063174B (en) Query answer generation method and device, computer storage medium and electronic equipment
CN107515855B (en) Microblog emotion analysis method and system combined with emoticons
CN112765306A (en) Intelligent question answering method and device, computer equipment and storage medium
CN109478204A (en) The machine of non-structured text understands
JP6611053B2 (en) Subject estimation system, subject estimation method and program
CN108280112A (en) Abstraction generating method, device and computer equipment
JP6680659B2 (en) Information processing device, information processing method, and program
JP6569047B1 (en) Learning method, computer program, classifier, and generator
US20220122378A1 (en) Data-driven, photorealistic social face-trait encoding, prediction, and manipulation using deep neural networks
US10685012B2 (en) Generating feature embeddings from a co-occurrence matrix
Ali et al. Automatic text‐to‐gesture rule generation for embodied conversational agents
CN102651719A (en) Method and equipment for tracking message topics in message interaction environment
CN112733043B (en) Comment recommendation method and device
CN111767697B (en) Text processing method and device, computer equipment and storage medium
CN112734104A (en) Cross-domain recommendation method for generating countermeasure network and self-encoder by fusing double generators and double discriminators
CN114648032A (en) Training method and device of semantic understanding model and computer equipment
Tang et al. Predictive modelling of student behaviour using granular large-scale action data
CN117094365A (en) Training method and device for image-text generation model, electronic equipment and medium
Ziegler et al. Modelling word recognition and reading aloud
CN115712739B (en) Dance motion generation method, computer device and storage medium

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20170623

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210416

R150 Certificate of patent or registration of utility model

Ref document number: 6871809

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250