JP7468654B2 - Question answering device, question answering method, and question answering program - Google Patents

Question answering device, question answering method, and question answering program Download PDF

Info

Publication number
JP7468654B2
JP7468654B2 JP2022533265A JP2022533265A JP7468654B2 JP 7468654 B2 JP7468654 B2 JP 7468654B2 JP 2022533265 A JP2022533265 A JP 2022533265A JP 2022533265 A JP2022533265 A JP 2022533265A JP 7468654 B2 JP7468654 B2 JP 7468654B2
Authority
JP
Japan
Prior art keywords
output
question
layer
question answering
machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022533265A
Other languages
Japanese (ja)
Other versions
JPWO2022003762A1 (en
Inventor
淳史 大塚
京介 西田
光甫 西田
久子 浅野
準二 富田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2022003762A1 publication Critical patent/JPWO2022003762A1/ja
Priority to JP2024047724A priority Critical patent/JP2024071511A/en
Application granted granted Critical
Publication of JP7468654B2 publication Critical patent/JP7468654B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本開示は、質問応答装置、質問応答方法及び質問応答プログラムに関する。 The present disclosure relates to a question answering device, a question answering method, and a question answering program.

ユーザが自然言語で入力した質問に対して、自動で応答する質問応答技術として、機械読解が知られている。機械読解とは、ユーザによる質問と、自然言語で記述された関連文書(「パッセージ」と称す)とを入力し、パッセージ中から抽出した情報に基づいて、入力された質問に対する応答を出力する技術である。 Machine reading comprehension is known as a question-answering technology that automatically responds to questions entered by a user in natural language. Machine reading comprehension is a technology that inputs a user's question and a related document written in natural language (called a "passage"), and outputs a response to the input question based on information extracted from the passage.

当該機械読解により質問に対する応答を出力する際の出力形式は様々であり、一例として、
・パッセージから抽出した情報に基づいて、文生成により生成した回答文を出力する形式、
・パッセージから抽出した情報に基づいて、YES/NOなどのラベルを出力する形式、
・パッセージから抽出した情報に基づいて生成した質問(回答を絞り込むための質問)を出力する形式、
等が挙げられる。
The output format of the response to the question by the machine reading comprehension is various. For example,
- A format that outputs answer sentences generated by sentence generation based on information extracted from the passage,
- A format that outputs labels such as YES/NO based on information extracted from the passage,
- A format that outputs questions (questions to narrow down answers) generated based on information extracted from the passage,
etc.

Kyosuke Nishida, Itsumi Saito, Kosuke Nishida, Kazutoshi Shinoda, Atsushi Otsuka, Hisako Asano, and Junji Tomita, "Multi-style generative reading comprehension", In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL2019), pp. 2273-2284, 2019.Kyosuke Nishida, Itsumi Saito, Kosuke Nishida, Kazutoshi Shinoda, Atsushi Otsuka, Hisako Asano, and Junji Tomita, "Multi-style generative reading comprehension", In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL2019), pp. 2273-2284, 2019. Kosuke Nishida,Kyosuke Nishida,Masaaki Nagata,Itsumi Saito,Atushi Otuka, Hisako Asano and Junji Tomita, "Answering while Summarizing: Multi-task Learning for Multi-hop QA with Evidence Extraction", Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL2019), pp.2273- 2284.2019.Kosuke Nishida, Kyosuke Nishida, Masaaki Nagata, Itsumi Saito, Atushi Otuka, Hisako Asano and Junji Tomita, "Answering while Summarizing: Multi-task Learning for Multi-hop QA with Evidence Extraction", Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL2019), pp.2273- 2284.2019. 大塚淳史, 西田京介, 斉藤いつみ, 浅野久子, 富田準二, 佐藤哲司.質問意図の明確 化に着目した機械読解による質問応答手法の提案.人工知能学会論文誌,vol.34, no.5 A-J14,pp.1-12,2019.Atsushi Otsuka, Kyosuke Nishida, Itsumi Saito, Hisako Asano, Junji Tomita, and Tetsuji Sato. Proposal of a question answering method using machine comprehension focusing on clarifying the intent of the question. Transactions of the Japanese Society for Artificial Intelligence, vol.34, no.5 A-J14, pp.1-12, 2019.

ここで、上記いずれの出力形式でも出力可能な機械読解を実現するには、それぞれの出力形式に対応する機械読解モデルを組み合わせることが考えられる。 Here, in order to achieve machine reading comprehension that can output in any of the above output formats, it is possible to consider combining machine reading comprehension models that correspond to each output format.

しかしながら、出力形式の数に応じた数の機械読解モデルをメモリ上に展開して実行させる構成とすると、装置内のリソースが大量に消費されることとなり、リソースに制約のある装置においては、実現可能性が低い。However, if a number of machine reading comprehension models corresponding to the number of output formats were to be deployed in memory and executed, a large amount of resources would be consumed within the device, and this is unlikely to be feasible on devices with limited resources.

本開示は、機械読解により質問に対する応答を出力する際、複数の出力形式で出力可能な質問応答装置、質問応答方法及び質問応答プログラムを提供することを目的とする。 The present disclosure aims to provide a question answering device, a question answering method, and a question answering program that are capable of outputting responses to questions in multiple output formats through machine reading comprehension.

本開示の一態様によれば、質問応答装置は、
質問及び前記質問に応答する際に用いられる関連文書と、前記質問に対する各出力形式の応答とを用いて機械学習された、前記出力形式の数に応じた数の複数の機械学習済みモデルであって、それぞれが複数の層を有する前記機械学習済みモデルの、入力側の共通層により構成される算出部と、
前記複数の機械学習済みモデルそれぞれの、出力側の層により構成される複数の出力部と、を有し、
前記複数の出力部は、前記算出部に、質問及び前記質問に応答する際に用いられる関連文書が入力された場合の、前記算出部の出力がそれぞれ入力されることにより、対応する出力形式の応答を出力する


According to one aspect of the present disclosure, a question answering device includes:
a calculation unit configured by a common input layer of a plurality of machine-learned models, the number of which corresponds to the number of output formats, each of which has a plurality of layers, the machine-learned models being machine-learned using a question, a related document used in answering the question, and responses to the question in each output format;
A plurality of output units each configured by an output layer of each of the plurality of machine-learned models ,
The multiple output units each output a response in a corresponding output format when the output of the calculation unit is input to the calculation unit in response to a question and a related document used in responding to the question .


本開示によれば、機械読解により質問に対する応答を出力する際、複数の出力形式で出力可能な質問応答装置、質問応答方法及び質問応答プログラムを提供することができる。 According to the present disclosure, it is possible to provide a question answering device, a question answering method, and a question answering program that are capable of outputting responses to questions in multiple output formats through machine reading comprehension.

図1は、質問応答装置のハードウェア構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a hardware configuration of a question answering device. 図2は、比較例の質問応答部の機能構成を示す図である。FIG. 2 is a diagram illustrating a functional configuration of a question answering unit of the comparative example. 図3は、第1の実施形態に係る質問応答装置の質問応答部の機能構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a functional configuration of the question answering unit of the question answering device according to the first embodiment. 図4は、第1の実施形態に係る質問応答装置の学習フェーズにおける動作例を示す第1の図である。FIG. 4 is a first diagram illustrating an example of an operation in the learning phase of the question answering device according to the first embodiment. 図5は、第1の実施形態に係る質問応答装置の学習フェーズにおける動作例を示す第2の図である。FIG. 5 is a second diagram illustrating an example of the operation in the learning phase of the question answering device according to the first embodiment. 図6は、第1の実施形態に係る質問応答装置の学習フェーズにおける動作例を示す第3の図である。FIG. 6 is a third diagram illustrating an example of the operation in the learning phase of the question answering device according to the first embodiment. 図7は、第1の実施形態に係る質問応答装置による質問応答処理の流れを示すフローチャートである。FIG. 7 is a flowchart showing the flow of a question answering process by the question answering device according to the first embodiment. 図8は、第2の実施形態に係る質問応答装置の機能構成の一例を示す図である。FIG. 8 is a diagram illustrating an example of a functional configuration of the question answering device according to the second embodiment. 図9は、第2の実施形態に係る質問応答装置の学習フェーズにおける動作例を示す第1の図である。FIG. 9 is a first diagram illustrating an example of an operation in the learning phase of the question answering device according to the second embodiment. 図10は、第2の実施形態に係る質問応答装置の学習フェーズにおける動作例を示す第2の図である。FIG. 10 is a second diagram illustrating an example of the operation in the learning phase of the question answering device according to the second embodiment. 図11は、第2の実施形態に係る質問応答装置の学習フェーズにおける動作例を示す第3の図である。FIG. 11 is a third diagram illustrating an example of the operation in the learning phase of the question answering device according to the second embodiment. 図12は、第2の実施形態に係る質問応答装置による質問応答処理の流れを示すフローチャートである。FIG. 12 is a flowchart showing the flow of a question answering process by the question answering device according to the second embodiment.

以下、各実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。Each embodiment will be described below with reference to the accompanying drawings. In this specification and drawings, components having substantially the same functional configuration are designated by the same reference numerals, and duplicate descriptions will be omitted.

[第1の実施形態]
<質問応答装置のハードウェア構成>
はじめに、第1の実施形態に係る質問応答装置のハードウェア構成について説明する。図1は、質問応答装置のハードウェア構成の一例を示す図である。
[First embodiment]
<Hardware Configuration of Question Answering Device>
First, a description will be given of a hardware configuration of a question answering device according to the first embodiment. Fig. 1 is a diagram illustrating an example of a hardware configuration of a question answering device.

図1に示すように、質問応答装置100は、プロセッサ101、メモリ102、補助記憶装置103、I/F(Interface)装置104、通信装置105、ドライブ装置106を有する。なお、質問応答装置100の各ハードウェアは、バス107を介して相互に接続されている。As shown in Fig. 1, the question answering device 100 has a processor 101, a memory 102, an auxiliary storage device 103, an I/F (Interface) device 104, a communication device 105, and a drive device 106. Each piece of hardware in the question answering device 100 is connected to each other via a bus 107.

プロセッサ101は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等の各種演算デバイスを有する。プロセッサ101は、補助記憶装置103にインストールされた各種プログラム(不図示)をメモリ102上に読み出して実行する。The processor 101 has various computing devices such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit). The processor 101 reads various programs (not shown) installed in the auxiliary storage device 103 onto the memory 102 and executes them.

メモリ102は、ROM(Read Only Memory)、RAM(Random Access Memory)等の主記憶デバイスを有する。プロセッサ101とメモリ102とは、いわゆるコンピュータを形成し、プロセッサ101が、メモリ102上に読み出した各種プログラムを実行することで、当該コンピュータは各種機能を実現する。The memory 102 has a primary storage device such as a Read Only Memory (ROM) or a Random Access Memory (RAM). The processor 101 and the memory 102 form what is known as a computer, and the processor 101 executes various programs read onto the memory 102, causing the computer to realize various functions.

例えば、本実施形態において、プロセッサ101とメモリ102とにより形成されるコンピュータは、プロセッサ101が、メモリ102上に読み出した質問応答プログラムを実行することで、質問応答部110を実現する。なお、後述するように、質問応答部110は、質問応答装置100内のコンピュータリソースの消費を抑えられるように構成されている。For example, in this embodiment, a computer formed by the processor 101 and the memory 102 realizes the question answering unit 110 by the processor 101 executing a question answering program read onto the memory 102. As will be described later, the question answering unit 110 is configured to reduce consumption of computer resources within the question answering device 100.

補助記憶装置103は、各種プログラムや、各種プログラムがプロセッサ101によって実行される際に用いられる各種データを格納する。例えば、本実施形態において、補助記憶装置103は、学習用データセット格納部120及びパッセージ格納部130を有し、各種データ(学習用データセット及びパッセージ(自然言語で記述された関連文書))を格納する。The auxiliary storage device 103 stores various programs and various data used when the various programs are executed by the processor 101. For example, in this embodiment, the auxiliary storage device 103 has a learning dataset storage unit 120 and a passage storage unit 130, and stores various data (learning datasets and passages (related documents written in natural language)).

I/F装置104は、入力装置140及び出力装置141と、質問応答装置100とを接続する接続デバイスである。I/F装置104は、質問応答装置100に対する質問を、入力装置140を介して受け付ける。また、I/F装置104は、入力された質問に対して質問応答装置100が生成した応答を、出力装置141を介して出力する。ここでいう入力装置140には、入力された質問を音声データに変換する装置や、テキストデータに変換する装置等が含まれる。同様に、ここでいう出力装置141には、音声データによる応答を出力する装置や、テキストデータによる応答を出力する装置等が含まれる。The I/F device 104 is a connection device that connects the input device 140 and the output device 141 to the question answering device 100. The I/F device 104 accepts questions for the question answering device 100 via the input device 140. The I/F device 104 also outputs a response generated by the question answering device 100 to the input question via the output device 141. The input device 140 here includes a device that converts an input question into voice data, a device that converts it into text data, etc. Similarly, the output device 141 here includes a device that outputs a response using voice data, a device that outputs a response using text data, etc.

通信装置105は、ネットワークを介して他の装置と通信するための通信デバイスである。 The communication device 105 is a communication device for communicating with other devices via a network.

ドライブ装置106は記録媒体142をセットするためのデバイスである。ここでいう記録媒体142には、CD-ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記録媒体142には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。 The drive device 106 is a device for setting the recording medium 142. The recording medium 142 here includes media that record information optically, electrically, or magnetically, such as CD-ROMs, flexible disks, and magneto-optical disks. The recording medium 142 may also include semiconductor memories that record information electrically, such as ROMs and flash memories.

なお、補助記憶装置103にインストールされる各種プログラムは、例えば、配布された記録媒体142がドライブ装置106にセットされ、該記録媒体142に記録された各種プログラムがドライブ装置106により読み出されることでインストールされる。あるいは、補助記憶装置103にインストールされる各種プログラムは、通信装置105を介してネットワークからダウンロードされることで、インストールされてもよい。The various programs to be installed in the auxiliary storage device 103 are installed, for example, by setting the distributed recording medium 142 in the drive device 106 and reading out the various programs recorded on the recording medium 142 by the drive device 106. Alternatively, the various programs to be installed in the auxiliary storage device 103 may be installed by downloading them from a network via the communication device 105.

同様に、補助記憶装置103が有する各格納部に格納される各種データは、例えば、配布された記録媒体142がドライブ装置106にセットされ、該記録媒体142に記録された各種データがドライブ装置106により読み出されることで格納される。あるいは、補助記憶装置103が有する各格納部に格納される各種データは、通信装置105を介してネットワークからダウンロードされることで、格納されてもよい。Similarly, the various data stored in each storage unit of the auxiliary storage device 103 is stored, for example, by setting the distributed recording medium 142 in the drive device 106 and reading out the various data recorded on the recording medium 142 by the drive device 106. Alternatively, the various data stored in each storage unit of the auxiliary storage device 103 may be stored by being downloaded from a network via the communication device 105.

<質問応答部の機能構成>
次に、質問応答部110の機能構成の詳細について説明する。なお、説明に際しては、質問応答部110の機能構成の特徴を明確にするために、比較例として、まず、出力形式の数に応じた数の機械読解モデルを組み合わせて構築した質問応答部の機能構成について説明する。
<Functional configuration of the question answering unit>
Next, a detailed description will be given of the functional configuration of the question answering unit 110. In order to clarify the characteristics of the functional configuration of the question answering unit 110, a comparative example will first be described in which the functional configuration of a question answering unit is constructed by combining a number of machine reading comprehension models corresponding to the number of output formats.

(1)比較例の質問応答部の機能構成
図2は、比較例の質問応答部の機能構成を示す図である。機械読解により質問に対する応答を出力する際、複数の出力形式で出力できるようにするための構成として、比較例の質問応答部200は、
・入力部210、
・複数の機械読解モデル(図2の例では、第1の機械読解モデル221~第3の機械読解モデル223)、
・選択部230、
を有する。
(1) Functional configuration of the question answering unit of the comparative example Fig. 2 is a diagram showing the functional configuration of the question answering unit of the comparative example. The question answering unit 200 of the comparative example has the following configuration to enable outputting responses to questions through machine reading comprehension in multiple output formats:
Input unit 210,
- Multiple machine reading comprehension models (in the example of FIG. 2, the first machine reading comprehension model 221 to the third machine reading comprehension model 223);
Selection unit 230,
has.

入力部210は、入力された質問と、パッセージ(自然言語で記述された関連文書)とを、複数の機械読解モデルそれぞれに入力する。The input unit 210 inputs the input question and a passage (a related document written in a natural language) into each of multiple machine reading comprehension models.

第1の機械読解モデル221は、パッセージから抽出した情報に基づいて、文生成により生成した回答文を、第1の応答として出力する。 The first machine reading comprehension model 221 outputs an answer sentence generated by sentence generation based on information extracted from the passage as a first response.

第2の機械読解モデル222は、パッセージから抽出した情報に基づいて生成した、YES/NOなどのラベルを、第2の応答として出力する。The second machine reading comprehension model 222 outputs a label, such as YES/NO, as a second response generated based on information extracted from the passage.

第3の機械読解モデル223は、パッセージから抽出した情報に基づいて生成した質問(回答を絞り込むために生成した質問(改訂質問と称す))を、第3の応答として出力する。The third machine reading comprehension model 223 outputs a question generated based on information extracted from the passage (a question generated to narrow down the answer (called a revised question)) as a third response.

選択部230は、第1の機械読解モデル221~第3の機械読解モデル223それぞれから出力された応答のうち、予め定められた数の応答を選択して出力する。The selection unit 230 selects and outputs a predetermined number of responses from among the responses output from each of the first machine reading comprehension model 221 to the third machine reading comprehension model 223.

比較例の質問応答部200に示すように、出力形式の数に応じた数の機械読解モデルを組み合わせることで、質問に対する応答を複数の出力形式で出力することができる。一方で、比較例の質問応答部200の場合、以下のような問題がある。
・出力形式の数に応じた数の機械読解モデルをメモリ上に展開して実行させる構成のため、質問応答装置100内のコンピュータリソースが大量に消費されることになる。
・第1の機械読解モデル221~第3の機械読解モデル223それぞれから出力された応答の中から、予め定められた数の応答を選択する際、適切な応答を選択することができない。第1の応答~第3の応答を比較するだけでは応答の優劣をつけられず、何らかの選択指標を算出する必要があるからである。
As shown in the question answering unit 200 of the comparative example, by combining a number of machine reading comprehension models corresponding to the number of output formats, it is possible to output responses to questions in a plurality of output formats. On the other hand, the question answering unit 200 of the comparative example has the following problems.
Since a number of machine reading comprehension models corresponding to the number of output formats are expanded in memory and executed, a large amount of computer resources are consumed in the question answering apparatus 100.
It is not possible to select appropriate responses when selecting a predetermined number of responses from among the responses output from each of the first machine reading comprehension model 221 to the third machine reading comprehension model 223. This is because it is not possible to determine which responses are better by simply comparing the first to third responses, and it is necessary to calculate some kind of selection index.

これに対して、第1の実施形態に係る質問応答装置100の質問応答部110は、これらの問題を解決する構成を有する。以下に詳細に説明する。In response to this, the question answering unit 110 of the question answering device 100 according to the first embodiment has a configuration that solves these problems. This is explained in detail below.

(2)質問応答部の機能構成
図3は、第1の実施形態に係る質問応答装置の質問応答部の機能構成の一例を示す図である。質問応答部110は、機械読解により質問に対する応答を出力する際、複数の出力形式で出力できるようにしつつ、コンピュータリソースの消費を抑え、かつ、質問に対する複数の出力形式の応答の中から、適切な応答を選択できるようにするための構成として、
・入力部310、
・入力層として機能する理解層320、
・出力層として機能する、第1の出力層321、第2の出力層322、第3の出力層323、
・出力層として機能する、出力判断層324、
・選択部330、
を有する。
3 is a diagram showing an example of a functional configuration of a question answering unit of the question answering device according to the first embodiment. The question answering unit 110 has a configuration for outputting a response to a question by machine reading comprehension in a plurality of output formats while suppressing consumption of computer resources and enabling an appropriate response to a question to be selected from responses in a plurality of output formats.
Input unit 310,
- an understanding layer 320 acting as an input layer;
A first output layer 321, a second output layer 322, and a third output layer 323 functioning as output layers;
- an output decision layer 324, which functions as an output layer;
Selection unit 330,
has.

このうち、入力部310は、入力された質問と、パッセージ(自然言語で記述された関連文書)とを、理解層320に入力する。Of these, the input unit 310 inputs the input question and a passage (a related document written in natural language) to the understanding layer 320.

また、理解層320は算出部の一例であり、質問とパッセージとを入力とし、質問とパッセージとの関連性を示す情報を深層学習のベクトル上で算出し、状態ベクトルまたは状態テンソルを出力する。なお、理解層320は、質問とパッセージとを入力し、質問とパッセージとの関連性を示す情報を算出できる構造であれば、任意の構造を採用することができる。The understanding layer 320 is an example of a calculation unit that receives a question and a passage as input, calculates information indicating the relevance between the question and the passage on a deep learning vector, and outputs a state vector or a state tensor. The understanding layer 320 can adopt any structure as long as it can receive a question and a passage as input and calculate information indicating the relevance between the question and the passage.

例えば、理解層320は、RNN()を用いたBiDAF(非特許文献1参照)や、TransformerベースのBERT(非特許文献2参照)などを採用することができる。ただし、理解層320は、理解層320より後段の出力層(第1の出力層321~第3の出力層323、出力判断層324)の入力となる状態ベクトルまたは状態テンソルの形式に合わせた出力を行う構造を有している必要がある。For example, the understanding layer 320 can employ BiDAF (see Non-Patent Document 1) using RNN() or Transformer-based BERT (see Non-Patent Document 2). However, the understanding layer 320 must have a structure that outputs in accordance with the format of the state vector or state tensor that is the input to the output layers subsequent to the understanding layer 320 (first output layer 321 to third output layer 323, output judgment layer 324).

第1の出力層321~第3の出力層323は出力部の一例であり、理解層320より出力された、質問とパッセージとの関連性を示す情報(状態ベクトルまたは状態テンソル)を入力として、応答(機械読解の出力結果)を出力する。The first output layer 321 to the third output layer 323 are examples of output sections, which take as input information (state vector or state tensor) indicating the relationship between the question and the passage output from the comprehension layer 320, and output a response (the output result of machine reading comprehension).

図3の場合、第1の出力層321は、文生成により生成した回答文を、第1の応答として出力する。また、第2の出力層322は、YES/NOなどのラベルを、第2の応答として出力する。更に、第3の出力層323は、入力された質問に対する回答を絞り込むための改訂質問を、第3の応答として出力する。In the case of FIG. 3, the first output layer 321 outputs an answer sentence generated by sentence generation as a first response. The second output layer 322 outputs a label such as YES/NO as a second response. Furthermore, the third output layer 323 outputs a revised question to narrow down the answers to the input question as a third response.

なお、第1の出力層321~第3の出力層323は、それぞれ第1の応答~第3の応答を出力するにあたり、どのような深層学習の構造を有していてもよい。また、第1の出力層321~第3の出力層323が出力する出力形式は、回答文、ラベル、改訂質問に限定されず、他の出力形式の応答を出力してもよい。Note that the first output layer 321 to the third output layer 323 may have any deep learning structure when outputting the first response to the third response, respectively. In addition, the output format output by the first output layer 321 to the third output layer 323 is not limited to an answer sentence, a label, and a revised question, and responses in other output formats may be output.

また、図3の例では、第1~第3の出力層を設置する構成としたが、設置する出力層の数は任意であり、また、同一の構造を有する出力層を複数設置してもよい。例えば、文生成のデコーダの構造を2つ設置し、一方の出力層は、文生成により回答文を生成するように学習した出力層とし、他方の出力層は、文生成により改訂質問を生成するように学習した出力層としてもよい。 In the example of Figure 3, the first to third output layers are installed, but any number of output layers may be installed, and multiple output layers having the same structure may be installed. For example, two sentence generation decoder structures may be installed, with one output layer trained to generate answer sentences through sentence generation, and the other output layer trained to generate revised questions through sentence generation.

出力判断層324は指標算出部の一例であり、第1の出力層321~第3の出力層323から出力される各応答の確率分布を算出する。The output judgment layer 324 is an example of an index calculation unit, which calculates the probability distribution of each response output from the first output layer 321 to the third output layer 323.

具体的には、出力判断層324は、出力形式の数N(図3の例では、N=3)に対応する次元数のsoftmax層を有する。N個の次元のsoftmax層は、理解層320より状態ベクトルまたは状態テンソルを受け取り、各応答の確率分布を算出する。Specifically, the output judgment layer 324 has a softmax layer with a number of dimensions corresponding to the number of output formats N (in the example of FIG. 3, N=3). The N-dimensional softmax layer receives a state vector or state tensor from the understanding layer 320 and calculates the probability distribution of each response.

なお、かかる構成は、出力形式の数Nが固定されている場合に有効である。一方で、かかる構成は、出力形式の追加が必要になった場合には、softmax層の次元数が対応できないため、質問応答部110全体について、再学習処理を行う必要がある。This configuration is effective when the number of output formats N is fixed. On the other hand, if it becomes necessary to add an output format, the number of dimensions of the softmax layer cannot be accommodated, and so re-learning processing must be performed on the entire question answering unit 110.

選択部330は、第1の出力層321~第3の出力層323それぞれから出力された応答のうち、出力判断層324により算出された確率分布が上位M個(Mは予め定められた数、図3の例は、M=1)の応答を選択し、出力装置141を介してユーザに出力する。The selection unit 330 selects the top M responses (M is a predetermined number; in the example of Figure 3, M = 1) in the probability distribution calculated by the output judgment layer 324 from the responses output from each of the first output layer 321 to the third output layer 323, and outputs them to the user via the output device 141.

このように、質問応答部110では、
・複数の出力形式に対して、共有の理解層を設置し(入力層を共通化し)、
・入力層(理解層)と出力層(第1の出力層321~第3の出力層323、出力判断層324)とを分離して、各層をモジュール化し、
・出力層に設置した出力判断層324より算出される、各応答の確率分布を選択指標として、選択部330が最終的に出力すべき応答を選択する、
構成とした。これにより、質問応答部110によれば、機械読解により質問に対する応答を出力する際、複数の出力形式で出力できるとともに、
・入力層の共通化によりコンピュータリソースの消費を抑え、かつ、
・選択指標の算出により適切な応答を選択する、
ことが可能になる。
In this way, the question answering unit 110
・Establish a shared understanding layer for multiple output formats (share the input layer),
Separating the input layer (understanding layer) and the output layer (first output layer 321 to third output layer 323, output judgment layer 324) and modularizing each layer,
The selection unit 330 selects the response to be finally output using the probability distribution of each response calculated by the output determination layer 324 installed in the output layer as a selection index.
As a result, the question answering unit 110 can output a response to a question by machine reading comprehension in a plurality of output formats,
・The input layer is shared to reduce the consumption of computer resources, and
- Selecting the appropriate response by calculating the selection index;
This makes it possible.

<質問応答部の学習方法>
次に、質問応答部110の学習方法について説明する。質問応答部110に対して学習処理を行う学習フェーズにおいて、本実施形態に係る質問応答装置100の質問応答部110は、まず、選択部330に代えて、比較/変更部410を設置する。続いて、本実施形態に係る質問応答装置100の質問応答部110は、質問応答部110内に設置した各層(理解層320、第1の出力層321~第3の出力層323、出力判断層324)について学習処理を行う。
<Learning method for the question answering section>
Next, a learning method of the question answering unit 110 will be described. In a learning phase in which learning processing is performed on the question answering unit 110, the question answering unit 110 of the question answering apparatus 100 according to this embodiment first installs a comparison/change unit 410 in place of the selection unit 330. Next, the question answering unit 110 of the question answering apparatus 100 according to this embodiment performs learning processing on each layer (the understanding layer 320, the first output layer 321 to the third output layer 323, and the output judgment layer 324) installed in the question answering unit 110.

その際、質問応答装置100の質問応答部110では、個別の機械読解モデル(第1の機械読解モデル221~第3の機械読解モデル223)について学習処理を行う際に用いられる学習用データセットを使用する。In this case, the question answering unit 110 of the question answering device 100 uses a learning dataset that is used when performing learning processing on individual machine reading comprehension models (first machine reading comprehension model 221 to third machine reading comprehension model 223).

具体的には、質問応答装置100の質問応答部110は、まず、学習用データセットが、いずれの出力層についての学習処理に用いられるものであるかを示すフラグを設定する。Specifically, the question answering unit 110 of the question answering device 100 first sets a flag indicating for which output layer the learning dataset is to be used for the learning process.

続いて、質問応答装置100の質問応答部110は、出力判断層324の正解データを学習用データセットに格納する。例えば、質問応答装置100の質問応答部110は、設定したフラグに対応する次元の値を"1"、それ以外の次元の値を"0"とするベクトルデータを、出力判断層324の正解データとして学習用データセットに格納する。Next, the question answering unit 110 of the question answering device 100 stores the correct answer data of the output determination layer 324 in the training dataset. For example, the question answering unit 110 of the question answering device 100 stores vector data in which the value of the dimension corresponding to the set flag is "1" and the values of the other dimensions are "0" in the training dataset as the correct answer data of the output determination layer 324.

続いて、質問応答装置100の質問応答部110は、設定したフラグに該当する出力層から出力された応答と、対応する正解データとの間で学習損失を算出し、算出した学習損失に基づき、設定したフラグに該当する出力層及び理解層のパラメータを更新する。このとき、質問応答装置100の質問応答部110では、設定したフラグに該当する出力層以外の出力層から出力された応答については無視する。Next, the question answering unit 110 of the question answering device 100 calculates the learning loss between the response output from the output layer corresponding to the set flag and the corresponding correct answer data, and updates the parameters of the output layer and the understanding layer corresponding to the set flag based on the calculated learning loss. At this time, the question answering unit 110 of the question answering device 100 ignores responses output from output layers other than the output layer corresponding to the set flag.

また、質問応答装置100の質問応答部110は、出力判断層から出力されるベクトルデータと、対応する正解データとの間で学習損失を算出し、算出した学習損失に基づき、出力判断層のパラメータを更新する。 In addition, the question answering unit 110 of the question answering device 100 calculates a learning loss between the vector data output from the output determination layer and the corresponding correct answer data, and updates the parameters of the output determination layer based on the calculated learning loss.

図4は、第1の実施形態に係る質問応答装置の学習フェーズにおける動作例を示す第1の図である。図4の場合、学習用データセット400="第1の出力層321についての学習処理に用いられる学習用データセット"であることを示すフラグが、質問応答部110により設定されているものとする。 Figure 4 is a first diagram showing an example of operation in the learning phase of the question answering device according to the first embodiment. In the case of Figure 4, it is assumed that a flag indicating that the learning dataset 400 is "a learning dataset used in the learning process for the first output layer 321" is set by the question answering unit 110.

なお、図4に示すように、学習用データセット400には、情報の項目として、"入力データ"、"第1の出力層の正解データ"、"出力判断層の正解データ"が含まれ、
・"入力データ"には、質問とパッセージとが格納される。
・"第1の出力層の正解データ"には、対応するパッセージから抽出した情報に基づいて、文生成により生成する回答文の正解データが格納される。
・"出力判断層の正解データ"には、"第1次元"~"第3次元"が含まれ、第1次元の値を"1"、第2次元及び第3次元の値を"0"とするベクトルデータが格納される。
As shown in FIG. 4, the learning dataset 400 includes information items such as “input data”, “correct answer data of the first output layer”, and “correct answer data of the output judgment layer”.
・"Input data" stores questions and passages.
"First output layer correct answer data" stores correct answer data for an answer sentence generated by sentence generation based on information extracted from the corresponding passage.
The “correct data of the output judgment layer” includes the “first dimension” to the “third dimension”, and stores vector data in which the value of the first dimension is “1”, and the values of the second and third dimensions are “0”.

図4において、入力部310が、学習用データセット400の入力データ(質問とパッセージの組)を理解層320に入力すると、第1の出力層321~第3の出力層323からは、機械読解の出力結果として、第1の応答~第3の応答が出力される。また、出力判断層324からは、N個の次元(図4の例ではN=3)のベクトルデータが出力される。 In Figure 4, when the input unit 310 inputs input data (pairs of questions and passages) from the learning dataset 400 to the understanding layer 320, the first output layer 321 to the third output layer 323 output the first response to the third response as the output results of machine reading comprehension. In addition, the output judgment layer 324 outputs vector data with N dimensions (N=3 in the example of Figure 4).

比較/変更部410では、第1の出力層321から出力された第1の応答(回答文)と、学習用データセット400の"第1の出力層の正解データ"に格納された回答文との間で学習損失を算出する。また、比較/変更部410では、算出した学習損失に基づき、第1の出力層321及び理解層320のパラメータを更新する。The comparison/change unit 410 calculates a learning loss between the first response (answer sentence) output from the first output layer 321 and the answer sentence stored in the "correct answer data of the first output layer" of the learning dataset 400. The comparison/change unit 410 also updates the parameters of the first output layer 321 and the understanding layer 320 based on the calculated learning loss.

同様に、比較/変更部410では、出力判断層324から出力されたN個(図4の例ではN=3)の次元のベクトルデータと、学習用データセット400の"出力判断層の正解データ"に格納された第1次元~第3次元のベクトルデータとの間で学習損失を算出する。また、比較/変更部410では、算出した学習損失に基づき、出力判断層324のパラメータを更新する。Similarly, the comparison/change unit 410 calculates a learning loss between the N-dimensional (N=3 in the example of FIG. 4) vector data output from the output judgment layer 324 and the first to third dimensional vector data stored in the "correct data of the output judgment layer" of the learning dataset 400. The comparison/change unit 410 also updates the parameters of the output judgment layer 324 based on the calculated learning loss.

一方、図5は、第1の実施形態に係る質問応答装置の学習フェーズにおける動作例を示す第2の図である。図5の場合、学習用データセット500="第2の出力層322についての学習処理に用いられる学習用データセット"であることを示すフラグが、質問応答部110により、設定されているものとする。 On the other hand, Figure 5 is a second diagram showing an example of operation in the learning phase of the question answering device according to the first embodiment. In the case of Figure 5, it is assumed that a flag indicating that the learning dataset 500 is "a learning dataset used in the learning process for the second output layer 322" is set by the question answering unit 110.

なお、図5に示すように、学習用データセット500には、情報の項目として、"入力データ"、"第2の出力層の正解データ"、"出力判断層の正解データ"が含まれ、
・"入力データ"には、質問とパッセージとが格納される。
・"第2の出力層の正解データ"には、対応するパッセージから抽出した情報に基づいて生成する、YES/NOなどのラベルの正解データが格納される。
・"出力判断層の正解データ"には、"第1次元"~"第3次元"が含まれ、第2次元の値を"1"、第1次元及び第3次元の値を"0"とするベクトルデータが格納される。
As shown in FIG. 5, the learning dataset 500 includes information items such as “input data”, “correct answer data of the second output layer”, and “correct answer data of the output judgment layer”.
・"Input data" stores questions and passages.
"Second output layer correct answer data" stores correct answer data of labels such as YES/NO, which are generated based on information extracted from the corresponding passage.
The “correct data of the output judgment layer” includes the “first dimension” to the “third dimension”, and stores vector data in which the value of the second dimension is “1” and the values of the first and third dimensions are “0”.

図5において、入力部310が、学習用データセット500の入力データ(質問とパッセージの組)を理解層320に入力すると、第1の出力層321~第3の出力層323からは、機械読解の出力結果として、第1の応答~第3の応答が出力される。また、出力判断層324からは、N個の次元(図5の例ではN=3)のベクトルデータが出力される。 In Figure 5, when the input unit 310 inputs input data (pairs of questions and passages) from the learning dataset 500 to the understanding layer 320, the first output layer 321 to the third output layer 323 output the first response to the third response as the output results of machine reading comprehension. In addition, the output judgment layer 324 outputs vector data with N dimensions (N=3 in the example of Figure 5).

比較/変更部410では、第2の出力層322から出力された第2の応答(ラベル)と、学習用データセット500の"第2の出力層の正解データ"に格納されたラベルとの間で学習損失を算出する。また、比較/変更部410では、算出した学習損失に基づき、第2の出力層322及び理解層320のパラメータを更新する。The comparison/change unit 410 calculates a learning loss between the second response (label) output from the second output layer 322 and the label stored in the "correct answer data of the second output layer" of the learning dataset 500. The comparison/change unit 410 also updates the parameters of the second output layer 322 and the understanding layer 320 based on the calculated learning loss.

同様に、比較/変更部410では、出力判断層324から出力されたN個(図5の例ではN=3)の次元のベクトルデータと、学習用データセット500の"出力判断層の正解データ"に格納された第1次元~第3次元のベクトルデータとの間で学習損失を算出する。また、比較/変更部410では、算出した学習損失に基づき、出力判断層324のパラメータを更新する。Similarly, the comparison/change unit 410 calculates a learning loss between the N-dimensional (N=3 in the example of FIG. 5) vector data output from the output judgment layer 324 and the first to third dimensional vector data stored in the "correct data of the output judgment layer" of the learning dataset 500. The comparison/change unit 410 also updates the parameters of the output judgment layer 324 based on the calculated learning loss.

一方、図6は、第1の実施形態に係る質問応答装置の学習フェーズにおける動作例を示す第3の図である。図6の場合、学習用データセット600="第3の出力層323についての学習処理に用いられる学習用データセット"であることを示すフラグが、質問応答部110により設定されているものとする。 On the other hand, Figure 6 is a third diagram showing an example of operation in the learning phase of the question answering device according to the first embodiment. In the case of Figure 6, it is assumed that a flag indicating that the learning dataset 600 is "a learning dataset used in the learning process for the third output layer 323" is set by the question answering unit 110.

なお、図6に示すように、学習用データセット600には、情報の項目として、"入力データ"、"第3の出力層の正解データ"、"出力判断層の正解データ"が含まれ、
・"入力データ"には、質問とパッセージとが格納される。
・"第3の出力層の正解データ"には、対応するパッセージから抽出した情報に基づいて生成する改訂質問の正解データが格納される。
・"出力判断層の正解データ"には、"第1次元"~"第3次元"が含まれ、第3次元の値を"1"、第1次元及び第2次元の値を"0"とするベクトルデータが格納される。
As shown in FIG. 6, the learning dataset 600 includes information items such as “input data”, “correct answer data of the third output layer”, and “correct answer data of the output judgment layer”.
・"Input data" stores questions and passages.
The "third output layer correct answer data" stores the correct answer data for the revised question generated based on the information extracted from the corresponding passage.
The “correct answer data of the output judgment layer” includes the “first dimension” to the “third dimension”, and stores vector data in which the value of the third dimension is “1” and the values of the first and second dimensions are “0”.

図6において、入力部310が、学習用データセット600の入力データ(質問とパッセージの組)を理解層320に入力すると、第1の出力層321~第3の出力層323からは、機械読解の出力結果として、第1の応答~第3の応答が出力される。また、出力判断層324からは、N個の次元(図6の例ではN=3)のベクトルデータが出力される。 In Figure 6, when the input unit 310 inputs input data (pairs of questions and passages) from the learning dataset 600 to the understanding layer 320, the first output layer 321 to the third output layer 323 output the first response to the third response as the output results of machine reading comprehension. In addition, the output judgment layer 324 outputs vector data with N dimensions (N=3 in the example of Figure 6).

比較/変更部410では、第3の出力層323から出力された第3の応答(改訂質問)と、学習用データセット600の"第3の出力層の正解データ"に格納された改訂質問との間で学習損失を算出する。また、比較/変更部410では、算出した学習損失に基づき、第3の出力層323及び理解層320のパラメータを更新する。The comparison/change unit 410 calculates a learning loss between the third response (revised question) output from the third output layer 323 and the revised question stored in the "correct answer data of the third output layer" of the learning dataset 600. The comparison/change unit 410 also updates the parameters of the third output layer 323 and the understanding layer 320 based on the calculated learning loss.

同様に、比較/変更部410では、出力判断層324から出力されたN個(図6の例ではN=3)の次元のベクトルデータと、学習用データセット600の"出力判断層の正解データ"に格納された第1次元~第3次元のベクトルデータとの間で学習損失を算出する。また、比較/変更部410では、算出した学習損失に基づき、出力判断層324のパラメータを更新する。Similarly, the comparison/change unit 410 calculates a learning loss between the N-dimensional (N=3 in the example of FIG. 6) vector data output from the output judgment layer 324 and the first to third dimensional vector data stored in the "correct data of the output judgment layer" of the learning dataset 600. The comparison/change unit 410 also updates the parameters of the output judgment layer 324 based on the calculated learning loss.

このように、質問応答装置100の質問応答部110では、学習用データセット400~600を用いて、理解層320、第1の出力層321~第3の出力層323、出力判断層324について、順次、学習処理を行う。In this way, the question answering unit 110 of the question answering device 100 uses the learning datasets 400 to 600 to sequentially perform learning processes on the understanding layer 320, the first output layer 321 to the third output layer 323, and the output judgment layer 324.

<質問応答処理の流れ>
次に、質問応答装置100による質問応答処理の流れについて説明する。図7は、第1の実施形態に係る質問応答装置による質問応答処理の流れを示すフローチャートである。このうち、ステップS701~S703は、学習フェーズにおける処理を表し、ステップS704~S707は、応答フェーズにおける処理を表している。
<Question answering process flow>
Next, a flow of question answering processing by the question answering device 100 will be described. Fig. 7 is a flowchart showing the flow of question answering processing by the question answering device according to the first embodiment. Of these, steps S701 to S703 represent processing in the learning phase, and steps S704 to S707 represent processing in the response phase.

ステップS701において、質問応答部110は、学習用データセット400を用いて、理解層320、第1の出力層321、出力判断層324について学習処理を行う。In step S701, the question answering unit 110 uses the learning dataset 400 to perform learning processing on the understanding layer 320, the first output layer 321, and the output judgment layer 324.

ステップS702において、質問応答部110は、学習用データセット500を用いて、理解層320、第2の出力層322、出力判断層324について学習処理を行う。In step S702, the question answering unit 110 uses the learning dataset 500 to perform learning processing on the understanding layer 320, the second output layer 322, and the output judgment layer 324.

ステップS703において、質問応答部110は、学習用データセット600を用いて、理解層320、第3の出力層323、出力判断層324について学習処理を行う。In step S703, the question answering unit 110 uses the learning dataset 600 to perform learning processing on the understanding layer 320, the third output layer 323, and the output judgment layer 324.

ステップS704において、質問応答部110の入力部310は、質問及びパッセージの入力を受け付け、入力された質問及びパッセージを、理解層320に入力する。In step S704, the input unit 310 of the question answering unit 110 accepts input of a question and a passage, and inputs the input question and passage to the understanding layer 320.

ステップS705において、第1の出力層321~第3の出力層323は、理解層320より出力された状態ベクトルを入力として、第1の応答~第3の応答を出力する。In step S705, the first output layer 321 to the third output layer 323 use the state vector output from the understanding layer 320 as input and output the first response to the third response.

ステップS706において、質問応答部110の出力判断層324は、理解層320より出力された状態ベクトルを入力として、第1の応答~第3の応答の確率分布を算出することで、選択指標を出力する。In step S706, the output judgment layer 324 of the question answering unit 110 uses the state vector output from the understanding layer 320 as input, calculates the probability distribution of the first to third responses, and outputs a selection index.

ステップS707において、質問応答部110の選択部330は、出力判断層324から出力された選択指標に基づいて、予め定められた上位M個の応答を選択し、選択した応答を出力する。In step S707, the selection unit 330 of the question answering unit 110 selects the top M predetermined responses based on the selection index output from the output determination layer 324, and outputs the selected responses.

<まとめ>
以上の説明から明らかなように、第1の実施形態に係る質問応答装置100は、
・質問とパッセージとを入力として、質問とパッセージとの関連性を示す情報を算出する理解層を有する。
・理解層により算出された関連性を示す情報をそれぞれの入力として、互いに異なる出力形式である第1~第3の応答を出力する、第1の出力層~第3の出力層を有する。
・理解層により出力された関連性を示す情報に基づいて第1の応答~第3の応答の確率分布を算出する出力判断層を有する。更に、出力判断層により算出された第1の応答~第3の応答の確率分布を選択指標として、予め定められた数の応答を選択する選択部を有する。
<Summary>
As is apparent from the above description, the question answering apparatus 100 according to the first embodiment has the following features:
-Has an understanding layer that takes a question and a passage as input and calculates information indicating the relevance between the question and the passage.
- It has first to third output layers, which use information indicating the relevance calculated by the understanding layer as their respective inputs and output first to third responses which are mutually different output formats.
The present invention has an output judgment layer that calculates a probability distribution of the first to third responses based on the information indicating the relevance output by the understanding layer, and further has a selection unit that selects a predetermined number of responses using the probability distribution of the first to third responses calculated by the output judgment layer as a selection index.

これにより、第1の実施形態に係る質問応答装置100によれば、質問に対する応答を複数の出力形式で出力できるとともに、コンピュータリソースの消費を抑え、かつ、適切な応答を選択することが可能になる。As a result, the question answering device 100 according to the first embodiment can output responses to questions in multiple output formats, while reducing the consumption of computer resources and enabling the selection of an appropriate response.

つまり、第1の実施形態によれば、機械読解により質問に対する応答を出力する際、複数の出力形式で出力可能な、実現可能性の高い質問応答装置、質問応答方法及び質問応答プログラムを提供することができる。In other words, according to the first embodiment, it is possible to provide a highly feasible question answering device, question answering method, and question answering program that are capable of outputting responses to questions through machine reading in multiple output formats.

[第2の実施形態]
上記第1の実施形態では、出力形式の数が固定であることを前提とし、新たな出力形式を追加する場合には、質問応答部110全体について、再学習処理を行うものとして質問応答部を構成した。
Second Embodiment
In the above first embodiment, it is assumed that the number of output formats is fixed, and when a new output format is added, the question answering unit is configured to perform a re-learning process for the entire question answering unit 110.

これに対して、第2の実施形態では、新たな出力形式が追加された場合でも、質問応答部110全体について、再学習処理を行う必要がないように質問応答部を構成する。以下、第2の実施形態について、上記第1の実施形態との相違点を中心に説明する。In contrast, in the second embodiment, the question answering unit is configured so that even if a new output format is added, there is no need to perform re-learning processing for the entire question answering unit 110. The second embodiment will be described below, focusing on the differences from the first embodiment.

<質問応答部の機能構成>
はじめに、第2の実施形態に係る質問応答装置の質問応答部の機能構成について説明する。図8は、第2の実施形態に係る質問応答装置の質問応答部の機能構成の一例を示す図である。
<Functional configuration of the question answering unit>
First, a description will be given of a functional configuration of a question answering unit of the question answering device according to the second embodiment. Fig. 8 is a diagram illustrating an example of a functional configuration of the question answering unit of the question answering device according to the second embodiment.

図3に示した機能構成との相違点は、図8の質問応答部800の場合、第1の出力層321~第3の出力層323それぞれに対して、選択指標として、個別のスコアを算出する第1の出力判断層801~第3の出力判断層803が設置されている点である。また、図8の質問応答部800の場合、選択部810の機能が、図3の選択部330の機能とは異なる点である。 The difference with the functional configuration shown in Figure 3 is that in the case of the question answering unit 800 in Figure 8, a first output judgment layer 801 to a third output judgment layer 803 are provided which calculate individual scores as selection indices for the first output layer 321 to the third output layer 323, respectively. Also, in the case of the question answering unit 800 in Figure 8, the function of the selection unit 810 is different from the function of the selection unit 330 in Figure 3.

第1の出力判断層801は指標算出部の一例であり、第1の出力層321の状態ベクトルを受け取り、第1スコアとして、0~1.0のスカラ値を算出するロジット層を有する。The first output determination layer 801 is an example of an index calculation unit, and has a logit layer that receives the state vector of the first output layer 321 and calculates a scalar value between 0 and 1.0 as the first score.

同様に第2の出力判断層802は指標算出部の一例であり、第2の出力層322の状態ベクトルを受け取り、第2スコアとして、0~1.0のスカラ値を算出するロジット層を有する。Similarly, the second output decision layer 802 is an example of an index calculation unit, and has a logit layer that receives the state vector of the second output layer 322 and calculates a scalar value between 0 and 1.0 as the second score.

同様に第3の出力判断層803は指標算出部の一例であり、第3の出力層323の状態ベクトルを受け取り、第3スコアとして、0~1.0のスカラ値を算出するロジット層を有する。Similarly, the third output decision layer 803 is an example of an index calculation unit, and has a logit layer that receives the state vector of the third output layer 323 and calculates a scalar value between 0 and 1.0 as the third score.

選択部810は、第1の出力判断層801~第3の出力判断層803により算出された第1スコア~第3スコアに基づき、予め定められた上位M個のスコアに対応する応答を選択して出力する。The selection unit 810 selects and outputs responses corresponding to the top M predetermined scores based on the first score to the third score calculated by the first output decision layer 801 to the third output decision layer 803.

このように、第2の実施形態に係る質問応答装置100では、第1の出力層321~第3の出力層323それぞれに対する個別のスコアを算出する第1の出力判断層801~第3の出力判断層803を設置する。これにより、第2の実施形態によれば、新たな出力形式が追加された場合でも、追加された新たな出力層及び出力判断層と、理解層とについて学習処理を行えば足り、既に学習済みの出力層及び出力判断層について再学習処理を行う必要がなくなる。 In this way, the question answering device 100 according to the second embodiment is provided with a first output judgment layer 801 to a third output judgment layer 803 that calculate individual scores for each of the first output layer 321 to the third output layer 323. As a result, according to the second embodiment, even if a new output format is added, it is sufficient to perform learning processing for the added new output layer and output judgment layer and the understanding layer, and there is no need to perform re-learning processing for the output layer and output judgment layer that have already been trained.

<質問応答部の学習方法>
次に、質問応答部800の学習方法について説明する。質問応答部110に対して学習処理を行う学習フェーズにおいて、本実施形態に係る質問応答装置100の質問応答部800は、まず、選択部810に代えて、比較/変更部910を設置する。続いて、本実施形態に係る質問応答装置100の質問応答部800は、質問応答部800内に設置した各層(理解層320、第1の出力層321~第3の出力層323、第1の出力判断層801~第3の出力判断層803)について学習処理を行う。
<Learning method for the question answering section>
Next, a learning method of the question answering unit 800 will be described. In a learning phase in which learning processing is performed on the question answering unit 110, the question answering unit 800 of the question answering apparatus 100 according to this embodiment first installs a comparison/change unit 910 instead of the selection unit 810. Next, the question answering unit 800 of the question answering apparatus 100 according to this embodiment performs learning processing on each layer (the understanding layer 320, the first output layer 321 to the third output layer 323, and the first output determination layer 801 to the third output determination layer 803) installed in the question answering unit 800.

その際、質問応答装置100では、上記第1の実施形態同様、個別の機械読解モデル(第1の機械読解モデル221~第3の機械読解モデル223)について学習処理を行う際に用いる学習用データセットを使用する。In this case, as in the first embodiment described above, the question answering device 100 uses a learning dataset that is used when performing learning processing on individual machine reading comprehension models (first machine reading comprehension model 221 to third machine reading comprehension model 223).

具体的には、質問応答装置100の質問応答部800は、まず、学習用データセットが、いずれの出力層についての学習処理に用いられるものであるかを示すフラグを設定する。Specifically, the question answering unit 800 of the question answering device 100 first sets a flag indicating for which output layer the learning dataset is to be used for the learning process.

続いて、質問応答装置100の質問応答部800は、第1の出力判断層801~第3の出力判断層803により算出される第1スコア~第3スコアの正解データを学習用データセットに格納する。例えば、質問応答装置100の質問応答部800は、設定したフラグに対応するスコアを"1.0"とする正解データを学習用データセットに格納する。Next, the question answering unit 800 of the question answering device 100 stores the correct answer data of the first score to the third score calculated by the first output judgment layer 801 to the third output judgment layer 803 in the training dataset. For example, the question answering unit 800 of the question answering device 100 stores the correct answer data in which the score corresponding to the set flag is "1.0" in the training dataset.

続いて、質問応答装置100の質問応答部800は、設定したフラグに該当する出力層から出力された応答と、対応する正解データとの間で学習損失を算出し、算出した学習損失に基づき、設定したフラグに該当する出力層及び理解層のパラメータを更新する。このとき、質問応答装置100の質問応答部800は、設定したフラグに該当する出力層以外の出力層から出力された応答については無視する。Next, the question answering unit 800 of the question answering device 100 calculates the learning loss between the response output from the output layer corresponding to the set flag and the corresponding correct answer data, and updates the parameters of the output layer and the understanding layer corresponding to the set flag based on the calculated learning loss. At this time, the question answering unit 800 of the question answering device 100 ignores the responses output from output layers other than the output layer corresponding to the set flag.

また、質問応答装置100の質問応答部800は、設定したフラグに該当する出力判断層から出力されたスコアと、対応する正解データとの間で学習損失を算出し、算出した学習損失に基づき、設定したフラグに該当する出力判断層のパラメータを更新する。このとき、質問応答装置100では、設定したフラグに該当する出力判断層以外の出力判断層から出力されたスコアについては無視する。In addition, the question answering unit 800 of the question answering device 100 calculates the learning loss between the score output from the output determination layer corresponding to the set flag and the corresponding correct answer data, and updates the parameters of the output determination layer corresponding to the set flag based on the calculated learning loss. At this time, the question answering device 100 ignores scores output from output determination layers other than the output determination layer corresponding to the set flag.

図9は、第2の実施形態に係る質問応答装置の学習フェーズにおける動作例を示す第1の図である。図9の場合、学習用データセット900="第1の出力層321及び第1の出力判断層801についての学習処理に用いられる学習用データセット"であることを示すフラグが、質問応答部800により設定されているものとする。 Figure 9 is the first diagram showing an example of operation in the learning phase of the question answering device according to the second embodiment. In the case of Figure 9, it is assumed that a flag indicating that the learning dataset 900 is "a learning dataset used in the learning process for the first output layer 321 and the first output judgment layer 801" is set by the question answering unit 800.

なお、図9に示すように、学習用データセット900には、情報の項目として、"入力データ"、"第1の出力層の正解データ"、"出力判断層の正解データ"が含まれ、
・"入力データ"には、質問とパッセージとが格納される。
・"第1の出力層の正解データ"には、対応するパッセージから抽出した情報に基づいて、文生成により生成する回答文の正解データが格納される。
・"出力判断層の正解データ"には、第1の出力判断層801から出力されるスコア(第1スコア)の正解データが格納される。
As shown in FIG. 9, the learning dataset 900 includes information items such as “input data”, “correct answer data of the first output layer”, and “correct answer data of the output judgment layer”.
・"Input data" stores questions and passages.
"First output layer correct answer data" stores correct answer data for an answer sentence generated by sentence generation based on information extracted from the corresponding passage.
In the "correct data of the output determination layer", the correct data of the score (first score) output from the first output determination layer 801 is stored.

図9において、入力部310が、学習用データセット900の入力データ(質問とパッセージの組)を理解層320に入力すると、第1の出力層321~第3の出力層323からは、機械読解の出力結果として、第1の応答~第3の応答が出力される。また、第1の出力判断層801~第3の出力判断層803からは、第1スコア~第3スコアが出力される。 In Figure 9, when the input unit 310 inputs input data (pairs of questions and passages) from the learning dataset 900 to the comprehension layer 320, the first output layer 321 to the third output layer 323 output a first response to a third response as the output result of machine reading comprehension. Also, the first output judgment layer 801 to the third output judgment layer 803 output a first score to a third score.

比較/変更部910では、第1の出力層321から出力された第1の応答(回答文)と、学習用データセット900の"第1の出力層の正解データ"に格納された回答文との間で学習損失を算出する。また、比較/変更部910では、算出した学習損失に基づき、第1の出力層321及び理解層320のパラメータを更新する。The comparison/change unit 910 calculates a learning loss between the first response (answer sentence) output from the first output layer 321 and the answer sentence stored in the "correct answer data of the first output layer" of the learning dataset 900. The comparison/change unit 910 also updates the parameters of the first output layer 321 and the understanding layer 320 based on the calculated learning loss.

同様に、比較/変更部910では、第1の出力判断層801から出力された第1スコアと、学習用データセット900の"出力判断層の正解データ"の第1スコアに格納された値との間で学習損失を算出する。また、比較/変更部910では、算出した学習損失に基づき、第1の出力判断層801のパラメータを更新する。Similarly, the comparison/change unit 910 calculates a learning loss between the first score output from the first output judgment layer 801 and the value stored in the first score of the "correct data of the output judgment layer" in the learning dataset 900. The comparison/change unit 910 also updates the parameters of the first output judgment layer 801 based on the calculated learning loss.

一方、図10は、第2の実施形態に係る質問応答装置の学習フェーズにおける動作例を示す第2の図である。図10の場合、学習用データセット1000="第2の出力層322及び第2の出力判断層802についての学習処理に用いられる学習用データセット"であることを示すフラグが、質問応答部800により設定されているものとする。 On the other hand, Figure 10 is a second diagram showing an example of operation in the learning phase of the question answering device according to the second embodiment. In the case of Figure 10, it is assumed that a flag indicating that the learning dataset 1000 is "a learning dataset used in the learning process for the second output layer 322 and the second output judgment layer 802" is set by the question answering unit 800.

なお、図10に示すように、学習用データセット1000には、情報の項目として、"入力データ"、"第2の出力層の正解データ"、"出力判断層の正解データ"が含まれ、
・"入力データ"には、質問とパッセージとが格納される。
・"第2の出力層の正解データ"には、対応するパッセージから抽出した情報に基づいて生成する、YES/NOなどのラベルの正解データが格納される。
As shown in FIG. 10, the learning dataset 1000 includes information items such as “input data”, “correct answer data of the second output layer”, and “correct answer data of the output judgment layer”.
・"Input data" stores questions and passages.
"Second output layer correct answer data" stores correct answer data of labels such as YES/NO, which are generated based on information extracted from the corresponding passage.

"出力判断層の正解データ"には、第2の出力判断層802から出力されるスコア(第2スコア)の正解データが格納される。 The "correct data of the output determination layer" stores the correct data of the score (second score) output from the second output determination layer 802.

図10において、入力部310が、学習用データセット1000の入力データ(質問とパッセージの組)を理解層320に入力すると、第1の出力層321~第3の出力層323からは、機械読解の出力結果として、第1の応答~第3の応答が出力される。また、第1の出力判断層801~第3の出力判断層803からは、第1スコア~第3スコアが出力される。 In Figure 10, when the input unit 310 inputs input data (pairs of questions and passages) from the learning dataset 1000 to the comprehension layer 320, the first output layer 321 to the third output layer 323 output a first response to a third response as the output result of machine reading comprehension. In addition, the first output judgment layer 801 to the third output judgment layer 803 output a first score to a third score.

比較/変更部910では、第2の出力層322から出力された第2の応答(ラベル)と、学習用データセット1000の"第2の出力層の正解データ"に格納されたラベルとの間で学習損失を算出する。また、比較/変更部910では、算出した学習損失に基づき、第2の出力層322及び理解層320のパラメータを更新する。The comparison/change unit 910 calculates a learning loss between the second response (label) output from the second output layer 322 and the label stored in the "correct data of the second output layer" of the learning dataset 1000. The comparison/change unit 910 also updates the parameters of the second output layer 322 and the understanding layer 320 based on the calculated learning loss.

同様に、比較/変更部910では、第2の出力判断層802から出力された第2スコアと、学習用データセット1000の"出力判断層の正解データ"の第2スコアに格納された値との間で学習損失を算出する。また、比較/変更部910では、算出した学習損失に基づき、第2の出力判断層802のパラメータを更新する。Similarly, the comparison/change unit 910 calculates a learning loss between the second score output from the second output judgment layer 802 and the value stored in the second score of the "correct data of the output judgment layer" in the learning dataset 1000. The comparison/change unit 910 also updates the parameters of the second output judgment layer 802 based on the calculated learning loss.

一方、図11は、第2の実施形態に係る質問応答装置の学習フェーズにおける動作例を示す第3の図である。図11の場合、学習用データセット1100="第3の出力層323及び第3の出力判断層803についての学習処理に用いられる学習用データセット"であることを示すフラグが、質問応答部800により設定されているものとする。 On the other hand, Figure 11 is a third diagram showing an example of operation in the learning phase of the question answering device according to the second embodiment. In the case of Figure 11, it is assumed that a flag indicating that the learning dataset 1100 is "a learning dataset used in the learning process for the third output layer 323 and the third output judgment layer 803" is set by the question answering unit 800.

なお、図11に示すように、学習用データセット1100には、情報の項目として、"入力データ"、"第3の出力層の正解データ"、"出力判断層の正解データ"が含まれ、
・"入力データ"には、質問とパッセージが格納される。
・"第3の出力層の正解データ"には、対応するパッセージから抽出した情報に基づいて生成する改訂質問の正解データが格納される。
・"出力判断層の正解データ"には、第3の出力判断層803から出力されるスコア(第3スコア)の正解データが格納される。
As shown in FIG. 11, the learning dataset 1100 includes information items such as “input data”, “correct answer data of the third output layer”, and “correct answer data of the output judgment layer”.
・"Input data" stores questions and passages.
The "third output layer correct answer data" stores the correct answer data for the revised question generated based on the information extracted from the corresponding passage.
In the "correct data of the output determination layer", the correct data of the score (third score) output from the third output determination layer 803 is stored.

図11において、入力部310が、学習用データセット1100の入力データ(質問とパッセージの組)を理解層320に入力すると、第1の出力層321~第3の出力層323からは、機械学習の出力結果として、第1の応答~第3の応答が出力される。また、第1の出力判断層801~第3の出力判断層803からは、第1スコア~第3スコアが出力される。 In Figure 11, when the input unit 310 inputs input data (pairs of questions and passages) from the learning dataset 1100 to the understanding layer 320, the first output layer 321 to the third output layer 323 output a first response to a third response as the machine learning output results. In addition, the first output judgment layer 801 to the third output judgment layer 803 output a first score to a third score.

比較/変更部910では、第3の出力層323から出力された第3の応答(改訂質問)と、学習用データセット1100の"第3の出力層の正解データ"に格納された改訂質問との間で学習損失を算出する。また、比較/変更部910では、算出した学習損失に基づき、第3の出力層323及び理解層320のパラメータを更新する。The comparison/change unit 910 calculates a learning loss between the third response (revised question) output from the third output layer 323 and the revised question stored in the "correct answer data of the third output layer" of the training dataset 1100. The comparison/change unit 910 also updates the parameters of the third output layer 323 and the understanding layer 320 based on the calculated learning loss.

同様に、比較/変更部910では、第3の出力判断層803から出力された第3スコアと、学習用データセット1100の"出力判断層の正解データ"の第3スコアに格納された値との間で学習損失を算出する。また、比較/変更部910では、算出した学習損失に基づき、第3の出力判断層803のパラメータを更新する。Similarly, the comparison/change unit 910 calculates a learning loss between the third score output from the third output judgment layer 803 and the value stored in the third score of the "correct data of the output judgment layer" in the learning dataset 1100. The comparison/change unit 910 also updates the parameters of the third output judgment layer 803 based on the calculated learning loss.

<質問応答処理の流れ>
次に、第2の実施形態に係る質問応答装置100による質問応答処理の流れについて説明する。図12は、第2の実施形態に係る質問応答装置による質問応答処理の流れを示すフローチャートである。上記第1の実施形態において図7を用いて説明したフローチャートとの相違点は、ステップS1201~S1203である。
<Question answering process flow>
Next, a flow of a question answering process by the question answering device 100 according to the second embodiment will be described. Fig. 12 is a flowchart showing the flow of a question answering process by the question answering device according to the second embodiment. The difference from the flowchart described in Fig. 7 in the first embodiment is steps S1201 to S1203.

ステップS1201において、質問応答部110は、学習用データセット900を用いて、理解層320、第1の出力層321、第1の出力判断層801について学習処理を行う。In step S1201, the question answering unit 110 uses the learning dataset 900 to perform learning processing on the understanding layer 320, the first output layer 321, and the first output judgment layer 801.

ステップS1202において、質問応答部110は、学習用データセット1000を用いて、理解層320、第2の出力層322、第2の出力判断層802について学習処理を行う。In step S1202, the question answering unit 110 uses the learning dataset 1000 to perform learning processing on the understanding layer 320, the second output layer 322, and the second output judgment layer 802.

ステップS1203において、質問応答部110は、学習用データセット1100を用いて、理解層320、第3の出力層323、第3の出力判断層803について学習処理を行う。In step S1203, the question answering unit 110 uses the learning dataset 1100 to perform learning processing on the understanding layer 320, the third output layer 323, and the third output judgment layer 803.

<まとめ>
以上の説明から明らかなように、第2の実施形態に係る質問応答装置100は、
・質問とパッセージとを入力として、質問とパッセージとの関連性を示す情報を算出する理解層を有する。
・理解層により算出された関連性を示す情報をそれぞれの入力として、互いに異なる出力形式である第1~第3の応答を出力する、第1の出力層~第3の出力層を有する。
・第1の出力層~第3の出力層の状態ベクトルを受け取り、第1の出力層~第3の出力層についての個別のスコア(第1スコア~第3スコア)を算出する、第1の出力判断層~第3の出力判断層を有する。更に、第1の出力判断層~第3の出力判断層により算出された第1スコア~第3スコアを選択指標として、予め定められた数の応答を選択する選択部を有する。
<Summary>
As is apparent from the above description, the question answering apparatus 100 according to the second embodiment has the following features:
-Has an understanding layer that takes a question and a passage as input and calculates information indicating the relevance between the question and the passage.
- It has first to third output layers, which use information indicating the relevance calculated by the understanding layer as their respective inputs and output first to third responses which are mutually different output formats.
The system has a first output determination layer to a third output determination layer that receive state vectors of the first output layer to the third output layer and calculate individual scores (first score to third score) for the first output layer to the third output layer, and further has a selection unit that selects a predetermined number of responses using the first score to the third score calculated by the first output determination layer to the third output determination layer as selection indexes.

これにより、第2の実施形態に係る質問応答装置100によれば、第1の実施形態同様、質問に対する応答を複数の出力形式で出力できるとともに、コンピュータリソースの消費を抑え、かつ、適切な応答を選択することが可能になる。加えて、第2の実施形態に係る質問応答装置100によれば、新たな出力形式が追加される場合でも、質問応答部全体について、再学習処理を行う必要がなくなる。As a result, according to the question answering device 100 of the second embodiment, like the first embodiment, responses to questions can be output in multiple output formats, while reducing the consumption of computer resources and enabling the selection of an appropriate response. In addition, according to the question answering device 100 of the second embodiment, even when a new output format is added, there is no need to perform a re-learning process for the entire question answering unit.

つまり、第2の実施形態によれば、機械読解により質問に対する応答を出力する際、複数の出力形式で出力可能な、より実現可能性の高い質問応答装置、質問応答方法及び質問応答プログラムを提供することができる。In other words, according to the second embodiment, it is possible to provide a more feasible question answering device, question answering method, and question answering program that can output responses to questions through machine reading comprehension in multiple output formats.

[その他の実施形態]
上記第1の実施形態及び第2の実施形態では、それぞれ異なる出力判断層を設置する場合について説明したが、第1の実施形態における出力判断層を設置するか、第2の実施形態における出力判断層を設置するかの決定は任意である。例えば、設定するタスクや目的、質問応答装置のシステム構成等を加味して決定してもよい。
[Other embodiments]
In the above first and second embodiments, the cases where different output determination layers are installed have been described, but the decision as to whether to install the output determination layer in the first embodiment or the output determination layer in the second embodiment is arbitrary. For example, the decision may be made in consideration of the tasks and objectives to be set, the system configuration of the question answering device, and the like.

また、上記第1の実施形態及び第2の実施形態では、同一の質問応答装置100において学習フェーズと応答フェーズとを実行するものとして説明した。しかしながら、学習フェーズと応答フェーズとは別体の装置で実行するように構成してもよい。この場合、応答フェーズを実行する装置は、学習用データセット格納部120を有している必要はなく、また、比較/変更部410、910が設置されることもない。In addition, in the above first and second embodiments, the learning phase and the response phase are described as being executed in the same question answering device 100. However, the learning phase and the response phase may be configured to be executed in separate devices. In this case, the device that executes the response phase does not need to have a learning dataset storage unit 120, and the comparison/modification unit 410, 910 is not installed.

なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせ等、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。 Note that the present invention is not limited to the configurations described in the above embodiments, and may be combined with other elements. These points can be modified without departing from the spirit of the present invention, and can be appropriately determined according to the application form.

100 :質問応答装置
110 :質問応答部
120 :学習用データセット格納部
130 :パッセージ格納部
310 :入力部
320 :理解層
321 :第1の出力層
322 :第2の出力層
323 :第3の出力層
324 :出力判断層
330 :選択部
400~600 :学習用データセット
801 :第1の出力判断層
802 :第2の出力判断層
803 :第3の出力判断層
810 :選択部
900~1100 :学習用データセット
100: Question answering device 110: Question answering unit 120: Learning dataset storage unit 130: Passage storage unit 310: Input unit 320: Understanding layer 321: First output layer 322: Second output layer 323: Third output layer 324: Output judgment layer 330: Selection unit 400-600: Learning dataset 801: First output judgment layer 802: Second output judgment layer 803: Third output judgment layer 810: Selection unit 900-1100: Learning dataset

Claims (9)

質問及び前記質問に応答する際に用いられる関連文書と、前記質問に対する各出力形式の応答とを用いて機械学習された、前記出力形式の数に応じた数の複数の機械学習済みモデルであって、それぞれが複数の層を有する前記機械学習済みモデルの、入力側の共通層により構成される算出部と、a calculation unit configured by a common input layer of a plurality of machine-learned models, the number of which corresponds to the number of output formats, each of which has a plurality of layers, the machine-learned models being machine-learned using a question, a related document used in answering the question, and responses to the question in each output format;
前記複数の機械学習済みモデルそれぞれの、出力側の層により構成される複数の出力部と、を有し、A plurality of output units each configured by an output layer of each of the plurality of machine-learned models,
前記複数の出力部は、前記算出部に、質問及び前記質問に応答する際に用いられる関連文書が入力された場合の、前記算出部の出力がそれぞれ入力されることにより、対応する出力形式の応答を出力する、質問応答装置。The multiple output units each output a response in a corresponding output format when a question and a related document used in answering the question are input to the calculation unit.
質問及び前記質問に応答する際に用いられる関連文書と、前記質問に対する各出力形式の応答とを用いて機械学習された、前記出力形式の数に応じた数の複数の機械学習済みモデルであって、それぞれが複数の層を有する前記機械学習済みモデルの、入力側の共通層により構成される算出部と、
前記複数の機械学習済みモデルそれぞれの、出力側の層により構成される複数の出力部と、
質問及び前記質問に応答する際に用いられる関連文書が入力された場合の前記算出部の出力が、前記複数の出力部それぞれに入力されることで、前記複数の出力部それぞれより出力される各出力形式の応答のうち、予め定められた数の応答を選択する選択部と
を有する質問応答装置。
a calculation unit configured by a common input layer of a plurality of machine-learned models, the number of which corresponds to the number of output formats, each of which has a plurality of layers, the machine-learned models being machine-learned using a question, a related document used in answering the question, and responses to the question in each output format;
A plurality of output units each configured by an output layer of each of the plurality of machine-learned models ;
a selection unit that selects a predetermined number of responses from among the responses in each output format output from each of the multiple output units by inputting an output of the calculation unit when a question and a related document used in answering the question are input to each of the multiple output units .
前記算出部の出力を受け取り、前記選択部が予め定められた数の応答を選択するための指標値を算出する指標算出部を更に有し、An index calculation unit receives an output of the calculation unit and calculates an index value for the selection unit to select a predetermined number of responses,
前記選択部は、前記指標値に基づき、予め定められた数の応答を選択する、請求項2に記載の質問応答装置。The question answering apparatus according to claim 2 , wherein the selection unit selects a predetermined number of responses based on the index value.
前記指標算出部は、前記算出部の出力を受け取り、前記複数の出力部が各出力形式で出力する各応答の確率分布を算出
前記選択部は、前記各応答の確率分布に基づき、予め定められた数の応答を選択する、請求項に記載の質問応答装置。
The index calculation unit receives the output of the calculation unit and calculates a probability distribution of each response output by the multiple output units in each output format;
The question answering apparatus according to claim 3 , wherein the selection unit selects a predetermined number of responses based on a probability distribution of each of the responses.
前記複数の出力部が各応答を出力する際に算出された情報を受け取り、前記複数の出力部それぞれに対する指標値を算出する複数の指標算出部を更に有し、
前記選択部は、前記複数の出力部それぞれに対する指標値に基づき、予め定められた数の応答を選択する、請求項に記載の質問応答装置。
Further comprising a plurality of index calculation units that receive information calculated when the plurality of output units output each response and calculate an index value for each of the plurality of output units,
The question answering apparatus according to claim 2 , wherein the selection unit selects a predetermined number of responses based on index values for each of the plurality of output units.
コンピュータが、The computer
質問及び前記質問に応答する際に用いられる関連文書と、前記質問に対する各出力形式の応答とを用いて機械学習された、前記出力形式の数に応じた数の複数の機械学習済みモデルであって、それぞれが複数の層を有する前記機械学習済みモデルの、入力側の共通層により構成される算出部と、a calculation unit configured by a common input layer of a plurality of machine-learned models, the number of which corresponds to the number of output formats, each of which has a plurality of layers, the machine-learned models being machine-learned using a question, a related document used in answering the question, and responses to the question in each output format;
前記複数の機械学習済みモデルそれぞれの、出力側の層により構成される複数の出力部として機能し、The plurality of machine-learned models function as a plurality of output units each composed of an output layer;
前記複数の出力部が、前記算出部に、質問及び前記質問に応答する際に用いられる関連文書が入力された場合の、前記算出部の出力がそれぞれ入力されることにより、対応する出力形式の応答を出力する、質問応答方法。A question answering method in which the multiple output units each receive an output from the calculation unit when a question and a related document used in answering the question are input to the calculation unit, and output a response in a corresponding output format.
コンピュータが、
質問及び前記質問に応答する際に用いられる関連文書と、前記質問に対する各出力形式の応答とを用いて機械学習された、前記出力形式の数に応じた数の複数の機械学習済みモデルであって、それぞれが複数の層を有する前記機械学習済みモデルの、入力側の共通層により構成される算出部と、
前記複数の機械学習済みモデルそれぞれの、出力側の層により構成される複数の出力部と、
質問及び前記質問に応答する際に用いられる関連文書が入力された場合の前記算出部の出力が、前記複数の出力部それぞれに入力されることで、前記複数の出力部それぞれより出力される各出力形式の応答のうち、予め定められた数の応答を選択する選択部として機能する質問応答方法。
The computer
a calculation unit configured by a common input layer of a plurality of machine-learned models, the number of which corresponds to the number of output formats, each of which is machine-learned using a question, a related document used in answering the question, and a response to the question in each output format, the machine-learned models each having a plurality of layers;
A plurality of output units each configured by an output layer of each of the plurality of machine-learned models;
A question answering method in which the output of the calculation unit when a question and related documents used in answering the question are input is input to each of the multiple output units, and the calculation unit functions as a selection unit that selects a predetermined number of responses from among the responses in each output format output by each of the multiple output units.
コンピュータを、Computer,
質問及び前記質問に応答する際に用いられる関連文書と、前記質問に対する各出力形式の応答とを用いて機械学習された、前記出力形式の数に応じた数の複数の機械学習済みモデルであって、それぞれが複数の層を有する前記機械学習済みモデルの、入力側の共通層により構成される算出部と、a calculation unit configured by a common input layer of a plurality of machine-learned models, the number of which corresponds to the number of output formats, each of which has a plurality of layers, the machine-learned models being machine-learned using a question, a related document used in answering the question, and responses to the question in each output format;
前記複数の機械学習済みモデルそれぞれの、出力側の層により構成される複数の出力部として機能させ、The machine-learned models are each configured as a plurality of output units each composed of an output layer,
前記複数の出力部が、前記算出部に、質問及び前記質問に応答する際に用いられる関連文書が入力された場合の、前記算出部の出力がそれぞれ入力されることにより、対応する出力形式の応答を出力する、質問応答プログラム。A question answering program, wherein the plurality of output units each output a response in a corresponding output format when a question and a related document used in answering the question are input to the calculation unit.
コンピュータを、
質問及び前記質問に応答する際に用いられる関連文書と、前記質問に対する各出力形式の応答とを用いて機械学習された、前記出力形式の数に応じた数の複数の機械学習済みモデルであって、それぞれが複数の層を有する前記機械学習済みモデルの、入力側の共通層により構成される算出部と、
前記複数の機械学習済みモデルそれぞれの、出力側の層により構成される複数の出力部と、
質問及び前記質問に応答する際に用いられる関連文書が入力された場合の前記算出部の出力が、前記複数の出力部それぞれに入力されることで、前記複数の出力部それぞれより出力される各出力形式の応答のうち、予め定められた数の応答を選択する選択部として機能させるための質問応答プログラム。
Computer,
a calculation unit configured by a common input layer of a plurality of machine-learned models, the number of which corresponds to the number of output formats, each of which has a plurality of layers, the machine-learned models being machine-learned using a question, a related document used in answering the question, and responses to the question in each output format;
A plurality of output units each configured by an output layer of each of the plurality of machine-learned models;
A question answering program that functions as a selection unit that selects a predetermined number of responses from among the responses in each output format output by each of the multiple output units by inputting the output of the calculation unit when a question and related documents used in answering the question are input to each of the multiple output units .
JP2022533265A 2020-06-29 2020-06-29 Question answering device, question answering method, and question answering program Active JP7468654B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024047724A JP2024071511A (en) 2020-06-29 2024-03-25 Apparatus, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/025482 WO2022003762A1 (en) 2020-06-29 2020-06-29 Question answering device, question answering method, and question answering program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024047724A Division JP2024071511A (en) 2020-06-29 2024-03-25 Apparatus, method and program

Publications (2)

Publication Number Publication Date
JPWO2022003762A1 JPWO2022003762A1 (en) 2022-01-06
JP7468654B2 true JP7468654B2 (en) 2024-04-16

Family

ID=79315756

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022533265A Active JP7468654B2 (en) 2020-06-29 2020-06-29 Question answering device, question answering method, and question answering program
JP2024047724A Pending JP2024071511A (en) 2020-06-29 2024-03-25 Apparatus, method and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024047724A Pending JP2024071511A (en) 2020-06-29 2024-03-25 Apparatus, method and program

Country Status (2)

Country Link
JP (2) JP7468654B2 (en)
WO (1) WO2022003762A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117708304B (en) * 2024-02-01 2024-05-28 浙江大华技术股份有限公司 Database question-answering method, equipment and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190108273A1 (en) 2017-10-10 2019-04-11 Alibaba Group Holding Limited Data Processing Method, Apparatus and Electronic Device
WO2019235103A1 (en) 2018-06-07 2019-12-12 日本電信電話株式会社 Question generation device, question generation method, and program
JP2020501229A (en) 2016-11-04 2020-01-16 セールスフォース ドット コム インコーポレイティッド Dynamic Interactive Attention Network for Question Answering
JP6649536B1 (en) 2019-05-28 2020-02-19 日本電信電話株式会社 Dialogue processing device, learning device, dialogue processing method, learning method and program
US20200175015A1 (en) 2018-11-29 2020-06-04 Koninklijke Philips N.V. Crf-based span prediction for fine machine learning comprehension

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020501229A (en) 2016-11-04 2020-01-16 セールスフォース ドット コム インコーポレイティッド Dynamic Interactive Attention Network for Question Answering
US20190108273A1 (en) 2017-10-10 2019-04-11 Alibaba Group Holding Limited Data Processing Method, Apparatus and Electronic Device
WO2019235103A1 (en) 2018-06-07 2019-12-12 日本電信電話株式会社 Question generation device, question generation method, and program
US20200175015A1 (en) 2018-11-29 2020-06-04 Koninklijke Philips N.V. Crf-based span prediction for fine machine learning comprehension
JP6649536B1 (en) 2019-05-28 2020-02-19 日本電信電話株式会社 Dialogue processing device, learning device, dialogue processing method, learning method and program

Also Published As

Publication number Publication date
WO2022003762A1 (en) 2022-01-06
JPWO2022003762A1 (en) 2022-01-06
JP2024071511A (en) 2024-05-24

Similar Documents

Publication Publication Date Title
CN111368996B (en) Retraining projection network capable of transmitting natural language representation
JP7087938B2 (en) Question generator, question generation method and program
CN111062489A (en) Knowledge distillation-based multi-language model compression method and device
JP2024071511A (en) Apparatus, method and program
WO2019164744A1 (en) Dialogue state tracking using a global-local encoder
JP7315065B2 (en) QUESTION GENERATION DEVICE, QUESTION GENERATION METHOD AND PROGRAM
JP7276498B2 (en) Information processing device, information processing method and program
CN112214608A (en) Text generation method, medium, device and computing equipment based on knowledge reasoning
KR102181901B1 (en) Method to create animation
KR102477782B1 (en) Data processing method and apparatus for training neural networks classifing natural language intentions
CN113705196A (en) Chinese open information extraction method and device based on graph neural network
JP7342971B2 (en) Dialogue processing device, learning device, dialogue processing method, learning method and program
CN113312919A (en) Method and device for generating text of knowledge graph
JP7103264B2 (en) Generation device, learning device, generation method and program
CN110308909B (en) Executable program generating device and method for neural network processor
KR102492277B1 (en) Method for qa with multi-modal information
JP4405542B2 (en) Apparatus, method and program for clustering phoneme models
US20230140480A1 (en) Utterance generation apparatus, utterance generation method, and program
JP2023127931A (en) Learning device, method, program, and inference device
JP2022171502A (en) Meta-learning data augmentation framework
CN110852112B (en) Word vector embedding method and device
JP7044245B2 (en) Dialogue system reinforcement device and computer program
KR102552401B1 (en) Method for question-answering based on asr
CN111737440B (en) Question generation method and device
KR102603635B1 (en) Method for augmenting training data of vqa model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230912

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240318

R150 Certificate of patent or registration of utility model

Ref document number: 7468654

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150