JP7468654B2 - Question answering device, question answering method, and question answering program - Google Patents
Question answering device, question answering method, and question answering program Download PDFInfo
- Publication number
- JP7468654B2 JP7468654B2 JP2022533265A JP2022533265A JP7468654B2 JP 7468654 B2 JP7468654 B2 JP 7468654B2 JP 2022533265 A JP2022533265 A JP 2022533265A JP 2022533265 A JP2022533265 A JP 2022533265A JP 7468654 B2 JP7468654 B2 JP 7468654B2
- Authority
- JP
- Japan
- Prior art keywords
- output
- question
- layer
- question answering
- machine
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 29
- 230000004044 response Effects 0.000 claims description 102
- 238000004364 calculation method Methods 0.000 claims description 27
- 230000006870 function Effects 0.000 claims description 7
- 230000008859 change Effects 0.000 description 26
- 239000013598 vector Substances 0.000 description 25
- 238000012545 processing Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 17
- 230000015654 memory Effects 0.000 description 12
- 230000000052 comparative effect Effects 0.000 description 7
- 230000009118 appropriate response Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Electrically Operated Instructional Devices (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本開示は、質問応答装置、質問応答方法及び質問応答プログラムに関する。 The present disclosure relates to a question answering device, a question answering method, and a question answering program.
ユーザが自然言語で入力した質問に対して、自動で応答する質問応答技術として、機械読解が知られている。機械読解とは、ユーザによる質問と、自然言語で記述された関連文書(「パッセージ」と称す)とを入力し、パッセージ中から抽出した情報に基づいて、入力された質問に対する応答を出力する技術である。 Machine reading comprehension is known as a question-answering technology that automatically responds to questions entered by a user in natural language. Machine reading comprehension is a technology that inputs a user's question and a related document written in natural language (called a "passage"), and outputs a response to the input question based on information extracted from the passage.
当該機械読解により質問に対する応答を出力する際の出力形式は様々であり、一例として、
・パッセージから抽出した情報に基づいて、文生成により生成した回答文を出力する形式、
・パッセージから抽出した情報に基づいて、YES/NOなどのラベルを出力する形式、
・パッセージから抽出した情報に基づいて生成した質問(回答を絞り込むための質問)を出力する形式、
等が挙げられる。
The output format of the response to the question by the machine reading comprehension is various. For example,
- A format that outputs answer sentences generated by sentence generation based on information extracted from the passage,
- A format that outputs labels such as YES/NO based on information extracted from the passage,
- A format that outputs questions (questions to narrow down answers) generated based on information extracted from the passage,
etc.
ここで、上記いずれの出力形式でも出力可能な機械読解を実現するには、それぞれの出力形式に対応する機械読解モデルを組み合わせることが考えられる。 Here, in order to achieve machine reading comprehension that can output in any of the above output formats, it is possible to consider combining machine reading comprehension models that correspond to each output format.
しかしながら、出力形式の数に応じた数の機械読解モデルをメモリ上に展開して実行させる構成とすると、装置内のリソースが大量に消費されることとなり、リソースに制約のある装置においては、実現可能性が低い。However, if a number of machine reading comprehension models corresponding to the number of output formats were to be deployed in memory and executed, a large amount of resources would be consumed within the device, and this is unlikely to be feasible on devices with limited resources.
本開示は、機械読解により質問に対する応答を出力する際、複数の出力形式で出力可能な質問応答装置、質問応答方法及び質問応答プログラムを提供することを目的とする。 The present disclosure aims to provide a question answering device, a question answering method, and a question answering program that are capable of outputting responses to questions in multiple output formats through machine reading comprehension.
本開示の一態様によれば、質問応答装置は、
質問及び前記質問に応答する際に用いられる関連文書と、前記質問に対する各出力形式の応答とを用いて機械学習された、前記出力形式の数に応じた数の複数の機械学習済みモデルであって、それぞれが複数の層を有する前記機械学習済みモデルの、入力側の共通層により構成される算出部と、
前記複数の機械学習済みモデルそれぞれの、出力側の層により構成される複数の出力部と、を有し、
前記複数の出力部は、前記算出部に、質問及び前記質問に応答する際に用いられる関連文書が入力された場合の、前記算出部の出力がそれぞれ入力されることにより、対応する出力形式の応答を出力する。
According to one aspect of the present disclosure, a question answering device includes:
a calculation unit configured by a common input layer of a plurality of machine-learned models, the number of which corresponds to the number of output formats, each of which has a plurality of layers, the machine-learned models being machine-learned using a question, a related document used in answering the question, and responses to the question in each output format;
A plurality of output units each configured by an output layer of each of the plurality of machine-learned models ,
The multiple output units each output a response in a corresponding output format when the output of the calculation unit is input to the calculation unit in response to a question and a related document used in responding to the question .
本開示によれば、機械読解により質問に対する応答を出力する際、複数の出力形式で出力可能な質問応答装置、質問応答方法及び質問応答プログラムを提供することができる。 According to the present disclosure, it is possible to provide a question answering device, a question answering method, and a question answering program that are capable of outputting responses to questions in multiple output formats through machine reading comprehension.
以下、各実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。Each embodiment will be described below with reference to the accompanying drawings. In this specification and drawings, components having substantially the same functional configuration are designated by the same reference numerals, and duplicate descriptions will be omitted.
[第1の実施形態]
<質問応答装置のハードウェア構成>
はじめに、第1の実施形態に係る質問応答装置のハードウェア構成について説明する。図1は、質問応答装置のハードウェア構成の一例を示す図である。
[First embodiment]
<Hardware Configuration of Question Answering Device>
First, a description will be given of a hardware configuration of a question answering device according to the first embodiment. Fig. 1 is a diagram illustrating an example of a hardware configuration of a question answering device.
図1に示すように、質問応答装置100は、プロセッサ101、メモリ102、補助記憶装置103、I/F(Interface)装置104、通信装置105、ドライブ装置106を有する。なお、質問応答装置100の各ハードウェアは、バス107を介して相互に接続されている。As shown in Fig. 1, the
プロセッサ101は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等の各種演算デバイスを有する。プロセッサ101は、補助記憶装置103にインストールされた各種プログラム(不図示)をメモリ102上に読み出して実行する。The
メモリ102は、ROM(Read Only Memory)、RAM(Random Access Memory)等の主記憶デバイスを有する。プロセッサ101とメモリ102とは、いわゆるコンピュータを形成し、プロセッサ101が、メモリ102上に読み出した各種プログラムを実行することで、当該コンピュータは各種機能を実現する。The
例えば、本実施形態において、プロセッサ101とメモリ102とにより形成されるコンピュータは、プロセッサ101が、メモリ102上に読み出した質問応答プログラムを実行することで、質問応答部110を実現する。なお、後述するように、質問応答部110は、質問応答装置100内のコンピュータリソースの消費を抑えられるように構成されている。For example, in this embodiment, a computer formed by the
補助記憶装置103は、各種プログラムや、各種プログラムがプロセッサ101によって実行される際に用いられる各種データを格納する。例えば、本実施形態において、補助記憶装置103は、学習用データセット格納部120及びパッセージ格納部130を有し、各種データ(学習用データセット及びパッセージ(自然言語で記述された関連文書))を格納する。The
I/F装置104は、入力装置140及び出力装置141と、質問応答装置100とを接続する接続デバイスである。I/F装置104は、質問応答装置100に対する質問を、入力装置140を介して受け付ける。また、I/F装置104は、入力された質問に対して質問応答装置100が生成した応答を、出力装置141を介して出力する。ここでいう入力装置140には、入力された質問を音声データに変換する装置や、テキストデータに変換する装置等が含まれる。同様に、ここでいう出力装置141には、音声データによる応答を出力する装置や、テキストデータによる応答を出力する装置等が含まれる。The I/
通信装置105は、ネットワークを介して他の装置と通信するための通信デバイスである。
The
ドライブ装置106は記録媒体142をセットするためのデバイスである。ここでいう記録媒体142には、CD-ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記録媒体142には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。
The
なお、補助記憶装置103にインストールされる各種プログラムは、例えば、配布された記録媒体142がドライブ装置106にセットされ、該記録媒体142に記録された各種プログラムがドライブ装置106により読み出されることでインストールされる。あるいは、補助記憶装置103にインストールされる各種プログラムは、通信装置105を介してネットワークからダウンロードされることで、インストールされてもよい。The various programs to be installed in the
同様に、補助記憶装置103が有する各格納部に格納される各種データは、例えば、配布された記録媒体142がドライブ装置106にセットされ、該記録媒体142に記録された各種データがドライブ装置106により読み出されることで格納される。あるいは、補助記憶装置103が有する各格納部に格納される各種データは、通信装置105を介してネットワークからダウンロードされることで、格納されてもよい。Similarly, the various data stored in each storage unit of the
<質問応答部の機能構成>
次に、質問応答部110の機能構成の詳細について説明する。なお、説明に際しては、質問応答部110の機能構成の特徴を明確にするために、比較例として、まず、出力形式の数に応じた数の機械読解モデルを組み合わせて構築した質問応答部の機能構成について説明する。
<Functional configuration of the question answering unit>
Next, a detailed description will be given of the functional configuration of the
(1)比較例の質問応答部の機能構成
図2は、比較例の質問応答部の機能構成を示す図である。機械読解により質問に対する応答を出力する際、複数の出力形式で出力できるようにするための構成として、比較例の質問応答部200は、
・入力部210、
・複数の機械読解モデル(図2の例では、第1の機械読解モデル221~第3の機械読解モデル223)、
・選択部230、
を有する。
(1) Functional configuration of the question answering unit of the comparative example Fig. 2 is a diagram showing the functional configuration of the question answering unit of the comparative example. The
- Multiple machine reading comprehension models (in the example of FIG. 2, the first machine reading
has.
入力部210は、入力された質問と、パッセージ(自然言語で記述された関連文書)とを、複数の機械読解モデルそれぞれに入力する。The
第1の機械読解モデル221は、パッセージから抽出した情報に基づいて、文生成により生成した回答文を、第1の応答として出力する。
The first machine reading
第2の機械読解モデル222は、パッセージから抽出した情報に基づいて生成した、YES/NOなどのラベルを、第2の応答として出力する。The second machine reading
第3の機械読解モデル223は、パッセージから抽出した情報に基づいて生成した質問(回答を絞り込むために生成した質問(改訂質問と称す))を、第3の応答として出力する。The third machine reading
選択部230は、第1の機械読解モデル221~第3の機械読解モデル223それぞれから出力された応答のうち、予め定められた数の応答を選択して出力する。The
比較例の質問応答部200に示すように、出力形式の数に応じた数の機械読解モデルを組み合わせることで、質問に対する応答を複数の出力形式で出力することができる。一方で、比較例の質問応答部200の場合、以下のような問題がある。
・出力形式の数に応じた数の機械読解モデルをメモリ上に展開して実行させる構成のため、質問応答装置100内のコンピュータリソースが大量に消費されることになる。
・第1の機械読解モデル221~第3の機械読解モデル223それぞれから出力された応答の中から、予め定められた数の応答を選択する際、適切な応答を選択することができない。第1の応答~第3の応答を比較するだけでは応答の優劣をつけられず、何らかの選択指標を算出する必要があるからである。
As shown in the
Since a number of machine reading comprehension models corresponding to the number of output formats are expanded in memory and executed, a large amount of computer resources are consumed in the
It is not possible to select appropriate responses when selecting a predetermined number of responses from among the responses output from each of the first machine reading
これに対して、第1の実施形態に係る質問応答装置100の質問応答部110は、これらの問題を解決する構成を有する。以下に詳細に説明する。In response to this, the
(2)質問応答部の機能構成
図3は、第1の実施形態に係る質問応答装置の質問応答部の機能構成の一例を示す図である。質問応答部110は、機械読解により質問に対する応答を出力する際、複数の出力形式で出力できるようにしつつ、コンピュータリソースの消費を抑え、かつ、質問に対する複数の出力形式の応答の中から、適切な応答を選択できるようにするための構成として、
・入力部310、
・入力層として機能する理解層320、
・出力層として機能する、第1の出力層321、第2の出力層322、第3の出力層323、
・出力層として機能する、出力判断層324、
・選択部330、
を有する。
3 is a diagram showing an example of a functional configuration of a question answering unit of the question answering device according to the first embodiment. The
- an
A
- an
has.
このうち、入力部310は、入力された質問と、パッセージ(自然言語で記述された関連文書)とを、理解層320に入力する。Of these, the
また、理解層320は算出部の一例であり、質問とパッセージとを入力とし、質問とパッセージとの関連性を示す情報を深層学習のベクトル上で算出し、状態ベクトルまたは状態テンソルを出力する。なお、理解層320は、質問とパッセージとを入力し、質問とパッセージとの関連性を示す情報を算出できる構造であれば、任意の構造を採用することができる。The
例えば、理解層320は、RNN()を用いたBiDAF(非特許文献1参照)や、TransformerベースのBERT(非特許文献2参照)などを採用することができる。ただし、理解層320は、理解層320より後段の出力層(第1の出力層321~第3の出力層323、出力判断層324)の入力となる状態ベクトルまたは状態テンソルの形式に合わせた出力を行う構造を有している必要がある。For example, the
第1の出力層321~第3の出力層323は出力部の一例であり、理解層320より出力された、質問とパッセージとの関連性を示す情報(状態ベクトルまたは状態テンソル)を入力として、応答(機械読解の出力結果)を出力する。The
図3の場合、第1の出力層321は、文生成により生成した回答文を、第1の応答として出力する。また、第2の出力層322は、YES/NOなどのラベルを、第2の応答として出力する。更に、第3の出力層323は、入力された質問に対する回答を絞り込むための改訂質問を、第3の応答として出力する。In the case of FIG. 3, the
なお、第1の出力層321~第3の出力層323は、それぞれ第1の応答~第3の応答を出力するにあたり、どのような深層学習の構造を有していてもよい。また、第1の出力層321~第3の出力層323が出力する出力形式は、回答文、ラベル、改訂質問に限定されず、他の出力形式の応答を出力してもよい。Note that the
また、図3の例では、第1~第3の出力層を設置する構成としたが、設置する出力層の数は任意であり、また、同一の構造を有する出力層を複数設置してもよい。例えば、文生成のデコーダの構造を2つ設置し、一方の出力層は、文生成により回答文を生成するように学習した出力層とし、他方の出力層は、文生成により改訂質問を生成するように学習した出力層としてもよい。 In the example of Figure 3, the first to third output layers are installed, but any number of output layers may be installed, and multiple output layers having the same structure may be installed. For example, two sentence generation decoder structures may be installed, with one output layer trained to generate answer sentences through sentence generation, and the other output layer trained to generate revised questions through sentence generation.
出力判断層324は指標算出部の一例であり、第1の出力層321~第3の出力層323から出力される各応答の確率分布を算出する。The
具体的には、出力判断層324は、出力形式の数N(図3の例では、N=3)に対応する次元数のsoftmax層を有する。N個の次元のsoftmax層は、理解層320より状態ベクトルまたは状態テンソルを受け取り、各応答の確率分布を算出する。Specifically, the
なお、かかる構成は、出力形式の数Nが固定されている場合に有効である。一方で、かかる構成は、出力形式の追加が必要になった場合には、softmax層の次元数が対応できないため、質問応答部110全体について、再学習処理を行う必要がある。This configuration is effective when the number of output formats N is fixed. On the other hand, if it becomes necessary to add an output format, the number of dimensions of the softmax layer cannot be accommodated, and so re-learning processing must be performed on the entire
選択部330は、第1の出力層321~第3の出力層323それぞれから出力された応答のうち、出力判断層324により算出された確率分布が上位M個(Mは予め定められた数、図3の例は、M=1)の応答を選択し、出力装置141を介してユーザに出力する。The
このように、質問応答部110では、
・複数の出力形式に対して、共有の理解層を設置し(入力層を共通化し)、
・入力層(理解層)と出力層(第1の出力層321~第3の出力層323、出力判断層324)とを分離して、各層をモジュール化し、
・出力層に設置した出力判断層324より算出される、各応答の確率分布を選択指標として、選択部330が最終的に出力すべき応答を選択する、
構成とした。これにより、質問応答部110によれば、機械読解により質問に対する応答を出力する際、複数の出力形式で出力できるとともに、
・入力層の共通化によりコンピュータリソースの消費を抑え、かつ、
・選択指標の算出により適切な応答を選択する、
ことが可能になる。
In this way, the
・Establish a shared understanding layer for multiple output formats (share the input layer),
Separating the input layer (understanding layer) and the output layer (
The
As a result, the
・The input layer is shared to reduce the consumption of computer resources, and
- Selecting the appropriate response by calculating the selection index;
This makes it possible.
<質問応答部の学習方法>
次に、質問応答部110の学習方法について説明する。質問応答部110に対して学習処理を行う学習フェーズにおいて、本実施形態に係る質問応答装置100の質問応答部110は、まず、選択部330に代えて、比較/変更部410を設置する。続いて、本実施形態に係る質問応答装置100の質問応答部110は、質問応答部110内に設置した各層(理解層320、第1の出力層321~第3の出力層323、出力判断層324)について学習処理を行う。
<Learning method for the question answering section>
Next, a learning method of the
その際、質問応答装置100の質問応答部110では、個別の機械読解モデル(第1の機械読解モデル221~第3の機械読解モデル223)について学習処理を行う際に用いられる学習用データセットを使用する。In this case, the
具体的には、質問応答装置100の質問応答部110は、まず、学習用データセットが、いずれの出力層についての学習処理に用いられるものであるかを示すフラグを設定する。Specifically, the
続いて、質問応答装置100の質問応答部110は、出力判断層324の正解データを学習用データセットに格納する。例えば、質問応答装置100の質問応答部110は、設定したフラグに対応する次元の値を"1"、それ以外の次元の値を"0"とするベクトルデータを、出力判断層324の正解データとして学習用データセットに格納する。Next, the
続いて、質問応答装置100の質問応答部110は、設定したフラグに該当する出力層から出力された応答と、対応する正解データとの間で学習損失を算出し、算出した学習損失に基づき、設定したフラグに該当する出力層及び理解層のパラメータを更新する。このとき、質問応答装置100の質問応答部110では、設定したフラグに該当する出力層以外の出力層から出力された応答については無視する。Next, the
また、質問応答装置100の質問応答部110は、出力判断層から出力されるベクトルデータと、対応する正解データとの間で学習損失を算出し、算出した学習損失に基づき、出力判断層のパラメータを更新する。
In addition, the
図4は、第1の実施形態に係る質問応答装置の学習フェーズにおける動作例を示す第1の図である。図4の場合、学習用データセット400="第1の出力層321についての学習処理に用いられる学習用データセット"であることを示すフラグが、質問応答部110により設定されているものとする。
Figure 4 is a first diagram showing an example of operation in the learning phase of the question answering device according to the first embodiment. In the case of Figure 4, it is assumed that a flag indicating that the learning
なお、図4に示すように、学習用データセット400には、情報の項目として、"入力データ"、"第1の出力層の正解データ"、"出力判断層の正解データ"が含まれ、
・"入力データ"には、質問とパッセージとが格納される。
・"第1の出力層の正解データ"には、対応するパッセージから抽出した情報に基づいて、文生成により生成する回答文の正解データが格納される。
・"出力判断層の正解データ"には、"第1次元"~"第3次元"が含まれ、第1次元の値を"1"、第2次元及び第3次元の値を"0"とするベクトルデータが格納される。
As shown in FIG. 4, the learning
・"Input data" stores questions and passages.
"First output layer correct answer data" stores correct answer data for an answer sentence generated by sentence generation based on information extracted from the corresponding passage.
The “correct data of the output judgment layer” includes the “first dimension” to the “third dimension”, and stores vector data in which the value of the first dimension is “1”, and the values of the second and third dimensions are “0”.
図4において、入力部310が、学習用データセット400の入力データ(質問とパッセージの組)を理解層320に入力すると、第1の出力層321~第3の出力層323からは、機械読解の出力結果として、第1の応答~第3の応答が出力される。また、出力判断層324からは、N個の次元(図4の例ではN=3)のベクトルデータが出力される。
In Figure 4, when the
比較/変更部410では、第1の出力層321から出力された第1の応答(回答文)と、学習用データセット400の"第1の出力層の正解データ"に格納された回答文との間で学習損失を算出する。また、比較/変更部410では、算出した学習損失に基づき、第1の出力層321及び理解層320のパラメータを更新する。The comparison/
同様に、比較/変更部410では、出力判断層324から出力されたN個(図4の例ではN=3)の次元のベクトルデータと、学習用データセット400の"出力判断層の正解データ"に格納された第1次元~第3次元のベクトルデータとの間で学習損失を算出する。また、比較/変更部410では、算出した学習損失に基づき、出力判断層324のパラメータを更新する。Similarly, the comparison/
一方、図5は、第1の実施形態に係る質問応答装置の学習フェーズにおける動作例を示す第2の図である。図5の場合、学習用データセット500="第2の出力層322についての学習処理に用いられる学習用データセット"であることを示すフラグが、質問応答部110により、設定されているものとする。
On the other hand, Figure 5 is a second diagram showing an example of operation in the learning phase of the question answering device according to the first embodiment. In the case of Figure 5, it is assumed that a flag indicating that the learning
なお、図5に示すように、学習用データセット500には、情報の項目として、"入力データ"、"第2の出力層の正解データ"、"出力判断層の正解データ"が含まれ、
・"入力データ"には、質問とパッセージとが格納される。
・"第2の出力層の正解データ"には、対応するパッセージから抽出した情報に基づいて生成する、YES/NOなどのラベルの正解データが格納される。
・"出力判断層の正解データ"には、"第1次元"~"第3次元"が含まれ、第2次元の値を"1"、第1次元及び第3次元の値を"0"とするベクトルデータが格納される。
As shown in FIG. 5, the learning
・"Input data" stores questions and passages.
"Second output layer correct answer data" stores correct answer data of labels such as YES/NO, which are generated based on information extracted from the corresponding passage.
The “correct data of the output judgment layer” includes the “first dimension” to the “third dimension”, and stores vector data in which the value of the second dimension is “1” and the values of the first and third dimensions are “0”.
図5において、入力部310が、学習用データセット500の入力データ(質問とパッセージの組)を理解層320に入力すると、第1の出力層321~第3の出力層323からは、機械読解の出力結果として、第1の応答~第3の応答が出力される。また、出力判断層324からは、N個の次元(図5の例ではN=3)のベクトルデータが出力される。
In Figure 5, when the
比較/変更部410では、第2の出力層322から出力された第2の応答(ラベル)と、学習用データセット500の"第2の出力層の正解データ"に格納されたラベルとの間で学習損失を算出する。また、比較/変更部410では、算出した学習損失に基づき、第2の出力層322及び理解層320のパラメータを更新する。The comparison/
同様に、比較/変更部410では、出力判断層324から出力されたN個(図5の例ではN=3)の次元のベクトルデータと、学習用データセット500の"出力判断層の正解データ"に格納された第1次元~第3次元のベクトルデータとの間で学習損失を算出する。また、比較/変更部410では、算出した学習損失に基づき、出力判断層324のパラメータを更新する。Similarly, the comparison/
一方、図6は、第1の実施形態に係る質問応答装置の学習フェーズにおける動作例を示す第3の図である。図6の場合、学習用データセット600="第3の出力層323についての学習処理に用いられる学習用データセット"であることを示すフラグが、質問応答部110により設定されているものとする。
On the other hand, Figure 6 is a third diagram showing an example of operation in the learning phase of the question answering device according to the first embodiment. In the case of Figure 6, it is assumed that a flag indicating that the learning
なお、図6に示すように、学習用データセット600には、情報の項目として、"入力データ"、"第3の出力層の正解データ"、"出力判断層の正解データ"が含まれ、
・"入力データ"には、質問とパッセージとが格納される。
・"第3の出力層の正解データ"には、対応するパッセージから抽出した情報に基づいて生成する改訂質問の正解データが格納される。
・"出力判断層の正解データ"には、"第1次元"~"第3次元"が含まれ、第3次元の値を"1"、第1次元及び第2次元の値を"0"とするベクトルデータが格納される。
As shown in FIG. 6, the learning
・"Input data" stores questions and passages.
The "third output layer correct answer data" stores the correct answer data for the revised question generated based on the information extracted from the corresponding passage.
The “correct answer data of the output judgment layer” includes the “first dimension” to the “third dimension”, and stores vector data in which the value of the third dimension is “1” and the values of the first and second dimensions are “0”.
図6において、入力部310が、学習用データセット600の入力データ(質問とパッセージの組)を理解層320に入力すると、第1の出力層321~第3の出力層323からは、機械読解の出力結果として、第1の応答~第3の応答が出力される。また、出力判断層324からは、N個の次元(図6の例ではN=3)のベクトルデータが出力される。
In Figure 6, when the
比較/変更部410では、第3の出力層323から出力された第3の応答(改訂質問)と、学習用データセット600の"第3の出力層の正解データ"に格納された改訂質問との間で学習損失を算出する。また、比較/変更部410では、算出した学習損失に基づき、第3の出力層323及び理解層320のパラメータを更新する。The comparison/
同様に、比較/変更部410では、出力判断層324から出力されたN個(図6の例ではN=3)の次元のベクトルデータと、学習用データセット600の"出力判断層の正解データ"に格納された第1次元~第3次元のベクトルデータとの間で学習損失を算出する。また、比較/変更部410では、算出した学習損失に基づき、出力判断層324のパラメータを更新する。Similarly, the comparison/
このように、質問応答装置100の質問応答部110では、学習用データセット400~600を用いて、理解層320、第1の出力層321~第3の出力層323、出力判断層324について、順次、学習処理を行う。In this way, the
<質問応答処理の流れ>
次に、質問応答装置100による質問応答処理の流れについて説明する。図7は、第1の実施形態に係る質問応答装置による質問応答処理の流れを示すフローチャートである。このうち、ステップS701~S703は、学習フェーズにおける処理を表し、ステップS704~S707は、応答フェーズにおける処理を表している。
<Question answering process flow>
Next, a flow of question answering processing by the
ステップS701において、質問応答部110は、学習用データセット400を用いて、理解層320、第1の出力層321、出力判断層324について学習処理を行う。In step S701, the
ステップS702において、質問応答部110は、学習用データセット500を用いて、理解層320、第2の出力層322、出力判断層324について学習処理を行う。In step S702, the
ステップS703において、質問応答部110は、学習用データセット600を用いて、理解層320、第3の出力層323、出力判断層324について学習処理を行う。In step S703, the
ステップS704において、質問応答部110の入力部310は、質問及びパッセージの入力を受け付け、入力された質問及びパッセージを、理解層320に入力する。In step S704, the
ステップS705において、第1の出力層321~第3の出力層323は、理解層320より出力された状態ベクトルを入力として、第1の応答~第3の応答を出力する。In step S705, the
ステップS706において、質問応答部110の出力判断層324は、理解層320より出力された状態ベクトルを入力として、第1の応答~第3の応答の確率分布を算出することで、選択指標を出力する。In step S706, the
ステップS707において、質問応答部110の選択部330は、出力判断層324から出力された選択指標に基づいて、予め定められた上位M個の応答を選択し、選択した応答を出力する。In step S707, the
<まとめ>
以上の説明から明らかなように、第1の実施形態に係る質問応答装置100は、
・質問とパッセージとを入力として、質問とパッセージとの関連性を示す情報を算出する理解層を有する。
・理解層により算出された関連性を示す情報をそれぞれの入力として、互いに異なる出力形式である第1~第3の応答を出力する、第1の出力層~第3の出力層を有する。
・理解層により出力された関連性を示す情報に基づいて第1の応答~第3の応答の確率分布を算出する出力判断層を有する。更に、出力判断層により算出された第1の応答~第3の応答の確率分布を選択指標として、予め定められた数の応答を選択する選択部を有する。
<Summary>
As is apparent from the above description, the
-Has an understanding layer that takes a question and a passage as input and calculates information indicating the relevance between the question and the passage.
- It has first to third output layers, which use information indicating the relevance calculated by the understanding layer as their respective inputs and output first to third responses which are mutually different output formats.
The present invention has an output judgment layer that calculates a probability distribution of the first to third responses based on the information indicating the relevance output by the understanding layer, and further has a selection unit that selects a predetermined number of responses using the probability distribution of the first to third responses calculated by the output judgment layer as a selection index.
これにより、第1の実施形態に係る質問応答装置100によれば、質問に対する応答を複数の出力形式で出力できるとともに、コンピュータリソースの消費を抑え、かつ、適切な応答を選択することが可能になる。As a result, the
つまり、第1の実施形態によれば、機械読解により質問に対する応答を出力する際、複数の出力形式で出力可能な、実現可能性の高い質問応答装置、質問応答方法及び質問応答プログラムを提供することができる。In other words, according to the first embodiment, it is possible to provide a highly feasible question answering device, question answering method, and question answering program that are capable of outputting responses to questions through machine reading in multiple output formats.
[第2の実施形態]
上記第1の実施形態では、出力形式の数が固定であることを前提とし、新たな出力形式を追加する場合には、質問応答部110全体について、再学習処理を行うものとして質問応答部を構成した。
Second Embodiment
In the above first embodiment, it is assumed that the number of output formats is fixed, and when a new output format is added, the question answering unit is configured to perform a re-learning process for the entire
これに対して、第2の実施形態では、新たな出力形式が追加された場合でも、質問応答部110全体について、再学習処理を行う必要がないように質問応答部を構成する。以下、第2の実施形態について、上記第1の実施形態との相違点を中心に説明する。In contrast, in the second embodiment, the question answering unit is configured so that even if a new output format is added, there is no need to perform re-learning processing for the entire
<質問応答部の機能構成>
はじめに、第2の実施形態に係る質問応答装置の質問応答部の機能構成について説明する。図8は、第2の実施形態に係る質問応答装置の質問応答部の機能構成の一例を示す図である。
<Functional configuration of the question answering unit>
First, a description will be given of a functional configuration of a question answering unit of the question answering device according to the second embodiment. Fig. 8 is a diagram illustrating an example of a functional configuration of the question answering unit of the question answering device according to the second embodiment.
図3に示した機能構成との相違点は、図8の質問応答部800の場合、第1の出力層321~第3の出力層323それぞれに対して、選択指標として、個別のスコアを算出する第1の出力判断層801~第3の出力判断層803が設置されている点である。また、図8の質問応答部800の場合、選択部810の機能が、図3の選択部330の機能とは異なる点である。
The difference with the functional configuration shown in Figure 3 is that in the case of the
第1の出力判断層801は指標算出部の一例であり、第1の出力層321の状態ベクトルを受け取り、第1スコアとして、0~1.0のスカラ値を算出するロジット層を有する。The first
同様に第2の出力判断層802は指標算出部の一例であり、第2の出力層322の状態ベクトルを受け取り、第2スコアとして、0~1.0のスカラ値を算出するロジット層を有する。Similarly, the second
同様に第3の出力判断層803は指標算出部の一例であり、第3の出力層323の状態ベクトルを受け取り、第3スコアとして、0~1.0のスカラ値を算出するロジット層を有する。Similarly, the third
選択部810は、第1の出力判断層801~第3の出力判断層803により算出された第1スコア~第3スコアに基づき、予め定められた上位M個のスコアに対応する応答を選択して出力する。The
このように、第2の実施形態に係る質問応答装置100では、第1の出力層321~第3の出力層323それぞれに対する個別のスコアを算出する第1の出力判断層801~第3の出力判断層803を設置する。これにより、第2の実施形態によれば、新たな出力形式が追加された場合でも、追加された新たな出力層及び出力判断層と、理解層とについて学習処理を行えば足り、既に学習済みの出力層及び出力判断層について再学習処理を行う必要がなくなる。
In this way, the
<質問応答部の学習方法>
次に、質問応答部800の学習方法について説明する。質問応答部110に対して学習処理を行う学習フェーズにおいて、本実施形態に係る質問応答装置100の質問応答部800は、まず、選択部810に代えて、比較/変更部910を設置する。続いて、本実施形態に係る質問応答装置100の質問応答部800は、質問応答部800内に設置した各層(理解層320、第1の出力層321~第3の出力層323、第1の出力判断層801~第3の出力判断層803)について学習処理を行う。
<Learning method for the question answering section>
Next, a learning method of the
その際、質問応答装置100では、上記第1の実施形態同様、個別の機械読解モデル(第1の機械読解モデル221~第3の機械読解モデル223)について学習処理を行う際に用いる学習用データセットを使用する。In this case, as in the first embodiment described above, the
具体的には、質問応答装置100の質問応答部800は、まず、学習用データセットが、いずれの出力層についての学習処理に用いられるものであるかを示すフラグを設定する。Specifically, the
続いて、質問応答装置100の質問応答部800は、第1の出力判断層801~第3の出力判断層803により算出される第1スコア~第3スコアの正解データを学習用データセットに格納する。例えば、質問応答装置100の質問応答部800は、設定したフラグに対応するスコアを"1.0"とする正解データを学習用データセットに格納する。Next, the
続いて、質問応答装置100の質問応答部800は、設定したフラグに該当する出力層から出力された応答と、対応する正解データとの間で学習損失を算出し、算出した学習損失に基づき、設定したフラグに該当する出力層及び理解層のパラメータを更新する。このとき、質問応答装置100の質問応答部800は、設定したフラグに該当する出力層以外の出力層から出力された応答については無視する。Next, the
また、質問応答装置100の質問応答部800は、設定したフラグに該当する出力判断層から出力されたスコアと、対応する正解データとの間で学習損失を算出し、算出した学習損失に基づき、設定したフラグに該当する出力判断層のパラメータを更新する。このとき、質問応答装置100では、設定したフラグに該当する出力判断層以外の出力判断層から出力されたスコアについては無視する。In addition, the
図9は、第2の実施形態に係る質問応答装置の学習フェーズにおける動作例を示す第1の図である。図9の場合、学習用データセット900="第1の出力層321及び第1の出力判断層801についての学習処理に用いられる学習用データセット"であることを示すフラグが、質問応答部800により設定されているものとする。
Figure 9 is the first diagram showing an example of operation in the learning phase of the question answering device according to the second embodiment. In the case of Figure 9, it is assumed that a flag indicating that the learning
なお、図9に示すように、学習用データセット900には、情報の項目として、"入力データ"、"第1の出力層の正解データ"、"出力判断層の正解データ"が含まれ、
・"入力データ"には、質問とパッセージとが格納される。
・"第1の出力層の正解データ"には、対応するパッセージから抽出した情報に基づいて、文生成により生成する回答文の正解データが格納される。
・"出力判断層の正解データ"には、第1の出力判断層801から出力されるスコア(第1スコア)の正解データが格納される。
As shown in FIG. 9, the learning
・"Input data" stores questions and passages.
"First output layer correct answer data" stores correct answer data for an answer sentence generated by sentence generation based on information extracted from the corresponding passage.
In the "correct data of the output determination layer", the correct data of the score (first score) output from the first
図9において、入力部310が、学習用データセット900の入力データ(質問とパッセージの組)を理解層320に入力すると、第1の出力層321~第3の出力層323からは、機械読解の出力結果として、第1の応答~第3の応答が出力される。また、第1の出力判断層801~第3の出力判断層803からは、第1スコア~第3スコアが出力される。
In Figure 9, when the
比較/変更部910では、第1の出力層321から出力された第1の応答(回答文)と、学習用データセット900の"第1の出力層の正解データ"に格納された回答文との間で学習損失を算出する。また、比較/変更部910では、算出した学習損失に基づき、第1の出力層321及び理解層320のパラメータを更新する。The comparison/
同様に、比較/変更部910では、第1の出力判断層801から出力された第1スコアと、学習用データセット900の"出力判断層の正解データ"の第1スコアに格納された値との間で学習損失を算出する。また、比較/変更部910では、算出した学習損失に基づき、第1の出力判断層801のパラメータを更新する。Similarly, the comparison/
一方、図10は、第2の実施形態に係る質問応答装置の学習フェーズにおける動作例を示す第2の図である。図10の場合、学習用データセット1000="第2の出力層322及び第2の出力判断層802についての学習処理に用いられる学習用データセット"であることを示すフラグが、質問応答部800により設定されているものとする。
On the other hand, Figure 10 is a second diagram showing an example of operation in the learning phase of the question answering device according to the second embodiment. In the case of Figure 10, it is assumed that a flag indicating that the
なお、図10に示すように、学習用データセット1000には、情報の項目として、"入力データ"、"第2の出力層の正解データ"、"出力判断層の正解データ"が含まれ、
・"入力データ"には、質問とパッセージとが格納される。
・"第2の出力層の正解データ"には、対応するパッセージから抽出した情報に基づいて生成する、YES/NOなどのラベルの正解データが格納される。
As shown in FIG. 10, the
・"Input data" stores questions and passages.
"Second output layer correct answer data" stores correct answer data of labels such as YES/NO, which are generated based on information extracted from the corresponding passage.
"出力判断層の正解データ"には、第2の出力判断層802から出力されるスコア(第2スコア)の正解データが格納される。
The "correct data of the output determination layer" stores the correct data of the score (second score) output from the second
図10において、入力部310が、学習用データセット1000の入力データ(質問とパッセージの組)を理解層320に入力すると、第1の出力層321~第3の出力層323からは、機械読解の出力結果として、第1の応答~第3の応答が出力される。また、第1の出力判断層801~第3の出力判断層803からは、第1スコア~第3スコアが出力される。
In Figure 10, when the
比較/変更部910では、第2の出力層322から出力された第2の応答(ラベル)と、学習用データセット1000の"第2の出力層の正解データ"に格納されたラベルとの間で学習損失を算出する。また、比較/変更部910では、算出した学習損失に基づき、第2の出力層322及び理解層320のパラメータを更新する。The comparison/
同様に、比較/変更部910では、第2の出力判断層802から出力された第2スコアと、学習用データセット1000の"出力判断層の正解データ"の第2スコアに格納された値との間で学習損失を算出する。また、比較/変更部910では、算出した学習損失に基づき、第2の出力判断層802のパラメータを更新する。Similarly, the comparison/
一方、図11は、第2の実施形態に係る質問応答装置の学習フェーズにおける動作例を示す第3の図である。図11の場合、学習用データセット1100="第3の出力層323及び第3の出力判断層803についての学習処理に用いられる学習用データセット"であることを示すフラグが、質問応答部800により設定されているものとする。
On the other hand, Figure 11 is a third diagram showing an example of operation in the learning phase of the question answering device according to the second embodiment. In the case of Figure 11, it is assumed that a flag indicating that the
なお、図11に示すように、学習用データセット1100には、情報の項目として、"入力データ"、"第3の出力層の正解データ"、"出力判断層の正解データ"が含まれ、
・"入力データ"には、質問とパッセージが格納される。
・"第3の出力層の正解データ"には、対応するパッセージから抽出した情報に基づいて生成する改訂質問の正解データが格納される。
・"出力判断層の正解データ"には、第3の出力判断層803から出力されるスコア(第3スコア)の正解データが格納される。
As shown in FIG. 11, the
・"Input data" stores questions and passages.
The "third output layer correct answer data" stores the correct answer data for the revised question generated based on the information extracted from the corresponding passage.
In the "correct data of the output determination layer", the correct data of the score (third score) output from the third
図11において、入力部310が、学習用データセット1100の入力データ(質問とパッセージの組)を理解層320に入力すると、第1の出力層321~第3の出力層323からは、機械学習の出力結果として、第1の応答~第3の応答が出力される。また、第1の出力判断層801~第3の出力判断層803からは、第1スコア~第3スコアが出力される。
In Figure 11, when the
比較/変更部910では、第3の出力層323から出力された第3の応答(改訂質問)と、学習用データセット1100の"第3の出力層の正解データ"に格納された改訂質問との間で学習損失を算出する。また、比較/変更部910では、算出した学習損失に基づき、第3の出力層323及び理解層320のパラメータを更新する。The comparison/
同様に、比較/変更部910では、第3の出力判断層803から出力された第3スコアと、学習用データセット1100の"出力判断層の正解データ"の第3スコアに格納された値との間で学習損失を算出する。また、比較/変更部910では、算出した学習損失に基づき、第3の出力判断層803のパラメータを更新する。Similarly, the comparison/
<質問応答処理の流れ>
次に、第2の実施形態に係る質問応答装置100による質問応答処理の流れについて説明する。図12は、第2の実施形態に係る質問応答装置による質問応答処理の流れを示すフローチャートである。上記第1の実施形態において図7を用いて説明したフローチャートとの相違点は、ステップS1201~S1203である。
<Question answering process flow>
Next, a flow of a question answering process by the
ステップS1201において、質問応答部110は、学習用データセット900を用いて、理解層320、第1の出力層321、第1の出力判断層801について学習処理を行う。In step S1201, the
ステップS1202において、質問応答部110は、学習用データセット1000を用いて、理解層320、第2の出力層322、第2の出力判断層802について学習処理を行う。In step S1202, the
ステップS1203において、質問応答部110は、学習用データセット1100を用いて、理解層320、第3の出力層323、第3の出力判断層803について学習処理を行う。In step S1203, the
<まとめ>
以上の説明から明らかなように、第2の実施形態に係る質問応答装置100は、
・質問とパッセージとを入力として、質問とパッセージとの関連性を示す情報を算出する理解層を有する。
・理解層により算出された関連性を示す情報をそれぞれの入力として、互いに異なる出力形式である第1~第3の応答を出力する、第1の出力層~第3の出力層を有する。
・第1の出力層~第3の出力層の状態ベクトルを受け取り、第1の出力層~第3の出力層についての個別のスコア(第1スコア~第3スコア)を算出する、第1の出力判断層~第3の出力判断層を有する。更に、第1の出力判断層~第3の出力判断層により算出された第1スコア~第3スコアを選択指標として、予め定められた数の応答を選択する選択部を有する。
<Summary>
As is apparent from the above description, the
-Has an understanding layer that takes a question and a passage as input and calculates information indicating the relevance between the question and the passage.
- It has first to third output layers, which use information indicating the relevance calculated by the understanding layer as their respective inputs and output first to third responses which are mutually different output formats.
The system has a first output determination layer to a third output determination layer that receive state vectors of the first output layer to the third output layer and calculate individual scores (first score to third score) for the first output layer to the third output layer, and further has a selection unit that selects a predetermined number of responses using the first score to the third score calculated by the first output determination layer to the third output determination layer as selection indexes.
これにより、第2の実施形態に係る質問応答装置100によれば、第1の実施形態同様、質問に対する応答を複数の出力形式で出力できるとともに、コンピュータリソースの消費を抑え、かつ、適切な応答を選択することが可能になる。加えて、第2の実施形態に係る質問応答装置100によれば、新たな出力形式が追加される場合でも、質問応答部全体について、再学習処理を行う必要がなくなる。As a result, according to the
つまり、第2の実施形態によれば、機械読解により質問に対する応答を出力する際、複数の出力形式で出力可能な、より実現可能性の高い質問応答装置、質問応答方法及び質問応答プログラムを提供することができる。In other words, according to the second embodiment, it is possible to provide a more feasible question answering device, question answering method, and question answering program that can output responses to questions through machine reading comprehension in multiple output formats.
[その他の実施形態]
上記第1の実施形態及び第2の実施形態では、それぞれ異なる出力判断層を設置する場合について説明したが、第1の実施形態における出力判断層を設置するか、第2の実施形態における出力判断層を設置するかの決定は任意である。例えば、設定するタスクや目的、質問応答装置のシステム構成等を加味して決定してもよい。
[Other embodiments]
In the above first and second embodiments, the cases where different output determination layers are installed have been described, but the decision as to whether to install the output determination layer in the first embodiment or the output determination layer in the second embodiment is arbitrary. For example, the decision may be made in consideration of the tasks and objectives to be set, the system configuration of the question answering device, and the like.
また、上記第1の実施形態及び第2の実施形態では、同一の質問応答装置100において学習フェーズと応答フェーズとを実行するものとして説明した。しかしながら、学習フェーズと応答フェーズとは別体の装置で実行するように構成してもよい。この場合、応答フェーズを実行する装置は、学習用データセット格納部120を有している必要はなく、また、比較/変更部410、910が設置されることもない。In addition, in the above first and second embodiments, the learning phase and the response phase are described as being executed in the same
なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせ等、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。 Note that the present invention is not limited to the configurations described in the above embodiments, and may be combined with other elements. These points can be modified without departing from the spirit of the present invention, and can be appropriately determined according to the application form.
100 :質問応答装置
110 :質問応答部
120 :学習用データセット格納部
130 :パッセージ格納部
310 :入力部
320 :理解層
321 :第1の出力層
322 :第2の出力層
323 :第3の出力層
324 :出力判断層
330 :選択部
400~600 :学習用データセット
801 :第1の出力判断層
802 :第2の出力判断層
803 :第3の出力判断層
810 :選択部
900~1100 :学習用データセット
100: Question answering device 110: Question answering unit 120: Learning dataset storage unit 130: Passage storage unit 310: Input unit 320: Understanding layer 321: First output layer 322: Second output layer 323: Third output layer 324: Output judgment layer 330: Selection unit 400-600: Learning dataset 801: First output judgment layer 802: Second output judgment layer 803: Third output judgment layer 810: Selection unit 900-1100: Learning dataset
Claims (9)
前記複数の機械学習済みモデルそれぞれの、出力側の層により構成される複数の出力部と、を有し、A plurality of output units each configured by an output layer of each of the plurality of machine-learned models,
前記複数の出力部は、前記算出部に、質問及び前記質問に応答する際に用いられる関連文書が入力された場合の、前記算出部の出力がそれぞれ入力されることにより、対応する出力形式の応答を出力する、質問応答装置。The multiple output units each output a response in a corresponding output format when a question and a related document used in answering the question are input to the calculation unit.
前記複数の機械学習済みモデルそれぞれの、出力側の層により構成される複数の出力部と、
質問及び前記質問に応答する際に用いられる関連文書が入力された場合の前記算出部の出力が、前記複数の出力部それぞれに入力されることで、前記複数の出力部それぞれより出力される各出力形式の応答のうち、予め定められた数の応答を選択する選択部と
を有する質問応答装置。 a calculation unit configured by a common input layer of a plurality of machine-learned models, the number of which corresponds to the number of output formats, each of which has a plurality of layers, the machine-learned models being machine-learned using a question, a related document used in answering the question, and responses to the question in each output format;
A plurality of output units each configured by an output layer of each of the plurality of machine-learned models ;
a selection unit that selects a predetermined number of responses from among the responses in each output format output from each of the multiple output units by inputting an output of the calculation unit when a question and a related document used in answering the question are input to each of the multiple output units .
前記選択部は、前記指標値に基づき、予め定められた数の応答を選択する、請求項2に記載の質問応答装置。The question answering apparatus according to claim 2 , wherein the selection unit selects a predetermined number of responses based on the index value.
前記選択部は、前記各応答の確率分布に基づき、予め定められた数の応答を選択する、請求項3に記載の質問応答装置。 The index calculation unit receives the output of the calculation unit and calculates a probability distribution of each response output by the multiple output units in each output format;
The question answering apparatus according to claim 3 , wherein the selection unit selects a predetermined number of responses based on a probability distribution of each of the responses.
前記選択部は、前記複数の出力部それぞれに対する指標値に基づき、予め定められた数の応答を選択する、請求項2に記載の質問応答装置。 Further comprising a plurality of index calculation units that receive information calculated when the plurality of output units output each response and calculate an index value for each of the plurality of output units,
The question answering apparatus according to claim 2 , wherein the selection unit selects a predetermined number of responses based on index values for each of the plurality of output units.
質問及び前記質問に応答する際に用いられる関連文書と、前記質問に対する各出力形式の応答とを用いて機械学習された、前記出力形式の数に応じた数の複数の機械学習済みモデルであって、それぞれが複数の層を有する前記機械学習済みモデルの、入力側の共通層により構成される算出部と、a calculation unit configured by a common input layer of a plurality of machine-learned models, the number of which corresponds to the number of output formats, each of which has a plurality of layers, the machine-learned models being machine-learned using a question, a related document used in answering the question, and responses to the question in each output format;
前記複数の機械学習済みモデルそれぞれの、出力側の層により構成される複数の出力部として機能し、The plurality of machine-learned models function as a plurality of output units each composed of an output layer;
前記複数の出力部が、前記算出部に、質問及び前記質問に応答する際に用いられる関連文書が入力された場合の、前記算出部の出力がそれぞれ入力されることにより、対応する出力形式の応答を出力する、質問応答方法。A question answering method in which the multiple output units each receive an output from the calculation unit when a question and a related document used in answering the question are input to the calculation unit, and output a response in a corresponding output format.
質問及び前記質問に応答する際に用いられる関連文書と、前記質問に対する各出力形式の応答とを用いて機械学習された、前記出力形式の数に応じた数の複数の機械学習済みモデルであって、それぞれが複数の層を有する前記機械学習済みモデルの、入力側の共通層により構成される算出部と、
前記複数の機械学習済みモデルそれぞれの、出力側の層により構成される複数の出力部と、
質問及び前記質問に応答する際に用いられる関連文書が入力された場合の前記算出部の出力が、前記複数の出力部それぞれに入力されることで、前記複数の出力部それぞれより出力される各出力形式の応答のうち、予め定められた数の応答を選択する選択部として機能する質問応答方法。 The computer
a calculation unit configured by a common input layer of a plurality of machine-learned models, the number of which corresponds to the number of output formats, each of which is machine-learned using a question, a related document used in answering the question, and a response to the question in each output format, the machine-learned models each having a plurality of layers;
A plurality of output units each configured by an output layer of each of the plurality of machine-learned models;
A question answering method in which the output of the calculation unit when a question and related documents used in answering the question are input is input to each of the multiple output units, and the calculation unit functions as a selection unit that selects a predetermined number of responses from among the responses in each output format output by each of the multiple output units.
質問及び前記質問に応答する際に用いられる関連文書と、前記質問に対する各出力形式の応答とを用いて機械学習された、前記出力形式の数に応じた数の複数の機械学習済みモデルであって、それぞれが複数の層を有する前記機械学習済みモデルの、入力側の共通層により構成される算出部と、a calculation unit configured by a common input layer of a plurality of machine-learned models, the number of which corresponds to the number of output formats, each of which has a plurality of layers, the machine-learned models being machine-learned using a question, a related document used in answering the question, and responses to the question in each output format;
前記複数の機械学習済みモデルそれぞれの、出力側の層により構成される複数の出力部として機能させ、The machine-learned models are each configured as a plurality of output units each composed of an output layer,
前記複数の出力部が、前記算出部に、質問及び前記質問に応答する際に用いられる関連文書が入力された場合の、前記算出部の出力がそれぞれ入力されることにより、対応する出力形式の応答を出力する、質問応答プログラム。A question answering program, wherein the plurality of output units each output a response in a corresponding output format when a question and a related document used in answering the question are input to the calculation unit.
質問及び前記質問に応答する際に用いられる関連文書と、前記質問に対する各出力形式の応答とを用いて機械学習された、前記出力形式の数に応じた数の複数の機械学習済みモデルであって、それぞれが複数の層を有する前記機械学習済みモデルの、入力側の共通層により構成される算出部と、
前記複数の機械学習済みモデルそれぞれの、出力側の層により構成される複数の出力部と、
質問及び前記質問に応答する際に用いられる関連文書が入力された場合の前記算出部の出力が、前記複数の出力部それぞれに入力されることで、前記複数の出力部それぞれより出力される各出力形式の応答のうち、予め定められた数の応答を選択する選択部として機能させるための質問応答プログラム。 Computer,
a calculation unit configured by a common input layer of a plurality of machine-learned models, the number of which corresponds to the number of output formats, each of which has a plurality of layers, the machine-learned models being machine-learned using a question, a related document used in answering the question, and responses to the question in each output format;
A plurality of output units each configured by an output layer of each of the plurality of machine-learned models;
A question answering program that functions as a selection unit that selects a predetermined number of responses from among the responses in each output format output by each of the multiple output units by inputting the output of the calculation unit when a question and related documents used in answering the question are input to each of the multiple output units .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024047724A JP2024071511A (en) | 2020-06-29 | 2024-03-25 | Apparatus, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/025482 WO2022003762A1 (en) | 2020-06-29 | 2020-06-29 | Question answering device, question answering method, and question answering program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024047724A Division JP2024071511A (en) | 2020-06-29 | 2024-03-25 | Apparatus, method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2022003762A1 JPWO2022003762A1 (en) | 2022-01-06 |
JP7468654B2 true JP7468654B2 (en) | 2024-04-16 |
Family
ID=79315756
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022533265A Active JP7468654B2 (en) | 2020-06-29 | 2020-06-29 | Question answering device, question answering method, and question answering program |
JP2024047724A Pending JP2024071511A (en) | 2020-06-29 | 2024-03-25 | Apparatus, method and program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024047724A Pending JP2024071511A (en) | 2020-06-29 | 2024-03-25 | Apparatus, method and program |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP7468654B2 (en) |
WO (1) | WO2022003762A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117708304B (en) * | 2024-02-01 | 2024-05-28 | 浙江大华技术股份有限公司 | Database question-answering method, equipment and storage medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190108273A1 (en) | 2017-10-10 | 2019-04-11 | Alibaba Group Holding Limited | Data Processing Method, Apparatus and Electronic Device |
WO2019235103A1 (en) | 2018-06-07 | 2019-12-12 | 日本電信電話株式会社 | Question generation device, question generation method, and program |
JP2020501229A (en) | 2016-11-04 | 2020-01-16 | セールスフォース ドット コム インコーポレイティッド | Dynamic Interactive Attention Network for Question Answering |
JP6649536B1 (en) | 2019-05-28 | 2020-02-19 | 日本電信電話株式会社 | Dialogue processing device, learning device, dialogue processing method, learning method and program |
US20200175015A1 (en) | 2018-11-29 | 2020-06-04 | Koninklijke Philips N.V. | Crf-based span prediction for fine machine learning comprehension |
-
2020
- 2020-06-29 WO PCT/JP2020/025482 patent/WO2022003762A1/en active Application Filing
- 2020-06-29 JP JP2022533265A patent/JP7468654B2/en active Active
-
2024
- 2024-03-25 JP JP2024047724A patent/JP2024071511A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020501229A (en) | 2016-11-04 | 2020-01-16 | セールスフォース ドット コム インコーポレイティッド | Dynamic Interactive Attention Network for Question Answering |
US20190108273A1 (en) | 2017-10-10 | 2019-04-11 | Alibaba Group Holding Limited | Data Processing Method, Apparatus and Electronic Device |
WO2019235103A1 (en) | 2018-06-07 | 2019-12-12 | 日本電信電話株式会社 | Question generation device, question generation method, and program |
US20200175015A1 (en) | 2018-11-29 | 2020-06-04 | Koninklijke Philips N.V. | Crf-based span prediction for fine machine learning comprehension |
JP6649536B1 (en) | 2019-05-28 | 2020-02-19 | 日本電信電話株式会社 | Dialogue processing device, learning device, dialogue processing method, learning method and program |
Also Published As
Publication number | Publication date |
---|---|
WO2022003762A1 (en) | 2022-01-06 |
JPWO2022003762A1 (en) | 2022-01-06 |
JP2024071511A (en) | 2024-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111368996B (en) | Retraining projection network capable of transmitting natural language representation | |
JP7087938B2 (en) | Question generator, question generation method and program | |
CN111062489A (en) | Knowledge distillation-based multi-language model compression method and device | |
JP2024071511A (en) | Apparatus, method and program | |
WO2019164744A1 (en) | Dialogue state tracking using a global-local encoder | |
JP7315065B2 (en) | QUESTION GENERATION DEVICE, QUESTION GENERATION METHOD AND PROGRAM | |
JP7276498B2 (en) | Information processing device, information processing method and program | |
CN112214608A (en) | Text generation method, medium, device and computing equipment based on knowledge reasoning | |
KR102181901B1 (en) | Method to create animation | |
KR102477782B1 (en) | Data processing method and apparatus for training neural networks classifing natural language intentions | |
CN113705196A (en) | Chinese open information extraction method and device based on graph neural network | |
JP7342971B2 (en) | Dialogue processing device, learning device, dialogue processing method, learning method and program | |
CN113312919A (en) | Method and device for generating text of knowledge graph | |
JP7103264B2 (en) | Generation device, learning device, generation method and program | |
CN110308909B (en) | Executable program generating device and method for neural network processor | |
KR102492277B1 (en) | Method for qa with multi-modal information | |
JP4405542B2 (en) | Apparatus, method and program for clustering phoneme models | |
US20230140480A1 (en) | Utterance generation apparatus, utterance generation method, and program | |
JP2023127931A (en) | Learning device, method, program, and inference device | |
JP2022171502A (en) | Meta-learning data augmentation framework | |
CN110852112B (en) | Word vector embedding method and device | |
JP7044245B2 (en) | Dialogue system reinforcement device and computer program | |
KR102552401B1 (en) | Method for question-answering based on asr | |
CN111737440B (en) | Question generation method and device | |
KR102603635B1 (en) | Method for augmenting training data of vqa model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230912 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231211 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240318 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7468654 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |