JP7087938B2 - 質問生成装置、質問生成方法及びプログラム - Google Patents
質問生成装置、質問生成方法及びプログラム Download PDFInfo
- Publication number
- JP7087938B2 JP7087938B2 JP2018214187A JP2018214187A JP7087938B2 JP 7087938 B2 JP7087938 B2 JP 7087938B2 JP 2018214187 A JP2018214187 A JP 2018214187A JP 2018214187 A JP2018214187 A JP 2018214187A JP 7087938 B2 JP7087938 B2 JP 7087938B2
- Authority
- JP
- Japan
- Prior art keywords
- question
- revised
- answer
- input
- generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9032—Query formulation
- G06F16/90332—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2453—Query optimisation
- G06F16/24534—Query rewriting; Transformation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/90335—Query processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
まず、本発明の第一の実施形態について説明する。
本発明の第一の実施形態では、入力質問と、この入力質問に関連する文書(以降、「関連文書」とも表す。)とが与えられた場合に、質問生成装置100が、改訂質問を生成する機械学習モデル(以降、「改訂質問生成モデル」とも表す。)を用いて、当該入力質問の改訂質問を生成する。
まず、本発明の第一の実施形態における改訂質問生成時の質問生成装置100の機能構成について、図1を参照しながら説明する。図1は、本発明の第一の実施形態における改訂質問生成時の質問生成装置100の機能構成の一例を示す図である。
次に、本発明の第一の実施形態における質問生成装置100のハードウェア構成について、図3を参照しながら説明する。図3は、本発明の第一の実施形態における質問生成装置100のハードウェア構成の一例を示す図である。
次に、本発明の第一の実施形態における改訂質問の生成処理について、図4を参照しながら説明する。図4は、本発明の第一の実施形態における改訂質問の生成処理の一例を示すフローチャートである。なお、改訂質問の生成処理では、改訂質問生成部200を実現する改訂質問生成モデルは学習済みであるものとする。
I. Sutskever, O. Vinyals, and Q. V. Le. Sequence to sequence learning with neural networks. Proc of the 27th International Conference on Neural Information Processing Systems(NIPS2014), pp. 3104-3112, 2014.
[参考文献2]
O. Vinyals and Q. V. Le. A neural conversational model. Proc of the ICML Deep Learning Workshop 2015, 2015.
[参考文献3]
M. J. Seo, A. Kembhavi, A. Farhadi, and H. Hajishirzi. Bidirectional attention flow for machine comprehension. Proc of 5th International Conference on Learning Representations(ICLR2017), 2017.
ステップS101:改訂質問生成部200は、質問(入力質問)Qと、関連文書Xとを入力する。
W. Wang, N. Yang, F. Wei, B. Chang, and M. Zhou. Gated self-matching networks for reading comprehension and question answering. Proc of the 55th Annual Meeting of the Association for Computational Linguistics (ACL2017), pp.189-198, 2017.
ただし、照合部210は、アテンションベクトルH^H∈R2dを用いずに(すなわち、上記の式(11)でアテンションベクトルH^Hを連結せずに)、アテンション行列Gを計算しても良い。この場合、アテンション行列Gは、G∈R8d×Tとなる。
Z. Cao, C. Luo, W. Li, and S. Li. Joint copying and restricted generation for paraphrase. Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence(AAAI2017), pp. 3152-3158, 2017.
[参考文献6]
J. Gu, Z. Lu, H. Li, and V. O. Li. Incorporating copying mechanism in sequence-to-sequence learning. Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (ACL2016), pp. 1631-1640, 2016.
ステップS103-6:次に、質問復元部220は、重みλsを用いて、単語ysの最終的な生成確率P(ys|y<s,X,Q)を以下の式(18)により計算する。
ここで、本発明の第一の実施形態における改訂質問の生成処理では、欠損質問と見做された入力質問Qの一部の欠損を補った改訂質問RQが生成されても良いし、入力質問Qの全ての欠損を補った改訂質問RQが生成されても良い。以降では、入力質問Qの一部の欠損を補った改訂質問RQを生成することを「部分生成」、入力質問Qの全ての欠損を補った改訂質問RQを生成することを「全体生成」と表す。
次に、本発明の第一の実施形態における改訂質問生成モデルの学習処理について、図6を参照しながら説明する。図6は、本発明の第一の実施形態における改訂質問生成モデルの学習処理の一例を示すフローチャートである。なお、改訂質問生成モデルの学習処理は、例えば、学習データセットを所定の個数のミニバッチに分割した上で、ミニバッチ毎に、改訂質問生成モデルのパラメータを更新する。
ここで、本発明の第一の実施形態では、図5に示す改訂質問生成モデルにより改訂質問生成部200が実現される場合について説明したが、例えば、図7に示す改訂質問生成モデルや図8に示す改訂質問生成モデルにより改訂質問生成部200が実現されても良い。
ここで、改訂質問RQの生成時に、入力質問Qと関連する関連文書Xが明確ではなく、関連文書Xが含まれていると想定される文書集合しか得られない場合がある。このような場合に、文書集合に含まれる各文書を用いて、改訂質問の生成処理を行うとすれば、処理時間が増大する。そこで、改訂質問の処理の前処理として、文書集合から関連文書Xを検索する処理を行うことが考えられる。
ここで、上述したように、例えばN´として2以上の値が設定された場合等に、文書集合Yから複数の関連文書Xが得られることがある。この場合、これらの複数の関連文書Xのそれぞれを用いて、改訂質問RQを生成することができる。
以上のように、本発明の第一の実施形態における質問生成装置100は、例えばニューラルネットワークにより実現される改訂質問生成モデルを用いて、潜在的な欠損が含まれている可能性がある入力質問Qから、欠損が含まれない改訂質問RQを生成することができる。これにより、例えば、改訂質問RQを用いた質問応答タスク等を行う場合に、当該質問応答タスクの回答精度を向上させることができるようになる。
次に、本発明の第二の実施形態について説明する。
上述した第一の実施形態では、入力質問と関連文書とが与えられた場合に、質問生成装置100が改訂質問生成モデルを用いて、当該入力質問の改訂質問を生成する場合について説明した。しかしながら、例えば、入力質問が短い場合や曖昧なものである場合等には、当該入力質問に対する回答が一意に特定できるとは限らず、回答の可能性が関連文書中に複数箇所存在することがある。したがって、このような場合に、回答を考慮せずに質問を詳細化・具体化した場合、回答不能な改訂質問が生成されることがある。また、複数パターンの詳細化・具体化をした場合であっても、全ての改訂質問に対する回答が同じになってしまう可能性も想定される。更に、機械読解等の質問応答技術で回答できるのは1つのみ(つまり、1問1答)であることが多く、回答が複数想定されるような質問には完全には対応することができない。
まず、本発明の第二の実施形態における改訂質問生成時の質問生成装置の機能構成について、図13を参照しながら説明する。図13は、本発明の第二の実施形態における改訂質問生成時の質問生成装置100の機能構成の一例を示す図である。
本発明の第二の実施の形態における質問生成装置100のハードウェア構成は、第一の実施形態と同様とすれば良いため、その説明を省略する。
次に、本発明の第二の実施形態における改訂質問の生成処理について、図15を参照しながら説明する。図15は、本発明の第二の実施形態における改訂質問の生成処理の一例を示すフローチャートである。なお、改訂質問の生成処理では、改訂質問生成部900を実現する改訂質問生成モデルは、ニューラルネットワークで実現されており、かつ、学習済みであるものとする。
Adams Wei Yu, David Dohan, Minh-Thang Luong, Rui Zhao, Kai Chen, Mohammad Norouzi, Quoc V. Le. QANet: Combining Local Convolution with Global Self-Attention for Reading Comprehension. ICLR2018
これにより、関連文書Xと入力質問Qとの照合結果として、r次元の実ベクトル系列である照合ベクトル系列G∈Rr×Tが出力される。ここで、rは、関連文書Xと入力質問Qとの照合に用いる手法によって異なる。なお、この照合ベクトル系列Gは、第一の実施形態におけるアテンション行列Gに相当する。
次に、本発明の第二の実施形態における改訂質問生成モデルの学習処理について、図17を参照しながら説明する。図17は、本発明の第二の実施形態における改訂質問生成モデルの学習処理の一例を示すフローチャートである。ここで、本発明の第二の実施形態では、改訂質問生成モデルを学習するために、機械読解のコーパスを用いるものとする。機械読解のコーパスは、「質問」と、「質問対象となる文書」と、「質問対象となる文書中の回答範囲(又は、当該回答範囲の文字列)」との組が複数含まれる。このとき、コーパスに含まれる「質問対象となる文書」を関連文書X、コーパスに含まれる「質問」を入力質問Qとし、当該入力質問Qに対する回答の正解Atrueは、当該コーパス中の「質問対象となる文書中の回答範囲(又は、当該回答範囲の文字列)」をそのまま使用するものとする。そして、入力質問Qと、この入力質問Qに対する回答の正解Atrueとを質問応答実行部910における機械読解処理のための学習データとする。なお、本発明の第二の実施の形態では、回答の正解Atrueは、始点及び終点の組で表されているものとする。
以上のように、本発明の第二の実施形態における質問生成装置100は、例えばニューラルネットワークにより実現される改訂質問生成モデルを用いて、改訂質問RQの生成の前に、入力質問Qに対して質問応答を行って、この質問応答で得られた回答候補に対応する改訂質問RQを生成する。これにより、例えば、入力質問Qに対する回答が一意に特定できないような場合であっても、回答候補毎に改訂質問RQが生成されるため、質問応答タスクにおいて、これらの改訂質問RQを用いることで、高い回答精度の実現することができるようになる。
200 改訂質問生成部
210 照合部
220 質問復元部
300 欠損質問作成部
400 改訂質問生成モデル学習部
Claims (12)
- 質問文と、該質問文に対する回答が含まれる関連文書とを入力とし、予め学習済みの機械学習モデルを用いて、前記質問文の潜在的に欠損している部分を、所定の語彙集合に含まれる単語で補った改訂質問文を生成する生成手段、
を有することを特徴とする質問生成装置。 - 前記機械学習モデルには、予め学習済みの第1の機械学習モデルと、予め学習済みの第2の機械学習モデルとが含まれ、
前記生成手段は、
前記第1の機械学習モデルを用いて、前記質問文に含まれる各単語と、前記関連文書に含まれる各単語との一致関係を表すマッチング情報を生成する照合手段と、
前記第2の機械学習モデルと、前記照合手段により生成されたマッチング情報とを用いて、前記語彙集合の中から、前記改訂質問文を構成する各単語を生成することで、前記改訂質問文を生成する質問復元手段と、
を有することを特徴とする請求項1に記載の質問生成装置。 - 前記質問復元手段は、
前記第2の機械学習モデルを用いて、前記語彙集合に含まれる単語の中から生成する第1の確率と、前記関連文書に含まれる単語の中から生成する第2の確率とを計算し、前記第1の確率と前記第2の確率との加重平均によって表される第3の確率により、前記改訂質問文を構成する各単語それぞれを生成する、ことを特徴とする請求項2に記載の質問生成装置。 - 前記改訂質問文は、前記質問文の潜在的に欠損している部分を、前記語彙集合に含まれる単語と前記関連文書に含まれる単語とで補った文である、ことを特徴とする請求項1乃至3の何れか一項に記載の質問生成装置。
- 前記生成手段は、
前記質問文が入力されると、前記質問文と、該質問文に対する回答が含まれる関連文書の集合とに基づき、前記集合に含まれる関連文書それぞれに対応する前記改訂質問文と、前記関連文書と前記改訂質問文との対応情報とを生成する、ことを特徴とする請求項1乃至4の何れか一項に記載の質問生成装置。 - 前記生成手段は、
生成した改訂質問文を入力とし、該改訂質問文の潜在的に欠損している部分を補った改訂質問文を生成することを繰り返し実行する、ことを特徴とする請求項1乃至4の何れか一項に記載の質問生成装置。 - 前記生成手段は、
前記質問文に対する回答候補と、該回答候補が回答に対応する前記改訂質問文とを生成する、ことを特徴とする請求項1に記載の質問生成装置。 - 前記機械学習モデルには、予め学習済みの第4の機械学習モデルと、予め学習済みの第5の機械学習モデルとが含まれ、
前記生成手段は、
前記第4の機械学習モデルを用いて、前記質問文に含まれる各単語と、前記関連文書に含まれる各単語との一致関係を表すマッチング情報を生成した後、前記マッチング情報から前記回答候補を生成する機械読解手段と、
前記第5の機械学習モデルと、前記回答候補と、前記マッチング情報とを用いて、前記語彙集合の中から、前記改訂質問文を構成する各単語を生成することで、前記改訂質問文を生成する改訂質問生成手段と、
を有することを特徴とする請求項7に記載の質問生成装置。 - 与えられた質問文の一部分を欠損させた欠損質問文を生成する第1の生成手段と、
前記欠損質問文と前記質問文に対する回答が含まれる関連文書とを入力し、ニューラルネットワークモデルを用いて、前記関連文書及び所定の語彙集合の少なくとも一方に含まれる単語で前記欠損質問文を復元した復元質問文を生成する第2の生成手段と、
前記第2の生成手段により生成された復元質問文と、前記質問文との誤差を用いて、前記ニューラルネットワークモデルのパラメータを更新する学習手段と、
を有することを特徴とする質問生成装置。 - 前記質問文を入力し、前記ニューラルネットワークモデルを用いて、前記質問文に対する回答を生成する機械読解手段を有し、
前記学習手段は、
前記質問文に対する回答の正解と、前記質問文に対する回答との誤差を更に用いて、前記ニューラルネットワークモデルのパラメータを更新する、ことを特徴とする請求項9に記載の質問生成装置。 - 質問文と、該質問文に対する回答が含まれる関連文書とを入力とし、予め学習済みの機械学習モデルを用いて、前記質問文の潜在的に欠損している部分を、所定の語彙集合に含まれる単語で補った改訂質問文を生成する生成手順、
をコンピュータが実行することを特徴とする質問生成方法。 - コンピュータを、請求項1乃至10の何れか一項に記載の質問生成装置における各手段として機能させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/017805 WO2019235103A1 (ja) | 2018-06-07 | 2019-04-25 | 質問生成装置、質問生成方法及びプログラム |
US16/972,187 US11972365B2 (en) | 2018-06-07 | 2019-04-25 | Question responding apparatus, question responding method and program |
JP2022092842A JP7315065B2 (ja) | 2018-06-07 | 2022-06-08 | 質問生成装置、質問生成方法及びプログラム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018109765 | 2018-06-07 | ||
JP2018109765 | 2018-06-07 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022092842A Division JP7315065B2 (ja) | 2018-06-07 | 2022-06-08 | 質問生成装置、質問生成方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019215841A JP2019215841A (ja) | 2019-12-19 |
JP7087938B2 true JP7087938B2 (ja) | 2022-06-21 |
Family
ID=68918997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018214187A Active JP7087938B2 (ja) | 2018-06-07 | 2018-11-14 | 質問生成装置、質問生成方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11972365B2 (ja) |
JP (1) | JP7087938B2 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6649536B1 (ja) * | 2019-05-28 | 2020-02-19 | 日本電信電話株式会社 | 対話処理装置、学習装置、対話処理方法、学習方法及びプログラム |
US11170026B1 (en) | 2019-05-28 | 2021-11-09 | Intuit Inc. | System and method for identifying questions of users of a data management system |
US11721335B2 (en) * | 2019-07-01 | 2023-08-08 | Koninklijke Philips N.V. | Hierarchical self-attention for machine comprehension |
US11423066B2 (en) * | 2019-09-12 | 2022-08-23 | Intuit Inc. | System and method for reducing user query ambiguity through chatbot clarifying questions |
KR20210032105A (ko) * | 2019-09-16 | 2021-03-24 | 한국전자통신연구원 | 랭킹 기반 네트워크 임베딩을 이용한 군집화 방법 및 장치 |
KR102129704B1 (ko) * | 2019-11-01 | 2020-07-02 | 주식회사 보인정보기술 | 문항 자동 생성 방법 및 시스템 |
JP7342971B2 (ja) * | 2019-12-12 | 2023-09-12 | 日本電信電話株式会社 | 対話処理装置、学習装置、対話処理方法、学習方法及びプログラム |
KR102381339B1 (ko) * | 2020-01-29 | 2022-04-01 | 주식회사 엔씨소프트 | 질문 생성 장치 및 질문 생성 방법 |
US11710070B2 (en) * | 2020-04-20 | 2023-07-25 | Microsoft Technology Licensing, Llc | Machine learned model framework for screening question generation |
JP7168963B2 (ja) * | 2020-04-28 | 2022-11-10 | 株式会社Askプロジェクト | 自然言語処理装置及び自然言語処理方法 |
JP7112107B2 (ja) * | 2020-04-28 | 2022-08-03 | 株式会社Askプロジェクト | 自然言語処理装置及び自然言語処理方法 |
JP2022050973A (ja) | 2020-09-18 | 2022-03-31 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、及びコンピュータプログラム |
KR102486440B1 (ko) * | 2020-11-09 | 2023-01-09 | 한국과학기술원 | 비지도 기반 질의 생성 모델의 학습 방법 및 장치 |
CN113010655B (zh) * | 2021-03-18 | 2022-12-16 | 华南理工大学 | 一种机器阅读理解的回答与干扰项生成方法、装置 |
US12112135B2 (en) * | 2021-09-29 | 2024-10-08 | International Business Machines Corporation | Question answering information completion using machine reading comprehension-based process |
CN113901799B (zh) * | 2021-12-07 | 2022-03-08 | 苏州浪潮智能科技有限公司 | 模型训练、文本预测方法、装置、电子设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008078670A1 (ja) | 2006-12-22 | 2008-07-03 | Nec Corporation | 文言い換え方法、プログラムおよびシステム |
US20160062980A1 (en) | 2014-08-29 | 2016-03-03 | International Business Machine Corporation | Question Correction and Evaluation Mechanism for a Question Answering System |
JP2016045652A (ja) | 2014-08-21 | 2016-04-04 | 国立研究開発法人情報通信研究機構 | 質問文生成装置及びコンピュータプログラム |
JP2017049681A (ja) | 2015-08-31 | 2017-03-09 | 国立研究開発法人情報通信研究機構 | 質問応答システムの訓練装置及びそのためのコンピュータプログラム |
WO2018097091A1 (ja) | 2016-11-25 | 2018-05-31 | 日本電信電話株式会社 | モデル作成装置、テキスト検索装置、モデル作成方法、テキスト検索方法、データ構造、及びプログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7349896B2 (en) * | 2004-12-29 | 2008-03-25 | Aol Llc | Query routing |
US9152698B1 (en) * | 2012-01-03 | 2015-10-06 | Google Inc. | Substitute term identification based on over-represented terms identification |
US11086866B2 (en) * | 2016-04-15 | 2021-08-10 | Verizon Media Inc. | Method and system for rewriting a query |
US20180341871A1 (en) * | 2017-05-25 | 2018-11-29 | Accenture Global Solutions Limited | Utilizing deep learning with an information retrieval mechanism to provide question answering in restricted domains |
US10762083B2 (en) * | 2017-12-21 | 2020-09-01 | Microsoft Technology Licensing, Llc | Entity- and string-based search using a dynamic knowledge graph |
-
2018
- 2018-11-14 JP JP2018214187A patent/JP7087938B2/ja active Active
-
2019
- 2019-04-25 US US16/972,187 patent/US11972365B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008078670A1 (ja) | 2006-12-22 | 2008-07-03 | Nec Corporation | 文言い換え方法、プログラムおよびシステム |
JP2016045652A (ja) | 2014-08-21 | 2016-04-04 | 国立研究開発法人情報通信研究機構 | 質問文生成装置及びコンピュータプログラム |
US20160062980A1 (en) | 2014-08-29 | 2016-03-03 | International Business Machine Corporation | Question Correction and Evaluation Mechanism for a Question Answering System |
JP2017049681A (ja) | 2015-08-31 | 2017-03-09 | 国立研究開発法人情報通信研究機構 | 質問応答システムの訓練装置及びそのためのコンピュータプログラム |
WO2018097091A1 (ja) | 2016-11-25 | 2018-05-31 | 日本電信電話株式会社 | モデル作成装置、テキスト検索装置、モデル作成方法、テキスト検索方法、データ構造、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2019215841A (ja) | 2019-12-19 |
US20210232948A1 (en) | 2021-07-29 |
US11972365B2 (en) | 2024-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7087938B2 (ja) | 質問生成装置、質問生成方法及びプログラム | |
JP7315065B2 (ja) | 質問生成装置、質問生成方法及びプログラム | |
CN113254610B (zh) | 面向专利咨询的多轮对话生成方法 | |
CN110990555B (zh) | 端到端检索式对话方法与系统及计算机设备 | |
JP7342971B2 (ja) | 対話処理装置、学習装置、対話処理方法、学習方法及びプログラム | |
CN114676234A (zh) | 一种模型训练方法及相关设备 | |
CN111145914B (zh) | 一种确定肺癌临床病种库文本实体的方法及装置 | |
WO2020240709A1 (ja) | 対話処理装置、学習装置、対話処理方法、学習方法及びプログラム | |
WO2020170912A1 (ja) | 生成装置、学習装置、生成方法及びプログラム | |
CN111488455A (zh) | 模型训练的方法、文本分类的方法、系统、设备及介质 | |
CN112069827B (zh) | 一种基于细粒度主题建模的数据到文本生成方法 | |
CN111538838B (zh) | 基于文章的问题生成方法 | |
JP7103264B2 (ja) | 生成装置、学習装置、生成方法及びプログラム | |
CN112183062B (zh) | 一种基于交替解码的口语理解方法、电子设备和存储介质 | |
CN117556037A (zh) | 基于单词替换策略的用于代码汇总的多模态摘要生成方法 | |
CN116663567A (zh) | 一种基于语义增强双编码器的方面级情感三元组抽取方法及系统 | |
Zhang | A study on the intelligent translation model for English incorporating neural network migration learning | |
CN114936564A (zh) | 一种基于对齐变分自编码的多语言语义匹配方法及系统 | |
Martínek et al. | Cross-lingual approaches for task-specific dialogue act recognition | |
CN114942992A (zh) | 一种基于融合网络的交易对手识别方法、装置及电子设备 | |
Choi et al. | Neural attention model with keyword memory for abstractive document summarization | |
Huang et al. | Flexible entity marks and a fine-grained style control for knowledge based natural answer generation | |
Yadav et al. | Image Processing-Based Transliteration from Hindi to English | |
Hong et al. | End-to-End Task-Oriented Dialog System Through Template Slot Value Generation. | |
Nie et al. | Graph neural net-based user simulator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181212 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220104 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220422 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220510 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220523 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7087938 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |