JP7247878B2 - 回答学習装置、回答学習方法、回答生成装置、回答生成方法、及びプログラム - Google Patents
回答学習装置、回答学習方法、回答生成装置、回答生成方法、及びプログラム Download PDFInfo
- Publication number
- JP7247878B2 JP7247878B2 JP2019227240A JP2019227240A JP7247878B2 JP 7247878 B2 JP7247878 B2 JP 7247878B2 JP 2019227240 A JP2019227240 A JP 2019227240A JP 2019227240 A JP2019227240 A JP 2019227240A JP 7247878 B2 JP7247878 B2 JP 7247878B2
- Authority
- JP
- Japan
- Prior art keywords
- answer
- unit
- sentence
- question
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B17/00—Teaching reading
- G09B17/003—Teaching reading electrically operated apparatus or devices
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B7/00—Electrically-operated teaching apparatus or devices working with questions and answers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Electrically Operated Instructional Devices (AREA)
Description
本発明の第1の実施形態は、入力された質問に対し、テキストに書いていない形式で答えを出力する新しいタスク設定として、「Yes又はNo等の極性で回答することができる質問に対してYes又はNo等の極性で回答する」タスクを提案する。本実施形態では、回答の極性がYes又はNoである場合を例に説明する。このYes又はNoで回答するタスクは、既存研究の存在しない全く新しいタスクである。
[参考文献1]Tri Nguyen, Mir Rosenberg, Xia Song, Jianfeng Gao, Saurabh Tiwary, Rangan Majumder, Li Deng, "MS MARCO: A Human Generated MAchine Reading COmprehension Dataset", 2016.
[参考文献2]Chuanqi Tan, Furu Weiz, Nan Yang, Bowen Du, Weifeng Lv, Ming Zhouz, "S-NET: FROM ANSWER EXTRACTION TO ANSWER GENERATION FOR MACHINE READING COMPREHENSION", 2017.
図1を参照して、本発明の第1の実施の形態に係る回答学習装置10の構成について説明する。図1は、本発明の第1の実施の形態に係る回答学習装置10の構成を示すブロック図である。
[参考文献3]Yoon Kim, Yacine Jernite, David Sontag, Alexander M. Rush, "Character-Aware Neural Language Models", arXiv:1508.06615, 2016.
である。
は、LP次元のベクトルであり、そのi番目の要素(1≦i≦LP)は、アテンション行列Aのi番目のベクトルの最大値(j方向のmax値)である。softmaxiは、i方向にsoftmaxを用いるという意味である。
、及びアテンションベクトル
に基づいて、アテンションの結果を表現する長さLPの読解行列Bを求める。例えば、読解行列
である。ただし、”,”は、ベクトル・行列を横に結合する演算子である。
[参考文献4]Qian Chen, Xiaodan Zhu, Zhenhua Ling, Si Wei, Hui Jiang, Diana Inkpen, "Enhanced LSTM for Natural Language Inference", arXiv:1609.06038, 2017.
図2は、本発明の第1の実施の形態に係る回答学習処理ルーチンを示すフローチャートである。また、以下では本実施形態に係る回答学習装置が、ミニバッチを用いて学習する場合について説明するが、一般的なニューラルネットワークの学習方法を用いてもよい。なお、簡便のため、ミニバッチのサイズを1とする。
図3を参照して、本発明の第1の実施の形態に係る回答生成装置20の構成について説明する。図3は、本発明の第1の実施の形態に係る回答生成装置20の構成を示すブロック図である。なお、上述の回答学習装置10と同様の構成については、同一の符号を付して詳細な説明は省略する。
図4は、本発明の第1の実施の形態に係る回答生成処理ルーチンを示すフローチャートである。なお、第1の実施の形態に係る回答学習処理ルーチンと同様の処理については、同一の符号を付して詳細な説明は省略する。
人間が自然言語を理解して回答する場合は、自身のもつ経験、常識、及び世界知識を踏まえて、理解した質問に対して回答を推論することができる。例えば、人間が文章を読んでその文章に対する質問に回答をする場合には、文章からだけでなく、自分のもつ経験等から回答を見つけている。しかし、AIの場合は質問の対象となっている文章に含まれている情報だけから回答を推論する必要がある。
図5を参照して、本発明の第2の実施の形態に係る回答学習装置30の構成について説明する。図5は、本発明の第2の実施の形態に係る回答学習装置30の構成を示すブロック図である。なお、上述の第1の実施の形態に係る回答学習装置10と同様の構成については、同一の符号を付して詳細な説明は省略する。
を抽出モデルのRNNに入力することにより、状態ztを生成する。ただし、st-1は時刻t-1に抽出された根拠文の添字である。また、時刻tまでに抽出された文stの集合をStとする。
[参考文献5]O. Vinyals, S. Bengio and M. Kudlur, “Order matters: Sequence to sequence for sets”, ICLR (2016).
[参考文献6]A. See, P. J. Liu and C. D. Manning, “Get to the point: ummarization with pointer-generator networks”, ACL, 2017, pp.1073-1083.
は、正解の根拠情報として与えられた根拠文の集合Stの中で時刻tの抽出確率P(δ;St-1)が最小の文sとし、ctは、coverageベクトルであり、
である。Tは終了時刻である。すなわち、t=Tが学習の終了条件となる。このcoverageにより、抽出結果を質問全体に対応する内容を包含させることが可能となる。ただし、抽出の終了条件を学習するために、抽出終了ベクトル
を学習可能なパラメータとする。文の意味を表すベクトルの系列Hに抽出終了ベクトル
を加え、文章Pの文数mを実際の文数+1とする。Tも真の根拠文の数+1とし、学習時は時刻T-1までに全ての根拠文を出力した後、時刻Tに抽出終了ベクトル
を抽出するように学習を行う。テスト時は、抽出終了ベクトルを出力した時点で抽出を終了する。
図6は、本発明の第2の実施の形態に係る回答学習処理ルーチンを示すフローチャートである。また、以下では本実施形態に係る回答学習装置が、ミニバッチを用いて学習する場合について説明するが、一般的なニューラルネットワークの学習方法を用いてもよい。なお、簡便のため、ミニバッチのサイズを1とする。なお、上述の第1の実施の形態に係る回答学習処理ルーチンと同様の構成については、同一の符号を付して詳細な説明は省略する。
図8を参照して、本発明の第2の実施の形態に係る回答生成装置40の構成について説明する。図8は、本発明の第2の実施の形態に係る回答生成装置40の構成を示すブロック図である。なお、上述の回答学習装置30と同様の構成については、同一の符号を付して詳細な説明は省略する。回答生成装置40は、CPUと、RAMと、後述する回答生成処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成され、機能的には次に示すように構成されている。図8に示すように、第2の実施形態に係る回答生成装置40は、入力部400と、解析部600と、出力部800とを備えて構成される。
図9は、本発明の第2の実施の形態に係る回答生成処理ルーチンを示すフローチャートである。なお、第1の実施の形態に係る回答生成処理ルーチン及び第2の実施の形態に係る回答学習処理ルーチンと同様の処理については、同一の符号を付して詳細な説明は省略する。
次に、第2の実施の形態に係る回答生成装置の実施例について説明する。本実施例では、回答生成装置の各部の構成として、図10に示した構成を用いる。具体的には、判断部220は、RNNと線形変換とを用いて構成され、Yes/No/抽出型の回答の何れかで答えるかを判断し、Yes/No/抽出型の回答の3値の何れかを出力とする。また、根拠探索部216は、RNNと線形変換との組を2つ用いて構成され、一方の組は回答の終点、他方の組は回答の始点を出力とする。根拠抽出部617は、RNNと抽出モデル617Aとを用いて構成される。第2文脈符号化部215は、RNNとセルフアテンションとを用いて構成され、アテンション部214は、双方向アテンションにより構成される。
[参考文献7]Y.C. Chen and M. Bansal, “Fast abstractive summarization with reinforce-selected sentence rewriting”, ACL, 2018, pp.675-686.
次に、第2の実施の形態に係る回答生成装置の実施例における実験結果について説明する。
実験はGPUに、”NVIDIA Tesla P100(株式会社エルザジャパン製)”を4枚用いて行った。実装にはPytorchを用いた。Bi-RNNの出力の次元をd=300で統一した。dropoutのkeep ratioは0.8とした。バッチサイズを72、学習率を0.001とした。上記以外の設定はベースラインモデルと同じ設定である。抽出モデル617AはRNNにGRUを用いた、ベクトルの初期化を正規分布で、行列の初期化をxavier normal分布で行った。デコード時のbeam sizeを2とした。
[参考文献8]Z. Yang, P. Qi, S. Zhang, Y. Bengio, W. W. Cohen, R. Salakhutdinov and C. D. Manning, “HotpotQA: A dataset for diverse, explainable multi-hop question answering”, EMNLP, 2018, pp.2369-2380.
テストデータにおける実験結果は、distractor設定の結果を表1に、fullwiki設定の結果を表2に示す。
文章Pが文ではなく、文章であるので、文ペア分類タスクに比べて系列の長さLPが大きくなってしまう。この問題に対処するため、max pooling、average poolingをより長い系列向きの手法に置き換える。
文ペア分類タスクに比べて、上記実施形態の分類対象となるベクトルの系列P3は、文章Pの情報だけでなく、質問文Qの情報も豊富に含んでいる傾向がある。そのため、スコア計算部222においてベクトルの系列Q3を用いず、ベクトルの系列P3のみを用いてベクトルJを求めてもよい。
20、40 回答生成装置
100 入力部
200、600 解析部
210、610 機械読解部
211 単語符号化部
213 第1文脈符号化部
214 アテンション部
215 第2文脈符号化部
216 根拠探索部
220 判断部
221 入力変換部
222 スコア計算部
300、700 パラメータ学習部
400 入力部
500、800 出力部
617 根拠抽出部
Claims (11)
- 入力された文章及び質問文を予め学習された読解モデルに入力し、前記文章における前記質問文に対する回答の根拠となる範囲を推定するための前記読解モデルの出力により、前記範囲の始端及び終端を推定する機械読解部と、
前記機械読解部の処理によって得られる情報を、前記質問文に対する回答の極性を判断するための予め学習された判断モデルに入力し、前記判断モデルの出力により、前記質問文に対する回答の極性を判断する判断部と、
を備えることを特徴とする回答生成装置。 - 前記読解モデル及び前記判断モデルは、ニューラルネットワークであり、
前記機械読解部は、前記文章及び前記質問文を入力として、前記文章を符号化した結果と、前記質問文を符号化した結果とを、前記範囲を推定するための前記読解モデルに入力し、前記読解モデルの出力により、読解行列を生成し、前記読解行列を用いて前記範囲の始端及び終端を推定し、
前記判断部は、前記機械読解部により生成された前記読解行列を、前記質問文に対する回答の極性を判断する前記判断モデルに入力し、前記判断モデルの出力により、前記質問文に対する回答の極性を判断する
ことを特徴とする請求項1記載の回答生成装置。 - 前記質問文が、極性で答えることができる質問である否かを判定する質問判定部
を更に備え、
前記判断部は、前記質問判定部によって前記質問文が極性で答えることができる質問であると判定された場合に、前記判断モデルの出力により、前記質問文に対する回答の極性を判断する
ことを特徴とする請求項1又は2記載の回答生成装置。 - 前記回答の極性は、Yes若しくはNo、又はOK若しくはNGである
ことを特徴とする請求項1乃至3の何れか1項記載の回答生成装置。 - 出力部を更に備え、
前記機械読解部は、前記処理によって得られる情報を、質問文に対する回答の根拠となる情報である根拠情報を抽出する抽出モデルに入力し、前記抽出モデルの出力により、前記質問文に対する回答の根拠情報を抽出する根拠抽出部を含み、
前記出力部は、前記判断部により判断された前記回答の極性と、前記根拠抽出部により抽出された前記根拠情報とを回答として出力する、請求項1乃至4の何れか1項記載の回答生成装置。 - 前記判断モデルは、前記質問文に対する回答が、正の極性、正でない極性、及び極性ではない回答の何れであるかを判断するためのものであり、
前記判断部は、前記判断モデルの出力により、前記質問文に対する回答が、正の極性、正でない極性、及び極性ではない回答の何れであるかを判断し、
前記出力部は、前記判断部によって前記極性でない回答であると判断された場合に、前記根拠抽出部により抽出された前記根拠情報を回答として出力する
ことを特徴とする請求項5記載の回答生成装置。 - 文章と、質問文と、前記文章における前記質問文に対する回答の極性を示す正解と、前記文章における前記回答の根拠となる範囲の始端及び終端とを含む学習データの入力を受け付ける入力部と、
前記文章及び前記質問文を、前記範囲を推定するための読解モデルに入力し、前記読解モデルの出力により、前記範囲の始端及び終端を推定する機械読解部と、
前記機械読解部の処理によって得られる情報を、前記質問文に対する回答の極性を判断する判断モデルに入力し、前記判断モデルの出力により、前記質問文に対する回答の極性を判断する判断部と、
前記学習データに含まれる前記正解と、前記判断部により判断された結果とが一致し、前記学習データに含まれる前記始端及び前記終端と、前記機械読解部により推定された前記始端及び前記終端とが一致するように、前記読解モデル及び前記判断モデルのパラメータを学習するパラメータ学習部と、
を備えることを特徴とする回答学習装置。 - 前記機械読解部は、前記処理によって得られる情報を、質問文に対する回答の根拠となる情報である根拠情報を抽出する抽出モデルに入力し、前記抽出モデルの出力により、前記質問文に対する回答の根拠情報を抽出する根拠抽出部を備え、
前記学習データは、前記文章における前記回答の根拠情報を更に含み、
前記パラメータ学習部は、更に、前記学習データに含まれる前記文章における前記回答の根拠情報と、前記根拠抽出部により抽出された前記根拠情報とが一致するように、前記抽出モデルのパラメータを学習することを特徴とする請求項7記載の回答学習装置。 - 機械読解部が、入力された文章及び質問文を予め学習された読解モデルに入力し、前記文章における前記質問文に対する回答の根拠となる範囲を推定するための前記読解モデルの出力により、前記範囲の始端及び終端を推定し、
判断部が、前記機械読解部の処理によって得られる情報を、前記質問文に対する回答の極性を判断するための予め学習された判断モデルに入力し、前記判断モデルの出力により、前記質問文に対する回答の極性を判断する
ことを特徴とする回答生成方法。 - 入力部が、文章と、質問文と、前記文章における前記質問文に対する回答の極性を示す正解と、前記文章における前記回答の根拠となる範囲の始端及び終端とを含む学習データの入力を受け付け、
機械読解部が、前記文章及び前記質問文を、前記範囲を推定するための読解モデルに入力し、前記読解モデルの出力により、前記範囲の始端及び終端を推定し、
判断部が、前記機械読解部の処理によって得られる情報を、前記質問文に対する回答の極性を判断する判断モデルに入力し、前記判断モデルの出力により、前記質問文に対する回答の極性を判断し、
パラメータ学習部が、前記学習データに含まれる前記正解と、前記判断部により判断された結果とが一致し、前記学習データに含まれる前記始端及び前記終端と、前記機械読解部により推定された前記始端及び前記終端とが一致するように、前記読解モデル及び前記判断モデルのパラメータを学習する
ことを特徴とする回答学習方法。 - コンピュータを、請求項1乃至6の何れか1項記載の回答生成装置、又は請求項7若しくは8記載の回答学習装置の各部として機能させるためのプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018115166 | 2018-06-18 | ||
JP2018115166 | 2018-06-18 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019032127A Division JP2019220142A (ja) | 2018-06-18 | 2019-02-25 | 回答学習装置、回答学習方法、回答生成装置、回答生成方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020061173A JP2020061173A (ja) | 2020-04-16 |
JP7247878B2 true JP7247878B2 (ja) | 2023-03-29 |
Family
ID=69096739
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019032127A Pending JP2019220142A (ja) | 2018-06-18 | 2019-02-25 | 回答学習装置、回答学習方法、回答生成装置、回答生成方法、及びプログラム |
JP2019227240A Active JP7247878B2 (ja) | 2018-06-18 | 2019-12-17 | 回答学習装置、回答学習方法、回答生成装置、回答生成方法、及びプログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019032127A Pending JP2019220142A (ja) | 2018-06-18 | 2019-02-25 | 回答学習装置、回答学習方法、回答生成装置、回答生成方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20210125516A1 (ja) |
JP (2) | JP2019220142A (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7275661B2 (ja) * | 2019-03-01 | 2023-05-18 | 日本電信電話株式会社 | 文生成装置、文生成方法、文生成学習装置、文生成学習方法及びプログラム |
JP6942759B2 (ja) * | 2019-07-30 | 2021-09-29 | 株式会社三菱総合研究所 | 情報処理装置、プログラム及び情報処理方法 |
JP2021140486A (ja) | 2020-03-05 | 2021-09-16 | 富士フイルムビジネスイノベーション株式会社 | 回答生成装置及びプログラム |
JP7452623B2 (ja) | 2020-03-06 | 2024-03-19 | 日本電信電話株式会社 | 学習装置、情報処理装置、学習方法、情報処理方法及びプログラム |
CN113553837A (zh) * | 2020-04-23 | 2021-10-26 | 北京金山数字娱乐科技有限公司 | 阅读理解模型的训练方法和装置、文本分析的方法和装置 |
CN111753053B (zh) * | 2020-06-19 | 2024-04-09 | 神思电子技术股份有限公司 | 一种基于预训练模型的阅读理解改进方法 |
US20230273961A1 (en) * | 2020-09-01 | 2023-08-31 | Sony Group Corporation | Information processing device and information processing method |
CN112464643B (zh) * | 2020-11-26 | 2022-11-15 | 广州视源电子科技股份有限公司 | 一种机器阅读理解方法、装置、设备及存储介质 |
CN112966073B (zh) * | 2021-04-07 | 2023-01-06 | 华南理工大学 | 一种基于语义和浅层特征的短文本匹配方法 |
WO2023105596A1 (ja) * | 2021-12-06 | 2023-06-15 | 日本電信電話株式会社 | 言語処理装置、画像処理方法、及びプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015011426A (ja) | 2013-06-27 | 2015-01-19 | 独立行政法人情報通信研究機構 | ノン・ファクトイド型質問応答システム及びコンピュータプログラム |
WO2017199433A1 (ja) | 2016-05-20 | 2017-11-23 | 三菱電機株式会社 | 情報提供制御装置、ナビゲーション装置、設備点検作業支援装置、会話ロボット制御装置、および、情報提供制御方法 |
JP2018063696A (ja) | 2016-10-07 | 2018-04-19 | 国立研究開発法人情報通信研究機構 | ノン・ファクトイド型質問応答システム及び方法並びにそのためのコンピュータプログラム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7120433B2 (ja) * | 2019-02-25 | 2022-08-17 | 日本電信電話株式会社 | 回答生成装置、回答学習装置、回答生成方法、及び回答生成プログラム |
-
2019
- 2019-02-25 JP JP2019032127A patent/JP2019220142A/ja active Pending
- 2019-06-14 US US17/254,187 patent/US20210125516A1/en active Pending
- 2019-12-17 JP JP2019227240A patent/JP7247878B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015011426A (ja) | 2013-06-27 | 2015-01-19 | 独立行政法人情報通信研究機構 | ノン・ファクトイド型質問応答システム及びコンピュータプログラム |
WO2017199433A1 (ja) | 2016-05-20 | 2017-11-23 | 三菱電機株式会社 | 情報提供制御装置、ナビゲーション装置、設備点検作業支援装置、会話ロボット制御装置、および、情報提供制御方法 |
JP2018063696A (ja) | 2016-10-07 | 2018-04-19 | 国立研究開発法人情報通信研究機構 | ノン・ファクトイド型質問応答システム及び方法並びにそのためのコンピュータプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20210125516A1 (en) | 2021-04-29 |
JP2020061173A (ja) | 2020-04-16 |
JP2019220142A (ja) | 2019-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7120433B2 (ja) | 回答生成装置、回答学習装置、回答生成方法、及び回答生成プログラム | |
JP7247878B2 (ja) | 回答学習装置、回答学習方法、回答生成装置、回答生成方法、及びプログラム | |
CN108875074B (zh) | 基于交叉注意力神经网络的答案选择方法、装置和电子设备 | |
US20220129621A1 (en) | Bert-based machine-learning tool for predicting emotional response to text | |
JP7139626B2 (ja) | フレーズ生成関係性推定モデル学習装置、フレーズ生成装置、方法、及びプログラム | |
CN113656570A (zh) | 基于深度学习模型的视觉问答方法及装置、介质、设备 | |
CN110704601A (zh) | 利用问题-知识引导的渐进式时空注意力网络解决需要常识的视频问答任务的方法 | |
JP6848091B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN115186110B (zh) | 基于关系增强负采样的多模态知识图谱补全方法与系统 | |
KR102361616B1 (ko) | 문맥 정보를 고려한 개체명 인식 방법 및 장치 | |
US11941867B2 (en) | Neural network training using the soft nearest neighbor loss | |
WO2019244803A1 (ja) | 回答学習装置、回答学習方法、回答生成装置、回答生成方法、及びプログラム | |
KR20180137168A (ko) | 신경망 기반의 텍스트의 카테고리를 분류하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체 | |
CN112926655B (zh) | 一种图像内容理解与视觉问答vqa方法、存储介质和终端 | |
CN112380835A (zh) | 融合实体和句子推理信息的问题答案提取方法及电子装置 | |
US20200272812A1 (en) | Human body part segmentation with real and synthetic images | |
CN114492451B (zh) | 文本匹配方法、装置、电子设备及计算机可读存储介质 | |
CN114332565A (zh) | 一种基于分布估计的条件生成对抗网络文本生成图像方法 | |
CN113779190A (zh) | 事件因果关系识别方法、装置、电子设备与存储介质 | |
CN114065769B (zh) | 情感原因对抽取模型的训练方法、装置、设备及介质 | |
WO2021176714A1 (ja) | 学習装置、情報処理装置、学習方法、情報処理方法及びプログラム | |
JPWO2018203551A1 (ja) | 信号検索装置、方法、及びプログラム | |
EP1837807A1 (en) | Pattern recognition method | |
CN113407806B (zh) | 网络结构搜索方法、装置、设备及计算机可读存储介质 | |
CN113821610A (zh) | 信息匹配方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210928 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220801 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220816 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221014 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221026 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7247878 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |