JP7290861B2 - 質問応答システムのための回答分類器及び表現ジェネレータ、並びに表現ジェネレータを訓練するためのコンピュータプログラム - Google Patents
質問応答システムのための回答分類器及び表現ジェネレータ、並びに表現ジェネレータを訓練するためのコンピュータプログラム Download PDFInfo
- Publication number
- JP7290861B2 JP7290861B2 JP2019133710A JP2019133710A JP7290861B2 JP 7290861 B2 JP7290861 B2 JP 7290861B2 JP 2019133710 A JP2019133710 A JP 2019133710A JP 2019133710 A JP2019133710 A JP 2019133710A JP 7290861 B2 JP7290861 B2 JP 7290861B2
- Authority
- JP
- Japan
- Prior art keywords
- question
- answer
- expression
- passage
- generator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000014509 gene expression Effects 0.000 title claims description 145
- 238000012549 training Methods 0.000 title claims description 40
- 238000004590 computer program Methods 0.000 title claims description 13
- 239000013604 expression vector Substances 0.000 claims description 47
- 239000013598 vector Substances 0.000 claims description 45
- 238000000034 method Methods 0.000 claims description 26
- 238000003058 natural language processing Methods 0.000 claims description 5
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 29
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 29
- 238000010586 diagram Methods 0.000 description 23
- 238000000605 extraction Methods 0.000 description 15
- 230000001364 causal effect Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 238000013527 convolutional neural network Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 239000000284 extract Substances 0.000 description 8
- 230000004044 response Effects 0.000 description 8
- 238000002474 experimental method Methods 0.000 description 7
- 238000007477 logistic regression Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 230000002457 bidirectional effect Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 235000012907 honey Nutrition 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- SGTNSNPWRIOYBX-UHFFFAOYSA-N 2-(3,4-dimethoxyphenyl)-5-{[2-(3,4-dimethoxyphenyl)ethyl](methyl)amino}-2-(propan-2-yl)pentanenitrile Chemical compound C1=C(OC)C(OC)=CC=C1CCN(C)CCCC(C#N)(C(C)C)C1=CC=C(OC)C(OC)=C1 SGTNSNPWRIOYBX-UHFFFAOYSA-N 0.000 description 1
- 238000001347 McNemar's test Methods 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000004836 empirical method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000003245 working effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Electrically Operated Instructional Devices (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
〔敵対的学習(GAN)〕
上記した特許文献1に開示されたなぜ型質問応答システムは、既存のテキストから質問に対する回答候補のパッセージ群を抽出し、その中で回答として最も適切なパッセージを選択している。これに対して、回答候補のパッセージの中で、回答に関連する部分から「質問が求める原因」のみを要約することが考えられる。そのような要約を以下では「コア回答」と呼ぶ。
上記したコア回答をパッセージから自動的に偽物ジェネレータ144が生成できるようにすることを当面の目標として、それを実現するためのシステムとして考えられる仮想的なGANの構成を図7に示す。図7を参照して、このGAN180は、パッセージ190及び質問191から偽物コア回答198を生成するよう訓練される偽物ジェネレータ196と、パッセージ190及び質問191に基づいて人手によるコア回答作成192により作成されたコア回答194及び偽物ジェネレータ196が生成した偽物コア回答198とを用い、人手により作成したコア回答194は本物と、偽物ジェネレータ196により作成された偽物コア回答198は偽物と、それぞれ正しく分別して分別結果202を出力するよう訓練される分別器200とを含む。偽物ジェネレータ196及び分別器200はいずれもニューラルネットワークである。
図8を参照して、第1の実施の形態に係る偽物表現ジェネレータ244を訓練するためのGAN220は、パッセージ190と、パッセージ190から人手によるコア回答作成192により作成されたコア回答194と、パッセージ190を得る元になった質問191とからなる三組を多数用いて偽物表現ジェネレータ244の訓練を行うためのものである。偽物表現ジェネレータ244は、パッセージ190と質問191とから偽物表現246を生成する。この実施の形態では、本物表現242及び偽物表現246は同じ要素数のベクトルである。すなわち、図7に示すものと異なり、この図8に示す偽物表現ジェネレータ244は、最終的な目的物を生成するのではなくそのベクトル表現(以下、これを「表現ベクトル」という。)を生成する。この表現ベクトルの要素数は、訓練データから得られるこれらベクトルの要素数の最大数となるように予め選択する。
最初に図8に示す偽物表現ジェネレータ244の学習について説明する。偽物表現ジェネレータ244は、図8に示す本物表現ジェネレータ240及び分別器248と併せて敵対的学習により訓練される。この訓練に先立ち、既存の質問応答システムにより、種々の質問191に対してその回答として適切なパッセージ190が収集され、質問191と対応付けて記憶装置に記憶される。それらパッセージ190から、人手によるコア回答作成192により、質問191の回答として適切でかつ短いコア回答194が生成され、記憶装置に記憶される。
上記した分類器420により、日本語の質問に対して与えられたパッセージが正しい回答を示すものか否かを分別する実験(回答特定実験)を行った。質問はなぜ型質問である。敵対的学習用の学習データとしては、DIRECT(後掲の参考文献A1)の回答要約データセット(参考文献A2)の中で、学習データセットのみを取り出して利用した。この学習データセットは、15,130件の三つ組(質問、パッセージ、コア回答)を含んでいた。
〔構成〕
上記第1の実施の形態では、図8に示すように、本物表現242及び偽物表現246は、いずれも同じパッセージ190から得られたものを使用している。図16を参照して、この第2の実施の形態に係るGAN650は、図8に示すものと同様の本物表現ジェネレータ240と、質問191及びランダムに選択した要素からなるランダムベクトル660を入力として受け、図8の偽物表現ジェネレータ244と同様の処理で偽物表現664を出力するための偽物表現ジェネレータ662と、本物表現242又は偽物表現664を入力として受けて、入力されたものが本物表現か偽物表現かを分別して分別結果668を出力するよう訓練された分別器666とを含む。ランダムベクトル660の要素数は、最大の大きさのパッセージに合わせて予め定めておくものとする。
GAN650の訓練及び回答特定時の動作は、第1の実施の形態に係るGAN220と同じである。ただし、訓練及び回答特定時に、偽物表現ジェネレータ662に与えられるのがパッセージではなくランダムベクトル660である点のみが第1の実施の形態と異なる。
〔構成〕
図17に、第3の実施の形態に係るGAN700の構成を示す。図17を参照して、GAN700は、コア回答194を受けて本物表現242を出力する本物表現ジェネレータ240と、回答を含む可能性があるとして集められたパッセージの中からランダムに選択されたランダムパッセージ710と、質問191とを入力として受け、ランダムパッセージ710の偽物表現714を出力する、図8に示す偽物表現ジェネレータ244と同じ構成の偽物表現ジェネレータ712と、本物表現242又は偽物表現714を受け、本物表現242と偽物表現714とを分別して分別結果718を出力するよう予め訓練された分別器716を含む。質問191はランダムパッセージ710とは無関係である。
GAN700の訓練及び回答特定時の動作は、第1の実施の形態に係るGAN220と同じである。ただし、訓練及び回答特定時に、偽物表現ジェネレータ712に与えられるのがパッセージではなくランダムパッセージ710である点のみが第1の実施の形態と異なる。
図18に、第2及び第3の実施の形態に関する実験結果を表形式で示す。図18において「BASE」は図15の2行目の「BASE」と同じものである。「提案法(RV)」は第2の実施の形態に係るものの結果を示す。「RV」は「Random Vector」を表す。「提案法(RP)」は第3の実施の形態に係るものの結果を示す。「RP」は「Random Passage」を表す。「提案法」は第1の実施の形態によるものの結果を示し、図15の最終行の結果558と同じものである。
〔構成〕
英語に関する質問応答システムに、後掲の参考文献A5に記載されたDistantly supervised open-domain QA (DS-QA)と呼ばれるタスクがある。図19を参照して、このタスク750は、質問760を受け、複数のパッセージ764を検索762し、そのパッセージ764から回答774を抽出する、というタスクである。主な質問タイプはなに型質問である。したがって回答は単語又は名詞句からなることが多く、なぜ型質問に対する回答より短い傾向がある。より具体的には、このタスク750では、パッセージから回答を含む確率が高いパラグラフの集合768を選択するパラグラフ選択器766と、パラグラフ選択器766が選択したパラグラフの集合768と質問760とが与えられたとき、質問760に対する回答となる確率が最も高い単語列からなる回答候補の集合772を算出するパラグラフリーダ770とを含む。この回答候補の集合772から回答774が抽出される。
質問応答システム900は以下のように動作する。質問応答システム900には、大きく分けて訓練フェーズとテストフェーズとがある。テキストアーカイブ810には大量のテキストが予め集積されている。
上記実施の形態に係る質問応答システムの性能を調べるために、他の4つの手法との比較を行った。4つの手法についてこの実験で用いたデータセットの統計を以下の表1に示す。ただしこれらのデータセットの中で、「*」が付されたデータは今回の実験では用いなかった。
図23は、上記各実施の形態を実現するコンピュータシステムの外観図である。図24は、図23に示すコンピュータシステムのハードウェアブロック図である。
Jong-Hoon Oh, Kentaro Torisawa, Chikara Hashimoto, Takuya Kawada, Stijn De Saeger, Jun’ichi Kazama, and Yiou Wang. 2012. Why question answering using sentiment analysis and word classes. In Proceedings of EMNLP-CoNLL, pages 368-378.
〔参考文献A2〕
Ryu Iida, Canasai Kruengkrai, Ryo Ishida, Kentaro Torisawa, Jong-Hoon Oh, and Julien Kloetzer. 2019. Exploiting background knowledge in compact answer generation for why-questions. In Proceedings of Thirty-Third AAAI Conference on Artificial Intelligence 2019 (AAAI-19).
〔参考文献A3〕
Jong-Hoon Oh, Kentaro Torisawa, Canasai Kruengkrai, Ryu Iida, and Julien Kloetzer. 2017. Multi-column convolutional neural networks with causality-attention for why-question answering. In Proceedings of WSDM.
〔参考文献A4〕
Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. 2018. BERT: pre-training of deep bidirectional transformers for language understanding. CoRR, abs/1810.04805.
〔参考文献A5〕
Danqi Chen, Adam Fisch, Jason Weston, and Antoine Bordes. 2017. Reading Wikipedia to answer opendomain questions. In Association for Computational Linguistics (ACL).
〔参考文献A6〕
Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. 2015. Neural machine translation by jointly learning to align and translate. In Proceedings of ICLR.
〔参考文献A7〕
Ilya Sutskever, Joshua B. Tenenbaum, and Ruslan R Salakhutdinov. 2009. Modelling relational data using bayesian clustered tensor factorization. In Proceedings of NIPS.
〔参考文献A8〕
Yankai Lin, Haozhe Ji, Zhiyuan Liu, and Maosong Sun. 864 2018. Denoising distantly supervised open-domain question answering. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, ACL 2018, pages 1736-1745.
〔参考文献A9〕
Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. 2016. Squad: 100,000+ questions for machine comprehension of text. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pages 2383-2392.
〔参考文献A10〕
Bhuwan Dhingra, Kathryn Mazaitis, and William W Cohen. 2017. Quasar: Datasets for question answering by search and reading. arXiv preprint arXiv:1707.03904.
〔参考文献A11〕
Matthew Dunn, Levent Sagun, Mike Higgins, V. Ugur Gueney, Volkan Cirik, and Kyunghyun Cho. 2017. Searchqa: A new q&a dataset augmented with context from a search engine. CoRR, abs/1704.05179.
〔参考文献A12〕
Mandar Joshi, Eunsol Choi, Daniel Weld, and Luke Zettlemoyer. 2017. Triviaqa: A large scale distantly supervised challenge dataset for reading comprehension. In Proceedings of the 55th Annual Meeting 851 of the Association for Computational Linguistics, 852 pages 1601-1611.
〔参考文献A13〕
Shuohang Wang, Mo Yu, Xiaoxiao Guo, Zhiguo Wang, Tim Klinger, Wei Zhang, Shiyu Chang, Gerry Tesauro, Bowen Zhou, and Jing Jiang. 2018. R3: Reinforced ranker-reader for open-domain question answering. In Proceedings of the Thirty-Second AAAI Conference on Artificial Intelligence, (AAAI-18), pages 5981-5988.
32、66、90、191、442、760、812 質問
34 回答候補検索システム
800、900 質問応答システム
36、774、824、872、928 回答
50 質問受付部
52 応答受信部
54 回答パッセージ記憶部
56 ウェブアーカイブ記憶部
58 因果関係表現抽出部
60 特徴量抽出部
62、512 CNN
64 回答候補ランキング部
92、100 回答パッセージ
94 表現
110、194 コア回答
130、180、220、650、700 GAN
140 本物のデータ
142 ノイズ
144、196 偽物ジェネレータ
146 偽物のデータ
148、200、248、666、716 分別器
150、202、250、668、718 分別結果
190、440、764 パッセージ
192 コア回答作成
198 偽物コア回答
240 本物表現ジェネレータ
242 本物表現
244、612、662、712、860 偽物表現ジェネレータ
246、664、714、862 偽物表現
300、304、306、308、350、351、352、354、356 ステップ
420 分類器
444 コア回答表現ベクトル
446 コア回答の表現
448 パッセージエンコーダ
450 パッセージ表現ベクトル
452 パッセージの表現
454 質問エンコーダ
456 質問表現ベクトル
458 質問の表現
460 ロジスティック回帰層
462 分類結果
500、504 単語埋込み層
502、506、510 単語ベクトル列
508 アテンション加算部
550、552、554、558、600、602、604 結果
660 ランダムベクトル
710 ランダムパッセージ
750、850 タスク
762 検索
766、864 パラグラフ選択器
768、816、866 パラグラフの集合
770、868 パラグラフリーダ
772、820、870、920 回答候補の集合
810 テキストアーカイブ
814 パラグラフ検索部
818、918 パラグラフ選択部
822、926 回答抽出部
910 コア回答表現ジェネレータ
912 コア回答表現の集合
914、922 ペアリング部
916 パラグラフとコア回答表現対の集合
924 回答候補とコア回答表現対の集合
Claims (6)
- コンピュータによる自然言語処理において、コンピュータを、
自然言語からなる質問とその質問と組になる入力とが与えられると、当該入力を表現する第1の表現ベクトルを出力する第1の表現ジェネレータと、
前記質問と当該質問に対する回答とが与えられると、前記第1の表現ベクトルと同一形式で、前記回答を表現する第2の表現ベクトルを出力する第2の表現ジェネレータと、
前記第1の表現ベクトル又は前記第2の表現ベクトルの入力を受け、当該入力された表現ベクトルが前記第1の表現ベクトルか前記第2の表現ベクトルかを判定するための分別器と、
前記第1の表現ベクトルに対する誤判定ができるだけ大きくなるように、かつ、前記第2の表現ベクトルに対する誤判定ができるだけ小さくなるように、前記分別器及び前記第1の表現ジェネレータを敵対的学習により訓練する敵対的学習部として動作させる、コンピュータプログラム。 - 前記第1の表現ジェネレータは、前記質問と、当該質問に対する回答を含む可能性がある1又は複数の文を含むパッセージとが与えられると、当該パッセージから、前記質問に対する前記回答を表現する前記第1の表現ベクトルを出力するベクトル出力手段を含む、請求項1に記載のコンピュータプログラム。
- 前記第1の表現ジェネレータは、前記質問と、ランダムに選択された1又は複数の文を含むパッセージとが与えられると、当該パッセージ及び前記質問から、前記質問に対する前記回答を表現する前記第1の表現ベクトルを出力するベクトル出力手段を含む、請求項1に記載のコンピュータプログラム。
- 前記第1の表現ジェネレータは、前記質問と、ランダムな要素からなるランダムベクトルとが与えられると、当該ランダムベクトル及び前記質問から、前記質問に対する前記回答を表現する前記第1の表現ベクトルを出力するベクトル出力手段を含む、請求項1に記載のコンピュータプログラム。
- 請求項1から請求項4のいずれか1項に記載されたコンピュータプログラムにより訓練された、表現ジェネレータ。
- 質問と、当該質問に対する回答を含む可能性があるパッセージとの入力を受け、当該パッセージから得られる、前記質問に対する回答の表現である第1の表現ベクトルを出力する、請求項5に記載された表現ジェネレータと、
前記パッセージと、前記第1の表現ベクトルと、前記質問とを受け、前記パッセージをエンコードする、前記第1の表現ベクトルと前記質問とによるアテンションが加えられたベクトル表現を出力するパッセージエンコーダと、
前記質問と、前記パッセージとを受け、前記パッセージによるアテンションが加えられた、前記質問の表現ベクトルを出力する質問エンコーダと、
前記第1の表現ベクトル、前記パッセージの表現ベクトル、及び前記質問の表現ベクトルを受け、前記パッセージを前記質問に対する正しい回答と誤った回答とに分類するように予め訓練された判定部とを含む、回答分類器。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019133710A JP7290861B2 (ja) | 2019-07-19 | 2019-07-19 | 質問応答システムのための回答分類器及び表現ジェネレータ、並びに表現ジェネレータを訓練するためのコンピュータプログラム |
US17/622,798 US20220253599A1 (en) | 2019-07-19 | 2020-07-06 | Answer classifier and representation generator for question-answering system, and computer program for training the representation generator |
PCT/JP2020/026360 WO2021014951A1 (ja) | 2019-07-19 | 2020-07-06 | 質問応答システムのための回答分類器及び表現ジェネレータ、並びに表現ジェネレータを訓練するためのコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019133710A JP7290861B2 (ja) | 2019-07-19 | 2019-07-19 | 質問応答システムのための回答分類器及び表現ジェネレータ、並びに表現ジェネレータを訓練するためのコンピュータプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021018588A JP2021018588A (ja) | 2021-02-15 |
JP2021018588A5 JP2021018588A5 (ja) | 2022-06-24 |
JP7290861B2 true JP7290861B2 (ja) | 2023-06-14 |
Family
ID=74192863
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019133710A Active JP7290861B2 (ja) | 2019-07-19 | 2019-07-19 | 質問応答システムのための回答分類器及び表現ジェネレータ、並びに表現ジェネレータを訓練するためのコンピュータプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220253599A1 (ja) |
JP (1) | JP7290861B2 (ja) |
WO (1) | WO2021014951A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3926551A1 (de) * | 2020-06-15 | 2021-12-22 | Deutsche Telekom AG | Verfahren zur unterstützung des verbesserten betriebs eines über ein telekommunikationsnetz einem telekommunikationsendgerät bereitgestellten frage-und-antwort-dienst, system, telekommunikationsnetz frage-und-antwort-dienst, computerprogramm und computerlesbares medium |
JP2022067234A (ja) * | 2020-10-20 | 2022-05-06 | 国立研究開発法人情報通信研究機構 | 回答特定用テキスト分類器及び背景知識表現ジェネレータ及びその訓練装置、並びにコンピュータプログラム |
JP2022121312A (ja) | 2021-02-08 | 2022-08-19 | 大同特殊鋼株式会社 | 溶融金属形成用線材及び溶接製品 |
CN113139039B (zh) * | 2021-05-06 | 2024-07-16 | 京东科技控股股份有限公司 | 对话数据处理方法、装置、设备以及存储介质 |
US11900534B2 (en) * | 2021-07-30 | 2024-02-13 | The Boeing Company | Systems and methods for synthetic image generation |
US11651554B2 (en) * | 2021-07-30 | 2023-05-16 | The Boeing Company | Systems and methods for synthetic image generation |
US20230055991A1 (en) * | 2021-08-09 | 2023-02-23 | Samsung Electronics Co., Ltd. | System and method for interactive dialogue |
JP7520783B2 (ja) | 2021-08-18 | 2024-07-23 | 株式会社東芝 | 識別装置、方法、プログラムおよび学習装置 |
CN116701609B (zh) * | 2023-07-27 | 2023-09-29 | 四川邕合科技有限公司 | 基于深度学习的智能客服问答方法、系统、终端及介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019012908A1 (ja) | 2017-07-13 | 2019-01-17 | 国立研究開発法人情報通信研究機構 | ノン・ファクトイド型質問応答装置 |
JP2019046019A (ja) | 2017-08-31 | 2019-03-22 | ヤフー株式会社 | 情報処理装置、情報処理方法、及び情報処理プログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10983971B2 (en) * | 2018-11-28 | 2021-04-20 | Intuit Inc. | Detecting duplicated questions using reverse gradient adversarial domain adaptation |
US11514330B2 (en) * | 2019-01-14 | 2022-11-29 | Cambia Health Solutions, Inc. | Systems and methods for continual updating of response generation by an artificial intelligence chatbot |
CN114970513A (zh) * | 2022-04-22 | 2022-08-30 | 武汉轻工大学 | 图像生成方法、装置、设备及存储介质 |
-
2019
- 2019-07-19 JP JP2019133710A patent/JP7290861B2/ja active Active
-
2020
- 2020-07-06 WO PCT/JP2020/026360 patent/WO2021014951A1/ja active Application Filing
- 2020-07-06 US US17/622,798 patent/US20220253599A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019012908A1 (ja) | 2017-07-13 | 2019-01-17 | 国立研究開発法人情報通信研究機構 | ノン・ファクトイド型質問応答装置 |
JP2019046019A (ja) | 2017-08-31 | 2019-03-22 | ヤフー株式会社 | 情報処理装置、情報処理方法、及び情報処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20220253599A1 (en) | 2022-08-11 |
WO2021014951A1 (ja) | 2021-01-28 |
JP2021018588A (ja) | 2021-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7290861B2 (ja) | 質問応答システムのための回答分類器及び表現ジェネレータ、並びに表現ジェネレータを訓練するためのコンピュータプログラム | |
WO2021082953A1 (zh) | 机器阅读理解方法、设备、存储介质及装置 | |
Lei et al. | Re-examining the Role of Schema Linking in Text-to-SQL | |
CN111401077B (zh) | 语言模型的处理方法、装置和计算机设备 | |
US10970493B1 (en) | Systems and methods for slot relation extraction for machine learning task-oriented dialogue systems | |
JP2023509031A (ja) | マルチモーダル機械学習に基づく翻訳方法、装置、機器及びコンピュータプログラム | |
CN113312500A (zh) | 一种面向大坝安全运行的事件图谱构建方法 | |
RU2712101C2 (ru) | Предсказание вероятности появления строки с использованием последовательности векторов | |
KR20220045879A (ko) | 이미지 번역 서비스를 제공하기 위한 방법 및 서버 | |
Peng et al. | A fine-grained modal label-based multi-stage network for multimodal sentiment analysis | |
WO2022085533A1 (ja) | 回答特定用テキスト分類器及び背景知識表現ジェネレータ及びその訓練装置、並びにコンピュータプログラム | |
CN115130591A (zh) | 一种基于交叉监督的多模态数据分类方法及装置 | |
Jim et al. | Recent advancements and challenges of nlp-based sentiment analysis: A state-of-the-art review | |
CN117377950A (zh) | 使用机器学习加速文档归类 | |
Wang et al. | MT-TCCT: Multi-task learning for multimodal emotion recognition | |
US11501071B2 (en) | Word and image relationships in combined vector space | |
Panahandeh Nigjeh et al. | Leveraging ParsBERT for cross-domain polarity sentiment classification of Persian social media comments | |
CN114722818A (zh) | 一种基于对抗迁移学习的命名实体识别模型 | |
Zhang et al. | Human-like explanation for text classification with limited attention supervision | |
Singh et al. | What is your cause for concern? towards interpretable complaint cause analysis | |
Kulkarni et al. | Deep Reinforcement-Based Conversational AI Agent in Healthcare System | |
Luo | Self-Training for Natural Language Processing | |
Kumar et al. | Transformer-based Models for Language Identification: A Comparative Study | |
Biswas et al. | Automatic judgement of neural network-generated image captions | |
CN116562305B (zh) | 方面情感四元组预测方法与系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220616 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220616 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230526 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7290861 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |