CN112818128B - 一种基于知识图谱增益的机器阅读理解系统 - Google Patents

一种基于知识图谱增益的机器阅读理解系统 Download PDF

Info

Publication number
CN112818128B
CN112818128B CN202110082108.XA CN202110082108A CN112818128B CN 112818128 B CN112818128 B CN 112818128B CN 202110082108 A CN202110082108 A CN 202110082108A CN 112818128 B CN112818128 B CN 112818128B
Authority
CN
China
Prior art keywords
knowledge
text
document
data set
conceptnet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110082108.XA
Other languages
English (en)
Other versions
CN112818128A (zh
Inventor
徐菲菲
张文楷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Electric Power University
Original Assignee
Shanghai Electric Power University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Electric Power University filed Critical Shanghai Electric Power University
Priority to CN202110082108.XA priority Critical patent/CN112818128B/zh
Publication of CN112818128A publication Critical patent/CN112818128A/zh
Application granted granted Critical
Publication of CN112818128B publication Critical patent/CN112818128B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供了一种基于知识图谱增益的机器阅读理解系统,用于接收包括文本文档与问题在内的文本数据集以及根据文本数据集自行生成的词汇表,并根据文本文档的内容得到问题的答案,包括:文档问题排列模块;命名实体识别模块,用于对文本数据集进行命名实体识别处理;ERNIE上下文语言模块;外部知识库,包括WordNet知识库和ConceptNet知识库,用于接收词汇表并对应生成WordNet知识特征向量与ConceptNet知识特征向量;知识匹配与连接层,用于对于文本文档与问题中匹配成功的实体,将对应的词向量与WordNet知识特征向量与ConceptNet知识特征向量进行连接;注意力计算单元,用于各向量对应进行双向注意力运算与自注意力运算得到答案;结果生成单元,用于接收并判定输出答案。

Description

一种基于知识图谱增益的机器阅读理解系统
技术领域
本发明属于人工智能领域,具体涉及一种基于知识图谱增益的机器阅读理解系统。
背景技术
机器阅读理解是自然语言理解下的一个子任务,其目标为给定一段文本资料和与文本相关的一个问题,机器自行对此文本段分析后给出问题的答案。相对于其他传统自然语言处理任务(如词性判断、实体识别、语法分析等等)而言,机器阅读理解不仅要求机器学会去表示自然语言,同时要去理解、分析、并最终生成输出句。
机器阅读理解最广泛的应用是增强人机交互问答系统的表现。在最原始的问答系统中,机器只是将问题与数据库中现有的答案作匹配,返回现有的答案或是“未找到”等错误信息,完全不具有“智能”的特点。在我们实际的生产生活应用中,对于用户提出的问题,答案往往是即时的,不直接以答案形式存在于现有数据库内的。例如用户在搜索引擎中输入待解决的问题,现有的搜索引擎往往会返回包含用户键入内容作为关键字的文档,用户仍需逐一人工阅读每个文档来寻找目标信息。机器阅读理解模型可以从文档中自行识别出用户的问题在文档中对应的关键句,并将这些语句作为答案返回给用户,从而大幅度提升类似问答系统的表现。
传统的机器阅读理解模型主要围绕上下文联系与问题同文档之间的联系进行优化。对于原文中包含原样词汇的答案,传统模型往往能够通过其不断更新的上下文语言模型与注意力机制配合,快速定位并给出正确解答。然而,在实际应用中,我们遇到的文档往往问句和答句中的词汇是不完全相同的。这尤其体现在诸如新闻报道、小说散文等文体中,这些文档往往会用很多不同的近义词或相关联的词汇来描述同一事物。那么,当传统模型遇到这类文档时,就会产生不理想的输出结果。
发明内容
本发明是为了解决上述问题而进行的,目的在于提供一种基于知识图谱增益的机器阅读理解系统。
本发明提供了一种基于知识图谱增益的机器阅读理解系统,用于接收包括文本文档与问题在内的文本数据集以及根据文本数据集自行生成的词汇表,并根据文本文档的内容得到问题的答案,具有这样的特征,包括:文档问题排列模块,用于对文本数据集进行文本预处理与分离,使得文本数据集中的内容格式规范化,并将文本数据集中的每个文本文档与对应问题作为一个组合进行排列,得到文档问题排列数据;命名实体识别模块,用于对文本数据集进行命名实体识别处理,在识别到实体后分别用对应的种族标签替代实体;ERNIE上下文语言模块,与文档问题排列模块连接,用于接收文档问题排列数据并生成对应的词向量;外部知识库,包括WordNet知识库和ConceptNet知识库,用于根据词汇表在各自库中检索对应的外部知识信息,并将外部知识信息通过RotatE算法固定为既定长度的向量,对应生成WordNet知识特征向量和ConceptNet知识特征向量;知识匹配与连接层,与ERNIE上下文语言模块、命名实体识别模块和外部知识库连接,用于接收词向量、WordNet知识特征向量、ConceptNet知识特征向量,并对于文本文档与问题中匹配成功的实体,将对应的词向量与WordNet知识特征向量或ConceptNet知识特征向量进行连接;注意力计算单元,用于读取连接后的词向量、WordNet知识特征向量以及ConceptNet知识特征向量,并为每个向量分配一个Tensor进行存储和计算,将词向量分别与每个WordNet知识特征向量和ConceptNet知识特征向量进行双向注意力运算,再将词向量与每个经过双向注意力运算的WordNet知识特征向量和ConceptNet知识特征向量进行连接,并用新的Tensor进行保存,再将新的Tensor进行自注意力运算后得到答案;以及结果生成单元,用于接收答案,并对答案的置信度进行判定,当答案中的最佳置信度高于预定阈值时,将答案输出,当答案中的最佳置信度低于预定阈值时,启用答案优选机制,首先将置信度排名前五的答案均作为备选答案,之后将每一个备选答案放入语料库中进行语句困惑度的计算,并将语句困惑度最低的备选答案进行输出。
在本发明提供的基于知识图谱增益的机器阅读理解系统中,还可以具有这样的特征:其中,文档问题排列模块将文本数据集中的每个文本文档与对应问题作为一个组合进行排列时,按照G={[P0,Q0],[P1,Q1]...[Pn,Qn]}的格式排列,G为当前批次的文档数据集,P为文本文档,Q为问题。
在本发明提供的基于知识图谱增益的机器阅读理解系统中,还可以具有这样的特征:其中,ConceptNet知识库中收录了关于词汇的同义词、近义词、不同语态、多语言以及关联词,并以图的形式进行保存。
在本发明提供的基于知识图谱增益的机器阅读理解系统中,还可以具有这样的特征:其中,预定阈值为0.4。
在本发明提供的基于知识图谱增益的机器阅读理解系统中,还可以具有这样的特征:其中,语料库由来自两个百科数据集的20万条自然语句构成,且该语料库和文本数据集无交集。
发明的作用与效果
根据本发明所涉及的一种基于知识图谱增益的机器阅读理解系统,因为设有命名实体识别模块来对文本数据集进行命名实体识别处理,能够将大部分原本的未知词汇通过实体识别后分别用其对应的种类标签替代,有效地降低了未知词汇在文档中的出现频率;并且设有两个外部知识库,能够利用外部知识库对文本文档与问题中的实体所蕴含的关系进行挖掘,快速建立问题与文档内容之间的联系,得到更为精准的答案;同时在输出结果时还具有答案优选机制,能够通过判断语句困惑度来避免输出的答案由于缺少或有冗余的代词、语气助词等造成的精度损失。因此,本发明的一种基于知识图谱增益的机器阅读理解系统通过双外部知识库结构,配合命名实体识别及答案优选机制,可以较大幅度改善机器阅读理解系统的表现并提升其健壮性,能够在改善搜索引擎及问答系统上加以应用,尤其在改善搜索引擎方面,可以直接对互联网文档进行分析,返回用户待查询的关键句,从而避免了用户需要人工访问每个文档来获取所需信息,可以极大地提升搜索引擎的工作效率。
附图说明
图1是本发明的实施例中一种基于知识图谱增益的机器阅读理解系统的结构框图;
图2是本发明的实施例中基于知识图谱增益的机器阅读理解系统的流程示意图;
图3是本发明的实施例中词汇knowledge在ConceptNet知识库的关系示意图。
具体实施方式
为了使本发明实现的技术手段与功效易于明白了解,以下结合实施例及附图对本发明作具体阐述。
<实施例>
图1是本发明的实施例中一种基于知识图谱增益的机器阅读理解系统的结构框图,图2是本发明的实施例中基于知识图谱增益的机器阅读理解系统的流程示意图。
如图1和图2所示,本实施例的一种基于知识图谱增益的机器阅读理解系统100,用于接收包括文本文档与问题在内的文本数据集以及根据文本数据集自行生成的词汇表,并根据文本文档的内容得到问题的答案,包括:文档问题排列模块10、命名实体识别模块20、ERNIE上下文语言模块30、外部知识库40、知识匹配与连接层50、注意力计算单元60以及结果生成单元70。
文档问题排列模块10用于对文本数据集进行文本预处理与分离,使得文本数据集中的内容格式规范化,并将文本数据集中的每个文本文档与对应问题作为一个组合进行排列,得到文档问题排列数据。
文档问题排列模块将文本数据集中的每个文本文档与对应问题作为一个组合进行排列时,按照G={[P0,Q0],[P1,Q1]...[Pn,Qn]}的格式排列,G为当前批次的文档数据集,P为文本文档,Q为问题。
命名实体识别模块20用于对文本数据集进行命名实体识别处理,在识别到实体后分别用对应的种族标签替代实体。
本实施例中,命名实体识别模块20的工作示例如表1:
表1命名实体识别处理与无预处理的对比
Figure GDA0003659545860000061
如表1,在对该段原文的处理中,在不进行命名实体识别处理的情况下,文中的实体均通过UNK来表示未知词汇,而本发明在识别到实体后通过person、misc等种族标签来替换对应的实体,其中,misc表示专有名词,用来表示特殊地点或企业、机构名称等,本发明将命名实体识别加入到数据预处理环节,将大部分原本的未知词汇通过实体识别后分别用其对应的种类标签替代,有效地降低了未知词汇在文档中的出现频率。
ERNIE上下文语言模块30与文档问题排列模块10连接,用于接收文档问题排列数据并生成对应的词向量。
外部知识库40包括WordNet知识库和ConceptNet知识库,用于根据词汇表在各自库中检索对应的外部知识信息,并将外部知识信息通过RotatE算法固定为既定长度的向量,对应生成WordNet知识特征向量和ConceptNet知识特征向量。
图3是本发明的实施例中词汇knowledge在ConceptNet知识库的关系示意图。
如图3所示,ConceptNet知识库中收录了关于词汇的同义词、近义词、不同语态、多语言以及关联词,并以图的形式进行保存。
知识匹配与连接层50与ERNIE上下文语言模块30、命名实体识别模块20和外部知识库40连接,用于接收词向量、WordNet知识特征向量、ConceptNet知识特征向量,并对于文本文档与问题中匹配成功的实体,将对应的词向量与WordNet知识特征向量或ConceptNet知识特征向量进行连接。
注意力计算单元60用于读取连接后的词向量、WordNet知识特征向量以及ConceptNet知识特征向量,并为每个向量分配一个Tensor进行存储和计算,将词向量分别与每个WordNet知识特征向量和ConceptNet知识特征向量进行双向注意力运算,再将词向量与每个经过双向注意力运算的WordNet知识特征向量和ConceptNet知识特征向量进行连接,并用新的Tensor进行保存,再将新的Tensor进行自注意力运算后得到答案。
结果生成单元70用于接收答案,并对答案的置信度进行判定,当答案中的最佳置信度高于预定阈值时,将答案输出,当答案中的最佳置信度低于预定阈值时,启用答案优选机制,首先将置信度排名前五的答案均作为备选答案,之后将每一个备选答案放入语料库中进行语句困惑度的计算,并将语句困惑度最低的备选答案进行输出。
预定阈值为0.4。
语料库由来自两个百科数据集的20万条自然语句构成,且该语料库和文本数据集无交集。
在使用本实施例的基于知识图谱增益的机器阅读理解系统进行的实验中,通过该答案优选机制能够平均提高模型精度分数0.25。
本实施例中,不包含外部知识的传统语言模型和本发明的基于知识图谱增益的机器阅读理解系统在同样输入下的模型预测结果如表2:
表2 Seq2seq模型与本发明在同样输入下的的输出对比
Figure GDA0003659545860000091
如表2所示,对于上述文档信息,本发明可以根据文档和问题间注意力运算结果准确识别出关键字“Tesla”,之后在外部知识库和命名实体识别模块中对文档中的实体所蕴含的关系进行挖掘,以文档第一句为例,外部知识库可提供的信息有:
○United States(文档中)<--relatedto-->US(问题中)。
○age(文档中)<--symptom-->old(问题中)。
○Tesla-->人物名字。
通过外部信息库中的信息可以帮助模型快速建立问题与文档内容之间的关系,从而准确定位出正确答案“35”。
本实施例中还分别使用SQuAD1.1数据集、Addsent-SQuAD数据集以及ReCoRD数据集,将本发明的基于知识图谱增益的机器阅读理解系统与其余阅读理解模型进行对比实验,实验结果如表3-表5:
表3 SQuAD1.1数据集对比实验结果
Figure GDA0003659545860000092
Figure GDA0003659545860000101
如表3所示,该对比测试中使用的SQuAD数据集是机器阅读理解最经典的数据集之一,SQuAD数据集的文档多来源于维基百科,包含几乎所有类别的文档。SQuAD是一个抽取型的阅读理解数据集,它要求机器从文档中提取出一段连续的文字作为所给问题的答案。本发明在此数据集上的表现可超过大部分现有的阅读理解模型,并且在精确度方面可领先人工阅读水平5.6个百分点。
表4 Addsent-SQuAD数据集对比实验结果
Figure GDA0003659545860000102
如表4所示,该对比测试中使用的Addsent-SQuAD数据集是SQuAD数据集的一个强化版本,其主要目的是为了检测机器阅读理解的健壮性。此数据集有多干扰项和单干扰项两个版本,其中多干扰项是指在原有的SQuAD数据集的基础上,人为在每个文档内添加了多个与正确答案在文字上较为相近,但意义不同的干扰句;单干扰项版本则仅添加一句干扰句。从表3与表4中的实验结果可以看出,对于QA-NET等基于传统循环神经网络结构的模型,其抗干扰能力很弱,在Addsent-SQuAD上的表现相比SQuAD数据集出现了超过40个百分点的骤降。而本发明在注意力机制和外部知识库辅助下仍能保持在多干扰项下得到80分以上的精度,具有较强的健壮性。
表5 ReCoRD数据集对比实验结果
模型名称 精确度 F1分数
BERT-大型模型 56.4 59.1
XLNET-大型模型 61.1 63.8
SKG-BERT 72.2 72.8
KT-NET 73.0 74.8
本发明 78.4 80.6
人工阅读表现 91.3 91.6
如表5所示,该对比测试中使用的ReCoRD数据集不同于其他普通抽取型阅读理解数据集,ReCoRD数据集对模型的推理能力提出了较高的要求。在此数据集中,文档和对应问题之间的描述往往不使用相同的词汇,而是以其近义词,或是用其他描述方式。因此需要模型拥有较强的推理能力和外部知识的辅助,来建立问题和答案之间的联系。
在对ReCoRD数据集的对比实验中,KAR和KT-NET这两个对照组同样拥有外部知识库。对比而言,本发明拥有双外部知识库配合额外的命名实体识别模块,此外还拥有答案优选机制,在答案置信度较低通过困惑度算法来帮助模型确定答案。因此本发明较单一知识库模型而言拥有较大的领先幅度。
实施例的作用与效果
根据本实施例所涉及的一种基于知识图谱增益的机器阅读理解系统,因为设有命名实体识别模块来对文本数据集进行命名实体识别处理,能够将大部分原本的未知词汇通过实体识别后分别用其对应的种类标签替代,有效地降低了未知词汇在文档中的出现频率;并且设有两个外部知识库,能够利用外部知识库对文本文档与问题中的实体所蕴含的关系进行挖掘,快速建立问题与文档内容之间的联系,能够得到更为精准的答案;同时在输出结果时还具有答案优选机制,能够通过判断语句困惑度来避免输出的答案由于缺少或有冗余的代词、语气助词等造成的精度损失。因此,本实施例的一种基于知识图谱增益的机器阅读理解系统通过双外部知识库结构,配合命名实体识别及答案优选机制,可以较大幅度改善机器阅读理解系统的表现并提升其健壮性,能够在改善搜索引擎及问答系统上加以应用,尤其在改善搜索引擎方面,可以直接对互联网文档进行分析,返回用户待查询的关键句,从而避免了用户需要人工访问每个文档来获取所需信息,可以极大地提升搜索引擎的工作效率。
上述实施方式为本发明的优选案例,并不用来限制本发明的保护范围。

Claims (3)

1.一种基于知识图谱增益的机器阅读理解系统,用于接收包括文本文档与问题在内的文本数据集以及根据所述文本数据集自行生成的词汇表,并根据所述文本文档的内容得到所述问题的答案,特征在于,包括:
文档问题排列模块,用于对所述文本数据集进行文本预处理与分离,使得所述文本数据集中的内容格式规范化,并将所述文本数据集中的每个所述文本文档与对应所述问题作为一个组合进行排列,按照G={[P0,Q0],[P1,Q1]...[Pn,Qn]}的格式排列得到文档问题排列数据,G为当前批次的所述文档数据集,P为所述文本文档,Q为所述问题;
命名实体识别模块,用于对所述文本数据集进行命名实体识别处理,在识别到实体后分别用对应的种类标签替代所述实体;
ERNIE上下文语言模块,与所述文档问题排列模块连接,用于接收所述文档问题排列数据并生成对应的词向量;
外部知识库,包括WordNet知识库和ConceptNet知识库,用于根据所述词汇表在各自库中检索对应的外部知识信息,并将所述外部知识信息通过RotatE算法固定为既定长度的向量,对应生成WordNet知识特征向量和ConceptNet知识特征向量;
知识匹配与连接层,与所述ERNIE上下文语言模块、所述命名实体识别模块和所述外部知识库连接,用于接收所述词向量、所述WordNet知识特征向量、所述ConceptNet知识特征向量,并对于所述文本文档与所述问题中匹配成功的所述实体,将对应的所述词向量与所述WordNet知识特征向量或所述ConceptNet知识特征向量进行连接;
注意力计算单元,用于读取连接后的所述词向量、所述WordNet知识特征向量以及所述ConceptNet知识特征向量,并为每个向量分配一个Tensor进行存储和计算,将所述词向量分别与每个所述WordNet知识特征向量和所述ConceptNet知识特征向量进行双向注意力运算,再将所述词向量与每个经过双向注意力运算的所述WordNet知识特征向量和所述ConceptNet知识特征向量进行连接,并用新的Tensor进行保存,再将新的Tensor进行自注意力运算后得到答案;以及
结果生成单元,用于接收所述答案,并对所述答案的置信度进行判定,当所述答案中的最佳置信度高于预定阈值时,将所述答案输出,当所述答案中的最佳置信度低于预定阈值时,启用答案优选机制,首先将置信度排名前五的所述答案均作为备选答案,之后将每一个所述备选答案放入语料库中进行语句困惑度的计算,并将语句困惑度最低的所述备选答案进行输出,
所述ConceptNet知识库中收录了关于词汇的同义词、近义词、不同语态、多语言以及关联词,并以图的形式进行保存。
2.根据权利要求1所述的基于知识图谱增益的机器阅读理解系统,其特征在于:
其中,所述预定阈值为0.4。
3.根据权利要求1所述的基于知识图谱增益的机器阅读理解系统,其特征在于:
其中,所述语料库由来自两个百科数据集的20万条自然语句构成,且该语料库和所述文本数据集无交集。
CN202110082108.XA 2021-01-21 2021-01-21 一种基于知识图谱增益的机器阅读理解系统 Active CN112818128B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110082108.XA CN112818128B (zh) 2021-01-21 2021-01-21 一种基于知识图谱增益的机器阅读理解系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110082108.XA CN112818128B (zh) 2021-01-21 2021-01-21 一种基于知识图谱增益的机器阅读理解系统

Publications (2)

Publication Number Publication Date
CN112818128A CN112818128A (zh) 2021-05-18
CN112818128B true CN112818128B (zh) 2022-08-09

Family

ID=75858522

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110082108.XA Active CN112818128B (zh) 2021-01-21 2021-01-21 一种基于知识图谱增益的机器阅读理解系统

Country Status (1)

Country Link
CN (1) CN112818128B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113312912B (zh) * 2021-06-25 2023-03-31 重庆交通大学 一种用于交通基础设施检测文本的机器阅读理解方法
CN114238595A (zh) * 2021-12-01 2022-03-25 中冶赛迪重庆信息技术有限公司 一种基于知识图谱的冶金知识问答方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109460553A (zh) * 2018-11-05 2019-03-12 中山大学 一种基于门限卷积神经网络的机器阅读理解方法
CN110888980A (zh) * 2019-10-10 2020-03-17 天津大学 基于知识增强的注意力神经网络的隐式篇章关系识别方法
CN111078836A (zh) * 2019-12-10 2020-04-28 中国科学院自动化研究所 基于外部知识增强的机器阅读理解方法、系统、装置
CN111339281A (zh) * 2020-03-24 2020-06-26 苏州大学 一种多视角融合的阅读理解选择题的答案选择方法
CN111581383A (zh) * 2020-04-30 2020-08-25 上海电力大学 一种基于ERNIE-BiGRU的中文文本分类方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109460553A (zh) * 2018-11-05 2019-03-12 中山大学 一种基于门限卷积神经网络的机器阅读理解方法
CN110888980A (zh) * 2019-10-10 2020-03-17 天津大学 基于知识增强的注意力神经网络的隐式篇章关系识别方法
CN111078836A (zh) * 2019-12-10 2020-04-28 中国科学院自动化研究所 基于外部知识增强的机器阅读理解方法、系统、装置
CN111339281A (zh) * 2020-03-24 2020-06-26 苏州大学 一种多视角融合的阅读理解选择题的答案选择方法
CN111581383A (zh) * 2020-04-30 2020-08-25 上海电力大学 一种基于ERNIE-BiGRU的中文文本分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"融合外部知识的机器阅读理解方法研究";乐远;《万方数据库》;20201126;第23-45页 *

Also Published As

Publication number Publication date
CN112818128A (zh) 2021-05-18

Similar Documents

Publication Publication Date Title
US11354599B1 (en) Methods and systems for generating a data structure using graphical models
CN112818128B (zh) 一种基于知识图谱增益的机器阅读理解系统
US11893537B2 (en) Linguistic analysis of seed documents and peer groups
Almiman et al. Deep neural network approach for Arabic community question answering
CN112632258A (zh) 文本数据处理方法、装置、计算机设备和存储介质
US11538462B1 (en) Apparatuses and methods for querying and transcribing video resumes
El Desouki et al. A hybrid model for paraphrase detection combines pros of text similarity with deep learning
CN116662518A (zh) 问答方法、装置、电子设备及可读存储介质
Khan et al. A clustering framework for lexical normalization of Roman Urdu
CN113342944B (zh) 一种语料泛化方法、装置、设备及存储介质
Korade et al. Strengthening Sentence Similarity Identification Through OpenAI Embeddings and Deep Learning.
Zhang et al. Chatbot design method using hybrid word vector expression model based on real telemarketing data
US20230298571A1 (en) Apparatuses and methods for querying and transcribing video resumes
US11783244B2 (en) Methods and systems for holistic medical student and medical residency matching
AlMahmoud et al. The effect of clustering algorithms on question answering
Alwaneen et al. Stacked dynamic memory-coattention network for answering why-questions in Arabic
Daelemans Abstraction considered harmful: Lazy learning of language processing
Rasheed et al. Conversational chatbot system for student support in administrative exam information
Das et al. An improvement of Bengali factoid question answering system using unsupervised statistical methods
Singh et al. Computer application for assessing subjective answers using AI
Francis et al. SmarTxT: A Natural Language Processing Approach for Efficient Vehicle Defect Investigation
CN114662488A (zh) 词向量生成方法和设备、计算设备及计算机可读存储介质
Hou et al. Domain transformation on biological event extraction by learning methods
US20240005231A1 (en) Methods and systems for holistic medical student and medical residency matching
Suta et al. Matching question and answer using similarity: an experiment with stack overflow

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant