CN116502648A - 一种基于多跳推理的机器阅读理解语义推理方法 - Google Patents
一种基于多跳推理的机器阅读理解语义推理方法 Download PDFInfo
- Publication number
- CN116502648A CN116502648A CN202310231047.8A CN202310231047A CN116502648A CN 116502648 A CN116502648 A CN 116502648A CN 202310231047 A CN202310231047 A CN 202310231047A CN 116502648 A CN116502648 A CN 116502648A
- Authority
- CN
- China
- Prior art keywords
- questions
- reasoning
- answer
- entity
- paragraphs
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000012216 screening Methods 0.000 claims abstract description 10
- 238000010586 diagram Methods 0.000 claims description 17
- 238000012549 training Methods 0.000 claims description 14
- 101150039208 KCNK3 gene Proteins 0.000 claims description 9
- 238000003062 neural network model Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 abstract description 3
- 238000010276 construction Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本发明提供了一种基于多跳推理的机器阅读理解语义推理方法,该推理方法针对基于机器阅读理解的问答方法中因支持事实不足导致无法推理得到正确答案的问题,引入外部知识库提取更多支持事实;针对在庞大知识库中检索得到过多文档可能导致计算成本很高和引入与问题不相关段落的问题,提出基于TF‑IDF的段落筛选方法,通过调整不同检索段落数上限获取最优的模型性能,并通过引入外部知识库,提高了模型回答复杂问题的能力。
Description
技术领域
本发明涉及机器阅读理解语义分析技术领域,具体而言,涉及一种基于多跳推理的机器阅读理解语义推理方法。
背景技术
机器阅读理解(Machine Reading Comprehension,MRC)是一项用来测试机器结合上下文理解自然语言问题并给出相关答案的任务。当面对复杂的多级关系输入问题,需要从多个相关段落中推理得到答案时,普通的机器阅读理解方法可能难以进行准确的理解。这就需要模型具有一定的多跳推理的能力,结合多个段落寻找答案。
基于多跳推理的机器阅读理解方法已经取得了很大发展,其研究成果也表现出很大的发展潜力。但仍存在构建模型复杂、花费时间较长、推理结果不准确的问题。
发明内容
为了改善上述技术问题至少之一,本发明的一个目的在于提供一种基于多跳推理的机器阅读理解语义推理方法,简称推理方法,用于对复杂问题的答案进行推理。
为实现上述目的,本发明的一个技术方案提供了一种基于多跳推理的机器阅读理解语义推理方法,包括如下步骤:
步骤S1,接收问题;
步骤S2,导入或访问外部知识库,基于TF-IDF的段落筛选方法,从外部知识库中检索出与问题相关的段落;
步骤S3,构建实体图,实体图用于将接收的问题、问题中提及的实体、从外部知识库中检索到的段落、从段落中提取的答案节点在实体图中进行向量嵌入表示;
步骤S4,将问题、支持事实和相关段落输入编码器,提取答案跨度和下一跳实体位置的跨度;
步骤S5,迭代步骤S4将每次迭代都将历经的答案节点添加到实体图中;并根据推理关系,在答案节点间建立边,获取实体图的邻接矩阵,并对邻接矩阵归一化处理,将得到的归一化邻接矩阵对实体图进行编码,直到推理到正确的实体或者推理步数达到设定阈值,迭代结束;
步骤S6,基于得到的实体图,将答案分为分别对应特殊问题、替代问题和一般问题的答案;其中,特殊问题的答案由特定的文字描述组成,用于采用两层全连接网络做预测任务;对于替代问题和一般问题的答案,答案一般是实体本身或者回答是否的问题,将替代问题和一般问题看作一个二分类问题,用于采用两个全连接网络做预测任务;
步骤S7,训练全连接网络,将训练任务分为Task1和Task2,采用联合训练的方式,先训练一代Task 1,之后Task1和Task2联合训练一代,以此得到最小化损失函数,从而构建管道式的神经网络模型,根据神经网络模型预测问题的答案。
在上述技术方案中,在步骤S2中,根据问题和外部知识库的文本之间的相似度来筛选出至少两个段落。
在上述技术方案中,在步骤S5中,迭代次数至少为2。
在上述技术方案中,在步骤S7中,联合训练的对象为答案跨度和支持事实。
在上述技术方案中,推理方法还包括:步骤S8,基于神经网络模型预测答案,并使用精确匹配和部分匹配评估神经网络模型的性能。
综上,本发明所提供的基于多跳推理的机器阅读理解语义推理方法,针对基于机器阅读理解的问答方法中因支持事实不足导致无法推理得到正确答案的问题,引入外部知识库提取更多支持事实;针对在庞大知识库中检索得到过多文档可能导致计算成本很高和引入与问题不相关段落的问题,提出基于TF-IDF的段落筛选方法,通过调整不同检索段落数上限获取最优的模型性能。并通过引入外部知识库,提高了模型回答复杂问题的能力。
本发明的一些技术方案还提供了一种基于多跳推理的机器阅读理解语义推理系统,简称推理系统,包括外部知识检索模块、跨度提取模块、图推理模块、答案预测模块等。
本技术方案所提供的推理系统可以执行上述推理方法的步骤,因此可以实现上述推理方法中任一技术方案的全部有益效果,不在赘述。
本发明的附加方面和优点将在下面的描述部分中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明的一些实施例的问题、支持事实和段落的嵌入表示的示意图。
图2是本发明的一些实施例的图注意力网络的注意力机制的示意图。
图3是本发明的一些实施例的基于多跳推理的机器阅读理解模型的架构示意图。
图4是本发明的一些实施例的在HotpotQA full setting数据集上的问答性能实验结果示意图。
图5是本发明的一些实施例的检索段落数对F1值的影响示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
目前,一些相关技术中,通过固定推理次数和构建随机答案网络使得传统单跳阅读理解具备多跳推理能力。但该模型的推理次数是人为设置的,针对不同问题其推理次数并不固定的,因此在一些问答场景中该方法并不能取得很好的效果。在另一些相关技术中,通过动态融合网络模型,根据问题中提及的实体,检索段落寻找支持实体,利用提取到的支持实体动态构建实体图,利用图神经网络在动态图上进行探索,寻找问题的答案,但在某些比较查询问题上还有改进的空间。在另一些相关技术中,基于单跳阅读理解的解决方法,将多跳问题分解成多个单跳问题,利用单跳阅读理解的方法来解决,最后通过融合单跳阅读理解模型获取的答案得到最终的答案,但对于较为复杂的问题,模型建立的过程也会很复杂,也会花费更多的时间。可见,相关技术存在构建模型复杂、花费时间较长、推理结果不准确的问题。
为此,本发明的一些实施例提供了一种基于多跳推理的机器阅读理解语义推理方法,简称推理方法,用于对复杂问题的答案进行推理。
本实施例中的基于多跳推理的机器阅读理解语义推理方法包括以下步骤:
S1:输入问题
S2:引入外部知识库,使用基于TF-IDF的段落筛选模块从知识库中检索出与问题相关的段落;
S3:基于检索+推理结构形式的机器阅读理解方法,对提出的问题、问题中提及的实体、从外部知识库检索到的文档、问题的答案和根据答案节点构建的实体图进行向量嵌入表示(如图1所示)。初始条件下,实体图是一张空图;
S4:利用跨度提取模块将问题、支持事实和相关段落输入编码器提取答案跨度和下一跳实体位置的跨度。
S5:迭代S4过程,每次迭代都将历经的答案节点添加到实体图中,根据推理关系,在不同节点之间建立边,计算图的邻接矩阵并对其归一化,将得到的归一化邻接矩阵采用对构建的实体图进行编码(如图2所示)。直到推理到正确的实体或者推理步数达到阈值,迭代结束。
S6:基于得到的图更新表示,将答案分为特殊问题、替代问题和一般问题三种。特殊问题的答案一般由一段特定的文字描述组成,采用两层全连接网络(Full ConnectNetwork,FCN)做预测任务。对于替代问题和一般问题,答案一般是实体本身或者回答是否的问题。将此类问题看作一个二分类问题,采用两个全连接网络做预测。
S7:将训练任务分为Task1和Task2,采用联合训练的方式,先训练一代Task 1,之后Task1和Task2联合训练一代,以此得到最小化损失函数,从而构建管道式的神经网络模型,完成根据自然语言问题从知识库中寻找答案的任务。
S8:试验:针对答案提取和支持的事实预测回答任务,使用精确匹配和部分匹配用于评估模型性能。
目前现有的问答系统大多数只使用了一种技术路线。有些问答系统利用人工编写规则或者构建模板匹配来实现问答,这种技术路线构建的问答系统问答效果并不出色,由于系统只有少量规则和模板,在实际问答中能够回答问题的范围很小,且问答的准确率不能让人满意。有些系统基于社区问答对构建,这种技术路线构建的问答系统只能回答知识库已有的问题。对于特定领域来讲,领域中包含着不同来源的知识,知识的结构也有结构化、半结构化和非结构化几种,因此仅仅基于一种数据来源或者一种结构的知识构建的问答系统在问题覆盖面上可能不够广泛。本发明针对基于机器阅读理解的问答方法中因支持事实不足导致无法推理得到正确答案的问题,引入外部知识库提取更多支持事实;针对在庞大知识库中检索得到过多文档可能导致计算成本很高和引入与问题不相关段落的问题,提出基于TF-IDF的段落筛选方法,通过调整不同检索段落数上限获取最优的模型性能。通过引入外部知识库,提高了模型回答复杂问题的能力。
需要说明的是,但大多数情况下,用户提出的问题并不能仅仅通过一篇文档来回答,需要在多个文档之间检索相关证据并进行推理获得问题的答案。此类需要在多个文档进行推理回答问题的阅读理解方法称为多跳阅读理解。这种方法需要模型检索得到更多支持事实,深度挖掘线索之间的交互,得到嵌入表示。同时基于检索到的答案阶段采用神经网络方法推理得到答案,也就是目前常用的“检索器-阅读器”的方法。但是此方法需要检索器检索到与问题强相关的文本,如果检索器检索到的支持事实一开始就不包含问题的正确答案,那阅读器也就很难给出问题的答案。同时对支持事实检索中可能引入的噪声问题也要加以处理。因此,研究性能较好的检索器也是多跳阅读理解研究中需要解决的问题。
此外,本发明将机器阅读理解的模型分为段落检索模块(即外部知识检索模块)、跨度提取模块、图推理模块和答案预测模块,如图1所示。
具体地,外部知识检索模块用于接收问题,所述外部知识检索模块包括段落筛选器,所述段落筛选器用于从外部知识库的众多文档中检索出与问题相关的段落,形成上下文;跨度提取模块包括编码器和图构造器,所述编码器与所述外部知识检索模块线路相连,用于根据问题和上下文进行交互,得到答案节点,根据答案节点间建立的边,对构建的实体图进行编码,并用于根据问题、支持事实和相关段落提取答案跨度和下一跳实体位置的跨度,再反馈至所述段落筛选器,以使段落筛选器检索出新的相关段落;所述图构造器与所述跨度提取模块相连,用于将接收的问题、问题中提及的实体、从外部知识库中检索到的段落、从段落中提取的答案节点在实体图中进行向量嵌入表示;图推理模块与所述图构造器相连,用于构建实体图,并利用图注意力神经网络进行实体图的更新表示;答案预测模块与所述图推理模块相连,用于根据实体图建立的答案节点和问题之间的语义联系,预测问题的答案。
其中,对于段落筛选器用于从外部知识库的众多文档中检索出与问题相关的段落的数量为两个以上的情况,比较两个段落文本与问题文本的相似度,筛选出相似度高的段落;对于段落筛选器用于从外部知识库的众多文档中检索出与问题相关的段落的数量为一个的情况,则无需筛选。
本发明提出了从外部知识库扩展与问题相关的候选段落的方法,在使用多跳阅读理解模型进行答案推理时,如果在检索阶段得到的与问题相关的段落中并不包含答案所在的段落,在这种情况下,即使模型拥有优秀的推理能力,也无法找到问题的正确答案,本发明通过设置不同检索段落的数量上限,设计实验分析检索段落对实验结果的影响。
在一些具体实施例中,为了估计检索到的段落对支持事实的匹配情况,在HotpotQA full setting数据集上的问答性能实验结果如附图2所示。
其中,EM为完全精确匹配值,精确匹配的意思是,对于答案(QA)提取出的答案和给定的真实答案要完全一样。F1值是精确率和召回率的调和平均值,精确率是指:在提取出答案的所有单词中,包含在给定的真实答案中的比例,召回率是指:在给定的真实答案的所有单词中,包含在提取出的答案中的比例。
在一些具体实施例中,通过从知识库中检索段落,分析检索的段落中是否包含两个正确段落。对应到S2的段落筛选模块的TF-IDF模型,TF-IDF的核心是通过计算问题文本和知识库文本之间的相似度来筛选相关的段落,而至少要有两个正确段落,才能进行比较筛选。如果只有一个段落,则无需筛选,如果没有相关的段落,则即使模型拥有优秀的推理能力,也无法找到问题的正确答案。引入外部知识库,利用TF-IDF模块筛选相关段落的作用,设置不同的F值对段落进行检索,分析支持事实提取F1值的变化,如附图3所示。
在本说明书的描述中,术语“一个实施例”、“一些实施例”、“具体实施例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或实例。而且,描述的具体特征、结构、材料或特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于多跳推理的机器阅读理解语义推理方法,其特征在于,包括如下步骤:
步骤S1,接收问题;
步骤S2,导入或访问外部知识库,基于TF-IDF的段落筛选方法,从外部知识库中检索出与问题相关的段落;
步骤S3,构建实体图,所述实体图用于将接收的问题、问题中提及的实体、从外部知识库中检索到的段落、从段落中提取的答案节点在实体图中进行向量嵌入表示;
步骤S4,将问题、支持事实和相关段落输入编码器,提取答案跨度和下一跳实体位置的跨度;
步骤S5,迭代步骤S4将每次迭代都将历经的答案节点添加到实体图中;并根据推理关系,在答案节点间建立边,获取实体图的邻接矩阵,并对所述邻接矩阵归一化处理,将得到的归一化邻接矩阵对实体图进行编码,直到推理到正确的实体或者推理步数达到设定阈值,迭代结束;
步骤S6,基于得到的实体图,将答案分为分别对应特殊问题、替代问题和一般问题的答案;其中,特殊问题的答案由特定的文字描述组成,用于采用两层全连接网络做预测任务;对于替代问题和一般问题的答案,答案一般是实体本身或者回答是否的问题,将替代问题和一般问题看作一个二分类问题,用于采用两个全连接网络做预测任务;
步骤S7,训练全连接网络,将训练任务分为Task1和Task2,采用联合训练的方式,先训练一代Task 1,之后Task1和Task2联合训练一代,以此得到最小化损失函数,从而构建管道式的神经网络模型,根据所述神经网络模型预测问题的答案。
2.根据权利要求1所述的基于多跳推理的机器阅读理解语义推理方法,其特征在于,
在步骤S2中,根据问题和外部知识库的文本之间的相似度来筛选出至少两个段落。
3.根据权利要求1所述的基于多跳推理的机器阅读理解语义推理方法,其特征在于,
在步骤S5中,迭代次数至少为2。
4.根据权利要求1所述的基于多跳推理的机器阅读理解语义推理方法,其特征在于,
在步骤S7中,联合训练的对象为答案跨度和支持事实。
5.根据权利要求1所述的基于多跳推理的机器阅读理解语义推理方法,其特征在于,还包括:
步骤S8,基于神经网络模型预测答案,并使用精确匹配和部分匹配评估神经网络模型的性能。
6.一种基于多跳推理的机器阅读理解语义推理系统,其特征在于,包括:
外部知识检索模块,用于接收问题,所述外部知识检索模块包括段落筛选器,所述段落筛选器用于从外部知识库的众多文档中检索出与问题相关的段落,形成上下文;
跨度提取模块,包括编码器和图构造器,所述编码器与所述外部知识检索模块线路相连,用于根据问题和上下文进行交互,得到答案节点,根据答案节点间建立的边,对构建的实体图进行编码,并用于根据问题、支持事实和相关段落提取答案跨度和下一跳实体位置的跨度,再反馈至所述段落筛选器,以使段落筛选器检索出新的相关段落;所述图构造器与所述跨度提取模块相连,用于将接收的问题、问题中提及的实体、从外部知识库中检索到的段落、从段落中提取的答案节点在实体图中进行向量嵌入表示;
图推理模块,与所述图构造器相连,用于构建实体图,并利用图注意力神经网络进行实体图的更新表示;
答案预测模块,与所述图推理模块相连,用于根据实体图建立的答案节点和问题之间的语义联系,预测问题的答案。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310231047.8A CN116502648A (zh) | 2023-03-10 | 2023-03-10 | 一种基于多跳推理的机器阅读理解语义推理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310231047.8A CN116502648A (zh) | 2023-03-10 | 2023-03-10 | 一种基于多跳推理的机器阅读理解语义推理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116502648A true CN116502648A (zh) | 2023-07-28 |
Family
ID=87323786
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310231047.8A Pending CN116502648A (zh) | 2023-03-10 | 2023-03-10 | 一种基于多跳推理的机器阅读理解语义推理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116502648A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117744795A (zh) * | 2023-12-08 | 2024-03-22 | 拓元(广州)智慧科技有限公司 | 一种基于大语言模型的多智能体协同知识推理框架与系统 |
-
2023
- 2023-03-10 CN CN202310231047.8A patent/CN116502648A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117744795A (zh) * | 2023-12-08 | 2024-03-22 | 拓元(广州)智慧科技有限公司 | 一种基于大语言模型的多智能体协同知识推理框架与系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111310438B (zh) | 基于多粒度融合模型的中文句子语义智能匹配方法及装置 | |
CN110569353B (zh) | 一种基于注意力机制的Bi-LSTM的标签推荐方法 | |
CN112507699B (zh) | 一种基于图卷积网络的远程监督关系抽取方法 | |
CN110020438A (zh) | 基于序列识别的企业或组织中文名称实体消歧方法和装置 | |
Cai et al. | nCoder+: a semantic tool for improving recall of nCoder coding | |
Del Carpio et al. | Trends in software engineering processes using deep learning: a systematic literature review | |
CN111782961A (zh) | 一种面向机器阅读理解的答案推荐方法 | |
US20220121823A1 (en) | System and method for artificial intelligence driven document analysis, including searching, indexing, comparing or associating datasets based on learned representations | |
CN113505583B (zh) | 基于语义决策图神经网络的情感原因子句对提取方法 | |
CN113312480A (zh) | 基于图卷积网络的科技论文层级多标签分类方法及设备 | |
CN116484024A (zh) | 一种基于知识图谱的多层次知识库构建方法 | |
Arnicans et al. | Semi-automatic generation of a software testing lightweight ontology from a glossary based on the ONTO6 methodology | |
CN115270797A (zh) | 一种基于自训练半监督学习的文本实体抽取方法及系统 | |
CN116502648A (zh) | 一种基于多跳推理的机器阅读理解语义推理方法 | |
Mounce et al. | Knowledge management for more sustainable water systems | |
CN114880307A (zh) | 一种开放教育领域知识的结构化建模方法 | |
CN111444677A (zh) | 基于大数据的阅读模型优化方法、装置、设备及介质 | |
CN117474010A (zh) | 面向电网语言模型的输变电设备缺陷语料库构建方法 | |
CN116974554A (zh) | 代码数据处理方法、装置、计算机设备和存储介质 | |
CN116861913A (zh) | 基于gpt大模型的立场检测方法及相关设备 | |
CN115952266A (zh) | 问题生成方法、装置、计算机设备和存储介质 | |
CN115248780A (zh) | 接口测试用例的生成方法以及装置 | |
CN116151235A (zh) | 文章生成方法、文章生成模型训练方法及相关设备 | |
CN111242520B (zh) | 特征合成模型的生成方法、装置及电子设备 | |
Watson | Deep learning in software engineering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |