CN116361438A - 基于文本-知识扩展图协同推理网络的问答方法及系统 - Google Patents
基于文本-知识扩展图协同推理网络的问答方法及系统 Download PDFInfo
- Publication number
- CN116361438A CN116361438A CN202310333880.3A CN202310333880A CN116361438A CN 116361438 A CN116361438 A CN 116361438A CN 202310333880 A CN202310333880 A CN 202310333880A CN 116361438 A CN116361438 A CN 116361438A
- Authority
- CN
- China
- Prior art keywords
- knowledge
- answer
- questions
- answers
- question
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 89
- 238000012549 training Methods 0.000 claims abstract description 59
- 238000013135 deep learning Methods 0.000 claims abstract description 33
- 239000008186 active pharmaceutical agent Substances 0.000 claims abstract description 26
- 238000002372 labelling Methods 0.000 claims abstract description 7
- 239000013598 vector Substances 0.000 claims description 67
- 239000011159 matrix material Substances 0.000 claims description 66
- 238000004364 calculation method Methods 0.000 claims description 41
- 230000006870 function Effects 0.000 claims description 37
- 230000007480 spreading Effects 0.000 claims description 32
- 238000003892 spreading Methods 0.000 claims description 32
- 230000002452 interceptive effect Effects 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 16
- 230000007246 mechanism Effects 0.000 claims description 14
- 102000002274 Matrix Metalloproteinases Human genes 0.000 claims description 12
- 108010000684 Matrix Metalloproteinases Proteins 0.000 claims description 12
- 230000004927 fusion Effects 0.000 claims description 12
- 238000012512 characterization method Methods 0.000 claims description 10
- 235000008694 Humulus lupulus Nutrition 0.000 claims description 9
- 230000000873 masking effect Effects 0.000 claims description 9
- 238000011176 pooling Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 5
- 238000004422 calculation algorithm Methods 0.000 claims description 4
- 238000013480 data collection Methods 0.000 claims description 4
- 230000003993 interaction Effects 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000013138 pruning Methods 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 9
- 238000004590 computer program Methods 0.000 description 7
- 238000003860 storage Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 235000017166 Bambusa arundinacea Nutrition 0.000 description 1
- 235000017491 Bambusa tulda Nutrition 0.000 description 1
- 241001330002 Bambuseae Species 0.000 description 1
- 235000015334 Phyllostachys viridis Nutrition 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 239000011425 bamboo Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/3332—Query translation
- G06F16/3335—Syntactic pre-processing, e.g. stopword elimination, stemming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Animal Behavior & Ethology (AREA)
- Human Computer Interaction (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种基于文本‑知识扩展图协同推理网络的问答方法及系统,该方法包括以下步骤:步骤A:在问答平台中收集用户的问题以及回答记录,并标注每一个问题‑答案对的真实标签,以此构建训练集DS;步骤B:使用训练集DS以及知识图谱,训练基于文本‑知识扩展图协同推理网络的深度学习网络模型M,以通过模型M来分析给定问题并给出相对应的答案;步骤C:将用户的问题输入到训练好的深度学习网络模型M中,输出匹配的答案。该方法及系统有利于提高对给定问题选择答案的准确性。
Description
技术领域
本发明涉及自然语言处理技术领域,具体涉及一种基于文本-知识扩展图协同推理网络的问答方法及系统。
背景技术
答案选择是智能问答领域的一个重要子任务,旨在利用算法使得计算机能够理解人们输入的问题语义并返回最合适的候选答案,该任务的核心在于问答对之间的语义匹配问题。随着互联网科技水平的提高,通过访问互联网获取知识的方式也在不断的发生改变。从1994年雅虎推出世界上第一个基于目录的检索引擎,为人们提供了一个便捷的方式从互联网获取所需的知识开始,在接下来的二十年里,谷歌、百度、Bing等在线搜索引擎如春笋般涌现。通过问答检索框,人们可以查询到自己想要的问题答案。但是,由于人们对于获取信息的需求日益增长,传统的搜索引擎通过问题关键字匹配来检索相关答案并返回给用户的方式很容易出现信息过载、搜索结果不准确等问题,越来越难以满足用户对于具体问题的解答以及深入交流的需求。
近年来,基于深度学习尤其是基于预训练语言模型的模型方法凭借其端对端的训练和强大的特征提取能力广泛的应用于答案选择任务。通过海量的无标注文本,预训练能够帮助模型学习到潜在的通用语言表征。并且只需要在预训练语言模型的输出之后增加特定的网络层与分类层,并对模型局部微调,便可以直接作用于NLP下游任务,避免了重新训练整个模型,造成资源浪费。目前,研究人员便将研究的重心转移至使用预训练语言模型应用于答案选择任务,提出了MFIN,BERT-GSAMN以及BERT-BIG等模型,这些模型的共同之处都是在利用预训练语言模型得到丰富语义信息的基础上,做进一步的精细语义特征的提取,均取得不错的效果。
图神经网络,一种作用于图域的深度学习方法,由于其出色的性能以及较高的可解释性,近年来也受到了广泛的关注。通过构造图数据结构,表示不同单词之间的连接关系,进行图节点信息的传播与更新。在Tian等人的研究工作中,利用GCN对通过句子距离、单词共现,语义匹配度以及动态注意力等不同视角构造的问答关系图进行建模编码,最后获得聚合多种视角的问答特征表示。
基于知识图谱的答案选择研究工作也取得很多的进展,Yang等人提出一种知识丰富的层次化注意力机制。引入外部知识,语义特征引导生成知识特征,然后渐进式的生成词级、段落级、文档级别的语义特征和知识特征并进行交互融合,但是,知识图谱本质上可以抽象理解为一种图数据结构,依赖图谱中大量结构化知识实体间各种节点关系相连接,因此十分适用于图神经网络来进行知识图谱信息的捕获。同时,现有模型通常都是将文本语义表示和知识实体进行独立的建模,缺少知识与文本之间的交互,导致彼此之间的参数信息无法及时共享,使得文本,知识特征信息存在一定的语义鸿沟,影响模型精度。
发明内容
本发明的目的在于提供一种基于文本-知识扩展图协同推理网络的问答方法及系统,该方法及系统有利于提高对给定问题选择答案的准确性。
为实现上述目的,本发明采用的技术方案是:一种基于文本-知识扩展图协同推理网络的问答方法,包括以下步骤:
步骤A:在问答平台中收集用户的问题以及回答记录,并标注每一个问题-答案对的真实标签,以此构建训练集DS;
步骤B:使用训练集DS以及知识图谱,训练基于文本-知识扩展图协同推理网络的深度学习网络模型M,以通过模型M来分析给定问题并给出相对应的答案;
步骤C:将用户的问题输入到训练好的深度学习网络模型M中,输出匹配的答案。
进一步地,所述步骤B具体包括以下步骤:
步骤B1:对训练集DS中的所有训练样本进行初始编码,从而得到问题、答案文本内容的初始特征Hq、Ha,问题和答案的全局语义特征Hcls,同时从知识图谱对问题、答案文本进行文本-知识匹配以及多跳知识节点扩展查询,将文本匹配的知识节点和扩展节点相连接,得到问题和答案的知识扩展序列Nq和Na,并将知识扩展序列中的每一个知识节点信息映射为连续的低维向量,最终形成问题和答案的知识扩展序列特征Cq、Ca;
步骤B2:将步骤B1中得到的问题和答案的知识扩展序列Nq和Na按照节点的连接关系构成问题和答案的知识匹配-扩展结点结构子图,并转换成对应的l2阶邻接矩阵和l3阶矩阵接着利用K层图注意力网络评估知识匹配-扩展结点结构子图中各节点对语义的理解程度,并将各个节点的特征状态信息进行拼接,得到问题的知识匹配-扩展节点语义特征
步骤B3:将步骤B1中得到的问题和答案的知识扩展序列Nq和Na通过外部解析工具分别构建相应的句法依赖树,并转换为对应的l2阶邻接矩阵和l3阶矩阵接着利用K层图注意力网络得到问题和答案的知识匹配节点上下文语义特征并对特征进行掩码操作以减少语义噪声;
步骤B4:将步骤B1中得到的问题和答案的初始特征Hq、Ha分别利用BiGRU网络进行序列融合得到问题和答案的序列语义特征和将步骤B3中得到的问题和答案的知识匹配节点上下文语义特征分别与对应的序列语义特征和经过交互注意力机制获得问题和答案的文本注意力特征表示和以及知识注意力特征表示和接着将文本注意力特征和与步骤B1中得到的初始特征Hq、Ha,知识注意力特征和与步骤B3中得到的知识匹配节点上下文语义特征两两分别进行残差连接并分别通过前向反馈神经网络得到最终问题和答案的文本协同推理特征和知识协同推理特征和
步骤B5:将步骤B4中得到的问题和答案的文本协同推理特征和分别通过一个多头自注意力机制得到问题和答案的自注意力语义特征和接着通过交互注意力机制将得到的自注意力语义特征和彼此融合得到问题和答案的交互注意力语义特征和之后通过门控机制将问题和答案的交互注意力语义特征和分别与问题和答案的全局语义特征Hcls进行过滤融合,得到问题和答案的多粒度语义特征和
步骤B7:将B6中得到的最终的答案对特征表示Hfinal通过softmax函数得到问题-答案对之间的相关性匹配分数f(q,a)∈[0,1];然后根据目标损失函数loss,通过反向传播方法计算深度学习网络模型中各参数的梯度,并利用随机梯度下降方法更新各参数;
步骤B8:当深度学习网络模型每次迭代产生的损失值变化小于所给定阈值,或者达到最大迭代次数,终止深度学习网络模型的训练过程。
进一步地,所述步骤B1具体包括以下步骤:
步骤B11:对训练集DS进行遍历,对其中的问题和候选答案文本进行分词处理并去除停用词之后,DS中的每一个训练样本表示为ds=(q,a,p);其中,q为问题的文本内容,a为问题对应的候选答案的文本内容;p为问题与答案是否正确对应的标签,p∈[0,1],0表示候选答案为错误答案,1表示候选答案为正确答案;
问题q表示为:
答案a表示为:
问答输入序列表示为:
其中,m和n分别表示问题q和答案a的文本长度;
步骤B13:将Xs输入到BERT模型中,得到BERT模型的第i层输出序列模型最后一层输出序列Hs;根据[CLS]和[SEP]标签在Hs序列中的位置,对问题、答案的初始特征进行切分,从而分别获得问题、答案的初始特征Hq和Ha;将BERT输出的[CLS]标签对应的特征向量视为问题与答案的全局语义d为特征向量的维度;
问题与答案的全局语义Hcls表示为:
Hcls=[CLS]
步骤B14:将问题q和答案a中的每一个单词在知识图谱中进行问文本-知识匹配和多跳节点扩展;首先对问题q中的每一个词在知识图谱中进行文本-知识匹配,获得其对应的知识节点同理获得答案a中每一个词对应的知识节点其次,在多跳扩展知识节点的过程中,根据文本匹配知识节点和知识图谱中节点之间的关系进行多跳的节点选择;将多跳选择的知识节点按照其在知识图谱中的初始化权重大小进行排序,从中选择权重最大的max_n个扩展知识节点;扩展节点和文本匹配知识节点进行连接,形成知识扩展序列;利用知识嵌入将知识扩展序列中的每个知识节点映射为连续的低维向量,最终形成问题q和答案a的知识扩展序列特征Cq,Ca;
其中,问题q知识扩展序列特征Cq表示为:
答案a知识扩展序列特征Ca表示为:
进一步地,所述步骤B2具体包括以下步骤:
步骤B21:将问题和答案的知识扩展序列Nq和Na按照节点之间是否存在连接关系分别构成问题和答案的知识匹配-扩展节点结构子图以获取知识扩展节点和知识匹配节点间的融合信息,并转换为对应的l2阶邻接矩阵和l3阶矩阵
则在每一层图注意力网络中,图节点i的计算更新过程如下:
进一步地,所述步骤B3具体包括以下步骤:
步骤B31:对于问题和答案的知识扩展序列Nq和Na,使用外部解析工具进行句法依赖关系解析,并获得对应的句法依赖树;分别构造问题和答案的知识匹配节点句法依赖子图,并转换为对应的l2阶邻接矩阵和l3阶矩阵
步骤B32:将问题q的知识扩展序列特征Cq中的扩展节点的特征做一个掩码操作,即将扩展节点进行遮蔽,不参与计算;然后将经过掩码操作的知识扩展序列特征Cq作为图的节点特征,利用K层图注意力网络在邻接矩阵上进行图注意力计算,进行图节点特征信息的更新,其中每一层图注意力网络包含X个注意力头;
则在每一层图注意力网络中,图节点i的计算更新过程如下:
进一步地,所述步骤B4具体包括以下步骤:
步骤B42:利用交互注意力机制,将步骤B34得到的问题和答案的知识匹配节点上下文语义特征和分别与步骤B41得到的序列语义特征和计算相关性矩阵,分别得到问题和答案的文本注意力特征表示和以及知识注意力特征表示和
步骤B43:将问题和答案的文本注意力特征和与步骤B13得到问题和答案的初始特征Hq、Ha,问题和答案的知识注意力特征和与问题和答案的知识匹配节点上下文语义特征两两分别进行残差连接,并通过一个前向反馈神经网络对其进行线性变换,从而得到最终问题和答案的文本协同推理特征和知识协同推理特征和
进一步地,所述步骤B5具体包括以下步骤:
其中,MHA表示多头注意力机制,num为并行的头数,Q(query)、k(key)、V(value)均为问题和答案的文本协同推理特征 m为问题q的文本长度;W13,W14,W15,W16为可训练的注意力参数,headi表示第i个注意力函数的输出,i∈[1,num];同理获得答案的自注意力语义特征n为答案a的文本长度;
进一步地,所述步骤B6具体包括以下步骤:
Hfinal表示如下:
进一步地,所述步骤B7具体包括以下步骤:
步骤B71:利用一个softmax函数对最终的问答特征表示Hfinal进行归一化处理,得到问题-答案对之间的相关性匹配分数f(q,a)∈[0,1];
f(q,a)的计算公式如下所示:
f(q,a)=softmax(HfinalW23+b5)
步骤B72:用交叉熵作为损失函数计算损失值,通过梯度优化算法Adam对学习率进行更新,利用反向传播迭代更新模型参数,以最小化损失函数来训练模型;
最小化损失函数L的计算公式如下:
其中f(q,a)i∈[0,1]是由softmax分类器计算出的问题-答案的相关性分数,yi∈[0,1]是二元分类标签。
本发明还提供了一种采用上述方法的基于文本-知识扩展图协同推理网络的问答系统,包括:
数据收集模块,用于在问答平台中收集用户的问题以及回答记录,并标注每一个问题-答案的真实标签,以此构建训练集DS;
文本预处理模块,用于对训练集中的训练样本进行预处理,包括分词处理、去除停用词;
文本编码模块,用于对训练集DS中的所有训练样本进行初始编码,从而得到问题和答案文本内容的初始特征、问答对全局语义特征,同时从知识图谱对问题、答案文本进行文本-知识匹配以及多跳知识节点扩展查询得到问题和答案的知识扩展序列特征;
网络模型训练模块,用于将问题和答案文本的初始特征、问题-答案全局语义特征、问题-答案对的知识匹配节点上下文语义特征以及问题和答案的知识扩展序列特征输入到深度学习网络模型中,得到问答对的最终特征,利用该问答对的最终特征预测答案正确性的概率,并通过与训练集中的真实类别标注作为对比计算损失,以最小化损失为目标来对整个深度学习网络进行训练,得到基于文本-知识扩展图协同推理网络的深度学习网络模型;
答案选择模块,用于为给定问题选择一个正确答案,利用文本-知识扩展图协同推理网络的深度学习网络模型对输入的问题进行分析处理,输出问答对相关性分数最高的候选答案,表示该问题所选择到的正确答案。
与现有技术相比,本发明具有以下有益效果:提供了一种基于文本-知识扩展图协同推理网络的问答方法及系统,该方法及系统构建了基于文本-知识扩展图协同推理网络的深度学习网络模型来对输入的问题进行分析处理,以选择输出匹配的答案,提高了对给定问题选择对应答案的准确性,具有很强的实用性和广阔的应用前景。
附图说明
图1是本发明实施例的方法实现流程图;
图2是本发明实施例中基于文本-知识扩展图协同推理网络的深度学习网络模型的架构图;
图3是本发明实施例的系统结构示意图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
应该指出,以下详细说明都是示例性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
如图1所示,本实施例提供了一种基于文本-知识扩展图协同推理网络的问答方法,包括以下步骤:
步骤A:在问答平台中收集用户的问题以及回答记录,并标注每一个问题-答案对的真实标签,以此构建训练集DS。
步骤B:使用训练集DS以及知识图谱,训练基于文本-知识扩展图协同推理网络的深度学习网络模型M,模型架构如图2所示,以通过模型M来分析给定问题并给出相对应的答案。
步骤C:将用户的问题输入到训练好的深度学习网络模型M中,输出匹配的答案。
在本实施例中,所述步骤B具体包括以下步骤:
步骤B1:对训练集DS中的所有训练样本进行初始编码,从而得到问题、答案文本内容的初始特征Hq、Ha,问题和答案的全局语义特征Hcls,同时从知识图谱对问题、答案文本进行文本-知识匹配以及多跳知识节点扩展查询,将文本匹配的知识节点和扩展节点相连接,得到问题和答案的知识扩展序列Nq和Na,并将知识扩展序列中的每一个知识节点信息映射为连续的低维向量,最终形成问题和答案的知识扩展序列特征Cq、Ca。
在本实施例中,所述步骤B1具体包括以下步骤:
步骤B11:对训练集DS进行遍历,对其中的问题和候选答案文本进行分词处理并去除停用词之后,DS中的每一个训练样本表示为ds=(q,a,p);其中,q为问题的文本内容,a为问题对应的候选答案的文本内容;p为问题与答案是否正确对应的标签,p∈[0,1],0表示候选答案为错误答案,1表示候选答案为正确答案。
问题q表示为:
答案a表示为:
问答输入序列表示为:
其中,m和n分别表示问题q和答案a的文本长度。
步骤B13:将Xs输入到BERT模型中,得到BERT模型的第i层输出序列模型最后一层输出序列Hs;根据[CLS]和[SEP]标签在Hs序列中的位置,对问题、答案的初始特征进行切分,从而分别获得问题、答案的初始特征Hq和Ha;将BERT输出的[CLS]标签对应的特征向量视为问题与答案的全局语义d为特征向量的维度。
问题与答案的全局语义Hcls表示为:
Hcls=[CLS]
步骤B14:将问题q和答案a中的每一个单词在知识图谱中进行问文本-知识匹配和多跳节点扩展;首先对问题q中的每一个词在知识图谱中进行文本-知识匹配,获得其对应的知识节点同理获得答案a中每一个词对应的知识节点其次,在多跳扩展知识节点的过程中,根据文本匹配知识节点和知识图谱中节点之间的关系进行多跳的节点选择;将多跳选择的知识节点按照其在知识图谱中的初始化权重大小进行排序,从中选择权重最大的max_n个扩展知识节点;扩展节点和文本匹配知识节点进行连接,形成知识扩展序列;利用知识嵌入将知识扩展序列中的每个知识节点映射为连续的低维向量,最终形成问题q和答案a的知识扩展序列特征Cq,Ca。
其中,问题q知识扩展序列特征Cq表示为:
答案a知识扩展序列特征Ca表示为:
步骤B2:将步骤B1中得到的问题和答案的知识扩展序列Nq和Na按照节点的连接关系构成问题和答案的知识匹配-扩展结点结构子图,并转换成对应的l2阶邻接矩阵和l3阶矩阵接着利用K层图注意力网络评估知识匹配-扩展结点结构子图中各节点对语义的理解程度,并将各个节点的特征状态信息进行拼接,得到问题的知识匹配-扩展节点语义特征
在本实施例中,所述步骤B2具体包括以下步骤:
步骤B21:将问题和答案的知识扩展序列Nq和Na按照节点之间是否存在连接关系分别构成问题和答案的知识匹配-扩展节点结构子图以获取知识扩展节点和知识匹配节点间的融合信息,并转换为对应的l2阶邻接矩阵和l3阶矩阵
则在每一层图注意力网络中,图节点i的计算更新过程如下:
步骤B3:将步骤B1中得到的问题和答案的知识扩展序列Nq和Na通过外部解析工具分别构建相应的句法依赖树,并转换为对应的l2阶邻接矩阵和l3阶矩阵接着利用K层图注意力网络得到问题和答案的知识匹配节点上下文语义特征并对特征进行掩码操作以减少语义噪声。
在本实施例中,所述步骤B3具体包括以下步骤:
步骤B31:对于问题和答案的知识扩展序列Nq和Na,使用外部解析工具进行句法依赖关系解析,并获得对应的句法依赖树;分别构造问题和答案的知识匹配节点句法依赖子图,并转换为对应的l2阶邻接矩阵和l3阶矩阵
步骤B32:以问题q为例,将问题q的知识扩展序列特征Cq中的扩展节点的特征做一个掩码操作,即将扩展节点进行遮蔽,不参与计算;然后将经过掩码操作的知识扩展序列特征Cq作为图的节点特征,利用K层图注意力网络在邻接矩阵上进行图注意力计算,进行图节点特征信息的更新,其中每一层图注意力网络包含X个注意力头。
则在每一层图注意力网络中,图节点i的计算更新过程如下:
步骤B4:将步骤B1中得到的问题和答案的初始特征Hq、Ha分别利用BiGRU网络进行序列融合得到问题和答案的序列语义特征和将步骤B3中得到的问题和答案的知识匹配节点上下文语义特征分别与对应的序列语义特征和经过交互注意力机制获得问题和答案的文本注意力特征表示和以及知识注意力特征表示和接着将文本注意力特征和与步骤B1中得到的初始特征Hq、Ha,知识注意力特征和与步骤B3中得到的知识匹配节点上下文语义特征两两分别进行残差连接并分别通过前向反馈神经网络得到最终问题和答案的文本协同推理特征和知识协同推理特征和
在本实施例中,所述步骤B4具体包括以下步骤:
步骤B42:利用交互注意力机制,将步骤B34得到的问题和答案的知识匹配节点上下文语义特征和分别与步骤B41得到的序列语义特征和计算相关性矩阵,分别得到问题和答案的文本注意力特征表示和以及知识注意力特征表示和
步骤B43:将问题和答案的文本注意力特征和与步骤B13得到问题和答案的初始特征Hq、Ha,问题和答案的知识注意力特征和与问题和答案的知识匹配节点上下文语义特征两两分别进行残差连接,并通过一个前向反馈神经网络对其进行线性变换,从而得到最终问题和答案的文本协同推理特征和知识协同推理特征和
步骤B5:将步骤B4中得到的问题和答案的文本协同推理特征和分别通过一个多头自注意力机制得到问题和答案的自注意力语义特征和接着通过交互注意力机制将得到的自注意力语义特征和彼此融合得到问题和答案的交互注意力语义特征和之后通过门控机制将问题和答案的交互注意力语义特征和分别与问题和答案的全局语义特征Hcls进行过滤融合,得到问题和答案的多粒度语义特征和
在本实施例中,所述步骤B5具体包括以下步骤:
其中,MHA表示多头注意力机制,num为并行的头数,Q(query)、k(key)、V(value)均为问题和答案的文本协同推理特征 m为问题q的文本长度;W13,W14,W15,W16为可训练的注意力参数,headi表示第i个注意力函数的输出,i∈[1,num];同理可以获得答案的自注意力语义特征n为答案a的文本长度。headi为多头注意力机制中每一个头的计算公式,Q、K,V为headi计算过程中需要传入的参数。而则表示传入的参数。
在本实施例中,所述步骤B6具体包括以下步骤:
Hfinal表示如下:
步骤B7:将B6中得到的最终的答案对特征表示Hfinal通过softmax函数得到问题-答案对之间的相关性匹配分数f(q,a)∈[0,1];然后根据目标损失函数loss,通过反向传播方法计算深度学习网络模型中各参数的梯度,并利用随机梯度下降方法更新各参数。
在本实施例中,所述步骤B7具体包括以下步骤:
步骤B71:利用一个softmax函数对最终的问答特征表示Hfinal进行归一化处理,得到问题-答案对之间的相关性匹配分数f(q,a)∈[0,1]。
f(q,a)的计算公式如下所示:
f(q,a)=softamx(HfinalW23+b5)
步骤B72:用交叉熵作为损失函数计算损失值,通过梯度优化算法Adam对学习率进行更新,利用反向传播迭代更新模型参数,以最小化损失函数来训练模型。
最小化损失函数L的计算公式如下:
其中f(q,a)i∈[0,1]是由softmax分类器计算出的问题-答案的相关性分数,yi∈[0,1]是二元分类标签。
步骤B8:当深度学习网络模型每次迭代产生的损失值变化小于所给定阈值,或者达到最大迭代次数,终止深度学习网络模型的训练过程。
如图3所示,本实施例还提供了采用上述方法的基于文本-知识扩展图协同推理网络的问答系统,包括:数据收集模块、文本预处理模块、文本编码模块、网络模型训练模块和答案选择模块。
所述数据收集模块用于在问答平台中收集用户的问题以及回答记录,并标注每一个问题-答案的真实标签,以此构建训练集DS。
所述文本预处理模块用于对训练集中的训练样本进行预处理,包括分词处理、去除停用词。
所述文本编码模块用于对训练集DS中的所有训练样本进行初始编码,从而得到问题和答案文本内容的初始特征、问答对全局语义特征,同时从知识图谱对问题、答案文本进行文本-知识匹配以及多跳知识节点扩展查询得到问题和答案的知识扩展序列特征。
所述网络模型训练模块用于将问题和答案文本的初始特征、问题-答案全局语义特征、问题-答案对的知识匹配节点上下文语义特征以及问题和答案的知识扩展序列特征输入到深度学习网络模型中,得到问答对的最终特征,利用该问答对的最终特征预测答案正确性的概率,并通过与训练集中的真实类别标注作为对比计算损失,以最小化损失为目标来对整个深度学习网络进行训练,得到基于文本-知识扩展图协同推理网络的深度学习网络模型。
所述答案选择模块用于为给定问题选择一个正确答案,利用文本-知识扩展图协同推理网络的深度学习网络模型对输入的问题进行分析处理,输出问答对相关性分数最高的候选答案,表示该问题所选择到的正确答案。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例。但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。
Claims (10)
1.一种基于文本-知识扩展图协同推理网络的问答方法,其特征在于,包括以下步骤:
步骤A:在问答平台中收集用户的问题以及回答记录,并标注每一个问题-答案对的真实标签,以此构建训练集DS;
步骤B:使用训练集DS以及知识图谱,训练基于文本-知识扩展图协同推理网络的深度学习网络模型M,以通过模型M来分析给定问题并给出相对应的答案;
步骤C:将用户的问题输入到训练好的深度学习网络模型M中,输出匹配的答案。
2.根据权利要求1所述的基于文本-知识扩展图协同推理网络的问答方法,其特征在于,所述步骤B具体包括以下步骤:
步骤B1:对训练集DS中的所有训练样本进行初始编码,从而得到问题、答案文本内容的初始特征Hq、Ha,问题和答案的全局语义特征Hcls,同时从知识图谱对问题、答案文本进行文本-知识匹配以及多跳知识节点扩展查询,将文本匹配的知识节点和扩展节点相连接,得到问题和答案的知识扩展序列Nq和Ha,并将知识扩展序列中的每一个知识节点信息映射为连续的低维向量,最终形成问题和答案的知识扩展序列特征Cq、Ca;
步骤B2:将步骤B1中得到的问题和答案的知识扩展序列Nq和Na按照节点的连接关系构成问题和答案的知识匹配-扩展结点结构子图,并转换成对应的l2阶邻接矩阵和l3阶矩阵接着利用K层图注意力网络评估知识匹配-扩展结点结构子图中各节点对语义的理解程度,并将各个节点的特征状态信息进行拼接,得到问题的知识匹配-扩展节点语义特征
步骤B3:将步骤B1中得到的问题和答案的知识扩展序列Nq和Na通过外部解析工具分别构建相应的句法依赖树,并转换为对应的l2阶邻接矩阵和l3阶矩阵接着利用K层图注意力网络得到问题和答案的知识匹配节点上下文语义特征并对特征进行掩码操作以减少语义噪声;
步骤B4:将步骤B1中得到的问题和答案的初始特征Hq、Ha分别利用BiGRU网络进行序列融合得到问题和答案的序列语义特征和将步骤B3中得到的问题和答案的知识匹配节点上下文语义特征分别与对应的序列语义特征和经过交互注意力机制获得问题和答案的文本注意力特征表示和以及知识注意力特征表示和接着将文本注意力特征和与步骤B1中得到的初始特征Hq、Ha,知识注意力特征和与步骤B3中得到的知识匹配节点上下文语义特征两两分别进行残差连接并分别通过前向反馈神经网络得到问题和答案的文本协同推理特征和知识协同推理特征和
步骤B5:将步骤B4中得到的问题和答案的文本协同推理特征和分别通过一个多头自注意力机制得到问题和答案的自注意力语义特征和接着通过交互注意力机制将得到的自注意力语义特征和彼此融合得到问题和答案的交互注意力语义特征和之后通过门控机制将问题和答案的交互注意力语义特征和分别与问题和答案的全局语义特征Hcls进行过滤融合,得到问题和答案的多粒度语义特征和
步骤B7:将B6中得到的最终的答案对特征表示Hfinal通过softmax函数得到问题-答案对之间的相关性匹配分数f(q,a)∈[0,1];然后根据目标损失函数loss,通过反向传播方法计算深度学习网络模型中各参数的梯度,并利用随机梯度下降方法更新各参数;
步骤B8:当深度学习网络模型每次迭代产生的损失值变化小于所给定阈值,或者达到最大迭代次数,终止深度学习网络模型的训练过程。
3.根据权利要求2所述的基于文本-知识扩展图协同推理网络的问答方法,其特征在于,所述步骤B1具体包括以下步骤:
步骤B11:对训练集DS进行遍历,对其中的问题和候选答案文本进行分词处理并去除停用词之后,DS中的每一个训练样本表示为ds=(q,a,p);其中,q为问题的文本内容,a为问题对应的候选答案的文本内容;p为问题与答案是否正确对应的标签,p∈[0,1],0表示候选答案为错误答案,1表示候选答案为正确答案;
问题q表示为:
答案a表示为:
问答输入序列表示为:
其中,m和n分别表示问题q和答案a的文本长度;
步骤B13:将Xs输入到BERT模型中,得到BERT模型的第i层输出序列模型最后一层输出序列Hs;根据[CLS]和[SEP]标签在Hs序列中的位置,对问题、答案的初始特征进行切分,从而分别获得问题、答案的初始特征Hq和Ha;将BERT输出的[CLS]标签对应的特征向量视为问题与答案的全局语义d为特征向量的维度;
步骤B14:将问题q和答案a中的每一个单词在知识图谱中进行问文本-知识匹配和多跳节点扩展;首先对问题q中的每一个词在知识图谱中进行文本-知识匹配,获得其对应的知识节点同理获得答案a中每一个词对应的知识节点其次,在多跳扩展知识节点的过程中,根据文本匹配知识节点和知识图谱中节点之间的关系进行多跳的节点选择;将多跳选择的知识节点按照其在知识图谱中的初始化权重大小进行排序,从中选择权重最大的max_n个扩展知识节点;扩展节点和文本匹配知识节点进行连接,形成知识扩展序列;利用知识嵌入将知识扩展序列中的每个知识节点映射为连续的低维向量,最终形成问题q和答案a的知识扩展序列特征Cq,Ca;
其中,问题q知识扩展序列特征Cq表示为:
答案a知识扩展序列特征Ca表示为:
4.根据权利要求3所述的基于文本-知识扩展图协同推理网络的问答方法,其特征在于,所述步骤B2具体包括以下步骤:
步骤B21:将问题和答案的知识扩展序列Nq和Na按照节点之间是否存在连接关系分别构成问题和答案的知识匹配-扩展节点结构子图以获取知识扩展节点和知识匹配节点间的融合信息,并转换为对应的l2阶邻接矩阵和l3阶矩阵
则在每一层图注意力网络中,图节点i的计算更新过程如下:
5.根据权利要求4所述的基于文本-知识扩展图协同推理网络的问答方法,其特征在于,所述步骤B3具体包括以下步骤:
步骤B31:对于问题和答案的知识扩展序列Nq和Na,使用外部解析工具进行句法依赖关系解析,并获得对应的句法依赖树;分别构造问题和答案的知识匹配节点句法依赖子图,并转换为对应的l2阶邻接矩阵和l3阶矩阵
步骤B32:将问题q的知识扩展序列特征Cq中的扩展节点的特征做一个掩码操作,即将扩展节点进行遮蔽,不参与计算;然后将经过掩码操作的知识扩展序列特征Cq作为图的节点特征,利用K层图注意力网络在邻接矩阵上进行图注意力计算,进行图节点特征信息的更新,其中每一层图注意力网络包含X个注意力头;
则在每一层图注意力网络中,图节点i的计算更新过程如下:
6.根据权利要求5所述的基于文本-知识扩展图协同推理网络的问答方法,其特征在于,所述步骤B4具体包括以下步骤:
步骤B42:利用交互注意力机制,将步骤B34得到的问题和答案的知识匹配节点上下文语义特征和分别与步骤B41得到的序列语义特征和计算相关性矩阵,分别得到问题和答案的文本注意力特征表示和以及知识注意力特征表示和
步骤B43:将问题和答案的文本注意力特征和与步骤B13得到问题和答案的初始特征Hq、Ha,问题和答案的知识注意力特征和与问题和答案的知识匹配节点上下文语义特征两两分别进行残差连接,并通过一个前向反馈神经网络对其进行线性变换,从而得到最终问题和答案的文本协同推理特征和知识协同推理特征和
7.根据权利要求6所述的基于文本-知识扩展图协同推理网络的问答方法,其特征在于,所述步骤B5具体包括以下步骤:
9.根据权利要求8所述的基于文本-知识扩展图协同推理网络的问答方法,其特征在于,所述步骤B7具体包括以下步骤:
步骤B71:利用一个softmax函数对最终的问答特征表示Hfinal进行归一化处理,得到问题-答案对之间的相关性匹配分数f(q,a)∈[0,1];
f(q,a)的计算公式如下所示:
f(q,a)=softamx(HfinalW23+b5)
步骤B72:用交叉熵作为损失函数计算损失值,通过梯度优化算法Adam对学习率进行更新,利用反向传播迭代更新模型参数,以最小化损失函数来训练模型;
最小化损失函数L的计算公式如下:
其中f(q,a)i∈[0,1]是由softmax分类器计算出的问题-答案的相关性分数,yi∈[0,1]是二元分类标签。
10.一种采用如权利要求1-9任一项所述方法的基于文本-知识扩展图协同推理网络的问答系统,其特征在于,包括:
数据收集模块,用于在问答平台中收集用户的问题以及回答记录,并标注每一个问题-答案的真实标签,以此构建训练集DS;
文本预处理模块,用于对训练集中的训练样本进行预处理,包括分词处理、去除停用词;
文本编码模块,用于对训练集DS中的所有训练样本进行初始编码,从而得到问题和答案文本内容的初始特征、问答对全局语义特征,同时从知识图谱对问题、答案文本进行文本-知识匹配以及多跳知识节点扩展查询得到问题和答案的知识扩展序列特征;
网络模型训练模块,用于将问题和答案文本的初始特征、问题-答案全局语义特征、问题-答案对的知识匹配节点上下文语义特征以及问题和答案的知识扩展序列特征输入到深度学习网络模型中,得到问答对的最终特征,利用该问答对的最终特征预测答案正确性的概率,并通过与训练集中的真实类别标注作为对比计算损失,以最小化损失为目标来对整个深度学习网络进行训练,得到基于文本-知识扩展图协同推理网络的深度学习网络模型;
答案选择模块,用于为给定问题选择一个正确答案,利用文本-知识扩展图协同推理网络的深度学习网络模型对输入的问题进行分析处理,输出问答对相关性分数最高的候选答案,表示该问题所选择到的正确答案。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310333880.3A CN116361438A (zh) | 2023-03-31 | 2023-03-31 | 基于文本-知识扩展图协同推理网络的问答方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310333880.3A CN116361438A (zh) | 2023-03-31 | 2023-03-31 | 基于文本-知识扩展图协同推理网络的问答方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116361438A true CN116361438A (zh) | 2023-06-30 |
Family
ID=86906631
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310333880.3A Pending CN116361438A (zh) | 2023-03-31 | 2023-03-31 | 基于文本-知识扩展图协同推理网络的问答方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116361438A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117610663A (zh) * | 2023-10-19 | 2024-02-27 | 合肥工业大学 | 基于企业披露报告的创新文本特征构造方法和系统 |
CN117764085A (zh) * | 2024-01-11 | 2024-03-26 | 华中师范大学 | 一种基于跨图协同建模的机器阅读理解方法 |
-
2023
- 2023-03-31 CN CN202310333880.3A patent/CN116361438A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117610663A (zh) * | 2023-10-19 | 2024-02-27 | 合肥工业大学 | 基于企业披露报告的创新文本特征构造方法和系统 |
CN117764085A (zh) * | 2024-01-11 | 2024-03-26 | 华中师范大学 | 一种基于跨图协同建模的机器阅读理解方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112667818B (zh) | 融合gcn与多粒度注意力的用户评论情感分析方法及系统 | |
CN111310438B (zh) | 基于多粒度融合模型的中文句子语义智能匹配方法及装置 | |
Abu-El-Haija et al. | Watch your step: Learning node embeddings via graph attention | |
CN110826336B (zh) | 一种情感分类方法、系统、存储介质及设备 | |
CN111538848B (zh) | 一种融合多源信息的知识表示学习方法 | |
CN111274398B (zh) | 一种方面级用户产品评论情感分析方法及系统 | |
Perez-Martin et al. | Improving video captioning with temporal composition of a visual-syntactic embedding | |
CN109271506A (zh) | 一种基于深度学习的电力通信领域知识图谱问答系统的构建方法 | |
CN108229582A (zh) | 一种面向医学领域的多任务命名实体识别对抗训练方法 | |
CN110598005A (zh) | 一种面向公共安全事件的多源异构数据知识图谱构建方法 | |
CN107688870B (zh) | 一种基于文本流输入的深度神经网络的分层因素可视化分析方法及装置 | |
CN112001186A (zh) | 一种利用图卷积神经网络和中文句法的情感分类方法 | |
CN111639252A (zh) | 一种基于新闻-评论关联性分析的虚假新闻识别方法 | |
CN116361438A (zh) | 基于文本-知识扩展图协同推理网络的问答方法及系统 | |
CN112417289B (zh) | 一种基于深度聚类的资讯信息智能推荐方法 | |
CN109063164A (zh) | 一种基于深度学习的智能问答方法 | |
CN112784532B (zh) | 用于短文本情感分类的多头注意力记忆系统 | |
Zhao et al. | Graph convolutional network based on multi-head pooling for short text classification | |
CN112232087A (zh) | 一种基于Transformer的多粒度注意力模型的特定方面情感分析方法 | |
CN112988917A (zh) | 一种基于多种实体上下文的实体对齐方法 | |
CN116028604A (zh) | 一种基于知识增强图卷积网络的答案选择方法及系统 | |
CN114332519A (zh) | 一种基于外部三元组和抽象关系的图像描述生成方法 | |
CN117648984A (zh) | 一种基于领域知识图谱的智能问答方法及系统 | |
CN117235216A (zh) | 一种基于异构知识融合的知识推理方法 | |
CN117763363A (zh) | 基于知识图谱与提示学习的跨网络学术社区资源推荐方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |