CN114860952A - 一种基于数据统计和知识指导的图拓扑学习方法及系统 - Google Patents

一种基于数据统计和知识指导的图拓扑学习方法及系统 Download PDF

Info

Publication number
CN114860952A
CN114860952A CN202210464244.XA CN202210464244A CN114860952A CN 114860952 A CN114860952 A CN 114860952A CN 202210464244 A CN202210464244 A CN 202210464244A CN 114860952 A CN114860952 A CN 114860952A
Authority
CN
China
Prior art keywords
knowledge
graph topology
graph
text data
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210464244.XA
Other languages
English (en)
Inventor
王华珍
陈坚
刘晓聪
何霆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huaqiao University
Original Assignee
Huaqiao University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huaqiao University filed Critical Huaqiao University
Priority to CN202210464244.XA priority Critical patent/CN114860952A/zh
Publication of CN114860952A publication Critical patent/CN114860952A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Multimedia (AREA)
  • Operations Research (AREA)
  • Medical Informatics (AREA)
  • Algebra (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开一种基于数据统计和知识指导的图拓扑学习方法及系统,能在有监督下游任务下从文本数据中学习到图拓扑,方法包括:输入文本数据,获取文本数据中的实体作为图拓扑的节点,根据历史文本数据计算节点间的条件概率,构建初始图拓扑的邻接矩阵。其次,基于领域知识图谱构建出每份文本数据的知识注意网络。最后,将初始图拓扑的邻接矩阵输入到DK_Transformer(Data and Knowledge drivenTransformer)模型中,并以知识注意网络为专家知识,联合注意力机制来学习出适应下游任务的图拓扑。本方面能有效解决现有基于文本数据的图拓扑构建方法仅考虑数据统计信息、未充分利用知识和无法适应下游任务等问题。

Description

一种基于数据统计和知识指导的图拓扑学习方法及系统
技术领域
本发明涉及自然语言处理与图深度学习领域,特别是指一种基于数据统计和知识指导的图拓扑学习方法及系统。
背景技术
图模型因其强大的数据融合、分析和推理能力成为近年来的热点研究。从实际场景数据中获取符合现实世界的图数据是图模型研究的前提。图拓扑可传达关于实际场景数据的重要洞察,其向量表示可提高各种下游任务的性能。但通过对基于文本数据的图拓扑构建研究的综合分析,发现现有方法的共性缺陷,一是现有方法仅根据数据统计信息或根据依存句法分析来构建出图拓扑,没有充分利用该领域积累的丰富知识;二是构建的图拓扑一般是预定义的静态图,无法适应下游任务。因此,如何对实际场景的文本数据进行图拓扑学习,得到适应于下游任务的图拓扑是研究的重点。
发明内容
本发明的主要目的在于克服现有技术中的上述缺陷,提出一种基于数据统计和知识指导的图拓扑学习方法及系统,实现在有监督下游任务下从文本数据中学习到符合需求的图拓扑。
本发明采用如下技术方案:
一方面,一种基于数据统计和知识指导的图拓扑学习方法,其特征在于,包括如下步骤:
步骤1、接收输入的文本数据,获取文本数据中的实体作为图拓扑的节点,根据历史文本数据计算节点间的条件概率,构建初始图拓扑的邻接矩阵;
步骤2、基于领域知识图谱构建出每份文本数据的知识注意网络;
步骤3、将初始图拓扑的邻接矩阵输入到DK_Transformer模型中,并以知识注意网络为专家知识,联合注意力机制学习出适应下游任务的图拓扑。
优选的,所述步骤1具体包括:
步骤1.1、接收输入样本量为N的文本数据D={d1,d2,…,dN},获取每份文本数据d中的实体集合E={e1,e2,…,enum},将其作为对应图拓扑的节点集合V={v1,v2,…,v|V|},其中num为实体集合的个数,|V|为每个图拓扑的节点个数;若num=|V|,则将全部实体作为图拓扑的节点;若num>|V|,则删除节点索引大于|V|的实体;若num<|V|,则将节点索引大于num而小于等于|V|的空节点用特殊编码填充;
步骤1.2、根据步骤1.1确定的图拓扑的节点集合V,基于所有文本数据D计算任意两个节点vi和vj(i,j=1,2,..,|V|)的条件概率作为边权值aij,即vj在vi出现的条件下出现的概率p(vj|vi),其计算公式为:
Figure BDA0003623082150000021
获得基于条件概率的邻接矩阵P,表示为:
Figure BDA0003623082150000022
步骤1.3、将步骤1.2得到的邻接矩阵P进行归一化得到归一化邻接矩阵
Figure BDA0003623082150000023
优选的,所述步骤2具体包括:
根据步骤1确定的图拓扑的节点集合V,从领域知识图谱中获取这些节点在该知识图谱中的连接关系,从而为每份文本数据d构建一个知识注意网络M,计算方法如下:
Figure BDA0003623082150000024
其中,u为vi和vj共同祖先的个数,l为vi到vj的路径条数。
优选的,所述步骤3具体包括:
步骤3.1、将步骤1确定的图拓扑的节点集合V进行向量嵌入,其中空节点的向量置0,得到图中节点的初始特征矩阵X(0)
步骤3.2、将步骤1和步骤3.1的结果,即图拓扑的归一化邻接矩阵
Figure BDA0003623082150000025
和图中节点的初始特征矩阵X(0)输入到DK_Transformer模型的第一个block模块中进行学习;
步骤3.3、将步骤3.2的输出送入到DK_Transformer模型的n个block模块中,使用步骤2获得的知识注意网络M为专家知识,联合DK_Transformer模型的注意力矩阵S指导图拓扑学习,最终获得学习到的图拓扑的归一化邻接矩阵
Figure BDA0003623082150000026
当n=1时,
Figure BDA0003623082150000027
当n>1时,
Figure BDA0003623082150000031
其中,softmax为归一化指数函数,
Figure BDA0003623082150000032
为DK_Transformer模型第n个block模块的注意力矩阵S;
Figure BDA0003623082150000033
Figure BDA0003623082150000034
分别表示DK_Transformer第n个block模块的Query向量和Key向量;
Figure BDA0003623082150000035
Figure BDA0003623082150000036
分别表示DK_Transformer第n个block模块中可学习的矩阵参数,X(n-1)为第n-1个block模块中节点的特征矩阵;d是
Figure BDA0003623082150000037
列的维度;
步骤3.4、计算DK_Transformer模型在图拓扑学习的损失Lreg
当n=1时,
Figure BDA0003623082150000038
当n>1时,
Figure BDA0003623082150000039
其中,DKL为KL散度,
Figure BDA00036230821500000310
矩阵为DK_Transformer第n个block模块输出的归一化邻接矩阵
Figure BDA00036230821500000311
的微调矩阵。即标记知识注意网络M中非零值的位置索引,并在归一化邻接矩阵
Figure BDA00036230821500000312
的对应位置中保留这些非零值,从而形成微调矩阵
Figure BDA00036230821500000313
步骤3.5、计算DK_Transformer模型下游任务的损失Lmain
Figure BDA00036230821500000314
其中,下游任务可为二分类任务,损失函数为二分类交叉熵,N为文本数据的总样本数,yi是第i个文本数据的标签,
Figure BDA00036230821500000315
是第i个文本数据的预测结果;
步骤3.6、根据步骤3.4和步骤3.5的结果,综合计算DK_Transformer模型的总损失函数L:
Figure BDA00036230821500000316
其中,通过正则化系数λ来平衡下游任务的损失Lmain和图拓扑学习的损失Lreg
步骤3.7、最小化所述总损失函数L,更新网络参数直到达到最大迭代次数T,得到训练好的DK_Transformer模型;
步骤3.8、输入一条测试文本数据testd到训练好的DK_Transformer模型中,预测输出图拓扑的邻接矩阵
Figure BDA00036230821500000317
和下游任务的结果
Figure BDA00036230821500000318
另一方面,一种基于数据统计和知识指导的图拓扑学习系统,包括:
构建初始图拓扑的邻接矩阵模块,用于接收输入的文本数据,获取文本数据中的实体作为图拓扑的节点,根据历史文本数据计算节点间的条件概率,构建初始图拓扑的邻接矩阵;
构建知识注意网络模块,用于基于领域知识图谱构建出每份文本数据的知识注意网络;
图拓扑学习模块,用于将初始图拓扑的邻接矩阵输入到DK_Transformer模型中,并以知识注意网络为专家知识,联合注意力机制学习出适应下游任务的图拓扑。
由上述对本发明的描述可知,与现有技术相比,本发明具有如下有益效果:
本发明利用数据统计信息和领域知识指导可以从一份实际场景的文本数据中学习到一个对应的图拓扑,一方面,图拓扑可传达关于实际场景数据的重要洞察,清晰地反映数据的结构化关联信息;另一方面,利用图拓扑进行机器学习可以显著提升下游任务的预测性能。
附图说明
图1为本发明的基于数据统计和知识指导的图拓扑学习方法的流程图;
图2是本发明的基于数据统计和知识指导的图拓扑学习的研究框架图;
图3是本发明的DK_Transformer算法伪代码示意图;
图4是本发明的DK_Transformer模型框架图;
图5是本发明的图拓扑学习可视化示意图;
图6是本发明的基于数据统计和知识指导的图拓扑学习系统的结构框图。
具体实施方式
下面结合具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
参见图1和图2,本发明的基于数据统计和知识指导的图拓扑学习方法,包括以下步骤:
步骤1、接收输入的文本数据,获取文本数据中的实体作为图拓扑的节点,根据历史文本数据计算节点间的条件概率,构建初始图拓扑的邻接矩阵;
步骤2、基于领域知识图谱构建出每份文本数据的知识注意网络;
步骤3、将初始图拓扑的邻接矩阵输入到DK_Transformer模型中,并以知识注意网络为专家知识,联合注意力机制来学习出适应下游任务的图拓扑。
具体的,DK_Transformer算法伪代码示意图和DK_Transformer模型框架图分别参见图3和图4所示。
如下以儿科中文电子病历的疾病预测任务为例,目标是将从每份电子病历数据学习到一个符合需求的图拓扑,同时根据图拓扑预测患者是否被诊断为急性上呼吸道感染。这是一个二分类任务,在收集的样本量N=144170条的电子病历数据集。采用结巴分词工具对电子病历文本进行分词,从分词后的结果中去除停用词等无医学意义的词后,将其作为图拓扑的节点。
所述步骤1具体包括:
步骤1.1、输入样本量为N=144170的电子病历文本D={d1,d2,…,d144170},获取每份电子病历文本d中的实体集合E={e1,e2,…,enum},将其作为对应图拓扑的节点集合V={v1,v2,…,v|V|},其中num为实体集合的个数,|V|为每个图拓扑的节点个数,这里|V|=150。若num=|V|,则将全部实体作为图拓扑的节点;若num>|V|,则删除节点索引大于|V|的实体;若num<|V|,则将节点索引大于num而小于等于|V|的空节点用特殊编码填充;
步骤1.2、根据步骤1.1确定的图拓扑的节点集合V,基于所有电子病历数据D计算任意两个节点vi和vj(i,j=1,2,..,|V|)的条件概率作为边权值aij,即vj在vi出现的条件下出现的概率p(vj|vi),其计算公式为:
Figure BDA0003623082150000051
获得基于条件概率的邻接矩阵P,表示为:
Figure BDA0003623082150000052
步骤1.3、将步骤1.2得到的邻接矩阵P进行归一化得到归一化邻接矩阵
Figure BDA0003623082150000053
所述步骤2具体包括:
步骤2、根据步骤1确定的图拓扑的节点集合V,从医学知识图谱CMeKG中获取这些节点在该知识图谱中的连接关系,从而为每份电子病历d构建一个知识注意网络M,计算方法如下为:
Figure BDA0003623082150000061
其中,u为vi和vj共同祖先的个数,l为vi到vj的路径条数。
所述步骤3具体包括:
步骤3.1、将步骤1确定的图拓扑的节点集合V进行向量嵌入,其中空节点的向量置0,得到向量维度为128的节点初始特征矩阵X(0)
步骤3.2、将步骤1和步骤3.1的结果,即图拓扑的归一化邻接矩阵
Figure BDA0003623082150000062
和节点的初始特征矩阵X(0)输入到DK_Transformer模型的第一个block模块(不使用注意力矩阵)中进行学习;
步骤3.3、将步骤3.2的输出送入到DK_Transformer模型的n个block模块中(除第一个block模块外),设置n=4;同时使用步骤2获得的知识注意网络M为专家知识,联合DK_Transformer模型的注意力矩阵S指导图拓扑学习,最终获得学习到的图拓扑的归一化邻接矩阵
Figure BDA0003623082150000063
当n=1时,
Figure BDA0003623082150000064
当n>1时,
Figure BDA0003623082150000065
其中,softmax为归一化指数函数,
Figure BDA0003623082150000066
为DK_Transformer模型第n个block模块的注意力矩阵S;
Figure BDA0003623082150000067
Figure BDA0003623082150000068
分别表示DK_Transformer第n个block模块的Query向量和Key向量;
Figure BDA0003623082150000069
Figure BDA00036230821500000610
分别表示DK_Transformer第n个block模块中可学习的矩阵参数,X(n-1)为第n-1个block模块中节点的特征矩阵;d是
Figure BDA00036230821500000611
列的维度;
步骤3.4、计算DK_Transformer模型在图拓扑学习的损失Lreg
当n=1时,
Figure BDA00036230821500000612
当n>1时,
Figure BDA00036230821500000613
其中,DKL为KL散度,
Figure BDA0003623082150000071
矩阵为DK_Transformer第n个block模块输出的归一化邻接矩阵
Figure BDA0003623082150000072
的微调矩阵。即标记知识注意网络M中非零值的位置索引,并在归一化邻接矩阵
Figure BDA0003623082150000073
的对应位置中保留这些非零值,从而形成微调矩阵
Figure BDA0003623082150000074
步骤3.5、计算DK_Transformer模型下游任务的损失Lmain
Figure BDA0003623082150000075
其中,下游任务为二分类的风险预测任务,损失函数为二分类交叉熵,N为电子病历的总样本数,yi是第i个电子病历样本的所属类别,
Figure BDA0003623082150000076
是第i个电子病历样本的预测值。
步骤3.6、根据步骤3.4和步骤3.5的结果,综合计算DK_Transformer模型的总损失函数L:
Figure BDA0003623082150000077
其中,通过正则化系数λ来平衡下游任务的损失Lmain和图拓扑学习的损失Lreg,这里λ=0.1。
步骤3.7、最小化总损失函数L(公式7),更新网络参数直到达到最大迭代次数T=1000,得到训练好的DK_Transformer模型。实验中以8:1:1的比例将中文电子病历数据集随机划分为训练集、验证集和测试集。该模型在训练集上用Adam优化方法进行训练,学习速率设置为0.0001,dropout设置为0.5,minibatch设置为64;
步骤3.8、输入一条测试电子病历数据testd到训练好的DK_Transformer模型中,可预测输出图拓扑的邻接矩阵
Figure BDA0003623082150000078
和下游任务的结果
Figure BDA0003623082150000079
为了验证DK_Transformer模型的有效性,采用了三类基线模型:第一类是基于文本数据的CNN(Convolutional Neural Network)和LSTM(Long Short-Term Memory)非图算法,第二类是已有的基于图数据的图算法GCT(Graph Convolutional Transformer)和GCN(Graph Convolutional Network),第三类是DK_Transformer消融实验所涉及的模型,包括Transformer、Transformer(P,)、Transformer(,M)。所有基线模型的详细说明如表1所示。DK_Transformer模型与基线模型的实验对比结果详见表2。并使用AUROC(Area Under theReceiver Operating Characteristic Curve)作为评价指标来评估模型的性能。
表1基线模型设置
Figure BDA0003623082150000081
表2模型在中文电子病历数据集疾病预测任务中的性能
Figure BDA0003623082150000082
Figure BDA0003623082150000091
另外,使用echar技术对图拓扑进行可视化,图5展示了一份中文电子病历数据(初步诊断为患有急性上呼吸道感染)在经过DK_Transformer模型的图拓扑学习后所得到的图拓扑。
至此,基于数据统计和知识指导的图拓扑学习方法全部结束。不难发现,本发明可将实际场景的文本数据中转换为结构化的图拓扑,并利用图拓扑进行机器学习有效提升了下游任务的性能。
参见图6所示,本发明一种基于数据统计和知识指导的图拓扑学习系统,包括:
构建初始图拓扑的邻接矩阵模块601,用于接收输入的文本数据,获取文本数据中的实体作为图拓扑的节点,根据历史文本数据计算节点间的条件概率,构建初始图拓扑的邻接矩阵;
构建知识注意网络模块602,用于基于领域知识图谱构建出每份文本数据的知识注意网络;
图拓扑学习模块603,用于将初始图拓扑的邻接矩阵输入到DK_Transformer模型中,并以知识注意网络为专家知识,联合注意力机制学习出适应下游任务的图拓扑。
一种基于数据统计和知识指导的图拓扑学习系统的具体实现同一种基于数据统计和知识指导的图拓扑学习方法,本实施例不再重复说明。
上述仅为本发明的具体实施方式,但本发明的设计构思并不局限于此,凡利用此构思对本发明进行非实质性的改动,均应属于侵犯本发明保护范围的行为。

Claims (5)

1.一种基于数据统计和知识指导的图拓扑学习方法,其特征在于,包括如下步骤:
步骤1、接收输入的文本数据,获取文本数据中的实体作为图拓扑的节点,根据历史文本数据计算节点间的条件概率,构建初始图拓扑的邻接矩阵;
步骤2、基于领域知识图谱构建出每份文本数据的知识注意网络;
步骤3、将初始图拓扑的邻接矩阵输入到DK_Transformer模型中,并以知识注意网络为专家知识,联合注意力机制学习出适应下游任务的图拓扑。
2.根据权利要求1所述的基于数据统计和知识指导的图拓扑学习方法,其特征在于,所述步骤1具体包括:
步骤1.1、接收输入样本量为N的文本数据D={d1,d2,...,dN},获取每份文本数据d中的实体集合E={e1,e2,...,enum},将其作为对应图拓扑的节点集合V={v1,v2,...,v|V|},其中num为实体集合的个数,|V|为每个图拓扑的节点个数;若num=|V|,则将全部实体作为图拓扑的节点;若num>|V|,则删除节点索引大于|V|的实体;若num<|V|,则将节点索引大于num而小于等于|V|的空节点用特殊编码填充;
步骤1.2、根据步骤1.1确定的图拓扑的节点集合V,基于所有文本数据D计算任意两个节点vi和vj(i,j=1,2,..,|V|)的条件概率作为边权值aij,即vj在vi出现的条件下出现的概率p(vj|vi),其计算公式为:
Figure FDA0003623082140000011
获得基于条件概率的邻接矩阵P,表示为:
Figure FDA0003623082140000012
步骤1.3、将步骤1.2得到的邻接矩阵P进行归一化得到归一化邻接矩阵
Figure FDA0003623082140000014
3.根据权利要求2所述的基于数据统计和知识指导的图拓扑学习方法,其特征在于,所述步骤2具体包括:
根据步骤1确定的图拓扑的节点集合V,从领域知识图谱中获取这些节点在该知识图谱中的连接关系,从而为每份文本数据d构建一个知识注意网络M,计算方法如下:
Figure FDA0003623082140000013
其中,u为vi和vj共同祖先的个数,l为vi到vj的路径条数。
4.根据权利要求3所述的基于数据统计和知识指导的图拓扑学习方法,其特征在于,所述步骤3具体包括:
步骤3.1、将步骤1确定的图拓扑的节点集合V进行向量嵌入,其中空节点的向量置0,得到图中节点的初始特征矩阵X(0)
步骤3.2、将步骤1和步骤3.1的结果,即图拓扑的归一化邻接矩阵
Figure FDA00036230821400000215
和图中节点的初始特征矩阵X(0)输入到DK_Transformer模型的第一个block模块中进行学习;
步骤3.3、将步骤3.2的输出送入到DK_Transformer模型的n个block模块中,使用步骤2获得的知识注意网络M为专家知识,联合DK_Transformer模型的注意力矩阵S指导图拓扑学习,最终获得学习到的图拓扑的归一化邻接矩阵
Figure FDA00036230821400000216
当n=1时,
Figure FDA0003623082140000021
当n>1时,
Figure FDA0003623082140000022
其中,softmax为归一化指数函数,
Figure FDA0003623082140000023
为DK_Transformer模型第n个block模块的注意力矩阵S;
Figure FDA0003623082140000024
Figure FDA0003623082140000025
分别表示DK_Transformer第n个block模块的Query向量和Key向量;
Figure FDA0003623082140000026
Figure FDA0003623082140000027
分别表示DK_Transformer第n个block模块中可学习的矩阵参数,X(n-1)为第n-1个block模块中节点的特征矩阵;d是
Figure FDA0003623082140000028
列的维度;
步骤3.4、计算DK_Transformer模型在图拓扑学习的损失Lreg
当n=1时,
Figure FDA0003623082140000029
当n>1时,
Figure FDA00036230821400000210
其中,DKL为KL散度,
Figure FDA00036230821400000211
矩阵为DK_Transformer第n个block模块输出的归一化邻接矩阵
Figure FDA00036230821400000212
的微调矩阵,即标记知识注意网络M中非零值的位置索引,并在归一化邻接矩阵
Figure FDA00036230821400000213
的对应位置中保留这些非零值,从而形成微调矩阵
Figure FDA00036230821400000214
步骤3.5、计算DK_Transformer模型下游任务的损失Lmain
Figure FDA0003623082140000031
其中,下游任务可为二分类任务,损失函数为二分类交叉熵,N为文本数据的总样本数,yi是第i个文本数据的标签,
Figure FDA0003623082140000032
是第i个文本数据的预测结果;
步骤3.6、根据步骤3.4和步骤3.5的结果,综合计算DK_Transformer模型的总损失函数L:
Figure FDA0003623082140000033
其中,通过正则化系数λ来平衡下游任务的损失Lmain和图拓扑学习的损失Lreg
步骤3.7、最小化所述总损失函数L,更新网络参数直到达到最大迭代次数T,得到训练好的DK_Transformer模型;
步骤3.8、输入一条测试文本数据testd到训练好的DK_Transformer模型中,预测输出图拓扑的邻接矩阵
Figure FDA0003623082140000034
和下游任务的结果
Figure FDA0003623082140000035
5.一种基于数据统计和知识指导的图拓扑学习系统,其特征在于,包括:
构建初始图拓扑的邻接矩阵模块,用于接收输入的文本数据,获取文本数据中的实体作为图拓扑的节点,根据历史文本数据计算节点间的条件概率,构建初始图拓扑的邻接矩阵;
构建知识注意网络模块,用于基于领域知识图谱构建出每份文本数据的知识注意网络;
图拓扑学习模块,用于将初始图拓扑的邻接矩阵输入到DK_Transformer模型中,并以知识注意网络为专家知识,联合注意力机制学习出适应下游任务的图拓扑。
CN202210464244.XA 2022-04-29 2022-04-29 一种基于数据统计和知识指导的图拓扑学习方法及系统 Pending CN114860952A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210464244.XA CN114860952A (zh) 2022-04-29 2022-04-29 一种基于数据统计和知识指导的图拓扑学习方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210464244.XA CN114860952A (zh) 2022-04-29 2022-04-29 一种基于数据统计和知识指导的图拓扑学习方法及系统

Publications (1)

Publication Number Publication Date
CN114860952A true CN114860952A (zh) 2022-08-05

Family

ID=82634499

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210464244.XA Pending CN114860952A (zh) 2022-04-29 2022-04-29 一种基于数据统计和知识指导的图拓扑学习方法及系统

Country Status (1)

Country Link
CN (1) CN114860952A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117039889A (zh) * 2023-10-08 2023-11-10 国网江苏省电力有限公司苏州供电分公司 一种基于图注意网络的中压配电网拓扑辨识方法和系统

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108681544A (zh) * 2018-03-07 2018-10-19 中山大学 一种基于图谱拓扑结构和实体文本描述的深度学习方法
CN111008337A (zh) * 2019-11-06 2020-04-14 武汉大学 一种基于三元特征的深度注意力谣言鉴别方法及装置
CN111709518A (zh) * 2020-06-16 2020-09-25 重庆大学 一种基于社区感知和关系注意力的增强网络表示学习的方法
CN112466462A (zh) * 2020-11-26 2021-03-09 华侨大学 一种基于图深度学习的emr信息关联及演化方法
CN112487143A (zh) * 2020-11-30 2021-03-12 重庆邮电大学 一种基于舆情大数据分析的多标签文本分类方法
CN112925908A (zh) * 2021-02-19 2021-06-08 东北林业大学 一种基于Attention的图注意力网络的文本分类方法及系统
CN112966706A (zh) * 2020-12-11 2021-06-15 天津大学 一种基于图注意力机制的多层网络表示学习方法
CN113254663A (zh) * 2021-04-21 2021-08-13 浙江工业大学 一种融合图卷积与翻译模型的知识图谱联合表示学习方法
US20210390257A1 (en) * 2020-06-12 2021-12-16 Beijing Baidu Netcom Science And Technology Co., Ltd. Method, apparatus, device, and storage medium for learning knowledge representation
CN113836319A (zh) * 2021-09-30 2021-12-24 福州大学 融合实体邻居的知识补全方法及系统

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108681544A (zh) * 2018-03-07 2018-10-19 中山大学 一种基于图谱拓扑结构和实体文本描述的深度学习方法
CN111008337A (zh) * 2019-11-06 2020-04-14 武汉大学 一种基于三元特征的深度注意力谣言鉴别方法及装置
US20210390257A1 (en) * 2020-06-12 2021-12-16 Beijing Baidu Netcom Science And Technology Co., Ltd. Method, apparatus, device, and storage medium for learning knowledge representation
CN111709518A (zh) * 2020-06-16 2020-09-25 重庆大学 一种基于社区感知和关系注意力的增强网络表示学习的方法
CN112466462A (zh) * 2020-11-26 2021-03-09 华侨大学 一种基于图深度学习的emr信息关联及演化方法
CN112487143A (zh) * 2020-11-30 2021-03-12 重庆邮电大学 一种基于舆情大数据分析的多标签文本分类方法
CN112966706A (zh) * 2020-12-11 2021-06-15 天津大学 一种基于图注意力机制的多层网络表示学习方法
CN112925908A (zh) * 2021-02-19 2021-06-08 东北林业大学 一种基于Attention的图注意力网络的文本分类方法及系统
CN113254663A (zh) * 2021-04-21 2021-08-13 浙江工业大学 一种融合图卷积与翻译模型的知识图谱联合表示学习方法
CN113836319A (zh) * 2021-09-30 2021-12-24 福州大学 融合实体邻居的知识补全方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117039889A (zh) * 2023-10-08 2023-11-10 国网江苏省电力有限公司苏州供电分公司 一种基于图注意网络的中压配电网拓扑辨识方法和系统
CN117039889B (zh) * 2023-10-08 2024-01-23 国网江苏省电力有限公司苏州供电分公司 一种基于图注意网络的中压配电网拓扑辨识方法和系统

Similar Documents

Publication Publication Date Title
CN112712118B (zh) 一种面向医疗文本数据的过滤方法及系统
CN108415953B (zh) 一种基于自然语言处理技术的不良资产经营知识管理方法
CN112380325B (zh) 基于联合知识嵌入模型和事实记忆网络的知识图谱问答系统
CN112800776B (zh) 双向gru关系抽取数据处理方法、系统、终端、介质
CN113486667A (zh) 一种基于实体类型信息的医疗实体关系联合抽取方法
CN110334208B (zh) 基于贝叶斯信念网络的lkj故障预测诊断方法和系统
CN114218389A (zh) 一种基于图神经网络的化工制备领域长文本分类方法
CN115796181A (zh) 一种针对化工领域的文本关系抽取方法
CN116342167B (zh) 基于序列标注命名实体识别的智能成本度量方法和装置
CN116484024A (zh) 一种基于知识图谱的多层次知识库构建方法
CN117149974A (zh) 一种子图检索优化的知识图谱问答方法
CN115203406A (zh) 一种基于RoBERTa模型的长文本信息立场检测方法
CN115526236A (zh) 一种基于多模态对比学习的文本网络图分类方法
CN116383399A (zh) 一种事件舆情风险预测方法及系统
CN113779988A (zh) 一种通信领域过程类知识事件抽取方法
CN115359799A (zh) 语音识别方法、训练方法、装置、电子设备及存储介质
CN115511082A (zh) 一种基于图神经网络和强化学习的事实验证方法
CN116822579A (zh) 基于对比学习的疾病分类icd自动编码方法和装置
CN113920379B (zh) 一种基于知识辅助的零样本图像分类方法
CN114742071A (zh) 基于图神经网络的汉越跨语言观点对象识别分析方法
CN114860952A (zh) 一种基于数据统计和知识指导的图拓扑学习方法及系统
CN118036726A (zh) 基于启发式信息和图神经网络的知识图谱链接预测方法
CN113722494A (zh) 一种基于自然语言理解的设备故障定位方法
CN116522912B (zh) 一种包装设计语言模型的训练方法、装置、介质及设备
CN115965020A (zh) 一种面向广域地理信息知识图谱构建的知识抽取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination