CN115269861A - 基于生成式对抗模仿学习的强化学习知识图谱推理方法 - Google Patents
基于生成式对抗模仿学习的强化学习知识图谱推理方法 Download PDFInfo
- Publication number
- CN115269861A CN115269861A CN202210697445.4A CN202210697445A CN115269861A CN 115269861 A CN115269861 A CN 115269861A CN 202210697445 A CN202210697445 A CN 202210697445A CN 115269861 A CN115269861 A CN 115269861A
- Authority
- CN
- China
- Prior art keywords
- sample
- path
- entity
- learning
- paths
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06393—Score-carding, benchmarking or key performance indicator [KPI] analysis
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Economics (AREA)
- Computational Linguistics (AREA)
- Strategic Management (AREA)
- Data Mining & Analysis (AREA)
- Entrepreneurship & Innovation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Educational Administration (AREA)
- General Engineering & Computer Science (AREA)
- Development Economics (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Game Theory and Decision Science (AREA)
- Databases & Information Systems (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明结合生成式对抗模仿学习的方法提出一种基于RLKGR‑GAIL的知识图谱推理算法用于改进现有的基于强化学习的知识图谱路径推理模型。内容主要包括:提出了RLKGR‑GAIL算法,并给出了相应的总体框架图,然后在根据已有的维修文本构建的飞机维修领域知识图谱数据集,并和已有的知识图谱推理算法设置了对照实验,实验结果表明RLKGR‑GAIL模型关系链路预测任务上相较于其他模型都具有一定优势,证明了本文的RLKGR‑GAIL模型的优越性。
Description
技术领域
本发明属于自然语言处理领域。
背景技术
知识图谱推理任务能够在原有知识基础上,辅助推理出新事实、新关系等。面向知识图谱推理最直观的表现就是知识图谱的补全,知识图谱的补全主要围绕关系的补全展开,即根据于图谱中已有的事实或关系推断出未知的事实或关系,通常需要衡量知识图谱的组成元素:实体、关系和图谱结构三个方面的特征信息。
目前,强化学习在推理中获得了不错的效果。强化学习便是将知识图谱多跳推理建模构建成马尔可夫序列决策过程。DeepPath对知识图谱进行简单的采样,训练策略网络;并通过手工设计的奖励函数对策略网络进行再训练。DeepPath的主要任务是给定一个知识图谱中的实体对(head,tail),使模型推理从entity1到entity2的路径评估模型的主要任务是链接预测和事实预测,也就是说DeepPath是通过确定一个三元组是否成立来实现事实判断的。但是DeepPath的奖励函数是手工设定的,这种手工设定的策略可能并不是最优的,并且针对不同的数据集可能需要不同的设置;它的采样方法可能导致策略网络出现过拟合现象;强化学习环境中的状态使用TransE简单地进行表示,表征能力可能不足。MINERVA的任务与DeepPath略有不同,模型的输入是给定的询问(head,relation)(即实体关系对,包含头实体和关系),并且其子任务只包括事实预测,虽然该方法无需预训练,但存在动作空间比较大,导致趋于收敛性较差,因此它们往往需要从头开始进行大量试验才能找到可靠的证据路径,也就导致了训练代价大,以及,在强化学习中有效的反复试验优化要求手动设计奖励函数以适合特定数据集。但是,这样的奖励工程取决于具有领域专业知识的精心设计的人工设计,这在实践中可能会面临很大的挑战。
综上,当前主流的基于强化学习的知识图谱推理算法,无论是Deep Path还是后来的MINERVA都对其奖励函数极为敏感,其中的微小变化可能会导致推理性能出现重大波动。因此,对于不同的数据集,基于强化学习的方法中的奖励函数需要手动调整才能获得良好的性能,这不仅效率低下而且费力,而且难以适应现实世界知识图谱的快速发展。
发明内容
本发明提出一种基于RLKGR-GAIL的知识图谱推理算法。本发明内容如下:(1)提出了RLKGR-GAIL算法,并给出了相应的总体框架图。
(2)在根据飞机维修领域数据集构建出的飞机维修领域知识图谱上,对RLKGR-GAIL模型进行实验。
(3)通过对比实验证明了RLKGR-GAIL算法在关系链路预测任务上有效提高了Hits@1和MRR指标,验证了RLKGR-GAIL算法的优越性,通过消融实验,证明了本模型中各模块的有效性。
附图说明
图1为本发明的算法整体框图。
图2为本发明静态实例路径采样图。
图3为本发明的实验数据集。
图4为本发明的实验配置环境。
图5为本发明的模型参数。
图6为本发明在飞机维修领域知识图谱中链路预测实验结果。
图7为本发明的消融实验结果。
具体实施方式
知识图谱推理任务能够在原有知识基础上,辅助推理出新事实、新关系等。面向知识图谱推理最直观的表现就是知识图谱的补全,知识图谱的补全主要围绕关系的补全展开,即根据于图谱中已有的事实或关系推断出未知的事实或关系,通常需要衡量知识图谱的组成元素:实体、关系和图谱结构三个方面的特征信息。然而和大型商业知识图谱相比,飞机维修领域知识图谱完整度较低,且具有较大稀疏度,这样的飞机维修领域知识图谱应用系统准确性不理想。针对以上存在的问题,我们可以通过运用知识图谱推理算法,对已有知识图谱里面缺失的关系进行推理补全。具体来说就是,针对根据以飞机维修日志相关的文本信息生成的知识图谱,本发明提出基于生成式对抗模仿学习的强化学习知识图谱推理方法(Reinforcement Learning Knowledge Graph Reasoning Method based onGenerative Adversarial Imitation Learning,RLKGR-GAIL)。本发明通过结合生成式对抗模仿学习的方法,实现改进现有的基于强化学习的知识图谱路径推理模型。
本发明对已有的强化学习算法进行改进,目前基于强化学习的知识图谱推理算法存在的问题是:强化学习的奖励函数需要手动调整才能获得良好效果,以及游走路径为找到可靠的证据路径需要消耗大量计算资源。图1所示为本发明知识推理算法流程图,该算法主要包括一个生成式对抗推理模块和演示采样模块。RLKGR-GAIL使用了模仿学习的概念,结合生成对抗网络模仿从知识图谱中自动采样的示例样本来自适应地学习推理策略和奖励函数,而无需手动进行奖励工程,这有利于生成式对抗模仿学习解决了人工调整奖励函数的问题,以及无需专家经验也无需耗费大量计算资源,仍然能很好地自适应学习推理策略。
具体思路如下:通过双向广度优先搜索处理训练样本得到静态示例样本,然后提供语义匹配得到进入鉴别器中的专家示例样本;同时生成器也根据当前知识图谱得到生成路径;然后专家示例样本和生成样本以相同的格式,在提取语义特征后,在鉴别器中进行比对,根据鉴别器的反馈对生成器进行更新,以此往复,直至鉴别器无法区分示例样本和生成样本的语义特征,这样也自适应地就找到了推理策略和奖励函数。
具体步骤如下:
步骤一:示例样本采样
首先,对于每一个查询关系,从飞机维修领域知识图谱中,使用所用正实体对采样候选示例样本,即静态示例样本采样。在知识图谱推理场景中,由于推理链由关系组成,所以说示例样本也是只能由关系路径组成。对于每一个正实体对,使用双向广度优先搜索(bi-directional breadth-first search,BiBFS)来探索两个实体间的最短路径。由于较短的路径倾向于表征两个实体之间更直接的相关性,系统初始化可用到这些较短路径,这样可以保障候选示例样本的质量;至于较长的路径,因为它们更可能包含毫无价值甚至嘈杂的推理步骤,所以用处不大,但考虑到这些较长路径还是具有一些潜在的效用价值,因此训练阶段本发明将它们也纳入学习对象中。由此,得到了一个示例样本集ΩE,这就是静态示例样本采样,而为了与GAIL中鉴别器固定输入维度相适应,选择ΩE中的一个出现频率最高的子集Pe,静态示例样本采样操作流程如图2所示。
之后,为了全面考虑到飞机维修领域知识图谱中每个实体的特定环境,通过考虑实体的拓扑相关性来进行动态示例样本采样。给定一个正实体对(entityhead,entitytail),引入一个包含所有与entityhead直接相关的关系集Rh。对于每一次推理尝试,在智能体开始推理的区域中,智能体“感兴趣的区域”(region of interest,ROI)其实就是Rh这样的一个包含了所有与entityhead直接相关的关系集,而与ROI相关的路径往往与当前实体对更加相关,于是,如下式所示动态示例样本采样就是:
其中ΩE为静态示例样本,以及r1(x)表示关系路径{r1,r2,...,rt,..}中第一个关系。
最后,考虑到飞机维修领域初始知识图谱本身的稀疏性,本发明对静态示例样本中除去动态示例样本后的剩余候选样本CE=ΩE\Ω′E进行与动态示例样本的语义匹配,来扩充示例样本数量。也就是说用每一个动态示例样本查询剩余样本中与其自身有关的其他候选样本,具体实现是提供点积来衡量两个路径嵌入层间的语义匹配程度,如下式所示:
步骤二:生成对抗推理
生成对抗推理模块采用生成式对抗模仿学习GAIL模型,包括生成器和判别器,根据生成式对抗训练从步骤一中提取的示例样本,通过模仿仅由关系路径组成的示例样本的路径级语义来学习推理策略。
生成器网络用于学习生成预测的推理关系路径,可以是所有现有基于强化学习的推理算法中基于策略的智能体,通过GAIL生成器可以在语义空间上,找到更多样化的、和示例样本分布相匹配的证据路径,也就是我们的生成路径。
由于卷积神经网络在自然语言处理领域提取语义特征方面表现出的良好性能,本发明选择CNN来构建鉴别器。由于本部分的鉴别器是利用生成器生成的路径与专家示例样本之间的语义相似性来更新鉴别器自身参数,所以语义的特征提取不可或缺。
对于每一个正实体对,将当前生成器生成的推理路径和对应的示例样本路径整合成一个统一形式:P={x1,x2,...,xN},其中包含了N个关系路径,本发明将其编码为实值矩阵,如下式所示:
对于给定的关系路径x={r1,r2,...,rt,…},如下式所示,编码路径嵌入层x为:
其中每个关系rt∈Rk通过TransE预训练进行实值嵌入。
由此,我们知道了当前生成器生成的推理路径和对应的示例样本路径将被整合成统一形式P的嵌入编码实现,将P输入到鉴别器中,这样就可以得到参数化P语义特征D(p)。具体来说就是,首先通过一个卷积层利用其滑动内核ω∈Rk×N来提取局部特征,其中这种卷积层是通过ReLU非线性激活的,如下式所示这样就可以获得新的特征图:
c=ReLU(Conv(p,ω)+bc)
其中bc为偏差项。
然后,通过一个全连接隐藏层和一个输出层用于进一步的语义特征提取,如下式所示。
D(p)=σ(W2ReLU(W1c))
输出层由sigmoid函数归一化,而其他层由ReLU非线性激活。
步骤三:训练优化:
训练过程中,利用所有正实体对来为模仿学习过程生成示例候选样本ΩE。具体来说就是,对于每一个正实体对,首先需要对应的示例样本路径,这就依靠前文的演示采样模块获得;同时训练过程也需要生成关系路径,而这就需要依靠生成器来实现。随后,将示例样本整合成Pe,生成的路径则根据其有效性从整合成不同的生成路径的有效性其实也就是智能体能否沿当前路径到达目标实体,其中ΩG是所有生成路径的集合。
对于每对整合后的生成路径和示例样本路径〈Pg|Pe〉,通过其损失函数最小化来训练鉴别器D,并希望鉴别器能成为区分Pg和Pe的专家。为了使对抗训练过程更加稳定有效,采用WGAN-GP中的损失函数来更新鉴别器,即如下式所示:
LC=E[D(Pg)]-E[D(Pe)
LD=LC+LP
RG=δgmax{E[D(Pg)]-E[D(Pn)],0}
训练过程即,只对至少比噪声嵌入Pn具有更高期望的部分有效路径给予正奖励,而想要提高训练收敛速率,则需要利用噪声嵌入Pn来过滤掉质量较差的路径。一旦获得正向奖励,使用蒙特卡洛策略梯度最大化预期累积奖励来更新生成器G。
步骤四:实验与分析
(1)实验数据集
本发明的实验数据集来自于收集的维修文本经过实体识别和关系抽取之后的飞机维修初始图谱。对飞机维修初始知识图谱中的实体量、关系量、三元组数量进行统计,统计结果如图3所示。
(2)评价指标
本实验效果采用三个指标来进行评价,分别是:MRR、和Hits@N。
MRR(Mean Reciprocal Ranking)是平均倒数排名指标,通过评分函数对样本中测试集的测试结果进行评分,然后按照评分进行排序,MRR则是这些排名取倒数再求平均值,如下式所示:
其中N为测试三元组集,|N|测试集中三元组数量,ranki为测试集中第i个三元组的排名,由此看出,MRR指标越高的模型效果越好。
Hits@n是描述知识图谱链路预测测试集中得分排名小于n的三元组占测试集所有三元组的比例,如下式所示。
其中II为指示函数,当测试样本得分排名小于n时指示函数值IIx≤n(ranki)为1,否则IIx≤n(ranki)为0;指标Hits@1统计测试集得分排名第一,Hits@10统计测试集中排名前十。
本发明的实验配置环境如图4所示。
(3)模型参数
实验所用的模型参数如图5所示。其中path_length为路径长度,hidden_size为隐藏层大小,embedding_size代表实体与关系的嵌入大小,batch_size则是单轮训练样本数量,β为熵正则化参数,Lambda为移动平均线参数、total_iterations是迭代次数,train_entity_embeddings则是代表训练样本实体嵌入层标志位,train_relation_embeddings为训练样本关系嵌入层标志位。
(4)结果分析
为了能够更直观地表明本发明提出的基于生成式对抗模仿学习的飞机维修知识图谱推理算法的性能和有效性,采用了对比实验的方法,将本发明提出的RLKGR-GAIL模型和TransE、Deep path以及MINERVA进行对比,对照实验结果如图6所示。
与DeepPath模型相比,我们的改进方法在飞机维修知识图谱数据集上,Hit@1,Hit@10,MRR指标分别增加了12.57%,4.99%,8.90%;与基础的MINERVA模型相比,我们的改进方法在飞机维修知识图谱数据集上,Hit@1,Hit@10,MRR分别增加4.45%,0%,1.99%。
由对照实验可以看出,本发明提出的MINERVA(RLKGR-GAIL)在关系链路预测上确实比其他模型具有更好的效果,说明本发明提出的结合生成式对抗模仿学习(GAIL)和强化学习可以在飞机维修知识图谱补全可以取得有效的推理效果。相较于现有的基于强化学习的知识图谱推理算法(Deep Path和MINERVA),本发明提出MINERVA(RLKGR-GAIL)在Hits@1和MRR指标都具有一定优势,这也就验证了基于强化学习的知识图谱推理算法因为无法人工设定最佳奖励函数,而实验效果欠佳,RLKGR-GAIL模型则通过动态自适应学习奖励函数和推理路径克服了这些缺陷。
为了进一步验证本发明提出的RLKGR-GAIL算法的有效性,我们设计了消融实验。消融实验是利用控制变量法的一种实验思路,其目的是验证算法当中各个模块存在的必要性,消融实验结果如图7所示。
消融实验由四组实验组成,主要是针对语义匹配、动态示例采样、以及整个示例采样模块。第一组为取消长尾实体的语义匹配,取而代之的是根据其出现频率,直接从剩余示例样本中选取候选路径;第二组为取消动态示例样本采样,即只采用静态示例样本采样的方式获得示例样本;第三组为取消直接取消模仿学习的示例采样;第四组则是RLKGR-GAIL模型的MRR。
通过消融实验结果可以看出来,在基于模仿学习的条件下,即便只是通过静态采样的方式获得示例样本,也可以提高推理效果;此外,高质量的示例样本对于模仿学习的影响立竿见影,这表明本发明提出的RLKGR-GAIL中语义匹配和拓扑结构滤波在采样模块不可或缺。
Claims (4)
1.本发明提出一种基于生成式对抗模仿学习的强化学习知识图谱推理方法,其特征在于,该算法包括以下步骤:
步骤一:示例样本采样,设计了一个自动采样器来从知识图谱中自动采样示例样本来充当GAIL的专家策略;
步骤二:生成对抗推理,采用生成式对抗模仿学习GAIL模型,包括生成器和判别器,通过生成式对抗训练从步骤一中提取的示例样本中学,通过模仿仅由关系路径组成的示例样本的路径级语义来学习推理策略。
步骤三:训练优化:训练过程中,利用所有正实体对来为模仿学习过程生成示例候选样本ΩE。具体来说就是,对于每一个正实体对,首先需要对应的示例样本路径,这就依靠前文的演示采样模块获得;同时训练过程也需要生成关系路径,而这就需要依靠生成器来实现。随后,将示例样本整合成Pe,生成的路径则根据其有效性从整合成不同的生成路径的有效性其实也就是智能体能否沿当前路径到达目标实体,其中ΩG是所有生成路径的集合。
步骤四:实验与分析
(1)实验数据集
本发明的实验数据集来自于收集的维修文本经过实体识别和关系抽取之后的飞机维修初始图谱。对飞机维修初始知识图谱中的实体量、关系量、三元组数量进行统计。
(2)评价指标
本实验效果采用三个指标来进行评价,分别是:MRR、和Hits@N。
MRR(Mean Reciprocal Ranking)是平均倒数排名指标,通过评分函数对样本中测试集的测试结果进行评分,然后按照评分进行排序,MRR则是这些排名取倒数再求平均值,如下式所示:
其中N为测试三元组集,|N|测试集中三元组数量,ranki为测试集中第i个三元组的排名,由此看出,MRR指标越高的模型效果越好。
Hits@n是描述知识图谱链路预测测试集中得分排名小于n的三元组占测试集所有三元组的比例,如下式所示。
其中II为指示函数,当测试样本得分排名小于n时指示函数值IIx≤n(ranki)为1,否则IIx≤n(ranki)为0;指标Hits@1统计测试集得分排名第一,Hits@10统计测试集中排名前十。
(3)模型参数
path_length为路径长度,hidden_size为隐藏层大小,embedding_size代表实体与关系的嵌入大小,batch_size则是单轮训练样本数量,β为熵正则化参数,Lambda为移动平均线参数、total_iterations是迭代次数,train_entity_embeddings则是代表训练样本实体嵌入层标志位,train_relation_embeddings为训练样本关系嵌入层标志位。
(4)结果分析
为了能够更直观地表明本发明提出的基于生成式对抗模仿学习的飞机维修知识图谱推理算法的性能和有效性,采用了对比实验的方法,将本发明提出的RLKGR-GAIL模型和TransE、Deep path以及MINERVA进行对比,得到对照实验结果。
与DeepPath模型相比,我们的改进方法在飞机维修知识图谱数据集上,Hit@1,Hit@10,MRR指标分别增加了12.57%,4.99%,8.90%;与基础的MINERVA模型相比,我们的改进方法在飞机维修知识图谱数据集上,Hit@1,Hit@10,MRR分别增加4.45%,0%,1.99%。
由对照实验可以看出,本发明提出的MINERVA(RLKGR-GAIL)在关系链路预测上确实比其他模型具有更好的效果,说明本发明提出的结合生成式对抗模仿学习(GAIL)和强化学习可以在飞机维修知识图谱补全可以取得有效的推理效果。相较于现有的基于强化学习的知识图谱推理算法(Deep Path和MINERVA),本发明提出MINERVA(RLKGR-GAIL)在Hits@1和MRR指标都具有一定优势,这也就验证了基于强化学习的知识图谱推理算法因为无法人工设定最佳奖励函数,而实验效果欠佳,RLKGR-GAIL模型则通过动态自适应学习奖励函数和推理路径克服了这些缺陷。
为了进一步验证本发明提出的RLKGR-GAIL算法的有效性,我们设计了消融实验。消融实验是利用控制变量法的一种实验思路,其目的是验证算法当中各个模块存在的必要性,得到消融实验结果。
消融实验由四组实验组成,主要是针对语义匹配、动态示例采样、以及整个示例采样模块。第一组为取消长尾实体的语义匹配,取而代之的是根据其出现频率,直接从剩余示例样本中选取候选路径;第二组为取消动态示例样本采样,即只采用静态示例样本采样的方式获得示例样本;第三组为取消直接取消模仿学习的示例采样;第四组则是RLKGR-GAIL模型的MRR。
通过消融实验结果可以看出来,在基于模仿学习的条件下,即便只是通过静态采样的方式获得示例样本,也可以提高推理效果;此外,高质量的示例样本对于模仿学习的影响立竿见影,这表明本发明提出的RLKGR-GAIL中语义匹配和拓扑结构滤波在采样模块不可或缺。
2.根据权利要求1所述的示例样本采样方法,其特征在于,所述内容包括如下步骤:
S1)对于每一个查询关系,从飞机维修领域知识图谱中,使用所用正实体对采样候选示例样本,即静态示例样本采样。在知识图谱推理场景中,由于推理链由关系组成,所以说示例样本也是只能由关系路径组成。对于每一个正实体对,使用双向广度优先搜索(bi-directional breadth-first search,BiBFS)来探索两个实体间的最短路径。由于较短的路径倾向于表征两个实体之间更直接的相关性,系统初始化可用到这些较短路径,这样可以保障候选示例样本的质量;至于较长的路径,因为它们更可能包含毫无价值甚至嘈杂的推理步骤,所以用处不大,但考虑到这些较长路径还是具有一些潜在的效用价值,因此训练阶段本发明将它们也纳入学习对象中。由此,得到了一个示例样本集ΩE,这就是静态示例样本采样,而为了与GAIL中鉴别器固定输入维度相适应,选择ΩE中的一个出现频率最高的子集Pe。
S2)为了全面考虑到飞机维修领域知识图谱中每个实体的特定环境,通过考虑实体的拓扑相关性来进行动态示例样本采样。给定一个正实体对(entityhead,entitytail),引入一个包含所有与entityhead直接相关的关系集Rh。对于每一次推理尝试,在智能体开始推理的区域中,智能体“感兴趣的区域”(region of interest,ROI)其实就是Rh这样的一个包含了所有与entityhead直接相关的关系集,而与ROI相关的路径往往与当前实体对更加相关,于是,如下式所示动态示例样本采样就是:
其中ΩE为静态示例样本,以及r1(x)表示关系路径{r1,r2,...,rt,..}中第一个关系。
S3)考虑到飞机维修领域初始知识图谱本身的稀疏性,本发明对静态示例样本中除去动态示例样本后的剩余候选样本CE=ΩE\Ω′E进行与动态示例样本的语义匹配,来扩充示例样本数量。也就是说用每一个动态示例样本查询剩余样本中与其自身有关的其他候选样本,具体实现是提供点积来衡量两个路径嵌入层间的语义匹配程度,如下式所示:
3.根据权利要求1所述的生成对抗推理方法,其特征在于,通过模仿仅由关系路径组成的示例样本的路径级语义来学习推理策略,所述内容包括如下步骤:
生成器网络用于学习生成预测的推理关系路径,可以是所有现有基于强化学习的推理算法中基于策略的智能体,通过GAIL生成器可以在语义空间上,找到更多样化的、和示例样本分布相匹配的证据路径,也就是我们的生成路径。
S1)由于卷积神经网络在自然语言处理领域提取语义特征方面表现出的良好性能,本发明选择CNN来构建鉴别器。由于本部分的鉴别器是利用生成器生成的路径与专家示例样本之间的语义相似性来更新鉴别器自身参数,所以语义的特征提取不可或缺。
对于每一个正实体对,将当前生成器生成的推理路径和对应的示例样本路径整合成一个统一形式:P={x1,x2,...,xN},其中包含了N个关系路径,本发明将其编码为实值矩阵,如下式所示:
P=x1⊕x2⊕...⊕xN
其中xn∈Rk为k维路径嵌入层,⊕表示p∈Rk×N连接算子。
对于给定的关系路径x={r1,r2,...,rt,…},如下式所示,编码路径嵌入层x为:
其中每个关系rt∈Rk通过TransE预训练进行实值嵌入。
S2)当前生成器生成的推理路径和对应的示例样本路径将被整合成统一形式P的嵌入编码实现,将P输入到鉴别器中,这样就可以得到参数化P语义特征D(p)。具体来说就是,首先通过一个卷积层利用其滑动内核ω∈Rk×N来提取局部特征,其中这种卷积层是通过ReLU非线性激活的,如下式所示这样就可以获得新的特征图:
c=ReLU(Conv(p,ω)+bc)
其中bc为偏差项。
S3)通过一个全连接隐藏层和一个输出层用于进一步的语义特征提取,如下式所示。
D(p)=σ(W2ReLU(W1c))
输出层由sigmoid函数归一化,而其他层由ReLU非线性激活。
4.根据权利要求1所述的训练优化方法,其特征在于,采用WGAN-GP中的损失函数来更新鉴别器,所述内容包括如下步骤:
训练过程中,利用所有正实体对来为模仿学习过程生成示例候选样本ΩE。具体来说就是,对于每一个正实体对,首先需要对应的示例样本路径,这就依靠前文的演示采样模块获得;同时训练过程也需要生成关系路径,而这就需要依靠生成器来实现。随后,将示例样本整合成Pe,生成的路径则根据其有效性从整合成不同的生成路径的有效性其实也就是智能体能否沿当前路径到达目标实体,其中ΩG是所有生成路径的集合。
对于每对整合后的生成路径和示例样本路径<Pg|Pe>,通过其损失函数最小化来训练鉴别器D,并希望鉴别器能成为区分Pg和Pe的专家。为了使对抗训练过程更加稳定有效,采用WGAN-GP中的损失函数来更新鉴别器,即如下式所示:
LC=E[D(Pg)]-E[D(Pe)
LD=LC+LP
RG=δgmax{E[D(Pg)]-E[D(Pn)],0}
训练过程即,只对至少比噪声嵌入Pn具有更高期望的部分有效路径给予正奖励,而想要提高训练收敛速率,则需要利用噪声嵌入Pn来过滤掉质量较差的路径。一旦获得正向奖励,使用蒙特卡洛策略梯度最大化预期累积奖励来更新生成器G。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210697445.4A CN115269861A (zh) | 2022-06-22 | 2022-06-22 | 基于生成式对抗模仿学习的强化学习知识图谱推理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210697445.4A CN115269861A (zh) | 2022-06-22 | 2022-06-22 | 基于生成式对抗模仿学习的强化学习知识图谱推理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115269861A true CN115269861A (zh) | 2022-11-01 |
Family
ID=83761845
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210697445.4A Pending CN115269861A (zh) | 2022-06-22 | 2022-06-22 | 基于生成式对抗模仿学习的强化学习知识图谱推理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115269861A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115640410A (zh) * | 2022-12-06 | 2023-01-24 | 南京航空航天大学 | 基于强化学习路径推理的知识图谱多跳问答方法 |
CN117690549A (zh) * | 2024-02-01 | 2024-03-12 | 中国中医科学院中医临床基础医学研究所 | 一种基于相似患者匹配的中医个体化智能方药推荐系统 |
-
2022
- 2022-06-22 CN CN202210697445.4A patent/CN115269861A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115640410A (zh) * | 2022-12-06 | 2023-01-24 | 南京航空航天大学 | 基于强化学习路径推理的知识图谱多跳问答方法 |
CN117690549A (zh) * | 2024-02-01 | 2024-03-12 | 中国中医科学院中医临床基础医学研究所 | 一种基于相似患者匹配的中医个体化智能方药推荐系统 |
CN117690549B (zh) * | 2024-02-01 | 2024-05-17 | 中国中医科学院中医临床基础医学研究所 | 一种基于相似患者匹配的中医个体化智能方药推荐系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111523047B (zh) | 基于图神经网络的多关系协同过滤算法 | |
CN109992783B (zh) | 中文词向量建模方法 | |
CN115269861A (zh) | 基于生成式对抗模仿学习的强化学习知识图谱推理方法 | |
CN108051660A (zh) | 一种变压器故障组合诊断模型建立方法及诊断方法 | |
CN109214004B (zh) | 基于机器学习的大数据处理方法 | |
CN112434171A (zh) | 一种基于强化学习的知识图谱推理补全方法及系统 | |
CN106203534A (zh) | 一种基于Boosting的代价敏感软件缺陷预测方法 | |
CN107579821B (zh) | 密码字典生成方法及计算机可读存储介质 | |
CN115186097A (zh) | 一种基于知识图谱和强化学习的交互式推荐方法 | |
CN109462578B (zh) | 基于统计学习的威胁情报利用与繁殖方法 | |
CN114298851A (zh) | 基于图表征学习的网络用户社交行为分析方法、装置及存储介质 | |
CN111914094A (zh) | 一种基于三元交互的知识图谱表示学习方法 | |
CN114491039A (zh) | 基于梯度改进的元学习少样本文本分类方法 | |
CN109241298A (zh) | 语义数据存储调度方法 | |
Zhao et al. | Synchronously improving multi-user English translation ability by using AI | |
CN113312925B (zh) | 一种基于自强化学习的遥感影像文本生成及优化方法 | |
Wang et al. | Reasoning through memorization: Nearest neighbor knowledge graph embeddings | |
CN115238036A (zh) | 一种基于图注意力网络和文本信息的认知诊断方法及装置 | |
CN113330462A (zh) | 使用软最近邻损失的神经网络训练 | |
CN110502613A (zh) | 一种模型训练方法、智能检索方法、装置和存储介质 | |
CN110245682A (zh) | 一种基于话题的网络表示学习方法 | |
Sun et al. | A Deep Model for Partial Multi-label Image Classification with Curriculum-based Disambiguation | |
Zeng et al. | HHA: An attentive prediction model for academic abnormality | |
KR20240034804A (ko) | 자동 회귀 언어 모델 신경망을 사용하여 출력 시퀀스 평가 | |
CN115809346A (zh) | 一种基于多视图语义增强的小样本知识图谱补全方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |