CN113239211A - 一种基于课程学习的强化学习知识图谱推理方法 - Google Patents

一种基于课程学习的强化学习知识图谱推理方法 Download PDF

Info

Publication number
CN113239211A
CN113239211A CN202110669631.2A CN202110669631A CN113239211A CN 113239211 A CN113239211 A CN 113239211A CN 202110669631 A CN202110669631 A CN 202110669631A CN 113239211 A CN113239211 A CN 113239211A
Authority
CN
China
Prior art keywords
model
learning
rlkgr
minerva
nell
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110669631.2A
Other languages
English (en)
Inventor
贾海涛
罗林洁
李家伟
乔磊崖
任利
许文波
刘博文
陈璐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202110669631.2A priority Critical patent/CN113239211A/zh
Publication of CN113239211A publication Critical patent/CN113239211A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/045Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Databases & Information Systems (AREA)
  • Developing Agents For Electrophotography (AREA)

Abstract

本发明公开了一种基于课程学习的强化学习知识图谱推理方法。该发明针对在实体关系补全过程中出现的错误关系难题,深入研究基于课程学习的强化学习模型来解决虚假路径发现问题,即智能体游走得到的训练序列(路径)不完美导致智能体被误导,提出了一种结合课程学习策略使用基于知识的软奖励方法,该方法将智能体在环境中游走得到的路径映射到LSTM策略网络,再使用实体和关系嵌入作为参数组成的打分函数进行软奖励构造,同时在路径中多次跳转上采用智能体的动作丢弃策略进行出边的随机掩盖,最终实现较为准确的实体关系路径学习。

Description

一种基于课程学习的强化学习知识图谱推理方法
技术领域
本发明属于自然语言处理领域。
背景技术
知识图谱推理算法的主流方法是从构造的知识图中推断出新的事实,基于强化学习的知识图谱推理已经成为图谱推理算法的重要研究方向之一,在EMNLP 2017中发布的DeepPath首次在知识图谱推理中引入强化学习方法,其主要任务是从给定的实体对(head,tail)推理从head到tail的路径,其子任务包括关系预测和事实预测,具体地它对知识图谱进行简单采样以训练策略网络并通过手动设计的奖励函数对策略网络再次进行训练(如此设计的策略可能不是最优的且针对不同数据集可能需要不同设置)。在ICLR 2018中发布的MINERVA的任务定义与DeepPath略有不同,该模型的输入是给定的查询(head,relation)(即实体关系对,包括头实体与关系)并且其子任务只包括事实预测。这种方法无需预训练以及精妙的人工奖励函数设置,但存在虚假路径问题,即没有切实的有依据的高质量路径用于训练,模型可能被虚假路径误导。Multihop-KG提出动作丢弃方法通过在采用动作集合时掩盖掉一部分出边,避免智能体被最初找到的路径误导,强制智能体充分探索所有可能路径。
本专利提出的基于课程学习的强化学习知识图谱推理方法,在使用强化学习建模知识图谱查询问答的基础上融合课程学习方法:由于简单样本中虚假路径比例更低,本方法假定虚假路径比例更低的样本为高质量的,逐步深入到复杂样本时这些信息能帮助智能体决策,本方法提高模型准确率且额外时间开销和参数量可忽略不计。
发明内容
本发明提出一种基于RLKGR-CL的知识图谱推理算法。该算法步骤如下:
(1)步骤一:首先将用于训练的知识图谱中实体集和关系集取出并按照定义好的样本难度计算方式对训练集进行排序,将每个关系对应的排序在前(难度小)的事实定义为简单样本,排序在后(难度大)的事实定义为复杂样本。
(2)步骤二:再根据训练阶段按比例生成训练样本。
(3)步骤三:将事实三元组与推理路径向量化,在RL学习定义下根据环境和训练样本对策略网络进行训练迭代。
(4)步骤4使用训练好的策略网络得出输入查询对应的正确实体集
改进模型的指标Hit@1,Hit@10,MRR在数据集WN18RR上分别增长了1.7%,1.5%,1.3%,在数据集NELL-995上分别增长了1.9%,4.8%,3.7%。
附图说明
附图1:本发明的算法整体框图。
附图2:RLKGR-CL算法的改进思路。
附图3:Action Dropout策略示例。
附图4:改进前后模型及对比模型的收敛速度。
附图5:课程学习stages数量以及对应简单困难样本比。
附图6:MINERVA(RLKGR-CL)模型超参数。
附图7:MultiHopKG(ComplEx-RLKGR-CL)和MultiHopKG(Conve-RLKGR-CL)模型超参数。
附图8:MINERVA和MultiHopKG模型改进前后的查询问答结果。
附图9:本发明的模型改进前后每轮迭代时间。
具体实施方式
步骤一:课程学习训练样本生成。对不同难度的样本赋予不同的权重,即改变训练样本的分布。训练前期简单样本的权重最高,这意味着它们具有较高的概率被采样;随着训练轮次增大,较难的训练样本权重也增大;最后统一样本权重即直接在目标训练集上进行训练。
对训练集进行预处理,以三元组中头实体的度数来拟合问题的复杂程度并定义样本的难度。具体地对于关系r,训练样本中总共有n个事实,按照头实体的度对所有事实进行排序,具有较高度数n/2个事实被归入困难集合,具有较低度数n/2个事实被归入简单集合。最终训练集中来自简单集合的比例为α,来自困难集合的比例为β,且α+β=1。
步骤二:事实三元组与推理路径向量化。使用知识图谱embedding模型ComplEx、ConvE来估计对目标实体的软奖励。评分函数定义为
Figure BDA0003118556420000021
其中h,t均为复数,
Figure BDA0003118556420000022
表示t的共轭复数,Real(·)表示取复数的实部部分。评分函数定义为
Figure BDA0003118556420000023
Figure BDA0003118556420000024
表示二维向量,w表示卷积核,W表示矩阵。
智能体将es即查询中的头结点作为出发点,依次选择标记为rl的出边,沿出边到达并遍历新实体,直到智能体跳转多次即步长增至T时停止搜索。如果智能体已设法到达查询中的目标实体,那么它可以更早地获得正确答案并且使用名为“NO_OP”的特殊操作在剩余的几个步骤中停留在当前节点。决策过程的各部分分别如下:
1.状态查询由q=(eh,rq)∈Q表示,其中eh和rq分别是头实体和查询中的关系。状态空间G是由所有合法且有效的组合构成的,具体为S=E×Q×E。每一种状态可以表示为sc=(ec,q,et)=(ec,(eh,rq),et)∈S,其中et是目标答案,ec是智能体在第c步所处实体即当前位置。
2.动作第c步的动作空间Ac包括智能体所处于实体(当前节点)的所有出边,即Ac=(r′,e′)|(ec,r′,e′)∈G。为智能体提供继续留在当前节点的操作选项,添加一种特殊动作即“NO_OP”。
3.转移查询q=(eh,rq)和目标答案et在每一步中都保持不变。转移函数为δ:S×A→S,正式地定义为δ(sc,Ac)=δ(ec,(eh,rq),Ac)。
4.奖励在默认情况下,智能体只会在最终到达正确节点时获得值为+1的奖励,其他时候都不会获得任何奖励,奖励得分如公式(1)。
Rb(ST)=1 (ehead,r,etail)∈G (1)
在使用基于知识的奖励塑造模型的情况下,通过已存在的为知识图谱补全设计的基于嵌入(翻译)的模型将图谱映射到密集向量空间,再使用实体和关系嵌入作为参数组成的打分函数f(eh,r,et)来估计每个三元组l=(eh,r,et)∈G的可能性。打分函数f以最大化G中所有三元组的可能性为目标进行训练。使用基于知识的奖励塑造模型的情况下的奖励得分公式如式(2)。
R(ST)=Rb(ST)+(1-Rb(ST))f(eh,r,eT) (2)
如果智能体最终到达实体eT是最终答案,则智能体将获得奖励,其值为+1。否则,智能体将收到由预训练模型(基于知识的奖励塑造模型)估计出的分数。
步骤三:策略网络构建和训练。查询中二元的关系和实体分别被映射到密集嵌入向量e∈Rd和r∈Rd。策略网络决定从当前节点的所有出边ASt中选择一个动作at,即at∈ASt且at=[e;r]表示关系嵌入和尾节点嵌入的连接。
历史搜索序列ht=(eh,r1,e1,...,rc,ec)由智能体决定步骤c所执行的观察和动作组成。使用带有三个门限模块的LSTM神经网络对历史搜索序列ht进行编码如式(3)、(4)所示。
h0=LSTM(0,[r0;es]) (3)
hc=LSTM(hc-1,ac-1),t>0 (4)
其中r0是特殊的起始关系,被引入与es组成起始动作。
动作空间是通过将所有可用动作的嵌入向量空间At:|ASt|×2d堆叠来进行编码的。策略网络π定义为式(5)。
πθ(at|st)=σ(At×W2ReLU(W1[et;ht;rq])) (5)
其中σ是softmax运算符。
优化目标是找到参数θ,以最大程度地提高G中所有查询的预期奖励,如式(6)所示。
Figure BDA0003118556420000041
用REINFORCE算法解决此优化问题。该算法迭代G中的所有事实,并使用式(7)随机梯度更新θ。
Figure BDA0003118556420000042
动作丢弃策略在REINFORCE的采样步骤中随机丢弃智能体当前所在节点的一些出边,智能体根据调整后的动作分布执行采样如式(8)、(9)所示。
Figure BDA0003118556420000043
mi~Bernouli(1-α),i=1,...,|At| (9)
其中
Figure BDA0003118556420000044
中的每个条目都是从伯努利分布中使用参数1-α采样的二进制变量。在m=0的情况下,使用一个极小值∈来平滑分布,使得πθ(at│st)变得均匀。
过程如附图3所示,在第一轮次中智能体从头结点head出发,经过路径上的实体{e1,e2}到达目标实体tail;但到第二轮次时,在REINFORCE采样步骤里from head to e1这条出边被随机掩盖掉,由此得到动作集合{from head to e3,from head to e4}。在第二轮次中智能体无法偏向第一轮次中找到的路径from head to e1,智能体只能在masking调整后的动作集合中选择出边,由此保证智能体探索图谱中路径的多样性。
使用三个公开标准数据集,具体为WN18RR、FB15K-237、NELL-995,使用知识图谱表示学习研究常用的指标MRR、hits@1和hits@10来分析实验结果。MRR和hits@N等指标均为值越高表示预测效果越好。其中MRR表示对一系列查询Q,正确实体得分排名取倒数的平均值,如式(10)所示。
Figure BDA0003118556420000051
hits@N表示测试集中正确实体在得分排名前N实体中所占的比率如式(11)所示。指标hits@1中统计得分排名第一,指标hits@10中统计得分排名前十。
Figure BDA0003118556420000052
需要确定的超参数主要包括阶段数量stages和每个阶段简单样本与困难样本的比例{stage1,stage2,…,stagen}且stagei∈(0,1)。设置参数stages的选取范围为{2,3,4,5},参数stagei的选取范围为{0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9}。
对于MINERVA(RLKGR-CL)来说,每一轮训练中简单样本集中样本数量与困难样本集中样本数量比在各个数据集上最佳参数如附图5所示,它们的阶段数量均为4,每个阶段按照轮次数来划分,四个阶段对应的epoch数范围分别为[1,4/m],(m/4,m/2],(m/2,3m/4],(3m/4,m]。
1.奖励 在默认形式中,奖励函数设置较为简单,如果智能体到达的最后节点是正确答案,则智能体的最终奖励为+1,否则为0。
2.超参数 LSTM神经网络的层数为3。β表示熵正则化常数,值在0-0.1之间。在其他参数上,RLKGR-CL模型与基准模型的最佳参数保持一致如附图6所示,其中batch_size为每轮样本训练数量,hidden_size为LSTM网络的隐藏大小,embedding_size为实体和关系的嵌入大小,learning_rate为学习率,total_iterations为迭代次数,max_num_actions为智能体每次跳转采样得到的动作集的最大动作数量,path_length为路径长度即最大步数T。
对于MultiHopKG(ComplEx-RLKGR-CL)和MultiHopKG(Conve-RLKGR-CL)模型,阶段数量为4,其他参数为stage1=0.8,stage2=0.7,stage3=0.5,stage4=0.5。
1.波束搜索解码 从头实体开始的多条路径的端点可能是同一实体。最后一步中列出所有已到达的唯一实体集,将每个唯一实体的得分设置为端点所有路径中的最高得分,然后输出排名最高的唯一实体。
2.奖励 在使用基于知识的奖励塑造模型的情况下,通过已存在的为知识图谱补全设计的基于嵌入(翻译)的模型将图谱映射到密集向量空间,再使用实体和关系嵌入作为参数组成的打分函数f(eh,r,et)来估计每个三元组l=(eh,r,et)∈G的可能性。如果智能体最终到达实体eT是最终答案,则智能体将获得奖励其值为+1。否则智能体将收到由预训练模型(基于知识的奖励塑造模型)估计出的分数。
3.超参数 模型使用的3层LSTM神经网络的隐藏大小为200,同样使用Adam优化器。在其他参数上,RLKGR-CL模型与基准模型的最佳参数保持一致如附图7所示,其中hidden_action_dropout_rate为动作丢弃策略调整时被掩盖动作百分比,beam_size为波束搜索解码时的分组大小。
步骤四:结果分析。运行算法并完成基准模型和改进后的RLKGR-CL模型的训练和测试,得到的查询问答结果如附图8所示。与最先进的基于嵌入的模型和基于逻辑规则的KG推理模型进行比较:该表的上半部分是基于嵌入的推理模型ComplEx、ConvE和DistMult的结果,下半部分是基于路径的模型NeuralLP、MINERVA、MINERVA(RLKGR-CL)。
指标Hit@1,Hit@10,MRR在WN18RR上分别增长了1.7%,1.5%,1.3%,在NELL-995上分别增长了1.9%,4.8%,3.7%。Multi-KG在FB15K-237和NELL-995上均具有最佳评估指标,改进后的方法MultiHopKG(ComplEx-RLKGR-CL)和MultiHopKG(Conve-RLKGR-CL)在数据集NELL-995上的Hit@1指标分别增加了0.4%和0.2%。将ComplEx作为预训练模型的方法MultiHopKG(Conve-RLKGR-CL)在数据集FB15K-237和NELL-995上的性能有了稍微的提高。
分别选取基于表示学习的模型ComplEx、ConvE、DistMult和基于强化学习的模型MINERVA、MultiHopKG作为对比模型。其中MultiHopKG对基于知识的奖励塑造模型(即基于表示学习的模型)进行预训练,后续训练迭代次数在20-40轮之间,与其余模型的迭代次数范围差距大,故将其收敛速度相关实验数据即放在附图4中第一列进行可视化。
附图4绘制了三种表示学习模型Conve、Dismult和Complex,第一列绘制了三种表示学习模型Conve、Dismult和Complex,基于强化学习的MINERVA模型和改进后的MINERVA(RLKGR-CL)模型在验证集上相对于训练时期数的MRR得分。可见在WN18RR和NELL-995数据集上,基于强化学习的MINERVA模型和改进后的MINERVA(RLKGR-CL)模型最终收敛至的分数均高于表示学习模型,而在FB15K-237数据集上改进后的MINERVA(RLKGR-CL)模型最终收敛分数最小,MINERVA模型与表示学习模型Dismult、Complex的最终收敛分数接近,Conve模型最终收敛分数较高。
观察附图4中第二列,使用表示学习模型作为知识的奖励塑造模型的MultiHopKG系列模型在数据集WN18RR的最终收敛分数与表示学习模型、MINERVA等相差不大;MultiHopKG系列模型在FB15K-237数据集上的最终收敛分数明显高于改进前的MINERVA模型、改进后的MINERVA(RLKGR-CL)模型、Dismult和Complex模型,但低于Conve模型;在NELL-995数据集上,MultiHopKG系列模型最终收敛分数均优于改进前后的MINERVA模型和三种表示学习模型。
在收敛速度方面,基于表示学习的模型的收敛速度均快于基于强化学习的模型。对于改进后的MINERVA(RLKGR-CL)模型:在NELL-995上,使用早期停止策略,因为在该数据集上模型收敛速度更快,并且在迭代次数为2500-3000轮次之间时模型将过拟合数据集;模型在FB15K-237数据集上的收敛速度略有提高。
对比改进前和改进后的MultiHopKG模型:在选取的三个数据集上,模型收敛速度均无明显变化;在WN18RR数据集上改进后模型的最终分数均降低,而在FB15K-237和NELL-995上,改进前和改进后模型收敛到的最终分数几乎无差距。
将训练集分为简单集和困难集在WN18RR、FB15K-237和NELL-995数据集上预处理所花时间分别为0.317,1.258,0.270秒。在MINERVA模型中,样本生成本身就是随机的,原本的RL算法中生成一组长度为n的随机数,将这个步骤分为两步:生成长度为α*n的简单样本对应的一组随机数,再生成长度为(1-α)*n的困难样本对应的一组随机数,根据两组随机数分别取出对应样本进行训练,训练时间基本保持不变。
在MultihopKG模型中,预训练嵌入模型的步骤保持不变。RL训练过程中样本生成本身是固定的,按照顺序依次循环读取样本进行训练。将这个过程改为随机生成,有以下两步:生成长度为α*n的简单样本对应的一组随机数,再生成长度为(1-α)*n的困难样本对应的一组随机数,根据两组随机数分别取出对应样本进行训练,训练时间略微增加,但RL训练过程不同于预训练过程,迭代次数少,范围在10-40次迭代,训练时间基本不变。
对每轮迭代开始时记录一次时间戳,结束时记录一次时间戳,取得每轮迭代时间平均值如附图9所示,前三行分别为三种表示学习模型在各个数据集上的每轮迭代时间,后面依次为改进前的MINERVA模型、改进后的MINERVA(RLKGR-CL)模型、改进前的MultiHopKG(ComplEx)、改进后的MultiHopKG(ComplEx-RLKGR-CL)模型、改进前的MultiHopKG(Conve)模型和改进后的MultiHopKG(Conve-RLKGR-CL)模型。其中,额外时间的行表示改进后模型的每轮迭代时间减去改进前模型的每轮迭代时间,该值为正数则表示改进后每轮迭代时间增加,反之改进后每轮迭代时间减少。
对于改进后的模型MINERVA(RLKGR-CL)、MultiHopKG(ComplEx-RLKGR-CL)和MultiHopKG(Conve-RLKGR-CL),它们基本上都在WN18RR和NELL-995数据集上迭代时间略微减少,而在FB15K-237数据集上迭代时间增加。其中MultiHopKG(ComplEx-RLKGR-CL)和MultiHopKG(Conve-RLKGR-CL)在数据集FB15K-237上每轮迭代时间增加较多,分别为67.1135s和15.957s。而MultiHopKG(Conve-RLKGR-CL)模型在数据集WN18RR上减少的每轮迭代时间较多,为11.880s。
总的来说,MINERVA的改进模型的指标Hit@1,Hit@10,MRR在数据集WN18RR上分别增长了1.7%,1.5%,1.3%,在数据集NELL-995上分别增长了1.9%,4.8%,3.7%,且训练时间有所下降。

Claims (3)

1.一种基于课程学习的强化学习知识图谱推理方法,包括以下步骤:
步骤1:课程学习样本生成,此为课程学习的核心思想,用入度和出度的大小衡量样本难度,对不同难度的样本赋予不同的权重,训练前期简单样本的权重最高,随着训练轮次增大,较难的训练样本权重也增大;
步骤2:事实三元组与推理路径向量化,使用embedding模型将输入和路径搜索过程向量化,定义评分函数为为
Figure FDA0003118556410000011
并介绍包括状态、动作、转移和奖励四部分的决策过程,使用基于知识的奖励塑造模型的情况下的奖励得分公式为R(ST)=Rb(ST)+(1-Rb(ST))f(eh,r,eT);
步骤3:该步骤是专利核心内容:查询中二元的关系和实体分别被映射到密集嵌入向量e∈Rd和r∈Rd,策略网络决定从当前节点的所有出边ASt中选择一个动作at,即at∈ASt且at=[e;r]表示关系嵌入和尾节点嵌入的连接,历史搜索序列ht=(eh,r1,e1,...,rc,ec)由智能体决定步骤c所执行的观察和动作组成,使用带有三个门限模块的LSTM神经网络对历史搜索序列ht进行编码如下式所示:
h0=LSTM(0,[r0;es])
hc=LSTM(hc-1,ac-1),t>0
其中r0是特殊的起始关系,被引入与es组成起始动作,动作空间是通过将所有可用动作的嵌入向量空间At:|ASt|×2d堆叠来进行编码的,策略网络π定义为下式:
πθ(at|st)=σ(At×W2ReLU(W1[et;ht;rq]))
其中σ是softmax运算符,优化目标是找到参数θ,以最大程度地提高G中所有查询的预期奖励,如下式:
Figure FDA0003118556410000012
用REINFORCE算法解决此优化问题:
Figure FDA0003118556410000013
动作丢弃策略在REINFORCE的采样步骤中随机丢弃智能体当前所在节点的一些出边,智能体根据调整后的动作分布执行采样如下式:
Figure FDA0003118556410000021
mi~Bernouli(1-α),i=1,...,|At|
其中
Figure FDA0003118556410000022
中的每个条目都是从伯努利分布中使用参数1-α采样的二进制变量,在第一轮次中智能体从头结点head出发,经过路径上的实体{e1,e2}到达目标实体tail;但到第二轮次时,在REINFORCE采样步骤里from head to e1这条出边被随机掩盖掉,由此得到动作集合{from head to e3,from head to e4},在第二轮次中智能体无法偏向第一轮次中找到的路径from head to e1,智能体只能在masking调整后的动作集合中选择出边;
步骤4:实验结果分析,MINERVA(RLKGR-CL)算法指标Hit@1,Hit@10,MRR在WN18RR上分别增长了1.7%,1.5%,1.3%,在NELL-995上分别增长了1.9%,4.8%,3.7%,改进后的方法MultiHopKG(ComplEx-RLKGR-CL)和MultiHopKG(Conve-RLKGR-CL)在数据集NELL-995上的Hit@1指标分别增加了0.4%和0.2%,将ComplEx作为预训练模型的方法MultiHopKG(Conve-RLKGR-CL)在数据集FB15K-237和NELL-995上的性能有了稍微的提高,在WN18RR和NELL-995数据集上,基于强化学习的MINERVA模型和改进后的MINERVA(RLKGR-CL)模型最终收敛至的分数均高于表示学习模型,而在FB15K-237数据集上改进后的MINERVA(RLKGR-CL)模型最终收敛分数最小,MINERVA模型与表示学习模型Dismult、Complex的最终收敛分数接近,Conve模型最终收敛分数较高;
时间方面,对于改进后的模型MINERVA(RLKGR-CL)、MultiHopKG(Compl Ex-RLKGR-CL)和MultiHopKG(Conve-RLKGR-CL),它们基本上都在WN18RR和NELL-995数据集上迭代时间略微减少,而在FB15K-237数据集上迭代时间增加,其中MultiHopKG(ComplEx-RLKGR-CL)和MultiHopKG(Conve-RLKGR-CL)在数据集FB15K-237上每轮迭代时间增加较多,分别为67.1135s和15.957s,而MultiHopKG(Conve-RLKGR-CL)模型在数据集WN18RR上减少的每轮迭代时间较多,为11.880s。
2.如权利要求1所述方法,其特征在于,步骤1结合课程学习方法解决了虚假路径问题。
3.如权利要求1所述方法,其特征在于,步骤3使用LSTM神经网络对历史搜索序列进行编码,定义了一种策略网络,提高了知识图谱推理的准确率,并且减少了时间消耗。
CN202110669631.2A 2021-06-17 2021-06-17 一种基于课程学习的强化学习知识图谱推理方法 Pending CN113239211A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110669631.2A CN113239211A (zh) 2021-06-17 2021-06-17 一种基于课程学习的强化学习知识图谱推理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110669631.2A CN113239211A (zh) 2021-06-17 2021-06-17 一种基于课程学习的强化学习知识图谱推理方法

Publications (1)

Publication Number Publication Date
CN113239211A true CN113239211A (zh) 2021-08-10

Family

ID=77140048

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110669631.2A Pending CN113239211A (zh) 2021-06-17 2021-06-17 一种基于课程学习的强化学习知识图谱推理方法

Country Status (1)

Country Link
CN (1) CN113239211A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114610024A (zh) * 2022-02-25 2022-06-10 电子科技大学 一种用于山地环境下的多智能体协同搜索节能方法
CN115640410A (zh) * 2022-12-06 2023-01-24 南京航空航天大学 基于强化学习路径推理的知识图谱多跳问答方法
CN116010621A (zh) * 2023-01-10 2023-04-25 华中师范大学 一种基于规则引导的自适应路径生成方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114610024A (zh) * 2022-02-25 2022-06-10 电子科技大学 一种用于山地环境下的多智能体协同搜索节能方法
CN114610024B (zh) * 2022-02-25 2023-06-02 电子科技大学 一种用于山地环境下的多智能体协同搜索节能方法
CN115640410A (zh) * 2022-12-06 2023-01-24 南京航空航天大学 基于强化学习路径推理的知识图谱多跳问答方法
CN116010621A (zh) * 2023-01-10 2023-04-25 华中师范大学 一种基于规则引导的自适应路径生成方法
CN116010621B (zh) * 2023-01-10 2023-08-11 华中师范大学 一种基于规则引导的自适应路径生成方法

Similar Documents

Publication Publication Date Title
CN110147450B (zh) 一种知识图谱的知识补全方法及装置
Li et al. Emergent world representations: Exploring a sequence model trained on a synthetic task
CN113239211A (zh) 一种基于课程学习的强化学习知识图谱推理方法
CN107992976B (zh) 热点话题早期发展趋势预测系统及预测方法
CN110111848A (zh) 一种基于rnn-cnn神经网络融合算法的人体周期表达基因识别方法
CN111105045A (zh) 一种基于改进的蝗虫优化算法构建预测模型的方法
CN112990343B (zh) 一种基于人工智能算法的水环境质量评价方法
CN109840283A (zh) 一种基于传递关系的本地自适应知识图谱优化方法
CN109472030A (zh) 一种系统回复质量的评价方法及装置
CN114611670A (zh) 一种基于师生协同的知识蒸馏方法
CN115115389A (zh) 一种基于价值细分和集成预测的快递客户流失预测方法
Tembusai et al. K-nearest neighbor with K-fold cross validation and analytic hierarchy process on data classification
CN108364066A (zh) 基于n-gram和wfst模型的人工神经网络芯片及其应用方法
CN113505210B (zh) 一种基于轻量化Actor-Critic生成式对抗网络的医疗问答生成系统
Zhou et al. Decision trees
CN114004153A (zh) 一种基于多源数据融合的侵彻深度预测方法
CN113282747A (zh) 一种基于自动机器学习算法选择的文本分类方法
CN113011091A (zh) 一种自动分组的多尺度轻量型深度卷积神经网络优化方法
CN112651499A (zh) 一种基于蚁群优化算法和层间信息的结构化模型剪枝方法
CN115472291A (zh) 基于改进樽海鞘优化bp神经网络的食管鳞癌生存预测方法
CN115098699A (zh) 一种基于知识图谱嵌入模型的链路预测方法
CN113807005A (zh) 基于改进fpa-dbn的轴承剩余寿命预测方法
CN117784615B (zh) 一种基于impa-rf的火控系统故障预测方法
De Penning et al. Applying neural-symbolic cognitive agents in intelligent transport systems to reduce CO 2 emissions
CN113821642B (zh) 一种基于gan聚类的文本清洗方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210810

RJ01 Rejection of invention patent application after publication