CN111931416A - 一种结合可解释性的图表示学习的超参数优化方法 - Google Patents

一种结合可解释性的图表示学习的超参数优化方法 Download PDF

Info

Publication number
CN111931416A
CN111931416A CN202010689045.XA CN202010689045A CN111931416A CN 111931416 A CN111931416 A CN 111931416A CN 202010689045 A CN202010689045 A CN 202010689045A CN 111931416 A CN111931416 A CN 111931416A
Authority
CN
China
Prior art keywords
graph
hyper
learning algorithm
parameters
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010689045.XA
Other languages
English (en)
Other versions
CN111931416B (zh
Inventor
王鑫
朱文武
范舒翼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202010689045.XA priority Critical patent/CN111931416B/zh
Publication of CN111931416A publication Critical patent/CN111931416A/zh
Application granted granted Critical
Publication of CN111931416B publication Critical patent/CN111931416B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computer Hardware Design (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Geometry (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及超参数优化技术领域,特别涉及一种结合可解释性的图表示学习的超参数优化方法。本方法包括以下步骤:采样若干小规模的子图;根据完全可解释的图特征,分配有限的算力以及用于后续样本权重;对不同的超参数和图特征做去相关化;根据去相关化后的子图和部分原图计算结果,优化原图的图表示学习超参数。该方法采用了完全可解释的图特征,对算力进行合理分配,在超参数优化过程中对不同的超参数和图特征做了去相关处理,使得整体方法在保证性能的同时,具备很高的可解释性。

Description

一种结合可解释性的图表示学习的超参数优化方法
技术领域
本发明涉及超参数优化技术领域,特别涉及一种结合可解释性的图表示学习的超参数优化方法。
背景技术
图作为一种结构化的数据表现形式,对变量之间的相互联系具有非常强的建模能力。图表示学习通过学习图中节点的低维向量表示,来更好地理解图中各个节点之间的语义联系。自动机器学习包括了机器学习的各个阶段:数据处理、特征工程、模型选择、超参数优化和神经网络架构搜索,减轻了模型调优过程中对于人力的依赖和消耗。超参数优化通过选择最优的超参数配置来提高模型的性能。
但是当前超参数优化技术主要关注图像、文本等数据,且多采用黑盒的方式来进行优化,整体框架缺乏可解释性,不能有效地解释每次试验为什么采用特定的超参数取值,比如社交网络场景下的好友推荐,当需要进行超参数调优时,很难解释需要如何调节超参数,有待解决。相关技术中,(1)一种超参数随机搜索技术,其适用于各种形式数据的任务,但其性能一般,搜索到最优超参数需要很长的时间。(2)一种基于序列化模型的优化方法,但并没有针对图表示学习进行优化,且基于黑盒模型,不具备可解释性。(3)一种在图表示学习中利用采样子图信息的优化方法,但提取图特征的方式基于太强的物理假设,且没有解决不同超参数之间的互相影响问题,可解释性不强。
综上所述,目前,超参数优化在真实图表示学习场景下存在如下缺陷:
(1)技术多适用于文本、图像等类型的数据,对于结构化的图结构信息利用不足。现实场景中图的规模往往包含数十亿个节点和边,难以同时保证效率和性能。
(2)现有技术往往依赖于过强的数学或者物理假设,由于采用黑盒化的优化方式,严重缺乏可解释性,无法解释下一轮试验中超参数选择某个特定值的原因。
发明内容
本发明的目的是提出一种结合可解释性的图表示学习的超参数优化方法,以克服已有技术的缺点,在保证较高性能的同时,解耦不同超参数之间的相关性,使超参数优化方法具有更高的可解释性,可以解释每次试验超参数取特定值的原因。
本发明提出的考虑可解释性的图表示学习过程中确定最优超参数的方法,包括以下步骤:
(1)从待确定最优超参数的原图中采样多个子图;
(2)根据具有可解释性的特征,在子图上执行图表示学习算法,保留图表示学习算法的结果样本;
(3)从样本中消除图表示学习算法的超参数与子图特征之间的相关度;
设定循环次数K,初始化时设循环次数k为1;
设定有n个样本,其中每个样本包含p1个图表示学习算法的超参数和p2个子图特征,用一个n行(p1+p2)列的矩阵X表示超参数和图特征数据,X=[A,B],其中A为一个n行p1列的超参数矩阵,B为一个n行p2列的子图特征矩阵;
利用以下损失方程,求解样本权重γ,使得:
Figure BDA0002587710000000021
满足
Figure BDA0002587710000000022
γ=diag(γi,…γn)
式中,γ为一个n维向量,diag(γi,…,γn)为以γi,…,γn为对角线的对角矩阵,
Figure BDA0002587710000000026
表示X的二范数,上标T表示矩阵转置,
Figure BDA0002587710000000027
表示求期望;
用相关度LDeco表示上述损失方程:
Figure BDA0002587710000000023
为了使得最小化
Figure BDA0002587710000000024
的γ有唯一解,对γ作如下限制:
Figure BDA0002587710000000025
其中,λ1和λ2是人为设置的大常数,c={γ:|γi|≤c},c为常数;
(4)确定原图上的图表示学习算法的最优超参数,包括以下步骤:
(4-1)以步骤(2)的图表示学习算法的超参数和子图特征作为多层感知机的输入,多层感知机的输出为图表示学习算法的性能结果;
(4-2)利用步骤(3)的样本权重,对步骤(4-1)的多层感知机进行训练,设定多层感知机的优化目标如下:
Figure BDA0002587710000000031
其中,Yi表示第i个样本Xi中的超参数和图特征下的图表示学习算法性能,Φ是多层感知机的拟合函数,Θ是多层感知机自身的参数,训练过程中得到多层感知机全连接层的权重;
(4-3)根据步骤(4-2)所有超参数在多层感知机中全连接层的权重绝对值之和,利用下式计算该超参数对于图表示学习算法性能的重要度:
Figure BDA0002587710000000032
其中weight(xi)表示第i个超参数对于图表示学习算法性能的重要度,
Figure BDA0002587710000000033
表示多层感知机中计算使用的权重矩阵的第j行,第i列;
(4-4)对超参数进行重要度降序排序,依次对每个超参数进行优化,优化的过程中固定其他超参数的取值,优化的过程为对当前超参数在取值范围内进行均匀采样,将超参数的取值和原图的特征作为多层感知机的输入,多层感知机的输出为预测的图表示学习算法性能,取与图表示学习算法性能最高的值相对应的超参数作为待运行超参数取值;
(4-5)以步骤(4-4)的待运行超参数取值,在待确定最优超参数的原图上执行图表示学习算法,得到第k轮图表示学习算法性能,将原图的特征、使用的超参数以及第k轮图表示学习算法的结果作为一个新样本加入步骤(3)的n个样本中;
(4-6)对循环次数k进行判断,若k<K,则令k=k+1,返回步骤(3),若k≥K,则将K轮超参数中与图表示学习算法性能Yi的最大值相对应的超参数作为最优超参数,实现考虑可解释性的图表示学习过程中最优超参数的确定。
上述方法还可以根据多层感知机中全连接层的权重绝对值之和,计算每个超参数对于图表示学习算法性能的重要度,根据重要度指导人工的后续调优。
本发明的上述确定最优超参数的方法中,从待确定最优超参数的原图中采样多个子图的方法为:根据待确定最优超参数的原图中给定的多类型节点标签,从同一类型节点中确定子图的起点,每个时刻从当前节点随机跳动到一个临近节点,连续多个时刻的随机跳动,多个节点构成一条路径。选取多个不同类型节点作为起点得到多条路径,多条路径上的所有节点集合的并集即为采样的节点集合,原图上由该采样节点集合诱导出一个子图;重复本步骤多次,得到多个子图。或者,也可以根据区域检测方法,从多个区域的一个区域中确定子图的起点,每个时刻从当前节点随机跳到一个临近节点,连续多个时刻的随机跳动,多个节点构成一条路径。选取多个区域中的节点作为起点得到多条路径,多条路径上的所有节点集合的并集即为采样的节点集合,原图上由该采样节点集合诱导出一个子图;重复本步骤多次,得到多个子图。
上述方法中,所述的根据具有可解释性的特征,在子图上执行图表示学习算法,保留图表示学习算法的结果样本;包括以下步骤:
(1)根据图论理论,从原图和多个子图中提取特征,提取的特征分别包括原图和多个子图的点集大小、边集大小、互有链接的节点三元组数目和连通块的数目;
(2)根据原图和多个子图的特征,利用以下堪培拉距离公式,分别计算多个子图与原图之间的相似度;
Figure BDA0002587710000000041
其中gi表示第i个子图与原图的相似度,fi和f分别表示第i个子图和原图的特征,d表示特征的维度,
Figure BDA0002587710000000042
和fk分别表示第i个子图和原图的第k维特征;
(3)按相似度大小分配在子图上运行图表示学习算法的次数,按分配的计算次数,分别在多个子图上执行图表示学习算法,每次执行时随机选取一组图表示学习算法的超参数,每个超参数设定一个取值范围,将每次图表示学习算法的计算结果记为一条样本,每条样本中包括子图特征、图表示学习算法的超参数以及结果指标。
本发明提出的结合可解释性的图表示学习的超参数优化方法,其优点是:
本发明的结合可解释性的图表示学习的超参数优化方法,针对超参数优化在真实图表示学习场景下存在的问题,提取针对图数据设计的特征,并从采样的子图中学习可迁移的知识,同时保证了效率和性能。本发明方法中采用了完全可解释的图特征,并对不同的超参数和图特征做了针对性的去相关化,提高了超参数优化方法的可解释性。本发明方法考虑了可解释性在真实应用场景的重要性,开发了基于子图采样和去相关化的超参数优化技术,并获得了完全可解释的图特征,从而有效解释了下一轮试验超参数选取特定值的原因,平衡了超参数优化方法的整体性能和效率。
附图说明
图1为本发明提出的结合可解释性的图表示学习超参数优化方法的流程图。
图2为根据本发明实施例的采样器的部分结构示意图。
图3为根据本发明实施例的去相关带权回归器的部分结构示意图。
具体实施方式
本发明提出的考虑可解释性的图表示学习过程中确定最优超参数的方法,包括以下步骤:
(1)从待确定最优超参数的原图中采样多个子图;
(2)根据具有可解释性的特征,在子图上执行图表示学习算法,保留图表示学习算法的结果样本;
(3)从样本中消除图表示学习算法的超参数与子图特征之间的相关度;
研究超参数与图特征的不同取值对图表示学习算法性能的影响,而超参数与图特征之间不可避免会存在某些相关性,使得超参数对图表示学习算法性能的影响不光取决于自身取值,同时还取决于其它图特征以及其它未知隐含因素的取值。这就极大影响了对最优超参数取值的估计与判断。为了排除其它因素对超参数与算法性能关系的干扰,赋予不同数据样本不同的权重,以此将非超参数因素的影响去掉,从而达到去相关性的目的,在满足一定条件下,权重赋予机制能够使得超参数对算法性能的影响最大化地取决于超参数本身的取值,从而更准确地学习出不同超参数对算法性能影响的重要性以更有可解释性地对超参数优化顺序进行选择。
设定循环次数K,初始化时设循环次数k为1;
设定有n个样本,其中每个样本包含p1个图表示学习算法的超参数和p2个子图特征,用一个n行(p1+p2)列的矩阵X表示超参数和图特征数据,X=[A,B],其中A为一个n行p1列的超参数矩阵,B为一个n行p2列的子图特征矩阵;
利用以下损失方程,求解样本权重γ,使得:
Figure BDA0002587710000000051
满足
Figure BDA0002587710000000052
γ=diag(γi,…γn)
式中,γ为一个n维向量,diag(γi,…,γn)为以γi,…,γn为对角线的对角矩阵,
Figure BDA0002587710000000053
表示X的二范数,上标T表示矩阵转置,
Figure BDA0002587710000000054
表示求期望;
用相关度LDeco表示上述损失方程:
Figure BDA0002587710000000055
由上式得到,当p1和p2固定且样本数n足够大的时候,一定存在一个非负取值的γ,使得A中的超参数互相之间的影响趋近于无,即:
Figure BDA0002587710000000061
为了使得最小化
Figure BDA0002587710000000062
的γ有唯一解,对γ作如下限制:
Figure BDA0002587710000000063
其中,λ1和λ2是人为设置的大常数,c={γ:|γi|≤c},c为常数,本发明的一个实施例中,c的取值为1000;
由此得到,当p1和p2固定且样本数n足够大时,λ1n>>p22且p2>>max(λ12),通过
Figure BDA0002587710000000064
进行重加权后,A中的超参数与样本X中变量的相关度变为0;
(4)确定原图上的图表示学习算法的最优超参数,包括以下步骤:
(4-1)以步骤(2)的图表示学习算法的超参数和子图特征作为多层感知机的输入,多层感知机的输出为图表示学习算法的性能结果;
(4-2)利用步骤(3)的样本权重,对步骤(4-1)的多层感知机进行训练,预测图表示学习算法的性能。设定多层感知机的优化目标如下:
Figure BDA0002587710000000065
其中,Yi表示第i个样本Xi中的超参数和图特征下的图表示学习算法性能,Φ是多层感知机的拟合函数,Θ是多层感知机自身的参数,训练过程中得到多层感知机全连接层的权重;
(4-3)根据步骤(4-2)所有超参数在多层感知机中全连接层的权重绝对值之和,利用下式计算该超参数对于图表示学习算法性能的重要度:
Figure BDA0002587710000000066
其中weight(xi)表示第i个超参数对于图表示学习算法性能的重要度,
Figure BDA0002587710000000067
表示多层感知机中计算使用的权重矩阵的第j行,第i列;
(4-4)对超参数进行重要性降序排序,依次对每个超参数进行优化,优化的过程中固定其他超参数的取值,优化的过程为对当前超参数在取值范围内进行均匀采样,将超参数的取值和原图的特征作为多层感知机的输入,多层感知机的输出为预测的图表示学习算法性能,取与图表示学习算法性能最高的值相对应的超参数作为待运行超参数取值;
(4-5)以步骤(4-4)的待运行超参数取值,在待确定最优超参数的原图上执行图表示学习算法,得到第k轮图表示学习算法性能,将原图的特征、使用的超参数以及第k轮图表示学习算法的结果作为一个新样本加入步骤(3)的n个样本中;
(4-6)对循环次数k进行判断,若k<K,则令k=k+1,返回步骤(3),若k≥K,则将K轮超参数中与图表示学习算法性能Yi的最大值相对应的超参数作为最优超参数,实现考虑可解释性的图表示学习过程中最优超参数的确定。
本发明方法还可以根据多层感知机中全连接层的权重绝对值之和,计算每个超参数对于图表示学习算法性能的重要度,根据影响度指导人工的后续调优。
本发明的上述确定最优超参数的方法中,从待确定最优超参数的原图中采样多个子图的方法为:根据待确定最优超参数的原图中给定的多类型节点标签(如社交网络的用户信息),从同一类型节点中确定子图的起点,每个时刻从当前节点随机跳动到一个临近节点,连续多个时刻的随机跳动,多个节点构成一条路径。选取多个不同类型节点作为起点得到多条路径,多条路径上的所有节点集合的并集即为采样的节点集合,原图上由该采样节点集合诱导出一个子图;重复本步骤多次,得到多个子图。也可以根据区域检测方法,从多个区域的一个区域中确定子图的起点,每个时刻从当前节点随机跳到一个临近节点,连续多个时刻的随机跳动,多个节点构成一条路径。选取多个区域中的节点作为起点得到多条路径,多条路径上的所有节点集合的并集即为采样的节点集合,原图上由该采样节点集合诱导出一个子图;重复本步骤多次,得到多个子图。
上述方法中,根据具有可解释性的特征,在子图上执行图表示学习算法,保留图表示学习算法的结果样本,包括以下步骤:
(1)根据图论理论,从原图和多个子图中提取特征,提取的特征分别包括原图和多个子图的点集大小、边集大小、互有链接的节点三元组数目和连通块的数目;
(2)根据原图和多个子图的特征,利用以下堪培拉距离公式,分别计算多个子图与原图之间的相似度;
Figure BDA0002587710000000071
其中gi表示第i个子图与原图的相似度,fi和f分别表示第i个子图和原图的特征,d表示特征的维度,
Figure BDA0002587710000000072
和fk分别表示第i个子图和原图的第k维特征;
(3)按相似度大小分配在子图上运行图表示学习算法的次数,相似度越高,分配的计算次数越多,按分配的计算次数,分别在多个子图上执行图表示学习算法,每次执行时随机选取一组图表示学习算法的超参数,每个超参数设定一个取值范围,将每次图表示学习算法的计算结果记为一条样本,每条样本中包括子图特征、图表示学习算法的超参数以及结果指标。
下面结合附图,进一步介绍本发明内容:
参照附图描述根据本发明实施例提出的结合可解释性的图表示学习超参数优化方法及装置,首先将参照附图描述根据本发明实施例提出的结合可解释性的图表示学习超参数优化方法。
图1是本发明一个实施例的结合可解释性的图表示学习超参数优化方法的流程图。
如图1所示,该结合可解释性的图表示学习超参数优化方法包括以下步骤:
在步骤S101中,采样若干小规模的子图。
可以理解的是,如图2所示,本发明实施例输入一个图的点和边信息,以及节点的标签等信息,对于原图执行若干次截断随机游走得到采样的点集,原图由此点集诱导出的子图即是采样得到的子图。随机游走的起点由不同标签的节点或者社区检测方法检测出的不同社区来决定。
在步骤S102中,根据完全可解释的图特征,分配有限的算力以及用于后续样本权重。
在本发明的一个实施例中,根据完全可解释的图特征,包括通过可解释的图论概念得到的,提取时间复杂度为线性的特征。
具体而言,为了得到完全可解释的图特征,本发明实施例采用了一些线性计算复杂度的图论概念,例如点集大小、边集大小、图中三角形的个数、全局聚类系数、最大总度数、连通块个数等,保证了计算的高效性。对于每个子图和原图分别计算图特征,利用堪培拉距离来计算图之间的相似度,根据相似度动态分配计算次数。
在步骤S103中,对不同的超参数和图特征做去相关化。
进一步地,在本发明的一个实施例中,对不同的超参数和图特征做去相关化,包括:采用采样重测的方式,考虑超参数的一阶距(均值),以某一超参数与所有其他超参数和图特征之间的相关性作为损失,最后得到一个去相关之后的样本权重。
在步骤S104中,根据去相关化后的子图和部分原图计算结果,优化原图的图表示学习超参数。
进一步地,在本发明的一个实施例中,根据去相关化后的子图和部分原图计算结果,优化原图的图表示学习超参数,包括:利用子图和原图之前的图表示算法运行结果,训练期望性能预测网络,对本轮试验采用的超参数进行调整,通过多轮试验来优化图表示学习的超参数。
可以理解的是,如图3所示,以超参数和图特征作为输入,利用多层感知机对于最终的性能来进行预测,从而调整下一轮的超参数。调整的策略是按照超参数在多层感知机的权重来进行降序排序,每次固定其他超参数,对当前超参数进行细调。
下面将以用图卷积神经网络学习社交网络好友推荐为例对结合可解释性的图表示学习超参数优化方法进行进一步阐述,具体包括:
(1)在社交网络中快速检测出若干社区,以不同社区作为起点采样若干个子图。
(2)图的可解释特征在社交网络的意义为,互有好友关系的三人组、最多好友个数等。
(3)去相关后的预测网络能对图卷积神经网络的调优起到很大的指导作用,根据其权重矩阵,可以看出最先调节了Dropout的值,接着是学习率,整体的可解释性大大提升。
综上,(1)本发明实施例基于子图采样,保证了算法性能与计算效率之间的平衡。(2)本发明实施例通过完全可解释的图特征,以及超参数之间的去相关化,增强了系统的可解释性。
根据本发明实施例提出的结合可解释性的图表示学习超参数优化方法,通过利用子图和原图的可迁移知识,保持了很高的性能;通过采用完全可解释的图特征,在超参数优化过程中对不同的超参数和图特征做去相关处理,使得整体方法具备很高的可解释性。
其次参照附图描述根据本发明实施例提出的结合可解释性的图表示学习超参数优化装置。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (5)

1.一种考虑可解释性的图表示学习过程中确定最优超参数的方法,其特征在于该方法包括以下步骤:
(1)从待确定最优超参数的原图中采样多个子图;
(2)根据具有可解释性的特征,在子图上执行图表示学习算法,保留图表示学习算法的结果样本;
(3)从样本中消除图表示学习算法的超参数与子图特征之间的相关度;
设定循环次数K,初始化时设循环次数k为1;
设定有n个样本,其中每个样本包含p1个图表示学习算法的超参数和p2个子图特征,用一个n行(p1+p2)列的矩阵X表示超参数和图特征数据,X=[A,B],其中A为一个n行p1列的超参数矩阵,B为一个n行p2列的子图特征矩阵;
利用以下损失方程,求解样本权重γ,使得:
Figure FDA0002587709990000011
满足
Figure FDA0002587709990000012
γ=diag(γi,...,γn)
式中,γ为一个n维向量,diag(γi,...,γn)为以γi,...,γn为对角线的对角矩阵,
Figure FDA0002587709990000013
表示X的二范数,上标T表示矩阵转置,
Figure FDA0002587709990000014
表示求期望;
用相关度LDeco表示上述损失方程:
Figure FDA0002587709990000015
为了使得最小化
Figure FDA0002587709990000016
的γ有唯一解,对γ作如下限制:
Figure FDA0002587709990000017
其中,λ1和λ2是人为设置的大常数,
Figure FDA0002587709990000018
c为常数;
(4)确定原图上的图表示学习算法的最优超参数,包括以下步骤:
(4-1)以步骤(2)的图表示学习算法的超参数和子图特征作为多层感知机的输入,多层感知机的输出为图表示学习算法的性能结果;
(4-2)利用步骤(3)的样本权重,对步骤(4-1)的多层感知机进行训练,设定多层感知机的优化目标如下:
Figure FDA0002587709990000021
其中,Yi表示第i个样本Xi中的超参数和图特征下的图表示学习算法性能,Φ是多层感知机的拟合函数,Θ是多层感知机自身的参数,训练过程中得到多层感知机全连接层的权重;
(4-3)根据步骤(4-2)所有超参数在多层感知机中全连接层的权重绝对值之和,利用下式计算该超参数对于图表示学习算法性能的重要度:
Figure FDA0002587709990000022
其中weight(xi)表示第i个超参数对于图表示学习算法性能的重要度,
Figure FDA0002587709990000023
表示多层感知机中计算使用的权重矩阵的第j行,第i列;
(4-4)对超参数进行重要性降序排序,依次对每个超参数进行优化,优化的过程中固定其他超参数的取值,优化的过程为对当前超参数在取值范围内进行均匀采样,将超参数的取值和原图的特征作为多层感知机的输入,多层感知机的输出为预测的图表示学习算法性能,取与图表示学习算法性能最高的值相对应的超参数作为待运行超参数取值;
(4-5)以步骤(4-4)的待运行超参数取值,在待确定最优超参数的原图上执行图表示学习算法,得到第k轮图表示学习算法性能,将原图的特征、使用的超参数以及第k轮图表示学习算法的结果作为一个新样本加入步骤(3)的n个样本中;
(4-6)对循环次数k进行判断,若k<K,则令k=k+1,返回步骤(3),若k≥K,则将K轮超参数中与图表示学习算法性能Yi的最大值相对应的超参数作为最优超参数,实现考虑可解释性的图表示学习过程中最优超参数的确定。
2.如权利要求1所述的确定最优超参数的方法,其特征在于还包括根据多层感知机中全连接层的权重绝对值之和,计算每个超参数对于图表示学习算法性能的重要度,根据影响度指导人工的后续调优。
3.如权利要求1所述的确定最优超参数的方法,其特征在于从待确定最优超参数的原图中采样多个子图的方法为:根据待确定最优超参数的原图中给定的多类型节点标签,从同一类型节点中确定子图的起点,每个时刻从当前节点随机跳动到一个临近节点,连续多个时刻的随机跳动,多个节点构成一条路径。选取多个不同类型节点作为起点得到多条路径,多条路径上的所有节点集合的并集即为采样的节点集合,原图上由该采样节点集合诱导出一个子图;重复本步骤多次,得到多个子图。
4.如权利要求1所述的确定最优超参数的方法,其特征在于所述的从待确定最优超参数的原图中采样多个子图的方法为:根据区域检测方法,从多个区域的一个区域中确定子图的起点,每个时刻从当前节点随机跳到一个临近节点,连续多个时刻的随机跳动,多个节点构成一条路径。选取多个区域中的节点作为起点得到多条路径,多条路径上的所有节点集合的并集即为采样的节点集合,原图上由该采样节点集合诱导出一个子图;重复本步骤多次,得到多个子图。
5.如权利要求3或4所述的确定最优超参数的方法,其特征在于所述的根据具有可解释性的特征,在子图上执行图表示学习算法,保留图表示学习算法的结果样本;包括以下步骤:
(1)根据图论理论,从原图和多个子图中提取特征,提取的特征分别包括原图和多个子图的点集大小、边集大小、互有链接的节点三元组数目和连通块的数目;
(2)根据原图和多个子图的特征,利用以下堪培拉距离公式,分别计算多个子图与原图之间的相似度;
Figure FDA0002587709990000031
其中gi表示第i个子图与原图的相似度,fi和f分别表示第i个子图和原图的特征,d表示特征的维度,
Figure FDA0002587709990000032
和fk分别表示第i个子图和原图的第k维特征;
(3)按相似度大小分配在子图上运行图表示学习算法的次数,按分配的计算次数,分别在多个子图上执行图表示学习算法,每次执行时随机选取一组图表示学习算法的超参数,每个超参数设定一个取值范围,将每次图表示学习算法的计算结果记为一条样本,每条样本中包括子图特征、图表示学习算法的超参数以及结果指标。
CN202010689045.XA 2020-07-16 2020-07-16 一种结合可解释性的图表示学习的超参数优化方法 Active CN111931416B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010689045.XA CN111931416B (zh) 2020-07-16 2020-07-16 一种结合可解释性的图表示学习的超参数优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010689045.XA CN111931416B (zh) 2020-07-16 2020-07-16 一种结合可解释性的图表示学习的超参数优化方法

Publications (2)

Publication Number Publication Date
CN111931416A true CN111931416A (zh) 2020-11-13
CN111931416B CN111931416B (zh) 2022-09-16

Family

ID=73313219

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010689045.XA Active CN111931416B (zh) 2020-07-16 2020-07-16 一种结合可解释性的图表示学习的超参数优化方法

Country Status (1)

Country Link
CN (1) CN111931416B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110502669A (zh) * 2019-07-12 2019-11-26 中国人民解放军战略支援部队信息工程大学 基于n边dfs子图的轻量级无监督图表示学习方法及装置
CN110889001A (zh) * 2019-11-25 2020-03-17 浙江财经大学 一种基于图表征学习的大图采样可视化方法
CN110991523A (zh) * 2019-11-29 2020-04-10 西安交通大学 一种面向无人驾驶车辆检测算法性能的可解释性评估方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110502669A (zh) * 2019-07-12 2019-11-26 中国人民解放军战略支援部队信息工程大学 基于n边dfs子图的轻量级无监督图表示学习方法及装置
CN110889001A (zh) * 2019-11-25 2020-03-17 浙江财经大学 一种基于图表征学习的大图采样可视化方法
CN110991523A (zh) * 2019-11-29 2020-04-10 西安交通大学 一种面向无人驾驶车辆检测算法性能的可解释性评估方法

Also Published As

Publication number Publication date
CN111931416B (zh) 2022-09-16

Similar Documents

Publication Publication Date Title
CN110675623B (zh) 基于混合深度学习的短时交通流量预测方法、系统、装置
CN113256066B (zh) 基于PCA-XGBoost-IRF的作业车间实时调度方法
CN109886464B (zh) 基于优化奇异值分解生成特征集的低信息损失短期风速预测方法
CN111967594A (zh) 一种神经网络压缩方法、装置、设备及存储介质
CN112465120A (zh) 一种基于进化方法的快速注意力神经网络架构搜索方法
Zhong et al. Where to Prune: Using LSTM to Guide End-to-end Pruning.
Jing et al. AutoRSISC: Automatic design of neural architecture for remote sensing image scene classification
CN113988263A (zh) 工业物联网边缘设备中基于知识蒸馏的空时预测方法
CN115544239A (zh) 一种基于深度学习模型的布局偏好预测方法
CN113807176A (zh) 一种基于多知识融合的小样本视频行为识别方法
CN110222824B (zh) 智能算法模型自主生成及进化方法、系统、装置
Nie et al. Adap-EMD: Adaptive EMD for aircraft fine-grained classification in remote sensing
Yan et al. A novel clustering algorithm based on fitness proportionate sharing
CN112486467B (zh) 一种双重交互关系和注意力机制的交互式服务推荐方法
CN113282747A (zh) 一种基于自动机器学习算法选择的文本分类方法
CN111931416B (zh) 一种结合可解释性的图表示学习的超参数优化方法
Yamada et al. Weight Features for Predicting Future Model Performance of Deep Neural Networks.
CN113032612B (zh) 一种多目标图像检索模型的构建方法及检索方法和装置
CN115661539A (zh) 一种嵌入不确定性信息的少样本图像识别方法
CN114254199A (zh) 基于二分图投影和node2vec的课程推荐方法
JP2022175851A (ja) 情報処理装置、情報処理方法、及びプログラム
CN113298233A (zh) 一种基于代理模型的渐进式深度集成架构搜索方法
Kahraman Correlation Loss: Enforcing Correlation Between Classification and Localization in Object Detection
CN117668701B (zh) Ai人工智能机器学习系统及方法
Zhang et al. A Novel Encoder and Label Assignment for Instance Segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant