CN110569969A - 网络模型结构的采样方法、装置以及电子设备 - Google Patents

网络模型结构的采样方法、装置以及电子设备 Download PDF

Info

Publication number
CN110569969A
CN110569969A CN201910863290.5A CN201910863290A CN110569969A CN 110569969 A CN110569969 A CN 110569969A CN 201910863290 A CN201910863290 A CN 201910863290A CN 110569969 A CN110569969 A CN 110569969A
Authority
CN
China
Prior art keywords
model structure
sampling
model
structure set
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910863290.5A
Other languages
English (en)
Inventor
希滕
张刚
温圣召
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201910863290.5A priority Critical patent/CN110569969A/zh
Publication of CN110569969A publication Critical patent/CN110569969A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/086Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Physiology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请公开了一种网络模型结构的采样方法、装置以及电子设备,涉及神经网络搜索领域。具体实现方案为:根据搜索空间的第一模型结构集合的第一候选模型结构与第二模型结构集合的互信息,确定第一采样模型结构,第二模型结构集合中包括第一模型结构集合中除了第一候选模型结构之外的模型结构;根据第一采样模型结构的性能,对概率分布模型的超参数进行更新,得到超参数的预测值;判断超参数的预测值是否满足采样终止条件,若不满足,则继续采样并更新超参数的预测值,若满足,则采样结束。仅仅采用较少次数的采样就能够得到逼近真实值的超参数,提高了搜索效率,减少了搜索时间。

Description

网络模型结构的采样方法、装置以及电子设备
技术领域
本申请涉及一种计算机领域,尤其涉及一种神经网络架构搜索领域。
背景技术
深度学习技术在很多方向上都取得了巨大的成功,最近几年NAS技术(NeuralArchitecture Search,神经网络架构搜索)成为研究热点。NAS是用算法代替繁琐的人工操作,在海量的搜索空间中自动搜索出最佳的神经网络架构。进行神经网络的架构搜索的步骤包括:首先,搜索空间定义、确定搜索空间。然后,根据所采用的优化算法,比如用强化学习、进化算法、贝叶斯优化等算法确定搜索策略。最后,搜索得到模型结构的速度以及模型的性能。
搜索策略中采样问题是指在模型结构自动搜索过程中,每轮迭代时控制器生成一组网络编码,该编码经过解码唯一对应一个网络结构。由于网络结构与网络性能之间的关系需要大量的采样才能得到,控制器需要反复评估每个网络结构的性能来找出最优的采样网络结构。但是,每次评估模型性能耗时很大,导致整个模型结构自动搜索过程代价很大。目前,常用的有三种网络结构的采样方法,包括:基于强化学习的随机采样方法、基于进化算法的随机采样方法、基于梯度的采样方法。上述三种方法的缺点是,在利用控制器搜索采样网络结构时,通常需要采样上万个网络模型结构来训练控制器,进而导致搜索时间久、效率低。
发明内容
本申请实施例提供一种网络模型结构的搜索方法、装置以及电子设备,以解决现有技术中的一个或多个技术问题。
第一方面,本申请实施例提供了一种网络模型结构的采样方法,包括:
根据搜索空间的第一模型结构集合的第一候选模型结构与第二模型结构集合的互信息,确定第一采样模型结构,第二模型结构集合中包括第一模型结构集合中除了第一候选模型结构之外的模型结构;
根据第一采样模型结构的性能,对概率分布模型的超参数进行更新,得到超参数的预测值;
判断超参数的预测值是否满足采样终止条件,若不满足,则继续采样并更新超参数的预测值,若满足,则采样结束。
利用本实施方式提供采样方法,不仅能够得到较好的采样模型结构,进而搜索到较好的网络模型结构。而且显著提高搜索效率,与现有的强化学习和进化算法的策略相比,网络模型结构的搜索效率可以提升几十倍。
在一种实施方式中,根据搜索空间的第一模型结构集合的第一候选模型结构与第二模型结构集合的互信息,确定第一采样模型结构,包括:
遍历第一模型结构集合中的N个模型结构,重复执行第一获取步骤,得到N个互信息;第一获取步骤包括:从第一模型结构集合中,选择出第一候选模型结构,并得到与选择出的第一候选模型结构对应的第二模型结构集合;获取每个第一候选模型结构与其对应的第二模型结构集合之间的互信息;
将N个互信息的最大值对应的第一候选模型结构确定为第一采样模型结构,N大于或等于2。
在本实施方式中,根据本实施方式提供的采样策略,获取互信息的最大值对应的网络模型结构,最大程度的包含了剩余网络模型结构的信息。将其作为采样模型结构,仅仅采用较少次数的采样就能够得到逼近真实值的超参数,提高了搜索效率,减少了搜索时间。
在一种实施方式中,还包括:
在第K次采样过程中,获取第K-1次之前的K-1个采样模型结构,并获取第三模型结构集合,第三模型结构集合中包括第一模型结构集合中除了K-1个采样模型结构之外的模型结构;
遍历第三模型结构集合中的N-(K-1)个模型结构,重复执行第二获取步骤,得到N-(K-1)个互信息;第二获取步骤包括:从第三模型结构集合中选择出第二候选模型结构;将K-1个采样模型结构和第二候选模型结构组合,得到第四模型结构集合;获取第四模型结构集合与第五模型结构集合之间的互信息,第五模型结构集合中包括第一模型结构集合中除了第四模型结构集合之外的模型结构;
将N-(K-1)个互信息中最大值对应的第二候选模型结构确定为第K采样模型结构,K大于或等于2,N大于或等于2。
本实施方式中,根据本实施方式提供的采样策略,获取互信息的最大值对应的网络模型结构,最大程度的包含了剩余网络模型结构的信息。而且,在经过多次迭代取样的过程,由于加入了前一次得到的采样模型结构,使得采样更准确,进一步包含更多将其作为采样模型结构,仅仅采用更少次数的采样就能够得到逼近真实值的超参数,提高了搜索效率,减少了搜索时间。
在一种实施方式中,还包括:
根据每次更新得到的超参数的预测值,确定更新的概率分布模型结构的性能;
根据更新的概率分布模型结构的性能,确定采样终止条件。
本实施方式中,采样终止条件由更新的概率分布模型结构的性能确定,能够将采样次数和概率分布模型更新的情况相结合,准确判断采样次数,既保证了概率分布模型更新的充分性,又避免了不必要采样导致的资源浪费的情况。
第二方面,本申请还提供了一种网络模型结构的采样装置,包括:
第一确定模块,用于根据搜索空间的第一模型结构集合的第一候选模型结构与第二模型结构集合的互信息,确定第一采样模型结构,第二模型结构集合中包括第一模型结构集合中除了第一候选模型结构之外的模型结构;
更新模块,用于根据第一采样模型结构的性能,对概率分布模型的超参数进行更新,得到超参数的预测值;
判断模块,用于判断超参数的预测值是否满足采样终止条件,若不满足,则继续采样并更新超参数的预测值,若满足,则采样结束。
在一种实施方式中,采样模型确定模块包括:
获取执行单元,用于遍历第一模型结构集合中的N个模型结构,重复执行第一获取步骤,得到N个互信息;第一获取步骤包括:从第一模型结构集合中,选择出第一候选模型结构,并得到与选择出的第一候选模型结构对应的第二模型结构集合;获取每个第一候选模型结构与其对应的第二模型结构集合之间的互信息;
采样确定单元,用于将N个互信息的最大值对应的第一候选模型结构确定为第一采样模型结构,N大于或等于2。
在一种实施方式中,还包括:
第三确定模块,用于在第K次采样过程中,获取第K-1次之前的K-1个采样模型结构,并获取第三模型结构集合,第三模型结构集合中包括第一模型结构集合中除了K-1个采样模型结构之外的模型结构;
获取模块,用于遍历第三模型结构集合中的N-(K-1)个模型结构,重复执行第二获取步骤,得到N-(K-1)个互信息;第二获取步骤包括:从第三模型结构集合中选择出第二候选模型结构;将K-1个采样模型结构和第二候选模型结构组合,得到第四模型结构集合;获取第四模型结构集合与第五模型结构集合之间的互信息,第五模型结构集合中包括第一模型结构集合中除了第四模型结构集合之外的模型结构;
第四确定模块,用于将N-(K-1)个互信息中最大值对应的第二候选模型结构确定为第二采样模型结构,K大于或等于2,N大于或等于2。
在一种实施方式中,还包括:
第五确定模块,用于根据每次更新得到的超参数的预测值,确定更新的概率分布模型结构的性能;根据更新的概率分布模型结构的性能,确定采样终止条件。
上述申请中的一个实施例具有如下优点或有益效果:根据获取候选模型结构与模型结构集合的互信息,确定采样模型结构的技术手段,所以克服了采样次数多,搜索效率低的技术问题,进而达到仅仅采用较少次数的采样就能够得到逼近真实值的超参数,提高了搜索效率,减少了搜索时间的技术效果。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请的一种网络模型结构的采样方法流程示意图;
图2是根据本申请的另一种网络模型结构的采样方法流程示意图;
图3是根据本申请的一种网络模型结构的采样装置结构框图;
图4是根据本申请的另一种网络模型结构的采样装置结构框图;
图5是用来实现本申请实施例的一种网络模型结构的采样方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
实施例一
在一种具体的实施方式中,如图1所示,本申请实施例提供了一种网络模型结构的采样方法,包括:
步骤S10:根据搜索空间的第一模型结构集合的第一候选模型结构与第二模型结构集合的互信息,确定第一采样模型结构,第二模型结构集合中包括第一模型结构集合中除了第一候选模型结构之外的模型结构;
步骤S20:根据第一采样模型结构的性能,对概率分布模型的超参数进行更新,得到超参数的预测值;
步骤S30:判断超参数的预测值是否满足采样终止条件,若不满足,则继续采样并更新超参数的预测值,若满足,则采样结束。
在一种示例中,通过概率分布模型的超参数搜索时,估计出概率分布模型的超参数后,就可以快速预测搜索空间中任意网络模型结构的性能。如何通过最少的采样次数就可以估计出概率分布模型的超参数是实施方式解决的技术问题。由于网络模型结构的搜索空间特别大,在采样时无法遍历所有的网络模型结构。另外,如果采样相似的网络模型结构,对于超参数的估计收益非常小。
将概率分布与信息论相结合,提出了采样策略。采样策略可以包括互信息最大化的采样策略,即采样模型结构所包含的信息最大化。互信息是信息论中一种有用的信息度量,可以看成是一个随机变量中包含的关于另一个随机变量的信息量。信道中总是存在噪声和干扰,信源发出消息X,通过通道后可能受到由于干扰作用引起的变形Y,收到后推测信源发出X的概率,这一过程可由后验概率p(X|Y)来描述。信源发出X的概率p(X)称为先验概率,定义后验概率与先验概率的比值的对数为Y对X的互信息量。
在对概率分布模型的超参数进行每轮迭代更新之前,都可以选择通过互信息最大化的策略进行采样。采样之后,根据采样模型结构的性能,利用贝叶斯估计理论,更新概率分布模型的超参数。根据更新后的概率分布的超参数继续进行下一轮的迭代。当互信息足够大时,采样结束,算法收敛。需要注意的是,在第一次采样之前,先要初始化概率分布模型的超参数。由于是逐步迭代的过程,互信息最大化的采样策略的收敛性并不依赖于该初始化的超参数。获取互信息的方式可以包括多种,例如,可以获取每个网络模型结构与除选取的网络模型结构之外的剩余的网络模型结构的组合之间的多个互信息。将多个互信息中的最大值对应的网络模型结构作为候选模型结构。互信息越大,采样模型结构的性能的置信度越高,更新概率分布模型的超参数后得到的预测值越来越准确。利用本实施方式提供采样方法,不仅能够得到较好的采样模型结构,进而搜索到较好的网络模型结构。而且显著提高搜索效率,与现有的强化学习和进化算法的策略相比,网络模型结构的搜索效率可以提升几十倍。
在一种实施方式中,如图2所示,步骤S10:包括:
步骤S101:遍历第一模型结构集合中的N个模型结构,重复执行第一获取步骤,得到N个互信息;第一获取步骤包括:从第一模型结构集合中,选择出第一候选模型结构,并得到与选择出的第一候选模型结构对应的第二模型结构集合;获取每个第一候选模型结构与其对应的第二模型结构集合之间的互信息;
步骤S102:将N个互信息的最大值对应的第一候选模型结构确定为第一采样模型结构,N大于或等于2。
在一种示例中,以搜索空间中包括5个网络模型结构为例说明,N=5。搜索空间中的第一模型结构集合包括了A模型结构、B模型结构、C模型结构、D模型结构、E模型结构。选择A模型结构,得到B模型结构、C模型结构、D模型结构、E模型结构组成的第二模型结构集合。获取A模型结构与第二模型结构集合之间的互信息。继续选择B模型结构,得到A模型结构、C模型结构、D模型结构、E模型结构组成的第二模型结构集合。获取B模型结构与第二模型结构集合之间的互信息。以此类推,直至遍历完第一模型集合中的所有模型结构,得到5个互信息。如果互信息中的最大值对应的模型结构是A模型结构,则将A模型结构确定为第一采样模型结构。一次采样结束之后,根据第一采样模型结构的性能,对概率分布模型的超参数进行更新,得到超参数的预测值;判断超参数的预测值是否满足采样终止条件,若不满足,则继续采样,若满足,则采样结束。当然,实际情况中,搜索空间中的网络模型结构成千上万,根据本实施方式提供的采样策略,获取互信息的最大值对应的网络模型结构,最大程度的包含了剩余网络模型结构的信息。将其作为采样模型结构,仅仅采用较少次数的采样就能够得到逼近真实值的超参数,提高了搜索效率,减少了搜索时间。
如图2所示,步骤S201:根据第一采样模型结构的性能,对概率分布模型的超参数进行更新,得到超参数的第一个预测值。
在一种实施方式中,如图2所示,还包括:
步骤S11:在第K次采样过程中,获取第K-1次之前的K-1个采样模型结构,并获取第三模型结构集合,第三模型结构集合中包括第一模型结构集合中除了K-1个采样模型结构之外的模型结构;
步骤S12:遍历第三模型结构集合中的N-(K-1)个模型结构,重复执行第二获取步骤,得到N-(K-1)个互信息;第二获取步骤包括:从第三模型结构集合中选择出第二候选模型结构;将K-1个采样模型结构和第二候选模型结构组合,得到第四模型结构集合;获取第四模型结构集合与第五模型结构集合之间的互信息,第五模型结构集合中包括第一模型结构集合中除了第四模型结构集合之外的模型结构;
步骤S13:将N-(K-1)个互信息中最大值对应的第二候选模型结构确定为第K采样模型结构,K大于或等于2,N大于或等于2。
在一种示例中,搜索空间中的第一模型结构集合包括了A模型结构、B模型结构、C模型结构、D模型结构、E模型结构。以N=5,第K=2次采样和第K=3次采样为例进行说明。
在第2次采样过程中,获取第1次采样的1个采样模型结构,如第一采样模型结构为A模型结构。获取第三模型结构集合,第三模型结构集合中包括第一模型结构集合中除了第一采样模型结构之外的模型结构,即B模型结构、C模型结构、D模型结构、E模型结构。从第三模型结构集合中选择出第二候选模型结构,如B模型结构,将A模型结构和B模型结构组合,得到第四模型结构集合。第五模型结构集合中包括C模型结构、D模型结构、E模型结构。获取第四模型结构集合与第五模型结构集合之间的互信息。遍历第三模型结构集合中的剩余模型结构。再次从第三模型结构集合中选择出第二候选模型结构,如C模型结构,将A模型结构和C模型结构组合,得到第四模型结构集合。第五模型结构集合中包括B模型结构、D模型结构、E模型结构。获取第四模型结构集合与第五模型结构集合之间的另一互信息。以此类推,得到4个互信息。如果互信息中最大值对应的第二候选模型结构为C模型结构,则将C模型结构确定为第二采样模型结构。
在第3次采样过程中,获取第2次采样之前的2个采样模型结构,第一采样模型结构(A模型结构)和第二采样模型结构(C模型结构)。获取第三模型结构集合,第三模型结构集合中包括第一模型结构集合中除了第一采样模型结构(A模型结构)和第二采样模型结构(C模型结构)之外的模型结构,即B模型结构、D模型结构、E模型结构。从第三模型结构集合中选择出第二候选模型结构,如E模型结构,将A模型结构、C模型结构以及E模型结构组合,得到第四模型结构集合。第五模型结构集合中包括B模型结构、E模型结构。获取第四模型结构集合与第五模型结构集合之间的互信息。遍历第三模型结构集合中的剩余模型结构。再次从第三模型结构集合中选择出第二候选模型结构,如B模型结构,将A模型结构。C模型结构以及B模型结构组合,得到第四模型结构集合。第五模型结构集合中包括D模型结构、E模型结构。获取第四模型结构集合与第五模型结构集合之间的另一互信息。以此类推,得到3个互信息。如果互信息中最大值对应的第二候选模型结构为E模型结构,则将E模型结构确定为第三采样模型结构。
当然,实际情况中,搜索空间中的网络模型结构成千上万,根据本实施方式提供的采样策略,获取互信息的最大值对应的网络模型结构,最大程度的包含了剩余网络模型结构的信息。而且,在经过多次迭代取样的过程,由于加入了前一次得到的采样模型结构,使得采样更准确,进一步包含更多将其作为采样模型结构,仅仅采用更少次数的采样就能够得到逼近真实值的超参数,提高了搜索效率,减少了搜索时间。
步骤S14:根据第K采样模型结构的性能,对概率分布模型的超参数进行更新得到超参数的第K个预测值。
在一种实施方式中,如图2所示,还包括:
步骤S40:每次更新得到的超参数的预测值,确定更新的概率分布模型结构的性能;根据更新的概率分布模型结构的性能,确定采样终止条件。
在一种示例中,在第1次采样之后,确定第一采样模型结构,根据第一采样模型结构的性能,对概率分布模型的超参数进行更新,得到超参数的第一预测值。步骤S301:判断超参数的第一预测值是否满足第一采样终止条件,第一采样终止条件是根据具有超参数的第一预测值的概率分布模型结构的性能确定的。若不满足,则继续采样。若满足,采样结束。在第2次采样之后,确定第二采样模型结构,根据第二采样模型结构的性能,对概率分布模型的超参数进行更新,得到超参数的第二预测值。判断超参数的第二预测值是否满足第二采样终止条件,第二采样终止条件是根据具有超参数的第二预测值的概率分布模型结构的性能确定的。若不满足,则继续采样。若满足,则停止采样。以此类推,步骤S302:判断超参数的第K预测值是否满足第K采样终止条件,第K采样终止条件是根据具有超参数的第K预测值的概率分布模型结构的性能确定的。直到互信息足够大,满足了采样终止条件之后,停止采样。
本实施方式中,采样终止条件由更新的概率分布模型结构的性能确定,能够将采样次数和概率分布模型更新的情况相结合,准确判断采样次数,既保证了概率分布模型更新的充分性,又避免了不必要采样导致的资源浪费的情况。
实施例二
在另一种具体实施方式中,如图3所示,提供了一种网络模型结构的采样装置100,包括:
第一确定模块110,用于根据搜索空间的第一模型结构集合的第一候选模型结构与第二模型结构集合的互信息,确定第一采样模型结构,第二模型结构集合中包括第一模型结构集合中除了第一候选模型结构之外的模型结构;
更新模块120,用于根据第一采样模型结构的性能,对概率分布模型的超参数进行更新,得到超参数的预测值;
判断模块130,用于判断超参数的预测值是否满足采样终止条件,若不满足,则继续采样并更新超参数的预测值,若满足,则采样结束。
在一种实施方式中,如图4所示,在网络模型结构的采样装置100的基础上形成网络模型结构的采样装置200,第一确定模块110包括:
获取执行单元1101,用于遍历第一模型结构集合中的N个模型结构,重复执行第一获取步骤,得到N个互信息;第一获取步骤包括:从第一模型结构集合中,选择出第一候选模型结构,并得到与选择出的第一候选模型结构对应的第二模型结构集合;获取每个第一候选模型结构与其对应的第二模型结构集合之间的互信息;
采样确定单元1102,用于将N个互信息的最大值对应的第一候选模型结构确定为第一采样模型结构。
在一种实施方式中,如图4所示,还包括:
第三确定模块140,用于在第K次采样过程中,获取第K-1次之前的K-1个采样模型结构,并获取第三模型结构集合,第三模型结构集合中包括第一模型结构集合中除了K-1个采样模型结构之外的模型结构;
获取模块150,用于遍历第三模型结构集合中的N-(K-1)个模型结构,重复执行第二获取步骤,得到N-(K-1)个互信息;第二获取步骤包括:从第三模型结构集合中选择出第二候选模型结构;将K-1个采样模型结构和第二候选模型结构组合,得到第四模型结构集合;获取第四模型结构集合与第五模型结构集合之间的互信息,第五模型结构集合中包括第一模型结构集合中除了第四模型结构集合之外的模型结构;
第四确定模块160,用于将N-(K-1)个互信息中最大值对应的第二候选模型结构确定为第二采样模型结构。
在一种实施方式中,如图4所示,还包括:
第五确定模块170,用于根据每次更新得到的超参数的预测值,确定更新的概率分布模型结构的性能;根据更新的概率分布模型结构的性能,确定采样终止条件。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图5所示,是根据本申请实施例的一种网络模型的采样方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图5所示,该电子设备包括:一个或多个处理器501、存储器502,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示图形用户界面(Graphical User Interface,GUI)的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图5中以一个处理器501为例。
存储器502即为本申请所提供的非瞬时计算机可读存储介质。其中,存储器存储有可由至少一个处理器执行的指令,以使至少一个处理器执行本申请所提供的一种网络模型的采样方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的一种网络模型的采样方法。
存储器502作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的一种网络模型的采样的方法对应的程序指令/模块(例如,附图3所示的xx模块X01、xx模块x02和xx模块x03)。处理器501通过运行存储在存储器502中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的一种网络模型的采样方法。
存储器502可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据一种网络模型采样的电子设备的使用所创建的数据等。此外,存储器502可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器502可选包括相对于处理器501远程设置的存储器,这些远程存储器可以通过网络连接至一种网络模型采样的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
一种网络模型的采样方法的电子设备还可以包括:输入装置503和输出装置504。处理器501、存储器502、输入装置503和输出装置504可以通过总线或者其他方式连接,图5中以通过总线连接为例。
输入装置503可接收输入的数字或字符信息,以及产生与一种网络模型采样的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置504可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(Liquid Cr5stal Displa5,LCD)、发光二极管(Light EmittingDiode,LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用集成电路(Application Specific Integrated Circuits,ASIC)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(programmable logic device,PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(Cathode Ra5 Tube,阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(Local Area Network,LAN)、广域网(Wide Area Network,WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,利用本申请提供采样方法,不仅能够得到较好的采样模型结构,进而搜索到较好的网络模型结构。而且显著提高搜索效率,与现有的强化学习和进化算法的策略相比,网络模型结构的搜索效率可以提升几十倍。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (10)

1.一种网络模型结构的采样方法,其特征在于,包括:
根据搜索空间的第一模型结构集合的第一候选模型结构与第二模型结构集合的互信息,确定第一采样模型结构,所述第二模型结构集合中包括所述第一模型结构集合中除了第一候选模型结构之外的模型结构;
根据所述第一采样模型结构的性能,对概率分布模型的超参数进行更新,得到所述超参数的预测值;
判断所述超参数的预测值是否满足采样终止条件,若不满足,则继续采样并更新所述超参数的预测值,若满足,则采样结束。
2.根据权利要求1所述的方法,其特征在于,根据搜索空间的第一模型结构集合的第一候选模型结构与第二模型结构集合的互信息,确定第一采样模型结构,包括:
遍历所述第一模型结构集合中的N个模型结构,重复执行第一获取步骤,得到N个互信息;所述第一获取步骤包括:从所述第一模型结构集合中,选择出第一候选模型结构,并得到与选择出的第一候选模型结构对应的所述第二模型结构集合;获取每个所述第一候选模型结构与其对应的所述第二模型结构集合之间的互信息;
将N个互信息的最大值对应的第一候选模型结构确定为第一采样模型结构,N大于或等于2。
3.根据权利要求1或2所述的方法,其特征在于,还包括:
在第K次采样过程中,获取第K-1次之前的K-1个采样模型结构,并获取第三模型结构集合,所述第三模型结构集合中包括所述第一模型结构集合中除了所述K-1个采样模型结构之外的模型结构;
遍历所述第三模型结构集合中的N-(K-1)个模型结构,重复执行第二获取步骤,得到N-(K-1)个互信息;所述第二获取步骤包括:从所述第三模型结构集合中选择出第二候选模型结构;将所述K-1个采样模型结构和所述第二候选模型结构组合,得到第四模型结构集合;获取所述第四模型结构集合与第五模型结构集合之间的互信息,所述第五模型结构集合中包括所述第一模型结构集合中除了所述第四模型结构集合之外的模型结构;
将N-(K-1)个互信息中最大值对应的第二候选模型结构确定为第二采样模型结构,K大于或等于2,N大于或等于2。
4.根据权利要求1所述的方法,其特征在于,还包括:
根据每次更新得到的超参数的预测值,确定更新的概率分布模型结构的性能;
根据更新的概率分布模型结构的性能,确定所述采样终止条件。
5.一种网络模型结构的采样装置,其特征在于,包括:
第一确定模块,用于根据搜索空间的第一模型结构集合的第一候选模型结构与第二模型结构集合的互信息,确定第一采样模型结构,所述第二模型结构集合中包括所述第一模型结构集合中除了第一候选模型结构之外的模型结构;
更新模块,用于根据所述第一采样模型结构的性能,对概率分布模型的超参数进行更新,得到所述超参数的预测值;
判断模块,用于判断所述超参数的预测值是否满足采样终止条件,若不满足,则继续采样并更新所述超参数的预测值,若满足,则采样结束。
6.根据权利要求5所述的装置,其特征在于,所述第一确定模块包括:
获取执行单元,用于遍历所述第一模型结构集合中的N个模型结构,重复执行第一获取步骤,得到N个互信息;所述第一获取步骤包括:从所述第一模型结构集合中,选择出第一候选模型结构,并得到与选择出的第一候选模型结构对应的所述第二模型结构集合;获取每个所述第一候选模型结构与其对应的所述第二模型结构集合之间的互信息;
采样确定单元,用于将N个互信息的最大值对应的第一候选模型结构确定为第一采样模型结构,N大于或等于2。
7.根据权利要求5或6所述的装置,其特征在于,还包括:
第三确定模块,用于在第K次采样过程中,获取第K-1次之前的K-1个采样模型结构,并获取第三模型结构集合,所述第三模型结构集合中包括所述第一模型结构集合中除了所述K-1个采样模型结构之外的模型结构;
获取模块,用于遍历所述第三模型结构集合中的N-(K-1)个模型结构,重复执行第二获取步骤,得到N-(K-1)个互信息;所述第二获取步骤包括:从所述第三模型结构集合中选择出第二候选模型结构;将所述K-1个采样模型结构和所述第二候选模型结构组合,得到第四模型结构集合;获取所述第四模型结构集合与第五模型结构集合之间的互信息,所述第五模型结构集合中包括所述第一模型结构集合中除了所述第四模型结构集合之外的模型结构;
第四确定模块,用于将N-(K-1)个互信息中最大值对应的第二候选模型结构确定为第二采样模型结构,K大于或等于2,N大于或等于2。
8.根据权利要求5所述的装置,其特征在于,还包括:
第五确定模块,用于根据每次更新得到的超参数的预测值,确定更新的概率分布模型结构的性能;根据更新的概率分布模型结构的性能,确定所述采样终止条件。
9.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-5中任一项所述的方法。
CN201910863290.5A 2019-09-11 2019-09-11 网络模型结构的采样方法、装置以及电子设备 Pending CN110569969A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910863290.5A CN110569969A (zh) 2019-09-11 2019-09-11 网络模型结构的采样方法、装置以及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910863290.5A CN110569969A (zh) 2019-09-11 2019-09-11 网络模型结构的采样方法、装置以及电子设备

Publications (1)

Publication Number Publication Date
CN110569969A true CN110569969A (zh) 2019-12-13

Family

ID=68779480

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910863290.5A Pending CN110569969A (zh) 2019-09-11 2019-09-11 网络模型结构的采样方法、装置以及电子设备

Country Status (1)

Country Link
CN (1) CN110569969A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111340221A (zh) * 2020-02-25 2020-06-26 北京百度网讯科技有限公司 神经网络结构的采样方法和装置
CN111680599A (zh) * 2020-05-29 2020-09-18 北京百度网讯科技有限公司 人脸识别模型处理方法、装置、设备和存储介质
CN111738293A (zh) * 2020-05-18 2020-10-02 北京百度网讯科技有限公司 点云数据的处理方法、装置、电子设备及可读存储介质
CN111814966A (zh) * 2020-08-24 2020-10-23 国网浙江省电力有限公司 神经网络架构搜索方法、神经网络应用方法、设备及存储介质
CN112579842A (zh) * 2020-12-18 2021-03-30 北京百度网讯科技有限公司 模型搜索方法、装置、电子设备、存储介质和程序产品
WO2021169368A1 (zh) * 2020-02-28 2021-09-02 深圳大学 基于贝叶斯优化的渐进式可微分网络架构搜索方法及系统

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111340221A (zh) * 2020-02-25 2020-06-26 北京百度网讯科技有限公司 神经网络结构的采样方法和装置
CN111340221B (zh) * 2020-02-25 2023-09-12 北京百度网讯科技有限公司 神经网络结构的采样方法和装置
WO2021169368A1 (zh) * 2020-02-28 2021-09-02 深圳大学 基于贝叶斯优化的渐进式可微分网络架构搜索方法及系统
CN111738293A (zh) * 2020-05-18 2020-10-02 北京百度网讯科技有限公司 点云数据的处理方法、装置、电子设备及可读存储介质
CN111680599A (zh) * 2020-05-29 2020-09-18 北京百度网讯科技有限公司 人脸识别模型处理方法、装置、设备和存储介质
CN111680599B (zh) * 2020-05-29 2023-08-08 北京百度网讯科技有限公司 人脸识别模型处理方法、装置、设备和存储介质
CN111814966A (zh) * 2020-08-24 2020-10-23 国网浙江省电力有限公司 神经网络架构搜索方法、神经网络应用方法、设备及存储介质
CN112579842A (zh) * 2020-12-18 2021-03-30 北京百度网讯科技有限公司 模型搜索方法、装置、电子设备、存储介质和程序产品

Similar Documents

Publication Publication Date Title
CN110569969A (zh) 网络模型结构的采样方法、装置以及电子设备
CN111667054B (zh) 生成神经网络模型的方法、装置、电子设备以及存储介质
CN110633797B (zh) 网络模型结构的搜索方法、装置以及电子设备
CN111539479B (zh) 生成样本数据的方法和装置
CN111488971B (zh) 神经网络模型搜索方法及装置、图像处理方法及装置
CN111582454B (zh) 生成神经网络模型的方法和装置
CN111639753B (zh) 用于训练图像处理超网络的方法、装置、设备以及存储介质
CN111860769A (zh) 预训练图神经网络的方法以及装置
CN111563593B (zh) 神经网络模型的训练方法和装置
CN111242306A (zh) 量子主成分分析的方法、装置、电子设备以及计算机可读存储介质
CN111539224B (zh) 语义理解模型的剪枝方法、装置、电子设备和存储介质
CN111461343B (zh) 模型参数更新方法及其相关设备
CN110852379B (zh) 用于目标物体识别的训练样本生成方法及装置
CN110580520A (zh) 基于超网络的模型结构采样、装置以及电子设备
CN111652354B (zh) 用于训练超网络的方法、装置、设备以及存储介质
CN110569973A (zh) 网络结构的搜索方法、装置以及电子设备
CN111882035A (zh) 基于卷积核的超网络搜索方法、装置、设备和介质
KR102607536B1 (ko) 옵티마이저 학습 방법, 장치, 전자 기기 및 판독 가능 기록 매체
CN112580723B (zh) 多模型融合方法、装置、电子设备和存储介质
CN111582452B (zh) 生成神经网络模型的方法和装置
CN111680599B (zh) 人脸识别模型处理方法、装置、设备和存储介质
CN111160552B (zh) 新闻信息的推荐处理方法、装置、设备和计算机存储介质
CN111177479A (zh) 获取关系网络图中节点的特征向量的方法以及装置
CN111783872B (zh) 训练模型的方法、装置、电子设备及计算机可读存储介质
CN111539225B (zh) 语义理解框架结构的搜索方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination