CN113743604A - 神经网络结构搜索和目标识别的方法和装置 - Google Patents

神经网络结构搜索和目标识别的方法和装置 Download PDF

Info

Publication number
CN113743604A
CN113743604A CN202010698893.7A CN202010698893A CN113743604A CN 113743604 A CN113743604 A CN 113743604A CN 202010698893 A CN202010698893 A CN 202010698893A CN 113743604 A CN113743604 A CN 113743604A
Authority
CN
China
Prior art keywords
neural network
network model
model
hyper
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010698893.7A
Other languages
English (en)
Inventor
罗壮
何云龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jingdong Century Trading Co Ltd
Beijing Wodong Tianjun Information Technology Co Ltd
Original Assignee
Beijing Jingdong Century Trading Co Ltd
Beijing Wodong Tianjun Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jingdong Century Trading Co Ltd, Beijing Wodong Tianjun Information Technology Co Ltd filed Critical Beijing Jingdong Century Trading Co Ltd
Priority to CN202010698893.7A priority Critical patent/CN113743604A/zh
Publication of CN113743604A publication Critical patent/CN113743604A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Abstract

本发明公开了神经网络结构搜索和目标识别的方法和装置,涉及计算机技术领域。该神经网络结构搜索的方法的一具体实施方式包括:采用参数生成模型生成神经网络模型的至少一部分超参数的参数值;基于至少一部分超参数的参数值进行结构搜索得到神经网络模型;对神经网络模型进行验证得到验证结果;判断预设迭代停止条件是否触发;若是则根据各个神经网络模型的验证结果从各个神经网络模型中筛选最优神经网络模型。该实施方式通过采用神经网络结构搜索的方法训练神经网络模型并进行目标识别,能够在保证神经网络模型的精确度的情况下使得搜索得到的神经网络模型更优更轻量,资源消耗更少,提高目标识别的准确性和效率。

Description

神经网络结构搜索和目标识别的方法和装置
技术领域
本发明涉及计算机技术领域,尤其涉及一种神经网络结构搜索和目标识别的方法和装置。
背景技术
现有技术在进行目标识别时,主流方法是训练CNN模型实现目标检测或分类。对于模型中部分超参数通常采用预先定义的经验值,使得模型在某个具体场景下未必是最优最轻量的,导致利用该模型进行目标识别的准确性和效率低。
发明内容
有鉴于此,本发明实施例提供一种神经网络结构搜索和目标识别的方法和装置,通过采用神经网络结构搜索的方法训练神经网络模型,能够在保证神经网络模型的精确度的情况下使得搜索得到的神经网络模型更优更轻量,资源消耗更少,利用搜索得到的神经网络模型进行目标识别的准确性和效率高。
根据本发明实施例的一个方面,提供了一种神经网络结构搜索的方法,包括:
采用参数生成模型生成神经网络模型的至少一部分超参数的参数值;基于所述至少一部分超参数的参数值进行结构搜索,得到神经网络模型;对所述神经网络模型进行验证,得到验证结果;
判断预设迭代停止条件是否触发;
若是,则根据各个神经网络模型的验证结果从所述各个神经网络模型中筛选最优神经网络模型;
否则,根据所述验证结果更新所述参数生成模型,然后执行采用参数生成模型生成神经网络模型的至少一部分超参数的参数值、基于所述至少一部分超参数的参数值进行结构搜索得到神经网络模型、对所述神经网络模型进行验证得到验证结果的步骤,直至预设迭代停止条件触发。
可选地,所述预设迭代停止条件包括:迭代次数等于迭代次数阈值,或验证结果满足预设结果条件。
可选地,对所述神经网络模型进行验证,包括:确定所述神经网络模型在验证集上的正确率。
可选地,所述参数生成模型为贝叶斯模型。
可选地,采用Darts进行结构搜索,所述至少一部分超参数包括以下至少之一:通道数、cell层数、cell内的节点数。
可选地,采用Darts进行结构搜索,采用Ring AllReduce算法进行节点间的数据交换。
可选地,采用数据并行的分布式训练方法进行结构搜索。
根据本发明实施例的第二方面,提供一种目标识别的方法,包括:利用本发明实施例第一方面提供的方法筛选的最优神经网络模型进行目标识别。
根据本发明实施例的第三个方面,提供一种神经网络结构搜索的装置,包括:模型训练模块、迭代判断模块和结果确定模块;其中,
模型训练模块采用参数生成模型生成神经网络模型的至少一部分超参数的参数值;基于所述至少一部分超参数的参数值进行结构搜索,得到神经网络模型;对所述神经网络模型进行验证,得到验证结果;
迭代判断模块判断预设迭代停止条件是否触发;
若是,则使结果确定模块根据各个神经网络模型的验证结果从所述各个神经网络模型中筛选最优神经网络模型;
否则,根据所述验证结果更新所述参数生成模型,然后使所述模型训练模块迭代执行采用参数生成模型生成神经网络模型的至少一部分超参数的参数值、基于所述至少一部分超参数的参数值进行结构搜索得到神经网络模型、对所述神经网络模型进行验证得到验证结果的步骤,直至预设迭代停止条件触发。
可选地,所述预设迭代停止条件包括:迭代次数等于迭代次数阈值,或验证结果满足预设结果条件。
可选地,所述模型训练模块对所述神经网络模型进行验证,包括:确定所述神经网络模型在验证集上的正确率。
可选地,所述参数生成模型为贝叶斯模型。
可选地,所述模型训练模块采用Darts进行结构搜索,所述至少一部分超参数包括以下至少之一:通道数、cell层数、cell内的节点数。
可选地,所述模型训练模块采用Darts进行结构搜索、采用Ring AllReduce算法进行节点间的数据交换。
可选地,所述模型训练模块采用数据并行的分布式训练方法进行结构搜索。
根据本发明实施例的第四方面,提供一种目标识别的装置,包括:模型训练模块、迭代判断模块、结果确定模块和目标识别模块;其中,
模型训练模块采用参数生成模型生成神经网络模型的至少一部分超参数的参数值;基于所述至少一部分超参数的参数值进行结构搜索,得到神经网络模型;对所述神经网络模型进行验证,得到验证结果;
迭代判断模块判断预设迭代停止条件是否触发;
若是,则使结果确定模块根据各个神经网络模型的验证结果从所述各个神经网络模型中筛选最优神经网络模型;
否则,根据所述验证结果更新所述参数生成模型,然后使所述模型训练模块迭代执行采用参数生成模型生成神经网络模型的至少一部分超参数的参数值、基于所述至少一部分超参数的参数值进行结构搜索得到神经网络模型、对所述神经网络模型进行验证得到验证结果的步骤,直至预设迭代停止条件触发;
目标识别模块,利用所述最优神经网络模型进行目标识别。
根据本发明实施例的第五方面,提供一种神经网络结构搜索的电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明实施例第一或二方面提供的方法。
根据本发明实施例的第六方面,提供一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现本发明实施例第一或二方面提供的方法。
上述发明中的一个实施例具有如下优点或有益效果:通过采用参数生成模型生成神经网络模型的至少一部分超参数的参数值、基于所述至少一部分超参数的参数值进行结构搜索,能够将更多超参数纳入搜索范围,减少或避免搜索过程中采用预先定义的经验值,提高神经网络结构搜索的效果,使得搜索得到的神经网络模型更优更轻量。通过采用RingAllReduce算法进行节点间的数据交换,能够将通信负载平均的分布到每一段通信路径中,避免某一段通信路径成为瓶颈影响整个系统的性能。通过采用数据并行的分布式训练方法进行结构搜索,能够大大提高搜索效率。通过采用神经网络结构搜索的方法训练神经网络模型并进行目标识别,能够在保证神经网络模型的精确度的情况下使得搜索得到的神经网络模型更优更轻量,资源消耗更少,提高目标识别的准确性和效率。
上述的非惯用的可选方式所具有的进一步效果将在下文中结合具体实施方式加以说明。
附图说明
附图用于更好地理解本发明,不构成对本发明的不当限定。其中:
图1是本发明实施例的神经网络结构搜索的方法的主要流程示意图;
图2是本发明可选实施例中神经网络结构搜索的方法的示意图;
图3是本发明实施例的神经网络结构搜索的装置的主要模块示意图;
图4是本发明实施例可以应用于其中的示例性系统架构图;
图5是适于用来实现本发明实施例的终端设备或服务器的计算机系统的结构示意图。
具体实施方式
以下结合附图对本发明的示范性实施例做出说明,其中包括本发明实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本发明的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
根据本发明实施例的一个方面,提供了一种目标识别的方法.
图1是本发明实施例的目标识别的方法的主要流程示意图,如图1所示目标识别的方法,包括:
步骤S101、采用参数生成模型生成神经网络模型的至少一部分超参数的参数值;
步骤S102、基于该至少一部分超参数的参数值进行结构搜索,得到神经网络模型;
步骤S103、对所述神经网络模型进行验证,得到验证结果;
步骤S104、判断预设迭代停止条件是否触发;若是,则跳转至步骤S105;否则,跳转至步骤S106;
步骤S105、根据各个神经网络模型的验证结果从所述各个神经网络模型中筛选最优神经网络模型;
步骤S106、根据所述验证结果更新所述参数生成模型,然后跳转至步骤S101。
结构搜索定义一定的神经网络结构空间,即一系列超参数及其对应的取值范围。对于实际的应用场景,基于该应用场景下的训练样本确定神经网络结构空间,在该空间内对神经网络结构的超参数进行搜索,当这些超参数全部确定时,这个神经网络结构也就确定了。结构搜索的目的是找出一组最优的超参数使对应的神经网络结构在当前应用场景下最优。实际应用过程中,可以通过测试样本对每次搜索得到的超参数进行验证,并根据验证结果对模型进行迭代搜索,直至搜索到最优的超参数取值。测试样本中包含模型入参和模型出参,验证时,将测试样本中的入参输入当前超参数取值对应的模型中,模型输出的结果即验证结果,根据该验证结果与测试样本中的出参即可判定当前搜索得到的超参数取值是否最优。
神经网络模型的各个超参数的取值空间构成神经网络模型的超参数空间。各个超参数的取值确定了,神经网络模型也就确定了。例如,神经网络模型包括三个维度的超参数,其中一个维度的超参数采用预先定义的经验值,第二个维度的参数值在步骤S101中生成,在步骤S102中对第三个维度的超参数进行搜索以确定其较优的取值;或者,在步骤S101中生成其中两个维度的参数值,在步骤S102中对第三个维度的超参数进行搜索以确定其较优的取值。生成神经网络模型的至少一部分超参数的参数值时,可以在该至少一部分超参数中每个超参数的取值范围内随机取值,形成一组参数值。
参数生成模型是指用于生成超参数的参数值的模型,模型结构可以根据实际情况进行选择性设定,例如监督学习模型、半监督学习模型、无监督学习模型等。可选地,所述参数生成模型为贝叶斯模型。贝叶斯算法根据先验分布估计目标函数的后验分布,给出最值可能点,验证该可能点后形成新的采样点,用该采样点信息更新目标函数的先验分布。如此迭代学习。本实施例采用贝叶斯算法为目标函数调参,使用时只需要指定目标函数的输入和输出,不需要知道目标函数的内部结构,通过不断添加样本点来更新目标函数的后验分布,调整参数。贝叶斯算法调参的迭代次数少,速度快,对于非凸问题依然稳健,在目标函数未知且计算法复杂度高的情况下效果好。
通常情况下,步骤S102中通过智能搜索优化的超参数有限,若此步骤优化的超参数数量较多,则会大大增加智能搜索的计算量,降低搜索速率。现有技术中,一般将神经网络模型中除通过智能搜索优化的超参数以外的超参数采用预先定义的经验值确定,这种方式使得搜索得到的神经网络模型在某个具体场景下未必是最优最轻量的。本发明通过采用参数生成模型生成神经网络模型的至少一部分超参数的参数值、基于该至少一部分超参数的参数值进行结构搜索,能够将更多超参数纳入搜索范围,减少或避免搜索过程中采用预先定义的经验值,提高神经网络结构搜索的效果,使得搜索得到的神经网络模型更优更轻量。
预设迭代停止条件用于表明何时结束迭代过程。预设迭代停止条件的具体内容可以根据实际情况进行选择性设定。
在一些实施例中,预设迭代停止条件包括:迭代次数等于迭代次数阈值。示例性地,迭代次数阈值为10次,在步骤S104中当前迭代次数是否等于10次。若是,则根据各个神经网络模型的验证结果从所述各个神经网络模型中筛选最优神经网络模型;否则,根据当前迭代得到的神经网络模型的验证结果更新参数生成模型,然后跳转至步骤S101继续进行迭代,直至迭代次数等于10次。通过设置迭代次数阈值,能够降低搜索计算量,提高搜索速度。
在另一些实施例中,预设迭代停止条件包括:验证结果满足预设结果条件。示例性地,验证结果为神经网络模型的预设指标(例如神经网络模型在验证集上的正确率、神经网络模型的损失函数值等)的指标值。当预设指标越大越好时,预设迭代停止条件为预设指标的指标值大于等于指标阈值;当预设指标越小越好时,预设迭代停止条件为预设指标的指标值小于等于指标阈值。通过使验证结果满足预设结果条件时停止迭代,能够在获得满足要求的神经网络模型之后及时结束迭代过程,避免由于继续进行跌倒导致的计算量大的问题,提高搜索速度。
在可选的实施例中,采用Darts进行结构搜索,所述至少一部分超参数包括以下至少之一:通道数、cell层数、cell内的节点数。Darts是一种基于梯度的可微的神经网络结构搜索算法,其搜索的网络结构由若干小网络(cell)组成,每个cell由若干路径和operator(操作,对特征的处理函数)组成。Darts定义的网络结构超超参数空间中包括通道数、cell层数(由于cell间直接叠加,因此cell层数也即cell的个数)、cell内的节点数以及对cell内operator的选择等四个维度,当四个维度的超超参数都确定时,神经网络模型结构也就确定了。
图2是本发明可选实施例中神经网络结构搜索的方法的示意图。图中,chn指通道数,layer指cell层数,num_nodes指cell内的节点数。v alid_accuracy指搜索获得的神经网络模型在验证集上的正确率。贝叶斯算法在chn、layer、num_nodes三个超参数组成的三维空间中搜索,优化目标是找出能获得最高valid_accuracy的超参数组合。使用这组超参数进行Darts分布式结构搜索,获得valid_accuray。贝叶斯模型将根据返回值调整自身的模型,生成一组新的(chn,layer,num_nodes)超参数,然后再次进行Darts分布式结构搜索,获得新的valid_accuray,如此迭代。Darts的搜索计算过程是一个模型训练过程,该过程通过分布式计算实现。Darts在获得确定的chn、layer、num_nodes超参数后,进行c ell内的operator的搜索和选择,获得当前超参数下的最优模型结构,计算该模型结构在验证集上的valid_accuray并返回至贝叶斯模型。迭代次数越多,搜索到的模型可能更优,但消耗时间更多。可以根据实际情况设置迭代次数阈值,例如为10次。
现有技术中预先设定通道数、cell层数以及每个cell中的节点数,然后对cell中所有路径上的operator进行搜索,找出最优的一组operator,从而确定网络结构;或者在确定operator后,再按经验手动修改通道数、cell层数,获得确定的网络结构。但是这些经验值未必是最优值,搜索得到的神经网络模型在某个具体场景下未必是最优最轻量的。本发明通过采用参数生成模型确定通道数、cell层数、cell内的节点数等超参数的取值,然后进行后续的智能搜索步骤,能够将更多超参数纳入搜索范围,以寻找更优的模型结构,提高神经网络结构搜索的效果,使得搜索得到的神经网络模型更优更轻量。基于Darts进行结构搜索能够用尽量少的资源和更快速度找出Darts结构搜索方法下的尽量优的神经网络结构。
可选地,采用Darts进行结构搜索,采用Ring AllReduce算法进行节点间的数据交换。Ring AllReduce算法的作用是进行多个节点间数据的归约,每轮数据同步中,在N(N代表正整数)个节点间进行(N-1)次Scatter-Reduce操作和(N-1)次Allgather操作。传统方法是所有节点将各自数据传输到主节点,主节点完成归约后分发给其余节点,主节点通信压力大造成带宽瓶颈。Ring AllReduce算法将每个节点上的数据分割为N个数据子块,每个节点只负责传输其中一个数据子块,用(N-1)轮传输完成scatter-Reduce过程,此时每个节点都有某个数据子块的归约结果;紧接着每个节点将各自的完成归约的数据子块分发出去,经过(N-1)轮传输完成allgather操作,此时所有节点上都有了所有数据子块的归约结果。本发明采用Ring AllReduce算法进行节点间的数据交换,能够将通信负载平均的分布到每一段通信路径中,避免某一段通信路径成为瓶颈影响整个系统的性能。
现有技术在实际搜索过程中,通常只利用单GPU(Graphics Processing Unit,图形处理器)卡进行计算,无法充分利用计算资源,搜索时间长。基于此,本发明可以采用数据并行的分布式训练方法进行结构搜索。在训练过程中,每个计算节点上都有一份完整的模型副本,但每个节点使用不同的数据进行训练。每隔一个或若干个训练轮次,各个节点间会进行超参数梯度的同步。将所有的训练样本平均分布给若干个计算节点进行模型训练。每个节点上的训练不会由于样本量少而导致训练处的模型不准确。样本分批次进行训练,一个批次即为一个轮次。训练过程采用的批梯度下降算法,每轮从训练集中选取若干个样本进行训练。数据并行训练的方式是将该若干个样本平均分配到若干GPU上完成计算。假设选取8个样本,GPU数量为2,那么每块GPU负责4个样本的计算。一台服务器可搭载若干块GPU。本实施例可以跨服务器,但以单块GPU作为扩展单位。比如:现有2台服务器,每台有4块GPU,每块GPU每轮计算4个样本,即每轮次完成了2×4×4=32个样本的训练。采用数据并行的分布式训练方法进行结构搜索,能够大大提高搜索效率。
根据本发明实施例的第二方面,提供一种目标识别的方法,包括:利用本发明实施例第一方面筛选的最优神经网络模型进行目标识别。
目标识别是指从待识别样本中检测出目标对象,或者确定目标对象的分类。目标可以根据实际情况进行选择性定义,例如商品、商标、其他特定的文字或图片等。分类的划分方式也可以根据实际情况进行选择性设定,以电商领域为例,可以将商品划分为服饰类、家用电器类、食品饮料类等,也可以根据商品品牌划分为各种不同的类别。以银行领域为例,可以将各种银行产品划分为存款类、贷款类等。
以电商领域的商品识别为例,在进行商品识别时,预先按照步骤S101-S106(或者图2示出的神经网络结构搜索的方法)进行神经网络模型训练,得到最优神经网络模型,然后基于训练得到的最优神经网络模型对待识别样本中的商品进行识别,例如确定待识别商品是何种商品、以及该商品所属的类别等。
本发明实施例通过采用神经网络结构搜索的方法训练神经网络模型并进行目标识别,能够在保证神经网络模型的精确度的情况下使得搜索得到的神经网络模型更优更轻量,资源消耗更少,提高目标识别的准确性和效率。
根据本发明实施例的第三个方面,提供一种实现本发明实施例第一方面所述方法的装置。
图3是本发明实施例的神经网络结构搜索的装置的主要模块示意图,如图3所示,神经网络结构搜索的装置300包括:模型训练模块301、迭代判断模块302和结果确定模块303;其中,
模型训练模块301采用参数生成模型生成神经网络模型的至少一部分超参数的参数值;基于所述至少一部分超参数的参数值进行结构搜索,得到神经网络模型;对所述神经网络模型进行验证,得到验证结果;
迭代判断模块302判断预设迭代停止条件是否触发;
若是,则使结果确定模块303根据各个神经网络模型的验证结果从所述各个神经网络模型中筛选最优神经网络模型;
否则,根据所述验证结果更新所述参数生成模型,然后使所述模型训练模块301迭代执行采用参数生成模型生成神经网络模型的至少一部分超参数的参数值、基于所述至少一部分超参数的参数值进行结构搜索得到神经网络模型、对所述神经网络模型进行验证得到验证结果的步骤,直至预设迭代停止条件触发;
目标识别模块304利用所述最优神经网络模型进行目标识别。
可选地,所述预设迭代停止条件包括:迭代次数等于迭代次数阈值,或验证结果满足预设结果条件。
可选地,所述模型训练模块对所述神经网络模型进行验证,包括:确定所述神经网络模型在验证集上的正确率。
可选地,所述参数生成模型为贝叶斯模型。
可选地,所述模型训练模块采用Darts进行结构搜索,所述至少一部分超参数包括以下至少之一:通道数、cell层数、cell内的节点数。
可选地,所述模型训练模块采用Darts进行结构搜索、采用Ring AllReduce算法进行节点间的数据交换。
可选地,所述模型训练模块采用数据并行的分布式训练方法进行结构搜索。
根据本发明实施例的第四方面,提供一种目标识别的装置,包括:模型训练模块、迭代判断模块、结果确定模块和目标识别模块;其中,
模型训练模块采用参数生成模型生成神经网络模型的至少一部分超参数的参数值;基于所述至少一部分超参数的参数值进行结构搜索,得到神经网络模型;对所述神经网络模型进行验证,得到验证结果;
迭代判断模块判断预设迭代停止条件是否触发;
若是,则使结果确定模块根据各个神经网络模型的验证结果从所述各个神经网络模型中筛选最优神经网络模型;
否则,根据所述验证结果更新所述参数生成模型,然后使所述模型训练模块迭代执行采用参数生成模型生成神经网络模型的至少一部分超参数的参数值、基于所述至少一部分超参数的参数值进行结构搜索得到神经网络模型、对所述神经网络模型进行验证得到验证结果的步骤,直至预设迭代停止条件触发;
目标识别模块,利用所述最优神经网络模型进行目标识别。
根据本发明实施例的第五方面,提供一种神经网络结构搜索的电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明实施例第一或二方面提供的方法。
根据本发明实施例的第六方面,提供一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现本发明实施例第一或二方面提供的方法。
图4示出了可以应用本发明实施例的神经网络结构搜索或目标识别的方法或神经网络结构搜索或目标识别的装置的示例性系统架构400。
如图4所示,系统架构400可以包括终端设备401、402、403,网络404和服务器405。网络404用以在终端设备401、402、403和服务器405之间提供通信链路的介质。网络404可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备401、402、403通过网络404与服务器405交互,以接收或发送消息等。终端设备401、402、403上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
终端设备401、402、403可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器405可以是提供各种服务的服务器,例如对用户利用终端设备401、402、403所浏览的购物类网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的产品信息查询请求等数据进行分析等处理,并将处理结果(例如目标推送信息、产品信息--仅为示例)反馈给终端设备。
需要说明的是,本发明实施例所提供的神经网络结构搜索或目标识别的方法一般由服务器405执行,相应地,神经网络结构搜索或目标识别的装置一般设置于服务器405中。
应该理解,图4中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
下面参考图5,其示出了适于用来实现本发明实施例的终端设备的计算机系统500的结构示意图。图5示出的终端设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,计算机系统500包括中央处理单元(CPU)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储部分508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有系统500操作所需的各种程序和数据。CPU 501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
以下部件连接至I/O接口505:包括键盘、鼠标等的输入部分506;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分507;包括硬盘等的存储部分508;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分509。通信部分509经由诸如因特网的网络执行通信处理。驱动器510也根据需要连接至I/O接口505。可拆卸介质511,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器510上,以便于从其上读出的计算机程序根据需要被安装入存储部分508。
特别地,根据本发明公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分509从网络上被下载和安装,和/或从可拆卸介质511被安装。在该计算机程序被中央处理单元(CPU)501执行时,执行本发明的系统中限定的上述功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中,例如,可以描述为:一种处理器包括:模型训练模块、迭代判断模块和结果确定模块。其中,这些模块的名称在某种情况下并不构成对该模块本身的限定,例如,迭代判断模块还可以被描述为“生成模型生成神经网络模型的至少一部分超参数的参数值的模块”。
作为另一方面,本发明还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该设备包括:实现本发明实施例第一方面或第二方面提供的方法。
根据本发明实施例的技术方案,通过采用参数生成模型生成神经网络模型的至少一部分超参数的参数值、基于所述至少一部分超参数的参数值进行结构搜索,能够将更多超参数纳入搜索范围,减少或避免搜索过程中采用预先定义的经验值,提高神经网络结构搜索的效果,使得搜索得到的神经网络模型更优更轻量。通过采用Ring AllReduce算法进行节点间的数据交换,能够将通信负载平均的分布到每一段通信路径中,避免某一段通信路径成为瓶颈影响整个系统的性能。通过采用数据并行的分布式训练方法进行结构搜索,能够大大提高搜索效率。通过采用神经网络结构搜索的方法训练神经网络模型并进行目标识别,能够在保证神经网络模型的精确度的情况下使得搜索得到的神经网络模型更优更轻量,资源消耗更少,提高目标识别的准确性和效率。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,取决于设计要求和其他因素,可以发生各种各样的修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。

Claims (12)

1.一种神经网络结构搜索的方法,其特征在于,包括:
采用参数生成模型生成神经网络模型的至少一部分超参数的参数值;基于所述至少一部分超参数的参数值进行结构搜索,得到神经网络模型;对所述神经网络模型进行验证,得到验证结果;
判断预设迭代停止条件是否触发;
若是,则根据各个神经网络模型的验证结果从所述各个神经网络模型中筛选最优神经网络模型;
否则,根据所述验证结果更新所述参数生成模型,然后执行采用参数生成模型生成神经网络模型的至少一部分超参数的参数值、基于所述至少一部分超参数的参数值进行结构搜索得到神经网络模型、对所述神经网络模型进行验证得到验证结果的步骤,直至预设迭代停止条件触发。
2.如权利要求1所述的方法,其特征在于,所述预设迭代停止条件包括:迭代次数等于迭代次数阈值,或验证结果满足预设结果条件。
3.如权利要求1所述的方法,其特征在于,对所述神经网络模型进行验证,包括:确定所述神经网络模型在验证集上的正确率。
4.如权利要求1所述的方法,其特征在于,所述参数生成模型为贝叶斯模型。
5.如权利要求1所述的方法,其特征在于,采用Darts进行结构搜索,所述至少一部分超参数包括以下至少之一:通道数、cell层数、cell内的节点数。
6.如权利要求1所述的方法,其特征在于,采用Darts进行结构搜索,采用RingAllReduce算法进行节点间的数据交换。
7.如权利要求1所述的方法,其特征在于,采用数据并行的分布式训练方法进行结构搜索。
8.一种目标识别的方法,其特征在于,利用权利要求1-7任一所述的方法筛选的最优神经网络模型进行目标识别。
9.一种神经网络结构搜索的装置,其特征在于,包括:模型训练模块、迭代判断模块和结果确定模块;其中,
模型训练模块采用参数生成模型生成神经网络模型的至少一部分超参数的参数值;基于所述至少一部分超参数的参数值进行结构搜索,得到神经网络模型;对所述神经网络模型进行验证,得到验证结果;
迭代判断模块判断预设迭代停止条件是否触发;
若是,则使结果确定模块根据各个神经网络模型的验证结果从所述各个神经网络模型中筛选最优神经网络模型;
否则,根据所述验证结果更新所述参数生成模型,然后使所述模型训练模块迭代执行采用参数生成模型生成神经网络模型的至少一部分超参数的参数值、基于所述至少一部分超参数的参数值进行结构搜索得到神经网络模型、对所述神经网络模型进行验证得到验证结果的步骤,直至预设迭代停止条件触发。
10.一种目标识别的装置,其特征在于,包括:模型训练模块、迭代判断模块、结果确定模块和目标识别模块;其中,
模型训练模块采用参数生成模型生成神经网络模型的至少一部分超参数的参数值;基于所述至少一部分超参数的参数值进行结构搜索,得到神经网络模型;对所述神经网络模型进行验证,得到验证结果;
迭代判断模块判断预设迭代停止条件是否触发;
若是,则使结果确定模块根据各个神经网络模型的验证结果从所述各个神经网络模型中筛选最优神经网络模型;
否则,根据所述验证结果更新所述参数生成模型,然后使所述模型训练模块迭代执行采用参数生成模型生成神经网络模型的至少一部分超参数的参数值、基于所述至少一部分超参数的参数值进行结构搜索得到神经网络模型、对所述神经网络模型进行验证得到验证结果的步骤,直至预设迭代停止条件触发;
目标识别模块,利用所述最优神经网络模型进行目标识别。
11.一种神经网络结构搜索的电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8中任一所述的方法。
12.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-8中任一所述的方法。
CN202010698893.7A 2020-07-20 2020-07-20 神经网络结构搜索和目标识别的方法和装置 Pending CN113743604A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010698893.7A CN113743604A (zh) 2020-07-20 2020-07-20 神经网络结构搜索和目标识别的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010698893.7A CN113743604A (zh) 2020-07-20 2020-07-20 神经网络结构搜索和目标识别的方法和装置

Publications (1)

Publication Number Publication Date
CN113743604A true CN113743604A (zh) 2021-12-03

Family

ID=78727997

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010698893.7A Pending CN113743604A (zh) 2020-07-20 2020-07-20 神经网络结构搜索和目标识别的方法和装置

Country Status (1)

Country Link
CN (1) CN113743604A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023186090A1 (zh) * 2022-04-02 2023-10-05 维沃移动通信有限公司 验证方法、装置及设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023186090A1 (zh) * 2022-04-02 2023-10-05 维沃移动通信有限公司 验证方法、装置及设备

Similar Documents

Publication Publication Date Title
US20200293838A1 (en) Scheduling computation graphs using neural networks
CN108536650B (zh) 生成梯度提升树模型的方法和装置
US20190279088A1 (en) Training method, apparatus, chip, and system for neural network model
CN114265979B (zh) 确定融合参数的方法、信息推荐方法和模型训练方法
US11436540B2 (en) Method and apparatus for generating information
CN108520470B (zh) 用于生成用户属性信息的方法和装置
CN110909182A (zh) 多媒体资源搜索方法、装置、计算机设备及存储介质
CN107392259B (zh) 构建不均衡样本分类模型的方法和装置
CN114329201A (zh) 深度学习模型的训练方法、内容推荐方法和装置
CN112650841A (zh) 信息处理方法、装置和电子设备
CN110659657A (zh) 训练模型的方法和装置
CN110309142B (zh) 规则管理的方法和装置
CN112966701A (zh) 目标分类的方法和装置
CN110633717A (zh) 一种目标检测模型的训练方法和装置
CN111680799A (zh) 用于处理模型参数的方法和装置
WO2022001887A1 (zh) 用于训练物品编码模型的方法和装置
CN113743604A (zh) 神经网络结构搜索和目标识别的方法和装置
CN113760521A (zh) 一种虚拟资源的分配方法和装置
CN112218114A (zh) 视频缓存控制方法、装置和计算机可读存储介质
EP4339843A1 (en) Neural network optimization method and apparatus
CN112052152A (zh) 一种模拟测试的方法和装置
CN113361739B (zh) 一种生成拣货路径的方法和装置
WO2021062219A1 (en) Clustering data using neural networks based on normalized cuts
CN112231299A (zh) 一种特征库动态调整的方法和装置
JP5325280B2 (ja) 情報処理装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination