CN111340222B - 神经网络模型搜索方法、装置以及电子设备 - Google Patents
神经网络模型搜索方法、装置以及电子设备 Download PDFInfo
- Publication number
- CN111340222B CN111340222B CN202010117434.5A CN202010117434A CN111340222B CN 111340222 B CN111340222 B CN 111340222B CN 202010117434 A CN202010117434 A CN 202010117434A CN 111340222 B CN111340222 B CN 111340222B
- Authority
- CN
- China
- Prior art keywords
- network model
- performance index
- neighbor
- server
- generator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003062 neural network model Methods 0.000 title claims abstract description 85
- 238000000034 method Methods 0.000 title claims abstract description 76
- 238000012545 processing Methods 0.000 claims abstract description 26
- 230000008569 process Effects 0.000 claims description 20
- 238000004422 calculation algorithm Methods 0.000 claims description 19
- 230000015654 memory Effects 0.000 claims description 19
- 238000002922 simulated annealing Methods 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000011156 evaluation Methods 0.000 claims description 7
- 238000013135 deep learning Methods 0.000 abstract description 4
- 230000008901 benefit Effects 0.000 abstract description 3
- 238000000137 annealing Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000004549 pulsed laser deposition Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Debugging And Monitoring (AREA)
Abstract
本申请实施例公开了一种神经网络模型搜索方法、装置以及电子设备,涉及深度学习技术领域。神经网络模型搜索方法包括:将第一网络模型发送至多个服务器,以使多个服务器中的每个服务器根据第一网络模型生成对应的邻居网络模型;接收每个服务器反馈的邻居网络模型的性能指标;根据性能指标,对网络模型生成器进行更新;在更新后的网络模型生成器生成第二网络模型后,以第二网络模型作为第一网络模型;进行上述迭代更新处理,直至网络模型生成器收敛;以更新后得到的网络模型生成器生成的网络模型作为神经网络模型搜索的结果。利用丰富的服务器等设备资源,能够最大程度上提高网络模型生成器的更新速度,提升神经网络模型的搜索效率,节省搜索时间。
Description
技术领域
本申请涉及深度学习技术领域,尤其涉及神经网络模型搜索技术领域。
背景技术
深度学习技术在很多方向上都取得了巨大的成功。深度学习技术中,需要定义神经网络模型的参数,例如,神经网络层的数量,每层神经网络层对应什么类型的算子,卷积操作中的卷积尺寸等。这些参数具有维度高,离散且相互依赖等特点。最近几年,NAS技术(Neural Architecture Search,神经网络架构搜索)成为研究热点。NAS是用算法代替繁琐的人工操作,在包括有海量神经网络模型的搜索空间中,自动搜索出具有最优参数的神经网络模型,即精度较好的神经网络模型。
现有的神经网络模型搜索方法包括三种:第一种是采用基于强化学习的模型结构自动搜索方法,第二种是基于遗传算法的模型结构自动搜索方法,第三种是基于模拟退火算法的模型结构自动搜索方法。这三种方法需要采样数万个神经网络模型,才能使得模型收敛,收敛速度慢,进而导致搜索时间长,搜索效率低。
发明内容
本申请实施例提供神经网络模型搜索方法、装置以及电子设备,以解决现有技术中的一个或多个技术问题。
第一方面,本申请实施例提供了神经网络模型搜索方法,包括:
将第一网络模型发送至多个服务器,以使多个服务器中的每个服务器根据第一网络模型生成对应的邻居网络模型;
接收每个服务器反馈的邻居网络模型的性能指标;
根据性能指标,对网络模型生成器进行更新;
在更新后的网络模型生成器生成第二网络模型后,以第二网络模型作为第一网络模型,进行上述迭代更新处理,直至网络模型生成器收敛;
以更新后得到的网络模型生成器生成的网络模型作为神经网络模型搜索的结果。
本实施方式中,可用于大多数业务场景下的神经网络模型的自动搜索过程,利用丰富的服务器等设备资源,能够最大程度上提高网络模型生成器的更新速度,提升神经网络模型的搜索效率,节省搜索时间。解决单机条件下神经网络模型搜索效率低,搜索时间长的问题。
在一种实施方式中,多个服务器包括第一服务器,根据性能指标,对网络模型生成器进行更新,包括:
在第一服务器反馈的第一邻居网络模型的性能指标大于第一网络模型的性能指标的情况下,计算第一邻居网络模型的性能指标与第一网络模型的性能指标的差;
根据计算得到的性能指标的差以及第一服务器对应的当前迭代轮次,对网络模型生成器进行更新。
在一种实施方式中,多个服务器还包括第二服务器,根据性能指标,对网络模型生成器进行更新,还包括:
在第二服务器反馈的第二邻居网络模型的性能指标大于第二网络模型的性能指标的情况下,计算第二邻居网络模型的性能指标与第二网络模型的性能指标的差;
根据计算得到的性能指标的差以及第二服务器对应的当前迭代轮次,对网络模型生成器进行更新。
在本实施方式中,第一服务器反馈的第一邻居网络模型和第二服务器反馈的第二邻居网络模型均对网络模型生成器的更新作出了贡献,形成了异步更新网络模型生成器。网络模型生成器从多个服务器采集的邻居网络模型都可能更新网络模型生成器,都可能对搜索做贡献,进一步提高了搜索效率,节省了搜索时间。
在一种实施方式中,多个服务器包括第三服务器,接收每个服务器反馈的邻居网络模型的性能指标,包括:
在第三服务器反馈的第三邻居网络模型的性能指标小于第一网络模型的性能指标的情况下,网络模型生成器按照预设的接收概率接收第三邻居网络模型。
在一种实施方式中,网络模型生成器收敛的条件包括:
更新后的网络模型生成器生成的网络模型的性能指标与更新前的网络模型生成器生成的网络模型的性能指标相同;或者,
迭代更新处理的次数达到预设次数。
在一种实施方式中,网络模型生成器包括基于模拟退火算法的网络模型。
本实施方式中,网络模型生成器包括一个或多个基于模拟退火算法的网络模型。多个基于模拟退火算法的网络模型共享神经网络模型、退火率和退火温度。退火率的大小能够控制网络模型生成器的收敛速度。在控制侧设置多个基于模拟退火算法的网络模型,能够提高鲁棒性以及减轻控制侧的计算压力。
第二方面,本申请实施例提供了一种神经网络模型搜索方法,包括:
获取网络模型生成器生成的第一网络模型,根据第一网络模型生成对应的邻居网络模型;
评估邻居网络模型的性能指标,并将邻居网络模型的性能指标发送至网络模型生成器,以根据性能指标对网络模型生成器进行更新;
获取更新后的网络模型生成器生成的第二网络模型,以第二网络模型作为第一网络模型,进行上述迭代更新处理,直至网络模型生成器收敛;
以更新后得到的网络模型生成器生成的网络模型作为神经网络模型搜索的结果。
第三方面,本申请实施例提供了一种神经网络模型搜索装置,应用于控制器,包括:
网络模型发送模块,用于将第一网络模型发送至多个服务器,以使多个服务器中的每个服务器根据第一网络模型生成对应的邻居网络模型;
性能指标接收模块,用于接收每个服务器反馈的邻居网络模型的性能指标;
网络模型生成器更新模块,用于根据性能指标,对网络模型生成器进行更新;
迭代触发迭代模块,用于在更新后的网络模型生成器生成第二网络模型后,以第二网络模型作为第一网络模型,触发所述网络模型发送模块,以进行迭代更新处理,直至网络模型生成器收敛;
结果处理模块,用于以更新后得到的网络模型生成器生成的网络模型作为神经网络模型搜索的结果。
在一种实施方式中,多个服务器包括第一服务器,更新模块包括:
第一计算子模块,用于在第一服务器反馈的第一邻居网络模型的性能指标大于第一网络模型的性能指标的情况下,计算第一邻居网络模型的性能指标与第一网络模型的性能指标的差;
第一更新子模块,用于根据计算得到的性能指标的差以及第一服务器对应的当前迭代轮次,对网络模型生成器进行更新。
在一种实施方式中,多个服务器还包括第二服务器,更新模块还包括:
第二计算子模块,用于在第二服务器反馈的第二邻居网络模型的性能指标大于第二网络模型的性能指标的情况下,计算第二邻居网络模型的性能指标与第二网络模型的性能指标的差;
第二更新子模块,用于根据计算得到的性能指标的差以及第二服务器对应的当前迭代轮次,对网络模型生成器进行更新。
在一种实施方式中,多个服务器包括第三服务器,接收模块包括:
接收子模块,用于在第三服务器反馈的第三邻居网络模型的性能指标小于第一网络模型的性能指标的情况下,网络模型生成器按照预设的接收概率接收第三邻居网络模型。
在一种实施方式中,网络模型生成器收敛的条件包括:
更新后的网络模型生成器生成的网络模型的性能指标与更新前的网络模型生成器生成的网络模型的性能指标相同;或者,
迭代更新处理的次数达到预设次数。
在一种实施方式中,网络模型生成器包括基于模拟退火算法的网络模型。
第四方面,本申请实施例提供了一种神经网络模型搜索装置,应用于服务器,包括:
网络模型接收模块,用于获取网络模型生成器生成的第一网络模型;
邻居网络模型生成模块,用于根据第一网络模型生成对应的邻居网络模型;
性能指标评估模块,用于评估邻居网络模型的性能指标,并将邻居网络模型的性能指标发送至网络模型生成器,以根据性能指标对网络模型生成器进行更新;
邻居解触发模块,用于获取更新后的网络模型生成器生成的第二网络模型,以第二网络模型作为第一网络模型,触发邻居网络模型生成模块,以进行上述迭代更新处理,直至网络模型生成器收敛;
结果处理模块,用于以更新后得到的网络模型生成器生成的网络模型作为神经网络模型搜索的结果。
第五方面,本申请实施例提供了一种电子设备,包括:
至少一个处理器;以及
与至少一个处理器通信连接的存储器;其中,
存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行上述任一项的方法。
第六方面,本申请实施例提供了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行上述任一项的方法。
上述申请中的一个实施例具有如下优点或有益效果:本申请实施例为网络模型生成器设置多个服务器,每个服务器均能够根据初始的网络模型生成邻居网络模型。由于各个服务器的性能不同,将邻居网络模型的性能指标返回至网络模型生成器的频率不同,因此可以利用各个服务器发送的邻居网络模型的性能指标对网络模型生成器进行更新,网络模型生成器从多个服务器采集的多个邻居网络模型都可能用来更新网络模型生成器。因此,本申请实施例不仅能够解决单机条件下神经网络模型搜索效率低,搜索时间长的问题,而且基于本申请实施例的分布式架构设计能够最大程度上提高网络模型生成器的更新速度,缩短搜索时间,提升神经网络模型的搜索效率。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请实施例提供的一种神经网络模型搜索方法流程示意图;
图2是根据本申请实施例提供的另一种神经网络模型搜索方法流程示意图;
图3可以实现本申请实施例的一种神经网络模型搜索的系统架构图;
图4是根据本申请实施例提供的另一种神经网络模型搜索方法流程示意图;
图5是根据本申请实施例提供的一种神经网络模型搜索装置示意图;
图6是根据本申请实施例提供的另一种神经网络模型搜索装置示意图;
图7是根据本申请实施例提供的另一种神经网络模型搜索装置示意图;
图8是用来实现本申请实施例的一种神经网络模型搜索方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1示出了本申请实施例的神经网络模型搜索方法,包括:
S101,将第一网络模型发送至多个服务器,以使多个服务器中的每个服务器根据第一网络模型生成对应的邻居网络模型;
S102,接收每个服务器反馈的邻居网络模型的性能指标;
S103,根据性能指标,对网络模型生成器进行更新;
S104,在更新后的网络模型生成器生成第二网络模型后,以第二网络模型作为第一网络模型,进行上述迭代更新处理,直至网络模型生成器收敛;
S105,以更新后得到的网络模型生成器生成的网络模型作为神经网络模型搜索的结果。
在本申请的实施例中,在控制器侧,执行步骤S101-S105。网络模型生成器将第一网络模型发送至多个服务器。其中,第一网络模型可以是随机生成的初始网络模型,也可以是根据初始网络模型生成的邻居网络模型等。网络模型生成器将第一网络模型发送至服务器侧。
在服务器侧,可以设置多个服务器。服务器可以是邻居模型生成器,用于生成第一网络模型对应的邻居网络模型。每个服务器接收到第一网络模型后,根据第一网络模型生成邻居网络模型,并对邻居网络模型的性能进行评估,得到邻居网络模型的性能指标。每个服务器将评估得到的邻居网络模型的性能指标发送给网络模型生成器。神经网络模型的性能指标可以包括准确率、误检率、精确率以及召回率等。例如,利用神经网络模型对图片中的对象进行定位检测,得到检测任务的检测准确率。或者是利用神经网络模型对图片中的对象进行分类,得到分类任务的分类准确率等。服务器个数可以动态调整,服务器的性能可以各不相同。例如,服务器可以包括V100服务器,P40服务器,K40服务器等类型,均在本实施方式的保护范围内。
在控制器侧,执行步骤S102和S103。网络模型生成器接收每个服务器反馈的邻居网络模型的性能指标,并对第一网络模型的性能指标与各个服务器对应的邻居网络模型的性能指标分别进行比较。如果来自某一个服务器的邻居网络模型的性能指标比第一网络模型的性能指标更好,那么,计算来自此服务器的邻居网络模型的性能指标与第一网络模型的性能指标的差。例如,邻居网络模型的检测准确率与第一网络模型的检测准确率之间的差值。
在本申请的实施例中,网络模型生成器可以是基于模拟退火算法的网络模型。根据服务器记录的当前迭代轮次,更新基于模拟退火算法的网络模型的退火率,即计算退火率的当前迭代轮次幂。将更新后的退火率和上一更新轮次的退火温度求和,得到用于更新网络模型生成器的当前更新轮次的退火温度。由于当前更新轮次的退火温度应低于上一更新轮次的退火温度,退火温度逐次降低。在本申请的其他实施例中,也可采用本领域其他已知的方式更新退火率。然后,利用邻居网络模型的性能指标与第一网络模型的性能指标的差,以及当前更新轮次的退火温度,更新网络模型生成器。
需要指出的是,网络模型生成器将第一网络模型同时发给多个服务器并行处理。由于各个服务器的性能不同,所以各个服务器处理速度不同,各个服务器每次反馈对应的邻居网络模型的性能指标和记录的迭代轮次可能不同。本申请的实施方式中,在各个服务器反馈记录的多个迭代轮次中,网络模型生成器可以优先选择迭代轮次的最大值来更新退火率,进而得到用于更新网络模型生成器的当前更新轮次的退火温度。然后,利用迭代轮次的最大值对应的邻居网络模型的性能指标与第一网络模型的性能指标的差,以及计算得到的退火温度,更新网络模型生成器。当然,还可以选择迭代轮次的平均值,或者是迭代轮次的最小值来更新退火率。
上述过程是一次迭代过程中,网络模型生成器的更新情况。
在控制器侧,执行步骤S104。更新后的网络模型生成器生成第二网络模型。以第二网络模型作为第一网络模型,返回S101,继续执行S101至S103的步骤。具体的,将第二网络模型发送至多个服务器,以使多个服务器中的每个服务器根据第二网络模型生成对应的邻居网络模型。更新后的网络模型生成器接收每个服务器反馈的邻居网络模型的性能指标,并根据性能指标,对上一次更新后的网络模型生成器进行再次更新。具体过程参考上述一次迭代过程中,网络模型生成器的更新情况。之后,继续进行上述迭代更新处理,直至网络模型生成器收敛,停止对网络模型生成器的更新。
在控制器侧,执行步骤S105。以更新后得到的网络模型生成器生成的网络模型作为神经网络模型搜索的结果。通常情况下,利用更新停止后的网络模型生成器,生成精度和速度达到最优的神经网络模型。
本申请的实施例,设置了多个服务器,每个服务器都能够根据网络模型生成器生成的初始的网络模型,生成对应的邻居网络模型。由于各个服务器的性能不同,将邻居网络模型的性能指标返回至网络模型生成器的频率不同,可以利用各个服务器发送的邻居网络模型的性能指标对网络模型生成器进行更新,而且,从多个服务器采集的多个邻居网络模型都可能用来更新网络模型生成器。
举例来讲,利用第一服务器返回的第一邻居网络模型的性能指标,对网络模型生成器进行第一次更新,第一次更新后的网络模型生成器生成第二网络模型。第二服务器可能接受第二网络模型,并根据第二网络模型生成第二邻居网络模型,并将第二邻居网络模型的性能指标发送给网络模型生成器。利用第二邻居网络模型的性能指标对第一次更新后的网络模型生成器再次更新,直至网络模型生成器收敛。收敛后得到的网络模型生成器,生成的网络模型的精度和速度达到最优。
本申请实施例可用于大多数业务场景下的神经网络模型的自动搜索过程,利用丰富的服务器等设备资源,能够最大程度上提高网络模型生成器的更新速度,提升神经网络模型的搜索效率,节省搜索时间。解决单机条件下神经网络模型搜索效率低,搜索时间长的问题。过去一个业务的模型单机搜索神经网络模型需要一个月,通过本申请实施例的分布式的搜索方法,只需要一到两天时间就可以搜索出最优的神经网络模型。
本实施方式中,在定制化的图像处理的任务,例如图像中对象的检测或者识别等任务中,利用本实施方式提供的神经网络模型搜索方法,能够快速找到用于执行定制化的图像处理的任务的最优的神经网络模型。在硬件上,例如,CPU(中央处理器,centralprocessing unit)或者GPU(图形处理器,Graphics Processing Unit)中,针对不同的图像处理任务,能够搜索得到对应的最优的神经网络模型,利用搜索得到的神经网络模型处理图像的速度更快,精度更高。或者,针对同一个图像处理任务,根据不同的硬件约束条件,也能够搜索得到最优的神经网络模型,利用搜索得到的神经网络模型处理图像的速度更快,精度更高。
在一种实施方式中,如图2所示,多个服务器包括第一服务器,其中,步骤S103,包括:
步骤S1031:在第一服务器反馈的第一邻居网络模型的性能指标大于第一网络模型的性能指标的情况下,计算第一邻居网络模型的性能指标与第一网络模型的性能指标的差;
步骤S1032:根据计算得到的性能指标的差以及第一服务器对应的当前迭代轮次,对网络模型生成器进行更新。
在一种示例中,如图3所示,如果当前是第一轮迭代,网络模型生成器将第一网络模型发送至各个服务器中。其中,第一服务器接收到了第一网络模型,并利用第一网络模型生成第一邻居网络模型,并对第一邻居网络模型的性能进行评估,将评估得到的性能指标反馈至网络模型生成器,并且第一服务器对应的当前迭代轮次(例如,当前迭代轮次为1)也反馈至网络模型生成器中。网络模型生成器比较第一邻居网络模型的性能指标和第一网络模型的性能指标,如果第一邻居网络模型的性能指标大于第一网络模型的性能指标的情况下,计算第一邻居网络模型的性能指标与第一网络模型的性能指标的差,根据计算得到的性能指标的差以及当前迭代轮次,对网络模型生成器进行第一次更新。
在一种实施方式中,如图2所示,多个服务器还包括第二服务器,其中,步骤S103,还包括:
步骤S1033:在第二服务器反馈的第二邻居网络模型的性能指标大于第二网络模型的性能指标的情况下,计算第二邻居网络模型的性能指标与第二网络模型的性能指标的差;
步骤S1034:根据计算得到的性能指标的差以及第二服务器对应的当前迭代轮次,对网络模型生成器进行更新。
在一种示例中,如图3所示,如果当前是第二轮迭代,第一次更新后的网络模型生成器将第二网络模型发送至各个服务器中。其中,第二服务器接收到了第二网络模型,并利用第二网络模型生成第二邻居网络模型,并对第二邻居网络模型的性能进行评估,将评估得到的性能指标反馈至网络模型生成器,并且第二服务器对应的当前迭代轮次(例如,当前迭代轮次为2)也反馈至第一次更新后的网络模型生成器中。第一次更新后的网络模型生成器比较第二邻居网络模型的性能指标和第二网络模型的性能指标,如果第二邻居网络模型的性能指标大于第二网络模型的性能指标的情况下,计算第二邻居网络模型的性能指标与第二网络模型的性能指标的差,根据计算得到的性能指标的差以及当前迭代轮次,对第一次更新后的网络模型生成器进行再次更新。
在本实施方式中,第一服务器反馈的第一邻居网络模型和第二服务器反馈的第二邻居网络模型均对网络模型生成器的更新作出了贡献,异步更新网络模型生成器。所以,网络模型生成器从多个服务器采集的邻居网络模型都可能更新网络模型生成器,对搜索做贡献,提高了搜索效率,节省了搜索时间。
在一种实施方式中,如图2所示,多个服务器包括第三服务器,其中,步骤S102,包括:
步骤S1021:在第三服务器反馈的第三邻居网络模型的性能指标小于第一网络模型的性能指标的情况下,网络模型生成器按照预设的接收概率接收第三邻居网络模型。
在一种示例中,如图3所示,如果网络模型生成模型是基于模拟退火算法的网络模型。那么预设的接收概率的计算过程可以参考模拟退火算法模型的接收概率计算过程:判断新解是否被接受,判断的依据是一个接受准则,最常用的接受准则是:若ΔT(退火温度差)<0,则接受服务器返回的邻居网络模型作为新的当前解,否则以概率exp(-ΔT/T)接受服务器返回的邻居网络模型作为新的当前解。所以,第三服务器返回反馈的第三邻居网络模型的性能指标小于第一网络模型的性能指标的情况下,网络模型生成器以概率exp(-ΔT/T)接收第三邻居网络模型。
在一种实施方式中,网络模型生成器收敛的条件包括:
更新后的网络模型生成器生成的网络模型的性能指标与更新前的网络模型生成器生成的网络模型的性能指标相同;或者,
迭代更新处理的次数达到预设次数。
在一种示例中,可以有多种判断网络模型生成器更新收敛的方式:迭代更新处理的次数是否达到预设次数,是判断收敛的一种方式;还可通过连续多次更新网络模型生成器之后得到的神经网络模型的性能不发生变化,作为判断收敛的另一种方式;还可以设置最长的搜索时间即阈值,搜索时间是否达到预设的阈值时,作为判断收敛的又一种方式;通过各个服务器反馈回来的多个邻居网络模型的个数是否达到预设的采样阈值时,作为判断收敛的又一种方式等。
在一种实施方式中,网络模型生成器包括基于模拟退火算法的网络模型。
在一种示例中,网络模型生成器包括一个或多个基于模拟退火算法的网络模型。多个基于模拟退火算法的网络模型共享神经网络模型、退火率和退火温度。退火率的大小能够控制网络模型生成器的收敛速度。在控制侧设置多个基于模拟退火算法的网络模型,能够提高鲁棒性以及减轻控制侧的计算压力。
图4示出了本申请实施例的神经网络模型搜索方法,包括:
S201:获取网络模型生成器生成的第一网络模型,根据第一网络模型生成对应的邻居网络模型;
S202:评估邻居网络模型的性能指标,并将邻居网络模型的性能指标发送至网络模型生成器,以根据性能指标对网络模型生成器进行更新;
S203:获取更新后的网络模型生成器生成的第二网络模型,以第二网络模型作为第一网络模型,进行上述迭代更新处理,直至网络模型生成器收敛;
S204:以更新后得到的网络模型生成器生成的网络模型作为神经网络模型搜索的结果。
在一种示例中,每个服务器接收第一网络模型,根据第一网络模型生成对应的邻居网络模型。利用训练数据对每个服务器中的邻居模型结构进行训练,训练好之后,评估训练好的邻居网络模型的性能,得到性能指标。由于多台服务器对于图像的处理过程是并行的,因此可以加速搜索过程。
另一种具体实施方式中,如图5所示,提供了一种神经网络模型搜索装置100,应用于控制器,包括:
网络模型发送模块110,用于将第一网络模型发送至多个服务器,以使多个服务器中的每个服务器根据第一网络模型生成对应的邻居网络模型;
性能指标接收模块120,用于接收每个服务器反馈的邻居网络模型的性能指标;
网络模型生成器更新模块130,用于根据性能指标,对网络模型生成器进行更新;
迭代触发模块140,用于在更新后的网络模型生成器生成第二网络模型后,以第二网络模型作为第一网络模型,触发所述网络模型发送模块,以进行迭代更新处理,直至网络模型生成器收敛;
结果处理模块150,用于以更新后得到的网络模型生成器生成的网络模型作为神经网络模型搜索的结果。
在一种实施方式中,如图6所示,提供了一种神经网络模型搜索装置200,多个服务器包括第一服务器,更新模块130包括:
第一计算子模块131,用于在第一服务器反馈的第一邻居网络模型的性能指标大于第一网络模型的性能指标的情况下,计算第一邻居网络模型的性能指标与第一网络模型的性能指标的差;
第一更新子模块132,用于根据计算得到的性能指标的差以及第一服务器对应的当前迭代轮次,对网络模型生成器进行更新。
在一种实施方式中,如图6所示,多个服务器还包括第二服务器,更新模块130还包括:
第二计算子模块133,用于在第二服务器反馈的第二邻居网络模型的性能指标大于第二网络模型的性能指标的情况下,计算第二邻居网络模型的性能指标与第二网络模型之间的性能指标的差;
第二更新子模块134,用于根据计算得到的性能指标的差以及第二服务器对应的当前迭代轮次,对网络模型生成器进行更新。
在一种实施方式中,如图6所示,多个服务器包括第三服务器,接收模块120包括:
接收子模块121,用于在第三服务器反馈的第三邻居网络模型的性能指标小于第一网络模型的性能指标的情况下,网络模型生成器按照预设的接收概率接收第三邻居网络模型。
在一种实施方式中,网络模型生成器收敛的条件包括:
更新后的网络模型生成器生成的网络模型的性能指标与更新前的网络模型生成器生成的网络模型的性能指标相同;或者,
迭代更新处理的次数达到预设次数。
在一种实施方式中,网络模型生成器包括基于模拟退火算法的网络模型。
本发明实施例各装置中的各模块的功能可以参见上述方法中的对应描述,在此不再赘述。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
另一种具体实施方式中,如图7所示,提供了一种神经网络模型搜索装置300,应用于服务器,包括:
网络模型接收模块210,用于获取网络模型生成器生成的第一网络模型;
邻居网络模型生成模块220,用于根据第一网络模型生成对应的邻居网络模型;
性能指标评估模块230,用于评估邻居网络模型的性能指标,并将邻居网络模型的性能指标发送至网络模型生成器,以根据性能指标对网络模型生成器进行更新;
邻居解触发模块240,用于获取更新后的网络模型生成器生成的第二网络模型,以第二网络模型作为第一网络模型,触发邻居网络模型生成模块,以进行上述迭代更新处理,直至网络模型生成器收敛;
结果处理模块250,用于以更新后得到的网络模型生成器生成的网络模型作为神经网络模型搜索的结果。
如图8所示,是根据本申请实施例的神经网络模型搜索方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图8所示,该电子设备包括:一个或多个处理器801、存储器802,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示图形用户界面(Graphical User Interface,GUI)的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图8中以一个处理器801为例。
存储器802即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的神经网络模型搜索方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的一种神经网络模型搜索方法。
存储器802作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的一种神经网络模型搜索方法对应的程序指令/模块(例如,附图5所示的网络模型发送模块110、性能指标接收模块120、网络模型生成器更新模块30、迭代触发模块140和结果输出模块150)。处理器801通过运行存储在存储器802中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的一种神经网络模型搜索方法。
存储器802可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据一种神经网络模型搜索方法的电子设备的使用所创建的数据等。此外,存储器802可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器802可选包括相对于处理器801远程设置的存储器,这些远程存储器可以通过网络连接至神经网络模型搜索方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
神经网络模型搜索方法的电子设备还可以包括:输入装置803和输出装置804。处理器801、存储器802、输入装置803和输出装置804可以通过总线或者其他方式连接,图8中以通过总线连接为例。
输入装置803可接收输入的数字或字符信息,以及产生与神经网络模型搜索方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置804可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(Liquid Crstal Displa,LCD)、发光二极管(LightEmitting Diode,LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用集成电路(Application Specific Integrated Circuits,ASIC)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(programmable logic device,PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(Cathode Ra8 Tube,阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(Local Area Network,LAN)、广域网(Wide Area Network,WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,可用于任何针对业务场景的神经网络模型的自动搜索,利用数量丰富的服务器等设备资源进一步提升神经网络模型的搜索效率,节省了搜索时间。例如,过去一个业务的模型单机搜索神经网络模型需要一个月,现在通过分布式的搜索方法,只需要一到两天时间就可以搜索出最优的神经网络模型。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (14)
1.一种神经网络模型搜索方法,其特征在于,包括:
将第一网络模型发送至多个服务器,以使所述多个服务器中的每个服务器根据所述第一网络模型生成对应的邻居网络模型;
接收所述每个服务器反馈的邻居网络模型的性能指标;
根据所述性能指标,对网络模型生成器进行更新;
在更新后的网络模型生成器生成第二网络模型后,以所述第二网络模型作为所述第一网络模型,重新执行所述将第一网络模型发送至多个服务器,以使所述多个服务器中的每个服务器根据所述第一网络模型生成对应的邻居网络模型的步骤,直至所述网络模型生成器收敛;
以更新后得到的网络模型生成器生成的网络模型作为神经网络模型搜索的结果;
其中,所述多个服务器包括第一服务器,所述根据所述性能指标,对网络模型生成器进行更新,包括:
在所述第一服务器反馈的第一邻居网络模型的性能指标大于所述第一网络模型的性能指标的情况下,计算所述第一邻居网络模型的性能指标与所述第一网络模型的性能指标的差;
根据计算得到的性能指标的差以及所述第一服务器对应的当前迭代轮次,对所述网络模型生成器进行更新。
2.如权利要求1所述的方法,其特征在于,所述多个服务器还包括第二服务器,所述根据所述性能指标,对网络模型生成器进行更新,还包括:
在所述第二服务器反馈的第二邻居网络模型的性能指标大于所述第二网络模型的性能指标的情况下,计算所述第二邻居网络模型的性能指标与所述第二网络模型的性能指标的差;
根据计算得到的性能指标的差以及所述第二服务器对应的当前迭代轮次,对所述网络模型生成器进行更新。
3.如权利要求1所述的方法,其特征在于,所述多个服务器包括第三服务器,所述接收所述每个服务器反馈的邻居网络模型的性能指标,包括:
在所述第三服务器反馈的第三邻居网络模型的性能指标小于所述第一网络模型的性能指标的情况下,所述网络模型生成器按照预设的接收概率接收所述第三邻居网络模型。
4.如权利要求1所述的方法,其特征在于,所述网络模型生成器收敛的条件包括:
更新后的网络模型生成器生成的网络模型的性能指标与更新前的网络模型生成器生成的网络模型的性能指标相同;或者,
迭代更新处理的次数达到预设次数。
5.如权利要求1至4任一项所述的方法,其特征在于,所述网络模型生成器包括基于模拟退火算法的网络模型。
6.一种神经网络模型搜索方法,其特征在于,包括:
获取网络模型生成器生成的第一网络模型,根据所述第一网络模型生成对应的邻居网络模型;
评估所述邻居网络模型的性能指标,并将所述邻居网络模型的性能指标发送至所述网络模型生成器,以根据所述性能指标对网络模型生成器进行更新;
获取更新后的网络模型生成器生成的第二网络模型,以所述第二网络模型作为所述第一网络模型,重新执行所述获取网络模型生成器生成的第一网络模型,根据所述第一网络模型生成对应的邻居网络模型的步骤,直至所述网络模型生成器收敛;
以更新后得到的网络模型生成器生成的网络模型作为神经网络模型搜索的结果;
所述以根据所述性能指标对网络模型生成器进行更新,包括:
在所述邻居网络模型的性能指标大于所述第一网络模型的性能指标的情况下,计算所述邻居网络模型的性能指标与所述第一网络模型的性能指标的差,并根据计算得到的性能指标的差对网络模型生成器进行更新。
7.一种神经网络模型搜索装置,应用于控制器,其特征在于,包括:
网络模型发送模块,用于将第一网络模型发送至多个服务器,以使所述多个服务器中的每个服务器根据所述第一网络模型生成对应的邻居网络模型;
性能指标接收模块,用于接收所述每个服务器反馈的邻居网络模型的性能指标;
网络模型生成器更新模块,用于根据所述性能指标,对所述网络模型生成器进行更新;
迭代触发模块,用于在更新后的网络模型生成器生成第二网络模型后,以所述第二网络模型作为所述第一网络模型,触发所述网络模型发送模块,重新执行所述将第一网络模型发送至多个服务器,以使所述多个服务器中的每个服务器根据所述第一网络模型生成对应的邻居网络模型的步骤,直至所述网络模型生成器收敛;
结果处理模块,用于以更新后得到的网络模型生成器生成的网络模型作为神经网络模型搜索的结果;
所述多个服务器包括第一服务器,所述更新模块包括:
第一计算子模块,用于在所述第一服务器反馈的第一邻居网络模型的性能指标大于所述第一网络模型的性能指标的情况下,计算所述第一邻居网络模型的性能指标与所述第一网络模型的性能指标的差;
第一更新子模块,用于根据计算得到的性能指标的差以及所述第一服务器对应的当前迭代轮次,对所述网络模型生成器进行更新。
8.如权利要求7所述的装置,其特征在于,所述多个服务器还包括第二服务器,所述更新模块还包括:
第二计算子模块,用于在所述第二服务器反馈的第二邻居网络模型的性能指标大于所述第二网络模型的性能指标的情况下,计算所述第二邻居网络模型的性能指标与所述第二网络模型的性能指标的差;
第二更新子模块,用于根据计算得到的性能指标的差以及所述第二服务器对应的当前迭代轮次,对所述网络模型生成器进行更新。
9.如权利要求7所述的装置,其特征在于,所述多个服务器包括第三服务器,所述接收模块包括:
接收子模块,用于在所述第三服务器反馈的第三邻居网络模型的性能指标小于所述第一网络模型的性能指标的情况下,所述网络模型生成器按照预设的接收概率接收所述第三邻居网络模型。
10.如权利要求7所述的装置,其特征在于,所述网络模型生成器收敛的条件包括:
更新后的网络模型生成器生成的网络模型的性能指标与更新前的网络模型生成器生成的网络模型的性能指标相同;或者,
迭代更新处理的次数达到预设次数。
11.如权利要求7至10任一项所述的装置,其特征在于,所述网络模型生成器包括基于模拟退火算法的网络模型。
12.一种神经网络模型搜索装置,应用于服务器,其特征在于,包括:
网络模型接收模块,用于获取网络模型生成器生成的第一网络模型;
邻居网络模型生成模块,用于根据所述第一网络模型生成对应的邻居网络模型;
性能指标评估模块,用于评估所述邻居网络模型的性能指标,并将所述邻居网络模型的性能指标发送至所述网络模型生成器,以根据所述性能指标对网络模型生成器进行更新;
邻居解触发模块,用于获取更新后的网络模型生成器生成的第二网络模型,以所述第二网络模型作为所述第一网络模型,触发所述邻居网络模型生成模块,重新执行所述获取网络模型生成器生成的第一网络模型的步骤,直至所述网络模型生成器收敛;
结果处理模块,用于以更新后得到的网络模型生成器生成的网络模型作为神经网络模型搜索的结果;
其中,所述性能指标评估模块,具体用于评估所述邻居网络模型的性能指标,并将所述邻居网络模型的性能指标发送至所述网络模型生成器,在所述邻居网络模型的性能指标大于所述第一网络模型的性能指标的情况下,计算所述邻居网络模型的性能指标与所述第一网络模型的性能指标的差,并根据计算得到的性能指标的差对网络模型生成器进行更新。
13.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至6中任一项所述的方法。
14.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1至6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010117434.5A CN111340222B (zh) | 2020-02-25 | 2020-02-25 | 神经网络模型搜索方法、装置以及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010117434.5A CN111340222B (zh) | 2020-02-25 | 2020-02-25 | 神经网络模型搜索方法、装置以及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111340222A CN111340222A (zh) | 2020-06-26 |
CN111340222B true CN111340222B (zh) | 2023-06-13 |
Family
ID=71181874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010117434.5A Active CN111340222B (zh) | 2020-02-25 | 2020-02-25 | 神经网络模型搜索方法、装置以及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111340222B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112836801A (zh) * | 2021-02-03 | 2021-05-25 | 上海商汤智能科技有限公司 | 深度学习网络确定方法、装置、电子设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110633797A (zh) * | 2019-09-11 | 2019-12-31 | 北京百度网讯科技有限公司 | 网络模型结构的搜索方法、装置以及电子设备 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101003159B1 (ko) * | 2009-01-22 | 2010-12-22 | 충북대학교 산학협력단 | 이동단말 고속 인증 및 이동성 관리를 위한 광대역통합네트워크와, 고속인증 및 이동성 관리방법 |
CN109194504A (zh) * | 2018-08-10 | 2019-01-11 | 北京大学深圳研究生院 | 面向动态网络的时序链路预测方法及计算机可读存储介质 |
CN110569973A (zh) * | 2019-09-11 | 2019-12-13 | 北京百度网讯科技有限公司 | 网络结构的搜索方法、装置以及电子设备 |
CN110662238B (zh) * | 2019-10-24 | 2020-08-25 | 南京大学 | 一种针对边缘网络下突发请求的强化学习调度方法及设备 |
-
2020
- 2020-02-25 CN CN202010117434.5A patent/CN111340222B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110633797A (zh) * | 2019-09-11 | 2019-12-31 | 北京百度网讯科技有限公司 | 网络模型结构的搜索方法、装置以及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111340222A (zh) | 2020-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111539514B (zh) | 用于生成神经网络的结构的方法和装置 | |
JP7166322B2 (ja) | モデルを訓練するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
CN110633797B (zh) | 网络模型结构的搜索方法、装置以及电子设备 | |
CN111539479B (zh) | 生成样本数据的方法和装置 | |
EP3916630A1 (en) | Method and apparatus for identifying video | |
CN111667057B (zh) | 用于搜索模型结构的方法和装置 | |
CN112084366B (zh) | 用于检索图像的方法、装置、设备以及存储介质 | |
CN111582454B (zh) | 生成神经网络模型的方法和装置 | |
CN111667056B (zh) | 用于搜索模型结构的方法和装置 | |
CN111680517B (zh) | 用于训练模型的方法、装置、设备以及存储介质 | |
CN111275190B (zh) | 神经网络模型的压缩方法及装置、图像处理方法及处理器 | |
CN112000450A (zh) | 神经网络架构搜索方法以及装置 | |
CN111639753B (zh) | 用于训练图像处理超网络的方法、装置、设备以及存储介质 | |
CN111461343B (zh) | 模型参数更新方法及其相关设备 | |
CN111967569A (zh) | 神经网络结构的生成方法、装置、存储介质及电子设备 | |
CN111563593B (zh) | 神经网络模型的训练方法和装置 | |
CN111652354B (zh) | 用于训练超网络的方法、装置、设备以及存储介质 | |
CN112580723B (zh) | 多模型融合方法、装置、电子设备和存储介质 | |
CN111340219A (zh) | 神经网络模型搜索方法及装置、图像处理方法及处理器 | |
CN111680599B (zh) | 人脸识别模型处理方法、装置、设备和存储介质 | |
CN111340222B (zh) | 神经网络模型搜索方法、装置以及电子设备 | |
CN111738325B (zh) | 图像识别方法、装置、设备以及存储介质 | |
CN111177479A (zh) | 获取关系网络图中节点的特征向量的方法以及装置 | |
CN111488972B (zh) | 数据迁移方法、装置、电子设备和存储介质 | |
CN111125362B (zh) | 一种异常文本确定方法、装置、电子设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |