CN110009048B - 一种神经网络模型的构建方法以及设备 - Google Patents

一种神经网络模型的构建方法以及设备 Download PDF

Info

Publication number
CN110009048B
CN110009048B CN201910283933.9A CN201910283933A CN110009048B CN 110009048 B CN110009048 B CN 110009048B CN 201910283933 A CN201910283933 A CN 201910283933A CN 110009048 B CN110009048 B CN 110009048B
Authority
CN
China
Prior art keywords
neural network
code
kth
initial
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910283933.9A
Other languages
English (en)
Other versions
CN110009048A (zh
Inventor
刘红丽
李峰
刘宏刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Inspur Intelligent Technology Co Ltd
Original Assignee
Suzhou Inspur Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Inspur Intelligent Technology Co Ltd filed Critical Suzhou Inspur Intelligent Technology Co Ltd
Priority to CN201910283933.9A priority Critical patent/CN110009048B/zh
Publication of CN110009048A publication Critical patent/CN110009048A/zh
Application granted granted Critical
Publication of CN110009048B publication Critical patent/CN110009048B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种神经网络模型的构建方法,包括步骤:S1构建策略网络以及图像测试集;S2构建多个随机编码数组,并将其分别输入到策略网络中,得到多个初始编码;S3对多个初始编码进行处理后得到多个神经网络模型;S4将图像测试集分别输入到多个神经网络模型以得到多个奖励、多个神经网络模型的损失值和多个实际分类结果;S5根据图像测试集的理论分类来判断多个实际分类结果中至少一个是否满足预设条件;S6响应于不满足预设条件,利用每一个初始编码以及其对应的神经网络模型得到的奖励计算策略网络的损失值;S7根据损失值更新策略网络;S8重复步骤S2‑S7,直到在步骤S5得出至少一个实际分类结果满足预设条件的判断。上述方法能够大大加快寻优速度。

Description

一种神经网络模型的构建方法以及设备
技术领域
本发明涉及图像分类领域,更具体地,特别是指一种神经网络模型的构建方法以及设备。
背景技术
神经网络模型是一种可任意堆砌的模型结构,基础的组件包括FC(全连接层)、Convolution(卷积层)、Polling(池化层)、Activation(激活函数)等,后一个组件以前一个组件的输出作为输入,不同的组件连接方式和超参配置方式在不同应用场景有不同的效果。神经架构搜索(Neural Architecture Search,NAS),目标是从一堆神经网络组件中,搜索到一个最优的神经网络模型。其中,常见的搜索方法包括随机搜索、贝叶斯优化、进化算法、强化学习、基于梯度的算法等。
Zoph等人在2016年提出采用RNN去搜索一个最好的网络结构,但因搜索空间太大,耗时22,400GPU工作天数,于2017年改成采用强化学习搜索CNN的效果最好的卷积单元(conv cell),再用这些conv cell来构建一个更好的网络,但是该算法在CIFAR-10和ImageNet上获得当前最佳架构仍需要2000个GPU工作天数。人们已经提出了很多加速方法,例如提出多个架构之间共享权重,以及基于连续搜索空间的梯度下降的可微架构搜索。但这些算法都采用手工设定网络体系结构的方法,导致体系架构的灵活性存在挑战。而且这些算法都只考虑模型计算精度,而且每次只采用一个模型更新网络参数,导致搜索到最优模型的速度较慢。
发明内容
有鉴于此,为了克服上述问题的至少一个方面,本发明实施例的提出一种用于实现图像的分类的神经网络模型的构建方法,包括以下步骤:
S1,构建策略网络以及图像测试集;
S2,构建多个随机编码数组,并将所述多个随机编码数组分别输入到所述策略网络中,得到多个初始编码;
S3,对所述多个初始编码进行处理以得到多个神经网络模型;
S4,将所述图像测试集分别输入到所述多个神经网络模型以得到多个奖励、所述多个神经网络模型的损失值和多个实际分类结果;
S5,根据所述图像测试集的理论分类来判断所述多个实际分类结果中至少一个是否满足预设条件;
S6,响应于不满足该预设条件,利用每一个所述初始编码以及其对应的神经网络模型得到的奖励计算所述策略网络的损失值;
S7,根据所述策略网络的损失值更新所述策略网络;
S8,重复步骤S2-S7,直到在步骤S5得出至少一个实际分类结果满足预设条件的判断。
在一些实施例中,步骤S3进一步包括:
S31,对所述多个初始编码进行数据转换得到多个模型结构编码;
S32,对所述多个模型结构编码进行解码得到所述多个神经网络模型。
在一些实施例中,所述模型结构编码包括单元结构编码数组和体系结构编码数组,且所述单元结构编码数组包括下降单元数组和正常单元数组。
在一些实施例中,在步骤S4中,所述奖励通过下式计算得到:
Rk=rk-αfk
其中,Rk表示第K个所述神经网络模型的奖励,rk表示第K个所述神经网络模型模型的计算精度,fk表示第K个模型的计算负载,α表示两者之间的平衡因子。
在一些实施例中,所述计算精度由下式计算得到:
Figure BDA0002022630220000031
其中,Lk表示第K个所述神经网络模型的损失值。
在一些实施例中,所述计算负载由下式计算得到:
fk=afN+bfR
其中,fN表示下降单元数组的负载值,a表示第K个所述神经网络模型对应的所述下降单元数组的数量;fR表示正常单元数组的负载值,b表示第K个所述神经网络模型对应的所述正常单元数组的数量。
在一些实施例中,所述策略网络的损失值LRL由下式计算得到:
Figure BDA0002022630220000032
m表示所述神经网络的数量,T表示所述初始编码的编码长度,Sk,t表示用于第K个所述初始编码的第t位和其他所有的所述初始编码的第t位的相似度之和。
在一些实施例中,Sk,t由下式计算得到:
Figure BDA0002022630220000033
其中,Pk,t表示第K个所述初始编码的第t位,Pi,t表示第i个所述初始编码的第t位,ε表示预设参数。
基于同一发明构思,根据本发明的另一个方面,本发明的实施例还提供了一种计算机设备,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机程序,所述处理器执行所述程序时执行如上所述的任一种构建神经网络模型的方法的步骤。
基于同一发明构思,根据本发明的另一个方面,本发明的实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时执行如上所述的任一种构建神经网络模型的方法的步骤。
本发明具有以下有益技术效果:本发明提供的实施例每次采用多个神经网络模型输出的奖励及其对应的初始编码更新策略网络参数,能够加快寻优速度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为本发明的实施例提供的神经网络模型的构建方法的流程示意图;
图2为本发明的实施例提供的计算机设备的结构示意图;
图3为本发明的实施例提供的计算机可读存储介质的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
根据本发明的一个方面,提供了一种用于实现图像分类的神经网络模型的构建方法,具体实现思路为首先随机产生M组编码,分别输入RNN控制器获得相应输出(probs),经数据转换为模型编码(UM_code)。按照解码规则将其解析为对应的实际有效模型。当样本数据经过不同的网络模型进行训练后,会产生对应奖励。通过M个奖励与M个probs计算强化学习的损失,通过反向传播算法计算梯度,以此来更新RNN控制器参数。
如图1所示,图1示出了本发明实施例提出的用于实现图像分类的神经网络模型的构建方法的具体流程图,其可以包括步骤:
S1,构建策略网络以及图像测试集;
S2,构建多个随机编码数组,并将所述多个随机编码数组分别输入到所述策略网络中,得到多个初始编码;
在一些实施例中,策略网络可以对输入的初始编码进行体系结构搜索和单元结构搜索,即可得到多个体系结构初始编码和多个单元结构初始编码。
在一些实施例中,体系结构搜索和单元结构搜索可以采用启发式迭代算法,最大迭代次数J,具体更新的流程如下。
(1)初始化体系结构编码N的初值N0
(2)for j from 1 to J开始启发式迭代:
(a)搜索最优单元结构编码Cj
Figure BDA0002022630220000051
Acc_C*=Acc_UM(Cj,x,Nj-1)
(b)搜索最优体系结构编码Nj
Figure BDA0002022630220000052
Acc_N*=Acc_UM(Cj,x,Nj)
(c)如果|Acc_N*-Acc_C*|<∈,则算法结束。否则继续回到步骤(a)进行迭代。
这样策略网络即可输出最优的单元结构的初始编码Cj,最优体系结构的初始编码Nj,最优分类精度Acc_N*。其中Acc_UM(θ)表示参数为θ的UM(神经网络模型)输出的分类精度。
S3,对所述多个初始编码进行处理以得到多个神经网络模型;
在一些实施例中,可以对所述多个初始编码进行数据转换得到多个模型结构编码;对所述多个模型结构编码进行解码得到所述多个神经网络模型。即可以对多个体系结构初始编码和多个单元结构初始编码得到多个单元结构编码数组和多个体系结构编码数组,然后分别利用单元结构编码数组及对应的体系结构编码数组进行解码,进而得到多个神经网络模型。
在一些实施例中,本发明涉及的数据转换可以简单地通过如下公式实现:
Ck=floor(Pk*100)
其中,Pk表示策略网络输出的第k个初始编码(probs),floor表示向下取整操作,Ck表示第k个模型结构编码。
具体的,模型结构编码(model code)由体系结构编码(frame code)和单元结构编码(cell code)两部分组成。然后利用经过数据库配置模块获取诸如卷积滤波核数目、数据格式、训练步数等超参数,同时将模型结构编码按预先的设置拆分为体系结构编码和单元结构编码,而单元结构编码再次划分为正常单元数组和下降单元数组;依次解码体系结构和相应单元结构(如第一个体系结构为Normal Layer,那么单元结构对应为normal cell编码),直到解码所有体系结构;最后经全局平均池化、全连接层输出logits,通过与样本标签的交叉熵获取该神经网络模型的loss值。即在本发明中,首先通过单元结构编码数组得到多个cell结构,其中每一个单元结构(cell)为最终架构的基石,然后再通过体系结构将多个cell结构串联形成一个卷积网络,进而得到神经网络模型。
S4,将所述图像测试集分别输入到所述多个神经网络模型以得到多个奖励、所述多个神经网络模型的损失值和多个实际分类结果;
在一些实施例中,奖励同时考虑神经网络模型的计算精度和计算负载,例如奖励通过下式计算得到:
Rk=rk-αfk
其中,Rk表示第K个所述神经网络模型的奖励,rk表示第K个所述神经网络模型模型的计算精度,fk表示第K个模型的计算负载,α表示两者之间的平衡因子,平衡因子可以预先进行设定。
在一些实施例中,计算精度由下式计算得到:
Figure BDA0002022630220000071
其中,Lk表示第K个所述神经网络模型的损失值。
在一些实施例中,计算负载由下式计算得到:
fk=afN+bfR
其中,fN表示下降单元数组的负载值,a表示第K个所述神经网络模型对应的所述下降单元数组的数量;fR表示正常单元数组的负载值,b表示第K个所述神经网络模型对应的所述正常单元数组的数量。
在一些实施例中,神经网络模型输出的损失值可以通过采用交叉熵或均方误差计算。
S5,根据所述图像测试集的理论分类来判断所述多个实际分类结果中至少一个是否满足预设条件。
在一些实施例中,可以根据所述图像测试集的理论分类计算所述实际分类结果的误差值。误差值可以为实际分类结果中错误的数值/总数值,例如,若总共有100个分类结果,其中正确分类结果有50个,则误差值为0.5。然后判断所述误差值是否小于阈值,若所述误差值大于阈值,则进行后续步骤。
需要说明的是,阈值可以根据实际需求设定,可以是0.05-0.15。例如,若想得到的结果更加准确,可以将阈值设置为较低的数值,例如0.1,或更低,例如0.05。
S6,响应于不满足上述预设条件,利用每一个所述初始编码以及其对应的神经网络模型得到的奖励计算所述策略网络的损失值。
在一些实施例中,更新策略网络参数时,核心问题是构建合理的损失函数,通过最小化损失函数提高生成占优的神经网络模型的概率。一般地,希望能够最大化神经网络模型的期望收益:
Figure BDA0002022630220000081
其中[R]表示策略网络生成模型的收益,
Figure BDA0002022630220000082
表示采用参数集θc生成当前有效模型的概率。将每一个有效模型看作对模型生成的一次采样,上式可以近似为以下形式:
Figure BDA0002022630220000083
m表示所述神经网络的数量,T表示所述初始编码的编码长度,Sk,t表示用于第K个所述初始编码的第t位和其他所有的所述初始编码的第t位的相似度之和,St表示所有的Sk,t的和,具体计算公式如下:
Figure BDA0002022630220000084
Figure BDA0002022630220000085
其中,Pk,t表示第K个所述初始编码的第t位;Pi,t表示第i个所述初始编码的第t位;ε表示预设参数,以使相似度设定在一定范围。
由于TensorFlow自带的优化器只能向极小值方向优化,因此这里我们对优化函数取反,最终本发明策略网络训练的优化函数可以为:
Figure BDA0002022630220000086
S7,根据所述策略网络的损失值更新所述策略网络;
在一些实施例中,可以通过反向传播算法计算梯度,例如可以采用下式更新策略网络的参数:
Figure BDA0002022630220000091
S8,重复步骤S2-S7,直到在步骤S5得出至少一个实际分类结果满足预设条件的判断。
本发明实施例提出的方法结合RNN(策略网络)的优化方法和CNN(神经网络模型)的评价方法,使用CNN在数据集合上的表现作为CNN的评价,并把CNN的评价(奖励)反传给RNN,用以训练RNN的参数。从整个过程可以看出,用以生成CNN的RNN结构的训练涉及到两部分,相对于一般使用数据直接训练RNN,多了一个CNN的自动生成、优化和测试,强化学习的优化过程需要极大的运算量,比训练通常RNN运算复杂度多几个数量级。并且神经网络模型返回的奖励同时考虑模型计算精度和计算负载,并且每次采用多个模型更新策略网络参数,加快寻优速度。
基于同一发明构思,根据本发明的另一个方面,如图2所示,本发明的实施例还提供了一种计算机设备501,包括:
至少一个处理器520;以及
存储器510,所述存储器510存储有可在所述处理器上运行的计算机程序511,所述处理器520执行所述程序时执行如上所述的任一种构建神经网络模型的方法的步骤。
基于同一发明构思,根据本发明的另一个方面,如图3所示,本发明的实施例还提供了一种计算机可读存储介质601,所述计算机可读存储介质601存储有计算机程序610,所述计算机程序610被处理器执行时执行如上所述的任一种构建神经网络模型的方法的步骤。
最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(ROM)或随机存储记忆体(RAM)等。上述计算机程序的实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
此外,典型地,本发明实施例公开所述的装置、设备等可为各种电子终端设备,例如手机、个人数字助理(PDA)、平板电脑(PAD)、智能电视等,也可以是大型终端设备,如服务器等,因此本发明实施例公开的保护范围不应限定为某种特定类型的装置、设备。本发明实施例公开所述的客户端可以是以电子硬件、计算机软件或两者的组合形式应用于上述任意一种电子终端设备中。
此外,根据本发明实施例公开的方法还可以被实现为由CPU执行的计算机程序,该计算机程序可以存储在计算机可读存储介质中。在该计算机程序被CPU执行时,执行本发明实施例公开的方法中限定的上述功能。
此外,上述方法步骤以及系统单元也可以利用控制器以及用于存储使得控制器实现上述步骤或单元功能的计算机程序的计算机可读存储介质实现。
此外,应该明白的是,本文所述的计算机可读存储介质(例如,存储器)可以是易失性存储器或非易失性存储器,或者可以包括易失性存储器和非易失性存储器两者。作为例子而非限制性的,非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦写可编程ROM(EEPROM)或快闪存储器。易失性存储器可以包括随机存取存储器(RAM),该RAM可以充当外部高速缓存存储器。作为例子而非限制性的,RAM可以以多种形式获得,比如同步RAM(DRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据速率SDRAM(DDR SDRAM)、增强SDRAM(ESDRAM)、同步链路DRAM(SLDRAM)、以及直接Rambus RAM(DRRAM)。所公开的方面的存储设备意在包括但不限于这些和其它合适类型的存储器。
本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个系统的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现所述的功能,但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。
结合这里的公开所描述的各种示例性逻辑块、模块和电路可以利用被设计成用于执行这里所述功能的下列部件来实现或执行:通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立门或晶体管逻辑、分立的硬件组件或者这些部件的任何组合。通用处理器可以是微处理器,但是可替换地,处理器可以是任何传统处理器、控制器、微控制器或状态机。处理器也可以被实现为计算设备的组合,例如,DSP和微处理器的组合、多个微处理器、一个或多个微处理器结合DSP和/或任何其它这种配置。
结合这里的公开所描述的方法或算法的步骤可以直接包含在硬件中、由处理器执行的软件模块中或这两者的组合中。软件模块可以驻留在RAM存储器、快闪存储器、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动盘、CD-ROM、或本领域已知的任何其它形式的存储介质中。示例性的存储介质被耦合到处理器,使得处理器能够从该存储介质中读取信息或向该存储介质写入信息。在一个替换方案中,存储介质可以与处理器集成在一起。处理器和存储介质可以驻留在ASIC中。ASIC可以驻留在用户终端中。在一个替换方案中,处理器和存储介质可以作为分立组件驻留在用户终端中。
在一个或多个示例性设计中,所述功能可以在硬件、软件、固件或其任意组合中实现。如果在软件中实现,则可以将所述功能作为一个或多个指令或代码存储在计算机可读介质上或通过计算机可读介质来传送。计算机可读介质包括计算机存储介质和通信介质,该通信介质包括有助于将计算机程序从一个位置传送到另一个位置的任何介质。存储介质可以是能够被通用或专用计算机访问的任何可用介质。作为例子而非限制性的,该计算机可读介质可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储设备、磁盘存储设备或其它磁性存储设备,或者是可以用于携带或存储形式为指令或数据结构的所需程序代码并且能够被通用或专用计算机或者通用或专用处理器访问的任何其它介质。此外,任何连接都可以适当地称为计算机可读介质。例如,如果使用同轴线缆、光纤线缆、双绞线、数字用户线路(DSL)或诸如红外线、无线电和微波的无线技术来从网站、服务器或其它远程源发送软件,则上述同轴线缆、光纤线缆、双绞线、DSL或诸如红外线、无线电和微波的无线技术均包括在介质的定义。如这里所使用的,磁盘和光盘包括压缩盘(CD)、激光盘、光盘、数字多功能盘(DVD)、软盘、蓝光盘,其中磁盘通常磁性地再现数据,而光盘利用激光光学地再现数据。上述内容的组合也应当包括在计算机可读介质的范围内。
以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。
应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上所述的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。

Claims (9)

1.一种神经网络模型的构建方法,所述神经网络模型用于实现图像的分类,所述方法包括步骤:
S1,构建策略网络以及图像测试集;
S2,构建多个随机编码数组,并将所述多个随机编码数组分别输入到所述策略网络中,得到多个初始编码;
S3,对所述多个初始编码进行处理以得到多个神经网络模型;
S4,将所述图像测试集分别输入到所述多个神经网络模型以得到多个奖励、所述多个神经网络模型的损失值和多个实际分类结果;
S5,根据所述图像测试集的理论分类来判断所述多个实际分类结果中至少一个是否满足预设条件;
S6,响应于不满足所述预设条件,利用每一个所述初始编码以及其对应的神经网络模型得到的奖励计算所述策略网络的损失值;
S7,根据所述策略网络的损失值更新所述策略网络;
S8,重复步骤S2-S7,直到在步骤S5得出至少一个实际分类结果满足预设条件的判断;
其中,在步骤S4中,所述奖励通过下式计算得到:
Rk=rk-αfk
其中,Rk表示第K个所述神经网络模型的奖励,rk表示第K个所述神经网络模型的计算精度,fk表示第K个模型的计算负载,α表示两者之间的平衡因子。
2.如权利要求1所述的方法,其特征在于,步骤S3进一步包括:
S31,对所述多个初始编码进行数据转换得到多个模型结构编码;
S32,对所述多个模型结构编码进行解码得到所述多个神经网络模型。
3.如权利要求2所述的方法,其特征在于,所述模型结构编码包括单元结构编码数组和体系结构编码数组,且所述单元结构编码数组包括下降单元数组和正常单元数组。
4.如权利要求1所述的方法,其特征在于,所述计算精度由下式计算得到:
Figure FDA0003174753150000021
其中,Lk表示第K个所述神经网络模型的损失值。
5.如权利要求1所述的方法,其特征在于,所述计算负载由下式计算得到:
fk=afN+bfR
其中,fN表示下降单元数组的负载值,a表示第K个所述神经网络模型对应的所述下降单元数组的数量;fR表示正常单元数组的负载值,b表示第K个所述神经网络模型对应的所述正常单元数组的数量。
6.如权利要求1所述的方法,其特征在于,所述策略网络的损失值LRL由下式计算得到:
Figure FDA0003174753150000022
m表示所述神经网络的数量,T表示所述初始编码的编码长度,Sk,t表示用于第K个所述初始编码的第t位和其他所有的所述初始编码的第t位的相似度之和。
7.如权利要求6所述的方法,其特征在于,Sk,t由下式计算得到:
Figure FDA0003174753150000023
其中,Pk,t表示第K个所述初始编码的第t位,Pi,t表示第i个所述初始编码的第t位,ε表示预设参数。
8.一种计算机设备,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行如权利要求1-7任意一项所述的方法。
9.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时执行权利要求1-7任意一项所述的方法。
CN201910283933.9A 2019-04-10 2019-04-10 一种神经网络模型的构建方法以及设备 Active CN110009048B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910283933.9A CN110009048B (zh) 2019-04-10 2019-04-10 一种神经网络模型的构建方法以及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910283933.9A CN110009048B (zh) 2019-04-10 2019-04-10 一种神经网络模型的构建方法以及设备

Publications (2)

Publication Number Publication Date
CN110009048A CN110009048A (zh) 2019-07-12
CN110009048B true CN110009048B (zh) 2021-08-24

Family

ID=67170688

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910283933.9A Active CN110009048B (zh) 2019-04-10 2019-04-10 一种神经网络模型的构建方法以及设备

Country Status (1)

Country Link
CN (1) CN110009048B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110555514B (zh) * 2019-08-20 2022-07-12 北京迈格威科技有限公司 神经网络模型搜索方法、图像识别方法和装置
WO2021081809A1 (zh) * 2019-10-30 2021-05-06 深圳市大疆创新科技有限公司 网络结构搜索的方法、装置、存储介质和计算机程序产品
CN112929703A (zh) * 2019-12-06 2021-06-08 上海海思技术有限公司 码流数据的处理方法和装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105303235A (zh) * 2015-10-26 2016-02-03 清华大学 大规模分层神经网络的构建方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106874956B (zh) * 2017-02-27 2018-10-23 陕西师范大学 图像分类卷积神经网络结构的构建方法
CN117892774A (zh) * 2017-07-21 2024-04-16 谷歌有限责任公司 用于卷积神经网络的神经架构搜索
CN107633296B (zh) * 2017-10-16 2019-10-22 中国电子科技集团公司第五十四研究所 一种卷积神经网络构建方法
CN108416059B (zh) * 2018-03-22 2021-05-18 北京市商汤科技开发有限公司 图像描述模型的训练方法和装置、设备、介质
CN109102017B (zh) * 2018-08-09 2021-08-03 百度在线网络技术(北京)有限公司 神经网络模型处理方法、装置、设备及可读存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105303235A (zh) * 2015-10-26 2016-02-03 清华大学 大规模分层神经网络的构建方法

Also Published As

Publication number Publication date
CN110009048A (zh) 2019-07-12

Similar Documents

Publication Publication Date Title
CN109615073B (zh) 一种神经网络模型的构建方法、设备以及存储介质
CN109948029B (zh) 基于神经网络自适应的深度哈希图像搜索方法
CN110009048B (zh) 一种神经网络模型的构建方法以及设备
CN111414987B (zh) 神经网络的训练方法、训练装置和电子设备
US20180018555A1 (en) System and method for building artificial neural network architectures
CN111105029B (zh) 神经网络的生成方法、生成装置和电子设备
US20200151558A1 (en) Systems and methods for updating an artificial intelligence model by a subset of parameters in a communication system
Xia et al. Fully dynamic inference with deep neural networks
JP2016197389A (ja) 学習システム、学習プログラムおよび学習方法
EP4107668A1 (en) Adversarial autoencoder architecture for methods of graph to sequence models
US11544542B2 (en) Computing device and method
WO2021042857A1 (zh) 图像分割模型的处理方法和处理装置
US20220164666A1 (en) Efficient mixed-precision search for quantizers in artificial neural networks
US20200151551A1 (en) Systems and methods for determining an artificial intelligence model in a communication system
CN111967573A (zh) 数据处理方法、装置、设备及计算机可读存储介质
CN115860100A (zh) 一种神经网络模型训练方法、装置及计算设备
JP5169837B2 (ja) 文字列照合用有限オートマトン生成システム、その生成方法、及び生成プログラム
Byttebier et al. Small-footprint acoustic scene classification through 8-bit quantization-aware training and pruning of ResNet models
US20200151584A1 (en) Systems and methods for determining an artificial intelligence model in a communication system
CN111260056B (zh) 一种网络模型蒸馏方法及装置
CN115881209B (zh) 一种rna二级结构预测的处理方法和装置
CN116956081A (zh) 面向异构社交网络分布外泛化的社交标签预测方法及系统
CN112561050A (zh) 一种神经网络模型训练方法及装置
US20220083870A1 (en) Training in Communication Systems
CN114707655B (zh) 一种量子线路转换方法、系统、存储介质和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant