CN112686371A - 网络结构搜索方法、装置、设备、存储介质及程序产品 - Google Patents
网络结构搜索方法、装置、设备、存储介质及程序产品 Download PDFInfo
- Publication number
- CN112686371A CN112686371A CN202011564644.5A CN202011564644A CN112686371A CN 112686371 A CN112686371 A CN 112686371A CN 202011564644 A CN202011564644 A CN 202011564644A CN 112686371 A CN112686371 A CN 112686371A
- Authority
- CN
- China
- Prior art keywords
- loss function
- network
- complexity
- search
- training data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种网络结构搜索方法、装置、设备、存储介质及程序产品,所述方法包括:将训练数据集输入搜索网络进行处理得到网络输出;根据所述训练数据集对应的标签数据和所述网络输出计算预测损失函数;根据所述搜索网络中各路径对应的结构参数和操作计算量计算复杂度损失函数;对所述预测损失函数和所述复杂度损失函数进行优化以更新所述结构参数。本发明实现了在保证提升搜索得到的网络结构预测准确度的同时,还能够降低搜索得到的网络结构的操作计算量,从而能够简化搜索网络的网络结构,提高计算机运行网络结构完成预测任务时计算效率,降低对计算机资源消耗。
Description
技术领域
本发明涉及机器学习技术领域,尤其涉及一种网络结构搜索方法、装置、设备、存储介质及程序产品。
背景技术
自动机器学习(AutoML)是将机器学习应用于现实问题的端到端流程自动化的过程。神经网络搜索(neural architecture search)是一种可自动搜索模型网络结构的方法,其可根据预设条件,搜索条件范围内最优网络结构,在图像分类、目标检测等领域展现了优异性能。但是,目前的神经网络搜索方法主要是基于模型的预测性能来进行搜索,搜索出来的网络结构比较复杂,从而导致计算机运行网络结构完成预测任务时计算效率低。
发明内容
本发明的主要目的在于提供一种网络结构搜索方法、装置、设备、存储介质及程序产品,旨在目前的神经网络搜索方法搜索出来的网络结构比较复杂,从而导致计算机运行网络结构完成预测任务时计算效率低的问题。
为实现上述目的,本发明提供一种网络结构搜索方法,所述方法包括以下步骤:
将训练数据集输入搜索网络进行处理得到网络输出;
根据所述训练数据集对应的标签数据和所述网络输出计算预测损失函数;
根据所述搜索网络中各路径对应的结构参数和操作计算量计算复杂度损失函数;
对所述预测损失函数和所述复杂度损失函数进行优化以更新所述结构参数。
可选地,所述对所述预测损失函数和所述复杂度损失函数进行优化以更新所述结构参数的步骤包括:
获取所述复杂度损失函数对应的调节参数;
在所述预测损失函数基础上加上所述复杂度损失函数与所述调节参数的乘积得到总损失函数;
对所述总损失函数进行优化以更新所述结构参数。
可选地,所述获取所述复杂度损失函数对应的调节参数的步骤包括:
对所述训练数据集中的训练数据进行分析得到所述训练数据的复杂度;
根据所述复杂度计算得到所述复杂度损失函数对应的调节参数,其中,所述复杂度与所述调节参数之间满足复杂度越大调节参数越小的关系。
可选地,所述对所述训练数据集中的训练数据进行分析得到所述训练数据的复杂度的步骤包括:
当所述训练数据集中的训练数据是图像数据时,根据所述图像数据的分辨率和/或所述图像数据中待识别目标物的面积比例计算得到所述训练数据的复杂度。
可选地,所述根据所述搜索网络中各路径对应的结构参数和操作计算量计算复杂度损失函数的步骤包括:
获取所述搜索网络中各路径对应的操作计算量;
将所述各路径对应的结构参数作为权重对各所述操作计算量进行加权求和得到所述复杂度损失函数。
可选地,所述获取所述搜索网络中各路径对应的操作计算量的步骤包括:
分别统计所述搜索网络中各路径上的操作数量,将所述操作数量作为所述各路径对应的操作计算量;或,
分别统计执行所述搜索网络中各路径上操作的预估执行时长,将所述预估执行时长作为所述各路径对应的操作计算量。
可选地,所述对所述预测损失函数和所述复杂度损失函数进行优化以更新所述结构参数的步骤之后,还包括:
基于更新结构参数后的搜索网络构建目标图像分类模型;
采用所述目标图像分类模型对待分类图像数据进行分类处理,得到所述待分类图像数据的分类结果。
为实现上述目的,本发明提供一种图像分类方法,所述方法包括以下步骤:
对图像分类的训练数据集中的训练数据进行分析得到所述训练数据的复杂度;
根据所述复杂度对搜索网络进行搜索得到目标网络结构;
基于所述目标网络结构和所述训练数据集构建目标图像分类模型;
采用所述目标图像分类模型对待分类图像数据进行分类处理,得到所述待分类图像数据的分类结果。
可选地,所述根据所述复杂度对搜索网络进行搜索得到目标网络结构的步骤包括:
根据所述训练数据集计算所述搜索网络对应的预测损失函数和复杂度损失函数;
根据所述复杂度计算所述复杂度损失函数对应的调节参数,其中,所述复杂度与所述调节参数之间满足复杂度越大调节参数越小的关系;
在所述预测损失函数基础上加上所述复杂度损失函数与所述调节参数的乘积得到总损失函数;
对所述总损失函数进行优化以更新所述搜索网络中的结构参数,并根据更新结构参数后的搜索网络得到目标网络结构。
可选地,所述根据所述训练数据集计算所述搜索网络对应的预测损失函数和复杂度损失函数的步骤包括:
将所述训练数据集输入搜索网络进行处理得到网络输出;
根据所述训练数据集对应的标签数据和所述网络输出计算预测损失函数;
根据所述搜索网络中各路径对应的结构参数和操作计算量计算复杂度损失函数。
为实现上述目的,本发明提供一种网络结构搜索装置,所述装置包括:
处理模块,用于将训练数据集输入搜索网络进行处理得到网络输出;
第一计算模块,用于根据所述训练数据集对应的标签数据和所述网络输出计算预测损失函数;
第二计算模块,用于根据所述搜索网络中各路径对应的结构参数和操作计算量计算复杂度损失函数;
更新模块,用于对所述预测损失函数和所述复杂度损失函数进行优化以更新所述结构参数。
为实现上述目的,本发明提供一种图像分类装置,所述装置包括:
分析模块,用于对图像分类的训练数据集中的训练数据进行分析得到所述训练数据的复杂度;
搜索模块,用于根据所述复杂度对搜索网络进行搜索得到目标网络结构;
构建模块,用于基于所述目标网络结构和所述训练数据集构建目标图像分类模型;
分类模块,用于采用所述目标图像分类模型对待分类图像数据进行分类处理,得到所述待分类图像数据的分类结果。
为实现上述目的,本发明还提供一种网络结构搜索设备,所述网络结构搜索设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的网络结构搜索程序,所述网络结构搜索程序被所述处理器执行时实现如上所述的网络结构搜索方法的步骤。
为实现上述目的,本发明还提供一种图像分类设备,所述图像分类设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的图像分类程序,所述图像分类程序被所述处理器执行时实现如上所述的图像分类方法的步骤。
此外,为实现上述目的,本发明还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有网络结构搜索程序,所述网络结构搜索程序被处理器执行时实现如上所述的网络结构搜索方法的步骤。
此外,为实现上述目的,本发明还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有图像分类程序,所述图像分类程序被处理器执行时实现如上所述的图像分类方法的步骤。
此外,为实现上述目的,本发明还提出一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上所述的网络结构搜索方法的步骤。
此外,为实现上述目的,本发明还提出一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上所述的图像分类方法的步骤。
本发明中,通过将训练数据集输入搜索网络进行处理得到网络输出,根据网络输出和训练数据集对应的标签数据计算预测损失函数,根据搜索网络中各路径对应的结构参数和操作计算量计算复杂度损失函数,再对预测损失函数和复杂度损失函数进行优化以更新搜索网络中的结构参数。也即,本发明中,在对搜索网络中结构参数进行优化更新的过程中,通过在原有预测损失函数的基础上,还根据各路径的结构参数和操作计算量计算复杂度损失函数,并对两个损失函数进行优化,实现了在保证提升搜索得到的网络结构预测准确度的同时,还能够降低搜索得到的网络结构的操作计算量,从而能够简化搜索网络的网络结构,提高计算机运行网络结构完成预测任务时计算效率,降低对计算机资源消耗。
附图说明
图1为本发明实施例方案涉及的硬件运行环境的结构示意图;
图2为本发明网络结构搜索方法第一实施例的流程示意图;
图3为本发明实施例涉及的一种神经网络结构示意图;
图4为本发明实施例涉及的一种神经网络搜索模块示意图;
图5为本发明网络结构搜索装置较佳实施例的功能示意图模块图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,图1是本发明实施例方案涉及的硬件运行环境的设备结构示意图。
需要说明的是,本发明实施例网络结构搜索设备可以是智能手机、个人计算机和服务器等设备,在此不做具体限制。
如图1所示,该网络结构搜索设备可以包括:处理器1001,例如CPU,网络接口1004,用户接口1003,存储器1005,通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的设备结构并不构成对网络结构搜索设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及网络结构搜索程序。其中,操作系统是管理和控制设备硬件和软件资源的程序,支持网络结构搜索程序以及其它软件或程序的运行。在图1所示的设备中,用户接口1003主要用于与客户端进行数据通信;网络接口1004主要用于服务器建立通信连接;处理器1001可以用于调用存储器1005中存储的网络结构搜索程序,并执行以下操作:
将训练数据集输入搜索网络进行处理得到网络输出;
根据所述训练数据集对应的标签数据和所述网络输出计算预测损失函数;
根据所述搜索网络中各路径对应的结构参数和操作计算量计算复杂度损失函数;
对所述预测损失函数和所述复杂度损失函数进行优化以更新所述结构参数。
进一步地,所述对所述预测损失函数和所述复杂度损失函数进行优化以更新所述结构参数的步骤包括:
获取所述复杂度损失函数对应的调节参数;
在所述预测损失函数基础上加上所述复杂度损失函数与所述调节参数的乘积得到总损失函数;
对所述总损失函数进行优化以更新所述结构参数。
进一步地,所述获取所述复杂度损失函数对应的调节参数的步骤包括:
对所述训练数据集中的训练数据进行分析得到所述训练数据的复杂度;
根据所述复杂度计算得到所述复杂度损失函数对应的调节参数,其中,所述复杂度与所述调节参数之间满足复杂度越大调节参数越小的关系。
进一步地,所述对所述训练数据集中的训练数据进行分析得到所述训练数据的复杂度的步骤包括:
当所述训练数据集中的训练数据是图像数据时,根据所述图像数据的分辨率和/或所述图像数据中待识别目标物的面积比例计算得到所述训练数据的复杂度。
进一步地,所述根据所述搜索网络中各路径对应的结构参数和操作计算量计算复杂度损失函数的步骤包括:
获取所述搜索网络中各路径对应的操作计算量;
将所述各路径对应的结构参数作为权重对各所述操作计算量进行加权求和得到所述复杂度损失函数。
进一步地,所述获取所述搜索网络中各路径对应的操作计算量的步骤包括:
分别统计所述搜索网络中各路径上的操作数量,将所述操作数量作为所述各路径对应的操作计算量;或,
分别统计执行所述搜索网络中各路径上操作的预估执行时长,将所述预估执行时长作为所述各路径对应的操作计算量。
进一步地,所述对所述预测损失函数和所述复杂度损失函数进行优化以更新所述结构参数的步骤之后,处理器1001还可以用于调用存储器1005中存储的网络结构搜索程序,执行以下操作:
基于更新结构参数后的搜索网络构建目标图像分类模型;
采用所述目标图像分类模型对待分类图像数据进行分类处理,得到所述待分类图像数据的分类结果。
本发明实施例还提出一种图像分类设备,所述图像分类设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的图像分类程序,所述图像分类程序被所述处理器执行时实现如下步骤:
对图像分类的训练数据集中的训练数据进行分析得到所述训练数据的复杂度;
根据所述复杂度对搜索网络进行搜索得到目标网络结构;
基于所述目标网络结构和所述训练数据集构建目标图像分类模型;
采用所述目标图像分类模型对待分类图像数据进行分类处理,得到所述待分类图像数据的分类结果。
进一步地,所述根据所述复杂度对搜索网络进行搜索得到目标网络结构的步骤包括:
根据所述训练数据集计算所述搜索网络对应的预测损失函数和复杂度损失函数;
根据所述复杂度计算所述复杂度损失函数对应的调节参数,其中,所述复杂度与所述调节参数之间满足复杂度越大调节参数越小的关系;
在所述预测损失函数基础上加上所述复杂度损失函数与所述调节参数的乘积得到总损失函数;
对所述总损失函数进行优化以更新所述搜索网络中的结构参数,并根据更新结构参数后的搜索网络得到目标网络结构。
进一步地,所述根据所述训练数据集计算所述搜索网络对应的预测损失函数和复杂度损失函数的步骤包括:
将所述训练数据集输入搜索网络进行处理得到网络输出;
根据所述训练数据集对应的标签数据和所述网络输出计算预测损失函数;
根据所述搜索网络中各路径对应的结构参数和操作计算量计算复杂度损失函数。
基于上述的结构,提出网络结构搜索方法的各实施例。
参照图2,图2为本发明网络结构搜索方法第一实施例的流程示意图。需要说明的是,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。本发明网络结构搜索方法执行主体可以是智能手机、个人计算机和服务器等设备,以下各个实施例中省略执行主体进行描述。在本实施例中,网络结构搜索方法包括:
步骤S10,将训练数据集输入搜索网络进行处理得到网络输出;
在本实施例中,预先可以在设备中设置搜索网络。搜索网络是指用于进行网络结构搜索(NAS)的网络,预先可根据DARTS(Differentiable Architecture Search,可微结构搜索)方法设计。搜索网络中可包括多个并列连接或顺次连接的网络层(或者称为模块),各个网络层可以分别对应一个结构参数;在各个网络层中可包括多条路径,每条路径上可至少包括一个操作,如卷积操作、池化操作等,每条路径可对应一个结构参数或每个操作可对应一个结构参数;搜索网络中各个部分的模型参数和结构参数可以是预先根据经验初始化的或随机初始化的,在进行网络结构搜索过程中搜索网络的各个部分都参与数据处理;通过优化更新搜索网络中的结构参数,基于优化更新后的结构参数确定对应的网络层、路径或操作是否保留,从而确定得到最终保留下来的目标网络。也即,可以简单地理解为搜索网络中在输入层到输出层的中间设置了多条连接路径,每条路径都有对应的结构参数,通过自动化的训练过程,使得各个结构参数逐渐能够体现出各条路径对模型性能的作用大小,最后通过结构参数即可选择对模型性能作用大的路径进行保留,得到最合适的网络结构,从而完成网络搜索的过程。由于该网络的结构是经过网络搜索之后才确定的,不需要像设计传统模型一样去设置模型的网络结构,从而降低了设计模型的难度。
预先可以设置用于进行网络搜索的训练数据集,训练数据集中可包括多条训练数据,训练数据集中的每条训练数据可分别对应一个标签数据;根据模型训练任务不同,训练数据和标签数据不同;例如,当模型训练任务是对图像进行分类时,训练数据是图像数据,对应的标签数据是该图像数据的真实类型;当模型训练任务是对文本进行分类时,训练数据是文本数据,对应的标签数据是该文本数据的真实类型。
在进行网络结构搜索时,需要对搜索网络中的结构参数和模型参数进行多轮更新,对结构参数的一轮更新过程可以是先将训练数据集输入搜索网络进行处理得到网络输出。具体地,将训练数据集中的各条训练数据分别输入搜索网络进行处理,经过搜索网络各个部分的顺次处理,得到各条训练数据分别对应的网络输出。需要说明的是,搜索网络中的各个部分都参与数据处理;例如举一个简单例子,搜索网络中输入层和输出层中间有三条路径,每条路径中设置一个操作,每条路径对应一个结构参数,训练数据输入到输入层,经过输入层处理后结果分别输入到三条路径,经过对应的操作处理,得到的三个结果以三条路径的结构参数作为权重进行加权求和,将求和结果输入到输出层,经过输出层处理,得到网络输出。
需要说明的是,可在各轮联合更新参数中采用不同的数据集。具体地,可将总的训练数据集划分为多个小的训练集(也可称为数据批),每轮采用一个小数据集来更新结构参数和/或模型参数,或者,也可以是每轮进行参数更新前,从总的训练数据集中进行有放回的采样一批数据来进行该轮的参数更新。
步骤S20,根据所述训练数据集对应的标签数据和所述网络输出计算预测损失函数;
在得到训练数据集对应的网络输出后,根据训练数据集对应的标签数据和网络输出计算预测损失函数。具体地,预测损失函数可采用机器学习模型训练中常用的损失函数类型,例如对于分类任务,常用交叉熵损失函数;根据网络输出和标签数据计算预测损失函数的过程可参照常规的损失函数计算方式,在此不进行详细赘述。
步骤S30,根据所述搜索网络中各路径对应的结构参数和操作计算量计算复杂度损失函数;
根据搜索网络中的各条路径对应的结构参数和操作计算量计算复杂度损失函数。搜索网络中各条路径分别有对应的操作,例如池化操作、卷积操作,路径上操作的数量和类型不同都会使得各路径的计算量不同,预先可以根据各路径上的操作数量和类型等,设置各条路径分别对应的操作计算量。
进一步地,所述步骤S30包括:
步骤S301,获取所述搜索网络中各路径对应的操作计算量;
步骤S302,将所述各路径对应的结构参数作为权重对各所述操作计算量进行加权求和得到所述复杂度损失函数。
在计算复杂度损失函数之前,可以获取搜索网络中各路径对应的操作计算量。具体地,可将各路径对应的操作计算量预先存储在固定存储地址,在需要计算损失函数时,从该存储地址中获取操作计算量。具体地,可将各路径对应的结构参数作为权重,对各个操作计算量进行加权求和,得到复杂度损失函数。也即,分别计算每条路径对应的结构参数和操作计算量的乘积,再将各条路径对应的结果相加,得到复杂度损失函数。需要说明的是,当搜索网络比较复杂,大路径嵌套小路径时,加权求和也按照嵌套顺序进行;也即,先将各个小路径的操作计算量进行加权求和得到大路径的操作计算量,再将各个大路径的操作计算量加权求和,得到复杂度损失函数。
以图3所示结构的搜索网络为例进行说明。图3展示了一种典型的用于神经网络搜索的深度神经网络结构。X为输入,Y为输出。w1~w4为各个block(模块)对应的权重参数(模型参数),α1~α4为各个block对应的结构参数,wc为输出层对应的权重参数。为了方便说明,图中将网络简化为4组参数,实际可以有任意多组。X输入经过block1~block 4,各个模块的输出连接一个自适应池化(adaptive pooling)操作,将各模块输出转化到相同的尺寸。经过转化的输出分别乘以各自的结构参数β1~β4,结果相加后输入blockc,即输出层,得到最后的结果,其中β1+β2+β3+β4=1。训练时,w1~w4作为权重参数训练,α1~α4,β1~β4作为结构参数训练。
预测损失函数采用L_task表示,复杂度损失函数采用L_complexity表示。L_complexity的计算方式可以是:
L_complexity=f(β1)*β1+f(β2)*β2+f(β3)*β3+f(β4)*β4。
其中函数f(x)的结果为计算图中x之前的路径上所有操作的计算量的加权和。这里的计算量可以是这些操作对应的参数的大小(比如卷积核的大小),或这些操作所需要的加法和乘法的次数。图4为一个典型的神经网络搜索使用的模块,假设其参数为w1和α1,从输入到输出有4条路径,每条对应的结构参数为α1,1、α1,2、α1,3、α1,4,每条路径对应一个操作,那么f(β1)=α1,1*g(conv3x3)+α1,2*g(conv7x7)+α1,3*g(pool3x3)+α1,4*g(identity)
其中g(x)为计算x操作的计算量。
步骤S40,对所述预测损失函数和所述复杂度损失函数进行优化以更新所述结构参数。
对预测损失函数和复杂度损失函数进行优化以更新结构参数。具体地,可将预测损失函数和复杂度损失函数相加,得到一个总损失函数,对总损失函数进行优化,以更新搜索网络中的结构参数。优化损失函数的过程即最小化损失函数值的过程,具体可计算总损失函数对搜索网络中各个结构参数的梯度值,根据梯度值更新各个结构参数。计算梯度值以及根据梯度值更新结构参数的具体过程可参考常规的机器学习过程,在此不进行详细赘述。通过对预测损失函数的优化,能够使得对模型预测效果作用更大的路径对应的结构参数越来越大,通过对复杂度损失函数的优化,能够使得操作计算量更小的路径对应的结构参数越来越大;也即,通过对两个损失函数的优化,能够使得对预测效果作用更大以及操作计算量更小的路径对应的结构参数越来越大,最终根据结构参数选择对预测效果作用更大和操作计算量更小的路径进行保留,从而能够实现在保证提升搜索得到的网络结构预测准确度的同时,还能够降低搜索得到的网络结构的操作计算量。
进一步地,在一实施方式中,在对结构参数进行更新时,可将搜索网络中的模型参数固定不变,在对结构参数进行一轮更新后,将结构参数固定不变,对模型参数进行一轮更新;如此对两类参数交替进行更新,进行多轮后,在检测到总损失函数收敛时,或检测到达到一定的训练时长或训练轮次时,停止更新,得到最终的结构参数;最后根据最终的结构参数来确定目标网络。在另一实施方式中,可在更新结构参数的同时,也对模型参数进行更新,也即,计算结构参数对应的梯度值,也计算模型参数对应的梯度值,根据梯度值更新各个结构参数和模型参数;如此进行多轮更新后,在检测到总损失函数收敛时,或检测到达到一定的训练时长或训练轮次时,停止更新,得到最终的结构参数;最后根据最终的结构参数来确定目标网络。在其他实施方式中,还可以按照其他的顺序来更新结构参数和模型参数。
在本实施例中,通过将训练数据集输入搜索网络进行处理得到网络输出,根据网络输出和训练数据集对应的标签数据计算预测损失函数,根据搜索网络中各路径对应的结构参数和操作计算量计算复杂度损失函数,再对预测损失函数和复杂度损失函数进行优化以更新搜索网络中的结构参数。也即,本实施例中,在对搜索网络中结构参数进行优化更新的过程中,通过在原有预测损失函数的基础上,还根据各路径的结构参数和操作计算量计算复杂度损失函数,并对两个损失函数进行优化,实现了在保证提升搜索得到的网络结构预测准确度的同时,还能够降低搜索得到的网络结构的操作计算量,从而能够简化搜索网络的网络结构,提高计算机运行网络结构完成预测任务时计算效率,降低对计算机资源消耗。
进一步地,基于上述第一实施例,提出本发明网络结构搜索方法第二实施例,在本实施例中,所述步骤S40包括:
步骤S401,获取所述复杂度损失函数对应的调节参数;
步骤S402,在所述预测损失函数基础上加上所述复杂度损失函数与所述调节参数的乘积得到总损失函数;
步骤S403,对所述总损失函数进行优化以更新所述结构参数。
目前缺少对数据维度的神经网络搜索方法的研究,也即,不同复杂度的数据需要不同复杂度的网络结构来处理。例如,训练数据是图像数据时,一种场景为医疗机构之间期望基于医学图像训练分类模型,另一种场景可能是用户手机基于拍照得到的自然图像训练分类模型;由于图像差异较大,医学图像的分类通常难度更大,通常需要性能更强(更大更复杂)的网络模型,因此,两种场景下,最合适的网络模型结构是不同的。如何让神经网络搜索能够在不同数据上找到最佳网络结构是一个亟待解决的问题。
在本实施例中,对于复杂度损失函数,可以设置一个调节参数。具体地,该调节参数可以根据训练数据的复杂度来进行设置,以适应不同任务场景,当训练数据的复杂度较大时,调节参数可设置得较小,当训练数据的复杂度较小时,调节参数可设置得较大。
在网络搜索过程中,可获取复杂度损失函数对应的调节参数,在预测损失函数基础上加上复杂度损失函数与该调节参数的乘积,得到总损失函数。例如,仍然以第一实施例中的例子为例,总损失函数可以表示为
L=L_task+λL_complexity
其中λ为调节参数。
在神经网络搜索中,通过在训练结构参数时引入路径计算量相关的损失函数,并且将指定路径之前的整体计算量(如f(β1)包括block1内的所有计算量作为该路径结构参数的权重,由于通过β1~β4的各个路径都可以独立完成结果的计算,因此使得在网络搜索过程中,可以通过L_complexity和参数λ控制数据复杂度对模型结构的影响程度。
在本实施例中,通过对复杂度损失函数设置一个调节参数,来调节复杂度损失函数在总损失中所占的权重,也即控制数据复杂度对模型结构的影响程度。当数据复杂度较低,经过较少的计算,即可得到较高的准确率,最后搜索得到的网络会倾向于拥有较小的网络结构;反之,当数据较复杂时,需要更深的网络结构才能有效提取数据的特征,从而使得该方法可以根据数据特点适配网络结构。也即,在本实施例中,实现了提供一种数据自适应的神经网络搜索方法。
进一步地,所述步骤S401包括:
步骤S4011,对所述训练数据集中的训练数据进行分析得到所述训练数据的复杂度;
进一步地,调节参数可以根据训练数据集中训练数据的复杂度进行计算。具体地,可对训练数据集中的训练数据进行分析得到训练数据的复杂度,不同类型的训练数据可采用不同的分析方式,例如,对于图像数据可以分析图像的分辨率,分辨率越高复杂度越高,对于文本数据可以分析文本的长度,长度越长复杂度越高。
步骤S4012,根据所述复杂度计算得到所述复杂度损失函数对应的调节参数,其中,所述复杂度与所述调节参数之间满足复杂度越大调节参数越小的关系。
分析得到训练数据的复杂度后,可根据复杂度计算复杂度损失函数对应的调节参数。具体地,可以预先设定不同复杂度与不同调节参数之间的对应关系,对应关系采用映射表格来表示,或者可采用映射函数来表示,根据复杂度和对应关系查找或计算得到对应的调节参数。其中,复杂度和调节参数之间满足复杂度越大调节参数越小的对应关系。
需要说明的是,可以在第一轮更新结构参数时计算一次调节参数,后续更新时则可以不再计算,采用第一轮更新时计算得到的该调节参数即可。
进一步地,所述步骤S4011包括:
步骤a,当所述训练数据集中的训练数据是图像数据时,根据所述图像数据的分辨率和/或所述图像数据中待识别目标物的面积比例计算得到所述训练数据的复杂度。
进一步地,当训练数据集中的训练数据是图像数据时,可根据图像数据的分辨率和/或图像数据中待识别目标物的面积比例计算得到训练数据的复杂度。具体地,根据分辨率计算训练数据复杂度的方式可以是预先规定分辨率与复杂度之间的对应关系,分辨率越大复杂度越大,根据对应关系计算得到复杂度。模型训练任务可以是对图像中的目标物进行识别,则可以根据图像数据中待识别目标物的面积比例来计算训练数据的复杂度;具体图像数据对应的标签数据可以是目标物在图像中的位置,根据该标签数据可以计算得到目标物在图像中所占的面积比例;预先可规定面积比例与复杂度之间的对应关系,面积比例越大复杂度越大,根据对应关系计算得到复杂度。根据分辨率和面积比例计算复杂度具体可以是将前述两种方式计算得到的复杂度进行加权求和,得到最终的复杂度,分辨率和面积比例对应的权重可以预先根据需要进行设置。
在本实施例中,通过对训练数据集中的训练数据进行分析得到训练数据的复杂度,根据复杂度计算得到复杂度损失函数对应的调节参数,使得在网络搜索时,可以自动地根据训练数据的复杂度来设置调节参数,也即自适应地根据训练数据的复杂度来控制网络结构的复杂度。
进一步地,基于上述第一和/或第二实施例,提出本发明网络结构搜索方法第三实施例,在本实施例中,所述步骤S301包括:
步骤S3011,分别统计所述搜索网络中各路径上的操作数量,将所述操作数量作为所述各路径对应的操作计算量;或,
在本实施例中,可分别统计搜索网络中各路径上的操作数量,将操作数量作为各路径对应的操作计算量。也即,对于一条路径,可以将该路径上的操作数量作为该条路径对应的操作计算量。其中,操作数量可以是该路径上各种操作的个数,也可以是该路径上操作对应的参数的大小,例如卷积核的大小,还可以是该路径上所需要计算的加法和乘法的次数。
步骤S3012,分别统计执行所述搜索网络中各路径上操作的预估执行时长,将所述预估执行时长作为所述各路径对应的操作计算量。
在另一实施方式中,也可以分别统计执行搜索网络中各路径上操作的预估执行时长,将该预估执行时长作为各路径对应的操作计算量。也即,对于一条路径,可统计执行该路径上所有操作的预估执行时长,将该预估执行时长作为该条路径对应的操作计算量。统计方式可以是在进行网络搜索之前,预先执行一遍路径上的所有操作,对开始执行到结束执行进行计时,计时时长即预估执行时长。
需要说明的是,可以在第一轮更新结构参数时统计一次操作计算量,后续更新时则可以不再进行统计,采用第一轮更新时统计得到的该操作计算量即可。
在本实施例中,通过根据各条路径对应的操作数量和预估执行时长来确定各路径对应的操作计算量,实现了自动计算各条路径上操作计算量,从而进一步地提高了构建模型的自动化,不需要花费大量人力物力预先设定搜索网络中各部分的操作计算量,从而使得神经网络模型能够被应用于更广泛的具体任务领域中去实现具体的任务,提高了神经网络模型的应用范围。
进一步地,基于上述第一、第二和/或第三实施例,提出本发明网络结构搜索方法第四实施例,在本实施例中,所述步骤S40之后,还包括:
步骤S50,基于更新结构参数后的搜索网络构建目标图像分类模型;
步骤S60,采用所述目标图像分类模型对待分类图像数据进行分类处理,得到所述待分类图像数据的分类结果。
在本实施例中,训练数据集可以是图像数据集,模型训练任务可以是图像分类任务。在对结构参数进行更新后,可根据更新结构参数后的搜索网络构建目标图像分类模型。具体地,可检测更新结构参数后的搜索网络是否满足预设网络条件。其中,预设网络条件可以是总损失函数收敛,或达到一定的训练时长或训练轮次。若检测到满足预设网络条件,可以根据更新后的结构参数从搜索网络的各路径中选取保留路径,并将各保留路径所连接的网络作为目标网络。具体地,对于多条并列的路径,可以从各路径中选择结构参数最大的一条保留,或者设置一个阈值,将结构参数大于该阈值的路径进行保留。例如,当搜索网络中输入层和输出层中间有三条路径,每条路径对应一个结构参数时,最后更新后的结构参数中第一条路径的结构参数最大,则可以保留第一条路径,由输入层、第一条路径和输出层构成的网络作为目标网络。
在得到目标网络后,可以采用图像数据集对目标网络进行训练,更新目标网络中的模型参数,在检测到更新模型参数后的目标网络满足预设模型条件时,将更新模型参数后的目标网络作为目标图像分类模型。其中,预设模型条件可以是预测损失函数收敛,或达到一定的训练时长或训练轮次。在得到目标图像分类模型后,对于需要分类的待分类图像,可以采用目标图像分类模型对待分类图像进行分类处理,得到待分类图像的分类结果。
在本实施例中,由于在对搜索网络中结构参数进行优化更新的过程中,在原有预测损失函数的基础上,还根据各路径的结构参数和操作计算量计算复杂度损失函数,并对两个损失函数进行优化以更新结构参数,使得基于更新结构参数后的本端搜索网络构建的目标图像分类模型不仅分类准确率高,而且网络结构复杂度低,从而在保证图像分类准确率的同时降低了计算机处理图像分类任务时的计算资源消耗,提高了图像分类的效率。并且,通过自动化地网络结构搜索,根据更新结构参数后的搜索网络自动构建目标图像分类模型,实现了不需要花费大量人力物力去设计图像分类模型结构。
进一步地,基于上述第一、第二、第三和第四实施例,提出本发明图像分类方法第五实施例,在本实施例中,所述图像分类方法包括:
步骤A10,对图像分类的训练数据集中的训练数据进行分析得到所述训练数据的复杂度;
在本实施例中,预先可以在设备中设置用于图像分类的搜索网络,并设置多张图像数据作为训练数据集,训练数据集中的各张图像分别对应一个标签数据,用于表示对应图像所属的真实类别。
在对搜索网络进行搜索之前,可对训练数据集中的训练数据进行分析得到训练数据的复杂度。具体分析过程可参照上述第二实施例中的图像复杂度分析过程。
步骤A20,根据所述复杂度对搜索网络进行搜索得到目标网络结构;
在得到训练数据的复杂度后,可根据复杂度对搜索网络进行搜索得到目标网络结构。可按照上述第二、第三或第四实施例中的网络搜索方法进行网络搜索,以得到目标网络结构。
进一步地,所述步骤A20包括:
步骤A201,根据所述训练数据集计算所述搜索网络对应的预测损失函数和复杂度损失函数;
先根据训练数据集计算搜索网络对应的预测损失函数和复杂度损失函数。其中,预测损失函数是表示搜索网络的网络输出与真实标签之间的误差的函数。复杂度损失函数是衡量搜索网络的复杂度的损失函数。搜索网络的搜索过程需要优化两个损失函数,也即最小化两个损失函数的值,以使得搜索网络在保证预测性能的同时能够尽可能地降低网络复杂度。
进一步地,所述步骤A201包括:
步骤A2011,将所述训练数据集输入搜索网络进行处理得到网络输出;
步骤A2012,根据所述训练数据集对应的标签数据和所述网络输出计算预测损失函数;
根据训练数据集计算预测损失函数的过程可参照上述第一实施例中的步骤S10和S20。
步骤A2013,根据所述搜索网络中各路径对应的结构参数和操作计算量计算复杂度损失函数。
复杂度损失函数的计算过程可参照上述第一实施例中的步骤S30。
步骤A202,根据所述复杂度计算所述复杂度损失函数对应的调节参数,其中,所述复杂度与所述调节参数之间满足复杂度越大调节参数越小的关系;
根据复杂度计算调节参数的过程可参照上述第二实施例中的步骤S4012。
步骤A203,在所述预测损失函数基础上加上所述复杂度损失函数与所述调节参数的乘积得到总损失函数;
总损失函数的计算过程可参照上述第二实施例中的步骤S401~步骤S402。
步骤A204,对所述总损失函数进行优化以更新所述搜索网络中的结构参数,并根据更新结构参数后的搜索网络得到目标网络结构。
对总损失函数优化的过程可参照上述第二实施例中的步骤S403。在更新结构参数后,可参照上述第四实施例中根据更新结构参数后的搜索网络获取目标网络的方式。
步骤A30,基于所述目标网络结构和所述训练数据集构建目标图像分类模型;
基于目标网络结构和训练数据构建目标图像分类模型的具体过程可参照上述第四实施例。
步骤A40,采用所述目标图像分类模型对待分类图像数据进行分类处理,得到所述待分类图像数据的分类结果。
在得到目标图像分类模型后,对于需要分类的待分类图像,可以采用目标图像分类模型对待分类图像进行分类处理,得到待分类图像的分类结果。
相比于仅仅基于模型的预测性能来进行搜索,在本实施例中,在网络搜索过程中还根据训练数据的复杂度进行搜索,使得搜索出的目标网络结构能够适配训练数据的复杂度特点,从而能够降低搜索出的目标网络结构的复杂度,进而简化图像分类模型,以提升采用图像分类模型进行图像分类处理时的计算效率,降低对计算机资源消耗。
此外本发明实施例还提出一种网络结构搜索装置,参照图5,所述装置包括:
处理模块10,用于将训练数据集输入搜索网络进行处理得到网络输出;
第一计算模块20,用于根据所述训练数据集对应的标签数据和所述网络输出计算预测损失函数;
第二计算模块30,用于根据所述搜索网络中各路径对应的结构参数和操作计算量计算复杂度损失函数;
更新模块40,用于对所述预测损失函数和所述复杂度损失函数进行优化以更新所述结构参数。
进一步地,所述更新模块40包括:
第一获取单元,用于获取所述复杂度损失函数对应的调节参数;
第一计算单元,用于在所述预测损失函数基础上加上所述复杂度损失函数与所述调节参数的乘积得到总损失函数;
更新单元,用于对所述总损失函数进行优化以更新所述结构参数。
进一步地,所述获取单元包括:
分析子单元,用于对所述训练数据集中的训练数据进行分析得到所述训练数据的复杂度;
计算子单元,用于根据所述复杂度计算得到所述复杂度损失函数对应的调节参数,其中,所述复杂度与所述调节参数之间满足复杂度越大调节参数越小的关系。
进一步地,所述分析子单元还用于:
当所述训练数据集中的训练数据是图像数据时,根据所述图像数据的分辨率和/或所述图像数据中待识别目标物的面积比例计算得到所述训练数据的复杂度。
进一步地,所述第二计算模块30包括:
第二获取单元,用于获取所述搜索网络中各路径对应的操作计算量;
第二计算单元,用于将所述各路径对应的结构参数作为权重对各所述操作计算量进行加权求和得到所述复杂度损失函数。
进一步地,所述第二获取单元还用于:
分别统计所述搜索网络中各路径上的操作数量,将所述操作数量作为所述各路径对应的操作计算量;或,
分别统计执行所述搜索网络中各路径上操作的预估执行时长,将所述预估执行时长作为所述各路径对应的操作计算量。
进一步地,所述装置还包括:
构建模块,用于基于更新结构参数后的搜索网络构建目标图像分类模型;
分类模块,用于采用所述目标图像分类模型对待分类图像数据进行分类处理,得到所述待分类图像数据的分类结果。
本发明网络结构搜索装置的具体实施方式的拓展内容与上述网络结构搜索方法各实施例基本相同,在此不做赘述。
此外本发明实施例还提出一种图像分类装置,所述装置包括:
分析模块,用于对图像分类的训练数据集中的训练数据进行分析得到所述训练数据的复杂度;
搜索模块,用于根据所述复杂度对搜索网络进行搜索得到目标网络结构;
构建模块,用于基于所述目标网络结构和所述训练数据集构建目标图像分类模型;
分类模块,用于采用所述目标图像分类模型对待分类图像数据进行分类处理,得到所述待分类图像数据的分类结果。
进一步地,所述搜索模块包括:
第一计算单元,用于根据所述训练数据集计算所述搜索网络对应的预测损失函数和复杂度损失函数;
第二计算单元,用于根据所述复杂度计算所述复杂度损失函数对应的调节参数,其中,所述复杂度与所述调节参数之间满足复杂度越大调节参数越小的关系;
第三计算单元,用于在所述预测损失函数基础上加上所述复杂度损失函数与所述调节参数的乘积得到总损失函数;
更新单元,用于对所述总损失函数进行优化以更新所述搜索网络中的结构参数,并根据更新结构参数后的搜索网络得到目标网络结构。
进一步地,所述第一计算单元包括:
输入子单元,用于将所述训练数据集输入搜索网络进行处理得到网络输出;
第一计算子单元,用于根据所述训练数据集对应的标签数据和所述网络输出计算预测损失函数;
第二计算子单元,用于根据所述搜索网络中各路径对应的结构参数和操作计算量计算复杂度损失函数。
本发明图像分类装置的具体实施方式的拓展内容与上述图像分类方法各实施例基本相同,在此不做赘述。
此外,本发明实施例还提出一种计算机可读存储介质,所述存储介质上存储有网络结构搜索程序,所述网络结构搜索程序被处理器执行时实现如上所述的网络结构搜索方法的步骤。本发明还提出一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上所述的网络结构搜索方法的步骤。本发明网络结构搜索设备、计算机可读存储介质和计算机产品的各实施例,均可参照本发明网络结构搜索方法各实施例,此处不再赘述。
此外,本发明实施例还提出一种计算机可读存储介质,所述存储介质上存储有图像分类程序,所述图像分类程序被处理器执行时实现如上所述的图像分类方法的步骤。本发明还提出一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上所述的图像分类方法的步骤。本发明图像分类设备、计算机可读存储介质和计算机产品的各实施例,均可参照本发明图像分类方法各实施例,此处不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (14)
1.一种网络结构搜索方法,其特征在于,所述方法包括以下步骤:
将训练数据集输入搜索网络进行处理得到网络输出;
根据所述训练数据集对应的标签数据和所述网络输出计算预测损失函数;
根据所述搜索网络中各路径对应的结构参数和操作计算量计算复杂度损失函数;
对所述预测损失函数和所述复杂度损失函数进行优化以更新所述结构参数。
2.如权利要求1所述的网络结构搜索方法,其特征在于,所述对所述预测损失函数和所述复杂度损失函数进行优化以更新所述结构参数的步骤包括:
获取所述复杂度损失函数对应的调节参数;
在所述预测损失函数基础上加上所述复杂度损失函数与所述调节参数的乘积得到总损失函数;
对所述总损失函数进行优化以更新所述结构参数。
3.如权利要求2所述的网络结构搜索方法,其特征在于,所述获取所述复杂度损失函数对应的调节参数的步骤包括:
对所述训练数据集中的训练数据进行分析得到所述训练数据的复杂度;
根据所述复杂度计算得到所述复杂度损失函数对应的调节参数,其中,所述复杂度与所述调节参数之间满足复杂度越大调节参数越小的关系。
4.如权利要求3所述的网络结构搜索方法,其特征在于,所述对所述训练数据集中的训练数据进行分析得到所述训练数据的复杂度的步骤包括:
当所述训练数据集中的训练数据是图像数据时,根据所述图像数据的分辨率和/或所述图像数据中待识别目标物的面积比例计算得到所述训练数据的复杂度。
5.如权利要求1所述的网络结构搜索方法,其特征在于,所述根据所述搜索网络中各路径对应的结构参数和操作计算量计算复杂度损失函数的步骤包括:
获取所述搜索网络中各路径对应的操作计算量;
将所述各路径对应的结构参数作为权重对各所述操作计算量进行加权求和得到所述复杂度损失函数。
6.如权利要求5所述的网络结构搜索方法,其特征在于,所述获取所述搜索网络中各路径对应的操作计算量的步骤包括:
分别统计所述搜索网络中各路径上的操作数量,将所述操作数量作为所述各路径对应的操作计算量;或,
分别统计执行所述搜索网络中各路径上操作的预估执行时长,将所述预估执行时长作为所述各路径对应的操作计算量。
7.如权利要求1至6任一项所述的网络结构搜索方法,其特征在于,所述对所述预测损失函数和所述复杂度损失函数进行优化以更新所述结构参数的步骤之后,还包括:
基于更新结构参数后的搜索网络构建目标图像分类模型;
采用所述目标图像分类模型对待分类图像数据进行分类处理,得到所述待分类图像数据的分类结果。
8.一种图像分类方法,其特征在于,所述方法包括:
对图像分类的训练数据集中的训练数据进行分析得到所述训练数据的复杂度;
根据所述复杂度对搜索网络进行搜索得到目标网络结构;
基于所述目标网络结构和所述训练数据集构建目标图像分类模型;
采用所述目标图像分类模型对待分类图像数据进行分类处理,得到所述待分类图像数据的分类结果。
9.如权利要求8所述的图像分类方法,其特征在于,所述根据所述复杂度对搜索网络进行搜索得到目标网络结构的步骤包括:
根据所述训练数据集计算所述搜索网络对应的预测损失函数和复杂度损失函数;
根据所述复杂度计算所述复杂度损失函数对应的调节参数,其中,所述复杂度与所述调节参数之间满足复杂度越大调节参数越小的关系;
在所述预测损失函数基础上加上所述复杂度损失函数与所述调节参数的乘积得到总损失函数;
对所述总损失函数进行优化以更新所述搜索网络中的结构参数,并根据更新结构参数后的搜索网络得到目标网络结构。
10.如权利要求9所述的图像分类方法,其特征在于,所述根据所述训练数据集计算所述搜索网络对应的预测损失函数和复杂度损失函数的步骤包括:
将所述训练数据集输入搜索网络进行处理得到网络输出;
根据所述训练数据集对应的标签数据和所述网络输出计算预测损失函数;
根据所述搜索网络中各路径对应的结构参数和操作计算量计算复杂度损失函数。
11.一种网络结构搜索装置,其特征在于,所述装置包括:
处理模块,用于将训练数据集输入搜索网络进行处理得到网络输出;
第一计算模块,用于根据所述训练数据集对应的标签数据和所述网络输出计算预测损失函数;
第二计算模块,用于根据所述搜索网络中各路径对应的结构参数和操作计算量计算复杂度损失函数;
更新模块,用于对所述预测损失函数和所述复杂度损失函数进行优化以更新所述结构参数。
12.一种网络结构搜索设备,其特征在于,所述网络结构搜索设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的网络结构搜索程序,所述网络结构搜索程序被所述处理器执行时实现如权利要求1至7中任一项所述的网络结构搜索方法的步骤。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有网络结构搜索程序,所述网络结构搜索程序被处理器执行时实现如权利要求1至7中任一项所述的网络结构搜索方法的步骤。
14.一种计算机程序产品,包括计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的网络结构搜索方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011564644.5A CN112686371A (zh) | 2020-12-25 | 2020-12-25 | 网络结构搜索方法、装置、设备、存储介质及程序产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011564644.5A CN112686371A (zh) | 2020-12-25 | 2020-12-25 | 网络结构搜索方法、装置、设备、存储介质及程序产品 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112686371A true CN112686371A (zh) | 2021-04-20 |
Family
ID=75451749
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011564644.5A Pending CN112686371A (zh) | 2020-12-25 | 2020-12-25 | 网络结构搜索方法、装置、设备、存储介质及程序产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112686371A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221871A (zh) * | 2021-05-31 | 2021-08-06 | 支付宝(杭州)信息技术有限公司 | 一种文字识别方法、装置、设备及介质 |
CN113255892A (zh) * | 2021-06-01 | 2021-08-13 | 上海交通大学烟台信息技术研究院 | 一种解耦合的网络结构搜索方法、设备及可读存储介质 |
CN113326922A (zh) * | 2021-05-31 | 2021-08-31 | 北京市商汤科技开发有限公司 | 神经网络的生成方法、装置、电子设备及存储介质 |
-
2020
- 2020-12-25 CN CN202011564644.5A patent/CN112686371A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221871A (zh) * | 2021-05-31 | 2021-08-06 | 支付宝(杭州)信息技术有限公司 | 一种文字识别方法、装置、设备及介质 |
CN113326922A (zh) * | 2021-05-31 | 2021-08-31 | 北京市商汤科技开发有限公司 | 神经网络的生成方法、装置、电子设备及存储介质 |
CN113326922B (zh) * | 2021-05-31 | 2023-06-13 | 北京市商汤科技开发有限公司 | 神经网络的生成方法、装置、电子设备及存储介质 |
CN113221871B (zh) * | 2021-05-31 | 2024-02-02 | 支付宝(杭州)信息技术有限公司 | 一种文字识别方法、装置、设备及介质 |
CN113255892A (zh) * | 2021-06-01 | 2021-08-13 | 上海交通大学烟台信息技术研究院 | 一种解耦合的网络结构搜索方法、设备及可读存储介质 |
CN113255892B (zh) * | 2021-06-01 | 2023-09-05 | 上海交通大学烟台信息技术研究院 | 一种解耦合的网络结构搜索方法、设备及可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112686371A (zh) | 网络结构搜索方法、装置、设备、存储介质及程序产品 | |
US10360517B2 (en) | Distributed hyperparameter tuning system for machine learning | |
JP7343568B2 (ja) | 機械学習のためのハイパーパラメータの識別および適用 | |
JP6182242B1 (ja) | データのラベリングモデルに係る機械学習方法、コンピュータおよびプログラム | |
WO2018103595A1 (zh) | 一种授权策略推荐方法及装置、服务器、存储介质 | |
WO2022068623A1 (zh) | 一种模型训练方法及相关设备 | |
CN111797928A (zh) | 生成机器学习样本的组合特征的方法及系统 | |
US9361666B2 (en) | Learning user preferences for photo adjustments | |
CN111047563B (zh) | 一种应用于医学超声图像的神经网络构建方法 | |
CN108536784B (zh) | 评论信息情感分析方法、装置、计算机存储介质和服务器 | |
US20220261591A1 (en) | Data processing method and apparatus | |
CN111222557A (zh) | 图像分类方法、装置、存储介质及电子设备 | |
CN112200296A (zh) | 网络模型量化方法、装置、存储介质及电子设备 | |
CN111814117A (zh) | 模型解释方法、设备及可读存储介质 | |
CN115965463A (zh) | 模型训练方法、装置、计算机设备及存储介质 | |
CN115018081B (zh) | 特征选择方法、应用程序预测方法及装置 | |
CN113378067B (zh) | 基于用户挖掘的消息推荐方法、设备、介质 | |
CN112700003A (zh) | 网络结构搜索方法、装置、设备、存储介质及程序产品 | |
CN111898766B (zh) | 基于自动机器学习的以太坊燃料限制预测方法及装置 | |
CN107870862B (zh) | 新控件预测模型的构建方法、遍历测试方法和计算设备 | |
CN113032367A (zh) | 面向动态负载场景的大数据系统跨层配置参数协同调优方法和系统 | |
CN112860736A (zh) | 大数据查询优化方法、设备及可读存储介质 | |
CN110532448B (zh) | 基于神经网络的文档分类方法、装置、设备及存储介质 | |
CN111104339A (zh) | 基于多粒度学习的软件界面元素检测方法、系统、计算机设备和存储介质 | |
CN110705889A (zh) | 一种企业筛选方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |