CN110929867B - 神经网络结构的评估、确定方法、装置和存储介质 - Google Patents

神经网络结构的评估、确定方法、装置和存储介质 Download PDF

Info

Publication number
CN110929867B
CN110929867B CN201911059798.6A CN201911059798A CN110929867B CN 110929867 B CN110929867 B CN 110929867B CN 201911059798 A CN201911059798 A CN 201911059798A CN 110929867 B CN110929867 B CN 110929867B
Authority
CN
China
Prior art keywords
network
sub
neural network
layer
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911059798.6A
Other languages
English (en)
Other versions
CN110929867A (zh
Inventor
初祥祥
许瑞军
张勃
李吉祥
李庆源
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Mobile Software Co Ltd
Original Assignee
Beijing Xiaomi Mobile Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Mobile Software Co Ltd filed Critical Beijing Xiaomi Mobile Software Co Ltd
Priority to CN201911059798.6A priority Critical patent/CN110929867B/zh
Publication of CN110929867A publication Critical patent/CN110929867A/zh
Application granted granted Critical
Publication of CN110929867B publication Critical patent/CN110929867B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本公开是关于一种神经网络结构的评估、确定方法、装置和存储介质。该方法包括:获取子结构与GPU时间的对应关系,所述对应关系用于指示超网络中各个子结构的GPU时间,所述超网络包括多层搜索空间,每层所述搜索空间包括多个子结构;基于所述对应关系,确定目标神经网络的GPU时间,所述目标神经网络包括依次连接的多层结构,所述目标神经网络的每层结构为对应层的所述搜索空间中的一个子结构;基于所述目标神经网络的GPU时间,对所述目标神经网络的结构进行评估。通过基于所述对应关系,确定目标神经网络的GPU时间,可以快速确定目标神经网络的GPU时间,有利于快速判断目标神经网络是否满足设计需求。

Description

神经网络结构的评估、确定方法、装置和存储介质
技术领域
本公开涉及计算机技术领域,尤其涉及一种神经网络结构的评估、确定方法、装置和存储介质。
背景技术
神经网络是采用非线性单元中的一个或多个层来为接收的输入预测输出的机器学习模型。一些神经网络除了包括输出层之外,还包括一个或多个隐藏层。每个隐藏层的输出被用作该网络的下一层(即下一个隐藏层或输出层)的输入。
目前,神经网络的构建通常都采用人工方式,即研究人员根据经验设计神经网络的结构并赋予初始参数,然后对神经网络进行训练,以得到可以执行指定任务的神经网络。
发明内容
本公开提供一种神经网络结构的评估、确定方法、装置和存储介质,能够快速确定神经网络结构的GPU时间,以便于评估神经网络结构是否符合要求。
根据本公开实施例的第一方面,提供一种一种神经网络结构的评估方法,所述方法包括:
获取子结构与GPU时间的对应关系,所述对应关系用于指示超网络中各个子结构的GPU时间,所述超网络包括多层搜索空间,每层所述搜索空间包括多个子结构;
基于所述对应关系,确定目标神经网络的GPU时间,所述目标神经网络包括依次连接的多层结构,所述目标神经网络的每层结构为对应层的所述搜索空间中的一个子结构;
基于所述目标神经网络的GPU时间,对所述目标神经网络的结构进行评估。
可选地,所述基于所述对应关系,确定目标神经网络的GPU时间,包括:
在所述对应关系中查找所述目标神经网络的每层结构的GPU时间;
将所述目标神经网络的所有层结构的GPU时间相加,得到所述目标神经网络的GPU时间。
可选地,所述基于所述目标神经网络的GPU时间,对所述目标神经网络的结构进行评估,包括:
确定所述目标神经网络的GPU时间是否小于时长阈值。
可选地,在所述获取子结构与GPU时间的对应关系之前,所述方法还包括:
从所述超网络的每一层搜索空间中,分别选择一个子结构;
采用选择出的子结构建立神经网络子网络;
运行所述神经网络子网络并在所述神经网络子网络的运行过程中,获取神经网络子网络中的子结构的GPU时间;
重复上述步骤,直到得到所述超网络中所有子结构的GPU时间;
根据得到的所述GPU时间建立所述对应关系。
根据本公开实施例的第二方面,提供一种神经网络结构的确定方法,所述方法包括:
从超网络中确定出多个采样网络,所述超网络包括多层搜索空间,每层所述搜索空间包括多个子结构,所述多个采样网络包括依次连接的多层结构,所述采样网络的每层结构为对应层的所述搜索空间中的一个子结构;
获取子结构与GPU时间的对应关系,所述对应关系用于指示所述超网络中各个子结构的GPU时间;
基于所述对应关系,确定各个所述采样网络的GPU时间;
基于各个所述采样网络的GPU时间,从所述采样网络中选择一个作为目标神经网络结构。
可选地,所述基于所述对应关系,确定各个所述采样网络的GPU时间,包括:
对于任意一个采样网络,在所述对应关系中查找所述采样网络的每层结构的GPU时间;
将所述采样网络的所有层结构的GPU时间相加,得到所述采样网络的GPU 时间。
可选地,所述基于各个所述采样网络的GPU时间,从所述采样网络中选择一个作为神经网络结构,包括:
采用样本数据对各个所述采样网络进行训练;
确定训练后的采样网络的性能指标;
基于所述训练后的采样网络的性能指标和所述采样网络的GPU时间,从所述采样网络中选择一个作为目标神经网络结构。
根据本公开实施例的第三方面,提供一种神经网络结构的评估装置,所述装置包括:
对应关系获取模块,被配置为获取子结构与GPU时间的对应关系,所述对应关系用于指示超网络中各个子结构的GPU时间,所述超网络包括多层搜索空间,每层所述搜索空间包括多个子结构;
确定模块,被配置为基于所述对应关系获取模块获取的所述对应关系,确定目标神经网络的GPU时间,所述目标神经网络包括依次连接的多层结构,所述目标神经网络的每层结构为对应层的所述搜索空间中的一个子结构;
评估模块,被配置为基于所述确定模块得到的所述目标神经网络的GPU时间,对所述目标神经网络的结构进行评估。
可选地,所述确定模块,包括:
查找子模块,被配置为在所述对应关系中查找所述目标神经网络的每层结构的GPU时间;
计算子模块,被配置为将所述目标神经网络的所有层结构的GPU时间相加,得到所述目标神经网络的GPU时间。
可选地,所述评估模块被配置为确定所述目标神经网络的GPU时间是否小于时长阈值。
可选地,所述装置还包括:
子网络建立模块,被配置为从所述超网络的每一层搜索空间中,分别选择一个子结构;采用选择出的子结构建立神经网络子网络;
时间获取模块,被配置为运行所述神经网络子网络并在所述神经网络子网络的运行过程中,获取神经网络子网络中的子结构的GPU时间,直到得到所述超网络中所有子结构的GPU时间;
对应关系建立模块,被配置为根据所述时间获取模块获取到的所述GPU时间建立所述对应关系。
根据本公开实施例的第四方面,提供一种神经网络结构的确定装置,所述装置包括:
采样网络确定模块,被配置为从超网络中确定出多个采样网络,所述超网络包括多层搜索空间,每层所述搜索空间包括多个子结构,所述多个采样网络包括依次连接的多层结构,所述采样网络的每层结构为对应层的所述搜索空间中的一个子结构;
对应关系获取模块,被配置为获取子结构与GPU时间的对应关系,所述对应关系用于指示所述超网络中各个子结构的GPU时间;
时间确定模块,被配置为基于所述对应关系获取模块获取到的所述对应关系,确定所述采样网络确定模块确定出的各个所述采样网络的GPU时间;
架构确定模块,被配置为基于所述时间确定模块确定出的各个所述采样网络的GPU时间,从所述采样网络中选择一个作为目标神经网络结构。
可选地,所述时间确定模块,包括:
查找子模块,被配置为对于任意一个采样网络,在所述对应关系中查找所述采样网络的每层结构的GPU时间;
计算子模块,被配置为将所述采样网络的所有层结构的GPU时间相加,得到所述采样网络的GPU时间。
可选地,所述架构确定模块,包括:
训练子模块,被配置为采用样本数据对各个所述采样网络进行训练;
性能确定子模块,被配置为确定训练后的采样网络的性能指标;
架构确定子模块,被配置为基于所述训练后的采样网络的性能指标和所述采样网络的GPU时间,从所述采样网络中选择一个作为目标神经网络结构。
根据本公开实施例的第五方面,提供一种神经网络结构的评估装置,所述神经网络结构的评估装置包括处理器:用于存储处理器可执行指令的存储器;其中,所述处理器被配置为能够执行前述第一方面提供的神经网络结构的评估方法。
根据本公开实施例的第六方面,提供一种神经网络结构的确定装置,所述神经网络结构的确定装置包括处理器:用于存储处理器可执行指令的存储器;其中,所述处理器被配置为能够执行前述第二方面提供的神经网络结构确定方法。
根据本公开实施例的第七方面,提供一种计算机可读存储介质,所述计算机可读存储介质包括至少一条指令,所述至少一条指令被处理器执行时,执行前述神经网络结构的评估方法,或者,执行前述神经网络结构确定方法。
本公开的实施例提供的技术方案可以包括以下有益效果:
本公开实施例中,目标神经网络包括依次连接的多层结构,且目标神经网络的每层结构为对应层的所述搜索空间中的一个子结构,也即是,目标神经网络通过在超网络的每层搜索空间中搜索对应的子结构而形成,所以可以根据用于指示超网络中各个子结构的GPU时间的子结构与GPU时间的对应关系,确定出目标神经网络的GPU时间,无需在目标神经网络建立好之后,进行多次运行并测量其运行时间,可以快速得到目标神经网络的GPU时间,并以此对神经网络的结构进行评估,能够节省时间,提高效率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1为根据一示例性实施例示出的一种超网络的结构示意图;
图2为根据一示例性实施例示出的一种神经网络结构的评估方法的流程图;
图3为根据一示例性实施例示出的另一种神经网络结构的评估方法的流程图;
图4为根据一示例性实施例示出的一种神经网络结构的确定方法的流程图;
图5为根据一示例性实施例示出的另一种神经网络结构的确定方法的流程图;
图6为根据一示例性实施例示出的一种神经网络结构的评估装置的框图;
图7为根据一示例性实施例示出的一种神经网络结构的确定装置的框图;
图8为根据一示例性实施例示出的一种神经网络结构的评估/确定装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
为了便于理解本公开实施例,下面首先对本公开实施例中的技术术语进行解释说明。
超网络:包括多层搜索空间,每层搜索空间中包括多个子结构。每个子结构可以作为神经网络中的一层结构。超网络中的所有子结构共享参数(例如权重)。示例性地,图1示出了一种超网络的结构示意图。如图1所示,超网络包括N层搜索空间,每层搜索空间包括多个子结构,N为正整数且N>1。不同层搜索空间中子结构的数量可以相同,也可以不同,图1中所示的每层中的子结构的数量仅为示例,对本公开不做限制。同一层搜索空间中的所有子结构的输入数据的大小相同,输出数据的大小也相同;同一层搜索空间中的子结构的输入数据的大小和输出数据的大小可以相同,也可以不同。
神经网络包括多层结构,这多层结构可以包括输入层、输出层以及至少一层中间层。输入层用于输入待处理的数据,中间层为用于处理数据的层结构,输出层为经过多个中间层处理后输出的数据。每个中间层都将其上一层的输出作为输入,也即是,神经网络中的第K层的输出为第K+1层的输入,K为正整数。
中间层可以选择为卷积层、池化层、归一化层、全连接层等层结构。这些层结构有各自的参数,层结构的选择、层与层之间的连接以及每个层的参数的设置对神经网络的性能均具有很大的影响。
在本公开实施例中,每个子结构可以为单层结构(即对应神经网络结构中的任意一层,例如输入层、一个中间层等)或者多层结构(例如,对应神经网络结构中依次连接的至少两个中间层)。
例如,同一层搜索空间中的各个子结构可以是具有不同卷积核的卷积层、具有不同池化核的最大池化层、具有一不同池化核的平均池化层或者其他任何可以对输入数据进行处理的层结构;又例如,同一层搜索空间中的各个子结构的层数可以不同,例如,一个子结构的层数为1,另一个子结构由3层依次连接而成;再例如,各个子结构的层数相同,但类型不同,例如,一个子结构包括依次连接的一个卷积层、一个平均池化层,另一个子结构包括依次连接的一个卷积层、一个最大池化层等。
子网络:从超网络的每层搜索空间中确定一个子结构,按照所在搜索空间的层顺序依次连接后所构成的神经网络,这种构建神经网络的方式可以被称为单路径激活。例如,以图1所示超网络为例,从第一层搜索空间中选择子结构 11,从第二层搜索空间中选择子结构21,从第三层搜索空间中选择子结构31……从第N层搜索空间中选择子结构N1……,直至从每一层搜索空间中均选择出对应的子结构,将选择出的子结构依次连接得到一个子网络,第一层搜索空间的子结构11的输入为子网络的输入,第一层搜索空间的子结构11的输出为第二层搜索空间的子结构21的输入,第二层搜索空间的子结构21的输出为第三层搜索空间的子结构31的输入……依次类推。
神经网络结构搜索:即从超网络中确定出子网络的方式,包括但不限于基于强化学习的搜索,基于演化算法的搜索,随机搜索、贝叶斯搜索等等。
GPU(Graphics Processing Unit,图形处理器)时间:GPU处理任务所用的时间。在本公开实施例中,神经网络的GPU时间可以为数据输入至神经网络到神经网络输出数据之间的时间。子结构的GPU时间即为数据输入至子结构到子结构输出数据之间的时间。所述GPU不限于服务器端、本地计算机和移动端设备中的GPU图形处理器单元。
GPU时间与任务的处理速度相关,会影响用户的体验,例如,如果一个神经网络的GPU时间过长,则用户等待结果响应的时间会比较长,这可能会导致用户体验较差。因此,需要快速确定神经网络的GPU时间,以确定神经网络的 GPU时间是否满足设计需求,并以此对神经网络结构进行优化。相关技术中,通常是运行已构建的神经网络,测量从输入到得到输出结果的时间,需要多次运行神经网络,所需时间较长。
图2为根据示例性实施例示出的一种神经网络结构的评估方法的流程图。该方法可以由计算机执行,包括但不限于服务器、个人计算机、移动终端等。
如图2所示,该方法包括:
在步骤S21中,获取子结构与GPU时间的对应关系。
该对应关系用于指示超网络中各个子结构的GPU时间,超网络包括多层搜索空间,每层搜索空间包括多个子结构。
在步骤S22中,基于该对应关系,确定目标神经网络的GPU时间。
该目标神经网络包括依次连接的多层结构,该目标神经网络的每层结构为对应层的搜索空间中的一个子结构。
在步骤S23中,基于目标神经网络的GPU时间,对目标神经网络的结构进行评估。
示例性地,若目标神经网络的GPU时间小于时间阈值,则表示目标神经网络的结构满足设计需求,或者,若目标神经网络的GPU时间不小于时间阈值,则表示目标神经网络的结构不满足设计需求,可能需要重新设计神经网络的结构。
本公开实施例中,目标神经网络包括依次连接的多层结构,且目标神经网络的每层结构为对应层的搜索空间中的一个子结构,也即是,目标神经网络通过在超网络的每层搜索空间中搜索对应的子结构而形成,所以可以根据用于指示超网络中各个子结构的GPU时间的子结构与GPU时间的对应关系,确定出目标神经网络的GPU时间,无需在目标神经网络建立好之后,进行多次运行并测量其运行时间,可以快速得到目标神经网络的GPU时间,并以此对神经网络的结构进行评估,能够节省时间,提高效率。
图3为根据示例性实施例示出的另一种神经网络结构的评估方法的流程图。该方法可以由计算机执行,包括但不限于服务器、个人计算机、移动终端等。
如图3所示,该方法包括:
在步骤S31中,建立子结构与GPU时间的对应关系。
该对应关系用于指示超网络中各个子结构的GPU时间,超网络包括多层搜索空间,每层搜索空间包括多个子结构。
该步骤S31可以包括:
第一步、从超网络的每一层搜索空间中,分别选择一个子结构;
第二步、采用选择出的子结构建立神经网络子网络;
第三步、运行该神经网络子网络并在神经网络子网络的运行过程中,获取神经网络子网络中的子结构的GPU时间;
重复上述第一步至第三步,直到得到超网络中所有子结构的GPU时间,并根据得到的GPU时间建立子结构与GPU时间的对应关系。
示例性地,在神经网络子网络的运行过程中,获取神经网络子网络中的子结构的GPU时间,可以采用以下方式:
获取神经网络子网络中每一层子结构的输入时间戳和输出时间戳,其中,输入时间戳用于指示数据输入子结构的时间,输出时间戳用于指示子结构输出数据的时间。示例性地,输入时间戳和输出时间戳可以采用神经网络计算框架获取,神经网络计算框架例如TensorFlow、MACE(Mobile AI Compute Engine)、 SNPE(Snapdragon Neural ProcessingEngine)等等。
在得到超网络中所有子结构的GPU时间之后,可以将所有子结构的GPU 时间保存在预定存储位置,即建立子结构与GPU时间的对应关系,以便后续重复使用。保存形式包括但不限于列表、数组、键值对等等。
例如,对于以列表形式保存的对应关系,可以称为子结构GPU时间表。子结构GPU时间表的形式可以参见图1,主索引为子结构所在的搜索空间的层数,例如图1右边的第1层~第N层,副索引为子结构在对应的搜索空间中的编号,例如,子结构1表示该搜搜空间中的第1个子结构,子结构2表示该搜索空间中的第2个子结构……这样通过主索引和副索引的结合可以唯一标识出一个子结构,对应的值即为该子结构的GPU时间,例如t11、t12、t13、t21、t22、t23、 t31、t32、t33……tN1、tN2、tN3。
或者,子结构GPU时间表的形式还可以为:索引为子结构标识,对应的值为子结构的GPU时间,子结构的标识可以用于表示子结构在超网络中的位置,例如子结构标识Sxy表示第x层的第y个子结构。
又例如,对于以数组形式保存的对应关系,数组可以为[S11,t11]、[S12,t12]……[Sxy,txy],其中,Sxy为子结构的标识,表示第x层的第y个子结构, txy表示第x层的第y个子结构的GPU时间。
可选地,各层搜索空间中子结构的数量可以相同,也可以不同。例如,在一些超网络中,第一层搜索空间中子结构的数量和第二层搜索空间中子结构的数量相同,第一层搜索空间中子结构的数量和第三层搜索空间中子结构的数量不同。
可选地,不同次建立的神经网络子网络中,至少有一个子结构与已建立的神经网络子网络中的子结构不同。由于超网络的每层搜索结构中子结构的数量可以相同,也可以不同,当每层搜索结构中子结构的数量不相同时,必然有部分子结构被选中来构建神经网络子网络的次数较多,因此,只要保证每次建立的神经网络子网络中,至少有一个子结构与已建立的神经网络子网络中的子结构不同即可遍历超网络中的所有子结构。
示例性地,从超网络的每一层搜索空间中,分别选择一个子结构,可以按照每层搜索空间中子结构的排列顺序选取,例如,在建立第一个神经网络子网络时,选择每一层搜索空间中的第一个子结构;在建立第二个神经网络子网络时,选择每一层搜索空间中的第二个子结构……依次类推,直至包含数量最少的子结构的搜索空间中的所有子结构均被选中过一次,在后续建立神经网络子网络时,对于该包含数量最少的子结构的搜索空间,可以任意选择一个子结构,而其他的搜索空间,可以继续按照子结构的排列顺序选取子结构,直至超网络中的所有子结构均被选择过至少一次。采用这种方式,可以保证在建立的神经网络子网络的数量最少的情况下遍历所有的子结构,提高获取子结构的GPU时间的效率。
可选地,该方法还可以包括:构建超网络。
构建超网络可以采用以下方式:
首先,确定超网络所包含的搜索空间的层数,以及每层搜索空间中的子结构的数量及结构;然后,在超网络中进行子网络采样,并采用样本数据对采样得到的各个子网络进行训练;最后,将训练后得到的子网络中的子结构的参数保存至超网络中。
在采用样本数据对采样得到的各个子网络进行训练的过程中,每训练一次,需要对应更新超网络中对应的子结构的参数,从而实现超网络中子结构的参数共享。
其中,子网络采样的方式可以采用相关技术中的任意一种神经网络结构搜索方式,例如基于强化学习的搜索、基于演化算法的搜索、随机搜索、贝叶斯搜索等等,本公开对此不做限制。
在步骤S32中,基于该超网络进行神经网络结构搜索,得到目标神经网络。
可选地,神经网络结构搜索可以采用相关技术中的任意一种搜索方式,例如基于强化学习的搜索、基于演化算法的搜索、随机搜索、贝叶斯搜索等等。目标神经网络可以是搜索结果中的任一个。目标神经网络包括依次连接的多层结构,目标神经网络的每层结构为对应层的搜索空间中的一个子结构。
在步骤S33中,获取子结构与GPU时间的对应关系。
在该步骤S33中,可以从前述存储位置读取该对应关系。
在步骤S34中,在该对应关系中查找目标神经网络的每层结构的GPU时间。
通过直接查找每层结构的GPU时间,方便快捷。
在步骤S35中,将目标神经网络的所有层结构的GPU时间相加,得到目标神经网络的GPU时间。
通过该步骤S34和S35即可实现基于该对应关系,确定目标神经网络的GPU 时间。
在步骤S36中,基于目标神经网络的GPU时间,对目标神经网络的结构进行评估。
在该步骤S36中,可以包括:确定目标神经网络的GPU时间是否小于时间阈值。
在一种可能的实施方式中,该方法还可以包括:若目标神经网络的GPU时间小于时间阈值,则表示该目标神经网络的结构符合设计要求;或者,若目标神经网络的GPU时间不小于时间阈值,则表示该目标神经网络的结构不符合设计要求。
需要说明的是,在其他可能的实施方式中,还可以对目标神经网络的其他方面的性能进行进一步的判断,例如,可以判断目标神经网络的正确率是否达到阈值。
本公开实施例中,目标神经网络包括依次连接的多层结构,且目标神经网络的每层结构为对应层的搜索空间中的一个子结构,也即是,目标神经网络通过在超网络的每层搜索空间中搜索对应的子结构而形成,所以可以根据用于指示超网络中各个子结构的GPU时间的子结构与GPU时间的对应关系,确定出目标神经网络的GPU时间,无需在目标神经网络建立好之后,进行多次运行并测量其运行时间,可以快速得到目标神经网络的GPU时间,并以此对神经网络的结构进行评估,能够节省时间,提高效率。
图4为根据示例性实施例示出的一种神经网络结构的确定方法的流程图。该方法可以由计算机执行,包括但不限于服务器、个人计算机、移动终端等。
如图4所示,该方法包括:
在步骤S41中,从超网络中确定出多个采样网络。
如前所述,超网络包括多层搜索空间,每层搜索空间包括多个子结构,多个采样网络包括依次连接的多层结构,采样网络的每层结构为对应层的搜索空间中的一个子结构。
在步骤S42中,获取子结构与GPU时间的对应关系。
该对应关系用于指示超网络中各个子结构的GPU时间。
在步骤S42中,基于该对应关系,确定各个采样网络的GPU时间。
在步骤S43中,基于各个采样网络的GPU时间,从采样网络中选择一个作为目标神经网络结构。
本公开实施例中,目标神经网络包括依次连接的多层结构,且目标神经网络的每层结构为对应层的搜索空间中的一个子结构,也即是,目标神经网络通过在超网络的每层搜索空间中搜索对应的子结构而形成,所以可以根据用于指示超网络中各个子结构的GPU时间的子结构与GPU时间的对应关系,确定出目标神经网络的GPU时间,无需在目标神经网络建立好之后,进行多次运行并测量其运行时间,可以快速得到目标神经网络的GPU时间,并以此对神经网络的结构进行评估,能够节省时间,提高效率。
图5为根据示例性实施例示出的另一种神经网络结构的确定方法的流程图。该方法可以由计算机执行,包括但不限于服务器、个人计算机、移动终端等。
如图5所示,该方法包括:
在步骤S51中,从超网络中确定出多个采样网络。
如前所述,超网络包括多层搜索空间,每层搜索空间包括多个子结构,多个采样网络包括依次连接的多层结构,采样网络的每层结构为对应层的搜索空间中的一个子结构。
可选地,采样网络可以采用任意一种神经网络架构搜索方法确定,包括但不限于随机搜索、贝叶斯搜索等等,本公开对此不做限定。
可选地,该方法还可以包括构建超网络,构建超网络的方式可以参见前述步骤S31,在此不再赘述。
在步骤S52中,获取子结构与GPU时间的对应关系。
该对应关系用于指示超网络中各个子结构的GPU时间,该对应关系的建立方式可以参见前述步骤S31,而该对应关系的获取方式可以参见步骤S33,在此省略详细描述。
在步骤S53中,基于对应关系,确定各个采样网络的GPU时间。
该步骤S53可以包括:
对于任意一个采样网络,在对应关系中查找采样网络的每层结构的GPU时间;将采样网络的所有层结构的GPU时间相加,得到采样网络的GPU时间。
在步骤S54中,采用样本数据对各个采样网络进行训练。
该步骤S54可以包括:获取训练集,将训练集随机分成多个具有数量相同的样本数据的子集,每个子集包括多个样本数据;采用每个子集中的样本数据对对应的采样网络进行训练,得到训练后的采样网络。
在步骤S55中,确定训练后的采样网络的性能指标。
在该步骤S55中,性能指标用于衡量采样网络的性能是否满足设计要求,采样网络的性能指标包括但不限于正确率、计算量、参数量中的一种或多种。
示例性地,可以将步骤S54中子集中的样本数据按照预设的比例分成训练集和验证集,训练集用于对对应的采样网络进行训练,而验证集则用于对训练后的采样网络进行验证,从而可以得到采样网络的正确率。例如,验证集中的样本数据包括输入数据和输出数据,将输入数据输入训练后的采样网络,得到输出结果,将采样网络的输出结果与对应的输出数据进行比较,确定输出结果是否正确。统计多个样本数据的输出结果是否正确,即可确定采样网络的正确率。参数量可以用于指示采样网络中待优化的参数(例如权重)数量的多少。
在步骤S56中,基于训练后的采样网络的性能指标和采样网络的GPU时间,从采样网络中选择一个作为目标神经网络结构。
例如,可以将正确率大于正确率阈值且GPU时间小于时间阈值的一个采样网络作为目标神经网络结构。又例如,可以对各个性能指标和GPU时间分别进行打分,然后得到的分数相加;选择总分最高的采样网络作为目标神经网络结构。需要说明的是,本公开实施例中,对选择目标神经网络的算法不做限制,可以根据实际的设计需要设置。通过该步骤S55即可实现对神经网络结构的多目标优化。
通过上述步骤S54至S56即可实现,基于各个采样网络的GPU时间,从采样网络中选择一个作为目标神经网络结构。
可替代地,在另一种可能的实施方式中,基于各个采样网络的GPU时间,从采样网络中选择一个作为目标神经网络结构可以包括:将GPU时间最少的采样网络作为目标神经网络结构,或者,将GPU时间小于设定值的采样网络中的任一个作为目标神经网络结构。也即是,仅根据GPU时间来选择目标神经网络结构。在这种情况下,可以不执行前述步骤S54和S55。
本公开实施例中,目标神经网络包括依次连接的多层结构,且目标神经网络的每层结构为对应层的搜索空间中的一个子结构,也即是,目标神经网络通过在超网络的每层搜索空间中搜索对应的子结构而形成,所以可以根据用于指示超网络中各个子结构的GPU时间的子结构与GPU时间的对应关系,确定出目标神经网络的GPU时间,无需在目标神经网络建立好之后,进行多次运行并测量其运行时间,可以快速得到目标神经网络的GPU时间,并以此对神经网络的结构进行评估,能够节省时间,提高效率。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图6为根据一示例性实施例示出的一种神经网络结构的评估装置的框图。如图6所示,该装置600包括:对应关系获取模块601、确定模块602和评估模块603。
其中,对应关系获取模块601被配置为获取子结构与GPU时间的对应关系,该对应关系用于指示超网络中各个子结构的GPU时间,超网络包括多层搜索空间,每层搜索空间包括多个子结构。确定模块602被配置为基于对应关系获取模块601获取的对应关系,确定目标神经网络的GPU时间,目标神经网络包括依次连接的多层结构,目标神经网络的每层结构为对应层的搜索空间中的一个子结构。评估模块603被配置为基于确定模块602得到的目标神经网络的GPU 时间,对目标神经网络的结构进行评估。
可选地,确定模块602包括查找子模块6021和计算子模块6022。其中,查找子模块6021被配置为在对应关系中查找目标神经网络的每层结构的GPU时间。计算子模块6022被配置为将目标神经网络的所有层结构的GPU时间相加,得到目标神经网络的GPU时间。
可选地,评估模块603被配置为确定目标神经网络的GPU时间是否小于时间阈值。
可选地,该装置600还可以包括:子网络建立模块604、时间获取模块605 和对应关系建立模块606。其中,子网络建立模块604被配置为从超网络的每一层搜索空间中,分别选择一个子结构;采用选择出的子结构建立神经网络子网络。时间获取模块605被配置为运行神经网络子网络并在神经网络子网络的运行过程中,获取神经网络子网络中的子结构的GPU时间。对应关系建立模块606 被配置为根据时间获取模块605得到的GPU时间建立子结构与GPU时间的对应关系。
本公开实施例中,目标神经网络包括依次连接的多层结构,且目标神经网络的每层结构为对应层的搜索空间中的一个子结构,也即是,目标神经网络通过在超网络的每层搜索空间中搜索对应的子结构而形成,所以可以根据用于指示超网络中各个子结构的GPU时间的子结构与GPU时间的对应关系,确定出目标神经网络的GPU时间,无需在目标神经网络建立好之后,进行多次运行并测量其运行时间,可以快速得到目标神经网络的GPU时间,并以此对神经网络的结构进行评估,能够节省时间,提高效率。
图7为根据一示例性实施例示出的一种神经网络结构的确定装置的框图。如图7所示,该装置700包括:采样网络确定模块701、对应关系获取模块702、时间确定模块703和架构确定模块704。
其中,采样网络确定模块701被配置为从超网络中确定出多个采样网络,超网络包括多层搜索空间,每层搜索空间包括多个子结构,多个采样网络包括依次连接的多层结构,采样网络的每层结构为对应层的搜索空间中的一个子结构。对应关系获取模块702被配置为获取子结构与GPU时间的对应关系,对应关系用于指示超网络中各个子结构的GPU时间。时间确定模块703被配置为基于对应关系获取模块702获取到的对应关系,确定采样网络确定模块701确定出的各个采样网络的GPU时间。架构确定模块704被配置为基于时间确定模块 701确定出的各个采样网络的GPU时间,从采样网络中选择一个作为目标神经网络结构。
可选地,时间确定模块702,包括:查找子模块7021和计算子模块7022。查找子模块7021被配置为对于任意一个采样网络,在对应关系中查找采样网络的每层结构的GPU时间。计算子模块7022被配置为将采样网络的所有层结构的GPU时间相加,得到采样网络的GPU时间。
可选地,架构确定模块704包括:训练子模块7041、性能确定子模块7042 和架构确定子模块7043。训练子模块7041被配置为采用样本数据对各个所述采样网络进行训练。性能确定子模块7042被配置为确定训练后的采样网络的性能指标。架构确定子模块7043被配置为基于所述训练后的采样网络的性能指标和所述采样网络的GPU时间,从所述采样网络中选择一个作为目标神经网络结构。
本公开实施例中,目标神经网络包括依次连接的多层结构,且目标神经网络的每层结构为对应层的搜索空间中的一个子结构,也即是,目标神经网络通过在超网络的每层搜索空间中搜索对应的子结构而形成,所以可以根据用于指示超网络中各个子结构的GPU时间的子结构与GPU时间的对应关系,确定出目标神经网络的GPU时间,无需在目标神经网络建立好之后,进行多次运行并测量其运行时间,可以快速得到目标神经网络的GPU时间,并以此对神经网络的结构进行评估,能够节省时间,提高效率。
图8是根据一示例性实施例示出的一种用于神经网络结构的评估/神经网络结构的确定装置800的框图。例如,装置800可以被提供为一服务器。参照图8,装置800包括处理组件822,其进一步包括一个或多个处理器,以及由存储器 832所代表的存储器资源,用于存储可由处理部件822的执行的指令,例如应用程序。存储器832中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件822被配置为执行指令,以执行上述神经网络结构的评估方法或者神经网络结构的确定方法。
装置800还可以包括一个电源组件826被配置为执行装置800的电源管理,一个有线或无线网络接口850被配置为将装置800连接到网络,和一个输入输出(I/O)接口858。装置800可以操作基于存储在存储器832的操作系统,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
一种非临时性计算机可读存储介质,包括至少一条指令,当所述存储介质中的指令由计算机的处理器执行时,使得计算机能够执行前述神经网络结构的评估方法或者神经网络结构的确定方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器832,上述指令可由神经网络结构的评估装置800的处理器执行上述神经网络结构的评估方法或者上述指令可由神经网络结构的确定装置800的处理器执行上述神经网络结构的确定方法。例如,非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。

Claims (15)

1.一种神经网络结构的评估方法,其特征在于,所述方法包括:
获取子结构与GPU时间的对应关系,所述对应关系用于指示超网络中各个子结构的GPU时间,所述超网络包括多层搜索空间,每层所述搜索空间包括多个子结构;
基于所述对应关系,确定目标神经网络的GPU时间,所述目标神经网络包括依次连接的多层结构,所述目标神经网络的每层结构为对应层的所述搜索空间中的一个子结构;
基于所述目标神经网络的GPU时间,对所述目标神经网络的结构进行评估;
在所述获取子结构与GPU时间的对应关系之前,所述方法还包括:
S1、从所述超网络的每一层搜索空间中,分别选择一个子结构;
S2、采用选择出的子结构建立神经网络子网络;
S3、运行所述神经网络子网络并在所述神经网络子网络的运行过程中,获取神经网络子网络中的子结构的GPU时间;
重复S1-S3,直到得到所述超网络中所有子结构的GPU时间,其中,不同次建立的所述神经网络子网络中,至少有一个子结构与已建立的所述神经网络子网络中的子结构不同,当所述多层搜索空间中包含数量最少的子结构的搜索空间中的所有子结构均被选中过一次之前,按照每层所述搜索空间中子结构的排列顺序选取一个子结构,当所述多层搜索空间中包含数量最少的子结构的搜索空间中的所有子结构均被选中过一次之后,在后续建立神经网络子网络时,从所述包含数量最少的子结构的搜索空间中任意选择一个子结构,而继续按照子结构的排列顺序从其他搜索空间中选取子结构,直至所述超网络中的所有子结构均被选择过至少一次;
根据得到的所述GPU时间建立所述对应关系;
其中,所述在所述神经网络子网络的运行过程中,获取神经网络子网络中的子结构的GPU时间,包括:
获取所述神经网络子网络中每一层子结构的输入时间戳和输出时间戳,其中,所述输入时间戳用于指示数据输入子结构的时间,所述输出时间戳用于指示子结构输出数据的时间,所述输入时间戳和所述输出时间戳采用神经网络计算框架获取。
2.根据权利要求1所述的方法,其特征在于,所述基于所述对应关系,确定目标神经网络的GPU时间,包括:
在所述对应关系中查找所述目标神经网络的每层结构的GPU时间;
将所述目标神经网络的所有层结构的GPU时间相加,得到所述目标神经网络的GPU时间。
3.根据权利要求2所述的方法,其特征在于,所述基于所述目标神经网络的GPU时间,对所述目标神经网络的结构进行评估,包括:
确定所述目标神经网络的GPU时间是否小于时长阈值。
4.一种神经网络结构的确定方法,其特征在于,所述方法包括:
从超网络中确定出多个采样网络,所述超网络包括多层搜索空间,每层所述搜索空间包括多个子结构,所述多个采样网络包括依次连接的多层结构,所述采样网络的每层结构为对应层的所述搜索空间中的一个子结构;
获取子结构与GPU时间的对应关系,所述对应关系用于指示所述超网络中各个子结构的GPU时间;
基于所述对应关系,确定各个所述采样网络的GPU时间;
基于各个所述采样网络的GPU时间,从所述采样网络中选择一个作为目标神经网络结构;
在所述获取子结构与GPU时间的对应关系之前,所述方法还包括:
S1、从所述超网络的每一层搜索空间中,分别选择一个子结构;
S2、采用选择出的子结构建立神经网络子网络;
S3、运行所述神经网络子网络并在所述神经网络子网络的运行过程中,获取神经网络子网络中的子结构的GPU时间;
重复S1-S3,直到得到所述超网络中所有子结构的GPU时间,其中,不同次建立的所述神经网络子网络中,至少有一个子结构与已建立的所述神经网络子网络中的子结构不同,当所述多层搜索空间中包含数量最少的子结构的搜索空间中的所有子结构均被选中过一次之前,按照每层所述搜索空间中子结构的排列顺序选取一个子结构,当所述多层搜索空间中包含数量最少的子结构的搜索空间中的所有子结构均被选中过一次之后,在后续建立神经网络子网络时,从所述包含数量最少的子结构的搜索空间中任意选择一个子结构,而继续按照子结构的排列顺序从其他搜索空间中选取子结构,直至所述超网络中的所有子结构均被选择过至少一次;
根据得到的所述GPU时间建立所述对应关系;
其中,所述在所述神经网络子网络的运行过程中,获取神经网络子网络中的子结构的GPU时间,包括:
获取所述神经网络子网络中每一层子结构的输入时间戳和输出时间戳,其中,所述输入时间戳用于指示数据输入子结构的时间,所述输出时间戳用于指示子结构输出数据的时间,所述输入时间戳和所述输出时间戳采用神经网络计算框架获取。
5.根据权利要求4所述的方法,其特征在于,所述基于所述对应关系,确定各个所述采样网络的GPU时间,包括:
对于任意一个采样网络,在所述对应关系中查找所述采样网络的每层结构的GPU时间;
将所述采样网络的所有层结构的GPU时间相加,得到所述采样网络的GPU时间。
6.根据权利要求4或5所述的方法,其特征在于,所述基于各个所述采样网络的GPU时间,从所述采样网络中选择一个作为神经网络结构,包括:
采用相同的样本数据对各个所述采样网络进行训练;
确定训练后的采样网络的性能指标;
基于所述训练后的采样网络的性能指标和所述采样网络的GPU时间,从所述采样网络中选择一个作为目标神经网络结构。
7.一种神经网络结构的评估装置,其特征在于,所述装置包括:
对应关系获取模块,被配置为获取子结构与GPU时间的对应关系,所述对应关系用于指示超网络中各个子结构的GPU时间,所述超网络包括多层搜索空间,每层所述搜索空间包括多个子结构;
确定模块,被配置为基于所述对应关系获取模块获取的所述对应关系,确定目标神经网络的GPU时间,所述目标神经网络包括依次连接的多层结构,所述目标神经网络的每层结构为对应层的所述搜索空间中的一个子结构;
评估模块,被配置为基于所述确定模块得到的所述目标神经网络的GPU时间,对所述目标神经网络的结构进行评估;
子网络建立模块,被配置为重复执行S1和S2,其中S1、从所述超网络的每一层搜索空间中,分别选择一个子结构;S2、采用选择出的子结构建立神经网络子网络,其中,不同次建立的所述神经网络子网络中,至少有一个子结构与已建立的所述神经网络子网络中的子结构不同,当所述多层搜索空间中包含数量最少的子结构的搜索空间中的所有子结构均被选中过一次之前,按照每层所述搜索空间中子结构的排列顺序选取一个子结构,当所述多层搜索空间中包含数量最少的子结构的搜索空间中的所有子结构均被选中过一次之后,在后续建立神经网络子网络时,从所述包含数量最少的子结构的搜索空间中任意选择一个子结构,而继续按照子结构的排列顺序从其他搜索空间中选取子结构,直至所述超网络中的所有子结构均被选择过至少一次;
时间获取模块,被配置为在所述子网络建立模块执行S2后,执行S3、运行所述神经网络子网络并在所述神经网络子网络的运行过程中,获取神经网络子网络中的子结构的GPU时间,直到得到所述超网络中所有子结构的GPU时间;
对应关系建立模块,被配置为根据所述时间获取模块得到的所述GPU时间建立所述对应关系;
其中,所述在所述神经网络子网络的运行过程中,获取神经网络子网络中的子结构的GPU时间,包括:
获取所述神经网络子网络中每一层子结构的输入时间戳和输出时间戳,其中,所述输入时间戳用于指示数据输入子结构的时间,所述输出时间戳用于指示子结构输出数据的时间,所述输入时间戳和所述输出时间戳采用神经网络计算框架获取。
8.根据权利要求7所述的装置,其特征在于,所述确定模块,包括:
查找子模块,被配置为在所述对应关系中查找所述目标神经网络的每层结构的GPU时间;
计算子模块,被配置为将所述目标神经网络的所有层结构的GPU时间相加,得到所述目标神经网络的GPU时间。
9.根据权利要求8所述的装置,其特征在于,所述评估模块被配置为确定所述目标神经网络的GPU时间是否小于时长阈值。
10.一种神经网络结构的确定装置,其特征在于,所述装置包括:
采样网络确定模块,被配置为从超网络中确定出多个采样网络,所述超网络包括多层搜索空间,每层所述搜索空间包括多个子结构,所述多个采样网络包括依次连接的多层结构,所述采样网络的每层结构为对应层的所述搜索空间中的一个子结构;
对应关系获取模块,被配置为获取子结构与GPU时间的对应关系,所述对应关系用于指示所述超网络中各个子结构的GPU时间;
时间确定模块,被配置为基于所述对应关系获取模块获取到的所述对应关系,确定所述采样网络确定模块确定出的各个所述采样网络的GPU时间;
架构确定模块,被配置为基于所述时间确定模块确定出的各个所述采样网络的GPU时间,从所述采样网络中选择一个作为目标神经网络结构;
子网络建立模块,被配置为重复执行S1和S2,其中S1、从所述超网络的每一层搜索空间中,分别选择一个子结构;S2、采用选择出的子结构建立神经网络子网络,其中,不同次建立的所述神经网络子网络中,至少有一个子结构与已建立的所述神经网络子网络中的子结构不同,当所述多层搜索空间中包含数量最少的子结构的搜索空间中的所有子结构均被选中过一次之前,按照每层所述搜索空间中子结构的排列顺序选取一个子结构,当所述多层搜索空间中包含数量最少的子结构的搜索空间中的所有子结构均被选中过一次之后,在后续建立神经网络子网络时,从所述包含数量最少的子结构的搜索空间中任意选择一个子结构,而继续按照子结构的排列顺序从其他搜索空间中选取子结构,直至所述超网络中的所有子结构均被选择过至少一次;
时间获取模块,被配置为在所述子网络建立模块执行S2后,执行S3、运行所述神经网络子网络并在所述神经网络子网络的运行过程中,获取神经网络子网络中的子结构的GPU时间,直到得到所述超网络中所有子结构的GPU时间;
对应关系建立模块,被配置为根据所述时间获取模块得到的所述GPU时间建立所述对应关系;
其中,所述在所述神经网络子网络的运行过程中,获取神经网络子网络中的子结构的GPU时间,包括:
获取所述神经网络子网络中每一层子结构的输入时间戳和输出时间戳,其中,所述输入时间戳用于指示数据输入子结构的时间,所述输出时间戳用于指示子结构输出数据的时间,所述输入时间戳和所述输出时间戳采用神经网络计算框架获取。
11.根据权利要求10所述的装置,其特征在于,所述时间确定模块,包括:
查找子模块,被配置为对于任意一个采样网络,在所述对应关系中查找所述采样网络的每层结构的GPU时间;
计算子模块,被配置为将所述采样网络的所有层结构的GPU时间相加,得到所述采样网络的GPU时间。
12.根据权利要求10或11所述的装置,其特征在于,所述架构确定模块,包括:
训练子模块,被配置为采用样本数据对各个所述采样网络进行训练;
性能确定子模块,被配置为确定训练后的采样网络的性能指标;
架构确定子模块,被配置为基于所述训练后的采样网络的性能指标和所述采样网络的GPU时间,从所述采样网络中选择一个作为目标神经网络结构。
13.一种神经网络结构的评估装置,其特征在于,所述装置包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为能够执行权利要求1至3任一项所述的神经网络结构的评估方法。
14.一种神经网络结构的确定装置,其特征在于,所述装置包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为能够执行权利要求4至6任一项所述的神经网络结构的确定方法。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括至少一条指令,所述至少一条指令被处理器执行时,执行权利要求1至3任一项所述的神经网络结构的评估方法,或者,执行权利要求4至6任一项所述的神经网络结构的确定方法。
CN201911059798.6A 2019-10-29 2019-10-29 神经网络结构的评估、确定方法、装置和存储介质 Active CN110929867B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911059798.6A CN110929867B (zh) 2019-10-29 2019-10-29 神经网络结构的评估、确定方法、装置和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911059798.6A CN110929867B (zh) 2019-10-29 2019-10-29 神经网络结构的评估、确定方法、装置和存储介质

Publications (2)

Publication Number Publication Date
CN110929867A CN110929867A (zh) 2020-03-27
CN110929867B true CN110929867B (zh) 2023-12-12

Family

ID=69850039

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911059798.6A Active CN110929867B (zh) 2019-10-29 2019-10-29 神经网络结构的评估、确定方法、装置和存储介质

Country Status (1)

Country Link
CN (1) CN110929867B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111523665B (zh) * 2020-04-23 2024-02-13 北京百度网讯科技有限公司 超网络参数更新方法、装置和电子设备
CN111563592B (zh) * 2020-05-08 2023-12-15 北京百度网讯科技有限公司 基于超网络的神经网络模型生成方法和装置
CN111639753B (zh) * 2020-05-29 2023-12-05 北京百度网讯科技有限公司 用于训练图像处理超网络的方法、装置、设备以及存储介质
CN112700006B (zh) * 2020-12-29 2024-06-28 平安科技(深圳)有限公司 网络架构搜索方法、装置、电子设备及介质
CN112836801A (zh) * 2021-02-03 2021-05-25 上海商汤智能科技有限公司 深度学习网络确定方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109598332A (zh) * 2018-11-14 2019-04-09 北京市商汤科技开发有限公司 神经网络生成方法及装置、电子设备和存储介质
CN109961147A (zh) * 2019-03-20 2019-07-02 西北大学 一种基于Q-Learning算法的自动化模型压缩方法
CN110288084A (zh) * 2019-06-06 2019-09-27 北京小米智能科技有限公司 超网络训练方法和装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102593438B1 (ko) * 2017-11-17 2023-10-24 삼성전자주식회사 뉴럴 네트워크 학습 방법 및 디바이스

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109598332A (zh) * 2018-11-14 2019-04-09 北京市商汤科技开发有限公司 神经网络生成方法及装置、电子设备和存储介质
CN109961147A (zh) * 2019-03-20 2019-07-02 西北大学 一种基于Q-Learning算法的自动化模型压缩方法
CN110288084A (zh) * 2019-06-06 2019-09-27 北京小米智能科技有限公司 超网络训练方法和装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"MoGA: Searching Beyond MobileNetV3";Xiangxiang Chu et al.;《CoRR abs》;20190804;正文第1页左栏第1段——第6页右栏第1段,图1-8,表1-3 *
Xiangxiang Chu et al.."MoGA: Searching Beyond MobileNetV3".《CoRR abs》.2019,正文1-6页. *

Also Published As

Publication number Publication date
CN110929867A (zh) 2020-03-27

Similar Documents

Publication Publication Date Title
CN110929867B (zh) 神经网络结构的评估、确定方法、装置和存储介质
CN110476172A (zh) 用于卷积神经网络的神经架构搜索
CN110941555B (zh) 测试用例推荐方法、装置、计算机设备和存储介质
CN111881023B (zh) 一种基于多模型对比的软件老化预测方法及装置
WO2018157752A1 (en) Approximate random number generator by empirical cumulative distribution function
CN112085056B (zh) 目标检测模型生成方法、装置、设备及存储介质
CN111598213B (zh) 网络训练方法、数据识别方法、装置、设备和介质
WO2018143019A1 (ja) 情報処理装置、情報処理方法およびプログラム記録媒体
US20220121999A1 (en) Federated ensemble learning from decentralized data with incremental and decremental updates
CN114549849A (zh) 图像识别方法、装置、计算机设备和存储介质
CN116227240A (zh) 基于综合应力加速试验的产品寿命评价方法、装置及设备
CN113094899B (zh) 一种随机潮流计算方法、装置、电子设备及存储介质
CN110753913A (zh) 基于样本的多维数据克隆
CN116882161A (zh) 基于状态的系统可靠性评估模型构建方法及仿真评估方法
CN112184753B (zh) 目标光流法确定方法、装置、计算机设备和存储介质
CN114491699A (zh) 基于拓展区间数的三维cad软件易用性量化方法及装置
CN116266946A (zh) 一种基站位置的确定方法、装置及设备
CN114692888A (zh) 系统参数处理方法、装置、设备及存储介质
CN111340276A (zh) 一种生成预测数据的方法及系统
CN112463556B (zh) 一种卷可见的等待时间的预测方法、系统、设备以及介质
CN112669893B (zh) 确定待使用读电压的方法、系统、装置及设备
CN117494860B (zh) 一种基于土地资源的生态系统评价方法及相关设备
CN114676980B (zh) 基于排序等级的装备作战效能一致性综合评估方法
CN118212914B (zh) 语音识别方法、联邦学习方法、装置、系统、设备及介质
CN116302661B (zh) 一种异常预测方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant