CN112130896A - 神经网络模型迁移方法、装置、电子设备及存储介质 - Google Patents

神经网络模型迁移方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN112130896A
CN112130896A CN202010824792.XA CN202010824792A CN112130896A CN 112130896 A CN112130896 A CN 112130896A CN 202010824792 A CN202010824792 A CN 202010824792A CN 112130896 A CN112130896 A CN 112130896A
Authority
CN
China
Prior art keywords
model
migration
parameters
migrated
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010824792.XA
Other languages
English (en)
Other versions
CN112130896B (zh
Inventor
王智卓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Intellifusion Technologies Co Ltd
Original Assignee
Shenzhen Intellifusion Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Intellifusion Technologies Co Ltd filed Critical Shenzhen Intellifusion Technologies Co Ltd
Priority to CN202010824792.XA priority Critical patent/CN112130896B/zh
Publication of CN112130896A publication Critical patent/CN112130896A/zh
Application granted granted Critical
Publication of CN112130896B publication Critical patent/CN112130896B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/70Software maintenance or management
    • G06F8/76Adapting program code to run in a different environment; Porting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/60Software deployment
    • G06F8/61Installation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明实施例提供一种神经网络模型迁移方法、装置、电子设备及存储介质,所述方法包括:获取待迁移模型的模型参数,并将所述待迁移模型的模型参数编译到通用参数空间,得到所述待迁移模型的通用参数;根据所述通用参数,在预先配置的搜索空间中通过直方图量化算法搜索出所述待迁移模型的模型迁移参数;根据所述模型迁移参数生成对应的迁移模型,并将所述迁移模型上传到硬件空间进行前向推理;接收所述硬件空间传回的推理结果,迭代计算所述迁移模型的损失,得到最优的迁移模型作为所述待迁移模型的目标迁移模型,并根据所述目标迁移模型进行迁移部署。降低数据的存储量和读写数据的通信代价,提高模型迁移的效率。

Description

神经网络模型迁移方法、装置、电子设备及存储介质
技术领域
本发明涉及人工智能领域,尤其涉及一种神经网络模型迁移方法、装置、电子设备及存储介质。
背景技术
随着人工智能的快速发展,计算机视觉技术作为人工智能的重要技术基础也得到快速的发展,计算机视觉技术是一种通过训练神经网络模型来对视觉图像进行处理的图像处理技术。然而对于同一个图像处理任务,由于神经网络模型的开发框架不同,神经网络模型最终落地的前端硬件也不同,同一个神经网络模型在前端硬件的表现不同,比如一个神经网络模型可以正常运行在CPU上,而在部署到GPU或其他硬件板上运行时,效率往往会下降很多,这样,就要求工作人员对不同的前端硬件进行针对性的模型手工调优,以使迁移后的神经网络模型适应于该前端硬件,若一个神经网络模型需要迁移部署到多个不同的前端硬件,并使该神经网络模型适应各个前端硬件时,其手工调优工作将会非常大。因此,现有的神经网络模型调优效率不高,不利于神经网络模型在不同硬件间的迁移部署。
发明内容
本发明实施例提供一种神经网络模型迁移方法,能够提高神经网络模型调优效率,便于神经网络模型在不同硬件间的迁移部署。
第一方面,本发明实施例提供一种神经网络模型迁移方法,包括:
获取待迁移模型的模型参数,并将所述待迁移模型的模型参数编译到通用参数空间,得到所述待迁移模型的通用参数;
根据所述通用参数,在预先配置的搜索空间中通过直方图量化算法搜索出所述待迁移模型的模型迁移参数;
根据所述模型迁移参数生成对应的迁移模型,并将所述迁移模型上传到硬件空间进行前向推理;
接收所述硬件空间传回的推理结果,迭代计算所述迁移模型的损失,得到最优的迁移模型作为所述待迁移模型的目标迁移模型,并根据所述目标迁移模型进行迁移部署。
可选的,在所述在预设的搜索空间中,通过直方图量化算法对所述通用参数进行搜索,搜索出所述待迁移模型的迁移参数之前,所述方法还包括:
配置不同的迁移参数;
基于所述不同的迁移参数,配置得到搜索空间。
可选的,所述根据所述通用参数,在预先配置的搜索空间中通过直方图量化算法搜索出所述待迁移模型的迁移参数,包括:
将所述搜索空间中与所述通用参数相适应的迁移参数进行组合,得到样本特征;
将所述样本特征通过直方图进行量化,得到多个样本桶;
通过决策树叶子生长策略对所述多个样本桶并行计算,得到对应的决策树模型参数;
基于所述决策树模型参数,得到所述待迁移模型的迁移参数。
可选的,所述通过叶子生长策略对所述多个样本桶并行计算,得到对应的决策树模型参数,包括:
在每层决策树叶子生长时,选取生长增益最高的一个叶子节点进行下层叶子节点的生长;
当所述决策树叶子生长的层数达到预设层数时,停止决策树叶子生长,得到对应的决策树模型参数。
可选的,所述在每层决策树叶子生长时,选取生长增益最高的一个叶子节点进行下层叶子节点的生长,包括:
获取当前层叶子节点的父节点直方图;
计算当前层叶子节点的第一叶子节点的直方图;
根据所述父节点直方图以及所述第一叶子节点的直方图的差,得到第二叶子节点直方图;
选取所述第一叶子节点与所述第二叶子节点中生长增益最高的叶子节点进行生长进行下层叶子节点的生长。
可选的,所述根据所述模型迁移参数生成对应的迁移模型,并将所述迁移模型上传到硬件空间进行前向推理,包括:
获取目标硬件空间的信息,并根据所述目标硬件空间的信息匹配对应的硬件代码源语;
根据所述硬件代码源语以及所述模型迁移参数生成与所述目标硬件空间对应的迁移模型;
将所述迁移模型上传到所述目标硬件空间进行前向推理。
可选的,所述接收所述硬件空间传回的推理结果,迭代计算所述迁移模型的损失,得到最优的迁移模型作为所述待迁移模型的目标迁移模型,包括:
接收所述硬件空间传回的推理时间以及推理分数;
根据所述推理时间以及推理分数,迭代计算所述迁移模型的损失;
根据所述迁移模型的损失,选取最优的迁移模型作为所述待迁移模型的目标迁移模型。
第二方面,本发明实施例提供一种神经网络模型迁移装置,包括:
编译模块,用于获取待迁移模型的模型参数,并将所述待迁移模型的模型参数编译到通用参数空间,得到所述待迁移模型的通用参数;
搜索模块,用于根据所述通用参数,在预先配置的搜索空间中通过直方图量化算法搜索出所述待迁移模型的模型迁移参数;
上传模块,用于根据所述模型迁移参数生成对应的迁移模型,并将所述迁移模型上传到硬件空间进行前向推理;
处理模块,用于接收所述硬件空间传回的推理结果,迭代计算所述迁移模型的损失,得到最优的迁移模型作为所述待迁移模型的目标迁移模型,并根据所述目标迁移模型进行迁移部署。
第三方面,本发明实施例提供一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现本发明实施例提供的神经网络模型迁移方法中的步骤。
第四方面,本发明实施例提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现发明实施例提供的神经网络模型迁移方法中的步骤。
本发明实施例中,获取待迁移模型的模型参数,并将所述待迁移模型的模型参数编译到通用参数空间,得到所述待迁移模型的通用参数;根据所述通用参数,在预先配置的搜索空间中通过直方图量化算法搜索出所述待迁移模型的模型迁移参数;根据所述模型迁移参数生成对应的迁移模型,并将所述迁移模型上传到硬件空间进行前向推理;接收所述硬件空间传回的推理结果,迭代计算所述迁移模型的损失,得到最优的迁移模型作为所述待迁移模型的目标迁移模型,并根据所述目标迁移模型进行迁移部署。通过将待迁移模型的模型参数编译到通用参数空间,使得不同硬件之间的模型参数可以通过通用参数进行表达,而且通过通用参数进行模型调优,只需要将调优后的模型转换为硬件空间所对应的模型即可,使得需要调优的硬件维度下降,从而提高了模型迁移的效率,另外,通过直方图量化算法进行调优,可以降低数据的存储量和读写数据的通信代价,从而进一步提高模型迁移的效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种神经网络模型迁移方法的流程图;
图2是本发明实施例提供的另一种神经网络模型迁移方法的流程图;
图3是本发明实施例提供的一种直方图量化方法的流程图;
图4是本发明实施例提供的一种决策树叶子生长策略的流程图;
图5是本发明实施例提供的一种直方图加速方法的流程图;
图6是本发明实施例提供的一种神经网络模型迁移装置的结构示意图;
图7是本发明实施例提供的另一种神经网络模型迁移装置的结构示意图;
图8是本发明实施例提供的一种搜索模块的结构示意图;
图9是本发明实施例提供的一种计算子模块的结构示意图;
图10是本发明实施例提供的一种生长单元的结构示意图;
图11是本发明实施例提供的一种上传模块的结构示意图;
图12是本发明实施例提供的一种处理模块的结构示意图;
图13是本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参见图1,图1是本发明实施例提供的一种神经网络模型迁移方法的流程图,如图1所示,包括以下步骤:
101、获取待迁移模型的模型参数,并将待迁移模型的模型参数编译到通用参数空间,得到待迁移模型的通用参数。
该步骤中,上述的待迁移模型可以是已训练好的神经网络模型,具体的,可以是在某个模型框架下的已训练好的神经网络模型,上述的模型框架可以是Pytorch、TensorFlow、Mxnet、Caffe、Keras等模型开发框架。通过上述的模型框架对神经网络模型进行调参,可以训练出符合用户要求的神经网络模型。
上述的模型参数可以包括模型的输入张量、输出张量、算子类型、算子数量、权重等参数。其中,上述的输入张量、输出张量、算子类型、算子数量等参数可以用于表示对应神经网络模型的计算图结构,上述的权重参数可以用于分类计算。
上述的通用参数可以理解为将不同模型开发框架的模型参数进行通用表示,上述的通用参数可以包括模型的输入张量、输出张量、算子类型、算子数量、权重等通用参数。上述的通用参数空间可以理解为一个用于定义以及存储通用参数的中间空间或中间工具。上述的编译可以是通过可以描述神经网络模型的函数式编程语言进行编译,比如,可以是Relay或NNVM等编译方式。
在一种可能的实施例中,获取已训练的神经网络模型对于特定输入的第一推理结果,在得到待迁移模型的通用参数,通过通用参数对应的通用模型对该特定输入也进行推理,得到第二推理结果,判断第一推理结果与第二推理结果是否相同或相似,若第一推理结果与第二推理结果相同或相似,则说明编译得到的通用参数没有问题,若第二推理结果与第二推理结果不相同或不相似,则说明编译得到的通用参数存在问题,需要重新进行编译或重新获取待迁移模型的模型参数进行编译。这样,可以通过第一推理结果作为先验参数对编译后的通用参数进行验证,避免编译过程中出错导致待迁移模型最终的迁移效果不好。
102、根据通用参数,在预先配置的搜索空间中通过直方图量化算法搜索出待迁移模型的模型迁移参数。
在该步骤中,上述的通用参数可以包括模型的输入张量、输出张量、算子类型、算子数量、权重等通用参数。其中,上述的输入张量、输出张量、算子类型、算子数量等参数可以用于表示对应神经网络模型的通用计算图结构,上述的模型迁移参数可以理解是对通用计算图结构进行迁移的参数。
进一步的,上述的模型迁移参数可以包括算子迁移参数以及张量迁移参数。上述的算子迁移参数可以理解为对通用计算图结构进行算子层面的迁移,用以节省算子存储资源以及计算单元,上述的张量迁移参数可以理解对通用计算图结构中的张量层面进行迁移,用以节省数据读写的通信量,从而降低通信时间。
上述算子层面的迁移可以是将通用计算图结构中的算子按预先设置的规则进行融合,从而对通用计算图结构进行调优。在本发明实施例中,可以将通用计算图结构中多个独立的算子融合成一个融合算子,具体可以是将多个连续的算子融合成一个融合算子,使得中间计算结果都被省略,计算速度和存储空间同时得到了调优,以适应迁移后的硬件平台。更具体的,上述调优也可以理解为将多个函数调用合并到一个函数里面。比如,在神经网络中,卷积算子、批处理算子以及规则化算子串接,则可以表示为conv-bn-relu,其正常计算流程:x1=conv(x),读取输入x,调用卷积函数进行卷积计算得到x1进行存储;x2=bn(x1),读取输入x1,调用批函数进行批处理计算得到x2进行存储;y=relu(x2),读取输入x2,调用规则函数进行规则化计算得到y。上述的计算流程包括了三次函数调用,以及中间结果x1、x2的存取。在进行算子融合后,其计算流程为:y=conv_bn_relu(x),读取输入x,融合计算得到y,只需要调用一个融合函数,没有中间结果的存取,使得计算速度和存储空间同时得到调优。
上述的张量层面进行迁移可以是对卷积张量进行切分、对卷积计算方式进行选择、对卷积操作的循环重排进行选择、对卷积中的向量化进行选择等。上述对卷积张量进行切分可以理解为是对卷积张量的高、宽以及通道维度进行切分,比如,卷积张量为W×H×C=128×128×3,其中,W维度为卷积张量的宽,H维度为卷积张量的高,C维度为卷积张量的通道维度,对于卷积张量的W维度进行切分可以是切分为1、2、4、8、16、128,对于卷积张量的H维度进行切分也可以是切分为1、2、4、8、16、128,对于卷积张量的C维度进行切分可以是切分为1、3。上述对卷积计算方式进行选择可以是选择直接(direct)卷积或快速(winograd)卷积等卷积计算方式。上述对卷积操作的循环重排进行选择可以为是否选择进行循环重排。上述对卷积中的向量化进行选择可以为是否选择进行向量化。
请参照图2,图2为本发明实施例提供的另一种神经网络模型迁移方法的流程图,与图1实施例不同的是在步骤102之前,本发明实施例还对搜索空间进行预先配置,如图2所示,具体的配置包括:
201、配置不同的迁移参数。
202、基于该不同的迁移参数,配置得到搜索空间。
在本发明实施例中,上述不同的迁移参数可以是对卷积张量进行切分、对卷积计算方式进行选择、对卷积操作的循环重排进行选择、对卷积中的向量化进行选择等的参数,以使上述通用参数可以转换为对应的迁移参数。可选的,可以根据用户常用的开发框架来以及需要用到硬件平台来配置不同的迁移参数,这样,可以得到一个较为合理的搜索空间,避免搜索范围过大而导致需要大量的计算资源以及存储资源。
上述在搜索空间中进行搜索可以是通过决策树模型进行搜索,决策树模型由多个层级的叶子节点组成,决策树模型可以根据每层节点的预测值来决定最终的迁移模型。具体的,可以将每个叶子节点看成一个弱分类器,决策树模型所需要做的是在每个层级中选取一个弱分类器与上一层级和下一层级的弱分类器进行连接,决策完成则得到最终的迁移模型。
在本发明实施例中,上述的直方图量化算法指的是将决策树模型的所有连续样本输入进行量化(或称离散化),得到含有多个桶的直方图数据。通过直方图量化算法对数据进行搜索时,无需遍历所有的数据,只需要遍历上述的多个桶即可,通过直方图量化算法使得数据存储更加方便,数据的读写也更加的快速。另外,由于直方图量化算法在一定程度上降低了决策树模型的方差,起到了正则化的效果,对于决策树模型的精度反而会有所提升。
请参照图3,图3为本发明实施例提供的一种直方图量化方法的流程图,如图3所示,包括步骤:
301、将搜索空间中与通用参数相适应的迁移参数进行组合,得到样本特征。
上述的迁移参数可以包括算子迁移参数以及张量迁移参数。上述的算子迁移参数可以理解为对通用计算图结构进行算子层面的迁移,用以节省算子存储资源以及计算单元,上述的张量迁移参数可以理解对通用计算图结构中的张量层面进行迁移,用以节省数据读写的通信量,从而降低通信时间。
在本发明实施例中,上述算子层面的迁移可以是将通用计算图结构中多个独立的算子融合成一个融合算子,具体可以是将多个连续的算子融合成一个融合算子,使得中间计算结果都被省略,计算速度和存储空间同时得到了调优。上述的张量层面进行迁移可以是对卷积张量进行切分、对卷积计算方式进行选择、对卷积操作的循环重排进行选择、对卷积中的向量化进行选择等。
通过将上述的算子迁移参数以及张量迁移参数进行组合,可以组合得到对应的样本特征,该样本特征也可以称为弱分类器。通过不同的样本特征之间进行连接,可以得到调优后的通用模型表,可以根据该通用模型表构建调优后的可以用于迁移的通用模型。
302、将样本特征通过直方图进行量化,得到多个样本桶。
在该步骤中,可以将所有连续的样本特征进行量化(或称离散化),得到含有样本特征的多个桶的直方图数据。比如,上述的例子中,卷积张量为W×H×C=128×128×3,其中,W维度为卷积张量宽,H维度为卷积张量高,C维度为卷积张量的通道维度,对于卷积张量的W维度进行切分可以是切分为1、2、4、8、16、128,有6种切分方式,对于卷积张量的H维度进行切分也可以是切分为1、2、4、8、16、128,有6种切分方式,对于卷积张量的C维度进行切分可以是切分为1、3,有2种切分方式。上述对卷积计算方式进行选择可以是选择直接卷积或快速卷积等卷积计算方式,记为2种计算方式。上述对卷积操作的循环重排进行选择可以为是否选择进行循环重排,记为2种循环重排方式。上述对卷积中的向量化进行选择可以为是否选择进行向量化,记为2种向量化方式。则进行组合后,一共有6×6×2×2×2×2=576种组合方式,得到576个样本特征,可以这些样本特征量化为k个离散的样本桶,在进行遍历的时候,就不用遍历576个样本了,而只需要遍历该k个桶,其中,k是小于样本特征数量的,进一步,k是远远小于样本特征数量的。
303、通过决策树叶子生长策略对所述多个样本桶并行计算,得到对应的决策树模型参数。
在本发明实施例中,决策树模型由多个层级的叶子节点组成,决策树模型可以根据每层节点的预测值来决定最终的迁移模型。决策树模型中叶子节点的表达式可以为:
ft(x)=wq(x)
其中,x为某一个样本,q(x)为该某一个样本在决策树中哪个叶子节点上,wq为该叶子节点的预测值,wq(x)为每个样本的预测值。则有决策树模型表达式可以为:
Figure BDA0002635757830000091
其中,k为叶子节点个数。
上述的并行计算可以是采用分散规约(Reduce scatter)的方式将各个样本桶对应的任务分摊到不同的线程中,从而降低各个线程的通信代价。在一些可能的实施例中,在合并直方图时,可以通过投票的方式合并部分样本桶对应的直方图,以降低各线程合并直方图时的通信量。
上述的决策树叶子生长策略可以是全部叶子生长和局部叶子生长。上述的全部叶子生长指的是每一层的叶子都是根据上一层的所有叶子进行生长;上述的局部叶子生长指的是每层的叶子都是根据上一层的某个叶子进行生长。以二叉树为例,上述的全部叶子生长则是一个父叶子生长两个叶子,两个叶子分别生长两个子叶子,即第一层级有一个叶子,第二层级有两个叶子,第三层级有四个叶子,依次类推后续层级n的叶子数为2n-1。上述的局部叶子生长则是一个父叶子生长两个叶子,从该两个叶子中选一个叶子出来再生长两个子叶子,另一个叶子则不再处理,即第一层级有一个叶子,第二层级有两个叶子,第三层级有两个叶子,后续每个层级都只有两个叶子。在完成决策树叶子生长后,可以选取预测值增益最高的叶子所对在的分支路径作为最终的决策树模型参数,该决策树模型参数中包括各层级叶子的参数,也可以称为各个叶子节点的迁移参数。决策树模型参数可以通过参数表来进行表示。
请参照图4,图4为本发明实施例提供的一种决策树叶子生长策略的流程图,如图4所示,包括步骤:
401、在每层决策树叶子生长时,选取生长增益最高的一个叶子节点进行下层叶子节点的生长。
在该步骤中,上述的决策树叶子生长策略为局部叶子生长,具体的,上述的决策树叶子生长策略为单边叶子生长,每个层级的叶子只有一个叶子进行生长。上述的生长增益可以是当前层级中各叶子节点的预测值,生长增益最高指的是当前层级中叶子节点中预测值最大。在一种可能的实施例中,上述的生长增益还可以是当前层级中叶子节点的预测值以及该叶子节点所在节点路径中所有叶子节点的预测值之积或之和。
需要说明的是,由于是样本特征经过直方图量化,所以在选取当前当前层级中生长增益最高的叶子节点时,可以只用遍历各个叶子节点所对应的桶即可,不用遍历所有的样本特征。
402、当决策树叶子生长的层数达到预设层数时,停止决策树叶子生长,得到对应的决策树模型参数。
在该步骤中,上述的预设层数通过超参数进行设置。
在本发明实施例中,可以预先对决策树模型进行超参数设置,以通过超参数对决策树模型进行控制,避免发生过拟合的情况。具体的,上述的超参数可以包括:决策树的深度max_depth,标签范围label_gain,决策树的最小叶子节点min_sum_hessian_in_leaf,学习率learning_rate,正则化参数lambda_l2,排序函数objective,子树的个数num_boost_round,最大迭代次数epoch。上述的超参数中都可以设置默认值,也可以根据用户需要进行更改调整以避免决策树模型过拟合。
通过更改调整上述的决策树的深度,得到上述的预设层数。
在决策树叶子生长停止后,计算最后一个层级中叶子节点的预测值,根据该预测值,选取生长增益最高的叶子节点所在决策树中节点路径进行统计,得到决策树模型参数。上述的决策树模型参数被输出一张参数表,该参数表中记录各个层级中叶子节点的迁移参数,对应于神经网络的各个计算层的迁移参数。
可选的,可以在决策树叶子生长的过程中进行计算加速,具体的可以参照图5,图5为本发明实施例提供的一种直方图加速方法的流程图,如图5所示,包括步骤:
501、获取当前层叶子节点的父节点直方图。
502、计算当前层叶子节点的第一叶子节点的直方图。
503、根据父节点直方图以及所述第一叶子节点的直方图的差,得到第二叶子节点直方图。
504、选取第一叶子节点与所述第二叶子节点中生长增益最高的叶子节点进行生长进行下层叶子节点的生长。
在本发明实施中,上述的决策树叶子生长策略为局部叶子生长,上述的叶子生长时,每个父叶子节点可以生成两个叶子节点,每个叶子的直方图可以根据该叶子对应样本桶中的样本特征数据所得到。在某个叶子生长出两个叶子时,相当于是将本桶中的样本特征数据数据进行重新分配,因此,生长出的两个叶子的直方图可以互补叠加为该某个叶子的直方图。
通过步骤501至504,可以看出,本发明实施例的直方图加速方法,只需要计算当前层级的父节点的直方图,以及当前层级的其中一个节点,即可通过做差快速获取另一个节点的直方图。在一种可能的实施例中,在获取当前层级的父节点的直方图后,可以先计算当前层级中数据量较小的节点的直方图,再通过直方图作差加速计算得到另一个数据量较大的节点的直方图,这样,可以不用再读取该另一个节点的数据,也不用再根据该另一个节点的数据进行直方图的计算。
304、基于决策树模型参数,得到待迁移模型的迁移参数。
在该步骤中,上述的决策树模型参数中记载了各个层级所对应的样本特征,与神经网络中的各个计算层相对应。上述的决策树模型参数被输出一张参数表,该参数表中记录各个层级中叶子节点的迁移参数,对应于神经网络的各个计算层的迁移参数,因此,只需要根据该参数表中的迁移参数就可以得到待迁移模型的迁移参数。
103、根据模型迁移参数生成对应的迁移模型,并将迁移模型上传到硬件空间进行前向推理。
在该步骤中,可以针对不同的硬件类型生成不同的代码源语的迁移模型。上述的硬件类型可以中央处理器CPU、图像处理器GPU、现场可编程门阵列FPGA、嵌入式开发板ARM等,由于各个硬件类型的指令集不同,对应的代码规则也不同,所以在得到模型迁移参数,可以根据硬件类型来构建生成不同的迁移模型。
上述的前向推理指的是让模型在硬件空间中工作,比如,待迁移的模型是图像分类网络,则在硬件空间中进行图像分类任务,以得到迁移模型在硬件空间中的运行情况,从而判断是否达到预想的效果,如果没有达到预想的效果,则会重复上述的各个步骤,再构建生成新的迁移模型。
在本发明实施例中,可以先通过用户对于硬件空间的选择来获取目标硬件空间的信息,根据该目标硬件空间的信息匹配对应的硬件代码源语;根据该硬件代码源语以及模型迁移参数构建生成与目标硬件空间对应的迁移模型;将迁移模型上传到目标硬件空间进行前向推理。上述的目标硬件空间可以是一个或多个。具体的,可以预先注册好硬件空间的IP,通过该注册好的硬件空间IP,使用预定的数据传输协议将上述的迁移模型上传到硬件空间中进行推理。在一种可能的实施例中,可以采用远程过程调用协议RPC将上述的迁移模型上传到硬件空间中进行推理。
104、接收硬件空间传回的推理结果,迭代计算迁移模型的损失,得到最优的迁移模型作为待迁移模型的目标迁移模型,并根据目标迁移模型进行迁移部署。
在该步骤中,在硬件空间根据目标任务推理得到推理结果后,会将推理结果进行返回。上述的推理结果至少包括推理时间、推理分数中的一个,还可以包括推理准确度等。接收所述硬件空间传回的推理时间以及推理分数;根据接收到的推理时间以及推理分数,迭代计算两个迁移模型间的损失,也可以是计算连续两个模型间的损失;根据两个迁移模型间的损失,选取最优的迁移模型作为待迁移模型的目标迁移模型。
在得到当前迁移模型的推理结果后,与上一个迁移模型的推理结果进行损失计算,以计算两个模型间的损失,来判断模型是否迁移完成。上述的损失函数可以如下式所示:
其中,上述的ci和cj分别表示第i个和第j个迁移模型在硬件空间中的推理时间,xi和xj分别表示第i个和第j个迁移模型对应的模型迁移参数,
Figure BDA0002635757830000121
Figure BDA0002635757830000122
分别表示第i个和第j个迁移模型在硬件空间中的推理分数,sign表示符号函数,ci-cj>0时,输出为1,ci-cj=0时,输出为0,ci-cj<0时,输出为-1。
通过上述步骤,可以把用户想要迁移的神经网络模型直接编译为中间通用参数来进行迁移,从而得到对应硬件的迁移模型以及对应硬件设备的迁移模型代码,通过传输协议把迁移模型代码部署在硬件上,硬件会测试这个迁移模型的推理情况,将推理结果,然后进行返回。在接收到硬件的推理结果后,根据推理结果再次计算该如何编译,重新生成新的模型的迁移模型代码,并再次部署到硬件上进行测试,如此循环迭代,直到达到预设的实验次数(比如2000),或太多次实验都没有提高提前结束(比如第一次就找到了最优迁移结果,后面进行迭代时,损失很小或没有损失)。最后可以根据调优时得到的最佳“模型迁移参数”来最终编译用户所需要的神经网络模型为目标硬件的目标迁移模型,完成迁移编译过程。
在得到目标迁移模型后,可以将该目标迁移模型部署在目标硬件中,其中,上述的目标硬件与上述的硬件空间具有相同的硬件配置,以使得硬件空间可以模拟目标硬件的真实计算情况。可以理解为,上述硬件空间用于测试,上述目标硬件用于真实场景的产品落地。
本发明实施例中,获取待迁移模型的模型参数,并将所述待迁移模型的模型参数编译到通用参数空间,得到所述待迁移模型的通用参数;根据所述通用参数,在预先配置的搜索空间中通过直方图量化算法搜索出所述待迁移模型的模型迁移参数;根据所述模型迁移参数生成对应的迁移模型,并将所述迁移模型上传到硬件空间进行前向推理;接收所述硬件空间传回的推理结果,迭代计算所述迁移模型的损失,得到最优的迁移模型作为所述待迁移模型的目标迁移模型,并根据所述目标迁移模型进行迁移部署。通过将待迁移模型的模型参数编译到通用参数空间,使得不同硬件之间的模型参数可以通过通用参数进行表达,而且通过通用参数进行模型调优,只需要将调优后的模型转换为硬件空间所对应的模型即可,使得需要调优的硬件维度下降,从而提高了模型迁移的效率,另外,通过直方图量化算法进行调优,可以降低数据的存储量和读写数据的通信代价,从而进一步提高模型迁移的效率。
需要说明的是,本发明实施例提供的神经网络模型迁移方法可以应用于可以进行神经网络模型迁移的手机、监控器、计算机、服务器等设备。
请参见图6,图6是本发明实施例提供的一种神经网络模型迁移装置的结构示意图,如图6所示,所述装置包括:
编译模块601,用于获取待迁移模型的模型参数,并将所述待迁移模型的模型参数编译到通用参数空间,得到所述待迁移模型的通用参数;
搜索模块602,用于根据所述通用参数,在预先配置的搜索空间中通过直方图量化算法搜索出所述待迁移模型的模型迁移参数;
上传模块603,用于根据所述模型迁移参数生成对应的迁移模型,并将所述迁移模型上传到硬件空间进行前向推理;
处理模块604,用于接收所述硬件空间传回的推理结果,迭代计算所述迁移模型的损失,得到最优的迁移模型作为所述待迁移模型的目标迁移模型,并根据所述目标迁移模型进行迁移部署。
可选的,如图7所示,所述装置还包括:
第一配置模块605,用于配置不同的迁移参数;
第二配置模块606,用于基于所述不同的迁移参数,配置得到搜索空间。
可选的,如图8所示,所述搜索模块602包括:
组合子模块6021,用于将所述搜索空间中与所述通用参数相适应的迁移参数进行组合,得到样本特征;
量化子模块6022,用于将所述样本特征通过直方图进行量化,得到多个样本桶;
计算子模块6023,用于通过决策树叶子生长策略对所述多个样本桶并行计算,得到对应的决策树模型参数;
确定子模块6024,用于基于所述决策树模型参数,得到所述待迁移模型的迁移参数。
可选的,如图9所示,所述计算子模块6023包括:
生长单元60231,用于在每层决策树叶子生长时,选取生长增益最高的一个叶子节点进行下层叶子节点的生长;
停止单元60232,用于当所述决策树叶子生长的层数达到预设层数时,停止决策树叶子生长,得到对应的决策树模型参数。
可选的,如图10所示,所述生长单元60231包括:
获取子单元602311,用于获取当前层叶子节点的父节点直方图;
第一计算子单元602312,用于计算当前层叶子节点的第一叶子节点的直方图;
第二计算子单元602313,用于根据所述父节点直方图以及所述第一叶子节点的直方图的差,得到第二叶子节点直方图;
生长子单元602314,用于选取所述第一叶子节点与所述第二叶子节点中生长增益最高的叶子节点进行生长进行下层叶子节点的生长。
可选的,如图11所示,所述上传模块603包括:
获取子模块6031,用于获取目标硬件空间的信息,并根据所述目标硬件空间的信息匹配对应的硬件代码源语;
生成子模块6032,用于根据所述硬件代码源语以及所述模型迁移参数生成与所述目标硬件空间对应的迁移模型;
上传子模块6033,用于将所述迁移模型上传到所述目标硬件空间进行前向推理。
可选的,如图12所示,所述处理模块604包括:
接收子模块6041,用于接收所述硬件空间传回的推理时间以及推理分数;
迭代子模块6042,用于根据所述推理时间以及推理分数,迭代计算所述迁移模型的损失;
选取子模块6043,用于根据所述迁移模型的损失,选取最优的迁移模型作为所述待迁移模型的目标迁移模型。
需要说明的是,本发明实施例提供的神经网络模型迁移装置可以应用于可以进行神经网络模型迁移的手机、监控器、计算机、服务器等设备。
本发明实施例提供的神经网络模型迁移装置能够实现上述方法实施例中神经网络模型迁移方法实现的各个过程,且可以达到相同的有益效果。为避免重复,这里不再赘述。
参见图13,图13是本发明实施例提供的一种电子设备的结构示意图,如图13所示,包括:存储器1302、处理器1301及存储在所述存储器1302上并可在所述处理器1301上运行的计算机程序,其中:
处理器1301用于调用存储器1302存储的计算机程序,执行如下步骤:
获取待迁移模型的模型参数,并将所述待迁移模型的模型参数编译到通用参数空间,得到所述待迁移模型的通用参数;
根据所述通用参数,在预先配置的搜索空间中通过直方图量化算法搜索出所述待迁移模型的模型迁移参数;
根据所述模型迁移参数生成对应的迁移模型,并将所述迁移模型上传到硬件空间进行前向推理;
接收所述硬件空间传回的推理结果,迭代计算所述迁移模型的损失,得到最优的迁移模型作为所述待迁移模型的目标迁移模型,并根据所述目标迁移模型进行迁移部署。
可选的,在所述在预设的搜索空间中,通过直方图量化算法对所述通用参数进行搜索,搜索出所述待迁移模型的迁移参数之前,所述处理器1301还执行包括:
配置不同的迁移参数;
基于所述不同的迁移参数,配置得到搜索空间。
可选的,所述处理器1301执行的所述根据所述通用参数,在预先配置的搜索空间中通过直方图量化算法搜索出所述待迁移模型的迁移参数,包括:
将所述搜索空间中与所述通用参数相适应的迁移参数进行组合,得到样本特征;
将所述样本特征通过直方图进行量化,得到多个样本桶;
通过决策树叶子生长策略对所述多个样本桶并行计算,得到对应的决策树模型参数;
基于所述决策树模型参数,得到所述待迁移模型的迁移参数。
可选的,所述处理器1301执行的所述通过叶子生长策略对所述多个样本桶并行计算,得到对应的决策树模型参数,包括:
在每层决策树叶子生长时,选取生长增益最高的一个叶子节点进行下层叶子节点的生长;
当所述决策树叶子生长的层数达到预设层数时,停止决策树叶子生长,得到对应的决策树模型参数。
可选的,所述处理器1301执行的所述在每层决策树叶子生长时,选取生长增益最高的一个叶子节点进行下层叶子节点的生长,包括:
获取当前层叶子节点的父节点直方图;
计算当前层叶子节点的第一叶子节点的直方图;
根据所述父节点直方图以及所述第一叶子节点的直方图的差,得到第二叶子节点直方图;
选取所述第一叶子节点与所述第二叶子节点中生长增益最高的叶子节点进行生长进行下层叶子节点的生长。
可选的,所述处理器1301执行的所述根据所述模型迁移参数生成对应的迁移模型,并将所述迁移模型上传到硬件空间进行前向推理,包括:
获取目标硬件空间的信息,并根据所述目标硬件空间的信息匹配对应的硬件代码源语;
根据所述硬件代码源语以及所述模型迁移参数生成与所述目标硬件空间对应的迁移模型;
将所述迁移模型上传到所述目标硬件空间进行前向推理。
可选的,所述处理器1301执行的所述接收所述硬件空间传回的推理结果,迭代计算所述迁移模型的损失,得到最优的迁移模型作为所述待迁移模型的目标迁移模型,包括:
接收所述硬件空间传回的推理时间以及推理分数;
根据所述推理时间以及推理分数,迭代计算所述迁移模型的损失;
根据所述迁移模型的损失,选取最优的迁移模型作为所述待迁移模型的目标迁移模型。
需要说明的是,上述电子设备可以是可以应用于可以进行神经网络模型迁移的手机、监控器、计算机、服务器等设备。
本发明实施例提供的电子设备能够实现上述方法实施例中神经网络模型迁移方法实现的各个过程,且可以达到相同的有益效果,为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现本发明实施例提供的神经网络模型迁移方法的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存取存储器(Random AccessMemory,简称RAM)等。
以上所揭露的仅为本发明较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。

Claims (10)

1.一种神经网络模型迁移方法,其特征在于,包括以下步骤:
获取待迁移模型的模型参数,并将所述待迁移模型的模型参数编译到通用参数空间,得到所述待迁移模型的通用参数;
根据所述通用参数,在预先配置的搜索空间中通过直方图量化算法搜索出所述待迁移模型的模型迁移参数;
根据所述模型迁移参数生成对应的迁移模型,并将所述迁移模型上传到硬件空间进行前向推理;
接收所述硬件空间传回的推理结果,迭代计算所述迁移模型的损失,得到最优的迁移模型作为所述待迁移模型的目标迁移模型,并根据所述目标迁移模型进行迁移部署。
2.如权利要求1所述的方法,其特征在于,在所述在预设的搜索空间中,通过直方图量化算法对所述通用参数进行搜索,搜索出所述待迁移模型的迁移参数之前,所述方法还包括:
配置不同的迁移参数;
基于所述不同的迁移参数,配置得到搜索空间。
3.如权利要求1所述的方法,其特征在于,所述根据所述通用参数,在预先配置的搜索空间中通过直方图量化算法搜索出所述待迁移模型的迁移参数,包括:
将所述搜索空间中与所述通用参数相适应的迁移参数进行组合,得到样本特征;
将所述样本特征通过直方图进行量化,得到多个样本桶;
通过决策树叶子生长策略对所述多个样本桶并行计算,得到对应的决策树模型参数;
基于所述决策树模型参数,得到所述待迁移模型的迁移参数。
4.如权利要求3所述的方法,其特征在于,所述通过叶子生长策略对所述多个样本桶并行计算,得到对应的决策树模型参数,包括:
在每层决策树叶子生长时,选取生长增益最高的一个叶子节点进行下层叶子节点的生长;
当所述决策树叶子生长的层数达到预设层数时,停止决策树叶子生长,得到对应的决策树模型参数。
5.如权利要求4所述的方法,其特征在于,所述在每层决策树叶子生长时,选取生长增益最高的一个叶子节点进行下层叶子节点的生长,包括:
获取当前层叶子节点的父节点直方图;
计算当前层叶子节点的第一叶子节点的直方图;
根据所述父节点直方图以及所述第一叶子节点的直方图的差,得到第二叶子节点直方图;
选取所述第一叶子节点与所述第二叶子节点中生长增益最高的叶子节点进行下层叶子节点的生长。
6.如权利要求1至5中任一所述的方法,其特征在于,所述根据所述模型迁移参数生成对应的迁移模型,并将所述迁移模型上传到硬件空间进行前向推理,包括:
获取目标硬件空间的信息,并根据所述目标硬件空间的信息匹配对应的硬件代码源语;
根据所述硬件代码源语以及所述模型迁移参数生成与所述目标硬件空间对应的迁移模型;
将所述迁移模型上传到所述目标硬件空间进行前向推理。
7.如权利要求1至5中任一所述的方法所述的方法,其特征在于,所述接收所述硬件空间传回的推理结果,迭代计算所述迁移模型的损失,得到最优的迁移模型作为所述待迁移模型的目标迁移模型,包括:
接收所述硬件空间传回的推理时间以及推理分数;
根据所述推理时间以及推理分数,迭代计算所述迁移模型的损失;
根据所述迁移模型的损失,选取最优的迁移模型作为所述待迁移模型的目标迁移模型。
8.一种神经网络模型迁移装置,其特征在于,所述装置包括:
编译模块,用于获取待迁移模型的模型参数,并将所述待迁移模型的模型参数编译到通用参数空间,得到所述待迁移模型的通用参数;
搜索模块,用于根据所述通用参数,在预先配置的搜索空间中通过直方图量化算法搜索出所述待迁移模型的模型迁移参数;
上传模块,用于根据所述模型迁移参数生成对应的迁移模型,并将所述迁移模型上传到硬件空间进行前向推理;
处理模块,用于接收所述硬件空间传回的推理结果,迭代计算所述迁移模型的损失,得到最优的迁移模型作为所述待迁移模型的目标迁移模型,并根据所述目标迁移模型进行迁移部署。
9.一种电子设备,其特征在于,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的神经网络模型迁移方法中的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的神经网络模型迁移方法中的步骤。
CN202010824792.XA 2020-08-17 2020-08-17 神经网络模型迁移方法、装置、电子设备及存储介质 Active CN112130896B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010824792.XA CN112130896B (zh) 2020-08-17 2020-08-17 神经网络模型迁移方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010824792.XA CN112130896B (zh) 2020-08-17 2020-08-17 神经网络模型迁移方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN112130896A true CN112130896A (zh) 2020-12-25
CN112130896B CN112130896B (zh) 2022-03-25

Family

ID=73851723

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010824792.XA Active CN112130896B (zh) 2020-08-17 2020-08-17 神经网络模型迁移方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN112130896B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113065639A (zh) * 2021-03-08 2021-07-02 深圳云天励飞技术股份有限公司 算子融合方法、系统、设备及存储介质
CN113128682A (zh) * 2021-04-14 2021-07-16 北京航空航天大学 神经网络模型自动适配方法和装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106650922A (zh) * 2016-09-29 2017-05-10 清华大学 硬件神经网络转换方法、计算装置、编译方法和神经网络软硬件协作系统
CN110929850A (zh) * 2019-11-26 2020-03-27 国家超级计算无锡中心 基于申威处理器的深度学习算子自动优化系统及方法
CN111078384A (zh) * 2019-12-26 2020-04-28 深圳前海环融联易信息科技服务有限公司 核心数据迁移的方法、装置、计算机设备及存储介质
CN111210005A (zh) * 2019-12-31 2020-05-29 Oppo广东移动通信有限公司 设备运行方法、装置、存储介质及电子设备
CN111290762A (zh) * 2020-01-19 2020-06-16 深圳云天励飞技术有限公司 一种深度学习网络的部署方法、装置及终端设备
CN111310890A (zh) * 2020-01-19 2020-06-19 深圳云天励飞技术有限公司 深度学习模型的优化方法、装置及终端设备
CN111527501A (zh) * 2018-08-28 2020-08-11 深圳鲲云信息科技有限公司 芯片适配确定方法及相关产品

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106650922A (zh) * 2016-09-29 2017-05-10 清华大学 硬件神经网络转换方法、计算装置、编译方法和神经网络软硬件协作系统
CN111527501A (zh) * 2018-08-28 2020-08-11 深圳鲲云信息科技有限公司 芯片适配确定方法及相关产品
CN110929850A (zh) * 2019-11-26 2020-03-27 国家超级计算无锡中心 基于申威处理器的深度学习算子自动优化系统及方法
CN111078384A (zh) * 2019-12-26 2020-04-28 深圳前海环融联易信息科技服务有限公司 核心数据迁移的方法、装置、计算机设备及存储介质
CN111210005A (zh) * 2019-12-31 2020-05-29 Oppo广东移动通信有限公司 设备运行方法、装置、存储介质及电子设备
CN111290762A (zh) * 2020-01-19 2020-06-16 深圳云天励飞技术有限公司 一种深度学习网络的部署方法、装置及终端设备
CN111310890A (zh) * 2020-01-19 2020-06-19 深圳云天励飞技术有限公司 深度学习模型的优化方法、装置及终端设备

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113065639A (zh) * 2021-03-08 2021-07-02 深圳云天励飞技术股份有限公司 算子融合方法、系统、设备及存储介质
CN113065639B (zh) * 2021-03-08 2023-06-13 深圳云天励飞技术股份有限公司 算子融合方法、系统、设备及存储介质
CN113128682A (zh) * 2021-04-14 2021-07-16 北京航空航天大学 神经网络模型自动适配方法和装置
CN113128682B (zh) * 2021-04-14 2022-10-21 北京航空航天大学 神经网络模型自动适配方法和装置

Also Published As

Publication number Publication date
CN112130896B (zh) 2022-03-25

Similar Documents

Publication Publication Date Title
CN111489412B (zh) 用于使用神经网络生成基本逼真图像的语义图像合成
CN111814966A (zh) 神经网络架构搜索方法、神经网络应用方法、设备及存储介质
CN111612134A (zh) 神经网络结构搜索方法、装置、电子设备及存储介质
CN112130896B (zh) 神经网络模型迁移方法、装置、电子设备及存储介质
CN110428046B (zh) 神经网络结构的获取方法及装置、存储介质
CN113283426B (zh) 基于多目标神经网络搜索的嵌入式目标检测模型生成方法
CN111768004A (zh) 一种基于智能计算框架的模型自适应方法及系统
KR102129161B1 (ko) 컨볼루션 신경망의 하이퍼파라미터를 설정하는 방법 및 이를 수행하는 단말 장치
CN112200316B (zh) 一种针对在线预测任务的gbdt学习方法
CN115470905B (zh) 一种大数据分析处理方法及系统
CN117992078B (zh) 一种基于TensorRT-LLM模型推理加速服务的自动化部署方法
US20240095529A1 (en) Neural Network Optimization Method and Apparatus
CN111611085A (zh) 基于云边协同的人机混合增强智能系统、方法、装置
KR20210066545A (ko) 반도체 소자의 시뮬레이션을 위한 전자 장치, 방법, 및 컴퓨터 판독가능 매체
CN116881224A (zh) 一种数据库参数调优方法、装置、设备及存储介质
CN112215269A (zh) 一种面向目标检测的模型构建方法、设备和神经网络架构
CN112508178A (zh) 神经网络结构搜索方法、装置、电子设备及存储介质
CN111242176B (zh) 计算机视觉任务的处理方法、装置及电子系统
US20230162041A1 (en) Neural network model, method, electronic device, and readable medium
US20220172105A1 (en) Efficient and scalable computation of global feature importance explanations
CN118261225A (zh) 多任务大语言模型训练方法及装置
CN114547349A (zh) 模型调整与业务处理的方法、装置、设备及存储介质
CN117788946A (zh) 图像处理方法、装置、电子设备及存储介质
CN113392867A (zh) 一种图像识别方法、装置、计算机设备及存储介质
CN114385876B (zh) 一种模型搜索空间生成方法、装置及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant