CN108921287A - 一种神经网络模型的优化方法及系统 - Google Patents

一种神经网络模型的优化方法及系统 Download PDF

Info

Publication number
CN108921287A
CN108921287A CN201810766131.9A CN201810766131A CN108921287A CN 108921287 A CN108921287 A CN 108921287A CN 201810766131 A CN201810766131 A CN 201810766131A CN 108921287 A CN108921287 A CN 108921287A
Authority
CN
China
Prior art keywords
weight
full articulamentum
convolutional layer
file
threshold value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810766131.9A
Other languages
English (en)
Inventor
乐毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Open Intelligent Machine (shanghai) Co Ltd
Original Assignee
Open Intelligent Machine (shanghai) Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Open Intelligent Machine (shanghai) Co Ltd filed Critical Open Intelligent Machine (shanghai) Co Ltd
Priority to CN201810766131.9A priority Critical patent/CN108921287A/zh
Publication of CN108921287A publication Critical patent/CN108921287A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种神经网络模型的优化方法及系统,属于神经网络技术领域;方法包括:步骤S1,加载预训练模型,获取各个卷积层和全连接层的权值;步骤S2,保留各层中大于等于阈值的所有权值作为待计算权值;步骤S3,将所有待计算权值整合形成一权值文件,并依据同一个测试数据集进行前向计算,以准确度和计算量;步骤S4,更改阈值,随后返回步骤S2;重复多次步骤S2‑S4,获取多个权值文件的准确度和计算量并进行比对,并依据最优的权值文件对预训练模型进行优化后输出。上述技术方案的有益效果是:通过目标精度最优化,每层选择不同的阈值,将较小的权值置0,从而自适应地实现最优的剪枝方法,平衡了压缩和精度的关系,从而优化网络模型。

Description

一种神经网络模型的优化方法及系统
技术领域
本发明涉及神经网络技术领域,尤其涉及一种神经网络模型的优化方法及系统。
背景技术
随着人工智能的发展,越来越多的软件产品采用神经网络模型作为数据处理的核心。所谓神经网络模型,是指由大量的、简单的处理单元(称为神经元)广泛地互相连接而形成的复杂网络系统,其反映了人脑功能的许多基本特征,是一个高度复杂的非线性动力学习系统。神经网络模型具有大规模并行、分布式存储和处理、自组织、自适应和自学能力,特别适合处理需要同时考虑许多因素和条件的、不精确和模糊的信息处理问题。近年来,深度神经网络模型由于通过组合底层特征形成高层特征的工作原理,使得其受环境变化的影响较小,因此被广泛应用在计算机视觉领域尤其是人脸识别和图像分类上。
然而,现有的深度学习网络一般都有几百万甚至上亿个参数,计算量非常巨大,因此限制了其应用在计算资源受限的设备上,特别是前端的嵌入式产品上的应用。因此,若想要将深度学习网络模型进行广泛应用,必须要对其进行优化。
发明内容
根据现有技术中存在的上述问题,现提供一种神经网络模型的优化方法及系统的技术方案,旨在于现有的预训练网络模型上直接剪枝优化,通过目标精度最优化,每层选择不同的阈值,将较小的权值置0,从而自适应地实现最优的剪枝方法,平衡了压缩和精度的关系,达到优化网络模型的目的。
上述技术方案具体包括:
一种神经网络模型的优化方法,其中,预先训练形成一预训练模型,所述预训练模型中包括多个依次连接的卷积层和全连接层,并针对每个所述卷积层和所述全连接层分别设置一阈值;
对所述预训练模型进行优化的过程具体包括:
步骤S1,加载所述预训练模型,分析并获取所述预训练模型中各个所述卷积层和所述全连接层的权值;
步骤S2,针对每个所述卷积层或所述全连接层,保留大于等于所述阈值的所有所述权值,以作为待计算权值;
步骤S3,将所有所述待计算权值整合形成一权值文件,并依据同一个测试数据集进行前向计算,以得到所述权值文件的准确度和计算量;
步骤S4,针对每个所述卷积层和所述全连接层分别更改所述阈值,随后返回所述步骤S2;
重复多次所述步骤S2至所述步骤S4,以获取多个所述权值文件的所述准确度和所述计算量并进行比对,以找到最优的所述权值文件,并依据最优的所述权值文件对所述预训练模型进行优化后输出。
优选的,该优化方法,其中,所述步骤S1中,通过深度学习框架工具对所述预训练模型进行加载。
优选的,该优化方法,其中,所述步骤S1中,获取的各个所述卷积层和所述全连接层的权值分布在0值附近。
优选的,该优化方法,其中,所述步骤S2中,小于所述阈值的所有所述权值均被设置为N/A,并被剪枝除去。
优选的,该优化方法,其中,所述步骤S3中,所述计算量为所述权值文件的平均前向计算的时间量。
一种神经网络模型的优化系统,其中,预先训练形成一预训练模型,所述预训练模型中包括多个依次连接的卷积层和全连接层,并针对每个所述卷积层和所述全连接层分别设置一阈值;
所述优化系统具体包括:
分析单元,用于加载所述预训练模型并进行分析,以获取所述预训练模型中各个所述卷积层和所述全连接层的权值;
剪枝单元,连接所述分析单元,用于针对每个所述卷积层或所述全连接层,保留大于等于所述阈值的所有所述权值,以作为待计算权值;
整合单元,连接所述剪枝单元,用于将所有所述待计算权值整合形成一权值文件;
测试单元,连接所述整合单元,用于依据同一个测试数据集,对所有所述权值文件进行前向计算,以得到所述权值文件的准确度和计算量并输出;
变更单元,分别连接所述测试单元和所述分析单元,用于在所述测试单元对一个所述权值文件进行前向计算完毕后,变更每个所述卷积层和所述全连接层的所述阈值;
比对单元,连接所述测试单元,用于将不同的所述权值文件进行前向计算得到的所述准确度和所述计算量进行比对,以找到最优的所述权值文件,并依据最优的所述权值文件对所述预训练模型进行优化后输出。
优选的,该优化系统,其中,所述分析单元获取的各个所述卷积层和所述全连接层的权值分布在0值附近。
优选的,该优化系统,其中,所述剪枝单元将小于所述阈值的所有所述权值设置为N/A,并剪枝除去。
优选的,该优化系统,其中,所述计算量为所述权值文件的平均前向计算的时间量。
上述技术方案的有益效果是:
1)提供一种神经网络模型的优化方法,能够在现有的预训练网络模型上直接剪枝优化,通过目标精度最优化,每层选择不同的阈值,将较小的权值置0,从而自适应地实现最优的剪枝方法,平衡了压缩和精度的关系,达到优化网络模型的目的;
2)提供一种神经网络模型的优化系统,能够实现上述优化方法。
附图说明
图1是本发明的较佳的实施例中,一种神经网络模型的优化方法的流程示意图;
图2是权值在0值附近分布的示意图;
图3是本发明的较佳的实施例中,一种神经网络的优化系统的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
现有技术中往往通过权值剪枝(Pruning)和量化(Quantization)来对网络模型进行优化。现有的权值剪枝,其原理为:从卷积层中的参数分布了解到大部分权值集中在0值附近,而这些权值对于网络的贡献较小。因此可以通过剪枝的方式将处于0值附近的较小的权值置为0,使这些权值不被激活,则能够着重训练剩下的非零权值,最终在保证网络精度不变的情况下达到压缩尺寸的目的。现有技术中通常采用剪枝的方式对网络模型进行优化,以得到减少网络复杂度、稀疏网络、提升网络泛化能力等目的。
现有技术中也可以通过权值量化的方式对网络模型进行优化,其原理是基于权值聚类,将连续分布的权值离散化,从而达到减小需要存储的权值数量的目的。
上述方法虽然对网络模型均起到了一定的优化效果,但是这些优化过程都是在模型的训练阶段进行的,针对已经训练好的网络模型均无法适用。对于已经训练好的网络模型,只能通过修改模型定义文件,重新微调(finetune)网络的方式来获得优化后的网络模型。然而在实际应用中,如果缺乏一定的徐连数据或者已经训练好的网络模型是无法重新训练的网络,那就无法对网络模型进行进一步优化。
鉴于上文中提到的问题,现提供一种神经网络模型的优化方法。首先预先训练形成一预训练模型,预训练模型中包括多个依次连接的卷积层和全连接层,并针对每个卷积层和全连接层分别设置一阈值。上述预训练模型是由预先准备的训练数据,经过现有技术中的神经网络训练方式训练得到的神经网络模型,该神经网络模型中的卷积层和全连接层及其连接关系均与现有技术中相同,在此不再赘述。
则上述优化方法具体如图1中所示,包括:
步骤S1,加载预训练模型,分析并获取预训练模型中各个卷积层和全连接层的权值;
步骤S2,针对每个卷积层或全连接层,保留大于等于阈值的所有权值,以作为待计算权值;
步骤S3,将所有待计算权值整合形成一权值文件,并依据同一个测试数据集进行前向计算,以得到权值文件的准确度和计算量;
步骤S4,针对每个卷积层和全连接层分别更改阈值,随后返回步骤S2;
重复多次步骤S2至步骤S4,以获取多个权值文件的准确度和计算量并进行比对,以找到最优的权值文件,并依据最优的权值文件对预训练模型进行优化后输出。
具体地,本实施例中,首先加载已经训练完成的预训练模型,并对该预训练模型进行分析,分析的目的是获取预训练模型中各个卷积层和全连接层的权值。
本实施例中,预先对预训练层的每层卷积层和全连接层分别设置不同的阈值。则在上述步骤S2之后,针对每层卷积层以及每层全连接层,分别将该层的所有权值与该层所对应的阈值进行比较,并将小于阈值的权值进行剪除,即对每层都进行剪枝处理,剩下的权值就作为待计算权值。
随后,上述步骤S3,将关联于本次阈值设置的所有待计算权值整合形成一权值文件,并依据一预先准备好的测试数据集对该权值文件进行前向计算。具体地,所谓对权值文件进行前向计算,是指依据权值文件中的各待计算权值保存为对应的模型(该模型即为其中各卷积层和全连接层保留权值文件中的待计算权值时的预训练模型)进行前向计算,并根据前向计算的结果得到该权值文件下的准确度的计算量,以供后续进行比对使用。
本实施例中,在完成一次前向计算后,对上述各个卷积层和全连接层的阈值都进行更改,并再执行一次步骤S2-步骤S4,以得到另一个权值文件的准确度和计算量。上述过程重复进行,从而得到若干个权值文件的准确度和计算量,随后将若干个权值文件进行比对,从而得到其中准确度和计算量最优的权值文件,其所对应的网络模型就是经过优化的预训练模型。
具体地,所谓准确度,是指形成的多个权值文件在网络中进行前向计算并在指定的测试集上得到的预测的准确度,该准确度越高则表明对应的权值文件效果越好。所谓计算量最优,是指某个权值文件在网络中前向计算时所耗费的计算时间,该计算量越少则表明对应的权值文件效果越好。则上述比对过程中,目的是要找到准确度高且计算量少的权值文件。
比对的方式可以采用直接排序的方式进行,例如以准确度由高至低排序形成第一序列,并以计算量由少至多排序形成第二序列,获取每个权值文件在第一序列的第一顺序以及在第二序列的第二顺序,并将第一顺序和第二顺序相加得到该权值文件的综合顺序。选取综合顺序最小的作为最优的权值文件。
比对的方式也可以采用加权排序的方式进行,例如为准确度赋予一个第一加权值,为计算量赋予一个第二加权值,并针对每个权值文件通过加权计算的方式计算得到准确度和计算量的综合加权值,随后根据综合加权值来选择最优的权值文件。
比对的方式还可以采用其他合适的方式进行,在此不再赘述。
本发明的较佳的实施例中,上述步骤S1中,通过深度学习框架工具对预训练模型进行加载。进一步地,可以采用caffe等深度学习框架工具对预训练模型(model)进行加载,并采用上述深度学习框架工具分析并统计各卷积层和全连接层中的权值分布情况,以获取权值。
本发明的较佳的实施例中,获取的各个所述卷积层和所述全连接层的权值分布如图2中所示,其权值分布主要处于0值附近,即权值分布以0值为原点展开。则针对每层卷积层和全连接层而言,将小于该层所对应的阈值的权值置为N/A,并且保留大于等于等于该阈值的权值,以作为待计算权值。上述过程即为对各个卷积层和全连接层进行权值的剪枝处理,经过剪枝后,各层中处于0值附近的数值较小的权值被置为N/A,只保留剩余的权值。
本发明的较佳的实施例中,上述计算量为权值文件的平均前向计算的时间量。即上述比对过程中,参与比对的权值文件前向计算的结果中包括前向计算的准确度,以及平均前向计算的时间量。
则本发明的较佳的实施例中,通过对多个权值文件进行前向计算后结果的比对,找到最优的权值文件(也即多个权值的组合),并将该权值文件所对应的模型作为经过优化的预训练模型。
本发明的较佳的实施例中,上述所有权值文件的前向计算均在同一个测试数据集上进行,以保证测试环境的一致性。
下文中以一个示例说明上述优化过程:
1)预先训练形成一个预训练模型,该预训练模型即本次优化的对象;
2)通过caffee等深度学习框架工具加载预训练模型,并且分析和统计各卷积层和全连接层的权值分布情况,得到0值附近的权值分布图(如图2中所示)。假设当前的预训练模型中有m个卷积层,n个全连接层,则根据上述分析和统计可以得到m+n个权值分布状态图G1,G2,G3,...Gm+n
3)针对每个卷积层和全连接层,预先设定一个相应的阈值,则G1所对应的阈值为F1,G1所对应的阈值为F2,以此类推,形成一个具有m+n个阈值的序列{F1,F2,F3,...Fm+n},将第一次设定阈值时所形成的阈值列表作为列表S1
4)针对阈值序列S1,对各个卷积层和全连接层的权值进行剪枝,小于对应阈值的权值被置为N/A,保留剩余的权值并作为待计算权值,将被保留的剩余的权值作为权值文件,并保存为与阈值列表S1所对应的模型Model1
5)对Model1在预设的一个测试数据集D上进行前向计算,得到准确度A1和平均前向计算的时间量T1;
6)改变阈值,改变的次数可以为多次,具体次数以实际测试需要为准。每次改变形成一个新的阈值列表Si,随后针对阈值列表Si对各层进行剪枝处理,得到模型Modeli,随后进行前向计算得到准确度Ai和平均前向计算的时间量Ti
7)上述过程重复多次得到若干个{Modeli}以及对应的{Ai}和{Ti},通过对比不同的时间量和准确度就可以得到最优的模型。最终得到的最优的模型就是经过优化后的预训练模型。
本发明的较佳的实施例中,基于上文中所述的神经网络模型的优化方法,现提供一种神经网络模型的优化系统,该优化系统中,同样预先训练形成一预训练模型,预训练模型中包括多个依次连接的卷积层和全连接层,并针对每个卷积层和全连接层分别设置一阈值;
上述优化系统具体如图3中所示,包括:
分析单元1,用于加载预训练模型并进行分析,以获取预训练模型中各个卷积层和全连接层的权值;
剪枝单元2,连接分析单元1,用于针对每个卷积层或全连接层,保留大于等于阈值的所有权值,以作为待计算权值;
整合单元3,连接剪枝单元2,用于将所有待计算权值整合形成一权值文件;
测试单元4,连接整合单元3,用于依据同一个测试数据集,对所有权值文件进行前向计算,以得到权值文件的准确度和计算量并输出;
变更单元5,分别连接测试单元4和分析单元1,用于在测试单元对一个权值文件进行前向计算完毕后,变更每个卷积层和全连接层的阈值;
比对单元6,连接测试单元4,用于将不同的权值文件进行前向计算得到的准确度和计算量进行比对,以找到最优的权值文件,并依据最优的权值文件对预训练模型进行优化后输出。
本发明的较佳的实施例中,上述分析单元1获取的各个卷积层和全连接层的权值分布在0值附近。
本发明的较佳的实施例中,上述剪枝单元2将小于阈值的所有权值设置为N/A,并剪枝除去。
本发明的较佳的实施例中,计算量为权值文件的平均前向计算的时间量。
以上所述仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书及图示内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。

Claims (9)

1.一种神经网络模型的优化方法,其特征在于,预先训练形成一预训练模型,所述预训练模型中包括多个依次连接的卷积层和全连接层,并针对每个所述卷积层和所述全连接层分别设置一阈值;
对所述预训练模型进行优化的过程具体包括:
步骤S1,加载所述预训练模型,分析并获取所述预训练模型中各个所述卷积层和所述全连接层的权值;
步骤S2,针对每个所述卷积层或所述全连接层,保留大于等于所述阈值的所有所述权值,以作为待计算权值;
步骤S3,将所有所述待计算权值整合形成一权值文件,并依据同一个测试数据集进行前向计算,以得到所述权值文件的准确度和计算量;
步骤S4,针对每个所述卷积层和所述全连接层分别更改所述阈值,随后返回所述步骤S2;
重复多次所述步骤S2至所述步骤S4,以获取多个所述权值文件的所述准确度和所述计算量并进行比对,以找到最优的所述权值文件,并依据最优的所述权值文件对所述预训练模型进行优化后输出。
2.如权利要求1所述的优化方法,其特征在于,所述步骤S1中,通过深度学习框架工具对所述预训练模型进行加载。
3.如权利要求1所述的优化方法,其特征在于,所述步骤S1中,获取的各个所述卷积层和所述全连接层的权值分布在0值附近。
4.如权利要求1所述的优化方法,其特征在于,所述步骤S2中,小于所述阈值的所有所述权值均被设置为N/A,并被剪枝除去。
5.如权利要求1所述的优化方法,其特征在于,所述步骤S3中,所述计算量为所述权值文件的平均前向计算的时间量。
6.一种神经网络模型的优化系统,其特征在于,预先训练形成一预训练模型,所述预训练模型中包括多个依次连接的卷积层和全连接层,并针对每个所述卷积层和所述全连接层分别设置一阈值;
所述优化系统具体包括:
分析单元,用于加载所述预训练模型并进行分析,以获取所述预训练模型中各个所述卷积层和所述全连接层的权值;
剪枝单元,连接所述分析单元,用于针对每个所述卷积层或所述全连接层,保留大于等于所述阈值的所有所述权值,以作为待计算权值;
整合单元,连接所述剪枝单元,用于将所有所述待计算权值整合形成一权值文件;
测试单元,连接所述整合单元,用于依据同一个测试数据集,对所有所述权值文件进行前向计算,以得到所述权值文件的准确度和计算量并输出;
变更单元,分别连接所述测试单元和所述分析单元,用于在所述测试单元对一个所述权值文件进行前向计算完毕后,变更每个所述卷积层和所述全连接层的所述阈值;
比对单元,连接所述测试单元,用于将不同的所述权值文件进行前向计算得到的所述准确度和所述计算量进行比对,以找到最优的所述权值文件,并依据最优的所述权值文件对所述预训练模型进行优化后输出。
7.如权利要求6所述的优化系统,其特征在于,所述分析单元获取的各个所述卷积层和所述全连接层的权值分布在0值附近。
8.如权利要求6所述的优化系统,其特征在于,所述剪枝单元将小于所述阈值的所有所述权值设置为N/A,并剪枝除去。
9.如权利要求6所述的优化系统,其特征在于,所述计算量为所述权值文件的平均前向计算的时间量。
CN201810766131.9A 2018-07-12 2018-07-12 一种神经网络模型的优化方法及系统 Pending CN108921287A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810766131.9A CN108921287A (zh) 2018-07-12 2018-07-12 一种神经网络模型的优化方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810766131.9A CN108921287A (zh) 2018-07-12 2018-07-12 一种神经网络模型的优化方法及系统

Publications (1)

Publication Number Publication Date
CN108921287A true CN108921287A (zh) 2018-11-30

Family

ID=64411295

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810766131.9A Pending CN108921287A (zh) 2018-07-12 2018-07-12 一种神经网络模型的优化方法及系统

Country Status (1)

Country Link
CN (1) CN108921287A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020237688A1 (zh) * 2019-05-31 2020-12-03 深圳市大疆创新科技有限公司 网络结构搜索的方法及装置、计算机存储介质和计算机程序产品
CN112232477A (zh) * 2019-07-15 2021-01-15 阿里巴巴集团控股有限公司 图像数据处理方法、装置、设备及介质
CN112418393A (zh) * 2020-10-23 2021-02-26 联想(北京)有限公司 一种模型裁剪方法及设备
CN113128664A (zh) * 2021-03-16 2021-07-16 广东电力信息科技有限公司 神经网络压缩方法、装置、电子设备及存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020237688A1 (zh) * 2019-05-31 2020-12-03 深圳市大疆创新科技有限公司 网络结构搜索的方法及装置、计算机存储介质和计算机程序产品
CN112232477A (zh) * 2019-07-15 2021-01-15 阿里巴巴集团控股有限公司 图像数据处理方法、装置、设备及介质
CN112418393A (zh) * 2020-10-23 2021-02-26 联想(北京)有限公司 一种模型裁剪方法及设备
CN113128664A (zh) * 2021-03-16 2021-07-16 广东电力信息科技有限公司 神经网络压缩方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN108921287A (zh) 一种神经网络模型的优化方法及系统
CN108776683A (zh) 一种基于孤立森林算法和神经网络的电力运维数据清洗方法
CN113361680B (zh) 一种神经网络架构搜索方法、装置、设备及介质
CN110175628A (zh) 一种基于自动搜索与知识蒸馏的神经网络剪枝的压缩算法
CN107368891A (zh) 一种深度学习模型的压缩方法和装置
CN110660478A (zh) 一种基于迁移学习的癌症图像预测判别方法和系统
CN110135635B (zh) 一种区域电力饱和负荷预测方法及系统
CN111611488B (zh) 基于人工智能的信息推荐方法、装置、电子设备
CN103745273A (zh) 一种半导体制造过程的多性能预测方法
CN113130014B (zh) 一种基于多分支神经网络的稀土萃取模拟方法及系统
CN111722139B (zh) 基于可微连续映射的锂电池健康监测模型自学习方法
CN111008726A (zh) 一种电力负荷预测中类图片转换方法
CN113139570A (zh) 一种基于最优混合估值的大坝安全监测数据补全方法
CN116109004A (zh) 一种绝缘子泄漏电流的预测方法、装置、设备及介质
CN113468796A (zh) 一种基于改进随机森林算法的电压缺失数据辨识方法
Krishnan et al. Small-world-based structural pruning for efficient FPGA inference of deep neural networks
CN116245019A (zh) 一种基于Bagging抽样及改进随机森林算法的负荷预测方法、系统、装置及存储介质
CN114936708A (zh) 基于边云协同任务卸载的故障诊断优化方法及电子设备
CN117573328B (zh) 基于多模型驱动的并行任务快速处理方法及系统
CN113887717A (zh) 一种基于深度学习预测神经网络训练时长的方法
TWI746095B (zh) 使用相異訓練源訓練分類模型及應用其之推論引擎
CN112200208B (zh) 基于多维度特征融合的云工作流任务执行时间预测方法
CN108829846A (zh) 一种基于用户特征的业务推荐平台数据聚类优化系统及方法
Sun et al. Dynamic Intelligent Supply-Demand Adaptation Model Towards Intelligent Cloud Manufacturing.
CN116882584A (zh) 一种航班延误预测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20181130

RJ01 Rejection of invention patent application after publication