CN110276448A - 一种模型压缩方法及装置 - Google Patents
一种模型压缩方法及装置 Download PDFInfo
- Publication number
- CN110276448A CN110276448A CN201910480533.7A CN201910480533A CN110276448A CN 110276448 A CN110276448 A CN 110276448A CN 201910480533 A CN201910480533 A CN 201910480533A CN 110276448 A CN110276448 A CN 110276448A
- Authority
- CN
- China
- Prior art keywords
- model
- iteration
- mutation
- parent
- fitness function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000006835 compression Effects 0.000 title claims abstract description 31
- 238000007906 compression Methods 0.000 title claims abstract description 31
- 230000035772 mutation Effects 0.000 claims abstract description 170
- 230000006870 function Effects 0.000 claims description 51
- 238000010353 genetic engineering Methods 0.000 claims description 8
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 230000002068 genetic effect Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 4
- 238000011156 evaluation Methods 0.000 claims description 4
- 230000006978 adaptation Effects 0.000 claims description 2
- 230000002547 anomalous effect Effects 0.000 claims 1
- 238000004364 calculation method Methods 0.000 claims 1
- 238000005516 engineering process Methods 0.000 abstract description 5
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000013461 design Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000013138 pruning Methods 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000012804 iterative process Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000002028 premature Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/12—Computing arrangements based on biological models using genetic models
- G06N3/126—Evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Genetics & Genomics (AREA)
- Physiology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及金融科技领域,并公开了一种模型压缩方法及装置,方法包括:获取父代模型;对父代模型进行变异操作,得到初始子代种群;将初始子代种群作为迭代种群,根据迭代种群的每个变异模型的适应性函数值确定迭代子群;将迭代子群中的每个变异模型进行变异操作,得到迭代后代;将迭代后代和迭代子群作为迭代种群重复进行迭代,直至满足迭代终止条件,适应性函数值是根据变异模型的模型规模、变异模型的模型计算时间以及变异模型的模型性能确定的;根据迭代终止时的迭代后代中每个变异模型的适应性函数值确定目标子代模型。通过迭代能够得到综合考虑模型规模、模型计算时间以及模型性能的子代模型,兼顾了计算速度和模型性能。
Description
技术领域
本发明涉及金融科技(Fintech)技术领域,尤其涉及一种模型压缩方法及装置。
背景技术
在深度学习技术领域中,用户可以通过训练模型得到预测效果较好的深度学习网络模型,神经网络模型被广泛的应用到图像、语音、自然语言处理等任务上,并且不断取得进步,逐渐成为研究热点。然而,虽然神经网络模型性能强大,但是由于参数庞大、存储消耗、计算耗时,难以应用到资源受限的平台上。为了解决这个问题,通常可以对结构较为复杂的深度网络模型进行压缩,得到网络结构相对简单、预测性能较好的深度学习网络模型。
现有技术中通常采用知识萃取或者结构搜索的技术进行深度网络模型压缩,采用知识萃取进行模型压缩时,通常需要设计一个小的子代模型,用小的子代模型去拟合大的父代模型输出的“知识”。子代模型的设计,所以需要专家知识和人工经验,设计难度较高。而使用结构搜索进行模型压缩时需要利用强化学习来训练循环神经网络,自动搜索性能优良的网络结构,但是这种方法的搜索空间巨大,需要大量的计算资源。
综上,目前亟需一种模型压缩方法,用以提高压缩得到的模型(比如子代模型)的预测效果。
发明内容
有鉴于此,本发明实施例提供一种模型压缩方法及装置,至少解决了现有技术存在的问题。
一方面,本发明实施例提供一种模型压缩方法,包括:
获取父代模型;
对所述父代模型进行变异操作,得到初始子代种群,所述初始子代种群中至少包括两个由所述父代模型进行变异操作后得到的变异模型,所述变异操作至少包括压缩操作;
将所述初始子代种群作为迭代种群,根据所述迭代种群的每个变异模型的适应性函数值确定迭代子群;将所述迭代子群中的每个变异模型进行变异操作,得到迭代后代;将所述迭代后代和所述迭代子群作为所述迭代种群重复进行迭代,直至满足迭代终止条件,所述适应性函数值是根据所述变异模型的模型规模、所述变异模型的模型计算时间以及所述变异模型的模型性能确定的;
根据迭代终止时的迭代后代中每个变异模型的适应性函数值确定目标子代模型。
本发明实施例中,通过对父代模型的变异操作,得到初始子代种群,并根据初始子代种群进行迭代,通过迭代后代以及根据所述变异模型的模型规模、所述变异模型的模型计算时间以及所述变异模型的模型性能确定的适应性函数值来确定目标子代模型,通过本发明实施例中的模型压缩方法,在每次迭代过程中,子代模型群组中可以继续迭代的都是对父代模型进行压缩后得到的,并能够得到综合考虑模型规模、模型计算时间以及模型性能的子代模型,即这些子代模型在模型性能上又是最接近父代模型的最优模型,所以在达到模型压缩目标的同时,兼顾了计算速度和模型性能。
所述将所述初始子代种群作为遗传父代,根据遗传算法得到遗传子代,并根据所述遗传子代以及所述遗传父代作为新的遗传父代进行遗传操作,包括:
根据所述遗传父代中的每个变异模型的适应性函数值确定迭代遗传父代;
根据所述迭代遗传父代以及所述遗传算法得到所述遗传子代;
根据所述遗传子代以及所述迭代遗传父代作为新的遗传父代进行遗传操作。
在本发明实施例中,在迭代过程中将适应性函数值高的模型作为下次迭代的父代,有利于提高迭代子代的适应性函数,便于得到性能更好的子代模型。
可选的,所述适应性函数值是根据所述变异模型的模型规模、所述变异模型的模型计算时间以及所述变异模型的模型性能确定的,包括:
根据所述变异模型的模型规模、所述变异模型的模型计算时间、所述变异模型的模型性能以及所述模型规模的权重、所述模型计算时间的权重以及所述模型性能的权重确定所述适应性函数值。
在本发明实施例中,通过对影响适应性函数的因子设置权重能够动态调整适应性函数值,并进一步影响压缩结果。
可选的,所述根据所述变异模型的模型规模、所述变异模型的模型计算时间、所述变异模型的模型性能以及所述模型规模的权重、所述模型计算时间的权重以及所述模型性能的权重确定所述适应性函数值,包括:
F(N)=-α*S(N)-β*T(N)+γ*P(N)
其中,F(N)为所述适应性函数值,α、β、γ为权重系数,S(N)为模型规模,T(N)为模型计算时间,P(N)为模型性能。
本发明实施例中,由于希望得到规模小、计算时间好切性能优的子代模型,所以赋予模型规模以及计算时间为负权重,以便得到更好的子代模型。
一方面,本发明实施例提供一种模型压缩装置,包括:
获取单元,用于获取父代模型;
迭代单元,用于对所述父代模型进行变异操作,得到初始子代种群,所述初始子代种群中至少包括两个由所述父代模型进行变异操作后得到的变异模型,所述变异操作至少包括压缩操作;将所述初始子代种群作为迭代种群,根据所述迭代种群的每个变异模型的适应性函数值确定迭代子群;将所述迭代子群中的每个变异模型进行变异操作,得到迭代后代;将所述迭代后代和所述迭代子群作为所述迭代种群重复进行迭代,直至满足迭代终止条件,所述适应性函数值是根据所述变异模型的模型规模、所述变异模型的模型计算时间以及所述变异模型的模型性能确定的;
压缩模型确定单元,用于根据迭代终止时的迭代后代中每个变异模型的适应性函数值确定目标子代模型。
可选的,所述迭代单元具体用于:
根据所述遗传父代中的每个变异模型的适应性函数值确定迭代遗传父代;
根据所述迭代遗传父代以及所述遗传算法得到所述遗传子代;
根据所述遗传子代以及所述迭代遗传父代作为新的遗传父代进行遗传操作。
可选的,所述迭代单元具体用于:
根据所述变异模型的模型规模、所述变异模型的模型计算时间、所述变异模型的模型性能以及所述模型规模的权重、所述模型计算时间的权重以及所述模型性能的权重确定所述适应性函数值。
可选的,所述迭代单元具体用于:
F(N)=-α*S(N)-β*T(N)+γ*P(N)
其中,F(N)为所述适应性函数值,α、β、γ为权重系数,S(N)为模型规模,T(N)为模型计算时间,P(N)为模型性能。
一方面,本发明实施例提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现模型压缩方法的步骤。
一方面,本发明实施例提供了一种计算机可读存储介质,其存储有可由计算机设备执行的计算机程序,当所述程序在计算机设备上运行时,使得所述计算机设备执行模型压缩的步骤。
附图说明
图1为本发明实施例提供的一种模型压缩方法的流程示意图;
图2为本发明实施例提供的一种模型压缩方法的流程示意图;
图3为本发明实施例提供的一种模型压缩装置的结构示意图;
图4为本发明实施例提供的一种计算机设备的结构示意图。
具体实施方式
为了使本申请的目的、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
为了方便理解,下面对本申请实施例中涉及的名词进行解释。
父代模型:复杂的深度神经网络结构但模型性能较好的模型,会指导子代模型到达在简化参数之后最好的模型效果。
子代模型:轻量级的网络结构,并学习父代模型的性能。
目前模型压缩相关的方法可以归纳为4种:剪枝量化、矩阵分解、知识萃取、结构搜索。
剪枝量化:剪枝是指通过删除模型中冗余参数,比如把接近0的参数规整到0,增加网络的稀疏性;量化是通过减少模型中每个参数的比特数,例如把32比特浮点数变成8比特整数,从而压缩模型。
矩阵分解:模型中大矩阵分解为几个小矩阵相乘,比如将全连接层矩阵使用奇异值分解为几个小矩阵,减少全连接层矩阵参数。
知识萃取:预先训练好的大模型为父代模型(Teacher Model),压缩后的小模型为子代模型(Student Model),将父代模型输出作为真实值,通过衡量子代模型输出和父代模型输出之间的损失,通过梯度下降更新子代模型参数,使得和父代模型更加接近。
结构搜索:原本是期望通过强化学习等方式自动搜索最佳网络结构,使得生成的模型在测试集上达到尽可能高的准确率。在生成的网络结构时,可以限制新生成模型比原始大模型小,此时结构搜索就相当于压缩模型。
在具体实践过程中,知识萃取的方法通常需要设计一个小的子代模型,用小的子代模型去拟合大的父代模型输出的“知识”。子代模型的设计,需要专家知识和人工经验,设计难度较高。而现有的结构搜索方法,通常是利用循环神经网络来生成网络结构的描述,并且利用强化学习来训练循环神经网络,自动搜索性能优良的网络结构。但是,这种方法的搜索空间巨大,需要大量的计算资源。
另外模型在部署时,也会受到计算资源、业务逻辑等应用指标的限制,需要找到模型大小、计算速度、模型性能之间的平衡。比如,尽管一个超大模型性能非常好,但是超过存储限制,或者计算时间超长不满足业务指标,显然不能符合实际需要。同理,一个模型被压缩到超小且计算超快,但是预测精度很差,也是不符合业务需要的。
基于上述部署的缺点,本发明实施例提供一种模型压缩方法,具体如图1所示,包括以下步骤:
步骤S101,获取的父代模型为具有复杂的深度神经网络结构但模型性能较好的模型,父代模型可以为任一具有上述特征的模型中的任一个,也可以是具有上述特征的模型中的至少一个。
步骤S102,对所述父代模型进行变异操作,得到初始子代种群,所述初始子代种群中至少包括两个由所述父代模型进行变异操作后得到的变异模型,所述变异操作至少包括压缩操作。
具体的,本发明实施例使用遗传变异算法以及父代模型得到子代模型。在本发明实施例中,对获得的父代模型进行变异操作,得到可以进行遗传操作的初始种群。
在本发明实施例中,由于最终的目的是对父代模型进行压缩,所以在变异操作中至少包括压缩操作,本发明实施例中的压缩操作可以使用现有技术中一切对模型的压缩操作,具体的,删除层、增加层内稀疏度、层内变窄、删除多层构成的块等一些基本操作都为压缩操作。
可选的,在本发明实施例中,为了避免遗传变异过程中过早收敛,所以本发明实施例中,还可以通过父代模型以及一些增加父代模型复杂度的方法得到初始子代模型,例如增加层、减少层内稀疏度、层内变宽、增加多层构成的块等一些基本操作。
可选的,在本发明实施例中,初始子代种群中的变异模型可以是通过多个压缩操作得到的,也可以是通过一个压缩操作得到的,例如,父代模型A经过第一增加层操作得到变异模型a,父代模型A经过第二增加层操作得到变异模型b,父代模型A经过第三增加层操作得到变异模型c;或者父代模型A经过第一增加层操作得到变异模型a,经过第一减少层内稀疏度操作得到变异模型d,经过第一层内变窄操作得到变异模型e;或者父代模型A经过第一增加层操作得到变异模型a,经过第一减少层内稀疏度操作得到变异模型d,经过第一层内变窄操作得到变异模型e,经过第一增加层操作得到变异模型f。
步骤S103,将所述初始子代种群作为迭代种群,根据所述迭代种群的每个变异模型的适应性函数值确定迭代子群;将所述迭代子群中的每个变异模型进行变异操作,得到迭代后代;将所述迭代后代和所述迭代子群作为所述迭代种群重复进行迭代,直至满足迭代终止条件,所述适应性函数值是根据所述变异模型的模型规模、所述变异模型的模型计算时间以及所述变异模型的模型性能确定的。
具体的,在本发明实施例中,在遗传变异操作过程中,以初始子代种群为迭代种群开始进行迭代,最终能够得到目标种群,并从目标种群中确定目标子代模型。
在本发明实施例中,使用上述的变异操作方法,使得迭代种群继续迭代,直至迭代终止条件,具体的,根据迭代种群中每个变异模型的适应性函数值来确定迭代父代,并根据迭代父代确定迭代子代。
在本发明实施例中,为了平衡模型大小、运行时间、模型性能等目标,通过定义模型适应性函数,来衡量子代模型学习父代模型“知识”的能力。可以将变异模型中适应性函数值较优的变异模型作为迭代父代,并根据迭代父代的变异操作得到变异子代,并将迭代子代和迭代父代一起作为下次迭代的迭代种群。在本发明实施例中,模型大小指的是模型神经网络的复杂程度,模型的运行时间是指模型的计算时间,即从输入到输出的时间,模型性能指的模型的准确率(precision)、召回率(recall)等性能指标。
也就是说,将初始子代种群作为迭代种群,并确定迭代种群中每个变异模型的适应性函数值,将适应性函数值较优的变异模型作为迭代子代,然后将迭代子代进行变异操作,得到迭代后代,将迭代后代和迭代子群作为所述迭代种群重复进行迭代,直至满足迭代终止条件。在本发明实施例中,迭代终止条件可以为迭代次数或者迭代收敛。
示例性的,父代模型为1个模型,经过变异操作得到2个变异模型,分别为变异模型A以及变异模型B,变异模型A以及变异模型B构成初始子代种群,初始子代种群中适应性函数较优的变异模型为变异模型A,将变异模型A进行变异操作,得到变异模型C、变异模型D以及变异模型E;将变异模型A、变异模型C、变异模型D以及变异模型E作为下次迭代的迭代种群,即继续确定变异模型A、变异模型C、变异模型D以及变异模型E中适应性函数较优的变异模型进行变异操作。
可选的,在本发明实施例中,根据变异模型的模型规模、变异模型的模型计算时间、变异模型的模型性能以及模型规模的权重、模型计算时间的权重以及模型性能的权重确定适应性函数值,也就是说,为了可以动态调整适应性函数值,可以通过设置权重来实现。
进一步地,可以通过公式1确定适应性函数值:
F(N)=-α*S(N)-β*T(N)+γ*P(N) 公式1
其中,F(N)为所述适应性函数值,α、β、γ为权重系数,S(N)为模型规模,T(N)为模型计算时间,P(N)为模型性能。在模型压缩场景下,希望获取更小更快的模型,所以模型规模、模型计算时间两项取反。
步骤S104,迭代终止时的迭代后代可以作为目标种群,确定目标种群中每个变异模型的适应性函数值,并按照适应性函数值由高到低的顺序进行排序,取排序在前N(N大于等于1)个的变异模型为目标子代模型,完成从父代模型转换到子代模型的过程。
为了更好的解释本申请实施例,下面结合具体的实施场景描述本申请实施例提供的一种模型压缩方法,具体包括:
步骤S201,获取父代模型A;
步骤S202,根据父代模型A进行变异操作,得到变异模型a,变异模型b以及变异模型c;
步骤S203,确定变异模型a,变异模型b以及变异模型c的适应性函数值;
步骤S204,将适应性函数值较优的变异模型a,变异模型b进行变异操作,得到变异模型a1,变异模型a2,变异模型b1以及变异模型b2;
步骤S205,将变异模型a1,变异模型a2,变异模型b1以及变异模型b2,变异模型a,变异模型b作为下次迭代的迭代种群,直到迭代终止条件,得到目标种群;
步骤S206,将目标种群中适应性函数值排序靠前的M(M大于等于1)个变异模型作为目标子代模型。
基于相同的技术构思,本申请实施例提供了一种模型压缩装置,如图3所示,该装置300包括:
获取单元301,用于获取父代模型;
迭代单元302,用于对所述父代模型进行变异操作,得到初始子代种群,所述初始子代种群中至少包括两个由所述父代模型进行变异操作后得到的变异模型,所述变异操作至少包括压缩操作;将所述初始子代种群作为迭代种群,根据所述迭代种群的每个变异模型的适应性函数值确定迭代子群;将所述迭代子群中的每个变异模型进行变异操作,得到迭代后代;将所述迭代后代和所述迭代子群作为所述迭代种群重复进行迭代,直至满足迭代终止条件,所述适应性函数值是根据所述变异模型的模型规模、所述变异模型的模型计算时间以及所述变异模型的模型性能确定的;
压缩模型确定单元303,用于根据迭代终止时的迭代后代中每个变异模型的适应性函数值确定目标子代模型。
进一步地,所述迭代单元302具体用于:
根据所述遗传父代中的每个变异模型的适应性函数值确定迭代遗传父代;
根据所述迭代遗传父代以及所述遗传算法得到所述遗传子代;
根据所述遗传子代以及所述迭代遗传父代作为新的遗传父代进行遗传操作。
进一步地,所述迭代单元302具体用于:
根据所述变异模型的模型规模、所述变异模型的模型计算时间、所述变异模型的模型性能以及所述模型规模的权重、所述模型计算时间的权重以及所述模型性能的权重确定所述适应性函数值。
进一步地,所述迭代单元302具体用于:
F(N)=-α*S(N)-β*T(N)+γ*P(N)
其中,F(N)为所述适应性函数值,α、β、γ为权重系数,S(N)为模型规模,T(N)为模型计算时间,P(N)为模型性能。
基于相同的技术构思,本申请实施例提供了一种计算机设备,如图4所示,包括至少一个处理器401,以及与至少一个处理器连接的存储器402,本申请实施例中不限定处理器401与存储器402之间的具体连接介质,图4中处理器401和存储器402之间通过总线连接为例。总线可以分为地址总线、数据总线、控制总线等。
在本申请实施例中,存储器402存储有可被至少一个处理器401执行的指令,至少一个处理器401通过执行存储器402存储的指令,可以执行前述的模型压缩方法中所包括的步骤。
其中,处理器401是计算机设备的控制中心,可以利用各种接口和线路连接终端设备的各个部分,通过运行或执行存储在存储器402内的指令以及调用存储在存储器402内的数据,从而获得客户端地址。可选的,处理器401可包括一个或多个处理单元,处理器401可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器401中。在一些实施例中,处理器401和存储器402可以在同一芯片上实现,在一些实施例中,它们也可以在独立的芯片上分别实现。
处理器401可以是通用处理器,例如中央处理器(CPU)、数字信号处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,可以实现或者执行本申请实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
存储器402作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块。存储器402可以包括至少一种类型的存储介质,例如可以包括闪存、硬盘、多媒体卡、卡型存储器、随机访问存储器(Random AccessMemory,RAM)、静态随机访问存储器(Static Random Access Memory,SRAM)、可编程只读存储器(Programmable Read Only Memory,PROM)、只读存储器(Read Only Memory,ROM)、带电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、磁性存储器、磁盘、光盘等等。存储器402是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。本申请实施例中的存储器402还可以是电路或者其它任意能够实现存储功能的装置,用于存储程序指令和/或数据。
基于相同的技术构思,本申请实施例提供了一种计算机可读存储介质,其存储有可由计算机设备执行的计算机程序,当所述程序在计算机设备上运行时,使得所述计算机设备执行模型压缩方法的步骤。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本申请上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本申请各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种模型压缩方法,其特征在于,所述方法包括:
获取父代模型;
对所述父代模型进行变异操作,得到初始子代种群,所述初始子代种群中至少包括两个由所述父代模型进行变异操作后得到的变异模型,所述变异操作至少包括压缩操作;
将所述初始子代种群作为迭代种群,根据所述迭代种群的每个变异模型的适应性函数值确定迭代子群;将所述迭代子群中的每个变异模型进行变异操作,得到迭代后代;将所述迭代后代和所述迭代子群作为所述迭代种群重复进行迭代,直至满足迭代终止条件,所述适应性函数值是根据所述变异模型的模型规模、所述变异模型的模型计算时间以及所述变异模型的模型性能确定的;
根据迭代终止时的迭代后代中每个变异模型的适应性函数值确定目标子代模型。
2.根据权利要求1所述的方法,其特征在于,所述将所述初始子代种群作为遗传父代,根据遗传算法得到遗传子代,并根据所述遗传子代以及所述遗传父代作为新的遗传父代进行遗传操作,包括:
根据所述遗传父代中的每个变异模型的适应性函数值确定迭代遗传父代;
根据所述迭代遗传父代以及所述遗传算法得到所述遗传子代;
根据所述遗传子代以及所述迭代遗传父代作为新的遗传父代进行遗传操作。
3.根据权利要求1所述的方法,其特征在于,所述适应性函数值是根据所述变异模型的模型规模、所述变异模型的模型计算时间以及所述变异模型的模型性能确定的,包括:
根据所述变异模型的模型规模、所述变异模型的模型计算时间、所述变异模型的模型性能以及所述模型规模的权重、所述模型计算时间的权重以及所述模型性能的权重确定所述适应性函数值。
4.根据权利要求3所述的方法,其特征在于,所述根据所述变异模型的模型规模、所述变异模型的模型计算时间、所述变异模型的模型性能以及所述模型规模的权重、所述模型计算时间的权重以及所述模型性能的权重确定所述适应性函数值,包括:
F(N)=-α*S(N)-β*T(N)+γ*P(N)
其中,F(N)为所述适应性函数值,α、β、γ为权重系数,S(N)为模型规模,T(N)为模型计算时间,P(N)为模型性能。
5.一种模型压缩装置,其特征在于,所述装置包括:
获取单元,用于获取父代模型;
迭代单元,用于对所述父代模型进行变异操作,得到初始子代种群,所述初始子代种群中至少包括两个由所述父代模型进行变异操作后得到的变异模型,所述变异操作至少包括压缩操作;将所述初始子代种群作为迭代种群,根据所述迭代种群的每个变异模型的适应性函数值确定迭代子群;将所述迭代子群中的每个变异模型进行变异操作,得到迭代后代;将所述迭代后代和所述迭代子群作为所述迭代种群重复进行迭代,直至满足迭代终止条件,所述适应性函数值是根据所述变异模型的模型规模、所述变异模型的模型计算时间以及所述变异模型的模型性能确定的;
压缩模型确定单元,用于根据迭代终止时的迭代后代中每个变异模型的适应性函数值确定目标子代模型。
6.根据权利要求5所述的装置,其特征在于,所述迭代单元具体用于:
根据所述遗传父代中的每个变异模型的适应性函数值确定迭代遗传父代;
根据所述迭代遗传父代以及所述遗传算法得到所述遗传子代;
根据所述遗传子代以及所述迭代遗传父代作为新的遗传父代进行遗传操作。
7.根据权利要求5所述的装置,其特征在于,所述迭代单元具体用于:
根据所述变异模型的模型规模、所述变异模型的模型计算时间、所述变异模型的模型性能以及所述模型规模的权重、所述模型计算时间的权重以及所述模型性能的权重确定所述适应性函数值。
8.根据权利要求5所述的装置,其特征在于,所述迭代单元具体用于:
F(N)=-α*S(N)-β*T(N)+γ*P(N)
其中,F(N)为所述适应性函数值,α、β、γ为权重系数,S(N)为模型规模,T(N)为模型计算时间,P(N)为模型性能。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至4任一项所述方法的步骤。
10.一种计算机可读存储介质,其特征在于,其存储有可由计算机设备执行的计算机程序,当所述程序在计算机设备上运行时,使得计算机执行如权利要求1至4中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910480533.7A CN110276448B (zh) | 2019-06-04 | 2019-06-04 | 一种模型压缩方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910480533.7A CN110276448B (zh) | 2019-06-04 | 2019-06-04 | 一种模型压缩方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110276448A true CN110276448A (zh) | 2019-09-24 |
CN110276448B CN110276448B (zh) | 2023-10-24 |
Family
ID=67962013
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910480533.7A Active CN110276448B (zh) | 2019-06-04 | 2019-06-04 | 一种模型压缩方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110276448B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114239792A (zh) * | 2021-11-01 | 2022-03-25 | 荣耀终端有限公司 | 模型量化方法、装置及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107609650A (zh) * | 2017-09-20 | 2018-01-19 | 河南理工大学 | 基于时间负载均衡的粒子遗传算法优化方法、装置及系统 |
CN109063176A (zh) * | 2018-08-22 | 2018-12-21 | 山西财经大学 | 一种符号网络弱不平衡度的评价方法及系统 |
CN109165720A (zh) * | 2018-09-05 | 2019-01-08 | 深圳灵图慧视科技有限公司 | 神经网络模型压缩方法、装置和计算机设备 |
CN109299780A (zh) * | 2018-09-05 | 2019-02-01 | 深圳灵图慧视科技有限公司 | 神经网络模型压缩方法、装置和计算机设备 |
-
2019
- 2019-06-04 CN CN201910480533.7A patent/CN110276448B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107609650A (zh) * | 2017-09-20 | 2018-01-19 | 河南理工大学 | 基于时间负载均衡的粒子遗传算法优化方法、装置及系统 |
CN109063176A (zh) * | 2018-08-22 | 2018-12-21 | 山西财经大学 | 一种符号网络弱不平衡度的评价方法及系统 |
CN109165720A (zh) * | 2018-09-05 | 2019-01-08 | 深圳灵图慧视科技有限公司 | 神经网络模型压缩方法、装置和计算机设备 |
CN109299780A (zh) * | 2018-09-05 | 2019-02-01 | 深圳灵图慧视科技有限公司 | 神经网络模型压缩方法、装置和计算机设备 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114239792A (zh) * | 2021-11-01 | 2022-03-25 | 荣耀终端有限公司 | 模型量化方法、装置及存储介质 |
CN114239792B (zh) * | 2021-11-01 | 2023-10-24 | 荣耀终端有限公司 | 利用量化模型进行图像处理的系统、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110276448B (zh) | 2023-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102302609B1 (ko) | 신경망 아키텍처 최적화 | |
CN110378468A (zh) | 一种基于结构化剪枝和低比特量化的神经网络加速器 | |
CN109754063A (zh) | 用于学习低精度神经网络的方法及装置 | |
CN107239443A (zh) | 一种词向量学习模型的训练方法及服务器 | |
CN109360097A (zh) | 基于深度学习的股票预测方法、装置、设备及存储介质 | |
CN110427560A (zh) | 一种应用于推荐系统的模型训练方法以及相关装置 | |
JP7287397B2 (ja) | 情報処理方法、情報処理装置及び情報処理プログラム | |
CN110766063A (zh) | 基于压缩激励和紧密连接卷积神经网络的图像分类方法 | |
CN108846695A (zh) | 终端更换周期的预测方法及装置 | |
CN112052951A (zh) | 一种剪枝神经网络方法、系统、设备及可读存储介质 | |
CN107133190A (zh) | 一种机器学习系统的训练方法和训练系统 | |
CN109975250B (zh) | 一种叶面积指数反演方法及装置 | |
CN112000770A (zh) | 面向智能问答的基于语义特征图的句子对语义匹配方法 | |
CN101833691A (zh) | 一种基于fpga的最小二乘支持向量机串行结构实现方法 | |
CN110084250A (zh) | 一种图像描述的方法及系统 | |
CN115564987A (zh) | 一种基于元学习的图像分类模型的训练方法及应用 | |
CN116188878A (zh) | 基于神经网络结构微调的图像分类方法、装置和存储介质 | |
CN112132356A (zh) | 一种基于时空图注意力机制的股价预测方法 | |
CN114675975A (zh) | 一种基于强化学习的作业调度方法、装置及设备 | |
CN110276448A (zh) | 一种模型压缩方法及装置 | |
CN111881293B (zh) | 一种风险内容识别方法及装置、服务器、存储介质 | |
CN114281983A (zh) | 分层结构的文本分类方法、系统、电子设备和存储介质 | |
CN107743071A (zh) | 一种网络节点的增强表示方法及装置 | |
CN117114074A (zh) | 神经网络模型的训练、数据处理方法、装置以及介质 | |
CN116306879A (zh) | 数据处理方法、装置、电子设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |