CN112465140A - 一种基于分组通道融合的卷积神经网络模型压缩方法 - Google Patents

一种基于分组通道融合的卷积神经网络模型压缩方法 Download PDF

Info

Publication number
CN112465140A
CN112465140A CN202011419497.2A CN202011419497A CN112465140A CN 112465140 A CN112465140 A CN 112465140A CN 202011419497 A CN202011419497 A CN 202011419497A CN 112465140 A CN112465140 A CN 112465140A
Authority
CN
China
Prior art keywords
neural network
fusion
channel
layer
convolutional neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011419497.2A
Other languages
English (en)
Inventor
骆春波
濮希同
罗杨
许燕
韦仕才
张赟疆
徐加朗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202011419497.2A priority Critical patent/CN112465140A/zh
Publication of CN112465140A publication Critical patent/CN112465140A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于分组通道融合的卷积神经网络模型压缩方法。该方法包括获取训练图像;建立卷积神经网络模型,将各卷积层特征图进行分组通道融合;对各卷积层进行压缩敏感度测量;对分组通道融合超参数g进行量化取值;对卷积神经网络进行训练;设定模型分类准确度阈值范围,判断训练后的模型分类准确度是否处于其内,若是,保存当前卷积神经网络模型,否则对各层分组通道融合超参数g进行调整后返回训练步骤。本发明为了解决现有技术中的神经网络模型压缩方法耗时长、计算多、模型信息量丢失较大和压缩率较低等问题,采用了分组通道融合的方法来压缩神经网络模型,具有无需衡量通道重要性,无需反复训练恢复精度,压缩率高且耗时短的优点。

Description

一种基于分组通道融合的卷积神经网络模型压缩方法
技术领域
本发明涉及一种卷积神经网络模型压缩方法,尤其涉及一种基于分组通道融合的卷积神经网络模型压缩方法。
背景技术
卷积神经网络因其突出的表现已被应用于很多研究领域。得益于GPU算力的提升,近年来出现的卷积神经网络模型被设计地越来越深和越来越宽,以提升模型表现。然而,大容量模型拥有大量参数,需要更大的内存、存储空间以及算力等资源的开销。因此,表现较好的大容量卷积神经网络模型很难应用在资源受限的平台上,如嵌入式系统、可穿戴设备、物联网平台等。在尽可能保持卷积神经网络模型性能不下降的情况下,对其进行压缩,最大化地减少其参数,可以促进卷积神经网络模型的应用。
通道剪枝是一种应用广泛的卷积神经网络模型压缩方法,其目的是减少卷积神经网络冗余的特征图通道及其对应的卷积核和下一层的卷积核通道。现有的通道剪枝方法有两种减少通道数的手段:1)删除或2)置零不重要的通道。整个压缩过程是在多次迭代和手工选择中进行的,耗时长且会增加大量的计算用于判断通道的重要性。无论利用删除还是置零整个通道的方法都会导致模型信息量丢失较大,且在选择每层要消除的通道数时自由度较高,导致压缩速度慢,压缩率较低等问题。
发明内容
针对现有技术中的上述不足,本发明提供了一种基于分组通道融合的卷积神经网络模型压缩方法。
为了达到上述发明目的,本发明采用的技术方案为:
一种基于分组通道融合的卷积神经网络模型压缩方法,包括以下步骤:
S1、获取多个训练图像;
S2、建立卷积神经网络模型,将各卷积层输出通道的特征图进行分组通道融合;
S3、对卷积神经网络模型的每一层卷积层进行压缩敏感度测量;
S4、根据步骤S3得到的的压缩敏感度测量结果对每一层的分组通道融合超参数g进行量化取值;
S5、对分组通道融合超参数g进行量化取值后的卷积神经网络进行训练;
S6、设定模型分类准确度阈值范围,判断步骤S5训练后的模型分类准确度是否处于设定的模型分类准确度阈值范围内,若是,保存当前卷积神经网络模型,否则对各层分组通道融合超参数g进行调整后返回步骤S5。
本发明的有益效果为:采用通道融合技术减少卷积神经网络模型特征通道数,有效压缩了存在冗余的卷积神经网络模型,加快了卷积神经网络模型的训练和推断速度,有效降低了卷积神经网络模型运行所需的资源量,提升了模型训练和推断速度,拓宽了卷积神经网络模型的应用平台。还解决了现有通道剪枝方法对信息丢失大而需要反复训练恢复精度的问题。以往使用的两类通道剪枝方法直接将整个通道的特征丢弃,导致信息大量丢失而需要反复训练以恢复精度。本发明对通道进行加权分组融合,充分利用特征信息的同时大量减少了通道数量,不需要反复训练恢复精度。
优选地,步骤S2包括以下分步骤:
S21、将特征图变换为均值为0,方差为1的正态分布,标准化后的特征图表示为:
Figure BDA0002821667380000031
其中,Fi(x,y)为任一卷积层输出的N个通道特征图中的第i个特征图,i=1~N,μi为第i个特征图通道的均值,δi为第i个特征图通道的方差,
Figure BDA0002821667380000032
为标准化后的特征图。
S22、将标准化后的特征图进行尺度放缩和增加偏置的批归一化,表示为:
Figure BDA0002821667380000033
其中,
Figure BDA0002821667380000034
为批归一化后的特征图,βi为批归一化计算的放缩因子,γi为批归一化计算的偏置。
S23、将各卷积层输出的N个通道的特征图Fi(x,y)每g个通道分为一组,i=1~N,在每一组内沿通道方向进行特征图加权融合计算。
优选地,步骤S23中特征图加权融合计算公式为:
Figure BDA0002821667380000035
其中,
Figure BDA0002821667380000036
为第l组通道融合后的特征图,(x,y)为特征图的空间二维坐标,gl为第l个分组,|gl|为第l个分组内的特征图通道数量,wi为第i个特征图通道对应的可学习权重。
该优选方案的有益效果为:将特征图进行批归一化方便后续步骤对其进行分组通道融合,批归一化后无需添加额外的通道权重参数wi,批归一化的放缩因子βi即可作为每个通道的权重,简化了压缩过程,提高了压缩效率。
优选地,步骤S3包括以下分步骤:
S31、令待测卷积层g=N,其他卷积层g=1,以固定的迭代次数训练一次卷积神经网络模型,得到模型收敛后的分类准确率;
S32、根据步骤S31得到的分类准确率确定各层的压缩敏感度。
该优选方案的有益效果为:通过将各层所有特征图分为一组进行通道融合,输出一个单通道的特征图作为下一层的输入,记录下分类准确度的高低来确定各层卷积层的压缩敏感度,测量方法简单高效。
优选地,步骤S4具体包括根据步骤S32得到的各卷积层压缩敏感度测量结果对各卷积层的分组通道融合超参数g进行量化取值,各层g的取值为小于该层N值的2的指数。
该优选方案的有益效果为:卷积神经网络模型各层的压缩参数选取由按比例选取变为分组内特征图通道数的较小整数值选取,降低了通道剪枝参数选取的自由度,加快了卷积神经网络模型压缩过程。
优选地,步骤S6中对分组融合超参数g进行调整的具体操作为比较模型分类准确度和模型分类准确度阈值范围上下限值的大小,若模型分类准确度低于模型分类准确度阈值范围的下限值,则减小部分层的分组融合超参数g,若模型分类准确度高于设定模型分类准确度阈值范围的上限值,则增大部分层的分组融合超参数g。
该优选方案的有益效果为:通过比较训练后的模型分类准确度和模型分类准确度阈值范围来调整分组融合超参数g的大小,调整方法简单快捷。
附图说明
图1为本发明一种基于分组通道融合的卷积神经网络模型压缩方法的流程示意图;
图2为本发明实施例中分组通道融合模块结构示意图;
图3为本发明实施例中分组通道融合模块置于各卷积网络中的位置示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本发明的基本思想是对原始卷积神经网络模型逐层进行压缩敏感度测量,根据测量的结果对每层卷积层产生的特征图按通道进行分组加权融合,利用批归一化的放缩因子作为表征各特征图通道重要性的权重,将不同通道的特征图进行加权相加。将每层选取删减通道数比例的问题转化为选取分组中的通道数的问题,降低问题的自由度,进而加快压缩过程。
请参照图1,本发明提供了一种基于分组通道融合的卷积神经网络模型压缩方法,包括以下步骤:
S1、获取多个训练图像;将获取的训练图像输入待压缩的卷积神经网络模型,在各卷积层通道中形成特征图;
S2、建立卷积神经网络模型,将各卷积层输出通道的特征图进行分组通道融合;
本发明实施例中,步骤S2包括以下分步骤:
S21、将特征图变换为均值为0,方差为1的正态分布,标准化后的特征图表示为:
Figure BDA0002821667380000061
其中,Fi(x,y)为任一卷积层输出的N个通道特征图中的第i个特征图,i=1~N,μi为第i个特征图通道的均值,δi为第i个特征图通道的方差,
Figure BDA0002821667380000062
为标准化后的特征图。
S22、将标准化后的特征图进行尺度放缩和增加偏置的批归一化,表示为:
Figure BDA0002821667380000063
其中,
Figure BDA0002821667380000064
为批归一化后的特征图,βi为批归一化计算的放缩因子,γi为批归一化计算的偏置。
S23、将各卷积层输出的N个通道特征图Fi(x,y),i=1~N每g个通道分为一组;若选取的每个分组内的通道数g不能整除总通道数N,则将剩余的(N mod g)个通道作为一组进行加权融合。因此,所有通道被分为ceil(N/g)组进行分组通道融合,并得到ceil(N/g)个通道,其中mod表示取余数,ceil(·)表示天花板函数,取值为分数的上界。在每一组内沿通道方向进行特征图加权融合计算,分组通道融合示意图见图2。
本发明实施例中,步骤S23中特征图加权融合计算公式为:
Figure BDA0002821667380000065
其中,
Figure BDA0002821667380000066
为第l组通道融合后的特征图,(x,y)为特征图的空间二维坐标,gl为第l个分组,|gl|为第l个分组内的特征图通道数量,wi为第i个特征图通道对应的可学习权重。
对于有批归一化层的卷积层,无需添加额外的通道权重参数,批归一化的放缩因子βi可作为每个通道的权重,进而实现分组通道加权融合。
本发明主要对三种典型的卷积神经网络模型进行压缩,分别是代表串联结构的VGGNet,代表具有残差结构的ResNet,以及代表新型轻量卷积结构的MobileNet。这三个卷积神经网络模型的卷积层中都有批归一化层,因此可直接对卷积层输出的特征图进行分组加权融合,而无需添加额外的权重参数。由于分组通道融合模块降低了当前层的特征图通道数,因此需将下一层卷积层的输入通道数做相应的修改。
将通道融合模块置于各模型的卷积层中时,只需要设置超参数g,该超参数表示分组通道融合的分组内特征图通道数。分组通道融合模块在3个模型中放置的位置见图3。
S3、对卷积神经网络模型的每一层卷积层进行压缩敏感度测量;
分组通道融合模块依次单独放在待测量的卷积层的ReLU激活层后面,对于每一卷积层的压缩敏感性进行测试。
本发明实施例中,步骤S3包括以下分步骤:
S31、令待测卷积层g=N,其他卷积层g=1,N为各层的输出特征图总通道数,即将该层的待测卷积层通道特征图分为一组进行通道融合,输出一个单通道的特征图作为下一层的输入。以固定的迭代次数训练一次卷积神经网络模型,得到模型收敛后的分类准确率;
S32、根据步骤S31得到的分类准确率确定各层的压缩敏感度。分类准确率越高,表示该卷积层压缩敏感度越低;分类准确率越低,表示该卷积层压缩敏感度越高。
S4、根据步骤S3得到的的压缩敏感度测量结果对每一层的分组通道融合超参数g进行量化取值;
本发明实施例中,步骤S4具体包括具体包括根据步骤S32得到的各卷积层压缩敏感度测量结果对各卷积层的分组通道融合超参数g进行量化取值,各层g的取值为小于该层N值的2的指数,压缩敏感度越低的层,g取值越大,压缩敏感度越高的层,g取值越小。
g的取值为小于该层N值的2的指数,即自由度d=log2N,相比于按比例的参数选取方法(d=N),降低了通道剪枝参数选取的自由度,因此本发明解决了逐层通道剪枝方法中每层通道数删减比例选取自由度高导致的压缩时间慢的问题。以往的逐层通道剪枝方法每层都会设置一个通道删减比例,该删减比例是一个取值范围在0.00%-100.00%的超参数,取值自由度高,因而需要多次反复迭代压缩以探索出最佳删减比例。本发明采用分组通道融合的方法,将逐层删减比例转化为每一层分组中的通道数选取问题,降低了超参数选取的自由度,加快了模型压缩时间。
S5、对分组通道融合超参数g进行量化取值后的卷积神经网络进行训练;训练时要适当减小学习率,同时增加迭代次数,直至模型收敛。
S6、设定模型分类准确度阈值范围,判断步骤S5训练后的模型分类准确度是否处于模型分类准确度阈值范围内,若是,保存当前卷积神经网络模型,否则对各层分组通道融合超参数g进行调整后返回步骤S5。
本发明实施例中,步骤S6中对分组融合超参数g进行调整的具体操作为比较模型分类准确度和模型分类准确度阈值范围上下限值的大小,若模型分类准确度低于模型分类准确度阈值范围的下限值,则减小部分层的分组融合超参数g,若模型分类准确度高于模型分类准确度阈值范围的上限值,则增大部分层的分组融合超参数g。
综上所述,本发明提供了一种基于分组通道融合的卷积神经网络模型压缩方法,本发明解决了卷积神经网络模型参数冗余导致的对运行平台的算力、内存、存储等资源要求高以及运行速度慢,需要衡量通道重要性才能减少通道数量,以往通道剪枝方法对信息丢失大而需要反复训练恢复精度,逐层通道剪枝方法中每层通道数删减比例选取自由度高导致的压缩时间慢等问题,相较于现有技术中的模型压缩方法具有明显的进步,因此具有实用性。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。

Claims (6)

1.一种基于分组通道融合的卷积神经网络模型压缩方法,其特征在于,包括以下步骤:
S1、获取多个训练图像;
S2、建立卷积神经网络模型,将各卷积层输出通道的特征图进行分组通道融合;
S3、对卷积神经网络模型的每一层卷积层进行压缩敏感度测量;
S4、根据所述步骤S3得到的的压缩敏感度测量结果对每一层的分组通道融合超参数g进行量化取值;
S5、对分组通道融合超参数g进行量化取值后的卷积神经网络进行训练;
S6、设定模型分类准确度阈值范围,判断所述步骤S5训练后的模型分类准确度是否处于设定的模型分类准确度阈值范围内,若是,保存当前卷积神经网络模型,否则对各层分组通道融合超参数g进行调整后返回所述步骤S5。
2.根据权利要求1所述的一种基于分组通道融合的卷积神经网络模型压缩方法,其特征在于,所述步骤S2包括以下分步骤:
S21、将特征图变换为均值为0,方差为1的正态分布,标准化后的特征图表示为:
Figure FDA0002821667370000011
其中,Fi(x,y)为任一卷积层输出的N个通道特征图中的第i个特征图,i=1~N,μi为第i个特征图通道的均值,δi为第i个特征图通道的方差,
Figure FDA0002821667370000012
为标准化后的特征图。
S22、将标准化后的特征图进行尺度放缩和增加偏置的批归一化,表示为:
Figure FDA0002821667370000021
其中,
Figure FDA0002821667370000022
为批归一化后的特征图,βi为批归一化计算的放缩因子,γi为批归一化计算的偏置。
S23、将各卷积层输出的N个通道的特征图Fi(x,y)每g个通道分为一组,i=1~N,在每一组内沿通道方向进行特征图加权融合计算。
3.根据权利要求2所述的一种基于分组通道融合的卷积神经网络模型压缩方法,其特征在于,所述步骤S23中特征图加权融合计算公式为:
Figure FDA0002821667370000023
其中,
Figure FDA0002821667370000024
为第l组通道融合后的特征图,(x,y)为特征图的空间二维坐标,gl为第l个分组,|gl|为第l个分组内的特征图通道数量,wi为第i个特征图通道对应的可学习权重。
4.根据权利要求3所述的一种基于分组通道融合的卷积神经网络模型压缩方法,其特征在于,所述步骤S3包括以下分步骤:
S31、令待测卷积层g=N,其他卷积层g=1,以固定的迭代次数训练一次卷积神经网络模型,得到模型收敛后的分类准确率;
S32、根据所述步骤S31得到的分类准确率确定各层的压缩敏感度。
5.根据权利要求4所述的一种基于分组通道融合的卷积神经网络模型压缩方法,其特征在于:所述步骤S4具体包括根据所述步骤S32得到的各卷积层压缩敏感度测量结果对各卷积层的分组通道融合超参数g进行量化取值,各层g的取值为小于该层N值的2的指数。
6.根据权利要求5所述的一种基于分组通道融合的卷积神经网络模型压缩方法,其特征在于,所述步骤S6中对分组融合超参数g进行调整的具体操作为比较模型分类准确度和设定的模型分类准确度阈值范围上下限值的大小,若模型分类准确度低于设定准确度范围的下限值,则减小部分层的分组融合超参数g,若模型分类准确度高于设定准确度范围的上限值,则增大部分层的分组融合超参数g。
CN202011419497.2A 2020-12-07 2020-12-07 一种基于分组通道融合的卷积神经网络模型压缩方法 Pending CN112465140A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011419497.2A CN112465140A (zh) 2020-12-07 2020-12-07 一种基于分组通道融合的卷积神经网络模型压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011419497.2A CN112465140A (zh) 2020-12-07 2020-12-07 一种基于分组通道融合的卷积神经网络模型压缩方法

Publications (1)

Publication Number Publication Date
CN112465140A true CN112465140A (zh) 2021-03-09

Family

ID=74801575

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011419497.2A Pending CN112465140A (zh) 2020-12-07 2020-12-07 一种基于分组通道融合的卷积神经网络模型压缩方法

Country Status (1)

Country Link
CN (1) CN112465140A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113255730A (zh) * 2021-04-27 2021-08-13 西安交通大学 基于拆分-融合策略的分布式深度神经网络结构转换方法
CN114882372A (zh) * 2022-07-11 2022-08-09 浙江大华技术股份有限公司 一种目标检测的方法及设备
CN117524252A (zh) * 2023-11-13 2024-02-06 北方工业大学 一种基于醉汉模型的轻量化声学场景感知方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113255730A (zh) * 2021-04-27 2021-08-13 西安交通大学 基于拆分-融合策略的分布式深度神经网络结构转换方法
CN113255730B (zh) * 2021-04-27 2023-04-07 西安交通大学 基于拆分-融合策略的分布式深度神经网络结构转换方法
CN114882372A (zh) * 2022-07-11 2022-08-09 浙江大华技术股份有限公司 一种目标检测的方法及设备
CN117524252A (zh) * 2023-11-13 2024-02-06 北方工业大学 一种基于醉汉模型的轻量化声学场景感知方法
CN117524252B (zh) * 2023-11-13 2024-04-05 北方工业大学 一种基于醉汉模型的轻量化声学场景感知方法

Similar Documents

Publication Publication Date Title
CN112465140A (zh) 一种基于分组通道融合的卷积神经网络模型压缩方法
CN110619385B (zh) 基于多级剪枝的结构化网络模型压缩加速方法
CN111242180B (zh) 一种基于轻量化卷积神经网络的图像识别方法及系统
CN112634292A (zh) 一种基于深度卷积神经网络的沥青路面裂缝图像分割方法
CN112488070A (zh) 一种面向遥感图像目标检测的神经网络压缩方法
CN112163628A (zh) 一种适用于嵌入式设备的改进目标实时识别网络结构的方法
CN112541532B (zh) 基于密集连接结构的目标检测方法
CN110020721B (zh) 一种基于参数压缩的目标检测深度学习网络优化方法
CN114969060B (zh) 一种工业设备时序数据压缩存储方法、装置
CN113420651B (zh) 深度卷积神经网络的轻量化方法、系统及目标检测方法
CN110647990A (zh) 基于灰色关联分析的深度卷积神经网络模型的裁剪方法
CN111860771A (zh) 一种应用于边缘计算的卷积神经网络计算方法
CN113111889A (zh) 用于边缘计算端的目标检测网络处理方法
CN113269312A (zh) 一种联合量化与剪枝搜索的模型压缩方法及其系统
CN114970853A (zh) 一种跨范围量化的卷积神经网络压缩方法
CN114882373A (zh) 基于深度神经网络的多特征融合沙尘暴预测方法
CN112712855B (zh) 一种基于联合训练的含缺失值基因微阵列的聚类方法
CN114373104A (zh) 一种基于动态聚合的三维点云语义分割方法及系统
CN116187387A (zh) 神经网络模型量化方法、装置、计算机设备和存储介质
Minu et al. An efficient squirrel search algorithm based vector quantization for image compression in unmanned aerial vehicles
CN115757309A (zh) 一种基于回归孪生神经网络压缩友好度量学习的文件压缩方法
CN110781755A (zh) 一种建筑钢筋智能识别计量方法及系统
CN113033804B (zh) 一种面向遥感图像的卷积神经网络压缩方法
CN115983366A (zh) 面向联邦学习的模型剪枝方法及系统
US20220138554A1 (en) Systems and methods utilizing machine learning techniques for training neural networks to generate distributions

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210309

RJ01 Rejection of invention patent application after publication