CN113411583B - 基于维度拆分的图像压缩方法 - Google Patents

基于维度拆分的图像压缩方法 Download PDF

Info

Publication number
CN113411583B
CN113411583B CN202110562209.7A CN202110562209A CN113411583B CN 113411583 B CN113411583 B CN 113411583B CN 202110562209 A CN202110562209 A CN 202110562209A CN 113411583 B CN113411583 B CN 113411583B
Authority
CN
China
Prior art keywords
channel
convolution
redundant
data
carrying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110562209.7A
Other languages
English (en)
Other versions
CN113411583A (zh
Inventor
王�琦
尹泽平
李学龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202110562209.7A priority Critical patent/CN113411583B/zh
Publication of CN113411583A publication Critical patent/CN113411583A/zh
Application granted granted Critical
Publication of CN113411583B publication Critical patent/CN113411583B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明提供了一种基于维度拆分的图像压缩方法。首先,利用通道拆分器对输入图像数据矩阵进行自适应通道拆分,分别得到包含信息较多的有效通道数据和包含信息较少冗余通道数据;然后,对有效通道数据分别进行分组卷积和点卷积,对冗余通道数据进行单个卷积层的简单卷积,分别得到相应通道的最终输出结果;最后,依据不同通道输出结果的重要性进行数据融合,得到压缩结果。本发明方法能够在保证任务精度的情况下选择信息最丰富、判别特征最明显的数据组合,有效地降低算法复杂度,实现轻量、快速的图像压缩。

Description

基于维度拆分的图像压缩方法
技术领域
本发明属数据压缩技术领域,具体涉及一种基于维度拆分的图像压缩方法。
背景技术
随着图像处理单元(GPU)和张量处理单元(TPU)的发展,深度神经网络算法在许多领域取得了出色的表现,包括但不限于模式识别、目标检测、自然语言处理、语言信号处理和机器人控制等。这些成功多依赖于更大更深的神经网络模型。这些强大的模型也伴随着延迟、存储、算力和能耗等方面的巨大开销,在资源有限的移动设备和嵌入式设备上难以部署,难以实现离线智能。如K.Simonyan等人在“K.Simonyan,and A.Zisserman.Very DeepConvolutional Networks for Large-Scale Image Recognition,2015,ICLR”中提出的VGG(Visual Geometry Group)模型。这种模型占用超过500MB的存储空间,1.4×108个参数,大约1000ms的性能延迟。这使得深度学习模型难以应用在有限硬件水平下进行快速而精确的反应,难以适应如自动驾驶、无人机目标追踪等领域的要求。与此同时,智能手机、智能汽车、智能手表等边缘智能设备的数量逐年增加,体积大、计算成本高的模型难以适应于嵌入式设备。因此,利用模型压缩技术,减少深度神经网络参数和降低计算复杂度有助于将深度学习算法的落地与应用。
现有的基于剪枝的模型压缩算法,如S.Han等人在“S.Han,J.Pool,J.Tran,andW.Dally.Learning both Weights and Connections for Efficient NeuralNetworks.In Advances in Neural Information Processing Systems,2015,pp.1135-1143.”提出的基于参数大小的剪枝算法只将不重要的参数置零,并没有减少矩阵尺寸与计算复杂度,实际加速效果不明显。此外这种基于剪枝的方法需要针对特定的网络结构进行微调,训练过程复杂。
基于稀疏矩阵分解的模型压缩算法有B.Liu等人在“B.Liu,M.Wang,and H,Foroosh.Sparse Convolutional Neural Networks.In Proceedings of the IEEEComputer Society Conference on Computer Vision and Pattern Recognition,2015,pp.806-814.”提出的将大型参数矩阵分解为小型矩阵的低秩矩阵分解法。这种方法在实际部署时需要特别设计底层硬件结构,难以广泛应用。
发明内容
为了克服现有技术的不足,本发明提供一种基于维度拆分的图像压缩方法。首先,利用通道拆分器对输入图像数据矩阵进行自适应通道拆分,分别得到包含信息较多的有效通道数据和包含信息较少冗余通道数据;然后,对有效通道数据分别进行分组卷积和点卷积,对冗余通道数据进行单个卷积层的简单卷积,分别得到相应通道的最终输出结果;最后,依据不同通道输出结果的重要性进行数据融合,得到压缩结果。本发明方法能够在保证任务精度的情况下选择信息最丰富、判别特征最明显的数据组合,有效地降低算法复杂度,并减少现有高性能神经网络对硬件计算能力、存储能力的依赖,解决神经网络在小型平台上高延迟的问题,实现轻量、快速的图像数据压缩。
一种基于维度拆分的图像压缩方法,其特征在于步骤如下:
步骤1:按照文献“K.He,X.Zhang and S.Ren.Delving Deep into Rectifiers:Surpassing Human-Level Performance on ImageNet Classification.InInternational Conference on Computer Vision,2015,pp.1026-1034.”中的方法对嵌入向量Zembeding和全连接网络权重Wh进行初始化,然后,将嵌入向量输入全连接网络,再经激活函数,得到通道拆分掩膜Mask,具体如下:
步骤a:嵌入向量Zembeding经过全连接网络输出隐藏层向量Wr
Wr=Wh×Zembeding (1)
步骤b:隐藏层向量Wr经过激活函数F后得到通道拆分掩膜Mask:
Mask=F(Wr,r) (2)
其中,F(·)为激活函数,r∈(0,1)为激活函数的参数,激活函数的计算公式如下:
Figure GDA0003749885020000021
Figure GDA0003749885020000022
步骤2:将待处理图像X与通道拆分掩膜Mask进行卷积处理,得到有效通道数据S,即:
Figure GDA0003749885020000023
其中,
Figure GDA0003749885020000024
代表卷积;
将待处理图像X与通道拆分掩膜Mask按下式进行卷积处理,得到有冗余通道数据S′:
Figure GDA0003749885020000031
步骤3:对有效通道数据S进行分组卷积,得到分组卷积结果Sy1,即
Figure GDA0003749885020000032
其中,
Figure GDA0003749885020000033
O表示分组卷积结果Sy1的通道数量,M×N表示Sy1的大小,
Figure GDA0003749885020000034
为分组卷积核,k的取值为3、5或7;
对分组卷积结果Sy1进行点卷积,得到有效通道的最终输出结果Sy,即:
Figure GDA0003749885020000035
其中,
Figure GDA0003749885020000036
为点卷积核,U输出特征图的通道数;
对冗余通道数据S′与1×1卷积核进行卷积处理,得到冗余通道的最终输出结果Sr
Figure GDA0003749885020000037
其中,W表示1×1卷积核;
步骤4:按照下式对有效通道的输出结果Sy和冗余通道的输出结果Sr进行加权融合,得到最终的图像压缩结果Y:
Y=βSy+rSr (10)
其中,β表示有效通道因子,r表示冗余通道因子,分别按下式计算得到:
Figure GDA0003749885020000038
r=1-β (12)
其中,S1表示有效通道的输出结果Sy中所有元素的平均值,S2表示冗余通道的输出结果Sr中所有元素的平均值。
本发明的有益效果是:通过采用自适应维度拆分方法对大规模神经网络的结构进行调整,能够减小模型占用空间、加快模型运行速度;通过删除不重要的参数,大大减少深度模型的参数冗余性;通过一种自适应的二值化卷积模块对输入图像数据的各个维度进行筛选,在保证任务精度的情况下能够提取出信息最丰富、判别特征最明显的维度组合。本发明方法能够高效处理输入图像数据的高冗余度,充分利用数据特征的同时大大减少计算量。
附图说明
图1是本发明的基于维度拆分的图像压缩方法流程图;
图2是本发明的自适应通道拆分器示意图。
具体实施方式
下面结合附图和实施例对本发明进一步说明,本发明包括但不仅限于下述实施例。
如图1所示,本发明提供了一种基于维度拆分的图像压缩方法,其主要实现过程如下:
1、构建自适应通道拆分器
如图2所示,本发明构建了一种由嵌入向量(一种模型参数)生成二值化权重的全连接网络的自适应通道拆分器。按照文献“K.He,X.Zhang and S.Ren.Delving Deep intoRectifiers:Surpassing Human-Level Performance on ImageNet Classification.InInternational Conference on Computer Vision,2015,pp.1026-1034.”中的方法对嵌入向量Zembeding和全连接网络权重Wh进行初始化,然后,将嵌入向量输入全连接网络,再经激活函数,得到二值化向量,这个二值化向量就是二值化的1×1卷积核,它与输入图像做卷积能够起到通道拆分的效果,称其为通道拆分掩膜Mask。具体过程如下:
(1)嵌入向量Zembeding经过全连接网络输出隐藏层向量Wr
Wr=Wh×Zembeding (13)
(2)隐藏层向量Wr经过激活函数F后得到二值化向量,即通道拆分掩膜Mask:
Figure GDA0003749885020000041
Figure GDA0003749885020000042
Mask=F(Wr,r) (16)
激活函数的参数r→0时,激活函数F(x,r)不断逼近sign(),即:
Figure GDA0003749885020000043
Mask是二值化的1×1卷积核。
2、通道拆分
将原始输入图像经过通道拆分器拆分为没有重叠两部分,分别输入“有效路径”和“冗余路径”。具体而言,将输入图像数据X与生成的Mask做点积得到的输出作为“有效通道”的输入S,将输入数据X与(1-Mask)做卷积得到的输出作为“冗余通道”的输入S',如公式(14)
Figure GDA0003749885020000051
3、卷积计算
考虑计算量,给两条路径分配不同的计算资源。对于“冗余路径”分配较少的计算资源,仅使用单个1×1卷积层进行简单特征提取。为了进一步减少卷积计算量,对于“有效路径”采用一种新的卷积方式代替计算复杂度较高的传统卷积:分组卷积与点卷积结合的方式。具体为:
1)对“有效路径”的输入特征图S进行分组卷积得到中间特征图
Figure GDA0003749885020000052
计算公式如下:
Figure GDA0003749885020000053
其中,O表示中间特征图Sy1的通道数量,M和N表示特征图的宽度和高度。
Figure GDA0003749885020000054
为大小为k×k的分组卷积核,k一般取3、5、7左右的整数。对分组卷积的结果进行点卷积,得到的结果Sy作为有效路径的最终输出特征图,
Figure GDA0003749885020000055
计算公式如下:
Figure GDA0003749885020000056
其中,
Figure GDA0003749885020000057
为点卷积核,U输出特征图的通道数。
2)对“冗余路径”的数据S'进行普通1×1卷积得到冗余路径的输出Sr
Figure GDA0003749885020000058
其中,W为1×1卷积核。
4、数据融合
将有效通道的输出结果Sy和冗余通道的输出结果Sr进行数据融合,得到最终输出特征图,即最终的图像压缩结果Y。
首先,分别计算两个通道的重要性系数:
Figure GDA0003749885020000059
Figure GDA0003749885020000061
其中,S1c表示有效通道数据第c个通道的重要性系数,S2c表示冗余通道数据第c个通道的重要性系数。
然后,使用归一化指数函数使得所有重要性系数的和为1,得到不同通道的归一化重要性系数:
Figure GDA0003749885020000062
rc=1-βc (25)
其中,βc表示有效通道第c个通道的因子,rc表示冗余通道第c个通道的因子。
最后,按下式进行数据融合,得到压缩结果Y:
Y=βSy+rSr (26)
其中,β=[β12,…,βO]表示有效通道因子,r=[r1,r2,…,rO]表示冗余通道因子。
本发明方法相比于基于像素的方法,基于通道的选择机制能够更多地关注整体的语义信息,对于对抗样本的鲁棒性高,压缩后模型的稳定性良好。相比较基于剪枝的算法和基于稀疏矩阵分解的算法,本发明方法减小了算法的理论计算复杂度,无需依赖于特别的底层硬件设计,具有显著的加速模型运算、节省硬盘空间和降低设备能耗的效果。
为验证本发明方法的效果,在中央处理器为
Figure GDA0003749885020000063
i7-77003.2GHz CPU、NvidiaGeforce 1080、内存8G、WINDOWS 10操作系统上,运用python软件进行图像压缩仿真实验。实验选择VGG(Visual Geometry Group)算法作为对比算法在图像分类数据集CIFAR100上进行对比试验。VGG算法是文献“K.Simonyan,and A.Zisserman.Very Deep ConvolutionalNetworks for Large-Scale Image Recognition.In Conf.International Conferenceon Learning Representations,2015.”提出的。
实验结果如表1所示,可以看出,本发明方法在CIFAR100数据集上取得了73.6%的精度,比传统VGG算法的精确度更高,参数量方面为7.32M,相对传统VGG算法能够节省近65%的存储空间,且计算量减少28.2%,明显优于现有方法。
表1
Figure GDA0003749885020000064
Figure GDA0003749885020000071

Claims (1)

1.一种基于维度拆分的图像压缩方法,其特征在于步骤如下:
步骤1:按照文献“K.He,X.Zhang and S.Ren.Delving Deep into Rectifiers:Surpassing Human-Level Performance on ImageNet Classification.InInternational Conference on Computer Vision,2015,pp.1026-1034.”中的方法对嵌入向量Zembeding和全连接网络权重Wh进行初始化,然后,将嵌入向量输入全连接网络,再经激活函数,得到通道拆分掩膜Mask,具体如下:
步骤a:嵌入向量Zembeding经过全连接网络输出隐藏层向量Wr
Wr=Wh×Zembeding (1)
步骤b:隐藏层向量Wr经过激活函数F后得到通道拆分掩膜Mask:
Mask=F(Wr,r) (2)
其中,F(·)为激活函数,r∈(0,1)为激活函数的参数,激活函数的计算公式如下:
Figure FDA0003749885010000011
Figure FDA0003749885010000012
步骤2:将待处理图像X与通道拆分掩膜Mask进行卷积处理,得到有效通道数据S,即:
Figure FDA0003749885010000013
其中,
Figure FDA0003749885010000014
代表卷积;
将待处理图像X与通道拆分掩膜Mask按下式进行卷积处理,得到有冗余通道数据S′:
Figure FDA0003749885010000015
步骤3:对有效通道数据S进行分组卷积,得到分组卷积结果Sy1,即:
Figure FDA0003749885010000016
其中,
Figure FDA0003749885010000017
O表示分组卷积结果Sy1的通道数量,M×N表示Sy1的大小,
Figure FDA0003749885010000018
为分组卷积核,k的取值为3、5或7;
对分组卷积结果Sy1进行点卷积,得到有效通道的最终输出结果Sy,即:
Figure FDA0003749885010000021
其中,
Figure FDA0003749885010000022
为点卷积核,U输出特征图的通道数;
对冗余通道数据S′与1×1卷积核进行卷积处理,得到冗余通道的最终输出结果Sr
Figure FDA0003749885010000023
其中,W表示1×1卷积核;
步骤4:按照下式对有效通道的输出结果Sy和冗余通道的输出结果Sr进行加权融合,得到最终的图像压缩结果Y:
Y=βSy+rSr (10)
其中,β表示有效通道因子,r表示冗余通道因子,分别按下式计算得到:
Figure FDA0003749885010000024
r=1-β (12)
其中,S1表示有效通道的输出结果Sy中所有元素的平均值,S2表示冗余通道的输出结果Sr中所有元素的平均值。
CN202110562209.7A 2021-05-24 2021-05-24 基于维度拆分的图像压缩方法 Active CN113411583B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110562209.7A CN113411583B (zh) 2021-05-24 2021-05-24 基于维度拆分的图像压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110562209.7A CN113411583B (zh) 2021-05-24 2021-05-24 基于维度拆分的图像压缩方法

Publications (2)

Publication Number Publication Date
CN113411583A CN113411583A (zh) 2021-09-17
CN113411583B true CN113411583B (zh) 2022-09-02

Family

ID=77679275

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110562209.7A Active CN113411583B (zh) 2021-05-24 2021-05-24 基于维度拆分的图像压缩方法

Country Status (1)

Country Link
CN (1) CN113411583B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109086866A (zh) * 2018-07-02 2018-12-25 重庆大学 一种适用于嵌入式设备的部分二值卷积方法
CN111340225A (zh) * 2020-02-28 2020-06-26 中云智慧(北京)科技有限公司 一种基于深度卷积神经网络模型压缩和加速方法
CN111612145A (zh) * 2020-05-22 2020-09-01 北京邮电大学 一种基于异构分离卷积核的模型压缩与加速方法
WO2021003210A1 (en) * 2019-07-02 2021-01-07 Vid Scale, Inc. Clustering-based quantization for neural network compression

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110598731B (zh) * 2019-07-31 2021-08-20 浙江大学 一种基于结构化剪枝的高效图像分类方法
CN112785663B (zh) * 2021-03-17 2024-05-10 西北工业大学 一种基于任意形状卷积核的图像分类网络压缩方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109086866A (zh) * 2018-07-02 2018-12-25 重庆大学 一种适用于嵌入式设备的部分二值卷积方法
WO2021003210A1 (en) * 2019-07-02 2021-01-07 Vid Scale, Inc. Clustering-based quantization for neural network compression
CN111340225A (zh) * 2020-02-28 2020-06-26 中云智慧(北京)科技有限公司 一种基于深度卷积神经网络模型压缩和加速方法
CN111612145A (zh) * 2020-05-22 2020-09-01 北京邮电大学 一种基于异构分离卷积核的模型压缩与加速方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification;Kaiming He et al;《2015 IEEE International Conference on Computer Vision (ICCV)》;20160218;全文 *
Split to Be Slim: An Overlooked Redundancy in Vanilla Convolution;Qiulin Zhang et al;《arxiv》;20200622;全文 *
基于轻量级深度网络的目标识别方法;李亚辉等;《计算机应用研究》;20200331;全文 *
轻量化卷积神经网络;吉宸佳;《数码世界》;20200401(第04期);全文 *

Also Published As

Publication number Publication date
CN113411583A (zh) 2021-09-17

Similar Documents

Publication Publication Date Title
Jiang et al. Real-time object detection method based on improved YOLOv4-tiny
CN111091045B (zh) 一种基于时空注意力机制的手语识别方法
CN111079781B (zh) 基于低秩与稀疏分解的轻量化卷积神经网络图像识别方法
US20230186056A1 (en) Grabbing detection method based on rp-resnet
US20200097818A1 (en) Method and system for training binary quantized weight and activation function for deep neural networks
CN110659725B (zh) 神经网络模型的压缩与加速方法、数据处理方法及装置
CN111488985B (zh) 深度神经网络模型压缩训练方法、装置、设备、介质
Gan et al. Compressing the CNN architecture for in-air handwritten Chinese character recognition
CN113344188A (zh) 基于通道注意力模块的轻量级神经网络模型
CN110059587A (zh) 基于时空注意力的人体行为识别方法
CN110517329A (zh) 一种基于语义分析的深度学习图像压缩方法
CN111709493B (zh) 对象分类方法、训练方法、装置、设备及存储介质
CN113554084B (zh) 基于剪枝和轻量卷积的车辆再辨识模型压缩方法及系统
Yu et al. Real-time object detection towards high power efficiency
JP2022534890A (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
CN115081588A (zh) 一种神经网络参数量化方法和装置
CN115471718A (zh) 基于多尺度学习的轻量级显著性目标检测模型的构建和检测方法
Yook et al. Voice conversion using conditional CycleGAN
CN114943335A (zh) 一种三值神经网络逐层优化方法
CN112989843B (zh) 意图识别方法、装置、计算设备及存储介质
CN113411583B (zh) 基于维度拆分的图像压缩方法
CN112308213A (zh) 一种基于全局特征关系的卷积神经网络压缩方法
CN117173409A (zh) 一种实时的交互式图像分割方法
Wang et al. MAMask: Multi‐feature aggregation instance segmentation with pyramid attention mechanism
Wang et al. Exploring fine-grained sparsity in convolutional neural networks for efficient inference

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant