CN109214406B - 基于D-MobileNet神经网络的图像分类方法 - Google Patents
基于D-MobileNet神经网络的图像分类方法 Download PDFInfo
- Publication number
- CN109214406B CN109214406B CN201810465364.5A CN201810465364A CN109214406B CN 109214406 B CN109214406 B CN 109214406B CN 201810465364 A CN201810465364 A CN 201810465364A CN 109214406 B CN109214406 B CN 109214406B
- Authority
- CN
- China
- Prior art keywords
- convolution
- layer
- neural network
- mobilenet
- convolutional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 46
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000011176 pooling Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 12
- 238000013461 design Methods 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 7
- 238000010586 diagram Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 239000011800 void material Substances 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 3
- 101150064138 MAP1 gene Proteins 0.000 claims description 2
- 238000013459 approach Methods 0.000 claims description 2
- 238000002474 experimental method Methods 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims description 2
- 210000002569 neuron Anatomy 0.000 claims description 2
- 238000013527 convolutional neural network Methods 0.000 abstract description 4
- 238000012795 verification Methods 0.000 abstract 1
- 238000004458 analytical method Methods 0.000 description 3
- 230000002068 genetic effect Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000000407 epitaxy Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000002028 premature Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 239000009728 shiwei Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明公开了一种基于D‑MobileNet(Dilated‑Mobilenet)神经网络图像分类的方法。通过将空洞卷积与MobileNet进行结合,通过提高高分辨率输入层的卷积核感受野,提高输出特征的质量,且不增加网络的参数数量,使得该网络结构提高分类精度。包括以下步骤:1)准备数据集;2)搭建MobileNet网络;3)搭建D‑MobileNet网络;4)超参数设置。将模型训练好后,利用训练好的卷积神经网络模型对验证集图片进行验证,完成分类预测。实验结果表明:本发明能取得比MobileNet网络更好的分类精度。
Description
技术领域
本发明设计涉及图像分类领域。
本发明是基于D-MobileNet(Dilated-Mobilenet)神经网络的图像分类方法,由于深度神经网络其自身是一种内存密集性和高计算密集型的模型,MobileNet这种轻量级的深度卷积网络,通过改变卷积计算方式,可减少网络的参数数量和计算量,但是精度会有些损失,本发明通过加入空洞卷积,来提高MobileNet的分类精度。
背景技术
图像分类是深度学习最早的应用领域,且已在图像分类领域取得了很好的成绩。从AlexNet到VGG,GoogleNet,ResNet等均在视觉领域竞赛上取得很好的成绩。随着神经网络的分类精度越来越高,神经网络的结构也更深、更复杂。随之而来的是数百万甚至数十亿的参数和大量的内存,且其大量的计算量需依赖GPU来实现。故提出了压缩神经网络的方法,即在尽量损失较少分类精度的前提下,减少参数数量和计算量。而MobileNet神经网络是众多压缩方法中的一种,即通过改变网络结构实现参数和计算量的减少。
MobileNet通过使用深度可分离的卷积来构建轻量级的深度神经网络。其基本结构为深度可分离卷积核(depthwise separable filtes),该卷积核由深度卷积核(depthwise convolution filters)和点卷积核(point convolution filter)组成。该网络通过这种结构,将本来一个参数为a*a*c的标准卷积核变为a*a+c个参数(标准卷积核大小为a*a,深度为c)。本专利通过在现有的MobileNet神经网络结构与空洞卷积结合,提高分类精度。
现有的神经网络图像分类近似的专利有专利[1],通过改进自适应遗传算法的神经网络图像分类方法,此专利较好的避免了遗传算法的“早熟”收敛,提高了网络的泛化能力和图像的正确分类率。专利[2]基于线性判别分析准则的改进卷积神经网络性能的方法,此专利通过对选定的卷积层进行线性判别分析准则的正则约束,可提高卷积神经网络图像分类的精度。本发明与专利[1]和专利[2]采用不同的神经网络模型,本发明是在MobileNet轻量级的深度卷积神经网络上进行改进,与空洞卷积结合,通过提高卷积核感受野,来提高训练特征质量,进一步提高网络模型分类精度。
[1]基于改进自适应遗传算法的神经网络图像分类方法,申请号/专利:CN201510846339.8,发明设计人:刘芳;马玉磊;黄光伟;周慧娟。
[2]基于线性判别分析准则的改进卷积神经网络性能的方法,申请号/专利号:CN201510566529.4,发明设计人:龚怡宏;石伟伟;王进军;张世周。
发明内容
本发明公开了一种基于D-MobileNet神经网络图像分类方法,具体如下:
一种基于D-MobileNet神经网络图像分类方法,其特征在于,所述方法包括如下步骤:
S1、准备数据集;
S2、MobileNet神经网络的构建;
S3、D-MobileNet神经网络的构建;
S4、超参数设置;
其中,S1的步骤包括:在Caltech_256数据集上进行实验,将图片转换为tfrecord的形式进行存储,并在训练和测试时对图片进行预处理,可扩大数据集图片的数量,防止过拟合;
S2的步骤包括:MobileNet神经网络是以深度可分离卷积核为基本结构的28层网络的深度卷积神经网络,一个深度可分离核由深度卷积核和点卷积核组成。MobileNet神经网络包括、1层卷积层、13层深度可分离层、一个全局平均池化层和一层全连接输出层,且该网络无池化层;
S3的步骤包括:选定卷积层的层数,将该层数的卷积核由空洞卷积核替代,通过提高该卷积核的感受野来提高所学习到的特征的质量,进一步提高分类准确度;其中,替代的卷积核为排序靠前的一层或两层高分辨率输入特征的卷积层;
S4的步骤包括:对不同的mini_batch、learning_rate、momentum、训练步长等超参数进行优化。
在其中一个实施例中,在准备数据集时,将图像从tfrecord中读取出来,并进行随机的左右翻转,随机裁剪成指定尺寸的图片大小,使得在神经网络训练完数据集的一个回合后,重新训练数据集时,可以使得重新训练的输入图片与前一次的训练图片有差异,可扩大数据集图片的数量,避免网络容易造成过拟合的问题。
在其中一个实施例中,搭建MobileNet神经网络时,对Conv1卷积层设计方法如下:对输入的原始图片进行边缘补偿处理,使得防止特征图减小过快,对处理过后的图片进行卷积操作,设置卷积核的大小和滑动步长,卷积处理后得到特征图,再经过一个BatchNormalization即BN处理,再经过ReLU激活函数得到特征映射图,作为下一层卷积层的输入;
对Conv2卷积层设计方法如下:该层为深度可分离层,由深度卷积层和点卷积层两层组成。将Conv1的输出作为Conv2深度卷积层的输入,且进行边缘补偿操作,对处理过后的输入进行卷积操作,设置卷积核大小和步长,卷积处理后得到特征图,再经过一个BatchNormalization即BN处理,再经过ReLU激活函数得到特征映射图,作为点卷积核的输入,进行点卷积操作,得到特征图,再经过一个Batch Normalization即BN处理,再经过ReLU激活函数得到特征映射图,作为下一层的输入;
后面的12层深度可分离层与Conv2卷积层设计方法相同;
对Avg_Pool15平均池化层设计方法如下:将Conv14卷积层的输出特征映射图进行平均池化,设置池化层卷积核大小,使得最后的输出特征图大小为1×1;
对FC16全连接分类层设计方法如下:将Avg_Pool15平均池化层的输出输入到FC16全连接层中,神经元个数为数据集的类别数,最后经过Softmax分类器进行分类。
在其中一个实施例中,对D-MobileNet进行构建时,在高分辨率输入特征图的卷积层中,将空洞卷积代替传统的卷积进行卷积操作,重点在于选取的卷积层层数,选取卷积层层数的方式包括:
将Conv1卷积层中的卷积核用空洞卷积核替代:此方法会增加少量计算量。将MobileNet神经网络Conv1卷积层步长设置为1,使得Conv1卷积层中的卷积核能用空洞卷积替代,为了最后全局平均池化层的输入尺寸大小与MobileNet相同,且只增加最少的计算量,在第二层的深度可分离层中的深度卷积层的步长设置为2,后面的卷积层不变;或,
将Conv2卷积层中的深度卷积层中的卷积核用空洞卷积核替代:此方法,不增加网络参数和计算量,不需改变网络其他卷积层的超参数。
在其中一个实施例中,超参数的设置,选取几组超参数,最后选定准确度最好的超参数。
本发明是在MobileNet网络结构的基础上引入空洞卷积。空洞卷积最先应用于图像分割领域。空洞卷积是在卷积滤波器的非零值中间插入零值,以提高该卷积滤波器的感受野。通过在MobileNet高分辨率的输入特征的深度卷积核由空洞为2的空洞卷积替代,可通过提高卷积核的感受野,提高其输出特征的质量,以达到提高分辨率的目的,具体网络结构如表一。本发明主要是使内存密集型与高度计算密集型的深度神经网络应用于低内存的、实时性高的设备中。
表一:D-MobileNet在Caltech-256数据集的结构图
具体实施方式
步骤一:数据准备
准备数据集,将数据集分为训练数据集和验证数据集,本发明使用TensorFlow框架,需将数据集的图片形式转换成tfrecord的形式存储,方便数据读取。
步骤二:对图像进行预处理
将图像从tfrecord中读取出来,并进行随机的左右翻转,随机裁剪成指定尺寸的图片大小,使得在神经网络训练完数据集的一个回合后,重新训练数据集时,可以使得重新训练的输入图片与前一次的训练图片有差异,可扩大数据集图片的数量,避免网络容易造成过拟合的问题。
步骤三:搭建D-MobileNet神经网络结构
通过对将MobileNet神经网络与空洞卷积相结合的改进方法对D-MobileNet神经网络进行搭建,在MobileNet神经网络的基础上加入空洞卷积的参数设置。本发明提出了两种D-MobileNet实现方法,一种是b_mobilenet,即将Conv1卷积层中的卷积核用扩张率为2的扩张卷积核替代,为使得最后全局池化层的输入尺寸与MobileNet的相同,且增加最少的计算量,需在Conv2卷积层中的深度可分离卷积层的卷积步长设置为2,后面卷积层不变;另一种是a_mobilenet,即将Conv2卷积层中的深度可分离卷积层的卷积核用扩张率为2的扩张卷积核替代,此方法不需改变其他卷积层的超参数,也不会增加网络参数和计算量。
步骤四:超参数的设置
MobileNet神经网络本身已经将一些超参数如每一层隐含层中卷积核的个数、神经网络的层数、激活函数的种类等已确定,但还需设置一些超参数,如:学习率(learningrate)、最小批次(mini batch)、学习的回合数(epoch)、动量参数(Momentum)等。
超参数设置完成后,对网络进行训练,并进行调参,使得设置的超参数数值为该网络最适合的数值。最后进行验证,得到网络的测试精度。最后结果如表二:
表二:MobileNet与两种D-MobileNet准确率
网络名称 | MobileNet | a_Mobilenet | b_Mobilenet |
准确率 | 0.6116 | 0.6213 | 0.6228 |
Claims (5)
1.基于D-MobileNet神经网络图像分类方法,其特征在于,所述方法包括如下步骤:
S1、准备数据集;
S2、MobileNet神经网络的构建;
S3、D-MobileNet神经网络的构建;
S4、超参数设置;
其中,S1的步骤包括:在Caltech_256数据集上进行实验,将图片转换为tfrecord的形式进行存储,并在训练和测试时对图片进行预处理,可扩大数据集图片的数量,防止过拟合;
S2的步骤包括:MobileNet神经网络是以深度可分离卷积核为基本结构的28层网络的深度卷积神经网络,一个深度可分离核由深度卷积核和点卷积核组成。MobileNet神经网络包括、1层卷积层、13层深度可分离层、一个全局平均池化层和一层全连接输出层,且该网络无池化层;
S3的步骤包括:选定卷积层的层数,将该层数的卷积核由空洞卷积核替代,通过提高该卷积核的感受野来提高所学习到的特征的质量,进一步提高分类准确度;其中,替代的卷积核为排序靠前的一层或两层高分辨率输入特征的卷积层;
S4的步骤包括:对不同的mini_batch、learning_rate、momentum、训练步长进行优化。
2.根据权利要求1所述的基于D-MobileNet神经网络图像分类方法,其特征在于,在准备数据集时,将图像从tfrecord中读取出来,并进行随机的左右翻转,随机裁剪成指定尺寸的图片大小,使得在神经网络训练完数据集的一个回合后,重新训练数据集时,可以使得重新训练的输入图片与前一次的训练图片有差异,可扩大数据集图片的数量,避免网络容易造成过拟合的问题。
3.根据权利要求1所述的基于D-MobileNet神经网络图像分类方法,其特征在于,搭建MobileNet神经网络时,对Conv1卷积层设计方法如下:对输入的原始图片进行边缘补偿处理,使得防止特征图减小过快,对处理过后的图片进行卷积操作,设置卷积核的大小和滑动步长,卷积处理后得到特征图,再经过一个Batch Normalization即BN处理,再经过ReLU激活函数得到特征映射图,作为下一层卷积层的输入;
对Conv2卷积层设计方法如下:该层为深度可分离层,由深度卷积层和点卷积层两层组成。将Conv1的输出作为Conv2深度卷积层的输入,且进行边缘补偿操作,对处理过后的输入进行卷积操作,设置卷积核大小和步长,卷积处理后得到特征图,再经过一个BatchNormalization即BN处理,再经过ReLU激活函数得到特征映射图,作为点卷积核的输入,进行点卷积操作,得到特征图,再经过一个Batch Normalization即BN处理,再经过ReLU激活函数得到特征映射图,作为下一层的输入;
后面的12层深度可分离层与Conv2卷积层设计方法相同;
对Avg_Pool15平均池化层设计方法如下:将Conv14卷积层的输出特征映射图进行平均池化,设置池化层卷积核大小,使得最后的输出特征图大小为1×1;
对FC16全连接分类层设计方法如下:将Avg_Pool15平均池化层的输出输入到FC16全连接层中,神经元个数为数据集的类别数,最后经过Softmax分类器进行分类。
4.根据权利要求1所述的基于D-MobileNet神经网络图像分类方法,其特征在于,对D-MobileNet进行构建时,在高分辨率输入特征图的卷积层中,将空洞卷积代替传统的卷积进行卷积操作,重点在于选取的卷积层层数,选取卷积层层数的方式包括:
将Conv1卷积层中的卷积核用空洞卷积核替代:此方法会增加少量计算量。将MobileNet神经网络Conv1卷积层步长设置为1,使得Conv1卷积层中的卷积核能用空洞卷积替代,为了最后全局平均池化层的输入尺寸大小与MobileNet相同,且只增加最少的计算量,在第二层的深度可分离层中的深度卷积层的步长设置为2,后面的卷积层不变;或,
将Conv2卷积层中的深度卷积层中的卷积核用空洞卷积核替代:此方法,不增加网络参数和计算量,不需改变网络其他卷积层的超参数。
5.根据权利要求1所述的基于D-MobileNet神经网络图像分类方法,其特征在于,超参数的设置,选取几组超参数,最后选定准确度最好的超参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810465364.5A CN109214406B (zh) | 2018-05-16 | 2018-05-16 | 基于D-MobileNet神经网络的图像分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810465364.5A CN109214406B (zh) | 2018-05-16 | 2018-05-16 | 基于D-MobileNet神经网络的图像分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109214406A CN109214406A (zh) | 2019-01-15 |
CN109214406B true CN109214406B (zh) | 2021-07-09 |
Family
ID=64990830
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810465364.5A Active CN109214406B (zh) | 2018-05-16 | 2018-05-16 | 基于D-MobileNet神经网络的图像分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109214406B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109766999A (zh) * | 2019-01-16 | 2019-05-17 | 宽凳(北京)科技有限公司 | 一种优化多要素识别类别混淆的方法 |
CN109636802A (zh) * | 2019-01-18 | 2019-04-16 | 天津工业大学 | 基于深度卷积神经网络的肺实质经ct图像分割方法 |
CN109784298A (zh) * | 2019-01-28 | 2019-05-21 | 南京航空航天大学 | 一种基于深度学习的室外非固定场景天气识别方法 |
CN110084181B (zh) * | 2019-04-24 | 2021-04-20 | 哈尔滨工业大学 | 一种基于稀疏MobileNetV2网络的遥感图像舰船目标检测方法 |
CN110197146B (zh) * | 2019-05-23 | 2021-02-23 | 招商局金融科技有限公司 | 基于深度学习的人脸图像分析方法、电子装置及存储介质 |
CN111784561A (zh) * | 2019-06-14 | 2020-10-16 | 北京沃东天骏信息技术有限公司 | 用于从图像中提取对象的方法、装置和存储介质 |
CN110287849B (zh) * | 2019-06-20 | 2022-01-07 | 北京工业大学 | 一种适用于树莓派的轻量化深度网络图像目标检测方法 |
CN110489584B (zh) * | 2019-07-19 | 2021-10-01 | 长沙理工大学 | 基于密集连接的MobileNets模型的图像分类方法及系统 |
CN110458173A (zh) * | 2019-08-16 | 2019-11-15 | 京东数字科技控股有限公司 | 用于生成物品颜色值的方法和装置 |
CN110781912A (zh) * | 2019-09-10 | 2020-02-11 | 东南大学 | 一种基于通道扩张倒置卷积神经网络的图像分类方法 |
CN112749587A (zh) * | 2019-10-30 | 2021-05-04 | 青岛海尔智能技术研发有限公司 | 烘焙模具规格检测的方法及装置、厨电设备 |
CN111104961A (zh) * | 2019-10-31 | 2020-05-05 | 太原理工大学 | 基于改进的MobileNet网络对乳腺癌进行分类的方法 |
CN111428876B (zh) * | 2020-03-18 | 2022-08-23 | 广西师范大学 | 基于自步学习的混合空洞卷积神经网络的图像分类方法 |
CN111461130B (zh) * | 2020-04-10 | 2021-02-09 | 视研智能科技(广州)有限公司 | 一种高精度图像语义分割算法模型及分割方法 |
CN112258431B (zh) * | 2020-09-27 | 2021-07-20 | 成都东方天呈智能科技有限公司 | 基于混合深度可分离膨胀卷积的图像分类模型及其分类方法 |
CN112765353B (zh) * | 2021-01-22 | 2022-11-04 | 重庆邮电大学 | 一种基于科研文本的生物医学学科分类方法及装置 |
CN113780357B (zh) * | 2021-08-13 | 2024-02-02 | 华中农业大学 | 一种基于迁移学习+MobileNet的玉米叶片病虫害移动端识别方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SG144769A1 (en) * | 2007-01-30 | 2008-08-28 | Phua Chiew Chuan | Mobilenet |
US10277630B2 (en) * | 2011-06-03 | 2019-04-30 | The Boeing Company | MobileNet |
CN107203999B (zh) * | 2017-04-28 | 2020-01-24 | 北京航空航天大学 | 一种基于全卷积神经网络的皮肤镜图像自动分割方法 |
CN107341518A (zh) * | 2017-07-07 | 2017-11-10 | 东华理工大学 | 一种基于卷积神经网络的图像分类方法 |
CN107679477B (zh) * | 2017-09-27 | 2021-02-02 | 深圳市未来媒体技术研究院 | 基于空洞卷积神经网络的人脸深度和表面法向量预测方法 |
CN107871142A (zh) * | 2017-11-14 | 2018-04-03 | 华南理工大学 | 一种基于深度卷积对抗网络模型的空洞卷积方法 |
-
2018
- 2018-05-16 CN CN201810465364.5A patent/CN109214406B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109214406A (zh) | 2019-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109214406B (zh) | 基于D-MobileNet神经网络的图像分类方法 | |
CN112149504B (zh) | 混合卷积的残差网络与注意力结合的动作视频识别方法 | |
CN110348399B (zh) | 基于原型学习机制和多维残差网络的高光谱智能分类方法 | |
CN112070209B (zh) | 基于w距离的稳定可控图像生成模型训练方法 | |
CN108509843B (zh) | 一种基于加权的Huber约束稀疏编码的人脸识别方法 | |
CN110706303B (zh) | 基于GANs的人脸图像生成方法 | |
CN107862275A (zh) | 人体行为识别模型及其构建方法和人体行为识别方法 | |
CN110097178A (zh) | 一种基于熵注意的神经网络模型压缩与加速方法 | |
CN112541864A (zh) | 一种基于多尺度生成式对抗网络模型的图像修复方法 | |
CN107240136B (zh) | 一种基于深度学习模型的静态图像压缩方法 | |
CN113420794B (zh) | 一种基于深度学习的二值化Faster R-CNN柑橘病虫害识别方法 | |
CN112528830A (zh) | 一种结合迁移学习的轻量级cnn口罩人脸姿态分类方法 | |
CN111160488A (zh) | 融合注意力选择机制的CondenseNet算法 | |
CN113627282A (zh) | 一种基于深度迁移学习的茶叶病害识别方法 | |
CN111694977A (zh) | 一种基于数据增强的车辆图像检索方法 | |
CN110781912A (zh) | 一种基于通道扩张倒置卷积神经网络的图像分类方法 | |
CN108805802B (zh) | 一种基于约束条件的堆叠步进自编码器的正面人脸重建系统及方法 | |
CN112767344A (zh) | 一种基于车载摄像的耦合传统和机器学习的病害增强方法 | |
CN115829027A (zh) | 一种基于对比学习的联邦学习稀疏训练方法及系统 | |
CN112884149A (zh) | 一种基于随机敏感度st-sm的深度神经网络剪枝方法及系统 | |
CN110096976A (zh) | 基于稀疏迁移网络的人体行为微多普勒分类方法 | |
CN115330620A (zh) | 一种基于循环生成对抗网络的图像去雾方法 | |
CN109948589B (zh) | 基于量子深度信念网络的人脸表情识别方法 | |
CN113255832A (zh) | 双分支多中心的长尾分布识别的方法 | |
CN109887023B (zh) | 一种基于加权梯度幅度的双目融合立体图像质量评价方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20231228 Address after: No. 102, Building 1, Xianghu Second Village, Wanbao Avenue, Xianghu Street, Furong District, Changsha City, Hunan Province, 410001 Patentee after: Changsha net Mdt InfoTech Ltd. Address before: No. 960, South Wanjiali Road, Changsha City, Hunan Province Patentee before: CHANGSHA University OF SCIENCE AND TECHNOLOGY |