CN109740734A - 一种优化卷积神经网络中神经元空间排布的方法 - Google Patents

一种优化卷积神经网络中神经元空间排布的方法 Download PDF

Info

Publication number
CN109740734A
CN109740734A CN201811634321.1A CN201811634321A CN109740734A CN 109740734 A CN109740734 A CN 109740734A CN 201811634321 A CN201811634321 A CN 201811634321A CN 109740734 A CN109740734 A CN 109740734A
Authority
CN
China
Prior art keywords
network
convolution kernel
weight
full articulamentum
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811634321.1A
Other languages
English (en)
Other versions
CN109740734B (zh
Inventor
刘波
刘奥文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Xiaofeng Technology Co.,Ltd.
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201811634321.1A priority Critical patent/CN109740734B/zh
Publication of CN109740734A publication Critical patent/CN109740734A/zh
Application granted granted Critical
Publication of CN109740734B publication Critical patent/CN109740734B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明属于人工智能领域,具体涉及一种优化卷积神经网络中神经元空间排布的方法,包括:1、搭建网络;2、利用自组织映射算法预训练网络得到网络的初始化参数;3、修改损失函数,即在交叉熵损失函数的基础上新加描述相邻卷积核权值分布相似性的正则化项;4、按照步骤1再次搭建好新的网络,然后利用步骤2得到的卷积核的权值,初始化步骤1中搭建的网络的卷积核的权值,利用图像分类的数据集进行网络训练,利用反向传播算法不断更新网络的参数,当修改后的损失函数达到最小时结束训练,得到神经元空间排布优化后的卷积神经网络模型。此模型的神经元之间具有更好的语义组织关系,与人体内神经元的组织排列方式更相似,具有广阔的应用前景。

Description

一种优化卷积神经网络中神经元空间排布的方法
技术领域:
本发明属于人工智能领域,具体涉及深度学习方法。
背景技术:
人体内神经元的组织连接一直都是各国科研工作者的研究热点和重点。神经科学家已经发现,当视网膜中有若干个接收单元同时受特定模式刺激时,就使大脑皮层中的特定神经元开始兴奋,输入模式接近,与之对应的兴奋神经元也接近。心理学家已经探索了大脑中概念的组织方式。最流行的理论之一是语义网络模型,它使用网络结构来表示概念及其关系。网络中的每个节点表示概念或类别,并且每个边表示连接的节点之间的关系。语义相关的概念通过几条边直接或间接连接。一旦激活了某个概念,就通过连接传播到相邻的概念节点,从而也可能激活语义相关的概念。
人工神经网络模拟了人体内神经元的连接方式和工作原理,使其接近人体内神经元的组织排列方式。卷积神经网络作为人工神经网络的重要组成部分,已经取得了很多成果,主要集中在如何实现诸如分类等任务的良好性能。在传统的卷积神经网络中,卷积层之间的神经元具有连接,而层内的神经元之间没有联系,这与人脑中神经元的组织排列方式不一致,因此还可以进一步优化改进。
发明内容
为了使卷积神经网络中神经元之间具有语义组织关系,受到神经科学和认知心理学的启发,本发明提出一种优化卷积神经网络中神经元的语义组织排列方法,也就是说,对语义相近类别敏感的神经元在网络空间中的分布位置也相近。我们利用图像分类的任务,将这种语义组织关系融合到卷积神经网络。
本发明的流程图如图1所示,包括四个步骤:
步骤1:搭建网络网络包括五个卷积层、三个最大池化层,以及三个全连接层,其连接顺序为:第一卷积层、第一最大池化层、第二卷积层、第二最大池化层、第三卷积层、第四卷积层、第五卷积层、第二最大池化层、第一全连接层、第二全连接层、第三全连接层;
步骤2:利用自组织映射算法预训练网络得到网络的初始化参数,具体步骤如下:
按照步骤1搭建好网络后,需要修改卷积层和全连接层的前向传播过程,,在每个卷积层和每个全连接层内加入自组织映射的学习方式,利用自组织映射算法更新卷积核的权值,即每当窗口滑动到当前位置时,分别计算每个卷积核与该窗口区域内像素的点积,并找到最大点积值对应的卷积核,称之为获胜的卷积核,并用公式(1)更新获胜的卷积核及其邻近卷积核的权重,然后窗口滑动到下一位置,重复相同的操作,其中权重更新公式如下:
Wl,k(q)表示第l层第k个卷积核在第q个位置时的权重,t为迭代次数,η(t)是学习速度,Λ(k,k*)是窗函数,k*表示获胜卷积核的位置,Φq表示卷积核在特征图上第q个位置上所覆盖的像素;第l层用于表示卷积层和全连接层;
在根据公式(1)更新完获胜卷积核及其邻近卷积核的权重后,对这些卷积核的权重进行归一化操作,防止获胜卷积核的权值在更新后过大,如下式(2),
表示根据公式(1)更新完后的第l层第k个卷积核在第q个位置的权重,Wl,k(q+1)表示第l层第k个卷积核在第q+1个位置时的权重,μl,k和σl,k分别是根据公式(1)更新完后的第l层第k个卷积核权值的均值和方差,μ和σ分别为网络初始化时第l层第k个卷积核权值的均值和方差;
结合图像分类数据集,输入图像到网络,利用公式(1)和(2)不断更新网络中卷积核的权值,整个训练过程不需要反向传播算法更新卷积核的权值,达到预设的迭代次数后结束预训练过程,保存网络的所有卷积核的权值;
步骤3:修改损失函数
所述的损失函数,即在交叉熵损失函数的基础上新加描述相邻卷积核权值分布相似性的正则化项,具体公式如下,
L=Lcls+Lsom (3)
L表示网络整体的损失函数,Lcls表示交叉熵损失函数,Lsom是用于描述网络中相邻核的权值分布相似程度的正则化项;
其中,Lcls=-logpu,u表示人工标注图片的类别序号,pu表示网络预测该图片为类别序号u的概率;
λ为平衡因子,用来调节Lsom损失项对总体损失的影响,n1表示网络中卷积层的总数,n2表示网络中全连接层的总数,l表示卷积层的对应层数或者全连接层的对应层数,m1表示第l个卷积层中卷积核的个数,m2表示第l个全连接层中卷积核的个数,Wli表示第l个卷积层或全连接层第i个卷积核的权值;
步骤4:按照步骤1再次搭建好新的网络,需要注意的是,这里不需要如步骤(2)修改卷积层或全连接层的前向传播过程,保持卷积层和全连接层的原有前向传播过程不变即可。然后利用步骤2得到的卷积核的权值,初始化步骤1中搭建的网络的卷积核的权值,利用图像分类的数据集ImageNet进行网络训练,利用反向传播算法不断更新网络的参数,当步骤3修改后得到的损失函数达到最小时结束训练,得到神经元空间排布优化后的卷积神经网络模型。
有益效果
本发明得到的卷积神经网络模型的神经元之间具有更好的语义组织关系,与人体内神经元的组织排列方式更相似。神经元语义组织的用途具有非常广泛的前景,能够节省概念存储空间和加快概念检索速度。
附图说明
图1、本发明方法流程图;
图2、本发明所述网络结构示意图;
图3、实验使用的部分数据;
具体实施方式:
以下将从实验具体实现细节方面对本发明作进一步详细说明。根据图1所示的流程图中步骤进行实验操作。
步骤1:搭建网络
本发明选择AlexNet网络作为基本网络,如图2所示,其特征于:输入的图片大小为227x227;
所述的第一卷积层的卷积核大小为11x11,个数为96,步长为4;
所述的第一最大池化层窗口大小为3x3,步长为2;
所述的第二卷积层的卷积核大小为5x5,个数为256,步长为1;
所述的第二最大池化层窗口大小为3x3,步长为2;
所述的第三卷积层的卷积核大小为3x3,个数为384,步长为1;
所述的第四卷积层的卷积核大小为3x3,个数为384,步长为1;
所述的第五卷积层的卷积核大小为3x3,个数为256,步长为1;
所述的第三最大池化层窗口大小为3x3,步长为2;
所述的第一全连接层的维度为4096;
所述的第二全连接层的维度为4096;
所述的第三全连接层的维度为1000,与数据集中类别数保持相等即可;在整个网络中选择Relu函数作为激活函数。
步骤2:利用自组织映射算法预训练网络得到网络的初始化参数,具体步骤如下:
我们首先基于Python编写代码,搭建实现了AlexNet网络框架,该部分的实验均在CPU上运行。我们根据公式(1)和(2),在卷积层和全连接层中加入了自组织算法的更新规则,所有的反向传播过程是不需要的。我们根据Caffe框架提供的AlexNet网络设置初始化参数。为了利用自组织映射算法训练AlexNet网络,我们从ImageNet ILSVRC2012数据集中随机抽取了15个类别,每个类别随机抽取100张图片。每张图片的大小固定到227x227,并且每个像素的RGB通道需要分别减去对应的均值,进行归一化处理,RGB通道的均值根据抽取的所有样本计算可得。我们设置Batch_size等于5,实验共迭代训练了300次,η(t)的初始值设置为0.0001,在整个训练过程中,每迭代150次,学习率η(t)减半。整个训练过程大约持续了12个小时,训练结束后将所有卷积核的权值保存在文本文件中。
根据公式(1)所述,其窗函数具体如下:
其中,k表示第k个卷积核的位置,k*表示获胜卷积核的位置。
步骤3:修改损失函数
根据公式(3)和(4),修改Caffe框架的交叉熵损失函数层,增加正则化项Lsom,它计算了网络中所有卷积层和全连接层中相邻卷积核之间权值的差值平方和,置λ为0.0004较为合适。ImageNet数据集总类别数为1000,对应第三全连接层的维度为1000,假设输入图片的真实类别为u,第三全连接层的第u维数据即为叉熵损失函数Lcls中的pu
步骤4:网络训练
首先基于Caffe框架搭建好步骤1中的AlexNet网络,不需要如步骤(2)修改卷积层或全连接层的前向传播过程,保持卷积层和全连接层的原有前向传播过程不变即可。然后按照步骤3修改好网络的损失函数,还利用步骤2得到的卷积核权值初始化新搭建的AlexNet网络的卷积核。我们使用ImageNet ILSVRC2012数据集训练和验证网络,它共有1000个类别,每个类别有1300张训练图片,50张验证图片。当损失函数达到最小时网络训练完毕,得到神经元空间排布优化后的卷积神经网络模型。
步骤5:结果预测和评价
为了与其他实验结果做对比,我们在AlexNet的第三全连接层后面附加一个全连接层,保持1000维。在网络训练结束后,去除了附加的全连接层,我们只利用剩余的网络结构来评价网络性能。使用深度学习框架Caffe并采用随机梯度下降法SGD训练网络,网络最大迭代次数为450000,batch_size为256。设置初始学习率为0.01,网络每迭代训练100000次,学习率就乘以0.1。momentum为0.9,权重衰减项的平衡因子为0.0005。我们使用整个ImageNet数据集训练和验证网络,在训练网络前需要对训练集中的图片进行预处理,我们在每张图片的中心处附近随机进行裁剪,得到227x227固定大小的图片,并且每个像素的RGB通道需要分别减去对应的均值,进行归一化处理。这些操作利用Caffe提供的接口即可实现。网络的训练是在单个Titan X GPU上进行,整个训练过程持续了大约七天。待训练完成后,将最后的模型数据保存。
我们用三种不同的评价标准来评估本发明得到的网络模型。第一种是计算所有卷积层和全连接层中相邻核的权值分布的相似程度,第二种是计算网络输出空间神经元分布的有序程度,第三种是测量网络通过激活扩散方式的预测速度。
实验组别说明如下:
实验一是利用随机初始化网络参数,迭代训练直到网络收敛;
实验二是利用随机初始化网络参数,并修改损失函数,增加正则化项Lsom,迭代训练直到网络收敛;
实验三是利用随机初始化网络参数,并修改损失函数,增加正则化项Lsom,还随机打乱训练集中类别位置,迭代训练直到网络收敛;
第一种评价标准:计算所有卷积层和全连接层中相邻核的权值分布的相似程度,按照下面公式(6)进行计算,
N表示网络中所有卷积层和全连接层的核的个数,n1表示网络中卷积层的总数,n2表示网络中全连接层的总数,l表示卷积层的对应层数或者全连接层的对应层数,m1表示第l个卷积层中卷积核的个数,m2表示第l个全连接层中卷积核的个数,Wli表示第l个卷积层或全连接层第i个卷积核的权值;
Dis计算了网络中所有卷积层和全连接层中相邻核之间权值的差值平方和的均值。Dis越小,表示相邻核的权值分布越相似。
结果如表一,相比其他方法,本发明的Dis值更小,说明网络模型中卷积层或全连接层中相邻核的权值分布更相似。
Dis Top-1(val)
实验一 4.610 0.540
实验二 1.046 0.532
本发明 1.050 0.532
表一:第一种评价标准结果对比
其中,Top-1(val)表示利用验证集测试网络的分类精确度。
第二种评价标准:计算网络输出空间神经元分布的有序程度,这里使用ImageNet验证集作为测试数据,共5万张图像,1000类别,每个类别50张图片,我们利用模型预测每个类别的每张测试图片的输出响应位置,然后计算该类别的平均位置。按照下面公式(7)进行计算,
si是在WordNet中,第i类别与之距离最近的类别之间的距离,等于这两个类别节点到最近公共父节点的距离之和,di是第i类别的均值位置与之距离最近的类别的均值位置之间的距离。D值越小,说明输出空间神经元之间的语义组织关系更强,对语义相近类别敏感的神经元在网络空间中的分布位置也更相近。结果如下表二,相比其他几种不同方法,本发明的D值更小,表明其输出空间神经元的排列分布更有序,对语义相近类别敏感的神经元在网络空间中的分布位置也更相近。
si
表二:第二种评价标准结果对比第三种评价标准:测量网络通过激活扩散方式的预测速度。我们用手机获取了一段关于杯子的视频,大约40秒,在图3展示了部分视频截图。我们每隔20帧抽取一张图片作为测试图片,一共抽取了50张测试图片。为了测量预测的速度,给定两个连续的测试图片,我们计算激活最强的神经元之间的距离,并将其作为响应时间的替代。更具体地,平均响应时间按照下面公式(8)进行计算,
Nf表示测试图片张数,ai表示第i张图片在第三全连接层神经元的响应位置。MRT值越小,说明网络通过激活扩散方式的预测速度更快。结果如表三,本发明的MRT值更小,说明本发明的网络模型通过激活扩散方式的预测速度更快。
MRT
实验一 219.08
实验二 131.48
本发明 127.14
表三:第三种评价标准结果对比
通过以上的评价标准和对比实验可知,本发明得到的卷积神经网络模型的神经元之间具有更好的语义组织关系,与人体内神经元的组织排列方式更相似。神经元的语义组织的用途也非常广泛,能够节省概念存储空间和加快概念检索速度。

Claims (7)

1.一种优化卷积神经网络中神经元空间排布的方法,其特征在于包括以下步骤:
步骤1:搭建网络;
步骤2:利用自组织映射算法预训练网络得到网络的初始化参数;
步骤3:修改损失函数,即在交叉熵损失函数的基础上新加描述相邻卷积核权值分布相似性的正则化项;
步骤4:按照步骤1再次搭建好新的网络,然后利用步骤2得到的卷积核的权值,初始化步骤1中搭建的网络的卷积核的权值,利用图像分类的数据集ImageNet进行网络训练,利用反向传播算法不断更新网络的参数,当步骤3修改后得到的损失函数达到最小时结束训练,得到神经元空间排布优化后的卷积神经网络模型。
2.根据权利要求1,其特征在于:所述网络包括五个卷积层、三个最大池化层,以及三个全连接层,其连接顺序为:第一卷积层、第一最大池化层、第二卷积层、第二最大池化层、第三卷积层、第四卷积层、第五卷积层、第三最大池化层、第一全连接层、第二全连接层、第三全连接层。
3.根据权利要求2,其特征在于:步骤1所述的网络具体如下:
所述的第一卷积层的卷积核大小为11x11,个数为96,步长为4;
所述的第一最大池化层窗口大小为3x3,步长为2;
所述的第二卷积层的卷积核大小为5x5,个数为256,步长为1;
所述的第二最大池化层窗口大小为3x3,步长为2;
所述的第三卷积层的卷积核大小为3x3,个数为384,步长为1;
所述的第四卷积层的卷积核大小为3x3,个数为384,步长为1;
所述的第五卷积层的卷积核大小为3x3,个数为256,步长为1;
所述的第三最大池化层窗口大小为3x3,步长为2;
所述的第一全连接层的维度为4096;
所述的第二全连接层的维度为4096;
所述的第三全连接层的维度与数据集中类别数保持相等即可;在整个网络中选择Relu函数作为激活函数。
4.根据权利要求1,其特征在于:步骤2所述的自组织映射算法预训练网络,具体步骤如下:
需要修改卷积层和全连接层的前向传播过程,在每个卷积层和每个全连接层内加入自组织映射的学习方式,即每当窗口滑动到当前位置时,分别计算每个卷积核与该窗口区域内像素的点积,并找到最大点积值对应的卷积核,称之为获胜的卷积核,并用公式(1)更新获胜的卷积核及其邻近卷积核的权重,然后窗口滑动到下一位置,重复相同的操作,其中权重更新公式如下:
Wl,k(q)表示第l层第k个卷积核在第q个位置时的权重,t为迭代次数,η(t)是学习速度,Λ(k,k*)是窗函数,k*表示获胜卷积核的位置,Φq表示卷积核在特征图上第q个位置上所覆盖的像素;第l层表示卷积层或者全连接层;
在根据公式(1)更新完获胜卷积核及其邻近卷积核的权重后,对这些卷积核的权重进行归一化操作,如下式(2),
表示根据公式(1)更新完后的第l层第k个卷积核在第q个位置的权重,Wl,k(q+1)表示第l层第k个卷积核在第q+1个位置时的权重,μl,k和σl,k分别是根据公式(1)更新完后的第l层第k个卷积核权值的均值和方差,μ和σ分别为网络初始化时第l层第k个卷积核权值的均值和方差;
结合图像分类数据集,输入图像到网络,利用公式(1)和(2)不断更新网络中卷积核的权值,整个训练过程不需要反向传播算法更新卷积核的权值,达到预设的迭代次数后结束预训练过程,保存网络的所有卷积核的权值。
5.根据权利要求4,其特征在于:步骤2中所述的窗函数具体如下:
其中,k表示卷积核的位置,k*表示获胜卷积核的位置。
6.根据权利要求1,其特征在于:步骤3所述的损失函数具体公式如下,
L=Lcls+Lsom (3)
L表示网络整体的损失函数,Lcls表示交叉熵损失函数,Lsom是用于描述网络中相邻核的权值分布相似程度的正则化项;
其中,Lcls=-logpu,u表示人工标注图片的类别序号,pu表示网络预测该图片为类别序号u的概率;
λ为平衡因子,用来调节Lsom损失项对总体损失的影响,n1表示网络中卷积层的总数,n2表示网络中全连接层的总数,l表示卷积层的对应层数或者全连接层的对应层数,m1表示第l个卷积层中卷积核的个数,m2表示第l个全连接层中卷积核的个数,Wli表示第l个卷积层或全连接层第i个卷积核的权值。
7.根据权利要求5,其特征在于:步骤4中所述的再次搭建好新的网络,不需要如步骤(2)修改卷积层或全连接层的前向传播过程,保持卷积层和全连接层的原有前向传播过程不变即可。
CN201811634321.1A 2018-12-29 2018-12-29 一种利用优化神经元空间排布的卷积神经网络的图像分类方法 Active CN109740734B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811634321.1A CN109740734B (zh) 2018-12-29 2018-12-29 一种利用优化神经元空间排布的卷积神经网络的图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811634321.1A CN109740734B (zh) 2018-12-29 2018-12-29 一种利用优化神经元空间排布的卷积神经网络的图像分类方法

Publications (2)

Publication Number Publication Date
CN109740734A true CN109740734A (zh) 2019-05-10
CN109740734B CN109740734B (zh) 2020-12-04

Family

ID=66362219

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811634321.1A Active CN109740734B (zh) 2018-12-29 2018-12-29 一种利用优化神经元空间排布的卷积神经网络的图像分类方法

Country Status (1)

Country Link
CN (1) CN109740734B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110490239A (zh) * 2019-08-06 2019-11-22 腾讯医疗健康(深圳)有限公司 图像质控网络的训练方法、质量分类方法、装置及设备
CN111931913A (zh) * 2020-08-10 2020-11-13 西安电子科技大学 基于Caffe的卷积神经网络在FPGA上的部署方法
CN113210936A (zh) * 2021-04-23 2021-08-06 张家港华程机车精密制管有限公司 一种直缝焊管的焊接方法、系统和可读介质
CN113255883A (zh) * 2021-05-07 2021-08-13 青岛大学 一种基于幂律分布的权重初始化方法
CN113269720A (zh) * 2021-04-16 2021-08-17 张家港华程机车精密制管有限公司 一种直缝焊管的缺陷检测方法、系统和可读介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105975931A (zh) * 2016-05-04 2016-09-28 浙江大学 一种基于多尺度池化的卷积神经网络人脸识别方法
CN106033594A (zh) * 2015-03-11 2016-10-19 日本电气株式会社 基于卷积神经网络所获得特征的空间信息恢复方法及装置
CN107341518A (zh) * 2017-07-07 2017-11-10 东华理工大学 一种基于卷积神经网络的图像分类方法
CN107516129A (zh) * 2017-08-01 2017-12-26 北京大学 基于维度自适应的Tucker分解的深度网络压缩方法
CN108122030A (zh) * 2016-11-30 2018-06-05 华为技术有限公司 一种卷积神经网络的运算方法、装置和服务器
CN108416427A (zh) * 2018-02-22 2018-08-17 重庆信络威科技有限公司 卷积核堆积数据流、压缩编码以及深度学习算法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106033594A (zh) * 2015-03-11 2016-10-19 日本电气株式会社 基于卷积神经网络所获得特征的空间信息恢复方法及装置
CN105975931A (zh) * 2016-05-04 2016-09-28 浙江大学 一种基于多尺度池化的卷积神经网络人脸识别方法
CN108122030A (zh) * 2016-11-30 2018-06-05 华为技术有限公司 一种卷积神经网络的运算方法、装置和服务器
CN107341518A (zh) * 2017-07-07 2017-11-10 东华理工大学 一种基于卷积神经网络的图像分类方法
CN107516129A (zh) * 2017-08-01 2017-12-26 北京大学 基于维度自适应的Tucker分解的深度网络压缩方法
CN108416427A (zh) * 2018-02-22 2018-08-17 重庆信络威科技有限公司 卷积核堆积数据流、压缩编码以及深度学习算法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
谭秀辉: "自组织神经网络在信息处理中的应用研究", 《中国博士学位论文全文数据库 信息科技辑》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110490239A (zh) * 2019-08-06 2019-11-22 腾讯医疗健康(深圳)有限公司 图像质控网络的训练方法、质量分类方法、装置及设备
CN110490239B (zh) * 2019-08-06 2024-02-27 腾讯医疗健康(深圳)有限公司 图像质控网络的训练方法、质量分类方法、装置及设备
CN111931913A (zh) * 2020-08-10 2020-11-13 西安电子科技大学 基于Caffe的卷积神经网络在FPGA上的部署方法
CN111931913B (zh) * 2020-08-10 2023-08-01 西安电子科技大学 基于Caffe的卷积神经网络在FPGA上的部署方法
CN113269720A (zh) * 2021-04-16 2021-08-17 张家港华程机车精密制管有限公司 一种直缝焊管的缺陷检测方法、系统和可读介质
CN113269720B (zh) * 2021-04-16 2024-02-02 张家港华程机车精密制管有限公司 一种直缝焊管的缺陷检测方法、系统和可读介质
CN113210936A (zh) * 2021-04-23 2021-08-06 张家港华程机车精密制管有限公司 一种直缝焊管的焊接方法、系统和可读介质
CN113210936B (zh) * 2021-04-23 2022-05-31 张家港华程机车精密制管有限公司 一种直缝焊管的焊接方法、系统和可读介质
CN113255883A (zh) * 2021-05-07 2021-08-13 青岛大学 一种基于幂律分布的权重初始化方法
CN113255883B (zh) * 2021-05-07 2023-07-25 青岛大学 一种基于幂律分布的权重初始化方法

Also Published As

Publication number Publication date
CN109740734B (zh) 2020-12-04

Similar Documents

Publication Publication Date Title
CN109740734A (zh) 一种优化卷积神经网络中神经元空间排布的方法
CN108985377B (zh) 一种基于深层网络的多特征融合的图像高级语义识别方法
CN108717568B (zh) 一种基于三维卷积神经网络的图像特征提取与训练方法
Luus et al. Multiview deep learning for land-use classification
CN105447569B (zh) 一种基于深度学习的乳腺癌细胞特征分析系统
CN109344855B (zh) 一种基于排序引导回归的深度模型的人脸美丽评价方法
CN105469376B (zh) 确定图片相似度的方法和装置
CN106446942A (zh) 基于增量学习的农作物病害识别方法
CN107958257A (zh) 一种基于深度神经网络的中药材识别方法
CN106529574B (zh) 基于稀疏自动编码器和支持向量机的图像分类方法
CN106778014A (zh) 一种基于循环神经网络的患病风险预测方法
CN106951825A (zh) 一种人脸图像质量评估系统以及实现方法
CN106919951A (zh) 一种基于点击与视觉融合的弱监督双线性深度学习方法
CN110097178A (zh) 一种基于熵注意的神经网络模型压缩与加速方法
CN109190684A (zh) 基于素描及结构生成对抗网络的sar图像样本生成方法
CN109063724A (zh) 一种增强型生成式对抗网络以及目标样本识别方法
CN110046656A (zh) 基于深度学习的多模态场景识别方法
CN109034960B (zh) 一种基于用户节点嵌入的多属性推断的方法
CN108804677A (zh) 结合多层级注意力机制的深度学习问题分类方法及系统
CN105160400A (zh) 基于l21范数的提升卷积神经网络泛化能力的方法
CN109389171A (zh) 基于多粒度卷积降噪自动编码器技术的医疗图像分类方法
CN106529503A (zh) 一种集成卷积神经网络人脸情感识别方法
CN109508644A (zh) 基于深度视频数据分析的面瘫等级评估系统
CN108596327A (zh) 一种基于深度学习的地震速度谱人工智能拾取方法
CN109272487A (zh) 一种基于视频的公共区域内人群的数量统计方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20211122

Address after: 518052 Room 201, building A, 1 front Bay Road, Shenzhen Qianhai cooperation zone, Shenzhen, Guangdong

Patentee after: Shenzhen Xiaofeng Technology Co.,Ltd.

Address before: 100124 No. 100 Chaoyang District Ping Tian Park, Beijing

Patentee before: Beijing University of Technology

TR01 Transfer of patent right