CN109447238B - 多输出回归深度网络构建方法、结构、设备及存储介质 - Google Patents

多输出回归深度网络构建方法、结构、设备及存储介质 Download PDF

Info

Publication number
CN109447238B
CN109447238B CN201811107222.8A CN201811107222A CN109447238B CN 109447238 B CN109447238 B CN 109447238B CN 201811107222 A CN201811107222 A CN 201811107222A CN 109447238 B CN109447238 B CN 109447238B
Authority
CN
China
Prior art keywords
layer
size
image
output
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811107222.8A
Other languages
English (en)
Other versions
CN109447238A (zh
Inventor
张磊
甄先通
李欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Petrochemical Technology
Original Assignee
Guangdong University of Petrochemical Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Petrochemical Technology filed Critical Guangdong University of Petrochemical Technology
Priority to CN201811107222.8A priority Critical patent/CN109447238B/zh
Publication of CN109447238A publication Critical patent/CN109447238A/zh
Application granted granted Critical
Publication of CN109447238B publication Critical patent/CN109447238B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及多输出回归深度网络的构建方法,包括以下步骤:构建第一层卷积层,将输入为任意尺寸的图像输出为固定尺寸的图像;构建第二层双卷积层,利用元滤波器组构成双滤波器组,再利用双滤波器组进行卷积神经网络操作;构建第三层和第四层双卷积层,分别重复第二层的操作;构建第五层输入层和第六层输出层,将第四层双卷积层输出的矩阵拉伸成向量作为第五层的输入,利用激活函数的全连接对其进行非线性映射;对非线性映射的多输出结果进行线性回归。本发明通过构建六层网络结构,解决了传统卷积神经网络输入图像尺寸固定问题;利用DCNN的高可靠性,提升传统CNN的性能;采用余弦激活函数,克服了核近似方法随机选取参数带来的偶然性。

Description

多输出回归深度网络构建方法、结构、设备及存储介质
技术领域
本发明涉及机器学习和数据挖掘领域,特别涉及计算机视觉领域。
背景技术
随着深度学习的爆发,神经网络再次成为人们关注的热点。目前比较流行的网络结构中,如VGG、Google模型等,还采用传统的CNN层,并且在激活函数选择中,ReLU及其变形、Sigmod函数、Tanh函数等是其备选,其中ReLU是大部分模型的首选激活函数。而在2016年NIPS提出的DCNN的文章中,也只是套用VGG模型中的层数、节点数、激活函数,除了卷积层CNN用DCNN替代。
而传统的多输出回归模型是需要描述的是输入-输出之间的关系,以及多输出之间的相关性。目前多输出回归模型在刻画输入-输出关系中,主要采用线性回归模型;而对多输出之间内在关系刻画上,主要基于某些先验知识的相关假设的模型。在线性回归模型中,一般对回归系数加入低秩或者稀疏的限定以获得多输出之间关系;而在基于先验知识的相关假设模型中,一般认为回归系数存在一个低维的流形空间或者共享一个线性子空间。多输出回归模型基于先验知识的相关假设模型中,在多数实际应用中,其回归系数存在一个低维的流形空间的假设并不成立,并且在不同应用中,也不能保证可以共享一个线性子空间,这两点大大限制了该方法在实际数据中的应用;并且线性回归模型不能很好处理输入和输出之间的非线性关系。
传统的卷积深度网络结构一般只能接受固定尺寸输入,而对于任意尺寸大小的图像不能直接输入到这些传统的卷积深度网络结构中,需要将其转换为能接受的固定尺寸后才能进行输入。
发明内容
本发明针对端到端的多输出回归深度网络,提出一种新的神经网络结构和构建方法,其通过构建六层网络结构,解决了传统卷积神经网络输入图像尺寸固定问题;并利用DCNN的高可靠性,提升传统CNN的性能。采用余弦激活函数作为中间层,利用激活函数的全连接对其进行非线性映射;对非线性映射的多输出结果进行线性回归,有效克服了核近似方法中随机选取参数带来的偶然性。
本发明涉及一种多输出回归深度网络的构建方法,包括以下步骤:构建第一层卷积层,将输入为任意尺寸的图像输出为固定尺寸的图像;构建第二层双卷积层,利用元滤波器组构成双滤波器组,再利用双滤波器组进行卷积神经网络操作;构建第三层双卷积层和第四层双卷积层,分别重复第二层的操作;构建第五层输入层和第六层输出层,将所述第四层双卷积层输出的矩阵拉伸成向量作为第五层的输入,利用激活函数的全连接对其进行非线性映射;对非线性映射的多输出结果进行线性回归。
优选地,构建第一层卷积层包括以下步骤:设定预设图像尺寸为
Figure BDA0001808121720000021
输入任意尺寸的图像I∈Rc×w×h;判断输入图像尺寸的维度,当输入图像尺寸中某个维度小于预设图像尺寸的维度时,将其维度补充0到预设图像尺寸维度相同;定义一个与预设图像尺寸相同的滑动窗,其在输入图像上做滑动,选出与预设图像尺寸相同的图像集合,其大小为n;对图像集合n中的每一个图像通过滤波器进行卷积层运算,得到n个与预设图像尺寸
Figure BDA0001808121720000022
相同的输出特征图;对n个
Figure BDA0001808121720000023
大小的输出特征图沿n维度做最大池化,得到固定尺寸图像
Figure BDA0001808121720000031
优选地,利用元滤波器组构成双滤波器组包括以下步骤:将大小为z2×z2的单位矩阵赋值给一个图像I′,z为双滤波器组的滤波器大小尺寸;将I′重新整理成大小为z2×z×z尺寸的矩阵;将W*I′赋值给滤波器
Figure BDA0001808121720000032
其中W为元滤波器
Figure BDA0001808121720000033
将滤波器
Figure BDA0001808121720000034
重新整理成大小为
Figure BDA0001808121720000035
尺寸的矩阵,其中,n=′(z′-z+1)2,其为卷积之后得到的滤波器个数。
优选地,利用双滤波器组进行卷积神经网络操作包括以下步骤:将第一层输出的固定尺寸图像
Figure BDA0001808121720000036
和滤波器
Figure BDA0001808121720000037
进行卷积,将其值赋值给
Figure BDA0001808121720000038
Figure BDA0001808121720000039
为大小为
Figure BDA00018081217200000310
尺寸的矩阵;将
Figure BDA00018081217200000311
沿着n′做池化操作,池化后的输出
Figure BDA00018081217200000312
尺寸为
Figure BDA00018081217200000313
Figure BDA00018081217200000314
沿着x-y平面做2×2的空间池化操作,其输出图像尺寸
Figure BDA00018081217200000315
Figure BDA00018081217200000316
优选地,构建第五层输入层包括:将所述第四层双卷积层输出的矩阵拉伸成向量作为第五层的输入,其节点数和所述第四层双卷积层输出的矩阵拉伸成向量的维度一致;设置中间层,其节点数大于所述第五层输入的节点数,其每一个节点的激活函数为余弦函数,利用余弦函数的全连接对第五层的输入进行非线性映射。
优选地,构建第六层输出层包括,对非线性映射的多输出结果进行线性回归,使中间层到输出层节点间满足线性关系,其中输出层每一个节点对应一个多输出的数值。
优选地,对所有层网络节点参数进行联合优化,其优化准则采用交叉熵优化函数。
本发明还涉及一种多输出回归深度网络结构,包括:第一层卷积层,其将输入为任意尺寸的图像输出为固定尺寸的图像;第二层双卷积层,其利用元滤波器组构成双滤波器组,再利用双滤波器组进行卷积神经网络操作;第三层双卷积层和第四层双卷积层,分别重复第二层的操作;第五层输入层,其将所述第四层双卷积层输出的矩阵拉伸成向量作为第五层的输入,利用激活函数的全连接对其进行非线性映射;第六层输出层,其对非线性映射的多输出结果进行线性回归。
本发明还涉及一种设备,包括:一个或多个处理器;存储器,其上存储有一个或多个计算机程序;当所述一个或多个处理器执行所述一个或多个计算机程序时,实现如上所述的端到端的多输出回归深度网络的构建方法的步骤。
本发明还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上所述的端到端的多输出回归深度网络的构建方法的步骤。
本发明的多输出回归深度网络的构建方法、深度网络结构、设备及存储介质,构建六层网络结构,解决了传统卷积神经网络输入图像尺寸固定问题;利用DCNN的高可靠性,提升传统CNN的性能;采用余弦激活函数作为中间层,有效克服了核近似方法中随机选取参数带来的偶然性。
附图说明
下面参考附图描述本发明的优选实施例,附图为了说明本发明的优选实施例而不是为了限制本发明的目的。附图中,
图1为本发明实施例的多输出回归深度网络的构建方法总体流程图;
图2为本发明实施例的构建第一层卷积层的流程图;
图3为本发明实施例的第一层卷积层的网络结构示意图;
图4为本发明实施例的构建第二层双卷积层的流程图;
图5为本发明实施例的第二层元滤波器组到双滤波器组转换示意图;
图6为本发明实施例的第二层卷积示意图;
图7为本发明实施例的第五层和第六层的网络结构示意图。
具体实施方式
本发明的具体实施方式用来具体说明本发明,但并不局限于该具体实施方式。
图1为本发明实施例的多输出回归深度网络的构建方法总体流程图。
如图1所示,本实施例的多输出回归深度网络的构建方法,构建了六层深度神经网络,包括以下步骤:
步骤S1,构建第一层卷积层,将输入为任意尺寸的图像输出为固定尺寸的图像;步骤S2,构建第二层双卷积层,利用元滤波器组构成双滤波器组,再利用双滤波器组进行卷积神经网络操作;步骤S3,构建第三层和第四层双卷积层,分别重复第二层的操作;以及步骤S4,构建第五层输入层和第六层输出层,将所述第四层双卷积层输出的矩阵拉伸成向量作为第五层的输入,利用激活函数的全连接对其进行非线性映射;对非线性映射的多输出结果进行线性回归。
以下对各层的构建方法进行详细说明:
<步骤S1,构建第一层卷积层>
针对传统卷积神经网络只能接受固定尺寸输入的问题,本实施例构建的第一个网络层次中,采用下面改进的方法获取卷积层的输出,该层称为MCNN层,其是可以接受任意尺寸大小的改进的卷积层,将输入的任意尺寸的图像转换为固定尺寸的图像。
图2为本发明实施例的构建第一层卷积层的流程图。
如图2所示,构建第一层卷积层的步骤如下:
步骤S11,设定预设图像尺寸为
Figure BDA0001808121720000061
输入任意尺寸的图像I∈Rc×w×h。其中,R表示实数空间,c表示原始图像的通道数,可以是1或者3,表示灰度图像或者彩色图像。w和h表示原始图像的尺寸,宽度和高度,以像素为单位。
图3为本发明实施例的第一层卷积层的网络结构示意图。
如图3所示,设定的预设图像尺寸为
Figure BDA0001808121720000062
其尺寸为一般卷积神经网络所要求的输入图像的固定尺寸,输入的任意尺寸的图像I∈Rc×w×h,滤波器为W1∈Rc×z×z。此处,滤波器W1中的R表示实数的含义,c为滤波器一个维度,它和输入图像通道数一致,z×z为滤波器的空间尺寸大小,可以是3×3或者5×5。
步骤S12,判断输入图像尺寸的维度,当输入图像尺寸中某个维度小于预设图像尺寸的维度时,将其维度补充0到与预设图像尺寸维度相同。
步骤S13,定义一个与预设图像尺寸相同的滑动窗H,其在输入图像上做滑动,选出与预设图像尺寸相同的图像集合n。
定义一个滑动窗H,与预设图像尺寸相同,大小为
Figure BDA0001808121720000063
在输入图像I上做滑动,滑动步长可以选择,可以选出预设图像大小的图像集合,其大小为n。n为可变数值,其和输入图像大小有关。
步骤S14,对图像集合n中的每一个图像通过滤波器进行卷积层运算,得到n个与预设图像尺寸
Figure BDA0001808121720000071
相同的输出特征图,即
Figure BDA0001808121720000072
步骤S15,对n个
Figure BDA0001808121720000073
大小的输出特征图
Figure BDA0001808121720000074
沿n维度做最大池化,得到固定尺寸图像
Figure BDA0001808121720000075
本步骤S1中构建的第一层卷积层(MCNN层),将传统的卷积神经网络(以下简称CNN)和滑动窗、池化相结合,解决了传统CNN输入图像尺寸固定的问题。
<步骤S2,构建第二层双卷积层>
针对传统的卷积神经网络(CNN)性能不佳的问题,构建第二层双卷积层,该层称为DCNN层,这里采用DCNN代替CNN完成卷积操作,是因为DCNN具有更高性能。
构建第二层双卷积层,包括两部分:第一部分,利用元滤波器组构成双滤波器组;第二部分,再利用双滤波器组进行卷积神经网络操作。
图4为本发明实施例的构建第二层双卷积层的流程图。
如图4所示,构建第二层双卷积层的第一部分,元滤波器组到双滤波器组转换,包括以下步骤:
步骤S21,将大小为z2×z2的单位矩阵赋值给一个图像矩阵I′,即
Figure BDA0001808121720000076
其中,
Figure BDA0001808121720000077
是维度为z2×z2的单位阵,其一共有z2×z2个元素,z为双滤波器组的滤波器大小尺寸,←表示赋值。
步骤S22,将图像矩阵I′重新整理成大小为z2×z×z尺寸的矩阵;此时,图像矩阵I′变成3阶矩阵。
步骤S23,将元滤波器与图像矩阵的卷积W*I′赋值给滤波器组
Figure BDA0001808121720000081
Figure BDA0001808121720000082
其中,W为元滤波器
Figure BDA0001808121720000083
步骤S24,将滤波器
Figure BDA0001808121720000084
重新整理成大小为
Figure BDA0001808121720000085
尺寸的矩阵,其中,n′=(z′-z+1)2,其为卷积之后得到的滤波器个数。
图5为本发明实施例的第二层元滤波器组到双滤波器组转换示意图。
如图5所示,元滤波器组
Figure BDA0001808121720000086
通过本步骤的方法变换为双滤波器组
Figure BDA0001808121720000087
图5中,n′=(z′-z+1)2
如图4所示,构建第二层双卷积层的第二部分,利用双滤波器组进行卷积神经网络操作,包括以下步骤:
步骤S25,将第一层卷积层输出的固定尺寸图像
Figure BDA0001808121720000088
和滤波器组
Figure BDA0001808121720000089
进行卷积,将其值赋值给
Figure BDA00018081217200000810
Figure BDA00018081217200000811
其中,
Figure BDA00018081217200000812
为大小为
Figure BDA00018081217200000813
尺寸的矩阵,n′=(z′-z+1)2
步骤S26,将
Figure BDA00018081217200000814
沿着n′做池化操作,池化后的输出
Figure BDA00018081217200000815
尺寸为
Figure BDA00018081217200000816
步骤S27,将
Figure BDA00018081217200000817
沿着x-y平面做2×2的空间池化操作,其输出图像尺寸
Figure BDA00018081217200000818
Figure BDA00018081217200000819
本实施例中,在DCNN过程中池化操作和原始的DCNN有所区别。在步骤S26和步骤S27中可以看出,在采用DCNN结构中,和原始DCNN不同之处在于池化过程。本实施例在DCNN中采用两个层次的池化,一个是沿着由于双滤波器组带来的多个输出的池化,即步骤S26中沿着n′做池化操作;第二层次的池化,是空间池化,即步骤S27中将整体尺寸沿x-y平面做2×2的空间池化操作。沿着n′做池化操作可以消除卷积过程中多个滤波器的多个输出,即沿着n′做池化操作可以将n′变为1。空间池化则将输出空间的尺寸(宽度和高度)分别减半。两个层次的池化减少了下一层的参数。
图6为本发明实施例的第二层卷积示意图。
如图6所示,本实施例中,第一层卷积层输出的固定尺寸图像
Figure BDA0001808121720000091
和滤波器组
Figure BDA0001808121720000092
卷积后得到
Figure BDA0001808121720000093
尺寸的矩阵,将其沿着n′做池化操作,输出的图像尺寸为
Figure BDA0001808121720000094
再将其沿着x-y平面做2×2的空间池化操作,得到尺寸为
Figure BDA0001808121720000095
的输出图像。
<步骤S3,构建第三层双卷积层和第四层双卷积层>
步骤S3中,构建第三层双卷积层和第四层双卷积层,分别重复第二层的操作,即一共构建三层本实施例中的DCNN层。
构建三层DCNN层可以满足一般任务需求。DCNN层的层数可以根据需要进行扩展,不一定是三层,在数据量很大的情况下,可以考虑增加DCNN层的层数。
<步骤S4,构建第五层输入层和第六层输出层>
将所述第四层双卷积层输出的矩阵拉伸成向量作为第五层的输入,利用激活函数的全连接对其进行非线性映射;对非线性映射的多输出结果进行线性回归。
本发明中所有层网络节点参数是联合优化,其优化准则采用交叉熵优化函数。
图7为本发明实施例的第五层和第六层的网络结构示意图。
将所述第四层双卷积层输出的矩阵拉伸成向量作为第五层的输入,其节点数和所述第四层双卷积层输出的矩阵拉伸成向量的维度一致;构建中间层,其节点数大于所述第五层输入的节点数,其每一个节点的激活函数为余弦函数,利用余弦函数的全连接对第五层的输入进行非线性映射。
如图7所示,x1、……、xD为第五层的输入层,其连接第四层双卷积层输出的矩阵拉伸成向量之后的结果。其节点数和第四层输出的向量的维度一致。在第五层输入层和第六层输出层之间构建中间层M,中间层为隐含单元,每一个节点的激活函数是cos余弦函数,一般中间层节点的数目应该大于第五层输入层节点数目。图7中,T和S分别为两个层次的权值矩阵,T为从第五层输入到中间层输入权重矩阵,S为从中间层输出到输出层之间的权重矩阵。具体数值可以通过实际数据的交叉验证得到。其值大小和训练数据的多少相关,一般而言,训练数据足够充足的条件下,中间层的节点数据增加,稀疏性会体现的明显。
构建第六层输出层包括,对非线性映射的多输出结果进行线性回归,使中间层到输出层节点y1、……、yQ间满足线性关系,其中输出层每一个节点对应一个多输出的数值。
第六层对应输出层,从图7中的中间层到输出层节点y1、……、yQ间满足线性关系,其中输出层每一个节点对应一个多输出的数值。第六层输出层节点数目由实际的应用决定,一般中间节点数目要大于输出层节点数目。
在本发明中,构建的第五层输入层和第六层输出层有效利用余弦激活函数实现非线性关系映射。
本发明中的第五层和第六层中设置中间层,其激活函数采用余弦函数,其原理来源于勃赫纳定理,其基本原理认为一个正定的、平移不变的核函数是一个分布的傅立叶变换,通过该对傅立叶变换的基函数分解,可以近似将映射函数表示成参数ω上随机采样的D个样本点[ω1。。。ωD]和x内积的余弦表示,其中bi为相位偏移,可以设定为0。具体如下:
Figure BDA0001808121720000111
本发明与同样建立在勃赫纳定理的核近似方法的傅立叶随机特征最大的却别在于:1)核近似中的参数ωi是和输入数据本身无关的,随机选取而得,因此一般为了达到较好的近似效果,维度D一般选择较大;而本发明中参数ω的数值是和输入数据紧密相关的,可以在保持较小维度的前提下得到较好的效果;2)核近似中的参数ωi是无监督得到的,因此其可区分性不能得到保障;而本发明中的参数ω是在有监督情况下学习得到,并且整体网络是联合学习得到参数ω,使其在保证达到最小交叉熵的优化目标。
本发明第五层和第六层采用余弦激活函数作为中间层,将非线性映射和核近似方法进行结合,并有效克服了核近似方法中随机选取参数带来的偶然性;输入到余弦激活函数的参数是通过输入数据以及对应的多输出数据优化得到,其和待处理的输入数据本身相关,不同输入数据通过优化会得到不同的参数,因此避免了核近似方法中参数选择中的随机性。
本发明还提供一种多输出回归深度网络结构,包括:第一层卷积层,其将输入为任意尺寸的图像输出为固定尺寸的图像;第二层双卷积层,其利用元滤波器组构成双滤波器组,再利用双滤波器组进行卷积神经网络操作;第三层双卷积层和第四层双卷积层,分别重复第二层的操作;第五层输入层,其将所述第四层双卷积层输出的矩阵拉伸成向量作为第五层的输入,利用激活函数的全连接对其进行非线性映射;第六层输出层,其对非线性映射的多输出结果进行线性回归。
本发明还提供一种设备,包括:一个或多个处理器;存储器,其上存储有一个或多个计算机程序;当所述一个或多个处理器执行所述一个或多个计算机程序时,实现如上所述的端到端的多输出回归深度网络的构建方法的步骤。
本发明还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上所述的端到端的多输出回归深度网络的构建方法的步骤。
以上实施例为本发明的优选实施例,并不用以限定本发明的目的,凡在本发明的精神和原则之内进行的修改和替换,均在本发明的保护之内。

Claims (7)

1.一种多输出回归深度网络的构建方法,其特征在于,包括以下步骤:
构建第一层卷积层,将输入为任意尺寸的图像输出为固定尺寸的图像,包括
设定预设图像尺寸为
Figure FDA0002996464760000011
输入任意尺寸的图像I∈Rc×w×h,其中,R表示实数空间,c表示输如图像的通道数,w和h表示输入图像的尺寸,即宽度和高度,以像素为单位,
判断输入图像尺寸的维度,当输入图像尺寸中某个维度小于预设图像尺寸的维度时,将其维度补充0到与预设图像尺寸维度相同,
定义一个与预设图像尺寸相同的滑动窗,其在输入图像上做滑动,选出与预设图像尺寸相同的图像集合,该集合的大小为n,
对图像集合中的每一个图像通过滤波器进行卷积层运算,得到n个与预设图像尺寸
Figure FDA0002996464760000012
相同的输出特征图,
对n个
Figure FDA0002996464760000013
大小的输出特征图沿n维度做最大池化,得到固定尺寸的图像
Figure FDA0002996464760000014
构建第二层双卷积层,利用元滤波器组构成双滤波器组,再利用双滤波器组进行卷积神经网络操作,其中,
所述利用元滤波器组构成双滤波器组包括
将大小为z2×z2的单位矩阵赋值给一个图像矩阵I′,z为双滤波器组的滤波器大小尺寸,
将图像矩阵I′重新整理成大小为z2×z×z尺寸的矩阵,
将元滤波器组
Figure FDA0002996464760000015
与图像矩阵I′进行卷积得W*I′,将W*I′值赋值给滤波器组
Figure FDA0002996464760000016
将滤波器组
Figure FDA0002996464760000017
重新整理成大小为
Figure FDA0002996464760000018
尺寸的矩阵,其中,n′=(z′-z+1)2,为卷积之后得到的滤波器个数,
所述利用双滤波器组进行卷积神经网络操作包括
将第一层卷积层输出的固定尺寸图像
Figure FDA0002996464760000021
和滤波器组
Figure FDA0002996464760000022
进行卷积得
Figure FDA0002996464760000023
Figure FDA0002996464760000024
值赋值给
Figure FDA0002996464760000025
Figure FDA0002996464760000026
为大小为
Figure FDA0002996464760000027
尺寸的矩阵,
Figure FDA0002996464760000028
沿着n′做池化操作,池化后的输出
Figure FDA0002996464760000029
尺寸为
Figure FDA00029964647600000210
Figure FDA00029964647600000211
沿着x-y平面做2×2的空间池化操作,输出
Figure FDA00029964647600000212
的尺寸为
Figure FDA00029964647600000213
构建第三层双卷积层和第四层双卷积层,分别重复第二层双卷积层的操作;
构建第五层输入层和第六层输出层,将所述第四层双卷积层输出的矩阵拉伸成向量作为第五层的输入,利用激活函数的全连接对其进行非线性映射,对非线性映射的多输出结果进行线性回归,其中,激活函数为余弦函数。
2.根据权利要求1所述的多输出回归深度网络的构建方法,其特征在于,所述构建第五层输入层包括:
将所述第四层双卷积层输出的矩阵拉伸成向量作为第五层输入层的输入,其节点数和所述第四层双卷积层输出的矩阵拉伸成向量的维度一致;
构建中间层,其节点数大于所述第五层输入层输入的节点数,其每一个节点的激活函数为余弦函数,
利用余弦函数的全连接对第五层输入层的输入进行非线性映射。
3.根据权利要求2所述的多输出回归深度网络的构建方法,其特征在于,所述构建第六层输出层包括,
对非线性映射的多输出结果进行线性回归,使中间层到第六层输出层节点间满足线性关系,其中第六层输出层每一个节点对应一个多输出的数值。
4.根据权利要求3所述的多输出回归深度网络的构建方法,其特征在于,对所有层节点参数进行联合优化,其优化准则采用交叉熵优化函数。
5.一种多输出回归深度网络结构,其特征在于,包括:
第一层卷积层,其将输入为任意尺寸的图像输出为固定尺寸的图像,包括
设定预设图像尺寸为
Figure FDA0002996464760000031
输入任意尺寸的图像I∈Rc×w×h,其中,R表示实数空间,c表示输如图像的通道数,w和h表示输入图像的尺寸,即宽度和高度,以像素为单位,
判断输入图像尺寸的维度,当输入图像尺寸中某个维度小于预设图像尺寸的维度时,将其维度补充0到与预设图像尺寸维度相同,
定义一个与预设图像尺寸相同的滑动窗,其在输入图像上做滑动,选出与预设图像尺寸相同的图像集合,该集合的大小为n,
对图像集合中的每一个图像通过滤波器进行卷积层运算,得到n个与预设图像尺寸
Figure FDA0002996464760000032
相同的输出特征图,
对n个
Figure FDA0002996464760000033
大小的输出特征图沿n维度做最大池化,得到固定尺寸的图像
Figure FDA0002996464760000034
第二层双卷积层,其利用元滤波器组构成双滤波器组,再利用双滤波器组进行卷积神经网络操作,其中,
所述利用元滤波器组构成双滤波器组包括
将大小为z2×z2的单位矩阵赋值给一个图像矩阵I′,z为双滤波器组的滤波器大小尺寸,
将图像矩阵I′重新整理成大小为z2×z×z尺寸的矩阵,
将元滤波器组
Figure FDA0002996464760000041
与图像矩阵I′进行卷积得W*I′,将W*I′值赋值给滤波器组
Figure FDA0002996464760000042
将滤波器组
Figure FDA0002996464760000043
重新整理成大小为
Figure FDA0002996464760000044
尺寸的矩阵,其中,n′=(z′-z+1)2,为卷积之后得到的滤波器个数,
所述利用双滤波器组进行卷积神经网络操作包括
将第一层卷积层输出的固定尺寸图像
Figure FDA0002996464760000045
和滤波器组
Figure FDA0002996464760000046
进行卷积得
Figure FDA0002996464760000047
Figure FDA0002996464760000048
值赋值给
Figure FDA0002996464760000049
Figure FDA00029964647600000410
为大小为
Figure FDA00029964647600000411
尺寸的矩阵,
Figure FDA00029964647600000412
沿着n′做池化操作,池化后的输出
Figure FDA00029964647600000413
尺寸为
Figure FDA00029964647600000414
Figure FDA00029964647600000415
沿着x-y平面做2×2的空间池化操作,输出
Figure FDA00029964647600000416
的尺寸为
Figure FDA00029964647600000417
第三层双卷积层和第四层双卷积层,分别重复第二层双卷积层的操作;
第五层输入层和第六层输出层,其将所述第四层双卷积层输出的矩阵拉伸成向量作为第五层的输入,利用激活函数的全连接对其进行非线性映射,对非线性映射的多输出结果进行线性回归,其中,激活函数为余弦函数。
6.一种计算机处理设备,其特征在于,所述设备包括:
一个或多个处理器;
存储器,其上存储有一个或多个计算机程序;
当所述一个或多个处理器执行所述一个或多个计算机程序时,实现如权利要求1-4中任一项所述方法的步骤。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-4中任一项所述方法的步骤。
CN201811107222.8A 2018-09-21 2018-09-21 多输出回归深度网络构建方法、结构、设备及存储介质 Active CN109447238B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811107222.8A CN109447238B (zh) 2018-09-21 2018-09-21 多输出回归深度网络构建方法、结构、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811107222.8A CN109447238B (zh) 2018-09-21 2018-09-21 多输出回归深度网络构建方法、结构、设备及存储介质

Publications (2)

Publication Number Publication Date
CN109447238A CN109447238A (zh) 2019-03-08
CN109447238B true CN109447238B (zh) 2021-07-20

Family

ID=65530686

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811107222.8A Active CN109447238B (zh) 2018-09-21 2018-09-21 多输出回归深度网络构建方法、结构、设备及存储介质

Country Status (1)

Country Link
CN (1) CN109447238B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113222299B (zh) * 2021-06-10 2022-01-14 湘南学院 一种用于景区的车辆智能调度系统及方法
CN113298841B (zh) * 2021-07-26 2024-01-12 四川大学华西医院 一种肤质油份分型方法、计算机设备、系统及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105718889B (zh) * 2016-01-21 2019-07-16 江南大学 基于GB(2D)2PCANet深度卷积模型的人脸身份识别方法
CN107665492B (zh) * 2017-06-29 2020-11-10 南京信息工程大学 基于深度网络的结直肠全景数字病理图像组织分割方法
CN107610194B (zh) * 2017-08-14 2020-08-04 成都大学 基于多尺度融合cnn的磁共振图像超分辨率重建方法
CN108427958B (zh) * 2018-02-02 2021-06-01 哈尔滨工程大学 基于深度学习的自适应权值卷积神经网络水下声纳图像分类方法

Also Published As

Publication number Publication date
CN109447238A (zh) 2019-03-08

Similar Documents

Publication Publication Date Title
US11645529B2 (en) Sparsifying neural network models
CN107516129B (zh) 基于维度自适应的Tucker分解的深度网络压缩方法
Zhang et al. Interleaved group convolutions
CN107622302B (zh) 用于卷积神经网络的超像素方法
Wang et al. Multi-scale dilated convolution of convolutional neural network for image denoising
JP7438517B2 (ja) ニューラルネットワークの圧縮方法、ニューラルネットワーク圧縮装置、コンピュータプログラム、及び圧縮されたニューラルネットワークデータの製造方法
CN109447238B (zh) 多输出回归深度网络构建方法、结构、设备及存储介质
CN113222998B (zh) 基于自监督低秩网络的半监督图像语义分割方法及装置
CN112633481B (zh) 一种多跳图卷积神经网络模型系统及训练方法
CN113362250A (zh) 一种基于双树四元小波与深度学习的图像去噪方法及系统
CN112633482B (zh) 一种高效宽度图卷积神经网络模型系统及训练方法
CN114781629A (zh) 基于并行复用的卷积神经网络的硬件加速器及并行复用方法
Wang et al. Global aligned structured sparsity learning for efficient image super-resolution
CN112668700B (zh) 一种基于分组注意的宽度图卷积网络模型系统及训练方法
Zhang Clcnet: Improving the efficiency of convolutional neural network using channel local convolutions
CN112016522B (zh) 一种视频数据处理方法、系统及相关组件
KR20200022386A (ko) 정보 처리 장치 및 정보 처리 방법
CN115409697A (zh) 一种图像处理方法及相关装置
Ben et al. An adaptive neural networks formulation for the two-dimensional principal component analysis
Guo et al. Efficient convolutional networks learning through irregular convolutional kernels
CN112308197B (zh) 一种卷积神经网络的压缩方法、装置及电子设备
WO2021179117A1 (zh) 神经网络通道数搜索方法和装置
CN114782336A (zh) 基于图卷积神经网络的纤维束取向分布的预测方法和装置
Kim et al. Rank-1 convolutional neural network
Qiao et al. Dcs-risr: Dynamic channel splitting for efficient real-world image super-resolution

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CB03 Change of inventor or designer information

Inventor after: Zhen Xiantong

Inventor after: Zhang Lei

Inventor after: Li Xin

Inventor before: Zhang Lei

Inventor before: Zhen Xiantong

Inventor before: Li Xin

CB03 Change of inventor or designer information