CN108875915B - 一种面向嵌入式应用的深度对抗网络优化方法 - Google Patents

一种面向嵌入式应用的深度对抗网络优化方法 Download PDF

Info

Publication number
CN108875915B
CN108875915B CN201810599692.4A CN201810599692A CN108875915B CN 108875915 B CN108875915 B CN 108875915B CN 201810599692 A CN201810599692 A CN 201810599692A CN 108875915 B CN108875915 B CN 108875915B
Authority
CN
China
Prior art keywords
convolutional layer
depth
characteristic pattern
input
hardware accelerator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201810599692.4A
Other languages
English (en)
Other versions
CN108875915A (zh
Inventor
张振宇
赵秋伶
刘英哲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Liaoning Technical University
Original Assignee
Liaoning Technical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Liaoning Technical University filed Critical Liaoning Technical University
Priority to CN201810599692.4A priority Critical patent/CN108875915B/zh
Publication of CN108875915A publication Critical patent/CN108875915A/zh
Application granted granted Critical
Publication of CN108875915B publication Critical patent/CN108875915B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons

Abstract

本发明提供一种面向嵌入式应用的深度对抗网络优化方法,涉及电子信息技术领域。该方法包括:通过亚星素卷积神经网络改进典型的生成式对抗网络模型;根据改进的生成式对抗网络模型构建生成式对抗网络系统;对生成式对抗网络系统中每个硬件加速器的卷积模块进行优化;对生成式对抗网络系统中每个硬件加速器的Swish激活函数模块进行优化。本发明提供的一种面向嵌入式应用的深度对抗网络优化方法,从架构和硬件加速器设计两个层次进行优化,首先对生成式对抗网络的结构进行优化,开发相应的硬件加速器架构,以便在嵌入式平台上更易于实现,其次对硬件加速器进行相应的设计,降低硬件资源占用率,提高吞吐率,具有高通量、低功耗和可配置等特点。

Description

一种面向嵌入式应用的深度对抗网络优化方法
技术领域
本发明涉及电子信息技术领域,具体涉及一种面向嵌入式应用的深度对抗网络优化方法。
背景技术
无监督网络是指在没有额外信息的情况下,从原始数据中提取模式和结构的任务。自动编码器是解决无监督学习的典型方法,但其性能难以与监督网络的性能相提并论。对抗网络的出现提供了解决无监督学习的可行方案,尤其是深度卷积生成式对抗网络已经解决了制约无监督学习的难题,并且在实践中得到广泛应用。
但是这类深度对抗网络由于一系列卷积层的应用,运算量巨大,很难集成到诸如智能手机和智能眼镜等嵌入式系统中。随着深度网络包含更多的卷积层和节点,减少系统运算量和存储量成为当务之急。卷积层是高度并行的,有效利其并行性可大幅度提升深度网络的性能。但是通用处理器是串行执行的,不能有效利用卷积层的并行性,很难有效完成这类任务。GPU和ASIC能高效利用这种并行性,但是消耗能量大,开发时间长和成本高,不适合生成式对抗网络等新兴无监督网络,且现有技术大多只对对抗网络的一部分进行优化,不能使对抗网络加速器的性能最大化。
发明内容
针对现有技术存在的问题,本发明提供一种面向嵌入式应用的深度对抗网络优化方法,具有高通量、低功耗和可配置等特点,首先通过亚像素卷积神经网络对典型的生成式对抗网络模型中的生成器进行优化,然后根据优化后的生成式对抗网络模型构建生成式对抗网络系统,最后对生成式对抗网络系统中的硬件加速器进行优化,以便在嵌入式平台上实现,降低硬件资源占用率,提高吞吐率。
为了实现上述目的,一种面向嵌入式应用的深度对抗网络优化方法,包括以下步骤:
步骤1:将亚像素卷积神经网络中尺寸为(o*r2,i,k/r,k/r)的卷积层与典型的生成器中尺寸为(o,i,k,k)的反卷积层等效,其中,卷积层和反卷积层的尺寸参数分别对应输出深度、输入深度、卷积核的宽度和卷积核的高度,o为典型的生成器中反卷积层的输出深度,i为典型的生成器中反卷积层的输入深度,k为正整数,r为上采样率,根据卷积层和反卷积层的对应关系,通过亚像素卷积神经网络改进典型的生成式对抗网络模型,并以Swish激活函数替换卷积层的LReLU激活函数,具体方法如下:
步骤1.1:将L维输入向量通过亚像素卷积神经网络中典型的卷积层在低分辨率空间提取特征图,特征图的尺寸参数为dn@hn*wn,其中,dn为第n个卷积层提取特征图的深度,hn为第n个卷积层提取特征图的高度,wn为第n个反卷积层提取特征图的宽度,n为亚像素卷积神经网络中卷积层的个数,@为隔离符号,卷积层的卷积核宽度和高度均为k/r;
步骤1.2:令卷积核的深度为dn-1*r2,继续在低分辨率空间提取特征图,此时特征图的尺寸参数为dn-1*r2@hn-1*wn-1
步骤1.3:令n=n-1,重复步骤1.2,直到特征图的尺寸参数为d2*r2@h2*w2,其中,d2*r2、h2和w2分别为第2个卷积层提取特征图的深度、高度和宽度,即在低分辨率空间最后一次提取特征图的深度、高度和宽度,d2为与亚像素卷积神经网络第2个卷积层等效的典型生成器中反卷积层的输出深度;
步骤1.4:利用亚像素卷积神经网络中典型的亚像素卷积层将最终的特征图转换为高分辨率图像,图像的尺寸参数为d1*r2@h1*w1,由此,完成典型生成式对抗网络模型中生成器的改进;
步骤1.5:改进的生成式对抗网络模型中鉴别器依旧采用典型的生成式对抗网络模型中鉴别器,并以Swish激活函数替换卷积层的LReLU激活函数,其输入体的尺寸参数为d1*r2@h1*w1,卷积层的卷积核宽度和高度均为k,各卷积层包含一系列卷积核,并具有和输入体同样的深度,卷积核在输入体宽度和高度方向滑动,计算卷积核与输入体任一位置的点积,进而产生二维特征图,将这些特征图沿着深度方向叠加,得到输出体,输出体的大小由深度、步长和补零来控制,其中,深度控制输出体的深度,即是卷积核的数量,步长控制同一深度的相邻两个隐含单元,与他们相连接的输入区域的距离,补零改变输入单元整体大小,从而控制单元的空间大小;
所述输入体为前一个卷积层输出的特征图;所述输出体为当前卷积层输出的特征图;
步骤2:根据改进的生成式对抗网络模型构建生成式对抗网络系统;所述生成式对抗网络系统包括构成生成器的S个硬件加速器、构成鉴别器的T个硬件加速器以及一个控制模块,其中,S=T,且每个硬件加速器实现一个卷积层功能,并包括卷积模块和Swish激活函数模块两部分;
步骤3:对构建生成式对抗网络系统进行优化,具体步骤如下:
步骤3.1:对生成式对抗网络系统中每个硬件加速器的卷积模块进行优化,具体步骤如下:
步骤3.1.1:求取生成器各卷积层输入体深度的最大公约数,并将卷积层内侧三环路按照最大公约数分解,设计硬件加速器,并在各硬件加速器的卷积模块重用;
步骤3.1.2:求取鉴别器各卷积层输入体深度的最大公约数,并将卷积层内侧三环路按照最大公约数分解,设计硬件加速器,并在各硬件加速器的卷积模块重用;
步骤3.1.3:各卷积层外侧三层环路综合采用环路交换、硬件平铺和CSD编码方法优化;
步骤3.2:对生成式对抗网络系统中每个硬件加速器的Swish激活函数模块进行优化,具体步骤如下:
步骤3.2.1:当卷积层的输出值介于(-∞,-16)时,将函数值近似为0;
步骤3.2.2:当卷积层的输出值介于(-16,0)区间时,采用查找表的方式求值;
步骤3.2.3:当卷积层的输出值介于(0,2Q)区间时,其中Q为定标值,将函数值进行等效交换后再采用查找表的方式求解。
进一步地,所述步骤1中卷积层在低分辨率空间提取特征图的方法如下:
在步长为s的卷积层输入体的不同神经元之间插入s-1个零,插入零后把其看做是新的输入特征,使各卷积层中卷积核与补零后的输入体具有同样的深度,令卷积核在输入体宽度和高度方向滑动,计算卷积核与输入体任一位置的点积,进而产生二维特征图,将这些特征图沿着深度方向叠加,得到输出体;
所述输入体为前一个分辨率空间中输出的特征图;所述输出体为当前分辨率空间中输出的特征图。
进一步地,所述步骤3.2.3中将函数值进行等效交换的公式如下:
其中,x为卷积层的输出值,Q为定标值。
本发明的有益效果:
本发明提出一种面向嵌入式应用的深度对抗网络优化方法,从架构和硬件加速器设计两个层次进行优化,首先对生成式对抗网络的结构进行优化,开发相应的硬件加速器架构,以便在嵌入式平台上更易于实现,其次对硬件加速器进行相应的设计,降低硬件资源占用率,提高吞吐率,具有高通量、低功耗和可配置等特点。
附图说明
图1为本发明实施例中面向嵌入式应用的深度对抗网络优化方法流程图;
图2为本发明实施例中改进的生成式对抗网络模型示意图;
图3为本发明实施例中硬件加速器的卷积模块工作原理图;
图4为本发明实施例中硬件加速器的Swish激活函数模块工作原理图;
图5为本发明实施例中硬件加速器工作原理图;
图6为本发明实施例中控制器状态机的工作流程示意图。
具体实施方式
为了使本发明的目的、技术方案及优势更加清晰,下面结合附图和具体实施例对本发明做进一步详细说明。此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
一种面向嵌入式应用的深度对抗网络优化方法,流程如图1所示,具体方法如下所述:
步骤1:将亚像素卷积神经网络中尺寸为(o*r2,i,k/r,k/r)的卷积层与典型的生成器中尺寸为(o,i,k,k)的反卷积层等效,其中,卷积层和反卷积层的尺寸参数分别对应输出深度、输入深度、卷积核的宽度和卷积核的高度,o为典型的生成器中反卷积层的输出深度,i为典型的生成器中反卷积层的输入深度,k为正整数,r为上采样率,根据卷积层和反卷积层的对应关系,通过亚像素卷积神经网络改进典型的生成式对抗网络模型,并以Swish激活函数替换卷积层的LReLU激活函数,如图2所示,具体方法如下:
步骤1.1:将N维输入向量通过亚像素卷积神经网络中典型的卷积层在低分辨率空间迭代提取特征图,特征图的尺寸参数为dn@hn*wn,其中,dn为第n个卷积层提取特征图的深度,hn为第n个卷积层提取特征图的高度,wn为第n个卷积层提取特征图的宽度,n为亚像素卷积神经网络中卷积层的个数,@为隔离符号,卷积层的卷积核宽度和高度均为k/r。
本实施例中,取n=5。
所述卷积层在低分辨率空间提取特征图的方法如下:
在步长为s的卷积层输入体的不同神经元之间插入s-1个零,插入零后把其看做是新的输入特征,使各卷积层中的卷积核与补零后的输入体具有同样的深度,令卷积核在输入体宽度和高度方向滑动,计算卷积核与输入体任一位置的点积,进而产生二维特征图,将这些特征图沿着深度方向叠加,得到输出体。
步骤1.2:令卷积核的深度为d4*r2,继续在低分辨率空间提取特征图,此时特征图的尺寸参数为d4*r2@h4*w4
步骤1.3:令n=n-1,重复步骤1.2,直到特征图的尺寸参数为d2*r2@h2*w2,其中,d2*r2、h2和w2分别为第2个卷积层提取特征图的深度、高度和宽度,即在低分辨率空间最后一次提取特征图的深度、高度和宽度,d2为与亚像素卷积神经网络第2个卷积层等效的典型生成器中反卷积层的输出深度。
步骤1.4:利用亚像素卷积神经网络中典型的亚像素卷积层将最终的特征图转换为高分辨率图像,图像的尺寸参数为d1*r2@h1*w1,由此,完成典型生成式对抗网络模型中生成器的改进。
步骤1.5:改进的生成式对抗网络模型中鉴别器依旧采用典型的生成式对抗网络模型中鉴别器,并以Swish激活函数替换卷积层的LReLU激活函数,其输入体的尺寸参数为d1*r2@h1*w1,卷积层的卷积核宽度和高度均为r,各卷积层包含一系列卷积核,并具有和输入体同样的深度,卷积核在输入体宽度和高度方向滑动,计算卷积核与输入体任一位置的点积,进而产生二维特征图,将这些特征图沿着深度方向叠加,得到输出体,输出体的大小由深度、步长和补零来控制,其中,深度控制输出体的深度,即是卷积核的数量,步长控制同一深度的相邻两个隐含单元,与他们相连接的输入区域的距离,补零改变输入单元整体大小,从而控制单元的空间大小。
所述输入体为前一个卷积层输出的特征图;所述输出体为当前卷积层输出的特征图;
步骤2:根据改进的生成式对抗网络模型构建生成式对抗网络系统;所述生成式对抗网络系统包括构成生成器的S个硬件加速器、构成鉴别器的T个硬件加速器以及一个控制模块,其中,S=T,且每个硬件加速器实现一个卷积层功能,并包括卷积模块和Swish激活函数模块两部分。
本实施例中,取S=T=4。
步骤3:对构建生成式对抗网络系统进行优化,具体步骤如下:
步骤3.1:对生成式对抗网络系统中每个硬件加速器的卷积模块进行优化,具体步骤如下:
步骤3.1.1:求取生成器各卷积层输入体深度的最大公约数,并将卷积层内侧三环路按照最大公约数分解,设计硬件加速器,并在各硬件加速器的卷积模块重用。
步骤3.1.2:求取鉴别器各卷积层输入体深度的最大公约数,并将卷积层内侧三环路按照最大公约数分解,设计硬件加速器,并在各硬件加速器的卷积模块重用。
步骤3.1.3:各卷积层外侧三层环路综合采用环路交换、硬件平铺和CSD编码方法优化。
本实施例中,硬件加速器Submodule的卷积模块包括深度仲裁Depth Arbitrator、输入神经元Input neuron和卷积核参数Filter parameter三个子模块,其工作原理如图3所示:深度仲裁模块接收低分辨率空间提取特征图的深度信息,并将深度信息整除最大公约数,再将所得的商和余数传递给输入神经元,输入神经元根据所得的商和余数选择参与卷积运算的神经元,并传递给硬件加速器,硬件加速器接收输入神经元和卷积核参数做卷积运算,卷积核参数先转换为CSD编码方式,并通过移位相加实现乘法,硬件加速器采用环路流水线方式优化。
步骤3.2:对生成式对抗网络系统中每个硬件加速器的Swish激活函数模块进行优化,其工作原理如图4所示,具体步骤如下:
步骤3.2.1:当卷积层的输出值介于(-∞,-16)时,将函数值近似为0。
步骤3.2.2:当卷积层的输出值介于(-16,0)区间时,采用查找表的方式求值。
本实施例中,当卷积层的输出值介于(-16,0)区间时,将此区间分割为8192个区间,各区间的函数值采用第二点的值表示,并将函数值转换为Q31的定点值;所述定点值为16位的二进制补码。制作查询表如表1所示。
表1区间二的查找表
地址 输入值 Swish值(Q31)
0 -15.99988 1000011100101
1 -15.99976 1000011100101
3 -15.99963 1000011100100
4 -15.99951 1000011100100
5 -15.99939 1000011100100
8191 -0.000122 1111111111000
根据输入值计算表的入口地址,计算公式如公式(1)所示:
index=int(((x+16)>>2))<<13 (1)
其中,index为查表的入口地址,x为卷积层的输出值。
将入口地址转换为二进制,并传递给地址总线,即可得到对应的函数值。
步骤3.2.3:当卷积层的输出值介于(0,2Q)区间时,其中Q为定标值,将函数值进行等效交换后再采用查找表的方式求解。
所述将函数值进行等效交换的公式如公式(2)所示:
本实施例中,当卷积层的输出值介于(0,2Q)区间时,其中Q=31,分为8192个区间,利用公式(2)对函数值进行等效交换,当自变量趋近于无穷大时,其函数值近似于x,因此可得到公式(3):
对公式(3)取以2为底的对数,并制作查询表如表2所示。
表2区间三的查找表
根据输入值计算表的入口地址,计算公式如公式(1)所示:
index=int(x<<(13-Q)) (1)
将入口地址转换为二进制,并传递给地址总线,即可得到对应的函数值,将输出值转换为整数j,求取2的j次方并左移Q位得到函数值。
采用本发明构建的面向嵌入式应用的深度对抗网络并进行优化后,其工作原理如图5所示,本实施例中,构建的面向嵌入式应用的深度对抗网络包含八个加速器模块ACC和一个控制模块Control,其中,ACC1、ACC3、ACC5、ACC7构成生成器,ACC2、ACC4、ACC6和ACC8构成生成器。各加速器模块包含卷积模块和Swish激活函数模块两部分,控制模块采用摩尔状态机实现。控制模块与各硬件加速器之间以双向控制信号线连接,在控制模块的作用下,依次执行生成器和鉴别器。状态机包含复位、空闲、生成器、图像输出、鉴别器和概率输出六个状态,所述六个状态均采用独热码编码,优化后的面向嵌入式应用的深度对抗网络中控制器状态机的工作流程如图6所示,具体步骤如下:
S1:复位状态:生成式对抗网络系统通电后,自动复位各硬件加速器和控制模块,并转入空闲状态。
S2:空闲状态:从输入端口接收一维数据并存储到缓存,同时把卷积核参数存储到各加速器模块附近的随机存储器中,同时提供数据准备好信号给生成器。
S3:生成器状态:从缓存读取低分辨率图像数据,并提供Ready信号给控制模块,控制模块接收到Ready信号后使能ACC1,执行普通卷积层功能,存储卷积数据,提供Ready信号给控制模块。
S4:ACC3、ACC5和ACC7依次执行步骤S3。
S5:图像输出状态:接收并存储加速器七生成的高分辨率图像,输出图像到端口。
S6:鉴别器状态:接收加速器七输出的高分辨率图像,提供Ready信号给控制模块,控制模块接收到Ready信号后使能ACC2,执行普通卷积层功能,存储卷积数据,提供Ready信号给控制模块。
S7:ACC4、ACC6和ACC8依次执行步骤S6。
S8:概率输出状态:接收加速器八输出的概率值并存储,将概率值输出至端口。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解;其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;因而这些修改或者替换,并不使相应技术方案的本质脱离本发明权利要求所限定的范围。

Claims (3)

1.一种面向嵌入式应用的深度对抗网络优化方法,其特征在于,包括以下步骤:
步骤1:将亚像素卷积神经网络中尺寸为(o*r2,i,k/r,k/r)的卷积层与典型的生成器中尺寸为(o,i,k,k)的反卷积层等效,其中,卷积层和反卷积层的尺寸参数分别对应输出深度、输入深度、卷积核的宽度和卷积核的高度,o为典型的生成器中反卷积层的输出深度,i为典型的生成器中反卷积层的输入深度,k为正整数,r为上采样率,根据卷积层和反卷积层的对应关系,通过亚像素卷积神经网络改进典型的生成式对抗网络模型,并以Swish激活函数替换卷积层的LReLU激活函数,具体方法如下:
步骤1.1:将L维输入向量通过亚像素卷积神经网络中典型的卷积层在低分辨率空间提取特征图,特征图的尺寸参数为dn@hn*wn,卷积核的尺寸为k/r*k/r,其中,dn为第n个卷积层提取特征图的深度,hn为第n个卷积层提取特征图的高度,wn为第n个卷积层提取特征图的宽度,n为亚像素卷积神经网络中卷积层的个数,@为隔离符号,卷积核的宽度和高度均为k/r;
步骤1.2:令卷积核的深度为dn-1*r2,继续在低分辨率空间提取特征图,此时特征图的尺寸参数为dn-1*r2@hn-1*wn-1
步骤1.3:令n=n-1,重复步骤1.2,直到特征图的尺寸参数为d2*r2@h2*w2,其中,d2*r2、h2和w2分别为第2个卷积层提取特征图的深度、高度和宽度,即在低分辨率空间最后一次提取特征图的深度、高度和宽度,d2为与亚像素卷积神经网络第2个卷积层等效的典型生成器中反卷积层的输出深度;
步骤1.4:利用亚像素卷积神经网络中典型的亚像素卷积层将最终的特征图转换为高分辨率图像,图像的尺寸参数为d1*r2@h1*w1,由此,完成典型生成式对抗网络模型中生成器的改进;
步骤1.5:改进的生成式对抗网络模型中鉴别器依旧采用典型的生成式对抗网络模型中鉴别器,并以Swish激活函数替换卷积层的LReLU激活函数,其输入体的尺寸参数为d1*r2@h1*w1,卷积层的卷积核宽度和高度均为k,各卷积层包含一系列卷积核,并具有和输入体同样的深度,卷积核在输入体宽度和高度方向滑动,计算卷积核与输入体任一位置的点积,进而产生二维特征图,将这些特征图沿着深度方向叠加,得到输出体,输出体的大小由深度、步长和补零来控制,其中,深度控制输出体的深度,即是卷积核的数量,步长控制同一深度的相邻两个隐含单元,与他们相连接的输入区域的距离,补零改变输入单元整体大小,从而控制单元的空间大小;
所述输入体为前一个卷积层输出的特征图;所述输出体为当前卷积层输出的特征图;
步骤2:根据改进的生成式对抗网络模型构建生成式对抗网络系统;所述生成式对抗网络系统包括构成生成器的S个硬件加速器、构成鉴别器的T个硬件加速器以及一个控制模块,其中,S=T,且每个硬件加速器实现一个卷积层功能,并包括卷积模块和Swish激活函数模块两部分;
步骤3:对构建生成式对抗网络系统进行优化,具体步骤如下:
步骤3.1:对生成式对抗网络系统中每个硬件加速器的卷积模块进行优化,具体步骤如下:
步骤3.1.1:求取生成器各卷积层输入体深度的最大公约数,并将卷积层内侧三环路按照最大公约数分解,设计硬件加速器,并在各硬件加速器的卷积模块重用;
步骤3.1.2:求取鉴别器各卷积层输入体深度的最大公约数,并将卷积层内侧三环路按照最大公约数分解,设计硬件加速器,并在各硬件加速器的卷积模块重用;
步骤3.1.3:各卷积层外侧三层环路综合采用环路交换、硬件平铺和CSD编码方法优化;
步骤3.2:对生成式对抗网络系统中每个硬件加速器模块的Swish激活函数进行优化,具体步骤如下:
步骤3.2.1:当卷积层的输出值介于(-∞,-16)时,将函数值近似为0;
步骤3.2.2:当卷积层的输出值介于(-16,0)区间时,采用查找表的方式求值;
步骤3.2.3:当卷积层的输出值介于(0,2Q)区间时,其中Q为定标值,将函数值进行等效交换后再采用查找表的方式求解。
2.根据权利要求1所述的面向嵌入式应用的深度对抗网络优化方法,其特征在于,所述步骤1中卷积层在低分辨率空间提取特征图的方法如下:
在步长为s的卷积层输入体的不同神经元之间插入s-1个零,插入零后把其看做是新的输入特征,使各卷积层中卷积核与补零后的输入体具有同样的深度,令卷积核在输入体宽度和高度方向滑动,计算卷积核与输入体任一位置的点积,进而产生二维特征图,将这些特征图沿着深度方向叠加,得到输出体;
所述输入体为前一个卷积层输出的特征图;所述输出体为当前卷积层输出的特征图。
3.根据权利要求1所述的面向嵌入式应用的深度对抗网络优化方法,其特征在于,所述步骤3.2.3中将函数值进行等效交换的公式如下:
其中,x为卷积层的输出值,Q为定标值。
CN201810599692.4A 2018-06-12 2018-06-12 一种面向嵌入式应用的深度对抗网络优化方法 Expired - Fee Related CN108875915B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810599692.4A CN108875915B (zh) 2018-06-12 2018-06-12 一种面向嵌入式应用的深度对抗网络优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810599692.4A CN108875915B (zh) 2018-06-12 2018-06-12 一种面向嵌入式应用的深度对抗网络优化方法

Publications (2)

Publication Number Publication Date
CN108875915A CN108875915A (zh) 2018-11-23
CN108875915B true CN108875915B (zh) 2019-05-07

Family

ID=64337984

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810599692.4A Expired - Fee Related CN108875915B (zh) 2018-06-12 2018-06-12 一种面向嵌入式应用的深度对抗网络优化方法

Country Status (1)

Country Link
CN (1) CN108875915B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111542839B (zh) * 2018-12-13 2023-04-04 深圳鲲云信息科技有限公司 一种反卷积神经网络的硬件加速方法、装置和电子设备
CN109740731B (zh) * 2018-12-15 2023-07-18 华南理工大学 一种自适应卷积层硬件加速器设计方法
CN110837806B (zh) * 2019-11-11 2020-07-28 辽宁科技学院 一种基于深度卷积记忆网络的室内定位方法
CN116432711B (zh) * 2023-02-13 2023-12-05 杭州菲数科技有限公司 SiLU激活函数的硬件实现方法、装置及计算设备

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107292813B (zh) * 2017-05-17 2019-10-22 浙江大学 一种基于生成对抗网络的多姿态人脸生成方法
CN107563493A (zh) * 2017-07-17 2018-01-09 华南理工大学 一种多生成器卷积合成图像的对抗网络算法
CN107590518A (zh) * 2017-08-14 2018-01-16 华南理工大学 一种多特征学习的对抗网络训练方法
CN107784628B (zh) * 2017-10-18 2021-03-19 南京大学 一种基于重建优化和深度神经网络的超分辨率实现方法
CN107977932B (zh) * 2017-12-28 2021-04-23 北京工业大学 一种基于可鉴别属性约束生成对抗网络的人脸图像超分辨率重建方法

Also Published As

Publication number Publication date
CN108875915A (zh) 2018-11-23

Similar Documents

Publication Publication Date Title
CN108875915B (zh) 一种面向嵌入式应用的深度对抗网络优化方法
Cheng et al. Rethinking Bayesian learning for data analysis: The art of prior and inference in sparsity-aware modeling
Defferrard et al. Convolutional neural networks on graphs with fast localized spectral filtering
CN108304826A (zh) 基于卷积神经网络的人脸表情识别方法
WO2019089339A1 (en) Method and system for neural network synthesis
CN110175671A (zh) 神经网络的构建方法、图像处理方法及装置
CN109034034A (zh) 一种基于强化学习算法优化卷积神经网络的静脉识别方法
CN109635944A (zh) 一种稀疏卷积神经网络加速器及实现方法
CN108710906B (zh) 基于轻量级网络LightPointNet的实时点云模型分类方法
CN108510063A (zh) 一种应用于卷积神经网络的加速方法和加速器
CN102567973A (zh) 基于改进的形状自适应窗口的图像去噪方法
Ma et al. Towards fast and robust real image denoising with attentive neural network and PID controller
CN103020979B (zh) 基于稀疏遗传聚类的图像分割方法
CN110119805A (zh) 基于回声状态网络分类的卷积神经网络算法
Du et al. Efficient network construction through structural plasticity
Zhang et al. Fsanet: Frequency self-attention for semantic segmentation
CN104657949B (zh) 一种煤泥浮选泡沫图像去噪中结构元素优化的方法
CN110188621A (zh) 一种基于ssf-il-cnn的三维人脸表情识别方法
CN115860113B (zh) 一种自对抗神经网络模型的训练方法及相关装置
CN110378356A (zh) 基于多目标拉格朗日正则的细粒度图像识别方法
WO2019243910A1 (en) Segmenting irregular shapes in images using deep region growing
CN115908697A (zh) 基于点云概率分布学习的生成模型及其方法
Xia et al. Efficient synthesis of compact deep neural networks
Zhang et al. Optimization method of residual networks of residual networks for image classification
Jiang et al. Class-Aware Pruning for Efficient Neural Networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190507

Termination date: 20200612

CF01 Termination of patent right due to non-payment of annual fee