CN109740745A - 一种用于构造高维卷积加速神经网络的方法 - Google Patents

一种用于构造高维卷积加速神经网络的方法 Download PDF

Info

Publication number
CN109740745A
CN109740745A CN201811533296.8A CN201811533296A CN109740745A CN 109740745 A CN109740745 A CN 109740745A CN 201811533296 A CN201811533296 A CN 201811533296A CN 109740745 A CN109740745 A CN 109740745A
Authority
CN
China
Prior art keywords
convolution
accnet
network
splatting
gcp
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201811533296.8A
Other languages
English (en)
Inventor
代龙泉
张雪利
唐金辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN201811533296.8A priority Critical patent/CN109740745A/zh
Publication of CN109740745A publication Critical patent/CN109740745A/zh
Withdrawn legal-status Critical Current

Links

Landscapes

  • Complex Calculations (AREA)

Abstract

本发明提供了一种用于构造高维卷积加速神经网络的方法,包括:将现在流行的高斯卷积加速操作SBS解释为神经网络的卷积层操作;扩展张量分解(CP分解)到gCP分解提供相应的g‑卷积;进一步扩展gCP层到级联的gCP层作为gHT分解,提高网络的表现力;选择激活函数g,并计算g和sum函数的梯度,通过反向传播算法对AccNet进行训练;在训练有素的AccNet上提取splatting、blurring和slicing操作,构成任意高维卷积的最优加速算法。

Description

一种用于构造高维卷积加速神经网络的方法
技术领域
本发明涉及一种高维卷积技术,特别是一种用于构造高维卷积加速神经网络的方法。
背景技术
高维卷积广泛应用于各种学科,如视觉匹配中用级联卷积表示广义拉普拉斯距离、全连接的CRFs推论中采用了高维高斯卷积进行有效的信息传递、将双边滤波器转换为维度升高的高维空间中的卷积,等等。但由于高维卷积的计算复杂度较高,存在严重的性能问题,所以在过去的几十年里,人们采用了手工的方法为高斯卷积设计快速算法,但最近对各种非高斯卷积的需求已经出现,争议性也越来越大,而且原来的手工加速方法是一项耗时费力的工作,已经不再适用于多种不同类型的卷积。
当前最流行的高斯模糊加速算法Splatting-Blurring-Slicing(SBS)归功于数据缩减和可分离内核,首先像素被“Splatting”(下采样)到网格上以减小数据大小,然后对网格顶点进行“Blurring”(模糊)操作,最后通过“Slicing”(上采样)产生每个像素的滤波值。由于可分离的模糊内核,在这些顶点上执行的d-D高斯模糊可以视为若干可分离的1-D滤波器的总和,因此一个d-D卷积(1)的计算复杂度从O(rd)减少到了O(rd),又因为splatting之后滤波窗口变得很小,计算复杂度可粗略地视为与半径r无关的O(d),但是该算法不能逼近非高斯卷积而且对于如何改善逼近误差没有理论依据。
现在流行的双边网格和全自显晶体格加速方法都属于SBS流程,我们的方法是将SBS重新设计为一个加速神经网络AccNet,是目前首个通过神经网络对高维卷积进行加速的方法,有以下几个优势:1、为基于SBS的加速算法提供了统一的视角;2、卷积层权重与激活函数g一起定义了splatting、blurring和slicing卷积,所以可以轻松地从训练有素的网格中获得新的splatting、blurring和slicing卷积,以实现任意的卷积。这种能力赋予我们的网络以端到端的特征;3、AccNet可以在训练中保证最小的逼近误差。
发明内容
本发明的目的在于提供一种用于构造高维卷积加速神经网络的方法,包括以下步骤:
步骤1;输入待加速的高维卷积;
步骤2,构造加速神经网络AccNet的输入;
步骤3,将CP分解扩展到gCP分解并提供相应的g-卷积,构成加速神经网络AccNet;
步骤4,扩展gCP分解到级联gCP分解;
步骤5,计算函数sum和激活函数g的梯度并对网络进行训练;
步骤6,从训练有素的AccNet中提取高维卷积的加速算法。
本发明与现有技术相比,具有以下优点:(1)为基于SBS(Splatting-Blurring-Slicing)流程的加速算法提供了统一的视角;(2)加速网络的卷积层权重与激活函数g一起定义了splatting、blurring和slicing操作,所以可以轻松地从训练有素的加速神经网络中获得新的splatting、blurring和slicing操作,以实现任意的卷积。这种能力赋予我们的网络以端到端的特征;而且本专利是高维卷积加速领域首例神经网络加速方式;(3)加速神经网络(AccNet)可以在训练中保证最小的逼近误差。
下面结合说明书附图对本发明作进一步描述。
附图说明
图1是本发明的流程图。
图2(a)是gCP层演示图,图2(b)是级联gCP层演示图,图2(c)是AccNet的演示图。
具体实施方式
结合图1,一种用于产生快速高维卷积算法的加速神经网络AccNet,包含(1)将splatting、blurring和slicing操作解释为卷积;(2)gCP分解和g-卷积;(3)扩展gCP层;(4)AccNet的构造和训练;(5)提取SBS流程,共五个过程。
将splatting、blurring和slicing操作解释为卷积包括以下步骤:
步骤1,Splatting将空间素化为规则网格,并将输入嵌入到网格的离散化顶点中,以减小数据大小。每个顶点的值是其附近输入值的加权和,即splatting操作以s为步幅进行卷积,这里s表示晶体格顶点之间的间隔。
步骤2,Slicing是splatting的逆操作。由于slicing值是相邻顶点的加权和,所以slicing操作也等同于卷积操作,更准确的说,slicing表现为完全卷积网络的反卷积层,它是通过卷积进行上采样的。
步骤3,Blurring是卷积的别名。在1-D情况下,卷积的完整内核实现需要每个像素rd次(乘加)运算,其中r是卷积核的半径。如果内核是可分离的,通过沿着每个轴方向顺序执行1-D卷积可以对其进行加速(则每个像素需要dr次操作)。在数学上,可分离的内核K是秩为1的张量(d维向量{Kn,n=1,…,d}的外积),如式(2),继而内核K的卷积变为式(3),其中,I是输入的图像,I'是滤波后的输出图像,K代表滤波核函数。
K=k1○k2…○kd (2)
I′=K*I=k1*k2…kd*I (3)
对于任意内核,可以通过张量分解(CP分解)将其重新表示为若干秩为1的张量的总和,得到式(4)和式(5)。其中N表示图像I的总深度(维度),i表示图像的第i个维度,ωi则表示图像的第i维的滤波核函数的权重,则表示图像的第i维滤波核函数经过张量分解后的第d个因式(等同于等式(2)中的kd)。
gCP分解和g-卷积包括以下步骤:
本质上,是通过神经网络分解滤波内核,因为一旦得到式(4),就可以根据式(5)对卷积进行加速。在这两个等式中,基本构建块是乘法和加法。如果其中一个被其他操作替换,就获得了新的CP分解式(4)和可分离卷积式(5),即得到了新的splatting,blurring和slicing操作。所以将式(4)推广到gCP分解并提供相应的g-卷积
步骤4,将式(4)中每个元素表示为
假设激活函数g:R×R→R表示乘法,
其中a×gb=g(a,b)=ab。
设g为激活函数,
使得式(2)的CP分解可以通过定义进行一般化。因此,得到了gCP分解(6),其中○g表示通过用激活函数g替换乘法对外积进行一般化。
此外,用g替代式(1)中的乘法并获得g-卷积式(7)
把式(6)带入式(7),得到式(8),其顺序执行N个1-Dg-卷积。
步骤5,式(7)中的Kpq和Iq形成两个d阶张量,并用表示它们,将式(6)带入式(8),可以得到式(9)。
定义lj是一个向量并将代入式(9),得到由三个操作组成的式(10):
定义为g-仿射映射(g-aff映射);
定义为g-乘法池(g-mul池);
定义为权重平均池(g-avg池)。
激活函数g为这三个操作引入了非线性。
图2a描述了gCP层的整个框架,其中输入是矩阵,g-aff映射把由输入中的黑线表示的转换为m1中同样用黑线表示的新的向量;g-mul池将m1中的每个红色块向量映射到向量v1中的标量;g-avg池把v1元素个数减少到1。我们将该层构造为gCP层,因为它实现了内核K的gCP分解。
扩展gCP层包含以下步骤:
步骤6,级联gCP层作为gHT(gHierarchicalTurker)分解:神经网络的表达能力与层的深度密切相关,所以级联多个gCP层以扩展其表现力。如果把g-mul池中的全局池更换为局部池,输出即为矩阵。类似地,如果增加最后一个操作的输出数(g-avg池转换为g-aff映射),则输出将是一个向量。通过这种方式,gCP层将矩阵映射到另一个矩阵,可以将两个CP层级联在一起。图2b提供了两个级联gCP层的演示,将第一个gCP层的最后一个g-aff映射和第二个gCP层的第一个g-aff映射合并为一个g-aff映射。
步骤7,级联gCP实现了gHT分解,用g替换HT分解中的乘法。例如,对于具有两层的4阶张量K的gHT分解可以表示为(11)
其中
其中N2表示阶数(4阶张量K,为4),N1表示图像的维度
把(11)放入卷积公式,得到(12)
其中 表示第i维的滤波核函数K的第m阶张量的第n层权重;
比较(12)与图2b中的结构,运算符分别对应于第一个g-aff映射和g-mul池,第二个g-aff映射和g-mul池和g-avg池,如图3所示。
AccNet的构造和训练包含以下步骤:
步骤8,输入:步骤5、6、7中都假设并构造矩阵作为每个点pi的网络输入。为了放宽上述步骤的假设,定义:
步骤9,由于双边网格或全自显晶体格上的每个顶点pi的模糊值都取决于其邻域的值(图像块),而且对于slicing,我们需要围绕目标点周围的m个顶点pi进行插值得到其滤波结果。所以需要m个图像块来计算被{pi,1≤i≤m}所包围的目标点的结果。为了合成被{pi}包围的目标点的滤波值,我们通过垂直地级联来组成Lj。最后,得到的{Lj,1≤j≤l}堆叠在一起,形成了AccNet的输入。
步骤10,splatting构成跨步卷积。理论上来说,卷积核K是任意的。在这里,我们假设K=k1g…○gkd是AccNet中的一阶张量,原因如下:1、AccNet采用三层来近似卷积结果,尽管splatting层的操作是简单的,也可以通过增加blurring层的复杂度来减少逼近误差。2、blurring层的输入张量的每个切片必须是秩为1的矩阵,并且对于一阶输入张量来说,具有秩为1的内核K的滤波结果也是一阶张量。
步骤11,Blurring:采用级联gCP层来构成AccNet的blurring层,因为它比单个gCP层具有更强大的表现力。图2c提供了两个gCP层示例。对于每个切片blurring层产生一个标量值
步骤12,Slicing:定义切片层将Zj映射到矢量tj,tj的每个元素对应于被{pi}包围的像素的内插值,其中每个pi的值来源于由于所以总共有l个不同的Zj,可以获得l个不同的tj,因此最终结果是{tj,1≤j≤m}的总和。
步骤13,g函数:该函数在我们的AccNet中起着重要作用。首先,它为AccNet引入了非线性,增强了AccNet的表现力。其次,它定义了新的卷积,使用g-conv操作,我们可以很容易地定义新的splatting,blurring和slicing操作。实际上存在很多g函数满足关联性g(g(a,b),c)=g(a,g(b,c))和交换性g(a,b)=g(b,a)。这里列出我们在AccNet中使用的两个g函数:(1)g(a,b)=max{a,0};(2)g(a,b)=max{ab,0}。
步骤14,可以很容易地根据各卷积层权重获得输入的加权和sum,并计算sum和g函数的梯度。而AccNet作为这两个基础计算的组合,可以通过反向传播算法进行训练。
提取SBS加速算法包含以下步骤:
步骤15,从训练有素的AccNet网络中提取其卷积层的权重和激活函数,两者结合,自动定义splatting、blurring和slicing操作,即实现了任意高维卷积的最优加速算法。

Claims (5)

1.一种用于构造高维卷积加速神经网络的方法,其特征在于,包括以下步骤:
步骤1,输入待加速的高维卷积;
步骤2,构造加速神经网络AccNet的输入;
步骤3,将CP分解扩展到gCP分解并提供相应的g-卷积,构成加速神经网络AccNet;
步骤4,扩展gCP分解到级联gCP分解;
步骤5,计算函数sum和激活函数g的梯度并对网络进行训练;
步骤6,从训练有素的AccNet中提取高维卷积的加速算法。
2.根据权利要求1所述的方法,其特征在于,步骤2具体包括如下步骤:
步骤201,假设其中是图像块;
步骤202,根据SBS(下采样-模糊-上采样)流程的特征,构造出叠加的{Lj,1≤j≤l}作为AccNet的输入。
3.根据权利要求1所述的方法,其特征在于,步骤3具体包括如下步骤:
步骤301,将SBS流程中的CP分解扩展到gCP分解,并用激活函数g代替乘法运算,得到g-卷积;
步骤302,使用g-卷积构造AccNet,并对应到SBS流程中的splatting、blurring和slicing操作;其中
Splatting操作通过对输入进行采样将空间素化为规则空间,并将采样点嵌入到网格的离散化顶点中;
Blurring操作对离散的顶点进行张量分解和卷积运算,将矩阵映射到标量;
Slicing是splatting的逆操作,对上一步得到的结果进行重新采样回到输入空间。
4.根据权利要求1所述的方法,其特征在于,步骤5具体包括如下步骤:
步骤501,训练过程选择的激活函数g为g(a,b)=max{a,0}或g(a,b)=max{ab,0};
步骤502,计算sum和g函数的梯度,AccNet作为这两个基础计算的组合,通过反向传播算法进行训练,使得逼近误差达到最小。
5.根据权利要求1所述的方法,其特征在于,步骤6具体包括如下步骤:
步骤601,完成训练后,AccNet网络的激活函数和权重相结合自动定义了新的splatting、blurring和slicing操作;
步骤602,使用新的splatting、blurring和slicing操作合成任意高维卷积的最优加速算法。
CN201811533296.8A 2018-12-14 2018-12-14 一种用于构造高维卷积加速神经网络的方法 Withdrawn CN109740745A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811533296.8A CN109740745A (zh) 2018-12-14 2018-12-14 一种用于构造高维卷积加速神经网络的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811533296.8A CN109740745A (zh) 2018-12-14 2018-12-14 一种用于构造高维卷积加速神经网络的方法

Publications (1)

Publication Number Publication Date
CN109740745A true CN109740745A (zh) 2019-05-10

Family

ID=66359445

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811533296.8A Withdrawn CN109740745A (zh) 2018-12-14 2018-12-14 一种用于构造高维卷积加速神经网络的方法

Country Status (1)

Country Link
CN (1) CN109740745A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113240917A (zh) * 2021-05-08 2021-08-10 林兴叶 一种将深度神经网络应用于智慧交通的交通管理系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106408522A (zh) * 2016-06-27 2017-02-15 深圳市未来媒体技术研究院 一种基于卷积对神经网络的图像去噪方法
CN108052989A (zh) * 2018-02-07 2018-05-18 深圳市唯特视科技有限公司 一种基于样条卷积神经网络的图像分类方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106408522A (zh) * 2016-06-27 2017-02-15 深圳市未来媒体技术研究院 一种基于卷积对神经网络的图像去噪方法
CN108052989A (zh) * 2018-02-07 2018-05-18 深圳市唯特视科技有限公司 一种基于样条卷积神经网络的图像分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LONGQUAN DAI等: "Designing by Training: Acceleration Neural Networkfor Fast High-Dimensional Convolution", 《NEURIPS 2018》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113240917A (zh) * 2021-05-08 2021-08-10 林兴叶 一种将深度神经网络应用于智慧交通的交通管理系统
CN113240917B (zh) * 2021-05-08 2022-11-08 广州隧华智慧交通科技有限公司 一种将深度神经网络应用于智慧交通的交通管理系统

Similar Documents

Publication Publication Date Title
Parmar et al. Image transformer
Guo et al. Hierarchical neural architecture search for single image super-resolution
Weber et al. Topological landscapes: A terrain metaphor for scientific data
Kolesnikov et al. Uvim: A unified modeling approach for vision with learned guiding codes
CN105488776B (zh) 超分辨率图像重建方法和装置
CN112801279A (zh) 用于卷积神经网络的超像素方法
CN112529150A (zh) 一种模型结构、模型训练方法、图像增强方法及设备
Rudolph et al. Decomposition of matrix product states into shallow quantum circuits
Luck et al. Number Theory and Physics: Proceedings of the Winter School, Les Houches, France, March 7–16, 1989
CN110298446A (zh) 面向嵌入式系统的深度神经网络压缩和加速方法及系统
JP6902318B2 (ja) ニューラルネットワークの全結合層を畳み込み層に置き換えるプログラム
CN106981056A (zh) 一种基于分数阶偏微分方程的图像对比度增强滤波器
CN109740745A (zh) 一种用于构造高维卷积加速神经网络的方法
Ai et al. Single image super-resolution via residual neuron attention networks
CN114037770A (zh) 一种基于离散傅里叶变换的注意力机制的图像生成方法
CN109272450A (zh) 一种基于卷积神经网络的图像超分方法
CN111626296B (zh) 基于深度神经网络的医学图像分割系统及方法、终端
Jiang Biorthogonal wavelets with six-fold axial symmetry for hexagonal data and triangle surface multiresolution processing
CN113129231A (zh) 一种基于对抗生成网络生成高清图像的方法及系统
Xiong et al. Noucsr: Efficient super-resolution network without upsampling convolution
CN113658046B (zh) 基于特征分离的超分辨率图像生成方法、装置、设备和介质
CN112053362B (zh) 图像分割方法、装置、电子设备及存储介质
CN107657585A (zh) 基于双变换域的高倍率超分辨率方法
CN112801294B (zh) 基于图信号处理的用于加速神经网络推理的方法
Varshney et al. Perspectives on the Impact of Artificial Intelligence & Machine Learning on Processes & Structures Engineering

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20190510

WW01 Invention patent application withdrawn after publication