CN112446267B - 一种适合前端的人脸识别网络的设置方法 - Google Patents
一种适合前端的人脸识别网络的设置方法 Download PDFInfo
- Publication number
- CN112446267B CN112446267B CN201910830547.7A CN201910830547A CN112446267B CN 112446267 B CN112446267 B CN 112446267B CN 201910830547 A CN201910830547 A CN 201910830547A CN 112446267 B CN112446267 B CN 112446267B
- Authority
- CN
- China
- Prior art keywords
- feature map
- named
- convolution
- depth
- generate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种适合前端的人脸识别网络的设置方法,包括:S1,对输入的图像数据data先进行均衡化处理,先进行减128,生成数据data1,再对数据data1进行除以128,生成数据data2;S2,对S1中的data1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为64;生成的特征图为96×96×64,命名为conv0;S3,进行第一种降低特征图长宽处理,S4‑S7,产生第一、第二、第三、第四模块;S8,全连接。有效的利用了每个小模块提取的特征。在每个卷积中,有效避免局部特征的加强和特征的消失。每个模块的输入中都拼接上面各个模块的结果,从而避免梯度的消失。使用单独设计输出特征图个数的方案,可以有效的降低计算量,最大程度的提高卷积提取特征的效率。
Description
技术领域
本发明涉及人脸图像识别技术领域,特别涉及一种适合前端的人脸识别网络的设置方法。
背景技术
随着科技的不断发展,特别是计算机视觉技术的发展,人脸识别技术广泛应用于信息安全、电子认证等各个领域,图像特征提取方法具有良好的识别性能。人脸识别是指基于已知的人脸样本库,利用图像处理和/或模式识别技术从静态或者动态场景中,识别一个或多个人脸的技术。但是目前的人脸识别技术包括1、应用到人脸识别中的各种网络:Inception、ResNet、VGG、MobileNet、AlexNet、GoogLeNet、Inception-ResNet;2、人脸识别训练的框架结构有facenet和insightface。目前人脸识别技术包括的缺点有:1、当前前端的网络,使用了独立卷积、特征图加法、各种尺寸的卷积核等,不适合很多AI芯片,导致AI芯片无法实现其网络。2、计算量相对较大。3、识别率相对较低。
发明内容
为了解决上述现有技术中存在的问题,本发明的目的在于:
1、使用的算子很少,只有3×3的卷积核、采用特征图拼接(concat)操作、下采样操作和全连接操作。
2、计算量小,计算量不到1G的乘法,模型(参数为浮点)大小只有29M。
3、提高人脸识别率使之达到99.8%。
本发明提供一种适合前端的人脸识别网络结构的设置方法,所述方法包括以下步骤:
S1,对输入的图像数据data先进行均衡化处理,先进行减128,生成数据data1,再对数据data1进行除以128,生成数据data2;
S2,对S1中的data1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为64;生成的特征图为96×96×64,命名为conv0;
S3,进行第一种降低特征图长宽处理,即:
S3.1,将conv0进行卷积核为3×3、步长为2的卷积处理,生成特征图的深度为32;生成的特征图为48×48×32,命名为conv1;
S3.2,将conv0进行下采样处理,生成特征图的深度为32;生成的特征图为48×48×64,命名为pool1;
S4,产生第一模块,即:
S4.1,将pool1进行三次卷积处理,生成特征图的深度为64;生成的特征图为48×48×32,命名为block1_conv3;
S4.2,将block1_conv3与conv1拼接,生成结果命名为block1_concat1;
S5,产生第二模块,即:
S5.1,通过进行第二种降低特征图长宽处理,输出结果命名为block2_conv0;
S5.2,将block2_conv0进行二次卷积处理,生成特征图的深度为48。生成的特征图为24×24×48,命名为block2_conv2;
S5.3,将block2_conv2进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为48;生成的特征图为24×24×48,命名为block2_conv3;
S5.4,将block2_conv3与block2_conv0拼接,生成结果命名为block2_concat1;
S5.5,将block2_conv2进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为64;生成的特征图为24×24×64,命名为block2_conv4;
S6,产生第三模块,即,
S6.1,产生第三模块的第一部分,即:
S6.1.1,通过进行第二种降低特征图长宽处理,输出结果的特征图分别命名为block31_conv0,block31_pool1,block31_pool2;
S6.1.2,将block31_conv0进行二次卷积处理,生成特征图的深度为80;生成的特征图为12×12×80,命名为block31_conv2;
S6.1.3,将block31_conv2与block31_pool1拼接,生成结果命名为block31_concat1;
S6.1.4,将block31_concat1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为64,生成的特征图为12×12×64,命名为block31_conv3;
S6.1.5,将block31_conv3与block31_pool2拼接,生成结果命名为block31_concat2;
S6.1.6,将block31_concat1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为96,生成的特征图为12×12×96,命名为block32_conv1;
S6.2,产生第三模块的第二部分;
S6.2.1,将block31_concat2进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为48,生成的特征图为12×12×48,命名为block31_conv4;
S6.2.2,将block32_conv1与block31_conv4拼接,生成结果命名为block32_concat1;
S6.2.3,将block32_concat1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为96,生成的特征图为12×12×96,命名为block32_conv2;
S6.2.4,将block32_conv2与block31_conv4拼接,生成结果命名为block32_concat2;
S6.2.5,将block32_concat2进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为96,生成的特征图为12×12×96,命名为block32_conv3;
S6.2.6,将block32_conv3与block31_concat2拼接,生成结果命名为block32_concat3;
S6.3,产生第三模块的第三部分;
S6.3.1,将block32_concat3进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为48,生成的特征图为12×12×48,命名为block33_conv1;
S6.3.2,将block33_conv1与block32_conv3拼接,生成结果命名为block33_concat1;
S6.3.3,将block33_concat1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为96,生成的特征图为12×12×96,命名为block33_conv2;
S6.3.4,将block33_conv2与block33_conv1拼接,生成结果命名为block33_concat2;
S6.3.5,将block33_concat2进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为96,生成的特征图为12×12×96,命名为block33_conv3;
S6.3.6,将block33_conv3与block32_concat3拼接,生成结果命名为block33_concat3;
S7,产生第四模块;
S7.1,通过进行第二种降低特征图长宽处理,其中in_data1=block33_concat3,in_data2=block33_conv3,in_data3=block33_concat3,N=64;输出结果命名为block4_conv0=out_conv1,block4_pool1=out_pool1,block4_pool2=out_pool2;
S7.2,将block4_conv0进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为160,生成的特征图为6×6×160,命名为block4_conv1;
S7.3,将block4_conv1与block4_pool1拼接,生成结果命名为block4_concat1;
S7.4,将block4_concat1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为128,生成的特征图为6×6×128,命名为block4_conv2;
S7.5,将block4_conv2与block4_conv0拼接,生成结果命名为block4_concat2;
S7.6,将block4_concat2进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为192,生成的特征图为6×6×192,命名为block4_conv3;
S7.7,将block4_conv3与block4_pool2拼接,生成结果命名为block4_concat3;
S8,全连接,即将block4_conv3全连接到192个数据上。
所述的每个模块使用的卷积都是3×3的卷积核的卷积处理,卷积后进行归一化处理,再进行激励函数的处理。
所述的下采样处理为,处理内核大小为2×2、步长为2的卷积处理。
所述步骤4.1中所述的三次卷积处理为,卷积核为3×3、步长为1的卷积处理;
[1]将pool1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为32,生成的特征图为48×48×32,命名为block1_conv1;
[2]将block1_conv1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为64,生成的特征图为48×48×32,命名为block1_conv2;
[3]将block1_conv2进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为64,生成的特征图为48×48×32,命名为block1_conv3。
所述步骤S5.1中所述的进行第二种降低特征图长宽处理:
输入数据分别为in_data1,in_data2,in_data3,N;
[1]将in_data1进行卷积核为3×3、步长为2的卷积处理,生成特征图的深度为N;生成的特征图为W×H×N,命名为out_conv1;
[2]将in_data2进行下采样处理,处理内核大小为2×2、步长为2的下采样处理,生成特征图与输入特征图的深度一样,这里设为M;生成的特征图为W×H×M,命名为out_pool1;
[3]将in_data3进行下采样处理,处理内核大小为2×2、步长为2的下采样处理,生成特征图与输入特征图的深度一样,这里设为M;生成的特征图为W×H×M,命名为out_pool2。
其中in_data1=block1_concat1,in_data2=block1_concat1,N=48;输出结果命名为block2_conv0=out_conv1,block2_pool1=out_pool1;
[2]将block2_conv0进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为64;生成的特征图为24×24×64,命名为block2_conv1;
[3]将block2_conv1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为48;生成的特征图为24×24×48,命名为block2_conv2;
[4]将block2_conv2进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为48;生成的特征图为24×24×48,命名为block2_conv3。
所述步骤S5.2中的二次卷积处理,如下:
[1]将block2_conv0进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为64,生成的特征图为24×24×64,命名为block2_conv1;
[2]将block2_conv1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为48,生成的特征图为24×24×48,命名为block2_conv2。
所述步骤S6.1.1,其中in_data1=block2_concat1,in_data2=block2_conv4,in_data3=block2_concat1,N=48;输出结果命名为block31_conv0=out_conv1,block31_pool1=out_pool1,block31_pool2=out_pool2。
所述步骤6.1.2中的二次卷积处理,如下:
[1]将block31_conv0进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为128,生成的特征图为12×12×128,命名为block31_conv1;
[2]将block31_conv1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为80,生成的特征图为12×12×80,命名为block31_conv2。
本申请的优势在于:使用了下采样直达全连接层的思想,将每个小模块结果的特征图经过下采样后直接与全连接层连接,从而有效的利用了每个小模块提取的特征。在每个卷积中,使用交叉拼接上面卷积的结果,有效避免局部特征的加强和特征的消失。每个模块的输入中都拼接上面各个模块的结果,从而避免梯度的消失。使用单独设计输出特征图个数的方案,可以有效的降低计算量,最大程度的提高卷积提取特征的效率。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,并不构成对本发明的限定。
图1是本发明涉及的网络结构的示意框图。
图2-1至图2-22是本发明的具体实施方式的流程框图。
具体实施方式
在人脸识别领域,目前一些相关的技术领域的术语包括:
1、深度学习:深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。
2、卷积核:卷积核是用来做图像处理时的矩阵,与原图像做运算的参数。卷积核通常是一个列矩阵数组成(例如3*3的矩阵),该区域上每个方格都有一个权重值。矩阵形状一般是1×1,3×3,5×5,7×7,1×3,3×1,2×2,1×5,5×1,…。
3、卷积:将卷积核的中心放置在要计算的像素上,一次计算核中每个元素和其覆盖的图像像素值的乘积并求和,得到的结构就是该位置的新像素值,这个过程称为卷积。
4、特征图:输入数据通过卷积计算后得到的结果称之为特征图,数据通过全连接后生成的结果也称为特征图。特征图大小一般表示为长×宽×深度,或1×深度
5、步长:卷积核中心位置再坐标上移动的长度。
6:两端非对齐处理:图像或数据通过卷积核大小为3且步长为2处理时,会导致两侧数据不够,此时采用丢弃两侧或一侧数据,这种现象叫做两端非对其处理。
7、前端人脸检测:在AI芯片或普通芯片上使用的人脸检测功能称之为前端人脸检测,前端人脸检测的速度和正确率都比云端服务器人脸检测的低。
8、激励函数:神经网络中的每个节点接受输入值,并将输入值传递给下一层,输入节点会将输入属性值直接传递给下一层(隐层或输出层)。在神经网络中,隐层和输出层节点的输入和输出之间具有函数关系,这个函数称为激励函数。常见的激励函数有:线性激励函数、阈值或阶跃激励函数、S形激励函数、双曲正切激励函数和高斯激励函数等。
本申请中,如图1所示,设置的网络结构具体为:
1、网络结构
1)网络的特点。网络中使用了下采样直达全连接层的思想,将每个小模块结果的特征图经过下采样后直接与全连接层连接,从而有效的利用了每个小模块提取的特征。在每个卷积中,使用交叉拼接上面卷积的结果,有效避免局部特征的加强和特征的消失。每个模块的输入中都拼接上面各个模块的结果,从而避免梯度的消失。
2)在具体的每层卷积的设计中,使用单独设计输出特征图个数的方案,可以有效的降低计算量,最大程度的提高卷积提取特征的效率。进行一次每个小模块的特征图。
如图1所示,首先将输入的图像数据data先进行均衡化处理,先进行减128,生成数据data1,再对data1进行除以128,生成数据data2;然后对data1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为64。生成的特征图为96×96×64,命名为conv0;经历第一种降低特征图长宽处理,所述的第一种降低特征图长宽处理如下:
[1.1]将conv0进行卷积核为3×3、步长为2的卷积处理,生成特征图的深度为32。生成的特征图为48×48×32,命名为conv1。
[1.2]将conv0进行下采样处理,处理内核大小为2×2、步长为2的卷积处理,生成特征图的深度为32。生成的特征图为48×48×64,命名为pool1。
再经过层层卷积处理,激励函数处理,使用下采样处理,生成第一、第二、第三和第四模块,期间,经历第二种降低特征图长宽处理。所述的第二种降低特征图长宽处理进一步包括:
输入数据分别in_data1,in_data2,in_data3,N;
[2.1]将in_data1进行卷积核为3×3、步长为2的卷积处理,生成特征图的深度为N,生成的特征图为W×H×N;
[2.2]将in_data2进行下采样处理,处理内核大小为2×2、步长为2的下采样处理,生成特征图与输入特征图的深度一样,这里设为M,生成的特征图为W×H×M;
[2.3]将in_data3进行下采样处理,处理内核大小为2×2、步长为2的下采样处理,生成特征图与输入特征图的深度一样,这里设为M,生成的特征图为W×H×M。
所述的网络的最后一个模块即第四模块最终全连接到192个数据上。
此外,本申请中涉及的具体地设置方法包括如下内容,如图2-1至图2-22所示:
2、网络模块
1)每个模块使用的卷积都是3×3的卷积核的卷积处理,卷积后进行归一化处理,再进行激励函数的处理。这种处理在下面简称为卷积处理。
2)对输入的图像数据data先进行均衡化处理,先进行减128,生成数据data1,再对data1进行除以128,生成数据data2;
3)对data1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为64。生成的特征图为96×96×64,命名为conv0;
4)第一种降低特征图长宽处理。
[1]将conv0进行卷积核为3×3、步长为2的卷积处理,生成特征图的深度为32。生成的特征图为48×48×32,命名为conv1。
[2]将conv0进行下采样处理,处理内核大小为2×2、步长为2的卷积处理,生成特征图的深度为32。生成的特征图为48×48×64,命名为pool1。
5)第一个模块。
[1]将pool1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为32。生成的特征图为48×48×32,命名为block1_conv1。
[2]将block1_conv1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为64。生成的特征图为48×48×32,命名为block1_conv2。
[3]将block1_conv2进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为64。生成的特征图为48×48×32,命名为block1_conv3。
[4]将block1_conv3与conv1拼接,生成结果命名为block1_concat1。
6)第二种降低特征图长宽处理。
输入数据分别为in_data1,in_data2,in_data3,N。
[1]将in_data1进行卷积核为3×3、步长为2的卷积处理,生成特征图的深度为N。生成的特征图为W×H×N,命名为out_conv1。
[2]将in_data2进行下采样处理,处理内核大小为2×2、步长为2的下采样处理,生成特征图与输入特征图的深度一样,这里设为M。生成的特征图为W×H×M,命名为out_pool1。
[3]将in_data3进行下采样处理,处理内核大小为2×2、步长为2的下采样处理,生成特征图与输入特征图的深度一样,这里设为M。生成的特征图为W×H×M,命名为out_pool2。
7)第二个模块。
[1]通过6)第二种降低特征图长宽处理,其中in_data1=block1_concat1,in_data2=block1_concat1,N=48。输出结果命名为block2_conv0=out_conv1,block2_pool1=out_pool1。
[2]将block2_conv0进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为64。生成的特征图为24×24×64,命名为block2_conv1。
[3]将block2_conv1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为48。生成的特征图为24×24×48,命名为block2_conv2。
[4]将block2_conv2进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为48。生成的特征图为24×24×48,命名为block2_conv3。
[5]将block2_conv3与block2_conv0拼接,生成结果命名为block2_concat1。
[6]将block2_conv2进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为64。生成的特征图为24×24×64,命名为block2_conv4。
8)第三个模块。
第一部分:
[1]通过上述6)第二种降低特征图长宽处理,其中in_data1=block2_concat1,in_data2=block2_conv4,in_data3=block2_concat1,N=48。输出结果命名为block31_conv0=out_conv1,block31_pool1=out_pool1,block31_poo2=out_pool2。
[2]将block31_conv0进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为128。生成的特征图为12×12×128,命名为block31_conv1。
[3]将block31_conv1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为80。生成的特征图为12×12×80,命名为block31_conv2。
[4]将block31_conv2与block31_pool1拼接,生成结果命名为block31_concat1。
[5]将block31_concat1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为64。生成的特征图为12×12×64,命名为block31_conv3。
[6]将block31_conv3与block31_pool2拼接,生成结果命名为block31_concat2。
[7]将block31_concat1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为96,生成的特征图为12×12×96,命名为block32_conv1。
第二部分:
[1]将block31_concat2进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为48。生成的特征图为12×12×48,命名为block32_conv4。
[2]将block32_conv1与block31_conv4拼接,生成结果命名为block32_concat1。
[3]将block32_concat1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为96。生成的特征图为12×12×96,命名为block32_conv2。
[4]将block32_conv2与block32_conv4拼接,生成结果命名为block32_concat2。
[5]将block32_concat2进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为96。生成的特征图为12×12×96,命名为block32_conv3。
[6]将block32_conv3与block31_concat2拼接,生成结果命名为block32_concat3。
第三部分:
[1]将block32_concat3进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为48。生成的特征图为12×12×48,命名为block33_conv1。
[2]将block33_conv1与block32_conv3拼接,生成结果命名为block33_concat1。
[3]将block33_concat1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为96。生成的特征图为12×12×96,命名为block33_conv2。
[4]将block33_conv2与block33_conv1拼接,生成结果命名为block33_concat2。
[5]将block33_concat2进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为96。生成的特征图为12×12×96,命名为block33_conv3。
[6]将block33_conv3与block32_concat3拼接,生成结果命名为block33_concat3。
9)第四个模块。
[1]通过6)第二种降低特征图长宽处理,其中in_data1=block33_concat3,in_data2=block33_conv3,in_data3=block33_concat3,N=64。输出结果命名为block4_conv0=out_conv1,block4_pool1=out_pool1,block4_pool2=out_pool2。
[2]将block4_conv0进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为160。生成的特征图为6×6×160,命名为block4_conv1。
[3]将block4_conv1与block4_pool1拼接,生成结果命名为block4_concat1。
[4]将block4_concat1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为128。生成的特征图为6×6×128,命名为block4_conv2。
[5]将block4_conv2与block4_conv0拼接,生成结果命名为block4_concat2。
[6]将block4_concat2进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为192。生成的特征图为6×6×192,命名为block4_conv3。
[7]将block4_conv3与block31_pool2拼接,生成结果命名为block4_concat3。
10)全连接
将block4_conv3全连接到192个数据上。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明实施例可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种适合前端的人脸识别网络结构的设置方法,其特征在于,所述方法包括以下步骤:
S1,对输入的图像数据data先进行均衡化处理,先进行减128,生成数据data1,再对数据data1进行除以128,生成数据data2;
S2,对S1中的data1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为64;
生成的特征图为96×96×64,命名为conv0;
S3,进行第一种降低特征图长宽处理,即:
S3.1,将conv0进行卷积核为3×3、步长为2的卷积处理,生成特征图的深度为32;生成的特征图为48×48×32,命名为conv1;
S3.2 ,将conv0进行下采样处理,生成特征图的深度为32;生成的特征图为48×48×64,命名为pool1;
S4,产生第一模块,即:
S4.1 ,将pool1进行三次卷积处理,生成特征图的深度为64;生成的特征图为48×48×32,命名为block1_conv3;
S4.2 ,将block1_conv3与conv1拼接,生成结果命名为block1_concat1;
S5,产生第二模块,即:
S5.1,通过进行第二种降低特征图长宽处理,输出结果命名为block2_conv0;
S5.2,将block2_conv0进行二次卷积处理,生成特征图的深度为48,生成的特征图为24×24×48,命名为block2_conv2;
S5.3,将block2_conv2进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为48;生成的特征图为24×24×48,命名为block2_conv3;
S5.4 ,将block2_conv3与block2_conv0拼接,生成结果命名为block2_concat1;
S5.5 ,将block2_conv2进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为64;生成的特征图为24×24×64,命名为block2_conv4;
S6 ,产生第三模块,即,
S6.1 ,产生第三模块的第一部分,即:
S 6.1.1 ,通过进行第二种降低特征图长宽处理 ,输出结果的特征图分别命名为
block31_conv0,block31_pool1,block31_pool2;
S6.1.2 ,将block31_conv0进行二次卷积处理,生成特征图的深度为80;生成的特征图为12×12×80,命名为block31_conv2;
S6.1.3 ,将block31_conv2与block31_pool1拼接,生成结果命名为block31_concat1;
S6.1.4 ,将block31_concat1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为64 ,生成的特征图为12×12×64,命名为block31_conv3;
S6.1.5 ,将block31_conv3与block31_pool2拼接,生成结果命名为block31_concat2;
S6.1.6 ,将block31_concat1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为96 ,生成的特征图为12×12×96,命名为block32_conv1;
S6.2 ,产生第三模块的第二部分;
S6.2.1,将block31_concat2进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为48,生成的特征图为12×12×48,命名为block31_conv4;
S6.2.2,将block32_conv1与block31_conv4拼接,生成结果命名为block32_concat1;
S6.2.3,将block32_concat1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为96,生成的特征图为12×12×96,命名为block32_conv2;
S6.2.4,将block32_conv2与block31_conv4拼接,生成结果命名为block32_concat2;
S6.2.5,将block32_concat2进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为96,生成的特征图为12×12×96,命名为block32_conv3;
S6.2.6,将block32_conv3与block31_concat2拼接,生成结果命名为block32_
concat3;
S6.3 ,产生第三模块的第三部分;
S6.3.1,将block32_concat3进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为48,生成的特征图为12×12×48,命名为block33_conv1;
S6.3.2,将block33_conv1与block32_conv3拼接,生成结果命名为block33_concat1;
S6.3.3,将block33_concat1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为96,生成的特征图为12×12×96,命名为block33_conv2;
S6.3.4,将block33_conv2与block33_conv1拼接,生成结果命名为block33_concat2;
S6.3.5,将block33_concat2进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为96,生成的特征图为12×12×96,命名为block33_conv3;
S6.3.6,将block33_conv3与block32_concat3拼接,生成结果命名为block33_
concat3;
S7 ,产生第四模块;
S7.1,通过进行第二种降低特征图长宽处理,其中in_data1=
block33_concat3 ,in_data2=block33_conv3 ,in_data3=
block33_concat3 ,N=64;输出结果命名为block4_conv0=out_conv1,
block4_pool1=out_pool1 ,block4_pool2=out_pool2;
S7.2,将block4_conv0进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为160,生成的特征图为6×6×160,命名为block4_conv1;
S7.3,将block4_conv1与block4_pool1拼接,生成结果命名为block4_concat1;
S7.4,将block4_concat1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为128,生成的特征图为6×6×128,命名为block4_conv2;
S7.5,将block4_conv2与block4_conv0拼接,生成结果命名为block4_concat2;
S7.6,将block4_concat2进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为192,生成的特征图为6×6×192,命名为block4_conv3;
S7.7,将block4_conv3与block4_pool2拼接,生成结果命名为block4_concat3;
S8 ,全连接,即将block4_concat3全连接到192个数据上。
2.根据权利要求1所述的一种适合前端的人脸识别网络结构的设置方法,其特征在于,所述的每个模块使用的卷积都是3×3的卷积核的卷积处理,卷积后进行归一化处理,再进行激励函数的处理。
3.根据权利要求1所述的一种适合前端的人脸识别网络结构的设置方法,其特征在于,所述下采样处理为,处理内核大小为2×2、步长为2的卷积处理。
4.根据权利要求1所述的一种适合前端的人脸识别网络结构的设置方法,其特征在于,所述步骤S4 .1中所述的三次卷积处理为,卷积核为3×3、步长为1的卷积处理:
[1]将pool1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为32,生成的特征图为48×48×32,命名为block1_conv1;
[2]将block1_conv1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为64,生成的特征图为48×48×32,命名为block1_conv2;
[3]将block1_conv2进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为64,生成的特征图为48×48×32,命名为block1_conv3。
5.根据权利要求1所述的一种适合前端的人脸识别网络结构的设置方法,其特征在于,所述步骤S5 .1中所述的进行第二种降低特征图长宽处理:输入数据分别为in_data1 ,in_data2 ,in_data3 ,N;
[1]将in_data1进行卷积核为3×3、步长为2的卷积处理,生成特征图的深度为N;生成的特征图为W×H×N,命名为out_conv1;
[2]将in_data2进行下采样处理,处理内核大小为2×2、步长为2的下采样处理,生成特征图与输入特征图的深度一样,这里设为M;生成的特征图为W×H×M,命名为out_pool1;
[3]将in_data3进行下采样处理,处理内核大小为2×2、步长为2的下采样处理,生成特征图与输入特征图的深度一样,这里设为M;生成的特征图为W×H×M,命名为out_pool2。
6.根据权利要求5所述的一种适合前端的人脸识别网络结构的设置方法,其特征在于,
其中in_data1=block1_concat1 ,in_data2=block1_concat1 ,N=48;
输出结果命名为block2_conv0=out_conv1,block2_pool1=out_pool1;
[1]将block2_conv0进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为64;
生成的特征图为24×24×64,命名为block2_conv1;
[2]将block2_conv1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为48;
生成的特征图为24×24×48,命名为block2_conv2;
[3]将block2_conv2进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为48;
生成的特征图为24×24×48,命名为block2_conv3。
7.根据权利要求1所述的一种适合前端的人脸识别网络结构的设置方法,其特征在于,所述步骤S5 .2中的二次卷积处理,如下:
[1]将block2_conv0进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为64,
生成的特征图为24×24×64,命名为block2_conv1;
[2]将block2_conv1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为48,生成的特征图为24×24×48,命名为block2_conv2。
8.根据权利要求1所述的一种适合前端的人脸识别网络结构的设置方法,其特征在于,
所述步骤S6 .1 .1,其中in_data1=
block2_concat1 ,in_data2=block2_conv4 ,in_data3=
block2_concat1 ,N=48;输出结果命名为block31_conv0=out_conv1,
block31_pool1=out_pool1,block31_pool2=out_pool2。
9.根据权利要求1所述的一种适合前端的人脸识别网络结构的设置方法,其特征在于,
所述步骤S6.1.2中的二次卷积处理,如下:
[1]将block31_conv0进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为128,生成的特征图为12×12×128,命名为block31_conv1;
[2]将block31_conv1进行卷积核为3×3、步长为1的卷积处理,生成特征图的深度为80,生成的特征图为12×12×80,命名为block31_conv2。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910830547.7A CN112446267B (zh) | 2019-09-04 | 2019-09-04 | 一种适合前端的人脸识别网络的设置方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910830547.7A CN112446267B (zh) | 2019-09-04 | 2019-09-04 | 一种适合前端的人脸识别网络的设置方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112446267A CN112446267A (zh) | 2021-03-05 |
CN112446267B true CN112446267B (zh) | 2023-05-05 |
Family
ID=74734412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910830547.7A Active CN112446267B (zh) | 2019-09-04 | 2019-09-04 | 一种适合前端的人脸识别网络的设置方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112446267B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106599883A (zh) * | 2017-03-08 | 2017-04-26 | 王华锋 | 一种基于cnn的多层次图像语义的人脸识别方法 |
CN107622261A (zh) * | 2017-11-03 | 2018-01-23 | 北方工业大学 | 基于深度学习的人脸年龄估计方法及装置 |
CN108427921A (zh) * | 2018-02-28 | 2018-08-21 | 辽宁科技大学 | 一种基于卷积神经网络的人脸识别方法 |
-
2019
- 2019-09-04 CN CN201910830547.7A patent/CN112446267B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106599883A (zh) * | 2017-03-08 | 2017-04-26 | 王华锋 | 一种基于cnn的多层次图像语义的人脸识别方法 |
CN107622261A (zh) * | 2017-11-03 | 2018-01-23 | 北方工业大学 | 基于深度学习的人脸年龄估计方法及装置 |
CN108427921A (zh) * | 2018-02-28 | 2018-08-21 | 辽宁科技大学 | 一种基于卷积神经网络的人脸识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112446267A (zh) | 2021-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111462126B (zh) | 一种基于边缘增强的语义图像分割方法及系统 | |
CN111489358B (zh) | 一种基于深度学习的三维点云语义分割方法 | |
Thai et al. | Image classification using support vector machine and artificial neural network | |
CN108647585A (zh) | 一种基于多尺度循环注意力网络的交通标识符检测方法 | |
CN108345827B (zh) | 识别文档方向的方法、系统和神经网络 | |
CN111583263A (zh) | 一种基于联合动态图卷积的点云分割方法 | |
CN113468996B (zh) | 一种基于边缘细化的伪装物体检测方法 | |
CN109426773A (zh) | 一种道路识别方法和装置 | |
CN111553869A (zh) | 一种空基视角下的生成对抗网络图像补全方法 | |
CN116310693A (zh) | 基于边缘特征融合和高阶空间交互的伪装目标检测方法 | |
CN112329801A (zh) | 一种卷积神经网络非局部信息构建方法 | |
CN110598746A (zh) | 一种基于ode求解器自适应的场景分类方法 | |
CN113392728B (zh) | 一种基于ssa锐化注意机制的目标检测方法 | |
CN114581789A (zh) | 一种高光谱图像分类方法及系统 | |
CN113256546A (zh) | 一种基于彩色图指导的深度图补全方法 | |
CN116071625B (zh) | 深度学习模型的训练方法、目标检测方法及装置 | |
CN112446267B (zh) | 一种适合前端的人脸识别网络的设置方法 | |
CN112446266B (zh) | 一种适合前端的人脸识别网络结构 | |
CN116740108A (zh) | 一种基于深度学习的单阶段实例分割方法 | |
CN116433980A (zh) | 脉冲神经网络结构的图像分类方法、装置、设备及介质 | |
CN113688783B (zh) | 人脸特征提取方法、低分辨率人脸识别方法及设备 | |
WO2022017129A1 (zh) | 目标对象检测方法、装置、电子设备及存储介质 | |
Liu et al. | YOLO-SSP: an object detection model based on pyramid spatial attention and improved downsampling strategy for remote sensing images | |
CN114723049A (zh) | 一种基于梯度优化的类激活映射方法及装置 | |
CN111223120B (zh) | 一种点云语义分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |