CN114267069A - 基于数据泛化与特征增强的人脸检测方法 - Google Patents

基于数据泛化与特征增强的人脸检测方法 Download PDF

Info

Publication number
CN114267069A
CN114267069A CN202111604882.9A CN202111604882A CN114267069A CN 114267069 A CN114267069 A CN 114267069A CN 202111604882 A CN202111604882 A CN 202111604882A CN 114267069 A CN114267069 A CN 114267069A
Authority
CN
China
Prior art keywords
face
face detection
image
feature
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111604882.9A
Other languages
English (en)
Other versions
CN114267069B (zh
Inventor
柯逍
黄旭
陈宇杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN202111604882.9A priority Critical patent/CN114267069B/zh
Publication of CN114267069A publication Critical patent/CN114267069A/zh
Application granted granted Critical
Publication of CN114267069B publication Critical patent/CN114267069B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种基于数据泛化与特征增强的人脸检测方法,包括以下步骤:步骤S1:获取人脸检测数据集,并预处理;步骤S2:构建人脸检测神经网络,并分别在神经网络中的残差结构中加入通道自注意力模块;在骨干网部分加入感受野匹配模块;在特征提取部分加入跨层特征融合模块;步骤S3:基于预处理后的人脸检测数据集训练人脸检测神经网络;步骤S4:使用训练后的人脸检测神经网络进行人脸检测,若可以直接检测到人脸则直接进行定位,如果无法直接定位,则使用检测到的关键点位置辅助定位人脸位置,最终输出人脸检测结果。本发明能够有效地对待检测的图像、视频帧中的人脸进行定位并输出结果。

Description

基于数据泛化与特征增强的人脸检测方法
技术领域
本发明涉及人脸检测与计算机视觉领域,具体涉及一种基于数据泛化与特征增强的人脸检测方法。
背景技术
人脸检测任务是计算机视觉领域的一个重要研究方向。人脸检测方法需要在图像或是视频帧中找到并定位出人脸的具体位置。人脸检测常作为人脸对齐、人脸身份识别等任务的前置任务出现,在要求准确率外还需要满足一定的速度要求,因此具有重要的研究与应用意义。
发明内容
有鉴于此,本发明的目的在于提供一种基于数据泛化与特征增强的人脸检测方法,能够有效地对待检测的图像、视频帧中的人脸进行定位并输出结果。
为实现上述目的,本发明采用如下技术方案:
一种基于数据泛化与特征增强的人脸检测方法,包括以下步骤:
步骤S1:获取人脸检测数据集,并预处理;
步骤S2:构建人脸检测神经网络,并分别在神经网络中的残差结构中加入通道自注意力模块;在骨干网部分加入感受野匹配模块;在特征提取部分加入跨层特征融合模块;
步骤S3:基于预处理后的人脸检测数据集训练人脸检测神经网络;
步骤S4:使用训练后的人脸检测神经网络进行人脸检测,若可以直接检测到人脸则直接进行定位,如果无法直接定位,则使用检测到的关键点位置辅助定位人脸位置,最终输出人脸检测结果。
进一步的,所述预处理具体为:对人脸检测数据集使用标注框内的随机擦除与Mosaic-Mix数据增强方法,扩充数据集并提升最终训练得到的人脸检测神经网络模型的泛化性,具体如下:
步骤S11:将人脸检测数据集按预设比例划分为训练集、验证集和测试集,其中50%划分为训练集,30%划分为验证集,20%划分为测试集;
步骤S12:对步骤S11中划分出的训练集中标注的人脸框内进行像素点的随机擦除,生成用于神经网络训练的新的人脸检测数据;
步骤S13:将传统的Mix数据增强方法与Mosaic数据增强方法进行结合,对步骤S11中划分出的训练集进行Mix-Mosaic图像融合操作,生成新的用于训练的人脸数据集;
步骤S14:将步骤S12、步骤S13中生成的新的人脸检测数据与原数据集相结合,得到预处理后的人脸数据集。
进一步的,所述步骤S12具体为:确定随机擦除的像素点位置以及大小,确定各参数的公式如下:
Figure BDA0003433776620000021
K=1-(1-r)2
Figure BDA0003433776620000031
上式中,N为该标注框的掩码二值矩阵,(x,y)是该标注框的长与宽;sum(.)是将M中的所有像素值进行相加的操作,以此确定该标注框的图像保留比K;本方法中擦除的像素块采取正方形形状,r为每一个用于擦除的像素块之间的距离,最后使用random(·)从0到r-1的区间范围内确定用于擦除的像素块的大小
Figure BDA0003433776620000032
进一步的,所述步骤S13具体为:将数据集每8张图片分为一组,首先对每组内的两张图片进行0.5的比例线性混合,并依次标记为Imagei,下标i∈(1,2,3,4);然后将Image1、Image2、Image3、Image4各自视为一张独立的图像,并将这4张新图像按预设的占比、位置进行拉伸、裁剪后进行拼接,形成新的一张人脸图像,其中预设的值为:Image1位于左上角,占比为0.2、Image2位于右上角,占比为0.3、Image3位于左下角,占比为0.3、Image4位于右下角,占比为0.2。
进一步的,所述步骤S2具体为:
步骤S21:构建人脸检测神经网络,神经网络包括主干网、特征提取层、输出层,其中主干网中利用跨层连接的残差结构进行人脸特征的传递;
步骤S22:在主干网的残差结构中加入自主设计的通道注意力自注意力模块,,通道自注意力模块将输入的特征图先经过全局平均池化进行归一化处理,然后直接进行激活操作,再于原先输入的特征图矩阵进行按位相乘,具体公式如下:
F(o)=SIG(GAP(o))*o
上式中,o是输入到该结构的特征图信息,GAP代表全局平均池化操作,SIG代表以Sigmoid函数为基础的激活操作,F(o)是经过该处理模块输出到下一层的特征图;
步骤S23:在主干网中加入自主设计的感受野匹配模块,将输入的特征图的通道数减少为原来的四分之一并分为四条支路,前两条支路在通过一维卷积后,利用3*5以及5*3比例大小的卷积核提供矩形感受野,再分别使用一层1*1的卷积核进行归一化操作后相连,形成提供矩形感受野的子模块。另外两条支路,同样通过一维卷积后,使用7*7以及9*9大小的比例进行最大池化,然后重复以上操作,使用一层1*1的卷积核进行归一化操作后相连,形成提供正方形感受的子模块;
步骤S24:在特征提取层中加入自主设计的跨出特征融合模块,将输入的特征图信息划分为三个子特征图,将这三个子特征图再划分出三个包含不同数量、不同卷积核大小的卷积层网络,最后将其连接起来;第一个卷积层网络包含一个1*1的卷积层,第二个卷积层网络包含一个3*3的卷积层和一个1*1的卷积层,第三个卷积网络包含两个3*3的卷积层和一个1*1的卷积层,具体计算公式如下:
EF(i,j,l)=fconcat(fconvolution(∑LF(i,j,l)))
上式中,IF(i,j,l)是输入的特征图信息,LF(i,j,l)经过每一层卷积层的图像特征信息,fconvolution(.)代表卷积操作,fconcat(.)代表连接操作,其中(i,j,l)表示位于第l层的特征图的坐标(i,j),EF(i,j,l)代表经过跨层特征融合后输出的特征图信息。
进一步的,所述步骤S3具体为:
步骤S31:使用步骤S1中得到的新数据集应用于步骤S2得到的新人脸检测神经网络中;
步骤S32:为了加入人脸关键点信息辅助训练人脸检测神经网络,构建改进的非线性损失函数,公式如下:
Figure BDA0003433776620000051
上式中,k为输入的特征信息,ω是一个正数,作用是将非线性的损失值限定在[-ω,ω]间;∈是约束非线性区间整体曲率的一个参数;
步骤S33:使用步骤S32中设计的损失函数对数据集进行训练并检测,得到人脸关键点位置信息,并将关键点的位置加入到人脸位置信息中同时进行人脸检测神经网络的训练;
步骤S34:训练人脸检测神经网络。
进一步的,所述步骤S4具体为:
步骤S41:将待测人脸数据送入最终得到的人脸检测模型中进行检测;
步骤S42:人脸检测模型直接通过步骤S3中学习到的人脸特征信息与图像中的图像信息进行对比,如果对比结果高于阈值,则认为是一张人脸,则进行定位输出;
步骤S43:使用人脸检测模型学习到的人脸关键点信息与图像中的图像信息进行对比,如果对比结果高于阈值,则定位出人脸关键点位置,并通过关键点位置拟合出人脸的位置并进行定位输出;
步骤S44:结合步骤S42与步骤S43的结果,在图像中定位并输入所有人脸位置信息,得到最终结果。
本发明与现有技术相比具有以下有益效果:
1、本发明引入聚类分析,针对人脸检测,生成更加符合人脸的锚框数量、大小,使得人脸检测的精度得到提升;
2、本发明能够在保证检测效果的同时对视频中的人脸进行在线检测;
3、本发明针对现深度学习网络精度足够但速率过低的问题,本发明提出了模型压缩方法,对深度学习模型进行宽度以及深度的压缩,在保证精度尽量不下降的前提下,对模型进行压缩,使得检测速率更快,达到符合实时性的要求;
4、本发明兼顾实时性与准确率,更加符合实际应用需求。
附图说明
图1是本发明方法示意图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
请参照图1,本发明提供一种基于数据泛化与特征增强的人脸检测方法,具体包括以下步骤:
步骤S1:获取人脸检测数据集,对人脸数据集使用标注框内的随机擦除与Mosaic-Mix数据增强方法,扩充数据集并提升最终训练得到的人脸检测神经网络模型的泛化性;
步骤S2:构建人脸检测神经网络,并分别在神经网络中的残差结构中加入通道自注意力模块;在骨干网部分加入感受野匹配模块;在特征提取部分加入跨层特征融合模块;
步骤S3:将步骤S1中扩充完成的数据集应用在步骤S2中设计的神经网络中;同时设计拟合人脸关键点的损失函数并加入人脸关键点的位置信息对神经网络训练;
步骤S4:使用步骤S3中训练完成的网络进行人脸检测,如果可以直接检测到人脸则直接进行定位,如果无法直接定位,则使用检测到的关键点位置辅助定位人脸位置,最终输出人脸检测结果。
在本实施例中,包括步骤S1具体包括以下步骤:
步骤S11:采用公开的人脸检测数据集,并将其中50%划分为训练集,30%划分为验证集,20%划分为测试集;
步骤S12:与传统随机擦除对整张图片进行像素擦除不同,本文方法对步骤S11中划分出的训练集中标注的人脸框内进行像素点的随机擦除,生成用于神经网络训练的新的人脸检测数据。首先确定随机擦除的像素点位置以及大小,确定各参数的公式如下:
Figure BDA0003433776620000081
K=1-(1-r)2
Figure BDA0003433776620000082
上式中,M为该标注框的掩码二值矩阵,(x,y)是该标注框的长与宽;sum(.)是将M中的所有像素值进行相加的操作,以此确定该标注框的图像保留比K;本方法中擦除的像素块采取正方形形状,r为每一个用于擦除的像素块之间的距离,最后使用random(.)从0到r-1的区间范围内确定用于擦除的像素块的大小
Figure BDA0003433776620000083
步骤S13:本文将传统的Mix数据增强方法与Mosaic数据增强方法进行结合,对步骤S11中划分出的训练集进行Mix-Mosaic图像融合操作,生成新的用于训练的人脸数据集。具体而言,将数据集每8张图片分为一组,首先对每组内的两张图片进行0.5的比例线性混合,并依次标记为Imagei,下标i∈(1,2,3,4);然后将Image1、Image2、Image3、Image4各自视为一张独立的图像,并将这4张新图像按预设的占比、位置进行拉伸、裁剪后进行拼接,形成新的一张人脸图像,其中预设的值为:Image1位于左上角,占比为0.2、Image2位于右上角,占比为0.3、Image3位于左下角,占比为0.3、Image4位于右下角,占比为0.2;
步骤S14:将步骤S12、步骤S13中生成的新的人脸检测数据与原数据集相结合,形成数量更多、更具有泛化性的新人脸数据集。
在本实施例中,步骤S2具体包括以下步骤:
步骤S21:构建人脸检测神经网络,神经网络包括主干网、特征提取层、输出层,其中主干网中又利用跨层连接的残差结构进行人脸特征的传递;
步骤S22:在主干网的残差结构中加入自主设计的通道注意力自注意力模块,使得最终的人脸检测模型能学习到更加精确的人脸特征信息。具体来说,通道自注意力模块将输入的特征图先经过全局平均池化进行归一化处理,然后直接进行激活操作,再于原先输入的特征图矩阵进行按位相乘,具体公式如下:
F(o)=SIG(GAP(o))*o
上式中,o是输入到该结构的特征图信息,GAP代表全局平均池化操作,SIG代表以Sigmoid函数为基础的激活操作,F(o)是经过该处理模块输出到下一层的特征图。
步骤S23:在主干网中加入自主设计的感受野匹配模块,使得最终得到的人脸检测模型能学习到更加完整的人脸特征信息。具体来说,将输入的特征图的通道数减少为原来的四分之一并分为四条支路,前两条支路在通过一维卷积后,利用3*5以及5*3比例大小的卷积核提供矩形感受野,再分别使用一层1*1的卷积核进行归一化操作后相连,形成提供矩形感受野的子模块。另外两条支路,同样通过一维卷积后,使用7*7以及9*9大小的比例进行最大池化,然后重复以上操作,使用一层1*1的卷积核进行归一化操作后相连,形成提供正方形感受的子模块。
步骤S24:在特征提取层中加入自主设计的跨出特征融合模块,使得最终得到的人脸检测模型能学习到更加具有鲁棒性的人脸特征信息。具体来说:将输入的特征图信息划分为三个子特征图,尔后将这三个子特征图再划分出三个包含不同数量、不同卷积核大小的卷积层网络,最后将其连接起来;第一个卷积层网络包含一个1*1的卷积层,第二个卷积层网络包含一个3*3的卷积层和一个1*1的卷积层,第三个卷积网络包含两个3*3的卷积层和一个1*1的卷积层,具体计算公式如下:
EF(i,j,l)=fconcat(fconvolution(∑LF(i,j,l)))
上式中,IF(i,j,l)是输入的特征图信息,LF(i,j,l)经过每一层卷积层的图像特征信息,fconvolution(.)代表卷积操作,fconcat(.)代表连接操作,其中(i,j,l)表示位于第l层的特征图的坐标(i,j),EF(i,j,l)代表经过跨层特征融合后输出的特征图信息;
在本实施例中,步骤S3具体包括以下步骤:
步骤S31:使用步骤S1中得到的新数据集应用于步骤S2得到的新人脸检测神经网络中;
步骤S32:为了加入人脸关键点信息辅助训练人脸检测神经网络,自主设计了更加拟合人脸关键点信息的非线性损失函数,公式如下:
Figure BDA0003433776620000111
上式中,k为输入的特征信息,ω是一个正数,作用是将非线性的损失值限定在[-ω,ω]间。∈是约束非线性区间整体曲率的一个参数,在具体使用过程中,根据最小误差值,选定ω为10,∈设为2。根据上式计算常数C=ω-wln(1+x/∈),其作用是可以平滑的连接线性与非线性分段点的区域,使得整体损失函数更加的平滑。L(k)为最终计算的损失值,最终的损失值计算结果为1.88;
步骤S33:使用步骤S32中设计的损失函数对数据集进行训练并检测,得到人脸关键点位置信息,包括左眼、右眼的眼角位置、鼻尖位置、嘴角位置,并将关键点的位置加入到人脸位置信息中同时进行人脸检测神经网络的训练;
步骤S34:训练人脸检测神经网络;
在本实施例中,步骤S4具体包括以下步骤:
步骤S41:将人脸检测数据集中的测试集与验证集送入最终得到的人脸检测模型中进行检测;
步骤S42:人脸检测模型直接通过步骤S3中学习到的人脸特征信息与图像中的图像信息进行对比,如果对比结果高于阈值,则认为是一张人脸,则进行定位输出,阈值设为0.5;
步骤S43:使用人脸检测模型学习到的人脸关键点信息与图像中的图像信息进行对比,如果对比结果高于阈值,则定位出人脸关键点位置,并通过关键点位置拟合出人脸的位置并进行定位输出,阈值设为0.5;
步骤S44:结合步骤S42与步骤S43的结果,在图像中定位并输入所有人脸位置信息,得到最终结果。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。

Claims (7)

1.一种基于数据泛化与特征增强的人脸检测方法,其特征在于,包括以下步骤:
步骤S1:获取人脸检测数据集,并预处理;
步骤S2:构建人脸检测神经网络,并分别在神经网络中的残差结构中加入通道自注意力模块;在骨干网部分加入感受野匹配模块;在特征提取部分加入跨层特征融合模块;
步骤S3:基于预处理后的人脸检测数据集训练人脸检测神经网络;
步骤S4:使用训练后的人脸检测神经网络进行人脸检测,若可以直接检测到人脸则直接进行定位,如果无法直接定位,则使用检测到的关键点位置辅助定位人脸位置,最终输出人脸检测结果。
2.据权利要求1所述的基于数据泛化与特征增强的人脸检测方法,其特征在于,所述预处理具体为:对人脸检测数据集使用标注框内的随机擦除与Mosaic-Mix数据增强方法,扩充数据集并提升最终训练得到的人脸检测神经网络模型的泛化性,具体如下:
步骤S11:将人脸检测数据集按预设比例划分为训练集、验证集和测试集;
步骤S12:对步骤S11中划分出的训练集中标注的人脸框内进行像素点的随机擦除,生成用于神经网络训练的新的人脸检测数据;
步骤S13:将传统的Mix数据增强方法与Mosaic数据增强方法进行结合,对步骤S11中划分出的训练集进行Mix-Mosaic图像融合操作,生成新的用于训练的人脸数据集;
步骤S14:将步骤S12、步骤S13中生成的新的人脸检测数据与原数据集相结合,得到预处理后的人脸数据集。
3.据权利要求1所述的基于数据泛化与特征增强的人脸检测方法,其特征在于,所述步骤S12具体为:确定随机擦除的像素点位置以及大小,确定各参数的公式如下:
Figure FDA0003433776610000021
K=1-(1-r)2
Figure FDA0003433776610000022
上式中,M为该标注框的掩码二值矩阵,(x,y)是该标注框的长与宽;sum(.)是将M中的所有像素值进行相加的操作,以此确定该标注框的图像保留比K;本方法中擦除的像素块采取正方形形状,r为每一个用于擦除的像素块之间的距离,最后使用random(.)从0到r-1的区间范围内确定用于擦除的像素块的大小
Figure FDA0003433776610000023
4.据权利要求1所述的基于数据泛化与特征增强的人脸检测方法,其特征在于,所述步骤S13具体为:将数据集每8张图片分为一组,首先对每组内的两张图片进行0.5的比例线性混合,并依次标记为Imagei,下标i∈(1,2,3,4);然后将Image1、Image2、Image3、Image4各自视为一张独立的图像,并将这4张新图像按预设的占比、位置进行拉伸、裁剪后进行拼接,形成新的一张人脸图像,其中预设的值为:Image1位于左上角,占比为0.2、Image2位于右上角,占比为0.3、Image3位于左下角,占比为0.3、Image4位于右下角,占比为0.2。
5.据权利要求1所述的基于数据泛化与特征增强的人脸检测方法,其特征在于,所述步骤S2具体为:
步骤S21:构建人脸检测神经网络,神经网络包括主干网、特征提取层、输出层,其中主干网中利用跨层连接的残差结构进行人脸特征的传递;
步骤S22:在主干网的残差结构中加入自主设计的通道注意力自注意力模块,,通道自注意力模块将输入的特征图先经过全局平均池化进行归一化处理,然后直接进行激活操作,再于原先输入的特征图矩阵进行按位相乘,具体公式如下:
F(o)=SIG(GAP(o))*o
上式中,o是输入到该结构的特征图信息,GAP代表全局平均池化操作,SIG代表以Sigmoid函数为基础的激活操作,F(o)是经过该处理模块输出到下一层的特征图;
步骤S23:在主干网中加入自主设计的感受野匹配模块,将输入的特征图的通道数减少为原来的四分之一并分为四条支路,前两条支路在通过一维卷积后,利用3*5以及5*3比例大小的卷积核提供矩形感受野,再分别使用一层1*1的卷积核进行归一化操作后相连,形成提供矩形感受野的子模块。另外两条支路,同样通过一维卷积后,使用7*7以及9*9大小的比例进行最大池化,然后重复以上操作,使用一层1*1的卷积核进行归一化操作后相连,形成提供正方形感受的子模块;
步骤S24:在特征提取层中加入自主设计的跨出特征融合模块,将输入的特征图信息划分为三个子特征图,将这三个子特征图再划分出三个包含不同数量、不同卷积核大小的卷积层网络,最后将其连接起来;第一个卷积层网络包含一个1*1的卷积层,第二个卷积层网络包含一个3*3的卷积层和一个1*1的卷积层,第三个卷积网络包含两个3*3的卷积层和一个1*1的卷积层,具体计算公式如下:
EF(i,j,l)=fconcat(fconvolution(∑LF(i,j,l)))
上式中,IF(i,j,l)是输入的特征图信息,LF(i,j,l)经过每一层卷积层的图像特征信息,fconvolution(.)代表卷积操作,fconcat(.)代表连接操作,其中(i,j,l)表示位于第l层的特征图的坐标(i,j),EF(i,j,l)代表经过跨层特征融合后输出的特征图信息。
6.据权利要求1所述的基于数据泛化与特征增强的人脸检测方法,其特征在于,所述步骤S3具体为:
步骤S31:使用步骤S1中得到的新数据集应用于步骤S2得到的新人脸检测神经网络中;
步骤S32:为了加入人脸关键点信息辅助训练人脸检测神经网络,构建改进的非线性损失函数,公式如下:
Figure FDA0003433776610000051
上式中,k为输入的特征信息,ω是一个正数,作用是将非线性的损失值限定在[-ω,ω]间;∈是约束非线性区间整体曲率的一个参数;
步骤S33:使用步骤S32中设计的损失函数对数据集进行训练并检测,得到人脸关键点位置信息,并将关键点的位置加入到人脸位置信息中同时进行人脸检测神经网络的训练;
步骤S34:训练人脸检测神经网络。
7.据权利要求1所述的基于数据泛化与特征增强的人脸检测方法,其特征在于,所述步骤S4具体为:
步骤S41:将待测人脸数据送入最终得到的人脸检测模型中进行检测;
步骤S42:人脸检测模型直接通过步骤S3中学习到的人脸特征信息与图像中的图像信息进行对比,如果对比结果高于阈值,则认为是一张人脸,则进行定位输出;
步骤S43:使用人脸检测模型学习到的人脸关键点信息与图像中的图像信息进行对比,如果对比结果高于阈值,则定位出人脸关键点位置,并通过关键点位置拟合出人脸的位置并进行定位输出;
步骤S44:结合步骤S42与步骤S43的结果,在图像中定位并输入所有人脸位置信息,得到最终结果。
CN202111604882.9A 2021-12-25 2021-12-25 基于数据泛化与特征增强的人脸检测方法 Active CN114267069B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111604882.9A CN114267069B (zh) 2021-12-25 2021-12-25 基于数据泛化与特征增强的人脸检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111604882.9A CN114267069B (zh) 2021-12-25 2021-12-25 基于数据泛化与特征增强的人脸检测方法

Publications (2)

Publication Number Publication Date
CN114267069A true CN114267069A (zh) 2022-04-01
CN114267069B CN114267069B (zh) 2024-07-02

Family

ID=80830381

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111604882.9A Active CN114267069B (zh) 2021-12-25 2021-12-25 基于数据泛化与特征增强的人脸检测方法

Country Status (1)

Country Link
CN (1) CN114267069B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114999183A (zh) * 2022-05-30 2022-09-02 扬州大学 一种交通路口车流量检测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020037898A1 (zh) * 2018-08-23 2020-02-27 平安科技(深圳)有限公司 人脸特征点检测方法、装置、计算机设备及存储介质
CN112200161A (zh) * 2020-12-03 2021-01-08 北京电信易通信息技术股份有限公司 一种基于混合注意力机制的人脸识别检测方法
CN112699727A (zh) * 2020-11-17 2021-04-23 南京理工大学 一种联合反射注意力和自注意力机制的道路水体检测方法
WO2021134871A1 (zh) * 2019-12-30 2021-07-08 深圳市爱协生科技有限公司 基于局部二值模式和深度学习的合成人脸图像取证方法
CN113536990A (zh) * 2021-06-29 2021-10-22 复旦大学 深度伪造人脸数据鉴别方法
CN113591795A (zh) * 2021-08-19 2021-11-02 西南石油大学 一种基于混合注意力特征金字塔结构的轻量化人脸检测方法和系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020037898A1 (zh) * 2018-08-23 2020-02-27 平安科技(深圳)有限公司 人脸特征点检测方法、装置、计算机设备及存储介质
WO2021134871A1 (zh) * 2019-12-30 2021-07-08 深圳市爱协生科技有限公司 基于局部二值模式和深度学习的合成人脸图像取证方法
CN112699727A (zh) * 2020-11-17 2021-04-23 南京理工大学 一种联合反射注意力和自注意力机制的道路水体检测方法
CN112200161A (zh) * 2020-12-03 2021-01-08 北京电信易通信息技术股份有限公司 一种基于混合注意力机制的人脸识别检测方法
CN113536990A (zh) * 2021-06-29 2021-10-22 复旦大学 深度伪造人脸数据鉴别方法
CN113591795A (zh) * 2021-08-19 2021-11-02 西南石油大学 一种基于混合注意力特征金字塔结构的轻量化人脸检测方法和系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
曾淦雄: ""基于3D卷积的图像序列特征提取与自注意力的车牌识别方法"", 《智能科学与技术学报》, vol. 3, no. 3, 30 September 2021 (2021-09-30) *
柯逍: ""Dense small face detection based on regional cascade multi-scale method"", 《IET IMAGE PROCESSING》, 10 January 2020 (2020-01-10) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114999183A (zh) * 2022-05-30 2022-09-02 扬州大学 一种交通路口车流量检测方法
CN114999183B (zh) * 2022-05-30 2023-10-31 扬州大学 一种交通路口车流量检测方法

Also Published As

Publication number Publication date
CN114267069B (zh) 2024-07-02

Similar Documents

Publication Publication Date Title
US20220058426A1 (en) Object recognition method and apparatus, electronic device, and readable storage medium
CN110728209B (zh) 一种姿态识别方法、装置、电子设备及存储介质
CN108154133B (zh) 基于非对称联合学习的人脸画像-照片识别方法
CN108564673A (zh) 一种基于全局人脸识别的课堂考勤方法及系统
CN107808129A (zh) 一种基于单个卷积神经网络的面部多特征点定位方法
CN111582044A (zh) 基于卷积神经网络和注意力模型的人脸识别方法
CN105740775A (zh) 一种三维人脸活体识别方法及其装置
CN113673510B (zh) 一种结合特征点和锚框共同预测和回归的目标检测方法
JP2022018066A (ja) 畳み込み知覚ハッシュアルゴリズムに基づくループ検出方法
CN113112416B (zh) 一种语义引导的人脸图像修复方法
CN112149526B (zh) 一种基于长距离信息融合的车道线检测方法及系统
CN112712703A (zh) 车辆视频的处理方法、装置、计算机设备和存储介质
CN103295019B (zh) 一种基于概率统计的中文碎片自适应恢复方法
CN117197763A (zh) 基于交叉注意引导特征对齐网络的道路裂缝检测方法和系统
CN115393928A (zh) 基于深度可分离卷积与加性角度间隔损失的人脸识别方法及装置
CN114267069B (zh) 基于数据泛化与特征增强的人脸检测方法
CN109002776A (zh) 人脸识别方法、系统、计算机设备和计算机可读存储介质
CN116758621B (zh) 基于自注意力机制的遮挡人脸面部表情深度卷积识别方法
CN110781817B (zh) 一种解决部件不对齐的行人再识别方法
US10991085B2 (en) Classifying panoramic images
CN115471901B (zh) 基于生成对抗网络的多姿态人脸正面化方法及系统
CN115984968A (zh) 一种学生时空动作识别方法、装置、终端设备及介质
CN113792669B (zh) 一种基于层次化自注意力网络的行人重识别基线方法
CN116091596A (zh) 一种自下而上的多人2d人体姿态估计方法及装置
CN112016661B (zh) 一种基于擦除显著性区域的行人重识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant