CN111695430A - 一种基于特征融合和视觉感受野网络的多尺度人脸检测方法 - Google Patents

一种基于特征融合和视觉感受野网络的多尺度人脸检测方法 Download PDF

Info

Publication number
CN111695430A
CN111695430A CN202010418338.4A CN202010418338A CN111695430A CN 111695430 A CN111695430 A CN 111695430A CN 202010418338 A CN202010418338 A CN 202010418338A CN 111695430 A CN111695430 A CN 111695430A
Authority
CN
China
Prior art keywords
network
scale
feature
convolution
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010418338.4A
Other languages
English (en)
Other versions
CN111695430B (zh
Inventor
刘欣刚
王文涵
钟鲁豪
李辰琦
汪卫彬
朱超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202010418338.4A priority Critical patent/CN111695430B/zh
Publication of CN111695430A publication Critical patent/CN111695430A/zh
Application granted granted Critical
Publication of CN111695430B publication Critical patent/CN111695430B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明提出一种基于特征融合和视觉感受野网络的多尺度人脸检测方法,以VGG‑16为基础网络,由视觉感受野网络、空洞卷积网络共同组成本发明的网络结构,同时增加了网络的宽度和深度。在不同的卷积层提取不同分辨率的特征,根据不同层的分辨率采用不同方法提取候选框。在较低层的特征上,采用随机密集采样获取大量小尺度候选框,尽可能地匹配到更多真实样本。又通过对不同层的特征进行融合,使得融合特征同时包含了高低层的信息。高层特征适用于大尺度人脸的检测,低层特征适用于小尺度人脸的检测。本发明对于多尺度人脸尤其是小尺度人脸具有较好的检测效果。

Description

一种基于特征融合和视觉感受野网络的多尺度人脸检测方法
技术领域
本发明涉及人脸检测技术,具体涉及一种基于特征融合和视觉感受野网络的多尺度人脸检测技术。
背景技术
人脸特征作为生物特征中的一种,相对于指纹、虹膜、语音等特征,更为直接方便,易于用户接受,有着广泛的应用领域。人脸识别技术可以便捷、安全地识别身份。表情识别有助于研究人物情绪和心理状态,被应用于交通管理如疲劳驾驶领域。而人脸检测作为人脸特征提取的第一步,直接关系到后续人脸处理技术的精度,具有重要的研究意义。
人脸检测主要是从视频或者图像中标记出人脸的位置,涉及到分类和边框回归两种技术。现实情况下,由于拍摄环境的复杂性,使得人脸图像中存在着多种尺度的人脸,又因为伴随着遮挡、旋转等一系列因素,多尺度尤其是小尺度人脸检测存在着漏检、精度低等各种问题。因此,如何处理多尺度问题,是人脸检测技术的重要研究内容。
发明内容
本发明所要解决的技术问题是,针对多尺度尤其是小尺度人脸检测效果不佳的情况,提出了多尺度人脸检测方法。
本发明为解决上述技术问题所采用的技术方案是,一种基于特征融合和视觉感受野网络的多尺度人脸检测方法,由训练步骤与测试步骤组成,其中训练步骤包括:
S1构建检测网络结构:检测网络包括特征提取网络、特征融合网络、候选框生成模块以及输出层;特征提取网络以VGG-16为基础网络连接视觉感受野网络;
S2特征提取:特征提取网络接收输入有标签的人脸图像,在网络的不同层提取特征,获取多尺度的特征图;
S3特征融合:特征融合网络自上而下将来自特征提取网络高层的特征上采样后与低层特征结合形成融合特征输出至候选框生成模块;
S4生成候选框:候选框生成模块根据不同层融合特征提取不同尺度候选框;针对低层融合特征图,采用随机密集采样生成更多小尺度候选框,以匹配更多小尺度人脸样本;
S5生成训练样本:计算各候选框的交并比IoU,根据IoU值与预设值的比较将候选框分成人脸或非人脸样本;
S6将人脸和非人脸样本输入至检测网络中进行训练,检测网络中输出层输出候选框位置与候选框的人脸/非人脸二分类结果并计算损失后反馈至检测网络直至完成训练。
本发明的有益效果是:以VGG-16为基础网络,由视觉感受野网络、空洞卷积网络共同组成本发明的网络结构,同时增加了网络的宽度和深度。在不同的卷积层提取不同分辨率的特征,根据不同层的分辨率采用不同方法提取anchor。在较低层的特征上,采用随机密集采样获取大量小尺度anchor,尽可能地匹配到更多真实样本。又通过对不同层的特征进行融合,使得融合特征同时包含了高低层的信息。高层特征适用于大尺度人脸的检测,低层特征适用于小尺度人脸的检测。本发明对于多尺度人脸尤其是小尺度人脸具有较好的检测效果。
附图说明
图1:本发明的总体框架和网络结构。
图2:视觉感受野网络结构图。
图3:随机密集采样anchor示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面结合实施方式和附图,对本发明做进一步地详细描述。
本发明提出基于特征融合和视觉感受野网络的多尺度人脸检测方法总体框架示意图参照图1所示。
将去除VGG-16的最后3个全连接层,只保留前13个卷积层作为VGG-16 基础网络;在VGG-16基础网络后,连接2个视觉感受野网络Inception1、Inception2,再在视觉感受野网络后再连接1个空洞卷积层Conv6和2个普通卷积层Conv7_1、 Conv7_2;卷积层Conv7_2的特征上采样后与空洞卷积层Conv6的特征进行融合;空洞卷积层Conv6的特征上采样后与第2个视觉感受野网络Inception2输出的特征进行融合;Inception2输出的特征上采样后与卷积层Conv5_5的特征进行融合;卷积层Conv5_5的特征上采样后与卷积层Conv4_3的特征进行融合。从上而下进行特征融合,使得融合后的特征具有丰富的多尺度信息。融合可以采用拼接 Concat或逐像素相乘的方式。
视觉感受野网络由Inception网络改进而成。在Inception网络的基础上,添加不同的空洞卷积核,使得到的特征图具有进一步不同的感受野,输出不同尺度的特征。
空洞卷积可以在不增加计算参数的情况下,增大感受野。以dilation rate=2 为例,假设普通卷积核的大小为k,则空洞卷积核的大小n为:
n=k+(k-1)×(d-1)
假设卷积前原始图像大小为s,则卷积后的特征图大小s*为:
Figure BDA0002495876090000041
其中stride为卷积核的滑动步长,p为填充像素。
如图2所示,每个视觉感受野网络由4个并行的子网络组成。第1个子网络首先经过1×1的卷积操作,使其通道数变为原特征的1/4,进行通道压缩,降低网络的参数量。然后经过3×3的卷积操作,提取语义信息更为丰富的特征。后接2个堆叠的空洞卷积层,空洞卷积可以在不增加参数的情况下扩大感受野,而将2个卷积核为3×3、扩张率为2的空洞卷积核堆叠,代替了较大扩张率的空洞卷积核,降低了计算量,同时增加了网络深度,使得提取到的特征包含更多语义信息。第2个子网络首先经过3×3的池化操作,然后采用1×1的卷积核进行通道压缩,最后经过卷积核为3×3且扩张率为1的空洞卷积。第3个子网络首先采用1×1的卷积核对输入特征进行通道压缩,然后进行卷积核为3×3的卷积操作,之后继续进行空洞卷积,其卷积核为3×3、扩张率为2。最后1个子网络通道压缩后,经过两个3×3的卷积层,然后接1个卷积核为3×3、扩张率为3的空洞卷积。将4个并行网络输出的特征进行通道拼接,形成拼接特征,然后再经过卷积核1×1的卷积操作,提取更为抽象的特征。视觉感受野网络通过4个并行的扩张率不同的空洞卷积层,使得融合特征中包含了多种感受野,且模拟了人类的视觉感知模式,更利于小尺度人脸的检测。
具体训练步骤如下:
S1构建检测网络结构:检测网络包括特征提取网络、特征融合网络、候选框生成模块以及输出层;特征提取网络以VGG-16为基础网络连接视觉感受野网络。
S2特征提取:特征提取网络接收输入有标签的人脸图像,在网络的不同层提取特征,获取多尺度的特征图。
S3特征融合:特征融合网络自上而下将来自特征提取网络高层的特征上采样后与低层特征结合形成融合特征输出至候选框生成模块。
本发明将不同卷积层的特征进行拼接、逐像素相乘,得到融合特征,以适应不同尺度的人脸检测。在特征融合的过程中,应用了空洞卷积。随着网络深度的增加,特征图尺寸逐渐减小,在特征融合过程中,必须先进行上采样,然后与前一层网络输出的特征图进行融合,这一过程中损失了很多空间信息。而空洞卷积既可以增大感受野,又不改变特征图的尺寸,将其引入到网络中,既可以获得丰富的语义信息,又不损失空间信息。
采用自顶而下的方式进行特征融合,其中关键的步骤是特征拼接,这种方式可以拼接具有不同感受野的特征图,使得单层特征可以检测不同尺度的人脸。对于分辨率相同的特征图,可以采用逐像素相乘的方式进行融合。
S4生成候选框:候选框生成模块根据不同层提取不同尺度的候选框anchor,高层特征图上提取尺度较大的anchor,低层特征图上提取尺度较小的anchor,针对低层特征图,采用随机密集采样方法,获得更多数量的小尺度anchor。
为了提升小尺度人脸的检测效果,提出了随机密集采样方法。当前的人脸检测算法中,获取到的小尺度anchor数量较少,分布较为分散,在匹配小尺度真实人脸样本的时候,往往漏掉许多真实人脸,使得小尺度人脸的训练样本不足。在本发明中,采用密集采样,获得更多小尺度anchor,能够更好地匹配小尺度人脸样本。同时,在密集采样过程中,首先对每个像素点附近进行均匀分割,后又在每个区域进行随机采样,既模拟了真实人脸样本在图像中随机分布的规则,又将该随机性固定到某个区域内,使得anchor的分布很好地兼顾了均匀和随机的特点。密集采样示意图如图3所示。
步骤S4包括如下步骤:
S41:采用3×3×c的滑动窗口遍历特征图,得到w×h×c的特征图,其中w 和h分别为特征图的宽、高,c为特征图的通道数。
S42:在不同特征图上,设置不同尺度的候选区域。设置Conv4_3层的anchor 尺度为16×16,Conv5_5层的anchor尺度为32×32,视觉感受野层的anchor尺度为64×64,剩下两层卷积层的anchor尺度分别为128×128、256×256。
S43:在Conv4_3层特征图每个位置上,通过随机密集采样获得16个16×16 的anchor。该过程中,在特征图每个像素点附近,均匀提取16个区域,在每个区域的范围内,随机获取一个位置作为anchor中心,获取anchor。共得到16个 anchor。
S44:在Conv5_5层特征图每个位置上,通过随机密集采样获得4个16×16 的anchor。该过程中,在特征图每个像素点附近,均匀提取4个区域,在每个区域的范围内,随机获取一个位置作为anchor中心,获取anchor共得到4个anchor。
S45:对于其他层的特征图,则在每个位置上,获取一个anchor。
S5生成训练样本:计算各候选框的交并比IoU,根据IoU值与预设值的比较将候选框分成人脸或非人脸样本。
如果某个anchor的位置超出了输入图像的边界,则将其舍弃;某个 ground-truthbox具有最大IoU的anchor标记为正样本(人脸);如果某个anchor 与任意ground-truthbox的IoU大于0.5,则将其标记为正样本;如果某个anchor 任意ground-truth box的IoU均小于0.3,则将其标记为负样本(非人脸);其余 anchor不作为训练样本。
S6将人脸和非人脸样本输入至检测网络中进行训练,检测网络中输出层输出候选框位置与候选框的人脸/非人脸二分类结果并计算损失后反馈至检测网络直至完成训练。
实施例采用Focal Loss对输出层的二分类网络进行训练。
步骤S6包括如下步骤:
S61:采用1×1×2×2的卷积层遍历融合特征,输出w×h×2×2的特征向量,其中前一个2为每个像素点对应的预测类别,后一个2代表每个像素点对应的2 个anchor;
S62:采用1×1×4×2的卷积层遍历融合特征,输出w×h×4×2的特征向量,其中2为每个像素点对应的2个anchor,4为其预测边框;
S63:采用损失函数Focal Loss对分类网络进行训练;
S64:回归损失使用smooth L1 loss函数;
S65:进行边框回归,使得预测到的边框位置更接近真实值。
实施例采用的测试数据集为Wider Face数据集。其包含3个子数据集:easy 数据集、medium数据集、hard数据集。3个数据集包含的人脸尺度逐渐减小、检测难度逐渐增大。本算法在3个数据集的mp分别达到了0.942、0.921、0.838,高于当前平均水平,尤其是hard数据集,当前平均水平为0.75左右,提高了近0.09,说明本发明对于多尺度人脸尤其是小尺度人脸具有较好的检测效果。

Claims (5)

1.一种基于特征融合和视觉感受野网络的多尺度人脸检测方法,包括训练步骤与测试步骤,其特征在于,训练步骤包括:
S1构建检测网络结构:检测网络包括特征提取网络、特征融合网络、候选框生成模块以及输出层;特征提取网络以VGG-16为基础网络连接视觉感受野网络;
S2特征提取:特征提取网络接收输入有标签的人脸图像,在网络的不同层提取特征,获取多尺度的特征图;
S3特征融合:特征融合网络自上而下将来自特征提取网络高层的特征上采样后与低层特征结合形成融合特征输出至候选框生成模块;
S4生成候选框:候选框生成模块根据不同层融合特征提取不同尺度候选框;针对低层融合特征图,采用随机密集采样生成更多小尺度候选框,以匹配更多小尺度人脸样本;
S5生成训练样本:计算各候选框的交并比IoU,根据IoU值与预设值的比较将候选框分成人脸或非人脸样本;
S6将人脸和非人脸样本输入至检测网络中进行训练,检测网络中输出层输出候选框位置与候选框的人脸/非人脸二分类结果并计算损失后反馈至检测网络直至完成训练。
2.如权利要求1所述方法,其特征在于,特征提取网络以VGG-16为基础网络连接视觉感受野网络的具体方法是:
S11:去除VGG-16的最后3个全连接层,只保留前13个卷积层作为VGG-16基础网络;
S12:在VGG-16基础网络后,连接2个视觉感受野网络;在视觉感受野网络后再连接1个空洞卷积层和2个普通卷积层。
3.如权利要求2所述方法,其特征在于,视觉感受野网络由4个并行的子网络组成;第1个子网络分别进行卷积核为1×1、3×3的卷积操作和2个卷积核为3×3、扩张率为2的空洞卷积操作;第2个子网络分别进行3×3的最大池化、卷积核1×1的卷积和卷积核为3×3、扩张率为1的空洞卷积操作;第3个子网络分别进行卷积核为1×1、3×3的卷积操作和卷积核为3×3、扩张率为2的空洞卷积操作;第4个子网络分别进行卷积核为1×1、3×3、3×3的卷积操作和卷积核为3×3、扩张率为3的空洞卷积层;4个子网络进行特征拼接,然后经过1×1的卷积操作,输出结果。
4.如权利要求1所述方法,其特征在于,步骤S3中卷积层Conv7_2的特征上采样后与卷积层Conv6的特征进行融合;卷积层Conv6的特征上采样后与第2个视觉感受野网络输出的特征进行融合;第2个视觉感受野网络输出的特征上采样后与卷积层Conv5_5的特征进行融合;卷积层Conv5_5的特征上采样后与卷积层Conv4_3的特征进行融合。
5.如权利要求1所述方法,其特征在于,步骤S4具体包括步骤:
S31采用3×3×c的滑动窗口遍历各融合特征图,c为特征图的通道数,3×3为特征图的宽×高;
S32在不同的融合特征图上,设置不同尺度的候选框:设置卷积层Conv4_3特征图的候选框尺度为16×16,卷积层Conv5_5特征图的候选框尺度为32×32,第2个视觉感受野层特征图的候选框尺度为64×64,卷积层Conv6特征图的候选框尺为128×128,卷积层Conv7_2特征图的候选框尺为256×256;
S33:在Conv4_3特征图每个像素点位置上,通过随机密集采样获得16个16×16的候选框;在Conv5_5特征图每个位置上,通过随机密集采样获得4个16×16的候选框;对于第2个视觉感受野层特征图、Conv6特征图和Conv7_2特征图,则在每个位置上,获取一个候选框。
CN202010418338.4A 2020-05-18 2020-05-18 一种基于特征融合和视觉感受野网络的多尺度人脸检测方法 Active CN111695430B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010418338.4A CN111695430B (zh) 2020-05-18 2020-05-18 一种基于特征融合和视觉感受野网络的多尺度人脸检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010418338.4A CN111695430B (zh) 2020-05-18 2020-05-18 一种基于特征融合和视觉感受野网络的多尺度人脸检测方法

Publications (2)

Publication Number Publication Date
CN111695430A true CN111695430A (zh) 2020-09-22
CN111695430B CN111695430B (zh) 2023-06-30

Family

ID=72477868

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010418338.4A Active CN111695430B (zh) 2020-05-18 2020-05-18 一种基于特征融合和视觉感受野网络的多尺度人脸检测方法

Country Status (1)

Country Link
CN (1) CN111695430B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112183488A (zh) * 2020-11-03 2021-01-05 平安科技(深圳)有限公司 人脸检测模型训练方法、设备及人脸检测方法
CN112329861A (zh) * 2020-11-06 2021-02-05 北京工业大学 一种面向移动机器人多目标检测的分层特征融合方法
CN112560701A (zh) * 2020-12-17 2021-03-26 成都新潮传媒集团有限公司 一种人脸图像提取方法、装置及计算机存储介质
CN113033638A (zh) * 2021-03-16 2021-06-25 苏州海宸威视智能科技有限公司 一种基于感受野感知的无锚点框目标检测方法
CN113269038A (zh) * 2021-04-19 2021-08-17 南京邮电大学 一种基于多尺度的行人检测方法
CN113743197A (zh) * 2021-07-23 2021-12-03 北京眼神智能科技有限公司 快速人脸检测方法、装置、电子设备及存储介质
CN113762476A (zh) * 2021-09-08 2021-12-07 中科院成都信息技术股份有限公司 一种用于文字检测的神经网络模型及其文字检测方法
CN114360009A (zh) * 2021-12-23 2022-04-15 电子科技大学长三角研究院(湖州) 一种复杂场景下的多尺度特征人脸属性识别系统及其方法
CN115272648A (zh) * 2022-09-30 2022-11-01 华东交通大学 用于小目标检测的多层级感受野扩展方法与系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109583375A (zh) * 2018-11-30 2019-04-05 中山大学 一种多特征融合的人脸图像光照识别方法及系统
CN109753927A (zh) * 2019-01-02 2019-05-14 腾讯科技(深圳)有限公司 一种人脸检测方法和装置
CN109886083A (zh) * 2019-01-03 2019-06-14 杭州电子科技大学 一种基于深度学习的实时场景小脸检测方法
CN110263712A (zh) * 2019-06-20 2019-09-20 江南大学 一种基于区域候选的粗精行人检测方法
CN110738160A (zh) * 2019-10-12 2020-01-31 成都考拉悠然科技有限公司 一种结合人脸检测的人脸质量评估方法
CN111062324A (zh) * 2019-12-17 2020-04-24 上海眼控科技股份有限公司 人脸检测方法、装置、计算机设备和存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109583375A (zh) * 2018-11-30 2019-04-05 中山大学 一种多特征融合的人脸图像光照识别方法及系统
CN109753927A (zh) * 2019-01-02 2019-05-14 腾讯科技(深圳)有限公司 一种人脸检测方法和装置
CN109886083A (zh) * 2019-01-03 2019-06-14 杭州电子科技大学 一种基于深度学习的实时场景小脸检测方法
CN110263712A (zh) * 2019-06-20 2019-09-20 江南大学 一种基于区域候选的粗精行人检测方法
CN110738160A (zh) * 2019-10-12 2020-01-31 成都考拉悠然科技有限公司 一种结合人脸检测的人脸质量评估方法
CN111062324A (zh) * 2019-12-17 2020-04-24 上海眼控科技股份有限公司 人脸检测方法、装置、计算机设备和存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
吕梦思: "基于卷积神经网络的实时行人检测", 《中国优秀硕士学位论文全文数据库(电子期刊)》 *
张思奇: "基于深度学习的CT图像肺结节检测方法研究", 《中国优秀硕士学位论文全文数据库(电子期刊)》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112183488A (zh) * 2020-11-03 2021-01-05 平安科技(深圳)有限公司 人脸检测模型训练方法、设备及人脸检测方法
WO2021208687A1 (zh) * 2020-11-03 2021-10-21 平安科技(深圳)有限公司 人脸检测模型训练方法、设备、介质及人脸检测方法
CN112329861A (zh) * 2020-11-06 2021-02-05 北京工业大学 一种面向移动机器人多目标检测的分层特征融合方法
CN112560701A (zh) * 2020-12-17 2021-03-26 成都新潮传媒集团有限公司 一种人脸图像提取方法、装置及计算机存储介质
CN113033638A (zh) * 2021-03-16 2021-06-25 苏州海宸威视智能科技有限公司 一种基于感受野感知的无锚点框目标检测方法
CN113269038A (zh) * 2021-04-19 2021-08-17 南京邮电大学 一种基于多尺度的行人检测方法
CN113269038B (zh) * 2021-04-19 2022-07-15 南京邮电大学 一种基于多尺度的行人检测方法
CN113743197A (zh) * 2021-07-23 2021-12-03 北京眼神智能科技有限公司 快速人脸检测方法、装置、电子设备及存储介质
CN113762476A (zh) * 2021-09-08 2021-12-07 中科院成都信息技术股份有限公司 一种用于文字检测的神经网络模型及其文字检测方法
CN113762476B (zh) * 2021-09-08 2023-12-19 中科院成都信息技术股份有限公司 一种用于文字检测的神经网络模型及其文字检测方法
CN114360009A (zh) * 2021-12-23 2022-04-15 电子科技大学长三角研究院(湖州) 一种复杂场景下的多尺度特征人脸属性识别系统及其方法
CN115272648A (zh) * 2022-09-30 2022-11-01 华东交通大学 用于小目标检测的多层级感受野扩展方法与系统

Also Published As

Publication number Publication date
CN111695430B (zh) 2023-06-30

Similar Documents

Publication Publication Date Title
CN111695430B (zh) 一种基于特征融合和视觉感受野网络的多尺度人脸检测方法
EP3961484A1 (en) Medical image segmentation method and device, electronic device and storage medium
WO2021073418A1 (zh) 人脸识别方法、装置、设备及存储介质
US20220076002A1 (en) Action recognition method and apparatus, computer storage medium, and computer device
CN111275784B (zh) 生成图像的方法和装置
WO2023185494A1 (zh) 一种点云数据识别方法、装置、电子设备及存储介质
CN110689599A (zh) 基于非局部增强的生成对抗网络的3d视觉显著性预测方法
CN110852256A (zh) 时序动作提名的生成方法、装置、设备及存储介质
CN113538233A (zh) 一种基于自蒸馏对比学习的超分辨率模型压缩和加速方法
CN109523558A (zh) 一种人像分割方法及系统
CN114332094A (zh) 基于轻量级多尺度信息融合网络的语义分割方法及装置
CN115082928A (zh) 面向复杂场景的不对称双分支实时语义分割网络的方法
CN113420179B (zh) 基于时序高斯混合空洞卷积的语义重构视频描述方法
CN113379597A (zh) 人脸超分辨率重构方法
CN113516972A (zh) 语音识别方法、装置、计算机设备及存储介质
CN111652238B (zh) 一种多模型集成方法及系统
CN115471901B (zh) 基于生成对抗网络的多姿态人脸正面化方法及系统
CN116052053A (zh) 一种智慧文博下的监控图像准确度提升方法及装置
CN113792807B (zh) 皮肤病分类模型训练方法、系统、介质和电子设备
CN113724271B (zh) 一种用于复杂环境移动机器人场景理解的语义分割模型训练方法
CN113569886A (zh) 网络结构调整方法、装置和存储介质及电子设备
CN113538214A (zh) 一种妆容迁移的控制方法、系统和存储介质
Du et al. Multi branch deepfake detection based on double attention mechanism
CN109086721A (zh) 用于人脸画像合成的主动表观模型
Xue et al. INIT: Inpainting network for incomplete text

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant