CN111832475B - 一种基于语义特征的人脸误检筛除方法 - Google Patents

一种基于语义特征的人脸误检筛除方法 Download PDF

Info

Publication number
CN111832475B
CN111832475B CN202010666506.1A CN202010666506A CN111832475B CN 111832475 B CN111832475 B CN 111832475B CN 202010666506 A CN202010666506 A CN 202010666506A CN 111832475 B CN111832475 B CN 111832475B
Authority
CN
China
Prior art keywords
face
detection
semantic
result
screening
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010666506.1A
Other languages
English (en)
Other versions
CN111832475A (zh
Inventor
张栗粽
田玲
金琪
罗光春
杨崇岭
刘袆莹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202010666506.1A priority Critical patent/CN111832475B/zh
Publication of CN111832475A publication Critical patent/CN111832475A/zh
Application granted granted Critical
Publication of CN111832475B publication Critical patent/CN111832475B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及人脸检测识别技术领域,目的在于有效提高分类精度,降低泛化误差,实现对人脸误检结果的有效分类筛除,具体涉及一种基于语义特征的人脸误检筛除方法,具体为以原始图像数据作为此阶段的输入,通过人脸检测与对齐算法对原始图像进行人脸检测并对齐,将检测对齐结果缩放至112*112尺寸;采用基于BiSeNet的实时人脸语义分割方法对输入的人脸检测对齐结果进行像素级的人脸语义分割,得到语义分割结果;采用特征工程技术,对语义分割结果进行处理,构造并挑选出最具表征能力的语义特征;采用Stacking模型集成框架对输入的语义特征进行运算,得到最终的人脸误检分类结果并完成误检筛除;实现对人脸误检结果的有效分类筛除,提高整体检测算法的性能与鲁棒性。

Description

一种基于语义特征的人脸误检筛除方法
技术领域
本发明涉及人脸检测识别技术领域,目的在于有效提高分类精度,降低泛化误差,实现对人脸误检结果的有效分类筛除,提高整体检测算法的性能与鲁棒性,具体涉及一种基于语义特征的人脸误检筛除方法。
背景技术
人脸检测作为所有人脸分析任务的前置步骤,一直以来都是计算机视觉领域的研究热,在安防监控、人证核验、人机交互、社交等领域都有重要的应用价值,人脸检测的目标是得到尽可能高的人脸检测率,同时保证尽可能精确的人脸检测结果和尽可能低的误检率。
近几年来,很多的研究者在该领域做了大量的工作,也取得了不少成果,尤其是基于深度学习的人脸检测更是表现优异,其中具有代表性的算法如MTCNN、Face R-CNN和SSH都在复杂场景下表现出较高的人脸检测率,甚至已经满足了实际工程生产的基本要求。
实践表明,当前一些优秀的人脸检测方法在复杂场景下也能保证较高的人脸检测率,但这并不表示它们能直接应用于实际生产环境中,较高的检测率通常是以产生大量误检结果为代价的,而意外的误检误报必然会影响后续任务的结果和整个系统的性能,因此迎面而来的挑战便是如何有效地减少误检数量,实际生成中大多采用人脸误检筛除的方法。
为了解决人脸误检问题,有人建议将基于人脸的五点坐标特征与支持向量机一起使用,用以减少误报,因为通过人脸坐标可以定位到人脸的相应部分,而任何非人脸理论上都不会具有可靠的人脸坐标,该方法在一定程度上表现了其在减少误报方面的有效性,但由于其对人脸坐标精度的高度依赖,因此在具有姿态变化和部分遮挡的场景中显示出明显不足;也有人提出使用卷积神经网络来进行真假人脸判断,但这无疑与基于深度学习的人脸检测最后的分类阶段如出一辙,相当于使用级联的卷积神经网络进行人脸分类,无法解决根本问题,在增加计算量的同时却难以有效筛除误检目标;除此之外,还有人构造了一个基于轮廓的分类器用以过滤人脸检测产生的误报,但是,当遭遇人脸姿态变换和遮挡时,轮廓特征根本无法很好的发挥作用,因此难以应用于复杂环境中。
综上,现有解决人脸误检问题的方法基本都基于简单的特征选择,但其并不能很好的应用在复杂环境中,这在很大程度上是因为无法提取到具有代表性和鉴别性的人脸特征用于分类。
发明内容
本发明的目的在于提供了一种基于语义特征的人脸误检筛除方法,解决真实复杂环境下存在的人脸误检,该方法通过引入人脸语义分割技术,利用特征工程构造出表征能力更强的人脸语义特征,然后基于Stacking集成模型有效提高分类精度,降低泛化误差,能够实现对人脸误检结果的有效分类筛除,进一步提高整体检测算法的性能与鲁棒性。
本发明采用的技术方案如下:
一种基于语义特征的人脸误检筛除方法,其特征在于,具体包括以下步骤:
S1:人脸检测与对齐:以原始图像数据作为此阶段的输入,通过人脸检测与对齐算法对原始图像进行人脸检测并对齐,然后将检测对齐结果缩放至112*112大小尺寸;
S2:人脸语义分割:采用基于BiSeNet的实时人脸语义分割方法对输入的人脸检测对齐结果进行像素级的人脸语义分割,得到语义分割结果;
S3:语义特征工程:采用特征工程技术,对语义分割结果进行处理,构造并挑选出最具表征能力的语义特征;
S4:人脸误检分类集成模型:采用Stacking模型集成框架,其中基分类器选用支持向量机模型、神经网络模型和LightGBM模型3种,元分类器选择逻辑回归模型;对输入的语义特征进行运算,得到最终的人脸误检分类结果并完成误检筛除。
进一步的,S1中的具体子流程包括以下步骤:
S11:训练指定的人脸检测模型,对原始输入图像进行人脸检测,如果检测到人脸,则进入下一步,否则,报未检出异常并结束流程;
S12:采用基于五点坐标的仿射变换方法对检测的人脸进行矫正对齐;
S13:将人脸矫正对齐结果缩放至112*112大小尺寸,得到人脸检测对齐结果。
进一步的,S3中的具体子流程包括以下步骤:
S31:语义特征构建,根据人脸语义分割结果,从人脸语义部位的区域面积、中心点位置和特定区域间相对距离三个方面进行特征构建,得到初始语义特征;
S32:语义特征预处理,对初始语义特征进行特征无量纲化、缺失值处理和离群点处理;
S33:语义特征选择,对预处理后的特征进行筛选,最终得到更具表征能力的人脸语义特征组合。
进一步的,S33中对预处理后的特征进行筛选的方法包括过滤法和嵌入法。
进一步的,过滤法中选用方差选择法、皮尔森相关系数法、卡方检验或最大信息系数法。
进一步的,S4中的具体子流程包括以下步骤:
S41:设置基分类器,在人脸语义特征的基础上训练3种不同的基分类器,包括支持向量机模型、神经网络模型和LightGBM模型,运行得到对应基分类结果;
S42:基于Stacking框架的模型集成,使用元分类器对3种不同基分类器的运行结果进行融合,得到最终的人脸误检集成分类结果:
S43:根据人脸误检分类结果,对误检结果进行删除。
综上所述,本发明相较于现有技术的有益效果是:
(1)本发明所提供的一种基于语义特征的人脸误检筛除方法,可以更好的解决真实复杂环境中存在的人脸误检问题;
(2)本发明通过引入人脸语义分割技术,结合特征工程技术,能够构造出表征能力更强的人脸语义特征用于后续分类;
(3)本发明采用融合多种不同基分类模型的Stacking集成模型,能够有效提高分类精度,降低泛化误差,最终实现对人脸误检结果的有效分类筛除,进一步提高整体检测算法的性能与鲁棒性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明的整体流程图;
图2为本发明的人脸检测对齐算法流程图;
图3为本发明的语义特征工程方法流程图;
图4为本发明的基于Stacking的集成分类模型示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明,即所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合附图1-4及实施例对本发明作进一步说明。
实施例1:
该实施例中所涉及到的训练数据主要包括两部分,一个是人脸语义标注数据集CelebAMask-HQ,该数据集总共包含30000张图像,分辨率为512*512,每张图像都经过手工精确标注了19类语义分割图像蒙版,包括所有面部成分和配饰,即:皮肤、鼻子、左眼睛、右眼睛、左眉毛、右眉毛、左耳朵、右耳朵、嘴巴、上嘴唇、下嘴唇、头发、脖子、帽子、眼镜、耳环、项链、衣服和背景。本实施例中主要使用该数据集进行人脸语义分割模型的训练。另一个是人脸检测结果数据集FDRFP,该数据集由发明人自主收集整理而成,总共包含5967张图像,其中正样本3231张,负样本2736张,图像分辨率为112*112。该数据集通过人脸语义分割后主要用于实施例中人脸误检分类集成模型的训练。
参考图1,本发明实施例的具体步骤如下所示:
S1:人脸检测与对齐,以原始图像数据作为此阶段的输入,通过特定的人脸检测与对齐算法对原始图像进行人脸检测并对齐,然后将检测对齐结果缩放至112*112尺寸大小;
S2:人脸语义分割,采用基于BiSeNet的实时人脸语义分割方法对输入的人脸检测对齐结果进行像素级的人脸语义分割,得到语义分割结果;
S3:语义特征工程,采用特征工程技术,对语义分割结果进行处理,构造并挑选出最具表征能力的语义特征;
S4:人脸误检分类集成模型,采用Stacking模型集成框架,对输入的语义特征进行运算,得到最终的人脸误检分类结果并完成误检筛除。
参考图2,本发明实施例中的步骤S1具体实施如下:
S11:选用多任务级联卷积神经网络MTCNN算法训练人脸检测模型,该算法方便易用,在进行人脸检测的同时可以提取对应的人脸五点坐标,可直接用于后面的人脸对齐;用训练得到的模型对原始输入图像进行人脸检测,运行时3级网络的阈值threshold分别设置为0.6、0.7、0.8,图像金字塔的比例因子factor设置为0.709,如果检测到人脸,则进入下一步,否则,报未检出异常并结束流程;
S12:采用简单高效的基于五点坐标的仿射变换方法对检测到的人脸进行矫正对齐;
S13:将人脸矫正对齐结果缩放至112*112尺寸大小,缩放方法采用双线性内插法,得到最终的人脸检测对齐结果;
本发明实施例中的步骤S2具体实施如下:
考虑到实施例中人脸检测识别应用场景对实时性和精确度的要求,选取了可实现实时语义分割的双向网络BiSeNet作为人脸语义分割网络模型,该网络凭借其巧妙独特的结构在保证高精度的情况下大大提升语义分割任务的速度,不仅实现了实时语义分割,还把语义分割的性能推进到一个新高度。使用该网络架构,在大规模人脸语义标注数据集CelebAMask-HQ上进行训练,训练中的损失函数采用一个主损失函数结合两个辅助损失函数进行联合监督训练,三个损失函数均采用交叉熵损失函数Softmax Loss。Softmax Loss的具体公式如下公式(1-1)所示。
Figure BDA0002578761020000051
具体训练时,为了让网络拟合得更好,还采用了在线难例挖掘(OHEM)机制。
OHEM机制是一个简单而十分有效的引导技术,其关键的思路是在训练过程中收集硬样本,即那些预测不正确的难样本,然后在下次训练迭代时将这些样本输送给网络以增强网络分辨能力。又因为损失可以表示当前网络对样本的拟合程度,所以可以通过样本的损失将生成的候选框进行排序,然后只提取前N个损失最大的样本作为困难样本。关于训练参数的设置,其中批量大小设置为16,使用Adam优化器优化模型,权重衰减设定为0.0005,动量设定为0.9,初始学习率设为0.01,每训练10000步进行学习率衰减,学习率衰减率为0.1,混合损失函数中主损失函数的系数设置为1.0,辅助损失函数的系数设定为0.95。
使用训练得到的语义分割模型对人脸检测对齐结果进行像素级的人脸语义分割,将人脸图像中的每个像素划分为19个类别之一,得到人脸语义分割结果,其结果矩阵尺寸大小与输入图像一致,为112*112,其中每个值代表对应像素的分类结果标签。
参考图3,本发明实施例中的步骤S3具体实施如下:
S31:语义特征构建,根据人脸语义分割结果,从人脸语义部位的区域面积、中心点位置和特定区域间相对距离三个方面进行特征构建,即统计每个类别的像素数量占比以及其类别中心坐标和不同区域中心坐标相对距离,得到共计67维的初始语义特征:
S32:语义特征预处理,对初始语义特征进行特征无量纲化、缺失值处理和离群点处理。其中特征无量纲化选用零均值标准化,缺失值使用样本统计平均值进行填充,离群点样本直接删除,得到预处理后的67维语义特征。
S33:语义特征选择,采用多种方法对预处理后的特征进行筛选,包括过滤法和嵌入法。其中过滤法中依次使用方差选择法、皮尔森相关系数法、卡方检验和最大信息系数法,嵌入法中采用带L2正则的逻辑回归模型进行特征选择。最终经过层层特征筛选,得到更具表征能力的42维人脸语义特征组合。
参考图4,本发明实施例中的步骤S4具体实施如下:
S41:设置基分类器,在FDRFP数据集的人脸语义特征基础上训练3种不同的基分类器,包括支持向量机模型、神经网络模型和LightGBM模型。其中支持向量机模型的实现上选取了分类型的C-SVM,核技巧中选择高斯核函数进行非线性映射,高斯核函数的具体公式如下式(1-2)所示;神经网络模型实现上采用带5层隐藏层的全连接神经网络结构,隐藏层节点分别为50、70、100、70、50,激活函数均采用RELU函数,学习率设为0.1,优化器采用Adam;LightGBM模型参数设置中,提升类型为gbdt,叶子节点数为31,学习率为0.05,建树的特征选择比例为0.9,建树的样本采样比例为0.8,正则化方式指定为L2。分别运行得到对应基分类结果。
Figure BDA0002578761020000061
S42:基于Stacking框架的模型集成,使用元分类器对3种不同基分类器的运行结果进行融合,其中元分类器选用带L2正则的逻辑回归模型,模型训练时采用10折交叉验证结合网格搜索参数寻优对整个集成模型一起进行联合训练,包括3个基分类器和一个元分类器,得到训练好的集成模型。运行时输入通过特征工程得到的人脸语义特征,得到最终的人脸误检集成分类结果。
S43:根据人脸误检集成分类结果,对误检结果进行删除,完成最后的人脸误检筛除。
以上所述实施例仅表达了本申请的具体实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请保护范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请技术方案构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。

Claims (6)

1.一种基于语义特征的人脸误检筛除方法,其特征在于,具体包括以下步骤:
S1:人脸检测与对齐:以原始图像数据作为此阶段的输入,通过人脸检测与对齐算法对原始图像进行人脸检测并对齐,然后将检测对齐结果缩放至112*112大小尺寸;
S2:人脸语义分割:采用基于BiSeNet的实时人脸语义分割方法对输入的人脸检测对齐结果进行像素级的人脸语义分割,得到语义分割结果;
S3:语义特征工程:采用特征工程技术,对语义分割结果进行处理,构造并挑选出最具表征能力的语义特征;
S4:人脸误检分类集成模型:采用Stacking模型集成框架,其中基分类器选用支持向量机模型、神经网络模型和LightGBM模型3种,元分类器选择逻辑回归模型;对输入的语义特征进行运算,得到最终的人脸误检分类结果并完成误检筛除。
2.根据权利要求1所述的一种基于语义特征的人脸误检筛除方法,其特征在于,步骤S1中的具体子流程包括以下步骤:
S11:训练指定的人脸检测模型,对原始输入图像进行人脸检测,如果检测到人脸,则进入下一步,否则,报未检出异常并结束流程;
S12:采用基于五点坐标的仿射变换方法对检测的人脸进行矫正对齐;
S13:将人脸矫正对齐结果缩放至112*112大小尺寸,得到人脸检测对齐结果。
3.根据权利要求1所述的一种基于语义特征的人脸误检筛除方法,其特征在于,步骤S3中的具体子流程包括以下步骤:
S31:语义特征构建,根据人脸语义分割结果,从人脸语义部位的区域面积、中心点位置和特定区域间相对距离三个方面进行特征构建,得到初始语义特征;
S32:语义特征预处理,对初始语义特征进行特征无量纲化、缺失值处理和离群点处理;
S33:语义特征选择,对预处理后的特征进行筛选,最终得到更具表征能力的人脸语义特征组合。
4.根据权利要求3所述的一种基于语义特征的人脸误检筛除方法,其特征在于,S33中对预处理后的特征进行筛选的方法包括过滤法和嵌入法。
5.根据权利要求4所述的一种基于语义特征的人脸误检筛除方法,其特征在于,过滤法中选用方差选择法、皮尔森相关系数法、卡方检验或最大信息系数法。
6.根据权利要求1所述的一种基于语义特征的人脸误检筛除方法,其特征在于,步骤S4中的具体子流程包括以下步骤:
S41:设置基分类器,在人脸语义特征的基础上训练3种不同的基分类器,包括支持向量机模型、神经网络模型和LightGBM模型,运行得到对应基分类结果;
S42:基于Stacking框架的模型集成,使用元分类器对3种不同基分类器的运行结果进行融合,得到最终的人脸误检集成分类结果;
S43:根据人脸误检分类结果,对误检结果进行删除。
CN202010666506.1A 2020-07-10 2020-07-10 一种基于语义特征的人脸误检筛除方法 Active CN111832475B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010666506.1A CN111832475B (zh) 2020-07-10 2020-07-10 一种基于语义特征的人脸误检筛除方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010666506.1A CN111832475B (zh) 2020-07-10 2020-07-10 一种基于语义特征的人脸误检筛除方法

Publications (2)

Publication Number Publication Date
CN111832475A CN111832475A (zh) 2020-10-27
CN111832475B true CN111832475B (zh) 2022-08-12

Family

ID=72900910

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010666506.1A Active CN111832475B (zh) 2020-07-10 2020-07-10 一种基于语义特征的人脸误检筛除方法

Country Status (1)

Country Link
CN (1) CN111832475B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113592851B (zh) * 2021-08-12 2023-06-20 北京滴普科技有限公司 一种基于全脸图像的毛孔检测方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9047504B1 (en) * 2013-08-19 2015-06-02 Amazon Technologies, Inc. Combined cues for face detection in computing devices
CN108304788A (zh) * 2018-01-18 2018-07-20 陕西炬云信息科技有限公司 基于深度神经网络的人脸识别方法
CN109002753A (zh) * 2018-06-01 2018-12-14 上海大学 一种基于卷积神经网络级联的大场景监控图像人脸检测方法
CN109657547A (zh) * 2018-11-13 2019-04-19 成都四方伟业软件股份有限公司 一种基于伴随模型的异常轨迹分析方法
CN110363134A (zh) * 2019-07-10 2019-10-22 电子科技大学 一种基于语义分割的人脸遮挡区定位方法
CN110796147A (zh) * 2019-10-21 2020-02-14 Oppo广东移动通信有限公司 图像分割方法及相关产品
CN110795975A (zh) * 2018-08-03 2020-02-14 浙江宇视科技有限公司 人脸误检优化方法及装置
CN110956116A (zh) * 2019-11-26 2020-04-03 上海海事大学 基于卷积神经网络的人脸图像性别识别模型及识别方法
WO2020101448A1 (en) * 2018-08-28 2020-05-22 Samsung Electronics Co., Ltd. Method and apparatus for image segmentation

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9881234B2 (en) * 2015-11-25 2018-01-30 Baidu Usa Llc. Systems and methods for end-to-end object detection

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9047504B1 (en) * 2013-08-19 2015-06-02 Amazon Technologies, Inc. Combined cues for face detection in computing devices
CN108304788A (zh) * 2018-01-18 2018-07-20 陕西炬云信息科技有限公司 基于深度神经网络的人脸识别方法
CN109002753A (zh) * 2018-06-01 2018-12-14 上海大学 一种基于卷积神经网络级联的大场景监控图像人脸检测方法
CN110795975A (zh) * 2018-08-03 2020-02-14 浙江宇视科技有限公司 人脸误检优化方法及装置
WO2020101448A1 (en) * 2018-08-28 2020-05-22 Samsung Electronics Co., Ltd. Method and apparatus for image segmentation
CN109657547A (zh) * 2018-11-13 2019-04-19 成都四方伟业软件股份有限公司 一种基于伴随模型的异常轨迹分析方法
CN110363134A (zh) * 2019-07-10 2019-10-22 电子科技大学 一种基于语义分割的人脸遮挡区定位方法
CN110796147A (zh) * 2019-10-21 2020-02-14 Oppo广东移动通信有限公司 图像分割方法及相关产品
CN110956116A (zh) * 2019-11-26 2020-04-03 上海海事大学 基于卷积神经网络的人脸图像性别识别模型及识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Progressive Refinement: A Method of Coarse-to-Fine Image Parsing Using Stacked Network";Jiagao Hu等;《 2018 IEEE International Conference on Multimedia and Expo (ICME)》;20181011;全文 *
"基于多尺度信息融合的人脸识别方法研究";魏欣;《中国优秀硕士学位论文全文数据库》;20170615;全文 *
"基于联合编码和卷积网络的人脸图像特征提取方法研究";周稻祥;《中国博士学位论文全文数据库》;20190415;全文 *

Also Published As

Publication number Publication date
CN111832475A (zh) 2020-10-27

Similar Documents

Publication Publication Date Title
CN110147743B (zh) 一种复杂场景下的实时在线行人分析与计数系统及方法
CN106815566B (zh) 一种基于多任务卷积神经网络的人脸检索方法
Singh et al. A deeply coupled ConvNet for human activity recognition using dynamic and RGB images
CN110532920B (zh) 基于FaceNet方法的小数量数据集人脸识别方法
Yang et al. Class-agnostic few-shot object counting
CN111488804A (zh) 基于深度学习的劳保用品佩戴情况检测和身份识别的方法
CN108171133B (zh) 一种基于特征协方差矩阵的动态手势识别方法
CN111539276B (zh) 一种在电力场景下安全帽实时检测的方法
CN104915658B (zh) 一种基于情感分布学习的情感成分分析方法及其系统
Olague et al. Evolving head tracking routines with brain programming
CN111445426B (zh) 一种基于生成对抗网络模型的目标服装图像处理方法
CN106127112A (zh) 基于dlle模型的数据降维与特征理解方法
Núñez et al. Multiview 3D human pose estimation using improved least-squares and LSTM networks
CN111368768A (zh) 一种基于人体关键点的员工手势指引检测方法
CN112069992A (zh) 一种基于多监督稠密对齐的人脸检测方法、系统及存储介质
Xu et al. Robust hand gesture recognition based on RGB-D Data for natural human–computer interaction
CN111832475B (zh) 一种基于语义特征的人脸误检筛除方法
Yang et al. An improved algorithm for the detection of fastening targets based on machine vision
Wang et al. Research on face recognition algorithm based on deep learning
CN112580527A (zh) 一种基于卷积长短期记忆网络的人脸表情识别方法
CN113887509B (zh) 一种基于图像集合的快速多模态视频人脸识别方法
CN113673534B (zh) 一种基于Faster RCNN的RGB-D图像果实检测方法
CN111178141B (zh) 一种基于注意力机制的lstm人体行为识别方法
CN111523406A (zh) 一种基于生成对抗网络改进结构的偏转人脸转正方法
Lee et al. Kinematic constraint method for human gesture recognition based on weighted dynamic time warping

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant