CN112200008A - 一种社区监控场景下人脸属性识别方法 - Google Patents
一种社区监控场景下人脸属性识别方法 Download PDFInfo
- Publication number
- CN112200008A CN112200008A CN202010967179.3A CN202010967179A CN112200008A CN 112200008 A CN112200008 A CN 112200008A CN 202010967179 A CN202010967179 A CN 202010967179A CN 112200008 A CN112200008 A CN 112200008A
- Authority
- CN
- China
- Prior art keywords
- image
- training
- network
- face attribute
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000012544 monitoring process Methods 0.000 title claims abstract description 29
- 238000012545 processing Methods 0.000 claims abstract description 20
- 238000013528 artificial neural network Methods 0.000 claims abstract description 17
- 238000010606 normalization Methods 0.000 claims abstract description 12
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 10
- 238000012549 training Methods 0.000 claims description 52
- 238000000605 extraction Methods 0.000 claims description 12
- 230000000694 effects Effects 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 11
- 230000002708 enhancing effect Effects 0.000 claims description 7
- 238000002372 labelling Methods 0.000 claims description 5
- 230000002411 adverse Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000009826 distribution Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 12
- 238000001514 detection method Methods 0.000 abstract description 10
- 238000013135 deep learning Methods 0.000 abstract description 9
- 238000007781 pre-processing Methods 0.000 abstract description 2
- 238000011160 research Methods 0.000 description 9
- 238000011161 development Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 235000006694 eating habits Nutrition 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/955—Hardware or software architectures specially adapted for image or video understanding using specific electronic processors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及图像处理、深度学习技术领域,具体公开了一种社区监控场景下人脸属性识别方法,该方法将图像增强技术、人脸检测技术和高精度人脸属性识别技术结合,首先用直方图均衡化传统方法对社区环境下采集到的部分行人图像做图像增强处理,用处理后的数据训练图像增强网络ReForce‑Net;利用训练好的ReForce‑Net网络对采集的原始图像数据集进行去模糊预处理,并将处理后的图像进行像素值归一化操作;使用全卷积神经网络FCN实现人脸关键点检测;利用训练好的卷积神经网络FAR‑Net提取对齐后的人脸属性特征,并进行分类等。本发明通过原始图像增强处理提高了后续人脸属性识别的准确度,提升了人脸属性识别的精度;使FAR‑Net网络模型较其他网络模型更具有适用性。
Description
技术领域
本发明涉及图像处理、深度学习技术领域,特别涉及一种社区监控场景下人脸属性识别方法。
背景技术
随着科学技术、网络技术的不断发展,不断改变着社会居民的生活方式,人们的日常生活、衣食住行都逐步向数字化、网络化方向发生转变。近几年来,随着人工智能技术、机器学习的兴起,推动了社会不断朝着智能方向发展。智慧社区、智慧城市便是人工智能发展的产物。越来越多的研究学者开始关注深度学习领域,深度学习是目前机器学习发展阶段的最高级别,而卷积神经网络则是深度学习的典型代表,在图像处理、图像识别等方面都有着显著的成效。对于特征提取,卷积神经网络具有自动学习的优势,代替了繁杂的传统人工提取方法,减少了人工干预,提高了特征提取的精确度。卷积神经不仅在特征提取方面有显著成效,在图像识别等其他方面也起着不可替代的作用。
人脸属性识别作为图像识别的研究重点,人脸图像不仅包含了人物性别、年龄、种族等信息,而且还是人物的身份特征,因此识别人脸属性特征比如帽子、眼镜、口罩等对人脸识别起着关键作用。近几年来,关于人脸属性的研究主要分为基于传统方法的识别和基于深度学习方法的识别,传统方法主要是通过人工提取特征,进而采用分类器得到分类结果,较后者方法而言其精确度、效率远远达不到人们期望水平。深度学习方法不仅可以对图像进行去噪处理比如光照、姿态、角度等影响识别的环境因素,而且可以通过自学习特点对图像特征进行自动提取工作,这一方面大大提高了图像识别的效率与准确度。但是目前来看,大部分基于深度学习的人脸属性识别只对人脸单一属性或少量属性有着较好的研究成果,对人脸多属性的研究并不突出。
人脸属性识别是行人检测的研究基础,通过对人脸多属性的识别可以提高对行人检测的精度,而行人作为社区内主要目标之一,行人检测对社区环境下的研究有重要意义。因此如何提高人脸属性识别准确度是社区环境下研究的重点。人脸属性识别的研究有助于智慧社区的发展,进一步提高用户体验。有重要的应用前景和研究价值。
发明内容
为了解决社区监控场景中人脸属性识别准确率和效率较低的问题,本发明的目的是提供一种社区监控场景下人脸属性识别方法。首先将直方图均衡化做神经网络化处理,利用图像增强网络ReForce-Net对原始图像进行去模糊处理,对人脸属性识别的准确性奠定了基础,本发明将全卷积神经网络FCN实现人脸关键点对齐,有效提高了识别的准确度;本发明设计人脸属性识别网络FAR-Net实现对人脸属性的特征提取与分类,该方法大大地提高了人脸属性识别的准确度和效率。
为了解决上述技术问题,本发明的技术方案是:
一种社区监控场景下人脸属性识别方法,包括以下步骤:
步骤1:社区监控场景下获取视频流,并进行解码处理采集行人图像数据集;
步骤2:用部分数据集采用直方图均衡化方法对图像进行增强处理;
步骤3:把图像增强后的数据输入至图像增强网络ReForce-Net进行训练,获取最优网络参数;
步骤4:采用参数最优的ReForce-Net网络模型对行人图像进行基于直方图均衡化算法的去模糊操作;
步骤5:对图像增强后的图像进行像素值归一化处理;
步骤6:对归一化后的部分图像进行关键点标注,进而训练全卷积神经网络FCN,直至得到最优的网络参数;
步骤7:采用参数最优的FCN网络模型对步骤5处理后的目标图像进行关键点定位对齐;
步骤8:首先对部分待识别图像进行人工特征提取作为样本,进而训练卷积神经网络FAR-Net,直至训练得到最优的网络参数;
步骤9:利用训练好的FAR-Net网络模型对待识别的人脸图像进行提取特征进行分类,实现人脸属性识别的目的;
步骤10:采用GPU调度策略进行GPU调度。
优选地,所述步骤1中获取监控区域下的视频流,包括:在社区各处安装高清摄像头或者视频采集装置,选择需要监测的区域,获取该区域下所有的视频流,对视频流进行解码处理分离出图像数据。
优选地,所述步骤2中:采用传统的图像增强方法——直方图均衡化处理,利用把原始图像的灰度值范围拉开增大反差的原理使采集的行人图像细节清晰,以达到增强的的目的。
优选地,所述步骤3中:把图像增强后的数据输入至图像增强网络ReForce-Net进行训练,获取最优网络参数,因为是对直方图均衡化算法的神经网络化操作,所以网络结构采用一层卷积,目的使缩短图像增强计算过程的时间。训练过程:首先使用默认参数进行训练,根据训练中间结果,对初始权值、训练速率和迭代次数不断进行调整,直到所述图像增强网络以预设的效率达到预设的增强效果。
优选地,所述步骤5中:对图像增强后的图像进行像素值归一化处理,将输入图像的像素值从[0,255]归一化到[-1,1],从而消除奇异样本导致后续步骤的不良影响。归一化采用最大最小值归一化方法:
其中x表示图像像素点值,min(x)、max(x)分布表示图像像素的最大值和最小值。
优选地,所述步骤6中,选取6个具有人脸代表性的关键点分别为双眼、鼻、嘴以及两嘴角进行标注,进而对全卷积神经网络FCN进行训练,其中全卷积神经网络全程为FullyConvolutional Networks。训练过程:首先使用默认参数进行训练,根据训练中间结果,对初始权值、训练速率和迭代次数不断进行调整,直到全卷积神经网络以预设的效率达到预设的关键点定位的效果。
优选地,所述步骤9中,利用部分标注好人脸属性的样本集对卷积神经网络FAR-Net进行训练,FAR-Net网络结构根据实验进行调整为两层卷积、两层池化、两层全连接、一层softmax分类结构如图3所示,训练过程:首先使用默认参数进行训练,根据训练中间结果,对初始权值、训练速率和迭代次数不断进行调整,直到全卷积神经网络以预设的效率达到预设的效果。利用训练好的FAR-Net网络模型对待识别人脸图像进行特征提取分类,实现人脸属性识别的目的。
优选地,所述步骤10中,实时监控GPU处理器集群中的GPU使用情况,采取适当的调度策略对GPU进行实时调度。
采用上述技术方案,本发明提供的一种社区监控场景下人脸属性识别方法,具有以下有益效果:
(1)社区环境下采取的原始图像为动作捕捉图像并且受外界天气等因素影响,在此基础上进行人脸属性识别准确度往往很低,本发明在人脸属性识别之前对原始图像进行了图像增强处理,减少了因为光照、模糊等不利因素的影响,使人脸属性识别的准确度提高到95%以上。
(2)本发明首先应用直方图均衡化增强方法对部分原始图像进行增强处理做为图像增强网络的训练样本,对ReForce-Net网络模型进行训练。图像增强网络ReForce-Net的建立提高了后续人脸属性的识别精度。
(3)结合本发明的实际应用场景,待识别人脸属性数量较少只对眼镜和口罩进行识别,没必要使用复杂的识别网络,因此本发明设计结构灵活的人脸属性识别网络FAR-Net,此方法不仅节省了网络的训练时间,与图像增强网络技术结合使本发明的识别准确度达到95%。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明中社区监控场景下人脸属性识别方法流程图;
图2为本发明中图像增强网络ResForce-Net结构图;
图3为本发明中卷积神经网络FAR-Net网络结构图;
图4为本发明中GPU处理器集群中的GPU资源调度策略图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明社区监控场景下人脸属性识别方法,包括以下几个基本步骤:社区监控场景下获取视频流,并进行解码处理采集行人图像数据集;利用直方图均衡化对原始图像进行图像增强处理,并将处理的图像训练图像增强网络ReForce-Net;对增强的图像归一化处理;采用全卷积神经网络FCN对图像进行关键点定位;利用残差网络ResNet实现人脸属性识别的目的;采用GPU调度策略进行GPU调度。具体包括以下步骤:步骤1:社区监控场景下获取视频流,并进行解码处理采集行人图像数据集;步骤2:用部分数据集采用直方图均衡化方法对图像进行增强处理;步骤3:把图像增强后的数据输入至图像增强网络ReForce-Net进行训练,获取最优网络参数;步骤4:采用参数最优的ReForce-Net网络模型对行人图像进行基于直方图均衡化算法的去模糊操作;步骤5:对图像增强后的图像进行像素值归一化处理;步骤6:对归一化后的部分图像进行关键点标注,进而训练全卷积神经网络FCN,直至得到最优的网络参数;步骤7:采用参数最优的FCN网络模型对步骤5处理后的目标图像进行关键点定位对齐;步骤8:首先对部分待识别图像进行人工特征提取作为样本,进而训练卷积神经网络FAR-Net,直至训练得到最优的网络参数;步骤9:利用训练好的FAR-Net网络模型对待识别的人脸图像进行提取特征进行分类,实现人脸属性识别的目的;步骤10:采用GPU调度策略进行GPU调度。
下面对社区监控场景下人脸属性识别方法进行了详细说明:
如图1所示,社区监控场景下获取视频流,并进行解码处理采集行人图像数据集;用部分数据集采用直方图均衡化方法对图像进行增强处理;把图像增强后的数据输入至图像增强网络ReForce-Net进行训练,获取最优网络参数;采用参数最优的ReForce-Net网络模型对行人图像进行基于直方图均衡化算法的去模糊操作;对图像增强后的图像进行像素值归一化处理;对归一化后的部分图像进行关键点标注,进而训练全卷积神经网络FCN,直至得到最优的网络参数;采用参数最优的FCN网络模型对步骤5处理后的目标图像进行关键点定位对齐;采用卷积神经网络FAR-Net对关键点定位的人脸图像进行特征提取分类实现社区监控场景下人脸的检测与人脸的属性识别。采用GPU调度策略进行GPU调度;GPU资源调度层根据调度策略如图4所示,实时监控当前GPU资源使用情况,在GPU处理器集群分配任务之前,首先检查当前GPU消耗是否过大,如果消耗过大,则查看GPU使用情况列表和GPU计算能力列表,重新选择GPU接收任务。
可以理解的,在步骤3中:把图像增强后的数据输入至图像增强网络ReForce-Net进行训练,获取最优网络参数,ReForce-Net网络结构如图2,因为是对直方图均衡化算法的神经网络化操作,所以网络结构采用一层卷积,目的使缩短图像增强计算过程的时间。训练过程:首先使用默认参数进行训练,根据训练中间结果,对初始权值、训练速率和迭代次数不断进行调整,直到所述图像增强网络以预设的效率达到预设的增强效果。
该方法将图像增强技术、人脸检测技术和高精度人脸属性识别技术结合,首先用直方图均衡化传统方法对社区环境下采集到的部分行人图像做图像增强处理,用处理后的数据训练图像增强网络ReForce-Net;利用训练好的ReForce-Net网络对采集的原始图像数据集进行去模糊预处理,并将处理后的图像进行像素值归一化操作;使用全卷积神经网络FCN实现人脸关键点检测,首先需要对人脸图像检测脸的位置生成候选框,然后进行人脸对齐,即把检测到的人脸关键点的坐标固定;利用训练好的卷积神经网络FAR-Net提取对齐后的人脸属性特征,并进行分类,进而达到属性识别的目的。本发明通过原始图像增强处理提高了后续人脸属性识别的准确度,引入人脸关键点对齐操作提升了人脸属性识别的精度。采取社区环境下的人脸图像作为训练集,使FAR-Net网络模型较其他网络模型更具有适用性。
本发明的社区监控场景下人脸属性识别方法,将图像增强技术和人脸检测、识别技术相结合,用深度学习的方法对社区环境下实现对人脸属性识别的目的,提高了人脸属性识别的速度和精度;采用多摄像头对重点监测区域进行重叠监控,重复检测,提高了人脸属性识别的准确率。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种社区监控场景下人脸属性识别方法,其特征在于:包括以下步骤:
步骤1:社区监控场景下获取视频流,并进行解码处理采集行人图像数据集;
步骤2:用部分数据集采用直方图均衡化方法对图像进行增强处理;
步骤3:把图像增强后的数据输入至图像增强网络ReForce-Net进行训练,获取最优网络参数;
步骤4:采用参数最优的ReForce-Net网络模型对行人图像进行基于直方图均衡化算法的去模糊操作;
步骤5:对图像增强后的图像进行像素值归一化处理;
步骤6:对归一化后的部分图像进行关键点标注,进而训练全卷积神经网络FCN,直至得到最优的网络参数;
步骤7:采用参数最优的FCN网络模型对步骤5处理后的目标图像进行关键点定位对齐;
步骤8:首先对部分待识别图像进行人工特征提取作为样本,进而训练卷积神经网络FAR-Net,直至训练得到最优的网络参数;
步骤9:利用训练好的FAR-Net网络模型对待识别的人脸图像进行提取特征进行分类,实现人脸属性识别的目的;
步骤10:采用GPU调度策略进行GPU调度。
2.根据权利要求1所述的社区监控场景下人脸属性识别方法,其特征在于:在所述步骤1中,还包括在社区各处安装高清摄像头或者视频采集装置,选择需要监测的区域,获取该区域下所有的视频流,对视频流进行解码处理分离出图像数据。
3.根据权利要求1所述的社区监控场景下人脸属性识别方法,其特征在于:在所述步骤2中,还包括采用传统的图像增强方法——直方图均衡化处理,利用把原始图像的灰度值范围拉开增大反差的原理使采集的行人图像细节清晰,以达到增强的的目的。
4.根据权利要求1所述的社区监控场景下人脸属性识别方法,其特征在于:在所述步骤3中,还包括把图像增强后的数据输入至图像增强网络ReForce-Net进行训练,获取最优网络参数,因为是对直方图均衡化算法的神经网络化操作,所以网络结构采用一层卷积,目的使缩短图像增强计算过程的时间;训练过程:首先使用默认参数进行训练,根据训练中间结果,对初始权值、训练速率和迭代次数不断进行调整,直到所述图像增强网络以预设的效率达到预设的增强效果。
6.根据权利要求1所述的社区监控场景下人脸属性识别方法,其特征在于:在所述步骤6中,还包括选取6个具有人脸代表性的关键点分别为双眼、鼻、嘴以及两嘴角进行标注,进而对全卷积神经网络FCN进行训练,其中全卷积神经网络全程为Fully ConvolutionalNetworks;训练过程:首先使用默认参数进行训练,根据训练中间结果,对初始权值、训练速率和迭代次数不断进行调整,直到全卷积神经网络以预设的效率达到预设的关键点定位的效果。
7.根据权利要求1所述的社区监控场景下人脸属性识别方法,其特征在于:在所述步骤9中,还包括利用部分标注好人脸属性的样本集对人脸属性识别网络FAR-Net进行训练,训练过程:首先使用默认参数进行训练,根据训练中间结果,对初始权值、训练速率和迭代次数不断进行调整,直到全卷积神经网络以预设的效率达到预设的效果;利用训练好的FAR-Net网络模型对待识别人脸图像进行特征提取分类,实现人脸属性识别的目的。
8.根据权利要求1所述的社区监控场景下人脸属性识别方法,其特征在于:在所述步骤10中,还包括实时监控GPU处理器集群中的GPU使用情况,采取适当的调度策略对GPU进行实时调度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010967179.3A CN112200008A (zh) | 2020-09-15 | 2020-09-15 | 一种社区监控场景下人脸属性识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010967179.3A CN112200008A (zh) | 2020-09-15 | 2020-09-15 | 一种社区监控场景下人脸属性识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112200008A true CN112200008A (zh) | 2021-01-08 |
Family
ID=74015121
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010967179.3A Pending CN112200008A (zh) | 2020-09-15 | 2020-09-15 | 一种社区监控场景下人脸属性识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112200008A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112906668A (zh) * | 2021-04-07 | 2021-06-04 | 上海应用技术大学 | 基于卷积神经网络的人脸信息识别方法 |
CN114998976A (zh) * | 2022-07-27 | 2022-09-02 | 江西农业大学 | 人脸关键属性识别方法、系统、存储介质及计算机设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103824054A (zh) * | 2014-02-17 | 2014-05-28 | 北京旷视科技有限公司 | 一种基于级联深度神经网络的人脸属性识别方法 |
US20150023603A1 (en) * | 2013-07-17 | 2015-01-22 | Machine Perception Technologies Inc. | Head-pose invariant recognition of facial expressions |
CN106203395A (zh) * | 2016-07-26 | 2016-12-07 | 厦门大学 | 基于多任务深度学习的人脸属性识别方法 |
CN109034119A (zh) * | 2018-08-27 | 2018-12-18 | 苏州广目信息技术有限公司 | 一种基于优化的全卷积神经网络的人脸检测方法 |
CN110956082A (zh) * | 2019-10-17 | 2020-04-03 | 江苏科技大学 | 基于深度学习的人脸关键点检测方法和检测系统 |
CN111340049A (zh) * | 2020-03-06 | 2020-06-26 | 清华大学 | 基于广域动态卷积的图像处理方法及装置 |
-
2020
- 2020-09-15 CN CN202010967179.3A patent/CN112200008A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150023603A1 (en) * | 2013-07-17 | 2015-01-22 | Machine Perception Technologies Inc. | Head-pose invariant recognition of facial expressions |
CN103824054A (zh) * | 2014-02-17 | 2014-05-28 | 北京旷视科技有限公司 | 一种基于级联深度神经网络的人脸属性识别方法 |
CN106203395A (zh) * | 2016-07-26 | 2016-12-07 | 厦门大学 | 基于多任务深度学习的人脸属性识别方法 |
CN109034119A (zh) * | 2018-08-27 | 2018-12-18 | 苏州广目信息技术有限公司 | 一种基于优化的全卷积神经网络的人脸检测方法 |
CN110956082A (zh) * | 2019-10-17 | 2020-04-03 | 江苏科技大学 | 基于深度学习的人脸关键点检测方法和检测系统 |
CN111340049A (zh) * | 2020-03-06 | 2020-06-26 | 清华大学 | 基于广域动态卷积的图像处理方法及装置 |
Non-Patent Citations (3)
Title |
---|
H. LIU ET AL.: "FDAR-Net: Joint Convolutional Neural Networks for Face Detection and Attribute Recognition", 《2016 9TH INTERNATIONAL SYMPOSIUM ON COMPUTATIONAL INTELLIGENCE AND DESIGN (ISCID)》 * |
广长彪: "基于DCNN的人脸多属性识别", 《现代计算机(专业版)》 * |
言有三: "《深度学习之人脸图像处理核心算法与案例实战》", 31 July 2020 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112906668A (zh) * | 2021-04-07 | 2021-06-04 | 上海应用技术大学 | 基于卷积神经网络的人脸信息识别方法 |
CN112906668B (zh) * | 2021-04-07 | 2023-08-25 | 上海应用技术大学 | 基于卷积神经网络的人脸信息识别方法 |
CN114998976A (zh) * | 2022-07-27 | 2022-09-02 | 江西农业大学 | 人脸关键属性识别方法、系统、存储介质及计算机设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109829443B (zh) | 基于图像增强与3d卷积神经网络的视频行为识别方法 | |
CN108520219B (zh) | 一种卷积神经网络特征融合的多尺度快速人脸检测方法 | |
CN110070033B (zh) | 一种电力领域危险工作区域内安全帽佩戴状态检测方法 | |
CN108898579B (zh) | 一种图像清晰度识别方法、装置和存储介质 | |
CN110909690B (zh) | 一种基于区域生成的遮挡人脸图像检测方法 | |
CN104050471B (zh) | 一种自然场景文字检测方法及系统 | |
CN111310718A (zh) | 一种遮挡人脸图像高准确率检测对比方法 | |
CN110472566B (zh) | 一种高精度的模糊人脸识别方法 | |
CN111582095B (zh) | 一种轻量级行人异常行为快速检测方法 | |
CN112232204B (zh) | 基于红外图像的活体检测方法 | |
CN111666845B (zh) | 基于关键帧采样的小样本深度学习多模态手语识别方法 | |
CN109034184A (zh) | 一种基于深度学习的均压环检测识别方法 | |
CN110046544A (zh) | 基于卷积神经网络的数字手势识别方法 | |
CN112200008A (zh) | 一种社区监控场景下人脸属性识别方法 | |
CN107516083A (zh) | 一种面向识别的远距离人脸图像增强方法 | |
CN101923637A (zh) | 一种移动终端及其人脸检测方法和装置 | |
CN112949704A (zh) | 一种基于图像分析的烟叶成熟度状态识别方法及装置 | |
CN111242868A (zh) | 暗视觉环境下基于卷积神经网络的图像增强方法 | |
CN114627269A (zh) | 一种基于深度学习目标检测的虚拟现实安防监控平台 | |
CN114120389A (zh) | 网络训练及视频帧处理的方法、装置、设备及存储介质 | |
CN110222647B (zh) | 一种基于卷积神经网络的人脸活体检测方法 | |
CN111126155A (zh) | 一种基于语义约束生成对抗网络的行人再识别方法 | |
CN112307895A (zh) | 一种社区监控场景下人群聚集异常行为检测方法 | |
CN113139431A (zh) | 基于深监督学习的图像显著性目标检测方法 | |
CN112232205A (zh) | 移动端cpu实时多功能人脸检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210108 |
|
RJ01 | Rejection of invention patent application after publication |