CN112307894A - 一种社区监控场景下基于皱纹特征和姿态特征的行人年龄识别方法 - Google Patents
一种社区监控场景下基于皱纹特征和姿态特征的行人年龄识别方法 Download PDFInfo
- Publication number
- CN112307894A CN112307894A CN202011029749.0A CN202011029749A CN112307894A CN 112307894 A CN112307894 A CN 112307894A CN 202011029749 A CN202011029749 A CN 202011029749A CN 112307894 A CN112307894 A CN 112307894A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- wrinkle
- face
- posture
- age
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000037303 wrinkles Effects 0.000 title claims abstract description 119
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000012544 monitoring process Methods 0.000 title claims abstract description 16
- 238000012549 training Methods 0.000 claims abstract description 31
- 238000000605 extraction Methods 0.000 claims abstract description 3
- 230000036544 posture Effects 0.000 claims description 82
- 230000001815 facial effect Effects 0.000 claims description 30
- 238000013528 artificial neural network Methods 0.000 claims description 29
- 238000005520 cutting process Methods 0.000 claims description 14
- 238000010586 diagram Methods 0.000 claims description 12
- 238000009432 framing Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 8
- 230000008901 benefit Effects 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 7
- 230000007246 mechanism Effects 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 6
- 238000013145 classification model Methods 0.000 claims description 5
- 238000002372 labelling Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 4
- 230000015556 catabolic process Effects 0.000 claims description 3
- 238000006731 degradation reaction Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims description 3
- 230000001149 cognitive effect Effects 0.000 claims description 2
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000013135 deep learning Methods 0.000 abstract description 2
- 238000001514 detection method Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000013507 mapping Methods 0.000 description 5
- 238000011160 research Methods 0.000 description 5
- 210000004027 cell Anatomy 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000004080 punching Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 238000007670 refining Methods 0.000 description 2
- 230000032683 aging Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 210000003491 skin Anatomy 0.000 description 1
- 210000004927 skin cell Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5066—Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/178—Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及图像检索、人工智能、深度学习技术领域,具体公开了一种社区监控场景下基于皱纹特征和姿态特征的行人年龄识别方法,包括以下步骤:对来自于社区住户的行人图像数据源进行初步提取;且提取后的每个图像当中要求仅包含单个行人;对训练集中每个行人图像标定其脸部特征,姿态特征,且每个图像应当对其按照年龄进行正确的标定;针对标定的特征使用Adaboost算法分别建立人脸和行人姿态分类器等。本发明能够在社区复杂场景中对行人所处的年龄段进行准确识别,并且在部分特征缺失或模糊的情况下仍然能够根据现有的信息给出一定的判断结果。
Description
技术领域
本发明涉及图像检索、人工智能、深度学习技术领域,特别涉及一种社区监控场景下基于皱纹特征和姿态特征的行人年龄识别方法。
背景技术
在计算机视觉领域的研究当中,行人检测技术得到了长足的发展。而行人年龄的识别则是行人检测技术下的一个分支。行人年龄的识别较为复杂,其识别的精细程度依赖于特征的选取以及分类的划定,在于年龄识别相关的技术中,根据人脸纹理特征进行判断的算法居多,但是结合其它行人属性相关特征进行年龄识别的研究成果比较少见。
年龄识别是一种多层多分类的问题,需要根据行人各个特征的信息判断这个人所处的年龄段。一般来讲,类似多分类问题的处理方式如下,首先建立一定形式的映射函数,该函数能够通过行人图像信息反馈其所属的类别,而映射函数由于分类问题的细粒度要求往往是多层次的。映射函数将行人图像作为输入,行人图像下标定好的标签作为目标值,通过多个周期的迭代根据预测值与目标值之间的误差调整映射函数的参数,已达到对新的行人图像的正确归类。所以分类映射函数的训练实际上是一种有监督的学习过程,另外多层多分类的问题往往需要函数能够对行人图像的细粒度特征首先进行初步分类,然后再根据初步分类的结果得出最终的分类。
本发明就上述年龄识别研究成果中的不足之处,以多特征和多层多分类的理解为基础,特别提出了一种基于脸部皱纹特征和身体姿态特征的年龄识别方法。该方法在社区复杂场景下,针对部分特征缺失或模糊的情况仍能够保持较高的鲁棒性,并且与其它的根据人脸皱纹判断年龄的算法不同,该方法将人脸分成若干个单元块,对每个单元块判断其皱纹是否存在,从而在整体上反映整个人脸的皱纹程度,该皱纹程度可以作为年龄识别的要素之一。另外,除了脸部皱纹特征的判断,该模型还对行人的姿态特征进行分析,最终引入了一个全局BP网络以自发地根据特征的重要程度,整合皱纹特征与姿态特征的信息以对行人所处的年龄段进行准确归类。本发明提出的年龄识别方法以脸部皱纹特征和身体姿态特征为主建立多层分类网络,并且命名为基于皱纹-姿态的年龄预测神经网络(Ageprediction neural network based on wrinkle-posture,以下称WP-APNN)。
发明内容
为了解决对行人年龄识别技术相关的研究现状的问题,本发明的目的是提供一种社区监控场景下基于皱纹特征和姿态特征的行人年龄识别方法,在人脸皱纹检测的精度上作出改进,与此同时使用行人姿态信息作为补正手段实现对行人年龄的正确归类。结合两种特征信息设计出WP-APNN模型。该模型在人脸皱纹的检测阶段与行人姿态的检测阶段分别建立不同结构的网络以学习两种特征的最佳归类方式,最后在两种网络的输出层后建立一个多层BP神经网络,以整合两种特征信息得到最佳的年龄分类结果。
为了解决上述技术问题,本发明的技术方案是:
一种社区监控场景下基于皱纹特征和姿态特征的行人年龄识别方法,使用WP-APNN模型结合皱纹特征和姿态特征对行人的图像信息进行整合,最终对行人有可能处于的年龄阶层进行判断,包括以下步骤:
步骤1:对来自于社区住户的图像数据源进行初步提取;且提取后的每个图像当中要求仅包含单个行人;
步骤2:对训练集中每个行人图像标定其脸部特征,姿态特征,且每个图像应当对其按照年龄进行正确的标定;针对标定的特征使用Adaboost算法分别建立人脸和行人姿态分类器,以便对待检测图像进行自动标注并切割;
步骤3:分别按照脸部特征,姿态特征切割为两个子数据集,其中脸部特征数据集以有/无皱纹标注、姿态特征数据集以各年龄阶段的5种姿态(双手伸平、双手头顶交叉、跑、行走、出拳)进行标注;
步骤4:为皱纹特征建立Gabor滤波器和BP网络,为姿态特征建立DenseNet网络,以下分别称皱纹判别神经网络和姿态判别神经网络;
步骤5:再次建立一个全局型的BP网络,该网络以皱纹率、姿态标签为输入,以年龄标签为输出进行训练。该层整合行人的皱纹和姿态信息,输出其年龄;
步骤6:将步骤5中的BP网络连接至步骤4中两种特征判别神经网络之后,构成WP-APNN模型;
步骤7:对训练好的WP-APNN模型进行测试,将待测试图像按照脸部特征与躯干特征进行切割输入模型,得出最终的年龄分类结果。
优选地,在所述步骤2中,对人体的脸部以及身体部分进行标注,在本发明中特征的框取范围主要是脸部框取以及躯干部位框取。以上述特征框取范围为标准,对每个图像中的特征进行关键点标定,并以此为基础建立两种Adaboost分类模型。对于年龄识别问题,将行人年龄分为了4个年龄阶段,分别为20岁以下、20~40岁、40~65岁、65岁以上,当然,如果要做到细粒度更强的年龄分类,则应该将20岁以下和65岁以上的行人以更加细化的年龄标签来进行标注。另外Adaboost算法通过提取Haar特征建立人脸分类器以检测行人人脸部分并标注,而HOG特征用于建立姿态分类器以检测行人的躯干部分并标注。本发明所设计的行人年龄识别方法主要应用于社区监控环境,因此所采集的图像数据均来自于社区住户,为了准确地对数据集中的社区住户进行年龄标定,在数据采集的过程中对社区住户的年龄信息逐一进行调查和访问。
优选地,在所述步骤3中,根据2所标注的特征,将数据集划为行人脸部特征数据集与行人姿态特征数据集。其中脸部特征数据集的处理方式较为特殊,对每一个具体的脸部,按照相同大小的切割矩形进行分块,本发明中切割矩形的大小为32×32像素。经过切割的脸部图像被分为多个皮肤单元块,对每一个单元块以皱纹的有无进行标注,并且统计有皱纹的单元块的个数。最终,将有皱纹的单元块的个数除以单元块总个数,即为这个脸部皱纹的生长程度,以下称皱纹率。在遍历脸部特征数据集的过程中后对每一个脸部图像都采取上述操作,每个脸部图像所得出的对应皱纹率即为这个脸部的总体皱纹标签。另外,对于行人姿态特征数据集,以各年龄阶段的5种姿态(双手伸平、双手头顶交叉、跑、行走、出拳)进行标注,为了简化向量的维度,该标签以二维向量的形式来表示,第一维的值表示所处的年龄段(以1到4分别表示由低到高的年龄段),第二维的值表示姿态类型(同样以1到5分别表示各个姿态)。姿态标签表示形式的说明在图2中已给出。
优选地,在所述步骤4中,所建立的Gabor滤波器和BP网络的作用主要是为了检测图像块中是否存在皱纹。Gabor滤波器和BP网络的训练以切割后的脸部特征块状图为输入,以块状图所对应的皱纹标签为输出进行训练。其中Gabor滤波器使用16个通道对脸部特征块状图进行卷积操作并计算它们的均值和方差,共得到32个特征值,然后以这32个特征值为输入,以皱纹标签为输出对BP网络进行训练,其中皱纹标签表示为二维向量,每一维代表块状图中是否含有皱纹,另外输出层之后还应该在加一层整合型输出层,该层的作用是将一个图像中所有块的皱纹标签进行整合,算出皱纹存在概率高的块所占有的比例,即皱纹率。其中,BP网络的训练算法采用Levenberg-Marquardt优化算法,该算法以空间换时间,比启发式学习和标准的BP算法速度快、精度高。另外,姿态特征识别的训练使用DenseNet结构,以姿态图像为输入,每一个姿态图像的标签为输出进行训练。在DenseNet中,每个卷积层从前面的所有卷积层获得额外的输入,并将自己的特征映射传递到后续的所有卷积层,使用级联方式,每一个卷积层都在接受来自前几个卷积层的信息。由于每个卷积层从前面的所有卷积层接收特征映射,所以网络可以更薄、更紧凑,即信道数可以更少。由于DenseNet是ResNet的变体,因此它继承了ResNet的部分优点,即不会因为冗余层的增加和训练周期的增长而导致性能下降。DenseNet的训练以预测向量与真实标签所对应的向量之间的欧式距离为优化目标,距离越小代表DenseNet的预测结构越接近真实值,输出层的向量表现形式如步骤3所述。
优选地,在所述步骤5中,将姿态向量归一化,同皱纹率一起作为BP网络的输入,以行人个体的年龄标签为输出进行训练。其中行人个体年龄标签的表示形式为四维向量,每一维代表行人处于该年龄阶段的概率。另外该BP网络与步骤4中的BP网络训练方式相同。在该步骤中,行人个体的年龄标签表现形式同样如图2所述。
优选地,在所述步骤7中,对于输入的测试图像,首先以Adaboost分类器对图像中的脸部及躯干部分进行检测并分割。切割后的脸部特征再次以32×32的矩形进行块状切割,将每个切割后的单元块依次输入至训练好的皱纹判别神经网络中以判断出皱纹存在可能性比较高的若干个单元块,进而算出该脸部图像的皱纹生长情况,即皱纹率,皱纹率等于具有皱纹的单元块数量与单元块总数相除的值,取值为0~1。与此同时,对躯干部分进行姿态特征识别,切割后的躯干部分通过姿态判别神经网络对其姿态类型进行判断,输出表示对应姿态类型的二维向量,该二维向量的形式如步骤3所示,向量每一个维度的值进行四舍五入即为准确的预测结果。最终,根据之前所得的皱纹率与归一化之后的姿态二维向量,通过最终的全局BP网络输出年龄分类向量,该向量的表示形式如步骤5所示。
采用上述技术方案,本发明提供的一种社区监控场景下基于皱纹特征和姿态特征的行人年龄识别方法,具有以下有益效果:本发明在社区复杂场景下通过对行人的身体姿态特征和脸部皱纹特征进行分析并整合,从而得出对应行人最有可能属于的年龄段。本发明所提出的基于皱纹-姿态的年龄预测神经网络(Age prediction neural network basedon wrinkle-posture,以下称WP-APNN)模型相比于现有的年龄识别研究成果,在脸部识别的精度上具有创新性,并且能够结合身体姿态特征对行人所处的年龄段作出准确判断。其中,对脸部的皱纹判断由局部到全局,能够精确地得出行人脸部皱纹的生长程度。另外,除了脸部皱纹特征的判断,该模型还对行人的姿态特征进行分析,并且在最后引入一个全局BP网络以自发地根据特征的重要程度,整合皱纹特征与姿态特征的信息以对行人所处的年龄段进行准确归类。为了能够利用脸部和躯干的独特信息对行人的特征进行准确检测并提取,本方法分别设计了两种Adaboost分类器,以先后对行人躯干和脸部进行自动框取并切割,为WP-APNN作数据准备。综上,本发明所提出年龄识别方法能够在社区复杂场景中对行人所处的年龄段进行准确识别,并且在部分特征缺失或模糊的情况下仍然能够根据现有的信息给出一定的判断结果。
附图说明
图1为本发明的总体流程图;
图2为本发明中数据标签及其表现形式示意图;
图3为本发明中WP-APNN模型的具体框架结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1-3所示,针对以往的行人年龄识别中的特征局限性以及精度问题,本发明整合皱纹识别与姿态识别的相关方法,提出了一种应用于社区复杂场景下的行人年龄识别的新型网络结构,即WP-APNN。该模型能够根据人脸中的皱纹分布情况判断行人的皱纹率,并且以各年龄段的姿态识别信息为辅助,在综合层面上对行人的年龄进行判断。在实际的应用中较单一的以脸部特征判断年龄的算法准确性更高,并且在部分特征缺失或模糊的情况下仍然能够保持较好的鲁棒性。
以下是对本发明所提出的WP-APNN模型相关的示例性实施方法的概况:
图1主要描述了该方法在社区复杂场景下的运作流程。该方法需要以标注好的数据为基础通过不同纹理特征对脸部以及躯干建立Adaboost分类器,分类器的主要作用是检测出行人的脸部和躯干部分,为下一步的皱纹判别神经网络和姿态判别神经网络的建立作准备。而两种神经网络的搭建参考了Gabor滤波器和ResNet结构,另外使用改进的BP网络对特征信息分层进行整合。
如图1所示,首先对来自于监控视频的数据集进行多步的预处理。处理步骤主要包括:以行人为单位对图像进行切割,确保每个图像中有且仅有一个行人存在;然后对经过处理的数据集标定其脸部和躯干部分,另外对每个行人进行行人个体年龄标签的标定,分别以Haar特征和HOG特征建立相应的Adaboost分类器,以先后对的躯干和脸部进行检测并切割,其中脸部的检测是基于行人躯干检测结果之上进行的,目的是确保检测到的脸部和躯干均属于同一个人。其次对脸部特征图像进行块状切割(一般以32×32的大小进行分块切割),将这些脸部图像块以皱纹的有无进行标签标注,并且以图像块为输入,标签为输出训练皱纹判别神经网络,另外该神经网络的输出层之后应该再建立一个针对每个图进行皱纹率计算的整合型输出层,其中皱纹率代表存在皱纹的块占该图所有图像块的比例,从一定程度上反映了行人的老化程度。于此同时,对姿态特征图像以二维向量进行标注,第一维的值表示所处的年龄段(以1到4分别表示由低到高的年龄段),第二维的值表示姿态类型(同样以1到5分别表示各个姿态)。针对姿态判别神经网络,以姿态特征图像为输入,对应姿态标签为输入对网络进行训练。最后,在两个神经网络的输出层之后建立一个全局型BP网络,该网络整合行人的脸部信息与姿态信息,对行人的年龄进行判断。该全局型BP网络以皱纹率和归一化后的姿态标签为输入,以行人个体年龄标签为输出,其中行人个体年龄标签以五维向量进行表示,每一维代表行人处于该年龄阶段的概率。姿态标签表示形式的说明在图2中已给出。
其中皱纹判别神经网络由Gabor滤波器和BP网络结构组成,Gabor滤波器的优点在于它的原理同人类视觉系统的纹理认知机制相一致,能够很好地表达和提取脸部的纹理特征。而姿态判断神经网络中的DenseNet结构在信息保留方面进行了优化,同时继承了ResNet的优点,使网络的训练效率变高且准确率不会因为过于冗余且复杂的结构而降低。DenseNet结构的每一个卷积层从前面的所有卷积层获得额外的输入,并将自己的特征映射传递到后续的所有卷积层,保证了信息的高完整度传播。
可以理解的,对人体的脸部以及躯干部分进行标注,在本发明中特征的框取范围主要是脸部框取以及躯干部分框取。以上述特征框取范围为标准,建立两种Adaboost分类模型。分类模型的作用是对待检测图像中的行人先后进行躯干标注和脸部标注,确保WP-APNN模型对同一行人提取相应的姿态特征与脸部特征。在本发明中,对于行人脸部及躯干,Adaboost分类器分别提取其Haar特征和HOG特征并且生成相应的分类机制。Haar特征适用于纹理特征显著的脸部提取,而HOG特征适用于方向特征较为明显的躯干姿态的提取。另外,本发明所设计的行人年龄识别方法主要应用于社区监控环境,因此所采集的图像数据均来自于社区住户,为了准确地对数据集中的社区住户进行年龄标定,在数据采集的过程中对社区住户的年龄信息逐一进行调查和访问。将数据集划为行人脸部特征数据集与行人姿态特征数据集,并且分别针对上述两个特征建立相应的神经网络以对特征数据进行分析。其中脸部特征数据集的处理方式较为特殊,对每一个具体的脸部,按照相同大小的切割矩形进行分块,本发明中切割矩形的大小为32×32像素。经过切割的脸部图像被分为多个小型的皮肤单元块,对每一个单元块以皱纹的有无进行标注,并且统计有皱纹的单元块的个数。最终,将有皱纹的单元块个数除以脸部的单元块总数,即为这个脸部皱纹的生长程度,以下称皱纹率。在遍历脸部特征数据集的过程中后对每一个脸部图像都采取上述操作,每个脸部图像所得出的对应皱纹率即为这个脸部的总体皱纹标签。另外,对于行人姿态特征数据集,以各年龄阶段的5种姿态(双手伸平、双手头顶交叉、跑、行走、出拳)进行标注,为了简化向量的维度,该标签以二维向量的形式来表示,第一维的值表示所处的年龄段(以1到4分别表示由低到高的年龄段),第二维的值表示姿态类型(同样以1到5分别表示各个姿态)。姿态标签表示形式的说明在图2中已给出。
Adaboost(adaptive boosting),又称自适应的推进算法。是当前最流行的元算法之一,该算法可同时训练多个弱分类器,每次训练时都会增加被正确分类的分类器权值,最终得到的强分类器由多个弱分类器及其对应的权值组合而成。Adaboost级联分类器因其对训练样本的数量要求不高,误检率低且运算效率高,是现今各种工程项目中常用的分类器之一。在本发明中,对于行人脸部及躯干,Adaboost分类器分别提取其Haar特征和HOG特征并且生成相应的分类机制。Haar特征适用于纹理特征显著的脸部提取,而HOG特征适用于方向特征较为明显的躯干姿态的提取。皱纹判别神经网络参考了Gabor滤波器和BP网络的思想进行建立,Gabor滤波器和BP网络的训练以切割后的脸部特征单元块为输入,以单元块所对应的皱纹标签为输出进行训练。其中Gabor滤波器使用16个通道对脸部特征块状图进行卷积操作并计算它们的均值和方差,共得到32个特征值,然后以这32个特征值为输入,以皱纹标签为输出对BP网络进行训练,其中皱纹标签表示为二维向量,每一维代表单元块中是否含有皱纹,另外输出层之后还应该在加一层整合型输出层,该层的作用是将一个图像中所有单元块的皱纹标签进行整合,算出皱纹存在概率高的单元块所占有的比例,即皱纹率。其中,BP网络的训练算法采用Levenberg-Marquardt优化算法,该算法以空间换时间,比启发式学习和标准的BP算法速度快、精度高。而Gabor滤波器的优点在于它的原理同人类视觉系统的纹理认知机制相一致,能够很好地表达和提取脸部的纹理特征。姿态特征识别的训练使用DenseNet结构,以姿态图像为输入,每一个姿态图像的标签为输出进行训练。在DenseNet中,每个层从前面的所有层获得额外的输入,并将自己的特征映射传递到后续的所有层,使用级联方式,每一层都在接受来自前几层信息。由于每个层从前面的所有层接收特征映射,所以网络可以更薄、更紧凑,即信道数可以更少。由于DenseNet是ResNet的变体,因此它继承了ResNet的部分优点,即不会因为冗余层的增加和训练周期的增长而导致性能下降。DenseNet的训练以预测向量与真实标签所对应的向量之间的欧式距离为优化目标,距离越小代表DenseNet的预测结构越接近真实值。在两个神经网络的输出层之后建立一个全局型BP网络,该网络整合行人的脸部信息与姿态信息,对行人的年龄进行判断。该全局型BP网络以皱纹率和归一化后的姿态标签为输入,以行人个体年龄标签为输出,其中行人个体年龄标签以四维向量进行表示,每一维代表行人处于该年龄阶段的概率。其中,行人个体的年龄标签表现形式同样如图2所述。待检测图像经由建立好的WP-APNN模型,得出相应的年龄识别结果。首先待检测图像先后通过躯干分类器和脸部分类器,分别提取对应行人的脸部和躯干部分。对于所提取的脸部图像,经过32×32的矩形选框的切割,对脸部图像中的每一个单元块判断其皱纹是否存在,从而判断脸部整体的皱纹生长情况,以有皱纹的单元块占单元块总数的比例(即皱纹率)来表示。与此同时行人的躯干部分通过姿态判别神经网络得到其姿态信息。最终,两个网络输出层之后的全局BP网络整合皱纹率和姿态信息,对行人所对应的年龄层进行判断。本发明所提出的WP-APNN模型相较于其它的年龄判断方法,在社区复杂场景中表现出更高的准确率和精确度,并且年龄识别的过程中不仅仅对脸部的皱纹分析以分块形式进行细化,还结合姿态信息进行分析。即使是在特征模糊或缺失的情况下,WP-APNN模型仍然能够根据现有的信息给出一定的判断结果。
最终,网络的建立如图3所示,待检测图像经由建立好的WP-APNN模型,得出相应的年龄识别结果。首先待检测图像先后通过躯干分类器和脸部分类器,分别提取对应行人的脸部和躯干部分。对于所提取的脸部图像,经过32×32的矩形选框的切割,对脸部的每一块判断其皱纹是否存在,从而判断脸部整体的皱纹生长情况,以有皱纹的块占总块数的比例(即皱纹率)来表示。与此同时行人的躯干部分通过姿态判别神经网络得到其姿态信息。最终,两个网络输出层之后的全局BP网络整合皱纹率和姿态信息,对图像中的行人所对应的年龄层进行判断,直观地反映出行人处于各年龄阶层的概率。本发明所提出的WP-APNN模型相较于其它的年龄判断方法,在社区复杂场景中表现出更高的准确率和精确度,并且年龄识别的过程中不仅仅对脸部的皱纹分析以分块形式进行细化,还结合姿态信息进行分析。即使是在特征模糊或缺失的情况下,WP-APNN也能够对行人年龄进行有效识别,表现出更好的鲁棒性。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种社区监控场景下基于皱纹特征和姿态特征的行人年龄识别方法,其特征在于:包括以下步骤:步骤1:对来自于社区住户的行人图像数据源进行初步提取;且提取后的每个图像当中要求仅包含单个行人;
步骤2:对训练集中每个行人图像标定其脸部特征,姿态特征,且每个图像应当对其按照年龄进行正确的标定;针对标定的特征使用Adaboost算法分别建立人脸和行人姿态分类器,以便对待检测图像进行自动标注并切割;
步骤3:分别按照脸部特征、姿态特征切割为小的数据集,其中脸部特征数据集以有/无皱纹标注、姿态特征数据集以各年龄阶段的5种姿态进行标注;
步骤4:为皱纹特征建立Gabor滤波器和BP网络,为姿态特征建立DenseNet网络,以下分别称皱纹判别神经网络和姿态判别神经网络;
步骤5:再次建立一个全局型的BP网络,该BP网络以皱纹率、姿态标签为输入,以年龄标签为输出进行训练;整合行人的皱纹和姿态信息,输出其年龄;
步骤6:将步骤5中的BP网络连接至步骤4中两种特征判别神经网络之后,构成WP-APNN模型;
步骤7:对训练好的WP-APNN模型进行测试,将待测试图像按照脸部特征与躯干特征进行切割输入模型,得出最终的年龄分类结果。
2.根据权利要求1所述的社区监控场景下基于皱纹特征和姿态特征的行人年龄识别方法,其特征在于:在所述步骤1中,还包括对人体的脸部以及躯干部分进行标注,特征的框取范围包括脸部框取以及躯干部分框取,以上述特征框取范围为标准,建立两种Adaboost分类模型;分类模型的作用是对待检测图像中的行人先后进行躯干标注和脸部标注,确保WP-APNN模型对同一行人提取相应的姿态特征与脸部特征;对于行人脸部及躯干,Adaboost分类器分别提取其Haar特征和HOG特征并且生成相应的分类机制;Haar特征适用于纹理特征显著的脸部提取,而HOG特征适用于方向特征较为明显的躯干姿态的提取;另外,为了准确地对数据集中的社区住户进行年龄标定,在数据采集的过程中对社区住户的年龄信息逐一进行调查和访问。
3.根据权利要求1所述的社区监控场景下基于皱纹特征和姿态特征的行人年龄识别方法,其特征在于:在所述步骤3中,还包括将数据集划为行人脸部特征数据集与行人姿态特征数据集,并且分别针对上述脸部特征、姿态特征建立相应的神经网络以对特征数据进行分析;其中脸部特征数据集的处理方式对每一个具体的脸部,按照相同大小的切割矩形进行分块,切割矩形的大小为32×32像素;经过切割的脸部图像被分为多个小型的皮肤单元块,对每一个单元块以皱纹的有无进行标注,并且统计有皱纹的单元块的个数;最终,将有皱纹的单元块个数除以脸部的单元块总数,即为这个脸部皱纹的生长程度,以下称皱纹率;在遍历脸部特征数据集的过程中后对每一个脸部图像都采取上述操作,每个脸部图像所得出的对应皱纹率即为这个脸部的总体皱纹标签;另外,对于行人姿态特征数据集,以各年龄阶段的5种姿态进行标注,为了简化向量的维度,该标签以二维向量的形式来表示,第一维的值表示所处的年龄段,第二维的值表示姿态类型。
4.根据权利要求1所述的社区监控场景下基于皱纹特征和姿态特征的行人年龄识别方法,其特征在于:在所述步骤4中,还包括皱纹判别神经网络参考了Gabor滤波器和BP网络的思想进行建立,Gabor滤波器和BP网络的训练以切割后的脸部特征单元块为输入,以单元块所对应的皱纹标签为输出进行训练;其中Gabor滤波器使用16个通道对脸部特征块状图进行卷积操作并计算它们的均值和方差,共得到32个特征值,然后以这32个特征值为输入,以皱纹标签为输出对BP网络进行训练,其中皱纹标签表示为二维向量,每一维代表单元块中是否含有皱纹,另外输出层之后还在加一层整合型输出层,该整合型输出层的作用是将一个图像中所有单元块的皱纹标签进行整合,算出皱纹存在概率高的单元块所占有的比例,即皱纹率;其中,BP网络的训练算法采用Levenberg-Marquardt优化算法,该算法以空间换时间,比启发式学习和标准的BP算法速度快、精度高;而Gabor滤波器的优点在于它的原理同人类视觉系统的纹理认知机制相一致,能够很好地表达和提取脸部的纹理特征。
5.根据权利要求1所述的社区监控场景下基于皱纹特征和姿态特征的行人年龄识别方法,其特征在于:在所述步骤5中,还包括姿态特征识别的训练使用DenseNet结构,以姿态图像为输入,每一个姿态图像的标签为输出进行训练;在DenseNet结构中,每个层从前面的所有层获得额外的输入,并将自己的特征映射传递到后续的所有层,使用级联方式,每一层都在接受来自前几层信息;由于每个层从前面的所有层接收特征映射,所以网络可以更薄、更紧凑,即信道数可以更少;由于DenseNet是ResNet的变体,因此它继承了ResNet的部分优点,即不会因为冗余层的增加和训练周期的增长而导致性能下降;DenseNet的训练以预测向量与真实标签所对应的向量之间的欧式距离为优化目标,距离越小代表DenseNet的预测结构越接近真实值。
6.根据权利要求1所述的社区监控场景下基于皱纹特征和姿态特征的行人年龄识别方法,其特征在于:在所述步骤6中,还包括在两个神经网络的输出层之后建立一个全局型BP网络,该网络整合行人的脸部信息与姿态信息,对行人的年龄进行判断;该全局型BP网络以皱纹率和归一化后的姿态标签为输入,以行人个体年龄标签为输出,其中行人个体年龄标签以四维向量进行表示,每一维代表行人处于该年龄阶段的概率。
7.根据权利要求1所述的社区监控场景下基于皱纹特征和姿态特征的行人年龄识别方法,其特征在于:在所述步骤7中,还包括待检测图像经由建立好的WP-APNN模型,得出相应的年龄识别结果;首先待检测图像先后通过躯干分类器和脸部分类器,分别提取对应行人的脸部和躯干部分;对于所提取的脸部图像,经过32×32的矩形选框的切割,对脸部图像中的每一个单元块判断其皱纹是否存在,从而判断脸部整体的皱纹生长情况,以有皱纹的单元块占单元块总数的比例来表示;与此同时行人的躯干部分通过姿态判别神经网络得到其姿态信息;最终,两个网络输出层之后的全局BP网络整合皱纹率和姿态信息,对行人所对应的年龄层进行判断。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011029749.0A CN112307894A (zh) | 2020-09-27 | 2020-09-27 | 一种社区监控场景下基于皱纹特征和姿态特征的行人年龄识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011029749.0A CN112307894A (zh) | 2020-09-27 | 2020-09-27 | 一种社区监控场景下基于皱纹特征和姿态特征的行人年龄识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112307894A true CN112307894A (zh) | 2021-02-02 |
Family
ID=74488751
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011029749.0A Withdrawn CN112307894A (zh) | 2020-09-27 | 2020-09-27 | 一种社区监控场景下基于皱纹特征和姿态特征的行人年龄识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112307894A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115359546A (zh) * | 2022-10-21 | 2022-11-18 | 乐山师范学院 | 基于面部识别的人类年龄识别方法及系统 |
CN115457644A (zh) * | 2022-11-10 | 2022-12-09 | 成都智元汇信息技术股份有限公司 | 一种基于扩展空间映射获得目标的识图方法及装置 |
-
2020
- 2020-09-27 CN CN202011029749.0A patent/CN112307894A/zh not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115359546A (zh) * | 2022-10-21 | 2022-11-18 | 乐山师范学院 | 基于面部识别的人类年龄识别方法及系统 |
CN115359546B (zh) * | 2022-10-21 | 2023-01-20 | 乐山师范学院 | 基于面部识别的人类年龄识别方法及系统 |
CN115457644A (zh) * | 2022-11-10 | 2022-12-09 | 成都智元汇信息技术股份有限公司 | 一种基于扩展空间映射获得目标的识图方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110348319B (zh) | 一种基于人脸深度信息和边缘图像融合的人脸防伪方法 | |
CN108520226B (zh) | 一种基于躯体分解和显著性检测的行人重识别方法 | |
CN106897738B (zh) | 一种基于半监督学习的行人检测方法 | |
CN108171136B (zh) | 一种多任务卡口车辆以图搜图的系统及方法 | |
CN111126482B (zh) | 一种基于多分类器级联模型的遥感影像自动分类方法 | |
CN101271515B (zh) | 能识别多角度目标的图像检测装置 | |
CN106295124B (zh) | 多种图像检测技术综合分析基因子图相似概率量的方法 | |
CN103279768B (zh) | 一种基于增量学习人脸分块视觉表征的视频人脸识别方法 | |
CN110263712B (zh) | 一种基于区域候选的粗精行人检测方法 | |
CN109255289B (zh) | 一种基于统一式生成模型的跨衰老人脸识别方法 | |
CN111126240B (zh) | 一种三通道特征融合人脸识别方法 | |
CN107273832B (zh) | 基于积分通道特征与卷积神经网络的车牌识别方法及系统 | |
CN104504366A (zh) | 基于光流特征的笑脸识别系统及方法 | |
JP2006252559A (ja) | 画像において対象物の位置を特定する方法および対象物の画像を相異なる画像カテゴリに分類する方法 | |
CN104504362A (zh) | 基于卷积神经网络的人脸检测方法 | |
CN110599463B (zh) | 一种基于轻量级联神经网络的舌像检测及定位算法 | |
CN109902576B (zh) | 一种头肩图像分类器的训练方法及应用 | |
CN101996308A (zh) | 人脸认证方法及系统、人脸模型训练方法及系统 | |
CN114821014A (zh) | 基于多模态与对抗学习的多任务目标检测识别方法及装置 | |
CN111815582B (zh) | 改进背景先验和前景先验的二维码区域检测方法 | |
CN110751005B (zh) | 融合深度感知特征和核极限学习机的行人检测方法 | |
CN115527269B (zh) | 一种人体姿态图像智能识别方法及系统 | |
CN113780145A (zh) | 精子形态检测方法、装置、计算机设备和存储介质 | |
CN114399799A (zh) | 一种基于YOLOv5网络的口罩佩戴检测方法 | |
CN112307894A (zh) | 一种社区监控场景下基于皱纹特征和姿态特征的行人年龄识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210202 |