CN111259742A - 基于深度学习的异常人群检测方法 - Google Patents

基于深度学习的异常人群检测方法 Download PDF

Info

Publication number
CN111259742A
CN111259742A CN202010022004.5A CN202010022004A CN111259742A CN 111259742 A CN111259742 A CN 111259742A CN 202010022004 A CN202010022004 A CN 202010022004A CN 111259742 A CN111259742 A CN 111259742A
Authority
CN
China
Prior art keywords
face
frame
layer
convolution
samples
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202010022004.5A
Other languages
English (en)
Inventor
汪萌
单梁
常路
舒壮壮
李军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN202010022004.5A priority Critical patent/CN111259742A/zh
Publication of CN111259742A publication Critical patent/CN111259742A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的异常人群检测方法,包括使用标准数据集离线训练多任务卷积神经网络得到人脸检测分类器;读取视频图像,采用人脸检测分类器检测视频帧中的人脸目标;利用KCF跟踪算法对检测出来的人脸目标进行跟踪;使用肤色校验,去除离开监控区域的跟踪目标,并添加新进入监控区域的跟踪目标,实时显示人脸目标的跟踪信息。本发明提高了人脸检测和跟踪的准确性,应用本发明能够对地铁换乘通道、景区出口等单向行走的区域进行异常人群检测及跟踪。

Description

基于深度学习的异常人群检测方法
技术领域
本发明属于计算机视觉技术领域,具体为一种基于深度学习的异常人群检测方法。
背景技术
异常人群人脸检测方法主要包括人脸检测和目标跟踪两部分。人脸虽然是我们最熟悉的生理特征之一,但却有着相当复杂的细节变化,不同的人脸其外貌、肤色、表情等都不同,难以用统一的模型来加以描述。不仅如此,人所在的场景中往往背景较为复杂,人脸属于非刚体模式,且人脸运动的非线性等等都是人脸检测与跟踪要面临的巨大挑战。实际应用中,人脸检测与跟踪面临的挑战主要表现在人脸姿势不固定;外界复杂的环境的影响;检测与跟踪的实时性。
目前常规的人脸检测算法如基于模板的方法,该方法根据人脸面部特征,也就是各个器官的相对位置,定义一个标准的人脸模板,在检测人脸时,计算待检区域与人脸模板的相似度,判断其是否为人脸。这类方法实现简单,但鲁棒性不强,且准确率不高。目前常规的目标跟踪算法如基于运动信息的方法,该方法利用当前连续几帧之间的像素的差值来进行动态像素的判断,再结合运动像素的特征来检测人脸等运动目标。这类方法受背景的影响较大,容易受到外界光照和噪声的干扰。
发明内容
本发明的目的在于提提出了一种基于深度学习的异常人群检测方法。
实现本发明目的的技术方案为:一种基于深度学习的异常人群检测方法,包括以下步骤:
S1:使用标准数据集离线训练多任务卷积神经网络得到人脸检测分类器;
S2:读取视频图像,采用人脸检测分类器检测视频帧中的人脸目标;
S3:利用KCF跟踪算法对检测出来的人脸目标进行跟踪;
S4:使用肤色校验,去除离开监控区域的跟踪目标,并添加新进入监控区域的跟踪目标,实时显示人脸目标的跟踪信息。
优选地,所述多任务卷积神经网络包括级联的PNet、RNet、ONet,
所述PNet包括依次连接的第一卷积层、第一池化层、第二卷积层、第三卷积层以及分别与第三卷积层连接的3个不同的卷积核,其中,所述第一卷积层由10个3×3×3的卷积核组成,所述第二卷积层由16个3×3×10的卷积核组成,所述第三卷积层由32个3×3×16的卷积核组成,3个不同的卷积核的作用分别为:
使用2个1×1×32的卷积核进行卷积操作,生成表示人脸分类任务结果的1×1×2的特征图;
使用4个1×1×32的卷积核进行卷积操作,生成表示人脸边框回归任务结果的1×1×4的特征图;
使用10个1×1×32的卷积核进行卷积操作,生成表示人脸关键点标定任务结果的1×1×10的特征图;
所述RNet包括依次连接的第四卷积层、第二池化层、第五卷积层、第三池化层、第六卷积层、第一全连接层以及与第一全连接层连接的2个神经元输出,作为人脸分类任务结果,分别表示是人脸和不是人脸的概率,与第一全连接层连接的4个神经元输出,作为人脸边框回归任务结果,表示人脸边框坐标;与第一全连接层连接的10个神经元输出,作为关键点标定任务的结果,表示5个人脸关键点的坐标;其中,所述第四卷积层由28个3×3×3卷积核组成,所述第五卷积层由48个3×3×28卷积核组成,第六卷积层由64个2×2×28卷积核组成;
所述ONet包括依次连接的第七卷积层、第四池化层、第八卷积层、第五池化层、第九卷积层、第十卷积层、第十一卷积层、第二全连接层以及与第二全连接层连接的2个神经元输出,作为人脸分类任务结果,分别表示是人脸和不是人脸的概率;与第二全连接层连接的4个神经元输出,作为人脸边框回归任务结果,表示人脸边框坐标;与第二全连接层连接的10个神经元输出,作为关键点标定任务的结果,表示5个人脸关键点的坐标。
优选地,训练多任务卷积神经网络得到人脸检测分类器的具体过程为:
采用以下方法分别训练PNet、RNet、ONet:
设置学习率及训练样本批次大小,将训练样本输入到多任务卷积神经网络中,计算损失函数,使用梯度下降法更新网络参数,当训练样本的迭代次数超过设定值,训练完成。
优选地,所述损失函数为:
Figure BDA0002361146410000021
式中,N代表训练样本的个数;Ldet表示人脸分类任务的损失函数,Lbox表示人脸边框回归任务的损失函数,Llandmark表示人脸关键点标定任务的损失函数,αj为Lj系数,βi j取值为0或1。
优选地,依次在WIDER FACE数据集中的每一张图片上,随机生成多个候选框,根据随机候选框与真实人脸框的交并比(IOU),截取60张IOU>0.65的图片作为PNet正样本,截取20张0.4<IOU<0.65为的图片作为PNet中间样本,截取20张IOU<0.3为的图片作为PNet负样本;在CelebA数据集上,截取40张包含人脸标定点且IOU>0.65的图片作为PNet特征点样本,将所有样本的大小调整到12×12作为PNet训练样本。
优选地,将WIDER FACE数据集中所有图片输入到训练好的PNet中,得到人脸候选框,截取并保存该候选框中的图片作为RNet的训练样本,根据候选框与真实人脸框的IOU,将IOU>0.65的图片作为正样本,将0.4<IOU<0.65的图片作为中间样本,将IOU<0.3的图片作为负样本,在Celeb A数据集上生成特征点样本。
优选地,将WIDER FACE数据集中所有图片输入到训练好的RNet中,得到人脸候选框,截取并保存该候选框中的图片作为ONet的训练样本,根据候选框与真实人脸框的IOU,采用和RNet训练样本同样的分类方式,得到正样本、负样本和中间样本,在CelebA数据集上,生成特征点样本。
优选地,利用KCF跟踪算法对检测出来的人脸目标进行跟踪的具体步骤为:
若当前为第一帧图像,使用第一帧图像初始化KCF算法模型权重向量系数α,具体为:
将人脸目标框放大2.5倍,采用向量表示候选框内的图像为x=[x1,x2,...,xn-1,xn],将向量循环移位得到循环矩阵X,即:
Figure BDA0002361146410000031
将循环矩阵X作为总体样本输入到KCF模型中;
取X的第一行样本作为y;
计算参数α,具体公式为:
Figure BDA0002361146410000032
其中,kxx是使用上一帧样本x与自身的高斯核相关矩阵的第一行;y表示跟踪目标的向量表示;λ为正则化项;
若当前不是第一帧图像,进行人脸目标跟踪和模型参数更新,具体为:
将人脸目标框放大2.5倍,采用向量表示候选框内的图像,将向量循环移位得到循环矩阵Z,即样本;
计算当前样本Z与上一帧样本的高斯核相关矩阵kxz
将样本Z输入到KCF模型中,取最高的响应输出作为当前跟踪目标位置;
更新KCF模型参数,具体为:
将当前样本Z作为训练样本,计算最新的参数α;
使用线性内插法更新α,即
Figure BDA0002361146410000041
式中,t是当前帧的序号,η是学习率。
优选地,所述KCF算法模型为:
Figure BDA0002361146410000042
式中,z表示当前帧样本,x表示上一帧样本;kxz表示当前帧样本z与上一帧样本x的高斯核相关矩阵的第一行;α为权重向量系数。
本发明与现有技术相比,其显著优点在于:(1)本发明使用基于深度学习的多任务级联卷积神经网络训练人脸检测分类器,提高了人脸检测的准确率;(2)本发明使用KCF算法对人脸目标进行多尺度跟踪,降低了跟踪目标丢失的概率。
附图说明
图1是PNet网络结构图。
图2是RNet网络结构图。
图3是ONet网络结构图。
图4是本发明的流程图。
图5是实施例获得的效果图。
具体实施方式
一种基于深度学习的异常人群检测方法,包含以下步骤:
S1:使用标准数据集离线训练多任务卷积神经网络得到人脸检测分类器;其中,所述多任务卷积神经网络由PNet、RNet、ONet三部分级联组成,分别具体为:
第一部分为PNet,输入为12×12×3(高为12像素,宽为12像素,通道数为3)的图片。如图1所示,PNet包括由10个3×3×3的卷积核组成的第一卷积层、2×2(高为2像素,宽为2像素)“最大池化”的池化层、由16个3×3×10的卷积核组成的第二卷积层、由32个3×3×16的卷积核组成的第三卷积层,输入图片经过上述结构,生成一个1×1×32的特征图。在该特征图上,使用2个1×1×32的卷积核进行卷积操作,生成表示人脸分类任务结果的1×1×2的特征图;使用4个1×1×32的卷积核进行卷积操作,生成表示人脸边框回归任务结果的1×1×4的特征图;使用10个1×1×32的卷积核进行卷积操作,生成表示人脸关键点标定任务结果的1×1×10的特征图。
第二部分为RNet,输入为PNet输出候选框内的图片,并调整大小为24×24。内部结构如图2所示,包括由28个3×3×3卷积核组成的第四卷积层、3×3“最大池化”的第二池化层、由48个3×3×28卷积核组成的第五卷积层、2×2“最大池化”的第三池化层、由64个2×2×28卷积核组成的第六卷积层、由128个神经元组成的第一全连接层。共享第一全连接层,连接2个神经元输出,作为人脸分类任务结果,分别表示是人脸和不是人脸的概率;连接4个神经元输出,作为人脸边框回归任务结果,表示人脸边框坐标;连接10个神经元输出,作为关键点标定任务的结果,表示5个人脸关键点的坐标。
第三部分为ONet,输入为RNet输出候选框内的图片,并调整大小为48×48。内部结构如图3所示,由32个3×3×3卷积核组成的第七卷积层、3×3“最大池化”的第四池化层、由64个3×3×32卷积核组成的第八卷积层、3×3“最大池化”的第五池化层、由64个3×3×64卷积核组成的第九卷积层、2×2“最大池化”的第六池化层、由64个3×3×64卷积核组成的第十卷积层、由128个3×3×64卷积核组成的第十一卷积层、由256个神经元组成的第二全连接层。共享第二全连接层,连接2个神经元输出,作为人脸分类任务结果,分别表示是人脸和不是人脸的概率;连接4个神经元输出,作为人脸边框回归任务结果,表示人脸边框坐标;连接10个神经元输出,作为关键点标定任务的结果,表示5个人脸关键点的坐标。
对多任务卷积神经网络(MTCNN)进行训练得到人脸检测分类器的具体过程为:
分别训练PNet、RNet、ONet:
S11:训练PNet:
S111:生成PNet训练样本。PNet训练样本来源于WIDER FACE数据集和CelebA数据集。在WIDER FACE数据集中每一张图片上,依随机生成多个候选框,根据随机候选框与真实人脸框的交并比IOU,截取60张IOU>0.65的图片作为正样本,截取20张0.4<IOU<0.65为的图片作为中间样本,截取20张IOU<0.3为的图片作为负样本;在CelebA数据集上,截取40张包含人脸标定点且IOU>0.65的图片作为特征点样本。将所有样本的大小调整到12×12。
S112:PNet网络参数训练。PNet网络训练的损失函数为:
Figure BDA0002361146410000061
式中:N代表训练样本的个数;Ldet表示人脸分类任务的损失函数,Lbox表示人脸边框回归任务的损失函数,Llandmark表示人脸关键点标定任务的损失函数,αj为Lj系数,在PNet中αdetboxlandmark取值分别为1,0.5,0.5;βi j取值为0或1,表示第i个样本是否参与任务j的训练,正样本只用于人脸分类和边界框回归任务,负样本只用于人脸分类任务,特征点样本只用于人脸关键点标记任务,其中,Ldet、Lbox、Llandmark分别具体为:
Figure BDA0002361146410000062
Figure BDA0002361146410000063
Figure BDA0002361146410000064
设置学习率为0.001,训练样本批大小为384,将训练样本输入到PNet中,计算损失函数,使用梯度下降法更新PNet网络参数。当训练样本的迭代次数超过22次时,终止训练。
S12:训练RNet:
S121:生成RNet训练样本。将WIDER FACE数据集中所有图片输入到训练好的PNet中,得到人脸候选框,截取并保存该候选框中的图片作为本网络的训练样本。根据候选框与真实人脸框的IOU,将IOU>0.65的图片作为正样本,将0.4<IOU<0.65的图片作为中间样本,将IOU<0.3的图片作为负样本。在Celeb A数据集上,采用和PNet相同的操作,生成特征点样本。
S122:RNet网络参数训练。RNet使用和PNet网络相同的损失函数和训练方法,将S121中生成的训练样本输入RNet中,进行训练。
S13:训练ONet。
S131:生成ONet训练样本。将WIDER FACE数据集中所有图片输入到RNet中,得到人脸候选框,截取并保存该候选框中的图片作为本网络的训练样本。根据候选框与真实人脸框的IOU,采用和RNet训练样本同样的分类方式,得到正样本、负样本和中间样本。在CelebA数据集上,采用和PNet相同的操作,生成特征点样本。
S132:ONet网络参数训练。修改PNet网络损失函数的参数αdetboxlandmark取值分别为1,1,0.5,使用和PNet一样的训练方法,将S131中生成的训练样本输入ONet中,进行训练。
步骤S2:读取视频图像,采用人脸检测分类器检测视频图像中的人脸目标。具体如下:
S21:生成图像金字塔。从视频中读取一帧图像,设置缩放因子为0.707,最小尺寸大小为20×20像素,对图像进行缩放,生成图像金字塔。
S22:PNet检测。使用12×12大小的检测窗口,在图像金字塔中的每一张图片上滑动。将检测窗口中的图像信息输入到PNet中,若PNet判断检测窗口中图像为人脸,则将检测窗口映射到原图中形成候选人脸框。重复检测窗口滑动和PNet检测过程,直到图像金字塔中的所有图像信息均被输入到PNet中。最后,采用极大值抑制(NMS)合并重叠的候选框。
S23:RNet检测。在原图上,截取所有候选框中的图像,逐个调整大小为24×24,输入到RNet中。若RNet判断该图像为人脸,则将该候选框作为新的候选框。最后,采用NMS操作合并重叠的候选框。
S24:ONet检测。在原图上,截取所有候选框中的图像,逐个调整大小为48×48,输入到ONet中。若ONet判断图像为人脸,则将该候选框作为新的候选框。采用极大值抑制(NMS)合并重叠的候选框。最后,输出所有候选框作为人脸目标区域。
S3:使用KCF算法对人脸目标进行跟踪,具体如下:
所述KCF算法模型用如下公式表示:
Figure BDA0002361146410000071
式中:z表示当前帧样本,x表示上一帧样本;kxz表示当前帧样本z与上一帧样本x的高斯核相关矩阵的第一行;α为权重向量系数,可以由如下公式求解:
Figure BDA0002361146410000072
其中,kxx是使用上一帧样本x与自身的高斯核相关矩阵的第一行;y表示跟踪目标的向量表示;λ为正则化项,在本发明中,取值为λ=1e-4
S31:若当前为第一帧图像,使用该图像初始化参数α。具体做法如下:
S311:生成样本。首先,将人脸目标框放大2.5倍,采用向量表示候选框内的图像为x=[x1,x2,...,xn-1,xn]。其次,将x循环移位可以得到循环矩阵X,即:
Figure BDA0002361146410000081
最后,将X作为总体样本输入到KCF模型中。
S312:计算参数α的初始值。首先,取X的第一行样本作为y;其次,计算X与自身的高斯核相关矩阵
Figure BDA0002361146410000082
最后,根据公式计算参数α。
S32:若当前不是第一帧图像,进行人脸目标跟踪和模型参数更新。具体做法如下:
S321:人脸目标跟踪。首先,使用S311相同的方法,生成样本Z。其次,计算当前样本Z与上一帧样本X的高斯核相关矩阵kxz。最后,样本Z输入到KCF模型中,取最高的响应输出作为当前跟踪目标位置。
S322:更新KCF模型参数。将当前样本Z作为训练样本,使用和S412相同的方法,计算最新的参数α。最后,使用线性内插法更新α,即
Figure BDA0002361146410000083
式中:t是当前帧的序号,η是学习率,本发明中取值为0.075。
S4:使用肤色校验,去除离开监控区域的跟踪目标。具体如下:
S41:把视频图像由RGB空间转换到YCrCb空间。
S42:对YCrCb空间的视频图像进行二值化。设定肤色区间为间Cr≤175,100≤Cb≤120,将肤色区间内的像素点灰度值设置为255,肤色区间以外的像素点灰度值设置为0。
S43:计算每一个跟踪目标区域内属于人脸的像素点占本区域总像素点的百分比,将百分比大于10%的目标区域作为人脸,否则就为目标已离开监控区域,停止该目标跟踪。
添加新进入监控区域的跟踪目标。将人脸目标与跟踪目标进行对比:若人脸目标与跟踪目标的覆盖率大于20%,则判定跟踪目标人脸目标重合,继续对这个人脸目标进行跟踪;若人脸目标和跟踪目标的覆盖率不大于20%,则判定该目标为一个新的目标,将其作为新的跟踪目标进行跟踪。
实时显示人脸目标的跟踪信息。
获取下一帧图像,跳转到S2继续执行。
如图5所示,本发明能够提高人脸检测和跟踪的精度,对于复杂场景下的异常人群人脸检测及跟踪有较好的实现效果。

Claims (9)

1.一种基于深度学习的异常人群检测方法,其特征在于,包括以下步骤:
S1:使用标准数据集离线训练多任务卷积神经网络得到人脸检测分类器;
S2:读取视频图像,采用人脸检测分类器检测视频帧中的人脸目标;
S3:利用KCF跟踪算法对检测出来的人脸目标进行跟踪;
S4:使用肤色校验,去除离开监控区域的跟踪目标,并添加新进入监控区域的跟踪目标,实时显示人脸目标的跟踪信息。
2.根据权利要求1所述的基于深度学习的异常人群检测方法,其特征在于,所述多任务卷积神经网络包括级联的PNet、RNet、ONet,
所述PNet包括依次连接的第一卷积层、第一池化层、第二卷积层、第三卷积层以及分别与第三卷积层连接的3个不同的卷积核,其中,所述第一卷积层由10个3×3×3的卷积核组成,所述第二卷积层由16个3×3×10的卷积核组成,所述第三卷积层由32个3×3×16的卷积核组成,3个不同的卷积核的作用分别为:
使用2个1×1×32的卷积核进行卷积操作,生成表示人脸分类任务结果的1×1×2的特征图;
使用4个1×1×32的卷积核进行卷积操作,生成表示人脸边框回归任务结果的1×1×4的特征图;
使用10个1×1×32的卷积核进行卷积操作,生成表示人脸关键点标定任务结果的1×1×10的特征图;
所述RNet包括依次连接的第四卷积层、第二池化层、第五卷积层、第三池化层、第六卷积层、第一全连接层以及与第一全连接层连接的2个神经元输出,作为人脸分类任务结果,分别表示是人脸和不是人脸的概率,与第一全连接层连接的4个神经元输出,作为人脸边框回归任务结果,表示人脸边框坐标;与第一全连接层连接的10个神经元输出,作为关键点标定任务的结果,表示5个人脸关键点的坐标;其中,所述第四卷积层由28个3×3×3卷积核组成,所述第五卷积层由48个3×3×28卷积核组成,第六卷积层由64个2×2×28卷积核组成;
所述ONet包括依次连接的第七卷积层、第四池化层、第八卷积层、第五池化层、第九卷积层、第十卷积层、第十一卷积层、第二全连接层以及与第二全连接层连接的2个神经元输出,作为人脸分类任务结果,分别表示是人脸和不是人脸的概率;与第二全连接层连接的4个神经元输出,作为人脸边框回归任务结果,表示人脸边框坐标;与第二全连接层连接的10个神经元输出,作为关键点标定任务的结果,表示5个人脸关键点的坐标。
3.根据权利要求1所述的基于深度学习的异常人群检测方法,其特征在于,训练多任务卷积神经网络得到人脸检测分类器的具体过程为:
采用以下方法分别训练PNet、RNet、ONet:
设置学习率及训练样本批次大小,将训练样本输入到多任务卷积神经网络中,计算损失函数,使用梯度下降法更新网络参数,当训练样本的迭代次数超过设定值,训练完成。
4.根据权利要求3所述的基于深度学习的异常人群检测方法,其特征在于,所述损失函数为:
Figure FDA0002361146400000021
式中,N代表训练样本的个数;Ldet表示人脸分类任务的损失函数,Lbox表示人脸边框回归任务的损失函数,Llandmark表示人脸关键点标定任务的损失函数,αj为Lj系数,
Figure FDA0002361146400000022
取值为0或1。
5.根据权利要求3所述的基于深度学习的异常人群检测方法,其特征在于,依次在WIDER FACE数据集中的每一张图片上,随机生成多个候选框,根据随机候选框与真实人脸框的交并比IOU,截取60张IOU>0.65的图片作为PNet正样本,截取20张0.4<IOU<0.65为的图片作为PNet中间样本,截取20张IOU<0.3为的图片作为PNet负样本;在CelebA数据集上,截取40张包含人脸标定点且IOU>0.65的图片作为PNet特征点样本,将所有样本的大小调整到12×12作为PNet训练样本。
6.根据权利要求3所述的基于深度学习的异常人群检测方法,其特征在于,将WIDERFACE数据集中所有图片输入到训练好的PNet中,得到人脸候选框,截取并保存该候选框中的图片作为RNet的训练样本,根据候选框与真实人脸框的IOU,将IOU>0.65的图片作为正样本,将0.4<IOU<0.65的图片作为中间样本,将IOU<0.3的图片作为负样本,在Celeb A数据集上生成特征点样本。
7.根据权利要求6所述的基于深度学习的异常人群检测方法,其特征在于,将WIDERFACE数据集中所有图片输入到训练好的RNet中,得到人脸候选框,截取并保存该候选框中的图片作为ONet的训练样本,根据候选框与真实人脸框的IOU,采用和RNet训练样本同样的分类方式,得到正样本、负样本和中间样本,在Celeb A数据集上,生成特征点样本。
8.根据权利要求1所述的基于深度学习的异常人群检测方法,其特征在于,利用KCF跟踪算法对检测出来的人脸目标进行跟踪的具体步骤为:
若当前为第一帧图像,使用第一帧图像初始化KCF算法模型权重向量系数α,具体为:
将人脸目标框放大2.5倍,采用向量表示候选框内的图像为x=[x1,x2,...,xn-1,xn],将向量循环移位得到循环矩阵X,即:
Figure FDA0002361146400000031
将循环矩阵X作为总体样本输入到KCF模型中;
取X的第一行样本作为y;
计算参数α,具体公式为:
Figure FDA0002361146400000032
其中,kxx是使用上一帧样本x与自身的高斯核相关矩阵的第一行;y表示跟踪目标的向量表示;λ为正则化项;
若当前不是第一帧图像,进行人脸目标跟踪和模型参数更新,具体为:
将人脸目标框放大2.5倍,采用向量表示候选框内的图像,将向量循环移位得到循环矩阵Z,即样本;
计算当前样本Z与上一帧样本的高斯核相关矩阵kxz
将样本Z输入到KCF模型中,取最高的响应输出作为当前跟踪目标位置;
更新KCF模型参数,具体为:
将当前样本Z作为训练样本,计算最新的参数α;
使用线性内插法更新α,即
Figure FDA0002361146400000033
式中,t是当前帧的序号,η是学习率。
9.根据权利要求8所述的基于深度学习的异常人群检测方法,其特征在于,所述KCF算法模型为:
Figure FDA0002361146400000041
式中,z表示当前帧样本,x表示上一帧样本;kxz表示当前帧样本z与上一帧样本x的高斯核相关矩阵的第一行;α为权重向量系数。
CN202010022004.5A 2020-01-09 2020-01-09 基于深度学习的异常人群检测方法 Withdrawn CN111259742A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010022004.5A CN111259742A (zh) 2020-01-09 2020-01-09 基于深度学习的异常人群检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010022004.5A CN111259742A (zh) 2020-01-09 2020-01-09 基于深度学习的异常人群检测方法

Publications (1)

Publication Number Publication Date
CN111259742A true CN111259742A (zh) 2020-06-09

Family

ID=70948626

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010022004.5A Withdrawn CN111259742A (zh) 2020-01-09 2020-01-09 基于深度学习的异常人群检测方法

Country Status (1)

Country Link
CN (1) CN111259742A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112200081A (zh) * 2020-10-10 2021-01-08 平安国际智慧城市科技股份有限公司 异常行为识别方法、装置、电子设备及存储介质
CN112801037A (zh) * 2021-03-01 2021-05-14 山东政法学院 一种基于连续帧间差异的人脸篡改检测方法
CN112818833A (zh) * 2021-01-29 2021-05-18 中能国际建筑投资集团有限公司 基于深度学习的人脸多任务检测方法、系统、装置及介质
CN113239860A (zh) * 2021-05-28 2021-08-10 中建材信息技术股份有限公司 一种基于视频的烟火检测方法
CN113284166A (zh) * 2021-04-15 2021-08-20 阳光暖果(北京)科技发展有限公司 一种基于深度级联神经网络的高速人脸跟踪方法及系统
CN113705342A (zh) * 2021-07-16 2021-11-26 国家石油天然气管网集团有限公司 一种基于人体上下文注意力机制的人脸检测方法
CN113780158A (zh) * 2021-09-08 2021-12-10 宁波书写芯忆科技有限公司 一种智能专注力的检测方法
CN116363738A (zh) * 2023-06-01 2023-06-30 成都睿瞳科技有限责任公司 一种基于多移动目标的人脸识别方法、系统及存储介质

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112200081A (zh) * 2020-10-10 2021-01-08 平安国际智慧城市科技股份有限公司 异常行为识别方法、装置、电子设备及存储介质
CN112818833A (zh) * 2021-01-29 2021-05-18 中能国际建筑投资集团有限公司 基于深度学习的人脸多任务检测方法、系统、装置及介质
CN112818833B (zh) * 2021-01-29 2024-04-12 中能国际建筑投资集团有限公司 基于深度学习的人脸多任务检测方法、系统、装置及介质
CN112801037A (zh) * 2021-03-01 2021-05-14 山东政法学院 一种基于连续帧间差异的人脸篡改检测方法
CN113284166A (zh) * 2021-04-15 2021-08-20 阳光暖果(北京)科技发展有限公司 一种基于深度级联神经网络的高速人脸跟踪方法及系统
CN113239860A (zh) * 2021-05-28 2021-08-10 中建材信息技术股份有限公司 一种基于视频的烟火检测方法
CN113239860B (zh) * 2021-05-28 2024-05-24 中建材信息技术股份有限公司 一种基于视频的烟火检测方法
CN113705342A (zh) * 2021-07-16 2021-11-26 国家石油天然气管网集团有限公司 一种基于人体上下文注意力机制的人脸检测方法
CN113780158A (zh) * 2021-09-08 2021-12-10 宁波书写芯忆科技有限公司 一种智能专注力的检测方法
CN113780158B (zh) * 2021-09-08 2023-10-31 宁波书写芯忆科技有限公司 一种智能专注力的检测方法
CN116363738A (zh) * 2023-06-01 2023-06-30 成都睿瞳科技有限责任公司 一种基于多移动目标的人脸识别方法、系统及存储介质

Similar Documents

Publication Publication Date Title
CN111259742A (zh) 基于深度学习的异常人群检测方法
CN109886121B (zh) 一种遮挡鲁棒的人脸关键点定位方法
Battistone et al. TGLSTM: A time based graph deep learning approach to gait recognition
Liu et al. Hard negative generation for identity-disentangled facial expression recognition
CN107341452B (zh) 基于四元数时空卷积神经网络的人体行为识别方法
WO2020253416A1 (zh) 物体检测方法、装置和计算机存储介质
Molchanov et al. Online detection and classification of dynamic hand gestures with recurrent 3d convolutional neural network
Mohan et al. FER-net: facial expression recognition using deep neural net
CN107016357B (zh) 一种基于时间域卷积神经网络的视频行人检测方法
Littmann et al. Adaptive color segmentation-a comparison of neural and statistical methods
Han et al. Two-stage learning to predict human eye fixations via SDAEs
CN112800903B (zh) 一种基于时空图卷积神经网络的动态表情识别方法及系统
Lei et al. A skin segmentation algorithm based on stacked autoencoders
Gupta et al. Online detection and classification of dynamic hand gestures with recurrent 3d convolutional neural networks
CN107609571B (zh) 一种基于lark特征的自适应目标跟踪方法
CN110929748A (zh) 一种基于深度学习的运动模糊图像特征匹配方法
CN111310609B (zh) 基于时序信息和局部特征相似性的视频目标检测方法
CN111401207B (zh) 基于mars深度特征提取与增强的人体动作识别方法
CN113609935A (zh) 一种基于深度学习面部识别的轻量级走神判别方法
Fang et al. Laser stripe image denoising using convolutional autoencoder
Chen et al. Learning to count with back-propagated information
Fu et al. Purifying real images with an attention-guided style transfer network for gaze estimation
CN116912604B (zh) 模型训练方法、图像识别方法、装置以及计算机存储介质
Zhao et al. Purifying naturalistic images through a real-time style transfer semantics network
Bhattacharya et al. Simplified face quality assessment (sfqa)

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20200609

WW01 Invention patent application withdrawn after publication