CN109800719B - 基于分部件和压缩字典稀疏表示的低分辨率人脸识别方法 - Google Patents
基于分部件和压缩字典稀疏表示的低分辨率人脸识别方法 Download PDFInfo
- Publication number
- CN109800719B CN109800719B CN201910062329.3A CN201910062329A CN109800719B CN 109800719 B CN109800719 B CN 109800719B CN 201910062329 A CN201910062329 A CN 201910062329A CN 109800719 B CN109800719 B CN 109800719B
- Authority
- CN
- China
- Prior art keywords
- dictionary
- image
- frame
- frames
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 230000006835 compression Effects 0.000 title description 3
- 238000007906 compression Methods 0.000 title description 3
- 238000012360 testing method Methods 0.000 claims abstract description 30
- 238000012545 processing Methods 0.000 claims abstract description 15
- 239000013598 vector Substances 0.000 claims description 23
- 238000004422 calculation algorithm Methods 0.000 claims description 21
- 238000012937 correction Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000009977 dual effect Effects 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 3
- 238000000513 principal component analysis Methods 0.000 claims description 3
- JXASPPWQHFOWPL-UHFFFAOYSA-N Tamarixin Natural products C1=C(O)C(OC)=CC=C1C1=C(OC2C(C(O)C(O)C(CO)O2)O)C(=O)C2=C(O)C=C(O)C=C2O1 JXASPPWQHFOWPL-UHFFFAOYSA-N 0.000 claims description 2
- 230000003190 augmentative effect Effects 0.000 claims description 2
- 238000009795 derivation Methods 0.000 claims description 2
- 230000004927 fusion Effects 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 claims description 2
- 239000004576 sand Substances 0.000 claims description 2
- 230000008859 change Effects 0.000 abstract description 5
- 230000000694 effects Effects 0.000 abstract description 4
- 238000005286 illumination Methods 0.000 abstract description 4
- 238000010801 machine learning Methods 0.000 abstract description 3
- 230000002159 abnormal effect Effects 0.000 abstract description 2
- 230000007547 defect Effects 0.000 abstract description 2
- 238000003909 pattern recognition Methods 0.000 abstract description 2
- 230000008713 feedback mechanism Effects 0.000 abstract 1
- 238000012549 training Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 6
- 230000036544 posture Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000010276 construction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了基于分部件和压缩字典稀疏表示的低分辨率人脸识别方法,属于信号处理、模式识别、机器学习、计算机视觉领域。本发明构造字典时挑选视频中能稀疏表示所有视频帧的图像作为代表帧,然后使用这些代表帧与其镜像的HOG特征构造部件字典。测试时,用字典线性表示测试视频的每一帧,并增加反馈机制更正异常的识别结果,最后投票获得视频分类的结果。发明将稀疏表示应用到视频人脸识别中,保持了稀疏表示对遮挡和噪声的鲁棒性,并加入其它步骤提高它在较大规模的低分辨率视频人脸识别中的效果和效率,弥补它在光照变化等条件下的不足。
Description
技术领域
本发明属于信号处理、模式识别、机器学习、计算机视觉领域,尤其涉及基于分部件和压缩字典稀疏表示的低分辨率人脸识别方法。
背景技术
20世纪后期开始,硬件的发展迅速,数字图像成为当代社会的重要信息携带品。随着计算机视觉技术的不断发展,越来越多的技术成为了实际应用的产品。人脸识别是基于人的面部特征信息进行身份识别的一种生物识别技术,它具有非侵扰性,便捷性,非接触性等优点。人脸识别技术发展非常迅速,特别是深度神经网络的问世让机器人脸识别近似于甚至超过人眼的识别能力。但虽然在正常的环境中,如光照良好,人的姿势不变情况下人脸识别技术表现优异,在光照差、人体姿势偏转幅度大、遮挡等情况下,人脸识别技术还期待提高。
与图像相比,视频含有时序、动作等更多的信息,有助于提高人脸识别准确率,从而越来越受到关注。但是视频设备虽然变得普及,视频的获取也越来越容易,视频的分辨率却不如图像的分辨率高。尤其是监控视频中的人脸识别是一个很重要的应用场景,而它的分辨率又比一般的视频更低,光照、姿态等也更差。因此,视频人脸识别不止面临着和图像人脸识别同样的问题,还带有低分辨率的问题。
现有的视频人脸识别方法通常分为两种,一种方法对整段视频进行建模,然后通过度量两个模型之间的距离进行人脸识别。比如讲提取一段视频的统计属性,或者将视频建模为几个高斯分布的集合,又或者求视频的凸包,这种方法往往计算复杂,训练耗时,且对短视频的识别效果较差。另一种方法对每一帧图像进行识别,然后融合所有帧的识别结果。这种方法在长视频识别中效率较低但在短视频的人脸识别中具有优势,同时它能与最先进的图像人脸识别方法结合从而提高准确率,且在需要输出单帧的中间结果的场景下不可被替代。稀疏表示、协同表示方法都是单帧图像识别中表现优异的方法,结合到视频识别中也取得了不错的结果。
但容易发现稀疏表示的字典大小影响识别速度,字典内容影响识别准确性。所以近年来,人们常通过改进字典来提高稀疏表示方法的效果。为了让字典变得紧凑,可以使用两种方法。一种方法使用优化方法从全部的训练图像中构建一个字典,这一类方法每次加入新的训练样本都需要重新进行训练,使训练集更新困难。另一种让字典变得紧凑的方法是从原始的训练图像集中挑选能代表整个几集合的子集。相比字典学习方法,这一类方法仍然使用一张图像代表一个原子,当新的训练图像出现时可以直接插入到字典中,免去重新训练的繁琐步骤。针对图像中的识别难点,也有不同的使用稀疏表示方法的解决方案被提出。比如对不同姿势的测试集使用不同姿势的字典,提高了计算效率,但受限于姿势判断方法。
发明内容
针对现有技术的不足,本发明提供了基于分部件和压缩字典稀疏表示的低分辨率人脸识别方法,包含以下步骤:
步骤1,用样本库为稀疏表示构造字典;
步骤2,基于字典进行人脸识别,得到分类结果。
步骤1包括:
步骤1-1,将人的任意段视频加入样本库;
步骤1-2,将样本库的视频按照每秒f(一般为30)帧的帧率拆分成图像,再使用seetaface算法检测所有图像的人脸位置,将人脸位置的图像截取出来,调整为统一的32*40像素大小,最后进行灰度化和Gamma校正(伽马校正)图像处理,seetaface算法具有检测速度快,人脸定位准确的优点,Gamma校正能调整图像质量,增强光照鲁棒性。
步骤1-3,若样本库中的人的数量大于n1(一般为100),则将样本库按照视频加入顺序均分为不超过n1的小组,若人数少于n1则不需要分组,每一个分组经过关键帧挑选形成分组小样本库G。因为稀疏表示方法的效率和结果受字典大小影响,若字典中的类别超过n1,求解一次稀疏系数的时间将过长。
步骤1-4,将小样本库G中的图像进行镜像处理,即将图像水平翻转然后获得其镜像图像,然后将镜像图像也加入小样本库G中,直接提取小样本库G中所有图像的HOG特征(方向梯度直方图,Histogram of Oriented Gradient,HOG),形成分组整体字典D′,然后小样本库G中的图像分为上下左右四个部件,每一个部件的横纵分别占图像横纵的2/3,计算每一个部件的HOG特征,将同位置部件的特征向量直接拼接起来,使用PCA算法(主成分分析,Principal Components Analysis,PCA)降维至120维,形成4个部件字典分别为sDic1,sDic2,sDic3,sDic4,每个分组拥有4个部件字典和一个整体字典。考虑到实际环境中有很多摄像机拍摄的图像自动进行了镜像,所以在样本库中加入镜像图像能解决这一问题。分部件是为了当某个部件出现遮挡时,将该部件的权重置为0,使之不参与帧的分类决策。
步骤1-2中,所述灰度化采用如下公式:
Gray=0.299*R+0.587*G+0.114*B
其中Gray表示图像的灰度值,R表示红色通道像素值,G代表绿色通道像素值,B代表蓝色通道像素值。
图像灰度化后,进行Gamma校正,取Gamma系数为2.2。Gamma校正能帮助处理光照变化下的人脸识别。
步骤1-3包括:
步骤1-3a,从经过步骤1-1和1-2处理后的视频中随机选择n2(一般取值为1~10)帧作为初始的帧,这些帧直接加入到小样本库G中,提取这些帧的HOG特征,每一帧的HOG特征是一个向量,将这些向量直接拼接,形成稀疏表示方法中的字典D1。HOG特征具有很好的几何和光学转化不变性,对表情变化具有优势。
步骤1-3b,使用PCA主成分分析算法,将字典D1中的每一个向量压缩成为120维的向量,形成一个压缩后的字典D2;降维能大幅度减少稀疏表示求解的时间,提高识别的效率。
步骤1-3c,遍历未被选择的帧,使用稀疏表示分类方法处理每一帧图像,计算出步骤1-3b得到的字典D2中的单独的每一类图像重建测试图像的重建误差,若重建误差大则把图像加入到小样本库G中,并提取图像的HOG特征插入到字典D2,循环执行本步骤,直到所有帧都被处理。
步骤1-3c中的稀疏表示方法具体包括如下步骤:
步骤al,设定样本库中的视频的所有帧的集合为X,执行步骤1-2,1-3a,1-3b后得到一个压缩过的字典D2;
步骤a2,遍历步骤1-3a未处理过的帧,将帧集合记为Y1,其中Y1=[y1,y2,...,yM],M表示未处理过的帧的数量,ym表示第m个未处理过的帧,m取值为1~M,Y1集合中的每一帧ym满足关系:
ym=D2·W+E,
其中,W为使用字典D2线性表示帧ym时的稀疏系数,E为残差项,约束W使表示yrn的系数尽量稀疏,则问题写为:
minW||W||1 s.t.||ym-D2·W||2≤ε
其中ε(一般取值为0.001)是预先定义的较小的常量,表示重建图像与真实图像之间的误差应小于这个常量;
步骤a3,使用dual-ALM(dual-Augmented Lagrangian Methods对偶问题的增广拉格朗日乘子法)算法求出W,用Wi表示W对应D2中第i个类别的系数值,然后计算每一帧图像对每一个类别的重建误差,第m个未处理过的帧ym对第i个类别的重建误差Res的计算公式为:
记r为第m个未处理过的帧ym对应所有类别里最小的重建误差,即:
若r>0.8,则将这一帧图像加入到小样本库G中,并将这一帧图像的HOG特征插入到字典D2;
步骤a4,循环执行步骤a2和步骤a3,直到所有的帧被处理完。
步骤2包括:
步骤2-1,输入一段测试视频,使用步骤1-2中相同的方式对其进行预处理,即将测试视频按照每秒f(一般为30)帧的帧率拆分成图像,再使用seetaface算法检测所有图像的人脸位置,将人脸位置的图像截取出来,调整为统一的32*40像素大小,最后进行灰度化和Gamma校正图像处理,这一步的目的是将人脸对齐,并调节图像质量以应对不同光照环境下的人脸识别。
步骤2-2,分别提取每一个人的所有图像的整张人脸的整体HOG特征,再按照步骤1-4中的分部件方法,将所有图像分为4个部件并提取4个部件的HOG特征,整张人脸的特征和部件特征都使用PCA算法降维到120维,以列向量的形式存储;
步骤2-3,随机从测试帧中挑选n3(一般为3~10)帧图像,根据步骤2-2计算这些帧的整体HOG特征,然后与步骤1-3构造的所有的分组整体字典D′进行稀疏表示分类,计算重建误差,选择重建误差小于阈值t(一般取值为0.85)的所有分类,将步骤1-4得到的四个部件字典sDicl,sDic2,sDic3,sDic4中这些分类对应的部分直接拼接成为四个新的部件字典,记为sDic5,sDic6,sDic7,sDic8;
步骤2-4,让测试视频的每一帧的4个部件与对应的部件字典sDic5,sDic6,sDic7,sDic8进行稀疏表示分类,统计每一帧的分类结果;
步骤2-5,设定连续的三帧图像必属于同一个人,平均三帧图像的重建误差,将重建误差最小的类作为这三帧最后的分类结果,然后统计所有帧的分类结果,将得票最多的分类结果作为整段视频的分类结果。
步骤2-3中所述的稀疏表示分类具体包括如下步骤:
步骤b1,步骤1-4构造得到的任意一个分组的整体字典记为D′,一段测试视频记为Y,执行步骤2-1后,Y=[y1,y2,...,yN]表示视频Y被拆分为N帧,yn表示第n帧图像,n取值为1~N,每一帧进行步骤2-1和步骤2-2的预处理,随机从中挑选n3帧图像,与整体字典D′进行稀疏表示,设定随机挑选的任意一帧图像为y,y满足公式:
y=D′·W′+E′,
minW′||W′||1 s.t.||y-D′·W′||2≤ε,
其中ε(一般取值为0.001)是预先定义的较小的常量,表示重建图像与真实图像之间的误差应小于这个常量;
步骤b2,使用dual-ALM算法求出W′,用W′i表示W′对应D′中第i个类别的系数值,然后计算每一帧图像对每一个类别的重建误差,图像y对第i个类别的重建误差Res′的计算公式为:
记r′为图像y对应所有类别里最小的重建误差,即:
步骤b3,在所有的分组中,对随机选取的n3帧图像执行步骤b1和步骤b2;
步骤b3,执行步骤1-4后得到4个部件字典为sDic1,sDic2,sDic3,sDic4,在步骤b2中,若求得某个类的r′<0.85,则将对应的第i类图像在sDic1,sDic2,sDic3,sDic4中对应的列向量取出,重新拼接成4个新的部件字典sDic5,sDic6,sDic7,sDic8。
步骤2-4中所述的稀疏表示分类具体包括:
步骤cl,设定样本库的视频集合记为X′,按照步骤1-2~步骤1-4的方法处理视频集合X′,得到4个部件字典分别记为D1,D2,D3,D4;
设定任意一段测试视频记为Y,执行步骤2-1后,Y=[y1,y2,...,yN]表示视频Y被拆分为N帧,每一帧用步骤2-1和步骤2-2的方法预处理,设其中任意一帧为y,它按照步骤1-4中的分部件方法,分为4个部件y1、y2、y3和y4,,记为y=[y1;y2;y3;y4];
每一帧图像的每一个部件满足公式:
ys=Ds·Ws+Es,
其中,s=1,2,3,4表示一共4个部件,
ys表示第s个部件,Ds为第s个部件字典,Ws为使用部件字典Ds线性表示部件ys时的系数,Es为残差项,s=1,2,3,4时Es分别对应四个部件y1、y2、y3和y4的残差项,约束Ws使用Ds表示ys的系数尽量稀疏,则问题写为:
其中ε(一般取值为0.001)是预先定义的较小的常量,表示重建图像与真实图像之间的误差应小于这个常量;
步骤c2,使用dual-ALM算法求解Ws,计算每个部件对于每一个分类的重建误差:
Ress表示第s个部件对于每一个分类的重建误差,结合4个部件,用f(y)表示视频中一帧测试图像y的分类结果:
其中λs是第s个部件的权重系数,样本库中每个类别对测试图像有一个重建误差,用最小重建误差与次小重建误差的差值来衡量重建误差之间的差别,记为diff,对每个部件,当diff<0.15时,将λs置为0;设定最后权重系数不为0的部件的个数为K,值为K≠0;若K=0,则使用残差最小的两个部件进行融合,即
步骤2-5的具体方法为:
设定y1,y2,y3是连续的三帧图像,他们必须满足具有一样的分类结果,所以对这三帧结果进行统一,用f(yj)表示这三帧统一过后的结果,它的计算公式为:
其中,j=1,2,3,yj表示3帧连续的图像,i对应样本库中的第i类,s对应4个部件,表示第j帧图像的第s个部件,λs是第s个部件取的系数,为第s个部件中第i类对应的部件字典,为第s个部件中第i类对应的稀疏表示系数。
然后视频的分类结果由投票得到,选择具有最多的测试视频帧的分类作为最终分类。
求解稀疏表示的dual-ALM算法具体为:
在所有需要进行稀疏表示的场景中,假设进行一次稀疏表示时的字典为D,待表示的图像为y,用D表示y的稀疏系数为W,那么稀疏表示问题可写作公式:
minW||W||1 s.t.||y-D·W||2≤ε
其中ε(一般取值0.001)表示一个很小的常量,上述问题的增广拉格朗日问题可写成:
对偶问题的拉格朗日展开为:
稀疏表示方法协同考虑所有样本,理论上,一张人脸图像,可以用数据库中同一个人所有的人脸图像的线性组合表示。而对于数据库中其它人的脸,其线性组合的系数理论上为零。由于数据库中一般有很多个不同的人脸的多张图像,如果把数据库中所有的图像的线性组合来表示这张给定的测试人脸,其系数向量是稀疏的。因为除了这张和同一个人的人脸的图像组合系数不为零外,其它的系数都为零。这样的稀疏表示同时协同考虑样本库中所有人,具有很好的噪声鲁棒性,利于遮挡下的人脸识别。
本发明结合稀疏表示的方法,提出一种基于分部件和压缩字典稀疏表示的低分辨率视频人脸识别系统。此系统将稀疏表示方法应用于视频人脸识别中,使用分部件的方法进一步增强稀疏表示对遮挡和表情变化的鲁棒性,使用具有几何和光学转化不变性的HOG(方向梯度直方图,Histogram ofOriented Gradient,HOG)特征代替像素的排列,增强稀疏表示在低分辨率下的人脸识别效果。使用纠错机制处理视频中的异常帧。使用压缩字典的方法提高稀疏表示的效率。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述或其他方面的优点将会变得更加清楚。
图1是本发明的视频人脸识别系统流程示意图。
图2是本发明部件的划分方式示意图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
实施例
本发明在COX数据库上进行验证,COX数据集是一个较大型的人脸识别数据集,他一共有1000个人的3000段视频以及每人一张的高清人脸图像,每一个人的三段视频由三台不同的摄像机拍摄,三段视频两两之间互相构成一组实验。人在摄像机前以不同的路线移动。除了人本身在运动,三段视频内部和彼此之间还存在姿态、表情、光照、遮挡变化,此外还有视频本身是低分辨率的,为识别增加了困难。数据集为实验者划分了300个人作为训练集,700个人作为测试集。如图2所示是划分方式示意图。本发明使用的稀疏表示方法没有显示的训练过程,所以直接使用700个人进行测试。
如图1所示,首先为稀疏表示的字典构造的具体步骤:
步骤1,将测试集中的700人的一段视频(同一个摄像机拍摄的)加入样本库,视频按帧率30帧每秒拆分为图像集,使用seetaface算法检测所有图像的人脸,截取人脸图像,统一设置为32*40像素大小。
进行预处理,灰度化,使用灰度化公式为:
Gray=0.299*R+0.587*G+0.114*B
其中Gray表示灰度值,R表示红色通道像素值,G代表绿色通道像素值,B代表蓝色通道像素值。
图像灰度化后,进行Gamma校正,取Gamma系数为2.2。
步骤2,将COX数据集中的700个人按照编号顺序分为10个小组,每个小组70人。在每个小组中做如下处理。如果是其他数据集,人数若少于100人,则不需要分组。若人数超过一百人,应将其分为50-100人每个小组。
步骤3,从每一个图像集中随机选择10帧图像作为初始字典,提取他们的HOG特征,每一帧图像形成一个向量,向量直接拼接成为一个初始的字典D1。选用HOG特征是因为它具有几何和光学转化不变性,对表情变化鲁棒,也可以采用其他机器学习的方法进行字典学习。
步骤4,使用PCA算法将字典压缩至120维,则字典D1经过降维后记为字典D2。稀疏表示要求字典是过完备的,因此可以根据样本的数量,灵活调整特征向量的维度。
步骤5,遍历未被选择的帧,使用稀疏表示方法处理每一帧图像。稀疏表示方法给出用字典中每一类图像重建测试图像的重建误差,重建误差越小说明测试图像越接近这一个类,表示它没有带来新的信息,因此只需要将重建误差大于0.8的图像的HOG特征插入到字典D2,重复地用字典D2处理所有的帧。当有新的人加入人脸识别系统中时,直接将新人的样本的特征插入到字典中即可。
步骤6,将步骤5中重建误差大于0.8的帧选择出来,进行镜像处理,提取镜像的HOG特征并降维插入到字典D3中,形成一个分组的整体字典D;
步骤7,步骤6最后得到10个分组字典,每个字典的一列向量为一帧图像的HOG特征。然后将图像分为上下左右四个部件,每一个部件的横纵分别占图像横纵的2/3。提取每一个部件的HOG特征,于是每个分组将拥有4个部件字典,记为sDic1,sDic2,sDic3,sDic4。
视频人脸识别的预测过程具体如下:
步骤1’,预处理包括人脸检测、灰度化、Gamma校正等和字典构造时步骤1使用的方法一致。
步骤2’,分别提取每一个人的所有图像的整张人脸的HOG特征,以及4个部件的HOG特征,并使用PCA算法降维。
步骤3’,随机从测试帧中挑选10帧图像,分别与字典构造过程后构造的10个分组整体字典进行稀疏表示分类。选择重建误差小于0.85的分类,将他们的部件字典重新拼接成为四个新的字典sDic5,sDic6,sDic7,sDic8。
步骤4’,让测试视频的每一帧的4个部件与对应的部件字典进行稀疏表示,记录每一帧的重建误差。
步骤5’,假设连续的三帧图像必属于同一个人,平均三帧图像的重建误差,将重建误差最小的类作为这三帧最后的分类结果。然后统计所有帧的分类结果,将得票最多的分类结果作为整段视频的分类结果。
表1本发明在COX数据集上的实验结果:
表1
Va,b表示将一个人的第a段视频加入样本库,使用第b段视频与之匹配,其中a和b的取值范围都为1~3。
本发明可以在任意其他人脸数据库上进行实验,也可以进行在线的人脸识别,且不需要复杂的训练过程。因此本发明不会被限制于上述实施例,而是要符合本文所公开的原理和新颖投点相一致的最宽的范围。
本发明提供了基于分部件和压缩字典稀疏表示的低分辨率人脸识别方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。
Claims (5)
1.基于分部件和压缩字典稀疏表示的低分辨率人脸识别方法,其特征在于,包含以下步骤:
步骤1,用样本库为稀疏表示构造一个字典;
步骤2,基于字典进行人脸识别,得到分类结果;
步骤1包括:
步骤1-1,将需要识别的人的任意视频加入样本库;
步骤1-2,将样本库的视频按照每秒f帧的帧率拆分成图像,再使用seetaface算法检测所有图像的人脸位置,将人脸位置的图像截取出来,调整为统一的32*40像素大小,最后进行灰度化和Gamma校正图像处理;
步骤1-3,若样本库中的人的总数量大于n1,则将样本库按照视频添加的顺序均分为不超过n1的小组,若人数少于n1则不需要分组,每一个分组经过关键帧挑选形成分组小样本库G;
步骤1-4,将每个分组的小样本库G中的图像进行镜像处理,即水平翻转图像获得其镜像图像,然后将镜像图像也加入小样本库G中,直接提取小样本库G中所有图像的HOG特征,形成分组整体字典D′,然后小样本库G中的图像分为上下左右四个部件,每一个部件的横纵分别占图像横纵的2/3,计算每一个部件的HOG特征,将同位置部件的特征向量直接拼接起来,使用PCA算法降维至120维,形成4个部件字典分别为sDic1,sDic2,sDic3,sDic4,最后每个分组拥有4个部件字典和一个整体字典;
步骤1-2中,所述灰度化采用如下公式:
Gray=0.299*R+0.587*G+0.114*B
其中Gray表示图像的灰度值,R表示红色通道像素值,G代表绿色通道像素值,B代表蓝色通道像素值;
步骤1-3包括:
步骤1-3a,从经过步骤1-1和1-2处理后的视频中随机选择n2帧作为初始的帧,这些帧直接加入到小样本库G中,提取这些帧的HOG特征,每一帧的HOG特征是一个向量,将这些向量直接拼接,形成稀疏表示方法中的字典D1;
步骤1-3b,使用PCA主成分分析算法,将字典D1中的每一个向量压缩成为120维的向量,形成一个压缩后的字典D2;
步骤1-3c,遍历未被选择的帧,使用稀疏表示分类方法处理每一帧图像,计算出用字典D2中的单独的每一类图像重建测试图像的重建误差,若重建误差大则把图像加入到小样本库G中,并提取图像的HOG特征插入到字典D2,循环执行本步骤,直到所有帧都被处理;
步骤1-3c中所述的稀疏表示分类方法具体包括如下步骤:
步骤a1,设定样本库中的视频的所有帧的集合为X,执行步骤1-2,1-3a,1-3b后得到一个压缩过的字典D2;
步骤a2,遍历步骤1-3a中未处理过的帧,将帧集合记为Y1,其中Y1=[y1,y2,...,yM],M表示未处理过的帧的数量,ym表示第m个未处理过的帧,m取值为1~M,Y1集合中的每一帧ym满足关系:
ym=D2·W+E,
其中,W为使用字典D2线性表示帧ym时的稀疏系数,E为残差项,约束W使表示ym的系数尽量稀疏,则问题写为:
minW||W||1 s.t.||ym-D2·W||2≤ε
其中ε是预先定义的较小的常量,表示重建图像与真实图像之间的误差应小于这个常量;
步骤a3,使用dual-ALM算法求出W,用Wi表示W对应D2中第i个类别的系数值,然后计算每一帧图像对每一个类别的重建误差,第m个未处理过的帧ym对第i个类别的重建误差Res的计算公式为:
记r为第m个未处理过的帧ym对应的所有类别里最小的重建误差,即:
若r>0.8,则将这一帧图像加入到小样本库G中,并将这一帧图像的HOG特征插入到字典D2;
所述dual-ALM算法具体为:在所有需要进行稀疏表示的场景中,假设进行一次稀疏表示时的字典为D,待表示的图像为y,用D表示y的稀疏系数为W,稀疏表示问题写作公式:
minW||W||1 s.t.||y-D·W||2≤ε
其中ε表示一个很小的常量,上述问题的增广拉格朗日问题写成:
上式中的λ和ζ都为拉格朗日乘子,上述公式的对偶问题应为:
对偶问题的拉格朗日展开为:
迭代开始,首先固定λ、μ,更新ζ,假设已知第k步的拉格朗日因子λ、μ的值分别为λk,μk,第k+1步的拉格朗日因子ζ的值ζk+1为:
然后固定朗格朗日乘子ζ,μ,更新λ,设定已经求得的第k+1步的拉格朗日乘子ζ的值为ζk+1,第k步的拉格朗日乘子μ的值为μk,则第k+1步的拉格朗日乘子λ的值λk+1由以下公式求得:
其中Lτ(λ,ζk+1,μk)表示函数Lτ(λ,ζ,μ)用ζk+1,μk计算时的结果,上式相对于λ求导同时得到第k+1步的拉格朗日因子μ的值μk+1:
λk+1=(τ(D)TD)-1·(τDζk+1+y-Dμk)
μk+1=μk-τ(ζk+1-DTλk+1)
步骤a4,循环执行步骤a2和步骤a3,直到所有的帧被处理完。
2.如权利要求1所述的方法,其特征在于,步骤2包括:
步骤2-1,输入一段测试视频,使用步骤1-2中相同的方式对其进行预处理,即将测试视频按照每秒f帧的帧率拆分成图像,再使用seetaface算法检测所有图像的人脸位置,将人脸位置的图像截取出来,调整为统一的32*40像素大小,最后进行灰度化和Gamma校正图像处理;
步骤2-2,分别提取每一个人的所有图像的整张人脸的整体HOG特征,再按照步骤1-4中的分部件方法,将所有图像分为4个部件并提取4个部件的HOG特征,整张人脸的特征和部件特征都使用PCA算法降维到120维,以列向量的形式存储;
步骤2-3,随机从测试帧中挑选n3帧图像,根据步骤2-2计算这些帧的整体HOG特征,然后与步骤1-3构造的所有的分组整体字典D′进行稀疏表示分类,计算重建误差,选择重建误差小于阈值t的所有分类,将步骤1-4得到的四个部件字典sDic1,sDic2,sDic3,sDic4中这些分类对应的部分直接拼接成为四个新的部件字典,记为sDic5,sDic6,sDic7,sDic8;
步骤2-4,让测试视频的每一帧的4个部件与对应的部件字典sDic5,sDic6,sDic7,sDic8进行稀疏表示分类,统计每一帧的分类结果;
步骤2-5,设定连续的三帧图像必属于同一个人,平均三帧图像的重建误差,将重建误差最小的类作为这三帧最后的分类结果,然后统计所有帧的分类结果,将得票最多的分类结果作为整段视频的分类结果。
3.如权利要求2所述的方法,其特征在于,步骤2-3中所述的稀疏表示分类具体包括如下步骤:
步骤b1,将步骤1-4构造得到的任意一个分组的整体字典记为D′,任意一段测试视频记为Y,执行步骤2-1后,Y=[y1,y2,...,yN]表示视频Y被拆分为N帧,yn表示第n帧图像,n取值为1~N,每一帧进行步骤2-1和步骤2-2的预处理,随机从中挑选n3帧图像,与整体字典D′进行稀疏表示,设定随机挑选的任意一帧图像为y,y满足公式:
y=D′·W′+E′,
其中,W′为使用字典D′线性表示图像y时的系数,E′为残差项,约束W′使用D′表示y的系数尽量稀疏,则问题写为:
minW′||W′||1 s.t.||y-D′·W′||2≤ε,
其中ε是预先定义的较小的常量,表示重建图像与真实图像之间的误差应小于这个常量;
步骤b2,使用dual-ALM算法求出W′,用Wi′表示W′对应D′中第i个类别的系数值,然后计算每一帧图像对每一个类别的重建误差,图像y对第i个类别的重建误差Res′的计算公式为:
记r′为图像y对应所有类别里最小的重建误差,即:
步骤b3,在所有的分组中,对随机选择的n3帧图像执行步骤b1和步骤b2;
步骤b4,执行步骤1-4得到4个部件字典为sDic1,sDic2,sDic3,sDic4,在步骤b2中,若求得一个类的r′<0.85,则将对应的第i类图像在sDic1,sDic2,sDic3,sDic4中对应的列向量取出,重新拼接成4个新的部件字典sDic5,sDic6,sDic7,sDic8。
4.如权利要求3所述的方法,其特征在于,步骤2-4中所述的稀疏表示分类具体包括:
步骤c1,设定样本库的视频集合记为X′,按照步骤1-2~步骤1-4的方法处理视频集合X′,得到4个部件字典分别记为D1,D2,D3,D4;
设定任意一段测试视频记为Y,执行步骤2-1后,Y=[y1,y2,...,yN]表示视频Y被拆分为N帧,每一帧用步骤2-1和步骤2-2的方法预处理,设其中任意一帧为y,它按照步骤1-4中的分部件方法,分为4个部件y1、y2、y3和y4,记为y=[y1;y2;y3;y4];
每一帧图像的每一个部件满足公式:
ys=Ds·Ws+Es,
其中,s=1,2,3,4表示一共4个部件,ys表示第s个部件,Ds为第s个部件字典,Ws为使用部件字典Ds线性表示部件ys时的系数,Es为残差项,s=1,2,3,4时Es分别对应四个部件y1、y2、y3和y4的残差项,约束Ws使得用Ds表示ys的系数尽量稀疏,则问题写为:
其中ε是预先定义的较小的常量,表示重建图像与真实图像之间的误差应小于这个常量;
步骤c2,使用dual-ALM算法求解Ws,计算每个部件对于每一个分类的重建误差:
Ress表示第s个部件对于每一个分类的重建误差,结合4个部件,用f(y)表示视频中一帧测试图像y的分类结果:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910062329.3A CN109800719B (zh) | 2019-01-23 | 2019-01-23 | 基于分部件和压缩字典稀疏表示的低分辨率人脸识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910062329.3A CN109800719B (zh) | 2019-01-23 | 2019-01-23 | 基于分部件和压缩字典稀疏表示的低分辨率人脸识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109800719A CN109800719A (zh) | 2019-05-24 |
CN109800719B true CN109800719B (zh) | 2020-08-18 |
Family
ID=66560078
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910062329.3A Active CN109800719B (zh) | 2019-01-23 | 2019-01-23 | 基于分部件和压缩字典稀疏表示的低分辨率人脸识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109800719B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111931665B (zh) * | 2020-08-13 | 2023-02-21 | 重庆邮电大学 | 一种基于类内变化字典建模的欠采样人脸识别方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103942822A (zh) * | 2014-04-11 | 2014-07-23 | 浙江大学 | 一种基于单视频摄像机的面部特征点跟踪和人脸动画方法 |
CN104376312A (zh) * | 2014-12-08 | 2015-02-25 | 广西大学 | 基于词袋压缩感知特征提取的人脸识别方法 |
CN104951756A (zh) * | 2015-06-08 | 2015-09-30 | 浙江科技学院 | 一种基于压缩感知的人脸识别方法 |
CN104978569A (zh) * | 2015-07-21 | 2015-10-14 | 南京大学 | 一种基于稀疏表示的增量人脸识别方法 |
CN105844635A (zh) * | 2016-03-21 | 2016-08-10 | 北京工业大学 | 一种基于结构字典的稀疏表示深度图像重建算法 |
CN108417204A (zh) * | 2018-02-27 | 2018-08-17 | 四川云淞源科技有限公司 | 基于大数据的信息安全处理方法 |
-
2019
- 2019-01-23 CN CN201910062329.3A patent/CN109800719B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103942822A (zh) * | 2014-04-11 | 2014-07-23 | 浙江大学 | 一种基于单视频摄像机的面部特征点跟踪和人脸动画方法 |
CN104376312A (zh) * | 2014-12-08 | 2015-02-25 | 广西大学 | 基于词袋压缩感知特征提取的人脸识别方法 |
CN104951756A (zh) * | 2015-06-08 | 2015-09-30 | 浙江科技学院 | 一种基于压缩感知的人脸识别方法 |
CN104978569A (zh) * | 2015-07-21 | 2015-10-14 | 南京大学 | 一种基于稀疏表示的增量人脸识别方法 |
CN105844635A (zh) * | 2016-03-21 | 2016-08-10 | 北京工业大学 | 一种基于结构字典的稀疏表示深度图像重建算法 |
CN108417204A (zh) * | 2018-02-27 | 2018-08-17 | 四川云淞源科技有限公司 | 基于大数据的信息安全处理方法 |
Non-Patent Citations (1)
Title |
---|
Fast L1-Minimization Algorithms for Robust Face Recognition;Allen Y. Yang等;《IEEE Transactions on Image Processing》;20130513;第22卷(第8期);第3234-3246页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109800719A (zh) | 2019-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | Rankiqa: Learning from rankings for no-reference image quality assessment | |
CN110991281B (zh) | 一种动态人脸识别方法 | |
CN112418095B (zh) | 一种结合注意力机制的面部表情识别方法及系统 | |
CN105138973B (zh) | 人脸认证的方法和装置 | |
CN110059586B (zh) | 一种基于空洞残差注意力结构的虹膜定位分割系统 | |
CN111626245B (zh) | 一种基于视频关键帧的人体行为识别方法 | |
CN111738363B (zh) | 基于改进的3d cnn网络的阿尔茨海默病分类方法 | |
CN111783532B (zh) | 一种基于在线学习的跨年龄人脸识别方法 | |
CN111353395A (zh) | 一种基于长短期记忆网络的换脸视频检测方法 | |
CN102609681A (zh) | 基于字典学习模型的人脸识别方法 | |
CN111709313B (zh) | 基于局部和通道组合特征的行人重识别方法 | |
CN107169117B (zh) | 一种基于自动编码器和dtw的手绘图人体运动检索方法 | |
JPH1055444A (ja) | Dctをベースとするフィーチャー・ベクトルを使った顔の認識 | |
CN111695456A (zh) | 一种基于主动判别性跨域对齐的低分辨人脸识别方法 | |
Zou et al. | From grayscale to color: Quaternion linear regression for color face recognition | |
Liu et al. | Swiniqa: Learned swin distance for compressed image quality assessment | |
CN109376787A (zh) | 流形学习网络及基于其的计算机视觉图像集分类方法 | |
CN114693607A (zh) | 基于多域块特征标志点配准的篡改视频检测方法及系统 | |
CN115393788A (zh) | 一种基于增强全局信息注意力的多尺度监控行人重识别方法 | |
CN107133579A (zh) | 基于CSGF(2D)2PCANet卷积网络的人脸识别方法 | |
CN109800719B (zh) | 基于分部件和压缩字典稀疏表示的低分辨率人脸识别方法 | |
CN114943862B (zh) | 一种基于结构性解析字典学习的两阶段图像分类方法 | |
CN116597503A (zh) | 一种基于时空特征的课堂行为检测方法 | |
CN109829377A (zh) | 一种基于深度余弦度量学习的行人重识别方法 | |
CN110942463A (zh) | 一种基于生成对抗网络的视频目标分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |