CN110188718A - 一种基于关键帧和联合稀疏表示的无约束人脸识别方法 - Google Patents
一种基于关键帧和联合稀疏表示的无约束人脸识别方法 Download PDFInfo
- Publication number
- CN110188718A CN110188718A CN201910480359.6A CN201910480359A CN110188718A CN 110188718 A CN110188718 A CN 110188718A CN 201910480359 A CN201910480359 A CN 201910480359A CN 110188718 A CN110188718 A CN 110188718A
- Authority
- CN
- China
- Prior art keywords
- face
- indicate
- frame
- sequence
- following formula
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 239000011159 matrix material Substances 0.000 claims abstract description 24
- 238000012360 testing method Methods 0.000 claims abstract description 20
- 238000001514 detection method Methods 0.000 claims abstract description 9
- 238000012549 training Methods 0.000 claims abstract description 8
- 238000005457 optimization Methods 0.000 claims abstract description 7
- 238000012544 monitoring process Methods 0.000 claims description 9
- 230000003044 adaptive effect Effects 0.000 claims description 8
- 230000001815 facial effect Effects 0.000 claims description 6
- 230000002093 peripheral effect Effects 0.000 claims 1
- 238000013480 data collection Methods 0.000 abstract description 2
- 230000004927 fusion Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000003909 pattern recognition Methods 0.000 description 3
- 238000013441 quality evaluation Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000013210 evaluation model Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/513—Sparse representations
Abstract
本发明公开了一种基于关键帧和联合稀疏表示的无约束人脸识别方法,包括如下步骤:首先对输入的监控视频目标人脸进行检测和跟踪,从而获取完整人脸序列信息;然后利用人脸关键点的位置估计序列中每个人脸的旋转角度,并对旋转角度进行聚类得到基于人脸姿态的关键帧;最后,通过公开的人脸数据集构建用于训练的字典集,同时采用迭代优化的方式求解最优联合稀疏系数矩阵,并根据测试集和最优联合稀疏系数矩阵计算字典集中每个类别对应的重构误差,取最小重构误差的类别作为人脸身份。
Description
技术领域
本发明属于计算机视觉技术领域,尤其涉及一种基于关键帧和联合稀疏表示的无约 束人脸识别方法。
背景技术
近年来,公共安全组织越来越多的采用人脸识别技术来检测感兴趣的个体,以增强 公共安全性和情景感知能力。在用于视频监控的决策系统中,用户可以依靠人脸识别来检测和识别通过监视摄像机网络捕获的目标个体,可以解决社会上的许多安全问题。和 静态图像人脸识别的场景相比,监控环境捕获的人脸序列图像是不受约束的,通常受到 光照和姿态变化等因素的影响,同时人脸序列中的大量冗余信息也对识别的精度和效率 产生影响。如何从视频人脸序列中在减少冗余信息的情况下获取最丰富的人脸信息是监 控环境下无约束视频人脸识别的挑战。
事实上,学术界已提出一些无约束视频人脸识别方法,其中基于分类器融合的无约 束视频人脸识别方法是直接用分类器对人脸序列中的每帧进行分类,然后将每帧的分类 结果在得分层次上融合得到最终的决策结果,如文献1:M.Ali Akber Dewan,E.Granger, R.Sabourin Adaptive appearance model tracking for still-to-videoface recognition[J]. Pattern Recognition,2016,49:129-151.通过在识别过程中增加自适应跟踪模块,可以使用 分类器融合的策略同时对视频中的多个目标进行识别。文献2:S.Bashbaghi,E.Granger, R.Sabourin,et al.Dynamic ensembles of exemplar-SVMsfor still-to-video face recognition[J].Pattern Recognition,2017,69:61-81.则是首先对每帧人脸图像进行分块处 理得到人脸各个区域块,然后对这些块进行分类,最后进行决策融合。这些虽然在一定 程度增强了无约束环境人脸识别的鲁棒性。然而基于分类器融合的方法需要对人脸序列 的每帧进行处理,过多视频冗余信息会给识别带来干扰,同时也会增加时间和网络负担, 难以满足监控场景使用的需求。
为了解决无约束视频中冗余信息对识别精度和效率的影响,一些研究者提出了基于 视频帧质量评估的无约束视频人脸识别方法。即通过从人脸序列中获取关键的人脸视频 帧用于视频人脸识别中。如文献3:T.I.Dhamecha,G.Goswami,R.Singh,et al.On FrameSelection for Video Face Recognition.In Avances in Face Detection and FacialImage Analysis,Springer,2016,pp.279-297.提出一种基于信息熵的人脸评价模型,通过计算人脸 帧的信息熵来选择出人脸序列的关键帧。文献4:Q.Xuan,C.Liu,andS.Schuckers,“CNN Based key Frame Extraction for Face in Video Recognition”IEEE International Conference on Identity,Security,and Behavior Analysis,pp.1–8,2018做法的关键思想是设计了一种 人脸质量评价网络,通过大量监控环境下捕捉的人脸静态图像数据集对人脸质量评价网 络进行训练,在使用过程根据评价网络对人脸帧打分来选择关键帧。这些方法将通过关 键帧选择方式将视频人脸识别问题转化为静态人脸识别问题,虽然可以提高监控环境人 脸识别的时间效率,但是仍然没有利用人脸视频帧内容之间的相关性,对于受姿态和光 照变化比较明显的无约束人脸来说,其识别效果不是很理想。如何在减少视频冗余信息 的基础上充分利用帧间的互补信息是需要解决的问题。
发明内容
发明目的:本发明所要解决的技术问题是针对现有技术的不足,提出一种基于关键 帧选择和联合稀疏表示的无约束人脸识别方法,用于识别监控环境中人脸身份。
为了解决上述问题,本发明公开了一种基于关键帧和联合稀疏表示的无约束人脸识 别方法,包括以下步骤:
步骤1,输入监控视频,通过检测与跟踪的方式获取人脸序列;
步骤2,通过人脸姿态聚类来获取人脸序列的关键帧;
步骤3,通过联合稀疏表示对关键帧进行分类,得到最终识别结果。
本发明中,步骤1包括以下步骤:
步骤1-1,使用Viola Jones人脸检测器来检测输入视频的人脸,得到人脸包围框(参 考文献:P.Viola,M.J.Jones.Robust real-time face detection.Internationaljournal of computer vision(IJCV),57(2):137–154,2004);
步骤1-2,进行人脸跟踪:使用SORT算法对首次检测到的人脸进行运动估计得到运动信息x,并通过用卡尔曼滤波器来估算输入视频后续帧的运动信息(参考文献:A.Bewley,Z.Ge,L.Ott,F.Ramos,and B.Upcroft.Simple online and realtimetracking.IEEE International Conference on Image Processing(ICIP),pp.3464-3468,2016);
步骤1-3,将卡尔曼滤波器估算的结果和实际人脸检测器检测结果通过联合交叉距 离(IOU,Intersection Over Union)来判断跟踪是否结束,如果IOU值大于阈值T0时,则说明人脸目标已经消失,将结束步骤1-2的人脸跟踪,否则继续跟踪,其中T0∈(0.8,1.2);一般取值为T0=1;
步骤1-4,通过跟踪的结果获取最终的目标人脸序列图像P。
步骤1-2中,使用如下公式表示x:
x=[u,v,s,r],
其中,x表示目标人脸的运动信息,主要包括人脸关键点的位置及人脸的区域面积, 如,u和v分别表示跟踪目标中心像素的水平坐标和垂直坐标,s和r分别表示人脸包 围框的面积和长宽比。
步骤1-3中,使用如下公式表示联合交叉距离IOU:
其中,A表示步骤1-1实际检测的人脸包围框的区域,B表示卡尔曼滤波器预测 的人脸包围框的区域。
步骤1-4中,使用如下公式表示目标人脸序列图像P:
P={p1,p2,…pn},
其中,pi表示第i帧人脸图像,n表示输入视频帧的数量,i取值为1~n。
本发明中,步骤2包括以下步骤:
步骤2-1,使用人脸关键点检测的方法估计目标人脸序列图像中每帧的旋转角度,ri表示目标人脸序列图像中第i帧的旋转角度,从而得到人脸姿态序列矩阵R(参考 文献:Y.Sun,X.Wang,X.Tang.Deep Convolutional Network Cascade for Facial PointDetection.Computer Vision and Pattern Recognition.IEEE,2013:3476-3483);
步骤2-2,采用自适应稠密聚类算法对人脸姿态序列矩阵R进行聚类,得到K个不同人脸姿态类别(参考文献:A.Rodriguez,A.Laio.Clustering by fast search and findof density peaks.Science,2014,344(6191):1492-1496.);
步骤2-3,选择每个类别的聚类中心作为人脸的关键姿态,将关键姿态对应人脸帧作为最终的人脸关键帧并用矩阵F表示。
步骤2-1中,使用如下公式表示矩阵人脸姿态序列R:
R={r1,r2,…rn},
其中,rn表示目标人脸序列图像中第n帧的旋转角度。
步骤2-2中,使用如下公式表示自适应稠密聚类算法对人脸姿态序列矩阵R进行聚类的过程:
其中,分别表示k点的局部密度和n点的局部密度,表示k点和n点 之间的距离,表示rk和任何其它密度较高点之间的最小距离,k取值为1~n,dc表 示rk和任何其它密度较高点之间的最大距离,为分段函数,如果小于dc, 否则为0。
步骤2-3中,使用如下公式表示人脸关键帧矩阵:
F={A1,A2,…AK},
其中,AK∈P,K表示人脸关键帧的个数,AK表示第K个人脸关键帧。
步骤3包括以下步骤:
步骤3-1,构建稀疏表示的字典集B和测试集Y;
步骤3-2,使用迭代优化的方式求出联合稀疏系数矩阵X;
步骤3-3,利用联合稀疏系数和人脸关键帧测试集计算每个字典集中每个类别对应 的重构误差S。
步骤3-4,选择最小的重构误差,并与预设的阈值T比较,如果小于T时输出对应 人脸类别ID,如果大于T则输出陌生人,这里的陌生人指的是字典集中没有的类别, T∈(0.15,0.3),一般取值为T=0.2。
步骤3-1中,使用如下公式表示训练字典和测试集:
B=|b1,b2,…bl|,
Y=|F1,F2,…FN|,
其中,bi表示第i类的训练图像,Fi表示第i个人脸测试图像,l和N分别表示训练 图像的类别数和测试图像的类别数。
步骤3-2中,使用如下公式表示联合稀疏系数矩阵:
其中,表示迭代优化过程X的最优结果,μ为常量,Xi表示X矩阵的第i行,n 为总的行数。
步骤3-3中,使用如下公式表示重构误差:
其中,Si表示人脸测试图像与字典集中第i个类别的重构误差,表示第i个类别对应的最优联合稀疏系数。
有益效果:本发明通过将视频关键帧选择和联合稀疏表示同时应用在无约束人脸识 别中,克服了无约束人脸识别中过多的冗余信息对识别干扰的影响,同时也减少计算的负担。另外,通过联合稀疏表示可以在内容上将不同人脸帧结合起来,克服了已有方法 只在每帧的分类决策上进行融合的缺陷,从而可以提高无约束人脸识别的鲁棒性,进而 使得本发明有着较高得应用价值。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述或其 他方面的优点将会变得更加清楚。
图1是本发明的处理流程示意图。
图2a是第一个目标个体关键帧选择结果图。
图2b是第二个目标个体关键帧选择结果图。
图2c是第三个目标个体关键帧选择结果图。
图2d是第四个目标个体关键帧选择结果图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
如图1所示,本发明公开了一种基于关键帧和联合稀疏表示的无约束人脸识别方法, 具体包括以下步骤:
步骤1,输入监控视频,通过检测与跟踪的方式获取人脸序列。
步骤1.1,使用文献5:P.Viola,M.J.Jones.Robust real-time face detection.International journal of computer vision(IJCV),57(2):137–154,2004,中的人脸检测器来检 测监控视频中人脸。
步骤1.2,使用文献6:A.Bewley,Z.Ge,L.Ott,F.Ramos,and B.Upcroft.Simpleonline and realtime tracking.IEEE International Conference on ImageProcessing(ICIP),pp. 3464-3468,2016,SORT算法对首次检测到的人脸进行运动估计得到运动信息x,并通 过用卡尔曼滤波器来估算输入视频后续帧的运动信息,实现使用如下公式表示x:
x=[u,v,s,r],
其中,x表示目标人脸的运动信息,主要包括人脸关键点的位置及人脸的区域面积, 如,u和v分别表示跟踪目标中心像素的水平坐标和垂直坐标,s和r分别表示人脸包 围框的面积和长宽比。
步骤1.3,将卡尔曼滤波器预测的结果和实际人脸检测器检测结果通过联合交叉距 离(IOU,Intersection Over Union)来判断跟踪是否结束,如果IOU值大于阈值T0时,则说明目标人脸已经消失将结束人脸跟踪。其中T0=1,实现使用如下公式表示IOU:
其中,A表示实际检测包围框的区域,B表示卡尔曼滤波器预测包围框的区域。
步骤2,通过人脸姿态聚类来获取序列的关键帧。
步骤2.1,使用文献7:Y.Sun,X.Wang,X.Tang.Deep Convolutional NetworkCascade for Facial Point Detection.Computer Vision and PatternRecognition.IEEE,2013:3476-3483. 中的方法,使用人脸关键点检测的方法估计人脸序列中每帧的旋转角度ri,从而得到人 脸姿态序列矩阵R,实现使用如下公式表示R:
R={r1,r2,…rn},
其中,rn表示人脸序列中第n帧的旋转角度。
步骤2.2,使用文献8:A.Rodriguez,A.Laio.Clustering by fast search andfind of density peaks.Science,2014,344(6191):1492-1496.中的自适应稠密聚类算法对人脸姿态 序列矩阵R进行聚类,得到K个不同人脸姿态类别,实现使用如下公式计算姿态自适 应稠密聚类的过程:
其中,分别表示k点的局部密度和n点的局部密度,表示k点和n点 之间的距离,表示rk和任何其它密度较高点之间的最小距离,k取值为1~n,dc表 示rk和任何其它密度较高点之间的最大距离,为分段函数,如果小于dc, 否则为0。
步骤2.3,选择每个类别的聚类中心作为人脸的关键姿态,最终得到人脸关键帧矩阵F,如图2a、图2b、图2c及图2d分别表示四个不同目标个体的人脸关键帧,实现 使用如下公式表示F:
F={A1,A2,…AK},
其中,AK∈P,K表示关键帧的个数。
步骤3,通过联合稀疏表示对人脸关键帧进行分类,得到最终识别结果。
步骤3.1,采用文献9:H.Zhiwu,S.Shiguang,W.Ruiping,Z.Haihong,L.Shihong,A.Kuerban,C.Xilin,“A Benchmark and Comparative Study of Video-based FaceRecognition on COX Face Database,”IEEE Transactions on Image Processing,vol.24,no.12,pp. 5967-5981,Dec.2015.提供的COX face数据集作为训练的字典集,实现使用如下公式表 示训练字典B和测试集Y:
B=|b1,b2,…bl|,
Y=|F1,F2,…FN|,
其中,bi表示第i类的训练图像,Fi表示第i个人脸测试图像,l和N分别表示训练 图像和测试图像的类别数。
步骤3.2,使用文献10:L.Liu,L.Zhang,H.Liu,et al.Toward Large-PopulationFace Identification in Unconstrained Videos[J].IEEE Transactions on Circuitsand Systems for Video Technology,2014,24(11):1874-1884.的迭代优化的方法求出联合稀疏系数矩阵X, 实现使用如下公式表示最优联合稀疏系数矩阵
其中,表示迭代优化过程X的最优结果,μ为常量,Xi表示X矩阵的第i行,n 为总的行数。
步骤3.3,利用联合稀疏系数和人脸关键帧测试集计算每个字典集中每个类别对应 的重构误差S,实现使用如下公式计算重构误差:
其中,Si表示人脸测试图像与字典集中第i个类别的重构误差,第i个类别对应的最优联合稀疏系数。
步骤3.4,选择最小的重构误差,并与预设的阈值T比较,如果小于T时输出对应 人脸类别ID,如果大于T则输出陌生人,T=0.2。
表1表示在不同类别和不同分辨率下发明结果的识别率,表2表示在识别之前对视频的压缩率,从实验结果上可以看出本发明结果在减少视频冗余的基础上取得了不错的识别率,进一步说了本项发明的优点。
表1
人脸类别数\数据集 | 最小人脸辨别率32×48 | 最小人脸分辨64×96 |
200 | 71.35 | 79.12 |
400 | 62.22 | 73.54 |
表2
视频平均总帧数 | 平均关键帧数 | 压缩率 |
82 | 5 | 5/82 |
本发明提供了一种基于关键帧和联合稀疏表示的无约束人脸识别方法,具体实现该 技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和 润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均 可用现有技术加以实现。
Claims (10)
1.一种基于关键帧和联合稀疏表示的无约束人脸识别方法,其特征在于,包括以下步骤:
步骤1,输入监控视频,通过检测与跟踪的方式获取人脸序列;
步骤2,通过人脸姿态聚类来获取人脸序列的关键帧;
步骤3,通过联合稀疏表示对关键帧进行分类,得到最终识别结果。
2.根据权利要求1中的方法,其特征在于,步骤1包括以下步骤:
步骤1-1,使用Viola Jones人脸检测器来检测输入视频的人脸,得到人脸包围框;
步骤1-2,进行人脸跟踪:使用SORT算法对首次检测到的人脸进行运动估计得到运动信息x,并通过用卡尔曼滤波器来估算输入视频后续帧的运动信息;
步骤1-3,将卡尔曼滤波器估算的结果和实际人脸检测器检测结果通过联合交叉距离来判断跟踪是否结束,如果联合交叉距离大于阈值T0时,则说明人脸目标已经消失,将结束步骤1-2的人脸跟踪,否则继续跟踪,其中T0∈(0.8,1.2);
步骤1-4,通过跟踪的结果获取最终的目标人脸序列图像P。
3.根据权利要求2中的方法,其特征在于,步骤1-2中,使用如下公式表示x:
x=[u,v,s,r],
其中,x表示人脸目标的运动信息,u和v分别表示跟踪目标中心像素的水平坐标和垂直坐标,s和r分别表示人脸包围框的面积和长宽比。
4.根据权利要求3中的方法,其特征在于,步骤1-3中,使用如下公式表示联合交叉距离IOU:
其中,A表示步骤1-1实际检测的人脸包围框的区域,B表示卡尔曼滤波器预测的人脸包围框的区域。
5.根据权利要求4中的方法,其特征在于,步骤1-4中,使用如下公式表示目标人脸序列图像P:
P={p1,p2,…pn},
其中,pi表示第i帧人脸图像,n表示输入视频帧的数量,i取值为1~n。
6.根据权利要求5中的方法,其特征在于,步骤2包括以下步骤:
步骤2-1,使用人脸关键点检测的方法估计目标人脸序列图像中每帧的旋转角度,ri表示目标人脸序列图像中第i帧的旋转角度,从而得到人脸姿态序列矩阵R;
步骤2-2,采用自适应稠密聚类算法对人脸姿态序列矩阵R进行聚类,得到K个不同人脸姿态类别;
步骤2-3,选择每个类别的聚类中心作为人脸的关键姿态,将关键姿态对应人脸帧作为最终的人脸关键帧并用矩阵F表示。
7.根据权利要求6中的方法,其特征在于,步骤2-1中,使用如下公式表示人脸姿态序列矩阵R:
R={r1,r2,…rn},
其中,rn表示目标人脸序列图像中第n帧的旋转角度。
8.根据权利要求7中的方法,其特征在于,步骤2-2中,使用如下公式表示自适应稠密聚类算法对人脸姿态序列矩阵R进行聚类的过程:
其中,分别表示k点的局部密度和n点的局部密度,表示k点和n点之间的距离,表示rk和任何其它密度较高点之间的最小距离,k取值为1~n,dc表示rk和任何其它密度较高点之间的最大距离,为分段函数,如果小于dc,否则为0。
9.根据权利要求8中的方法,其特征在于,步骤2-3中,使用如下公式表示人脸关键帧矩阵:
F={A1,A2,…AK},
其中,AK∈P,K表示人脸关键帧的个数,AK表示第K个人脸关键帧。
10.根据权利要求9中的方法,其特征在于,步骤3包括以下步骤:
步骤3-1,构建稀疏表示的字典集B和测试集Y;
步骤3-2,使用迭代优化的方式求出联合稀疏系数矩阵X;
步骤3-3,计算每个字典集中每个类别对应的重构误差S;
步骤3-4,选择最小的重构误差,并与预设的阈值T比较,如果小于阈值T时输出对应人脸类别ID,如果大于等于T则输出陌生人,T∈(0.15,0.3);
步骤3-1中,使用如下公式表示字典集B和测试集Y:
B=|b1,b2,…bl|,
Y=|F1,F2,…FN|,
其中,bi表示第i类的训练图像,Fi表示第i个人脸测试图像,l和N分别表示训练图像的类别数和测试图像的类别数;
步骤3-2中,使用如下公式表示联合稀疏系数矩阵X:
其中,表示迭代优化过程X的最优结果,μ为常量,Xi表示矩阵X的第i行,n为总的行数;
步骤3-3中,使用如下公式表示重构误差:
其中,Si表示人脸测试图像与字典集中第i个类别的重构误差,表示第i个类别对应的最优联合稀疏系数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910480359.6A CN110188718B (zh) | 2019-06-04 | 2019-06-04 | 一种基于关键帧和联合稀疏表示的无约束人脸识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910480359.6A CN110188718B (zh) | 2019-06-04 | 2019-06-04 | 一种基于关键帧和联合稀疏表示的无约束人脸识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110188718A true CN110188718A (zh) | 2019-08-30 |
CN110188718B CN110188718B (zh) | 2021-04-02 |
Family
ID=67720148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910480359.6A Active CN110188718B (zh) | 2019-06-04 | 2019-06-04 | 一种基于关键帧和联合稀疏表示的无约束人脸识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110188718B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111046733A (zh) * | 2019-11-12 | 2020-04-21 | 宁波大学 | 一种基于稀疏和深度的3d人体姿态估计方法 |
CN111274872A (zh) * | 2020-01-08 | 2020-06-12 | 哈尔滨融智爱科智能科技有限公司 | 基于模板匹配的视频监控动态不规则多监管区域判别方法 |
CN111343356A (zh) * | 2020-03-11 | 2020-06-26 | Oppo广东移动通信有限公司 | 图像处理方法、图像处理装置、存储介质与电子设备 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102737234A (zh) * | 2012-06-21 | 2012-10-17 | 北京工业大学 | 基于Gabor滤波和联合稀疏模型的人脸识别方法 |
CN103295242A (zh) * | 2013-06-18 | 2013-09-11 | 南京信息工程大学 | 一种多特征联合稀疏表示的目标跟踪方法 |
CN103854015A (zh) * | 2014-03-18 | 2014-06-11 | 西北工业大学 | 基于联合稀疏描述的多姿态三维人脸识别方法 |
JP2016085579A (ja) * | 2014-10-24 | 2016-05-19 | 大学共同利用機関法人情報・システム研究機構 | 対話装置のための画像処理装置及び方法、並びに対話装置 |
CN105844223A (zh) * | 2016-03-18 | 2016-08-10 | 常州大学 | 一种类别特色字典和共享字典学习的人脸表示算法 |
CN106570464A (zh) * | 2016-10-31 | 2017-04-19 | 华南理工大学 | 一种快速处理人脸遮挡的人脸识别方法及装置 |
CN106991355A (zh) * | 2015-09-10 | 2017-07-28 | 天津中科智能识别产业技术研究院有限公司 | 基于拓扑保持的解析型字典学习模型的人脸识别方法 |
CN107392134A (zh) * | 2017-07-14 | 2017-11-24 | 广州智慧城市发展研究院 | 一种基于联合分块的人脸识别方法及系统 |
CN108681725A (zh) * | 2018-05-31 | 2018-10-19 | 西安理工大学 | 一种加权稀疏表示人脸识别方法 |
-
2019
- 2019-06-04 CN CN201910480359.6A patent/CN110188718B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102737234A (zh) * | 2012-06-21 | 2012-10-17 | 北京工业大学 | 基于Gabor滤波和联合稀疏模型的人脸识别方法 |
CN103295242A (zh) * | 2013-06-18 | 2013-09-11 | 南京信息工程大学 | 一种多特征联合稀疏表示的目标跟踪方法 |
CN103854015A (zh) * | 2014-03-18 | 2014-06-11 | 西北工业大学 | 基于联合稀疏描述的多姿态三维人脸识别方法 |
JP2016085579A (ja) * | 2014-10-24 | 2016-05-19 | 大学共同利用機関法人情報・システム研究機構 | 対話装置のための画像処理装置及び方法、並びに対話装置 |
CN106991355A (zh) * | 2015-09-10 | 2017-07-28 | 天津中科智能识别产业技术研究院有限公司 | 基于拓扑保持的解析型字典学习模型的人脸识别方法 |
CN105844223A (zh) * | 2016-03-18 | 2016-08-10 | 常州大学 | 一种类别特色字典和共享字典学习的人脸表示算法 |
CN106570464A (zh) * | 2016-10-31 | 2017-04-19 | 华南理工大学 | 一种快速处理人脸遮挡的人脸识别方法及装置 |
CN107392134A (zh) * | 2017-07-14 | 2017-11-24 | 广州智慧城市发展研究院 | 一种基于联合分块的人脸识别方法及系统 |
CN108681725A (zh) * | 2018-05-31 | 2018-10-19 | 西安理工大学 | 一种加权稀疏表示人脸识别方法 |
Non-Patent Citations (2)
Title |
---|
REDDY, N.G.M ET AL.: "Web Camera Primarily based Face Recognition Victimization VIOLA JONE"S Rule with Arduino Uno", 《WEB OF SCIENCE》 * |
周成举: "基于约束稀疏表达的视频人脸聚类", 《中国优秀硕士学位论文全文数据库》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111046733A (zh) * | 2019-11-12 | 2020-04-21 | 宁波大学 | 一种基于稀疏和深度的3d人体姿态估计方法 |
CN111046733B (zh) * | 2019-11-12 | 2023-04-18 | 宁波大学 | 一种基于稀疏和深度的3d人体姿态估计方法 |
CN111274872A (zh) * | 2020-01-08 | 2020-06-12 | 哈尔滨融智爱科智能科技有限公司 | 基于模板匹配的视频监控动态不规则多监管区域判别方法 |
CN111274872B (zh) * | 2020-01-08 | 2023-08-22 | 哈尔滨融智爱科智能科技有限公司 | 基于模板匹配的视频监控动态不规则多监管区域判别方法 |
CN111343356A (zh) * | 2020-03-11 | 2020-06-26 | Oppo广东移动通信有限公司 | 图像处理方法、图像处理装置、存储介质与电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110188718B (zh) | 2021-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102306290B (zh) | 一种基于视频的人脸跟踪识别方法 | |
CN109522853B (zh) | 面向监控视频的人脸检测与搜索方法 | |
CN108491784B (zh) | 面向大型直播场景的单人特写实时识别与自动截图方法 | |
CN103824070B (zh) | 一种基于计算机视觉的快速行人检测方法 | |
CN105893946B (zh) | 一种正面人脸图像的检测方法 | |
Avgerinakis et al. | Recognition of activities of daily living for smart home environments | |
Ji et al. | Learning contrastive feature distribution model for interaction recognition | |
CN110188718A (zh) | 一种基于关键帧和联合稀疏表示的无约束人脸识别方法 | |
WO2013091370A1 (zh) | 基于三维深度图像信息的并行统计学习人体部位检测方法 | |
CN109544523B (zh) | 基于多属性人脸比对的人脸图像质量评价方法及装置 | |
CN103310200B (zh) | 人脸识别方法 | |
CN105701466A (zh) | 快速的全角度人脸跟踪方法 | |
WO2013075295A1 (zh) | 低分辨率视频的服装识别方法及系统 | |
CN115527269B (zh) | 一种人体姿态图像智能识别方法及系统 | |
CN103198330A (zh) | 基于深度视频流的实时人脸姿态估计方法 | |
CN113011399B (zh) | 基于生成协同判别网络的视频异常事件检测方法及系统 | |
Xiao et al. | Trajectories-based motion neighborhood feature for human action recognition | |
Krichen et al. | Specific texture analysis for iris recognition | |
Bo et al. | Detection of a hand-raising gesture by locating the arm | |
Chen et al. | Branch-structured detector for fast face detection using asymmetric LBP features | |
Guangjing et al. | Research on static image recognition of sports based on machine learning | |
CN110503061B (zh) | 一种融合多特征的多因素视频遮挡区域检测方法及系统 | |
Yan et al. | Foreground Extraction and Motion Recognition Technology for Intelligent Video Surveillance | |
Wang et al. | Research on the discrimination of pornographic and bikini images | |
Peixoto et al. | Real-time gesture recognition system based on contour signatures |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |