CN111860165A - 一种基于视频流的动态人脸识别方法和装置 - Google Patents
一种基于视频流的动态人脸识别方法和装置 Download PDFInfo
- Publication number
- CN111860165A CN111860165A CN202010559367.2A CN202010559367A CN111860165A CN 111860165 A CN111860165 A CN 111860165A CN 202010559367 A CN202010559367 A CN 202010559367A CN 111860165 A CN111860165 A CN 111860165A
- Authority
- CN
- China
- Prior art keywords
- face
- feature vector
- training
- sample
- feature vectors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 239000013598 vector Substances 0.000 claims abstract description 126
- 238000012549 training Methods 0.000 claims abstract description 90
- 230000002776 aggregation Effects 0.000 claims abstract description 26
- 238000004220 aggregation Methods 0.000 claims abstract description 26
- 238000013528 artificial neural network Methods 0.000 claims abstract description 16
- 230000004931 aggregating effect Effects 0.000 claims abstract description 9
- 238000012360 testing method Methods 0.000 claims description 31
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 11
- 238000007781 pre-processing Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 10
- 230000004927 fusion Effects 0.000 claims description 8
- 238000012937 correction Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000004140 cleaning Methods 0.000 claims description 3
- 238000009826 distribution Methods 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims description 2
- 238000012163 sequencing technique Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于视频流的动态人脸识别方法和装置。方法包括:对训练视频流进行样本采集,得到人脸图像训练样本;将人脸图像训练样本送入神经网络中进行训练,每个人脸图像训练样本训练得到一个多维特征向量,将所述多维特征向量进行归一化,并将属于同一个人的K个多维特征向量聚合为一个特征向量;利用聚合得到的特征向量,对未知视频流进行人脸识别。本发明方法识别精度更高,误识率更低,样本利用率更高,并可以改善假脸攻击问题。
Description
技术领域
本发明涉及人脸识别技术领域,具体涉及一种基于视频流的动态人脸识别方法和装置。
背景技术
人脸识别不仅是人工智能领域的研究热点,在公共安全领域,其研究也有着重要的现实意义。基于单帧图像的人脸识别技术通常包括人脸图像样本采集、样本图像预处理、分类器训练和样本识别等技术环节。人脸图像样本采集是人脸识别的基石,其意义不言而喻。人脸识别样本采集工作以往都是基于图像的方式,比如,不同人在不同姿态、光照、表情等差异下利用手机、普通摄像机等进行不同角度自拍,最后进行人脸样本图片清洗、整理工作。样本图像预处理包括人脸检测、人脸关键点检测、人脸对齐矫正等步骤。人脸检测就是将人脸识别样本中的人脸区域检测出来,用于人脸关键点检测,通过人脸关键点检测将不同姿态人脸样本进行对齐矫正。分类器训练是基于端到端的深度神经网络,将不同人的所有人脸样本分为不同的类别。样本识别就是对未知样本进行类别预测与验证。
目前基于单帧图像的人脸识别系统已经很普遍,但由于误识别较多因此识别精度受限,同时基于单帧图像的人脸识别也无法解决“真人图片攻击”、“视频回放”、“面具攻击”防伪问题。
发明内容
本发明的目的在于针对现有人脸识别方法识别精度低、误识多等问题,提供一种基于视频流的动态人脸识别方法,该方法具有更高的识别精度,更低的错误识别率,以及更高的样本利用率。本发明的目的还在于提供一种视频流的动态人脸识别装置。
为实现上述发明目的,本发明采用如下技术方案。
第一方面,提供一种基于视频流的动态人脸识别方法,包括:S1、对训练视频流进行样本采集,得到人脸图像训练样本;S2、将人脸图像训练样本送入神经网络中进行训练,每个人脸图像训练样本训练得到一个多维的特征向量,将所述多维特征向量进行归一化,并将属于同一个人的K个多维特征向量聚合为一个特征向量,通过将聚合得到的特征向量进行分类器训练得到分类模型,将不同人的所有人脸样本分为不同的类别;S3、利用聚合得到的特征向量,对未知视频流进行人脸识别。
一种可能的实现方式中,步骤S1还包括:对人脸图像训练样本进行分类清洗,使得属于同一个人的人脸图像训练样本被置于同一子集。
一种可能的实现方式中,步骤S2之前还包括:对人脸图像训练样本进行人脸检测、人脸关键点检测和人脸对齐矫正。
一种可能的实现方式中,所述将属于同一个人的K个多维特征向量聚合为一个特征向量,包括:通过对属于同一个人的K个多维特征向量按照不同权值分配进行线性组合,将K个特征向量聚合为一个特征向量。
一种可能的实现方式中,步骤S2具体包括:
针对每个人脸图像训练样本获得一个512维的特征向量Fi k,i=1,2,…,n,n为总人数,i表示其中第i个人,k=1,2,…,Ki,Ki为第i个人的人脸图像训练样本的总个数,k表示其中第k个人脸图像训练样本;
一种可能的实现方式中,所述对未知视频流进行人脸识别之前,还包括:对未知视频流进行样本采集,样本采集过程包括:从未知视频流包含的P帧图像中依次采集连续K帧图像,P>K,得到P-K+1个图像集合,每个图像集合包括同一人脸的K个人脸图像测试样本;对人脸图像测试样本进行预处理;将样本采集的所有ID的人脸数据集合输入神经网络中进行训练,每一个ID图像集合经过特征融合都会得到对应的一个特征向量。
一种可能的实现方式中,步骤S3具体包括:建立人脸注册数据库:通过将分别属于m个人的m个聚合得到的特征向量作为注册特征向量,建立人脸注册数据库;通过计算测试特征向量与注册特征向量的相似度,进行人脸识别。
一种可能的实现方式中,所述通过计算测试特征向量与注册特征向量的相似度,进行人脸识别,包括:
将P-K+1个测试特征向量分别与人脸注册数据库中的目标注册特征向量进行余弦相似度计算,获得对应的相似度集合,如果该相似度集合中的最大值大于阈值,则表示识别正确;
或者,
将P-K+1个测试特征向量分别与m个注册特征向量依次进行余弦相似度计算,对获得的所有相似度进行排序,如果所有相似度中的最大值是某个测试特征向量与目标注册特征向量计算的相似度,且该最大值大于阈值,则表示识别正确。
第二方面,提供一种基于视频流的动态人脸识别装置,包括:
样本采集模块,用于对训练视频流进行样本采集,得到人脸图像训练样本;
人脸识别特征融合训练模块,用于将人脸图像训练样本送入神经网络中进行训练,每个人脸图像训练样本训练得到一个多维特征向量,将所述多维特征向量进行归一化,并将属于同一个人的K个多维特征向量聚合为一个特征向量;
识别模块,用于利用聚合得到的特征向量,对未知视频流进行人脸识别。
第三方面,还提供一种计算机设备,包括处理器和存储器,存储器中存储有计算机可执行的程序,处理器通过执行存储器中存储的程序,执行如第一方面所述的基于视频流的动态人脸识别方法。
第四方面,还提供一种存储有程序的存储介质,该程序当被计算机设备执行时使得计算机设备执行如第一方面所述的基于视频流的动态人脸识别方法。
从以上技术方案可以看出,本发明实施例具有以下优点:
为了降低误识别率,提高人脸识别精度,并且改善假脸攻击问题,本发明提供了一种基于视频流的动态人脸识别方法。该方法在分类器训练步骤,增加了一个多特征聚合环节,将连续的单帧图像提取的人脸特征进行聚合,从而在样本识别阶段利用聚合得到的特征向量进行人脸识别。基于此,与现有的基于单帧图像的人脸识别方法相比,本发明方法识别精度更高,误识率更低,可以改善假脸攻击问题。并且,与基于单帧图像的人脸识别算法相比,本发明方法还减轻了人脸识别样本的整理难度,由于低质量的或大角度的人脸识别样本也是较为重要的样本,因此提高了人脸识别样本的利用率。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍。
图1是本发明实施例中一种基于视频流的动态人脸识别方法的流程示意图;
图2是本发明实施例中利用pytorch深度学习框架实现聚合层示意图;
图3是本发明实施例中一种基于视频流的动态人脸识别装置的结构示意图;
图4是本发明实施例中一种计算机设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”等是用于区别不同的对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
下面通过具体实施例,进行详细的说明。
请参考图1,本发明实施例,提供一种基于视频流的动态人脸识别方法。本发明的方法可基于由Linux系统和pytorch深度学习框架构成的平台来实现。与基于单帧图像的人脸识别技术类似,本发明方法同样可包括样本采集、预处理、分类器训练和样本识别等步骤。本发明实施例方法主要可包括:
S1、样本采集步骤:本步骤可利用摄像设备拍摄或者通过网络或其它方式获取作为训练样本的视频流(训练视频流),通过对训练视频流进行样本采集,即,从训练视频流中采集单帧图像,获取大量的人脸图像训练样本。且可选的,本步骤还可以包括:将数据(即人脸图像训练样本)进行分类清洗,最终使得同一个人的人脸图像训练样本被置于同一子集,所述同一子集例如是同一文件夹,即每个文件夹属于同一个类别。
可选的,样本采集步骤之后还包括预处理步骤:本步骤对上一步骤采集整理完毕的人脸图像训练样本进行规范化预处理,包括:人脸检测、人脸关键点检测以及人脸对齐矫正。可选的,预处理步骤还可包括人脸质量评估子步骤,用于过滤掉低质量的人脸图像训练样本,以减少误识现象,相对提高识别精度。
S2、分类器训练步骤:本步骤将预处理后的人脸图像训练样本送入神经网络,例如普通的卷积神经网络(CNN)中进行训练,经过训练后每个人的每个人脸图像训练样本可获得一个多维特征向量,例如512维的特征向量,经过L2范数对多维特征向量进行归一化,再通过聚合层的聚合模块(Aggregation Module),将同一个人的K个多维特征向量聚合为一个特征向量,K为正整数。
可选的,聚合模块可以对K个多维特征向量按照不同权值分配进行线性组合,最终将K个多维特征向量聚合为一个特征向量,聚合后仍然得到一个512维的特征向量,其中,权值因子可通过神经网络分类器训练得到。
如上,本发明方法在普通人脸识别分类步骤增加一个多特征聚合环节,利用聚合模块将连续的单帧图像(单个人脸图像训练样本)提取的多维特征向量聚合一个特征向量。即,通过将相同人的不同姿态特征按照某种方式进行聚合再送入分类器训练,将不同人的所有人脸样本分为不同的类别。
S3、人脸识别步骤(即,样本识别步骤):本步骤利用上一步骤聚合得到的特征向量,对未知视频流进行人脸识别。
识别之前,类似于对训练视频流的处理流程,可对未知视频流进行如上所述的样本采集、预处理和分类器训练步骤。经样本采集步骤得到人脸图像测试样本,经分类器训练步骤对预处理后的人脸图像测试样本进行训练,得到描述待识别的人脸的多维特征向量,并且,同样的,对待识别的每个人的K个多维特征向量进行聚合得到一个聚合后的特征向量,本文称为测试特征向量。
接下来,识别过程可具体包括:首先,建立人脸注册数据库,通过将分别属于m个人的m个聚合得到的特征向量作为注册特征向量,建立人脸注册数据库,m为正整数;然后,通过计算测试特征向量与注册特征向量的相似度,进行人脸识别。计算相似度进行人脸识别的方式可以有两种,即,按照1:1与1:m两种。1:1的方式是,将任一测试特征向量与人脸注册数据库中的目标注册特征向量进行相似度计算。1:m的方式是,将任一测试特征向量与人脸注册数据库中的全部注册特征向量进行相似度计算。
下面,通过一个具体的应用场景实施例,对本发明方法做进一步说明。
本实施例中,假设人脸识别训练任务的训练视频流有n段视频序列,用(Si,yi)i n =1表示,n为正整数。其中,Si表示第i个人脸视频序列,yi为真实标签;i表示第i个人,共有n个人。k表示第k帧图像,xi k为视频中的第k帧图像,共有Ki帧图像。其中,每帧图像即为一个人脸图像训练样本。
在分类器训练步骤中,经过普通CNN网络训练后,假设每个人的每个人脸图像训练样本获得一个512维的特征向量Fi k,经过L2范数对特征向量Fi k进行归一化,再通过聚合模块将归一化后的、同一个人的K个特征向量Fi k聚合为一个特征向量。聚合得到的特征向量可表示为:
其中,ai k模块为一个视频序列的K个特征向量的线性权值因子。
进一步的,线性权值因子ai k可通过下列公式获得,
其中,ei k是每个特征向量与核滤波器q点积所产生的权重因子,可以表示为:
其中,q是一个512*512的矩阵,可通过深度神经网络学习所得到。
如图2所示,是利用pytorch深度学习框架实现聚合层示意图:
Q1与Q2为核矩阵512*512,b1与b2为偏置项,这些参数均由神经网络学习得到,tanh为激活函数。
通过这种聚合操作之后,K个512维度的特征向量变成一个512维度的特征向量。利用这种方法进行分类器训练,最终对未知视频流进行预测与验证。
本实施例中,进行人脸识别的步骤可包括:
首先,建立人脸注册库,假设有m个人,每个人有K个人脸图像训练样本,将这m个人的样本:输入人脸识别特征融合模型得到m个512维度的注册特征向量{f0,f1,f2,.....,fm-1},标签为(0,1,2,.....,m-1),建立起人脸注册库。
然后,通过计算测试特征向量与注册特征向量的相似度,进行人脸测试识别,测试方式分为1:1与1:m两种。
一、1:1测试:
假设测试一段未知视频流,该未知视频流的人脸序列表示为{x0,x1,x2,...xk,...xP-1}(P>k)。其中,x0表示视频的第0帧图像,x1表示视频的第1帧图像,......。
首先,对该未知视频流进行样本采集,样本采集过程包括:以某一个特定ID=2的图像采集为例,将一段包含此ID人脸的视频进行解帧处理,得到P帧图像,从中任意抽取K帧,通过排列组合计算得到ID=2的P-K+1个图像集。
然后,对人脸图像测试样本进行预处理;
然后,将ID=2的图像集合送入已经训练好的网络模型中,每个子集合经过特征聚合计算得到一个特征向量,这样就获得(P-K+1)个测试特征向量,表示为{t0,t1,.....,tp-k+1}。
将这些测试特征向量分别与m个512维度的注册特征向量中标签为2的目标注册特征向量f2进行余弦相似度计算,获得对应相似度集合{sj2}j=0 m-1(j>=0且j<=m-1),如果该相似度集合中的最大值max{sj2}大于预先设定的相似度阈值T,则表示识别正确,即,该未知视频流的人脸与标签为2的注册特征向量表示的人脸属于同一人。
二、1:m测试:
假设测试一段未知视频流,该未知视频流的人脸序列表示为{x0,x1,x2,...xk,...xp-1}(p>k)。其中,x0表示视频的第0帧图像,x1表示视频的第1帧图像,......。
首先,对该未知视频流进行样本采集,样本采集过程包括:以某一个特定的ID=3的图像采集为例,从未知视频流中抽取此ID的P帧图像,再从中随机选出K帧图像,通过排列组合计算可以得到P-K+1个图像集合。
然后,对人脸图像测试样本进行预处理;
然后,将ID=3的图像集合送入已经训练好的神经网络中,每个子集合经过特征聚合计算得到一个特征向量,这样就获得(P-K+1)个测试特征向量,表示为{t0,t1,.....,tp-k+1}。
将这些测试特征向量分别与m个512维度的注册特征向量中每个特征向量依次进行余弦相似度计算,获得对应相似度{sij},(j>=0且j<=m-1,i>=0且i<=P-K+1),对{sij}进行升序排序。如果max{sij}包含于{Si3},且max{sij}相似度大于预先设定的相似度阈值T,则表示识别正确。换句话说,如果所有相似度中的最大值是某个测试特征向量与目标注册特征向量计算的相似度,且该最大值大于阈值,则表示识别正确,即,该未知视频流的人脸与标签为3的注册特征向量表示的人脸属于同一人。
经过上述过程,得到训练好的模型,将多帧图像输入该模型即可进行识别。
请参考图3,本发明的一个实施例,还提供一种基于视频流的动态人脸识别装置,该装置可包括:
样本采集模块10,用于对训练视频流进行样本采集,得到人脸图像训练样本;
人脸识别特征融合训练模块30,用于将人脸图像训练样本送入神经网络中进行训练,每个人脸图像训练样本训练得到一个多维特征向量,将得到的所述多维特征向量进行归一化,并将属于同一个人的K个多维特征向量聚合为一个特征向量;
识别模块40,用于利用聚合得到的特征向量,对未知视频流进行人脸识别。
可选的,还包括:预处理模块20,用于对样本采集模块10采集得到的人脸图像训练样本进行预处理,经预处理后的人脸图像训练样本送入人脸识别特征融合训练模块30中进行训练。
可以理解,本发明实施例装置的各个功能模块的功能可根据上述方法实施例中的方法具体实现,其具体实现过程可参照上述方法实施例中的相关描述,此处不再赘述。
请参考图4,本发明的一个实施例,还提供一种计算机设备50,包括处理器51和存储器52,存储器52中存储有计算机可执行的程序,处理器51通过执行存储器52中存储的程序,执行如第一方面所述的基于视频流的动态人脸识别方法。
本发明的一个实施例,还提供一种存储有程序的存储介质,该程序当被计算机设备执行时使得计算机设备执行如第一方面所述的基于视频流的动态人脸识别方法。
综上,人防门实施例公开了一种基于视频流的动态人脸识别方法和装置。从以上技术方案可以看出,本发明实施例具有以下优点:
为了降低误识别率,提高人脸识别精度,并且改善假脸攻击问题,本发明提供了一种基于视频流的动态人脸识别方法。该方法在人脸识别特征融合训练中增加了一个多特征聚合环节,将连续的单帧图像提取的人脸特征进行聚合,从而在样本识别阶段利用聚合得到的特征向量进行人脸识别。基于此,与现有的基于单帧图像的人脸识别方法相比,本发明方法识别精度更高,误识率更低,可以改善假脸攻击问题。并且,与基于单帧图像的人脸识别算法相比,本发明方法还减轻了人脸识别样本的整理难度,由于低质量的或大角度的人脸识别样本也是较为重要的样本,因此提高了人脸识别样本的利用率。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详细描述的部分,可以参见其它实施例的相关描述。
上述实施例仅用以说明本发明的技术方案,而非对其限制;本领域的普通技术人员应当理解:其依然可以对上述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种基于视频流的动态人脸识别方法,其特征在于,包括:
S1、对训练视频流进行样本采集,得到人脸图像训练样本;
S2、将人脸图像训练样本送入神经网络中进行训练,每个人脸图像训练样本训练得到一个多维特征向量,将所述多维特征向量进行归一化,并将属于同一个人的K个多维特征向量聚合为一个特征向量;
S3、利用聚合得到的特征向量,对未知视频流进行人脸识别。
2.根据权利要求1所述的方法,其特征在于,步骤S1还包括:
对得到的人脸图像训练样本进行分类清洗,使得属于同一个人的人脸图像训练样本被置于同一子集。
3.根据权利要求1所述的方法,其特征在于,步骤S2之前还包括:
对人脸图像训练样本进行人脸检测、人脸关键点检测和人脸对齐矫正。
4.根据权利要求1所述的方法,其特征在于,所述将属于同一个人的K个多维特征向量聚合为一个特征向量,包括:
通过对属于同一个人的K个多维特征向量按照不同权重向量分配进行线性组合,将K个多维特征向量聚合为一个特征向量。
7.根据权利要求1所述的方法,其特征在于,所述对未知视频流进行人脸识别之前,还包括:
对未知视频流进行样本采集,样本采集过程包括:从未知视频流包含的P帧图像中随机采集K帧图像,P>K,得到P-K+1个图像集合,每个图像集合包括同一人脸的K个人脸图像测试样本;
对人脸图像测试样本进行预处理;
将样本采集的所有ID的人脸数据集合输入神经网络中进行训练,每一个ID图像集合经过特征融合都会得到对应的一个特征向量。
8.根据权利要求7所述的方法,其特征在于,步骤S3具体包括:
建立人脸注册数据库:通过将分别属于m个人的m个聚合得到的特征向量作为注册特征向量,建立人脸注册数据库;
通过计算测试特征向量与注册特征向量的相似度,进行人脸识别。
9.根据权利要求8所述的方法,其特征在于,所述通过计算测试特征向量与注册特征向量的相似度,进行人脸识别,包括:
将P-K+1个测试特征向量分别与人脸注册数据库中的目标注册特征向量进行余弦相似度计算,获得对应的相似度集合,如果该相似度集合中的最大值大于阈值,则表示识别正确;
或者,
将P-K+1个测试特征向量分别与m个注册特征向量依次进行余弦相似度计算,对获得的所有相似度进行排序,如果所有相似度中的最大值是某个测试特征向量与目标注册特征向量计算的相似度,且该最大值大于阈值,则表示识别正确。
10.一种基于视频流的动态人脸识别装置,其特征在于,包括:
样本采集模块,用于对训练视频流进行样本采集,得到人脸图像训练样本;
人脸识别特征融合训练模块,用于将人脸图像训练样本送入神经网络中进行训练,每个人脸图像训练样本训练得到一个多维特征向量,将所述多维特征向量进行归一化,并将属于同一个人的K个多维特征向量聚合为一个特征向量;
识别模块,用于利用聚合得到的特征向量,对未知视频流进行人脸识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010559367.2A CN111860165B (zh) | 2020-06-18 | 2020-06-18 | 一种基于视频流的动态人脸识别方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010559367.2A CN111860165B (zh) | 2020-06-18 | 2020-06-18 | 一种基于视频流的动态人脸识别方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111860165A true CN111860165A (zh) | 2020-10-30 |
CN111860165B CN111860165B (zh) | 2023-11-03 |
Family
ID=72987248
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010559367.2A Active CN111860165B (zh) | 2020-06-18 | 2020-06-18 | 一种基于视频流的动态人脸识别方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111860165B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014001610A1 (en) * | 2012-06-25 | 2014-01-03 | Nokia Corporation | Method, apparatus and computer program product for human-face features extraction |
CN106778684A (zh) * | 2017-01-12 | 2017-05-31 | 易视腾科技股份有限公司 | 深度神经网络训练方法及人脸识别方法 |
US20170236073A1 (en) * | 2016-02-12 | 2017-08-17 | Linkedln Corporation | Machine learned candidate selection on inverted indices |
CN107958244A (zh) * | 2018-01-12 | 2018-04-24 | 成都视观天下科技有限公司 | 一种基于视频多帧人脸特征融合的人脸识别方法及装置 |
CN109190561A (zh) * | 2018-09-04 | 2019-01-11 | 四川长虹电器股份有限公司 | 一种视频播放中的人脸识别方法及系统 |
WO2019119505A1 (zh) * | 2017-12-18 | 2019-06-27 | 深圳云天励飞技术有限公司 | 人脸识别的方法和装置、计算机装置及存储介质 |
US20190311183A1 (en) * | 2018-04-09 | 2019-10-10 | Qualcomm Incorporated | Feature matching with a subspace spanned by multiple representative feature vectors |
CN111078946A (zh) * | 2019-12-04 | 2020-04-28 | 杭州皮克皮克科技有限公司 | 一种基于多目标区域特征聚合的卡口车辆检索方法及系统 |
-
2020
- 2020-06-18 CN CN202010559367.2A patent/CN111860165B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014001610A1 (en) * | 2012-06-25 | 2014-01-03 | Nokia Corporation | Method, apparatus and computer program product for human-face features extraction |
US20170236073A1 (en) * | 2016-02-12 | 2017-08-17 | Linkedln Corporation | Machine learned candidate selection on inverted indices |
CN106778684A (zh) * | 2017-01-12 | 2017-05-31 | 易视腾科技股份有限公司 | 深度神经网络训练方法及人脸识别方法 |
WO2019119505A1 (zh) * | 2017-12-18 | 2019-06-27 | 深圳云天励飞技术有限公司 | 人脸识别的方法和装置、计算机装置及存储介质 |
CN107958244A (zh) * | 2018-01-12 | 2018-04-24 | 成都视观天下科技有限公司 | 一种基于视频多帧人脸特征融合的人脸识别方法及装置 |
US20190311183A1 (en) * | 2018-04-09 | 2019-10-10 | Qualcomm Incorporated | Feature matching with a subspace spanned by multiple representative feature vectors |
CN109190561A (zh) * | 2018-09-04 | 2019-01-11 | 四川长虹电器股份有限公司 | 一种视频播放中的人脸识别方法及系统 |
CN111078946A (zh) * | 2019-12-04 | 2020-04-28 | 杭州皮克皮克科技有限公司 | 一种基于多目标区域特征聚合的卡口车辆检索方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111860165B (zh) | 2023-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107194341B (zh) | Maxout多卷积神经网络融合人脸识别方法和系统 | |
CN111898547B (zh) | 人脸识别模型的训练方法、装置、设备及存储介质 | |
Liu et al. | Combining multiple kernel methods on riemannian manifold for emotion recognition in the wild | |
JP4543423B2 (ja) | 対象物自動認識照合方法および装置 | |
CN111523462B (zh) | 基于自注意增强cnn的视频序列表情识别系统及方法 | |
CN109255289B (zh) | 一种基于统一式生成模型的跨衰老人脸识别方法 | |
CN103605972A (zh) | 一种基于分块深度神经网络的非限制环境人脸验证方法 | |
CN108875907B (zh) | 一种基于深度学习的指纹识别方法和装置 | |
CN110503000B (zh) | 一种基于人脸识别技术的教学抬头率测量方法 | |
CN109214263A (zh) | 一种基于特征复用的人脸识别方法 | |
US20100111375A1 (en) | Method for Determining Atributes of Faces in Images | |
CN113205002B (zh) | 非受限视频监控的低清人脸识别方法、装置、设备及介质 | |
CN111209818A (zh) | 视频个体识别方法、系统、设备及可读存储介质 | |
CN105138951B (zh) | 基于图模型表示的人脸画像-照片识别方法 | |
CN110728216A (zh) | 一种基于行人属性自适应学习的无监督行人再识别方法 | |
Ding et al. | Facial action recognition using very deep networks for highly imbalanced class distribution | |
CN111860393A (zh) | 一种安防系统上的人脸检测识别方法 | |
CN112818850A (zh) | 基于渐进式神经网络和注意力机制的跨姿态人脸识别方法 | |
Menezes et al. | Automatic attendance management system based on deep one-shot learning | |
CN113221655A (zh) | 基于特征空间约束的人脸欺骗检测方法 | |
CN111950452A (zh) | 一种人脸识别方法 | |
Jiang et al. | Orientation-guided similarity learning for person re-identification | |
CN108197593B (zh) | 基于三点定位方法的多尺寸人脸表情识别方法及装置 | |
CN111860165B (zh) | 一种基于视频流的动态人脸识别方法和装置 | |
CN108830217A (zh) | 一种基于模糊均值哈希学习的签名自动判别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |