CN113033345B - 基于公共特征子空间的v2v视频人脸识别方法 - Google Patents
基于公共特征子空间的v2v视频人脸识别方法 Download PDFInfo
- Publication number
- CN113033345B CN113033345B CN202110260926.4A CN202110260926A CN113033345B CN 113033345 B CN113033345 B CN 113033345B CN 202110260926 A CN202110260926 A CN 202110260926A CN 113033345 B CN113033345 B CN 113033345B
- Authority
- CN
- China
- Prior art keywords
- video
- feature
- face
- features
- center
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000012549 training Methods 0.000 claims abstract description 40
- 238000000605 extraction Methods 0.000 claims abstract description 21
- 238000013507 mapping Methods 0.000 claims abstract description 9
- 238000012360 testing method Methods 0.000 claims description 17
- 238000011176 pooling Methods 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 4
- 238000003064 k means clustering Methods 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 4
- 238000002474 experimental method Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 8
- 108091006146 Channels Proteins 0.000 description 5
- 210000000887 face Anatomy 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000008033 biological extinction Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 101100459261 Cyprinus carpio mycb gene Proteins 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24147—Distances to closest patterns, e.g. nearest neighbour classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明公开了一种基于公共特征子空间的V2V视频人脸识别方法,包括以下步骤,首先,根据人脸在视频中的位置特征,将代表人脸方向的关键点位置采用聚类算法进行分类选取关键帧;然后,设计样本库特征提取网络SCNN和待验证视频特征提取网络TCNN的网络结果和训练算法,分别使用SCNN和TCNN进行特征提取,将提取到的特征映射到同一特征子空间中并计算特征中心;最后,计算待验证视频特征中心与样本库视频特征中心的欧氏距离,取距离最小为最终的视频识别结果。本发明实施于V2V视频人脸识别,有效地提高V2V视频人脸识别准确率。
Description
技术领域
本发明属于人脸识别技术领域,尤其涉及一种基于公共特征子空间的V2V视频人脸识别方法。
背景技术
近年来,计算机视觉的不断发展促使越来越多的技术落地成为了日常生活中实际的产品。随着深度神经网络的兴起,人脸识别技术得到了飞速发展。其中图像人脸识别己经取得了极佳的成就,而视频人脸识别的研究却相对来说达不到人们的预期。这是因为视频人脸识别不止面临着和图像人脸识别同样的光照、遮挡、姿态等问题,而且实际应用中(如监控场景下)视频的图像帧质量通常不如图像。目前,视频人脸识别方法分为两类:经典方法和深度学习方法。常用的是深度学习的方法来进行人脸识别,将一段视频分割为若干个图像帧,使用这些图像帧进行人脸识别,对最终的识别结果进行投票得到最后的视频识别结果。V2V(Video to Video)人脸识别指样本库和验证对象都是含人脸的视频,通过判别两段视频中人脸的相似性获得人脸身份,但是通常情况下样本库中的视频与待验证的视频质量存在差异,无法直接进行匹配识别。改善低质量视频常用的方法是基于公共特征子空间的方法,该方法将不同质量视频的人脸特征映射到同一公共特征子空间,从而解决识别中样本库视频和待验证视频质量不一的问题。
然而,一般的基于公共特征子空间算法也存在一些问题:以前的基于公共特征子空间方法使用相同的网络提取样本库视频和待验证视频的深度特征,导致两种特征映射到同一特征子空间中的距离较远,对不利于识别判定。
发明内容
本发明的目的是为了克服上述现有基于公共特征子空间算法中的缺点,提供一种有利于V2V人脸识别的算法。本发明基于公共特征子空间的V2V视频人脸识别方法,能够有效地改善V2V视频人脸识别效率低的问题,达到好的识别效果。
为实现上述目的,本发明采用的技术方案为:
一种基于公共特征子空间的V2V视频人脸识别方法,包括以下步骤:
步骤1,数据预处理,将数据集中的低质量视频数据拆分成图像帧,人脸检测裁剪成32*40px大小的人脸图像,将图像集使用算法划分为训练集和测试集,数据集大小比例为7:3;
步骤2,选取关键帧,将数据集中低质量视频人脸图像帧的关键点位置作为人脸特征,使用K-means聚类算法和随机算法选取关键帧;
步骤3,初始化样本库特征提取网络SCNN,输入样本库视频序列的训练集关键帧进行特征提取和Softmax分类,并计算特征中心;
步骤4,计算Softmax交叉熵损失,同时使用步骤3中得到的特征中心计算CenterLoss损失,使用Softmax交叉熵损失和CenterLoss损失共同训练和更新SCNN,直到收敛;
步骤5,将步骤4中收敛后的SCNN网络进行复制作为待验证视频关键帧特征提取网络TCNN的初始网络,固定SCNN网络不变,将相同身份的样本库视频关键帧和待验证视频关键帧的训练集组成视频对,分别输入SCNN和TCNN提取深度特征;
步骤6,将步骤5中提取的样本库视频关键帧特征和待验证视频关键帧特征映射到同一个特征子空间中,计算得到样本库视频关键帧特征的特征中心,使用距离损失函数,训练TCNN网络,直到收敛;
步骤7,在测试阶段,使用训练好的SCNN提取所有样本库视频关键帧的人脸特征,使用训练好的TCNN提取待验证视频测试集关键帧的人脸特征,都映射到公共特征子空间进行匹配判别。
进一步的,所述步骤1中使用的数据集为COX数据集,训练样本和测试样本使用COX数据集已经划分好的十种划分,结果取十次实验的平均值;同时从COX数据集中每个人的三段视频序列中确定样本库视频和待验证视频的序列。
进一步的,所述步骤2中K-means算法的K值为5,分别代表5种不同的人脸姿态:左侧脸、左偏脸、正脸、右偏脸、右侧脸,每组分别使用随机算法选取10个关键帧。
进一步的,所述步骤3中的SCNN网络包括输入层、卷积层1、DenseBlock、卷积层2、Inception_Resnet1、Reducation、Inception_Resnet2、平均池化层和全连接层顺次连接,输入层的输入大小为32×40,全连接层的输出大小为1024;所述步骤3中的特征中心为输入视频所有关键帧特征的均值中心。
进一步的,所述步骤4中在Softmax交叉熵损失的基础上,使用CenterLoss损失将关键帧特征与中心特征的距离作为约束条件训练网络,使同一类别特征更加靠近,不同类别特征分离,CenterLoss的中心特征为步骤3中计算得到的特征中心。
进一步的,所述步骤5中将相同身份的样本库视频和待验证视频的训练集视频组成视频对,第i个视频对为其中:/>表示为第i个视频对中的样本库视频,/>表示为待验证视频的训练集视频,然后选取样本库视频的关键帧和待验证视频训练集视频的关键帧,分别输入SCNN网络和TCNN网络提取深度特征,将提取到的深度特征记为/>表示为/>关键帧的深度特征,/>表示为/>关键帧的深度特征。
进一步的,所述步骤6中计算得到样本库视频关键帧深度特征的特征中心记为/>距离损失函数为待验证视频所有关键帧的特征与样本库视频特征中心欧氏距离的均值。
进一步的,所述步骤7中使用测试集特征与样本库特征中心的欧氏距离进行匹配判别,得到最小欧氏距离结果为识别结果。
本发明相比于现有技术,具有以下有益效果:
本发明是一种基于公共特征子空间的V2V视频人脸识别方法,针对V2V视频人脸识别中样本库视频与待验证视频质量不一的特点,对视频帧进行关键帧选取、双分支网络提取特征、公共特征子空间映射匹配提高视频识别的准确率;
本发明通过关键帧选取算法,选取视频关键帧,在不影响识别效率的基础上降低了重建和识别的计算复杂度,减少了训练和测试时间;
本发明通过分别训练双分支特征提取网络(SCNN和TCNN),使得TCNN提取的待验证视频特征更接近于SCNN提取的对应身份的样本库视频特征,有利于人脸识别准确率的提升;
本发明通过将样本库视频与待验证视频的深度特征映射到同一公共特征子空间中进行匹配识别,解决了V2V识别中视频质量不一的难点。
附图说明
图1是V2V人脸识别模型测试阶段示意图;
图2是V2V人脸识别模型训练阶段示意图;
图3是V2V模型的特征提取网络SCNN和TCNN结构图。
具体实施方式
下面结合实施例对本发明作更进一步的说明。
实施例1
一种基于公共特征子空间的V2V视频人脸识别方法,包括以下步骤:
步骤1,数据预处理,将数据集中的低质量视频数据拆分成图像帧,人脸检测裁剪成32*40px大小的人脸图像,将图像集使用算法划分为训练集和测试集,数据集大小比例为7:3;例如,可以使用的数据集为COX数据集,训练样本和测试样本使用COX数据集已经划分好的十种划分,结果取十次实验的平均值。同时从COX数据集中每个人的三段视频序列中确定样本库视频和待验证视频的序列。
COX人脸数据集旨在解决视频到静止(V2S),静止到视频(S2V)和视频到视频(V2V)人脸识别的问题。数据集包含1000个主题,每个主题模拟了视频监控场景,捕获了1个高质量的静止图像和3个视频序列(cam1、cam2、cam3)。在经过人脸检测和数据预处理之后,大部分视频序列中含有人脸的图像帧数量大于100,有的甚至超过300。
步骤2,选取关键帧,将数据集中低质量视频人脸图像帧的关键点位置作为人脸特征,使用K-means聚类算法和随机算法选取关键帧。K-means算法的K值为5,分别代表5种不同的人脸姿态:左侧脸、左偏脸、正脸、右偏脸、右侧脸,每组分别使用随机算法选取10个关键帧。
由于本发明根据人脸关键点位置对图像进行K-Means聚类,设置第a个样本的关键点位置为x(a)。一般的,经人脸检测的图像将标记人脸双眼位置,本发明以此作为关键点,故即/>为第a个样本的左眼位置坐标,/>为第a个样本的右眼位置坐标。因此本发明定义K-Means聚类第a个样本的距离函数如下:
其中:laj为第a个样本与第j类的质心μj的距离,μj为第j类的质心,(xjL,yjL,)为的μj左眼位置坐标,(xjR,yjR,)为的μj右眼位置坐标。
假定输入的样本位置集合为S={x(1),x(2),…,x(a),…,x(m)},x(a)∈Rn,m为样本数量,Rn为实数集,则算法步骤如下:
(1)、机选取h个聚类质心,为μ1,μ2,…μj…,μh∈Rn,其中:μj为第j类的质心,μh为第h类的质心;
(2)、重复下列过程直到收敛{
对于第a个样本的关键点位置x(a),计算x(a)应该属于的类(b(a)为第a个样本的类别,j为类别编号):
对于每一个类j,重新计算该类的质心
}
步骤3,初始化样本库特征提取网络SCNN,输入样本库视频序列的训练集关键帧进行特征提取和Softmax分类,并计算特征中心。SCNN网络包括输入层、卷积层1、DenseBlock、卷积层2、Inception_Resnet1、Reducation、Inception_Resnet2、平均池化层和全连接层顺次连接,输入层的输入大小为32×40,全连接层的输出大小为1024;所述步骤3中的特征中心为输入视频所有关键帧特征的均值中心。
3.1SCNN网络结构
SCNN网络结构如图3所示,共包括8层,包含2个卷积层,一个Dense Block模块和两个Inception Resnet模块,还有一个Reduction模块和一个平均池化层,最后为一个全连接层FC作为输出。对于样本库或者待验证的每一段视频,假设提取的关键帧数量为65,输入大小为32×40,则经过特征提取网络输出65个大小为1×1024维的人脸特征表示,下表中列出了特征提取网络SCNN每一层的相关参数和输出大小。
网络层 | 输出大小 | 网络结构 |
输入层 | 32×40 | -- |
卷积层1 | 64×32×40 | 卷积核:3×3,通道:64,填充:1,步长:1 |
Dense Block | 256×32×40 | 6×DenseLayer,成长:32 |
卷积层2 | 384×30×38 | 卷积核:3×3,通道:384,填充:0,步长:1 |
Inception_Resnet1 | 384×30×38 | -- |
Reduction | 1024×15×19 | -- |
Inception_Resnet1 | 1024×15×19 | -- |
平均池化层 | 1024×7×9 | 卷积核:3×3,通道:1024,填充:0,步长:2 |
全连接层 | 1024 | 卷积核:7×9,通道:1024,填充:0 |
3.2 DB(Dense Block)
SCNN网络使用DB提取语义特征,DB块为了解决梯度消失的问题,借助Resnet的思路,在保证网络中层与层之间最大程度的信息传输的前提下,直接将所有层连接起来。简单讲,就是每一层的输入来自前面所有层的输出。
DB中每个卷积层的输出特征图数量都很小(小于100),而不是像其他网络一样动不动就几百上千的宽度。同时这种连接方式使得特征和梯度的传递更加有效,网络也就更加容易训练。梯度消失问题在网络深度越深的时候越容易出现,原因就是输入信息和梯度信息在很多层之间传递导致的,而现在这种dense connection相当于每一层都直接连接input和loss,因此就可以减轻梯度消失现象,这样更深网络不是问题。
本发明中的每个DB块包括6个子结构,每个子结构包含一个1*1和一个3*3的卷积层,1*1的卷积层为瓶颈层,目的是为了减少输入的特征图数量即降维。每个卷积层的组成为Batch Normalization+ReLU+3*3Conv层,DB块的growth_rate等于32,bn_size等于4。
步骤4,计算Softmax交叉熵损失,同时使用步骤3中得到的特征中心计算CenterLoss损失,使用Softmax交叉熵损失和CenterLoss损失共同训练和更新SCNN,直到收敛。在Softmax交叉熵损失的基础上,使用CenterLoss损失将关键帧特征与中心特征的距离作为约束条件训练网络,使同一类别特征更加靠近,不同类别特征分离,CenterLoss的中心特征为步骤3中计算得到的特征中心。
假设输入视频的关键帧数量为65,Softmax分类层1×1000的一维特征向量,则输出的65个特征序列为[11,12,…,11024],[21,22,…,21024],…,[651,652,…,651024],将这些特征序列按照先后顺序和通道顺序进行排列,排列之后的特征序列为[11,21,…,651],[12,22,…,652],…,[11024,21024,…,651024],将这些特征序列求均值就得到了特征中心的特征序列为[c1,c2,…,c1024],将该序列作为CenterLoss损失函数的中心。以下表示训练过程中损失函数中心的特征表示公式,其中:。
其中:C表示输入视频关键帧深度特征的特征中心,e为特征的序号,n为关键帧数量,k为关键帧序号,ce表示特征中心的第e个特征值,ke表示第k个关键帧的第e个特征值。
步骤5,将步骤4中收敛后的SCNN网络进行复制作为待验证视频关键帧特征提取网络TCNN的初始网络,固定SCNN网络不变,将相同身份的样本库视频关键帧和待验证视频关键帧的训练集组成视频对,分别输入SCNN和TCNN提取深度特征。例如将相同身份的样本库视频和待验证视频的训练集视频组成视频对,第i个视频对为其中:/>表示为第i个视频对中的样本库视频,/>表示为待验证视频的训练集视频,然后选取样本库视频的关键帧和待验证视频训练集视频的关键帧,分别输入SCNN网络和TCNN网络提取深度特征,将提取到的深度特征记为/> 表示为/>关键帧的深度特征,/>表示为/>关键帧的深度特征。
步骤6,将步骤5中提取的样本库视频关键帧特征和待验证视频关键帧特征映射到同一个特征子空间中,计算得到样本库视频关键帧特征的特征中心,使用距离损失函数,训练TCNN网络,直到收敛。例如:将计算得到样本库视频关键帧特征的特征中心记为/>距离损失函数为待验证视频所有关键帧的特征与样本库视频特征中心欧氏距离的均值,公式如下:
其中:LTCNN表示TCNN的损失函数,n表示关键帧数量,k表示关键帧序号,i表示第i个视频对,表示第i个视频对中待验证视频训练集视频的第k个关键帧,/>表示/>的深度特征。该公式的空间表示为图2中的di,表示为第i个视频对中待验证视频训练集视频所有关键帧的提取特征与样本库视频特征中心欧氏距离的均值,本发明最小化该均值进行训练TCNN网络。在训练过程中,为每一层独立设置学习率,且在最后一层全连接层的学习率大于第一层的学习率,这样有助于加速训练。
步骤7,在测试阶段,使用训练好的SCNN提取所有样本库视频关键帧的人脸特征,使用训练好的TCNN提取待验证视频测试集关键帧的人脸特征,都映射到公共特征子空间进行匹配判别。例如,使用测试集特征与样本库特征中心的欧氏距离进行匹配判别,得到最小欧氏距离结果为识别结果。最小欧氏距离的判别公式如下:
其中:表示为第y个待验证视频,/>表示为第l个样本库视频,该式表示第y个待验证视频的身份为第l个样本库视频的身份,其中:l的值为:
其中:dy,z表示第y个待验证视频与第z个样本库视频特征中心的欧氏距离(图1中di,1,di,2等定义亦同),表示第y个视频对中待验证视频训练集视频的第k个关键帧,表示/>的深度特征,/>表示第z个样本库视频特征中心,N表示样本库视频身份种类数,n为关键帧数量,k为关键帧序号。
本发明首先,根据人脸在视频中的位置特征,将代表人脸方向的关键点位置采用聚类算法进行分类选取关键帧;然后,设计样本库特征提取网络SCNN和待验证视频特征提取网络TCNN的网络结果和训练算法,分别使用SCNN和TCNN进行特征提取,将提取到的特征映射到同一特征子空间中并计算特征中心;最后,计算待验证视频特征中心与样本库视频特征中心的欧氏距离,取距离最小为最终的视频识别结果。本发明实施于V2V视频人脸识别,相比于用经典的集对集视频识别方法和其他公共特征子空间的方法,采用本发明的技术方案将有效提高V2V视频人脸识别准确率。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (7)
1.一种基于公共特征子空间的V2V视频人脸识别方法,其特征在于,包括以下步骤:
步骤1,数据预处理,将数据集中的低质量视频数据拆分成图像帧,人脸检测裁剪成32*40px大小的人脸图像,将图像集使用算法划分为训练集和测试集,数据集大小比例为7:3;
步骤2,选取关键帧,将数据集中低质量视频人脸图像帧的关键点位置作为人脸特征,使用K-means聚类算法和随机算法选取关键帧;
步骤3,初始化样本库特征提取网络SCNN,输入样本库视频序列的训练集关键帧进行特征提取和Softmax分类,并计算特征中心;
所述步骤3中的SCNN网络包括输入层、卷积层1、DenseBlock、卷积层2、Inception_Resnet1、Reducation、Inception_Resnet2、平均池化层和全连接层顺次连接,输入层的输入大小为32×40,全连接层的输出大小为1024;所述步骤3中的特征中心为输入视频所有关键帧人脸特征的均值中心;
步骤4,计算Softmax交叉熵损失,同时使用步骤3中得到的特征中心计算CenterLoss损失,使用Softmax交叉熵损失和CenterLoss损失共同训练和更新SCNN,直到收敛;
步骤5,将步骤4中收敛后的SCNN网络进行复制作为待验证视频关键帧特征提取网络TCNN的初始网络,固定SCNN网络不变,将相同身份的样本库视频关键帧和待验证视频关键帧的训练集组成视频对,分别输入SCNN和TCNN提取深度特征;
步骤6,将步骤5中提取的样本库视频关键帧特征和待验证视频关键帧特征映射到同一个特征子空间中,计算得到样本库视频关键帧特征的特征中心,使用距离损失函数,训练TCNN网络,直到收敛;
步骤7,在测试阶段,使用训练好的SCNN提取所有样本库视频关键帧的人脸特征,使用训练好的TCNN提取待验证视频测试集关键帧的人脸特征,都映射到公共特征子空间进行匹配判别。
2.根据权利要求1所述的基于公共特征子空间的V2V视频人脸识别方法,其特征在于:所述步骤1中使用的数据集为COX数据集,训练样本和测试样本使用COX数据集已经划分好的十种划分,结果取十次实验的平均值;同时从COX数据集中每个人的三段视频序列中确定样本库视频和待验证视频的序列。
3.根据权利要求1所述的基于公共特征子空间的V2V视频人脸识别方法,其特征在于:所述步骤2中K-means算法的K值为5,分别代表5种不同的人脸姿态:左侧脸、左偏脸、正脸、右偏脸、右侧脸,每组分别使用随机算法选取10个关键帧。
4.根据权利要求3所述的基于公共特征子空间的V2V视频人脸识别方法,其特征在于:所述步骤4中在Softmax交叉熵损失的基础上,使用CenterLoss损失将关键帧特征与中心特征的距离作为约束条件训练网络,使同一类别特征更加靠近,不同类别特征分离,CenterLoss的中心特征为步骤3中计算得到的特征中心。
5.根据权利要求1所述的基于公共特征子空间的V2V视频人脸识别方法,其特征在于:所述步骤5中将相同身份的样本库视频和待验证视频的训练集视频组成视频对,第i个视频对为其中:/>表示为第i个视频对中的样本库视频,/>表示为待验证视频的训练集视频,然后选取样本库视频的关键帧和待验证视频训练集视频的关键帧,分别输入SCNN网络和TCNN网络提取深度特征,将提取到的深度特征记为/> 表示为/>关键帧的深度特征,/>表示为/>关键帧的深度特征。
6.根据权利要求5所述的基于公共特征子空间的V2V视频人脸识别方法,其特征在于:所述步骤6中计算得到样本库视频关键帧深度特征的特征中心记为/>距离损失函数为待验证视频所有关键帧的特征与样本库视频特征中心欧氏距离的均值。
7.根据权利要求6所述的基于公共特征子空间的V2V视频人脸识别方法,其特征在于:所述步骤7中使用测试集特征与样本库特征中心的欧氏距离进行匹配判别,得到最小欧氏距离结果为识别结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110260926.4A CN113033345B (zh) | 2021-03-10 | 2021-03-10 | 基于公共特征子空间的v2v视频人脸识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110260926.4A CN113033345B (zh) | 2021-03-10 | 2021-03-10 | 基于公共特征子空间的v2v视频人脸识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113033345A CN113033345A (zh) | 2021-06-25 |
CN113033345B true CN113033345B (zh) | 2024-02-20 |
Family
ID=76469659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110260926.4A Active CN113033345B (zh) | 2021-03-10 | 2021-03-10 | 基于公共特征子空间的v2v视频人脸识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113033345B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113779303B (zh) * | 2021-11-12 | 2022-02-25 | 腾讯科技(深圳)有限公司 | 视频集合的索引方法、装置和存储介质及电子设备 |
CN117409030B (zh) * | 2023-12-14 | 2024-03-22 | 齐鲁工业大学(山东省科学院) | 基于动态管状卷积的octa图像血管分割方法及其系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106951867A (zh) * | 2017-03-22 | 2017-07-14 | 成都擎天树科技有限公司 | 基于卷积神经网络的人脸识别方法、装置、系统及设备 |
CN111339988A (zh) * | 2020-03-11 | 2020-06-26 | 福州大学 | 基于动态间隔损失函数和概率特征的视频人脸识别方法 |
-
2021
- 2021-03-10 CN CN202110260926.4A patent/CN113033345B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106951867A (zh) * | 2017-03-22 | 2017-07-14 | 成都擎天树科技有限公司 | 基于卷积神经网络的人脸识别方法、装置、系统及设备 |
CN111339988A (zh) * | 2020-03-11 | 2020-06-26 | 福州大学 | 基于动态间隔损失函数和概率特征的视频人脸识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113033345A (zh) | 2021-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113378632B (zh) | 一种基于伪标签优化的无监督域适应行人重识别方法 | |
WO2021134871A1 (zh) | 基于局部二值模式和深度学习的合成人脸图像取证方法 | |
CN108960140B (zh) | 基于多区域特征提取和融合的行人再识别方法 | |
CN109063649B (zh) | 基于孪生行人对齐残差网络的行人重识别方法 | |
CN110929679B (zh) | 一种基于gan的无监督自适应行人重识别方法 | |
CN112784728B (zh) | 基于衣物脱敏网络的多粒度换衣行人重识别方法 | |
CN113033345B (zh) | 基于公共特征子空间的v2v视频人脸识别方法 | |
CN110942091A (zh) | 寻找可靠的异常数据中心的半监督少样本图像分类方法 | |
CN110866134B (zh) | 一种面向图像检索的分布一致性保持度量学习方法 | |
CN111339930A (zh) | 一种联合口罩属性损失函数的人脸识别方法 | |
CN111598004B (zh) | 一种渐进增强自学习的无监督跨领域行人再识别方法 | |
CN110852152B (zh) | 一种基于数据增强的深度哈希行人重识别方法 | |
CN111353411A (zh) | 一种基于联合损失函数的遮挡人脸的识别方法 | |
CN112580502A (zh) | 基于sicnn的低质量视频人脸识别方法 | |
CN111694977A (zh) | 一种基于数据增强的车辆图像检索方法 | |
CN111611909A (zh) | 多子空间域自适应人脸识别方法 | |
CN110188864B (zh) | 基于分布表示和分布度量的小样本学习方法 | |
CN114818963A (zh) | 一种基于跨图像特征融合的小样本检测算法 | |
CN110969101A (zh) | 一种基于hog和特征描述子的人脸检测与跟踪方法 | |
CN110334226B (zh) | 融合特征分布熵的深度图像检索方法 | |
CN116721343A (zh) | 一种基于深度卷积神经网络的跨域田间棉铃识别方法 | |
CN116246305A (zh) | 一种基于混合部件变换网络的行人检索方法 | |
CN116110113A (zh) | 一种基于深度学习的虹膜识别方法 | |
CN110717068A (zh) | 一种基于深度学习的视频检索方法 | |
CN114168782B (zh) | 一种基于三元组网络的深度哈希图像检索方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |