CN115019365B - 一种基于模型适用性度量的分级人脸识别方法 - Google Patents
一种基于模型适用性度量的分级人脸识别方法 Download PDFInfo
- Publication number
- CN115019365B CN115019365B CN202210566675.7A CN202210566675A CN115019365B CN 115019365 B CN115019365 B CN 115019365B CN 202210566675 A CN202210566675 A CN 202210566675A CN 115019365 B CN115019365 B CN 115019365B
- Authority
- CN
- China
- Prior art keywords
- score
- base map
- intra
- threshold
- feat
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000005259 measurement Methods 0.000 title claims abstract description 9
- 239000013598 vector Substances 0.000 claims abstract description 41
- 230000004927 fusion Effects 0.000 claims abstract description 27
- 238000012545 processing Methods 0.000 claims abstract description 22
- 238000012360 testing method Methods 0.000 claims abstract description 10
- 230000003044 adaptive effect Effects 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 10
- 241000282414 Homo sapiens Species 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 238000007499 fusion processing Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 7
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于模型适用性度量的分级人脸识别方法,属于人脸识别领域。本发明基于测试集获取一个统一判断阈值,记为global_Th,计算底图间最低判断阈值,称之为类间阈值score_inter_i;提取基于注册底图自身特性的类内阈值score_intra_i;当前模型的适用性差的场景,使用注册底图处理策略处理,并获得处理后的融合特征向量merge_feat_i和类内阈值merge_score_intra_i,根据上述阈值获得每个注册底图的自适应阈值,使用该自适应阈值进行人脸识别。本发明不仅考量注册底图之间关系,更进一步考量注册底图自身特性,即模型对注册底图的适用性,以此自适应的得到每个注册底图识别判断阈值;本发明通过衡量模型对每个注册底图的适用性,针对不同的适用性结合分级识别处理的方法以提高识别效果。
Description
技术领域
本发明属于人脸识别领域,具体涉及一种基于模型适用性度量的分级人脸识别方法,旨在通过为每个注册人脸底图分别设定阈值并基于一致性正则思想通过衡量模型对注册底图的适用性,进行分级处理以提升识别效果。
背景技术
得益于深度学习算法的发展,人脸识别技术取得了长足进展并在很多领域得到广泛应用。人脸识别流程通常包括如下模块,即人脸图像采集模块、人脸检测模块、人脸预处理对齐模块、人脸特征提取模块以及人脸特征比对识别模块。其中,人脸特征提取模块是以最大化类间差和最小化类内差为目标将二维人脸图像映射为一维特征向量;常规的人脸特征比对识别模块是将待识别图像的特征向量逐一与所有注册底图的特征向量进行对比,以获得与之特征相似度最大的值及其对应的注册底图,若该相似度值超过设定的阈值时,则判定待识别图像和与之对应的注册底图图像为同一人,否则认为待识别图像的人不在注册的人脸底图库内,从而完成人脸识别。
这里相似度阈值决定是否接受比对结果,意味其对识别效果的重要作用。通常相似度设置的阈值由测试数据集决定,即通过遍历不同的阈值,提取使得测试集上TPR(TruePositive Rate,Sensitivity,Recall,灵敏度,指的是真实值是Positive的所有结果中,模型预测对的比重)和FPR(False Positive Rate指的是在真实值为Negative的所有结果中,模型猜测错的比重)最优的阈值,做为部署时使用的统一判断阈值;但是实际部署场景与测试集场景多数情况下是有差异的,统一阈值难以适应多变的场景,直观上大众脸和个性脸的识别难度是不一样的,后续有方法通过考量底图间的相似度差异,以每个底图与其余底图相似度中最大值作为该底图的一个阈值,以避免底图间的错误识别。
发明内容
(一)要解决的技术问题
本发明要解决的技术问题是如何提供一种基于模型适用性度量的分级人脸识别方法,以解决统一阈值难以适应多变的场景的问题。
(二)技术方案
为了解决上述技术问题,本发明提出一种基于模型适用性度量的分级人脸识别方法,该方法包括如下步骤:
S1、基于测试集获取一个统一判断阈值,记为global_Th;
S2、收集注册底图,人名Name_i与底图Im_i对应,底图对应的特征向量为Feat_i,一个Im_i内只包含一个人脸图像,i对应注册底图序号,假设i最大为N,即有N个注册底图;
S3、计算底图间最低判断阈值,称之为类间阈值score_inter_i;
S4、提取基于注册底图自身特性的类内阈值score_intra_i;
S5、基于每个注册底图的类内阈值,统计所有底图对应的score_intra_i的均值和方差,记为aug_score_avg和aug_score_std;由此可计算hard_sample_score=aug_score_avg-3*MAX(aug_score_std,min_std);此值作为面向注册底图适用性的度量阈值,即对于score_intra_i大于此阈值的注册底图被认为适用性好;对于score_intra_i小于此阈值的注册底图,认为是当前模型的适用性差的场景,对该注册底图需执行步骤S6的处理;
S6、针对当前模型适用不稳定的注册底图场景,使用注册底图处理策略处理,并获得处理后的融合特征向量merge_feat_i和类内阈值merge_score_intra_i,并用注册底图的这些值替换其原score_intra_i和Feat_i,即score_intra_i=merge_score_intra_i和Feat_i=merge_feat_i;
S7、基于步骤S1、S3、S4、S6得到每个注册底图的自适应阈值为:
Adpt_score_i=MIN(max_score,MAX(score_intra_i,MAX(score_inter_i,global_Th)));
其中MIN和MAX为最小值和最大值函数,max_score为人为预先设置的经验阈值;
S8、自适应阈值确定后,使用该自适应阈值进行人脸识别。
进一步地,注册底图是识别时用于参考比对的图像。
进一步地,在人脸识别流程中,事先收集人脸图像并标识对应属性信息,这些图片就称为注册底图,属性信息包括人名。
进一步地,所述步骤S2中,一个注册人名对应一个或多个注册底图场景。
进一步地,所述步骤S3具体包括:选取任意一个底图特征向量,记为Feat_i,分别与其他底图特征向量Feat_j计算相似度score_ij,这里i不等于j;score_ij=F(Feat_i,Feat_j),F为相似度函数,其输出值域为0到1区间,完全相似为1,完全不相似为0;对N-1个相似度,取其中最大的那个记为score_inter_i,这样每个注册底图都有一个与之对应的类间阈值,此阈值作为该注册底图参照的最低判断阈值,以防止当前底图被识别为其他底图。
进一步地,所述步骤S4具体包括:为对每个注册底图Im_i做数据增强,aug_Im_ik=agument_k(Im_i),其中agument_k表示一种数据增强算子,k是算子序数,aug_Im_ik表示第k种数据增强算子作用Im_i后是输出的图像,其在经过人脸特征提取模块后转换为对应的增强特征向量aug_Feat_ik,然后计算其与原始底图特征向量Feat_i的相似度,即aug_score_ki=F(Feat_i,aug_Feat_ik),k的值从1到K,计算这些相似度的均值aug_score_avg_i,方差记为aug_score_std_i,由此可得该注册底图对应的类内阈值score_intra_i,设min_std为人为设定的最小方差,记为score_intra_i=aug_score_avg_i-3*MAX(aug_score_std_i,min_std),其中MAX表示取最大值的函数。
进一步地,所述步骤S6的处理策略包括:多特征融合策略、收集更多注册底图策略、多模型融合处理策略和使用更强算法模型处理策略。
进一步地,当处理策略为多特征融合策略时,所述步骤S6具体包括:针对当前模型适用不稳定的注册底图场景,结合步骤S4提取的多个增强特征向量计算融合特征向量,Merge为融合函数,然后计算融合特征向量与各增强特征向量的相似度,merge_score_ki=F(merge_feat_i,aug_Feat_ik),k=1,..K,计算其相似度的均值和方差,记为merge_score_avg_i和merge_score_std_i;计算融合后的类内阈值,merge_score_intra_i=merge_score_avg_i-3*MAX(merge_score_std_i,min_std),并用该注册底图的这些值替换其原score_intra_i和Feat_i,即score_intra_i=merge_score_intra_i和Feat_i=merge_feat_i。
进一步地,所述融合函数为均值融合或加权融合。
进一步地,所述步骤S8具体包括:当摄像头采集到一个待识别人脸图像记为qurey_im,经过特征提取模块得到映射特征向量为qurey_feat,利用相似度函数F计算它与所有底图特征向量Feat_i的最大相似度,如为q_score_h,该相似度对应的注册底图为Im_h,对应的自适应阈值为Adpt_score_h,若q_score_h大于Adpt_score_h,则认为待识别人脸是注册底图Im_h对应的人,否则,认为待识别人脸不在注册底图库内,识别流程完成
(三)有益效果
本发明提出一种基于模型适用性度量的分级人脸识别方法,本发明基于一致性正则化思想,提出了一种注册阶段的阈值生成策略,即不仅考量注册底图之间关系,更进一步考量注册底图自身特性,即模型对注册底图的适用性,以此自适应的得到每个注册底图识别判断阈值;本发明通过衡量模型对每个注册底图的适用性,针对不同的适用性,,结合分级识别处理的方法以提高识别效果。
具体实施方式
为使本发明的目的、内容和优点更加清楚,下面结合实施例,对本发明的具体实施方式作进一步详细描述。
本发明不仅考虑到底图间差异,更是通过分析底图自身的特性,即每个底图在模型上表现,为每个底图设计一个自适应的个性化阈值;并基于此,进一步衡量模型对每个底图识别的难度,对难以识别的底图使用分级识别的方法,以提升识别效果。
本发明提供一种基于模型适用性度量的分级人脸识别方法,该方法包括如下步骤:
S1、基于测试集获取一个统一判断阈值,记为global_Th;
S2、收集注册底图,人名Name_i与底图Im_i对应,底图对应的特征向量为Feat_i,一个Im_i内只包含一个人脸图像,i对应注册底图序号,假设i最大为N,即有N个注册底图;
S3、计算底图间最低判断阈值,称之为类间阈值score_inter_i;
S4、提取基于注册底图自身特性的类内阈值score_intra_i;
S5、基于每个注册底图的类内阈值,统计所有底图对应的score_intra_i的均值和方差,记为aug_score_avg和aug_score_std;由此可计算hard_sample_score=aug_score_avg-3*MAX(aug_score_std,min_std);此值作为面向注册底图适用性的度量阈值,即对于score_intra_i大于此阈值的注册底图被认为适用性好;对于score_intra_i小于此阈值的注册底图,认为是当前模型的适用性差的场景,对该注册底图需执行步骤S6的处理;
S6、针对当前模型适用不稳定的注册底图场景,使用注册底图处理策略处理,并获得处理后的融合特征向量merge_feat_i和类内阈值merge_score_intra_i,并用注册底图的这些值替换其原score_intra_i和Feat_i,即score_intra_i=merge_score_intra_i和Feat_i=merge_feat_i;
S7、基于步骤S1、S3、S4、S6得到每个注册底图的自适应阈值为:
Adpt_score_i=MIN(max_score,MAX(score_intra_i,MAX(score_inter_i,global_Th)));
其中MIN和MAX为最小值和最大值函数,max_score为人为预先设置的经验阈值;
S8、自适应阈值确定后,使用该自适应阈值进行人脸识别。
为了实现以上目的,本发明还提供一种实施步骤如下:
S1、常规的,基于测试集获取一个统一判断阈值,记为global_Th;
S2、收集注册底图,为了说明简化起见,示例假设每个注册的人名与一个底图一一对应,即一个人名Name_i对应一个底图Im_i,底图对应的特征向量为Feat_i,一个Im_i内只包含一个人脸图像,i对应注册底图序号,假设i最大为N,即有N个注册底图。
实际本发明也适用于一个注册人名可以对应多个注册底图场景。
其中,注册底图:识别时用于参考比对的图像。在人脸识别流程中,需要事先收集人脸图像并标识对应属性信息如人名(如A、B、C…)等,这些图片就称为注册底图。
S3、计算底图间最低判断阈值,称之为类间阈值score_inter_i。具体选取任意一个底图特征向量,记为Feat_i,分别与其他底图特征向量Feat_j计算相似度score_ij,这里i不等于j。score_ij=F(Feat_i,Feat_j),F为相似度函数,其输出值域为0到1区间,完全相似为1,完全不相似为0。对N-1个相似度,取其中最大的那个记为score_inter_i,这样每个注册底图都有一个与之对应的类间阈值,此阈值可作为该注册底图参照的最低判断阈值,以防止当前底图被识别为其他底图。
S4、分析每个注册底图自身特性,基于半监督学习算法中的一致性正则化思想,具体来说就是,基于平滑假设和聚类假设,具有不同标签的数据点在低密度区域分离,并且相似的数据点具有相似的输出。那么,如果对一个未标记的数据应用实际的扰动,其预测结果不应该发生显著变化,也就是输出具有一致性。即一个鲁棒的模型对近似的输入,其输出应该时一致的。也就是一个模型训练时学习到的信息,若很好的覆盖了测试场景信息,那么对测试场景的样本,做一定的扰动,那么模型对该扰动后样本的模型输出应该和扰动前的输出是近似的,即模型对应输出扰动具有一定的稳定性。由此可进一步推导出,若模型对同一样本的扰动输出变化很大,表示模型对该样本的泛化性不好,则可认为该模型未能很好的包含该样本所代表的场景信息。
基于上述分析,本发明设计了一种基于注册底图自身特性的类内阈值提取算法,具体为对每个注册底图Im_i做数据增强(也可是特征增强),aug_Im_ik=agument_k(Im_i),其中agument_k表示一种数据增强算子,k是算子序数,aug_Im_ik表示第k种数据增强算子作用Im_i后是输出的图像,其在经过人脸特征提取模块后转换为对应的增强特征向量aug_Feat_ik,然后计算其与原始底图特征向量Feat_i的相似度,即aug_score_ki=F(Feat_i,aug_Feat_ik),k的值从1到K,计算这些相似度的均值aug_score_avg_i,方差记为aug_score_std_i,由此可得该注册底图对应的类内相似度判断阈值score_intra_i,设min_std为人为设定的最小方差,记为score_intra_i=aug_score_avg_i-3*MAX(aug_score_std_i,min_std),其中MAX表示取最大值的函数;
S5、这里可以假设使用的训练良好的人脸特征提取模型对大多数底图的场景是适用的,也就是对多少底图的输出是稳定的,基于前步骤计算的每个注册底图的类内相似度判断阈值,统计所有底图对应的score_intra_i的均值和方差,记为aug_score_avg和aug_score_std;由此可计算hard_sample_score=aug_score_avg-3*MAX(aug_score_std,min_std);此值可作为模型面向注册底图适用性的度量阈值,即对于score_intra_i大于此阈值的注册底图可认为适用性好;对于score_intra_i小于此阈值的注册底图,可以认为是当前模型的适用性差的场景,对该注册底图需做特殊处理,本发明中对该场景注册底图的处理方式包括但不限如下策略:多特征融合策略、收集更多注册底图策略、多模型融合处理策略、使用更强算法模型处理策略等。前面两个策略具有实施方便的特点,后面两个策略在对效率有要求的场景由其具有工程实施意义,即轻量级模型处理大多数场景,少量场景交由更强模型处理。这里以多特征融合策略为例做实施说明。
S6、基于适用性差异的分级处理:如上步所述,针对当前模型适用不稳定的注册底图场景,结合步骤S4提取的多个增强特征向量计算融合特征向量,Merge为融合函数,可以是均值融合、加权融合等,然后计算融合特征向量与各增强特征向量的相似度,merge_score_ki=F(merge_feat_i,aug_Feat_ik),k=1,..K,计算其相似度的均值和方差,记为merge_score_avg_i和merge_score_std_i。计算融合后的类内阈值,merge_score_intra_i=merge_score_avg_i-3*MAX(merge_score_std_i,min_std),并用该注册底图的这些值替换其原score_intra_i和Feat_i,即score_intra_i=merge_score_intra_i和Feat_i=merge_feat_i。
S7、基于步骤S1、S3、S4、S6得到每个注册底图的自适应阈值为:
Adpt_score_i=MIN(max_score,MAX(score_intra_i,MAX(score_inter_i,global_Th)))。
其中MIN和MAX为最小值和最大值函数,max_score为人为预先设置的经验阈值,以避免自适应阈值过大;
S8、自适应阈值确定后,使用该自适应阈值进行人脸识别。
自适应阈值确定后的识别流程为:当摄像头采集到一个待识别人脸图像记为qurey_im,经过特征提取模块得到映射特征向量为qurey_feat,利用相似度函数F计算它与所有底图特征向量Feat_i的最大相似度,如为q_score_h,该相似度对应的注册底图为Im_h,该姿态对应的自适应阈值为Adpt_score_h,若q_score_h大于Adpt_score_h,则认为待识别人脸是注册底图Im_h对应的人,否则,认为待识别人脸不在注册底图库内,识别流程完成。
本发明基于一致性正则化思想:
本发明提出了一种注册阶段的阈值生成策略,即不仅考量注册底图之间关系,更进一步考量注册底图自身特性,即模型对注册底图的适用性,以此自适应的得到每个注册底图识别判断阈值;
本发明通过衡量模型对每个注册底图的适用性,针对不同的适用于,结合分级识别处理的方法以提高识别效果。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (10)
1.一种基于模型适用性度量的分级人脸识别方法,其特征在于,该方法包括如下步骤:
S1、基于测试集获取一个统一判断阈值,记为global_Th;
S2、收集注册底图,人名Name_i与底图Im_i对应,底图对应的特征向量为Feat_i,一个Im_i内只包含一个人脸图像,i对应注册底图序号,假设i最大为N,即有N个注册底图;
S3、计算底图间最低判断阈值,称之为类间阈值score_inter_i;
S4、提取基于注册底图自身特性的类内阈值score_intra_i;
S5、基于每个注册底图的类内阈值,统计所有底图对应的score_intra_i的均值和方差,记为aug_score_avg和aug_score_std;由此可计算hard_sample_score=aug_score_avg-3*MAX(aug_score_std,min_std);此值作为面向注册底图适用性的度量阈值,即对于score_intra_i大于此阈值的注册底图被认为适用性好;对于score_intra_i小于此阈值的注册底图,认为是当前模型的适用性差的场景,对该注册底图需执行步骤S6的处理;
S6、针对当前模型适用不稳定的注册底图场景,使用注册底图处理策略处理,并获得处理后的融合特征向量merge_feat_i和类内阈值merge_score_intra_i,并用注册底图的这些值替换其原score_intra_i和Feat_i,即score_intra_i=merge_score_intra_i和Feat_i=merge_feat_i;
S7、基于步骤S1、S3、S4、S6得到每个注册底图的自适应阈值为:
Adpt_score_i=MIN(max_score,MAX(score_intra_i,MAX(score_inter_i,global_Th)));
其中MIN和MAX为最小值和最大值函数,max_score为人为预先设置的经验阈值;
S8、自适应阈值确定后,使用该自适应阈值进行人脸识别。
2.如权利要求1所述的基于模型适用性度量的分级人脸识别方法,其特征在于,注册底图是识别时用于参考比对的图像。
3.如权利要求2所述的基于模型适用性度量的分级人脸识别方法,其特征在于,在人脸识别流程中,事先收集人脸图像并标识对应属性信息,这些图片就称为注册底图,属性信息包括人名。
4.如权利要求2所述的基于模型适用性度量的分级人脸识别方法,其特征在于,所述步骤S2中,一个注册人名对应一个或多个注册底图场景。
5.如权利要求1-4任一项所述的基于模型适用性度量的分级人脸识别方法,其特征在于,所述步骤S3具体包括:选取任意一个底图特征向量,记为Feat_i,分别与其他底图特征向量Feat_j计算相似度score_ij,这里i不等于j;score_ij=F(Feat_i,Feat_j),F为相似度函数,其输出值域为0到1区间,完全相似为1,完全不相似为0;对N-1个相似度,取其中最大的那个记为score_inter_i,这样每个注册底图都有一个与之对应的类间阈值,此阈值作为该注册底图参照的最低判断阈值,以防止当前底图被识别为其他底图。
6.如权利要求5所述的基于模型适用性度量的分级人脸识别方法,其特征在于,所述步骤S4具体包括:为对每个注册底图Im_i做数据增强,aug_Im_ik=agument_k(Im_i),其中agument_k表示一种数据增强算子,k是算子序数,aug_Im_ik表示第k种数据增强算子作用Im_i后是输出的图像,其在经过人脸特征提取模块后转换为对应的增强特征向量aug_Feat_ik,然后计算其与原始底图特征向量Feat_i的相似度,即aug_score_ki=F(Feat_i,aug_Feat_ik),k的值从1到K,计算这些相似度的均值aug_score_avg_i,方差记为aug_score_std_i,由此可得该注册底图对应的类内阈值score_intra_i,设min_std为人为设定的最小方差,记为score_intra_i=aug_score_avg_i-3*MAX(aug_score_std_i,min_std),其中MAX表示取最大值的函数。
7.如权利要求6所述的基于模型适用性度量的分级人脸识别方法,其特征在于,所述步骤S6的处理策略包括:多特征融合策略、收集更多注册底图策略、多模型融合处理策略和使用更强算法模型处理策略。
8.如权利要求7所述的基于模型适用性度量的分级人脸识别方法,其特征在于,当处理策略为多特征融合策略时,所述步骤S6具体包括:针对当前模型适用不稳定的注册底图场景,结合步骤S4提取的多个增强特征向量计算融合特征向量,Merge为融合函数,然后计算融合特征向量与各增强特征向量的相似度,merge_score_ki=F(merge_feat_i,aug_Feat_ik),k=1,..K,计算其相似度的均值和方差,记为merge_score_avg_i和merge_score_std_i;计算融合后的类内阈值,merge_score_intra_i=merge_score_avg_i-3*MAX(merge_score_std_i,min_std),并用该注册底图的这些值替换其原score_intra_i和Feat_i,即score_intra_i=merge_score_intra_i和Feat_i=merge_feat_i。
9.如权利要求8所述的基于模型适用性度量的分级人脸识别方法,其特征在于,所述融合函数为均值融合或加权融合。
10.如权利要求7-9任一项所述的基于模型适用性度量的分级人脸识别方法,其特征在于,所述步骤S8具体包括:当摄像头采集到一个待识别人脸图像记为qurey_im,经过特征提取模块得到映射特征向量为qurey_feat,利用相似度函数F计算它与所有底图特征向量Feat_i的最大相似度,如为q_score_h,该相似度对应的注册底图为Im_h,对应的自适应阈值为Adpt_score_h,若q_score_h大于Adpt_score_h,则认为待识别人脸是注册底图Im_h对应的人,否则,认为待识别人脸不在注册底图库内,识别流程完成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210566675.7A CN115019365B (zh) | 2022-05-23 | 2022-05-23 | 一种基于模型适用性度量的分级人脸识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210566675.7A CN115019365B (zh) | 2022-05-23 | 2022-05-23 | 一种基于模型适用性度量的分级人脸识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115019365A CN115019365A (zh) | 2022-09-06 |
CN115019365B true CN115019365B (zh) | 2024-04-09 |
Family
ID=83068683
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210566675.7A Active CN115019365B (zh) | 2022-05-23 | 2022-05-23 | 一种基于模型适用性度量的分级人脸识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115019365B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103902961A (zh) * | 2012-12-28 | 2014-07-02 | 汉王科技股份有限公司 | 一种人脸识别方法及装置 |
WO2017162076A1 (zh) * | 2016-03-24 | 2017-09-28 | 北京握奇数据股份有限公司 | 一种人脸识别方法及系统 |
CN112364801A (zh) * | 2020-11-19 | 2021-02-12 | 天津中科虹星科技有限公司 | 一种动态阈值人脸识别方法 |
-
2022
- 2022-05-23 CN CN202210566675.7A patent/CN115019365B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103902961A (zh) * | 2012-12-28 | 2014-07-02 | 汉王科技股份有限公司 | 一种人脸识别方法及装置 |
WO2017162076A1 (zh) * | 2016-03-24 | 2017-09-28 | 北京握奇数据股份有限公司 | 一种人脸识别方法及系统 |
CN112364801A (zh) * | 2020-11-19 | 2021-02-12 | 天津中科虹星科技有限公司 | 一种动态阈值人脸识别方法 |
Non-Patent Citations (1)
Title |
---|
基于分块SIFT和GMM的人脸识别方法;肖振球;陈旭东;曾文华;;湘潭大学自然科学学报;20170630(第02期);第90-95页 * |
Also Published As
Publication number | Publication date |
---|---|
CN115019365A (zh) | 2022-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | Saliency detection via dense and sparse reconstruction | |
Qu et al. | RGBD salient object detection via deep fusion | |
CN108520226B (zh) | 一种基于躯体分解和显著性检测的行人重识别方法 | |
CN107506703B (zh) | 一种基于无监督局部度量学习和重排序的行人再识别方法 | |
Lu et al. | Dense and sparse reconstruction error based saliency descriptor | |
Jia et al. | Visual tracking via adaptive structural local sparse appearance model | |
US10204283B2 (en) | Image recognizing apparatus, image recognizing method, and storage medium | |
Lynen et al. | Placeless place-recognition | |
CN107330397B (zh) | 一种基于大间隔相对距离度量学习的行人重识别方法 | |
CN107633226B (zh) | 一种人体动作跟踪特征处理方法 | |
WO2016110005A1 (zh) | 基于灰度和深度信息的多层融合的多模态人脸识别装置及方法 | |
Zhou et al. | Salient object detection via fuzzy theory and object-level enhancement | |
CN104504366A (zh) | 基于光流特征的笑脸识别系统及方法 | |
Lee et al. | Place recognition using straight lines for vision-based SLAM | |
Demirkus et al. | Robust semi-automatic head pose labeling for real-world face video sequences | |
JP2016062610A (ja) | 特徴モデル生成方法及び特徴モデル生成装置 | |
CN113592894B (zh) | 一种基于边界框和同现特征预测的图像分割方法 | |
Demirkus et al. | Hierarchical temporal graphical model for head pose estimation and subsequent attribute classification in real-world videos | |
WO2019128460A1 (zh) | 图像显著性检测方法和装置 | |
An et al. | Online RGB-D tracking via detection-learning-segmentation | |
CN113963032A (zh) | 一种融合目标重识别的孪生网络结构目标跟踪方法 | |
CN111709317A (zh) | 一种基于显著性模型下多尺度特征的行人重识别方法 | |
Zhang et al. | Category modeling from just a single labeling: Use depth information to guide the learning of 2d models | |
CN108664968B (zh) | 一种基于文本选取模型的无监督文本定位方法 | |
CN115019365B (zh) | 一种基于模型适用性度量的分级人脸识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |