CN116665272A - 机场场景人脸识别融合决策方法、装置、电子设备及介质 - Google Patents
机场场景人脸识别融合决策方法、装置、电子设备及介质 Download PDFInfo
- Publication number
- CN116665272A CN116665272A CN202310625029.8A CN202310625029A CN116665272A CN 116665272 A CN116665272 A CN 116665272A CN 202310625029 A CN202310625029 A CN 202310625029A CN 116665272 A CN116665272 A CN 116665272A
- Authority
- CN
- China
- Prior art keywords
- face recognition
- probability
- model
- face
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 63
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 46
- 238000003062 neural network model Methods 0.000 claims abstract description 16
- 230000001815 facial effect Effects 0.000 claims abstract description 7
- 239000013598 vector Substances 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 11
- 230000007704 transition Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 101100481876 Danio rerio pbk gene Proteins 0.000 description 3
- 101100481878 Mus musculus Pbk gene Proteins 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000002344 surface layer Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Collating Specific Patterns (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种一种机场场景人脸识别融合决策方法、装置、电子设备及介质,该方法,包括:S1:获取机场场景内的人员图像;S2:采用多模型融合算法对人员图像进行人脸识别;多模型融合算法包括:S21:从模型池中寻找一个最优的模型组合,模型组合包括多个不同场景下的人脸识别模型;S22:以多个模型计算出的top‑k图像的相似度为基础,利用预设的神经网络模型确定多种人脸特征信息在相似度级别上的关联;S23:计算得到一个综合的人脸比对排序和打分。本发明能够提高人脸识别模型的准确性和鲁棒性。
Description
技术领域
本发明涉及机场智能人像预警领域,更具体地,涉及一种机场场景人脸识别融合决策方法、装置、电子设备及介质。
背景技术
在机场场景的智能人像预警系统的人脸识别应用中,一个人在多幅人脸图像上可能会表现出多种表情变化或姿态旋转,甚至会受到光照改变、外界遮挡和模糊等因素影响,获取的人脸特征也会随之发生巨大的差别,这些复杂情况给人脸识别任务带来了很大挑战。因此仅依靠一种人脸识别模型的方法很难在机场的所有场景中表现出很高的准确率和鲁棒性。
发明内容
本发明的目的是提出一种机场场景人脸识别融合决策方法、装置、电子设备及介质,实现提高人脸识别模型的准确性和鲁棒性。
为实现上述目的,第一方面,本发明提出了一种机场场景人脸识别融合决策方法,包括:
S1:获取机场场景内的人员图像;
S2:采用多模型融合算法对所述人员图像进行人脸识别;
所述多模型融合算法包括:
S21:从模型池中寻找一个最优的模型组合,所述模型组合包括多个不同场景下的人脸识别模型;
S22:以多个模型计算出的top-k图像的相似度为基础,利用预设的神经网络模型确定多种人脸特征信息在相似度级别上的关联;
S23:计算得到一个综合的人脸比对排序和打分。
可选地,步骤S22包括:
S201:以图像对为基础,计算图像对在不同场景人脸识别模型上的相似度,形成相似度向量;
S202:基于所述相似度向量,利用所述神经网络模型确定图像对中两张图像不属于同一类别的第一概率以及两张图像属于同一类别的第二概率;
S203:对所述第一概率和所述第二概率进行归一化处理,得到相似度阈值。
可选地,步骤S201包括:
利用多种不同场景下的人脸识别模型提取人脸特征,获得每个人脸图像对中图像Ia和图像Ib的人脸特征集,其中图像Ia的人脸特征集为Fa={f1a,f2a,f3a,...,fma};图像Ib的人脸特征集为Fb={f1b,f2b,f3b,...,fmb};
计算图像Ia和图像Ib在各个特征上的相似度,得到得到一组相似度向量其中,/>式中,i=1~m,m为特征集中特征的数量。
可选地,步骤S202包括:
将每一个相似度向量传递给所述神经网络模型进行计算,得到第一概率P1和第二概率P2,其中,第一概率P1表示两张图像不是同一类别的概率,第一概率P1越大表示两张图像越不可能是同一类;第二概率P2表示两张图像是同一类别的概率,第二概率越大,表示两张图像越可能是同一类别。
可选地,步骤S203包括:
采用sigmoid函数将第一概率P1和第二概率P2转换到(0,1)区间内,并且保持单调递增;
将归一化的第一概率P1和第二概率P2统一为一个值,以确定人脸识别的相似度阈值。
可选地,通过以下公式将归一化的第一概率P1和第二概率P2统一为一个值:
可选地,步骤S23包括:
基于所述相似度阈值,利用knn算法从人脸数据库中寻找出与比对图片最接近的top-k个人脸图片。
第二方面,本发明提出一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行第一方面所述的机场场景人脸识别融合决策方法。
第三方面,本发明提出一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行第一方面所述的机场场景人脸识别融合决策方法。
第三方面,本发明提出一种机场场景的人脸识别融合决策装置,包括:
图像获取模块,用于获取机场场景内的人员图像;
人脸识别模块,用于采用多模型融合算法对所述人员图像进行人脸识别;
所述多模型融合算法包括:
从模型池中寻找一个最优的模型组合,所述模型组合包括多个不同场景下的人脸识别模型;
以多个模型计算出的top-k图像的相似度为基础,利用预设的神经网络模型确定多种人脸特征信息在相似度级别上的关联;
计算得到一个综合的人脸比对排序和打分。
本发明的有益效果在于:
本发明通过多模型融合算法,首先从模型池中寻找一个最优的模型组合,以多个模型计算出的top-k图像的相似度为基础,利用神经网络技术挖掘出多种人脸特征信息在相似度级别上的关联,最后计算得到一个综合的人脸比对排序和打分,本发明采用相似度级别的多模型融合策略能够避免直接拼接多个人脸识别模型特征所造成的过大的计算开销,同时,本发明的方法将通过自动融合多个不同模型的输出综合给出搜索结果,可以达到超过任意单个模型的性能,具有更高的召回率,更低的误识率。
本发明的系统具有其它的特性和优点,这些特性和优点从并入本文中的附图和随后的具体实施方式中将是显而易见的,或者将在并入本文中的附图和随后的具体实施方式中进行详细陈述,这些附图和具体实施方式共同用于解释本发明的特定原理。
附图说明
通过结合附图对本发明示例性实施例进行更详细的描述,本发明的上述以及其它目的、特征和优势将变得更加明显,在本发明示例性实施例中,相同的参考标号通常代表相同部件。
图1示出了本发明一个实施例的一种机场场景人脸识别融合决策方法的步骤图。
图2示出了本发明一个实施例的一种机场场景人脸识别融合决策方法中的多模型融合算法的原理图。
图3示出了本发明一个实施例的一种机场场景人脸识别融合决策方法中的神经网络模型的示意图。
图4示出了本发明一个实施例的一种机场场景人脸识别融合决策方法与现有单一人脸识别模型的通过率及误识率的对比曲线图。
具体实施方式
下面将参照附图更详细地描述本发明。虽然附图中显示了本发明的优选实施例,然而应该理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了使本发明更加透彻和完整,并且能够将本发明的范围完整地传达给本领域的技术人员。
实施例1
如图1所示,本实施例提供了一种机场场景人脸识别融合决策方法,包括:
S1:获取机场场景内的人员图像;
S2:采用多模型融合算法对所述人员图像进行人脸识别;
所述多模型融合算法包括:
S21:从模型池中寻找一个最优的模型组合,所述模型组合包括多个不同场景下的人脸识别模型;
S22:以多个模型计算出的top-k图像的相似度为基础,利用预设的神经网络模型确定多种人脸特征信息在相似度级别上的关联;
S23:计算得到一个综合的人脸比对排序和打分。
人脸识别算法是指在检测到人脸并定位面部关键特征点之后,主要的人脸区域就可以被裁剪出来,经过预处理之后,馈入后端的识别算法。识别算法要完成人脸特征的提取,并与库存的已知人脸进行比对,完成最终的分类。本方法对于给定的一张比对人脸图像(如通过机场内不同场景的用AI智能检测相机获取的动态图像),首先从模型池中寻找一个最优的模型组合,以多个模型计算出的top-k图像的相似度为基础,利用神经网络技术挖掘出多种人脸特征信息在相似度级别上的关联,最后计算得到一个综合的人脸比对排序和打分。本方法能够有效利用不同特征之间的互补性,弥补单一特征对人脸描述能力不足的缺点。
对于目前常用的人脸识别模型如:VGGFace、Lightened CNN、Caffe-face等,这些模型常用输出的特征维数为512维,多个人脸识别模型特征拼接以后可能会得到一个512*n长度的特征,若在这么长的特征上进行融合算法权重的学习会造成很大的计算开销。本方法通过相似度级别的多模型融合策略来避免直接拼接多个人脸识别模型特征所造成的过大的计算开销。本方法采用相似度级别的模型融合策略为:如图2所示,以图像对为基础,计算图像对在不同场景人脸识别模型上的相似度,形成相似度向量,再利用相似度融合算法挖掘多个相似度之间的潜在关联并给出一个综合的相似度。本方法通过相似度级别的模型融合策略可有由512*n维的特征输入被压缩为n维,极大的提升了计算效率。
上述步骤S22包括:
S201:以图像对为基础,计算图像对在不同场景人脸识别模型上的相似度,形成相似度向量;
具体地,利用多种不同场景下的人脸识别模型提取人脸特征,对于每张人脸图像Ij都会得到一个人脸特征集Fj={f1j,f2j,f3j,...,fmj}。假设需要计算人脸图像对中图像Ia和图像Ib的相似度,对于图像Ia的人脸特征集:Fa={f1a,f2a,f3a,...,fma};对于图像Ib的人脸特征集:Fb={f1b,f2b,f3b,...,fmb},计算图像Ia和图像Ib在各个特征上的相似度就是分别计算他们每种特征向量的上的相似度,相似度的计算方法如公式(1)所示,
具体的计算过程如下:
...
这样对于每个图像对,都会得到一组相似度向量
S202:基于所述相似度向量,利用所述神经网络模型确定图像对中两张图像不属于同一类别的第一概率以及两张图像属于同一类别的第二概率;
具体地,如图3所示,将每一个相似度向量传递给如图3所示的预设的神经网络模型进行计算,得到第一概率P1和第二概率P2,其中,第一概率P1表示两张图像不是同一类别的概率,第一概率P1越大表示两张图像越不可能是同一类;第二概率P2表示两张图像是同一类别的概率,第二概率越大,表示两张图像越可能是同一类别。
S203:对所述第一概率和所述第二概率进行归一化处理,得到相似度阈值。
具体地,由于预设的神经网络模型的输出第一概率P1和第二概率P2并不严格在[0,1]内,针对每一个第一概率和其对应的第二概率,计算其对应的人脸图像对的相似度,采用sigmoid函数将第一概率P1和第二概率P2都转换到(0,1)区间内,并且保持单调递增,转换过程如下:
公式(2)的目的是为了将第一概率P1和第二概率P2统一为一个值方便人脸识别时确定相似度阈值,Sigmoid函数是一个在生物学中常见的S型函数,也称为S型生长曲线。在信息科学中,由于其单增以及反函数单增等性质,Sigmoid函数常被用作神经网络的激活函数,将变量映射到0,1之间。
本实施例中,上述步骤S23包括:基于所述相似度阈值,利用knn算法从人脸数据库中寻找出与比对图片最接近的topk个人脸图片。
具体地,得到相似度后利用knn算法寻找出与比对图片最接近的topk个人脸图片。其中,knn算法为k-近邻算法(k-NearestNeighbouralgorithm),其工作原理是:给定一个已知标签类别的训练数据集,输入没有标签的新数据后,在训练数据集中找到与新数据最邻近的k个实例,如果这k个实例的多数属于某个类别,那么新数据就属于这个类别,即由那些离新数据最近的k个实例来投票决定新数据归为哪一类。本方法利用knn算法从人脸数据库中寻找出与比对图片最接近的top-k个人脸图片。
需要说明的是,上述多模型融合策略的上限依赖于每一个单模型的性能,也依赖于模型间的互补性。为了最大程度的提升多模型融合的策略的性能,首先从模型池中选取各个场景下最优的人脸识别模型,这个选举方式根据不同人脸识别模型在实际应用场景应用过程中的主要召回率的表现值进行比对,择优选择。然后穷举这些模型的每一种组合可能,并在预设场景的小规模评估测试集上评估每种组合的性能,同时得到每种组合的最优阈值,最优阈值是根据组合后的人脸识别模型召回率进行判断,择优选择。最后,我们选取其中性能最好的模型组合,以及其对应的最优阈值。
如图4所示,本实施例的算法模型将通过自动融合多个不同模型的输出综合给出搜索结果,可以达到超过任意单个模型的性能(更高的召回,更低的误识)。
在本发明的一个具体应用示例中:在首都机场智能人像预警平台系统中进行了如下应用:
系统采用的1种主算法和2种辅助算法,共3种人脸算法分别计算,融合决策模型基于3种算法结果进一步计算,融合决策模型应支持从一维融合到多维融合到自学习式融合的不断发展,且具有可扩展性,最终形成区别于表层的仅三种算法投票表决报警或任一算法报警即报警的简单机制。融合算法决策模型需通过对3种算法比对过程以及比对结果的深度分析,进一步融合计算,从而对某种单一算法有可能造成的错识、误识进行结果纠正,在不降低准确率的情况下,减少漏报率。该套融合决策模型应有完善的算法评价功能,在使用过程中,针对不同场景的三种人像比对成功率进行自动统计、打分、排名的功能。在其中一套或两套人脸算法系统发生宕机的情况下,不影响整套融合算法模型推送比对结果,保证系统运行。辅算法厂商需按照甲方需求,提供满足融合需求的辅算法,辅助算法能够配合融合决策模型提供TOP100的比对记录及分数。
实施例2
本实施例提供一种机场场景的人脸识别融合决策装置,包括:
图像获取模块,用于获取机场场景内的人员图像;
人脸识别模块,用于采用多模型融合算法对所述人员图像进行人脸识别;
所述多模型融合算法包括:
从模型池中寻找一个最优的模型组合,所述模型组合包括多个不同场景下的人脸识别模型;
以多个模型计算出的top-k图像的相似度为基础,利用预设的神经网络模型确定多种人脸特征信息在相似度级别上的关联;
计算得到一个综合的人脸比对排序和打分。
本实施例中,多模型融合算法具体包括如下处理流程:
利用多种不同场景下的人脸识别模型提取人脸特征,获得每个人脸图像对中图像Ia和图像Ib的人脸特征集,其中图像Ia的人脸特征集为Fa={f1a,f2a,f3a,...,fma};图像Ib的人脸特征集为Fb={f1b,f2b,f3b,...,fmb};
计算图像Ia和图像Ib在各个特征上的相似度,得到得到一组相似度向量其中,/>式中,i=1~m,m为特征集中特征的数量。
将每一个相似度向量传递给所述神经网络模型进行计算,得到第一概率P1和第二概率P2,其中,第一概率P1表示两张图像不是同一类别的概率,第一概率P1越大表示两张图像越不可能是同一类;第二概率P2表示两张图像是同一类别的概率,第二概率越大,表示两张图像越可能是同一类别。
采用sigmoid函数将第一概率P1和第二概率P2转换到(0,1)区间内,并且保持单调递增;
将归一化的第一概率P1和第二概率P2统一为一个值,以确定人脸识别的相似度阈值。
通过以下公式将归一化的第一概率P1和第二概率P2统一为一个值:
基于所述相似度阈值,利用knn算法从人脸数据库中寻找出与比对图片最接近的topk个人脸图片。
实施例3
本实施例提供一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行实施例1所述的机场场景人脸识别融合决策方法。
根据本公开实施例的电子设备包括存储器和处理器,该存储器用于存储非暂时性计算机可读指令。具体地,存储器可以包括一个或多个计算机程序产品,该计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。该易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。该非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。
该处理器可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元,并且可以控制电子设备中的其它组件以执行期望的功能。在本公开的一个实施例中,该处理器用于运行该存储器中存储的该计算机可读指令。
本领域技术人员应能理解,为了解决如何获得良好用户体验效果的技术问题,本实施例中也可以包括诸如通信总线、接口等公知的结构,这些公知的结构也应包含在本公开的保护范围之内。
有关本实施例的详细说明可以参考前述各实施例中的相应说明,在此不再赘述。
实施例4
本实施例提供一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行第一方面所述的机场场景人脸识别融合决策方法。
根据本公开实施例的计算机可读存储介质,其上存储有非暂时性计算机可读指令。当该非暂时性计算机可读指令由处理器运行时,执行前述的本公开各实施例方法的全部或部分步骤。
上述计算机可读存储介质包括但不限于:光存储介质(例如:CD-ROM和DVD)、磁光存储介质(例如:MO)、磁存储介质(例如:磁带或移动硬盘)、具有内置的可重写非易失性存储器的媒体(例如:存储卡)和具有内置ROM的媒体(例如:ROM盒)。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。
Claims (10)
1.一种机场场景人脸识别融合决策方法,其特征在于,包括:
S1:获取机场场景内的人员图像;
S2:采用多模型融合算法对所述人员图像进行人脸识别;
所述多模型融合算法包括:
S21:从模型池中寻找一个最优的模型组合,所述模型组合包括多个不同场景下的人脸识别模型;
S22:以多个模型计算出的top-k图像的相似度为基础,利用预设的神经网络模型确定多种人脸特征信息在相似度级别上的关联;
S23:计算得到一个综合的人脸比对排序和打分。
2.根据权利要求1所述的机场场景人脸识别融合决策方法,其特征在于,步骤S22包括:
S201:以图像对为基础,计算图像对在不同场景人脸识别模型上的相似度,形成相似度向量;
S202:基于所述相似度向量,利用所述神经网络模型确定图像对中两张图像不属于同一类别的第一概率以及两张图像属于同一类别的第二概率;
S203:对所述第一概率和所述第二概率进行归一化处理,得到相似度阈值。
3.根据权利要求2所述的机场场景人脸识别融合决策方法,其特征在于,步骤S201包括:
利用多种不同场景下的人脸识别模型提取人脸特征,获得每个人脸图像对中图像Ia和图像Ib的人脸特征集,其中图像Ia的人脸特征集为Fa={f1a,f2a,f3a,...,fma};图像Ib的人脸特征集为Fb={f1b,f2b,f3b,...,fmb};
计算图像Ia和图像Ib在各个特征上的相似度,得到得到一组相似度向量其中,/>式中,i=1~m,m为特征集中特征的数量。
4.根据权利要求3所述的机场场景人脸识别融合决策方法,其特征在于,步骤S202包括:
将每一个相似度向量传递给所述神经网络模型进行计算,得到第一概率P1和第二概率P2,其中,第一概率P1表示两张图像不是同一类别的概率,第一概率P1越大表示两张图像越不可能是同一类;第二概率P2表示两张图像是同一类别的概率,第二概率越大,表示两张图像越可能是同一类别。
5.根据权利要求4所述的机场场景人脸识别融合决策方法,其特征在于,步骤S203包括:
采用sigmoid函数将第一概率P1和第二概率P2转换到(0,1)区间内,并且保持单调递增;
将归一化的第一概率P1和第二概率P2统一为一个值,以确定人脸识别的相似度阈值。
6.根据权利要求5所述的机场场景人脸识别融合决策方法,其特征在于,通过以下公式将归一化的第一概率P1和第二概率P2统一为一个值:
7.根据权利要求6所述的机场场景人脸识别融合决策方法,其特征在于,步骤S23包括:
基于所述相似度阈值,利用knn算法从人脸数据库中寻找出与比对图片最接近的top-k个人脸图片。
8.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7任一所述的机场场景人脸识别融合决策方法。
9.一种非暂态计算机可读存储介质,其特征在于,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行权利要求1-7任一所述的机场场景人脸识别融合决策方法。
10.一种机场场景的人脸识别融合决策装置,其特征在于,包括:
图像获取模块,用于获取机场场景内的人员图像;
人脸识别模块,用于采用多模型融合算法对所述人员图像进行人脸识别;
所述多模型融合算法包括:
从模型池中寻找一个最优的模型组合,所述模型组合包括多个不同场景下的人脸识别模型;
以多个模型计算出的top-k图像的相似度为基础,利用预设的神经网络模型确定多种人脸特征信息在相似度级别上的关联;
计算得到一个综合的人脸比对排序和打分。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310625029.8A CN116665272A (zh) | 2023-05-30 | 2023-05-30 | 机场场景人脸识别融合决策方法、装置、电子设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310625029.8A CN116665272A (zh) | 2023-05-30 | 2023-05-30 | 机场场景人脸识别融合决策方法、装置、电子设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116665272A true CN116665272A (zh) | 2023-08-29 |
Family
ID=87713121
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310625029.8A Pending CN116665272A (zh) | 2023-05-30 | 2023-05-30 | 机场场景人脸识别融合决策方法、装置、电子设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116665272A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117523638A (zh) * | 2023-11-28 | 2024-02-06 | 广州视声智能科技有限公司 | 基于优先级筛选的人脸识别方法及系统 |
-
2023
- 2023-05-30 CN CN202310625029.8A patent/CN116665272A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117523638A (zh) * | 2023-11-28 | 2024-02-06 | 广州视声智能科技有限公司 | 基于优先级筛选的人脸识别方法及系统 |
CN117523638B (zh) * | 2023-11-28 | 2024-05-17 | 广州视声智能科技有限公司 | 基于优先级筛选的人脸识别方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106649715B (zh) | 一种基于局部敏感哈希算法和神经网络的跨媒体检索方法 | |
CN109558823B (zh) | 一种以图搜图的车辆识别方法及系统 | |
CN113222149B (zh) | 模型训练方法、装置、设备和存储介质 | |
CN109993061B (zh) | 一种人脸检测与识别方法、系统以及终端设备 | |
CN109492537B (zh) | 一种物体识别方法及装置 | |
CN111222409A (zh) | 车辆品牌的标注方法、装置及系统 | |
CN116665272A (zh) | 机场场景人脸识别融合决策方法、装置、电子设备及介质 | |
Gu et al. | Embedded and real-time vehicle detection system for challenging on-road scenes | |
CN115690514A (zh) | 图像识别方法及相关设备 | |
CN113159071B (zh) | 一种跨模态图像-文本关联异常检测方法 | |
CN117829243A (zh) | 模型训练方法、目标检测方法、装置、电子设备及介质 | |
CN112241470A (zh) | 一种视频分类方法及系统 | |
CN115098646B (zh) | 一种图文数据的多级关系分析与挖掘方法 | |
CN116206201A (zh) | 一种监督目标检测识别方法、装置、设备及存储介质 | |
CN114299295A (zh) | 一种数据处理方法及相关装置 | |
CN112989869B (zh) | 人脸质量检测模型的优化方法、装置、设备及存储介质 | |
CN114445716A (zh) | 关键点检测方法、装置、计算机设备、介质及程序产品 | |
Wang et al. | Fast loop closure detection via binary content | |
Hasan et al. | Smoke detection from different environmental conditions using faster r-cnn approach based on deep neural network | |
CN118485954B (zh) | 一种视频异常检测系统、方法、计算机设备及存储介质 | |
CN117851640B (zh) | 基于复合特征的视频数据处理方法、装置、设备和介质 | |
CN118430051B (zh) | 一种高辨别性的部分遮挡人脸识别方法、系统及存储介质 | |
CN118013020B (zh) | 一种基于检索生成联合式训练的专利查询方法及系统 | |
CN113033807B (zh) | 线上数据收集方法和神经网络训练方法及相关装置、存储介质 | |
CN116863366A (zh) | 跨样本虚假新闻视频的检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |