CN114821702A - 一种基于遮挡人脸的热红外人脸识别方法 - Google Patents
一种基于遮挡人脸的热红外人脸识别方法 Download PDFInfo
- Publication number
- CN114821702A CN114821702A CN202210253354.1A CN202210253354A CN114821702A CN 114821702 A CN114821702 A CN 114821702A CN 202210253354 A CN202210253354 A CN 202210253354A CN 114821702 A CN114821702 A CN 114821702A
- Authority
- CN
- China
- Prior art keywords
- face
- thermal infrared
- shielding
- different
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Collating Specific Patterns (AREA)
Abstract
本发明涉及图像识别技术领域,特别是涉及一种基于遮挡人脸的热红外人脸识别方法,包括人脸遮挡类型的判别和采用自适应算法群对判别后的热红外人脸进行自适应识别。通过本识别方法,能有效解决难以实现精确识别的问题。
Description
技术领域
本发明涉及图像识别技术领域,特别是涉及一种基于遮挡人脸的热红外人脸识别方法。
背景技术
国内外人脸识别的技术手段已经从传统的完整光学图像发展到多种图像特征获取,正在向着人脸检测快速化、精准化、高鲁棒性发展方向。基于遮挡的红外人脸识别技术主要有遮挡判别和人脸识别算法,目前对遮挡情况进行判别主要使用深度网络无监督特征学习或YOLO算法等;对于识别算法,已有学者进行了不同特征提取方法混合的多维融合研究。目前虽然已有一些关于遮挡的热红外人脸识别研究,但各种方法都有着各自的缺陷。当设计一体化判别识别算法时,不同的模块之间的精确度往往不够,难以实现独立精确识别。并且,现有的热红外人脸识别算法模型在面对红外设备采集的实际图像时,表现出泛化能力差、识别率低、性能因遮挡而下降等问题。
发明内容
为解决上述技术问题,本发明提出了一种基于遮挡人脸的热红外人脸识别方法,能有效解决难以实现精确识别的问题。
本发明是通过采用下述技术方案实现的:
一种基于遮挡人脸的热红外人脸识别方法,其特征在于:包括以下步骤:
S1.识别模型提取热红外图像中的人脸特征,根据提取的人脸特征,对人脸遮挡类型进行判别,并得到相应的判别参数M;
S2.将判别参数M以及对应的热红外图像输入构建的自适应算法群,自适应识别算法群根据输入的判别参数M自适应的分配每个识别器的决策权重,加权计算后,将该计算结果与人脸数据库进行对比,实现对人脸的识别;
其中,自适应算法群由多个识别器根据识别模型得到的不同决策权值融合得到,不同识别算法对应识别不同的遮挡类型,具体为:
F={f1,f2,…fN},N≥3;
其中,f1,f2,…fN表示N个不同的识别器。
所述步骤S1具体包括以下步骤:
S11.图像采集,得到热红外图像,并进行识别模型的训练;其中,所述识别模型为用注意力机制替换YOLO基础算法中对应的卷积神经网络后得到的;
S12.利用训练好的识别模型进行特征提取并进行分类,得到相应的判别参数M;所述判别参数M利用概率来表示,即第x个特征被分类为第m种遮挡情况的概率。
所述步骤S12中识别模型进行特征提取并进行分类具体指:识别模型提取输入的热红外图像的特征数据,增加其中重点区域的权重后进行特征的更新,多次迭代得到不同特征的分类情况。
所述特征数据包括人脸的鼻梁、两颊、下巴和眼睛周边的特征数据。
所述步骤S12中进行分类具体指:根据遮挡位置及大小同时判断是否佩戴口罩以及是否佩戴眼镜;若判断出是佩戴了口罩,根据不同口罩材料的反射率不同,通过比对,对口罩类型进行分类,得到具体的口罩型号。
所述步骤S2还包括:根据自适应算法群中不同识别器的识别情况,对参数M进行编码,得到一组向量值,将其作为决策权值为自适应算法群中不同识别器提供权重进行最后的识别。
所述对参数M进行编码,得到一组向量值具体指:若训练好的识别模型判断输入的热红外图像的第x特征被分类为第m类遮挡类型的概率为pm(x),其满足将所有的概率值列为向量形式{pm(x);m=1,2,…N}。
与现有技术相比,本发明的有益效果表现在:
1、本发明先采用基于注意力机制的识别模型对人脸遮挡情况进行判别,然后采用自适应算法群对判别后的热红外人脸进行自适应识别,解决只使用一种识别算法无法精确识别的问题,能提高遮挡人脸条件下的热红外人脸识别的精度和速度。
2、本发明中,用注意力机制替换YOLO基础算法中的部分卷积神经网络,这样可以针对输入热红外图像中的特定区域筛选传递特征,通过多次训练,得到一个稳定的热红外人脸遮挡情况识别模型,能进一步增强对于细节特征的提取,提高了判别的准确性。
3、自适应算法群能通过根据实际检测到的遮挡类型为不同识别器赋予不同的权重以加强整体算法的准确性。当某个识别器擅长对应热人脸的遮挡情况时,就赋予该识别器较大的权值,以提高其在融合决策中的重要性,反之,当识别器不能很好识别对应热人脸的遮挡情况时,就赋予该识别器较小的权值,降低其在融合决策中的重要性。对前一步得到的参数进行编码,编码结果作为决策权值与每一个识别器针对的不同遮挡情况对应,将决策权值和其对应的热红外人脸图一起输入到自适应算法群中,得到一个消除遮挡影响的结果,并与热人脸数据库中的数据进行比对,最终实现对人脸的识别。
附图说明
下面将结合说明书附图和具体实施方式对本发明作进一步的详细说明,其中:
图1为本发明的流程示意图。
具体实施方式
实施例1
作为本发明基本实施方式,本发明包括一种基于遮挡人脸的热红外人脸识别方法,包括以下步骤:
S1.识别模型提取热红外图像中的人脸特征,根据提取的人脸特征,对人脸遮挡类型进行判别,并得到相应的判别参数M。
S2.将判别参数M以及对应的热红外图像输入构建的自适应算法群,自适应识别算法群根据输入的判别参数M自适应的分配每个识别器的决策权重,加权计算后,将该计算结果与人脸数据库进行对比,实现对人脸的识别。
其中,自适应算法群由多个识别器根据识别模型得到的不同决策权值融合得到,不同识别算法对应识别不同的遮挡类型,具体为:
F={f1,f2,…fN},N≥3;
其中,f1,f2,…fN表示N个不同的识别器,每个识别器中包含有不同的识别算法,擅长识别的遮挡类型不同。
实施例2
作为本发明一较佳实施方式,本发明包括一种基于遮挡人脸的热红外人脸识别方法,包括以下步骤:
S1.识别模型提取热红外图像中的人脸特征,根据提取的人脸特征,对人脸遮挡类型进行判别,并得到相应的判别参数M,具体包括以下步骤:
S11.图像采集,得到热红外图像,并进行识别模型的训练,具体为:对输入的热红外图像进行特征提取,用注意力机制替换YOLO基础算法中的部分卷积神经网络,可以针对输入热红外图像中的特定区域筛选传递特征,通过多次训练,得到一个稳定的热红外人脸遮挡类型的识别模型。
S12.利用训练好的识别模型进行特征提取并进行分类,即识别模型提取输入的热红外图像的特征数据,增加其中重点区域的权重后进行特征的更新,多次迭代得到不同特征的分类情况,得到相应的判别参数M。所述判别参数M利用概率来表示,即第x个特征被分类为第m种遮挡情况的概率。
S2.将判别参数M以及对应的热红外人脸图输入构建的自适应算法群,自适应识别算法群根据输入的判别参数M自适应的分配每个识别器的决策权重,加权计算后,将该计算结果与人脸数据库进行对比,实现对人脸的识别。
其中,自适应算法群由多个识别器根据识别模型得到的不同决策权值融合得到,不同识别算法对应识别不同的遮挡类型,具体为
F={f1,f2,…fN},N≥3;
其中,f1,f2,…fN表示N个不同的识别器。
实施例3
作为本发明另一较佳实施方式,本发明包括一种基于遮挡人脸的热红外人脸识别方法,包括以下步骤:
S1.识别模型提取热红外图像中的人脸特征,根据提取的人脸特征,对人脸遮挡类型进行判别,并得到相应的判别参数M。所述判别参数M利用概率来表示,即第x个特征被分类为第m种遮挡情况的概率。
S2.根据自适应算法群中不同识别器的识别情况,对参数M进行编码,得到一组向量值,即若训练好的识别模型判断输入的热红外图像的第x特征被分类为第m类遮挡类型的概率为pm(x),其满足将所有的概率值列为向量形式{pm(x);m=1,2,…N}。将其作为决策权值为自适应算法群中不同识别器提供权重进行最后的识别。
将判别参数M以及对应的热红外图像输入构建的自适应算法群,自适应识别算法群根据输入的判别参数M自适应的分配每个识别器的决策权重,加权计算后,将该计算结果与人脸数据库进行对比,实现对人脸的识别。
其中,自适应算法群由多个识别器根据识别模型得到的不同决策权值融合得到,不同识别算法对应识别不同的遮挡类型,具体为
F={f1,f2,…fN},N≥3;
其中,f1,f2,…fN表示N个不同的识别器。
实施例4
作为本发明最佳实施方式,参照说明书附图1,本发明包括一种基于遮挡人脸的热红外人脸识别方法,包括以下步骤:
S1.识别模型提取热红外图像中的人脸特征,根据提取的人脸特征,对人脸遮挡类型进行判别,并得到相应的判别参数M。具体包括以下步骤:
S11.图像采集,得到热红外图像,构建并训练识别模型。对于设备输入的人脸热红外图像,利用注意力机制和YOLO相结合的算法,对图像中鼻梁、两颊、下巴以及眼睛周围这些显著区域进行检测,构建热红外人脸遮挡类型的识别模型,该识别模型为一个多标签分类器,第一步采用卷积神经网络提取输入热红外图像的特征数据,增加其中重点区域的权重后进行特征的更新,多次迭代得到不同特征的分类情况。后根据不同遮挡物的属性参数,进一步采用近红外图像辅助训练该模型,最后得到训练完成的识别模型。
S12.利用训练好的识别模型进行特征提取并进行分类,即识别模型提取输入的热红外图像的特征数据,增加其中重点区域的权重后进行特征的更新,多次迭代得到不同特征的分类情况,得到相应的判别参数M。所述特征数据包括人脸的鼻梁、两颊、下巴和眼睛周边等显著区域的特征数据。所述判别参数M利用概率来表示,即第x个特征被分类为第m种遮挡情况的概率。
其中,在进行识别时,识别方法可以为:根据遮挡位置及大小同时判断是否佩戴口罩以及是否佩戴眼镜;若判断出是佩戴了口罩,根据不同口罩材料的反射率不同,通过比对,对口罩类型进行分类,得到具体的口罩型号。
S2.采用自适应算法群,利用输入的热红外图像判别后的判别参数M编码而成的决策权值,加权集成不同的识别器后对热红外图像进行识别。
其中,自适应算法群由多个识别器根据识别模型得到的不同决策权值融合得到,不同识别算法对应识别不同的遮挡类型,具体为:
F={f1,f2,…fN},N≥3;
其中,f1,f2,…fN表示N个不同的识别器,每个识别器会关注不同的遮挡类型。当某个识别器擅长对应热人脸的遮挡情况时,就赋予该识别器较大的权值,以提高其在融合决策中的重要性,反之,当识别器不能很好识别对应热人脸的遮挡情况时,就赋予该识别器较小的权值,降低其在融合决策中的重要性。下述为三种主要的识别器:
当判定为无遮挡或者遮挡面积小于某个特定值,采用传统的支持向量机分类器来识别人脸,采用一种非线性的SVM分类器,使用以sigmoid函数为核函数的SVM分类器来训练人脸识别分类器。根据实际情况和要求,将SVM分类器的参数γ、C的值范围设置在合理范围内;在设定的值范围内取一组合适的值建立分类器,然后通过交叉验证判断分类器的性能;重复上一步直到知道所有参数对应的分类器性能,选择性能最好的参数作为最佳参数。利用训练好的SVM分类模型进行分类,分类器输出分类结果,最终得到识别结果,该识别器对应的决策权值与不佩戴口罩的参数相关。
第二种识别器采用的是基于随即投影和稀疏表征的热红外人脸识别方法。该识别器需要先单独进行训练,训练的数据为眼部有遮挡的热红外人脸图像,训练过程首先使用随机投影降低图像的维度,利用眼部遮挡图像未遮挡图像在遮挡区域外的区域存在的强相关性的特性,使用l1最小化稀疏表征的方法进行比较其相关性进行识别。与由于其主要针对的是眼部有遮挡的图像识别,故对应该识别器的决策权值与是否佩戴眼镜相关的参数有关,权值大小由编码方式决定。
第三种识别器可以采用的是基于红外热成像定位穴位的局部遮挡人脸识别方法,首先采集人脸图像,采用主成分分析算法提取人脸特征,当人脸遮挡达到40%时,由于用户人脸固有结构缺失,原始人脸识别算法的精度不足以支持正常的实际应用,引入红外热成像图像,然后对其进行温度伪定位和图像预处理;然后根据中医对穴位的同体英寸定位方法,开始在面部图片上定位穴位,然后计算点之间的距离,利用BP神经网络算法计算了红外面部图像中面部特征点与面部穴位之间的映射关系,利用点之间的距离作为人脸识别特征,辅助人脸识别。主要针对大面积遮挡时的识别,即超过40%,故对应该识别器的决策权值与佩戴口罩遮挡面积相关参数有关,权值大小由编码方式决定。
自适应识别算法群会结合决策权重对输入图像有侧重的进行特征提取。若训练好的识别模型判断输入的热红外图像的第x特征被分类为第m类遮挡类型的概率为pm(x),其满足将所有的概率值列为向量形式{pm(x);m=1,2,…N},输入自适应识别算法群,自适应识别算法群会根据输入的结果自适应的分配每个识别器的决策权重。
将决策权值与输入的热红外人脸数据共同输入自适应识别算法群进行识别,并将输出结果与热红外人脸数据库比对,即可得到识别的结果。
综上所述,本领域的普通技术人员阅读本发明文件后,根据本发明的技术方案和技术构思无需创造性脑力劳动而作出的其他各种相应的变换方案,均属于本发明所保护的范围。
Claims (7)
1.一种基于遮挡人脸的热红外人脸识别方法,其特征在于:包括以下步骤:
S1.识别模型提取热红外图像中的人脸特征,根据提取的人脸特征,对人脸遮挡类型进行判别,并得到相应的判别参数M;
S2.将判别参数M以及对应的热红外图像输入构建的自适应算法群,自适应识别算法群根据输入的判别参数M自适应的分配每个识别器的决策权重,加权计算后,将该计算结果与人脸数据库进行对比,实现对人脸的识别;
其中,自适应算法群由多个识别器根据识别模型得到的不同决策权值融合得到,不同识别算法对应识别不同的遮挡类型,具体为:
F={f1,f2,…fN},N≥3;
其中,f1,f2,…fN表示N个不同的识别器。
2.根据权利要求1所述的一种基于遮挡人脸的热红外人脸识别方法,其特征在于:所述步骤S1具体包括以下步骤:
S11.图像采集,得到热红外图像,并进行识别模型的训练;其中,所述识别模型为用注意力机制替换YOLO基础算法中对应的卷积神经网络后得到的;
S12.利用训练好的识别模型进行特征提取并进行分类,得到相应的判别参数M;所述判别参数M利用概率来表示,即第x个特征被分类为第m种遮挡情况的概率。
3.根据权利要求1所述的一种基于遮挡人脸的热红外人脸识别方法,其特征在于:所述步骤S12中识别模型进行特征提取并进行分类具体指:识别模型提取输入的热红外图像的特征数据,增加其中重点区域的权重后进行特征的更新,多次迭代得到不同特征的分类情况。
4.根据权利要求3所述的一种基于遮挡人脸的热红外人脸识别方法,其特征在于:所述特征数据包括人脸的鼻梁、两颊、下巴和眼睛周边的特征数据。
5.根据权利要求3所述的一种基于遮挡人脸的热红外人脸识别方法,其特征在于:所述步骤S12中进行分类具体指:根据遮挡位置及大小同时判断是否佩戴口罩以及是否佩戴眼镜;若判断出是佩戴了口罩,根据不同口罩材料的反射率不同,通过比对,对口罩类型进行分类,得到具体的口罩型号。
6.根据权利要求1所述的一种基于遮挡人脸的热红外人脸识别方法,其特征在于:所述步骤S2还包括:根据自适应算法群中不同识别器的识别情况,对参数M进行编码,得到一组向量值,将其作为决策权值为自适应算法群中不同识别器提供权重进行最后的识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210253354.1A CN114821702A (zh) | 2022-03-15 | 2022-03-15 | 一种基于遮挡人脸的热红外人脸识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210253354.1A CN114821702A (zh) | 2022-03-15 | 2022-03-15 | 一种基于遮挡人脸的热红外人脸识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114821702A true CN114821702A (zh) | 2022-07-29 |
Family
ID=82529158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210253354.1A Pending CN114821702A (zh) | 2022-03-15 | 2022-03-15 | 一种基于遮挡人脸的热红外人脸识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114821702A (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105095856A (zh) * | 2015-06-26 | 2015-11-25 | 上海交通大学 | 基于掩膜的有遮挡人脸识别方法 |
CN110378234A (zh) * | 2019-06-20 | 2019-10-25 | 合肥英威晟光电科技有限公司 | 基于TensorFlow构建的卷积神经网络热像人脸识别方法及系统 |
WO2020155873A1 (zh) * | 2019-02-02 | 2020-08-06 | 福州大学 | 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法 |
CN111814571A (zh) * | 2020-06-12 | 2020-10-23 | 深圳禾思众成科技有限公司 | 一种基于背景过滤的口罩人脸识别方法及系统 |
CN112016464A (zh) * | 2020-08-28 | 2020-12-01 | 中移(杭州)信息技术有限公司 | 检测人脸遮挡的方法、装置、电子设备及存储介质 |
CN112949572A (zh) * | 2021-03-26 | 2021-06-11 | 重庆邮电大学 | 基于Slim-YOLOv3的口罩佩戴情况检测方法 |
CN113239739A (zh) * | 2021-04-19 | 2021-08-10 | 深圳市安思疆科技有限公司 | 一种佩戴物的识别方法及识别装置 |
CN113723243A (zh) * | 2021-08-20 | 2021-11-30 | 南京华图信息技术有限公司 | 一种戴面罩的热红外图像人脸识别方法及应用 |
-
2022
- 2022-03-15 CN CN202210253354.1A patent/CN114821702A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105095856A (zh) * | 2015-06-26 | 2015-11-25 | 上海交通大学 | 基于掩膜的有遮挡人脸识别方法 |
WO2020155873A1 (zh) * | 2019-02-02 | 2020-08-06 | 福州大学 | 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法 |
CN110378234A (zh) * | 2019-06-20 | 2019-10-25 | 合肥英威晟光电科技有限公司 | 基于TensorFlow构建的卷积神经网络热像人脸识别方法及系统 |
CN111814571A (zh) * | 2020-06-12 | 2020-10-23 | 深圳禾思众成科技有限公司 | 一种基于背景过滤的口罩人脸识别方法及系统 |
CN112016464A (zh) * | 2020-08-28 | 2020-12-01 | 中移(杭州)信息技术有限公司 | 检测人脸遮挡的方法、装置、电子设备及存储介质 |
CN112949572A (zh) * | 2021-03-26 | 2021-06-11 | 重庆邮电大学 | 基于Slim-YOLOv3的口罩佩戴情况检测方法 |
CN113239739A (zh) * | 2021-04-19 | 2021-08-10 | 深圳市安思疆科技有限公司 | 一种佩戴物的识别方法及识别装置 |
CN113723243A (zh) * | 2021-08-20 | 2021-11-30 | 南京华图信息技术有限公司 | 一种戴面罩的热红外图像人脸识别方法及应用 |
Non-Patent Citations (3)
Title |
---|
SUMIT KUMAR等: "Occluded Thermal Face Recognition Using Bag of CNN (BoCNN)" * |
栗科峰等: "基于热红外光谱的人脸特征提取算法" * |
荣誉: "基于YOLOv3的人脸佩戴口罩检测改进算法" * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
CN106372581B (zh) | 构建及训练人脸识别特征提取网络的方法 | |
CN100423020C (zh) | 一种基于结构主元分析的人脸识别方法 | |
CN109359608B (zh) | 一种基于深度学习模型的人脸识别方法 | |
CN111898736B (zh) | 基于属性感知的高效行人重识别方法 | |
US11263435B2 (en) | Method for recognizing face from monitoring video data | |
KR101254181B1 (ko) | 하이브리드 방식의 영상 데이터 전처리 기법 및 방사형 기저함수 기반 신경회로망을 이용한 얼굴 인식 방법 | |
CN109359541A (zh) | 一种基于深度迁移学习的素描人脸识别方法 | |
CN106096538A (zh) | 基于定序神经网络模型的人脸识别方法及装置 | |
CN107463917B (zh) | 一种基于改进的ltp与二维双向pca融合的人脸特征提取方法 | |
CN109815826A (zh) | 人脸属性模型的生成方法及装置 | |
CN108090830B (zh) | 一种基于面部画像的信贷风险评级方法和装置 | |
CN109886161B (zh) | 一种基于可能性聚类和卷积神经网络的道路交通标识识别方法 | |
CN109086723B (zh) | 一种基于迁移学习的人脸检测的方法、装置以及设备 | |
Tivive et al. | A gender recognition system using shunting inhibitory convolutional neural networks | |
CN110378208B (zh) | 一种基于深度残差网络的行为识别方法 | |
CN111339930A (zh) | 一种联合口罩属性损失函数的人脸识别方法 | |
CN111401145B (zh) | 一种基于深度学习与ds证据理论的可见光虹膜识别方法 | |
CN111126307B (zh) | 联合稀疏表示神经网络的小样本人脸识别方法 | |
CN113221655B (zh) | 基于特征空间约束的人脸欺骗检测方法 | |
CN111126240A (zh) | 一种三通道特征融合人脸识别方法 | |
CN112381987A (zh) | 基于人脸识别的智能门禁防疫系统 | |
CN112633234A (zh) | 人脸去眼镜模型训练、应用方法及其装置、设备和介质 | |
CN115393944A (zh) | 一种基于多维特征融合的微表情识别方法 | |
CN114937298A (zh) | 一种基于特征解耦的微表情识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |