CN116453201A - 基于相邻边缘损失的人脸识别方法及系统 - Google Patents
基于相邻边缘损失的人脸识别方法及系统 Download PDFInfo
- Publication number
- CN116453201A CN116453201A CN202310723062.4A CN202310723062A CN116453201A CN 116453201 A CN116453201 A CN 116453201A CN 202310723062 A CN202310723062 A CN 202310723062A CN 116453201 A CN116453201 A CN 116453201A
- Authority
- CN
- China
- Prior art keywords
- face recognition
- data set
- neural network
- class
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000003062 neural network model Methods 0.000 claims abstract description 47
- 238000012549 training Methods 0.000 claims abstract description 30
- 230000006870 function Effects 0.000 claims description 55
- 238000012360 testing method Methods 0.000 claims description 22
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000000694 effects Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000003860 storage Methods 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 4
- 230000009471 action Effects 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 229920002430 Fibre-reinforced plastic Polymers 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001680 brushing effect Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000011151 fibre-reinforced plastic Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于相邻边缘损失的人脸识别方法及系统,该方法包括:采集历史数据集,对所述历史数据集中可能与基准数据集重叠的人脸图像进行剔除以确定人脸识别模型数据集;利用预设工具搭建预设神经网络模型,并将所述人脸识别模型数据集输入至所述预设神经网络模型当中进行训练以得到人脸识别模型;获取当前的人脸图像,并将所述当前的人脸图像输入至所述人脸识别模型当中,以确定所述人脸图像的人脸信息;其中,所述预设神经网络模型的损失函数为Softmax损失函数与边缘损失结合的损失函数。本发明解决了现有技术中在进行人脸识别时精度低的问题。
Description
技术领域
本发明涉及人工智能技术领域,特别涉及一种基于相邻边缘损失的人脸识别方法及系统。
背景技术
近年来,随着人工智能浪潮的涌起,人工智能、机器学习在学术界乃至工业界所占分量越来越大。如何提高人脸识别精度是重要工业问题,通用的人脸识别技术并不能准确的满足火车刷脸检票,公司学校社区门禁扫脸等等的需求,给人脸识别技术相关的城市化信息化系统带来了新的挑战,急需一种解决上述问题的方案。
实际上要解决上述问题,一方面从提高精度入手,传统的模型训练中,使用简单的损失函数,精度并不是很高,会导致计算量大,边缘计算设备上的识别耗时增加,让体感变差,另一方面从方法底层入手,但是现有的深度学习注意力机制、加大网络计算量、多模型特征加权等手段在实践中皆被证明无法解决问题,因此上述这些方法只能有限的提高人脸识别的精度,距离目标精度还有较大的差距。
发明内容
有鉴于此,本发明的目的在于提供一种基于相邻边缘损失的人脸识别方法及系统,旨在解决现有技术中在进行人脸识别时精度低的问题。
本发明是这样实现的:
一种基于相邻边缘损失的人脸识别方法,所述方法包括:
采集历史数据集,对所述历史数据集中可能与基准数据集重叠的人脸图像进行剔除以确定人脸识别模型数据集,其中,所述基准数据集为用于测试所述人脸识别模型识别效果的人脸图像数据集;
利用预设工具搭建预设神经网络模型,并将所述人脸识别模型数据集输入至所述预设神经网络模型当中进行训练,待所述预设神经网络模型的损失值趋于稳定时,以得到所述人脸识别模型;
当检测到需要进行人脸识别时,获取当前的人脸图像,并将所述当前的人脸图像输入至所述人脸识别模型当中,以确定所述人脸图像的人脸信息;
其中,所述预设神经网络模型的损失函数为AM-Softmax损失函数与边缘损失函数结合的损失函数。
进一步的,上述基于相邻边缘损失的人脸识别方法,其中,所述预设神经网络模型的损失函数表达式为:
L = LAM+λLP;
其中,LAM表示AM-Softmax损失函数,LP表示边缘损失函数,λ为超参数,用于平衡不同损失函数的作用大小,λ∈(0~+)。
进一步的,上述基于相邻边缘损失的人脸识别方法,其中,所述AM-Softmax损失函数的表达式为:
;
其中,N是批处理大小,P是整个训练集中的类的数量,是/>与/>之间的夹角余弦值,/>是第i个样本的类标签,/>∈/>,是一个小批量中第i个样本的特征向量,∈/>,是最终全连接层中权重矩阵W的第j列,||/>||是通过L2归一化设定的,并被重新标定为某个指定常数s,m是夹角余弦值间隔的大小,这里m≥1,用于调整目标余弦值的间隔;
所述边缘损失函数的表达式为:
;
;或
;
;
其中,是i类和j类之间的实际间隔角度,如果/>>0/>(cos(/>)) =cos(/>),当≤0 ,/>(cos(/>))=-cos(/>)+2,S和Si是/>(cos(/>))的数值集合,/>表示集合S中P个最大元素的总和。
进一步的,上述基于相邻边缘损失的人脸识别方法,其中,所述利用预设工具搭建预设神经网络模型,并将所述人脸识别模型数据集输入至所述预设神经网络模型当中进行训练以得到人脸识别模型的步骤中:
获取所述预设神经网络模型中的类中心和类的余弦范围来以确定i类和j类的实际间隔角度的余弦值;
按预设算法对所述j类的余弦范围进行更新,其中,所述j类的余弦范围的更新公式为:
=/>+/>· ∆/>j =1,2,3..,P;
∆ =/>;
其中,=1,如果/>=j,/>=0,如果/> j,β被命名为收缩率,可用于调整收缩速度,R(j)被初始化为1,/>作为第j类中心的近似值。
进一步的,上述基于相邻边缘损失的人脸识别方法,其中,所述i类和j类的实际间隔角度的余弦值的计算公式为:
;
其中,R(i) = cos(),R(j) = cos(/>),/>= cos(/>)。
进一步的,上述基于相邻边缘损失的人脸识别方法,其中,所述方法还包括:
从所述人脸识别模型数据集中提取测试集,并将所述测试集输入至所述人脸识别模型当中,以对所述人脸识别模型的识别能力进行测试。
进一步的,上述基于相邻边缘损失的人脸识别方法,其中,所述利用预设工具搭建预设神经网络模型,并将所述人脸识别模型数据集输入至所述预设神经网络模型当中进行训练以得到人脸识别模型的步骤中,通过所述全连接层的权重矩阵与所述预设神经网络中的所有类的矩阵操作,获得所述i类和j类的实际间隔角度的余弦值。
本发明的另一个目的在于提供一种基于相邻边缘损失的人脸识别系统,所述系统包括:
采集模块,用于采集历史数据集,对所述历史数据集中可能与基准数据集重叠的人脸图像进行剔除以确定人脸识别模型数据集,其中,所述基准数据集为用于测试所述人脸识别模型识别效果的人脸图像数据集;
训练模块,用于利用预设工具搭建预设神经网络模型,并将所述人脸识别模型数据集输入至所述预设神经网络模型当中,待所述预设神经网络模型的损失值趋于稳定时,进行训练以得到所述人脸识别模型;
识别模块,用于当检测到需要进行人脸识别时,获取当前的人脸图像,并将所述当前的人脸图像输入至所述人脸识别模型当中,以确定所述人脸图像的人脸信息;
其中,所述预设神经网络模型的损失函数为AM-Softmax损失函数与边缘损失函数结合的损失函数。
本发明的另一个目的是提供一种可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现上述的方法的步骤。
本发明的另一个目的是提供一种计算机设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述的方法的步骤。
本发明通过首次考虑训练集中不同类别之间的真正间隔,分别采取AM-Softmax损失函数、边缘损失(Marginal Loss)的优势,对AM-Softmax损失函数与边缘损失(MarginalLoss)结合的总损失函数进行模型的训练,其中,AM-Softmax损失用于改善类间分离度,边缘损失用于提高类内紧凑度,两者的结合能够有效提交特征的判别能力,从而最终提升了人脸识别的准确性。从而提升了人脸识别的准确性,解决了现有人脸识别精度低的问题。
附图说明
图1为本发明第一实施例提供的基于相邻边缘损失的人脸识别方法的流程图;
图2为本发明第三实施例提供的基于相邻边缘损失的人脸识别系统的结构框图。
如下具体实施方式将结合上述附图进一步说明本发明。
具体实施方式
为了便于理解本发明,下面将参照相关附图对本发明进行更全面的描述。附图中给出了本发明的若干实施例。但是,本发明可以以许多不同的形式来实现,并不限于本文所描述的实施例。相反地,提供这些实施例的目的是使对本发明的公开内容更加透彻全面。
需要说明的是,当元件被称为“固设于”另一个元件,它可以直接在另一个元件上或者也可以存在居中的元件。当一个元件被认为是“连接”另一个元件,它可以是直接连接到另一个元件或者可能同时存在居中元件。本文所使用的术语“垂直的”、“水平的”、“左”、“右”以及类似的表述只是为了说明的目的。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。本文所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
以下将结合具体实施例和附图来详细说明如何提升人脸识别的精准度。
实施例一
请参阅图1,所示为本发明第一实施例中的基于相邻边缘损失的人脸识别方法,所述方法包括步骤S10~S12。
步骤S10,采集历史数据集,对所述历史数据集中可能与基准数据集重叠的人脸图像进行剔除以确定人脸识别模型数据集。
其中,历史数据集为历史采集到的人脸图像,主要用于人脸识别模型的训练,在具体实施时,数据集为数据集VGGFace2,为了保证实验结果的可靠性和准确性,删除了所有可能与基准数据集重叠的人脸图像。具体的,基准数据集为用于测试所述人脸识别模型识别效果的人脸图像数据集,由于VGGFace2中的标签噪声很低,所以没有进行数据清洗。最终的训练数据集包含8千个身份的305万幅人脸图像,具体的,8千个身份的305万幅人脸图像会被分为训练集和测试集,以分别对人脸识别模型进行训练和测试。
步骤S11,利用预设工具搭建预设神经网络模型,并将所述人脸识别模型数据集输入至所述预设神经网络模型当中进行训练待所述预设神经网络模型的损失值趋于稳定时,以得到人脸识别模型。
其中,构建预设神经网络模型,以通过人脸识别模型数据集对预设神经网络模型进行训练,待预设神经网络模型的损失值趋于稳定时,得到对应的人脸识别模型,具体的,模型的建立以及具体的内部训练过程,可以按如下方式实施:
利用Tensorflow框架搭建基于Inception-ResNet-v1模型的网络模型。
进一步的,神经网络模型的损失函数为Softmax损失函数与边缘损失函数的结合,其中,Softmax损失函数用于改善神经网络模型中的类间分离度,而边缘损失用于提高神经网络模型的识别准确率,具体的,L = LAM+λLP,其中,LAM表示AM-Softmax损失函数,LP表示边缘损失函数,λ为超参数,用于平衡不同损失函数的作用大小,λ∈(0~+∞)。
具体的,AM-Softmax损失函数的表达式为:
;
其中,N是批处理大小,P是整个训练集中的类的数量,是/>与/>之间的夹角余弦值,/>是第i个样本的类标签,/>∈/>,是一个小批量中第i个样本的特征向量,∈/>,是最终全连接层中权重矩阵W的第j列,||/>||是通过L2归一化设定的,并被重新标定为某个指定常数s,m是夹角余弦值间隔的大小,这里m≥1,用于调整目标余弦值的间隔;
边缘损失函数的表达式为:
;
;或
;
;
其中,是i类和j类之间的实际间隔角度,如果/>>0/>(cos(/>)) =cos(/>),当≤0 ,/>(cos(/>))=-cos(/>)+2,这对重叠的类增加了更多的惩罚,同时保证了/>(cos())的连续性,S和Si是/>(cos(/>))的数值集合,/>表示集合S中P个最大元素的总和;两个版本的PAM损失都是为了优化不同类别之间的间隔。理想的方法是优化所有相邻类的间隔。然而,在超球面上找出所有这些相邻的类是非常耗时的。在LP_V1中,采用了一种保守的策略,即对具有最大/>(cos(/>))值的P对类进行惩罚。这是因为相邻类的最小对数是P,当所有类在超球表面上排成一个圆圈时,便会出现这种情到每个类的最近的邻居类,并对它们之间的间隔进行惩罚。
更具体的,计算cos()是实现LP损失的关键环节,要计算cos(/>),需要两个部分:类中心和类的余弦范围。类的余弦范围指的是类中心和最远的样本之间的余弦相似度,随着训练的进行,/>逐渐收敛到j类的中心(j=1,2,...,P)。/>很容易从最后的全连接层得到,所以我们 使用/>作为第j类中心的近似值。对于第j类的余弦范围,我们提出以下学习算法来递归地更新它。R(j)被初始化为1,然后进行更新。
其中,获取所述预设神经网络模型中的类中心和类的余弦范围来以确定i类和j类的实际间隔角度的余弦值;
按预设算法对所述j类的余弦范围进行更新,其中,所述j类的余弦范围的更新公式为:
=/>+/>· ∆/>j =1,2,3..,P;
∆ =/>;
其中,=1,如果/>=j,/>=0,如果/> j,β被命名为收缩率,可用于调整收缩速度,R(j)被初始化为1,/>作为第j类中心的近似值。
进一步的,所述i类和j类的实际间隔角度的余弦值的计算公式为:
;
其中,R(i) = cos(),R(j) = cos(/>),/>= cos(/>)。
有了类中心和类的余弦范围,可以计算出cos()。设R(i) = cos(/>),R(j) =cos(/>),而/>= cos(/>),那么cos(/>)= cos(/>)。通过解这个方程,我们得到,
进一步的,在实际当中,还可以通过W和[R(1), ..., R(P)]之间的矩阵操作,进行更高效的一次性计算来获得所有cos()值(i, j = 1, 2, 3, ..., P;i>j)。其中W是最终FC层的权重矩阵。
步骤S12,当检测到需要进行人脸识别时,获取当前的人脸图像,并将所述当前的人脸图像输入至所述人脸识别模型当中,以确定所述人脸图像的人脸信息。
具体的,当检测到需要进行人脸识别时,获取当前的人脸图像,并将当前的人脸图像输入至人脸识别模型当中,以确定人脸图像的人脸信息。
进一步的,再本发明一些可选的实施例当中,所述方法还包括:
从所述人员识别模型数据集中提取测试集,并将所述测试集输入至所述人脸识别模型当中,以对所述人脸识别模型的识别能力进行测试。
综上,本发明上述实施例中的基于相邻边缘损失的人脸识别方法,通过首次考虑训练集中不同类别之间的真正间隔,分别采取Softmax损失函数、边缘损失(MarginalLoss)的优势,对Softmax损失函数与边缘损失(Marginal Loss)结合的总损失函数进行模型的训练,其中,Softmax损失用于改善类间分离度,边缘损失用于提高类内紧凑度,两者的结合能够有效提交特征的判别能力,从而最终提升了人脸识别的准确性。提升了人脸识别的准确性,解决了现有人脸识别精度低的问题。
实施例二
请参阅图2,所示为本发明第二实施例当中提出的基于相邻边缘损失的人脸识别系统,所述系统包括:
采集模块100,用于采集历史数据集,对所述历史数据集中可能与基准数据集重叠的人脸图像进行剔除以确定人脸识别模型数据集,其中,所述基准数据集为用于测试所述人脸识别模型识别效果的人脸图像数据集;
训练模块200,用于利用预设工具搭建预设神经网络模型,并将所述人脸识别模型数据集输入至所述预设神经网络模型当中进行训练,待所述预设神经网络模型的损失值趋于稳定时,以得到所述人脸识别模型;
识别模块300,用于当检测到需要进行人脸识别时,获取当前的人脸图像,并将所述当前的人脸图像输入至所述人脸识别模型当中,以确定所述人脸图像的人脸信息;
其中,所述预设神经网络模型的损失函数为Softmax损失函数与边缘损失结合的损失函数。
进一步的,上述基于相邻边缘损失的人脸识别系统,其中所述预设神经网络模型的损失函数表达式为:
L = LAM+λLP;
其中,LAM表示AM-Softmax损失函数,LP表示边缘损失函数,λ为超参数,用于平衡不同损失函数的作用大小,λ∈(0~+)。
进一步的,上述基于相邻边缘损失的人脸识别方法,其中,所述AM-Softmax损失函数的表达式为:
;
其中,N是批处理大小,P是整个训练集中的类的数量,是/>与/>之间的夹角余弦值,/>是第i个样本的类标签,/>∈/>,是一个小批量中第i个样本的特征向量,∈/>,是最终全连接层中权重矩阵W的第j列,||/>||是通过L2归一化设定的,并被重新标定为某个指定常数s,m是夹角余弦值间隔的大小,这里m≥1,用于调整目标余弦值的间隔;
所述边缘损失函数的表达式为:
;
;或
;
;
其中,是i类和j类之间的实际间隔角度,如果/>>0/>(cos(/>)) =cos(/>),当≤0 ,/>(cos(/>))=-cos(/>)+2,S和Si是/>(cos(/>))的数值集合,/>表示集合S中P个最大元素的总和。
进一步的,上述基于相邻边缘损失的人脸识别系统,其中,所述训练模块中:
获取所述预设神经网络模型中的类中心和类的余弦范围来以确定i类和j类的实际间隔角度的余弦值;
按预设算法对所述j类的余弦范围进行更新,其中,所述j类的余弦范围的更新公式为:
=/>+/>· ∆/>j =1,2,3..,P;
∆ =/>;
其中,=1,如果/>=j,/>=0,如果/> j,β被命名为收缩率,可用于调整收缩速度,R(j)被初始化为1,/>作为第j类中心的近似值。
进一步的,上述基于相邻边缘损失的人脸识别系统,其中,所述i类和j类的实际间隔角度的余弦值的计算公式为:
;
其中,R(i) = cos(),R(j) = cos(/>),/>= cos(/>)。
进一步的,上述基于相邻边缘损失的人脸识别系统,其中,所述系统还包括:
测试模块,用于从所述人脸识别模型数据集中提取测试集,并将所述测试集输入至所述人脸识别模型当中,以对所述人脸识别模型的识别能力进行测试。
进一步的,上述基于相邻边缘损失的人脸识别系统,其中,所述测试模块中,通过所述全连接层的权重矩阵与所述预设神经网络中的所有类的矩阵操作,获得所述i类和j类的实际间隔角度的余弦值。
上述各模块被执行时所实现的功能或操作步骤与上述方法实施例大体相同,在此不再赘述。
实施例三
本发明另一方面还提供一种可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现上述实施例一中所述的方法的步骤。
实施例四
本发明另一方面还提供一种计算机设备,所述计算机设备包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述实施例一中所述的方法的步骤。
以上各个实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
本领域技术人员可以理解,在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。
计算机可读存储介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读存储介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或它们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种基于相邻边缘损失的人脸识别方法,其特征在于,所述方法包括:
采集历史数据集,对所述历史数据集中可能与基准数据集重叠的人脸图像进行剔除以确定人脸识别模型数据集,其中,所述基准数据集为用于测试所述人脸识别模型识别效果的人脸图像数据集;
利用预设工具搭建预设神经网络模型,并将所述人脸识别模型数据集输入至所述预设神经网络模型当中进行训练,待所述预设神经网络模型的损失值趋于稳定时,以得到人脸识别模型;
当检测到需要进行人脸识别时,获取当前的人脸图像,并将所述当前的人脸图像输入至所述人脸识别模型当中,以确定所述人脸图像的人脸信息;
其中,所述预设神经网络模型的损失函数为AM-Softmax损失函数与边缘损失结合函数的损失函数。
2.根据权利要求1所述的基于相邻边缘损失的人脸识别方法,其特征在于,所述预设神经网络模型的损失函数表达式为:
L = LAM +λLP;
其中,LAM表示AM-Softmax损失函数,LP表示边缘损失函数,λ为超参数,用于平衡不同损失函数的作用大小,λ∈(0~+)。
3.根据权利要求2所述的基于相邻边缘损失的人脸识别方法,其特征在于,所述AM-Softmax损失函数的表达式为:
;
N是批处理大小,P是整个训练集中的类的数量,是/>与/>之间的夹角余弦值,/>是第i个样本的类标签,/>∈/>,是一个小批量中第i个样本的特征向量,/>∈/>,是最终全连接层中权重矩阵W的第j列,||/>||是通过L2归一化设定的,并被重新标定为某个指定常数s,m是夹角余弦值间隔的大小,这里m≥1,用于调整目标余弦值的间隔;
所述边缘损失函数的表达式为:
;
;或
;
;
其中,是i类和j类之间的实际间隔角度,如果/>>0 />(cos(/> )) =cos(/>),当/>≤0 ,/>(cos(/>))=-cos(/>)+2,S和Si是/>(cos(/>))的数值集合,/>表示集合S中P个最大元素的总和。
4.根据权利要求2所述的基于相邻边缘损失的人脸识别方法,其特征在于,所述利用预设工具搭建预设神经网络模型,并将所述人脸识别模型数据集输入至所述预设神经网络模型当中进行训练以得到人脸识别模型的步骤中:
获取所述预设神经网络模型中的类中心和类的余弦范围来以确定i类和j类的实际间隔角度的余弦值;
按预设算法对所述j类的余弦范围进行更新,其中,所述j类的余弦范围的更新公式为:
= /> + />· ∆/>j =1,2,3..,P;
∆ = />;
其中,=1,如果/>=j,/>=0,如果/> j,β被命名为收缩率,可用于调整收缩速度,R(j)被初始化为1,/>作为第j类中心的近似值。
5.根据权利要求4所述的基于相邻边缘损失的人脸识别方法,其特征在于,所述i类和j类的实际间隔角度的余弦值的计算公式为:
;
其中,R(i) = cos(),R(j) = cos(/>),/>= cos(/>)。
6.根据权利要求1所述的基于相邻边缘损失的人脸识别方法,其特征在于,所述方法还包括:
从所述人脸识别模型数据集中提取测试集,并将所述测试集输入至所述人脸识别模型当中,以对所述人脸识别模型的识别能力进行测试。
7.根据权利要求3所述的基于相邻边缘损失的人脸识别方法,其特征在于,所述利用预设工具搭建预设神经网络模型,并将所述人脸识别模型数据集输入至所述预设神经网络模型当中进行训练以得到人脸识别模型的步骤中,通过所述全连接层的权重矩阵与所述预设神经网络中的所有类的矩阵操作,获得所述i类和j类的实际间隔角度的余弦值。
8.一种基于相邻边缘损失的人脸识别系统,其特征在于,所述系统包括:
采集模块,用于采集历史数据集,对所述历史数据集中可能与基准数据集重叠的人脸图像进行剔除以确定人脸识别模型数据集,其中,所述基准数据集为用于测试所述人脸识别模型识别效果的人脸图像数据集;
训练模块,用于利用预设工具搭建预设神经网络模型,并将所述人脸识别模型数据集输入至所述预设神经网络模型当中,待所述预设神经网络模型的损失值趋于稳定时,进行训练以得到所述人脸识别模型;
识别模块,用于当检测到需要进行人脸识别时,获取当前的人脸图像,并将所述当前的人脸图像输入至所述人脸识别模型当中,以确定所述人脸图像的人脸信息;
其中,所述预设神经网络模型的损失函数为Softmax损失函数与边缘损失结合的损失函数。
9.一种可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至7中任意一项所述的方法的步骤。
10.一种计算机设备,其特征在于,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如权利要求1至7任一所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310723062.4A CN116453201B (zh) | 2023-06-19 | 2023-06-19 | 基于相邻边缘损失的人脸识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310723062.4A CN116453201B (zh) | 2023-06-19 | 2023-06-19 | 基于相邻边缘损失的人脸识别方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116453201A true CN116453201A (zh) | 2023-07-18 |
CN116453201B CN116453201B (zh) | 2023-09-01 |
Family
ID=87122365
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310723062.4A Active CN116453201B (zh) | 2023-06-19 | 2023-06-19 | 基于相邻边缘损失的人脸识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116453201B (zh) |
Citations (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002251592A (ja) * | 2001-02-22 | 2002-09-06 | Toshiba Corp | パターン認識辞書学習方法 |
CN109033938A (zh) * | 2018-06-01 | 2018-12-18 | 上海阅面网络科技有限公司 | 一种基于可区分性特征融合的人脸识别方法 |
CN109214360A (zh) * | 2018-10-15 | 2019-01-15 | 北京亮亮视野科技有限公司 | 一种基于ParaSoftMax损失函数的人脸识别模型的构建方法及应用 |
WO2020082315A2 (zh) * | 2018-10-23 | 2020-04-30 | 深圳大学 | 一种非负特征提取及人脸识别应用方法、系统及存储介质 |
CN111339810A (zh) * | 2019-04-25 | 2020-06-26 | 南京特沃斯高科技有限公司 | 一种基于高斯分布的低分辨率大角度人脸识别方法 |
CN111368683A (zh) * | 2020-02-27 | 2020-07-03 | 南京邮电大学 | 基于模约束CentreFace的人脸图像特征提取方法及人脸识别方法 |
CN111783698A (zh) * | 2020-07-06 | 2020-10-16 | 周书田 | 一种基于提高人脸识别模型训练稳定性的方法 |
CN111967392A (zh) * | 2020-08-18 | 2020-11-20 | 广东电科院能源技术有限责任公司 | 一种人脸识别神经网络训练方法、系统、设备及储存介质 |
CN112052789A (zh) * | 2020-09-03 | 2020-12-08 | 腾讯科技(深圳)有限公司 | 人脸识别方法、装置、电子设备及存储介质 |
CN112200115A (zh) * | 2020-10-21 | 2021-01-08 | 平安国际智慧城市科技股份有限公司 | 人脸识别训练方法、识别方法、装置、设备及存储介质 |
WO2021012494A1 (zh) * | 2019-07-19 | 2021-01-28 | 平安科技(深圳)有限公司 | 基于深度学习的人脸识别方法、装置及计算机可读存储介质 |
CN112418041A (zh) * | 2020-11-16 | 2021-02-26 | 武汉大学 | 一种基于人脸正面化的多姿态人脸识别方法 |
CN112926379A (zh) * | 2021-01-07 | 2021-06-08 | 上海明略人工智能(集团)有限公司 | 一种构建人脸识别模型的方法及装置 |
WO2021139309A1 (zh) * | 2020-07-31 | 2021-07-15 | 平安科技(深圳)有限公司 | 人脸识别模型的训练方法、装置、设备及存储介质 |
WO2021180243A1 (zh) * | 2020-11-02 | 2021-09-16 | 平安科技(深圳)有限公司 | 基于机器学习的图像信息识别的优化方法及装置 |
CN113449704A (zh) * | 2021-08-31 | 2021-09-28 | 北京的卢深视科技有限公司 | 人脸识别模型训练方法、装置、电子设备及存储介质 |
WO2021218060A1 (zh) * | 2020-04-29 | 2021-11-04 | 深圳英飞拓智能技术有限公司 | 基于深度学习的人脸识别方法及装置 |
CN113723238A (zh) * | 2021-08-18 | 2021-11-30 | 北京深感科技有限公司 | 一种人脸轻量网络模型构建方法和人脸识别方法 |
WO2021258588A1 (zh) * | 2020-06-24 | 2021-12-30 | 北京百度网讯科技有限公司 | 一种人脸图像识别方法、装置、设备及存储介质 |
US20220020167A1 (en) * | 2020-07-16 | 2022-01-20 | Hyundai Motor Company | Method and apparatus for detecting anchor-free object based on deep learning |
US20220197246A1 (en) * | 2020-12-18 | 2022-06-23 | Strong Force Vcn Portfolio 2019, Llc | Digital-Twin-Assisted Additive Manufacturing for Value Chain Networks |
CN115661909A (zh) * | 2022-12-14 | 2023-01-31 | 深圳大学 | 人脸图像处理方法、设备及计算机可读存储介质 |
CN115830673A (zh) * | 2022-11-16 | 2023-03-21 | 南昌大学 | 一种基于最小间隔损失函数的深度人脸识别方法 |
CN116110100A (zh) * | 2023-01-14 | 2023-05-12 | 深圳市大数据研究院 | 一种人脸识别方法、装置、计算机设备及存储介质 |
-
2023
- 2023-06-19 CN CN202310723062.4A patent/CN116453201B/zh active Active
Patent Citations (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002251592A (ja) * | 2001-02-22 | 2002-09-06 | Toshiba Corp | パターン認識辞書学習方法 |
CN109033938A (zh) * | 2018-06-01 | 2018-12-18 | 上海阅面网络科技有限公司 | 一种基于可区分性特征融合的人脸识别方法 |
CN109214360A (zh) * | 2018-10-15 | 2019-01-15 | 北京亮亮视野科技有限公司 | 一种基于ParaSoftMax损失函数的人脸识别模型的构建方法及应用 |
WO2020082315A2 (zh) * | 2018-10-23 | 2020-04-30 | 深圳大学 | 一种非负特征提取及人脸识别应用方法、系统及存储介质 |
CN111339810A (zh) * | 2019-04-25 | 2020-06-26 | 南京特沃斯高科技有限公司 | 一种基于高斯分布的低分辨率大角度人脸识别方法 |
WO2021012494A1 (zh) * | 2019-07-19 | 2021-01-28 | 平安科技(深圳)有限公司 | 基于深度学习的人脸识别方法、装置及计算机可读存储介质 |
CN111368683A (zh) * | 2020-02-27 | 2020-07-03 | 南京邮电大学 | 基于模约束CentreFace的人脸图像特征提取方法及人脸识别方法 |
WO2021218060A1 (zh) * | 2020-04-29 | 2021-11-04 | 深圳英飞拓智能技术有限公司 | 基于深度学习的人脸识别方法及装置 |
WO2021258588A1 (zh) * | 2020-06-24 | 2021-12-30 | 北京百度网讯科技有限公司 | 一种人脸图像识别方法、装置、设备及存储介质 |
CN111783698A (zh) * | 2020-07-06 | 2020-10-16 | 周书田 | 一种基于提高人脸识别模型训练稳定性的方法 |
US20220020167A1 (en) * | 2020-07-16 | 2022-01-20 | Hyundai Motor Company | Method and apparatus for detecting anchor-free object based on deep learning |
WO2021139309A1 (zh) * | 2020-07-31 | 2021-07-15 | 平安科技(深圳)有限公司 | 人脸识别模型的训练方法、装置、设备及存储介质 |
CN111967392A (zh) * | 2020-08-18 | 2020-11-20 | 广东电科院能源技术有限责任公司 | 一种人脸识别神经网络训练方法、系统、设备及储存介质 |
CN112052789A (zh) * | 2020-09-03 | 2020-12-08 | 腾讯科技(深圳)有限公司 | 人脸识别方法、装置、电子设备及存储介质 |
CN112200115A (zh) * | 2020-10-21 | 2021-01-08 | 平安国际智慧城市科技股份有限公司 | 人脸识别训练方法、识别方法、装置、设备及存储介质 |
WO2021180243A1 (zh) * | 2020-11-02 | 2021-09-16 | 平安科技(深圳)有限公司 | 基于机器学习的图像信息识别的优化方法及装置 |
CN112418041A (zh) * | 2020-11-16 | 2021-02-26 | 武汉大学 | 一种基于人脸正面化的多姿态人脸识别方法 |
US20220197246A1 (en) * | 2020-12-18 | 2022-06-23 | Strong Force Vcn Portfolio 2019, Llc | Digital-Twin-Assisted Additive Manufacturing for Value Chain Networks |
CN112926379A (zh) * | 2021-01-07 | 2021-06-08 | 上海明略人工智能(集团)有限公司 | 一种构建人脸识别模型的方法及装置 |
CN113723238A (zh) * | 2021-08-18 | 2021-11-30 | 北京深感科技有限公司 | 一种人脸轻量网络模型构建方法和人脸识别方法 |
CN113449704A (zh) * | 2021-08-31 | 2021-09-28 | 北京的卢深视科技有限公司 | 人脸识别模型训练方法、装置、电子设备及存储介质 |
CN115830673A (zh) * | 2022-11-16 | 2023-03-21 | 南昌大学 | 一种基于最小间隔损失函数的深度人脸识别方法 |
CN115661909A (zh) * | 2022-12-14 | 2023-01-31 | 深圳大学 | 人脸图像处理方法、设备及计算机可读存储介质 |
CN116110100A (zh) * | 2023-01-14 | 2023-05-12 | 深圳市大数据研究院 | 一种人脸识别方法、装置、计算机设备及存储介质 |
Non-Patent Citations (4)
Title |
---|
刘杰;王勇军;: "基于HOG特征和稀疏表征的鲁棒性人脸识别", 电脑知识与技术, no. 25 * |
张延安;王宏玉;徐方;: "基于深度卷积神经网络与中心损失的人脸识别", 科学技术与工程, no. 35 * |
李振东;钟勇;陈蔓;王理顺;: "角度余量损失和中心损失联合的深度人脸识别", 计算机应用, no. 2 * |
赵庆敏;彭雪莹;: "Curvelet变换结合(2D)~2PCA的人脸识别算法", 南昌大学学报(理科版), no. 02 * |
Also Published As
Publication number | Publication date |
---|---|
CN116453201B (zh) | 2023-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Cho et al. | A novel linelet-based representation for line segment detection | |
Chen et al. | An approach to boundary detection for 3D point clouds based on DBSCAN clustering | |
CN108319938A (zh) | 用于高性能人脸识别系统的高质量训练数据准备系统 | |
CN101539990B (zh) | 一种虹膜图像鲁棒特征选择和快速比对的方法 | |
CN106203377B (zh) | 一种煤粉尘图像识别方法 | |
Khrissi et al. | Clustering method and sine cosine algorithm for image segmentation | |
Zhao et al. | Fuzzy C-means clustering-based multilayer perceptron neural network for liver CT images automatic segmentation | |
CN111950408B (zh) | 基于规则图的手指静脉图像识别方法、装置及存储介质 | |
Ghosh et al. | Unsupervised grow-cut: cellular automata-based medical image segmentation | |
CN109684913A (zh) | 一种基于社区发现聚类的视频人脸标注方法和系统 | |
CN110349170B (zh) | 一种全连接crf级联fcn和k均值脑肿瘤分割算法 | |
Bian et al. | A survey of the methods on fingerprint orientation field estimation | |
CN106845496A (zh) | 精细目标识别方法和系统 | |
Xiao et al. | Deterministic model fitting by local-neighbor preservation and global-residual optimization | |
Scheurer et al. | Semantic segmentation of histopathological slides for the classification of cutaneous lymphoma and eczema | |
CN104361339A (zh) | 掌形图形提取及识别方法 | |
Dovbysh et al. | Decision-making support system for diagnosis of oncopathologies by histological images | |
CN116453201B (zh) | 基于相邻边缘损失的人脸识别方法及系统 | |
CN113762151A (zh) | 一种故障数据处理方法、系统及故障预测方法 | |
CN105894010A (zh) | 一种基于粗糙集和改进fcm算法的睑板腺功能测定方法 | |
CN110619280B (zh) | 一种基于深度联合判别学习的车辆重识别方法及装置 | |
Liu et al. | Iris double recognition based on modified evolutionary neural network | |
CN109191452B (zh) | 一种基于主动学习的腹腔ct图像腹膜转移自动标记方法 | |
Javed et al. | Deep multiresolution cellular communities for semantic segmentation of multi-gigapixel histology images | |
Eldosoky et al. | Deep transfer learning for wall bulge endpoints regression for autonomous decoration robots |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |