CN112200115A - 人脸识别训练方法、识别方法、装置、设备及存储介质 - Google Patents
人脸识别训练方法、识别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN112200115A CN112200115A CN202011132551.5A CN202011132551A CN112200115A CN 112200115 A CN112200115 A CN 112200115A CN 202011132551 A CN202011132551 A CN 202011132551A CN 112200115 A CN112200115 A CN 112200115A
- Authority
- CN
- China
- Prior art keywords
- face recognition
- layer
- output
- screening
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000012549 training Methods 0.000 title claims abstract description 49
- 238000003860 storage Methods 0.000 title claims abstract description 12
- 238000012216 screening Methods 0.000 claims abstract description 93
- 238000011176 pooling Methods 0.000 claims abstract description 39
- 238000000605 extraction Methods 0.000 claims abstract description 37
- 238000005070 sampling Methods 0.000 claims description 22
- 238000012545 processing Methods 0.000 claims description 18
- 238000002372 labelling Methods 0.000 claims description 16
- 230000011218 segmentation Effects 0.000 claims description 9
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000005192 partition Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 12
- 239000011159 matrix material Substances 0.000 description 10
- 230000006870 function Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000000903 blocking effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000004080 punching Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种人脸识别训练方法、识别方法、装置、设备及存储介质,该人脸识别训练方法包括:将训练图像输入预构建的原始人脸识别模型中进行人脸特征提取,得到原始人脸识别模型的输出值;其中,原始人脸识别模型包括:特征提取网络、区域生成网络、第一筛选层、RoIAlign池化层、分类层、第二筛选层以及框回归层;第一筛选层用于筛选区域生成网络的输出,第二筛选层用于筛选分类层的输出;采用输出值计算交叉熵损失;采用第二筛选层的输出计算EIOU损失;将交叉熵损失与EIOU损失之和作为目标损失优化原始人脸识别模型,得到目标人脸识别模型。本发明还涉及区块链领域,训练图像存储于区块链。通过上述方式,本发明能够有效提高人脸识别的准确率和召回率。
Description
技术领域
本发明涉及人工智能技术领域,特别是涉及一种人脸识别训练方法、识别方法、装置、设备及存储介质。
背景技术
人脸识别是计算机视觉中最热门的研究领域之一,有着十分广泛的应用,如家庭刷脸解门锁、公司刷脸打卡、地铁刷脸进站等等。基于Faster RCNN的深度学习方法,由于其检测精度高,成为目前业内比较流行的人脸识别算法之一。
基于Faster RCNN的人脸识别算法在晴天、白天、无遮挡等简单场景下可以达到较高的准确率,但在雾霾、雨天、夜间、有遮挡等困难场景下,其准确率和召回率都还相对较低,仍存在一定的提升空间。
发明内容
本发明提供一种人脸识别训练方法、识别方法、装置、设备及存储介质,能够有效提高车内人脸识别的整体准确率和召回率。
为解决上述技术问题,本发明采用的一个技术方案是:提供一种人脸识别训练方法,包括:
将训练图像输入预构建的原始人脸识别模型中进行人脸特征提取,得到所述原始人脸识别模型的输出值;其中,所述原始人脸识别模型包括:特征提取网络、区域生成网络、第一筛选层、RoIAlign池化层、分类层、第二筛选层以及框回归层;所述第一筛选层用于筛选所述区域生成网络的输出,所述第二筛选层用于筛选所述分类层的输出;
采用所述输出值计算交叉熵损失;
采用所述第二筛选层的输出计算EIOU损失;
将所述交叉熵损失与所述EIOU损失之和作为目标损失并根据所述目标损失优化所述原始人脸识别模型,得到目标人脸识别模型。
根据本发明的一个实施例,所述采用所述第二筛选层的输出计算EIOU损失,包括:
获取所述第二筛选层输出的候选框并计算所述候选框与标注框之间的交并比值以及所述候选框与所述标注框的中心点之间的距离;
构造包围所述候选框与所述标注框之间的包围框并计算所述包围框的对角线的长度;
根据所述交并比值、所述距离以及所述长度计算所述EIOU损失。
根据本发明的一个实施例,所述将训练图像输入预构建的原始人脸识别模型中进行人脸特征提取,得到所述原始人脸识别模型的输出值,包括:
采用所述特征提取网络对所述训练图像中的人脸特征进行提取,获得特征图;
采用所述区域生成网络根据所述特征图生成候选框;
在所述第一筛选层中采用NMS算法去除冗余的候选框;
采用所述RoIAlign池化层对所述第一筛选层的输出进行像素点采样并将采样结果转换为固定长度的输出;
采用所述分类层对所述RoIAlign池化层的输出进行分类处理;
在所述第二筛选层中采用NMS算法对分类结果进行筛选;
采用所述框回归层对所述第二筛选层的输出进行框回归处理,获得目标候选框。
根据本发明的一个实施例,所述采用所述区域生成网络根据所述特征图生成候选框,包括:
随机选取三种不同尺寸的窗口并按照三种不同比例随机组合成的九个不同尺度的候选窗口;
采用所述候选窗口在所述特征图上进行特征提取;
对特征提取结果进行分类及框回归处理;
将处理结果在所述特征图上进行分割处理,得到所述候选框并输出。
根据本发明的一个实施例,所述采用所述RoIAlign池化层对所述第一筛选层的输出进行像素点采样并将采样结果转换为固定长度的输出,包括:
将所述第一筛选层的输出划分为固定大小的分块;
利用双线性插值法对所述分块进行像素点采样;
对采样后的所述分块进行最大池化处理,转换为固定长度的输出。
为解决上述技术问题,本发明采用的另一个技术方案是:提供一种人脸识别训练装置,包括:
特征提取模块,用于将训练图像输入预构建的原始人脸识别模型中进行人脸特征提取,得到所述原始人脸识别模型的输出值;其中,所述原始人脸识别模型包括:特征提取网络、区域生成网络、第一筛选层、RoIAlign池化层、分类层、第二筛选层以及框回归层;所述第一筛选层用于筛选所述区域生成网络的输出,所述第二筛选层用于筛选所述分类层的输出;
第一计算模块,用于采用所述输出值计算交叉熵损失;
第二计算模块,用于采用所述第二筛选层的输出计算EIOU损失;
优化模块,用于将所述交叉熵损失与所述EIOU损失之和作为目标损失并根据所述目标损失优化所述原始人脸识别模型,得到目标人脸识别模型。
为解决上述技术问题,本发明采用的再一个技术方案是:提供一种人脸识别方法,包括:
获取摄像设备采集的视频流并从所述视频流中提取包含人脸特征的待识别图像;
将所述待识别图像输入目标人脸识别模型中,提取人脸特征,输出人脸识别结果,其中,所述目标人脸识别模型采用所述的人脸识别训练训练方法获得。
为解决上述技术问题,本发明采用的再一个技术方案是:提供一种人脸识别装置,包括:
图像获取模块,用于获取摄像设备采集的视频流并从所述视频流中提取包含人脸特征的待识别图像;
图像识别模块,用于将所述待识别图像输入目标人脸识别模型中,提取人脸特征,输出人脸识别结果,其中,所述目标人脸识别模型采用所述的人脸识别训练方法获得。
为解决上述技术问题,本发明采用的再一个技术方案是:提供一种计算机设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现所述的人脸识别训练方法。
为解决上述技术问题,本发明采用的再一个技术方案是:提供一种计算机存储介质,存储有能够实现上述人脸识别训练方法的程序文件。
本发明的有益效果是:通过RoIAlign池化层增加了对特征图的像素点采样以改善成像损失与偏差的问题,从而改善提取的人脸特征的质量;通过第一筛选层和第二筛选层的双重筛选进一步提高人脸识别的准确率,同时,将交叉熵损失与EIOU损失函数之和作为目标损失优化原始人脸识别模型,能够提高候选框的回归精度,从而进一步提高人脸识别的整体准确率和召回率。
附图说明
图1是本发明第一实施例的人脸识别训练方法的流程示意图;
图2是本发明实施例中原始人脸识别模型的结构示意图;
图3是图1中步骤S103的流程示意图;
图4是本发明实施例中候选框、标注框以及包围候选框与标注框的包围框的分布示意图;
图5是本发明第二实施例的人脸识别训练方法的流程示意图;
图6是本发明实施例的区域生成网络的结构示意图;
图7是图5中步骤S502的流程示意图;
图8是图5中步骤S504的流程示意图;
图9是本发明实施例的RoIAlign池化层的结构示意图;
图10是本发明实施例的人脸识别训练装置的结构示意图;
图11是本发明实施例的人脸识别方法的流程示意图;
图12是本发明实施例的人脸识别装置的结构示意图;
图13是本发明实施例的计算机设备的结构示意图;
图14是本发明实施例的计算机存储介质的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明中的术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”、“第三”的特征可以明示或者隐含地包括至少一个该特征。本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。本发明实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本发明的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
图1是本发明第一实施例的人脸识别训练方法的流程示意图。需注意的是,若有实质上相同的结果,本发明的方法并不以图1所示的流程顺序为限。如图1所示,该方法包括步骤:
步骤S101:将训练图像输入预构建的原始人脸识别模型中进行人脸特征提取,得到原始人脸识别模型的输出值;其中,原始人脸识别模型包括:特征提取网络、区域生成网络、第一筛选层、RoIAlign池化层、分类层、第二筛选层以及框回归层;第一筛选层用于筛选区域生成网络的输出,第二筛选层用于筛选分类层的输出。
在步骤S101中,为保证数据的私密性与安全性,将包含人脸特征的训练图像存储于区块链里面。原始人脸识别模型可以为改进的Faster RCNN深度学习神经网络模型,请参见图2,原始人脸识别模型包括依次连接的特征提取网络21、区域生成网络22、第一筛选层23、RoIAlign池化层24、分类层25、第二筛选层26以及框回归层27,特征提取网络21用于提取训练图像中的人脸特征;区域生成网络22用于根据人脸特征生成候选框;第一筛选层23用于去除冗余的候选框;RoIAlign池化层24用于对第一筛选层23的输出进行像素点采样并将采样结果换为固定长度的输出,本实施例的RoIAlign池化层24增加了像素点采样的步骤,能够有效缓解由传统的RoIPooling池化层引起的像素偏差问题,改善提取的人脸特征质量,从而提高车内人脸识别的整体准确率和召回率;分类层25采用全连接和Softmax激活函数对RoIAlign池化层24的输出进行分类处理;第二筛选层26用于对分类结果进行筛选;框回归层27采用全连接对第二筛选层26的输出进行框回归处理,提高候选框的回归精度。本实施例通过第一筛选层23和第二筛选层26的双重筛选进一步提高人脸识别的准确率。在另一些优选地实施方式中,RoIAlign池化层24之后进一步地还包括两个用于对RoIAlign池化层24的输出进行进一步特征精调的全连接层。
步骤S102:采用输出值计算交叉熵损失。
在步骤S102中,原始人脸识别模型的输出值为预测值,进一步地,本实施例的交叉熵损失可以按照如下公式进行计算:
losscls=-(yture-classlogypredict-class+(1-yture-class)log(1-ypredict-class)),其中,losscls为交叉熵损失,yture-class为训练样本,即真实值,ypredict-class为原始人脸识别模型的输出值,即预测值。
步骤S103:采用第二筛选层的输出计算EIOU损失。
在步骤S103中,进一步地,请参见图3,还包括以下步骤:
步骤S301:获取第二筛选层输出的候选框并计算候选框与标注框之间的交并比值以及候选框与标注框的中心点之间的距离;
步骤S302:构造包围候选框与标注框之间的包围框并计算包围框的对角线的长度;
步骤S303:根据交并比值、距离以及长度计算EIOU损失。
进一步地,EIOU损失可以按照如下公式进行计算:
其中,lossreg为EIOU损失,IOU表示候选框与标注框的交并比值,I表示候选框与标注框之间的交集的面积,U表示候选框与标注框之间的并集的面积,d表示候选框与标注框的中心点之间的距离,c表示同时包围候选框与标注框的包围框的对角线的长度,如图4所示,图中P表示预测框,T表示标注框,C表示同时包围候选框与标注框的包围框。本实施例EIOU损失与传统的Smooth L1损失相比,能够有效提高了人脸检测的候选框的回归精度,从而进一步提高了车内人脸识别的整体准确率和召回率。
步骤S104:将交叉熵损失与EIOU损失之和作为目标损失并根据目标损失优化原始人脸识别模型,得到目标人脸识别模型。
在步骤S104中,目标损失为loss=lossreg+losscls,其中,loss为目标损失,lossreg为交叉熵损失,losscls为EIOU损失,其中,交叉熵损失与EIOU损失在前述步骤已进行详细说明,在此不再一一赘述。
本发明第一实施例的人脸识别训练方法通过RoIAlign池化层增加了对特征图的像素点采样以改善成像损失与偏差的问题,从而改善提取的人脸特征的质量;通过第一筛选层和第二筛选层的双重筛选进一步提高人脸识别的准确率,同时,将交叉熵损失与EIOU损失函数之和作为目标损失优化原始人脸识别模型,能够提高候选框的回归精度,从而进一步提高人脸识别的整体准确率和召回率。
图5是本发明第二实施例的人脸识别训练方法的流程示意图。需注意的是,若有实质上相同的结果,本发明的方法并不以图5所示的流程顺序为限。如图5所示,该方法包括步骤:
步骤S501:采用特征提取网络对训练图像中的人脸特征进行提取,获得特征图。
在步骤S501中,特征提取网络21可以为VGG16网络,也可以为CSPDarknet53网络,优选为CSPDarknet53网络,CSPDarknet53网络的结构包括全卷积层和跨层残差连接层。跨层残差连接操作相对于VGG16网络中的拼接操作能够显著增强雾霾、雨天、夜间、车内遮挡等困难场景下的特征表达能力,从而提高车内人脸识别的整体准确率和召回率。
步骤S502:采用区域生成网络根据特征图生成候选框。
在步骤S502中,进一步地,请参见图6,区域生成网络22的结构可以包括:生成模块61、特征提取模块62、分类及框回归模块63、以及分割模块64。
进一步地,请参见图7,步骤S502还包括以下步骤:
步骤S701:随机选取三种不同尺寸的窗口并按照三种不同比例随机组合成的九个不同尺度的候选窗口。
在步骤S701中,生成模块61随机选取三种不同尺寸,分别为8、16、32,在其他实施例中可配置为其他尺寸,生成模块61随机选取三种不同比例,分别为1:1、1:2、2:1,在其他实施例中可配置为其他比例,则得到的九个候选窗口分别为8*8,8*16,16*8,16*16,16*32,32*16,32*32,32*64,64*32。
步骤S702:采用候选窗口在特征图上进行特征提取。
在步骤S702中,特征提取模块62采用3*3卷积和Mish激活函数对特征图进行特征提取并生成一系列的Anchor box,此处的Anchor box是对检测点取不同的长方形窗口,用于进行人脸检测。
步骤S703:对特征提取结果进行分类及框回归处理。
在步骤S703中,分类及框回归模块63采用1*1卷积和Sigmoid激活函数对Anchorbox进行分类,获得Anchor box的分类概率,采用1*1卷积对Anchor box进行回归和微调,获得每个Anchor box的位置坐标。
步骤S704:将处理结果在特征图上进行分割处理,得到候选框并输出。
在步骤S704中,分割模块64将分类及框回归模块63的输出在步骤S501中获得的特征图上执行分割操作,获得候选框并输出。分割操作具体如下:假设输入特征图的矩阵大小为60*40*512,分类及框回归模块63输出300个Anchor box中的一个Anchor box的坐标为(9,15,20,30),则分割操作表示在输入特征图上的(9,15)位置处切割出宽高为(20,30)的Anchor box(即候选框,大小为20*30*512)。类似地,最后可以得到300个不同大小的候选框。
具体地,假设输入特征图的矩阵大小为60*40*512,则执行特征提取后,得到一系列的Anchor box,大小仍为60*40*512,接着经过分类处理和框回归处理后,得到所有Anchor box的分类矩阵和坐标矩阵,分类矩阵大小为60*40*(9*2)=60*40*18,其中,9表示的是Anchor box个数、2表示的是前景和背景二分类,坐标矩阵大小为60*40*(9*4)=60*40*36,其中,9表示的是Anchor box个数、4表示每个Anchor box的坐标(即Anchor box的中心点坐标(x,y)以及Anchor box的宽w,高h)),然后将n(可配置,比如取300)个Anchor box在输入的特征图上执行分割操作,得到最终的输出矩阵(即候选框)。
步骤S503:在第一筛选层中采用NMS算法去除冗余的候选框。
在步骤S503中,NMS操作具体为:将所有候选框按照分类概率降序排序,保留概率最高的候选框并删除与之重叠(即IOU>0.5)的其他候选框。
步骤S504:采用RoIAlign池化层对第一筛选层的输出进行像素点采样并将采样结果转换为固定长度的输出。
在步骤S504中,RoIAlign池化层24将大小不同的候选框转换为固定长度的输出,以便后续操作。例如,将上一步骤中得到的所有不同大小的候选框(比如:300个)统一固定为7*7大小,即将300个M*N*512大小的候选框统一成1个300*7*7*512的候选框。
进一步地,请参见图8,步骤S504还包括以下步骤:
步骤S801:将第一筛选层的输出划分为固定大小的分块;
步骤S802:利用双线性插值法对分块进行像素点采样;
步骤S803:对采样后的分块进行最大池化处理,转换为固定长度的输出。
进一步地,请参见图9,RoIAlign池化层24包括:分块模块91、采样模块92以及最大池化模块93。具体地,假设RoIAlign池化层24的输入候选框共有300个,以其中一个候选框为例进行说明,假设这个候选框的大小为20*30*512,首先分块模块91执行分块操作将该候选框(20*30*512)划分成7*7固定大小的分块,每个分块大小为(20/7)*(30/7)=2.86*4.29,接着采样模块92利用双线性插值法对每个分块执行像素点采样操作,假设采样点数设为4,即相当于将2.86*4.29=12.27个像素点改为4个像素点,最后,最大池化模块93对每个分块执行最大池化操作,即只保留采样得到的4个像素点中值最大的那个像素点,最终得到的输出矩阵,大小为7*7*512,这是一个候选框经过RoIAlign操作后得到的最终输出矩阵。由于总共有300个,所以,最终的输出矩阵大小为300*7*7*512。
需要说明的是:传统的RoIPooling操作是没有像素点采样这个步骤,而是直接进行了取整后做最大池化操作,例如,上述例子中的每个分块大小会被取整变成(20/7)*(30/7)=2*4,而不是2.86*4.29,然后再进行最大池化操作,即保留这8个像素点中值最大的像素点,这会造成像素损失与偏差问题,从而影响模型效果。因此,本实施例的RoIAlign池化层通过像素点采样,有效缓解了由RoIPooling引起的像素偏差问题,改善了提取的人脸特征质量,从而提高了车内人脸识别的整体准确率和召回率。
步骤S505:采用分类层对RoIAlign池化层的输出进行分类处理。
在步骤S505中,分类层25采用全连接和Softmax函数对RoIAlign池化层的输出结果进行分类处理,获得每个候选框的概率向量。概率向量给出的是结果的概率值,即候选框中包含人脸特征的概率值和不包含人脸特征的概率值。
步骤S506:在第二筛选层中采用NMS算法对分类结果进行筛选。
在步骤S506中,将所有的候选框按照概率值进行降序排列,保留包含人脸特征的概率值较高的候选框并删除与之重叠的候选框,进一步提高人脸识别的整体准确率和召回率。
步骤S507:采用框回归层对第二筛选层的输出进行框回归处理,获得目标候选框。
在步骤S507中,采用全连接对筛选后的候选框的位置进行框回归处理,获得目标候选框。本实施例,通过框回归处理提高候选框的位置精度,从而提高人脸识别的整体准确率和召回率。
步骤S508:采用目标候选框计算交叉熵损失。
在本实施例中,图5中的步骤S508和图1中的步骤S102类似,为简约起见,在此不再赘述。
步骤S509:采用第二筛选层的输出计算EIOU损失。
在本实施例中,图5中的步骤S509和图1中的步骤S103类似,为简约起见,在此不再赘述。
步骤S510:将交叉熵损失与EIOU损失之和作为目标损失并根据目标损失优化原始人脸识别模型,得到目标人脸识别模型。
在本实施例中,图5中的步骤S510和图1中的步骤S104类似,为简约起见,在此不再赘述。
本发明第二实施例的人脸识别训练方法在第一实施例的基础上,通过采用随机选取三种不同尺寸的窗口并按照三种不同比例随机组合成的九个不同尺度的候选窗口,采用九个不同尺度的候选窗口生成候选框,能够提高人脸识别的整体准确率和召回率。
图10是本发明实施例的人脸识别训练装置的结构示意图。如图10所示,该装置100包括特征提取模块101、第一计算模块102、第二计算模块103和优化模块104。
特征提取模块101,用于将训练图像输入预构建的原始人脸识别模型中进行人脸特征提取,得到原始人脸识别模型的输出值;其中,原始人脸识别模型包括:特征提取网络、区域生成网络、第一筛选层、RoIAlign池化层、分类层、第二筛选层以及框回归层;第一筛选层用于筛选区域生成网络的输出,第二筛选层用于筛选分类层的输出。
第一计算模块102,用于采用输出值计算交叉熵损失;
第二计算模块103,用于采用第二筛选层的输出计算EIOU损失;
优化模块104,用于将交叉熵损失与EIOU损失之和作为目标损失并根据目标损失优化原始人脸识别模型,得到目标人脸识别模型。
图11是本发明实施例的人脸识别方法的流程示意图。需注意的是,若有实质上相同的结果,本发明的方法并不以图所示的流程顺序为限。如图所示,该方法包括步骤:
步骤S1101:获取摄像设备采集的视频流并从视频流中提取包含人脸特征的待识别图像;
在步骤S1101中,待识别图像包含人脸特征,获取待识别图像后可对图像进行去噪、锐化等处理以改善图像质量,提高人脸识别的准确率。
步骤S1102:将待识别图像输入目标人脸识别模型中,提取人脸特征,输出人脸识别结果。
在步骤S1102中,目标人脸识别模型的获取方法在前述已进行详细描述,在此不再一一赘述。在一些优选的实施方式中,在输入待识别图像之前,将图像尺寸调整为预设尺寸。待识别图像的尺寸可以为任意大小,针对一个任意尺寸大小为P*Q的图像,在输入特征提取网络之前,先对待识别图像的尺寸进行调整,将待识别图像的尺寸缩放至预设尺寸大小M*N,在调整尺寸时保证图像的宽高比不变。
本发明实施例的人脸识别方法通过目标人脸识别模型增加了对特征图的像素点采样以改善成像损失与偏差的问题,从而改善提取的人脸特征的质量;同时在识别过程中通过双重筛选进一步提高人脸识别的准确率,从而进一步提高人脸识别的准确率和召回率。
图12是本发明实施例的人脸识别装置的结构示意图。如图12所示,该装置120包括图像获取模块121、图像识别模块122。
图像获取模块121,用于获取摄像设备采集的视频流并从视频流中提取包含人脸特征的待识别图像;
图像识别模块122,用于将待识别图像输入目标人脸识别模型中,提取人脸特征,输出人脸识别结果。
请参阅图13,图13为本发明实施例的计算机设备的结构示意图。如图13所示,该计算机设备130包括处理器131及和处理器131耦接的存储器132。
存储器132存储有用于实现上述任一实施例所述的人脸识别训练方法的程序指令。
处理器131用于执行存储器132存储的程序指令以识别车内人脸。
其中,处理器131还可以称为CPU(Central Processing Unit,中央处理单元)。处理器131可能是一种集成电路芯片,具有信号的处理能力。处理器131还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
参阅图14,图14为本发明实施例的计算机存储介质的结构示意图。本发明实施例的计算机存储介质存储有能够实现上述所有方法的程序文件141,其中,该程序文件141可以以软件产品的形式存储在上述计算机存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施方式所述方法的全部或部分步骤。而前述的计算机存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质,或者是计算机、服务器、手机、平板等终端设备。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种人脸识别训练方法,其特征在于,包括:
将训练图像输入预构建的原始人脸识别模型中进行人脸特征提取,得到所述原始人脸识别模型的输出值;其中,所述原始人脸识别模型包括:特征提取网络、区域生成网络、第一筛选层、RoIAlign池化层、分类层、第二筛选层以及框回归层;所述第一筛选层用于筛选所述区域生成网络的输出,所述第二筛选层用于筛选所述分类层的输出;
采用所述输出值计算交叉熵损失;
采用所述第二筛选层的输出计算EIOU损失;
将所述交叉熵损失与所述EIOU损失之和作为目标损失并根据所述目标损失优化所述原始人脸识别模型,得到目标人脸识别模型。
2.根据权利要求1所述的人脸识别训练方法,其特征在于,所述采用所述第二筛选层的输出计算EIOU损失,包括:
获取所述第二筛选层输出的候选框并计算所述候选框与标注框之间的交并比值以及所述候选框与所述标注框的中心点之间的距离;
构造包围所述候选框与所述标注框之间的包围框并计算所述包围框的对角线的长度;
根据所述交并比值、所述距离以及所述长度计算所述EIOU损失。
3.根据权利要求1所述的人脸识别训练方法,其特征在于,所述将训练图像输入预构建的原始人脸识别模型中进行人脸特征提取,得到所述原始人脸识别模型的输出值,包括:
采用所述特征提取网络对所述训练图像中的人脸特征进行提取,获得特征图;
采用所述区域生成网络根据所述特征图生成候选框;
在所述第一筛选层中采用NMS算法去除冗余的候选框;
采用所述RoIAlign池化层对所述第一筛选层的输出进行像素点采样并将采样结果转换为固定长度的输出;
采用所述分类层对所述RoIAlign池化层的输出进行分类处理;
在所述第二筛选层中采用NMS算法对分类结果进行筛选;
采用所述框回归层对所述第二筛选层的输出进行框回归处理,获得目标候选框。
4.根据权利要求3所述的人脸识别训练方法,其特征在于,所述采用所述区域生成网络根据所述特征图生成候选框,包括:
随机选取三种不同尺寸的窗口并按照三种不同比例随机组合成的九个不同尺度的候选窗口;
采用所述候选窗口在所述特征图上进行特征提取;
对特征提取结果进行分类及框回归处理;
将处理结果在所述特征图上进行分割处理,得到所述候选框并输出。
5.根据权利要求3所述的人脸识别训练方法,其特征在于,所述采用所述RoIAlign池化层对所述第一筛选层的输出进行像素点采样并将采样结果转换为固定长度的输出,包括:
将所述第一筛选层的输出划分为固定大小的分块;
利用双线性插值法对所述分块进行像素点采样;
对采样后的所述分块进行最大池化处理,转换为固定长度的输出。
6.一种人脸识别训练装置,其特征在于,包括:
特征提取模块,用于将训练图像输入预构建的原始人脸识别模型中进行人脸特征提取,得到所述原始人脸识别模型的输出值;其中,所述原始人脸识别模型包括:特征提取网络、区域生成网络、第一筛选层、RoIAlign池化层、分类层、第二筛选层以及框回归层;所述第一筛选层用于筛选所述区域生成网络的输出,所述第二筛选层用于筛选所述分类层的输出;
第一计算模块,用于采用所述输出值计算交叉熵损失;
第二计算模块,用于采用所述第二筛选层的输出计算EIOU损失;
优化模块,用于将所述交叉熵损失与所述EIOU损失之和作为目标损失并根据所述目标损失优化所述原始人脸识别模型,得到目标人脸识别模型。
7.一种人脸识别方法,其特征在于,包括:
获取摄像设备采集的视频流并从所述视频流中提取包含人脸特征的待识别图像;
将所述待识别图像输入目标人脸识别模型中,提取人脸特征,输出人脸识别结果,其中,所述目标人脸识别模型采用权利要求1至5任一项所述的人脸识别训练方法获得。
8.一种人脸识别装置,其特征在于,包括:
图像获取模块,用于获取摄像设备采集的视频流并从所述视频流中提取包含人脸特征的待识别图像;
图像识别模块,用于将所述待识别图像输入目标人脸识别模型中,提取人脸特征,输出人脸识别结果,其中,所述目标人脸识别模型采用权利要求1至5任一项所述的人脸识别训练方法获得。
9.一种计算机设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-5任一项所述的人脸识别训练方法。
10.一种计算机存储介质,其特征在于,存储有能够实现如权利要求1-5中任一项所述的人脸识别训练方法的程序文件。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011132551.5A CN112200115B (zh) | 2020-10-21 | 2020-10-21 | 人脸识别训练方法、识别方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011132551.5A CN112200115B (zh) | 2020-10-21 | 2020-10-21 | 人脸识别训练方法、识别方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112200115A true CN112200115A (zh) | 2021-01-08 |
CN112200115B CN112200115B (zh) | 2024-04-19 |
Family
ID=74010496
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011132551.5A Active CN112200115B (zh) | 2020-10-21 | 2020-10-21 | 人脸识别训练方法、识别方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112200115B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113537173A (zh) * | 2021-09-16 | 2021-10-22 | 中国人民解放军国防科技大学 | 一种基于面部补丁映射的人脸图像真伪识别方法 |
CN114065244A (zh) * | 2021-11-15 | 2022-02-18 | 北京百度网讯科技有限公司 | 一种数据处理方法、装置、设备及存储介质 |
CN116128954A (zh) * | 2022-12-30 | 2023-05-16 | 上海强仝智能科技有限公司 | 一种基于生成网络的商品布局识别方法、装置及存储介质 |
CN116453201A (zh) * | 2023-06-19 | 2023-07-18 | 南昌大学 | 基于相邻边缘损失的人脸识别方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109670429A (zh) * | 2018-12-10 | 2019-04-23 | 广东技术师范学院 | 一种基于实例分割的监控视频多目标人脸检测方法及系统 |
US20190147621A1 (en) * | 2017-11-16 | 2019-05-16 | Nec Europe Ltd. | System and method for real-time large image homography processing |
CN110503097A (zh) * | 2019-08-27 | 2019-11-26 | 腾讯科技(深圳)有限公司 | 图像处理模型的训练方法、装置及存储介质 |
CN110598610A (zh) * | 2019-09-02 | 2019-12-20 | 北京航空航天大学 | 一种基于神经选择注意的目标显著性检测方法 |
US20200065976A1 (en) * | 2018-08-23 | 2020-02-27 | Seoul National University R&Db Foundation | Method and system for real-time target tracking based on deep learning |
CN111046880A (zh) * | 2019-11-28 | 2020-04-21 | 中国船舶重工集团公司第七一七研究所 | 一种红外目标图像分割方法、系统、电子设备及存储介质 |
US20200126236A1 (en) * | 2018-10-22 | 2020-04-23 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and Methods for Image Segmentation using IOU Loss Functions |
CN111144234A (zh) * | 2019-12-10 | 2020-05-12 | 南京航空航天大学 | 一种基于深度学习的视频sar目标检测方法 |
-
2020
- 2020-10-21 CN CN202011132551.5A patent/CN112200115B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190147621A1 (en) * | 2017-11-16 | 2019-05-16 | Nec Europe Ltd. | System and method for real-time large image homography processing |
US20200065976A1 (en) * | 2018-08-23 | 2020-02-27 | Seoul National University R&Db Foundation | Method and system for real-time target tracking based on deep learning |
US20200126236A1 (en) * | 2018-10-22 | 2020-04-23 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and Methods for Image Segmentation using IOU Loss Functions |
CN109670429A (zh) * | 2018-12-10 | 2019-04-23 | 广东技术师范学院 | 一种基于实例分割的监控视频多目标人脸检测方法及系统 |
CN110503097A (zh) * | 2019-08-27 | 2019-11-26 | 腾讯科技(深圳)有限公司 | 图像处理模型的训练方法、装置及存储介质 |
CN110598610A (zh) * | 2019-09-02 | 2019-12-20 | 北京航空航天大学 | 一种基于神经选择注意的目标显著性检测方法 |
CN111046880A (zh) * | 2019-11-28 | 2020-04-21 | 中国船舶重工集团公司第七一七研究所 | 一种红外目标图像分割方法、系统、电子设备及存储介质 |
CN111144234A (zh) * | 2019-12-10 | 2020-05-12 | 南京航空航天大学 | 一种基于深度学习的视频sar目标检测方法 |
Non-Patent Citations (5)
Title |
---|
KAIHAN LIN ET AL.: "Face Detection and Segmentation Based on Improved Mask R-CNN", 《COGNITIVE MODELING OF MULTIMODAL DATA INTENSIVE SYSTEMS FOR APPLICATIONS IN NATURE AND SOCIETY (COMDICS)》, 1 May 2020 (2020-05-01) * |
KAIHAN LIN ET AL.: "Face Detection and Segmentation with Generalized Intersection over Union Based on Mask R-CNN", 《ADVANCES IN BRAIN INSPIRED COGNITIVE SYSTEMS》, 1 February 2020 (2020-02-01) * |
YUEJUAN WANG ET AL.: "Human Detection Based on Improved Mask R-CNN", 《JOURNAL OF PHYSICS: CONFERENCE SERIES》, 23 May 2020 (2020-05-23) * |
林凯瀚 等: "基于Mask R-CNN的人脸检测与分割方法", 《计算机工程》, vol. 46, no. 06, 30 June 2020 (2020-06-30) * |
陈茗杨: "基于深度学习的图像视频的分割与识别", 《中国优秀硕士学位论文全文数据库 信息科技辑(月刊)》, no. 02, 15 February 2020 (2020-02-15) * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113537173A (zh) * | 2021-09-16 | 2021-10-22 | 中国人民解放军国防科技大学 | 一种基于面部补丁映射的人脸图像真伪识别方法 |
CN113537173B (zh) * | 2021-09-16 | 2022-03-18 | 中国人民解放军国防科技大学 | 一种基于面部补丁映射的人脸图像真伪识别方法 |
CN114065244A (zh) * | 2021-11-15 | 2022-02-18 | 北京百度网讯科技有限公司 | 一种数据处理方法、装置、设备及存储介质 |
CN116128954A (zh) * | 2022-12-30 | 2023-05-16 | 上海强仝智能科技有限公司 | 一种基于生成网络的商品布局识别方法、装置及存储介质 |
CN116128954B (zh) * | 2022-12-30 | 2023-12-05 | 上海强仝智能科技有限公司 | 一种基于生成网络的商品布局识别方法、装置及存储介质 |
CN116453201A (zh) * | 2023-06-19 | 2023-07-18 | 南昌大学 | 基于相邻边缘损失的人脸识别方法及系统 |
CN116453201B (zh) * | 2023-06-19 | 2023-09-01 | 南昌大学 | 基于相邻边缘损失的人脸识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112200115B (zh) | 2024-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112200115B (zh) | 人脸识别训练方法、识别方法、装置、设备及存储介质 | |
CN109522874B (zh) | 人体动作识别方法、装置、终端设备及存储介质 | |
CN109918969B (zh) | 人脸检测方法及装置、计算机装置和计算机可读存储介质 | |
US11244191B2 (en) | Region proposal for image regions that include objects of interest using feature maps from multiple layers of a convolutional neural network model | |
CN108229324B (zh) | 手势追踪方法和装置、电子设备、计算机存储介质 | |
CN111754394B (zh) | 鱼眼图像中的对象检测方法、装置及存储介质 | |
CN111402170B (zh) | 图像增强方法、装置、终端及计算机可读存储介质 | |
EP4006773A1 (en) | Pedestrian detection method, apparatus, computer-readable storage medium and chip | |
US20120069168A1 (en) | Gesture recognition system for tv control | |
CN113096140B (zh) | 实例分割方法及装置、电子设备及存储介质 | |
US11113507B2 (en) | System and method for fast object detection | |
CN110222726A (zh) | 图像处理方法、装置及电子设备 | |
CN114429637B (zh) | 一种文档分类方法、装置、设备及存储介质 | |
CN114037640A (zh) | 图像生成方法及装置 | |
WO2017095543A1 (en) | Object detection with adaptive channel features | |
CN111709377B (zh) | 特征提取方法、目标重识别方法、装置及电子设备 | |
CN112381107A (zh) | 基于深度学习的物品x光检测方法、装置和计算机设备 | |
CN108229281B (zh) | 神经网络的生成方法和人脸检测方法、装置及电子设备 | |
CN112215188A (zh) | 交警姿态识别方法、装置、设备及存储介质 | |
WO2024174726A1 (zh) | 基于深度学习的手写及打印文本检测方法和装置 | |
US9171227B2 (en) | Apparatus and method extracting feature information of a source image | |
CN113378837A (zh) | 车牌遮挡识别方法、装置、电子设备和存储介质 | |
CN115147434A (zh) | 图像处理方法、装置、终端设备及计算机可读存储介质 | |
CN110969065B (zh) | 车辆检测方法、装置、前车防撞预警设备及存储介质 | |
CN113989938B (zh) | 行为识别方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |