CN112257693A - 一种身份识别方法及设备 - Google Patents

一种身份识别方法及设备 Download PDF

Info

Publication number
CN112257693A
CN112257693A CN202011523692.XA CN202011523692A CN112257693A CN 112257693 A CN112257693 A CN 112257693A CN 202011523692 A CN202011523692 A CN 202011523692A CN 112257693 A CN112257693 A CN 112257693A
Authority
CN
China
Prior art keywords
person
personnel
attribute
image
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011523692.XA
Other languages
English (en)
Inventor
李林峰
黄海荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hubei Ecarx Technology Co Ltd
Original Assignee
Hubei Ecarx Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hubei Ecarx Technology Co Ltd filed Critical Hubei Ecarx Technology Co Ltd
Priority to CN202011523692.XA priority Critical patent/CN112257693A/zh
Publication of CN112257693A publication Critical patent/CN112257693A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/179Human faces, e.g. facial parts, sketches or expressions metadata assisted face recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例提供了一种身份识别方法及设备,该方法包括:获取包含待识别人员人脸的待识别人脸图像;提取得到待识别人脸图像中的第一待识别特征和第二待识别特征;基于第一待识别特征,预测待识别人员的第一人员属性;将第二待识别特征与人员信息中的图像特征进行匹配,得到第一匹配结果,将第一人员属性与人员信息中的第二人员属性进行匹配,得到第二匹配结果;根据第一匹配结果与第二匹配结果判断是否满足预设匹配条件;若满足,则将人员信息中包括的人员身份确定为待识别人员的人员身份。可见,本方案中,通过图像特征和人员属性两方面数据来识别人员身份,相比于仅基于人脸特征进行身份识别而言,识别依据更丰富,提高了身份识别的准确度。

Description

一种身份识别方法及设备
技术领域
本发明涉及人工智能算法技术领域,特别是涉及一种身份识别方法及设备。
背景技术
目前,很多场景中都需要进行身份识别。例如,小区的安防系统可以利用身份识别,防止未登记的人进入小区;车辆智能控制可以利用身份识别,针对不同的车载人员执行如调整座椅靠背、调整后视镜角度等动作;智能家居环境中可以通过身份识别对家庭成员进行区分,并针对不同家庭成员的需求对家居进行控制等等。
相关的身份识别方案,通常包括:预先在数据库中存储人脸图像及其对应的人员身份;通过摄像头采集人脸图像,然后将人脸图像与预先在数据库中存储的人脸图像进行匹配,根据匹配结果确定人员身份。
上述方案仅基于人脸特征进行身份识别,识别依据单一导致身份识别的准确度较低。
发明内容
本发明实施例的目的在于提供一种身份识别方法及设备,以提高身份识别的准确度。具体技术方案如下:
为达到上述目的,本发明实施例提供了一种身份识别方法,包括:
获取待识别人脸图像,所述待识别人脸图像中包含待识别人员的人脸;
提取得到所述待识别人脸图像中的第一待识别特征和第二待识别特征;
基于所述第一待识别特征,预测所述待识别人员的第一人员属性;
针对预先存储的每份人员信息,将所述第二待识别特征与该份人员信息中的图像特征进行匹配,得到第一匹配结果,将所述待识别人员的第一人员属性与该份人员信息中的第二人员属性进行匹配,得到第二匹配结果;其中,每份人员信息包括:同一人员的第二人员属性、人员身份、以及该人员的人脸图像的图像特征;
根据所述第一匹配结果与所述第二匹配结果判断是否满足预设匹配条件;
若满足,则将该份人员信息中包括的人员身份确定为所述待识别人员的人员身份。
可选的,所述获取待识别人脸图像,包括:
获取待识别人员的人脸图像,作为待处理图像;
通过人脸检测模型检测所述待处理图像,得到人脸关键点;
基于所述人脸关键点,判断所述待处理图像中的人脸是否垂直,如果否,则基于所述人脸关键点对所述待处理图像进行调整,得到待识别人脸图像;如果是,则将所述待处理图像作为待识别人脸图像。
可选的,所述基于所述人脸关键点对所述待处理图像进行调整,得到待识别人脸图像,包括:
基于所述人脸关键点在所述待处理图像中的坐标、以及预先设定的所述人脸关键点的目标坐标,确定图像变换矩阵;
基于所述图像变换矩阵对所述待处理图像进行矩阵变换处理,得到矩阵变换图像;
基于预设人脸位置框对所述矩阵变换图像进行截取,得到待识别人脸图像。
可选的,所述基于所述第一待识别特征,预测所述待识别人员的第一人员属性,包括:
将所述第一待识别特征输入人员属性预测分类网络,对第一人员属性进行预测;其中,所述人员属性预测分类网络包括与预设人员属性类别数量相同的预测分支,每一所述预测分支对应一预设人员属性类别;
获取每一所述预测分支输出的与所述预设人员属性类别对应的预测结果,作为第一人员属性。
可选的,所述将所述待识别人员的第一人员属性与该份人员信息中的第二人员属性进行匹配,得到第二匹配结果,包括:
针对每一所述预设人员属性类别,将所述预设人员属性类别对应的所述第一人员属性与所述预设人员属性类别对应的所述第二人员属性进行匹配;
若匹配成功,则将第二预设值确定为第二匹配结果;
若匹配不成功,则将第三预设值确定为第二匹配结果。
可选的,所述预设人员属性类别包括人员性别;所述预测分支包括性别预测分支;所述获取每一所述预测分支输出的与所述预设人员属性类别对应的预测结果,作为第一人员属性,包括:
获取所述性别预测分支输出的与所述人员性别对应的性别预测结果,作为第一人员属性;
和/或,
所述预设人员属性类别包括人员年龄;所述预测分支包括年龄预测分支;所述获取每一所述预测分支输出的与所述预设人员属性类别对应的预测结果,作为第一人员属性,包括:
获取所述年龄预测分支输出的与所述人员年龄对应的年龄预测结果,作为第一人员属性。
可选的,所述针对每一所述预设人员属性类别,将所述第一人员属性中的所述预设人员属性类别与所述第二人员属性中的所述预设人员属性类别进行匹配,包括:
若所述预设人员属性类别包括人员性别,则将所述性别预测结果与该份人员信息中的人员性别进行匹配;
若所述预设人员属性类别包括人员年龄,则确定所述年龄预测结果所在的年龄区间,作为预测年龄区间;
确定该份人员信息中的人员年龄所在的年龄区间,作为真实年龄区间;
将所述预测年龄区间与所述真实年龄区间进行匹配。
可选的,所述将所述第二待识别特征与该份人员信息中的图像特征进行匹配,得到第一匹配结果,包括:
计算所述第二待识别特征与该份人员信息中的图像特征的相似度;
计算第一预设值和所述相似度的差值,作为第一匹配结果。
可选的,所述根据所述第一匹配结果与所述第二匹配结果判断是否满足预设匹配条件,包括:
将所述第一匹配结果与所述第二匹配结果进行融合,得到融合匹配结果;
判断所述融合匹配结果是否小于预设阈值,若是,则判定所述第一匹配结果和所述第二匹配结果满足预设匹配条件。
为达到上述目的,本发明实施例还提供了一种电子设备,包括处理器和存储器;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述任意一种身份识别方法。
应用本发明所示实施例,在通过人脸识别得到人员身份的情况下,通过对比人员属性对人脸识别的结果加以验证,也就是说,本方案中通过图像特征和人员属性两方面的数据来识别人员身份,相比于仅基于人脸特征进行身份识别而言,识别依据更丰富,提高了身份识别的准确度。
当然,实施本发明的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的身份识别方法的第一种流程示意图;
图2为本发明实施例提供的一种包含68个人脸关键点的示意图;
图3为本发明实施例提供的一种全连接层网络示意图;
图4为本发明实施例提供的一种全连接层的第一输出示意图;
图5为本发明实施例提供的身份识别方法的第二种流程示意图;
图6为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了达到上述目的,本发明实施例提供了一种身份识别方法、设备及存储介质,该方法可以应用于各种电子设备,具体不做限定。下面首先对该身份识别方法进行详细介绍。
图1为本发明实施例提供的身份识别方法的第一种流程示意图,包括:
S101:获取待识别人脸图像,待识别人脸图像中包含待识别人员的人脸。
例如,S101中获取的图像可以为人脸图像、包括人脸的全身图像、包括人脸的半身图像等等,具体不做限定。可以通过摄像头拍摄视频或图像,将该视频或图像作为待识别人脸图像。
举例来说,本发明实施例可以应用于安防场景、车载场景、家居场景等等,具体应用场景不做限定。以车载场景为例来说,可以通过车载相机采集车内人员的图像,作为待识别人脸图像;以安防场景为例来说,可以通过监控摄像头采集人员的图像,作为待识别人脸图像;以家居场景为例来说,可以通过家庭安装的相机采集家庭成员的图像,作为待识别人脸图像。
假设S101中获取的图像为人脸图像,一种实施方式中,S101可以包括:获取待识别人员的人脸图像,作为待处理图像;通过深度神经网络构建的人脸检测模型检测待处理图像,得到待处理图像中的人脸关键点;根据所述人脸关键点,判断待处理图像中的人脸是否垂直,如果否,则基于人脸关键点对所述待处理图像进行调整,得到待识别人脸图像;如果是,则将待处理图像作为待识别人脸图像。其中,人脸关键点为在人脸检测的待处理图像上,自动定位出面部关键特征点,如眼睛、鼻尖、嘴角点、眉毛以及人脸各部件轮廓点等,即人脸的特征点集合。
举例来说,可以通过RetinaFace模型对待处理图像进行检测,得到5个人脸关键点;可以判断5个人脸关键点中双眼的两个人脸关键点是否在同一水平线上,若是,则判定待处理图像中的人脸是垂直的;若否,则判定待处理图像中的人脸不是垂直的。其中,深度神经网络构建的人脸检测模型还可以为:基于MTCNN的人脸检测模型(Multi-taskconvolutional neural network),FisherFace人脸检测模型,基于SSD(Single ShotMultiBox Detector)的人脸检测模型,基于YOLOx的人脸识别模型(You Only Look Once)等,具体不做限定,其中有些人脸检测模型可以直接输出人脸图像后得到对齐的人脸关键点;所述人脸关键点可以为5个,如双眼的瞳孔中心点、鼻尖、左侧嘴角和右侧嘴角;所述人脸关键点也可以为68个,如图2所示为68个人脸关键点,等等,人脸关键点的数量及具体位置不做限定。在人脸识别中,检测到的人脸关键点越多,人脸识别的准确度越高。根据人脸关键点判断待处理图像中的人脸是否垂直的方式不做限定。
一种实施方式中,S101可以包括:基于人脸关键点在待处理图像中的坐标、以及人脸目标坐标与人脸关键点之间的预设关系计算人脸目标点,所述预设关系包括比例缩放关系、平移关系、旋转关系,即根据预设关系确定图像变换矩阵;基于图像变换矩阵对待处理图像进行矩阵变换处理,得到矩阵变换图像;基于预设人脸位置框对矩阵变换图像进行截取,得到待识别人脸图像。其中,所述目标坐标为人脸对齐后的坐标。
举例来说,所述图像变换矩阵可以通过缩放、平移和旋转得到,假设预先设定的人脸关键点的目标坐标为[X,Y],人脸关键点在所述待处理图像中的坐标为[x,y],下面介绍缩放矩阵、平移矩阵和旋转矩阵:
缩放矩阵可以为:c是缩放比例。
Figure 404975DEST_PATH_IMAGE001
平移矩阵可以为:tx ,ty分别控制人脸关键点水平平移和垂直平移。
Figure 84219DEST_PATH_IMAGE002
旋转矩阵可以为:sinθ和cosθ控制旋转,其中θ表示需要旋转的角度。
Figure 436702DEST_PATH_IMAGE003
设b=sinθ,a=c*cosθ,则有:
Figure 910409DEST_PATH_IMAGE004
公式变形为:
Figure 145081DEST_PATH_IMAGE005
其中,a,b,tx,ty可以使用最小二乘法求出,从而得到图像变换矩阵。
S102:提取得到的待识别人脸图像中的第一待识别特征和第二待识别特征。
举例来说,可以利用InsightFace深度神经网络模型和CosFace深度神经网络模型,分别提取得到待识别人脸图像中的第一待识别特征和第二待识别特征。其中,构建人脸识别模型的所述深度神经网络可以包括:FaceNet、SphereFace、CosFace,等等,具体不做限定;可以分别使用不同的深度神经网络提取第一待识别特征和第二待识别特征。第一待识别特征可以包括一些人员属性特征,如年龄、性别、肤色,等等;第二待识别特征可以为人脸特征。
S103:基于第一待识别特征,预测待识别人员的第一人员属性。
举例来说,本发明实施例中的“第一人员属性”可以为人员的性别、年龄、肤色等能够代表人员外貌特征的信息。
一种实施方式中,S103可以包括:将第一待识别特征输入人员属性预测分类网络,对第一人员属性进行预测;其中,人员属性预测分类网络包括与预设人员属性类别数量相同的预测分支,每一预测分支对应一预设人员属性类别;获取每一预测分支输出的与预设人员属性类别对应的预测结果,作为第一人员属性。
其中,人员属性预测分类网络可以根据输入的第一待识别特征对人员的属性进行预测,人员属性预测分类网络包括与人员属性类别数量相同的预测分支。人员属性预测分类网络可以由深度神经网络的全连接层和二分类网络组成,也可以由深度神经网络的全连接层构成,具体不做限定。
举例来说,若人员属性类别包括性别、年龄和肤色,那么人员属性预测分类网络中的预测分支就包括性别预测分支、年龄预测分支和肤色预测分支;将第一待识别特征输入至人员属性预测分类网络,可以得到性别预测结果、年龄预测结果和肤色预测结果。其中,人员属性类别可以为性别、年龄、肤色,等等,具体人员属性类别不做限定。
一种情况下,若预设人员属性类别包括人员性别;预测分支包括性别预测分支;则获取性别预测分支输出的与人员性别对应的性别预测结果,作为第一人员属性。
举例来说,可以将所述第一待识别特征输入至性别预测分支,获取性别预测分支输出的与人员性别对应的性别预测结果,作为第一人员属性。其中,性别预测分支通过深度神经网络的全连接层以及分类网络实现;深度神经网络可以包括:FaceNet、SphereFace、CosFace等等,具体不做限定。所述全连接层如图3所示,图3中x1,x2,…,xn-1,xn为输入全连接层的第一待识别特征中的n个特征向量,y1,y2,…,yn-1,yn为全连接层输出的n个与人员属性对应的浮点数,全连接层的计算公式如下:
Figure 565698DEST_PATH_IMAGE006
其中,y1表示全连接层的第一输出,可以理解为y1代表男性概率,x1-xn表示输入全连接层的第一待识别特征中的n个特征向量,w11-w1n表示与x1-xn一一对应的性别预测权重,b1表示男性性别预测偏置值,y2表示全连接层的第二输出,可以理解为y2代表女性概率,w21-w2n表示与x1-xn一一对应的性别预测权重,b2表示女性性别预测偏置值。
所述全连接层的第一输出如图4所示,以四种输入全连接层的特征为例,图4中x1,x2,x3,x4为输入至全连接层的四个第一待识别特征的特征向量;w11为x1的权重,w12为x2的权重,w13为x3的权重,w14为x4的权重;b1为偏置值;y1为全连接层的第一输出。计算全连接层的第一输出,算式如下:
Figure 569426DEST_PATH_IMAGE007
全连接层的第一输出和第二输出为两个浮点数,分别代表男性概率与女性概率,可以理解为y1代表男性概率、y2代表女性概率;将这两个浮点数输入至分类网络;所述分类网络可以为softmax(二分类模型),其中,softmax的输出表示将全连接层的第一输出和第二输出代表的概率归一化到预设数值区间,其每一个输出为0-1中的数值,其所有输出之和为1。
另一种情况下,若预设人员属性类别包括人员年龄;预测分支包括年龄预测分支;则获取年龄预测分支输出的与人员年龄对应的年龄预测结果,作为第一人员属性。
举例来说,可以将所述第一待识别特征输入至年龄预测分支,获取年龄预测分支输出的与人员年龄对应的年龄预测结果,作为第一人员属性。其中,年龄预测分支通过深度神经网络的全连接层实现;深度神经网络可以包括:FaceNet、SphereFace、CosFace,等等,具体不做限定。所述全连接层的计算公式如下:
Figure 682876DEST_PATH_IMAGE008
其中,y3表示全连接层的第三输出,x1-xn表示输入全连接层的第一待识别特征中的n个特征向量,w31-w3n表示与x1-xn一一对应的年龄预测权重,b3表示年龄预测偏置值。全连接层的第三输出y3为一个浮点数值,表示年龄预测结果。
再一种情况下,若预设人员属性类别包括人员肤色;预测分支包括肤色预测分支;则获取肤色预测分支输出的与人员肤色对应的肤色预测结果,作为第一人员属性。
举例来说,可以将所述第一待识别特征输入至肤色预测分支,获取肤色预测分支输出的与人员肤色对应的肤色预测结果,作为第一人员属性。其中,肤色预测分支通过深度神经网络的全连接层实现;深度神经网络可以包括:FaceNet、SphereFace、CosFace,等等,具体不做限定。所述全连接层的计算公式如下:
Figure 903379DEST_PATH_IMAGE009
其中,y4表示全连接层的第四输出,x1-xn表示输入全连接层的第一待识别特征中的n个特征向量,w41-w4n表示与x1-xn一一对应的肤色预测权重,b4表示肤色预测偏置值。全连接层的第四输出y4为一个浮点数值,表示肤色预测结果。
S104:针对预先存储的每份人员信息,将第二待识别特征与该份人员信息中的图像特征进行匹配,得到第一匹配结果,将待识别人员的第一人员属性与该份人员信息中的第二人员属性进行匹配,得到第二匹配结果;其中,每份人员信息包括:同一人员的第二人员属性、人员身份、以及该人员的人脸图像的图像特征。
本发明实施例中,预先存储了多份人员信息,存储该多份人员信息的过程可以包括:先采集一些用户的人脸图像,针对每个用户分别提取用户对应的人脸图像的图像特征,所述图像特征的维度与提取特征使用的深度神经网络模型有关,并记录每份图像特征对应的第二人员属性和人员身份,并存储于同一份人员信息中。举例来说,可以将每一份人员信息,即同一人员的第二人员属性、人员身份、以及该人员的人脸图像的图像特征对应的存储在数据库中;或者可以将同一人员人员属性、人员身份、以及该人员的人脸图像的图像特征对应的存储在数据表中,其中,具体存储方式不做限定。
举例来说,若用户个数为100个,就采集这100个用户的人脸图像,分别利用InsightFace深度神经网络提取100张人脸图像的图像特征,InsightFace深度神经网络提取的图像特征维度可以为512维,并记录每份图像特征对应的人员属性和人员身份。最后将同一人员的人员属性、人员身份、以及该人员的人脸图像的512维的图像特征储存在数据库中,这样,数据库中就存储有100个特征维度为512维的图像特征,以及这100个图像特征对应的人员属性和人员身份。其中,所述用户个数可以为100个,200个,等等,具体数量不做限定;所述特征维度可以为512维,128维,等等,具体不做限定。
一种实施方式中,计算第二待识别特征与该份人员信息中的图像特征的相似度;计算第一预设值和相似度的差值,作为第一匹配结果,其中,第一匹配结果用于表示第二待识别特征与该份人员信息中的图像特征的差异度。其他实施方式中,可以计算所述第二待识别特征与该份人员信息中的图像特征的相似度;将所述相似度作为第一匹配结果。
举例来说,可以利用余弦相似度来计算第二待识别特征与该份人员信息中的图像特征的相似度,余弦相似度的计算公式如下:
Figure 127687DEST_PATH_IMAGE010
其中,cos(θ)表示余弦相似度,A为第二待识别特征,B为该份人员信息中的图像特征,Ai表示高维向量A的第i个维度,Bi表示高维向量B的第i个维度,n表示维度总数。
其中,计算第二待识别特征与该份人员信息中的图像特征的相似度的方式有多种,比如,计算相似度可以为计算特征之间的余弦相似度、欧氏距离、均方差等,具体计算相似度的方式不做限定。
举例来说,第一匹配结果可以通过如下算式计算得到:
第一匹配结果=第一预设值-相似度
例如,第二待识别特征与该份人员信息中的图像特征的相似度为0.6,第一预设值为1,则第一预设值和相似度的差值为1-0.6=0.4,将0.4作为第一匹配结果。其中,第一预设值可以为1,2,3,等等,具体数值不做限定。
一种实施方式中,针对每一预设人员属性类别,将预设人员属性类别对应的第一人员属性与预设人员属性类别对应的第二人员属性进行匹配;若匹配成功,则将第二预设值确定为第二匹配结果;若匹配不成功,则将第三预设值确定为第二匹配结果,其中,第二匹配结果用于表示针对一个人员属性类别,通过全连接层预测的结果与该份人员信息中的第二人员属性之间的差异值。一般情况下,若匹配成功,作为第一匹配结果的第二预设值为负或者零,即预测的结果与该份人员信息中的第二人员属性之间基本没有差异,其差异值为负或者零,例如为-0.01或者0,若匹配不成功,作为第二匹配结果的第三预设值为正,即预测的结果与该份人员信息中的第二人员属性之间具有差异,其差异值为正,例如为0.01。
例如,待识别人员的第一人员属性与该份人员信息中的第二人员属性匹配成功,则将第二预设值-0.01确定为第二匹配结果;如果待识别人员的第一人员属性与该份人员信息中的第二人员属性匹配不成功,则将第三预设值0.01确定为第二匹配结果。其中,第二预设值可以为-0.01,-0.02,-0.03,等等,具体数值不做限定;第三预设值可以为0.01,0.02,0.03,等等,具体数值不做限定。
一种实施方式中,S104可以包括:若预设人员属性类别包括人员性别,则将性别预测结果与该份人员信息中的人员性别进行匹配。
举例来说,将性别预测结果与该份人员信息中的人员性别进行匹配,若性别预测结果为男性,该份人员信息中的人员性别也为男性,则匹配成功,则将第二预设值-0.01赋值给t1作为性别匹配结果;若性别预测结果为男性,该份人员信息中的人员性别为女性,则匹配不成功,则将第三预设值0.01赋值给t1作为性别匹配结果。其中,第二预设值可以为-0.01,-0.02,-0.03,等等,具体数值不做限定;第三预设值可以为0.01,0.02,0.03,等等,具体数值不做限定。
一种实施方式中,若预设人员属性类别包括人员年龄,则确定年龄预测结果所在的年龄区间,作为预测年龄区间;确定该份人员信息中的人员年龄所在的年龄区间,作为真实年龄区间;将预测年龄区间与真实年龄区间进行匹配。
举例来说,定义年龄区间为20-25岁、25岁-30岁、30-35岁等,将预测年龄区间与真实年龄区间进行匹配,若年龄预测结果为22岁,22岁位于20-25岁这一年龄区间,则确定20-25岁为预测年龄区间;若该份人员信息中的人员年龄为24岁,24岁位于20-25岁这一年龄区间,则确定20-25岁为真实年龄区间,则匹配成功,则将第二预设值-0.01赋值给t2作为年龄匹配结果。若年龄预测结果为22岁,22岁位于20-25岁这一年龄区间,则确定20-25岁为预测年龄区间;若该份人员信息中的人员年龄为27岁,27岁位于25-30岁这一年龄区间,则确定25-30岁为真实年龄区间,则匹配不成功,则将第三预设值0.01赋值给t2作为年龄匹配结果。其中,第二预设值可以为-0.01,-0.02,-0.03,等等,具体数值不做限定;第三预设值可以为0.01,0.02,0.03,等等,具体数值不做限定。
一种实施方式中,若预设人员属性类别包括人员肤色,则将肤色预测结果与该份人员信息中的人员肤色进行匹配。
举例来说,将肤色预测结果与该份人员信息中的人员肤色进行匹配,若肤色预测结果为黄色皮肤,该份人员信息中的人员肤色也为黄色皮肤,则匹配成功,则将第二预设值-0.01赋值给t3作为肤色匹配结果;若肤色预测结果为黄色皮肤,该份人员信息中的人员肤色为黑色皮肤,则匹配不成功,则将第三预设值0.01赋值给t3作为肤色匹配结果。其中,第二预设值可以为-0.01,-0.02,-0.03,等等,具体数值不做限定;第三预设值可以为0.01,0.02,0.03,等等,具体数值不做限定。
S105:根据第一匹配结果与第二匹配结果判断是否满足预设匹配条件。若是,则执行S106。
举例来说,该预设匹配条件可以包括:第一匹配结果大于第一预设阈值,第二匹配结果小于第二预设阈值;也可以为第一匹配结果和第二匹配结果使得损失值函数收敛,等等,具体预设匹配条件不做限定。
一种实施方式中,S105包括:将所述第一匹配结果和所述第二匹配结果进行融合,得到融合匹配结果;判断所述融合匹配结果是否小于预设阈值,若是,则将该份人员信息中包括的人员身份确定为所述待识别人员的人员身份。
一种情况下,若第一匹配结果为第一预设值和所述相似度的差值,则融合匹配结果可以为第一匹配结果与第二匹配结果的和,即:
Figure 985922DEST_PATH_IMAGE011
其中,DIFFsum为融合匹配结果,DIFF为第一匹配结果, DIFFother为第二匹配结果,α为权重,ti表示第i种匹配结果,即针对一个人员属性类别,其预测结果与对应的该份人员信息中的第二人员属性之间差异值,例如下述内容中的t1为性别匹配结果,t2为年龄匹配结果,t3为肤色匹配结果。
在一实施例中,如果性别不相同,则差异值增加0.01,如果相同,差异值为-0.01或者0。
举例来说,第一预设值为1,匹配特征相似度为0.9,α为0.1,性别匹配结果t1为-0.01,年龄匹配结果t2为-0.01,肤色匹配结果t3为-0.01,则第二匹配结果为性别匹配结果t1、年龄匹配结果t2和肤色匹配结果t3之和,为-0.03,那么融合匹配结果为(1-0.9+0.1×(-0.03))=0.097。
若预设阈值为0.1,当待识别人员的融合匹配结果为0.097时,这一融合匹配结果小于预设阈值,则满足预设匹配条件,执行S106。
S106:将该份人员信息中包括的人员身份确定为待识别人员的人员身份。
该身份识别方法可以识别车载人员身份,并根据识别得到的人员身份,为不同人员提供个性化服务,如:调整座椅靠背、调整座椅温度、调整后视镜角度等等。预先记录不同人员的驾车习惯和/或乘坐习惯,如:惯用后视镜角度、坐姿习惯、常用座椅温度等等。
举例来说,若识别到在驾驶位置的人员身份为30岁的青年人A,则按照记录中A的坐姿习惯,对驾驶位置的座椅靠背进行前后调整;按照记录中A的惯用后视镜角度,对后视镜角度进行调整。
若识别到在后排座位置的人员身份为65岁的老年人B,则按照记录中B的常用座椅温度,对后排座位置的座椅进行温度调整。
应用本发明图1所示实施例,在通过人脸识别得到人员身份的情况下,通过对比人员属性对人脸识别的结果加以验证,也就是说,本方案中通过图像特征和人员属性两方面的数据来识别人员身份,相比于仅基于人脸特征进行身份识别而言,识别依据更丰富,提高了身份识别的准确度。
图5为本发明实施例提供的身份识别方法的第二种流程示意图,包括:
S501:获取待识别人员的人脸图像,作为待处理图像。
可以通过摄像头拍摄的视频或图像,将包含人脸的图像作为待处理图像。待处理可以为人脸图像、包括人脸的全身图像、包括人脸的半身图像等等。
S502:通过人脸检测模型检测待处理图像,得到人脸关键点。
其中,人脸关键点为在人脸检测的待处理图像上,自动定位出面部关键特征点,如眼睛、鼻尖、嘴角点、眉毛以及人脸各部件轮廓点等,即人脸的特征点集合。
举例来说,可以通过RetinaFace模型对待处理图像进行检测,得到5个人脸关键点。其中,深度神经网络构建的人脸检测模型还可以为:基于MTCNN的人脸检测模型(Multi-task convolutional neural network),FisherFace人脸检测模型,基于SSD(Single ShotMultiBox Detector)的人脸检测模型,基于YOLOx的人脸识别模型(You Only Look Once)等,具体不做限定,其中有些人脸检测模型可以直接输出人脸图像后得到对齐的人脸关键点;所述人脸关键点可以为5个,如双眼的瞳孔中心点、鼻尖、左侧嘴角和右侧嘴角;所述人脸关键点也可以为68个,如图2所示为68个人脸关键点,等等,人脸关键点的数量及具体位置不做限定。在人脸识别中,检测到的人脸关键点越多,人脸识别的准确度越高。
S503:根据人脸关键点判断待处理图像中的人脸是否垂直。若是,则执行S504;若否,则执行S505。
举例来说,可以判断5个人脸关键点中双眼的两个人脸关键点是否在同一水平线上,若是,则判定待处理图像中的人脸是垂直的,可以执行S504;若否,则判定待处理图像中的人脸不是垂直的,可以执行S505。其中,根据人脸关键点判断待处理图像中的人脸是否垂直的方式不做限定。
S504:将待处理图像作为待识别人脸图像。
S505:基于人脸关键点对待处理图像进行调整,得到待识别人脸图像,待识别人脸图像中包含待识别人员的人脸。
一种实施方式中,S505可以包括:基于人脸关键点在待处理图像中的坐标、以及人脸目标坐标与人脸关键点之间的预设关系计算人脸目标点,所述预设关系包括比例缩放关系、平移关系、旋转关系,即根据预设关系确定图像变换矩阵;基于图像变换矩阵对待处理图像进行矩阵变换处理,得到矩阵变换图像;基于预设人脸位置框对矩阵变换图像进行截取,得到待识别人脸图像。其中,所述目标坐标为人脸对齐后的坐标。
举例来说,所述图像变换矩阵可以通过缩放、平移和旋转得到,假设预先设定的人脸关键点的目标坐标为[X,Y],人脸关键点在所述待识别图像中的坐标为[x,y],下面介绍缩放矩阵、平移矩阵和旋转矩阵:
缩放矩阵可以为:c是缩放比例。
Figure 270273DEST_PATH_IMAGE012
平移矩阵可以为:tx ,ty分别控制人脸关键点水平平移和垂直平移。
Figure 213958DEST_PATH_IMAGE013
旋转矩阵可以为:sinθ和cosθ控制旋转,其中θ表示需要旋转的角度。
Figure 241957DEST_PATH_IMAGE014
设b=sinθ,a=c*cosθ,则有:
Figure 220277DEST_PATH_IMAGE015
公式变形为:
Figure 409950DEST_PATH_IMAGE016
其中,a,b,tx,ty可以使用最小二乘法求出,从而得到图像变换矩阵。
S506:提取得到的待识别人脸图像中的第一待识别特征和第二待识别特征。
举例来说,可以利用InsightFace深度神经网络模型和CosFace深度神经网络模型,分别提取得到待识别人脸图像中的第一待识别特征和第二待识别特征。其中,构建人脸识别模型的所述深度神经网络可以包括:FaceNet、SphereFace、CosFace,等等,具体不做限定;可以分别使用不同的深度神经网络提取第一待识别特征和第二待识别特征。第一待识别特征可以包括一些人员属性特征,如年龄、性别、肤色,等等;第二待识别特征可以为人脸特征。
S507:将第一待识别特征输入人员属性预测分类网络,对第一人员属性进行预测;其中,人员属性预测分类网络包括与预设人员属性类别数量相同的预测分支,每一预测分支对应一预设人员属性类别;获取每一预测分支输出的与预设人员属性类别对应的预测结果,作为第一人员属性。
其中,人员属性预测分类网络可以根据输入的第一待识别特征对人员的属性进行预测,人员属性预测分类网络包括与人员属性类别数量相同的预测分支。人员属性预测分类网络可以由深度神经网络的全连接层和二分类网络组成,也可以由深度神经网络的全连接层构成,具体不做限定。
举例来说,若人员属性类别包括性别、年龄和肤色,那么人员属性预测分类网络中的预测分支就包括性别预测分支、年龄预测分支和肤色预测分支;将第一待识别特征输入至人员属性预测分类网络,可以得到性别预测结果、年龄预测结果和肤色预测结果。其中,人员属性类别可以为性别、年龄、肤色,等等,具体人员属性类别不做限定。
举例来说,本发明实施例中的“第一人员属性”可以为人员的性别、年龄、肤色等能够代表人员外貌特征的信息。对第一人员属性的预测通过深度神经网络的全连接层实现,深度神经网络可以包括:FaceNet、SphereFace、CosFace等等,具体不做限定。所述全连接层如图3所示,图3中x1,x2,…,xn-1,xn为输入全连接层的第一待识别特征中的n个特征向量,y1,y2,…,yn-1,yn为全连接层输出的n个与人员属性对应的浮点数。
一种实施方式中,S507可以包括:若预设人员属性类别包括人员性别;预测分支包括性别预测分支;则获取性别预测分支输出的与人员性别对应的性别预测结果,作为第一人员属性。
举例来说,可以将所述第一待识别特征输入性别预测分支,获取性别预测分支输出的与人员性别对应的性别预测结果,作为第一人员属性。其中,性别预测分支通过深度神经网络的全连接层以及分类网络实现;深度神经网络可以包括:FaceNet、SphereFace、CosFace,等等,具体不做限定。所述全连接层如图3所示,图3中x1,x2,…,xn-1,xn为输入全连接层的第一待识别特征中n个特征向量,y1,y2为全连接层输出的与人员性别属性对应的浮点数,全连接层的计算公式如下:
Figure 840931DEST_PATH_IMAGE017
其中,y1表示全连接层的第一输出,可以理解为y1代表男性概率,x1-xn表示输入全连接层的第一待识别特征中的n个特征向量,w11-w1n表示与x1-xn一一对应的性别预测权重,b1表示男性性别预测偏置值,y2表示全连接层的第二输出,可以理解为y2代表女性概率,w21-w2n表示与x1-xn一一对应的性别预测权重,b2表示女性性别预测偏置值。
所述全连接层的第一输出如图4所示,以四种输入全连接层的特征为例,图4中x1,x2,x3,x4为输入至全连接层的四个第一待识别特征的特征向量;w11为x1的权重,w12为x2的权重,w13为x3的权重,w14为x4的权重;b1为偏置值;y1为全连接层的第一输出。计算全连接层的第一输出,算式如下:
Figure 407042DEST_PATH_IMAGE018
全连接层的第一输出和第二输出为两个浮点数,分别代表男性概率与女性概率,可以理解为y1代表男性概率、y2代表女性概率;将这两个浮点数输入至分类网络;所述分类网络可以为softmax(二分类模型),其中,softmax的输出表示将全连接层的第一输出和第二输出代表的概率归一化到预设数值区间,其每一个输出为0-1中的数值,其所有输出之和为1。
一种实施方式中,S507可以包括:若预设人员属性类别包括人员年龄;预测分支包括年龄预测分支;则获取年龄预测分支输出的与人员年龄对应的年龄预测结果,作为第一人员属性。
举例来说,可以将所述第一待识别特征输入至年龄预测分支,获取年龄预测分支输出的与人员年龄对应的年龄预测结果,作为第一人员属性。其中,年龄预测分支通过深度神经网络的全连接层实现;深度神经网络可以包括:FaceNet、SphereFace、CosFace,等等,具体不做限定。所述全连接层的计算公式如下:
Figure 505448DEST_PATH_IMAGE019
其中,y3表示全连接层的第三输出,x1-xn表示输入全连接层的第一待识别特征中的n个特征向量,w31-w3n表示与x1-xn一一对应的年龄预测权重,b3表示年龄预测偏置值。全连接层的第三输出y3为一个浮点数值,表示年龄预测结果。
一种实施方式中,S507可以包括:若预设人员属性类别包括人员肤色;预测分支包括肤色预测分支;则获取肤色预测分支输出的与人员肤色对应的肤色预测结果,作为第一人员属性。
举例来说,可以将所述第一待识别特征输入至肤色预测分支,获取肤色预测分支输出的与人员肤色对应的肤色预测结果,作为第一人员属性。其中,肤色预测分支通过深度神经网络的全连接层实现;深度神经网络可以包括:FaceNet、SphereFace、CosFace,等等,具体不做限定。所述全连接层的计算公式如下:
Figure 866022DEST_PATH_IMAGE020
其中,y4表示全连接层的第四输出,x1-xn表示输入全连接层的第一待识别特征中的n个特征向量,w41-w4n表示与x1-xn一一对应的肤色预测权重,b4表示肤色预测偏置值。全连接层的第四输出y4为一个浮点数值,表示肤色预测结果。
S508:计算第二待识别特征与该份人员信息中的图像特征的相似度;计算第一预设值和相似度的差值,作为第一匹配结果。
本发明实施例中,预先存储了多份人员信息,存储该多份人员信息的过程可以包括:先采集一些用户的人脸图像,针对每个用户分别提取用户对应的人脸图像的图像特征,所述图像特征的维度与提取特征使用的深度神经网络模型有关,并记录每份图像特征对应的第二人员属性和人员身份,并存储于同一份人员信息中。举例来说,可以将每一份人员信息,即同一人员的第二人员属性、人员身份、以及该人员的人脸图像的图像特征对应的存储在数据库中;或者可以将同一人员的人员属性、人员身份、以及该人员的人脸图像的图像特征对应的存储在数据表中,其中,具体存储方式不做限定。
举例来说,若用户个数为100个,就采集这100个用户的人脸图像,分别利用InsightFace深度神经网络提取100张人脸图像的图像特征,InsightFace深度神经网络提取的图像特征维度可以为512维,并记录每份图像特征对应的人员属性和人员身份。最后将同一人员的人员属性、人员身份、以及该人员的人脸图像的图像特征的512维的图像特征储存在数据库中,这样,数据库中就存储有100个特征维度为512维的图像特征,以及这100个图像特征对应的人员属性和人员身份。其中,所述用户个数可以为100个,200个,等等,具体数量不做限定;所述特征维度可以为512维,128维,等等,具体不做限定。
一种实施方式中,计算第二待识别特征与该份人员信息中的图像特征的相似度;计算第一预设值和相似度的差值,作为第一匹配结果,其中,第一匹配结果用于表示第二待识别特征与该份人员信息中的图像特征的差异度。举例来说,可以利用余弦相似度来计算第二待识别特征与该份人员信息中的图像特征的相似度,余弦相似度的计算公式如下:
Figure 784300DEST_PATH_IMAGE021
其中,cos(θ)表示余弦相似度,A为第二待识别特征,B该份人员信息中的图像特征,Ai表示高维向量A的第i个维度,Bi表示高维向量B的第i个维度,n表示维度总数。
其中,计算第二待识别特征与该份人员信息中的图像特征的相似度的方式有多种,比如,计算相似度可以为计算特征之间的余弦相似度、欧氏距离、均方差等,具体计算相似度的方式不做限定。
举例来说,第一匹配结果可以通过如下算式计算得到:
第一匹配结果=第一预设值-相似度
例如,第二待识别特征与该份人员信息中的图像特征的相似度为0.6,第一预设值为1,则第一预设值和相似度的差值为1-0.6=0.4,将0.4作为第一匹配结果。其中,第一预设值可以为1,2,3,等等,具体数值不做限定。
S509:针对每一预设人员属性类别,将预设人员属性类别对应的第一人员属性与预设人员属性类别对应的第二人员属性进行匹配;若匹配成功,则将第二预设值确定为第二匹配结果;若匹配不成功,则将第三预设值确定为第二匹配结果。
其中,第二匹配结果用于表示针对一个人员属性类别,通过全连接层预测的结果与该份人员信息中的第二人员属性之间的差异值。一般情况下,若匹配成功,作为第一匹配结果的第二预设值为负或者零,即预测的结果与该份人员信息中的第二人员属性之间基本没有差异,其差异值为负或者零,例如为-0.01或者0,若匹配不成功,作为第二匹配结果的第三预设值为正,即预测的结果与该份人员信息中的第二人员属性之间具有差异,其差异值为正,例如为0.01。
例如,待识别人员的第一人员属性与该份人员信息中的第二人员属性匹配成功,则将第二预设值-0.01确定为第二匹配结果;如果待识别人员的第一人员属性与该份人员信息中的第二人员属性匹配不成功,则将第三预设值0.01确定为第二匹配结果。其中,第二预设值可以为-0.01,-0.02,-0.03,等等,具体数值不做限定;第三预设值可以为0.01,0.02,0.03,等等,具体数值不做限定。
一种情况下,若预设人员属性类别包括人员性别,则将性别预测结果与该份人员信息中的人员性别进行匹配。
举例来说,将性别预测结果与该份人员信息中的人员性别进行匹配,若性别预测结果为男性,该份人员信息中的人员性别也为男性,则匹配成功,则将第二预设值-0.01赋值给t1作为性别匹配结果;若性别预测结果为男性,该份人员信息中的人员性别为女性,则匹配不成功,则将第三预设值0.01赋值给t1作为性别匹配结果。其中,第二预设值可以为-0.01,-0.02,-0.03,等等,具体数值不做限定;第三预设值可以为0.01,0.02,0.03,等等,具体数值不做限定。
另一种情况下,若预设人员属性类别包括人员年龄,则确定年龄预测结果所在的年龄区间,作为预测年龄区间;确定该份人员信息中的人员年龄所在的年龄区间,作为真实年龄区间;将预测年龄区间与真实年龄区间进行匹配。
举例来说,定义年龄区间为20-25岁、25岁-30岁、30-35岁等,将预测年龄区间与真实年龄区间进行匹配,若年龄预测结果为22岁,22岁位于20-25岁这一年龄区间,则确定20-25岁为预测年龄区间;若该份人员信息中的人员年龄为24岁,24岁位于20-25岁这一年龄区间,则确定20-25岁为真实年龄区间,则匹配成功,则将第二预设值-0.01赋值给t2作为年龄匹配结果。若年龄预测结果为22岁,22岁位于20-25岁这一年龄区间,则确定20-25岁为预测年龄区间;若该份人员信息中的人员年龄为27岁,27岁位于25-30岁这一年龄区间,则确定25-30岁为真实年龄区间,则匹配不成功,则将第三预设值0.01赋值给t2作为年龄匹配结果。其中,第二预设值可以为-0.01,-0.02,-0.03,等等,具体数值不做限定;第三预设值可以为0.01,0.02,0.03,等等,具体数值不做限定。
再一种情况下,若预设人员属性类别包括人员肤色,则将肤色预测结果与该份人员信息中的人员肤色进行匹配。
举例来说,将肤色预测结果与该份人员信息中的人员肤色进行匹配,若肤色预测结果为黄色皮肤,该份人员信息中的人员肤色也为黄色皮肤,则匹配成功,则将第二预设值-0.01赋值给t3作为肤色匹配结果;若肤色预测结果为黄色皮肤,该份人员信息中的人员肤色为黑色皮肤,则匹配不成功,则将第三预设值0.01赋值给t3作为肤色匹配结果。其中,第二预设值可以为-0.01,-0.02,-0.03,等等,具体数值不做限定;第三预设值可以为0.01,0.02,0.03,等等,具体数值不做限定。
S510:将第一匹配结果与第二匹配结果进行融合,得到融合匹配结果。
一种情况下,若第一匹配结果为第一预设值和所述相似度的差值,则融合匹配结果可以为第一匹配结果与第二匹配结果的和,即:
Figure 154101DEST_PATH_IMAGE022
其中,DIFFsum为融合匹配结果,DIFF为第一匹配结果, DIFFother为第二匹配结果,α为权重,ti表示第i种匹配结果,即针对一个人员属性类别,其预测结果与对应的该份人员信息中的第二人员属性之间差异值,例如下述内容中的t1为性别匹配结果,t2为年龄匹配结果,t3为肤色匹配结果。
在一实施例中,如果性别不相同,则差异值增加0.01,如果相同,差异值为-0.01或者0。
举例来说,第一预设值为1,匹配特征相似度为0.9,α为0.1,性别匹配结果t1为-0.01,年龄匹配结果t2为-0.01,肤色匹配结果t3为-0.01,则第二匹配结果为性别匹配结果t1、年龄匹配结果t2和肤色匹配结果t3之和,为-0.03,那么融合匹配结果为(1-0.9+0.1×(-0.03))=0.097。
S511:判断融合匹配结果是否小于预设阈值。若是,则执行S512。
举例来说,若预设阈值为0.1,当待识别人员的融合匹配结果为0.097时,这一融合匹配结果小于预设阈值,则满足预设匹配条件,执行S512。
S512:将该份人员信息中包括的人员身份确定为待识别人员的人员身份。
该身份识别方法可以识别车载人员身份,并根据识别得到的人员身份,为不同人员提供个性化服务,如:调整座椅靠背、调整座椅温度、调整后视镜角度等等。预先记录不同人员的驾车习惯和/或乘坐习惯,如:惯用后视镜角度、坐姿习惯、常用座椅温度等等。
举例来说,若识别到在驾驶位置的人员身份为30岁的青年人A,则按照记录中A的坐姿习惯,对驾驶位置的座椅靠背进行前后调整;按照记录中A的惯用后视镜角度,对后视镜角度进行调整。
若识别到在后排座位置的人员身份为65岁的老年人B,则按照记录中B的常用座椅温度,对后排座位置的座椅进行温度调整。
应用本发明图5所示实施例,在通过人脸识别得到人员身份的情况下,通过对比人员属性对人脸识别的结果加以验证,也就是说,本方案中通过图像特征和人员属性两方面的数据来识别人员身份,相比于仅基于人脸特征进行身份识别而言,识别依据更丰富,提高了身份识别的准确度。
本发明实施例还提供了一种电子设备,如图6所示,包括处理器601和存储器602,其中,
存储器602,用于存放计算机程序;
处理器601,用于执行存储器602上所存放的程序时,实现上述任意一种身份识别方法。
上述电子设备提到的存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一身份识别方法的步骤。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一身份识别方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk (SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于设备实施例、计算机可读存储介质实施例、以及计算机程序产品实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

Claims (10)

1.一种身份识别方法,其特征在于,包括:
获取待识别人脸图像,所述待识别人脸图像中包含待识别人员的人脸;
提取得到所述待识别人脸图像中的第一待识别特征和第二待识别特征;
基于所述第一待识别特征,预测所述待识别人员的第一人员属性;
针对预先存储的每份人员信息,将所述第二待识别特征与该份人员信息中的图像特征进行匹配,得到第一匹配结果,将所述待识别人员的第一人员属性与该份人员信息中的第二人员属性进行匹配,得到第二匹配结果;其中,每份人员信息包括:同一人员的第二人员属性、人员身份、以及该人员的人脸图像的图像特征;
根据所述第一匹配结果与所述第二匹配结果判断是否满足预设匹配条件;
若满足,则将该份人员信息中包括的人员身份确定为所述待识别人员的人员身份。
2.根据权利要求1所述的方法,其特征在于,所述获取待识别人脸图像,包括:
获取待识别人员的人脸图像,作为待处理图像;
通过人脸检测模型检测所述待处理图像,得到人脸关键点;
根据所述人脸关键点,判断所述待处理图像中的人脸是否垂直,如果否,则基于所述人脸关键点对所述待处理图像进行调整,得到待识别人脸图像;如果是,则将所述待处理图像作为待识别人脸图像。
3.根据权利要求2所述的方法,其特征在于,所述基于所述人脸关键点对所述待处理图像进行调整,得到待识别人脸图像,包括:
基于所述人脸关键点在所述待处理图像中的坐标、以及预先设定的所述人脸关键点的目标坐标,确定图像变换矩阵;
基于所述图像变换矩阵对所述待处理图像进行矩阵变换处理,得到矩阵变换图像;
基于预设人脸位置框对所述矩阵变换图像进行截取,得到待识别人脸图像。
4.根据权利要求1所述的方法,其特征在于,所述基于所述第一待识别特征,预测所述待识别人员的第一人员属性,包括:
将所述第一待识别特征输入人员属性预测分类网络,对第一人员属性进行预测;其中,所述人员属性预测分类网络包括与预设人员属性类别数量相同的预测分支,每一所述预测分支对应一预设人员属性类别;
获取每一所述预测分支输出的与所述预设人员属性类别对应的预测结果,作为第一人员属性。
5.根据权利要求4所述的方法,其特征在于,所述将所述待识别人员的第一人员属性与该份人员信息中的第二人员属性进行匹配,得到第二匹配结果,包括:
针对每一所述预设人员属性类别,将所述预设人员属性类别对应的所述第一人员属性与所述预设人员属性类别对应的所述第二人员属性进行匹配;
若匹配成功,则将第二预设值确定为第二匹配结果;
若匹配不成功,则将第三预设值确定为第二匹配结果。
6.根据权利要求5所述的方法,其特征在于,所述预设人员属性类别包括人员性别;所述预测分支包括性别预测分支;所述获取每一所述预测分支输出的与所述预设人员属性类别对应的预测结果,作为第一人员属性,包括:
获取所述性别预测分支输出的与所述人员性别对应的性别预测结果,作为第一人员属性;
和/或,
所述预设人员属性类别包括人员年龄;所述预测分支包括年龄预测分支;所述获取每一所述预测分支输出的与所述预设人员属性类别对应的预测结果,作为第一人员属性,包括:
获取所述年龄预测分支输出的与所述人员年龄对应的年龄预测结果,作为第一人员属性。
7.根据权利要求6所述的方法,其特征在于,所述针对每一所述预设人员属性类别,将所述第一人员属性中的所述预设人员属性类别与所述第二人员属性中的所述预设人员属性类别进行匹配,包括:
若所述预设人员属性类别包括人员性别,则将所述性别预测结果与该份人员信息中的人员性别进行匹配;
若所述预设人员属性类别包括人员年龄,则确定所述年龄预测结果所在的年龄区间,作为预测年龄区间;
确定该份人员信息中的人员年龄所在的年龄区间,作为真实年龄区间;
将所述预测年龄区间与所述真实年龄区间进行匹配。
8.根据权利要求1所述的方法,其特征在于,所述将所述第二待识别特征与该份人员信息中的图像特征进行匹配,得到第一匹配结果,包括:
计算所述第二待识别特征与该份人员信息中的图像特征的相似度;
计算第一预设值和所述相似度的差值,作为第一匹配结果。
9.根据权利要求8所述的方法,其特征在于,所述根据所述第一匹配结果与所述第二匹配结果判断是否满足预设匹配条件,包括:
将所述第一匹配结果与所述第二匹配结果进行融合,得到融合匹配结果;
判断所述融合匹配结果是否小于预设阈值,若是,则判定所述第一匹配结果和所述第二匹配结果满足预设匹配条件。
10.一种电子设备,其特征在于,包括处理器和存储器;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-9任一所述的方法步骤。
CN202011523692.XA 2020-12-22 2020-12-22 一种身份识别方法及设备 Pending CN112257693A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011523692.XA CN112257693A (zh) 2020-12-22 2020-12-22 一种身份识别方法及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011523692.XA CN112257693A (zh) 2020-12-22 2020-12-22 一种身份识别方法及设备

Publications (1)

Publication Number Publication Date
CN112257693A true CN112257693A (zh) 2021-01-22

Family

ID=74225208

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011523692.XA Pending CN112257693A (zh) 2020-12-22 2020-12-22 一种身份识别方法及设备

Country Status (1)

Country Link
CN (1) CN112257693A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113033498A (zh) * 2021-04-30 2021-06-25 中国工商银行股份有限公司 客户身份特征识别方法及装置
CN113344012A (zh) * 2021-07-14 2021-09-03 马上消费金融股份有限公司 物品识别方法、装置及设备
CN114863540A (zh) * 2022-07-05 2022-08-05 杭州魔点科技有限公司 基于人脸属性分析的人脸识别在线辅助方法及装置
CN114882556A (zh) * 2022-04-26 2022-08-09 西北大学 一种基于改进的YoloX的戏曲角色妆容脸部检测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105930709A (zh) * 2016-04-21 2016-09-07 深圳泰首智能技术有限公司 人脸识别技术应用于人证一致性检验的方法及装置
CN107292289A (zh) * 2017-07-17 2017-10-24 东北大学 基于视频时间序列的人脸表情识别方法
CN109766792A (zh) * 2018-12-25 2019-05-17 东南大学 一种基于人脸图像的身份识别方法
CN110532970A (zh) * 2019-09-02 2019-12-03 厦门瑞为信息技术有限公司 人脸2d图像的年龄性别属性分析方法、系统、设备和介质
CN110728234A (zh) * 2019-10-12 2020-01-24 爱驰汽车有限公司 驾驶员人脸识别方法、系统、设备及介质
CN111091109A (zh) * 2019-12-24 2020-05-01 厦门瑞为信息技术有限公司 基于人脸图像进行年龄和性别预测的方法、系统和设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105930709A (zh) * 2016-04-21 2016-09-07 深圳泰首智能技术有限公司 人脸识别技术应用于人证一致性检验的方法及装置
CN107292289A (zh) * 2017-07-17 2017-10-24 东北大学 基于视频时间序列的人脸表情识别方法
CN109766792A (zh) * 2018-12-25 2019-05-17 东南大学 一种基于人脸图像的身份识别方法
CN110532970A (zh) * 2019-09-02 2019-12-03 厦门瑞为信息技术有限公司 人脸2d图像的年龄性别属性分析方法、系统、设备和介质
CN110728234A (zh) * 2019-10-12 2020-01-24 爱驰汽车有限公司 驾驶员人脸识别方法、系统、设备及介质
CN111091109A (zh) * 2019-12-24 2020-05-01 厦门瑞为信息技术有限公司 基于人脸图像进行年龄和性别预测的方法、系统和设备

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113033498A (zh) * 2021-04-30 2021-06-25 中国工商银行股份有限公司 客户身份特征识别方法及装置
CN113344012A (zh) * 2021-07-14 2021-09-03 马上消费金融股份有限公司 物品识别方法、装置及设备
CN113344012B (zh) * 2021-07-14 2022-08-23 马上消费金融股份有限公司 物品识别方法、装置及设备
CN114882556A (zh) * 2022-04-26 2022-08-09 西北大学 一种基于改进的YoloX的戏曲角色妆容脸部检测方法
CN114882556B (zh) * 2022-04-26 2024-03-15 西北大学 一种基于改进的YoloX的戏曲角色妆容脸部检测方法
CN114863540A (zh) * 2022-07-05 2022-08-05 杭州魔点科技有限公司 基于人脸属性分析的人脸识别在线辅助方法及装置
CN114863540B (zh) * 2022-07-05 2022-12-16 杭州魔点科技有限公司 基于人脸属性分析的人脸识别在线辅助方法及装置

Similar Documents

Publication Publication Date Title
CN112257693A (zh) 一种身份识别方法及设备
CN111523621A (zh) 图像识别方法、装置、计算机设备和存储介质
CN110414550B (zh) 人脸识别模型的训练方法、装置、系统和计算机可读介质
EP1864245A2 (en) Method of performing face recognition
US11455384B2 (en) User authentication method and apparatus with adaptively updated enrollment database (DB)
JP2013196295A (ja) 生体情報処理装置
US10924632B2 (en) Apparatus and methods for determining and providing anonymized content within images
US20210365666A1 (en) Apparatus with fake fingerprint detection and method with updating of model to prevent fake fingerprint
CN112948612A (zh) 人体封面生成方法、装置、电子设备及存储介质
WO2020205981A1 (en) Adaptive learning and matching of face modalities
CN111597921A (zh) 场景识别方法、装置、计算机设备和存储介质
US11899765B2 (en) Dual-factor identification system and method with adaptive enrollment
Mallet et al. Deepfake detection analyzing hybrid dataset utilizing cnn and svm
Prince et al. Bayesian identity clustering
Akhdan et al. Face recognition with anti spoofing eye blink detection
CN112541446B (zh) 一种生物特征库更新方法、装置及电子设备
Gupta et al. Unsupervised biometric anti-spoofing using generative adversarial networks
WO2022000334A1 (zh) 生物特征识别方法、装置、设备及存储介质
Bao et al. Multiobjects Association and Abnormal Behavior Detection for Massive Data Analysis in Multisensor Monitoring Network
Tan Application Research on Face Image Evaluation Algorithm of Deep Learning Mobile Terminal for Student Check‐In Management
US20240233445A1 (en) Systems and methods for image privacy
CN113221820B (zh) 一种对象识别方法、装置、设备及介质
El Saj et al. Face recognition and access control applications of the generative classifier pix2pix
Adedeji et al. Overview of Multibiometric Systems
WO2022083653A1 (zh) 更新生物特征库的方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210122

RJ01 Rejection of invention patent application after publication