CN113052120B - 一种戴口罩人脸识别的门禁设备 - Google Patents

一种戴口罩人脸识别的门禁设备 Download PDF

Info

Publication number
CN113052120B
CN113052120B CN202110377088.9A CN202110377088A CN113052120B CN 113052120 B CN113052120 B CN 113052120B CN 202110377088 A CN202110377088 A CN 202110377088A CN 113052120 B CN113052120 B CN 113052120B
Authority
CN
China
Prior art keywords
image
module
model
acquiring
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110377088.9A
Other languages
English (en)
Other versions
CN113052120A (zh
Inventor
付昕军
李国栋
丁小莲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Huatu Digital Technology Co ltd
Original Assignee
Shenzhen Huatu Digital Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Huatu Digital Technology Co ltd filed Critical Shenzhen Huatu Digital Technology Co ltd
Priority to CN202110377088.9A priority Critical patent/CN113052120B/zh
Publication of CN113052120A publication Critical patent/CN113052120A/zh
Application granted granted Critical
Publication of CN113052120B publication Critical patent/CN113052120B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/38Individual registration on entry or exit not involving the use of a pass with central registration

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种戴口罩人脸识别的门禁设备,涉及门禁检测技术领域,解决了现有方案中人脸识别精度不高,且应用范围不广的技术问题;本发明设置了数据采集模块,该设置分析原始图像,并根据分析结果发送信号至执行控制模块,对原始图像进行初步筛选,保证原始图像的质量,有助于提高本发明的工作效率以及人脸识别的精度;本发明设置了模型选择模块,该设置分析初筛图像中的面部图像是否佩戴口罩,并设置对应的模型标签,对初筛图像进行提前分类,为后续选择合适的模型奠定了基础;本发明设置了图像分析模块,该设置根据初筛图像的模型标签选择合适的识别模型,并根据识别模型进行人脸匹配,有助于提高本发明的识别精度和扩大本发明的应用范围。

Description

一种戴口罩人脸识别的门禁设备
技术领域
本发明属于门禁检测领域,涉及人脸识别技术,具体是一种戴口罩人脸识别的门禁设备。
背景技术
随着气候和病菌的不断蔓延,越来越多的小区和公司需要用到戴口罩人脸识别测温设备对进出者进行体温监测;但是当人们在进行体温检测时,由于每个人的身高不同导致在进行测温时需要踮起脚或是下蹲来完成体温检测,存在很大的不便,同时现有的戴口人脸识别测温设备结构较为简单,是直接放置于桌面上,稳固性不高。
授权号为CN211827401U的实用新型专利提供了一种戴口罩人脸识别测温门禁设备,包括人脸识别测温门禁设备主体,所述人脸识别测温门禁设备主体固定设有L形插块,所述L形插块插接设有插接座,所述插接座固定设有固定座,所述调节轴转动连接设有连接座,所述连接座固定设有支撑臂,所述支撑臂转动连接设有连接基座,所述连接基座对称插接设有限位柱,两个所述限位柱固定设有限位拉盖,所述限位拉盖的内壁固定设有弹簧,所述连接基座对称固定设有弧形固定板。
上述方案在普通门禁设备的基础上,设置了固定和角度调节装置,提高了稳定性和便捷性;但是,上述方案从机械机构上对门禁系统进行了改进,这种方式适用范围不大,而且智能控制程度不足;因此,上述方案仍需进一步改进。
发明内容
为了解决上述方案存在的问题,本发明提供了一种戴口罩人脸识别的门禁设备。
本发明的目的可以通过以下技术方案实现:一种戴口罩人脸识别的门禁设备,包括门禁设备本体和控制系统;所述控制系统包括处理器、执行控制模块、数据采集模块、模型选择模块、图像分析模块、预警管理模块和数据存储模块;
所述数据采集模块与三个所述图像采集单元电气连接;所述数据采集模块通过三个所述图像采集单元获取原始图像并对原始图像进行命名;所述原始图像的命名中包括高清摄像头编号和采集时间;
所述图像分析模块用于分析初筛图像,包括:
当所述分析模块接收到初筛图像之后,获取初筛图像对应的模型标签;
根据模型标签获取数据存储模块中的人脸识别模型;所述人脸识别模型包括第一识别模型和第二识别模型;
将初筛图像输入至人脸识别模型中获取输出结果;
获取数据存储模块中对应的标准图像,并获取标准图像的特性标签;
当输出结果与特性标签相同时,则判定初筛图像与标准图像匹配成功,将标准图像的名称发送至预警管理模块;否则判定初筛图像匹配失败,生成并发送匹配失败信号至预警管理模块。
优选的,所述第一识别模型的具体构建步骤包括:
通过网络获取训练图像并生成第一图像训练集;所述第一图像训练集中的人均未佩戴口罩;
为第一图像训练集中的训练图像设置第一训练标签;
构建分析模型;所述分析模型包括BP神经网络、RBF神经网络和深度卷积神经网络;
将第一图像训练集和第一训练标签按照设定比例划分为第一训练集和第一测试集;所述设定比例包括4:1、3:2和3:1;
通过第一训练集和第一测试集对分析模型进行训练和测试,将完成训练的分析模型标记为第一识别模型;
通过处理器将第一识别模型发送至数据存储模块进行存储。
优选的,所述第二识别模型的具体构建步骤包括:
通过网络获取训练图像并生成第二图像训练集;所述第二图像训练集中既有佩戴口罩的面部图像,又有未佩戴口罩的面部图像;
为第二图像训练集中的训练图像设置第二训练标签;
构建分析模型;
将第二图像训练集和第二训练标签按照设定比例划分为第二训练集和第二测试集;
通过第二训练集和第二测试集对分析模型进行训练和测试,将完成训练的分析模型标记为第二识别模型;
通过处理器将第二识别模型发送至数据存储模块进行存储。
优选的,所述第一训练标签的具体获取步骤包括:
获取第一训练集中训练图像的左视图像、正视图像和右视图像;
根据左视图像获取左耳垂与鼻尖的距离、左耳垂与嘴角的距离、左耳垂与下巴的距离并分别标记为ZJ1、ZJ2和ZJ3;
根据正视图像获取瞳孔之间的距离、瞳孔与鼻尖所组成三角形的面积、瞳孔与下巴所组成三角形的面积并分别标记为ZS1、ZS2和ZS3;
根据右视图像获取右耳垂与鼻尖的距离、右耳垂与嘴角的距离、右耳垂与下巴的距离并分别标记为YJ1、YJ2和YJ3;
生成第一训练标签;所述第一训练标签具体为
Figure GDA0003296111950000041
优选的,所述数据采集模块还用于对原始图像进行初步判断,包括:
对原始图像进行图像预处理获取第一图像;所述图像预处理包括图像分割、图像去噪和灰度变换;
提取第一图像中像素点的灰度值,按照灰度值的大小生成灰度带;根据灰度带获取灰度最大值、灰度最小值和灰度平均值并分别标记为HZZ、HXZ和HPZ;
获取灰度值大于等于灰度平均值的像素点总数并标记为DPZ,获取灰度值小于灰度平均值的像素点总数并标记为XPZ;
当DPZ≥L1或XPZ≥L1时,则判定原始图像的采集异常,生成并发送采集异常信号至预警管理模块;否则,判定原始图像的采集正常;其中L1为像素点数量阈值,且L1大于等于像素点总数的一半;
通过公式
Figure GDA0003296111950000042
获取图像评估系数TPX;其中α1和α2为比例系数,且α1为大于0的实数,α2为大于1的实数;
当图像评估系数TPX满足TPX≥L2时,则判定原始图像的质量合格,将对应的原始图像标记为初筛图像,将初筛图像发送至模型选择模块;否则,判定原始图像的质量不合格,生成并发送质量异常信号至执行控制模块,同时将对应原始图像的名称发送至执行控制模块,其中L2为图像评估系数阈值,且L2通过大量数据模拟获得;
通过处理器将图像评估系数和图像预警信号发送至数据存储模块进行存储;所述图像预警信号包括采集异常信号和质量异常信号。
优选的,所述模型选择模块根据初筛图像获取识别模型,包括:
所述模型选择模块接收到初筛图像之后,对初筛图像进行面部裁剪获取第二图像;所述面部裁剪指裁剪获取初筛图像中人像的面部;
将第二图像从中间分割成上部分和下部分;获取上部分的灰度均值并标记为第一灰度值,获取下部分的灰度均值并标记为第二灰度值;
当第一灰度值小于第二灰度值,且下部分像素点灰度值的变化范围小于灰度值预设范围时,则判定第二图像中的人佩戴口罩;否则,判定第二图像中的人未佩戴口罩;
为第二图像对应的初筛图像设置模型标签;所述模型标签的取值为0和1,当模型标签为1时,则表示初筛图像中的人佩戴口罩,当模型标签为0时,则表示初筛图像中的人未佩戴口罩;
将初筛图像及对应的模型标签分别发送至数据存储模块和图像分析模块。
优选的,所述执行控制模块用于重新获取原始图像,包括:
当执行控制模块接收到质量异常信号和原始图像名称时,获取原始图像对应的高清摄像头编号;
执行控制模块根据获取的高清摄像头编号控制云台调节高清摄像头的角度重新获取图像,并将获取的图像发送至数据采集模块。
优选的,所述处理器分别与执行控制模块、数据采集模块、模型选择模块、图像分析模块、预警管理模块和数据存储模块通信连接;所述预警管理模块分别与数据存储模块和图像分析模块通信连接,所述数据采集模块分别与执行控制模块和模型选择模块通信连接,所述图像分析模块和模型选择模块通信连接;所述门禁设备本体包括至少三个图像采集单元,所述图像采集单元包括云台和高清摄像头,三个所述图像采集单元在同一高度的水平面上呈扇形分布,且位于中间的所述采集单元与相邻图像采集单元的角度等于60度。
与现有技术相比,本发明的有益效果是:
1、本发明设置了数据采集模块,该设置用于对原始图像进行初步判断;数据采集模块分析原始图像,并根据分析结果发送信号至执行控制模块,对原始图像进行初步筛选,保证原始图像的质量,有助于提高本发明的工作效率以及人脸识别的精度;
2、本发明设置了模型选择模块,该设置用于根据初筛图像获取识别模型;模型选择模块分析初筛图像中的面部图像是否佩戴口罩,并设置对应的模型标签,对初筛图像进行提前分类,为后续选择合适的模型奠定了基础;
3、本发明设置了图像分析模块,该设置用于分析初筛图像;图像分析模块根据初筛图像的模型标签选择合适的识别模型,并根据识别模型进行人脸匹配,有助于提高本发明的识别精度和扩大本发明的应用范围。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明控制系统的原理示意图。
具体实施方式
下面将结合实施例对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1,一种戴口罩人脸识别的门禁设备,包括门禁设备本体和控制系统;控制系统包括处理器、执行控制模块、数据采集模块、模型选择模块、图像分析模块、预警管理模块和数据存储模块;
数据采集模块与三个图像采集单元电气连接;数据采集模块通过三个图像采集单元获取原始图像并对原始图像进行命名;原始图像的命名中包括高清摄像头编号和采集时间;
图像分析模块用于分析初筛图像,包括:
当分析模块接收到初筛图像之后,获取初筛图像对应的模型标签;
根据模型标签获取数据存储模块中的人脸识别模型;人脸识别模型包括第一识别模型和第二识别模型;
将初筛图像输入至人脸识别模型中获取输出结果;
获取数据存储模块中对应的标准图像,并获取标准图像的特性标签;特定标签的获取方式与第一图像训练标签和第二图像训练标签的获取方式一致;
当输出结果与特性标签相同时,则判定初筛图像与标准图像匹配成功,将标准图像的名称发送至预警管理模块;否则判定初筛图像匹配失败,生成并发送匹配失败信号至预警管理模块。
进一步地,预警管理模块用于显示匹配结果以及故障信号。
进一步地,标准图像为预先存储的人脸图像,且标准图像的名称中包括姓名和备注;备注包括手机号、居住地址和性别;
进一步地,第一识别模型的具体构建步骤包括:
通过网络获取训练图像并生成第一图像训练集;第一图像训练集中的人均未佩戴口罩;
为第一图像训练集中的训练图像设置第一训练标签;
构建分析模型;分析模型包括BP神经网络、RBF神经网络和深度卷积神经网络;
将第一图像训练集和第一训练标签按照设定比例划分为第一训练集和第一测试集;设定比例包括4:1、3:2和3:1;
通过第一训练集和第一测试集对分析模型进行训练和测试,将完成训练的分析模型标记为第一识别模型;
通过处理器将第一识别模型发送至数据存储模块进行存储。
进一步地,第二识别模型的具体构建步骤包括:
通过网络获取训练图像并生成第二图像训练集;第二图像训练集中既有佩戴口罩的面部图像,又有未佩戴口罩的面部图像;
为第二图像训练集中的训练图像设置第二训练标签;
构建分析模型;
将第二图像训练集和第二训练标签按照设定比例划分为第二训练集和第二测试集;
通过第二训练集和第二测试集对分析模型进行训练和测试,将完成训练的分析模型标记为第二识别模型;
通过处理器将第二识别模型发送至数据存储模块进行存储。
进一步地,第一训练标签的具体获取步骤包括:
获取第一训练集中训练图像的左视图像、正视图像和右视图像;
根据左视图像获取左耳垂与鼻尖的距离、左耳垂与嘴角的距离、左耳垂与下巴的距离并分别标记为ZJ1、ZJ2和ZJ3;
根据正视图像获取瞳孔之间的距离、瞳孔与鼻尖所组成三角形的面积、瞳孔与下巴所组成三角形的面积并分别标记为ZS1、ZS2和ZS3;
根据右视图像获取右耳垂与鼻尖的距离、右耳垂与嘴角的距离、右耳垂与下巴的距离并分别标记为YJ1、YJ2和YJ3;
生成第一训练标签;第一训练标签具体为
Figure GDA0003296111950000091
进一步地,第二训练标签的具体获取步骤包括:
获取第二训练集中训练图像的左视图像、正视图像和右视图像;
根据左视图获取左耳尖与左耳垂的距离、左耳垂与左眼角的距离、左耳尖与左眼角的距离并分别标记为ZE1、ZE2和ZE3;
根据正视图像获取瞳孔之间的距离、瞳孔与两个耳垂组成的四边形的面积、瞳孔与两个耳尖组成的四边形的面积并分别标记为ZE1、ZE2和ZE3;
根据右视图像获取右耳尖与右耳垂的距离、右耳垂与右眼角的距离、右耳尖与右眼角的距离并分别标记为YE1、YE2和YE3;
生成第二训练标签;第二训练标签具体为
Figure GDA0003296111950000092
进一步地,当模型标签为0时,则获取第一识别模型,当模型标签为1时,则获取第二识别模型。
进一步地,数据采集模块还用于对原始图像进行初步判断,包括:
对原始图像进行图像预处理获取第一图像;图像预处理包括图像分割、图像去噪和灰度变换;
提取第一图像中像素点的灰度值,按照灰度值的大小生成灰度带;根据灰度带获取灰度最大值、灰度最小值和灰度平均值并分别标记为HZZ、HXZ和HPZ;
获取灰度值大于等于灰度平均值的像素点总数并标记为DPZ,获取灰度值小于灰度平均值的像素点总数并标记为XPZ;
当DPZ≥L1或XPZ≥l1时,则判定原始图像的采集异常,生成并发送采集异常信号至预警管理模块;否则,判定原始图像的采集正常;其中l1为像素点数量阈值,且l1大于等于像素点总数的一半;
通过公式
Figure GDA0003296111950000101
获取图像评估系数TPX;其中α1和α2为比例系数,且α1为大于0的实数,α2为大于1的实数;
当图像评估系数TPX满足TPX≥L2时,则判定原始图像的质量合格,将对应的原始图像标记为初筛图像,将初筛图像发送至模型选择模块;否则,判定原始图像的质量不合格,生成并发送质量异常信号至执行控制模块,同时将对应原始图像的名称发送至执行控制模块,其中L2为图像评估系数阈值,且L2通过大量数据模拟获得;
通过处理器将图像评估系数和图像预警信号发送至数据存储模块进行存储;图像预警信号包括采集异常信号和质量异常信号。
进一步地,模型选择模块根据初筛图像获取识别模型,包括:
模型选择模块接收到初筛图像之后,对初筛图像进行面部裁剪获取第二图像;面部裁剪指裁剪获取初筛图像中人像的面部;
将第二图像从中间分割成上部分和下部分;获取上部分的灰度均值并标记为第一灰度值,获取下部分的灰度均值并标记为第二灰度值;
当第一灰度值小于第二灰度值,且下部分像素点灰度值的变化范围小于灰度值预设范围时,则判定第二图像中的人佩戴口罩;否则,判定第二图像中的人未佩戴口罩;
为第二图像对应的初筛图像设置模型标签;模型标签的取值为0和1,当模型标签为1时,则表示初筛图像中的人佩戴口罩,当模型标签为0时,则表示初筛图像中的人未佩戴口罩;
将初筛图像及对应的模型标签分别发送至数据存储模块和图像分析模块。
进一步地,执行控制模块用于重新获取原始图像,包括:
当执行控制模块接收到质量异常信号和原始图像名称时,获取原始图像对应的高清摄像头编号;
执行控制模块根据获取的高清摄像头编号控制云台调节高清摄像头的角度重新获取图像,并将获取的图像发送至数据采集模块。
进一步地,处理器分别与执行控制模块、数据采集模块、模型选择模块、图像分析模块、预警管理模块和数据存储模块通信连接;预警管理模块分别与数据存储模块和图像分析模块通信连接,数据采集模块分别与执行控制模块和模型选择模块通信连接,图像分析模块和模型选择模块通信连接;门禁设备本体包括至少三个图像采集单元,图像采集单元包括云台和高清摄像头,三个图像采集单元在同一高度的水平面上呈扇形分布,且位于中间的采集单元与相邻图像采集单元的角度等于60度。
上述公式均是去除量纲取其数值计算,公式是由采集大量数据进行软件模拟得到最接近真实情况的一个公式,公式中的预设参数和预设阈值由本领域的技术人员根据实际情况设定或者大量数据模拟获得。
本发明的工作原理:
对原始图像进行图像预处理获取第一图像;提取第一图像中像素点的灰度值,按照灰度值的大小生成灰度带;根据灰度带获取灰度最大值、灰度最小值和灰度平均值;获取灰度值大于等于灰度平均值的像素点总数并标记为DPZ,获取灰度值小于灰度平均值的像素点总数并标记为XPZ;
当DPZ≥L1或XPZ≥l1时,则判定原始图像的采集异常,生成并发送采集异常信号至预警管理模块;否则,判定原始图像的采集正常;获取图像评估系数TPX;当图像评估系数TPX满足TPX≥L2时,则判定原始图像的质量合格,将对应的原始图像标记为初筛图像,将初筛图像发送至模型选择模块;否则,判定原始图像的质量不合格,生成并发送质量异常信号至执行控制模块,同时将对应原始图像的名称发送至执行控制模块;
模型选择模块接收到初筛图像之后,对初筛图像进行面部裁剪获取第二图像;将第二图像从中间分割成上部分和下部分;获取上部分的灰度均值并标记为第一灰度值,获取下部分的灰度均值并标记为第二灰度值;当第一灰度值小于第二灰度值,且下部分像素点灰度值的变化范围小于灰度值预设范围时,则判定第二图像中的人佩戴口罩;否则,判定第二图像中的人未佩戴口罩;为第二图像对应的初筛图像设置模型标签;
当分析模块接收到初筛图像之后,获取初筛图像对应的模型标签;根据模型标签获取数据存储模块中的人脸识别模型;人脸识别模型包括第一识别模型和第二识别模型;将初筛图像输入至人脸识别模型中获取输出结果;获取数据存储模块中对应的标准图像,并获取标准图像的特性标签;特定标签的获取方式与第一图像训练标签和第二图像训练标签的获取方式一致;当输出结果与特性标签相同时,则判定初筛图像与标准图像匹配成功,将标准图像的名称发送至预警管理模块;否则判定初筛图像匹配失败,生成并发送匹配失败信号至预警管理模块;
当执行控制模块接收到质量异常信号和原始图像名称时,获取原始图像对应的高清摄像头编号;执行控制模块根据获取的高清摄像头编号控制云台调节高清摄像头的角度重新获取图像,并将获取的图像发送至数据采集模块。
在本说明书的描述中,参考术语“一个实施例”、“示例”、“具体示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上内容仅仅是对本发明结构所作的举例和说明,所属本技术领域的技术人员对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,只要不偏离发明的结构或者超越本权利要求书所定义的范围,均应属于本发明的保护范围。

Claims (7)

1.一种戴口罩人脸识别的门禁设备,其特征在于,包括门禁设备本体和控制系统;所述控制系统包括处理器、执行控制模块、数据采集模块、模型选择模块、图像分析模块、预警管理模块和数据存储模块;
所述数据采集模块与三个图像采集单元电气连接;所述数据采集模块通过三个所述图像采集单元获取原始图像并对原始图像进行命名;所述原始图像的命名中包括高清摄像头编号和采集时间;
所述图像分析模块用于分析初筛图像,包括:
当所述分析模块接收到初筛图像之后,获取初筛图像对应的模型标签;
根据模型标签获取数据存储模块中的人脸识别模型;所述人脸识别模型包括第一识别模型和第二识别模型;
将初筛图像输入至人脸识别模型中获取输出结果;
获取数据存储模块中对应的标准图像,并获取标准图像的特性标签;
当输出结果与特性标签相同时,则判定初筛图像与标准图像匹配成功,将标准图像的名称发送至预警管理模块;否则判定初筛图像匹配失败,生成并发送匹配失败信号至预警管理模块;
所述模型选择模块根据初筛图像获取识别模型,包括:
所述模型选择模块接收到初筛图像之后,对初筛图像进行面部裁剪获取第二图像;所述面部裁剪指裁剪获取初筛图像中人像的面部;
将第二图像从中间分割成上部分和下部分;获取上部分的灰度均值并标记为第一灰度值,获取下部分的灰度均值并标记为第二灰度值;
当第一灰度值小于第二灰度值,且下部分像素点灰度值的变化范围小于灰度值预设范围时,则判定第二图像中的人佩戴口罩;否则,判定第二图像中的人未佩戴口罩;
为第二图像对应的初筛图像设置模型标签;所述模型标签的取值为0和1,当模型标签为1时,则表示初筛图像中的人佩戴口罩,当模型标签为0时,则表示初筛图像中的人未佩戴口罩;
将初筛图像及对应的模型标签分别发送至数据存储模块和图像分析模块。
2.根据权利要求1所述的一种戴口罩人脸识别的门禁设备,其特征在于,所述第一识别模型的具体构建步骤包括:
通过网络获取训练图像并生成第一图像训练集;所述第一图像训练集中的人均未佩戴口罩;
为第一图像训练集中的训练图像设置第一训练标签;
构建分析模型;所述分析模型包括BP神经网络、RBF神经网络和深度卷积神经网络;
将第一图像训练集和第一训练标签按照设定比例划分为第一训练集和第一测试集;所述设定比例包括4:1、3:2和3:1;
通过第一训练集和第一测试集对分析模型进行训练和测试,将完成训练的分析模型标记为第一识别模型;
通过处理器将第一识别模型发送至数据存储模块进行存储。
3.根据权利要求1所述的一种戴口罩人脸识别的门禁设备,其特征在于,所述第二识别模型的具体构建步骤包括:
通过网络获取训练图像并生成第二图像训练集;所述第二图像训练集中既有佩戴口罩的面部图像,又有未佩戴口罩的面部图像;
为第二图像训练集中的训练图像设置第二训练标签;
构建分析模型;
将第二图像训练集和第二训练标签按照设定比例划分为第二训练集和第二测试集;
通过第二训练集和第二测试集对分析模型进行训练和测试,将完成训练的分析模型标记为第二识别模型;
通过处理器将第二识别模型发送至数据存储模块进行存储。
4.根据权利要求2所述的一种戴口罩人脸识别的门禁设备,其特征在于,所述第一训练标签的具体获取步骤包括:
获取第一训练集中训练图像的左视图像、正视图像和右视图像;
根据左视图像获取左耳垂与鼻尖的距离、左耳垂与嘴角的距离、左耳垂与下巴的距离并分别标记为ZJ1、ZJ2和ZJ3;
根据正视图像获取瞳孔之间的距离、瞳孔与鼻尖所组成三角形的面积、瞳孔与下巴所组成三角形的面积并分别标记为ZS1、ZS2和ZS3;
根据右视图像获取右耳垂与鼻尖的距离、右耳垂与嘴角的距离、右耳垂与下巴的距离并分别标记为YJ1、YJ2和YJ3;
生成第一训练标签;所述第一训练标签具体为
Figure FDA0003296111940000031
5.根据权利要求1所述的一种戴口罩人脸识别的门禁设备,其特征在于,所述数据采集模块还用于对原始图像进行初步判断,包括:
对原始图像进行图像预处理获取第一图像;所述图像预处理包括图像分割、图像去噪和灰度变换;
提取第一图像中像素点的灰度值,按照灰度值的大小生成灰度带;根据灰度带获取灰度最大值、灰度最小值和灰度平均值并分别标记为HZZ、HXZ和HPZ;
获取灰度值大于等于灰度平均值的像素点总数并标记为DPZ,获取灰度值小于灰度平均值的像素点总数并标记为XPZ;
当DPZ≥L1或XPZ≥L1时,则判定原始图像的采集异常,生成并发送采集异常信号至预警管理模块;否则,判定原始图像的采集正常;其中L1为像素点数量阈值,且L1大于等于像素点总数的一半;
通过公式
Figure FDA0003296111940000041
获取图像评估系数TPX;其中α1和α2为比例系数,且α1为大于0的实数,α2为大于1的实数;
当图像评估系数TPX满足TPX≥L2时,则判定原始图像的质量合格,将对应的原始图像标记为初筛图像,将初筛图像发送至模型选择模块;否则,判定原始图像的质量不合格,生成并发送质量异常信号至执行控制模块,同时将对应原始图像的名称发送至执行控制模块,其中L2为图像评估系数阈值,且L2通过大量数据模拟获得;
通过处理器将图像评估系数和图像预警信号发送至数据存储模块进行存储;所述图像预警信号包括采集异常信号和质量异常信号。
6.根据权利要求1所述的一种戴口罩人脸识别的门禁设备,其特征在于,所述执行控制模块用于重新获取原始图像,包括:
当执行控制模块接收到质量异常信号和原始图像名称时,获取原始图像对应的高清摄像头编号;
执行控制模块根据获取的高清摄像头编号控制云台调节高清摄像头的角度重新获取图像,并将获取的图像发送至数据采集模块。
7.根据权利要求1所述的一种戴口罩人脸识别的门禁设备,其特征在于,所述处理器分别与执行控制模块、数据采集模块、模型选择模块、图像分析模块、预警管理模块和数据存储模块通信连接;所述预警管理模块分别与数据存储模块和图像分析模块通信连接,所述数据采集模块分别与执行控制模块和模型选择模块通信连接,所述图像分析模块和模型选择模块通信连接;所述门禁设备本体包括至少三个图像采集单元,所述图像采集单元包括云台和高清摄像头,三个所述图像采集单元在同一高度的水平面上呈扇形分布,且位于中间的所述采集单元与相邻图像采集单元的角度等于60度。
CN202110377088.9A 2021-04-08 2021-04-08 一种戴口罩人脸识别的门禁设备 Active CN113052120B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110377088.9A CN113052120B (zh) 2021-04-08 2021-04-08 一种戴口罩人脸识别的门禁设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110377088.9A CN113052120B (zh) 2021-04-08 2021-04-08 一种戴口罩人脸识别的门禁设备

Publications (2)

Publication Number Publication Date
CN113052120A CN113052120A (zh) 2021-06-29
CN113052120B true CN113052120B (zh) 2021-12-24

Family

ID=76519064

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110377088.9A Active CN113052120B (zh) 2021-04-08 2021-04-08 一种戴口罩人脸识别的门禁设备

Country Status (1)

Country Link
CN (1) CN113052120B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109361896A (zh) * 2018-10-17 2019-02-19 南京布拎信息科技有限公司 一种人脸识别用人脸定位装置及其使用方法
CN111369413A (zh) * 2018-12-26 2020-07-03 杭州颢云科技有限公司 一种便捷的社区便民自助服务系统
CN111444887A (zh) * 2020-04-30 2020-07-24 北京每日优鲜电子商务有限公司 口罩佩戴的检测方法、装置、存储介质及电子设备
CN111553428A (zh) * 2020-04-30 2020-08-18 北京百度网讯科技有限公司 用于训练判别模型的方法、装置、设备及可读存储介质
CN111553195A (zh) * 2020-04-02 2020-08-18 东南大学 基于多位图切平面与多尺度uLBP的三维人脸遮挡判别方法
CN111582199A (zh) * 2020-05-12 2020-08-25 佛山市玖章智能科技有限公司 一种人脸识别模型训练方法和人脸识别方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105518582B (zh) * 2015-06-30 2018-02-02 北京旷视科技有限公司 活体检测方法及设备
CN106570447B (zh) * 2015-12-16 2019-07-12 黄开竹 基于灰度直方图匹配的人脸照片太阳镜自动去除方法
US10289822B2 (en) * 2016-07-22 2019-05-14 Nec Corporation Liveness detection for antispoof face recognition

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109361896A (zh) * 2018-10-17 2019-02-19 南京布拎信息科技有限公司 一种人脸识别用人脸定位装置及其使用方法
CN111369413A (zh) * 2018-12-26 2020-07-03 杭州颢云科技有限公司 一种便捷的社区便民自助服务系统
CN111553195A (zh) * 2020-04-02 2020-08-18 东南大学 基于多位图切平面与多尺度uLBP的三维人脸遮挡判别方法
CN111444887A (zh) * 2020-04-30 2020-07-24 北京每日优鲜电子商务有限公司 口罩佩戴的检测方法、装置、存储介质及电子设备
CN111553428A (zh) * 2020-04-30 2020-08-18 北京百度网讯科技有限公司 用于训练判别模型的方法、装置、设备及可读存储介质
CN111582199A (zh) * 2020-05-12 2020-08-25 佛山市玖章智能科技有限公司 一种人脸识别模型训练方法和人脸识别方法

Also Published As

Publication number Publication date
CN113052120A (zh) 2021-06-29

Similar Documents

Publication Publication Date Title
CN106236115A (zh) 一种心理测试系统
CN110477925A (zh) 一种针对敬老院老人的跌倒检测与预警方法及系统
US9262669B2 (en) Systems and methods for using curvatures to analyze facial and body features
CN110298393A (zh) 一种基于深度学习的头发头皮健康状况检测方法
CN107247945A (zh) 一种基于Kinect设备的病房病患监护系统及监护方法
CN109948435A (zh) 坐姿提醒方法及装置
CN101894401A (zh) 虹膜识别门禁
CN107919167A (zh) 一种生理特征监测方法、装置与系统
CN112749860A (zh) 一种智慧养老照料等级需求评估服务系统
CN106446805B (zh) 一种眼底照中视杯的分割方法及系统
CN109891519A (zh) 信息处理装置、信息处理方法和程序
DE102022208700A1 (de) Elektronische vorrichtungen mit körperzusammensetzungsanalyseschaltung
CN113052120B (zh) 一种戴口罩人脸识别的门禁设备
CN110348326A (zh) 基于身份证识别和多设备访问的家庭健康信息处理方法
CN116343302A (zh) 一种基于机器视觉的微表情分类识别系统
CN115273213A (zh) 一种vr眼镜及其在线考试防作弊方法
KR20130141285A (ko) 피부상태 진단 방법 및 장치와 이를 이용한 피부상태 적합 화장정보 제공 방법
CN107066089A (zh) 一种基于计算机视觉技术的手机用眼姿势保护方法
JP3430944B2 (ja) 印象の評価方法
US20230020160A1 (en) Method for determining a value of at least one geometrico-morphological parameter of a subject wearing an eyewear
CN114052654A (zh) 动态眼睛健康管理系统
CN201522734U (zh) 虹膜识别门禁
CN112951391A (zh) 一种智能护理监控
KR101715567B1 (ko) 사상체질전문가의 체질 진단에서의 시진(視診) 또는 망진(望診) 상의 오류를 교정하기 위한 얼굴 분석 시스템
CN110111891A (zh) 一种基于人脸图像的员工健康告警方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant