CN111611874A - 基于ResNet和Canny的人脸口罩佩戴检测方法 - Google Patents
基于ResNet和Canny的人脸口罩佩戴检测方法 Download PDFInfo
- Publication number
- CN111611874A CN111611874A CN202010355007.0A CN202010355007A CN111611874A CN 111611874 A CN111611874 A CN 111611874A CN 202010355007 A CN202010355007 A CN 202010355007A CN 111611874 A CN111611874 A CN 111611874A
- Authority
- CN
- China
- Prior art keywords
- image
- layer
- network
- resnet
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 18
- 239000013598 vector Substances 0.000 claims abstract description 36
- 238000012549 training Methods 0.000 claims abstract description 23
- 230000006870 function Effects 0.000 claims abstract description 20
- 238000003708 edge detection Methods 0.000 claims abstract description 14
- 238000000034 method Methods 0.000 claims abstract description 12
- 238000012360 testing method Methods 0.000 claims abstract description 12
- 238000013528 artificial neural network Methods 0.000 claims abstract description 5
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 238000011176 pooling Methods 0.000 claims description 14
- 238000005070 sampling Methods 0.000 claims description 10
- 238000002372 labelling Methods 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 claims description 5
- 210000002569 neuron Anatomy 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 claims description 2
- 239000011521 glass Substances 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims description 2
- 238000005457 optimization Methods 0.000 claims description 2
- 230000004044 response Effects 0.000 claims description 2
- 230000001629 suppression Effects 0.000 claims description 2
- 238000011478 gradient descent method Methods 0.000 claims 1
- 230000002401 inhibitory effect Effects 0.000 claims 1
- 239000000284 extract Substances 0.000 abstract description 2
- 206010035664 Pneumonia Diseases 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 241000711573 Coronaviridae Species 0.000 description 1
- 208000001528 Coronaviridae Infections Diseases 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000009385 viral infection Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种基于ResNet和Canny的人脸口罩佩戴检测方法。本发明方法首先进行数据预处理,然后使用Canny边缘检测算法提取边缘信息向量,其权重系数为α,图像向量的权重系数为1‑α,分别乘以对应的权重后进行拼接作为网络输入。然后建立ResNet卷积神经网络,确定网络结构;最后将训练集图像输入ResNet网络进行特征学习,确定损失函数以及参数更新方式,使用误差反向传播进行每一层网络参数的调整,不断的迭代训练,最终实现收敛,得到网络模型;通过测试集图像对训练好的网络模型进行测试。本发明方法识别的范围广,适应性强;对大流量的人员拥堵的情况,也可以实现人员是否佩戴口罩的快速识别,节约人工成本和时间成本。
Description
技术领域
本发明属于模式识别技术领域和图像检测技术领域,尤其涉及到基于Resnet的人脸口罩佩戴检测的方法
背景技术
由新型冠状病毒引发的肺炎疫情持续影响全国。为防止疫情蔓延扩散,佩戴口罩成为了人们出门在外的必然防范措施,除此之外,出入公共场合佩戴口罩是对进一步落实国家及对新型冠状病毒感染的肺炎疫情防控工作的部署,加强公共场所管理的强制性要求。因此,很多公共场所例如商场、医院等都在出入口设置了口罩佩戴检测关卡,未佩戴口罩人员禁止出入。目前,口罩佩戴检测主要以人工检测为主,效率较低,耗费人力,而且这种接触式的人员验证方式会提高病毒感染的可能性。
人脸属性识别是指当检测一张人脸图像的时候,对图像信息进行分析,返回人脸配饰等信息,此功能被广泛的应用在人机交互,智能监控系统等诸多领域。ResNet作为一种卷积神经网络,能够对图片进行特征提取,判断人脸的特征,识别特定的人脸属性,而且其残差结构的存在能够大幅度增加网络的深度,提高识别的精度,同时降低计算量,由于网络的平移不变性,因此有较高的容错率,能够解决复杂环境下的人脸属性识别问题。Canny边缘检测是从不同视觉对象中提取有用的结构信息并大大减少要处理的数据量的一种技术,目前已广泛应用于各种计算机视觉系统。
发明内容
为了实现非接触式的人员验证方式,本发明提供了一种基于ResNet和Canny的人脸口罩佩戴检测方法。
本文采用二值属性进行监督学习,步骤如下:
步骤(1)数据预处理;
1.1获取各个公共场所出入口人员流动监控视频,获得原始采样图像;
1.2对获得的原始采样图像进行候选区的提取,并将候选区域转化成固定尺寸的图像;
1.3对获得的固定尺寸的图像即样本进行标签标注,并将标注后的图像数据集分为训练集和测试集。
步骤(2)使用Canny边缘检测算法提取边缘信息向量,其权重系数为α,图像向量的权重系数为1-α,分别乘以对应的权重后进行拼接作为网络输入。权重α能够反映网络对边缘信息和整体图像信息的依赖程度。
步骤(3)建立ResNet网络;
建立ResNet卷积神经网络,确定网络结构,将ResNet网络的全连接层输出微调成2维向量,将多回归问题转换成为二分类问题;
步骤(4)将训练集图像输入ResNet网络进行特征学习,通过卷积层,池化层,全连接层输出学习到的特征;
确定损失函数以及参数更新方式,使用误差反向传播进行每一层网络参数的调整,不断的迭代训练,最终实现收敛,得到网络模型;
步骤(5)通过测试集图像对训练好的网络模型进行测试;
本发明有益效果如下:
本发通过设计基于ResNet的人脸口罩佩戴的检测的深度学习框架,能够准确识别不同类型和不同颜色的口罩,识别的范围广;能够实现光照不同或角度不同等多种环境下的人脸口罩佩戴识别,适应性强;对大流量的人员拥堵的情况,也可以实现人员是否佩戴口罩的快速识别,节约人工成本和时间成本;
附图说明
图1是本发明的ResNet每个残差模块结构;
图2是本发明的ResNet网络结构;
图3是本发明的基于Resnet的人脸口罩佩戴检测的方法流程图。
具体实施方式
1.以下结合附图与实施例对本发明做进一步的说明:
如图3所示,一种基于ResNet和Canny的人脸口罩佩戴检测方法,具体步骤如下:
2.步骤(1)数据预处理;
获取各个公共场所出入口人员流动监控视频,获得原始采样图像;
对获得的原始采样图像进行候选区的提取,并将候选区域转化成固定尺寸的图像;
为了减少噪声的影响,提高属性识别的准确度,首先对输入图像进行候选区域的选择并进行图像尺寸大小的调整;
具体实施方式为:导入opencv自带人脸分类器lbpcascade_frontalface.xml和人眼分类器haarcascade_eye_tree_eyeglasses.xml,调用detectMultiscale函数,如果同时检测到人脸和人眼时则确定为人脸目标存在,由此提取人脸存在的候选区域,然后通过图像归一化将目标候选区域转化成固定大小的图像。
根据二值属性,对图像进行标签标注:如果人脸佩戴口罩,对应的标签为[1,0],否则为[0,1],并将标注后的图像数据集分为训练集和测试集;
步骤(2)使用canny边缘检测算法进行边缘图像信息的提取。
1)使用高斯滤波器,以平滑图像,滤除噪声。
对于(2k+1)*(2k+1),k∈N*高斯滤波器核的生成方式如下:
1≤i,j≤2k+1,其中exp(x)=ex,σ=1.4
2)计算图像中每个像素点的梯度强度和方向。边缘检测算子返回水平Gx和Gy方向的一阶导数值如下式子:
其中G为梯度强度,θ表示梯度方向,arctan为反正切函数;
3)应用非极大值(Non-MaximumSuppression)抑制,以消除边缘检测带来的杂散响应。将当前像素的梯度强度与沿正负梯度方向上的两个像素进行比较。如果当前像素的梯度强度与另外两个像素相比最大,则该像素点保留为边缘点,否则该像素点将被抑制。
4)应用双阈值(Double-Threshold)检测来确定真实的和潜在的边缘。如果边缘像素的梯度值高于高阈值,则将其标记为强边缘像素;如果边缘像素的梯度值小于高阈值并且大于低阈值,则将其标记为弱边缘像素;如果边缘像素的梯度值小于低阈值,则会被抑制;
5)通过抑制孤立的弱边缘最终完成边缘检测。
6)得到经过边缘检测的图像之后转化得到边缘信息向量,其权重系数为α,原图像向量的权重系数为1-α,分别乘以对应的权重后进行拼接作为网络输入;
步骤(3)建立ResNet网络
如图2所示,建立ResNet卷积神经网络,确定网络结构,ResNet原始模型的全连接层输出是1000维向量,因为样本图像仅仅涵盖1个属性特征即是否佩戴口罩,因此将ResNet网络的全连接层输出微调成2维向量,将多回归问题转换成为二分类问题;
构建的ResNet网络包括输入层,17卷积层,2池化层、全连接层和输出层;
其中各层作用如下:
(1)输入层接受固定尺寸的图像向量和边缘信息向量按权重系数进行拼接所得,作为网络模型的输入;
(2)卷积层起到局部特征提取的作用;
(3)池化层是降采样过程,实现特征图空间尺寸的减小;
(4)全连接层实现层与层的神经元的连接;
(5)输出层用于计算分类结果;
整体结构如下:
(1)第一层卷积层conv1:64个7*7卷积核,步幅为2,输出64个大小为(112,112)的特征图;
(2)最大池化层pool1:步幅为2,池化区域(3,3),输出64个大小为(56,56)的特征图;
(3)第二大层卷积conv2_x(包含3层相同的卷积层块):每一个卷积层块有卷积核分别为(64,1,1),(64,3,3),(256,1,1)的3层卷积层;
(4)第三大层卷积conv3_x(包含4层相同的卷积层块):每一个卷积层块有卷积核分别为(128,1,1),(128,3,3),(512,1,1)的4层卷积层;
(5)第四大层卷积conv4_x(包含6层相同的卷积层块):每一个卷积层块有卷积核分别为(256,1,1),(256,3,3).(1024,1,1)的6层卷积层;
(6)第五大层卷积conv5_x(包含3层相同的卷积层块):每一个卷积层块有卷积核分别为(512,1,1),(512,3,3),(2048,1,1)的3层卷积层;
(7)第二个卷积层开始每隔两个卷积层之间增加一个跳跃连接形成残差模块实现恒等映射,输出如下所示
y=F(x,{Wi})+x
其中F()表示需要学习的残差网络形式,x表示残差模块的输入,y表示残差模块的输出,Wi表示残差模块的未知参数;
残差模块结构如图1所示。
(8)平均池化层pool2:步幅为1,池化区域(7,7),输出2048个大小为(1,1)的特征图;
(9)全连接层方差fc40:输入2048个神经元结点,输出2维向量;
(10)损失函数层loss:采用欧氏距离函数作为损失函数
其中y为网络模型的输出结果,y`为输入数据对应的标签值;
步骤(4)训练ResNet网络
将训练集图像输入ResNet网络进行特征学习,使用训练集图像进行多次迭代,使ResNet网络的预测值不断向标签值进行收敛,通过误差反向传播进行网络参数即权重和偏置的更新以及边缘信息权重系数α的更新,优化方式采用随机梯度下降的方法,最小化传播误差使其达到阈值,最终形成网络模型,实现属性的识别功能。
将训练集图像输入ResNet网络进行特征学习,通过卷积层,池化层,全连接层输出学习到的特征;
确定损失函数以及参数更新方式,使用误差反向传播进行每一层网络参数的调整,不断的迭代训练,最终实现收敛,得到网络模型;
训练参数设置如下:Batch_size设置为100,即模型每次输入100张图片用于训练,基础学习率lr设置为0.0001,其中动量momentum设置为0.9,每进行3000完成一次迭代。
步骤(5)通过测试集图像对训练好的网络模型进行测试;
以上的具体实施方案,针对本发明的实施过程进行了进一步的详细说明,但并非是对本发明的限制,本发明也不仅限于上述举例,本技术领域的技术人员在本发明的技术方案范围内所做出的的变化、改型、添加或替换,也均属于本发明的保护范围。
Claims (5)
1.一种基于ResNet和Canny的人脸口罩佩戴检测方法,其特征在于,步骤如下:
步骤(1)数据预处理;
1.1获取各个公共场所出入口人员流动监控视频,获得原始采样图像;
1.2对获得的原始采样图像进行候选区的提取,并将候选区域转化成固定尺寸的图像;
1.3对获得的固定尺寸的图像即样本进行标签标注,并将标注后的图像数据集分为训练集和测试集;
步骤(2)使用Canny边缘检测算法提取边缘信息向量,其权重系数为α,图像向量的权重系数为1-α,分别乘以对应的权重后进行拼接作为网络输入;权重α能够反映网络对边缘信息和整体图像信息的依赖程度;
步骤(3)建立ResNet网络;
建立ResNet卷积神经网络,确定网络结构,将ResNet网络的全连接层输出微调成2维向量,将多回归问题转换成为二分类问题;
步骤(4)将训练集图像输入ResNet网络进行特征学习,通过卷积层,池化层,全连接层输出学习到的特征;
确定损失函数以及参数更新方式,使用误差反向传播进行每一层网络参数的调整,不断的迭代训练,最终实现收敛,得到网络模型;
步骤(5)通过测试集图像对训练好的网络模型进行测试。
2.根据权利要求1所述的一种基于ResNet和Canny的人脸口罩佩戴检测方法,其特征在于,步骤(1)数据预处理具体操作如下;
获取各个公共场所出入口人员流动监控视频,获得原始采样图像;
对获得的原始采样图像进行候选区的提取,并将候选区域转化成固定尺寸的图像;
为了减少噪声的影响,提高属性识别的准确度,首先对输入图像进行候选区域的选择并进行图像尺寸大小的调整;
具体实施方式为:导入opencv自带人脸分类器lbpcascade_frontalface.xml和人眼分类器haarcascade_eye_tree_eyeglasses.xml,调用detectMultiscale函数,如果同时检测到人脸和人眼时则确定为人脸目标存在,由此提取人脸存在的候选区域,然后通过图像归一化将目标候选区域转化成固定大小的图像;
根据二值属性,对图像进行标签标注:如果人脸佩戴口罩,对应的标签为[1,0],否则为[0,1],并将标注后的图像数据集分为训练集和测试集。
3.根据权利要求2所述的一种基于ResNet和Canny的人脸口罩佩戴检测方法,其特征在于,步骤(2)使用canny边缘检测算法进行边缘图像信息的提取,具体操作如下:
1)使用高斯滤波器,以平滑图像,滤除噪声;
对于(2k+1)*(2k+1),k∈N*高斯滤波器核的生成方式如下:
1≤i,j≤2k+1,其中exp(x)=ex,σ=1.4
2)计算图像中每个像素点的梯度强度和方向。边缘检测算子返回水平Gx和Gy方向的一阶导数值如下式子:
其中G为梯度强度,θ表示梯度方向,arctan为反正切函数;
3)应用非极大值Non-Maximum Suppression抑制,以消除边缘检测带来的杂散响应;将当前像素的梯度强度与沿正负梯度方向上的两个像素进行比较;如果当前像素的梯度强度与另外两个像素相比最大,则该像素点保留为边缘点,否则该像素点将被抑制;
4)应用双阈值Double-Threshold检测来确定真实的和潜在的边缘;如果边缘像素的梯度值高于高阈值,则将其标记为强边缘像素;如果边缘像素的梯度值小于高阈值并且大于低阈值,则将其标记为弱边缘像素;如果边缘像素的梯度值小于低阈值,则会被抑制;
5)通过抑制孤立的弱边缘最终完成边缘检测;
6)得到经过边缘检测的图像之后转化得到边缘信息向量,其权重系数为α,原图像向量的权重系数为1-α,分别乘以对应的权重后进行拼接作为网络输入。
4.根据权利要求3所述的一种基于ResNet和Canny的人脸口罩佩戴检测方法,其特征在于,步骤(3)建立ResNet网络,具体操作如下:
建立ResNet卷积神经网络,确定网络结构,将ResNet网络的全连接层输出微调成2维向量,将多回归问题转换成为二分类问题;
构建的ResNet网络包括输入层,17卷积层,2池化层、全连接层和输出层;
其中各层作用如下:
(1)输入层接受固定尺寸的图像向量和边缘信息向量按权重系数进行拼接所得,作为网络模型的输入;
(2)卷积层起到局部特征提取的作用;
(3)池化层是降采样过程,实现特征图空间尺寸的减小;
(4)全连接层实现层与层的神经元的连接;
(5)输出层用于计算分类结果;
整体结构如下:
(1)第一层卷积层conv1:64个7*7卷积核,步幅为2,输出64个大小为(112,112)的特征图;
(2)最大池化层pool1:步幅为2,池化区域(3,3),输出64个大小为(56,56)的特征图;
(3)第二大层卷积conv2_x,包含3层相同的卷积层块:每一个卷积层块有卷积核分别为(64,1,1),(64,3,3),(256,1,1)的3层卷积层;
(4)第三大层卷积conv3_x,包含4层相同的卷积层块:每一个卷积层块有卷积核分别为(128,1,1),(128,3,3),(512,1,1)的4层卷积层;
(5)第四大层卷积conv4_x,包含6层相同的卷积层块:每一个卷积层块有卷积核分别为(256,1,1),(256,3,3).(1024,1,1)的6层卷积层;
(6)第五大层卷积conv5_x,包含3层相同的卷积层块:每一个卷积层块有卷积核分别为(512,1,1),(512,3,3),(2048,1,1)的3层卷积层;
(7)第二个卷积层开始每隔两个卷积层之间增加一个跳跃连接形成残差模块实现恒等映射,输出如下所示
y=F(x,{Wi})+x
其中F()表示需要学习的残差网络形式,x表示残差模块的输入,y表示残差模块的输出,Wi表示残差模块的未知参数;
(8)平均池化层pool2:步幅为1,池化区域(7,7),输出2048个大小为(1,1)的特征图;
(9)全连接层方差fc40:输入2048个神经元结点,输出2维向量;
(10)损失函数层loss:采用欧氏距离函数作为损失函数
其中y为网络模型的输出结果,y`为输入数据对应的标签值。
5.根据权利要求4所述的一种基于ResNet和Canny的人脸口罩佩戴检测方法,其特征在于,步骤(4)训练ResNet网络,具体操作如下:
将训练集图像输入ResNet网络进行特征学习,使用训练集图像进行多次迭代,使ResNet网络的预测值不断向标签值进行收敛,通过误差反向传播进行网络参数即权重和偏置的更新以及边缘信息权重系数α的更新,优化方式采用随机梯度下降的方法,最小化传播误差使其达到阈值,最终形成网络模型,实现属性的识别功能;
将训练集图像输入ResNet网络进行特征学习,通过卷积层,池化层,全连接层输出学习到的特征;
确定损失函数以及参数更新方式,使用误差反向传播进行每一层网络参数的调整,不断的迭代训练,最终实现收敛,得到网络模型;
训练参数设置如下:Batch_size设置为100,即模型每次输入100张图片用于训练,基础学习率lr设置为0.0001,其中动量momentum设置为0.9,每进行3000完成一次迭代。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010355007.0A CN111611874B (zh) | 2020-04-29 | 2020-04-29 | 基于ResNet和Canny的人脸口罩佩戴检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010355007.0A CN111611874B (zh) | 2020-04-29 | 2020-04-29 | 基于ResNet和Canny的人脸口罩佩戴检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111611874A true CN111611874A (zh) | 2020-09-01 |
CN111611874B CN111611874B (zh) | 2023-11-03 |
Family
ID=72196536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010355007.0A Active CN111611874B (zh) | 2020-04-29 | 2020-04-29 | 基于ResNet和Canny的人脸口罩佩戴检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111611874B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112270341A (zh) * | 2020-10-15 | 2021-01-26 | 西安工程大学 | 一种融合迁移学习与深度学习的口罩检测方法 |
CN112613403A (zh) * | 2020-12-23 | 2021-04-06 | 山东建筑大学 | 基于卷积神经网络的高噪声环境窑车标识识别方法及系统 |
CN113536965A (zh) * | 2021-06-25 | 2021-10-22 | 深圳数联天下智能科技有限公司 | 一种训练脸部遮挡识别模型的方法及相关装置 |
CN113762200A (zh) * | 2021-09-16 | 2021-12-07 | 深圳大学 | 基于lffd的口罩检测方法 |
CN113873196A (zh) * | 2021-03-08 | 2021-12-31 | 南通市第一人民医院 | 一种提高感染防控管理质量的方法及系统 |
CN113963237A (zh) * | 2021-12-22 | 2022-01-21 | 北京的卢深视科技有限公司 | 模型训练、戴口罩状态检测方法、电子设备及存储介质 |
US11436881B2 (en) | 2021-01-19 | 2022-09-06 | Rockwell Collins, Inc. | System and method for automated face mask, temperature, and social distancing detection |
CN116631019A (zh) * | 2022-03-24 | 2023-08-22 | 清华大学 | 基于面部图像的口罩适合性检测方法及装置 |
CN117274822A (zh) * | 2023-11-21 | 2023-12-22 | 中国电建集团华东勘测设计研究院有限公司 | 水土流失监测模型的处理方法、装置和电子设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060098865A1 (en) * | 2004-11-05 | 2006-05-11 | Ming-Hsuan Yang | Human pose estimation with data driven belief propagation |
US20110158536A1 (en) * | 2009-12-28 | 2011-06-30 | Canon Kabushiki Kaisha | Object identification apparatus and control method thereof |
ES2481347A1 (es) * | 2012-12-26 | 2014-07-29 | Universidad De Almeria | Procedimiento de interpretación automática de imágenes para la cuantificación de marcadores tumorales nucleares. |
EP3346425A1 (en) * | 2017-01-04 | 2018-07-11 | STMicroelectronics Srl | Hardware accelerator engine and method |
CN109033994A (zh) * | 2018-07-03 | 2018-12-18 | 辽宁工程技术大学 | 一种基于卷积神经网络的人脸表情识别方法 |
CN111062429A (zh) * | 2019-12-12 | 2020-04-24 | 上海点泽智能科技有限公司 | 基于深度学习的厨师帽和口罩佩戴的检测方法 |
-
2020
- 2020-04-29 CN CN202010355007.0A patent/CN111611874B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060098865A1 (en) * | 2004-11-05 | 2006-05-11 | Ming-Hsuan Yang | Human pose estimation with data driven belief propagation |
US20110158536A1 (en) * | 2009-12-28 | 2011-06-30 | Canon Kabushiki Kaisha | Object identification apparatus and control method thereof |
ES2481347A1 (es) * | 2012-12-26 | 2014-07-29 | Universidad De Almeria | Procedimiento de interpretación automática de imágenes para la cuantificación de marcadores tumorales nucleares. |
EP3346425A1 (en) * | 2017-01-04 | 2018-07-11 | STMicroelectronics Srl | Hardware accelerator engine and method |
CN109033994A (zh) * | 2018-07-03 | 2018-12-18 | 辽宁工程技术大学 | 一种基于卷积神经网络的人脸表情识别方法 |
CN111062429A (zh) * | 2019-12-12 | 2020-04-24 | 上海点泽智能科技有限公司 | 基于深度学习的厨师帽和口罩佩戴的检测方法 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112270341A (zh) * | 2020-10-15 | 2021-01-26 | 西安工程大学 | 一种融合迁移学习与深度学习的口罩检测方法 |
CN112613403A (zh) * | 2020-12-23 | 2021-04-06 | 山东建筑大学 | 基于卷积神经网络的高噪声环境窑车标识识别方法及系统 |
US11436881B2 (en) | 2021-01-19 | 2022-09-06 | Rockwell Collins, Inc. | System and method for automated face mask, temperature, and social distancing detection |
CN113873196A (zh) * | 2021-03-08 | 2021-12-31 | 南通市第一人民医院 | 一种提高感染防控管理质量的方法及系统 |
CN113536965A (zh) * | 2021-06-25 | 2021-10-22 | 深圳数联天下智能科技有限公司 | 一种训练脸部遮挡识别模型的方法及相关装置 |
CN113536965B (zh) * | 2021-06-25 | 2024-04-09 | 深圳数联天下智能科技有限公司 | 一种训练脸部遮挡识别模型的方法及相关装置 |
CN113762200B (zh) * | 2021-09-16 | 2023-06-30 | 深圳大学 | 基于lffd的口罩检测方法 |
CN113762200A (zh) * | 2021-09-16 | 2021-12-07 | 深圳大学 | 基于lffd的口罩检测方法 |
CN113963237B (zh) * | 2021-12-22 | 2022-03-25 | 北京的卢深视科技有限公司 | 模型训练、戴口罩状态检测方法、电子设备及存储介质 |
CN113963237A (zh) * | 2021-12-22 | 2022-01-21 | 北京的卢深视科技有限公司 | 模型训练、戴口罩状态检测方法、电子设备及存储介质 |
CN116631019A (zh) * | 2022-03-24 | 2023-08-22 | 清华大学 | 基于面部图像的口罩适合性检测方法及装置 |
CN116631019B (zh) * | 2022-03-24 | 2024-02-27 | 清华大学 | 基于面部图像的口罩适合性检测方法及装置 |
CN117274822A (zh) * | 2023-11-21 | 2023-12-22 | 中国电建集团华东勘测设计研究院有限公司 | 水土流失监测模型的处理方法、装置和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111611874B (zh) | 2023-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111611874A (zh) | 基于ResNet和Canny的人脸口罩佩戴检测方法 | |
CN106845487B (zh) | 一种端到端的车牌识别方法 | |
CN107657226B (zh) | 一种基于深度学习的人数估计方法 | |
CN107016357B (zh) | 一种基于时间域卷积神经网络的视频行人检测方法 | |
CN109409297B (zh) | 一种基于双通道卷积神经网络的身份识别方法 | |
CN100423020C (zh) | 一种基于结构主元分析的人脸识别方法 | |
CN103390164B (zh) | 基于深度图像的对象检测方法及其实现装置 | |
CN112183471A (zh) | 一种现场人员防疫口罩规范佩戴的自动检测方法及系统 | |
CN108921119B (zh) | 一种障碍物实时检测和分类方法 | |
CN109101865A (zh) | 一种基于深度学习的行人重识别方法 | |
KR101653278B1 (ko) | 색상 기반 얼굴 검출을 통한 실시간 얼굴 추적 시스템 | |
KR101433472B1 (ko) | 상황 인식 기반의 객체 검출, 인식 및 추적 장치, 방법 및 컴퓨터 판독 가능한 기록 매체 | |
CN114758288B (zh) | 一种配电网工程安全管控检测方法及装置 | |
CN111539276B (zh) | 一种在电力场景下安全帽实时检测的方法 | |
CN114241548A (zh) | 一种基于改进YOLOv5的小目标检测算法 | |
JP2004523840A (ja) | モデル集合によるオブジェクトの分類 | |
CN113378676A (zh) | 基于多特征融合的图像中人物交互检测方法 | |
CN111582092B (zh) | 一种基于人体骨架的行人异常行为检测方法 | |
CN110929593A (zh) | 一种基于细节辨别区别的实时显著性行人检测方法 | |
CN111639602B (zh) | 一种行人遮挡及朝向检测方法 | |
CN112183472A (zh) | 一种基于改进RetinaNet的试验现场人员是否穿着工作服检测方法 | |
CN113762009B (zh) | 一种基于多尺度特征融合及双注意力机制的人群计数方法 | |
CN114220143B (zh) | 一种佩戴口罩的人脸识别方法 | |
CN113743260B (zh) | 一种地铁站台密集人流情况下的行人跟踪方法 | |
CN105809716A (zh) | 融合超像素与三维自组织背景减除法的前景提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |