CN113361397A - 一种基于深度学习的人脸口罩佩戴情况检测方法 - Google Patents

一种基于深度学习的人脸口罩佩戴情况检测方法 Download PDF

Info

Publication number
CN113361397A
CN113361397A CN202110625104.1A CN202110625104A CN113361397A CN 113361397 A CN113361397 A CN 113361397A CN 202110625104 A CN202110625104 A CN 202110625104A CN 113361397 A CN113361397 A CN 113361397A
Authority
CN
China
Prior art keywords
model
network
feature
module
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110625104.1A
Other languages
English (en)
Other versions
CN113361397B (zh
Inventor
张伟
虞继敏
周尚波
张鑫
秦毛伟
吴涛
王首刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202110625104.1A priority Critical patent/CN113361397B/zh
Publication of CN113361397A publication Critical patent/CN113361397A/zh
Application granted granted Critical
Publication of CN113361397B publication Critical patent/CN113361397B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于深度学习领域,具体涉及一种基于深度学习的人脸口罩佩戴情况检测方法,该方法包括:实时获取待检测图像数据,将待检测图像输入到训练好的口罩检测网络模型中,得到检测结果;根据检测结果对待检测图像进行标记;所述口罩检测网络模型包括主干特征提取网络模、Neck网络模块以及Prediction网络;本发明在口罩检测模型中的主干特征提取网络中使用CSPDarkNet‑X模块不但可以加强模型的特征提取能力,同时可以降低模型的参数量并且简化了模型的骨干网络的结构,使得模型的特征学习能力得到提升。

Description

一种基于深度学习的人脸口罩佩戴情况检测方法
技术领域
本发明属于深度学习领域,具体涉及一种基于深度学习的人脸口罩佩戴情况检测方法。
背景技术
呼吸道传染疾病病毒、有毒有害气体、粉尘等对人体有害物质可以通过人体的呼吸循环系统进行体内,从而对人体造成损伤,严重时甚至危及到生命。而规范地佩戴口罩可有效地阻止病毒、粉尘、有毒有害气体进入肺部、神经等生命组织,并降低人员被感染、作为传播源、中毒损伤的风险。人脸规范佩戴口罩检测算法可应用与小区门禁、机场、校园、街道、医院等公共场所,该算法通过对人脸佩戴口罩的情况进行特征分析,从而确定人脸是否规范地佩戴口罩,以及是否佩戴口罩。
目前,针对于人脸口罩识别的相关研究较少,其关键是:首先定位出人脸在图像中位置;然后识别出数据集所给出的人脸是否佩戴口罩以及是否正确佩戴口罩的类别。而现有的口罩数据集较少而且存在类别、环境、尺度信息不丰富等问题。复杂的环境可以通常为脸部遮挡、人脸尺度多变、光照不均衡、密集等,这些问题则是影响检测算法性能的主要原因,同时这类问题易导致模型的泛化能力差、信息冗余、精度低、实时性差等问题。
目前,基于深度学习的目标检测算法存在的问题是:实时性较差、模型规模大、小目标检测效果差、鲁棒性差、适应性差、泛化能力弱等问题。同时,由于算法在实际的复杂环境中使用时,由于目标存在遮挡、多尺度等外在干扰,直接使用当前主流的目标检测算法进行人脸口罩检测仍然存在些许不足之处。其主要表现为:针对于多尺度的目标还存在着浅层特征提取不充分等问题;在实际的使用中,模型存在大量的冗余信息,使得模型在推理上具有更多的运行成本;模型存在训练成本高、计算消耗大、模型过于复杂以至于难以部署等问题。因此,本发明基于现有的目标检测算法,构建出一种实时性高、鲁棒性强、具有较高检测精度的目标检测算法,并将其应用在口罩检测任务上。
发明内容
为解决以上现有技术存在的问题,本发明提出了一种基于深度学习的人脸口罩佩戴情况检测方法,该方法包括:实时获取待检测图像数据,对待检测数据进行图像增强处理;将增强后的待检测图像输入到训练好的口罩检测网络模型中,得到检测结果;根据检测结果对待检测图像进行标记;所述口罩检测网络模型包括主干特征提取网络模、Neck网络模块以及Prediction网络;所述主干特征提取模块包括残差块和CSPDarkNet-X网络模块;所述Neck网络模块包括改进的PANet网络结构和FPN网络;采用CSPDarkNet-Y网络模块对PANet网络结构进行改进优化。
优选的,对口罩检测网络模型进行训练的过程包括:
S1:获取原始图像数据,对原始图像数据进行分类处理,即分为未佩戴口罩图像、未规范佩戴口罩图像以及规范佩戴口罩图;将分后的图像数据作为训练集;
S2:将训练集中的数据输入到主干特征提取模块中进行特征提取,得到全局特征;
S3:将主干特征网络模块提取的全局特征输入到Neck网络模块,得到多尺度局部特征;
S4:将全局特征和多尺度局部特征进行融合处理,得到融合特征图;
S5:将融合特征图输入到Prediction网络中,得到目标定位结果;
S6:根据目标定位结果计算模型的损失函数,不断调整模型的参数,当损失函数的值最小时,完成模型的训练。
进一步的,主干特征提取模块包括三个CSPDarkNet-X网络模块,每个CSPDarkNet-X网络模块中包含X个残差块,X个残差块串联构成一个残差单元组;将三个CSPDarkNet-X网络模块串联,构成主干特征提取模块。
优选的,采用主干特征提取模块提取图像的全局特征的过程包括:
S21:对训练集中的图像进行卷积操作,得到浅层特征图;
S22:将浅层特征图输入到CSPDarkNet-X网络进行纹理特征提取并进行堆叠操作获取更丰富的特征层信息;
S23:将经过卷积操作和CSPDarkNet-X模块特征提取后的特征信息输入到SPPNet模块中进行池化操作,从而提高主干特征的感受野并分离出特征层的上下文信息;
S24:将经过主干特征提取模块处理后的特征信息分为三部分输入到Neck网络中进行特征融合。
优选的,采用Neck网络模块对全局特征进行处理的过程包括:
S31:将来自主干特征提取网络的全局特征信息进行堆叠和上采样操作,得到多尺度特征信息;
S32:将多尺度特征信息输入到CSPDarkNet-Y模块中进行多尺度特征信息的提取;
S33:将提取的多尺度特征信息进行3×3的卷积操作,即让特征层的高和宽变成原来的1/2;
S34:将上述步骤得到的多尺度特征信息进行特征融合,从而实现多尺度特征信息的融合并且加强了特征信息的流通,这有利于提高模型的检测精度。
优选的,采用Prediction网络对融合特征图进行处理的过程包括:
步骤1:将Neck网络融合后的特征图划分为三个有效特征层,将三个有效特征层输入到预测网络中;三个有效特征层依次为13×13×24、26×26×24、52×52×24的网格;
步骤2:对三个有效特征层的每一个网格设置三个先验框,当图像的中心落在先验框中时,则由该先验框对该图像进行检测;
步骤3:采用非极大值抑制算法不断对先验框的尺寸进行学习并调整,从而不断地趋近于预测框的位置;当先验框的尺寸达到极大值时筛选出最终的预测框,该预测框为模型的检测结果。
优选的,模型的损失函数表达式为:
Loss-function=CIOUloss+Confidenceloss+Classloss
Figure BDA0003100693190000041
Figure BDA0003100693190000042
Figure BDA0003100693190000043
优选的,采用模型优化器不断调整模型的参数的过程包括:对模型参数初始化;采用Adam优化器对模型的参数进行学习并优化;在对参数进行学习优化过程中设置批大小为8,IOU为0.5,模型训练世代为50次,得到优化后的模型参数。
本发明的有益效果:
(1):在口罩检测模型中的主干特征提取网络中使用CSPDarkNet-X模块不但可以加强模型的特征提取能力,同时可以降低模型的参数量并且简化了模型的骨干网络的结构,使得模型的特征学习能力得到提升。
(2):在口罩检测模型的颈部网络中使用CSPDarkNet-Y网络模块可以有效地简化模型结构,同时提高模型的特征提取能力以及加强特征融合的能力。
(3):在Neck中应用CSPDarkNet-Y模块来增加信息融合。在网络的低层特征中通常含有更多的目标位置信息,而高层特征中则含有更多的目标语义信息。在Neck网络模块中,FPN模块是模型在下采样操作结束后再进行上采样,并通过横向连接获取同级下采的信息的操作。
(4):人脸口罩检测算法用于实现复杂的函数表示,而非线性激活函数能够使得人脸口罩检测模型逼近于任意的复杂函数。一般而言,人脸佩戴口罩处于的复杂环境可以总结为:人脸处于遮挡、多尺度、光照、密集等环境,这些环境会导致人脸特征缺失、不足等问题,而这类问题易降低模型的检测精度,造成漏检和误检等情况出现。为此,本专利使用Hard-Swish作为激活函数,以此提高模型的非线性特征学习能力,从而加强模型对特征的提取,同时提高模型的检测精度。
附图说明
图1为本发明的串联卷积操作模块结构图;
图2为本发明的残差模块结构图;
图3为本发明的CSPDarkNet-X网络模块的结构图;
图4为本发明的CSPDarkNet-Y网络模块的结构图;
图5为本发明的一种口罩检测网络模型的结构图;
图6为本发明的一种13×13的有效特征层示意图;
图7为本发明的真实框和预测框的关系图;
图8为本发明的对口罩检测网络模型进行训练的一种实施例流程图;
图9为本发明的对口罩检测网络模型训练的结果图;
图10为本发明的对网络进行预测的流程图;
图11为本发明的口罩检测网络模型的P-R曲线图;
图12为本发明的口罩检测网络模型部署流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种基于深度学习的人脸口罩佩戴情况检测方法,如图5所示,该方法包括:实时获取待检测图像数据,对待检测数据进行图像增强处理;将增强后的待检测图像输入到训练好的口罩检测网络模型中,得到检测结果;根据检测结果对待检测图像进行标记;所述口罩检测网络模型包括主干特征提取网络模、Neck网络模块以及Prediction网络;所述主干特征提取模块包括残差块和CSPDarkNet-X网络模块;所述Neck网络模块包括改进的PANet网络结构和FPN网络;采用CSPDarkNet-Y网络模块对PANet网络结构进行改进优化。
对待检测的数据进行图像增强处理包括:对待检测图像进行裁剪、翻转、旋转、缩放、扭曲等几何变换,同时对图像进行像素扰动、添加噪声、光照调节、对比度调节、马赛克数据增强等操作。
对口罩检测网络模型进行训练的过程包括:
S1:获取原始图像数据,对原始图像数据进行分类处理,即分为未佩戴口罩图像、未规范佩戴口罩图像以及规范佩戴口罩图;将分后的图像数据作为训练集;
S2:将训练集中的数据输入到主干特征提取模块中进行特征提取,得到全局特征;
S3:将主干特征网络模块提取的全局特征输入到Neck网络模块,得到多尺度局部特征;
S4:将全局特征和多尺度局部特征进行融合处理,得到融合特征图;
S5:将融合特征图输入到Prediction网络中,得到目标定位结果;
S6:根据目标定位结果计算模型的损失函数,并采用模型优化器不断调整模型的参数;当损失函数的值最小时,完成模型的训练。
由于获取的原始数据集中的数据较少,且存在内容不丰富、质量差、背景单一等问题,不能直接适用于复杂环境下的人脸口罩检测任务。为此,本专利制作出共计10000张图像的数据集,从中选取7000张用于训练,1000用于验证,2000张用于测试。整个数据集中人脸未佩戴口罩图像3400张、人脸规范佩戴口罩3300张、人脸未规范佩戴口罩3300张。每张图片中的每一个人脸对应一个标签,每个标签对应一个序号,本文将检测任务分为三个类别:序号0对应face,表示人脸未佩戴口罩;序号1对应face_mask,表示人脸规范佩戴口罩;序号2对应WMI,表示人脸未规范佩戴口罩。
由于模型在训练过程中会遇到数据信息分布不均、模型泛化能力差等问题,而批处理模块则是一种有效解决数据特征离散问题的有效方法。因此,口罩检测网络模型的输入是一组多维数据,输出是一组经过批处理后的多维数据。为了保证特征信息在网络层中的分布,引入γ和β作为模型中的学习参数,使得网络在训练的过程中能够恢复网络所学习到的特征分布,从而实现特征信息在每一次的归一化处理。批处理模块处理数据的公式为:
B={x1,x2,x3,......xm}
Figure BDA0003100693190000071
Figure BDA0003100693190000072
Figure BDA0003100693190000073
Figure BDA0003100693190000074
其中,B表示批处理的输入,xm表示图像数据,μB表示期望,m表示输入图像的维度,
Figure BDA0003100693190000075
表示方差,
Figure BDA0003100693190000076
表示图像数据的标准化,ε表示标准化参数,yi表示原特征信息,γ表示尺度调整参数,β表示变换调整参数。
主干特征提取模块中设置有残差模块和CSPDarkNet-X网络模块,残差模块中设置有串联卷积模块。
串联卷积模块的结构如图1所示,包括卷积层、批处理模块以及Hard-Swish激活函数,其中,“卷积”表示普通的卷积操作,在本专利中卷积核的大小有两种尺寸:1×1和3×3,1×1的卷积操作对特征层的通道进行整合,3×3的卷积操作加强特征提取并对特征层的通道数进行扩充。“批处理”表示批量归一化操作,可有效地改善模型的梯度并提高模型的训练速度。
残差模块用于减少模型参数量的同时加强模型特征提取的能力,该模块的结构如图2所示。在残差模块中首先进行1x1的卷积,再进行3x3的卷积,最后将模块的两个输出进行加权操作来增加特征层的特征信息,并且不改变特征层的维度。
在保证主干特征提取网络模块进行特征提取的情况下,能进一步降低模型对算力的要求,从而构建出CSPDarkNet-X网络模块来优化模型结构,其结构如图3所示。在CSPDarkNet-X中首先将输入到残差块的特征层分成两条分支:一条分支作为残差边进行卷积操作。另一条分支作为主干部分,首先进行1x1的卷积操作,待进入残差块后先进行1x1的卷积进行通道调整,然后进行3x3的卷积加强特征提取,最后将两条分支进行堆叠,从而将通道进行合并获取更多的特征层信息。在本专利的主干特征提取网络中共使用三个CSPDarkNet-X模块,X表示残差结构内部残差加权操作的次数,最后堆叠完成后再利用一个1x1的小卷积对通道进行整合。
在CSPDarkNet-X模块中,每一个串联卷积操作中皆是采用Hard-Swish激活函数,堆叠操作是将流通到堆叠模块的特征层信息进行堆叠,从而使得输出的特征层的维度增加,而不改变每一个通道下的信息量。相比于ReLU函数,Leaky-ReLU函数则是将所有的负值赋值为具有非零的斜率,这保证模型在快速收敛的同时,不出现梯度消失的现象。因此,在确保不出现梯度爆炸、消失等问题的情况下,借助Hard-Swish函数的优点来降低模型对运行时间的要求。同时,提高模型的检测精度。
Hard-Swish激活函数的表达式为:
Figure BDA0003100693190000081
其中,x表示特征信息,ReLU6表示激活函数。
Figure BDA0003100693190000082
其中,Leaky表示泄露,αi表示激活参数,xi表示特征信息。
一种Neck网络模块的结构,如图4所示,卷积神经网络需要输入图像具有固定的尺寸,在以往的卷积神经网络中则通过裁剪、扭曲等操作来获取固定的输入,但易导致目标缺失、目标形变等问题。为了消除上述问题,SPPNet(Spatial Pyramid Pooling network)网络模块可以移除网络对固定输入尺寸的要求,从而获取多尺度局部特征。为了进一步将多尺度局部特征信息与全局特征信息进行融合,本专利在PANet网络结构中加入CSPDarkNet-Y模块,从而加强FPN网络与PANet网络对特征的提取,加快特征信息之间的流通,同时提高模型的精度。
口罩检测算法的网络模型结构如图5所示,在主干特征提取网络中共使用了三个CSPDarkNet-X模块,每一个CSPDarkNet-X模块中有X个残差单元。本专利在考虑硬件设备的计算成本时,将残差模块串联成X个残差单元的组合,这样的操作可将两个3×3的卷积操作替换为1×1+3×3+1×1卷积模块的组合,第一个1×1的卷积层可将通道数压缩为原来的一半,同时减少参数量。3×3的卷积层可加强特征提取并还原通道数。最后一个1×1的卷积操作对3×3的卷积层的输出又做了还原,这样交替进行的卷积操作有助于特征提取,保证了精度的同时又降低了计算量。
Neck网络主要由SPPNet网络和PANet网络构成,采用SPPNet模块中的不同大小的最大池化核来进行池化操作,池化核的尺寸有四种:5×5,9×9,13×13,最大池化核。这样的操作在堆叠模块中进行堆叠,从而有效地增加主干特征的接受范围,显著地分离出最重要的上下文特征。而在Neck网络模块中的“上采样”操作的主要作用是让输入进来的特征层的高和宽变成原来的两倍,从而让上采样得到的特征图和主干特征提取网络中的特征图进行堆叠,从而实现特征融合。而模型推理的计算代价过高主要是由于网络在优化过程中梯度信息反复出现造成的,因此本文从网络模型的设计角度出发,在PANet网络中引入CSPDarkNet-Y模块,将来自于主干特征提取网络的基础特征层划分成两个部分,然后通过跨阶段操作减少重复梯度信息的使用。同样地,CSPDarkNet-Y模块中使用1×1+3×3+1×1卷积模块的组合,从而实现减少计算量的同时保证精度。
Prediction网络会利用网络提取到的特征进行预测。本专利将Prediction网络划为13×13×24、26×26×24、52×52×24三个有效特征层,分别对应大目标、中目标、小目标。24=3×(4+3+1)其中4表示预测框的四个位置参数,1即是用来判断先验框内是否包含物体,3表示本文口罩检测的类别。
本发明所使用的模型在特征的利用部分提取了三个有效特征层,最后由Prediction网络进行预测。对于13×13×24有效特征层而言,相当于将输入的图片划分成13×13的网格,每一个网格会负责这个网格所对应的区域的物体检测。当某一个物体的中心落在这个区域时,则需要利用这个网格去负责这个物体的检测。每一个网格会预先设定三个先验框,网络的预测结果会对三个先验框的位置参数进行调整,从而获得最终的预测的结果。同样地,26×26×24、52×52×24的有效特征层的预测过程与13×13×24的特征层一样。
如图6所示,用特征层被划分为13×13的网格尺寸来说明目标定位与预测过程。原始输入图像为尺寸为416×416×3的三通道彩色图像。输入图像经过网络的处理后得到13×13的有效特征层。该特征层被划为13×13的网格,每一个网格对应三个先验框。三个先验框用绿色的框表示,它们的中心点为(cx,cy),宽和高分别为pw,ph。而最终的预测框是中心点为(tx,ty),宽和高分别为bw,bh的蓝色框。因此,当人脸的中心落在橘色框内时,则由这个网格负责这个人脸的检测。而网络的预测结果会调整三个先验框的位置,然后经过置信度大小的排序和非极大值抑制算法筛选出最终的预测框,从而得到网络的检测结果。
在预测过程中,(tx,ty,tw,th)为网络需要学习四个参数,即参数学习的表达式为:
bx=σ(tx)+cx
by=σ(ty)+cy
Figure BDA0003100693190000101
Figure BDA0003100693190000102
其中,(bx,by)表示预测框的中心点x轴和y轴方向的坐标,σ表示逻辑约束,(tx,ty)表示表示预测框的中心点,(cx,cy)表示包含预测框的网格的左上角坐标,,bw表示预测框的宽度,pw表示先验框的宽度,
Figure BDA0003100693190000103
表示对预测框的宽度预测偏差取e底数,tw表示预测框的宽度预测偏差,bh表示预测框的高度,ph表示先验框的高度,
Figure BDA0003100693190000111
表示对预测框的高度预测偏差取e底数,th表示预测框的高度预测偏差。
网络在训练的过程中不断地去学习(tx,ty,tw,th)四个参数,从而不断地调整先验框的位置去接近预测框的位置,进而得到最终的预测结果。σ(tx),σ(ty)分别表示对tx,ty进行Sigmoid函数的约束,从而使得预测框的中心落在网格内。置信度得分反映了模型预测某个物体是某个类别的准确度,则置信度的公式为:
Figure BDA0003100693190000112
其中,Confidence表示置信度,Pr(Classi|Object)表示已知是物体的情况下,是哪一类物体的概率,Classi表示第i个类别,Object表示目标,Pr(Object)表示是否包含物体的概率,如果包含物体,Pr(Object)=1,否则等于0;
Figure BDA0003100693190000113
表示预测框与真实框之间的重叠率,重叠部分如图7所示;truth表示真实框,pred表示预测框。
Figure BDA0003100693190000114
其中,A表示预测框,B表示真实框,∩表示交运算,∪表示并运算。
将二元交叉熵作为模型的置信度和分类的损失函数,使得网络可以利用一个边界框就可以实现多个类别的预测。为充分地考虑边框的重合度、中心距离和宽高比的尺度信息,引入CIOU作为目标的定位损失函数,使得预测框的回归过程变得更加地稳定。模型总的目标损失函数为:
Loss-function=CIOUloss+Confidenceloss+Classloss
其中,CIOU充分地考虑了目标与预测框之间的距离、重合度、尺度以及惩罚项等因子,这使得模型对目标的多尺度问题有了更好的处理方法,Loss表示损失函数,function表示函数,CIOUloss表示定位损失函数,Confidenceloss置信度损失函数表示,Classloss分类损失函数表示。
CIOU的表达式为:
Figure BDA0003100693190000121
其中,IOU表示交并比,ρ2(b,bgt)表示预测框的中心点与真实框的中心点之间的欧式距离,b表示预测框,bgt表示真实框,gt表示真实框,c表示同时包含预测框和真实框的最小闭包区域的对角线距离,α表示权重系数,v表示预测框与真实框的长宽比的距离。
α和v的表达式分别为:
Figure BDA0003100693190000122
Figure BDA0003100693190000123
其中,wgt表示真实框的宽度,hgt表示真实框的高度,w表示预测框的宽度,h表示预测框高度。
目标的CIOU定位损失函数为:
Figure BDA0003100693190000124
Confidence_loss反映了模型对于某个网格点内物体预测的准确度的损失。因此,Confidence_loss由两部分二元交叉熵组成,即:
Figure BDA0003100693190000125
Figure BDA0003100693190000126
其中,S表示网格大小,B表示每一个网格所对应的先验框个数,
Figure BDA0003100693190000127
表示特征层上第i个网格点中的第j个先验框,如果这个先验框内存在物体,即负责这个物体的检测,那么
Figure BDA0003100693190000128
否则为0;obj表示目标,
Figure BDA0003100693190000129
表示是否负责物体的检测,若是则
Figure BDA00031006931900001210
否则为0;
Figure BDA00031006931900001211
表示口罩检测模型的实际输出值,λnoobj表示权重系数,
Figure BDA00031006931900001212
表示特征层上第i个网格点中的第j个先验框内不包含物体,此时
Figure BDA0003100693190000131
否则
Figure BDA0003100693190000132
noobj表示先验框内不存在物体。式中,特征层被划分为S×S个网格点,每一个网格点对应B个先验框。由于不包含物体的网格点占多数,因此需要添加权重系数λnoobj对不包含物体的置信度损失函数进行约束,从而平衡正负样本。
同理,当第i个网格点中的第j个先验框负责某一种物体检测时,那么就由这个先验框去负责计算这个物体的分类损失函数,分类损失函数的表达式为:
Figure BDA0003100693190000133
其中,class类别个数为3,
Figure BDA0003100693190000134
表示真实框中的物体属于类别c的概率,如果此时物体的类别是c,则
Figure BDA0003100693190000135
反之为0。
Figure BDA0003100693190000136
表示模型预测第i个网格点中的第j个先验框是类别c的概率。
模型优化器是一种自适应学习率的方法,本专利在动量一阶矩估计的基础上加入了二阶矩估计,并利用梯度的一阶矩估计和二阶矩估计动态调整每个参数的学习率。这样每一次迭代学习率都有个确定范围,使得参数比较平稳。而传统的梯度下降算法保持单一的学习率更新所有的权重,学习率在训练过程中并不会改变。为此本专利通过计算梯度的一阶矩估计和二阶矩估计为不同的参数设计独立的自适应性学习率。而模型训练的过程实质为不断地进行前向传播和反向传播来更新网络权重和偏置的过程,因此本专利的优化器对模型的权重进行更新,从而使得模型训练过程不断地进行和收敛,模型优化器算法如下所示:
vdw←β1vdw+(1-β1)dw
vdb←β1vdb+(1-β1)db
Sdw←β2Sdw+(1-β2)dw⊙dw
Sdb←β2Sdb+(1-β2)db⊙db
Figure BDA0003100693190000137
Figure BDA0003100693190000141
Figure BDA0003100693190000142
Figure BDA0003100693190000143
Figure BDA0003100693190000144
Figure BDA0003100693190000145
其中,w,b分别表示模型的权重和偏置,η为模型的学习率,本专利采用余弦退火衰减算法对学习率进行衰减,β12等于
Figure BDA0003100693190000146
分别为0.9,0.999,主要用于控制指数衰减,t表示更新的次数。ε=10-8,防止出现除零现象。vdw,vdb为有偏一阶矩估计变量,分别初始化为0。Sdw,Sdb为有偏二阶矩估计变量,同样分别初始化为0,
Figure BDA0003100693190000147
分别是vdw,vdb,Sdw,Sdb的纠正。式中
Figure BDA0003100693190000148
其中L表示模型的目标函数Loss-function。
在神经网络中,需要合理的设置学习率来使模型能够正确地进行训练,当学习率过小时易导致模型训练成本增加,若学习率过大时则易导致模型在学习的过程中呈现发散状态而不能正常学习特征。因此,需要设置学习率在训练的过程中不断地减小,从而实现学习率衰减过程,而余弦退火衰减学习率是一种很有效的方法,本专利利用余弦退火衰减进行学习率的调整,公式为:
Figure BDA0003100693190000149
其中,i表示第几次epoch,每一个epoch表示学习中所有训练数据均被使用过一次时的更新次数。
Figure BDA00031006931900001410
Figure BDA00031006931900001411
分别表示学习率的最大值和最小值,定义了学习率的范围。Tcur则表示当前执行了多少个epoch,但是Tcur是在每个batch运行之后就会更新,而此时一个epoch还没有执行完,所以Tcur的值可以为小数,Ti表示第i次训练中总的epoch数。
针对本专利口罩检测数据集,为获得精准的预测结果,需要设置合适的先验框尺寸。通过k-means聚类算法得到先验框的尺寸如表1所示:
Figure BDA0003100693190000151
表1先验框的尺寸
在本专利所使用的模型开始训练之前,需初始化设置模型的超参数,从而模型在训练的过程中不断地对参数进行优化,使得模型在训练的过程中加快网络的收敛,又防止模型出现过拟合等现象,本专利所有实验均在epoch为100,Batch_size为8,输入图像的尺寸为(416x416x3)的情况下进行,参数的调整变化如表2所示:
Figure BDA0003100693190000152
表2模型的超参数
模型的空间复杂度可由总参数量和每层输出的特征图尺寸来反映,表达式为:
Figure BDA0003100693190000161
其中,可以看出空间复杂度与卷积核的尺寸K、通道数C、层数D、输出特征图尺寸M有关。
M的计算公式为:
Figure BDA0003100693190000162
其中X表示输入特征图的尺寸、Padding为填充、Stride为步幅。
而模型的算力可以由时间复杂度FLOPs来分析,也即是浮点运算次数,其公式为:
Figure BDA0003100693190000163
本专利从模型的各个网络部分对参数量的分布进行分析,从而验证本专利所使用的主干特征提取网络、PANet的有效性。
当模型训练完成后,将训练好的权重用于模型的测试,并从多个方面对模型进行评估。针对本专利的人脸口罩数据集,其测试结果可以归为三个类别:TP(真阳性)表示测试样本中的类别与检测结果相同;FP(假阳性)表示错误地将其他类别检测为该类别;FN(假阴性)表示将真实的样本检测为与之相反的结果、未检测出的类别。对于模型判断出来的所有正例而言,其个数为(TP+FP),因此将真正例(TP)所占的比例称为查准率或者是精确率,其表征了被模型检测为正例的样本中,实际为真正例的样本在正例中占的比例,其表达式为:
Figure BDA0003100693190000164
对于测试集中的所有正例而言,其个数为(TP+FN)。因此,用召回率衡量模型将测试集中的真正例检测出来的能力,其表达式为:
Figure BDA0003100693190000165
为表征模型的准确率,本专利引入AP(Average Precision)、mAP(Mean AveragePrecision)指标对模型进行精度评估,评估公式为:
Figure BDA0003100693190000171
Figure BDA0003100693190000172
其中,P、R、N分别表示精确度、召回率、所有类别中目标的总数。由于精确率与召回率之间存在矛盾的情况,使用综合评价指标F-Measure用于评估检测模型的好坏,其公式为:
Figure BDA0003100693190000173
其中,Fα表示综合评价指标,α表示综合评价指标系数,P表示精确度,R表示召回率。
一种模型训练的具体实施方式,如图8所示,该过程包括:
(1):收集人脸佩戴口罩的图像来制作口罩检测数据集,数据集中的图像大小可以是任意尺寸的图像,且每一张图像有一个独立的编号,并将数据集划分为训练集、验证集、测试集。
(2):使用LabelImg工具对数据集中的每一张图像进行目标标注,并确定标签名称,从而获得与每一张图像编号一样的xml文件。
(3):初始化模型的超参数,将其用于模型的训练过程,加快网络的训练和防止模型的过拟合,并提高模型的准确度,同时加强模型的鲁棒性和适应性。
(4):将模型的训练时代epoch设置为50。每一个epoch表示使用训练集中的全部样本训练一次模型,epoch越大模型越精确,训练的时间越长。当每一个训练时代结束后,启用验证集进行交叉验证,从而进行步骤(3)以此更新模型的超参数。同时,将batch_size设置为8,表示模型一次训练所选取的样本数,输入图像的大小设置为(416x416x3)。
(5):在模型的训练过程中使用adam优化器来优化模型的损失函数,从而生成模型best.pt文件。
训练结果如图9所示,图中Box表示训练集上预测框的CIOU_loss值,Objectness表示训练集上目标的Confidence_loss值,Classification表示训练上的目标分类的Class_loss值,val则表示测试集上的测试结果。Precision表示准确度P,Recall表示召回率R,mAP@0.5表示IOU为0.5条件下的所有类别的平均精确度,mAP@0.5:0.95表示IOU以0.05为递增单位,从IOU为0.5递增到IOU为0.95的所有类别的平均精确度的平均值。
当模型进行训练与验证后即可将模型进行性能的测试。测试流程如图10所示,将训练过程中生成的best.pt文件作为测试过程中的测试模型,模型的测试步骤如下:
(1):将best.pt文件作为训练好的模型进行测试。然后将测试集中的每一张图像作为模型的输入,其输入可以是任意大小的图片。
(2):将目标的置信度阈值设置为0.5,同时设置非极大值抑制(NMS)算法的交并比阈值IOU=0.5来筛选出置信度得分最高的框。
(3):将输入到网络的图像经过图像自适应缩放算法的处理,然后生成固定尺寸的图像作为预测的输入数据。
(4):图像数据经过主干特征提取网络来提取更多的细节信息,从而得到三个有效特征层。然后有效特征层在Neck网络模块中进行更为复杂的特征融合和流通,最后在Prediction网络被划分为S×S的网格。
(5):每一个网格点对应三个先验框,当某一个物体的中心落在这个网格点以内时,则由这个网格点负责这个物体的预测。预测的结果会不断地迭代更新模型的损失函数,从而对每一个框的参数进行调整,使得预测框不断地趋近于xml文件中每一个目标的位置信息。最后由非极大值抑制算法筛选出得分最高的预测框作为最终的预测结果。
在测试集上对模型进行测试,同时以每一个类别的P-R曲线来评估模型对每种类别的检测能力,如图11所示。图中,横轴为召回率Recall,纵轴为精确度Precision。在IOU为0.5的情况下,每一种类别对应着一条P-R曲线,每一条P-R曲线与横轴,纵轴围城的面积即是mAP。从图中可以观察到,本文的模型对于三种类别的目标都具有较好的检测能力。
本发明的模型依托计算机和GPU进行训练和部署,在实际使用场合中该模型的实施步骤如图12所示。监控设备负责获取人群流动的实时视频信息,该数据通过摄像头USB传输到计算机,实现获取视频与视频解码为每一帧的同步处理。每一帧对应每一张图像,该模型预测一张图像的平均时间为0.022s,这代表该模型可以实时性地处理视频数据,并快速地预测出数据中的检测结果。该模型会将检测为未佩戴口罩以及未规范地佩戴口罩的结果返回到计算机设备,由计算机设备的扬声器设备进行语音提示,同时监控设备依旧在跟踪这两类检测结果。
综上所述,本专利的模型在数据集上的测试效果达到了当前所有模型的最优。同时,本专利所所使用的数据集充分囊括了现实环境中的各种复杂情况。因此,这使得本专利的模型可直接部署于实际使用环境中,有效地提高了模型的适用性。
以上所举实施例,对本发明的目的、技术方案和优点进行了进一步的详细说明,所应理解的是,以上所举实施例仅为本发明的优选实施方式而已,并不用以限制本发明,凡在本发明的精神和原则之内对本发明所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于深度学习的人脸口罩佩戴情况检测方法,其特征在于,包括:实时获取待检测图像数据,对待检测数据进行图像增强处理;将增强后的待检测图像输入到训练好的口罩检测网络模型中,得到检测结果;根据检测结果对待检测图像进行标记;所述口罩检测网络模型包括主干特征提取网络模、Neck网络模块以及Prediction网络;所述主干特征提取模块包括残差块和CSPDarkNet-X网络模块;所述Neck网络模块包括改进的PANet网络结构和FPN网络;采用CSPDarkNet-Y网络模块对PANet网络结构进行改进优化。
2.根据权利要求1所述的一种基于深度学习的人脸口罩佩戴情况检测方法,其特征在于,对口罩检测网络模型进行训练的过程包括:
S1:获取原始图像数据,对原始图像数据进行分类处理,即分为未佩戴口罩图像、未规范佩戴口罩图像以及规范佩戴口罩图;将分后的图像数据作为训练集;
S2:将训练集中的数据输入到主干特征提取模块中进行特征提取,得到全局特征;
S3:将主干特征网络模块提取的全局特征输入到Neck网络模块,得到多尺度局部特征;
S4:将全局特征和多尺度局部特征进行融合处理,得到融合特征图;
S5:将融合特征图输入到Prediction网络中,得到目标定位结果;
S6:根据目标定位结果计算模型的损失函数,并采用模型优化器不断调整模型的参数;当损失函数的值最小时,完成模型的训练。
3.根据权利要求2所述的一种基于深度学习的人脸口罩佩戴情况检测方法,其特征在于,主干特征提取模块包括三个CSPDarkNet-X网络模块,每个CSPDarkNet-X网络模块中包含X个残差块,X个残差块串联构成一个残差单元组;将三个CSPDarkNet-X网络模块串联,构成主干特征提取模块。
4.根据权利要求2所述的一种基于深度学习的人脸口罩佩戴情况检测方法,其特征在于,采用主干特征提取模块提取图像的全局特征的过程包括:
S21:对训练集中的图像进行卷积操作,得到浅层特征图;
S22:将浅层特征图输入到CSPDarkNet-X网络进行纹理特征提取并进行堆叠操作获取更丰富的特征层信息;
S23:将经过卷积操作和CSPDarkNet-X模块特征提取后的特征信息输入到SPPNet模块中进行池化操作,从而提高主干特征的感受野并分离出特征层的上下文信息;
S24:将经过主干特征提取模块处理后的特征信息分为三部分输入到Neck网络中进行特征融合,得到全局特征图。
5.根据权利要求2所述的一种基于深度学习的人脸口罩佩戴情况检测方法,其特征在于,采用Neck网络模块对全局特征进行处理的过程包括:
S31:将来自主干特征提取网络的全局特征信息进行堆叠和上采样操作,得到多尺度特征信息;
S32:将多尺度特征信息输入到CSPDarkNet-Y模块中进行多尺度特征信息的提取;
S33:将提取的多尺度特征信息进行3×3的卷积操作,即让特征层的高和宽变成原来的1/2;
S34:将上述步骤得到的多尺度特征信息进行特征融合,得到多尺度局部特征图。
6.根据权利要求2所述的一种基于深度学习的人脸口罩佩戴情况检测方法,其特征在于,采用Prediction网络对融合特征图进行处理的过程包括:
步骤1:将Neck网络融合后的特征图划分为三个有效特征层,将三个有效特征层输入到预测网络中;三个有效特征层依次为13×13×24、26×26×24、52×52×24的网格;
步骤2:对三个有效特征层的每一个网格设置三个先验框,当图像的中心落在先验框中时,则由该先验框对该图像进行检测;
步骤3:采用非极大值抑制算法不断对先验框的尺寸进行学习并调整,从而不断地趋近于预测框的位置;当先验框的尺寸达到极大值时筛选出最终的预测框,该预测框为模型的检测结果。
7.根据权利要求2所述的一种基于深度学习的人脸口罩佩戴情况检测方法,其特征在于,模型的损失函数表达式为:
Loss-function=CIOUloss+Confidenceloss+Classloss
Figure FDA0003100693180000031
Figure FDA0003100693180000032
其中,Loss表示损失函数,function表示函数,CIOUloss表示目标的定位损失函数,Confidenceloss表示目标的置信度损失函数,Classloss表示目标的分类损失函数,S表示网格大小,B表示每一个网格所对应的先验框个数,
Figure FDA0003100693180000033
表示特征层上第i个网格点中的第j个先验框,obj表示目标,
Figure FDA0003100693180000034
表示是否负责物体的检测,
Figure FDA0003100693180000035
表示口罩检测模型的实际输出值,λnoobj表示权重系数,
Figure FDA0003100693180000036
表示特征层上第i个网格点中的第j个先验框内不包含物体,
Figure FDA0003100693180000037
表示真实框中的物体属于类别c的概率,
Figure FDA0003100693180000038
表示模型预测第i个网格点中的第j个先验框是类别c的概率。
8.根据权利要求2所述的一种基于深度学习的人脸口罩佩戴情况检测方法,其特征在于,采用模型优化器不断调整模型的参数的过程包括:对模型参数初始化;采用Adam优化器对模型的参数进行学习并优化;在对参数进行学习优化过程中设置批大小为8,IOU为0.5,模型训练世代为50次,得到优化后的模型参数。
CN202110625104.1A 2021-06-04 2021-06-04 一种基于深度学习的人脸口罩佩戴情况检测方法 Active CN113361397B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110625104.1A CN113361397B (zh) 2021-06-04 2021-06-04 一种基于深度学习的人脸口罩佩戴情况检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110625104.1A CN113361397B (zh) 2021-06-04 2021-06-04 一种基于深度学习的人脸口罩佩戴情况检测方法

Publications (2)

Publication Number Publication Date
CN113361397A true CN113361397A (zh) 2021-09-07
CN113361397B CN113361397B (zh) 2022-07-12

Family

ID=77532241

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110625104.1A Active CN113361397B (zh) 2021-06-04 2021-06-04 一种基于深度学习的人脸口罩佩戴情况检测方法

Country Status (1)

Country Link
CN (1) CN113361397B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113762200A (zh) * 2021-09-16 2021-12-07 深圳大学 基于lffd的口罩检测方法
CN114267077A (zh) * 2022-03-03 2022-04-01 杭州魔点科技有限公司 口罩佩戴识别的方法、系统、装置和介质
CN114944001A (zh) * 2022-06-07 2022-08-26 杭州电子科技大学 基于Maixduino AI K210开发板的口罩监测与二维码识别系统设计方法
CN115331453A (zh) * 2022-08-17 2022-11-11 康一 一种车辆进入无接触式智能控制方法
WO2024045030A1 (zh) * 2022-08-29 2024-03-07 中车株洲电力机车研究所有限公司 基于深度神经网络的智轨障碍物检测系统、方法
CN117781661A (zh) * 2024-02-27 2024-03-29 广东金湾高景太阳能科技有限公司 一种基于d-lka网络模型的硅片烘干改善方法及其装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112183471A (zh) * 2020-10-28 2021-01-05 西安交通大学 一种现场人员防疫口罩规范佩戴的自动检测方法及系统
CN112232309A (zh) * 2020-12-08 2021-01-15 飞础科智慧科技(上海)有限公司 用于热像人脸识别的方法、电子设备和存储介质
CN112232199A (zh) * 2020-10-15 2021-01-15 燕山大学 基于深度学习的佩戴口罩检测方法
CN112347943A (zh) * 2020-11-09 2021-02-09 哈尔滨理工大学 一种基于YOLOV4的anchor优化安全帽检测方法
AU2020103901A4 (en) * 2020-12-04 2021-02-11 Chongqing Normal University Image Semantic Segmentation Method Based on Deep Full Convolutional Network and Conditional Random Field
CN112801169A (zh) * 2021-01-25 2021-05-14 中国人民解放军陆军工程大学 一种基于改进yolo算法的伪装目标检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112232199A (zh) * 2020-10-15 2021-01-15 燕山大学 基于深度学习的佩戴口罩检测方法
CN112183471A (zh) * 2020-10-28 2021-01-05 西安交通大学 一种现场人员防疫口罩规范佩戴的自动检测方法及系统
CN112347943A (zh) * 2020-11-09 2021-02-09 哈尔滨理工大学 一种基于YOLOV4的anchor优化安全帽检测方法
AU2020103901A4 (en) * 2020-12-04 2021-02-11 Chongqing Normal University Image Semantic Segmentation Method Based on Deep Full Convolutional Network and Conditional Random Field
CN112232309A (zh) * 2020-12-08 2021-01-15 飞础科智慧科技(上海)有限公司 用于热像人脸识别的方法、电子设备和存储介质
CN112801169A (zh) * 2021-01-25 2021-05-14 中国人民解放军陆军工程大学 一种基于改进yolo算法的伪装目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MD.RAFIUZZAMAN BHUIYAN: "A Deep Learning Based Assistive System to Classify COVID-19 Face Mask for Human Safety with YOLOv3", 《IEEEXPLORE》 *
管军霖等: "基于YOLOv4卷积神经网络的口罩佩戴检测方法", 《现代信息科技》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113762200A (zh) * 2021-09-16 2021-12-07 深圳大学 基于lffd的口罩检测方法
CN113762200B (zh) * 2021-09-16 2023-06-30 深圳大学 基于lffd的口罩检测方法
CN114267077A (zh) * 2022-03-03 2022-04-01 杭州魔点科技有限公司 口罩佩戴识别的方法、系统、装置和介质
CN114267077B (zh) * 2022-03-03 2022-06-21 杭州魔点科技有限公司 口罩佩戴识别的方法、系统、装置和介质
CN114944001A (zh) * 2022-06-07 2022-08-26 杭州电子科技大学 基于Maixduino AI K210开发板的口罩监测与二维码识别系统设计方法
CN115331453A (zh) * 2022-08-17 2022-11-11 康一 一种车辆进入无接触式智能控制方法
WO2024045030A1 (zh) * 2022-08-29 2024-03-07 中车株洲电力机车研究所有限公司 基于深度神经网络的智轨障碍物检测系统、方法
CN117781661A (zh) * 2024-02-27 2024-03-29 广东金湾高景太阳能科技有限公司 一种基于d-lka网络模型的硅片烘干改善方法及其装置
CN117781661B (zh) * 2024-02-27 2024-05-14 广东金湾高景太阳能科技有限公司 一种基于d-lka网络模型的硅片烘干改善方法及其装置

Also Published As

Publication number Publication date
CN113361397B (zh) 2022-07-12

Similar Documents

Publication Publication Date Title
CN113361397B (zh) 一种基于深度学习的人脸口罩佩戴情况检测方法
CN112949572B (zh) 基于Slim-YOLOv3的口罩佩戴情况检测方法
CN110070141B (zh) 一种网络入侵检测方法
CN107133943B (zh) 一种防震锤缺陷检测的视觉检测方法
CN110298321B (zh) 基于深度学习图像分类的道路阻断信息提取方法
CN113111979B (zh) 模型训练方法、图像检测方法及检测装置
CN112150493A (zh) 一种基于语义指导的自然场景下屏幕区域检测方法
CN112801169A (zh) 一种基于改进yolo算法的伪装目标检测方法
CN113313810A (zh) 一种透明物体的6d姿态参数计算方法
CN114973386B (zh) 一种深度挖掘混合特征的工地场景人脸目标检测方法
CN114898470A (zh) 基于改进YOLOv5的跌倒行为检测方法及系统
CN113111804B (zh) 一种人脸检测的方法、装置、电子设备及存储介质
CN116469020A (zh) 一种基于多尺度和高斯Wasserstein距离的无人机图像目标检测方法
CN111860265B (zh) 一种基于样本损失的多检测框损失均衡道路场景理解算法
CN115187786A (zh) 一种基于旋转的CenterNet2目标检测方法
CN116543433A (zh) 一种基于改进YOLOv7模型的口罩佩戴检测方法和装置
CN115661860A (zh) 一种狗行为动作识别技术的方法、装置、系统及存储介质
CN116912796A (zh) 一种基于新型动态级联YOLOv8的自动驾驶目标识别方法及装置
CN113326862A (zh) 审计大数据融合聚类与风险数据检测方法、介质、设备
CN113762265A (zh) 肺炎的分类分割方法及系统
CN115346135A (zh) 一种基于卷积神经网络的光学遥感影像舰船目标识别方法
CN113658199B (zh) 基于回归修正的染色体实例分割网络
CN115393252A (zh) 显示面板的缺陷检测方法、装置、电子设备及存储介质
CN117911394A (zh) 基于改进YOLOv5的钢材表面缺陷检测方法及系统
CN117253157A (zh) 针对遥感影像破碎图斑的实例约束变化检测方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant