CN111862408A - 一种智能门禁控制方法 - Google Patents
一种智能门禁控制方法 Download PDFInfo
- Publication number
- CN111862408A CN111862408A CN202010549573.5A CN202010549573A CN111862408A CN 111862408 A CN111862408 A CN 111862408A CN 202010549573 A CN202010549573 A CN 202010549573A CN 111862408 A CN111862408 A CN 111862408A
- Authority
- CN
- China
- Prior art keywords
- model
- mask
- training
- target
- entrance guard
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
- G07C9/00174—Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种智能门禁控制方法,包括建立并标注口罩佩戴检测数据集;生成适用于门禁的训练锚框;训练改进的YOLOv3模型;调整模型置信度,获得口罩佩戴检测模型;获取门禁监测视频图像;检测并判断门禁监测视频图像中是否存在目标;若不存在目标则获取门禁监测视频图像,否则获取目标位置并判断目标类别,若未佩戴口罩则报警并展示检测结果,否则对目标进行体温检测,若目标体温超过体温阈值则报警并展示检测结果,否则打开门禁闸机并继续下一帧视频图像检测。本申请能够实时检测视频中人员是否佩戴口罩及体温是否正常,有效减少因为人员行进速度快、物体遮挡、光线昏暗等复杂情况造成的漏检错检问题,检测速度快且准确率高。
Description
技术领域
本发明属于视频监控安全技术领域,涉及一种智能门禁控制方法。
背景技术
国内各企业、商场、小区在入口均配有相关工作人员对进入人员进行体温检测并检查是否佩戴口罩。但这种人力监督方法增加了企业运营成本且效率较低。为了提高效率同时尽力减少人工监督成本,进行智能门禁检测成为众多企业、商场、小区共同选择的方法。
近年来,研究人员在基于传感器与基于图像处理等两种检测方式上对图像检测做了很多具有创新性的研究工作。但存在定位精度不高、测速度慢、准确率低等问题使得其不适用于复杂性较高的场景,无法达到实际需求,基于深度学习的检测算法依靠其网络简单、检测速度快准确性高等特点超过传统检测算法,成为当前图像检测方面的主流算法。
但对于具体场景,普通深度学习模型及相关参数不能达到很高的检测效果,需要针对场景制定更有针对性的模型及检测策略,同时使用更匹配的图像增强、正则化、交并比损失、激活函数与损失函数等来进一步提高检测mAP。
发明内容
为解决现有技术中的不足,本申请提供一种智能门禁控制方法,能够实时检测视频信息中人员是否佩戴口罩并检测体温是否正常,有效减少因为人员行进速度快、物体遮挡、光线昏暗等复杂情况造成的漏检错检问题,具有检测速度快、检测准确率高等优点。
为了实现上述目标,本申请采用如下技术方案:
一种智能门禁控制方法,通过检测待通过人员是否佩戴口罩及其体温是否正常来控制门禁闸机的开关,所述方法包括以下步骤:
S1:获取门禁历史监测视频图像,建立并标注适用于门禁距离的口罩佩戴检测数据集;
S2:根据标注后的口罩佩戴检测数据集生成适用于门禁的训练锚框;
S3:利用标注后的口罩佩戴检测数据集训练改进的YOLOv3模型;
S4:调整步骤S3输出模型的模型置信度,获得口罩佩戴检测模型;
S5:实时获取门禁监测视频图像;
S6:通过口罩佩戴检测模型检测并判断门禁监测视频图像中是否存在目标,即待通过人员;
若不存在目标则返回步骤S5,否则执行步骤S7;
S7:获取目标位置,并判断目标类别,即目标是否佩戴口罩,若目标未佩戴口罩则进行报警提醒并展示检测结果,并返回步骤S5,否则执行步骤S8;
S8:对目标进行体温检测,若目标体温超过设定的体温阈值则进行报警提醒并展示检测结果,并返回步骤S5,否则执行步骤S9;
S9:打开门禁闸机并返回步骤S5,继续下一帧视频图像检测。
本发明进一步包括以下优选方案:
优选地,步骤S1中,对口罩佩戴检测数据集图像中待通过人员是否佩戴口罩进行标注,其中被标注部分作为正样本,未标注部分作为负样本。
优选地,步骤S2中,使用聚类方法生成训练锚框,聚类中距离度量方法为 IOU距离,计算公式为:
D=1-IOU(box,clusters)
D为预测框与标注框的距离,box为标注框,clusters为聚类数目。
优选地,步骤S3所述改进的YOLOv3模型,其输入尺寸为576*576,输出的特征图大小为9*9;
所述改进的YOLOv3模型分为2个类别,一类佩戴口罩的标注为Mask,未佩戴口罩的标注为No_Mask;
所述改进的YOLOv3模型主干网络为Darknet53;
所述改进的YOLOv3模型第64层有35个特征图,特征图数量计算公式为:
filters=(classes+5)*anchors
其中,classes取2,代表模型类别数量,anchors取5,代表锚框数量;
所述改进的YOLOv3模型第62层采用空洞卷积的方式进行下采样。
优选地,步骤S3中,在训练改进的YOLOv3模型时,采用GIOU-LOSS作为交并比损失函数,损失函数公式为;
其中,A为预测边框,B为实际边框,C是A与B两个框的最小闭包区域面积;
采用FOCAL LOSS作为损失函数,损失函数公式为:
FL(pt)=-αt(1-pt)γlog(pt)
其中,p为预测的概率,α与γ均为超参数;
采用Mish作为激活函数,激活函数公式为:
f(x)=x·tanh(softplus(x))=x·tanh(ln(1+ex))。
优选地,步骤S3中,使用训练集训练改进的YOLOv3模型,使用测试集测试每一代训练后改进的YOLOv3模型,获得口罩佩戴检测模型,具体包括以下步骤:
S3.1:将标注后的口罩佩戴检测数据集随机分配为训练集与测试集;
S3.2:将训练集中的图像统一调整到改进的YOLOv3模型的输入尺寸;
S3.3:对经过步骤S3.2调整尺寸后的图像进行图像增强处理;
S3.4:设定迭代次数、每一批训练的图像张数、初始学习率以及学习率更新规则;
S3.5:使用图像增强处理后的图像训练改进的YOLOv3模型。
S3.6:使用测试集检测每一代训练后改进的YOLOv3模型的mAP,选取其中mAP最高的改进的YOLOv3模型作为口罩佩戴检测模型。
优选地,步骤S3.3中,采用cutmix图像增强,并采用CmBN归一化方式进行归一化处理。
优选地,步骤S3.4中,设定迭代次数为10000次,每一批训练16张图像,初始学习率为0.001,连续300次没有更优结果则将学习率更新为原学习率的0.3 倍。
优选地,步骤S4中,设置模型置信度为0.7。
优选地,步骤S5中,采用opencv中VideoCapture方法实时获取门禁监测视频图像。
本申请所达到的有益效果:
1.本申请能够实时检测视频信息中人员是否佩戴口罩并检测体温是否正常,有效减少因为人员行进速度快、物体遮挡、光线昏暗等复杂情况造成的漏检错检问题,具有检测速度快、检测准确率高等优点;
2.本申请根据数据集得到锚框,该锚框值更加适合现场场景;本申请改进的YOLOv3模型,其输入图片大小为576*576,大的像素尺寸提高了信息量,模型更加精确;使用空洞卷积来缩小特征图尺寸,增大了特征图感受野;使用FOCAL LOSS解决了类别不平衡问题,使用MISH激活函数避免了数值过大的饱和问题,同时更平滑的梯度获得比SWISH激活函数更好的效果;使用GIOU损失优化了单纯IOU模型中不存在交集时无法反应预测框与真实框距离的缺点;使用cutmix 图像增强增加了图像识别难度,提高模型在遇见遮挡等复杂场景时的检测能力;使用CmBN归一化方式降低了模型对训练所需机器的需求,使模型能够更广泛的应用。通过以上方法使模型适应检测场景并提高了模型实际应用的准确率、召回率及mAP。
附图说明
图1是本申请一种智能门禁控制方法的流程示意图;
图2是本申请改进的YOLOv3模型的网络结构图。
具体实施方式
下面结合附图对本申请作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本申请的保护范围。
如图1所示,本申请的一种智能门禁控制方法,通过检测待通过人员是否佩戴口罩及其体温是否正常来控制门禁闸机的开关,所述方法包括以下步骤:
S1:获取门禁历史监测视频图像,建立并标注适用于门禁距离的口罩佩戴检测数据集;
本申请具体实施时,使用图像标注软件对口罩佩戴检测数据集图像中待通过人员是否佩戴口罩进行标注,其中被标注部分作为正样本,未标注部分作为负样本,即背景类。
获取的视频图像不限于面部大小、相貌、肤色及是否存在遮挡。
可以使用任意图像标注软件对口罩佩戴检测数据集中人物是否佩戴口罩人工逐一标注,例如但不限于,Labelme、labelImg或yolo_mark。
以labelImg为例,标注口罩佩戴检测数据集,具体包括:
使用LabelImg图像标注软件对口罩佩戴检测数据集中人物是否佩戴口罩进行标注,获得xml格式文件;
处理标注后获得的xml格式文件,取出每个标注对象的类别及检测框并生成对应的txt格式文件;
生成口罩佩戴检测数据集对应的所有txt文件路径,并存储在dataset.txt文件中。
S2:根据标注后的口罩佩戴检测数据集生成适用于门禁的训练锚框;
本申请实施例中,使用聚类方法生成训练锚框,聚类中距离度量方法为IOU 距离,计算公式为:
D=1-IOU(box,clusters)
D为预测框与标注框的距离,box为标注框,clusters为聚类数目。
锚框数量根据现场实际场景自行设定,根据数据集得到锚框,该锚框值更加适合现场场景,在本申请实施例中,设定锚框数目为5个,在输入为576*576 的改进的YOLOv3模型中具体为:
[68,73],[98,101],[183,208],[198,208],[263,303]。
其中[68,73]代表宽度为68,长度为73的矩形框,其他类推。
S3:利用标注后的口罩佩戴检测数据集训练改进的YOLOv3模型;
所述改进的YOLOv3模型,其输入尺寸为576*576,输出的特征图大小为 9*9;
所述改进的YOLOv3模型分为2个类别,一类佩戴口罩的标注为Mask,未佩戴口罩的标注为No_Mask;
所述改进的YOLOv3模型主干网络为Darknet53;
所述改进的YOLOv3模型第64层有35个特征图,特征图数量计算公式为:
filters=(classes+5)*anchors
其中,classes取2,代表模型类别数量,anchors取5,代表锚框数量;
所述改进的YOLOv3模型第62层采用空洞卷积的方式进行下采样。
如图2所示,改进的YOLOv3模型,其主干网络为Darknet53,训练集的原始图像经归一化成416*416的图像,先经2个3*3卷积成208*208,再依次经1 个残差模块、一个3*3卷积、2个残差模块、1个3*3卷积、8个残差模块,1 个3*3卷积、8个残差模块,1个3*3卷积、4个残差模块。最后经过一个1*1 卷积、一个3*3空洞卷积、一个1*1卷积获得尺寸为9*9的特征图。
步骤S3中,使用训练集训练改进的YOLOv3模型,使用测试集测试每一代训练后改进的YOLOv3模型,获得口罩佩戴检测模型,具体包括以下步骤:
S3.1:将标注后的口罩佩戴检测数据集随机分配为训练集与测试集;
本申请实施例中,随机分配步骤S1中存储在dataset.txt文件内的存有标注内容的txt文件,将其以8:2的比例分为训练集与测试集。
S3.2:将训练集中的图像统一调整到改进的YOLOv3模型的输入尺寸;
S3.3:对经过步骤S3.2调整尺寸后的图像进行图像增强处理,具体的:
采用cutmix图像增强,并采用CmBN归一化方式进行归一化处理。
S3.4:设定迭代次数为10000次,每一批训练16张图像,初始学习率为0.001,连续300次没有更优结果则将学习率更新为原学习率的0.3倍;
S3.5:使用图像增强处理后的图像训练改进的YOLOv3模型。
S3.6:使用测试集检测每一代训练后改进的YOLOv3模型的mAP,选取其中mAP最高的改进的YOLOv3模型作为口罩佩戴检测模型。
在训练改进的YOLOv3模型时,采用GIOU-LOSS作为交并比损失函数,损失函数公式为;
其中,A为预测边框,B为实际边框,C是A与B两个框的最小闭包区域面积;
采用FOCAL LOSS作为损失函数,损失函数公式为:
FL(pt)=-αt(1-pt)γlog(pt)
其中,p为预测的概率,α与γ均为超参数;
采用Mish作为激活函数,激活函数公式为:
f(x)=x·tanh(softplus(x))=x·tanh(ln(1+ex))。
S4:调整步骤S3输出模型的模型置信度,获得口罩佩戴检测模型;
通过在测试集内使用不同的模型置信度进行多次测试,调整口罩佩戴检测模型置信度提高检测精度,输出检测结果最优的口罩佩戴检测模型。即先获得最高检测精度的模型,然后以这个模型为基础调整置信度,获得最终应用模型。
本申请实施例中,设置口罩佩戴检测模型的模型置信度为0.7。大于该置信度会导致模型召回率降低,很多应该检测到的样本没有检测。小于该置信度会导致模型的准确率降低,很多不该检测到的样本被检测出来。一个调整完善的模型置信度能够使召回率与准确率达到平衡,获得最优mAP。
S5:实时获取门禁监测视频图像,具体的:
采用opencv中VideoCapture方法实时获取门禁监测视频图像;
S6:通过口罩佩戴检测模型检测并判断门禁监测视频图像中是否存在目标,即待通过人员;
若不存在目标则返回步骤S5,否则执行步骤S7;
步骤S6中口罩佩戴检测模型保存形式为.pt文件,口罩佩戴检测模型通过pytorch中load_state_dict方式加载。
S7:获取目标位置,并判断目标类别,即目标是否佩戴口罩,即检测模型会进行分类与回归,分类是将图片分为正样本还是负样本(背景类),回归是获得预测点的位置,若目标未佩戴口罩则进行报警提醒并展示检测结果,并返回步骤 S5,否则执行步骤S8;
本申请实施例中,步骤S7展示的检测结果为:对于未佩戴口罩的目标矩形框标为红色并标有No_Mask字样。
S8:通过红外自动体温检测仪对目标进行体温检测,若目标体温超过设定的体温阈值则进行报警提醒并展示检测结果,并返回步骤S5,否则执行步骤S9;
本申请实施例中,步骤S8展示的检测结果为:对于佩戴口罩且体温正常的目标矩形框标为绿色并标有Mask字样和体温信息,对于佩戴口罩但体温非正常的目标矩形框标为红色并标有Mask字样和体温信息。
S9:打开门禁闸机并返回步骤S5,继续下一帧视频图像检测。
本申请通过收集并标注视频信息获得口罩佩戴检测数据集,通过使用聚类算法获得该数据集对应的适用于该实际应用的锚框,通过使用输入图片尺寸、输出特征图尺寸、锚框数、图像增强方法、正则化方法、交并比损失、激活函数与损失函数方法使训练出的模型能够适应现场的复杂场景并获得了在实际应用的准确率、召回率及mAP很高的模型。有助于提高相关人员防范意识,有效遏制疫情扩散,适用于企业、商场、小区入门门禁处口罩及体温检测,能够为相关单位减少人力监督成本。
本文中缩写名词解释为:
mAP:平均准确率均值,mean average precision,简称mAP;
IOU:交并比,Intersection-over-Union,简称IOU;
CmBN:跨小批量正则化,Cross mini-Batch Normalization,简称CmBN。
本发明申请人结合说明书附图对本发明的实施示例做了详细的说明与描述,但是本领域技术人员应该理解,以上实施示例仅为本发明的优选实施方案,详尽的说明只是为了帮助读者更好地理解本发明精神,而并非对本发明保护范围的限制,相反,任何基于本发明的发明精神所作的任何改进或修饰都应当落在本发明的保护范围之内。
Claims (10)
1.一种智能门禁控制方法,通过检测待通过人员是否佩戴口罩及其体温是否正常来控制门禁闸机的开关,其特征在于:
所述方法包括以下步骤:
S1:获取门禁历史监测视频图像,建立并标注适用于门禁距离的口罩佩戴检测数据集;
S2:根据标注后的口罩佩戴检测数据集生成适用于门禁的训练锚框;
S3:利用标注后的口罩佩戴检测数据集训练改进的YOLOv3模型;
S4:调整步骤S3输出模型的模型置信度,获得口罩佩戴检测模型;
S5:实时获取门禁监测视频图像;
S6:通过口罩佩戴检测模型检测并判断门禁监测视频图像中是否存在目标即待通过人员;
若不存在目标则返回步骤S5,否则执行步骤S7;
S7:获取目标位置,并判断目标类别,即目标是否佩戴口罩,若目标未佩戴口罩则进行报警提醒并展示检测结果,并返回步骤S5,否则执行步骤S8;
S8:对目标进行体温检测,若目标体温超过设定的体温阈值则进行报警提醒并展示检测结果,并返回步骤S5,否则执行步骤S9;
S9:打开门禁闸机并返回步骤S5,继续下一帧视频图像检测。
2.根据权利要求1所述的一种智能门禁控制方法,其特征在于:
步骤S1中,对口罩佩戴检测数据集图像中待通过人员是否佩戴口罩进行标注,其中被标注部分作为正样本,未标注部分作为负样本。
3.根据权利要求1所述的一种智能门禁控制方法,其特征在于:
步骤S2中,使用聚类方法生成训练锚框,聚类中距离度量方法为IOU距离,计算公式为:
D=1-IOU(box,clusters)
D为预测框与标注框的距离,box为标注框,clusters为聚类数目。
4.根据权利要求1所述的一种智能门禁控制方法,其特征在于:
步骤S3所述改进的YOLOv3模型,其输入尺寸为576*576,输出的特征图大小为9*9;
所述改进的YOLOv3模型分为2个类别,一类佩戴口罩的标注为Mask,未佩戴口罩的标注为No_Mask;
所述改进的YOLOv3模型主干网络为Darknet53;
所述改进的YOLOv3模型第64层有35个特征图,特征图数量计算公式为:
filters=(classes+5)*anchors
其中,classes取2,代表模型类别数量,anchors取5,代表锚框数量;
所述改进的YOLOv3模型第62层采用空洞卷积的方式进行下采样。
6.根据权利要求1所述的一种智能门禁控制方法,其特征在于:
步骤S3中,使用训练集训练改进的YOLOv3模型,使用测试集测试每一代训练后改进的YOLOv3模型,获得口罩佩戴检测模型,具体包括以下步骤:
S3.1:将标注后的口罩佩戴检测数据集随机分配为训练集与测试集;
S3.2:将训练集中的图像统一调整到改进的YOLOv3模型的输入尺寸;
S3.3:对经过步骤S3.2调整尺寸后的图像进行图像增强处理;
S3.4:设定迭代次数、每一批训练的图像张数、初始学习率以及学习率更新规则;
S3.5:使用图像增强处理后的图像训练改进的YOLOv3模型。
S3.6:使用测试集检测每一代训练后改进的YOLOv3模型的mAP,选取其中mAP最高的改进的YOLOv3模型作为口罩佩戴检测模型。
7.根据权利要求6所述的一种智能门禁控制方法,其特征在于:
步骤S3.3中,采用cutmix图像增强,并采用CmBN归一化方式进行归一化处理。
8.根据权利要求6所述的一种智能门禁控制方法,其特征在于:
步骤S3.4中,设定迭代次数为10000次,每一批训练16张图像,初始学习率为0.001,连续300次没有更优结果则将学习率更新为原学习率的0.3倍。
9.根据权利要求6所述的一种智能门禁控制方法,其特征在于:
步骤S4中,设置模型置信度为0.7。
10.根据权利要求1所述的一种智能门禁控制方法,其特征在于:
步骤S5中,采用opencv中VideoCapture方法实时获取门禁监测视频图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010549573.5A CN111862408B (zh) | 2020-06-16 | 2020-06-16 | 一种智能门禁控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010549573.5A CN111862408B (zh) | 2020-06-16 | 2020-06-16 | 一种智能门禁控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111862408A true CN111862408A (zh) | 2020-10-30 |
CN111862408B CN111862408B (zh) | 2022-07-05 |
Family
ID=72986639
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010549573.5A Active CN111862408B (zh) | 2020-06-16 | 2020-06-16 | 一种智能门禁控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111862408B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112949572A (zh) * | 2021-03-26 | 2021-06-11 | 重庆邮电大学 | 基于Slim-YOLOv3的口罩佩戴情况检测方法 |
CN113077556A (zh) * | 2021-03-29 | 2021-07-06 | 深圳大学 | 基于行人重识别的检票系统及方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN206515930U (zh) * | 2016-11-04 | 2017-09-22 | 中云智慧(北京)科技有限公司 | 卫生检疫自助通行查验系统 |
CN108597084A (zh) * | 2018-05-17 | 2018-09-28 | 韩鹏 | 一种出入境口岸自动医疗卫生检疫通行系统 |
CN110348451A (zh) * | 2019-07-18 | 2019-10-18 | 西南交通大学 | 铁路集装箱装卸过程中的箱号自动采集及识别方法 |
CN111091558A (zh) * | 2019-12-12 | 2020-05-01 | 哈尔滨市科佳通用机电股份有限公司 | 一种铁路货车摇枕弹簧窜出故障图像识别方法 |
CN111127438A (zh) * | 2019-12-25 | 2020-05-08 | 昆明理工大学 | 基于改进yolo算法的肺部ct图像中结节检测方法 |
CN111222474A (zh) * | 2020-01-09 | 2020-06-02 | 电子科技大学 | 一种任意尺度的高分辨率图像小目标检测方法 |
CN111270771A (zh) * | 2020-02-28 | 2020-06-12 | 北京中科行运科技有限公司 | 智能化装配式疫情监控方舱 |
CN111274970A (zh) * | 2020-01-21 | 2020-06-12 | 南京航空航天大学 | 一种基于改进YOLO v3算法的交通标志检测方法 |
-
2020
- 2020-06-16 CN CN202010549573.5A patent/CN111862408B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN206515930U (zh) * | 2016-11-04 | 2017-09-22 | 中云智慧(北京)科技有限公司 | 卫生检疫自助通行查验系统 |
CN108597084A (zh) * | 2018-05-17 | 2018-09-28 | 韩鹏 | 一种出入境口岸自动医疗卫生检疫通行系统 |
CN110348451A (zh) * | 2019-07-18 | 2019-10-18 | 西南交通大学 | 铁路集装箱装卸过程中的箱号自动采集及识别方法 |
CN111091558A (zh) * | 2019-12-12 | 2020-05-01 | 哈尔滨市科佳通用机电股份有限公司 | 一种铁路货车摇枕弹簧窜出故障图像识别方法 |
CN111127438A (zh) * | 2019-12-25 | 2020-05-08 | 昆明理工大学 | 基于改进yolo算法的肺部ct图像中结节检测方法 |
CN111222474A (zh) * | 2020-01-09 | 2020-06-02 | 电子科技大学 | 一种任意尺度的高分辨率图像小目标检测方法 |
CN111274970A (zh) * | 2020-01-21 | 2020-06-12 | 南京航空航天大学 | 一种基于改进YOLO v3算法的交通标志检测方法 |
CN111270771A (zh) * | 2020-02-28 | 2020-06-12 | 北京中科行运科技有限公司 | 智能化装配式疫情监控方舱 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112949572A (zh) * | 2021-03-26 | 2021-06-11 | 重庆邮电大学 | 基于Slim-YOLOv3的口罩佩戴情况检测方法 |
CN113077556A (zh) * | 2021-03-29 | 2021-07-06 | 深圳大学 | 基于行人重识别的检票系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111862408B (zh) | 2022-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111860160B (zh) | 一种室内检测口罩佩戴的方法 | |
CN111881730A (zh) | 一种火电厂现场安全帽佩戴检测方法 | |
CN111414887B (zh) | 基于yolov3算法的二次检测口罩人脸识别方法 | |
CN111598040B (zh) | 一种建筑工人身份识别及安全帽佩戴检测方法及系统 | |
CN111862408B (zh) | 一种智能门禁控制方法 | |
CN110348312A (zh) | 一种区域视频人体动作行为实时识别方法 | |
CN105405298B (zh) | 一种车牌标识的识别方法和装置 | |
CN112183471A (zh) | 一种现场人员防疫口罩规范佩戴的自动检测方法及系统 | |
CN108520516A (zh) | 一种基于语义分割的桥梁路面裂缝检测和分割方法 | |
CN111079640A (zh) | 一种基于自动扩增样本的车型识别方法及系统 | |
CN113297900B (zh) | 基于yolo的视频流安全帽识别方法、装置、设备及存储介质 | |
CN112633052A (zh) | 一种皮带撕裂检测方法 | |
Yang et al. | Field wheat ears count based on YOLOv3 | |
CN114898261A (zh) | 一种基于视频和生理数据融合的睡眠质量评估方法及系统 | |
CN106570440A (zh) | 基于图像分析的人数统计方法和人数统计装置 | |
CN111767881A (zh) | 一种基于ai技术的自适应人群密度估计装置 | |
CN108073873A (zh) | 基于高清智能摄像机的人脸检测与识别系统 | |
CN113343926A (zh) | 一种基于卷积神经网络的驾驶员疲劳检测方法 | |
CN115661753A (zh) | 一种基于YOLOv3的机房视频检测方法 | |
CN113792801B (zh) | 人脸炫光程度的检测方法、装置、设备及存储介质 | |
CN114581843B (zh) | 一种基于深度学习的扶梯乘客危险行为识别方法 | |
CN114387484B (zh) | 一种基于yolov4改进的口罩佩戴检测方法及系统 | |
CN115909192A (zh) | 一种基于改进EfficientDet的行人检测方法 | |
CN112395994A (zh) | 一种基于双流网络的跌倒检测算法 | |
CN116468974B (zh) | 一种基于图像生成的烟雾检测方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 101303 2nd floor, building 307, Guodian New Energy Institute, 9 Yingcai North 2nd Street, future science and Technology City, Changping District, Beijing Applicant after: Guoneng xinkong Internet Technology Co.,Ltd. Address before: Building 1, yard 16, West Fourth Ring Middle Road, Haidian District, Beijing 100039 Applicant before: BEIJING HUADIAN TIANREN ELECTRIC POWER CONTROL TECHNOLOGY Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |