CN113743256A - 一种工地安全智能预警方法与装置 - Google Patents

一种工地安全智能预警方法与装置 Download PDF

Info

Publication number
CN113743256A
CN113743256A CN202110951679.2A CN202110951679A CN113743256A CN 113743256 A CN113743256 A CN 113743256A CN 202110951679 A CN202110951679 A CN 202110951679A CN 113743256 A CN113743256 A CN 113743256A
Authority
CN
China
Prior art keywords
construction site
picture
real
label
detection model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110951679.2A
Other languages
English (en)
Other versions
CN113743256B (zh
Inventor
孙世磊
晏宸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202110951679.2A priority Critical patent/CN113743256B/zh
Publication of CN113743256A publication Critical patent/CN113743256A/zh
Application granted granted Critical
Publication of CN113743256B publication Critical patent/CN113743256B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Business, Economics & Management (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Probability & Statistics with Applications (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及一种工地安全智能预警方法和装置,包括以下步骤:标注工地图片中的目标标签,获取模型训练数据,在原始YOLO‑V3检测模型中加入辅助定位网络LAN,获得改进YOLO‑V3检测模型,以使其能够检测到准确的分类信息和定位信息,并使用模型训练数据训练改进YOLO‑V3检测模型,建立识别信息数据库,获取实时工地场景图片,基于改进YOLO‑V3检测模型,根据识别信息数据库和实时工地场景图片,检测是否存在违规行为,若检测存在违规行为,则检测违规人物信息,将违规行为和违规人物信息推送至后台。采用本发明可以在不依靠人力的情况下,检测工地上出现的影响安全的违规行为,并对出现违规行为的人员做出提醒,起到的安全预警效果。

Description

一种工地安全智能预警方法与装置
技术领域
本申请涉及工地安全防护技术领域,特别涉及一种工地安全智能预警方法与装置。
背景技术
随着人们对于安防的重视程度逐渐提升,特别在工地这种高危作业场景,对于工人的安全监管力度也逐渐加强。为了保护工人的头部,以防重物坠落,在工地场景必须要求所有工人按规定佩戴安全帽等防范措施。由于工人的安全防范意识较为薄弱,经常在作业时候不按规定佩戴安全帽。在工地场景会存在一些危险区域,可能会出现工人可能不小心误入危险区域从而对自身的安全造成威胁的状况。虽然工地单位会为这些危险区域设置一定的警示标志,但是在晚上等一些光线较暗的情况,工人依旧存在不小心误入危险区域的情况。这些问题都会对工地工人的生命安全造成威胁。
现有的方法是工地单位经常会配备监管人员巡视监督作业,监管人员精力有限,无法时刻进行监督,并且一些死角区域依靠监管人员人眼巡视监管容易出现遗漏风险,所以提供一种工地安全智能预警方法与装置是非常必要的。
发明内容
本申请实施例提供一种工地安全智能预警方法与装置,以解决在工地上依靠监管人员巡视监督工地作业,监管人员精力有限,巡视监管容易出现遗漏风险,无法时刻全面监管的问题。
第一方面,本申请提供一种工地安全智能预警方法,所述方法包括以下步骤:
标注工地图片中的目标标签,获取模型训练数据;
在原始YOLO-V3检测模型中加入辅助定位网络LAN,获得改进YOLO-V3检测模型,以使其能够检测到准确的分类信息和定位信息,并使用所述模型训练数据训练所述改进YOLO-V3检测模型;
建立识别信息数据库;
获取实时工地场景图片;
基于所述改进YOLO-V3检测模型,根据所述识别信息数据库和所述实时工地场景图片,检测是否存在违规行为,若检测存在所述违规行为,则检测违规人物信息;将所述违规行为和所述违规人物信息推送至后台。
一些实施例中,所述在原始YOLO-V3检测模型中加入辅助定位网络LAN,获得改进YOLO-V3检测模型,以使其能够检测到准确的分类信息和定位信息,包括:
输入所述工地图片,对所述工地图片进行多次池化和卷积操作,获得能够获取准确分类信息的原始特征C的三个层级尺度特征:
C={c1,c2,c3},其中c1为所述原始特征的第一层级尺度特征,c2为所述原始特征的第二层级尺度特征,c3为所述原始特征的第三层级尺度特征;
将所述工地图片下采样到所述原始特征的c1的尺度大小,获得所述工地图片1\8尺度大小的下采样后的图片Id,对所述下采样后的图片Id进行卷积操作,获取第一层级尺度特征:
Figure BDA0003216217620000021
其中
Figure BDA0003216217620000022
表示一组连续的3*3和1*1的卷积操作,所述s1与所述c1具有相同通道数;
对所述s1进行下采样获得获取第二层级尺度特征:s2=θ(s1),其中θ表示一个卷积核为3并且步长为2的卷积块,所述s2与所述c2具有相同的尺度大小和相同通道数;
对所述s2进行下采样获得获取第三层级尺度特征:
s3=θ(s2),其中θ表示一个卷积核为3并且步长为2的卷积块,所述s3与所述c3具有相同的尺度大小和相同通道数;
基于所述s1,s2,s3确定所述辅助定位网络LAN中能够获取准确定位信息的辅助特征:S={s1,s2,s3};
将所述原始特征C={c1,c2,c3}与所述辅助特征S={s1,s2,s3}进行二项式乘积:
Figure BDA0003216217620000031
其中n=(1,2,3),获得能够同时获取准确分类信息和准确定位信息的预测特征:H={h1,h2,h3},其中h1为所述预测特征的第一层级尺度特征,h2为所述预测特征的第二层级尺度特征,h3为所述预测特征的第三层级尺度特征。
一些实施例中,所述使用所述模型训练数据训练所述改进YOLO-V3检测模型,包括:
使用分类模型的参数初始化所述原始YOLO-V3检测模型的网络,使用随机的参数初始化所述辅助定位网络LAN,并使用所述模型训练数据训练所述原始YOLO-V3检测模型的网络和所述辅助定位网络LAN;
所述分类模型的参数在分类任务上进行训练。
一些实施例中,所述建立识别信息数据库,包括:
收集工人人脸图片,生成人脸Embedding向量,建立人脸识别数据库;
提取监控拍摄区域中的危险区域,通过二维闭合点集来表示所述危险区域在图片中的像素位置,生成危险区域数据库。
一些实施例中,所述基于所述改进YOLO-V3检测模型根据,所述识别信息数据库和所述实时工地场景图片,检测是否存在违规行为,若检测存在所述违规行为,则检测违规人物信息,包括:
检测所述实时工地场景图片中是否包含安全帽标签、人头标签或人体标签;
若所述实时工地场景图片包含安全帽标签,则判定不存在所述违规行为;
若所述实时工地场景图片包含人头标签,则判定存在所述违规行为,对人头区域进行聚焦放大,进行人脸识别;
若所述实时工地场景图片包含人体标签,检测所述人体标签是否处于所述危险区域,若所述人体标签处于所述危险区域,则判定存在所述违规行为,对进入所述危险区域的所述人体标签的人头区域放大,进行人脸识别。
一些实施例中,所述检测所述实时工地场景图片中是否包含安全帽标签、人头标签或人体标签,包括:
输入所述实时工地场景图片,对所述实时工地场景图片进行卷积和池化操作,获取特征图片,并通过FPN金字塔网络构建所述特征图片的三个不同尺度的所述预测特征H={h1,h2,h3};
根据所述三个不同尺度的所述预测特征,设立参考目标框;
对RPN网络中的所述模型训练数据进行聚类,并将所述聚类结果对应到所述FPN金字塔网络的三个不同尺度的所述预测特征中;
对所述聚类结果进行分类任务和定位任务,获得置信度得分;
判断所述置信度得分是否高于阈值,若所述置信度得分高于阈值,则确定所述参考目标框中包含所述安全帽标签、所述人头标签或所述人体标签。
一些实施例中,所述对人头区域聚焦放大,进行人脸识别,包括:
检测并提取人头放大区域中的人脸,并生成所述人头放大区域人脸的Embedding向量;
对比所述人头放大区域人脸的Embedding向量与所述人脸识别数据库中人脸Embedding向量的距离;
获得与所述人头放大区域人脸的Embedding向量最接近的一个所述数据库中人脸Embedding向量;
根据所述最接近的在所述数据库中人脸Embedding向量,确定与所述人头放大区域人脸对应的所述数据库中工人人脸图片;
根据所述数据库中工人人脸图片,获取所述人头放大区域人脸对应的工人信息。
一些实施例中,所述标注工地图片中的目标标签,获取模型训练数据,包括:
采用标注工具标注图片中的安全帽标签、人头标签和人体标签;
将所述安全帽标签、人头标签和人体标签以YOLO格式储存,并进行归一化处理,形成模型训练数据。
一些实施例中,所述获取实时工地场景图片,包括:
摄像头拍摄实时工地视频;
使用实时流传输协议RTSP对所述实时工地视频进行推送;
用OpenCV中的Video Capture处理RTSP推送流,并逐帧抽取获得实时工地场景图片。
第二方面,本申请提供一种工地安全智能预警装置,包括:
训练数据获取模块,其用于标注工地图片中的目标标签,获取模型训练数据;
模型改进训练模块,其用于在原始YOLO-V3检测模型中加入辅助定位网络LAN,获得改进YOLO-V3检测模型,以使其能够检测到准确的分类信息和定位信息,并使用所述模型训练数据训练所述改进YOLO-V3检测模型;
信息数据库模块,其用于建立识别信息数据库;
实时图片获取模块,其用于获取实时工地场景图片;
检测模块,其用于基于所述改进YOLO-V3检测模型,根据所述识别信息数据库和所述实时工地场景图片,检测是否存在违规行为,若检测存在所述违规行为,则检测违规人物信息;信息推送模块,将所述违规行为和所述违规人物信息推送至后台。
一些实施例中,所述模型改进训练模块用于在原始YOLO-V3检测模型中加入辅助定位网络LAN,获得改进YOLO-V3检测模型,以使其能够检测到准确的分类信息和定位信息,包括:
输入所述工地图片,对所述工地图片进行多次池化和卷积操作,获得能够获取准确分类信息的原始特征C的三个层级尺度特征:
C={c1,c2,c3},其中c1为所述原始特征的第一层级尺度特征,c2为所述原始特征的第二层级尺度特征,c3为所述原始特征的第三层级尺度特征;
将所述工地图片下采样到所述原始特征的c1的尺度大小,获得所述工地图片1\8尺度大小的下采样后的图片Id,对所述下采样后的图片Id进行卷积操作,获取第一层级尺度特征:
Figure BDA0003216217620000061
其中
Figure BDA0003216217620000062
表示一组连续的3*3和1*1的卷积操作,所述s1与所述c1具有相同通道数;
对所述s1进行下采样获得获取第二层级尺度特征:s2=θ(s1),其中θ表示一个卷积核为3并且步长为2的卷积块,所述s2与所述c2具有相同的尺度大小和相同通道数;
对所述s2进行下采样获得获取第三层级尺度特征:
s3=θ(s2),其中θ表示一个卷积核为3并且步长为2的卷积块,所述s3与所述c3具有相同的尺度大小和相同通道数;
基于所述s1,s2,s3确定所述辅助定位网络LAN中能够获取准确定位信息的辅助特征:S={s1,s2,s3};
将所述原始特征C={c1,c2,c3}与所述辅助特征S={s1,s2,s3}进行二项式乘积:
Figure BDA0003216217620000063
其中n=(1,2,3),获得能够同时获取准确分类信息和准确定位信息的预测特征:H={h1,h2,h3},一些实施例中,所述模型改进训练模块用于使用所述模型训练数据训练所述改进YOLO-V3检测模型,包括:
使用分类模型的参数初始化所述主干网,所述分类模型的参数在分类任务上训练;
使用分类模型的参数初始化所述原始YOLO-V3检测模型的网络,使用随机的参数初始化所述辅助定位网络LAN,并使用所述模型训练数据训练所述原始YOLO-V3检测模型的网络和所述辅助定位网络LAN;
所述分类模型的参数在分类任务上进行训练。
收集工人人脸图片,生成人脸Embedding向量,建立人脸识别数据库;
提取监控拍摄区域中的危险区域,通过二维闭合点集来表示所述危险区域在图片中的像素位置,生成危险区域数据库。
一些实施例中,所述检测模块用于基于所述改进YOLO-V3检测模型根据,所述识别信息数据库和所述实时工地场景图片,检测是否存在违规行为,若检测存在所述违规行为,则检测违规人物信息,包括:
检测所述实时工地场景图片中是否包含安全帽标签、人头标签或人体标签;
若所述实时工地场景图片包含安全帽标签,则判断不存在所述违规行为;
若所述实时工地场景图片包含人头标签,则判断存在所述违规行为,对人头区域进行聚焦放大,进行人脸识别;
若所述实时工地场景图片包含人体标签,检测所述人体标签是否处于所述危险区域,若所述人体标签处于所述危险区域,则判断存在所述违规行为,对进入所述危险区域的所述人体标签的人头区域放大,进行人脸识别。
一些实施例中,所述检测模块用于检测所述实时工地场景图片中是否包含安全帽标签、人头标签或人体标签,包括:
输入所述实时工地场景图片,对所述实时工地场景图片进行卷积和池化操作,获取特征图片,并通过FPN金字塔网络构建所述特征图片的三个不同尺度的所述预测特征H={h1,h2,h3};
根据所述三个不同尺度的所述预测特征,设立参考目标框;
对RPN网络中的所述模型训练数据进行聚类,并将所述聚类结果对应到所述FPN金字塔网络的三个不同尺度的所述预测特征中;
对所述聚类结果进行分类任务和定位任务,获得置信度得分;
判断所述置信度得分是否高于阈值,若所述置信度得分高于阈值,则确定所述参考目标框中包含所述安全帽标签、所述人头标签或所述人体标签。
一些实施例中,所述检测模块用于对人头区域聚焦放大,进行人脸识别,包括:
检测并提取人头放大区域中的人脸,并生成所述人头放大区域人脸的Embedding向量;
对比所述人头放大区域人脸的Embedding向量与所述人脸识别数据库中人脸Embedding向量的距离;
获得与所述人头放大区域人脸的Embedding向量最接近的一个所述数据库中人脸Embedding向量;
根据所述最接近的在所述数据库中人脸Embedding向量,确定与所述人头放大区域人脸对应的所述数据库中工人人脸图片;
根据所述数据库中工人人脸图片,获取所述人头放大区域人脸对应的工人信息。
一些实施例中,所述训练数据获取模块用于标注工地图片中的目标标签,获取模型训练数据,包括:
采用标注工具标注图片中的安全帽标签、人头标签和人体标签;
将所述安全帽标签、人头标签和人体标签以YOLO格式储存,并进行归一化处理,形成模型训练数据。
一些实施例中,所述实时图片获取模块用于获取实时工地场景图片,包括:
摄像头拍摄实时工地视频;
使用实时流传输协议RTSP对所述实时工地视频进行推送;
用OpenCV中的Video Capture处理RTSP推送流,并逐帧抽取获得实时工地场景图片。
本申请提供了一种工地安全智能预警方法与装置,通过标注工地图片中的目标标签,获取模型训练数据,在原始YOLO-V3检测模型中加入辅助定位网络LAN,获得改进YOLO-V3检测模型,以使其能够检测到准确的分类信息和定位信息,并使用所述模型训练数据训练所述改进YOLO-V3检测模型,建立识别信息数据库,获取实时工地场景图片,基于所述改进YOLO-V3检测模型,根据所述识别信息数据库和所述实时工地场景图片,检测是否存在违规行为,若检测存在所述违规行为,则检测违规人物信息,将所述违规行为和所述违规人物信息推送至后台,实现在不依监督人员巡视的情况下,对工地上的违规行为或进行智能预警。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种工地安全智能预警方法的流程示意图;
图2为工地安全智能预警具体流程图;
图3为人脸识别流程图;
图4为本申请实施例提供的一种工地安全智能预警装置的示意性框图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供了一种工地安全智能预警方法,其能解决在工地上依靠监管人员巡视监督工地作业,监管人员精力有限,巡视监管容易出现遗漏风险,无法时刻全面监管的问题。
参见图1所示,图1是本申请实施例提供的一种工地安全智能预警方法的流程示意图,方法包括以下步骤:
S1标注工地图片中的目标标签,获取模型训练数据;
S2在原始YOLO-V3检测模型中加入辅助定位网络LAN,获得改进YOLO-V3检测模型,以使其能够检测到准确的分类信息和定位信息,并使用模型训练数据训练改进YOLO-V3检测模型;
S3建立识别信息数据库;
S4获取实时工地场景图片;
S5基于改进YOLO-V3检测模型,根据识别信息数据库和实时工地场景图片,检测是否存在违规行为,若检测存在违规行为,则检测违规人物信息;
S6将违规行为和违规人物信息推送至后台。
值得说明的是,标注工地标签,获取模型训练数据具体的操作是,在多个工地场景分时段录制视频,对每个视频逐帧抽取生成图片,与公开的工地场景图片共同组成训练集合,以保证获取的场景的丰富性。接着采用LabelMe等标注工具对图片中安全帽标签、人头标签和人体标签进行标注,标注的方式为在这三类标签上生成目标边界框,并在目标边界框的左上角和右下角标注两个点。然后将标注完成后的图片使用YOLO的格式进行存储,转换成坐标数据(x、y、w、h),其中x为目标边界框左上角横坐标,y为目标边界框左上角纵坐标,w为目标边界框宽,h为目标边界框高,最后将(x、y、w、h)除以图片宽高,再将其归一化到0-1之间,组成模型训练数据。
值得说明的,因为YOLO-V3检测模型具有较稳定的性能以及较高的效率所以采用YOLO-V3检测模型作为核心模型。而现阶段网络通常会使用在ImageNet分类任务中训练的模型初始化权重,这种做法虽然能够减少训练时间,但是会导致分类任务和回归任务出现学习偏差,所以本申请中在原始YOLO-V3网络的基础上了加入了一条从零开始训练的轻量级辅助定位网络LAN,来补充准确的定位信息,这样就能在检测中获得准确的分类信息和准确的定位信息。
在原始YOLO-V3检测模型中加入辅助定位网络LAN,获得改进YOLO-V3检测模型的方法为,输入第一步中获取到的工地图片,对工地图片进行多次池化和卷积操作,获得能够获取准确分类信息的原始特征C的三个层级尺度特征:C={c1,c2,c3},其中c1为原始特征的第一层级尺度特征,c2为原始特征的第二层级尺度特征,c3为原始特征的第三层级尺度特征,并且c1的尺度大于c2的尺度,c2的尺度大于c3的尺度,原始特征C是原始YOLO-V3检测模型的网络中的特征。
接着再将这张工地图片直接下采样到c1的尺度大小,获得工地图片1\8尺度大小的下采样后的图片Id,对下采样后的图片Id进行卷积操作,获取第一层级尺度特征:
Figure BDA0003216217620000111
其中
Figure BDA0003216217620000112
表示一组连续的3*3和1*1的卷积操作,s1与c1具有相同通道数;
对s1进行下采样获得获取第二层级尺度特征:s2=θ(s1),其中θ表示一个卷积核为3并且步长为2的卷积块,s2与c2具有相同的尺度大小和相同通道数;
对s2进行下采样获得获取第三层级尺度特征:s3=θ(s2),其中θ表示一个卷积核为3并且步长为2的卷积块,s3与c3具有相同的尺度大小和相同通道数;
基于s1,s2,s3确定辅助定位网络LAN中能够获取准确定位信息的辅助特征:S={s1,s2,s3};
将原始特征C={c1,c2,c3}与辅助特征S={s1,s2,s3}进行二项式乘积:
Figure BDA0003216217620000113
其中n=(1,2,3),获得能够同时获取准确分类信息和准确定位信息的预测特征:H={h1,h2,h3},其中h1为预测特征的第一层级尺度特征,h2为预测特征的第二层级尺度特征,h3为预测特征的第三层级尺度特征。s1,s2,s3分别为具有相同通道数的c1,c2,c3补充准确的定位信息,预测特征H是改进YOLO-V3检测模型的特征,输入的图片都在预测特征H={h1,h2,h3}上面进行预测识别,获得准确的分类信息和定位信息。
作为一种优选的实施方式,使用模型训练数据训练改进YOLO_V3检测模型,包括:使用分类模型的参数初始化原始YOLO-V3检测模型的网络,这里的分类模型的参数在分类任务上训练,这是为了引入先前分类经验,提高分类性能。使用随机的参数初始化辅助定位网络LAN,为了提高定位的准确性,并使用步骤S1中的获得的模型训练数据训练原始YOLO-V3检测模型的网络和辅助定位网络LAN。
进一步的,建立识别信息数据库包括建立人脸识别数据库和危险区域数据库。人脸识别数据库的建立首先需要收集工人人脸图片,并且在并且录入每张图片对应的工人信息,然后通过MTCNN算法来检测图片中的人脸区域,将图片中的人脸区域提取出来,再通过FaceNet网络为该人脸生成对应的Embedding向量,将收集到的每张图片都进行这样的处理,得到工人人脸的Embedding向量数据库。
危险区域数据库的获取是将摄像头拍摄区域中的危险区域划分出来,通过二维的闭合点集来表示,其中一个二维点表示在拍摄的视频抽取的图片中的像素位置,将这些二维点表示的像素位置储存起来就获得了危险区域数据库。
如图2所示,图2为工地安全智能预警具体流程图。工地安全智能预警具体流程为获取实时工地场景图片,使用改进YOLO-V3检测模型检测获取到的实时工地场景图片,检测结果中只存在安全帽标签,判断为工人按规定佩戴了安全帽;存在人头标签,判断为工人未带安全帽的违规行为,存在人体标签继续检测该标签否处于危险区域,检测到处于危险区域则判断为工人有违规行为,将人头标签位置和人体标签中人头区域进行聚焦放大,然后对放大区域人脸进行识别,识别出标签中工人的信息,将违规工人信息推送到后台进行预警,下面将对其中的步骤进行具体的说明。
值得说明的是,获取实时工地场景图片的方法是,通过摄像头实时监控拍摄工地视频,将视频流通过实时流传输协议RTSP进行推送,然后调用OpenCV中的Video Capture库来处理RTSP推送流,然后从推送流中逐帧抽取工地场景图片,就获得了实时工地场景图片。
值得说明的是,基于改进YOLO-V3检测模型,检测实时工地场景图片,检测是否存在违规行为,就是检测实时工地场景图片中是否包含三类标签。首先输入实时工地场景图片,对其经过卷积和池化获得特征图,通过FPN金字塔网络构建特征图的三个不同尺度的特征,并且设立参考目标框,这三个特征就是三个不同尺度的预测特征H中的h1,h2,h3特征。接着对RPN网络的中的anchor进行设置,通过K-Means聚类算法对步骤S1中得到的训练数据的目标大小进行聚类,得到的聚类结果为9组不同的锚点anchor,这9组不同的anchor分别是安全帽标签,人头标签和人体标签这三类标签的三个尺度的anchor,再将9组不同的anchor分别对应FPN金字塔网络构建的三个不同尺度的预测特征h1,h2,h3中,对每个anchor分别进行分类任务以及回归任务,获得置信度得分,接着判断置信度得分是否高于阈值,若高于阈值则确定参考目标框中包含安全帽标签、人头标签或人体标签。
进一步的,若是时工地场景图片中包含安全帽标签,表明工人佩戴了安全帽,则判断不存在违规行为;若实时工地场景图片包含人头标签,表明工人未佩戴安全帽,则判断存在违规行为,对人头区域聚焦放大,进行人脸识别,获得工人的信息;若实时工地场景图片包含人体标签,检测人体标签是否处于危险区域,若人体标签处于危险区域,则判断存在违规行为,对进入危险区域的人体标签的人头区域聚焦放大,进行人脸识别。
值得说明的是,如果在实时工地图片中检测到包含人体标签,将检测结果转换成二进制掩模,同时将危险区域的二维闭合点集转换成二进制掩模,计算两个掩模重叠的像素位置占检测结果的二进制掩模的比例,当比例高于0.5,检测到工人进入到危险区域。
作为一种优选的实施方式,如图3所示,图3为人脸识别流程图。当在实时工地场景图片中检测到人头标签或者检测到进入危险区域的人体标签,摄像头根据检测结果对人头位置进行聚焦放大,获取人脸通过计算检测结果宽高与实际图片宽高的比例确定放大倍数,再进行对焦便于接下来的人脸识别功能。这里采用与获得人脸识别库中人脸Embedding向量同样的方法,通过MTCNN算法来检测人头放大区域的人脸区域,将图片中的人脸区域提取出来,再通过FaceNet网络为该人头放大区域的人脸生成对应的Embedding向量,然后对比人头放大区域人脸的Embedding向量与人脸识别数据库中人脸Embedding向量的距离,获得与人头放大区域人脸的Embedding向量最接近的一个数据库中人脸Embedding向量,根据最接近的在数据库中人脸Embedding向量,确定与人头放大区域人脸对应的数据库中工人人脸图片,根据数据库中工人人脸图片,获取人头放大区域人脸对应的工人信息,以此确定有违规行为工人的身份。
值得说明的是,当检测到有工人出现为佩戴安全帽或者进入危险区域的行为时,将相应的未带安全帽还是进入危险区域的违规信息以及违规工人信息推送至公众号或其他平台,还可以实时查看相应图片信息,提示管理人员及违规人员调整。
参见图4所示,图4是本申请实施例提供的一种工地安全智能预警装置的示意性框图,该装置包括:
训练数据获取模块,其用于标注工地图片中的目标标签,获取模型训练数据;
模型改进训练模块,其用于在原始YOLO-V3检测模型中加入辅助定位网络LAN,获得改进YOLO-V3检测模型,以使其能够检测到准确的分类信息和定位信息,并使用模型训练数据训练改进YOLO-V3检测模型;
信息数据库模块,其用于建立识别信息数据库;
实时图片获取模块,其用于获取实时工地场景图片;
检测模块,其用于基于改进YOLO-V3检测模型,根据识别信息数据库和实时工地场景图片,检测是否存在违规行为,若检测存在违规行为,则检测违规人物信息;信息推送模块,其用于将违规行为和违规人物信息推送至后台。
值得说明的是,训练数据获取模块用于标注工地标签,获取模型训练数据具体的操作是,在多个工地场景分时段录制视频,对每个视频逐帧抽取生成图片,与公开的工地场景图片共同组成训练集合,以保证获取的场景的丰富性。接着采用LabelMe等标注工具对图片中安全帽标签、人头标签和人体标签进行标注,标注的方式为在这三类标签上生成目标边界框,并在目标边界框的左上角和右下角标注两个点。然后将标注完成后的图片使用YOLO的格式进行存储,转换成坐标数据(x、y、w、h),其中x为目标边界框左上角横坐标,y为目标边界框左上角纵坐标,w为目标边界框宽,h为目标边界框高,最后将(x、y、w、h)除以图片宽高,再将其归一化到0-1之间,组成模型训练数据。
值得说明的,因为YOLO-V3检测模型具有较稳定的性能以及较高的效率所以采用YOLO-V3检测模型作为核心模型。而现阶段网络通常会使用在ImageNet分类任务中训练的模型初始化权重,这种做法虽然能够减少训练时间,但是会导致分类任务和回归任务出现学习偏差,所以本申请中的模型改进训练模块用于在原始YOLO-V3网络的基础上了加入了一条从零开始训练的轻量级辅助定位网络LAN,来补充准确的定位信息,这样就能在检测中获得准确的分类信息和准确的定位信息。
在原始YOLO-V3检测模型中加入辅助定位网络LAN,获得改进YOLO-V3检测模型的方法为,输入第一步中获取到的工地图片,对工地图片进行多次池化和卷积操作,获得能够获取准确分类信息的原始特征C的三个层级尺度特征:C={c1,c2,c3},其中c1为原始特征的第一层级尺度特征,c2为原始特征的第二层级尺度特征,c3为原始特征的第三层级尺度特征,并且c1的尺度大于c2的尺度,c2的尺度大于c3的尺度,原始特征C是原始YOLO-V3检测模型的网络中的特征。
接着再将这张工地图片直接下采样到c1的尺度大小,获得工地图片1\8尺度大小的下采样后的图片Id,对下采样后的图片Id进行卷积操作,获取第一层级尺度特征:
Figure BDA0003216217620000161
其中
Figure BDA0003216217620000162
表示一组连续的3*3和1*1的卷积操作,s1与c1具有相同通道数;
对s1进行下采样获得获取第二层级尺度特征:s2=θ(s1),其中θ表示一个卷积核为3并且步长为2的卷积块,s2与c2具有相同的尺度大小和相同通道数;
对s2进行下采样获得获取第三层级尺度特征:s3=θ(s2),其中θ表示一个卷积核为3并且步长为2的卷积块,s3与c3具有相同的尺度大小和相同通道数;
基于s1,s2,s3确定辅助定位网络LAN中能够获取准确定位信息的辅助特征:S={s1,s2,s3};
将原始特征C={c1,c2,c3}与辅助特征S={s1,s2,s3}进行二项式乘积:
Figure BDA0003216217620000163
其中n=(1,2,3),获得能够同时获取准确分类信息和准确定位信息的预测特征:H={h1,h2,h3},其中h1为预测特征的第一层级尺度特征,h2为预测特征的第二层级尺度特征,h3为预测特征的第三层级尺度特征。s1,s2,s3分别为具有相同通道数的c1,c2,c3补充准确的定位信息,预测特征H是改进YOLO-V3检测模型的特征,输入的图片都在预测特征H={h1,h2,h3}上面进行预测识别,获得准确的分类信息和定位信息。
作为一种优选的实施方式,使用模型训练数据训练改进YOLO_V3检测模型,包括:使用分类模型的参数初始化原始YOLO-V3检测模型的网络,这里的分类模型的参数在分类任务上训练,这是为了引入先前分类经验,提高分类性能。使用随机的参数初始化辅助定位网络LAN,为了提高定位的准确性,并使用步骤S1中的获得的模型训练数据训练原始YOLO-V3检测模型的网络和辅助定位网络LAN。
进一步的,信息数据库模块用于建立识别信息数据库,包括建立人脸识别数据库和危险区域数据库。人脸识别数据库的建立首先需要收集工人人脸图片,并且在并且录入每张图片对应的工人信息,然后通过MTCNN算法来检测图片中的人脸区域,将图片中的人脸区域提取出来,再通过FaceNet网络为该人脸生成对应的Embedding向量,将收集到的每张图片都进行这样的处理,得到工人人脸的Embedding向量数据库。
危险区域数据库的获取是将摄像头拍摄区域中的危险区域划分出来,通过二维的闭合点集来表示,其中一个二维点表示在拍摄的视频抽取的图片中的像素位置,将这些二维点表示的像素位置储存起来就获得了危险区域数据库。
值得说明的是,实时图片获取模块用于获取实时工地场景图片,通过摄像头实时监控拍摄工地视频,将视频流通过实时流传输协议RTSP进行推送,然后调用OpenCV中的Video Capture库来处理RTSP推送流,然后从推送流中逐帧抽取工地场景图片,就获得了实时工地场景图片。
值得说明的是,检测模块用于基于改进YOLO-V3检测模型,检测实时工地场景图片,检测是否存在违规行为,就是检测实时工地场景图片中是否包含三类标签。首先输入实时工地场景图片,对其经过卷积和池化获得特征图,通过FPN金字塔网络构建特征图的三个不同尺度的特征,并且设立参考目标框,这三个特征就是三个不同尺度的预测特征H中的h1,h2,h3特征。接着对RPN网络的中的anchor进行设置,通过K-Means聚类算法对步骤S1中得到的训练数据的目标大小进行聚类,得到的聚类结果为9组不同的锚点anchor,这9组不同的anchor分别是安全帽标签,人头标签和人体标签这三类标签的三个尺度的anchor,再将9组不同的anchor分别对应FPN金字塔网络构建的三个不同尺度的预测特征h1,h2,h3中,对每个anchor分别进行分类任务以及回归任务,获得置信度得分,接着判断置信度得分是否高于阈值,若高于阈值则确定参考目标框中包含安全帽标签、人头标签或人体标签。
进一步的,若是时工地场景图片中包含安全帽标签,表明工人佩戴了安全帽,则判断不存在违规行为;若实时工地场景图片包含人头标签,表明工人未佩戴安全帽,则判断存在违规行为,对人头区域聚焦放大,进行人脸识别,获得工人的信息;若实时工地场景图片包含人体标签,检测人体标签是否处于危险区域,若人体标签处于危险区域,则判断存在违规行为,对进入危险区域的人体标签的人头区域聚焦放大,进行人脸识别。
值得说明的是,如果在实时工地图片中检测到包含人体标签,将检测结果转换成二进制掩模,同时将危险区域的二维闭合点集转换成二进制掩模,计算两个掩模重叠的像素位置占检测结果的二进制掩模的比例,当比例高于0.5,检测到工人进入到危险区域。
作为一种优选的实施方式,当在实时工地场景图片中检测到人头标签或者检测到进入危险区域的人体标签,摄像头根据检测结果对人头位置进行聚焦放大,通过计算检测结果宽高与实际图片宽高的比例确定放大倍数,再进行对焦便于接下来的人脸识别功能。这里采用与获得人脸识别库中人脸Embedding向量同样的方法,获取检测到的标签中人头放大区域中的人脸Embedding向量,对比人头放大区域人脸的Embedding向量与人脸识别数据库中人脸Embedding向量的距离,获得与人头放大区域人脸的Embedding向量最接近的一个数据库中人脸Embedding向量,根据最接近的在数据库中人脸Embedding向量,确定与人头放大区域人脸对应的数据库中工人人脸图片,根据数据库中工人人脸图片,获取人头放大区域人脸对应的工人信息,以此确定有违规行为工人的身份。
值得说明的是,信息推送模块用于当检测到有工人出现为佩戴安全帽或者进入危险区域的行为时,将相应的未带安全帽还是进入危险区域的违规信息以及违规工人信息推送至公众号或其他平台,还可以实时查看相应图片信息,提示管理人员及违规人员调整。
需要说明的是,在本申请中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上仅是本申请的具体实施方式,使本领域技术人员能够理解或实现本申请。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所申请的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种工地安全智能预警方法,其特征在于,包括以下步骤:
标注工地图片中的目标标签,获取模型训练数据;
在原始YOLO-V3检测模型中加入辅助定位网络LAN,获得改进YOLO-V3检测模型,以使其能够检测到准确的分类信息和定位信息,并使用所述模型训练数据训练所述改进YOLO-V3检测模型;
建立识别信息数据库;
获取实时工地场景图片;
基于所述改进YOLO-V3检测模型,根据所述识别信息数据库和所述实时工地场景图片,检测是否存在违规行为,若检测存在所述违规行为,则检测违规人物信息;将所述违规行为和所述违规人物信息推送至后台。
2.按照权利要求1所述的工地安全智能预警方法,其特征在于,所述在原始YOLO-V3检测模型中加入辅助定位网络LAN,获得改进YOLO-V3检测模型,以使其能够检测到准确的分类信息和定位信息,包括:
输入所述工地图片,对所述工地图片进行多次池化和卷积操作,获得能够获取准确分类信息的原始特征C的三个层级尺度特征:
C={c1,c2,c3},其中c1为所述原始特征的第一层级尺度特征,c2为所述原始特征的第二层级尺度特征,c3为所述原始特征的第三层级尺度特征;
将所述工地图片下采样到所述原始特征的c1的尺度大小,获得所述工地图片1\8尺度大小的下采样后的图片Id,对所述下采样后的图片Id进行卷积操作,获取第一层级尺度特征:
Figure FDA0003216217610000011
其中
Figure FDA0003216217610000012
表示一组连续的3*3和1*1的卷积操作,所述s1与所述c1具有相同通道数;
对所述s1进行下采样获得获取第二层级尺度特征:s2=θ(s1),其中θ表示一个卷积核为3并且步长为2的卷积块,所述s2与所述c2具有相同的尺度大小和相同通道数;
对所述s2进行下采样获得获取第三层级尺度特征:
s3=θ(s2),其中θ表示一个卷积核为3并且步长为2的卷积块,所述s3与所述c3具有相同的尺度大小和相同通道数;
基于所述s1,s2,s3确定所述辅助定位网络LAN中能够获取准确定位信息的辅助特征:S={s1,s2,s3};
将所述原始特征C={c1,c2,c3}与所述辅助特征S={s1,s2,s3}进行二项式乘积:
Figure FDA0003216217610000021
其中n=(1,2,3),获得能够同时获取准确分类信息和准确定位信息的预测特征:H={h1,h2,h3},其中h1为所述预测特征的第一层级尺度特征,h2为所述预测特征的第二层级尺度特征,h3为所述预测特征的第三层级尺度特征。
3.按照权利要求1所述的工地安全智能预警方法,其特征在于,所述使用所述模型训练数据训练所述改进YOLO_V3检测模型,包括:
使用分类模型的参数初始化所述原始YOLO-V3检测模型的网络,使用随机的参数初始化所述辅助定位网络LAN,并使用所述模型训练数据训练所述原始YOLO-V3检测模型的网络和所述辅助定位网络LAN;
所述分类模型的参数在分类任务上进行训练。
4.按照权利要求1所述的工地安全智能预警方法,其特征在于,所述建立识别信息数据库,包括:
收集工人人脸图片,生成人脸Embedding向量,建立人脸识别数据库;
提取监控拍摄区域中的危险区域,通过二维闭合点集来表示所述危险区域在图片中的像素位置,生成危险区域数据库。
5.按照权利要求1所述的工地安全智能预警方法,其特征在于,所述基于所述改进YOLO_V3检测模型,根据所述识别信息数据库和所述实时工地场景图片,检测是否存在违规行为,若检测存在所述违规行为,则检测违规人物信息,包括:
检测所述实时工地场景图片中是否包含安全帽标签、人头标签或人体标签;
若所述实时工地场景图片包含安全帽标签,则判断不存在所述违规行为;
若所述实时工地场景图片包含人头标签,则判断存在所述违规行为,对人头区域聚焦放大,进行人脸识别;
若所述实时工地场景图片包含人体标签,检测所述人体标签是否处于所述危险区域,若所述人体标签处于所述危险区域,则判断存在所述违规行为,对进入所述危险区域的所述人体标签的人头区域聚焦放大,进行人脸识别。
6.按照权利要求2或5所述的工地安全智能预警方法,其特征在于,所述检测所述实时工地场景图片中是否包含安全帽标签、人头标签或人体标签,包括:
输入所述实时工地场景图片,对所述实时工地场景图片进行卷积和池化操作,获取特征图片,并通过FPN金字塔网络构建所述特征图片的三个不同尺度的所述预测特征H={h1,h2,h3};
根据所述三个不同尺度的所述预测特征,设立参考目标框;
对RPN网络中的所述模型训练数据进行聚类,并将所述聚类结果对应到所述FPN金字塔网络的三个不同尺度的所述预测特征中;
对所述聚类结果进行分类任务和定位任务,获得置信度得分;
判断所述置信度得分是否高于阈值,若所述置信度得分高于阈值,则确定所述参考目标框中包含所述安全帽标签、所述人头标签或所述人体标签。
7.按照权利要求5所述的工地安全智能预警方法,其特征在于,所述对人头区域聚焦放大,进行人脸识别,包括:
检测并提取人头放大区域中的人脸,并生成所述人头放大区域人脸的Embedding向量;
对比所述人头放大区域人脸的Embedding向量与所述人脸识别数据库中人脸Embedding向量的距离;
获得与所述人头放大区域人脸的Embedding向量最接近的一个所述数据库中人脸Embedding向量;
根据所述最接近的在所述数据库中人脸Embedding向量,确定与所述人头放大区域人脸对应的所述数据库中工人人脸图片;
根据所述数据库中工人人脸图片,获取所述人头放大区域人脸对应的工人信息。
8.按照权利要求1所述的工地安全智能预警方法,其特征在于,所述标注工地图片中的目标标签,获取模型训练数据,包括:
采用标注工具标注图片中的安全帽标签、人头标签和人体标签;
将所述安全帽标签、人头标签和人体标签以YOLO格式储存,并进行归一化处理,形成模型训练数据。
9.按照权利要求1所述的工地安全智能预警方法,其特征在于,所述获取实时工地场景图片,包括:
摄像头拍摄实时工地视频;
使用实时流传输协议RTSP对所述实时工地视频进行推送;
用OpenCV中的Video Capture处理RTSP推送流,并逐帧抽取获得实时工地场景图片。
10.一种工地安全智能预警装置,其特征在与,包括:
训练数据获取模块,其用于标注工地图片中的目标标签,获取模型训练数据;
模型改进训练模块,其用于在原始YOLO-V3检测模型中加入辅助定位网络LAN,获得改进YOLO-V3检测模型,以使其能够检测到准确的分类信息和定位信息,并使用所述模型训练数据训练所述改进YOLO-V3检测模型;
信息数据库模块,其用于建立识别信息数据库;
实时图片获取模块,其用于获取实时工地场景图片;
检测模块,其用于基于所述改进YOLO-V3检测模型,根据所述识别信息数据库和所述实时工地场景图片,检测是否存在违规行为,并检测违规人物信息;
信息推送模块,将所述违规行为和所述违规人物信息推送至后台。
CN202110951679.2A 2021-08-17 2021-08-17 一种工地安全智能预警方法与装置 Active CN113743256B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110951679.2A CN113743256B (zh) 2021-08-17 2021-08-17 一种工地安全智能预警方法与装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110951679.2A CN113743256B (zh) 2021-08-17 2021-08-17 一种工地安全智能预警方法与装置

Publications (2)

Publication Number Publication Date
CN113743256A true CN113743256A (zh) 2021-12-03
CN113743256B CN113743256B (zh) 2023-12-26

Family

ID=78731737

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110951679.2A Active CN113743256B (zh) 2021-08-17 2021-08-17 一种工地安全智能预警方法与装置

Country Status (1)

Country Link
CN (1) CN113743256B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114332773A (zh) * 2022-01-05 2022-04-12 苏州麦科斯工程科技有限公司 基于Yolo v4改进模型的智慧工地安全帽佩戴识别控制系统
CN115041487A (zh) * 2022-05-18 2022-09-13 深圳能源环保股份有限公司 一种基于高精度室外定位的飞灰填埋综合管理方法及系统
CN115966009A (zh) * 2023-01-03 2023-04-14 迪泰(浙江)通信技术有限公司 一种船舶智能检测系统及方法
CN116563783A (zh) * 2023-05-04 2023-08-08 上海东普信息科技有限公司 基于数字孪生的违规告警方法、装置、设备及存储介质
CN117152419A (zh) * 2023-10-11 2023-12-01 中国矿业大学 一种矿井架空乘人装置人员违规携带物品的检测方法及系统
CN118450087A (zh) * 2024-04-07 2024-08-06 广州市平可捷信息科技有限公司 一种智慧安防监控方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110119686A (zh) * 2019-04-17 2019-08-13 电子科技大学 一种基于卷积神经网络的安全帽实时检测方法
CN110807429A (zh) * 2019-10-23 2020-02-18 西安科技大学 基于tiny-YOLOv3的施工安全检测方法及系统
CN112749653A (zh) * 2020-12-31 2021-05-04 平安科技(深圳)有限公司 行人检测方法、装置、电子设备及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110119686A (zh) * 2019-04-17 2019-08-13 电子科技大学 一种基于卷积神经网络的安全帽实时检测方法
CN110807429A (zh) * 2019-10-23 2020-02-18 西安科技大学 基于tiny-YOLOv3的施工安全检测方法及系统
CN112749653A (zh) * 2020-12-31 2021-05-04 平安科技(深圳)有限公司 行人检测方法、装置、电子设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ASEP HADIAN SUDRAJAT GANIDISASTRA ET AL.: ""An Incremental Training on Deep Learning Face Recognition for M-Learning Online Exam Proctoring"", THE 2021 IEEE ASIA PACIFIC CONFERENCE ON WIRELESS AND MOBILE, pages 213 - 219 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114332773A (zh) * 2022-01-05 2022-04-12 苏州麦科斯工程科技有限公司 基于Yolo v4改进模型的智慧工地安全帽佩戴识别控制系统
CN115041487A (zh) * 2022-05-18 2022-09-13 深圳能源环保股份有限公司 一种基于高精度室外定位的飞灰填埋综合管理方法及系统
CN115966009A (zh) * 2023-01-03 2023-04-14 迪泰(浙江)通信技术有限公司 一种船舶智能检测系统及方法
CN116563783A (zh) * 2023-05-04 2023-08-08 上海东普信息科技有限公司 基于数字孪生的违规告警方法、装置、设备及存储介质
CN116563783B (zh) * 2023-05-04 2024-06-11 上海东普信息科技有限公司 基于数字孪生的违规告警方法、装置、设备及存储介质
CN117152419A (zh) * 2023-10-11 2023-12-01 中国矿业大学 一种矿井架空乘人装置人员违规携带物品的检测方法及系统
CN117152419B (zh) * 2023-10-11 2024-03-29 中国矿业大学 一种矿井架空乘人装置人员违规携带物品的检测方法及系统
CN118450087A (zh) * 2024-04-07 2024-08-06 广州市平可捷信息科技有限公司 一种智慧安防监控方法及系统

Also Published As

Publication number Publication date
CN113743256B (zh) 2023-12-26

Similar Documents

Publication Publication Date Title
CN113743256B (zh) 一种工地安全智能预警方法与装置
CN108009473B (zh) 基于目标行为属性视频结构化处理方法、系统及存储装置
CN108062349B (zh) 基于视频结构化数据及深度学习的视频监控方法和系统
CN108053427B (zh) 一种基于KCF与Kalman的改进型多目标跟踪方法、系统及装置
CN108052859B (zh) 一种基于聚类光流特征的异常行为检测方法、系统及装置
CN110745704B (zh) 一种塔吊预警方法及装置
CN104063722B (zh) 一种融合hog人体目标检测和svm分类器的安全帽识别方法
CN109657592A (zh) 一种智能挖掘机的人脸识别系统及方法
CN113516076A (zh) 一种基于注意力机制改进的轻量化YOLO v4安全防护检测方法
CN113537019B (zh) 基于关键点识别变电站人员安全帽佩戴的检测方法
CN113807240A (zh) 基于非配合式人脸识别的变电站人员着装智能监控方法
CN112183472A (zh) 一种基于改进RetinaNet的试验现场人员是否穿着工作服检测方法
CN110728252A (zh) 一种应用于区域人员运动轨迹监控的人脸检测方法
CN113191273A (zh) 基于神经网络的油田井场视频目标检测与识别方法及系统
CN114140745A (zh) 施工现场人员属性检测方法、系统、装置及介质
CN111539257B (zh) 人员重识别方法、装置和存储介质
CN113111771A (zh) 一种发电厂工作人员不安全行为的识别方法
CN112183532A (zh) 基于弱监督协同学习算法的安全帽识别方法及存储介质
CN116189052A (zh) 基于视频流分析的安防方法、系统、智能终端及存储介质
CN115169673A (zh) 一种智慧校园疫情风险监测与预警系统及方法
KR20210096754A (ko) 디지털 안전보건환경 산업 특화용 이미지 학습 모델을 이용한 안전관리 방법 및 시스템
KR20230097854A (ko) 발전소내 작업자의 위험행동 인지방법 및 시스템
KR102423934B1 (ko) 안면인식 및 유사한 옷 색상의 다수 객체 추적기술을 통한 스마트 휴먼검색 통합 솔루션
CN112287815A (zh) 一种面向复杂场景的智慧安防人员布控系统及方法
CN113554682B (zh) 一种基于目标跟踪的安全帽检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant