CN114022685B - 一种安全员位置检测方法及系统 - Google Patents
一种安全员位置检测方法及系统 Download PDFInfo
- Publication number
- CN114022685B CN114022685B CN202010692991.XA CN202010692991A CN114022685B CN 114022685 B CN114022685 B CN 114022685B CN 202010692991 A CN202010692991 A CN 202010692991A CN 114022685 B CN114022685 B CN 114022685B
- Authority
- CN
- China
- Prior art keywords
- image
- neural network
- training
- bounding box
- confidence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Abstract
本发明公开了一种安全员位置检测方法及系统,获取基建场景下的实时图像;将实时图像输入到预先训练好的基于颜色空间转换融合神经网络模型;输出安全员位置信息。优点:本发明只需要安装一个摄像头即可实现,创造性的引入神经网络的方法,通过计算机迭代训练得出安全员的具体特征能够准确地识别出安全员的具体位置。本发明节省人力资源,且受环境因素影响较小,具有很好的稳定性以及鲁棒性。
Description
技术领域
本发明涉及一种安全员位置检测方法及系统,属于计算机视觉图像处理技术领域。
背景技术
在基建场景下,安全员负责现场的安全管理,对于整个建筑项目的完成起着至关重要的作用,安全员若不在现场,整个项目就存在巨大的安全隐患。对于传统的做法,是在建筑工地设立一个俯视的摄像头,人工的寻找安全员是否在场,这样的做法不仅浪费多余的人力,效果低下,且人工观测受天气、光照等外在因素影响,不能准确的获得安全员的所在位置。
发明内容
本发明所要解决的技术问题是克服现有技术的缺陷,提供一种安全员位置检测方法及系统。
为解决上述技术问题,本发明提供一种安全员位置检测方法,获取基建场景下的实时图像;
将实时图像输入到预先训练好的基于颜色空间转换融合神经网络模型;
输出安全员位置信息。
进一步的,所述基于颜色空间转换融合神经网络模型的训练过程包括:
通过摄像头采集待测量区域内的图像,对所采集的图像进行数据清洗,提取出有效的图像,框出安全员穿戴的安全马甲的图像区域并打上类别标签作为训练图像;
将神经网络的53个卷积层在ImageNet数据集上进行预训练,确定这些卷积层之间的权重;
将训练图像输入到预训练后的神经网络,经过卷积层提取特征之后通过全连接层进行分类,根据损失函数算出预测值与真实值之间的损失,通过反向传播算法调整神经网络各个隐层的权重,当损失值下降到预先设置阈值时,停止训练,确定最终的神经网络。
进一步的,所述有效的图像为保留安全员红色马甲特征明显的图像。
进一步的,所述损失函数为:
其中,λcoord表示定位损失权重,λnoobj表示不包含目标的网格的置信度损失权重,s2表示训练图像在预训练后的神经网络中,在逻辑上被分割成格子的个数,B表示每个格子预测的边界框个数,x,y,w,h,C,pi(c)分别是真实框的位置、框的宽度、框的高度、框中是否包含物体的置信度以及框中物体属于类别c的置信度,分别是预测框的位置、框的宽度、框的高度、框中是否包含物体的置信度以及框中物体属于类别c的置信度,Ι表示边界框中是否包含物体,i表示第i个格子,j表示第j个边界框,其中,
公式(1)中第一项代表坐标的误差,第二项代表边界框宽和高的误差,第三项代表边界框包含物体时的置信度误差,第四项代表边界框不包含物体时的置信度误差,第五项代表格子中包含物体的类别误差。
进一步的,所述输出安全员位置信息的过程包括:
获取利用基于颜色空间转换融合神经网络模型实时处理后得到的一个张量T,所述张量T包括预测框的位置以及类别信息;
根据张量T对检测到的马甲区域进行HSV颜色空间转化,确定马甲的颜色;
根据马甲的颜色确定马甲的区域,最终确定安全员的位置。
进一步的,所述张量T的具体确定过程包括:
将图像逻辑上划分为若干个格子后,每一个格子含有的两个预测框;
所述预测框分别记录着边界框的坐标x、y,边界框的大小w、h以及边界框是否包含物体的置信度c,每个格子还记录着物体属于不同类别的置信度C。
进一步的,所述根据张量T对检测到的马甲区域进行HSV颜色空间转化,确定马甲的颜色的过程包括:
将RGB颜色空间转化为HSV颜色空间,亮度大于75%并且饱和度大于20%为亮彩色区域,亮度小于25%为黑色区域,亮度大于75%并且饱和度小于20%为白色区域,划分彩色和白色区域,得到HSV图像;
对所得HSV图像进行二值化处理,然后进行闭运算,得到平滑轮廓后的图像;
对得到平滑轮廓后的图像计算白色像素占边界框中所有像素的比值,确定马甲的区域。
一种安全员位置检测系统,包括:
获取模块,用于获取基建场景下的实时图像;
输入模块,用于将实时图像输入到预先训练好的基于颜色空间转换融合神经网络模型;
输出模块,用于输出安全员位置信息。
进一步的,所述输入模块包括模型预训练模块,所述模型预训练模块包括:
采集模块,用于通过摄像头采集待测量区域内的图像,对所采集的图像进行数据清洗,提取出有效的图像,框出安全员穿戴的安全马甲的图像区域并打上类别标签作为训练图像;
第一确定模块,用于将神经网络的53个卷积层在ImageNet数据集上进行预训练,确定这些卷积层之间的权重;
第二确定模块,用于将训练图像输入到预训练后的神经网络,经过卷积层提取特征之后通过全连接层进行分类,根据损失函数算出预测值与真实值之间的损失,通过反向传播算法调整神经网络各个隐层的权重,当损失值下降到预先设置阈值时,停止训练,确定最终的神经网络。
进一步的,所述第二确定模块包括函数确定模块,用于确定所述损失函数为:
其中,λcoord表示定位损失权重,λnoobj表示不包含目标的网格的置信度损失权重,s2表示训练图像在预训练后的神经网络中,在逻辑上被分割成格子的个数,B表示每个格子预测的边界框个数,x,y,w,h,C,pi(c)分别是真实框的位置、框的宽度、框的高度、框中是否包含物体的置信度以及框中物体属于类别c的置信度,分别是预测框的位置、框的宽度、框的高度、框中是否包含物体的置信度以及框中物体属于类别c的置信度,Ι表示边界框中是否包含物体,i表示第i个格子,j表示第j个边界框,其中,
公式(1)中第一项代表坐标的误差,第二项代表边界框宽和高的误差,第三项代表边界框包含物体时的置信度误差,第四项代表边界框不包含物体时的置信度误差,第五项代表格子中包含物体的类别误差。
进一步的,所述输出模块包括:
张量获取模块,用于获取利用基于颜色空间转换融合神经网络模型实时处理后得到的一个张量T,所述张量T包括预测框的位置以及类别信息;
颜色确定模块,用于根据张量T对检测到的马甲区域进行HSV颜色空间转化,确定马甲的颜色;
位置确定模块,用于根据马甲的颜色确定马甲的区域,最终确定安全员的位置。
进一步的,所述张量获取模块包括张量确定模块,用于将图像逻辑上划分为若干个格子后,每一个格子含有的两个预测框;
所述预测框分别记录着边界框的坐标x、y,边界框的大小w、h以及边界框是否包含物体的置信度c,每个格子还记录着物体属于不同类别的置信度C。
进一步的,所述颜色确定模块包括:
转化模块,用于将RGB颜色空间转化为HSV颜色空间,亮度大于75%并且饱和度大于20%为亮彩色区域,亮度小于25%为黑色区域,亮度大于75%并且饱和度小于20%为白色区域,划分彩色和白色区域,得到HSV图像;
计算处理模块,用于对所得HSV图像进行二值化处理,然后进行闭运算,得到平滑轮廓后的图像;
区域确定模块,用于对得到平滑轮廓后的图像计算白色像素占边界框中所有像素的比值,确定马甲的区域。
本发明所达到的有益效果:
本发明只需要安装一个摄像头即可实现,创造性的引入神经网络的方法,通过计算机迭代训练得出安全员的具体特征能够准确地识别出安全员的具体位置。本发明节省人力资源,且受环境因素影响较小,具有很好的稳定性以及鲁棒性。
附图说明
图1是本发明安全员位置检测方法的流程示意图;
图2是神经网络训练阶段示意图;
图3是安全员实时检测阶段示意图。
具体实施方式
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本发明一部分实施例,而非全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
如图1-3所示,本发明一种安全员位置检测方法包括以下几个部分:
1)训练图像预处理方案
本发明提出了一种基于颜色空间转换融合神经网络的穿戴检测方法,这种学习是有监督的学习,因此对采集的训练图像要进行预处理,步骤如下:
步骤1,利用摄像头采集多个不同场景下的安全员;
步骤2,筛去上述图像中受环境因素影响较大的部分,保留安全员红色马甲特征较为明显的图片;
步骤3,人工的框出行人以及红色马甲的位置,并为其边界框打上标签。
2)深度学习方案
将神经网络的53个卷积层在ImageNet数据集上进行预训练,得到这些卷积层之间的权重,用于提取图片的特征。
将训练图片输入神经网络,经过卷积层提取特征之后通过全连接层进行分类,根据损失函数算出预测值与真实值之间的损失,通过反向传播算法调整神经网络各个隐层的权重,当损失值下降到一定的阈值时,停止训练,得到最终的神经网络。
具体的损失函数如公式(1)
其中,λ是各项的影响因子,s2表示输入图片逻辑上被分割成格子的个数,B表示每个格子预测的边界框个数,x,y,w,h,C,pi(c)分别是真实框的位置、框的宽度、框的高度、框中是否包含物体的置信度以及框中物体属于类别c的置信度,分别是预测框的位置、框的宽度、框的高度、框中是否包含物体的置信度以及框中物体属于类别c的置信度。Ι表示边界框中是否包含物体,其含义如公式(2)(3)
公式(1)中第一项代表坐标的误差,第二项代表边界框宽和高的误差,第三项代表边界框包含物体时的置信度误差,第四项代表边界框不包含物体时的置信度误差,第五项代表格子中包含物体的类别误差。
相应的本发明还提供一种安全员位置检测系统,包括:
获取模块,用于获取基建场景下的实时图像;
输入模块,用于将实时图像输入到预先训练好的基于颜色空间转换融合神经网络模型;
输出模块,用于输出安全员位置信息。
所述输入模块包括模型预训练模块,所述模型预训练模块包括:
采集模块,用于通过摄像头采集待测量区域内的图像,对所采集的图像进行数据清洗,提取出有效的图像,框出安全员穿戴的安全马甲的图像区域并打上类别标签作为训练图像;
第一确定模块,用于将神经网络的53个卷积层在ImageNet数据集上进行预训练,确定这些卷积层之间的权重;
第二确定模块,用于将训练图像输入到预训练后的神经网络,经过卷积层提取特征之后通过全连接层进行分类,根据损失函数算出预测值与真实值之间的损失,通过反向传播算法调整神经网络各个隐层的权重,当损失值下降到预先设置阈值时,停止训练,确定最终的神经网络。
所述第二确定模块包括函数确定模块,用于确定所述损失函数为:
其中,λcoord表示定位损失权重,λnoobj表示不包含目标的网格的置信度损失权重,s2表示训练图像在预训练后的神经网络中,在逻辑上被分割成格子的个数,B表示每个格子预测的边界框个数,x,y,w,h,C,pi(c)分别是真实框的位置、框的宽度、框的高度、框中是否包含物体的置信度以及框中物体属于类别c的置信度,分别是预测框的位置、框的宽度、框的高度、框中是否包含物体的置信度以及框中物体属于类别c的置信度,Ι表示边界框中是否包含物体,i表示第i个格子,j表示第j个边界框,其中,
公式(1)中第一项代表坐标的误差,第二项代表边界框宽和高的误差,第三项代表边界框包含物体时的置信度误差,第四项代表边界框不包含物体时的置信度误差,第五项代表格子中包含物体的类别误差。
所述输出模块包括:
张量获取模块,用于获取利用基于颜色空间转换融合神经网络模型实时处理后得到的一个张量T,所述张量T包括预测框的位置以及类别信息;
颜色确定模块,用于根据张量T对检测到的马甲区域进行HSV颜色空间转化,确定马甲的颜色;
位置确定模块,用于根据马甲的颜色确定马甲的区域,最终确定安全员的位置。
所述张量获取模块包括张量确定模块,用于将图像逻辑上划分为若干个格子后,每一个格子含有的两个预测框;
所述预测框分别记录着边界框的坐标x、y,边界框的大小w、h以及边界框是否包含物体的置信度c,每个格子还记录着物体属于不同类别的置信度C。
所述颜色确定模块包括:
转化模块,用于将RGB颜色空间转化为HSV颜色空间,亮度大于75%并且饱和度大于20%为亮彩色区域,亮度小于25%为黑色区域,亮度大于75%并且饱和度小于20%为白色区域,划分彩色和白色区域,得到HSV图像;
计算处理模块,用于对所得HSV图像进行二值化处理,然后进行闭运算,得到平滑轮廓后的图像;
区域确定模块,用于对得到平滑轮廓后的图像计算白色像素占边界框中所有像素的比值,确定马甲的区域。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (7)
1.一种安全员位置检测方法,其特征在于,
获取基建场景下的实时图像;
将实时图像输入到预先训练好的基于颜色空间转换融合神经网络模型;
输出安全员位置信息;
所述基于颜色空间转换融合神经网络模型的训练过程包括:
通过摄像头采集待测量区域内的图像,对所采集的图像进行数据清洗,提取出有效的图像,框出安全员穿戴的安全马甲的图像区域并打上类别标签作为训练图像;
将神经网络的53个卷积层在ImageNet数据集上进行预训练,确定这些卷积层之间的权重;
将训练图像输入到预训练后的神经网络,经过卷积层提取特征之后通过全连接层进行分类,根据损失函数算出预测值与真实值之间的损失,通过反向传播算法调整神经网络各个隐层的权重,当损失值下降到预先设置阈值时,停止训练,确定最终的神经网络;
所述输出安全员位置信息的过程包括:
获取利用基于颜色空间转换融合神经网络模型实时处理后得到的一个张量T,所述张量T包括预测框的位置以及类别信息;
根据张量T对检测到的马甲区域进行HSV颜色空间转化,确定马甲的颜色;
根据马甲的颜色确定马甲的区域,最终确定安全员的位置;
所述根据张量T对检测到的马甲区域进行HSV颜色空间转化,确定马甲的颜色的过程包括:
将RGB颜色空间转化为HSV颜色空间,亮度大于75%并且饱和度大于20%为亮彩色区域,亮度小于25%为黑色区域,亮度大于75%并且饱和度小于20%为白色区域,划分彩色和白色区域,得到HSV图像;
对所得HSV图像进行二值化处理,然后进行闭运算,得到平滑轮廓后的图像;
对得到平滑轮廓后的图像计算白色像素占边界框中所有像素的比值,确定马甲的区域。
2.根据权利要求1所述的安全员位置检测方法,其特征在于,所述有效的图像为保留安全员红色马甲特征明显的图像。
3.根据权利要求1所述的安全员位置检测方法,其特征在于,所述损失函数为:
其中,λcoord表示定位损失权重,λnoobj表示不包含目标的网格的置信度损失权重,s2表示训练图像在预训练后的神经网络中,在逻辑上被分割成格子的个数,B表示每个格子预测的边界框个数,x,y,w,h,C,pi(c)分别是真实框的位置、框的宽度、框的高度、框中是否包含物体的置信度以及框中物体属于类别c的置信度,分别是预测框的位置、框的宽度、框的高度、框中是否包含物体的置信度以及框中物体属于类别c的置信度,I表示边界框中是否包含物体,i表示第i个格子,j表示第j个边界框,其中,
公式(1)中第一项代表坐标的误差,第二项代表边界框宽和高的误差,第三项代表边界框包含物体时的置信度误差,第四项代表边界框不包含物体时的置信度误差,第五项代表格子中包含物体的类别误差。
4.根据权利要求1所述的安全员位置检测方法,其特征在于,所述张量T的具体确定过程包括:
将图像逻辑上划分为若干个格子后,每一个格子含有的两个预测框;
所述预测框分别记录着边界框的坐标x、y,边界框的大小w、h以及边界框是否包含物体的置信度c,每个格子还记录着物体属于不同类别的置信度C。
5.一种安全员位置检测系统,其特征在于,包括:
获取模块,用于获取基建场景下的实时图像;
输入模块,用于将实时图像输入到预先训练好的基于颜色空间转换融合神经网络模型;
输出模块,用于输出安全员位置信息;
所述输入模块包括模型预训练模块,所述模型预训练模块包括:
采集模块,用于通过摄像头采集待测量区域内的图像,对所采集的图像进行数据清洗,提取出有效的图像,框出安全员穿戴的安全马甲的图像区域并打上类别标签作为训练图像;
第一确定模块,用于将神经网络的53个卷积层在ImageNet数据集上进行预训练,确定这些卷积层之间的权重;
第二确定模块,用于将训练图像输入到预训练后的神经网络,经过卷积层提取特征之后通过全连接层进行分类,根据损失函数算出预测值与真实值之间的损失,通过反向传播算法调整神经网络各个隐层的权重,当损失值下降到预先设置阈值时,停止训练,确定最终的神经网络;
所述输出模块包括:
张量获取模块,用于获取利用基于颜色空间转换融合神经网络模型实时处理后得到的一个张量T,所述张量T包括预测框的位置以及类别信息;
颜色确定模块,用于根据张量T对检测到的马甲区域进行HSV颜色空间转化,确定马甲的颜色;
位置确定模块,用于根据马甲的颜色确定马甲的区域,最终确定安全员的位置;
所述颜色确定模块包括:
转化模块,用于将RGB颜色空间转化为HSV颜色空间,亮度大于75%并且饱和度大于20%为亮彩色区域,亮度小于25%为黑色区域,亮度大于75%并且饱和度小于20%为白色区域,划分彩色和白色区域,得到HSV图像;
计算处理模块,用于对所得HSV图像进行二值化处理,然后进行闭运算,得到平滑轮廓后的图像;
区域确定模块,用于对得到平滑轮廓后的图像计算白色像素占边界框中所有像素的比值,确定马甲的区域。
6.根据权利要求5所述的安全员位置检测系统,其特征在于,所述第二确定模块包括函数确定模块,用于确定所述损失函数为:
其中,λcoord表示定位损失权重,λnoobj表示不包含目标的网格的置信度损失权重,s2表示训练图像在预训练后的神经网络中,在逻辑上被分割成格子的个数,B表示每个格子预测的边界框个数,x,y,w,h,C,pi(c)分别是真实框的位置、框的宽度、框的高度、框中是否包含物体的置信度以及框中物体属于类别c的置信度,分别是预测框的位置、框的宽度、框的高度、框中是否包含物体的置信度以及框中物体属于类别c的置信度,I表示边界框中是否包含物体,i表示第i个格子,j表示第j个边界框,其中,
公式(1)中第一项代表坐标的误差,第二项代表边界框宽和高的误差,第三项代表边界框包含物体时的置信度误差,第四项代表边界框不包含物体时的置信度误差,第五项代表格子中包含物体的类别误差。
7.根据权利要求5所述的安全员位置检测系统,其特征在于,所述张量获取模块包括张量确定模块,用于将图像逻辑上划分为若干个格子后,每一个格子含有的两个预测框;
所述预测框分别记录着边界框的坐标x、y,边界框的大小w、h以及边界框是否包含物体的置信度c,每个格子还记录着物体属于不同类别的置信度C。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010692991.XA CN114022685B (zh) | 2020-07-17 | 2020-07-17 | 一种安全员位置检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010692991.XA CN114022685B (zh) | 2020-07-17 | 2020-07-17 | 一种安全员位置检测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114022685A CN114022685A (zh) | 2022-02-08 |
CN114022685B true CN114022685B (zh) | 2022-10-21 |
Family
ID=80054102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010692991.XA Active CN114022685B (zh) | 2020-07-17 | 2020-07-17 | 一种安全员位置检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114022685B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016059643A1 (en) * | 2014-10-16 | 2016-04-21 | Kpit Technologies Ltd. | System and method for pedestrian detection |
CN108491830A (zh) * | 2018-04-23 | 2018-09-04 | 济南浪潮高新科技投资发展有限公司 | 一种基于深度学习的施工现场人员制服穿着识别的方法 |
CN109147254A (zh) * | 2018-07-18 | 2019-01-04 | 武汉大学 | 一种基于卷积神经网络的视频野外火灾烟雾实时检测方法 |
CN110110613A (zh) * | 2019-04-19 | 2019-08-09 | 北京航空航天大学 | 一种基于动作识别的轨道交通异常人员检测方法 |
CN110348304A (zh) * | 2019-06-06 | 2019-10-18 | 武汉理工大学 | 一种可搭载于无人机的海事遇险人员搜索系统以及目标识别方法 |
CN110443179A (zh) * | 2019-07-29 | 2019-11-12 | 思百达物联网科技(北京)有限公司 | 离岗检测方法、装置以及存储介质 |
CN110472575A (zh) * | 2019-08-15 | 2019-11-19 | 中国农业大学 | 一种基于深度学习和计算机视觉的串番茄成熟度检测方法 |
CN110781844A (zh) * | 2019-10-29 | 2020-02-11 | 贵州省烟草公司六盘水市公司 | 保安巡察监测方法及装置 |
CN110827434A (zh) * | 2019-09-23 | 2020-02-21 | 重庆特斯联智慧科技股份有限公司 | 网格化目标识别的社区安保巡防记录系统及方法 |
CN110826538A (zh) * | 2019-12-06 | 2020-02-21 | 合肥科大智能机器人技术有限公司 | 一种用于电力营业厅的异常离岗识别系统 |
CN111091110A (zh) * | 2019-12-24 | 2020-05-01 | 山东仁功智能科技有限公司 | 一种基于人工智能的反光背心穿戴识别方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105513061B (zh) * | 2015-12-02 | 2018-06-19 | 上海海事大学 | 一种使用无人机进行海上遇险人员自动搜救方法 |
CN110826514A (zh) * | 2019-11-13 | 2020-02-21 | 国网青海省电力公司海东供电公司 | 一种基于深度学习的施工现场违章智能识别方法 |
-
2020
- 2020-07-17 CN CN202010692991.XA patent/CN114022685B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016059643A1 (en) * | 2014-10-16 | 2016-04-21 | Kpit Technologies Ltd. | System and method for pedestrian detection |
CN108491830A (zh) * | 2018-04-23 | 2018-09-04 | 济南浪潮高新科技投资发展有限公司 | 一种基于深度学习的施工现场人员制服穿着识别的方法 |
CN109147254A (zh) * | 2018-07-18 | 2019-01-04 | 武汉大学 | 一种基于卷积神经网络的视频野外火灾烟雾实时检测方法 |
CN110110613A (zh) * | 2019-04-19 | 2019-08-09 | 北京航空航天大学 | 一种基于动作识别的轨道交通异常人员检测方法 |
CN110348304A (zh) * | 2019-06-06 | 2019-10-18 | 武汉理工大学 | 一种可搭载于无人机的海事遇险人员搜索系统以及目标识别方法 |
CN110443179A (zh) * | 2019-07-29 | 2019-11-12 | 思百达物联网科技(北京)有限公司 | 离岗检测方法、装置以及存储介质 |
CN110472575A (zh) * | 2019-08-15 | 2019-11-19 | 中国农业大学 | 一种基于深度学习和计算机视觉的串番茄成熟度检测方法 |
CN110827434A (zh) * | 2019-09-23 | 2020-02-21 | 重庆特斯联智慧科技股份有限公司 | 网格化目标识别的社区安保巡防记录系统及方法 |
CN110781844A (zh) * | 2019-10-29 | 2020-02-11 | 贵州省烟草公司六盘水市公司 | 保安巡察监测方法及装置 |
CN110826538A (zh) * | 2019-12-06 | 2020-02-21 | 合肥科大智能机器人技术有限公司 | 一种用于电力营业厅的异常离岗识别系统 |
CN111091110A (zh) * | 2019-12-24 | 2020-05-01 | 山东仁功智能科技有限公司 | 一种基于人工智能的反光背心穿戴识别方法 |
Non-Patent Citations (3)
Title |
---|
Multi-band Hough Forests for detecting humans with Reflective Safety Clothing from mobile machinery;Rafael Mosberger 等;《2015 IEEE International Conference on Robotics and Automatic》;20150702;第697-703页 * |
基于公安求助标识识别的看路系统研究与实现;王鸣一;《中国优秀博硕士学位论文全文数据库(硕士)社会科学Ⅰ辑》;20191215;第G113-12页正文第1.5节、第3.1-3.4节 * |
基于深度学习的变电站多目标行人检测算法研究;彭熹 等;《电子设计工程》;20191031;第27卷(第19期);第6-9、14页正文第1.2节 * |
Also Published As
Publication number | Publication date |
---|---|
CN114022685A (zh) | 2022-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110070033B (zh) | 一种电力领域危险工作区域内安全帽佩戴状态检测方法 | |
CN112052797A (zh) | 基于MaskRCNN的视频火灾识别方法及系统 | |
CN103632158B (zh) | 森林防火监控方法及森林防火监控系统 | |
CN107273832B (zh) | 基于积分通道特征与卷积神经网络的车牌识别方法及系统 | |
CN112560675B (zh) | Yolo与旋转-融合策略相结合的鸟类视觉目标检测方法 | |
CN113553979B (zh) | 一种基于改进yolo v5的安全服检测方法和系统 | |
KR101183105B1 (ko) | 자동 구름 정보 산출방법 | |
CN113516076A (zh) | 一种基于注意力机制改进的轻量化YOLO v4安全防护检测方法 | |
CN113903081A (zh) | 一种水电厂图像视觉识别人工智能报警方法及装置 | |
CN113553977B (zh) | 一种基于改进yolo v5的安全帽检测方法和系统 | |
CN106096603A (zh) | 一种融合多特征的动态火焰检测方法及装置 | |
CN112184773A (zh) | 一种基于深度学习的安全帽佩戴检测方法及系统 | |
CN116543241B (zh) | 泄露气体云团的检测方法、装置、存储介质和电子设备 | |
CN114882410B (zh) | 基于改进定位损失函数的隧道顶灯故障检测方法及系统 | |
CN114049325A (zh) | 轻量化人脸口罩佩戴检测模型的构建方法及应用 | |
CN113313107A (zh) | 一种斜拉桥缆索表面多类型病害智能检测和识别方法 | |
CN113469938B (zh) | 基于嵌入式前端处理服务器的管廊视频分析方法及系统 | |
CN113191273A (zh) | 基于神经网络的油田井场视频目标检测与识别方法及系统 | |
CN114022685B (zh) | 一种安全员位置检测方法及系统 | |
CN115995097A (zh) | 一种基于深度学习的安全头盔佩戴标准判断方法 | |
CN112818836B (zh) | 一种变电站场景的人员目标检测方法及系统 | |
CN115240057A (zh) | 一种基于深度学习的架空输电线路监拍图像检测方法 | |
CN114820676A (zh) | 一种设备运行状态识别方法及装置 | |
CN112488015B (zh) | 面向智慧工地的目标检测方法及系统 | |
CN113628206B (zh) | 一种车牌检测方法、装置、介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |