CN114332749A - 一种基于深度学习的采砂船采砂监控方法 - Google Patents
一种基于深度学习的采砂船采砂监控方法 Download PDFInfo
- Publication number
- CN114332749A CN114332749A CN202111357026.8A CN202111357026A CN114332749A CN 114332749 A CN114332749 A CN 114332749A CN 202111357026 A CN202111357026 A CN 202111357026A CN 114332749 A CN114332749 A CN 114332749A
- Authority
- CN
- China
- Prior art keywords
- sand
- sand production
- target
- detection
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000004576 sand Substances 0.000 title claims abstract description 173
- 238000004519 manufacturing process Methods 0.000 title claims abstract description 90
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000012544 monitoring process Methods 0.000 title claims abstract description 44
- 238000013135 deep learning Methods 0.000 title claims abstract description 20
- 238000001514 detection method Methods 0.000 claims abstract description 70
- 238000005065 mining Methods 0.000 claims abstract description 23
- 238000004364 calculation method Methods 0.000 claims abstract description 15
- 238000012549 training Methods 0.000 claims abstract description 15
- 238000012545 processing Methods 0.000 claims abstract description 11
- 238000011049 filling Methods 0.000 claims abstract description 6
- 239000013598 vector Substances 0.000 claims description 15
- 230000006399 behavior Effects 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 6
- 238000011897 real-time detection Methods 0.000 claims description 5
- 230000001965 increasing effect Effects 0.000 claims description 4
- 238000011176 pooling Methods 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 claims description 3
- 238000004321 preservation Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 2
- 238000007726 management method Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 8
- 238000010276 construction Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 239000004575 stone Substances 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000005284 excitation Effects 0.000 description 2
- 238000009440 infrastructure construction Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000009435 building construction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000011068 loading method Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Abstract
本发明公开了一种基于深度学习的采砂船采砂监控方法,包括以下步骤:获取翻斗式采砂船的采砂监控视频,处理待识别视频获取图像;基于Pytorch框架构建采砂船的采砂检测模型与采砂跟踪模型;对采砂检测模型进行训练;将训练好的模型移植到边缘计算模块;使用边缘计算模块控制摄像头获取翻斗式采砂船的采砂实时监控视频,先对采砂实时监控视频进行采砂斗的目标检测识别,再对识别出的砂斗进行目标跟踪;采砂监控可检测出采砂船一段时间内的采砂斗数,并识别出各个采砂斗的充盈情况,判断出满斗与空斗,再对识别出的砂斗进行目标跟踪,统计一段时间内的采砂斗数。本发明对采砂状况、数量进行监控和统计,使采砂管理变得更加科学高效和规范。
Description
技术领域
本发明涉及深度学习目标检测与跟踪技术领域,具体涉及一种基于深度学习的采砂船采砂监控方法。
背景技术
河砂存在于河流之中,是构建河流生态系统的重要物质基础,有利于保持河道稳定、沙量平衡。并且河道砂石是一种重要的自然资源,可以用于建筑建设、公路桥梁、堤防建设等基础设施建设,在设施建设方面具有非常重要价值。因此对河道砂石开发和利用是在工程建设中十分重要的,对河道砂石的开采是必不可少的环节。随着社会的快速发展,工程建设与河砂需求的增长速度越来越快,供给与需求的矛盾凸显,出现了河砂的乱采超采问题。河砂的不合理开采和过度开采,会对河流生态造成不良影响,严重影响河流生态平衡,甚至危及防洪安全。为了保障河流健康与防洪安全、合理有效地控制河砂开发利用,在维持好河流生态平衡的同时,最大化满足社会河砂需求,除了要对河道采砂进行科学规划外,还需要对河道采砂行为进行有效的控制与管理。而智能感知技术,是采砂管理的有效手段。
目前国内现有的河道采砂动态监控系统,只在翻斗式采砂船上安装有监视采砂情况的普通视频系统,并利用4G/GPRS传回的采砂发动机震动频率判断出采砂船的当前采砂状况,但无法准确计量采砂量。
发明内容
有鉴于此,为了解决现有技术中的上述问题,本发明提出一种基于深度学习的采砂船采砂监控方法,对翻斗式采砂船的采砂行为进行实时识别与分析,从而对采砂状况、数量进行监控和统计,使采砂管理变得更加科学高效和规范。
本发明通过以下技术手段解决上述问题:
一种基于深度学习的采砂船采砂监控方法,包括以下步骤:
S1:获取翻斗式采砂船的采砂监控视频,处理待识别视频获取图像;
S2:基于Pytorch框架构建采砂船的采砂检测模型与采砂跟踪模型;
S3:对采砂检测模型进行训练;
S4:将训练好的模型移植到边缘计算模块;
S5:使用边缘计算模块控制摄像头获取翻斗式采砂船的采砂实时监控视频,先对采砂实时监控视频进行采砂斗的目标检测识别,再对识别出的砂斗进行目标跟踪;
S6:采砂监控可检测出采砂船一段时间内的采砂斗数,并识别出各个采砂斗的充盈情况,判断出满斗与空斗,再对识别出的砂斗进行目标跟踪,统计一段时间内的采砂斗数。
进一步地,步骤S1具体为:
S11:获取翻斗式采砂船的采砂监控视频,视频逐帧提取图像获得图像,将图像随机分为训练集、验证集和测试集;
S12:为采砂图像数据添加标注,具体为:利用Labelimg工具手动对采砂数据集进行标注,检测目标分为两类:FULL和EMPTY。
进一步地,步骤S2中采砂检测模型与采砂跟踪模型具体为:
S21:基于改进YOLOv5算法的模型,用于对翻斗式采砂船的采砂行为进行检测;
S22:基于DeepSORT算法的模型,用于对采砂行为进行跟踪统计。
进一步地,步骤S21中基于改进YOLOv5算法的模型具体为:
改进YOLOv5模型分为输入端、Backbone网络、Neck网络和Prediction网络;
输入端采用了Mosaic数据增强方法和自适应锚框计算方法对输入数据进行处理;
Backbone网络包括Focus结构和CSP结构,用于图像特征提取;
Neck网络包括FPN结构和PAN结构,用于图像特征融合,并将图像特征传入到Prediction网络中;
Prediction网络为输出端,用于对图像特征进行预测,得到边界框并预测类别;采用GIOU_Loss作为Bounding box的损失函数;采用加权nms方法进行目标框的筛选。
进一步地,Backbone网络中引入Squeeze-and-Excitation Networks,即SENet注意力机制,SENet结构包括全局平均池化层、全连接层和激活函数层,SENet的作用为根据loss学习特征权重,使有效的feature map权重大,无效或效果小的feature map权重小,模型训练得到更好的结果。
进一步地,步骤S22中基于DeepSORT算法的模型具体为:
首先对检测的采砂目标进行轨迹处理与状态估计,然后根据检测结果得出检测框与跟踪框的匹配结果。
进一步地,轨迹处理与状态估计方法具体为:
运动状态估计是使用8个参数进行运动状态的描述,(u,v)为bounding box的中心坐标,γ为bounding box的长宽比,h为bounding box的高度,为对应的在图像坐标系中的速度信息;使用一个基于常量速度模型和线性观测模型的标准卡尔曼滤波器进行目标运动状态的预测,预测结果为(u,v,γ,h);
对每一个追踪目标,记录从其上一次检测结果与追踪结果匹配之后的帧数ak,若一个目标的检测结果与追踪结果正确关联之后,就把该参数设置为0;若帧数ak超过了设置的最大阈值Amax,则判断为对该目标的追踪过程已结束;
对新目标出现的判断则是,若某次检测结果中的某个目标始终无法与已经存在的追踪器进行关联,则认为有可能出现了新目标;如果连续三帧图像中潜在的新的追踪器对目标位置的预测结果都能够与检测结果正确关联,则确认是出现了新的运动目标;如果不能达到该要求,则需要删除该运动目标。
进一步地,检测框与跟踪框的匹配方法具体为:
运动信息的关联:使用检测框和跟踪器预测框之间的马氏距离来描述运动关联程度;
运动信息关联匹配度d(1)(i,j)为:
dj为第j个检测框的位置,yi为第i个跟踪器对目标的预测位置,Si表示检测位置与平均跟踪位置之间的协方差矩阵;
目标外观信息的关联:对每一个检测框dj求一个特征向量rj并且||rj||=1,为每个跟踪目标构建一个库Ri,存储每个跟踪目标k成功关联的最近100帧特征向量计算第i个跟踪器的最近100个成功关联的特征集与当前帧第j个检测结果的特征向量间的最小余弦距离d(2)(i,j);
上式中,d(2)(i,j)为第i个跟踪器的最近100个成功关联的特征集与当前帧第j个检测结果的特征向量间的最小余弦距离,rj为第j个检测框dj的特征向量且||rj||=1,为每个跟踪目标k成功关联的最近100帧特征向量,Ri为保存的库;若d(2)(i,j)小于指定阈值,则关联成功;
关联最终匹配度:运动信息关联匹配度与目标外观信息关联匹配度的线性加权为最终的匹配度ci,j;
ci,j=λd(1)(i,j)+(1-λ)d(2)(i,j)
λ为超参数,控制d(1)(i,j)与d(2)(i,j)的权重。
进一步地,匹配方法还包括级联匹配,具体为:
当一个目标长时间被遮挡后,卡尔曼滤波预测的不确定性就会大大增加,若此时两个卡尔曼滤波器同时竞争同一个检测结果的匹配权,检测结果会与遮挡时间较长的轨迹相关联,此时引入级联匹配对更频繁出现的目标赋予优先匹配权。
进一步地,步骤S3具体为:
在PC端对采砂检测模型进行训练,得到权重;
步骤S4具体为:
进行权重转换,将.pt格式的权重转换为适合边缘计算设备的权重格式,进行设备部署;
步骤S5具体为:
摄像头连接边缘计算模块,载入权重,在边缘计算模块上运行检测程序,对采砂监控视频的采砂行为进行实时检测跟踪。
与现有技术相比,本发明的有益效果至少包括:
本发明采用深度学习、计算机视觉技术,对翻斗式采砂船的采砂行为进行实时识别与分析,从而对采砂状况、数量进行监控和统计,使采砂管理变得更加科学高效和规范;采砂检测网络采用基于改进YOLOv5算法的网络,引入了SENet模块,减少了计算量并提高了精确度,使模型适用于移动终端、嵌入式设备;采用边缘计算方式部署,减少建设成本和运维成本,便于大范围推广应用。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明基于深度学习的采砂船采砂监控方法的流程图;
图2是本发明实施例中基于YOLOv5算法模型的结构示意图;
图3是SENet模块的结构示意图;
图4是本发明对采砂视频进行实时检测,在视频监控中生成目标检测框的示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面将结合附图和具体的实施例对本发明的技术方案进行详细说明。需要指出的是,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明提供一种基于深度学习的采砂船采砂监控方法,包括以下步骤:
S1:获取翻斗式采砂船的采砂监控视频,处理待识别视频获取图像,具体为:
S11:获取翻斗式采砂船的采砂监控视频,视频逐帧提取图像获得图像,将图像随机分为训练集、验证集和测试集。
S12:为采砂图像数据添加标注,具体为:利用Labelimg工具手动对采砂数据集进行标注,检测目标分为两类:FULL、EMPTY。
S2:基于Pytorch框架构建采砂船的采砂检测模型与采砂跟踪模型。
S21:采用Pytorch框架搭建基于改进YOLOv5算法的采砂检测模型,YOLOv5网络结构图2所示,利用基于改进YOLOv5算法的神经网络训练采砂数据,具体为:
输入端对图像进行Mosaic数据增强、自适应锚框计算、自适应图片缩放的处理;
Mosaic数据增强,具体为:
对图像进行随机缩放、随机裁剪、随机排布,再进行拼接;
自适应锚框计算,具体为:
在不同的数据集中,会设置不同长宽的初始锚框,在神经网络训练过程中,神经网络在初始锚框的基础上输出预测框,再与真实框对比,计算预测框与真实框的差距,再反向更新,迭代网络参数,自适应计算训练集中的最佳锚框值;
自适应图片缩放,具体为:
输入端先计算图像的缩放比例,得到缩放系数,再计算图像缩放后的尺寸,计算黑边填充数值。自适应图片缩放,减少了图像高度上两端的黑边,减少了计算量,提升了目标检测速度;
Backbone网络由Focus结构和CSP结构组合构成,并引入Squeeze-and-ExcitationNetworks,即SENet注意力机制,此网络用于进行图像特征提取;
Focus结构,具体为:
采用切片操作得到特征图,图像传入到YOLOv5s网络的Focus结构,原始608×608×3的图像先变成304×304×12的特征图,再经过一次有32个卷积核的卷积处理,最后得到304×304×32的特征图;
CSP结构,具体为:
Backbone网络中为CSP1_X结构,将上一层的特征映射分为两部分,再通过跨阶段层次结构合并两部分,既减少了计算量也保证准确率;
SENet结构,如图3所示,具体为:
SENet结构包括全局平均池化层、全连接层和激活函数层组成,实现步骤分为Squeeze、Excitation、Scale;
Squeeze:输入大小为W×H×N的特征图,再进行全局平均池化操作,得到压缩后1×1×N大小的特征图;
Excitation:使用全连接层对1×1×N的特征图做非线性变换,得到权重;
Scale:将权重分别与输入特征图的对应通道特征相乘;
Neck网络由FPN结构和PAN结构组合构成,此网络用于进行图像的特征的融合,并将图像特征传入到Prediction网络;
FPN结构,具体为:
将高层的特征图进行上采样,传递融合,得到进行预测的特征图;
PAN结构,具体为:
特征图从下到上进行上采样,将浅层定位信息传递到深层,加强多个尺度上的定位能力;
Prediction网络,为输出端,此网络用于对图像特征进行预测,得到边界框并预测类别;此网络采用GIOU_Loss作为Bounding box的损失函数;采用加权nms方法进行目标框的筛选;
GIOU_Loss作为Bounding box的损失函数,具体为:
C为形状A、B包围的最小体积;
nms非极大值抑制,具体为:
将所有的Bounding box进行得分排序,选中最高分及其对应的框,再遍历其余的Bounding box,如果与最高分的IoU大于一定阈值,则删除此框;
S22:采用Pytorch框架搭建基于DeepSORT算法的采砂跟踪模型,具体为:
首先对检测的采砂目标进行轨迹处理与状态估计,然后根据检测结果得出检测框与跟踪框的匹配结果。
所述的轨迹处理与状态估计方法,具体为:
运动状态估计是使用8个参数进行运动状态的描述,(u,v)为bounding box的中心坐标,γ为bounding box的长宽比,h为bounding box的高度,为对应的在图像坐标系中的速度信息;使用一个基于常量速度模型和线性观测模型的标准卡尔曼滤波器进行目标运动状态的预测,预测结果为(u,v,γ,h);
对每一个追踪目标,记录从其上一次检测结果与追踪结果匹配之后的帧数ak,若一个目标的检测结果与追踪结果正确关联之后,就把该参数设置为0;若帧数ak超过了设置的最大阈值Amax,则判断为对该目标的追踪过程已结束;
对新目标出现的判断则是,若某次检测结果中的某个目标始终无法与已经存在的追踪器进行关联,则认为有可能出现了新目标;如果连续的三帧中潜在的新的追踪器对目标位置的预测结果都能够与检测结果正确关联,则确认是出现了新的运动目标;如果不能达到该要求,则需要删除该运动目标;
检测框与跟踪框的匹配方法,具体为:
运动信息的关联:使用检测框和跟踪器预测框之间的马氏距离来描述运动关联程度;
运动信息关联匹配度d(1)(i,j)为:
dj为第j个检测框的位置,yi为第i个跟踪器对目标的预测位置,Si表示检测位置与平均跟踪位置之间的协方差矩阵;
目标外观信息的关联:对每一个检测框dj求一个特征向量rj并且||rj||=1,为每个跟踪目标构建一个库Ri,存储每个跟踪目标k成功关联的最近100帧特征向量计算第i个跟踪器的最近100个成功关联的特征集与当前帧第j个检测结果的特征向量间的最小余弦距离d(2)(i,j);
上式中,d(2)(i,j)为第i个跟踪器的最近100个成功关联的特征集与当前帧第j个检测结果的特征向量间的最小余弦距离,rj为第j个检测框dj的特征向量且||rj||=1,为每个跟踪目标k成功关联的最近100帧特征向量,Ri为保存的库;若d(2)(i,j)小于指定阈值,则关联成功;
关联最终匹配度:运动信息关联匹配度与目标外观信息关联匹配度的线性加权为最终的匹配度ci,j;
ci,j=λd(1)(i,j)+(1-λ)d(2)(i,j)
λ为超参数,控制d(1)(i,j)与d(2)(i,j)的权重。
匹配方法的级联匹配,具体为:
当一个目标长时间被遮挡后,卡尔曼滤波预测的不确定性就会大大增加,若此时两个卡尔曼滤波器同时竞争同一个检测结果的匹配权,检测结果会与遮挡时间较长的轨迹相关联,此时引入级联匹配对更频繁出现的目标赋予优先匹配权。
S3:对采砂检测模型进行训练;
S4:训练与测试得到最佳的权重;将训练好的模型移植到NVIDIA TX2边缘计算模块,加载最佳权重对采砂视频进行实时检测,在视频监控中生成目标检测框,判断采砂斗的充盈情况,如图4所示;并跟踪统计一段时间内采砂斗的数量。
将模型移植到NVIDIA TX2边缘计算模块,具体为:
进行权重转换,将训练得到的.pt格式的权重转换为.wts格式的权重,再生成TensorRT Engine文件。
S5:使用边缘计算模块控制摄像头获取翻斗式采砂船的采砂实时监控视频,先对采砂实时监控视频进行采砂斗的目标检测识别,再对识别出的砂斗进行目标跟踪;
采砂视频实时检测,具体为:
摄像头连接NVIDIA TX2边缘计算模块,载入权重,在NVIDIA Jetson TX2边缘计算硬件模块上运行检测程序,对采砂监控视频的采砂行为进行实时检测跟踪。
S6:采砂监控可检测出采砂船一段时间内的采砂斗数,并识别出各个采砂斗的充盈情况,判断出满斗与空斗,再对识别出的砂斗进行目标跟踪,统计一段时间内的采砂斗数。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种基于深度学习的采砂船采砂监控方法,其特征在于,包括以下步骤:
S1:获取翻斗式采砂船的采砂监控视频,处理待识别视频获取图像;
S2:基于Pytorch框架构建采砂船的采砂检测模型与采砂跟踪模型;
S3:对采砂检测模型进行训练;
S4:将训练好的模型移植到边缘计算模块;
S5:使用边缘计算模块控制摄像头获取翻斗式采砂船的采砂实时监控视频,先对采砂实时监控视频进行采砂斗的目标检测识别,再对识别出的砂斗进行目标跟踪;
S6:采砂监控可检测出采砂船一段时间内的采砂斗数,并识别出各个采砂斗的充盈情况,判断出满斗与空斗,再对识别出的砂斗进行目标跟踪,统计一段时间内的采砂斗数。
2.根据权利要求1所述的基于深度学习的采砂船采砂监控方法,其特征在于,步骤S1具体为:
S11:获取翻斗式采砂船的采砂监控视频,视频逐帧提取图像获得图像,将图像随机分为训练集、验证集和测试集;
S12:为采砂图像数据添加标注,具体为:利用Labelimg工具手动对采砂数据集进行标注,检测目标分为两类:FULL和EMPTY。
3.根据权利要求1所述的基于深度学习的采砂船采砂监控方法,其特征在于,步骤S2中采砂检测模型与采砂跟踪模型具体为:
S21:基于改进YOLOv5算法的模型,用于对翻斗式采砂船的采砂行为进行检测;
S22:基于DeepSORT算法的模型,用于对采砂行为进行跟踪统计。
4.根据权利要求3所述的基于深度学习的采砂船采砂监控方法,其特征在于,步骤S21中基于改进YOLOv5算法的模型具体为:
改进YOLOv5模型分为输入端、Backbone网络、Neck网络和Prediction网络;
输入端采用了Mosaic数据增强方法和自适应锚框计算方法对输入数据进行处理;
Backbone网络包括Focus结构和CSP结构,用于图像特征提取;
Neck网络包括FPN结构和PAN结构,用于图像特征融合,并将图像特征传入到Prediction网络中;
Prediction网络为输出端,用于对图像特征进行预测,得到边界框并预测类别;采用GIOU_Loss作为Bounding box的损失函数;采用加权nms方法进行目标框的筛选。
5.根据权利要求4所述的基于深度学习的采砂船采砂监控方法,其特征在于,Backbone网络中引入Squeeze-and-Excitation Networks,即SENet注意力机制,SENet结构包括全局平均池化层、全连接层和激活函数层,SENet的作用为根据loss学习特征权重,使有效的feature map权重大,无效或效果小的feature map权重小,模型训练得到更好的结果。
6.根据权利要求3所述的基于深度学习的采砂船采砂监控方法,其特征在于,步骤S22中基于DeepSORT算法的模型具体为:
首先对检测的采砂目标进行轨迹处理与状态估计,然后根据检测结果得出检测框与跟踪框的匹配结果。
7.根据权利要求6所述的基于深度学习的采砂船采砂监控方法,其特征在于,轨迹处理与状态估计方法具体为:
运动状态估计是使用8个参数进行运动状态的描述,(u,v)为bounding box的中心坐标,γ为bounding box的长宽比,h为bounding box的高度,为对应的在图像坐标系中的速度信息;使用一个基于常量速度模型和线性观测模型的标准卡尔曼滤波器进行目标运动状态的预测,预测结果为(u,v,γ,h);
对每一个追踪目标,记录从其上一次检测结果与追踪结果匹配之后的帧数ak,若一个目标的检测结果与追踪结果正确关联之后,就把该参数设置为0;若帧数ak超过了设置的最大阈值Amax,则判断为对该目标的追踪过程已结束;
对新目标出现的判断则是,若某次检测结果中的某个目标始终无法与已经存在的追踪器进行关联,则认为有可能出现了新目标;如果连续三帧图像中潜在的新的追踪器对目标位置的预测结果都能够与检测结果正确关联,则确认是出现了新的运动目标;如果不能达到该要求,则需要删除该运动目标。
8.根据权利要求6所述的基于深度学习的采砂船采砂监控方法,其特征在于,检测框与跟踪框的匹配方法具体为:
运动信息的关联:使用检测框和跟踪器预测框之间的马氏距离来描述运动关联程度;
运动信息关联匹配度d(1)(i,j)为:
dj为第j个检测框的位置,yi为第i个跟踪器对目标的预测位置,Si表示检测位置与平均跟踪位置之间的协方差矩阵;
目标外观信息的关联:对每一个检测框dj求一个特征向量rj并且||rj||=1,为每个跟踪目标构建一个库Ri,存储每个跟踪目标k成功关联的最近100帧特征向量计算第i个跟踪器的最近100个成功关联的特征集与当前帧第j个检测结果的特征向量间的最小余弦距离d(2)(i,j);
上式中,d(2)(i,j)为第i个跟踪器的最近100个成功关联的特征集与当前帧第j个检测结果的特征向量间的最小余弦距离,rj为第j个检测框dj的特征向量且||rj||=1,为每个跟踪目标k成功关联的最近100帧特征向量,Ri为保存的库;若d(2)(i,j)小于指定阈值,则关联成功;
关联最终匹配度:运动信息关联匹配度与目标外观信息关联匹配度的线性加权为最终的匹配度ci,j;
ci,j=λd(1)(i,j)+(1-λ)d(2)(i,j)
λ为超参数,控制d(1)(i,j)与d(2)(i,j)的权重。
9.根据权利要求6所述的基于深度学习的采砂船采砂监控方法,其特征在于,匹配方法还包括级联匹配,具体为:
当一个目标长时间被遮挡后,卡尔曼滤波预测的不确定性就会大大增加,若此时两个卡尔曼滤波器同时竞争同一个检测结果的匹配权,检测结果会与遮挡时间较长的轨迹相关联,此时引入级联匹配对更频繁出现的目标赋予优先匹配权。
10.根据权利要求1所述的基于深度学习的采砂船采砂监控方法,其特征在于,步骤S3具体为:
在PC端对采砂检测模型进行训练,得到权重;
步骤S4具体为:
进行权重转换,将.pt格式的权重转换为适合边缘计算设备的权重格式,进行设备部署;
步骤S5具体为:
摄像头连接边缘计算模块,载入权重,在边缘计算模块上运行检测程序,对采砂监控视频的采砂行为进行实时检测跟踪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111357026.8A CN114332749B (zh) | 2021-11-16 | 2021-11-16 | 一种基于深度学习的采砂船采砂监控方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111357026.8A CN114332749B (zh) | 2021-11-16 | 2021-11-16 | 一种基于深度学习的采砂船采砂监控方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114332749A true CN114332749A (zh) | 2022-04-12 |
CN114332749B CN114332749B (zh) | 2024-04-19 |
Family
ID=81045145
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111357026.8A Active CN114332749B (zh) | 2021-11-16 | 2021-11-16 | 一种基于深度学习的采砂船采砂监控方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114332749B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114800873A (zh) * | 2022-04-28 | 2022-07-29 | 郑州三和水工机械有限公司 | 一种基于5g数据传输的混凝土搅拌站砂石料位ai智能检测方法及系统 |
CN116229381A (zh) * | 2023-05-11 | 2023-06-06 | 南昌工程学院 | 一种河湖采砂船船脸识别方法 |
CN116384950A (zh) * | 2023-06-06 | 2023-07-04 | 江西省水投江河信息技术有限公司 | 一种采砂船的采砂量估算方法、系统、计算机及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111860282A (zh) * | 2020-07-15 | 2020-10-30 | 中国电子科技集团公司第三十八研究所 | 地铁断面客流量统计和行人逆行检测方法及系统 |
CN111914664A (zh) * | 2020-07-06 | 2020-11-10 | 同济大学 | 基于重识别的车辆多目标检测和轨迹跟踪方法 |
CN112668432A (zh) * | 2020-12-22 | 2021-04-16 | 上海幻维数码创意科技股份有限公司 | 一种基于YoloV5和DeepSort的地面互动投影系统中人体检测跟踪方法 |
-
2021
- 2021-11-16 CN CN202111357026.8A patent/CN114332749B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111914664A (zh) * | 2020-07-06 | 2020-11-10 | 同济大学 | 基于重识别的车辆多目标检测和轨迹跟踪方法 |
CN111860282A (zh) * | 2020-07-15 | 2020-10-30 | 中国电子科技集团公司第三十八研究所 | 地铁断面客流量统计和行人逆行检测方法及系统 |
CN112668432A (zh) * | 2020-12-22 | 2021-04-16 | 上海幻维数码创意科技股份有限公司 | 一种基于YoloV5和DeepSort的地面互动投影系统中人体检测跟踪方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114800873A (zh) * | 2022-04-28 | 2022-07-29 | 郑州三和水工机械有限公司 | 一种基于5g数据传输的混凝土搅拌站砂石料位ai智能检测方法及系统 |
CN114800873B (zh) * | 2022-04-28 | 2024-04-12 | 郑州三和水工机械有限公司 | 一种基于5g数据传输的混凝土搅拌站砂石料位ai智能检测方法及系统 |
CN116229381A (zh) * | 2023-05-11 | 2023-06-06 | 南昌工程学院 | 一种河湖采砂船船脸识别方法 |
CN116229381B (zh) * | 2023-05-11 | 2023-07-07 | 南昌工程学院 | 一种河湖采砂船船脸识别方法 |
CN116384950A (zh) * | 2023-06-06 | 2023-07-04 | 江西省水投江河信息技术有限公司 | 一种采砂船的采砂量估算方法、系统、计算机及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114332749B (zh) | 2024-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114332749B (zh) | 一种基于深度学习的采砂船采砂监控方法 | |
CN106682697B (zh) | 一种基于卷积神经网络的端到端物体检测方法 | |
Choi et al. | Real-time significant wave height estimation from raw ocean images based on 2D and 3D deep neural networks | |
Kim et al. | Vision-based nonintrusive context documentation for earthmoving productivity simulation | |
Rashid et al. | Window-warping: A time series data augmentation of IMU data for construction equipment activity identification | |
CN110807385A (zh) | 目标检测方法、装置、电子设备及存储介质 | |
EP3151160B1 (en) | Visual attention detector and visual attention detection method | |
CN107408303A (zh) | 用于对象跟踪的系统和方法 | |
US9911191B2 (en) | State estimation apparatus, state estimation method, and integrated circuit with calculation of likelihood data and estimation of posterior probability distribution data | |
CN101493943B (zh) | 一种粒子滤波跟踪方法和跟踪装置 | |
CN108133172A (zh) | 视频中运动对象分类的方法、车流量的分析方法及装置 | |
JP7222231B2 (ja) | 行動認識装置、行動認識方法及びプログラム | |
CN112036381B (zh) | 视觉跟踪方法、视频监控方法及终端设备 | |
US20220327676A1 (en) | Method and system for detecting change to structure by using drone | |
CN108537825B (zh) | 一种基于迁移学习回归网络的目标跟踪方法 | |
CN113688797A (zh) | 一种基于骨架提取的异常行为识别方法及系统 | |
Zeng et al. | The equipment detection and localization of large-scale construction jobsite by far-field construction surveillance video based on improving YOLOv3 and grey wolf optimizer improving extreme learning machine | |
Kim et al. | Sequential pattern learning of visual features and operation cycles for vision-based action recognition of earthmoving excavators | |
KR102187831B1 (ko) | Cctv를 이용한 혼잡도 판단 시스템의 제어 방법, 장치 및 프로그램 | |
CN106384359A (zh) | 运动目标跟踪方法和电视 | |
Mahamedi et al. | Automating excavator productivity measurement using deep learning | |
CN114169425A (zh) | 训练目标跟踪模型和目标跟踪的方法和装置 | |
CN116579616A (zh) | 一种基于深度学习的风险识别方法 | |
CN114694090A (zh) | 一种基于改进PBAS算法与YOLOv5的校园异常行为检测方法 | |
CN113450385B (zh) | 一种夜间工作工程机械视觉跟踪方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |