CN115761646A - 一种面向工业园区的行人跟踪方法、设备及存储介质 - Google Patents
一种面向工业园区的行人跟踪方法、设备及存储介质 Download PDFInfo
- Publication number
- CN115761646A CN115761646A CN202211555900.3A CN202211555900A CN115761646A CN 115761646 A CN115761646 A CN 115761646A CN 202211555900 A CN202211555900 A CN 202211555900A CN 115761646 A CN115761646 A CN 115761646A
- Authority
- CN
- China
- Prior art keywords
- feature map
- pedestrian
- frame
- feature
- industrial park
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种面向工业园区的行人跟踪方法,包括以下步骤S100、获取待检测的视频帧;S200、通过目标检测模块得到所述视频帧中的行人检测框信息;S300、通过目标跟踪模块对行人进行跟踪;S400、通过人流量统计模块对工业园区的行人进行计数。本发明提升了对非线性运动行人目标位置的预测和行人目标的匹配能力,提高了行人跟踪的检测效率和准确度,通过行人跟踪技术对工业园区的人员进行监控,并统计进出工业园区的人数,避免人群聚集,有效保障了工业园区的安全。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种面向工业园区的行人跟踪方法、设备及存储介质。
背景技术
随着现代科学技术的不断进步,生活服务、工业生产、安全监测等工作正在迈向无人化、智能化的时代,视频监控技术也迈入了全新的领域。特别是近些年,人们日益注重减少人与人之间的接触,追求无人化生产服务,这使得在工业园区进行人群活动的监测跟踪变得尤为重要。
面向工业园区的行人跟踪技术有着广阔的应用前景,许多学者也相继对其展开了研究,并涌现出了几个经典架构,较为流行的包括采用候选区分类的二阶段算法 RCNN系列、基于多尺度的 SSD系列以及基于回归预测的YOLO系列。但当前的算法普遍存在着对小目标检测率有限,容易受到行人目标运动状态遮挡以及尺度变化的影响,容易漏检误检,跟踪检测框准确率也比较低,且对于多目标检测的行人跟踪技术仍面临一定的挑战。因此,在保持实时性的前提下如何能够最大程度的解决这些问题成为了研究的重点。
发明内容
有鉴于此,本发明提供了一种面向工业园区的行人跟踪方法、设备及存储介质,目的在于,提高行人跟踪的检测效率和准确度,提升对非线性运动行人目标位置的预测和行人目标的匹配能力,在工业园区对人群进行高精度的实时跟踪,避免人群聚集,有效保障工业园区的安全。
为实现上述目的,本发明提供了一种面向工业园区的行人跟踪方法,包括以下步骤:
S100、获取待检测的视频帧;
S200、通过目标检测模块得到所述视频帧中的行人检测框信息;
S300、通过目标跟踪模块对行人进行跟踪;
S400、通过人流量统计模块对工业园区的行人进行计数。
进一步的,所述目标检测模块包括特征提取网络、特征融合和结果输出网络,所述特征提取网络经过四次下采样获取所述视频帧的卷积特征,具体步骤为:
S211、使用所述视频帧作为所述特征提取网络的输入,通过3×3的卷积层进行第一次下采样,再通过瓶颈结构进行特征提取,将提取到的特征图作为第一分支输出给所述特征融合和结果输出网络;
S212、使用所述步骤S211中提取的特征图作为输入,通过3×3的卷积层进行第二次下采样,再通过瓶颈结构进行特征提取,将提取到的特征图作为第二分支输出给所述特征融合和结果输出网络;
S213、使用所述步骤S212中提取的特征图作为输入,通过3×3的卷积层进行第三次下采样,再通过瓶颈结构进行特征提取,将提取到的特征图作为第三分支输出给所述特征融合和结果输出网络;
S214、使用所述步骤S213中提取的特征图作为输入,通过3×3的卷积层进行第四次下采样,再进行三次级联最大池化操作,对所述三次级联最大池化操作与所述第四次下采样输出的结果进行通道方向的拼接,并再通过1×1的卷积层进行特征提取,将提取到的特征图作为第四分支输出给所述特征融合和结果输出网络。
进一步的,所述步骤S200中搭建所述特征融合和结果输出网络包括上采样操作,具体为以下步骤:
S221、使用第四分支输出的特征图作为输入,通过1×1、3×3和1×1的卷积层操作后,进行第一次上采样,将所述第一次上采样的结果与所述第三分支输出的特征图进行通道方向上的拼接;
S222、使用所述步骤S221中拼接的特征图作为输入,通过1×1卷积层、瓶颈结构操作后,进行第二次上采样,将所述第二次上采样的结果与所述第二分支输出的特征图进行通道方向上的拼接;
S223、使用所述步骤S222中拼接的特征图作为输入,通过1×1卷积层、瓶颈结构操作后,进行第三次上采样,将所述第三次上采样的结果与所述第一分支输出的特征图进行通道方向上的拼接。
进一步的,所述步骤S200中搭建所述特征融合和结果输出网络还包括下采样操作,具体为以下步骤:
S231、使用所述步骤S223中拼接的特征图作为输入,通过逆投影注意力模块将所输入的特征图分为两路输出:一路分支通过1×1卷积层与所述步骤S223中的瓶颈结构操作后的特征图进行通道上的拼接;另一路分支通过1×1卷积层后输出特征层,用于预测大物体;
S232、使用所述步骤S231中拼接的特征图作为输入,通过逆投影注意力模块将所输入的特征图分为两路输出:一路分支通过1×1卷积层与所述步骤S222中的进行瓶颈结构操作后的特征图进行通道上的拼接;另一路分支通过1×1卷积层后输出特征层,用于预测中等物体;
S233、使用所述步骤S232中拼接的特征图作为输入,通过逆投影注意力模块将所输入的特征图分为两路输出:一路分支通过1×1卷积层与所述步骤S221中的的最后一个1×1卷积层操作后的特征图进行通道上的拼接;另一路分支通过1×1卷积层后输出特征层,用于预测小物体;
S234、使用所述步骤S233中拼接的特征图作为输入,通过逆投影注意力模块和1×1卷积层后输出特征层,用于预测小物体;
S235、通过所述步骤S231、S232、S233和S234输出的四个不同大小的特征层,完成对行人目标的检测,得到所述行人检测框信息。
进一步的,所述逆投影注意力模块的具体操作包括以下步骤:
S241、对输入的特征图分别进行最大池化和平均池化操作;
S242、对最大池化和平均池化后的结果分别进行重复叠加,保持重复叠加后的维度与输入的特征图的维度相同,得到特征图F最大池化和F平均池化;
在一种实施方式中,所述目标检测模块通过设置定位损失函数来减小不可观测的误差和预测变量的相关性和增加模型对噪声的鲁棒性,所述定位损失函数的具体计算公式为:
其中,β表示超参数,超参数通过实验所获得,A,B分别为锚框和检测框,为锚
框和检测框的交并比,即重叠面积的比例,为预测框和检测框的中心点的欧
式距离,A表示预测框的中心点,B表示检测框的中心点;为能够包含预测框和检测框
的最小闭包区域的对角线距离,为预测框和检测框的宽度的欧式距离,W
表示预测框的宽度,表示检测框的宽度,为能够包含预测框和检测框最小外接
框的宽度,为预测框和检测框的高度的欧式距离,H表示预测框的高度,表示检测框的高度,为能够包含预测框和检测框最小外接框的高度。
进一步的,所述目标跟踪模块的具体操作包括以下步骤:
S301、输入第K-1帧的行人检测框信息,通过扩展卡尔曼滤波得到第K帧的预测框;
S302、输入第K帧的行人检测框信息;
S303、计算步骤S301中预测框和步骤S302中检测框的余弦距离;
S304、计算步骤S301中预测框和步骤S302中检测框的马氏距离;
S305、将步骤S303和步骤S304的结果通过赋值不同的权值进行组合,为匹配阶段提供参数;
S306、使用匈牙利匹配算法进行匹配,判断是否匹配成功,若是,则直接输出跟踪结果,若否,进入下一步骤;
S307、根据CIOU匹配算法再次进行匹配,判断是否匹配成功,若是,则进行参数更新,并返回至步骤S306,若否,则删除再次没有成功匹配的轨迹,而对于没有完成匹配的检测结果则将其设置为新目标。
进一步的,所述人流量统计模块用于对进出工业园区的行人进行统计,当进工业园区的行人总数超过出工业园区的行人总数并达到一定值时,调用语音播报功能进行报警。
本发明还提供了一种面向工业园区的行人跟踪设备,包括视频输入接口、处理器、存储器,所述存储器用于存储一个或多个程序,所述处理器执行所述一个或多个程序时,实现上述面向工业园区的行人跟踪方法。
本发明还提供了一种计算机可读存储介质,其存储有至少一个程序,所述至少一个程序被处理器执行时,实现上述面向工业园区的行人跟踪方法。
与现有技术相比,本发明具有如下有益效果:
1、本发明通过目标检测模块得到行人检测框信息,再通过目标跟踪模块对行人目标位置进行预测与匹配,能够实现高精度的实时行人跟踪,最后通过人流量统计模块统计进出工业园区的人数,避免了人群聚集,有效保障了工业园区的安全。
2、本发明通过搭建四次下采样、三次级联最大池化操作的特征提取网络和三个阶段上采样、四个阶段下采样操作的特征融合和结果输出网络,使用多个小目标检测头和逆投影注意力模块,并在定位损失函数中引入β参数,提升了网络的小目标检测能力,获取了更多与目标有关的细节信息,减小了不可观测的误差和预测变量的相关性,增加了模型对噪声的鲁棒性。
3、本发明的在目标跟踪模块中通过扩展卡尔曼滤波得到预测框,并利用级联融合的方式对前后帧检测框进行关联,再融合匈牙利匹配算法和CIOU匹配算法,有效的提升了对非线性运动行人目标位置的预测和行人目标的匹配能力。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例的一种工业园区行人跟踪方法的流程图;
图2是根据本发明实施例的目标检测模块的网络结构图;
图3是根据本发明实施例的逆投影注意力模块的网络结构图;
图4是根据本发明实施例的目标跟踪模块的流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地说明,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明实施例提供了一种面向工业园区的行人跟踪方法,其特征在于,包括以下步骤:
S100、获取待检测的视频帧;
S200、通过目标检测模块得到视频帧中的行人检测框信息;
S300、通过目标跟踪模块对行人进行跟踪;
S400、通过人流量统计模块对工业园区的行人进行计数。
其中,获取待检测的视频帧是从摄像头实时拍摄的视频中获取视频帧。通过目标检测网络得到行人检测框信息,再通过目标跟踪模块对行人目标位置进行预测与匹配,能够实现高精度的实时行人跟踪。
在本发明一实施例中,如图2所示,目标检测模块包括特征提取网络、特征融合和结果输出网络,步骤S200具体包括包括搭建特征提取网络、搭建特征融合和结果输出网络的步骤。其中,搭建特征提取网络的过程中,特征提取网络经过四次下采样获取视频帧的卷积特征,具体步骤为:
S211、使用视频帧作为特征提取网络的输入,通过3×3的卷积层进行第一次下采样,再通过瓶颈结构进行特征提取,将提取到的特征图作为第一分支输出给特征融合和结果输出网络;
S212、使用步骤S211中提取的特征图作为输入,通过3×3的卷积层进行第二次下采样,再通过瓶颈结构进行特征提取,将提取到的特征图作为第二分支输出给特征融合和结果输出网络;
S213、使用步骤S212中提取的特征图作为输入,通过3×3的卷积层进行第三次下采样,再通过瓶颈结构进行特征提取,将提取到的特征图作为第三分支输出给特征融合和结果输出网络;
S214、使用步骤S213中提取的特征图作为输入,通过3×3的卷积层进行第四次下采样,再进行三次级联最大池化操作,对所述三次级联最大池化操作与所述第四次下采样输出的结果进行通道方向的拼接,并再通过1×1的卷积层进行特征提取,将提取到的特征图作为第四分支输出给特征融合和结果输出网络。
进一步的,每个瓶颈结构的具体操作均包括:将输入的特征图分为两路分支,一路分支通过1×1卷积层,另一路分支通过1×1、3×3和1×1的卷积层,然后将两路分支得到的特征层进行通道维度上的拼接,最后再通过1×1卷积层操作。每个卷积层均由多个网络层组成,且每个卷积层在卷积操作完成后都进行批量归一化操作,再送入SILU激活函数。
进一步的,步骤S200中搭建特征融合和结果输出网络包括上采样操作,具体为以下步骤:
S221、使用第四分支输出的特征图作为输入,通过1×1、3×3和1×1的卷积层操作后,进行第一次上采样,将第一次上采样的结果与第三分支输出的特征图进行通道方向上的拼接;
S222、使用步骤S221中拼接的特征图作为输入,通过1×1卷积层、瓶颈结构操作后,进行第二次上采样,将第二次上采样的结果与第二分支输出的特征图进行通道方向上的拼接;
S223、使用步骤S222中拼接的特征图作为输入,通过1×1卷积层、瓶颈结构操作后,进行第三次上采样,将第三次上采样的结果与第一分支输出的特征图进行通道方向上的拼接。
进一步的,步骤S200中搭建特征融合和结果输出网络还包括下采样操作,具体为以下步骤:
S231、使用步骤S223中拼接的特征图作为输入,通过逆投影注意力模块将所输入的特征图分为两路输出:一路分支通过1×1卷积层与步骤S223中的瓶颈结构操作后的特征图进行通道上的拼接;另一路分支通过1×1卷积层后输出特征层,用于预测大物体;
S232、使用步骤S231中拼接的特征图作为输入,通过逆投影注意力模块将所输入的特征图分为两路输出:一路分支通过1×1卷积层与步骤S222中的进行瓶颈结构操作后的特征图进行通道上的拼接;另一路分支通过1×1卷积层后输出特征层,用于预测中等物体;
S233、使用步骤S232中拼接的特征图作为输入,通过逆投影注意力模块将所输入的特征图分为两路输出:一路分支通过1×1卷积层与步骤S221中的的最后一个1×1卷积层操作后的特征图进行通道上的拼接;另一路分支通过1×1卷积层后输出特征层,用于预测小物体;
S234、使用步骤S233中拼接的特征图作为输入,通过逆投影注意力模块和1×1卷积层后输出特征层,用于预测小物体;
S235、通过步骤S231、S232、S233和S234输出的四个不同大小的特征层,完成对行人目标的检测,得到行人检测框信息。
进一步的,行人检测框信息为[x,y,u,h,x´,y´,u´,h´]的8维数据,x,y表示行人检测框的中心坐标,u表示宽高比,h表示高,x´,y´,u´,h´为它们对应的一阶导数。
在本发明一实施例中,如图3所示,逆投影注意力模块的具体操作包括以下步骤:
S241、对输入的特征图分别进行最大池化和平均池化操作;
S242、对最大池化和平均池化后的结果分别进行重复叠加,保持重复叠加后的维度与输入的特征图的维度相同,得到特征图F最大池化和F平均池化;
本发明逆投影注意力模块的使用,减少了无用信息的影响,使网络结构更关注所需要关注的信息。
在本发明一实施例中,目标检测模块设置有定位损失函数,定位损失函数的具体计算公式为:
其中,β表示超参数,超参数通过实验所获得,A,B分别为锚框和检测框,为锚
框和检测框的交并比,即重叠面积的比例,为预测框和检测框的中心点的欧
式距离,A表示预测框的中心点,B表示检测框的中心点;为能够包含预测框和检测框
的最小闭包区域的对角线距离,为预测框和检测框的宽度的欧式距离,W
表示预测框的宽度,表示检测框的宽度,为能够包含预测框和检测框最小外接
框的宽度,为预测框和检测框的高度的欧式距离,H表示预测框的高度,表示检测框的高度,为能够包含预测框和检测框最小外接框的高度。
本申请目标检测模块的定位损失函数引入β参数,可减小不可观测的误差和预测变量的相关性,增加模型对噪声的鲁棒性。
在本发明一实施例中,如图4所示,目标跟踪模块的具体操作包括以下步骤:
S301、输入第K-1帧的行人检测框信息,通过扩展卡尔曼滤波得到第K帧的预测框;
S302、输入第K帧的行人检测框信息;
S303、计算步骤S301中预测框和步骤S302中检测框的余弦距离;
S304、计算步骤S301中预测框和步骤S302中检测框的马氏距离;
S305、将步骤S303和步骤S304的结果通过赋值不同的权值进行组合,为匹配阶段提供参数;
S306、使用匈牙利匹配算法进行匹配,判断是否匹配成功,若是,则直接输出跟踪结果,若否,进入下一步骤;
S307、根据CIOU匹配算法再次进行匹配,判断是否匹配成功,若是,则进行参数更新,并返回至步骤S306,若否,则删除再次没有成功匹配的轨迹,而对于没有完成匹配的检测结果则将其设置为新目标。
在本发明一实施例中,步骤S400中通过人流量统计模块对工业园区的行人进行计数具体是指,人流量统计模块对进出工业园区的行人进行统计,当进工业园区的行人总数超过出工业园区的行人总数并达到一定值时,调用语音播报功能进行报警。
进一步的,人流量统计模块采用拌线计数的方式进行人流量统计,预先在工业园区门口设定一条计数线,然后通过行人起始位置与计数线的相对位置关系, 判断行人运动方向为进工业园区还是出工业园区,若为进工业园区,则在进工业园区的总数上进行计数,若为出工业园区,则在出工业园区的总数上进行计数。
本发明通过人流量统计模块统计进出工业园区的人数,避免人群聚集,有效保障了工业园区的安全。
本发明实施例还提供了一种面向工业园区的行人跟踪系统,包括:
信息采集模块,用于获取待检测的视频帧;
目标检测模块,用于获取视频帧中的行人检测框信息;
目标跟踪模块,用于对行人进行跟踪;
人流量统计模块,用于对工业园区的行人进行计数。
进一步的,目标检测模块包括特征提取网络、特征融合和结果输出网络。
进一步的,目标检测模块还包括逆投影注意力模块。
本发明实施例还提供了一种面向工业园区的行人跟踪设备,包括视频输入接口、处理器、存储器,存储器用于存储一个或多个程序,处理器执行一个或多个程序时,实现上述面向工业园区的行人跟踪方法。
本发明实施例还提供了一种计算机可读存储介质,其存储有至少一个程序,至少一个程序被处理器执行时,实现上述面向工业园区的行人跟踪方法。
值得注意的是,上述系统实施例中,所包括的各个单元只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
前述对本发明的具体示例性实施方案的描述是为了说明和例证的目的。这些描述并非想将本发明限定为所公开的精确形式,并且很显然,根据上述教导,可以进行很多改变和变化。对示例性实施例进行选择和描述的目的在于解释本发明的特定原理及其实际应用,从而使得本领域的技术人员能够实现并利用本发明的各种不同的示例性实施方案以及各种不同的选择和改变。本发明的范围意在由权利要求书及其等同形式所限定。
Claims (10)
1.一种面向工业园区的行人跟踪方法,其特征在于,包括以下步骤:
S100、获取待检测的视频帧;
S200、通过目标检测模块得到所述视频帧中的行人检测框信息;
S300、通过目标跟踪模块对行人进行跟踪;
S400、通过人流量统计模块对工业园区的行人进行计数。
2.根据权利要求1所述的一种面向工业园区的行人跟踪方法,其特征在于,所述目标检测模块包括特征提取网络、特征融合和结果输出网络,所述特征提取网络经过四次下采样获取所述视频帧的卷积特征,具体步骤为:
S211、使用所述视频帧作为所述特征提取网络的输入,通过3×3的卷积层进行第一次下采样,再通过瓶颈结构进行特征提取,将提取到的特征图作为第一分支输出给所述特征融合和结果输出网络;
S212、使用所述步骤S211中提取的特征图作为输入,通过3×3的卷积层进行第二次下采样,再通过瓶颈结构进行特征提取,将提取到的特征图作为第二分支输出给所述特征融合和结果输出网络;
S213、使用所述步骤S212中提取的特征图作为输入,通过3×3的卷积层进行第三次下采样,再通过瓶颈结构进行特征提取,将提取到的特征图作为第三分支输出给所述特征融合和结果输出网络;
S214、使用所述步骤S213中提取的特征图作为输入,通过3×3的卷积层进行第四次下采样,再进行三次级联最大池化操作,对所述三次级联最大池化操作与所述第四次下采样输出的结果进行通道方向的拼接,并再通过1×1的卷积层进行特征提取,将提取到的特征图作为第四分支输出给所述特征融合和结果输出网络。
3.根据权利要求2所述的一种面向工业园区的行人跟踪方法,其特征在于,所述步骤S200中搭建所述特征融合和结果输出网络包括上采样操作,具体为以下步骤:
S221、使用第四分支输出的特征图作为输入,通过1×1、3×3和1×1的卷积层操作后,进行第一次上采样,将所述第一次上采样的结果与所述第三分支输出的特征图进行通道方向上的拼接;
S222、使用所述步骤S221中拼接的特征图作为输入,通过1×1卷积层、瓶颈结构操作后,进行第二次上采样,将所述第二次上采样的结果与所述第二分支输出的特征图进行通道方向上的拼接;
S223、使用所述步骤S222中拼接的特征图作为输入,通过1×1卷积层、瓶颈结构操作后,进行第三次上采样,将所述第三次上采样的结果与所述第一分支输出的特征图进行通道方向上的拼接。
4.根据权利要求3所述的一种面向工业园区的行人跟踪方法,其特征在于,所述步骤S200中搭建所述特征融合和结果输出网络还包括下采样操作,具体为以下步骤:
S231、使用所述步骤S223中拼接的特征图作为输入,通过逆投影注意力模块将所输入的特征图分为两路输出:一路分支通过1×1卷积层与所述步骤S223中的瓶颈结构操作后的特征图进行通道上的拼接;另一路分支通过1×1卷积层后输出特征层,用于预测大物体;
S232、使用所述步骤S231中拼接的特征图作为输入,通过逆投影注意力模块将所输入的特征图分为两路输出:一路分支通过1×1卷积层与所述步骤S222中的进行瓶颈结构操作后的特征图进行通道上的拼接;另一路分支通过1×1卷积层后输出特征层,用于预测中等物体;
S233、使用所述步骤S232中拼接的特征图作为输入,通过逆投影注意力模块将所输入的特征图分为两路输出:一路分支通过1×1卷积层与所述步骤S221中的的最后一个1×1卷积层操作后的特征图进行通道上的拼接;另一路分支通过1×1卷积层后输出特征层,用于预测小物体;
S234、使用所述步骤S233中拼接的特征图作为输入,通过逆投影注意力模块和1×1卷积层后输出特征层,用于预测小物体;
S235、通过所述步骤S231、S232、S233和S234输出的四个不同大小的特征层,完成对行人目标的检测,得到所述行人检测框信息。
5.根据权利要求4所述的一种面向工业园区的行人跟踪方法,其特征在于,所述逆投影注意力模块的具体操作包括以下步骤:
S241、对输入的特征图分别进行最大池化和平均池化操作;
S242、对最大池化和平均池化后的结果分别进行重复叠加,保持重复叠加后的维度与输入的特征图的维度相同,得到特征图F最大池化和F平均池化;
S243、将输入的特征图分别与特征图F最大池化和特征图F平均池化进行特征相减,得到特征图F'最大池化和特征图F'平均池化;
S244、将特征图F'最大池化和特征图F'平均池化进行特征相加,得到输出特征图。
6.根据权利要求1所述的一种面向工业园区的行人跟踪方法,其特征在于,所述目标检测模块通过设置定位损失函数来减小不可观测的误差和预测变量的相关性和增加模型对噪声的鲁棒性,所述定位损失函数的具体计算公式为:
7.根据权利要求1所述的一种面向工业园区的行人跟踪方法,其特征在于,所述目标跟踪模块的具体操作包括以下步骤:
S301、输入第K-1帧的行人检测框信息,通过扩展卡尔曼滤波得到第K帧的预测框;
S302、输入第K帧的行人检测框信息;
S303、计算步骤S301中预测框和步骤S302中检测框的余弦距离;
S304、计算步骤S301中预测框和步骤S302中检测框的马氏距离;
S305、将步骤S303和步骤S304的结果通过赋值不同的权值进行组合,为匹配阶段提供参数;
S306、使用匈牙利匹配算法进行匹配,判断是否匹配成功,若是,则直接输出跟踪结果,若否,进入下一步骤;
S307、根据CIOU匹配算法再次进行匹配,判断是否匹配成功,若是,则进行参数更新,并返回至步骤S306,若否,则删除再次没有成功匹配的轨迹,而对于没有完成匹配的检测结果则将其设置为新目标。
8.根据权利要求1所述的一种面向工业园区的行人跟踪方法,其特征在于,所述人流量统计模块用于对进出工业园区的行人进行统计,当进工业园区的行人总数超过出工业园区的行人总数并达到一定值时,调用语音播报功能进行报警。
9.一种面向工业园区的行人跟踪设备,包括视频输入接口、处理器、存储器,所述存储器用于存储一个或多个程序,其特征在于:所述处理器执行所述一个或多个程序时,实现如权利要求1-8中任一项所述的面向工业园区的行人跟踪方法。
10.一种计算机可读存储介质,其存储有至少一个程序,其特征在于,所述至少一个程序被处理器执行时,实现如权利要求1-8中任一项所述的面向工业园区的行人跟踪方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211555900.3A CN115761646B (zh) | 2022-12-06 | 2022-12-06 | 一种面向工业园区的行人跟踪方法、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211555900.3A CN115761646B (zh) | 2022-12-06 | 2022-12-06 | 一种面向工业园区的行人跟踪方法、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115761646A true CN115761646A (zh) | 2023-03-07 |
CN115761646B CN115761646B (zh) | 2023-08-01 |
Family
ID=85344558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211555900.3A Active CN115761646B (zh) | 2022-12-06 | 2022-12-06 | 一种面向工业园区的行人跟踪方法、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115761646B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116883980A (zh) * | 2023-09-04 | 2023-10-13 | 国网湖北省电力有限公司超高压公司 | 一种紫外光绝缘子目标检测方法及系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111460926A (zh) * | 2020-03-16 | 2020-07-28 | 华中科技大学 | 一种融合多目标跟踪线索的视频行人检测方法 |
CN113971801A (zh) * | 2021-10-27 | 2022-01-25 | 南京师范大学 | 一种基于四类多模态数据融合的目标多维度检测方法 |
CN114724082A (zh) * | 2022-04-08 | 2022-07-08 | 河海大学 | 一种基于改进的YOLOv5和DeepSORT的行人追踪方法 |
WO2022154457A1 (en) * | 2021-01-12 | 2022-07-21 | Samsung Electronics Co., Ltd. | Action localization method, device, electronic equipment, and computer-readable storage medium |
CN114820702A (zh) * | 2022-04-14 | 2022-07-29 | 大连理工大学 | 一种基于yolov5的Deepsort无人机视角行人多目标跟踪方法 |
CN114898403A (zh) * | 2022-05-16 | 2022-08-12 | 北京联合大学 | 一种基于Attention-JDE网络的行人多目标跟踪方法 |
CN114998780A (zh) * | 2022-05-07 | 2022-09-02 | 南昌航空大学 | 基于时空交互注意力机制的行人多目标跟踪计算方法 |
CN115131821A (zh) * | 2022-06-29 | 2022-09-30 | 大连理工大学 | 一种基于改进YOLOv5+DeepSort的校园人员穿越警戒线检测方法 |
CN115205339A (zh) * | 2022-08-11 | 2022-10-18 | 湖南工程学院 | 基于改进yolox的移动机器人目标跟随方法 |
-
2022
- 2022-12-06 CN CN202211555900.3A patent/CN115761646B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111460926A (zh) * | 2020-03-16 | 2020-07-28 | 华中科技大学 | 一种融合多目标跟踪线索的视频行人检测方法 |
WO2022154457A1 (en) * | 2021-01-12 | 2022-07-21 | Samsung Electronics Co., Ltd. | Action localization method, device, electronic equipment, and computer-readable storage medium |
CN113971801A (zh) * | 2021-10-27 | 2022-01-25 | 南京师范大学 | 一种基于四类多模态数据融合的目标多维度检测方法 |
CN114724082A (zh) * | 2022-04-08 | 2022-07-08 | 河海大学 | 一种基于改进的YOLOv5和DeepSORT的行人追踪方法 |
CN114820702A (zh) * | 2022-04-14 | 2022-07-29 | 大连理工大学 | 一种基于yolov5的Deepsort无人机视角行人多目标跟踪方法 |
CN114998780A (zh) * | 2022-05-07 | 2022-09-02 | 南昌航空大学 | 基于时空交互注意力机制的行人多目标跟踪计算方法 |
CN114898403A (zh) * | 2022-05-16 | 2022-08-12 | 北京联合大学 | 一种基于Attention-JDE网络的行人多目标跟踪方法 |
CN115131821A (zh) * | 2022-06-29 | 2022-09-30 | 大连理工大学 | 一种基于改进YOLOv5+DeepSort的校园人员穿越警戒线检测方法 |
CN115205339A (zh) * | 2022-08-11 | 2022-10-18 | 湖南工程学院 | 基于改进yolox的移动机器人目标跟随方法 |
Non-Patent Citations (2)
Title |
---|
快速实现AI想法: ""α-IoU Loss:造就IoU Loss家族的大一统"", pages 1 - 6, Retrieved from the Internet <URL:https://zhuanlan.zhihu.com/p/452207890> * |
码农的后花园: ""目标检测中的预测框回归优化之IOU、GIOU、DIOU、CIOU和EIOU"", pages 297 - 9, Retrieved from the Internet <URL:https://blog.csdn.net/weixin_45192980/article/details/123540586> * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116883980A (zh) * | 2023-09-04 | 2023-10-13 | 国网湖北省电力有限公司超高压公司 | 一种紫外光绝缘子目标检测方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN115761646B (zh) | 2023-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | Pointlanenet: Efficient end-to-end cnns for accurate real-time lane detection | |
US20200293797A1 (en) | Lane line-based intelligent driving control method and apparatus, and electronic device | |
CN101325691B (zh) | 融合不同生存期的多个观测模型的跟踪方法和跟踪装置 | |
CN109543641B (zh) | 一种实时视频的多目标去重方法、终端设备及存储介质 | |
CN111554105B (zh) | 一种复杂交通路口的智能流量识别与统计方法 | |
Yu et al. | Remotenet: Efficient relevant motion event detection for large-scale home surveillance videos | |
CN111047078B (zh) | 交通特征预测方法、系统及存储介质 | |
CN115761646A (zh) | 一种面向工业园区的行人跟踪方法、设备及存储介质 | |
CN113850136A (zh) | 基于yolov5与BCNN的车辆朝向识别方法及系统 | |
CN115423735A (zh) | 一种客流量统计方法及系统 | |
Iyer et al. | Adaptive real time traffic prediction using deep neural networks | |
Li et al. | Time-spatial multiscale net for vehicle counting and traffic volume estimation | |
Mao et al. | Aic2018 report: Traffic surveillance research | |
CN111401143A (zh) | 一种行人跟踪系统及方法 | |
KR102628598B1 (ko) | 그래프 합성곱 신경망을 이용한 다중 객체 추적 장치 및 방법 | |
CN112700472A (zh) | 目标跟踪方法及相关设备 | |
Du et al. | Particle filter based object tracking of 3D sparse point clouds for autopilot | |
Feng et al. | A multibranch object detection method for traffic scenes | |
Yin et al. | A memory-attention hierarchical model for driving-behavior recognition and motion prediction | |
CN115690732A (zh) | 一种基于细粒度特征提取的多目标行人跟踪方法 | |
Jawed et al. | Data-driven vehicle trajectory forecasting | |
Xue et al. | ST-tracking: spatial-temporal graph convolution neural network for multi-object tracking | |
Guipeng et al. | A Correlation Particle Filter Target Tracking Algorithm Based on Adaptive Feature Fusion | |
Zhang et al. | Multi-scale vehicle detection and tracking method in highway scene | |
Ngeni et al. | Solving traffic data occlusion problems in computer vision algorithms using DeepSORT and quantum computing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |