CN112985439A - 一种基于YOLOv3与卡尔曼滤波的行人堵塞状态预测方法 - Google Patents
一种基于YOLOv3与卡尔曼滤波的行人堵塞状态预测方法 Download PDFInfo
- Publication number
- CN112985439A CN112985439A CN202110170040.0A CN202110170040A CN112985439A CN 112985439 A CN112985439 A CN 112985439A CN 202110170040 A CN202110170040 A CN 202110170040A CN 112985439 A CN112985439 A CN 112985439A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- track
- state
- yolov3
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3453—Special cost functions, i.e. other than distance or default speed limit of road segments
- G01C21/3492—Special cost functions, i.e. other than distance or default speed limit of road segments employing speed data or traffic data, e.g. real-time or historical
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于YOLOv3与卡尔曼滤波的行人堵塞状态预测方法,该方法令原始视频通过YOLOv3网络得到当前时刻下图像内行人轨迹后进行格式转换,经卡尔曼滤波器得到坐标系行人轨迹估计,进而得到行人轨迹直线方程;同时根据冲突点判定模型进行各种行人状态的检测与潜在冲突点真伪的判断,输出最终预测结果。该方法能够准确地预测出行人间即将出现的堵塞状态,且能对行人的各种行进状态做出准确的判断,能够为无人驾驶汽车与无人配送机器人的行进路径规划提供依据。
Description
技术领域
本发明属于无人驾驶技术领域,涉及行人的跟踪与轨迹预测技术,具体为一种基于YOLOv3与卡尔曼滤波的行人堵塞状态预测方法。
背景技术
随着无人驾驶技术的快速发展,各类智能车开始向安全系数更高、应变程度更高的方向发展,车辆路径规划作为无人驾驶领域的关键技术之一,也面临着更加严格的测试标准。行人在各种开放式交通情景中容易出现互相堵塞的情况,提高交通区域内智能汽车路径规划的速度和准确度成为无人驾驶领域的研究热点。行人的行进轨迹具有较强的不确定性和时间滞后性,使得传统路径规划的判断依据具有一定的局限性。
传统的轨迹预测方法通常以人-人间的距离作为生成规避动作的判定条件,缺少对静态目标与并行目标的检测,误判率高,同时难以满足动态目标运动状态变化程度高的场景,且都仅针对人车的轨迹点进行预测,无法实现对于人流密集区域内即将出现的交通堵塞点的预测。
CN202010150096.5公开了一种基于轨迹预测的道路移动目标检测方法,使用改进后的YOLOv3-Tiny网络来进行车载视频的车辆行人检测任务,使用卡尔曼滤波跟踪算法进行检测框的位置预测,再通过匈牙利算法数据关联策略将检测算法和跟踪算法相结合,能够很好的利用车辆与行人帧与帧之间运动的连续性,从而降低目标的漏检率。CN201911165287.2公开了一种基于视频的多目标行人检测与跟踪的方法,利用YOLO3目标检测算法,通过构建不同场景下的视频图像并训练检测模型,以克服光照变化和视角变化的影响保证高效的检测多目标行人;采用基于卡尔曼滤波算法和匈牙利算法有效的追踪多目标行人,且避免了多目标检测常有目标重复检测的问题,从而实现以Deep-SORT算法为核心的多目标行人跟踪方法。
CN201811400758.9提供一种基于深度学习和多目标跟踪的行人流量统计方法,主要包括以下步骤:S1:拍摄行人监控视频并读取视频中的图像;S2:设定图像的有效区域及流量计数;S3:构建基于深度学习的行人检测模型并对其进行训练;S4:进行当前行人检测,得到当前行人框的坐标及图像块;S5:利用基于深度学习的多目标跟踪算法对当前行人进行跟踪,并产生当前行人的坐标;S6:生成当前行人的移动轨迹;S7:判断当前行人是否离开有效区域;若是则进入步骤S8,若否则进入步骤S4;S8:选取噪声阈值并进行噪声判断;S9:删除当前行人在连续视频帧中的坐标。本发明可在实际使用场景中提供实施精确的流量统计结果。
CN201910218195.X提供了一种基于检测的在线多行人跟踪算法研究,采用了基于深度学习的目标检测网络YOLOv3作为检测器,利用深度学习网络来提取行人特征和卡尔曼滤波预测行人运动位置信息,提出了基于检测置信度、表观相似度与运动相似度的联合度量方式来度量检测与跟踪之间的相关性,提出了一种自适应调整表观相似度与运动相似度权重因子的算法,最后采用KM匹配算法和IOU匹配算法实现检测行人的实时匹配。
发明内容
针对传统行人轨迹预测方法无法提前预测出人流密集区域内即将出现的堵塞状态的问题,本发明提供一种基于YOLOv3与卡尔曼滤波的行人堵塞状态预测方法,以解决上述问题,为无人驾驶汽车的路径规划提供一种新的判断依据。
本发明为解决上述技术问题采用以下技术方案:
本发明提供一种基于YOLOv3与卡尔曼滤波的行人堵塞状态预测方法,具体步骤如下:
A,获取交通区域内的行人原始视频数据;
B,将输入视频帧的规格裁剪为统一格式,将处理后的视频数据送入YOLOv3网络;
C,对输出的bounding box数据进行解码,得到当前时刻下行人的轨迹信息;
D,为了方便在视频帧中绘制检测框,将YOLOv3行人检测器最终输出的行人检测框数据进行转换;
E,绘制完检测框后将行人轨迹数据格式转换为检测框中心点x坐标cx、y坐标cy、高宽比r、高度bh,并将其各自的变化速度分别设置为vx、vy、vr、vh(初始值为0);把以上数据作为卡尔曼滤波器状态矩阵的输入;
F,卡尔曼滤波器的工作过程如下:
F1,将上一时刻的状态向量M(t-1)(t>=2)送入系统状态方程中,得到当前时刻下的状态估计向量M(t,t-1),同时计算出此过程所产生的协方差矩阵F(t,t-1);
F2,计算当前时刻下的状态估计向量M(t,t-1)的观向量Z(t,t-1)及协方差矩阵F(t,t-1)的观测矩阵S(t,t-1);
F3,计算当前时刻下的卡尔曼滤波增益K(t,t-1);
F4,根据当前时刻下的观测向量Z(t)来校正M(t,t-1),并得到当前时刻下的最优估计向量M(t);
F5,通过状态转移矩阵T(t)与当前时刻下的最优估计向量M(t)计算出下一时刻的预测向量M(t+1,t);
F6,在上述F1-F5的算法执行过程中,将第F5步迭代n次可得到由当前帧与上一帧的行人轨迹数据所预测的第n帧的行人轨迹数据,n的取值应与拍摄器材所对应的FPS相适应;
G,取当前帧的轨迹坐标与第n帧的轨迹坐标可求得单个行人的轨迹直线方程;
H,预测过程之前对运算成本进行优化;
I,将堵塞状态的检测分为3种情况进行处理;
作为本发明的进一步优化方案,预测过程之前对运算成本进行优化,具体步骤如下:
H1,当行人目标的移动速度过小时,会使得状态向量M(t)中的vx、vy、vr、vh的数值过低,从而导致迭代n次所得的行人轨迹终点与起始点间的长度远小于正常移动速度下的轨迹长度,设行人轨迹长度为d,则当d小于最小阈值dmin时判定静止,静止的目标不参与后续的排列组合运算;
H2,当视频帧内检测到的行人个数n大于等于2时,对其数据进行两两排列组合为h;
H3,设排列组合的结果所构成的集合为H,在每组组合中h内,设行人1的起始点坐标为(ax1,ay1),预测终点坐标为(bx1,by1),行人2的起始点坐标为(ax2,ay2),预测终点坐标为(bx2,by2);
H4,设直线1的斜率为k1,截距为b1,直线2的斜率为k2,截距为b2,求得每个组合中两直线的交点(x1,y1);
H5,交点到行人1起始点的距离d1为:
依次可求得所需的其他距离信息;
H6,作为本发明的进一步优化方案,在冲突点判定前先进行并行状态检测,具体过程如下:对任一组合h中行人1起始点到行人2起始点的距离d5取3帧内的数据,设为U:
U={b5(n-2) b5(n-1) b5(n)}(n>=3)
用方差来描述3帧内行人间距离的变化幅度:
当方差S2小于最小阈值Smin 2,即3帧内行人间的距离在一个固定区间内浮动时,判定为并行,此时不再对组合h进行堵塞状态检测;
H7,为排除行人轨迹直线延长线的干扰,在进行堵塞状态检测前先设置判定的前提条件;
作为本发明的进一步优化方案,步骤I中,将堵塞状态的检测分为3种情况进行处理,具体步骤如下:
I1,每组h内两条轨迹直线的交点同时在行人1与行人2的轨迹线段内,此时选取交点到起始点间的距离占轨迹线段长度的比例较小的行人轨迹作为参考系,当两条轨迹直线的交点到各自起始点间的距离占各自轨迹线段长度的比例不同时:
式中Lx为tx时刻下每组内行人1与行人2之间的距离;设dx3为判定阈值,当Lx<=dx3时将交点判定为社交冲突点;
I2,每组内两条轨迹直线的交点在行人1或行人2的轨迹线段内,此时同样选取交点到起始点间的距离占轨迹线段长度的比例较小的行人轨迹作为参考系,tx时刻下每组内行人1与行人2之间的距离Lx的求解方法与情况(1)相同,当Lx<=dx3时判定为冲突点;
I3,每组内两条轨迹直线的交点不在行人1与行人2的轨迹线段内时,重新设置判定条件。
本发明采用以上技术方案与现有技术相比:
1.提出了3种对行人的行进状态进行检测的方法,可实现对静态、并行、堵塞3种状态的检测;
2.通过在预测过程之前对运算成本进行优化,即设置对行人各种行进状态的检测顺序,能够筛选掉大量不具备构成堵塞条件的行人轨迹数据,使得预测速度得到极大提升;
3.补充了传统模型类与深度学习类行人轨迹预测技术未对人-人间潜在的堵塞状态进行预测的空缺,并分3种情况对堵塞状态进行真伪判断,保证了所提方案预测的准确性;
4.能够准确地预测出行人间即将出现的堵塞状态,且能对行人的各种行进状态做出准确的判断,能够为无人驾驶汽车与无人配送机器人的行进路径规划提供依据。
附图说明
图1是本发明方法实现的流程图;
图2是静态检测实际效果图;
图3是行人轨迹数据的对应位置;
图4是无效交点示意图;
图5是情况I1原理图与实际效果图,其中(a)为原理图,(b)为实际效果图;
图6是行人相遇时的几种常见情形;
图7是情况I2原理图与实际效果图,其中(a)为原理图,(b)为实际效果图;
图8是情况I3原理图与实际效果图,其中(a)为原理图,(b)为实际效果图。
具体实施方式
下面结合附图对本发明的具体实施方式作进一步详细说明:
实施例1
本实施例提供了一种基于YOLOv3与卡尔曼滤波的行人堵塞状态预测方法,实施步骤如图1所示,具体如下:
步骤1,通过固定摄像头按俯拍视角读取交通区域内的行人原始视频数据,视频的像素规格为4096*2160,帧率为每秒30帧;
步骤2,将输入视频帧的像素规格转换为416*416,将处理后的视频数据送入YOLOv3网络;
步骤3,对输出的bounding box数据进行解码,得到当前时刻下行人的轨迹信息;
步骤4,将YOLOv3行人检测器最终输出的行人检测框数据转换为:ax(检测框左上角x坐标)、ay(检测框左上角y坐标)、检测框的宽高bw、bh;
步骤5,将行人轨迹数据格式转换为检测框中心点x坐标cx、y坐标cy、高宽比r、高度bh,并将其各自的变化速度分别设置为vx、vy、vr、vh(初始值为0)。把以上数据作为卡尔曼滤波器状态矩阵的输入,本实施例中输入向量的规格为1*8:
M=[cx cy r bh vx vy vr vh]
步骤6,设置卡尔曼滤波过程中关键矩阵的规格,并执行该过程;
计算当前时刻下的状态估计向量M(t,t-1),同时计算出此过程所产生的协方差矩阵F(t,t-1),本实施例中,T(t)为8*8维的状态转移矩阵,用来反映状态向量的变化趋势:
M(t,t-1)=T(t)M(t-1)
F(t,t-1)=T(t)F(t-1)TT(t)
计算当前时刻下的状态估计向量M(t,t-1)的观向量Z(t,t-1)及协方差矩阵F(t,t-1)的观测矩阵S(t,t-1),本实施例中G(t)为4*8维的观测矩阵,用以从状态向量与协方差矩阵中提取观测值:
Z(t,t-1)=G(t)M(t,t-1)
S(t,t-1)=G(t)F(t,t-1)GT(t)
计算当前时刻下的卡尔曼滤波增益K(t,t-1):
K(t,t-1)=F(t,t-1)GT(t)S-1(t,t-1)
根据当前时刻下的观测向量Z(t)来校正M(t,t-1),并得到当前时刻下的最优估计向量M(t):
C(t)=Z(t)-Z(t,t-1)
M(t)=M(t,t-1)+K(t,t-1)C(t)
通过状态转移矩阵T(t)与当前时刻下的最优估计向量M(t)计算出下一时刻的预测向量M(t+1,t):
M(t+1,t)=T(t)M(t)
本实施例中将第5步迭代25次得到由当前帧与上一帧的行人轨迹数据所预测的第25帧的行人轨迹数据;
步骤7,本实施例中取当前帧的轨迹坐标与预测的第25帧的轨迹坐标可求得单个行人的轨迹直线方程:
k=(cy(24)-cy(0))/(cx(24)-cx(0))
y=kx+b
b=cy(0)-kcx(0)
步骤8,在预测过程之前对运算成本进行优化:
本实施例中如图2所示,行人轨迹长度d小于最小阈值dmin时判定静止,静止的目标不参与后续的排列组合运算,其中dmin设置为bounding box对角线长度的1/8;
当视频帧内检测到的行人个数n大于等于2时,对其数据进行两两排列组合;
本实施例中将排列组合的结果所构成的矩阵的规格设置为2*8:
由排列组合矩阵所提供的轨迹数据计算每个组合中两直线的交点(x1,y1):
x1=(b2-b1)/(k1-k2)
y1=k1x1+b1
计算交点到行人1起始点的距离d1:
本实施例中如图3所示,依次可求得交点到行人1终点的距离d2;交点到行人2起始点的距离d3;交点到行人2终点的距离d4;以及行人1起始点到行人2起始点的距离d5;行人1终点到行人2终点的距离d6;行人1的轨迹长度d7;行人2的轨迹长度d8;
本实施例中对任一组合h中行人1起始点到行人2起始点的距离d5取3帧内的数据,计算3帧内行人间距离的方差:
当方差S2小于最小阈值Smin 2时,判定为并行,不再对组合h进行堵塞状态判断;
步骤9,将堵塞状态的判断分为以下3种情况进行处理:
本实施例中如图5所示,选取点Pc到点P1的轨迹线段作为参考系,若选取选取点Pc到点P3的轨迹线段作为参考系,会导致所求的tx时刻下的轨迹点的位置超过交点Pc,到达点B,从而错过冲突点产生前的场景,无法进行判定阈值的设定等后续操作;当两条轨迹直线的交点到各自起始点间的距离占各自轨迹线段长度的比例不同时,计算每组内行人1与行人2之间的距离Lx:
行人相遇时的几种常见情况如图6所示,因为dx3>dx1>dx2,所以dx3的判定宽容度最高,本实施例中将其作为轨迹冲突点的判定阈值,当Lx<=dx3时将交点判定为交通堵塞点;
如图7所示情况中,本实施例中选取点Pc到点P1的轨迹线段作为参考系,Lx的计算方法与情况1相同,当Lx<=dx3时判定为交通堵塞点;
如图7所示情况中,本实施例重新设置判定条件:
前两个限制条件是为了排除图8(a)中点Pc2所示的无效交点,满足判定条件的交点为交通堵塞点;
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内,因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (8)
1.一种基于YOLOv3与卡尔曼滤波的行人堵塞状态预测方法,其特征在于,具体步骤如下:
A,获取交通区域内的行人原始视频数据;
B,将输入视频帧的规格裁剪为统一格式,将处理后的视频数据送入YOLOv3网络;
C,对输出的bounding box数据进行解码,得到当前时刻下行人的轨迹信息;
D,为方便在视频帧中绘制检测框,将YOLOv3行人检测器最终输出的行人检测框数据进行转换;
E,绘制完检测框后将行人轨迹数据格式转换为检测框中心点x坐标cx、y坐标cy、高宽比r、高度bh,并将其各自的变化速度分别设置为vx、vy、vr、vh(初始值为0),把以上数据作为卡尔曼滤波器状态矩阵的输入;
F,卡尔曼滤波器的工作过程如下:
F1,将上一时刻的状态向量M(t-1)(t>=2)送入系统状态方程中,得到当前时刻下的状态估计向量M(t,t-1),同时计算出此过程所产生的协方差矩阵F(t,t-1);
F2,计算当前时刻下的状态估计向量M(t,t-1)的观向量Z(t,t-1)及协方差矩阵F(t,t-1)的观测矩阵S(t,t-1);
F3,计算当前时刻下的卡尔曼滤波增益K(t,t-1);
F4,根据当前时刻下的观测向量Z(t)来校正M(t,t-1),并得到当前时刻下的最优估计向量M(t);
F5,通过状态转移矩阵T(t)与当前时刻下的最优估计向量M(t)计算出下一时刻的预测向量M(t+1,t);
F6,在上述F1-F5的算法执行过程中,将第F5步迭代n次可得到由当前帧与上一帧的行人轨迹数据所预测的第n帧的行人轨迹数据,n的取值应与拍摄器材所对应的FPS相适应;
G,取当前帧的轨迹坐标与第n帧的轨迹坐标可求得单个行人的轨迹直线方程;
H,预测过程之前对运算成本进行优化;
I,将堵塞状态的检测分为3种情况进行处理。
2.根据权利要求1所述的基于YOLOv3与卡尔曼滤波的行人堵塞状态预测方法,其特征在于,步骤H中,预测过程之前对运算成本进行优化,具体步骤如下:
H1,当行人目标的移动速度过小时,会使得状态向量M(t)中的vx、vy、vr、vh的数值过低,从而导致迭代n次所得的行人轨迹终点与起始点间的长度远小于正常移动速度下的轨迹长度,设行人轨迹长度为d,则当d小于最小阈值dmin时判定静止,静止的目标不参与后续的排列组合运算;
H2,当视频帧内检测到的行人个数n大于等于2时,对其数据进行两两排列组合为h;
H3,设排列组合的结果所构成的集合为H,在每组组合中h内,设行人1的起始点坐标为(ax1,ay1),预测终点坐标为(bx1,by1),行人2的起始点坐标为(ax2,ay2),预测终点坐标为(bx2,by2);
H4,设直线1的斜率为k1,截距为b1,直线2的斜率为k2,截距为b2,求得每个组合中两直线的交点(x1,y1);
H5,计算交点到行人1起始点的距离d1,依次可求得所需的其他距离信息;
H6,在冲突点判定前先进行并行状态检测,具体过程如下:对任一组合h中行人1起始点到行人2起始点的距离d5取3帧内的数据,设为U:
U={b5(n-2) b5(n-1) b5(n)}(n>=3)
用方差来描述3帧内行人间距离的变化幅度:
当方差S2小于最小阈值Smin 2,即3帧内行人间的距离在一个固定区间内浮动时,判定为并行,此时不再对组合h进行堵塞状态检测;
H7,为排除行人轨迹直线延长线的干扰,在进行堵塞状态检测前先设置判定的前提条件。
3.根据权利要求1所述的基于YOLOv3与卡尔曼滤波的行人堵塞状态预测方法,其特征在于,步骤I中,将堵塞状态的检测分为3种情况进行处理,具体步骤如下:
I1,每组h内两条轨迹直线的交点同时在行人1与行人2的轨迹线段内,此时选取交点到起始点间的距离占轨迹线段长度的比例较小的行人轨迹作为参考系,当两条轨迹直线的交点到各自起始点间的距离占各自轨迹线段长度的比例不同时:
式中Lx为tx时刻下每组内行人1与行人2之间的距离;设dx3为判定阈值,当Lx<=dx3时将交点判定为社交冲突点;
I2,每组内两条轨迹直线的交点在行人1或行人2的轨迹线段内,此时同样选取交点到起始点间的距离占轨迹线段长度的比例较小的行人轨迹作为参考系,tx时刻下每组内行人1与行人2之间的距离Lx的求解方法与情况(1)相同,当Lx<=dx3时判定为冲突点;
I3,每组内两条轨迹直线的交点不在行人1与行人2的轨迹线段内时,重新设置判定条件。
4.根据权利要求1所述的基于YOLOv3与卡尔曼滤波的行人堵塞状态预测方法,其特征在于,步骤B中,将输入视频帧的像素规格转换为416*416;
步骤D中,行人检测框数据转换为:ax(检测框左上角x坐标)、ay(检测框左上角y坐标)、检测框的宽高bw、bh;
步骤E中,作为卡尔曼滤波器状态矩阵输入向量的规格为1*8:
M=[cx cy r bh vx vy vr vh]。
5.根据权利要求1所述的基于YOLOv3与卡尔曼滤波的行人堵塞状态预测方法,其特征在于,F1中,T(t)为8*8维的状态转移矩阵,用来反映状态向量的变化趋势:
M(t,t-1)=T(t)M(t-1)
F(t,t-1)=T(t)F(t-1)TT(t);
F2中,G(t)为4*8维的观测矩阵,用以从状态向量与协方差矩阵中提取观测值:
Z(t,t-1)=G(t)M(t,t-1),
S(t,t-1)=G(t)F(t,t-1)GT(t);
F3中,K(t,t-1)=F(t,t-1)GT(t)S-1(t,t-1);
F4中,C(t)=Z(t)-Z(t,t-1),
M(t)=M(t,t-1)+K(t,t-1)C(t);
F5中,M(t+1,t)=T(t)M(t)。
6.根据权利要求1所述的基于YOLOv3与卡尔曼滤波的行人堵塞状态预测方法,其特征在于,步骤G中,单个行人的轨迹直线方程:
k=(cy(24)-cy(0))/(cx(24)-cx(0))
b=cy(0)-kcx(0)
y=kx+b。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110170040.0A CN112985439B (zh) | 2021-02-08 | 2021-02-08 | 一种基于YOLOv3与卡尔曼滤波的行人堵塞状态预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110170040.0A CN112985439B (zh) | 2021-02-08 | 2021-02-08 | 一种基于YOLOv3与卡尔曼滤波的行人堵塞状态预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112985439A true CN112985439A (zh) | 2021-06-18 |
CN112985439B CN112985439B (zh) | 2023-10-17 |
Family
ID=76349116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110170040.0A Active CN112985439B (zh) | 2021-02-08 | 2021-02-08 | 一种基于YOLOv3与卡尔曼滤波的行人堵塞状态预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112985439B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107077137A (zh) * | 2014-09-03 | 2017-08-18 | 夏普株式会社 | 用于估计运动的方法、移动代理以及编码有用于使得处理器执行用于估计运动的方法的计算机程序代码的非暂时性计算机可读介质 |
CN110287905A (zh) * | 2019-06-27 | 2019-09-27 | 浙江工业大学 | 一种基于深度学习的交通拥堵区域实时检测方法 |
CN110472496A (zh) * | 2019-07-08 | 2019-11-19 | 长安大学 | 一种基于目标检测与跟踪的交通视频智能分析方法 |
CN110490901A (zh) * | 2019-07-15 | 2019-11-22 | 武汉大学 | 抗姿态变化的行人检测跟踪方法 |
CN110516556A (zh) * | 2019-07-31 | 2019-11-29 | 平安科技(深圳)有限公司 | 基于Darkflow-DeepSort的多目标追踪检测方法、装置及存储介质 |
CN110532852A (zh) * | 2019-07-09 | 2019-12-03 | 长沙理工大学 | 基于深度学习的地铁站行人异常事件检测方法 |
CN111160212A (zh) * | 2019-12-24 | 2020-05-15 | 浙江大学 | 一种基于YOLOv3-Tiny改进的跟踪学习检测系统及方法 |
US20200175311A1 (en) * | 2018-11-29 | 2020-06-04 | Element Ai Inc. | System and method for detecting and tracking objects |
CN111340855A (zh) * | 2020-03-06 | 2020-06-26 | 电子科技大学 | 一种基于轨迹预测的道路移动目标检测方法 |
CN111680745A (zh) * | 2020-06-08 | 2020-09-18 | 青岛大学 | 一种基于多源交通大数据融合的突发拥堵判别方法及系统 |
CN111723747A (zh) * | 2020-06-22 | 2020-09-29 | 西安工业大学 | 一种应用于嵌入式平台轻量型高效率的目标检测方法 |
-
2021
- 2021-02-08 CN CN202110170040.0A patent/CN112985439B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107077137A (zh) * | 2014-09-03 | 2017-08-18 | 夏普株式会社 | 用于估计运动的方法、移动代理以及编码有用于使得处理器执行用于估计运动的方法的计算机程序代码的非暂时性计算机可读介质 |
US20200175311A1 (en) * | 2018-11-29 | 2020-06-04 | Element Ai Inc. | System and method for detecting and tracking objects |
CN110287905A (zh) * | 2019-06-27 | 2019-09-27 | 浙江工业大学 | 一种基于深度学习的交通拥堵区域实时检测方法 |
CN110472496A (zh) * | 2019-07-08 | 2019-11-19 | 长安大学 | 一种基于目标检测与跟踪的交通视频智能分析方法 |
CN110532852A (zh) * | 2019-07-09 | 2019-12-03 | 长沙理工大学 | 基于深度学习的地铁站行人异常事件检测方法 |
CN110490901A (zh) * | 2019-07-15 | 2019-11-22 | 武汉大学 | 抗姿态变化的行人检测跟踪方法 |
CN110516556A (zh) * | 2019-07-31 | 2019-11-29 | 平安科技(深圳)有限公司 | 基于Darkflow-DeepSort的多目标追踪检测方法、装置及存储介质 |
CN111160212A (zh) * | 2019-12-24 | 2020-05-15 | 浙江大学 | 一种基于YOLOv3-Tiny改进的跟踪学习检测系统及方法 |
CN111340855A (zh) * | 2020-03-06 | 2020-06-26 | 电子科技大学 | 一种基于轨迹预测的道路移动目标检测方法 |
CN111680745A (zh) * | 2020-06-08 | 2020-09-18 | 青岛大学 | 一种基于多源交通大数据融合的突发拥堵判别方法及系统 |
CN111723747A (zh) * | 2020-06-22 | 2020-09-29 | 西安工业大学 | 一种应用于嵌入式平台轻量型高效率的目标检测方法 |
Non-Patent Citations (4)
Title |
---|
任珈民: "基于YOLOv3与卡尔曼滤波的多目标跟踪算法", 《计算机应用与软件》, vol. 37, no. 5, pages 169 - 176 * |
王格: "Research on Pedestrian Detection and Tracking Technology Based on Convolution Neural Network", 华中师范大学, pages 1 - 81 * |
许小伟: "基于小型化YOLOv3的实时车辆检测及跟踪算法", 《公路交通科技》, vol. 37, no. 8, pages 149 - 158 * |
赵益: "改进YOLOv3的交通车辆检测", 工程科技Ⅱ辑, pages 1 - 66 * |
Also Published As
Publication number | Publication date |
---|---|
CN112985439B (zh) | 2023-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | AI-empowered speed extraction via port-like videos for vehicular trajectory analysis | |
CN110660082B (zh) | 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法 | |
CN108320510A (zh) | 一种基于无人机航拍视频交通信息统计方法及系统 | |
CN111681259B (zh) | 基于无Anchor机制检测网络的车辆跟踪模型建立方法 | |
CN113920740B (zh) | 一种联合车辆关联度和博弈论的车路协同驾驶系统及方法 | |
CN111597905B (zh) | 一种基于视频技术的公路隧道停车检测方法 | |
CN114023062B (zh) | 一种基于深度学习和边缘计算的交通流信息监测方法 | |
Glushkov et al. | Development of reliable models of signal-controlled intersections | |
CN114694078A (zh) | 一种基于多目标跟踪的交通行为判定方法 | |
CN113129336A (zh) | 一种端到端多车辆跟踪方法、系统及计算机可读介质 | |
CN112818935A (zh) | 基于深度学习的多车道拥堵检测及持续时间预测方法及系统 | |
CN110111358B (zh) | 一种基于多层时序滤波的目标跟踪方法 | |
CN112985439B (zh) | 一种基于YOLOv3与卡尔曼滤波的行人堵塞状态预测方法 | |
CN116630376A (zh) | 基于ByteTrack的无人机多目标跟踪方法 | |
Pan et al. | Vision-based Vehicle Forward Collision Warning System Using Optical Flow Algorithm. | |
CN116152758A (zh) | 一种智能实时事故检测及车辆跟踪方法 | |
Delavarian et al. | Multi‐camera multiple vehicle tracking in urban intersections based on multilayer graphs | |
CN115223144A (zh) | 一种基于云端数据的无人驾驶矿车传感器数据筛选方法及装置 | |
Zhang et al. | Vehicle detection and tracking in remote sensing satellite vidio based on dynamic association | |
Sanberg et al. | Asteroids: A stixel tracking extrapolation-based relevant obstacle impact detection system | |
CN114387310A (zh) | 一种基于深度学习的城市主干道路车流量统计方法 | |
CN110244746B (zh) | 一种基于视觉注意的机器人动态障碍物避开方法及系统 | |
CN114454162B (zh) | 一种移动机器人复杂路口防碰撞方法及系统 | |
Li et al. | Towards Collision-Free Probabilistic Pedestrian Motion Prediction for Autonomous Vehicles | |
Son et al. | Vehicle-level traffic accident detection on vehicle-mounted camera based on cascade bi-lstm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |