CN110570456A - 基于yolo目标检测算法和光流追踪算法融合的机动车轨迹提取方法 - Google Patents
基于yolo目标检测算法和光流追踪算法融合的机动车轨迹提取方法 Download PDFInfo
- Publication number
- CN110570456A CN110570456A CN201910681920.7A CN201910681920A CN110570456A CN 110570456 A CN110570456 A CN 110570456A CN 201910681920 A CN201910681920 A CN 201910681920A CN 110570456 A CN110570456 A CN 110570456A
- Authority
- CN
- China
- Prior art keywords
- motor vehicle
- current frame
- corner
- tracking
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于YOLO目标检测算法和光流追踪算法融合的机动车轨迹提取方法,包括:S1获取视频,S2获取机动车位置信息,S3获取机动车车光流信息,S4若检测到机动车,计算当前帧下的机动车位置区域集合,进入S5,否则进入S6,S5构造当前帧下的机动车位置区域掩模图像:所述当前帧f+1的机动车位置区域掩模图像是指仅包含机动车位置区域信息的图像,也即各检测到的机动车最小外接矩形区域的彩色图像予以保留,其余部分替换为白色或黑色,进入S7。本发明融合深度学习网络YOLO对追踪对象进行初步定位,提高了角点匹配速度,减少了计算量,加快了光流追踪的效率与准确性。
Description
技术领域
本发明涉及机动车检测与跟踪领域,具体涉及一种基于YOLO目标检测算法和光流追踪算法融合的机动车轨迹提取方法。
背景技术
运动目标检测与跟踪技术是计算机视觉领域中应用的核心技术,涉及图像处理、模式识别、人工智能等多技术领域,在交通导航、ITS、导弹预警、自动监控等多方面发挥着重要作用。
随着近年来人工智能、机器学习浪潮的兴起,涌现了大量新颖高效的检测和追踪方法,因此,本发明在此基础上提出一种基于YOLO目标检测算法和光流追踪算法融合的机动车轨迹提取方法,为自动驾驶、机动车的违章监控等发挥实际作用。
深度学习网络YOLO是一个可以一次性预测多个目标对象位置和类别的卷积神经网络,能够实现端到端的目标检测和识别,其最大的优势就是速度快。相比于CNN、FasterRCNN等卷积神经网络,YOLO算法没有选择滑动窗口(silding window)或提取proposal的方式训练网络,而是直接选用整张图片训练模型,这使得YOLO网络对目标和背景区域拥有更加高效的判别能力,同时也大大提高了检测速度。
光流是空间运动物体在观察成像平面上的像素运动的瞬时速度,是利用图像序列中像素在时间域上的变化以及相邻帧之间的相关性来找到上一帧跟当前帧之间存在的相应关系,从而计算出相邻帧之间物体的运动信息的一种方法。光流算法在目标跟踪方面表现优异,尤其是实时计算速度上。然而,光流算法得到的轨迹“trajectory”,还包括一些发生了漂移的点,所以,得到跟踪点之后要进行一些后期的处理,同时,光流跟踪算法还需要满足(1)亮度恒定;(2)时间连续或者是运动是“小运动”;(3)空间一致,临近点有相似运动,保持相邻。这些限制也导致跟踪过程中很容易出现丢失的问题。这些都大大限制了光流在机动车跟踪领域的应用。
目前,将这两种应用于机动车检测与跟踪领域还是空白,传统的机动车检测与跟踪方便简单、落后,导致容易跟踪丢失,数据无法完整捕捉。
发明内容
为了解决上述技术问题,本发明提供一种基于YOLO目标检测算法和光流追踪算法融合的机动车轨迹提取方法,利用深度学习网络YOLO不仅提高了检测效率,实现对机动车的实时追踪,同时在一定程度上解决了目标丢失的情况发生,其具体技术方案如下:
基于YOLO目标检测算法和光流追踪算法融合的机动车轨迹提取方法,包括以下步骤:
步骤1、基于路段或交叉口获取视频:通过摄像设备采集路段或交叉口视频;
步骤2、获取机动车位置信息:基于步骤1所采集的路段或者交叉口视频序列,利用深度学习检测网络YOLO检测机动车,并记录各检测机动车的位置和最小外接矩形:基于当前帧,检测得到当前帧下的机动车位置区域集合其中:f表示当前帧数,n表示当前帧f下机动车编号,集合各元素包含当前帧f下编号为n的机动车最小外接矩形在像素坐标系下左上角坐标及长宽
步骤3、获取机动车光流信息:基于步骤2所获取的机动车位置区域集合检测各区域的Harris角点,并以此作为光流追踪起点:针对当前帧获取的机动车位置区域集合,对各个区域块进行Harris角点检测,获取N个最符合要求的特征点,以此作为光流追踪起点,得到当前帧下角点集合其中表示当前帧f下编号为i的机动车所包含的N个角点坐标;
步骤4、基于步骤2和3获得的机动车位置信息和光流信息,对下一帧f+1利用深度学习检测网络YOLO检测机动车,若检测到机动车,则记录f+1为当前帧,当前帧f+1下的机动车位置区域集进入步骤5,否则进入步骤6,其中所述光流信息是指角点的位置信息和运动信息,即角点速度及其方向;
步骤5、基于步骤4所获取的机动车位置区域集合构造当前帧下f+1的机动车位置区域掩模图像:所述当前帧f+1的机动车位置区域掩模图像是指仅包含机动车位置区域信息的图像,也即各检测到的机动车最小外接矩形区域的彩色图像予以保留,其余部分替换为白色或黑色,进入步骤7;
步骤6、基于步骤3获得的角点集合将当前帧f+1作为跟踪输入掩模图像;
步骤7、基于步骤5获取的掩模图像及角点信息,利用光流追踪当前帧f+1下的机动车位置,若在当前帧f+1追踪到匹配角点,则认定追踪成功,获得当前帧f+1下追踪角点位置集合进入步骤8,否则进入步骤10;
步骤8、基于步骤7获得的掩模图像及角点位置集合,利用光流法反向追踪上一帧f的角点信息,获得上一帧f的角点位置集合
步骤9、基于步骤8获得的角点集合计算各角点偏移量Δ,若角点偏移量大于预设阈值μ,即Δ>μ,认定角点追踪失败,进入步骤10,否则进入步骤11;
步骤10、将当前帧f+1与上一帧f机动车位置基于ORB特征点匹配,特征点匹配会得到角点集合;
步骤11、基于上一帧f和当前帧f+1的角点位置集合利用角点位置均值作为各追踪机动车轨迹点绘制追踪轨迹,进入步骤12,检查视频是否结束;
步骤12、检测视频是否结束,若是,则结束追踪,否则返回步骤4。
进一步的,所述步骤9基于角点集合计算各角点偏移量Δ,具体包括以下步骤:
步骤9-1、预定各角点偏移量Δ的阈值μ;
步骤9-2、基于角点集合分别计算机动车i的N个角点偏移量若小于预定偏移量阈值μ,则保留该点,否则删除该点,直至机动车i的所有角点为空,则进入步骤10。
进一步的,所述步骤10将当前帧f+1与上一帧f机动车位置基于ORB特征点匹配,具体包括以下步骤:
步骤10-1、设置匹配相似度阈值λ;
步骤10-2、基于当前帧f+1和上一帧f机动车位置区域掩模图像利用Fast算法计算特征点;
步骤10-3、基于步骤10-2获得的特征点,利用BRIEF算法计算特征描述子:所述特征描述子是二进制串形式,如特征点A、B的描述子:
步骤10-4、基于步骤10-3获得的特征描述子,利用异或操作计算二者相似度;
步骤10-5、基于步骤10-4匹配结果,若大于匹配阈值λ:
将上一帧f机动车位置区域,即机动车最小外接矩形,按照匹配位置平移至当前帧f+1作为机动车位置,以特征点位置均值的形式绘制轨迹,利用当前帧f+1的fast特征点重新作为光流追踪起点,返回步骤4;
若小于匹配阈值λ:
利用YOLO算法重新检测机动车,返回步骤2。
本发明的有益效果是:
1、本发明融合深度学习网络YOLO对追踪对象进行初步定位,提高了角点匹配速度,减少了计算量,加快了光流追踪的效率与准确性。
2、本发明在追踪过程中,通过光流算法追踪到的角点与回溯角点进行偏移量计算,筛选追踪偏差过大的角点,提高了光流追踪的准确性。
3、本发明在追踪过程中,对于追踪失败的机动车对象,利用ORB特征点匹配算法追踪合适的角点信息,重新初始化光流,提高了光流追踪算法的容错性,在一定程度上提高了追踪过程的鲁棒性。
4、本发明的轨迹提取方案,可拓展性强。
5、本发明的每一个实施实例都具备轨迹提取功能,除了对机动车轨迹的提取,利用速度学习网络YOLO检测其他运动对象,如行人、自行车等同样具有良好的追踪性能,具有相应的轨迹提取能力。
附图说明
图1为本发明的实现流程示意图,
图2为本发明具体实施例中采集的交叉口视频截图,
图3为本发明提取得到的轨迹,
其中:图3(a)表示车辆行驶到路口的行车轨迹;
图3(b)表示图3(a)行驶一段距离后的行车轨迹。
具体实施方式
现在结合附图对本发明作进一步详细的说明。这些附图均为简化的示意图,仅以示意方式说明本发明的基本结构,因此其仅显示与本发明有关的构成。
如图1所示,根据本发明的实施例,本发明的基于YOLO目标检测算法和光流追踪算法融合的机动车轨迹提取方法,其实现包括以下步骤:
步骤1、基于路段或交叉口获取视频:通过摄像设备采集路段或交叉口视频,根据采集设备的状况,如拍摄高度和角度等影响机动车成像大小的因素,调整深度学习检测网络YOLO的参数;
在本实施方式中,通过海康威视200万高清数字摄像机DS-2CD877MF-SDI采集交叉口视频,摄像机垂直高度8m,倾角30°,采集的视频分辨率是1280*720,如图2所示;深度学习检测网络YOLO的相关参数如下:
步骤2、基于步骤1所采集的路段或者交叉口视频序列,利用调整好参数的深度学习检测网络YOLO检测机动车,并记录各检测机动车的位置和最小外接矩形:基于当前帧,检测得到当前帧下的机动车位置区域集合其中f表示当前帧数,n表示当前帧f下机动车编号,集合各元素包含当前帧f下编号为n的机动车最小外接矩形在像素坐标系下左上角坐标及长宽
步骤3、基于步骤2所获取的机动车位置区域集合检测各区域的Harris角点,并以此作为光流追踪起点:针对当前帧获取的机动车位置区域集合,对各个区域块进行Harris角点检测,获取N个最符合要求的特征点,以此作为光流追踪起点,得到当前帧下角点集合其中表示当前帧f下编号为i的机动车所包含的N个角点坐标;
在本实施例中,设置合理的特征点数量N=5
步骤4、基于前述步骤获得的机动车位置信息和光流信息,对下一帧f+1利用深度学习检测网络YOLO检测机动车,若检测到机动车,则记录当前帧f+1下的机动车位置区域集合进入步骤5,否则进入步骤6。其中所述光流信息是指角点的位置信息和运动信息(角点速度及其方向);
步骤5、基于步骤4所获取的机动车位置区域集合构造当前帧下f+1的机动车位置区域掩模图像:所述当前帧下的机动车位置区域掩模图像是指仅包含机动车位置区域信息的图像,也即各检测到的机动车最小外接矩形区域的彩色图像予以保留,其余部分替换为白色或黑色,进入步骤7;
步骤6、基于上述步骤获得的角点集合将当前帧f+1作为跟踪输入掩模图像;
步骤7、基于前述步骤获取的掩模图像及角点信息,利用光流追踪当前帧下的机动车位置,若在当前帧追踪到匹配角点,则认定若追踪成功,获得当前帧f+1下追踪角点位置集合进入步骤8,否则进入步骤10;
步骤8、基于前述步骤获得的掩模图像及角点位置集合,利用光流法反向追踪上一帧的角点信息,获得上一帧的角点位置集合
步骤9、基于前述步骤获得的角点集合计算各角点偏移量Δ,若角点偏移量大于预设阈值μ,认定角点追踪失败,进入步骤10,否则进入步骤11;
步骤9-1、在本实施例中,设定偏移量阈值μ=0.1
步骤9-2、基于角点集合分别计算机动车i的5个角点偏移量若小于预定偏移量阈值0.1,则保留该点,否则删除该点,直至机动车i的所有角点为空,则进入步骤10角点偏移量阈值μ=0.1;
步骤10、将当前帧f+1与上一帧f机动车位置基于ORB特征点匹配,特征点匹配会得到角点集合;
步骤10-1、设置匹配相似度阈值λ=0.8;
步骤10-2、基于当前帧f+1和上一帧f机动车位置区域掩模图像利用Fast算法计算特征点;
步骤10-3、基于步骤11-2获得的特征点,利用BRIEF算法计算特征描述子:所述特征描述子是二进制串形式,如特征点A、B的描述子:
步骤10-4、基于步骤11-3获得的特征描述子,利用异或操作计算二者相似度;
步骤10-5、基于前述步骤匹配结果,若大于匹配阈值0.8:
将上一帧f机动车位置区域(即机动车最小外接矩形)按照匹配位置平移至当前帧f+1作为机动车位置,以特征点位置均值的形式绘制轨迹,利用当前帧f+1的fast特征点重新作为光流追踪起点,返回步骤4;
若小于匹配阈值0.8:
利用YOLO算法重新检测机动车,返回步骤2。
步骤11、基于前一帧f和当前帧f+1的角点位置集合利用角点位置均值作为各追踪机动车轨迹点绘制追踪轨迹,如图3所示,进入步骤12,检查视频是否结束。
步骤12、检测视频是否结束,若是,则结束追踪,否则返回步骤4。
以上述依据本发明的理想实施例为启示,通过上述的说明内容,相关工作人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定其技术性范围。
Claims (3)
1.基于YOLO目标检测算法和光流追踪算法融合的机动车轨迹提取方法,其特征在于:包括以下步骤:
步骤1、基于路段或交叉口获取视频:通过摄像设备采集路段或交叉口视频;
步骤2、获取机动车位置信息:基于步骤1所采集的路段或者交叉口视频序列,利用深度学习检测网络YOLO检测机动车,并记录各检测机动车的位置和最小外接矩形:基于当前帧,检测得到当前帧下的机动车位置区域集合其中:f表示当前帧数,n表示当前帧f下机动车编号,集合各元素包含当前帧f下编号为n的机动车最小外接矩形在像素坐标系下左上角坐标及长宽
步骤3、获取机动车光流信息:基于步骤2所获取的机动车位置区域集合检测各区域的Harris角点,并以此作为光流追踪起点:针对当前帧获取的机动车位置区域集合,对各个区域块进行Harris角点检测,获取N个最符合要求的特征点,以此作为光流追踪起点,得到当前帧下角点集合其中表示当前帧f下编号为i的机动车所包含的N个角点坐标;
步骤4、基于步骤2和3获得的机动车位置信息和光流信息,对下一帧f+1利用深度学习检测网络YOLO检测机动车,若检测到机动车,则记录f+1为当前帧,当前帧f+1下的机动车位置区域集合进入步骤5,否则进入步骤6,其中所述光流信息是指角点的位置信息和运动信息,即角点速度及其方向;
步骤5、基于步骤4所获取的机动车位置区域集合构造当前帧下f+1的机动车位置区域掩模图像:所述当前帧f+1的机动车位置区域掩模图像是指仅包含机动车位置区域信息的图像,也即各检测到的机动车最小外接矩形区域的彩色图像予以保留,其余部分替换为白色或黑色,进入步骤7;
步骤6、基于步骤3获得的角点集合将当前帧f+1作为跟踪输入掩模图像;
步骤7、基于步骤5获取的掩模图像及角点信息,利用光流追踪当前帧f+1下的机动车位置,若在当前帧f+1追踪到匹配角点,则认定追踪成功,获得当前帧f+1下追踪角点位置集合进入步骤8,否则进入步骤10;
步骤8、基于步骤7获得的掩模图像及角点位置集合,利用光流法反向追踪上一帧f的角点信息,获得上一帧f的角点位置集合
步骤9、基于步骤8获得的角点集合计算各角点偏移量Δ,若角点偏移量大于预设阈值μ,即Δ>μ,认定角点追踪失败,进入步骤10,否则进入步骤11;
步骤10、将当前帧f+1与上一帧f机动车位置基于ORB特征点匹配,特征点匹配会得到角点集合;
步骤11、基于上一帧f和当前帧f+1的角点位置集合利用角点位置均值作为各追踪机动车轨迹点绘制追踪轨迹,进入步骤12,检查视频是否结束;
步骤12、检测视频是否结束,若是,则结束追踪,否则返回步骤4。
2.根据权利要求1所述的基于YOLO目标检测算法和光流追踪算法融合的机动车轨迹提取方法,其特征在于:所述步骤9基于角点集合计算各角点偏移量Δ,具体包括以下步骤:
步骤9-1、预定各角点偏移量Δ的阈值μ;
步骤9-2、基于角点集合分别计算机动车i的N个角点偏移量若小于预定偏移量阈值μ,则保留该点,否则删除该点,直至机动车i的所有角点为空,则进入步骤10。
3.根据权利要求1所述的基于YOLO目标检测算法和光流追踪算法融合的机动车轨迹提取方法,其特征在于:所述步骤10将当前帧f+1与上一帧f机动车位置基于ORB特征点匹配,具体包括以下步骤:
步骤10-1、设置匹配相似度阈值λ;
步骤10-2、基于当前帧f+1和上一帧f机动车位置区域掩模图像利用Fast算法计算特征点;
步骤10-3、基于步骤10-2获得的特征点,利用BRIEF算法计算特征描述子:所述特征描述子是二进制串形式,如特征点A、B的描述子:
步骤10-4、基于步骤10-3获得的特征描述子,利用异或操作计算二者相似度;
步骤10-5、基于步骤10-4匹配结果,若大于匹配阈值λ:
将上一帧f机动车位置区域,即机动车最小外接矩形,按照匹配位置平移至当前帧f+1作为机动车位置,以特征点位置均值的形式绘制轨迹,利用当前帧f+1的fast特征点重新作为光流追踪起点,返回步骤4;
若小于匹配阈值λ:
利用YOLO算法重新检测机动车,返回步骤2。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910681920.7A CN110570456A (zh) | 2019-07-26 | 2019-07-26 | 基于yolo目标检测算法和光流追踪算法融合的机动车轨迹提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910681920.7A CN110570456A (zh) | 2019-07-26 | 2019-07-26 | 基于yolo目标检测算法和光流追踪算法融合的机动车轨迹提取方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110570456A true CN110570456A (zh) | 2019-12-13 |
Family
ID=68773313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910681920.7A Pending CN110570456A (zh) | 2019-07-26 | 2019-07-26 | 基于yolo目标检测算法和光流追踪算法融合的机动车轨迹提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110570456A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111161305A (zh) * | 2019-12-18 | 2020-05-15 | 任子行网络技术股份有限公司 | 无人机智能识别追踪方法及系统 |
CN111784735A (zh) * | 2020-04-15 | 2020-10-16 | 北京京东尚科信息技术有限公司 | 目标跟踪方法、装置和计算机可读存储介质 |
CN111932579A (zh) * | 2020-08-12 | 2020-11-13 | 广东技术师范大学 | 基于被跟踪目标运动轨迹对设备角度的调整方法及装置 |
CN112085767A (zh) * | 2020-08-28 | 2020-12-15 | 安徽清新互联信息科技有限公司 | 一种基于深度光流跟踪的客流统计方法及系统 |
CN112164037A (zh) * | 2020-09-16 | 2021-01-01 | 天津大学 | 一种基于光流追踪的mems器件面内运动测量方法 |
CN112613526A (zh) * | 2020-12-17 | 2021-04-06 | 厦门大学 | 一种基于光流跟踪的特征匹配算法及系统 |
CN112985440A (zh) * | 2021-02-20 | 2021-06-18 | 北京嘀嘀无限科技发展有限公司 | 行驶轨迹偏移的检测方法、装置、存储介质及程序产品 |
CN116503779A (zh) * | 2023-04-26 | 2023-07-28 | 中国公路工程咨询集团有限公司 | 一种路面抛洒物识别系统及方法 |
-
2019
- 2019-07-26 CN CN201910681920.7A patent/CN110570456A/zh active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111161305A (zh) * | 2019-12-18 | 2020-05-15 | 任子行网络技术股份有限公司 | 无人机智能识别追踪方法及系统 |
CN111784735A (zh) * | 2020-04-15 | 2020-10-16 | 北京京东尚科信息技术有限公司 | 目标跟踪方法、装置和计算机可读存储介质 |
CN111932579A (zh) * | 2020-08-12 | 2020-11-13 | 广东技术师范大学 | 基于被跟踪目标运动轨迹对设备角度的调整方法及装置 |
CN112085767A (zh) * | 2020-08-28 | 2020-12-15 | 安徽清新互联信息科技有限公司 | 一种基于深度光流跟踪的客流统计方法及系统 |
CN112164037A (zh) * | 2020-09-16 | 2021-01-01 | 天津大学 | 一种基于光流追踪的mems器件面内运动测量方法 |
CN112613526A (zh) * | 2020-12-17 | 2021-04-06 | 厦门大学 | 一种基于光流跟踪的特征匹配算法及系统 |
CN112613526B (zh) * | 2020-12-17 | 2023-09-15 | 厦门大学 | 一种基于光流跟踪的特征匹配方法及系统 |
CN112985440A (zh) * | 2021-02-20 | 2021-06-18 | 北京嘀嘀无限科技发展有限公司 | 行驶轨迹偏移的检测方法、装置、存储介质及程序产品 |
CN112985440B (zh) * | 2021-02-20 | 2024-02-23 | 北京嘀嘀无限科技发展有限公司 | 行驶轨迹偏移的检测方法、装置、存储介质及程序产品 |
CN116503779A (zh) * | 2023-04-26 | 2023-07-28 | 中国公路工程咨询集团有限公司 | 一种路面抛洒物识别系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110570456A (zh) | 基于yolo目标检测算法和光流追踪算法融合的机动车轨迹提取方法 | |
JP4157620B2 (ja) | 移動物体検出装置及びその方法 | |
CN107452015B (zh) | 一种具有重检测机制的目标跟踪系统 | |
KR101569919B1 (ko) | 차량의 위치 추정 장치 및 방법 | |
Nassu et al. | A vision-based approach for rail extraction and its application in a camera pan–tilt control system | |
CN111860352B (zh) | 一种多镜头车辆轨迹全跟踪系统及方法 | |
CN109544635B (zh) | 一种基于枚举试探的相机自动标定方法 | |
CN105160649A (zh) | 基于核函数非监督聚类的多目标跟踪方法及系统 | |
CN111931547A (zh) | 行车车线识别装置、行车车线识别方法以及程序 | |
CN111738033A (zh) | 基于平面分割的车辆行驶信息确定方法及装置、车载终端 | |
CN115346155A (zh) | 一种面向视觉特征非连续性干扰的船舶图像航迹提取方法 | |
Zhang et al. | Bidirectional multiple object tracking based on trajectory criteria in satellite videos | |
Hernández et al. | Lane marking detection using image features and line fitting model | |
CN103733225A (zh) | 特征点对等系统、特征点对等方法、以及记录介质 | |
CN117746343A (zh) | 基于等高轮廓图的人员流动检测方法及系统 | |
CN115731287B (zh) | 基于集合与拓扑空间的运动目标检索方法 | |
Zhao et al. | Real-world trajectory extraction from aerial videos-a comprehensive and effective solution | |
CN115100565B (zh) | 一种基于空间相关性与光流配准的多目标跟踪方法 | |
CN111339824A (zh) | 基于机器视觉的路面抛洒物检测方法 | |
Yu et al. | An improved phase correlation method for stop detection of autonomous driving | |
CN115565157A (zh) | 一种多摄像头多目标车辆跟踪方法及系统 | |
CN113450457A (zh) | 道路重建方法、装置、计算机设备和存储介质 | |
CN111833384B (zh) | 一种可见光和红外图像快速配准方法及装置 | |
Rosebrock et al. | Real-time vehicle detection with a single camera using shadow segmentation and temporal verification | |
Dhonde et al. | Over-speed and license plate detection of vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20191213 |