CN108932728A - 基于视觉监控的跟踪方法 - Google Patents
基于视觉监控的跟踪方法 Download PDFInfo
- Publication number
- CN108932728A CN108932728A CN201810634940.4A CN201810634940A CN108932728A CN 108932728 A CN108932728 A CN 108932728A CN 201810634940 A CN201810634940 A CN 201810634940A CN 108932728 A CN108932728 A CN 108932728A
- Authority
- CN
- China
- Prior art keywords
- tracking
- frame
- point
- tracking box
- central point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 13
- 238000000034 method Methods 0.000 claims abstract description 10
- 230000009466 transformation Effects 0.000 claims description 17
- 239000011159 matrix material Substances 0.000 claims description 14
- 230000009467 reduction Effects 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims 1
- 230000008901 benefit Effects 0.000 abstract description 2
- 230000008859 change Effects 0.000 description 8
- 230000001965 increasing effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 206010039203 Road traffic accident Diseases 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000003912 environmental pollution Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种基于视觉监控的跟踪方法,其特征是,尺度更新模型建立包括如下步骤:采集交通视频数据;建立尺度的线性模型;利用最小二成法进行数据拟合,求取该线型模型的系数;估计目标中心坐标;求取尺度变化,更新跟踪框大小;所述跟踪框中心位置估计包括如下步骤:在某一帧中,选取距离跟踪框中心点最近的前m个点;建立这m个点与跟踪框中心点的距离关系;根据尺度模型建立下一帧中点到跟踪框中心点的距离关系;估计跟踪框中心点位置,得到跟踪框中心点位置的m个估计;对m个估计值再进行平均,得到下一帧跟踪框中心点的最终位置。优点:提高了跟踪框适应跟踪目标尺度变化的能力;保证跟踪矩形框更好地贴合目标,从而保证跟踪的准确性。
Description
技术领域
本发明涉及一种基于视觉监控的跟踪方法,属于智能交通技术领域。
背景技术
随着我国经济的高速发展,我国汽车数量日益增多,但随之而来的交通问题也日益增多。交通事故、交通拥堵、尾气排放造成的环境污染等问题愈发明显,其中交通事故对人民生命财产安全危害最大,主要原因在于首先是国内混合型的交通现状,路面环境复杂;其次国内驾驶员的交通安全意识普遍薄弱,很多人不严格遵守交通规则;通过智能交通系统可以有效地规范司机行为,增强驾驶员的交通安全意识,缓解交通拥堵的问题,同时对交通事故的减少有着极大的促进作用。
在智能交通系统中,依托视觉监控的智能系统因其便利性、有效性、使用寿命长等特点被广泛应用。基于视觉的智能交通系统,是指通过计算机视觉方法对相机获得的图像序列进行自动分析,自动识别及理解等步骤,从而达到对路面情况进行自动监管的效果。在大范围路面监管系统中,我们对车辆或行人等进行跟踪,通过运动目标跟踪技术可以更准确地解读车辆或行人的行为,从而为后续的车辆或行人的行为判断提供基础。在对目标进行跟踪时,我们利用矩形框对其进行标记。但因为图像存在从三维到二维的成像变换,即目标在图像中会发生尺度变化和中心位置移动,所以如何改变矩形框的尺度和中心位置,实现目标的完美跟踪是一个亟待解决的问题。
发明内容
本发明所要解决的技术问题是克服现有技术的缺陷,提供一种,解决了现有技术的跟踪框尺度变化不准确和偏移目标中心位置的问题,实现目标的完美追踪。
为解决上述技术问题,本发明提供一种基于视觉监控的跟踪方法,其特征是,包括尺度模型建立和跟踪框中心位置估计两部分;
所述尺度模型建立包括如下步骤:
步骤1-1:采集交通视频数据;
步骤1-2:建立尺度的线性模型;
步骤1-3:利用最小二成法进行数据拟合,求取该线型模型的系数。
步骤1-4:估计目标中心坐标;
步骤1-5:求取尺度变化,更新跟踪框大小;
所述跟踪框中心位置估计包括如下步骤:
步骤2-1:在某一帧中,选取距离跟踪框中心点最近的前m个点;
步骤2-2:建立这m个点与跟踪框中心点的距离关系;
步骤2-3:根据尺度模型建立下一帧中点到跟踪框中心点的距离关系;
步骤2-4:估计跟踪框中心点位置,得到跟踪框中心点位置的m个估计;
步骤2-5:对m个估计值再进行平均,得到下一帧跟踪框中心点的最终位置。
进一步的,所述步骤1-2和1-3:在任意一帧图像上建立x-y坐标系,坐标原点为图像的左上角,x轴为图像的长,y轴为图像的宽,统计y值下两条车道线之间所占的像素点个数n,结合道路两条车道线之间的实际宽度数据w,建立尺度随y的线性模型k=ay+b,其中k=n/w,即为变换系数大小,其中a和b为该线型模型的系数;
求解系数a、b:建立代价函数,使代价函数损失最小,如下式所示:
其中ki表示不同y值对应的实际变换系数,i代表数据采样的次数,最小化拟合误差,求取拟合直线参数,得到最佳拟合直线。(原式为k=ay+b,有ay+b-k=0,因为采样数据分布在拟合直线附近,即ayi+b-ki≈0,等号不是完全成立,所以采用最优化方法,即最小化拟合误差,求取拟合直线参数,得到最佳拟合直线)。
进一步的,所述步骤1-4和1-5:视频序列中相邻两帧图像t帧与t+1帧,统计获得Nt、Nt+1个特征点,所述特征点是指图像中具有鲜明特性并能够有效反映图像本质特征、能够标识图像中目标物体的点,通过统计第t帧中Nt个点的y 值,求得均值作为该帧跟踪目标中心y值的估计;同理,得到第t+1帧跟踪目标中心y值估计
利用之前的线性模型估计Nt、Nt+1帧图像的尺度,求取出尺度缩放系数,
利用尺度缩放系数和上一帧跟踪框的长和宽,更新出当前帧跟踪框的长和宽,其中第t帧中,跟踪框的宽为wt、高为ht,第t+1帧中,跟踪框的宽为wt+1、高为ht+1。
进一步的,所述步骤2-1:在第t帧中,通过度量各特征点(所述特征点是指图像中具有鲜明特性并能够有效反映图像本质特征、能够标识图像中目标物体的点)到矩形框中心点的欧式距离,选取距离跟踪框中心点最近的前m个点,这些点的运动状态最接近跟踪框中心点,作为之后估计t+1帧中跟踪框中心点的主要判断依据。
进一步的,所述步骤2-2:在第t帧中,建立这m个特征点与跟踪框中心点的距离关系,
建立直角坐标系,这些特征点到跟踪框中心点的x方向距离矩阵与y方向距离矩阵
其中与分别代表第n个特征点的x坐标与y坐标,与分别代表跟踪框中心点的x坐标与y坐标;
对于第t+1帧,能够建立下式中的距离矩阵:
进一步的,根据尺度缩放系数s,得到相邻两帧目标大小的变化规律,第t+1 帧中这m个特征点与跟踪框中心点的距离关系,水平方向距离为竖直方向距离为如下式所示:
对上式进行展开变形,得到t+1帧跟踪框中心点的估计矩阵:
式中矩阵中的每一项代表第t帧中距离中心最近的前m个特征点对t+1 帧跟踪中心点的x坐标估计;则是对t+1帧跟踪中心点的y坐标估计。
进一步的,所述步骤2-5:
将前m个特征点对跟踪中心点的估计均值,作为第t+1帧跟踪中心点的最佳估计:
本发明所达到的有益效果:
(1)针对现有跟踪技术,本发明提出一种最小二乘拟合的跟踪框尺度更新模型,提高了跟踪框适应跟踪目标尺度变化的能力;
(2)针对现有跟踪技术,本发明提出跟踪框中心位置估计模型,解决了跟踪框中心位置偏移跟踪目标的问题,来保证跟踪矩形框更好地贴合目标,从而保证跟踪的准确性。
附图说明
图1是尺度模型建立流程示意图;
图2是跟踪框中心位置估计流程示意图;
图3是变换系数k与y值关系图;
图4是特征点与跟踪框中心点相对位置示意图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
如图1和2所示,最小二乘拟合的跟踪框尺度更新模型:
在现实世界中,我们知道无论是两条车道线之间的实际距离,还是车辆的实际大小都是固定的,但是因为近大远小问题的存在,两条车道线之间的距离随着距离相机的远近而改变,而车辆的大小也随着车辆位置的改变而改变。
如果对同一场景进行直角坐标系建立,坐标原点为图像的左上角,x轴为图像的长,y轴为图像的宽,我们可以发现随着y值的增大,车辆宽度所占的像素点也随之增加,我们可以用一个函数来描述y与车辆宽度所占像素点n之间的关系,即:
n=f(y) (1.1)
同时,我们将不同y值相对应的车辆的图像宽度和实际宽度之比定义为变换系数k,即:
k=n/w (1.2)
其中w表示车辆的实际宽度;n表示车辆宽度所占的像素点数量。
通过合并(1.1)(1.2),我们可以得到变换系数k与y之间的函数关系:
k=f(y)/w (1.3)
从(1.3)式中我们可以发现,因为w为一常量(为物体的实际宽度),所以变换系数k只与位置y有关,利用这个特性,我们可以利用其他参照物来找出变换系数k与y之间的统计规律,比如:实际间隔不变的两条车道线。
本实施例中,实地测量得到两条车道线之间的实际距离为3.38米,图像分辨率为1536*1024。为了阐释变换系数k与y之间的关系,本文在12处不同的y 值下统计两条车道线之间所占的像素点个数,如下表所示:
表1.1不同y值处变换系数对照表
表1.1的数据显示,变换系数通过车道线间所占像素点数与车道线间实际距离之比得到,我们可以粗略地发现随着y坐标的增加,变换系数也随之增加,为了更直观地体现数据之间的关系,我们以y值为横坐标,以变换系数为纵坐标,绘制散点图如图3所示:
由图3我们发现,变换系数k与y值呈现线性关系,我们可以通过一次函数对其进行直线拟合:
k=ay+b (1.4)
其中a、b为待求解的系数。
为了求解系数a、b,我们可以建立代价函数,使代价函数损失最小,如式(1.5) 所示:
其中ki表示不同y值对应的实际变换系数,此处n为12,i代表数据采样的次数。
根据表1.1中数据,解得a=0.0019,b=0.1631,最终可以得到变换系数k 与y值的函数关系为:
k=0.0019y+0.1631 (1.6)
我们可以获得跟踪目标上特征点的信息,对视频序列中相邻两帧图像t与t+1 帧,我们分别可以获得Nt、Nt+1个点位置信息。通过统计第t帧中Nt个点的y值,求得均值作为该帧跟踪目标中心y值的估计;同理,得到第t+1帧跟踪目标中心y值估计
将式(1.7)得到的分别代入式(1.6)中,可以分别得到第t帧与第t+1 帧中跟踪目标的变换系数kt、kt+1。由式(1.2)可知,变换系数与跟踪目标图像宽度成正比,那么相邻两帧同一目标的尺度缩放系数s可以表示为:
其中nt表示第t帧中跟踪目标的图像宽度,nt+1表示第t+1帧中跟踪目标的图像宽度。
对于跟踪目标而言,通常利用最小外接矩形框来定位跟踪目标。假设已知第 t帧中,跟踪框的宽为wt、高为ht,那么第t+1帧中,跟踪框的宽与高可以表示为:
本发明提出的跟踪框尺度模型在实际跟踪过程中可以较好地贴近实际目标,随着目标由远及近地运动,跟踪框从小到大线性增加。
在实际跟踪过程中,未加入跟踪框尺度更新模型的矩形跟踪框不会随着跟踪目标位移变化自适应地调整矩形框大小,随着时间的推移将无法提供准确的目标位置等信息;而加入本文的跟踪框尺度模型之后,矩形跟踪框在跟踪目标的过程中随着目标尺寸的改变而改变,可以很好地贴近跟踪物体,从而提供良好的目标尺度与位置信息。
跟踪框中心位置估计模型:
在实际跟踪过程中,不仅需要考虑跟踪框的大小变化,还需要考虑跟踪框中心位置的变化,只有对这两者都进行准确地更新,才能确保跟踪的准确性。在TLD跟踪方法中通过分别统计相邻两帧之间对应特征点的水平位移与竖直位移的中值,作为跟踪框中心点的位置变化。利用TLD的跟踪框中心选取模型,有时会发生明显的跟踪框偏移现象,甚至出现跟踪框跟丢的情况发生,需要重新建立跟踪框中心点的更新模型才能有效地抑制跟踪框的偏移。
针对跟踪框偏移问题,结合尺度缩放系数s,本发明提出了一种跟踪框偏移抑制模型。在跟踪过程中,如图4所示,我们发现所有特征点与跟踪框中心点的相对位置始终是一致的,并且越靠近中心点的特征点,其运动状态越接近中心点。
在第t帧内,先选取距离中心点最近的前m个点,并建立这些特征点到跟踪框中心点的x方向距离矩阵与y方向距离矩阵:
其中与分别代表第m个特征点的x坐标与y坐标,与分别代表跟踪框中心点的x坐标与y坐标。
同样的,对于第t+1帧,我们也可以建立式(1.10)中的距离矩阵:
其中由于特征点与中心点之间相对位置不变,利用目标缩放系数s,可以建立相邻两帧之间距离矩阵的关系:
对式(1.12)进行展开变形,可以得到t+1帧跟踪框中心点的估计矩阵:
式(1.13)中矩阵中的每一项代表第t帧中距离中心最近的前m个特征点对t+1帧跟踪中心点的x坐标估计;则是对t+1帧跟踪中心点的y坐标估计。
接着将前m个特征点对跟踪中心点的估计均值,作为第t+1帧跟踪中心点的最佳估计:
本发明提出的跟踪框更新策略,能更好地预测跟踪框中心点位置,有效地抑制跟踪框偏移情况且适合复杂环境、复杂车况和长时跟踪,提高了跟踪的准确性和实用性。
下面我们利用跟踪精度Ta来描述跟踪过程中跟住目标的程度,具体表示如下:
其中St表示目标在跟踪框内的面积大小;Sr表示跟踪框面积大小。
表1.2一般情况下跟踪精度
表1.3遮挡情况下跟踪精度
表1.4起步情况下跟踪精度
表1.5拥堵情况下跟踪精度
表1.2~1.5表示不同路况下的目标跟踪精度,通过对比可以发现,TLD算法的跟踪精度随时间的推移不断地下降,而在路面环境复杂或目标特殊行为的情况下,甚至出现目标丢失的情况;而本发明算法的跟踪精度则相对稳定,即使在复杂路面环境下也能较好地进行目标跟踪。
为了更好地验证本发明算法的有效性,我们通过在不同场景下划定跟踪区域,统计进入该区域的单个目标的跟踪稳定度Ts,并计算出平均跟踪稳定度Ts以此来衡量算法的跟踪稳定性。跟踪稳定度表示如下:
其中N表示进入区域到离开区域之间的帧数,Ta表示某一帧对应的跟踪精度;K 表示跟踪目标总数。
表1.6算法平均跟踪稳定度比较
从表1.6中可以看出,本发明算法通过新的跟踪框更新策,在跟踪稳定性方面提升明显,在四种不同路况下均有不错的稳定表现:平均跟踪稳定度分别提高了19.5%、61.6%、44.9%及21.2%。另外实时性方面本文方法的平均处理速度在30帧/秒,可以满足应用需求。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (7)
1.一种基于视觉监控的跟踪方法,其特征是,包括尺度模型建立和跟踪框中心位置估计两部分;
所述尺度模型建立包括如下步骤:
步骤1-1:采集交通视频数据;
步骤1-2:建立尺度的线性模型;
步骤1-3:利用最小二成法进行数据拟合,求取该线型模型的系数。
步骤1-4:估计目标中心坐标;
步骤1-5:求取尺度变化,更新跟踪框大小;
所述跟踪框中心位置估计包括如下步骤:
步骤2-1:在某一帧中,选取距离跟踪框中心点最近的前m个点;
步骤2-2:建立这m个点与跟踪框中心点的距离关系;
步骤2-3:根据尺度模型建立下一帧中点到跟踪框中心点的距离关系;
步骤2-4:估计跟踪框中心点位置,得到跟踪框中心点位置的m个估计;
步骤2-5:对m个估计值再进行平均,得到下一帧跟踪框中心点的最终位置。
2.根据权利要求1所述的基于视觉监控的跟踪方法,其特征是,所述步骤1-2和1-3:在任意一帧图像上建立x-y坐标系,坐标原点为图像的左上角,x轴为图像的长,y轴为图像的宽,统计y值下两条车道线之间所占的像素点个数n,结合道路两条车道线之间的实际宽度数据w,建立尺度随y的线性模型k=ay+b,其中k=n/w,即为变换系数大小,其中a和b为该线型模型的系数;
求解系数a、b:建立代价函数,使代价函数损失最小,如下式所示:
其中ki表示不同y值对应的实际变换系数,i代表数据采样的次数,最小化拟合误差,求取拟合直线参数,得到最佳拟合直线。
3.根据权利要求2所述的基于视觉监控的跟踪方法,其特征是,所述步骤1-4和1-5:视频序列中相邻两帧图像t帧与t+1帧,统计获得Nt、Nt+1个特征点,所述特征点是指图像中具有鲜明特性并能够有效反映图像本质特征、能够标识图像中目标物体的点,通过统计第t帧中Nt个点的y值,求得均值作为该帧跟踪目标中心y值的估计;同理,得到第t+1帧跟踪目标中心y值估计
利用之前的线性模型估计Nt、Nt+1帧图像的尺度,求取出尺度缩放系数,
利用尺度缩放系数和上一帧跟踪框的长和宽,更新出当前帧跟踪框的长和宽,其中第t帧中,跟踪框的宽为wt、高为ht,第t+1帧中,跟踪框的宽为wt+1、高为ht+1。
4.根据权利要求1所述的基于视觉监控的跟踪方法,其特征是,所述步骤2-1:在第t帧中,通过度量各特征点到矩形框中心点的欧式距离,选取距离跟踪框中心点最近的前m个点,这些点的运动状态最接近跟踪框中心点,作为之后估计t+1帧中跟踪框中心点的主要判断依据,所述特征点是指图像中具有鲜明特性并能够有效反映图像本质特征、能够标识图像中目标物体的点。
5.根据权利要求4所述的基于视觉监控的跟踪方法,其特征是,所述步骤2-2:在第t帧中,建立这m个特征点与跟踪框中心点的距离关系,
建立直角坐标系,这些特征点到跟踪框中心点的x方向距离矩阵与y方向距离矩阵
其中与分别代表第n个特征点的x坐标与y坐标,与分别代表跟踪框中心点的x坐标与y坐标;
对于第t+1帧,能够建立下式中的距离矩阵:
6.根据权利要求3或5所述的基于视觉监控的跟踪方法,其特征是,根据尺度缩放系数s,得到相邻两帧目标大小的变化规律,第t+1帧中这m个特征点与跟踪框中心点的距离关系,水平方向距离为竖直方向距离为如下式所示:
对上式进行展开变形,得到t+1帧跟踪框中心点的估计矩阵:
式中矩阵中的每一项代表第t帧中距离中心最近的前m个特征点对t+1帧跟踪中心点的x坐标估计;则是对t+1帧跟踪中心点的y坐标估计。
7.根据权利要求6所述的基于视觉监控的跟踪方法,其特征是,所述步骤2-5:
将前m个特征点对跟踪中心点的估计均值,作为第t+1帧跟踪中心点的最佳估计:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810634940.4A CN108932728B (zh) | 2018-06-20 | 2018-06-20 | 基于视觉监控的跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810634940.4A CN108932728B (zh) | 2018-06-20 | 2018-06-20 | 基于视觉监控的跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108932728A true CN108932728A (zh) | 2018-12-04 |
CN108932728B CN108932728B (zh) | 2021-08-17 |
Family
ID=64446086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810634940.4A Expired - Fee Related CN108932728B (zh) | 2018-06-20 | 2018-06-20 | 基于视觉监控的跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108932728B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111862624A (zh) * | 2020-07-29 | 2020-10-30 | 浙江大华技术股份有限公司 | 车辆匹配方法、装置、存储介质及电子装置 |
CN112489086A (zh) * | 2020-12-11 | 2021-03-12 | 北京澎思科技有限公司 | 目标跟踪方法、目标跟踪装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105488815A (zh) * | 2015-11-26 | 2016-04-13 | 北京航空航天大学 | 一种支持目标尺寸变化的实时对象跟踪方法 |
CN107194408A (zh) * | 2017-06-21 | 2017-09-22 | 安徽大学 | 一种混合块稀疏协作模型的目标跟踪方法 |
CN108010067A (zh) * | 2017-12-25 | 2018-05-08 | 北京航空航天大学 | 一种基于组合判断策略的视觉目标跟踪方法 |
-
2018
- 2018-06-20 CN CN201810634940.4A patent/CN108932728B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105488815A (zh) * | 2015-11-26 | 2016-04-13 | 北京航空航天大学 | 一种支持目标尺寸变化的实时对象跟踪方法 |
CN107194408A (zh) * | 2017-06-21 | 2017-09-22 | 安徽大学 | 一种混合块稀疏协作模型的目标跟踪方法 |
CN108010067A (zh) * | 2017-12-25 | 2018-05-08 | 北京航空航天大学 | 一种基于组合判断策略的视觉目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
徐扬: "基于视觉的车辆违章轧线检测跟踪技术研究", 《中国优秀硕士学位论文全文数据库 工程科技II辑》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111862624A (zh) * | 2020-07-29 | 2020-10-30 | 浙江大华技术股份有限公司 | 车辆匹配方法、装置、存储介质及电子装置 |
CN111862624B (zh) * | 2020-07-29 | 2022-05-03 | 浙江大华技术股份有限公司 | 车辆匹配方法、装置、存储介质及电子装置 |
CN112489086A (zh) * | 2020-12-11 | 2021-03-12 | 北京澎思科技有限公司 | 目标跟踪方法、目标跟踪装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108932728B (zh) | 2021-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101576384B (zh) | 一种基于视觉信息校正的室内移动机器人实时导航方法 | |
CN102867414B (zh) | 一种基于ptz摄像机快速标定的车辆排队长度测量方法 | |
CN103325255B (zh) | 基于摄影测量技术进行区域交通状况检测的方法 | |
CN108320510A (zh) | 一种基于无人机航拍视频交通信息统计方法及系统 | |
He et al. | A novel algorithm for estimating vehicle speed from two consecutive images | |
CN109186625A (zh) | 智能车辆利用混合采样滤波进行精确定位的方法及系统 | |
CN109100730A (zh) | 一种多车协同快速建图方法 | |
CN107644528A (zh) | 一种基于车辆跟踪的车辆排队长度检测方法 | |
CN200990147Y (zh) | 基于多视点的智能视频交通监控系统 | |
CN110379168A (zh) | 一种基于Mask R-CNN的交通车辆信息获取方法 | |
CN102354457A (zh) | 基于广义霍夫变换的交通信号灯位置检测方法 | |
CN110097762A (zh) | 一种道路视频图像低能见度刻度估算方法及系统 | |
CN103150908A (zh) | 一种基于视频的平均车速检测方法 | |
CN110307791A (zh) | 基于三维车辆边界框的车辆长度及速度计算方法 | |
Zheng et al. | Background noise filtering and clustering with 3D LiDAR deployed in roadside of urban environments | |
CN109241855B (zh) | 基于立体视觉的智能车辆可行驶区域探测方法 | |
CN111951576A (zh) | 一种基于车辆识别的交通灯控制系统及其方法 | |
CN105913000B (zh) | 一种基于视频分析的车辆跟踪方法 | |
CN110097759A (zh) | 一种基于视频地理围栏的机动车违章行为检测方法 | |
CN108932728A (zh) | 基于视觉监控的跟踪方法 | |
CN110705484A (zh) | 利用行车轨迹识别连续变更车道违法行为的方法 | |
CN111160132B (zh) | 障碍物所在车道的确定方法、装置、电子设备和存储介质 | |
CN115308732A (zh) | 一种融合毫米波雷达与深度视觉的多目标检测与跟踪方法 | |
CN110443142A (zh) | 一种基于路面提取与分割的深度学习车辆计数方法 | |
CN116913081A (zh) | 一种基于路侧激光雷达的车辆排队长度检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210817 |