CN105184811A - 一种基于结构支持向量机的多尺度目标跟踪方法 - Google Patents

一种基于结构支持向量机的多尺度目标跟踪方法 Download PDF

Info

Publication number
CN105184811A
CN105184811A CN201510270434.8A CN201510270434A CN105184811A CN 105184811 A CN105184811 A CN 105184811A CN 201510270434 A CN201510270434 A CN 201510270434A CN 105184811 A CN105184811 A CN 105184811A
Authority
CN
China
Prior art keywords
support vector
target
collection
sample
init
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510270434.8A
Other languages
English (en)
Other versions
CN105184811B (zh
Inventor
赵天云
鹿馨
郭雷
胡秀华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xi'an Guangjiao Zhichuang Electronic Technology Co ltd
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201510270434.8A priority Critical patent/CN105184811B/zh
Publication of CN105184811A publication Critical patent/CN105184811A/zh
Application granted granted Critical
Publication of CN105184811B publication Critical patent/CN105184811B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及一种基于结构支持向量机的多尺度目标跟踪方法,利用结构输出支持向量机输出目标的位置估计值,避免了传统分类器对样本标签进行精确估计的需要;通过在线学习的方式更新结构输出支持向量机的参数,实现目标自适应跟踪;采用少量多尺度粒子作为候选样本,克服了传统固定尺度密集采样计算量过大的缺点,并显著提高了方法对目标尺度变化的适应性;提出一种阈值机制来避免支持向量集维数随时间快速无限增长,避免了计算资源的浪费;采用积分图进行Haar-like特征的快速计算,保证了方法的实时性。本发明在复杂背景下有较强鲁棒性,对目标的尺度变化、部分遮挡、旋转、光照变化等有较强适应性,满足实际目标跟踪任务的需要。

Description

一种基于结构支持向量机的多尺度目标跟踪方法
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于结构支持向量机的多尺度目标跟踪方法。
背景技术
基于视觉的运动目标跟踪是计算机视觉中最热门的研究课题之一,目标跟踪技术在战略与技术侦查、精确打击与武器制导、智能交通、医学诊断、视频监控等领域都有广泛的应用。同时,运动目标跟踪是计算机视觉中包括场景理解、行为识别等更高层任务研究的基础,对于理解人类视觉机制和探索人工智能具有重要意义。目前,国内外学者在目标跟踪领域开展了大量的工作,但由于自然场景中,目标外观会由于遮挡、光照、成像视角、尺度变化、非刚性形变等因素而发生难以预测的变化,使得实现鲁棒、实时的运动目标跟踪仍然面临诸多挑战。
现有的视觉目标跟踪方法可以分为三类:模式匹配法、状态估计法和基于检测的目标跟踪方法。模式匹配法关注于目标建模,通过计算候选样本与目标外观模型的最大相似度来完成目标定位。该类方法只利用了目标的外观信息,忽略了运动信息,当目标外观变化较大时会导致丢失。运动估计法是一种跟踪算法框架,可以与多种目标建模方法相结合,其实质是根据已有观测数据对目标状态进行估计,再用观测值来修正估计值的过程,常用的有卡尔曼滤波、粒子滤波等。基于检测的目标跟踪方法是近年来的研究热点,将跟踪问题视为检测问题,即通过建立在线更新的分类器来实现目标与背景的分离,弥补了传统方法忽略大量背景信息的缺点,且对目标外观变化有较强适应性。目前典型的基于检测的跟踪方法包括Struck(StructuredOutputTrackingwithKernels)、CT(compressivetracking)、TLD(Tracking-Learning-Detection)等。
结构输出跟踪(Struck)由于其高鲁棒性而得到广泛关注,采用结构输出支持向量机可以直接输出目标位置的估计值,避免了传统方法中输出样本标签的中间步骤,但该方法存在两个问题:一是采用固定尺度采集样本,而目标在运动过程中尺度会不断变化,这大大限制了该方法的应用范围;二是没有考虑目标的运动信息,当目标外观变化较大或运动较快时容易跟踪失败。因此,基于结构输出支持向量机的目标跟踪方法仍需进行改进以提高其跟踪精度。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种基于结构支持向量机的多尺度目标跟踪方法,方法对运动目标的尺度变化、外观变化有较强鲁棒性。
技术方案
一种基于结构支持向量机的多尺度目标跟踪方法,其特征在于步骤如下:
步骤1、系统初始化:读取目标的初始位置initBB=(init_x,init_y,init_w,init_h),其中(init_x,init_y)表示矩形目标框左上角点的位置,(init_w,init_h)表示宽和高,并计算第一帧图像中目标的Haar-like特征x0
根据目标的初始位置,构建n个粒子;所述每个粒子的参数包括位置(xMin,yMin)、宽高(width,height)、尺度s和特征V;将每个粒子的当前k时刻、(k-1)时刻、(k-2)时刻参数值均初始化为s=1,V=x0,(xMin,yMin,width,height)=initBB,width=init_w×s,height=init_h×s;
步骤2、利用二阶模型对每个粒子状态进行预测:
利用二阶模型i=1,2,...,n.预测每个粒子的当前状态,生成一组以上一帧目标位置为中心、不同位置、不同尺度的粒子集Par=(P0,P1,...Pn);
其中:表示第i个粒子在k时刻的状态,wk表示零均值白噪声,A和B分别为常数;
步骤3、多尺度目标跟踪:
读取第t帧图像,以步骤2中生成的粒子集Par=(P0,P1,...Pn)作为目标的候选样本集,由结构输出支持向量机的判别函数计算Par中所有样本的响应值,以响应值最大的样本Pmax所对应的粒子位置作为目标的估计位置, y t = arg max y ∈ Y F ( x i , y ) ;
其中:表示第j个支持向量的系数,(xi,y)、分别表示候选样本和支持向量的Haar-like特征和位置,表示高斯核函数,衡量候选样本(xi,y)与支持向量的相似度,Φ(xi,y)表示特征映射;yt表示第t帧目标的估计位置,Y表示候选样本的位置集;
步骤4、结构输出支持向量机更新两组独立数据:
所述两组独立数据为支持模式集SP和支持向量集SV;
所述支持模式集SP是:保存每一帧目标附近样本的特征向量x和位置信息BB;
所述支持向量集SV是:一个支持向量引用某个支持模式中的某个样本,保存该样本的特征x、位置BB、系数β、梯度g;
更新过程如下:
a)添加新支持模式SPt:首先以第t帧目标位置BB为中心进行固定尺度的极坐标采样,得到样本集S=((x0,y0),(x1,y1)...((xm,ym)),其中xi为特征,yi为位置,将该样本集添加入支持模式集SP中;(x0,y0)为第t帧目标信息,将其作为正支持向量添加入SV中,记为s+;然后由结构输出支持向量机的判别函数计算S中每个样本的响应值,由gi(y)=-Δ(y,yi)-F(xi,y)计算每个样本的梯度值,其中Δ(y,yi)表示第t帧目标位置yi与样本框y的重叠率,由求得,将梯度值最小的样本作为负支持向量添加入支持向量集,记为s-;最后由Sequentialminimaloptimization优化算法进行s+及s-的参数更新;
b)更新支持模式集SP:随机选取一个支持模式,由引用该支持模式的支持向量计算上述样本集S中梯度值最大且满足β<δ(y,yi)C的样本作为正支持向量,记为s+,其中 δ ( y , y i ) = 1 , y = y i 0 , y ≠ y i , C为常数;在所有支持模式中,将梯度值最小的样本作为负支持向量,记为s-;由Sequentialminimaloptimization优化算法进行s+及s-的参数更新;
c)优化支持模式集SP:随机选取一个支持模式,同b)中方法选取正支持向量s+;由计算得到负支持向量s-;由Sequentialminimaloptimization优化算法进行s+及s-的参数更新;
d)阈值机制:若支持向量集维数超过阈值,则移除引起权向量改变最小的负支持向量(xr,y),权向量 w ‾ = β r y 2 { k ( x r , y , x r , y ) + k ( x r , y r , x r , y r ) - 2 k ( x r , y , x r , y r ) } ;
步骤5:根据步骤3中最大得分粒子Pmax重置所有粒子的参数,读取下一帧图像,返回步骤2。
多次迭代步骤4中的b)、c)、d)以提高支持向量参数的准确度。
所述常数A和B的取值范围为A=1~2,B=-1~1。
有益效果
本发明提出的一种基于结构支持向量机的多尺度目标跟踪方法,利用结构输出支持向量机输出目标的位置估计值,避免了传统分类器对样本标签进行精确估计的需要;通过在线学习的方式更新结构输出支持向量机的参数,实现目标自适应跟踪;采用少量多尺度粒子作为候选样本,克服了传统固定尺度密集采样计算量过大的缺点,并显著提高了方法对目标尺度变化的适应性;提出一种阈值机制来避免支持向量集维数随时间快速无限增长,避免了计算资源的浪费;采用积分图进行Haar-like特征的快速计算,保证了方法的实时性。本发明在复杂背景下有较强鲁棒性,对目标的尺度变化、部分遮挡、旋转、光照变化等有较强适应性,满足实际目标跟踪任务的需要。
附图说明
图1:基于结构输出支持向量机的多尺度目标跟踪方法流程图;
图2:本发明与Struck算法、CT算法对人脸的跟踪结果对比图;
(a)本发明方法跟踪结果;(b)Struck跟踪结果;(c)CT跟踪结果;
图3:本发明与Struck算法、CT算法对汽车的跟踪结果对比图;
(a)本发明方法跟踪结果;(b)Struck跟踪结果;(c)CT跟踪结果。
具体实施方式
现结合实施例、附图对本发明作进一步描述:
用于实施的硬件环境是:因特尔酷睿2双核2.93G计算机、2.0GB内存、512M显卡,运行的软件环境是:VisualStudio2010,Windows7。我们用C++及opencv实现了本发明提出的方法。
本发明具体实施如下:
步骤1、系统初始化:读取目标的初始位置initBB=(init_x,init_y,init_w,init_h),其中(init_x,init_y)表示目标框的左上角点的位置,(init_w,init_h)表示矩形目标框的宽和高;将图像尺寸调整为240×320,并计算第一帧图像中目标的灰度Haar-like特征x0
所述Haar-like特征是一种矩形特征,反应图像的灰度变化,可通过积分图进行快速计算。本实施例选取了6种不同类型的Haar-like特征,包括两种边缘特征、两种线性特征,中心环绕特征、对角线特征,每种特征取32个矩形框,最终生成192维的特征向量,然后将特征值归一化到[-1,1]范围内,为了降低跟踪方法的随机性,在取32个矩形框时,采用均匀网格(2×4×4)的方式。
构建n个粒子,粒子参数包括位置(xMin,yMin)、宽高(width,height)、尺度s、特征V,将每个粒子的当前k时刻、(k-1)时刻、(k-2)时刻的参数值均初始化为s=1,V=x0,(xMin,yMin,width,height)=initBB。本实施例中n=800,且粒子宽、高同比例变化,即width=init_w×s,height=init_h×s。
步骤2、利用二阶模型对粒子状态进行预测:对每个粒子,利用其(k-1)、(k-2)帧的状态信息预测当前帧的状态,具体公式为:
x k ( i ) = Ax k - 1 ( i ) + Bx k - 2 ( i ) + w k x y k ( i ) = Ay k - 1 ( i ) + By k - 2 ( i ) + w k y s k ( i ) = As k - 1 ( i ) + Bs k - 2 ( i ) + w k s
其中xk(i),yk(i)表示第i个粒子的左上角点坐标、sk(i)表示第i个粒子的尺度, 分别表示三个状态的零均值白噪声,由此生成一组以上一帧目标位置为中心、不同位置、不同尺度的粒子集Par=(P0,P1,...Pn)。本实施例中,A=1.5,B=-0.5,标准差分别为sdx=10,sdy=10,sds=0.06。
步骤3、多尺度目标跟踪:读取第t帧图像,将其调整为240×320,以步骤2中生成的粒子集Par=(P0,P1,...Pn)作为目标的候选样本集,由结构输出支持向量机的判别函数计算Par中所有样本的响应值,其中表示第j个支持向量的系数,(xi,y)、分别表示候选样本和支持向量的Haar-like特征和位置,表示高斯核函数,衡量候选样本(xi,y)与支持向量的相似度,Φ(xi,y)表示特征映射;
响应值最大的样本Pmax所对应的粒子位置即目标的估计位置,即其中yt表示第t帧目标的估计位置,Y表示候选样本的位置集。
步骤4、结构输出支持向量机更新:结构输出支持向量机包含两组独立数据:一是支持模式集SP,保存每一帧目标周围所有样本的特征向量x和位置信息BB;二是支持向量集SV,一个支持向量引用某个支持模式中的某个样本,保存该样本的特征x、位置BB、系数β、梯度g。对SP和SV的更新需要四个过程:
a)添加新支持模式SPt:首先以第(t-1)帧目标位置BBt为中心、搜索半径为30像素、半径步长为12像素、相位步长为22.5°进行固定尺度的极坐标采样,得到81维的样本集S=((x0,y0),(x1,y1)...((x80,y80)),其中x为特征,y为位置,将该样本集添加到支持模式集SP中;(x0,y0)为第t帧目标信息,将其作为正支持向量添加入SV中,记为s+;然后由结构输出支持向量机的判别函数计算S中所有样本的响应值,由gi(y)=-Δ(y,yi)-F(xi,y)计算每个样本的梯度值,其中Δ(y,yi)表示第t帧目标位置yi与样本框y的重叠率,由求得,将梯度值最小的样本作为负支持向量添加入支持向量集,记为s-;最后由Sequentialminimaloptimization(SMO)优化算法进行s+及s-的参数更新。本实施例中高斯核函数 k ( x , x ‾ ) = exp ( - 0.2 | | x - x ‾ | | 2 ) .
所述Sequentialminimaloptimization(SMO)优化算法包括系数更新、梯度更新两部分:
系数更新:由 β i y + ← β i y + + λ β i y - ← β i y - - λ 更新支持向量的系数β,
其中 Σ y β i y = 0 , λ = max ( 0 , min ( λ u , Cδ ( s + , y i ) - β i y + ) ) , λ u = g i ( s + ) - g i ( s - ) k 00 + k 11 - 2 k 01 ,
高斯核映射值 k 00 = < &Phi; ( x i , s + ) , &Phi; ( x i , s + ) > k 11 = < &Phi; ( x i , s - ) , &Phi; ( x i , s - ) > k 01 = < &Phi; ( x i , s + ) , &Phi; ( x i , s - ) > ;
梯度更新:由gj(y)←gj(y)-λ(k0-k1)更新所有支持向量的梯度g,其中k0=<Φ(xj,s),Φ(xi,s+)>,k1=<Φ(xj,y),Φ(xi,s-)>,Φ(xj,y)为已有支持向量的特征映射,Φ(xi,s)为新支持向量的特征映射。
b)更新支持模式集SP:随机选取一个支持模式,由引用该支持模式的支持向量计算上述样本集S中梯度值最大且满足β<δ(y,yi)C的样本作为正支持向量,记为s+,其中 &delta; ( y , y i ) = 1 , y = y i 0 , y &NotEqual; y i , C为常数100;在所有支持模式中,将梯度值最小的样本作为负支持向量,记为s-;由Sequentialminimaloptimization(SMO)优化算法进行s+及s-的参数更新。
c)优化支持模式集SP:随机选取一个支持模式,同b)中方法选取正支持向量s+;由计算得到负支持向量s-;由Sequentialminimaloptimization(SMO)优化算法进行s+及s-的参数更新。
d)阈值机制:若支持向量集维数超过阈值,则移除引起权向量改变最小的负支持向量(xr,y),权向量 w &OverBar; = &beta; r y 2 { k ( x r , y , x r , y ) + k ( x r , y r , x r , y r ) - 2 k ( x r , y , x r , y r ) } , 本实施例取阈值为100。
将b)、c)、d)迭代10次以提高支持向量参数的准确度。
步骤5、根据步骤4中最大得分粒子Pmax重置所有粒子的参数,读取下一帧图像,返回步骤2。

Claims (3)

1.一种基于结构支持向量机的多尺度目标跟踪方法,其特征在于步骤如下:
步骤1、系统初始化:读取目标的初始位置initBB=(init_x,init_y,init_w,init_h),其中(init_x,init_y)表示矩形目标框左上角点的位置,(init_w,init_h)表示宽和高,并计算第一帧图像中目标的Haar-like特征x0
根据目标的初始位置,构建n个粒子;所述每个粒子的参数包括位置(xMin,yMin)、宽高(width,height)、尺度s和特征V;将每个粒子的当前k时刻、(k-1)时刻、(k-2)时刻参数值均初始化为s=1,V=x0,(xMin,yMin,width,height)=initBB,width=init_w×s,height=init_h×s;
步骤2、利用二阶模型对每个粒子状态进行预测:
利用二阶模型预测每个粒子的当前状态,生成一组以上一帧目标位置为中心、不同位置、不同尺度的粒子集Par=(P0,P1,...Pn);
其中:表示第i个粒子在k时刻的状态,wk表示零均值白噪声,A和B分别为常数;
步骤3、多尺度目标跟踪:
读取第t帧图像,以步骤2中生成的粒子集Par=(P0,P1,...Pn)作为目标的候选样本集,由结构输出支持向量机的判别函数计算Par中所有样本的响应值,以响应值最大的样本Pmax所对应的粒子位置作为目标的估计位置, y t = arg max y &Element; Y F ( x i , y ) ;
其中:表示第j个支持向量的系数,(xi,y)、分别表示候选样本和支持向量的Haar-like特征和位置,表示高斯核函数,衡量候选样本(xi,y)与支持向量的相似度,Φ(xi,y)表示特征映射;yt表示第t帧目标的估计位置,Y表示候选样本的位置集;
步骤4、结构输出支持向量机更新两组独立数据:
所述两组独立数据为支持模式集SP和支持向量集SV;
所述支持模式集SP是:保存每一帧目标附近样本的特征向量x和位置信息BB;
所述支持向量集SV是:一个支持向量引用某个支持模式中的某个样本,保存该样本的特征x、位置BB、系数β、梯度g;
更新过程如下:
a)添加新支持模式SPt:首先以第t帧目标位置BB为中心进行固定尺度的极坐标采样,得到样本集S=((x0,y0),(x1,y1)...((xm,ym)),其中xi为特征,yi为位置,将该样本集添加入支持模式集SP中;(x0,y0)为第t帧目标信息,将其作为正支持向量添加入SV中,记为s+;然后由结构输出支持向量机的判别函数计算S中每个样本的响应值,由gi(y)=-Δ(y,yi)-F(xi,y)计算每个样本的梯度值,其中Δ(y,yi)表示第t帧目标位置yi与样本框y的重叠率,由求得,将梯度值最小的样本作为负支持向量添加入支持向量集,记为s-;最后由Sequentialminimaloptimization优化算法进行s+及s-的参数更新;
b)更新支持模式集SP:随机选取一个支持模式,由引用该支持模式的支持向量计算上述样本集S中梯度值最大且满足β<δ(y,yi)C的样本作为正支持向量,记为s+,其中 &delta; ( y , y i ) = 1 , y = y i 0 , y &NotEqual; y i , C为常数;在所有支持模式中,将梯度值最小的样本作为负支持向量,记为s-;由Sequentialminimaloptimization优化算法进行s+及s-的参数更新;
c)优化支持模式集SP:随机选取一个支持模式,同b)中方法选取正支持向量s+;由计算得到负支持向量s-;由Sequentialminimaloptimization优化算法进行s+及s-的参数更新;
d)阈值机制:若支持向量集维数超过阈值,则移除引起权向量改变最小的负支持向量(xr,y),权向量 w &OverBar; = &beta; r y 2 { k ( x r , y , x r , y ) + k ( x r , y r , x r , y r ) - 2 k ( x r , y , x r , y r ) } ;
步骤5:根据步骤3中最大得分粒子Pmax重置所有粒子的参数,读取下一帧图像,返回步骤2。
2.根据权利要求1所述基于结构支持向量机的多尺度目标跟踪方法,其特征在于:多次迭代步骤4中的b)、c)、d)以提高支持向量参数的准确度。
3.根据权利要求1所述基于结构支持向量机的多尺度目标跟踪方法,其特征在于:所述常数A和B的取值范围为A=1~2,B=-1~1。
CN201510270434.8A 2015-05-25 2015-05-25 一种基于结构支持向量机的多尺度目标跟踪方法 Active CN105184811B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510270434.8A CN105184811B (zh) 2015-05-25 2015-05-25 一种基于结构支持向量机的多尺度目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510270434.8A CN105184811B (zh) 2015-05-25 2015-05-25 一种基于结构支持向量机的多尺度目标跟踪方法

Publications (2)

Publication Number Publication Date
CN105184811A true CN105184811A (zh) 2015-12-23
CN105184811B CN105184811B (zh) 2017-02-22

Family

ID=54906863

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510270434.8A Active CN105184811B (zh) 2015-05-25 2015-05-25 一种基于结构支持向量机的多尺度目标跟踪方法

Country Status (1)

Country Link
CN (1) CN105184811B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109195100A (zh) * 2018-07-09 2019-01-11 南京邮电大学 一种基于自适应窗口的盲区数据预警方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101777185A (zh) * 2009-12-09 2010-07-14 中国科学院自动化研究所 融合描述式和判别式建模的目标跟踪方法
US20110274314A1 (en) * 2010-05-05 2011-11-10 Nec Laboratories America, Inc. Real-time clothing recognition in surveillance videos
CN103886322A (zh) * 2012-12-20 2014-06-25 中山大学深圳研究院 一种基于SVM和Mean-Shift的视频目标跟踪方法
CN104091349A (zh) * 2014-06-17 2014-10-08 南京邮电大学 基于支持向量机的鲁棒目标跟踪方法
CN104376576A (zh) * 2014-09-04 2015-02-25 华为技术有限公司 一种目标跟踪方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101777185A (zh) * 2009-12-09 2010-07-14 中国科学院自动化研究所 融合描述式和判别式建模的目标跟踪方法
US20110274314A1 (en) * 2010-05-05 2011-11-10 Nec Laboratories America, Inc. Real-time clothing recognition in surveillance videos
CN103886322A (zh) * 2012-12-20 2014-06-25 中山大学深圳研究院 一种基于SVM和Mean-Shift的视频目标跟踪方法
CN104091349A (zh) * 2014-06-17 2014-10-08 南京邮电大学 基于支持向量机的鲁棒目标跟踪方法
CN104376576A (zh) * 2014-09-04 2015-02-25 华为技术有限公司 一种目标跟踪方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SAM HARE ET AL: "Struck: Structured Output Tracking with Kernels", 《2011 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109195100A (zh) * 2018-07-09 2019-01-11 南京邮电大学 一种基于自适应窗口的盲区数据预警方法
CN109195100B (zh) * 2018-07-09 2020-12-01 南京邮电大学 一种基于自适应窗口的盲区数据预警方法

Also Published As

Publication number Publication date
CN105184811B (zh) 2017-02-22

Similar Documents

Publication Publication Date Title
Li et al. Robust visual tracking based on convolutional features with illumination and occlusion handing
CN104574445B (zh) 一种目标跟踪方法
CN102262724B (zh) 目标图像特征点定位方法和目标图像特征点定位系统
Sun et al. A multiple template approach for robust tracking of fast motion target
Liu et al. Stochastic lane shape estimation using local image descriptors
Cai et al. Multi-AUV collaborative target recognition based on transfer-reinforcement learning
CN103985143A (zh) 基于字典学习的视频中判别性在线目标跟踪方法
Narayana et al. Intelligent visual object tracking with particle filter based on Modified Grey Wolf Optimizer
CN106056627B (zh) 一种基于局部鉴别性稀疏表示的鲁棒目标跟踪方法
Chen et al. Robust vehicle detection and viewpoint estimation with soft discriminative mixture model
Xiao et al. Lane detection based on road module and extended kalman filter
Qing et al. A novel particle filter implementation for a multiple-vehicle detection and tracking system using tail light segmentation
Pham et al. Pencilnet: Zero-shot sim-to-real transfer learning for robust gate perception in autonomous drone racing
Hoque et al. Deep learning for 6D pose estimation of objects—A case study for autonomous driving
Feng Mask RCNN-based single shot multibox detector for gesture recognition in physical education
Liu et al. Lane shape estimation using a partitioned particle filter for autonomous driving
Chu et al. Target tracking via particle filter and convolutional network
Moridvaisi et al. An extended KCF tracking algorithm based on TLD structure in low frame rate videos
Zhang et al. Target tracking for mobile robot platforms via object matching and background anti-matching
CN105184811A (zh) 一种基于结构支持向量机的多尺度目标跟踪方法
Bai et al. Multiple condensation filters for road detection and tracking
Zhou et al. Target tracking based on foreground probability
Fan et al. Robust tracking-by-detection using a selection and completion mechanism
Yang Target tracking algorithm based on adaptive scale detection learning
Zhou et al. A Novel Algorithm of Edge Location Based on Omni-directional and Multi-scale MM.

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220523

Address after: Room 403, block a, innovation building, Northwest University of technology, No. 127, Youyi West Road, Beilin District, Xi'an, Shaanxi 710072

Patentee after: Xi'an Guangjiao Zhichuang Electronic Technology Co.,Ltd.

Address before: 710072 No. 127 Youyi West Road, Shaanxi, Xi'an

Patentee before: Northwestern Polytechnical University