CN106981071A - 一种基于无人艇应用的目标跟踪方法 - Google Patents
一种基于无人艇应用的目标跟踪方法 Download PDFInfo
- Publication number
- CN106981071A CN106981071A CN201710170160.4A CN201710170160A CN106981071A CN 106981071 A CN106981071 A CN 106981071A CN 201710170160 A CN201710170160 A CN 201710170160A CN 106981071 A CN106981071 A CN 106981071A
- Authority
- CN
- China
- Prior art keywords
- target
- frame
- parameter
- candidate
- maxscore
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
一种基于无人艇应用的目标跟踪方法,包括步骤:获取目标的图像序列,在以上一帧目标所在位置为搜索中心的设定范围内,利用预设滤波器f(z)=WTZ,搜索到最大响应位置,该最大响应位置作为目标在当前帧的候选位置中心;在候选位置中心的周围采用多尺度滑动窗口采样得到若干候选框,利用结构化SVM分类器对所有候选框计算得分,得分最大的候选框作为当前帧目标的预测结果;判断目标是否被遮挡;若目标被遮挡,则不进行在线学习,不更新预设滤波器参数和结构化SVM分类器参数;若目标未被遮挡,更新预设滤波器参数;更新结构化SVM分类器参数;重复步骤S1‑S5,直到图像序列的最后一帧。本发明能够长时间稳定地跟踪。
Description
技术领域
本发明涉及无人艇应用技术领域,具体地说是一种基于无人艇应用的目标长时间稳定跟踪方法。
背景技术
无人艇,是一种无人操作的水面舰艇,可以在各种环境中使用,尤其便于在不适合有人船只和较为危险的环境中使用,不管是在军用领域还是民用领域,我国对无人艇的需求都在逐渐增强。在无人艇的自主航行中,目标的稳定跟踪是无人艇自动避障的技术基础。目前常用的目标跟踪方法主要有以下两种:
(1)基于关键点匹配的目标跟踪方法
基于关键点匹配的目标跟踪方法通常在目标所在区域提取具有不变性特征的关键点,将目标模板视作一些关键点的集合,在以后的各帧中提取关键点并与模板的关键点比较,然后估计几何变换参数,求得当前帧目标位置相对于初始模板位置的几何变换关系。
(2)基于目标检测的目标跟踪方法
基于目标检测的跟踪方法通常利用一个在线训练的分类器将目标从周围背景中区分出来。在跟踪的过程中,在上一帧目标所在位置周围以滑动窗口形式提取一定数量的候选框,通过在线训练的分类器预测目标所在位置。有了目标的预估位置以后,可以生成一个带标签的训练样本集合,用这个训练样本集在线训练更新分类器模型参数。
基于关键点匹配的方法的成功与关键点的检测方法密切相关,关键点太多会影响算法执行效率,关键点太少会影响算法的准确性,并且,当目标的外观发生剧烈变化,或者背景较复杂,与目标区分度不大时,这种算法就会跟丢目标,导致跟踪失败。而基于目标检测的跟踪方法虽然能够很好的解决目标的形变、旋转等问题,但是算法复杂度较高,难以做到实时,限制此类方法的实际应用范围。
尽管目前已存在许多目标跟踪的方法,但是在无人艇的自主航行问题中,待跟踪的目标类型众多(例如游轮、帆船、漂浮物、礁石等),可能很大也可能很小,并且经常伴随目标的尺度变化以及目标之间的遮挡,在保证实时性的前提下,目前的目标跟踪方法不能很好的适应真实的自然场景。
综上所述,尽管目前存在很多目标跟踪相关方法,但由于算法的鲁棒性以及实时性等原因,很难将其应用到无人艇的自动避障中。
发明内容
本发明要解决的技术问题是提供一种基于无人艇应用的水面目标跟踪方法,能够长时间稳定地进行跟踪。
为了解决上述技术问题,本发明采取以下技术方案:
一种基于无人艇应用的目标跟踪方法,包括以下步骤:
S1,获取目标的图像序列,在以上一帧目标所在位置为搜索中心的设定范围内,利用预设滤波器f(z)=WTZ,Z为样本的特征向量,W为权重向量,搜索到最大响应位置,该最大响应位置作为目标在当前帧的候选位置中心;
S2,在候选位置中心的周围采用多尺度滑动窗口采样得到若干候选框,利用结构化SVM分类器对所有候选框计算得分,得分最大的候选框作为当前帧目标的预测结果;
S3,判断目标是否被遮挡;
S4,若目标被遮挡,则不进行在线学习,不更新预设滤波器参数和结构化SVM分类器参数;若目标未被遮挡,更新预设滤波器参数,转入步骤S5;
S5,更新结构化SVM分类器参数;
S6,重复步骤S1-S5,直到图像序列的最后一帧。
所述步骤S4中更新预设滤波器参数具体包括以下子步骤:
S4.1,构造循环样本矩阵,以步骤S2得到的预测结果所在位置作为中心,设置一个基本样本,该基本样本的大小为目标的N倍,N为大于1的实数,将该基本样本进行上下左右的循环偏移,得到若干训练样本,所有训练样本构成循环样本矩阵;
S4.2,对预设滤波器f(z)=WTZ中的参数W进行更新,设定训练样本及其回归值为{(x1,y1),(x2,y2),...,(xi,yi),...},根据目标函数:利用线性最小二乘法求解计算得到闭式解:W=(XTX+λI)-1XTy,X是一个由训练样本的特征向量组成的样本矩阵,y是由每个训练样本的回归值yi组成的列向量,I是个单位矩阵,λ为正则化参数。
所述步骤S4.2中,对于闭式解W=(XTX+λI)-1XTy,其中存在逆运算(XHX+λI)-1,在样本量很多时直接求解逆运算会很耗时,为了提高运算效率,对该闭式解进行离散傅立叶变换。
所述步骤S5具体包括以下子步骤:
S5.1,以预测结果所在位置为中心,在设定搜索半径的区域内,均匀采集训练样本,得到支持向量,该支持向量由正训练样本和负训练样本构成,更新结构化SVM分类器参数;
S5.2,设定支持向量的数量上限,当支持向量的数量达到阈值时,去除对结构化SVM分类器影响最小的支持向量。
所述步骤S3中判断目标是否被遮挡具体为:
S3.1,将步骤S2中得分最大的候选框所对应的得分值与历史最大得分值进行比较,得分值最大的候选框为当前的跟踪结果;
S3.2,若当前的候选框的得分小于MAXScore-derta_1*MAXScore,则目标被遮挡,当前跟踪结果维持上一帧目标位置不变,并在下一帧寻找目标时扩大搜索范围;
S3.3,若当前的候选框的得分大于MAXScore-derta_1*MAXScore并且小于MAXScore-derta_2*MAXScore,则当前跟踪结果是目标,目标的一部分被遮挡,此时更新目标位置,但是不更新预设滤波器和结构化SVM分类器参数;
S3.4,如果当前的候选框的得分值大于MAXScore-derta_2*MAXScore,则既更新目标位置也更新预设滤波器参数和结构化SVM分类器参数;
其中,MAXScore为历史最大得分值,derta_1和derta_2为常数,并且derta_2小于derta_1。
所述步骤S1具体包括以下子步骤:
S1.1,获取目标的图像序列后,对其中的图像进行预处理,将图像转换为灰度图,在该灰度图上进行特征提取取,得到特征图;
S1.2,特征图上每一个像素位置对应有一个特征向量Zij,计算特征图上每个像素位置的响应值f(z)=WTZij,得到热图,取该热图中最大响应位置为当前帧目标候选位置的中心。
本发明能够长时间稳定跟踪无人艇自主航行中遇到的各种障碍物以及需要被跟踪的目标。通过及时处理无人艇上相机拍摄得到的图片,结合预设滤波器和结构化输出的跟踪方法,实时感知周围环境,稳定跟踪感兴趣目标。在保证实时性的前提下,本发明相比于现有的其他跟踪方法,无论是在处理跟踪过程中目标遮挡、尺度变化等问题,还是目标自身发生形变或者环境背景光照变化等问题上,都有很大的提升,对无人艇的自动避障具有重要的指导意义。
附图说明
附图1为本发明流程示意图;
附图2为本发明中判断目标是否被遮挡的流程示意图;
附图3为本发明预设滤波器更新参数的流程示意图;
附图4为本发明结构化SVM分类器更新参数的流程示意图;
附图5为本发明跟踪实施例的示意图。
具体实施方式
为了便于本领域技术人员的理解,下面结合附图对本发明作进一步的描述。
如附图1所示,本发明揭示了一种基于无人艇应用的水面目标跟踪方法,包括以下步骤:
S1,获取目标的图像序列,在以上一帧目标所在位置为搜索中心的设定范围内,利用预设滤波器f(z)=WTZ,Z为样本的特征向量,W为权重向量,搜索到最大响应位置,该最大响应位置作为目标在当前帧的候选位置中心。
S2,在候选位置中心的周围采用多尺度滑动窗口采样得到若干候选框,利用结构化SVM分类器对所有候选框计算得分,得分最大的候选框作为当前帧目标的预测结果。
S3,判断目标是否被遮挡。
S4,若目标被遮挡,则不进行在线学习,不更新预设滤波器参数和结构化SVM分类器参数,即使目标的表现模型发生改变时也能准确找得到目标;若目标未被遮挡,更新预设滤波器参数,转入步骤S5。
S5,更新结构化SVM分类器参数。
S6,重复步骤S1-S5,直到图像序列的最后一帧,从而得到较为准确的跟踪结果。
对于步骤S1具体包括以下子步骤:
S1.1,获取目标的图像序列后,对其中的图像进行预处理,将图像转换为灰度图,在该灰度图上进行特征提取,得到特征图。如果目标图像的面积大于阈值Smax,降低其分辨率为原来的0.5倍,避免因跟踪器处理的图像过大而降低算法效率,在本发明实施例中取Smax=50*50。如果是彩色图,还需要将其转换为灰度图,特征提取只在灰度图上进行。对于图像特征的选择,选择处理速度比较快速并且效果也比较好的HOG特征,将梯度方向分为9个bin,cell大小为lcell*lcell,lcell=4,每个cell的特征维度是31,计算搜索区域对应的特征图,如果搜索区域的大小为Wf*Hf,特征图的大小为
S1.2,特征图上每一个像素位置对应有一个特征向量Zij,计算特征图上每个像素位置的响应值f(z)=WTZij,得到热图,取该热图中最大响应位置为当前帧目标候选位置的中心。特征图上每个像素位置都有一个特征向量Zij,利用上一帧图像训练得到的权重向量W,计算特征图上每个位置的响应值f(z)=WTZij,得到热图,取热图中最大响应位置为当前帧目标候选位置的中心,起到缩小步骤2结构化SVM分类器的搜索范围的作用。
在步骤S2中,根据步骤1得到当前帧的候选位置中心,若目标长和宽分别为wt、ht,则搜索区域的长和宽为wt+12、ht+12。在搜索区域内以5个尺度(1.0,0.9,1.05,1.1,1.15)进行滑动窗口密集采样,得到目标候选框。
选用6种Haar特征模板,将每个候选框分为4*4的网格,在2个尺度上对每个候选框所在区域的图像计算得到192维Haar特征。为了提高算法的计算效率,在特征提取前,首先计算输入图像的积分图。利用结构化SVM分类器对每个候选框计算得分。取得分最大的候选框作为目标新的位置。
如附图2所示,步骤S3中判断目标是否被遮挡具体为:
S3.1,将步骤S2中得分最大的候选框所对应的得分值与历史最大得分值进行比较,得分值最大的候选框为当前的跟踪结果;
S3.2,若当前的候选框的得分小于MAXScore-derta_1*MAXScore,则目标被遮挡,当前跟踪结果维持上一帧目标位置不变,并在下一帧寻找目标时扩大搜索范围;
S3.3,若当前的候选框的得分大于MAXScore-derta_1*MAXScore并且小于MAXScore-derta_2*MAXScore,则当前跟踪结果是目标,目标的一部分被遮挡,此时更新目标位置,但是不更新预设滤波器和结构化SVM分类器参数;
S3.4,如果当前的候选框的得分值大于MAXScore-derta_2*MAXScore,则既更新目标位置也更新预设滤波器参数和结构化SVM分类器参数;
其中,MAXScore为历史最大得分,derta_1和derta_2为常数,并且derta_2小于derta_1。在本实施例中,derta_1、derta_2的值分别是0.65和0.35。
通过判断目标是否被遮挡,并且执行相关操作,有效防止预设滤波器和结构化SVM分类器发生错误更新,导致跟踪结果出现漂移甚至跟丢目标的情况。
此外,如附图3所示,所述步骤S4中更新预设滤波器参数具体包括以下子步骤:
S4.1,构造循环样本矩阵,以步骤S2得到的预测结果所在位置作为中心,设置一个基本样本,该基本样本的大小为目标的N倍,N为大于1的实数,将该基本样本进行上下左右的循环偏移,得到若干训练样本,所有训练样本构成循环样本矩阵。比如,将基本样本的大小设为目标大小的3倍。以目标为中心,将基本样本做出相应的上下左右循环偏移,可以得到数量很多的训练样本,对于新构造的训练样本,根据它里面目标中心与基本样本目标中心的距离,分配一个总体呈高斯分布的回归值,方差为0.4、0.3或者其他数值,该方差的取值与目标大小有关,上述列举并非是限定,具体表现为方差w和h分别是目标的长和宽,lcell为前述HOG特征的cell大小。基本样本回归值为1,循环偏移的越多,其样本回归值越接近0。即目标在中心时,标签为1,目标偏离中心越远,标签越小,最小为0。
另外,通过循环偏移得到的图像在边界处不是很平滑,通过对基准图像乘以一个汉宁窗来降低边缘图像的权重。
S4.2,对预设滤波器f(z)=WTZ中的参数W进行更新,设定训练样本及其回归值为{(x1,y1),(x2,y2),...,(xi,yi),...},根据目标函数:利用线性最小二乘法求解计算得到闭式解:W=(XTX+λI)-1XTy,X是一个由训练样本的特征向量组成的样本矩阵,y是由每个训练样本的回归值yi组成的列向量,I是个单位矩阵,λ为正则化参数。对于闭式解W=(XTX+λI)-1XTy,其中存在逆运算(XHX+λI)-1,对该闭式解进行离散傅立叶变换。
上述的训练样本的训练过程实际上是求解一个岭回归问题,或者叫做正则化最小二乘问题。比如,一个复数情况下的求解结果W*=(XHX+λI)-1XHy,其中XH是X的共轭转置,W*是W的共轭。在这个闭式解中出现了求逆运算(XHX+λI)-1,将上面的闭式解进行离散傅立叶变换,可以避开矩阵求逆运算,减少算法执行时间,极大提高目标跟踪算法的实时性。最终得到⊙代表向量对应元素相乘,经过反向傅里叶变换即可得到W,从而实现预设滤波器参数的顺利更新。
如附图4所示,所述步骤S5具体包括以下子步骤:
S5.1,以预测结果所在位置为中心,在设定搜索半径的区域内,均匀采集训练样本,得到支持向量,该支持向量由正训练样本和负训练样本构成,更新结构化SVM分类器参数。
通过学习一个预测函数f:x→y去直接预测帧间的目标位置转换关系,而不是学习一个分类器。输出空间是转换关系y而不是二值标签0或者1。在该方法中,一个带标签的样本是一对(x,y),y是目标位置的转换关系(比如位移、旋转),在结构化输出SVM框架下学习f,将f应用于下式中进行下一帧目标位置的预测:
判别函数F为更准确的包含目标的样本打高分。其中pt-1为t-1帧目标所在位置,为第t帧位置在pt-1处的图像,y是位置变化关系的集合,yt是预测的目标位置,F可以表示其中w是分类器的参数,是x,y的结构化特征表示,在后续处理中会通过核函数将特征映射到另一个高维特征空间,通过选择一定数量的正负样本作为训练样本集合,使下面的损失函数取得最小来在线更新结构化SVM分类器参数:
其中yi代表第i帧对应的跟踪器的输出结果,εi为SVM中的松弛变量,(为论文中常见的含义,即:对于所有的i,对于所有的y≠yi),C为系数,xi代表第i帧图像。此优化的目的是为了确保当y≠yi时,F(xi,yi)的值大于F(xi,y),损失函数定义为Δ(yi,y)。如果y=yi,损失函数满足Δ(yi,y)=0,并且当y与yi越来越相似时趋近于0。Δ(yi,y)=1-spt(yi,y),也就是给定一个参考位置pt和两个转换关系计算生成的两个样本的相似性。比如,重叠面积函数定义如下
使用标准的拉格朗日对偶技术,目标函数被转化为以下的相等对偶形式
在上述对偶形式中,为拉格朗日乘子,y都是位置变化关系的集合。判别函数可以表述成上面的对偶表达式可以被进一步简化为:
其中如果y=yi,δ(y,yi)=1,其他情况下为0。也简化了判别式函数在此形式中,称的为支持向量。称包含至少一个支持向量的xi为支持模式。对于一个给定的xi,只有支持向量(xi,yi)的而除此以外的任何支持向量的分别称为正的支持向量和负的支持向量。利用序列最小最优化算法(SMO)方法更新参数,由于所以这两个参数按照相反的方向修改, 代表正负支持向量的权系数,λ为变化量。利用公知的SMO算法求得λ,更新
S5.2,设定支持向量的数量上限,当支持向量的数量达到阈值时,去除对结构化SVM分类器影响最小的支持向量。
根据步骤S5.1,如果一个支持模式只有两个支持向量,那么这两个都会被移除。将向量(xr,y)移除后对权重向量的影响可以按下式计算:
(xr,yr)为正的支持向量,(xr,y)为去掉的支持向量,为(xr,y)前述判别函数F中的系数,W为判别函数F的参数在对偶空间中的表达,也就是说
如附图5所示,为按照本发明方法进行水面目标跟踪的一个实施例示意图,能够长时间稳定的跟踪目标。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于无人艇应用的目标跟踪方法,包括以下步骤:
S1,获取目标的图像序列,在以上一帧目标所在位置为搜索中心的设定范围内,利用预设滤波器f(z)=WTZ,Z为样本的特征向量,W为权重向量,搜索到最大响应位置,该最大响应位置作为目标在当前帧的候选位置中心;
S2,在候选位置中心的周围采用多尺度滑动窗口采样得到若干候选框,利用结构化SVM分类器对所有候选框计算得分,得分最大的候选框作为当前帧目标的预测结果;
S3,判断目标是否被遮挡;
S4,若目标被遮挡,则不进行在线学习,不更新预设滤波器参数和结构化SVM分类器参数;若目标未被遮挡,更新预设滤波器参数,转入步骤S5;
S5,更新结构化SVM分类器参数;
S6,重复步骤S1-S5,直到图像序列的最后一帧。
2.根据权利要求1所述的基于无人艇应用的目标跟踪方法,其特征在于,所述步骤S4中更新预设滤波器参数具体包括以下子步骤:
S4.1,构造循环样本矩阵,以步骤S2得到的预测结果所在位置作为中心,设置一个基本样本,该基本样本的大小为目标的N倍,N为大于1的实数,将该基本样本进行上下左右的循环偏移,得到若干训练样本,所有训练样本构成循环样本矩阵;
S4.2,对预设滤波器f(z)=WTZ中的参数W进行更新,设定训练样本及其回归值为{(x1,y1),(x2,y2),...,(xi,yi),...},根据目标函数:利用线性最小二乘法求解计算得到闭式解:W=(XTX+λI)-1XTy,X是一个由训练样本的特征向量组成的样本矩阵,y是由每个训练样本的回归值yi组成的列向量,I是个单位矩阵,λ为正则化参数。
3.根据权利要求2所述的基于无人艇应用的目标跟踪方法,其特征在于,所述步骤S4.2中,对于闭式解W=(XTX+λI)-1XTy,其中存在逆运算(XHX+λI)-1,对该闭式解进行离散傅立叶变换。
4.根据权利要求3所述的基于无人艇应用的目标跟踪方法,其特征在于,所述步骤S5具体包括以下子步骤:
S5.1,以预测结果所在位置为中心,在设定搜索半径的区域内,均匀采集训练样本,得到支持向量,该支持向量由正训练样本和负训练样本构成,更新结构化SVM分类器参数;
S5.2,设定支持向量的数量上限,当支持向量的数量达到阈值时,去除对结构化SVM分类器影响最小的支持向量。
5.根据权利要求4所述的基于无人艇应用的目标跟踪方法,其特征在于,所述步骤S3中判断目标是否被遮挡具体为:
S3.1,将步骤S2中得分最大的候选框所对应的得分值与历史最大得分值进行比较,得分值最大的候选框为当前的跟踪结果;
S3.2,若当前的候选框的得分小于MAXScore–derta_1*MAXScore,则目标被遮挡,当前跟踪结果维持上一帧目标位置不变,并在下一帧寻找目标时扩大搜索范围;
S3.3,若当前的候选框的得分大于MAXScore–derta_1*MAXScore并且小于MAXScore–derta_2*MAXScore,则当前跟踪结果是目标,目标的一部分被遮挡,此时更新目标位置,但是不更新预设滤波器和结构化SVM分类器参数;
S3.4,如果当前的候选框的得分值大于MAXScore–derta_2*MAXScore,则既更新目标位置也更新预设滤波器参数和结构化SVM分类器参数;
其中,MAXScore为历史最大得分值,derta_1和derta_2为常数,并且derta_2小于derta_1。
6.根据权利要求5所述的基于无人艇应用的目标跟踪方法,其特征在于,所述步骤S1具体包括以下子步骤:
S1.1,获取目标的图像序列后,对其中的图像进行预处理,将图像转换为灰度图,在该灰度图上进行特征提取取,得到特征图;
S1.2,特征图上每一个像素位置对应有一个特征向量Zij,计算特征图上每个像素位置的响应值f(z)=WTZij,得到热图,取该热图中最大响应位置为当前帧目标候选位置的中心。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710170160.4A CN106981071B (zh) | 2017-03-21 | 2017-03-21 | 一种基于无人艇应用的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710170160.4A CN106981071B (zh) | 2017-03-21 | 2017-03-21 | 一种基于无人艇应用的目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106981071A true CN106981071A (zh) | 2017-07-25 |
CN106981071B CN106981071B (zh) | 2020-06-26 |
Family
ID=59339043
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710170160.4A Active CN106981071B (zh) | 2017-03-21 | 2017-03-21 | 一种基于无人艇应用的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106981071B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564069A (zh) * | 2018-05-04 | 2018-09-21 | 中国石油大学(华东) | 一种工业佩戴安全帽视频检测方法 |
CN108681691A (zh) * | 2018-04-09 | 2018-10-19 | 上海大学 | 一种基于无人水面艇的海上船艇快速检测方法 |
CN108765458A (zh) * | 2018-04-16 | 2018-11-06 | 上海大学 | 基于相关滤波的高海况无人艇海面目标尺度自适应跟踪方法 |
CN108830879A (zh) * | 2018-05-29 | 2018-11-16 | 上海大学 | 一种适用于遮挡场景的无人艇海面相关滤波目标跟踪方法 |
CN109117812A (zh) * | 2018-08-24 | 2019-01-01 | 深圳市赛为智能股份有限公司 | 住宅安全防护方法、装置、计算机设备及存储介质 |
CN109684909A (zh) * | 2018-10-11 | 2019-04-26 | 武汉工程大学 | 一种无人机目标要害点实时定位方法、系统及存储介质 |
CN110441788A (zh) * | 2019-07-31 | 2019-11-12 | 北京理工大学 | 一种基于单线激光雷达的无人艇环境感知方法 |
CN111383252A (zh) * | 2018-12-29 | 2020-07-07 | 曜科智能科技(上海)有限公司 | 多相机目标追踪方法、系统、装置及存储介质 |
CN111460948A (zh) * | 2020-03-25 | 2020-07-28 | 中国人民解放军陆军炮兵防空兵学院 | 一种基于代价敏感结构化svm的目标跟踪方法 |
CN112348822A (zh) * | 2019-08-08 | 2021-02-09 | 佳能株式会社 | 图像处理设备和图像处理方法 |
CN113095275A (zh) * | 2021-04-26 | 2021-07-09 | 辽宁工程技术大学 | 基于PCA-Struck多源视频目标特征融合跟踪方法 |
CN114005018A (zh) * | 2021-10-14 | 2022-02-01 | 哈尔滨工程大学 | 一种小算力驱动的水面无人艇多目标跟踪方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102881022A (zh) * | 2012-07-20 | 2013-01-16 | 西安电子科技大学 | 基于在线学习的遮挡目标跟踪方法 |
CN104376326A (zh) * | 2014-11-02 | 2015-02-25 | 吉林大学 | 一种用于图像场景识别的特征提取方法 |
CN105844665A (zh) * | 2016-03-21 | 2016-08-10 | 清华大学 | 视频对象追踪方法及装置 |
CN106204638A (zh) * | 2016-06-29 | 2016-12-07 | 西安电子科技大学 | 一种基于尺度自适应和遮挡处理的航拍目标跟踪方法 |
CN107480704A (zh) * | 2017-07-24 | 2017-12-15 | 南开大学 | 一种具有遮挡感知机制的实时视觉目标跟踪方法 |
-
2017
- 2017-03-21 CN CN201710170160.4A patent/CN106981071B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102881022A (zh) * | 2012-07-20 | 2013-01-16 | 西安电子科技大学 | 基于在线学习的遮挡目标跟踪方法 |
CN104376326A (zh) * | 2014-11-02 | 2015-02-25 | 吉林大学 | 一种用于图像场景识别的特征提取方法 |
CN105844665A (zh) * | 2016-03-21 | 2016-08-10 | 清华大学 | 视频对象追踪方法及装置 |
CN106204638A (zh) * | 2016-06-29 | 2016-12-07 | 西安电子科技大学 | 一种基于尺度自适应和遮挡处理的航拍目标跟踪方法 |
CN107480704A (zh) * | 2017-07-24 | 2017-12-15 | 南开大学 | 一种具有遮挡感知机制的实时视觉目标跟踪方法 |
Non-Patent Citations (2)
Title |
---|
HENRIQUES J F 等: "High-speed tracking with kernelized correlation filters", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
杨德东 等: "采用核相关滤波器的长期目标跟踪", 《光学精密工程》 * |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108681691A (zh) * | 2018-04-09 | 2018-10-19 | 上海大学 | 一种基于无人水面艇的海上船艇快速检测方法 |
CN108765458A (zh) * | 2018-04-16 | 2018-11-06 | 上海大学 | 基于相关滤波的高海况无人艇海面目标尺度自适应跟踪方法 |
CN108765458B (zh) * | 2018-04-16 | 2022-07-12 | 上海大学 | 基于相关滤波的高海况无人艇海面目标尺度自适应跟踪方法 |
CN108564069B (zh) * | 2018-05-04 | 2021-09-21 | 中国石油大学(华东) | 一种工业佩戴安全帽视频检测方法 |
CN108564069A (zh) * | 2018-05-04 | 2018-09-21 | 中国石油大学(华东) | 一种工业佩戴安全帽视频检测方法 |
CN108830879A (zh) * | 2018-05-29 | 2018-11-16 | 上海大学 | 一种适用于遮挡场景的无人艇海面相关滤波目标跟踪方法 |
CN109117812A (zh) * | 2018-08-24 | 2019-01-01 | 深圳市赛为智能股份有限公司 | 住宅安全防护方法、装置、计算机设备及存储介质 |
CN109684909A (zh) * | 2018-10-11 | 2019-04-26 | 武汉工程大学 | 一种无人机目标要害点实时定位方法、系统及存储介质 |
CN109684909B (zh) * | 2018-10-11 | 2023-06-09 | 武汉工程大学 | 一种无人机目标要害点实时定位方法、系统及存储介质 |
CN111383252A (zh) * | 2018-12-29 | 2020-07-07 | 曜科智能科技(上海)有限公司 | 多相机目标追踪方法、系统、装置及存储介质 |
CN111383252B (zh) * | 2018-12-29 | 2023-03-24 | 曜科智能科技(上海)有限公司 | 多相机目标追踪方法、系统、装置及存储介质 |
CN110441788B (zh) * | 2019-07-31 | 2021-06-04 | 北京理工大学 | 一种基于单线激光雷达的无人艇环境感知方法 |
CN110441788A (zh) * | 2019-07-31 | 2019-11-12 | 北京理工大学 | 一种基于单线激光雷达的无人艇环境感知方法 |
CN112348822A (zh) * | 2019-08-08 | 2021-02-09 | 佳能株式会社 | 图像处理设备和图像处理方法 |
CN111460948A (zh) * | 2020-03-25 | 2020-07-28 | 中国人民解放军陆军炮兵防空兵学院 | 一种基于代价敏感结构化svm的目标跟踪方法 |
CN111460948B (zh) * | 2020-03-25 | 2023-10-13 | 中国人民解放军陆军炮兵防空兵学院 | 一种基于代价敏感结构化svm的目标跟踪方法 |
CN113095275A (zh) * | 2021-04-26 | 2021-07-09 | 辽宁工程技术大学 | 基于PCA-Struck多源视频目标特征融合跟踪方法 |
CN114005018A (zh) * | 2021-10-14 | 2022-02-01 | 哈尔滨工程大学 | 一种小算力驱动的水面无人艇多目标跟踪方法 |
CN114005018B (zh) * | 2021-10-14 | 2024-04-16 | 哈尔滨工程大学 | 一种小算力驱动的水面无人艇多目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106981071B (zh) | 2020-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106981071A (zh) | 一种基于无人艇应用的目标跟踪方法 | |
Chen et al. | A hierarchical model incorporating segmented regions and pixel descriptors for video background subtraction | |
WO2020077858A1 (zh) | 基于神经网络的视频描述生成方法、介质、终端及装置 | |
CN109242019B (zh) | 一种水面光学小目标快速检测与跟踪方法 | |
CN107862680B (zh) | 一种基于相关滤波器的目标跟踪优化方法 | |
CN102779346A (zh) | 基于改进c-v模型的sar图像变化检测方法 | |
CN110245587B (zh) | 一种基于贝叶斯迁移学习的光学遥感图像目标检测方法 | |
Hao et al. | Correlation filter‐based visual tracking via adaptive weighted CNN features fusion | |
Zhang et al. | Infrared small target tracking based on sample constrained particle filtering and sparse representation | |
Dou et al. | Moving object detection based on incremental learning low rank representation and spatial constraint | |
Mao et al. | 3dg-stfm: 3d geometric guided student-teacher feature matching | |
CN109711245A (zh) | 一种基于图像候选区域的闭环检测方法 | |
Chen et al. | Learning orientation-estimation convolutional neural network for building detection in optical remote sensing image | |
CN111105444A (zh) | 一种适用于水下机器人目标抓取的连续跟踪方法 | |
Wang et al. | Convolution operators for visual tracking based on spatial–temporal regularization | |
Qian et al. | Infrared dim moving target tracking via sparsity-based discriminative classifier and convolutional network | |
Wang et al. | A comparison of correlation filter-based trackers and struck trackers | |
Lei et al. | Convolutional restricted Boltzmann machines learning for robust visual tracking | |
Fan et al. | Region-filtering correlation tracking | |
Jiang et al. | Long-term tracking algorithm with the combination of multi-feature fusion and YOLO | |
CN113033356A (zh) | 一种尺度自适应的长期相关性目标跟踪方法 | |
Zhang et al. | Uncertain motion tracking via target-objectness proposal and memory validation | |
Qin et al. | Target tracking method based on interference detection | |
Du et al. | Adaptive features fusion correlation filter for real-time object tracking | |
CN113744314B (zh) | 一种基于目标-干扰感知的目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |