CN108932729A - 一种最小障碍距离加权跟踪方法 - Google Patents
一种最小障碍距离加权跟踪方法 Download PDFInfo
- Publication number
- CN108932729A CN108932729A CN201810939906.8A CN201810939906A CN108932729A CN 108932729 A CN108932729 A CN 108932729A CN 201810939906 A CN201810939906 A CN 201810939906A CN 108932729 A CN108932729 A CN 108932729A
- Authority
- CN
- China
- Prior art keywords
- frame
- node
- image block
- obstacle
- minimum distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000005070 sampling Methods 0.000 claims abstract description 7
- 238000012706 support-vector machine Methods 0.000 claims abstract description 6
- 238000006243 chemical reaction Methods 0.000 claims abstract description 5
- 238000010586 diagram Methods 0.000 claims description 22
- 230000007704 transition Effects 0.000 claims description 21
- 238000009432 framing Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 238000012804 iterative process Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000000452 restraining effect Effects 0.000 claims description 2
- 230000004888 barrier function Effects 0.000 abstract 4
- 238000005286 illumination Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 238000000547 structure data Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种最小障碍距离加权跟踪方法,在搜索窗口内进行采样产生一组候选样本;将当前帧的边界框分为不重叠的图像块并扩大为扩展边界框,提取每个图像块的特征;以边框图像作为种子节点,计算其他节点与种子节点的最小障碍距离,然后得到距离转换图;将最小障碍距离作为权重加于对应的图像块特征上,得到空间有序的加权图像块特征描述子,带有图像特征的组合权重被合并到结构化支持向量机中以执行跟踪。本发明结合图像颜色直方图特征和方向梯度直方图特征计算得到基于背景种子节点集合的距离转换图,根据图像图像块与背景节点的最小障碍距离,解决了遮挡和形变的问题,同时能够减少漂移,增强跟踪的稳定性和鲁棒性。
Description
技术领域
本发明涉及一种计算机视觉技术,尤其涉及的是一种最小障碍距离加权跟踪方法。
背景技术
智能视频监控系统的广泛普及,推动着计算机视觉理论研究的不断深入,而目标跟踪是计算机视觉领域中视频分析的一个重要问题,在监控、人机交互与医学成像中有着广泛的应用。一个典型的目标跟踪场景就是,在视频序列的第一帧给出待跟踪目标的位置和大小,用跟踪器在接下来的连续帧中跟踪该目标。尽管近年来很多跟踪算法的出现促进了目标跟踪的发展,但是跟踪过程中面临的很多因素,如光照变化、遮挡和快速变形等都没有得到很好解决。因此,目标跟踪仍是一个具有挑战性的任务,研发一个更加有效而鲁棒的跟踪算法具有重大意义。
基于检测的跟踪方法把目标跟踪看作二分类问题,这类跟踪方法通过训练未标记的样本来区分目标和背景从而学习一个分类器,分类器通常使用滑动窗口方法搜索来自前一帧评估周围的局部区域中最大分类分数来估计目标位置。如果训练样本被分配到错误的标签,则分类器可能被污染,错误的标签将会降低测试性能。结构化输出支持向量机采用结构化数据来减少更新分类器过程中产生的标签错误,但是该类方法使用简单的低级特征,在处理比例变化和遮挡方面效率较低。使用了颜色直方图和方向梯度直方图特征的跟踪器(SOWP:Spatially Ordered and Weighted Patch Descriptor for Visual Tracking,基于空间有序和加权图像块描述子的视觉跟踪),将空间有序的加权图像块描述子结合到结构化输出跟踪框架中,使用权重来调节每个图像块描述子,一定程度上抑制了边界框中的背景信息。但是它定义的是八邻域的静态结构图,边权是基于低级特征距离计算的,对处理跟踪序列中存在的严重遮挡、快速变形和光照变化等问题表现较差。
现有技术不足在于:传统的目标跟踪方法,一般使用欧式距离计算两个区域的相似性。当一个目标区域和一个背景区域外观相似的情况下,他们的特征往往没有很大的差异,通过欧式距离计算它们的相似性,会导致错误的结果,比如把目标当成背景或者把背景看作目标。用于构建静态结构图的边的权重基于低级特征距离计算,采用欧式距离不能准确区分目标与背景。
发明内容
本发明所要解决的技术问题在于:目标和背景外观相似的情况下很难区分它们,提供了一种最小障碍距离加权跟踪方法。
本发明是通过以下技术方案解决上述技术问题的,本发明包括以下步骤:
(1)输入视频序列的某一帧,设置一个搜索窗口,在搜索窗口内进行采样产生一组候选样本;
(2)将当前帧的边界框分为不重叠的图像块并扩大为扩展边界框,提取每个图像块的特征;
(3)以边框图像作为种子节点,计算其他节点与种子节点的最小障碍距离,然后得到距离转换图;
(4)将最小障碍距离作为权重加于对应的图像块特征上,得到空间有序的加权图像块特征描述子,带有图像特征的组合权重被合并到结构化支持向量机中以执行跟踪。
所述步骤(1)中,先输入视频序列的某一帧,在当前帧中设置一个搜索窗口,搜索窗口用前一帧跟踪结果目标边界框对应位置的中心为中心,半径为对初始边界框的面积求平方根,并在搜索窗口内进行采样产生一组候选样本。
所述半径为半径,其中w为初始边界框的宽,h为初始边界框的高。
所述步骤(2)包括以下步骤:
(21)根据边界框的大小计算像素点的总数,根据像素点的个数指定每个图像块的宽和高,
(22)以当前边界框的坐标分别减去图像块的宽和高,作为扩展边界框的坐标,以边界框的宽和高分别加上图像块宽和高的N倍作为扩展边界框的宽和高,将边界框扩展为扩展边界框;
(23)将边界框分成大小均等的图像块并使用RGB颜色直方图和方向梯度直方图特征的组合进行特征提取,按通道提取每个图像块的特征(每个特征维度相加),得到当前边界框的特征图,即包含每个图像块特征的矩阵;
(24)对每一个样本,提取图像块的方向梯度直方图和RGB颜色直方图特征,根据每个图像块的特征值用障碍距离来计算它们到边框图像块的相似性。
所述步骤(21)中,按一个边界框的宽除以一个倍数所得到的最大整数作为每个图像块的宽,同理按一个边界框的高除以同样的倍数所得到的最大整数作为每个图像块的高。
所述步骤(3)包括以下步骤:
(31)在获取当前边界框的特征图之后,利用该图构建无向图,根据包含N*N个图像块的扩展边界框建立图G=<V,E>,N为自然数,V表示图中所有图像块节点,E表示图像块节点之间的边;
(32)选取背景节点,提取图像四周的边界图像块为种子节点集合,分别选取图像上、下、左、右四边位置在扩展边界框以内和边界框以外的图像块组成种子节点集合;
对于图G=<V,E>,任意两个图像块之间的边权定义为:
其中,π(0)表示种子节点,π(k)表示边界框中第k个节点,G(π(i))表示图G上连接种子节点到i节点的路径;路径π=<π(0),π(1),...,π(k)>代表一个从π(0)到π(k)的序列,这个序列包含任意一个路径<π(i),π(i-1)>,π(i)与π(i-1)是相邻节点且<π(i),π(i-1)>∈E;
(33)图G在初始化状态下,种子节点的最小障碍距离被设置为0,其余节点的最小障碍距离为∞,H和L分别被设置为初始的图G;边界图像块被设置为背景种子节点,用目标到背景的距离表示目标的权重,到背景节点的最小障碍距离值越大,说明当前图像块与种子节点的相似性越小,它是目标的概率越大,反之说明是背景的概率越大;
(34)利用光栅扫描的方法迭代计算每个图像块到背景种子节点的最小障碍距离,利用最小障碍距离生成距离转换图,距离转换的代价函数表示为:
D(x)=min{D(x),βG(πx∪b)}
其中,πx代表连接x节点到种子节点的路径,b代表x的邻接节点,πx∪b表示连接x节点到种子节点且经过b节点的路径,D(x)表示连接x节点到种子节点的一些路径的最小障碍距离路径成本,x的每个相邻节点b用于迭代地最小化x处的路径成本;
(35)距离转换图通过光栅扫描的方法迭代计算直至收敛,距离转换图迭代过程表示为:
βG(πb)=max{H(b),G(x)}-min{L(b),G(x)}
其中,H和L是两个辅助图,H(b)表示路径πb上的最高值,L(b)表示路径πb上的最低值,H和L被用来跟踪每个节点在当前路径上的最高值和最低值;
(36)如果βG(πb)<D(x),就将D(x)更新为D(x)=βG(πx∪b),同时,更新H(x)为H(x)=max{H(b),G(x)},更新L(x)为L(x)=min{L(b),G(x)};
(37)正光栅扫描中,通过不断重复步骤(34)~(36)来更新每个节点x到种子节点的最小障碍距离D(x),反之亦然,直至收敛并得到最终的距离转换图D。
所述步骤(4)包括以下步骤:
(41)距离转换图中每个节点的最小障碍距离作为当前节点的权重,被附加到对应节点特征上,构建加权图像块特征描述子,用公式表示为:
其中,Dt(i)表示第t帧边界框中第i个图像块的权重,fi T表示第i个图像块的特征向量,表示第t帧边界框r的加权特征描述子;
(42)将加权特征描述子合并到传统的跟踪算法Struck SVM中,第一帧的加权特征描述子学习到的分类器与前一帧的跟踪结果被用于当前帧的跟踪;
(43)通过最大化分类器得分来估计当前帧中的目标边界框,通过以下公式最大化分类器得分:
其中,w0表示第一帧的决策平面的法向量,w表示前一帧的决策平面的法向量,γ是一个平衡参数,表示第一帧与前一帧在评估当前帧目标边界框过程中各占比重的大小。
本发明相比现有技术具有以下优点:本发明利用扩展边界框的最外层节点(背景节点)作为先验知识,结合图像颜色直方图特征和方向梯度直方图特征计算得到基于背景种子节点集合的距离转换图,因为背景节点是确定的,根据图像图像块与背景节点的最小障碍距离,可以将前景目标很好的突显出来并抑制背景噪声。实验证明了本发明很好地解决了遮挡和形变的问题,同时能够减少漂移,增强跟踪的稳定性和鲁棒性。
附图说明
图1是本发明的流程示意图;
图2是本发明的最小障碍距离的光栅扫描过程图;
图3是本发明的图像块的分割图、距离转换图和跟踪结果图。
具体实施方式
下面对本发明的实施例作详细说明,本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
如图1所示,本实施例包括以下步骤:
(1)输入视频序列的某一帧,设置一个搜索窗口,在搜索窗口内进行采样产生一组候选样本;
可以先输入视频序列的某一帧,首先在当前帧中设置一个搜索窗口,搜索窗口以前一帧跟踪结果目标边界框对应位置的中心为中心,以为半径,其中w为初始边界框的宽,h为初始边界框的高,并在搜索窗口内进行采样产生一组候选样本。
(2)把当前帧的边界框分成不重叠的图像块并扩展为扩展边界框,提取每个图像块的特征;
(21)根据边界框的大小计算像素点的总数,继而根据像素点的个数指定每个图像块的宽和高,按一个边界框的宽除以8所得到的最大整数作为每个图像块的宽,同理按一个边界框的高除以8所得到的最大整数作为每个图像块的高;
(22)以当前边界框的x、y坐标分别减去图像块的宽和高作为扩展边界框的坐标,以边界框的宽和高分别加上图像块宽和高的2倍作为扩展边界框的宽和高,将边界框扩展为扩展边界框;
(23)将边界框分成大小均等的图像块并使用RGB颜色直方图和方向梯度直方图特征的组合进行特征提取,按通道提取每个图像块的特征(每个特征维度相加),得到当前边界框的特征图,即包含每个图像块特征的矩阵;
对每一个样本,提取图像块的方向梯度直方图(HOG)和RGB颜色直方图特征,根据每个图像块的特征值用障碍距离来计算它们到边框图像块的相似性;
本实施例利用RGB颜色直方图和方向梯度直方图特征的组合进行特征提取,能够很好的描述目标的外观和结构信息,使跟踪器在处理外观变化方面较为灵活。
(3)以边框图像块作为种子节点,计算其他节点与种子节点的最小障碍距离,得到距离转换图;
(31)在获取当前边界框的特征图之后,利用该图构建无向图,根据包含10*10个图像块的扩展边界框建立图G=<V,E>,V表示图中所有图像块节点,E表示图像块节点之间的边;
(32)选取背景节点,提取图像四周的边界图像块为种子节点集合,分别选取图像上、下、左、右四边位置在扩展边界框以内和边界框以外的图像块组成种子节点集合;
对于这样一个图G=<V,E>,任意两个图像块之间的边权定义为:
其中,π(0)表示种子节点,π(k)表示边界框中第k个节点,G(π(i))表示图G上连接种子节点到i节点的路径;路径π=<π(0),π(1),...,π(k)>代表一个从π(0)到π(k)的序列,这个序列包含任意一个路径<π(i),π(i-1)>(π(i)与π(i-1)是相邻节点且<π(i),π(i-1)>∈E);
(33)图G在初始化状态下,种子节点的最小障碍距离被设置为0,其余节点的最小障碍距离为∞,H和L分别被设置为初始的图G;根据“背景线索”,边界的图像区域大部分是背景区域,一般被看作背景,所以边界图像块被设置为背景种子节点,用目标到背景的距离表示目标的权重,来更好的凸显目标,到背景节点的最小障碍距离值越大,说明当前图像块与种子节点的相似性越小,它是目标的概率越大,反之说明是背景的概率越大;
(34)利用光栅扫描的方法迭代计算每个图像块到背景种子节点的最小障碍距离,利用最小障碍距离生成距离转换图,距离转换的代价函数表示为:
D(x)=min{D(x),βG(πx∪b)}
其中,πx代表连接x节点到种子节点的路径,b代表x的邻接节点,πx∪b表示连接x节点到种子节点且经过b节点的路径,例如:一条路径连接了b节点到种子节点,将边<x,b>附加到这条路径上构成一条新的边就记为πx∪b;D(x)表示连接x节点到种子节点的一些路径的最小障碍距离路径成本,x的每个相邻节点b用于迭代地最小化x处的路径成本;
(35)在具体实施时,距离转换图通过光栅扫描的方法迭代计算直至收敛,距离转换图迭代过程可以表示为:
βG(πb)=max{H(b),G(x)}-min{L(b),G(x)}
其中,H和L是两个辅助图,H(b)表示路径πb上的最高值,L(b)表示路径πb上的最低值,H和L被用来跟踪每个节点在当前路径上的最高值和最低值;
(36)如果βG(πb)<D(x),就将D(x)更新为D(x)=βG(πx∪b),同时,更新H(x)为H(x)=max{H(b),G(x)},更新L(x)为L(x)=min{L(b),G(x)};
(37)正光栅扫描中,通过不断重复步骤(34)至(36)来更新每个节点x到种子节点的最小障碍距离D(x),反之亦然,直至收敛并得到最终的距离转换图D。
如图2所示,本实施例中最小障碍距离的光栅扫描过程图,图G是4邻域的,所以在正光栅扫描和逆光栅扫描的交替过程中,每次计算x节点的两个邻接节点,例如:正光栅扫描过程中节点b表示x节点的上邻居节点和左邻居节点,逆光栅扫描过程中节点b表示x节点的下邻居节点和右邻居节点。图中灰色图像块表示x节点,正光栅扫描过程计算的邻居节点如左上角黑色图像块所示,逆光栅扫描过程所计算的邻居节点如右下角黑色图像块所示。
(4)将权重加于对应的图像块特征上得到空间有序的加权图像块特征描述子,带有图像块特征的组合权重被合并到结构化支持向量机(SVM)中以执行跟踪。
(41)距离转换图中每个节点的最小障碍距离作为当前节点的权重,被附加到对应节点特征上,构建加权图像块特征描述子,用公式表示为:
其中,Dt(i)表示第t帧边界框中第i个图像块的权重,fi T表示第i个图像块的特征向量,表示第t帧边界框r的加权特征描述子;
本实施例利用第t帧中边界框r的目标对象描述子表示结构化的样本,更好地捕获图像块之间的内在关系,通过对特征加权来优化特征表示,一定程度上保证目标边界框的置信分数高于其周围的边界框,抑制背景的影响;
(42)将加权特征描述子合并到传统的跟踪算法Struck SVM中,第一帧的加权特征描述子学习到的分类器与前一帧的跟踪结果被用于当前帧的跟踪;
(43)通过最大化分类器得分来估计当前帧中的目标边界框,通过以下公式最大化分类器得分:
其中,w0表示第一帧的决策平面的法向量,w表示前一帧的决策平面的法向量,γ是一个平衡参数,表示第一帧与前一帧在评估当前帧目标边界框过程中各占比重的大小;
本实施例中,参数γ被设置为0.385,表明当前帧的跟踪很大程度上依赖于前一帧的跟踪结果,同时第一帧的模型也很重要,当目标出现遮挡或快速形变等问题时,第一帧的信息提供了较准确的模型,防止跟踪器漂移。
如图3所示,图3a为图像块的分割图,图3b为距离转换图,图3c为跟踪结果图,如图所示,利用最小障碍距离计算出的距离转换图,清楚的展示了每个图像块的权重,边界图像块属于背景区域,中间属于目标区域,将权重附加到对应节点特征上,能更好的表示目标并抑制背景。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种最小障碍距离加权跟踪方法,其特征在于,包括以下步骤:
(1)输入视频序列的某一帧,设置一个搜索窗口,在搜索窗口内进行采样产生一组候选样本;
(2)将当前帧的边界框分为不重叠的图像块并扩大为扩展边界框,提取每个图像块的特征;
(3)以边框图像作为种子节点,计算其他节点与种子节点的最小障碍距离,然后得到距离转换图;
(4)将最小障碍距离作为权重加于对应的图像块特征上,得到空间有序的加权图像块特征描述子,带有图像特征的组合权重被合并到结构化支持向量机中以执行跟踪。
2.根据权利要求1所述的一种最小障碍距离加权跟踪方法,其特征在于,所述步骤(1)中,先输入视频序列的某一帧,在当前帧中设置一个搜索窗口,搜索窗口用前一帧跟踪结果目标边界框对应位置的中心为中心,半径为对初始边界框的面积求平方根,并在搜索窗口内进行采样产生一组候选样本。
3.根据权利要求2所述的一种最小障碍距离加权跟踪方法,其特征在于,所述半径为半径,其中w为初始边界框的宽,h为初始边界框的高。
4.根据权利要求1所述的一种最小障碍距离加权跟踪方法,其特征在于,所述步骤(2)包括以下步骤:
(21)根据边界框的大小计算像素点的总数,根据像素点的个数指定每个图像块的宽和高;
(22)以当前边界框的坐标分别减去图像块的宽和高,作为扩展边界框的坐标,以边界框的宽和高分别加上图像块宽和高的N倍作为扩展边界框的宽和高,将边界框扩展为扩展边界框;
(23)将边界框分成大小均等的图像块并使用RGB颜色直方图和方向梯度直方图特征的组合进行特征提取,按通道提取每个图像块的特征(每个特征维度相加),得到当前边界框的特征图,即包含每个图像块特征的矩阵;
(24)对每一个样本,提取图像块的方向梯度直方图和RGB颜色直方图特征,根据每个图像块的特征值用障碍距离来计算它们到边框图像块的相似性。
5.根据权利要求4所述的一种最小障碍距离加权跟踪方法,其特征在于,所述步骤(21)中,按一个边界框的宽除以一个倍数所得到的最大整数作为每个图像块的宽,同理按一个边界框的高除以同样的倍数所得到的最大整数作为每个图像块的高。
6.根据权利要求1所述的一种最小障碍距离加权跟踪方法,其特征在于,所述步骤(3)包括以下步骤:
(31)在获取当前边界框的特征图之后,利用该图构建无向图,根据包含N*N个图像块的扩展边界框建立图G=<V,E>,N为自然数,V表示图中所有图像块节点,E表示图像块节点之间的边;
(32)选取背景节点,提取图像四周的边界图像块为种子节点集合,分别选取图像上、下、左、右四边位置在扩展边界框以内和边界框以外的图像块组成种子节点集合;
对于图G=<V,E>,任意两个图像块之间的边权定义为:
其中,π(0)表示种子节点,π(k)表示边界框中第k个节点,G(π(i))表示图G上连接种子节点到i节点的路径;路径π=<π(0),π(1),...,π(k)>代表一个从π(0)到π(k)的序列,这个序列包含任意一个路径<π(i),π(i-1)>,π(i)与π(i-1)是相邻节点且<π(i),π(i-1)>∈E;
(33)图G在初始化状态下,种子节点的最小障碍距离被设置为0,其余节点的最小障碍距离为∞,H和L分别被设置为初始的图G;边界图像块被设置为背景种子节点,用目标到背景的距离表示目标的权重,到背景节点的最小障碍距离值越大,说明当前图像块与种子节点的相似性越小,它是目标的概率越大,反之说明是背景的概率越大;
(34)利用光栅扫描的方法迭代计算每个图像块到背景种子节点的最小障碍距离,利用最小障碍距离生成距离转换图,距离转换的代价函数表示为:
D(x)=min{D(x),βG(πx∪b)}
其中,πx代表连接x节点到种子节点的路径,b代表x的邻接节点,πx∪b表示连接x节点到种子节点且经过b节点的路径,D(x)表示连接x节点到种子节点的一些路径的最小障碍距离路径成本,x的每个相邻节点b用于迭代地最小化x处的路径成本;
(35)距离转换图通过光栅扫描的方法迭代计算直至收敛,距离转换图迭代过程表示为:
βG(πb)=max{H(b),G(x)}-min{L(b),G(x)}
其中,H和L是两个辅助图,H(b)表示路径πb上的最高值,L(b)表示路径πb上的最低值,H和L被用来跟踪每个节点在当前路径上的最高值和最低值;
(36)如果βG(πb)<D(x),就将D(x)更新为D(x)=βG(πx∪b),同时,更新H(x)为H(x)=max{H(b),G(x)},更新L(x)为L(x)=min{L(b),G(x)};
(37)正光栅扫描中,通过不断重复步骤(34)~(36)来更新每个节点x到种子节点的最小障碍距离D(x),反之,正光栅扫描执行同样的操作,直至收敛并得到最终的距离转换图D。
7.根据权利要求1所述的一种最小障碍距离加权跟踪方法,其特征在于,所述步骤(4)包括以下步骤:
(41)距离转换图中每个节点的最小障碍距离作为当前节点的权重,被附加到对应节点特征上,构建加权图像块特征描述子,用公式表示为:
其中,Dt(i)表示第t帧边界框中第i个图像块的权重,fi T表示第i个图像块的特征向量,表示第t帧边界框r的加权特征描述子;
(42)将加权特征描述子合并到传统的跟踪算法Struck SVM中,第一帧的加权特征描述子学习到的分类器与前一帧的跟踪结果被用于当前帧的跟踪;
(43)通过最大化分类器得分来估计当前帧中的目标边界框,通过以下公式最大化分类器得分:
其中,w0表示第一帧的决策平面的法向量,w表示前一帧的决策平面的法向量,γ是一个平衡参数,表示第一帧与前一帧在评估当前帧目标边界框过程中各占比重的大小。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810939906.8A CN108932729B (zh) | 2018-08-17 | 2018-08-17 | 一种最小障碍距离加权跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810939906.8A CN108932729B (zh) | 2018-08-17 | 2018-08-17 | 一种最小障碍距离加权跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108932729A true CN108932729A (zh) | 2018-12-04 |
CN108932729B CN108932729B (zh) | 2021-06-04 |
Family
ID=64446018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810939906.8A Active CN108932729B (zh) | 2018-08-17 | 2018-08-17 | 一种最小障碍距离加权跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108932729B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106023212A (zh) * | 2016-05-24 | 2016-10-12 | 西安电子科技大学 | 一种基于金字塔逐层传播聚类的超像素分割方法 |
CN106997597A (zh) * | 2017-03-22 | 2017-08-01 | 南京大学 | 一种基于有监督显著性检测的目标跟踪方法 |
CN108171729A (zh) * | 2017-12-05 | 2018-06-15 | 温州大学 | 基于子区域的自适应随机投影视觉跟踪实验方法 |
-
2018
- 2018-08-17 CN CN201810939906.8A patent/CN108932729B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106023212A (zh) * | 2016-05-24 | 2016-10-12 | 西安电子科技大学 | 一种基于金字塔逐层传播聚类的超像素分割方法 |
CN106997597A (zh) * | 2017-03-22 | 2017-08-01 | 南京大学 | 一种基于有监督显著性检测的目标跟踪方法 |
CN108171729A (zh) * | 2017-12-05 | 2018-06-15 | 温州大学 | 基于子区域的自适应随机投影视觉跟踪实验方法 |
Non-Patent Citations (3)
Title |
---|
HAN-UL KIM ET AL.: "SOWP: Spatially Ordered and Weighted Patch Descriptor for Visual Tracking", 《2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV)》 * |
ROBINSTRAND ET AL.: "The minimum barrier distance", 《COMPUTER VISION AND IMAGE UNDERSTANDING》 * |
ZDENEK KALAL ET AL.: "Tracking-Learning-Detection", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
Also Published As
Publication number | Publication date |
---|---|
CN108932729B (zh) | 2021-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kruthiventi et al. | Saliency unified: A deep architecture for simultaneous eye fixation prediction and salient object segmentation | |
Ahmed et al. | Exploring deep learning models for overhead view multiple object detection | |
CN108549891B (zh) | 基于背景与目标先验的多尺度扩散显著目标检测方法 | |
Basalamah et al. | Scale driven convolutional neural network model for people counting and localization in crowd scenes | |
CN106997597B (zh) | 一种基于有监督显著性检测的目标跟踪方法 | |
US10216979B2 (en) | Image processing apparatus, image processing method, and storage medium to detect parts of an object | |
US7526101B2 (en) | Tracking objects in videos with adaptive classifiers | |
Morris | A pyramid CNN for dense-leaves segmentation | |
US20040213460A1 (en) | Method of human figure contour outlining in images | |
AU2014277853A1 (en) | Object re-identification using self-dissimilarity | |
Li et al. | Real-time object tracking via compressive feature selection | |
WO2019071976A1 (zh) | 基于区域增长和眼动模型的全景图像显著性检测方法 | |
CN110929593A (zh) | 一种基于细节辨别区别的实时显著性行人检测方法 | |
CN108090485A (zh) | 基于多视角融合的图像前景自动提取方法 | |
Venkatesan et al. | Face recognition system with genetic algorithm and ANT colony optimization | |
Li et al. | Human body segmentation via data-driven graph cut | |
CN108734200A (zh) | 基于bing特征的人体目标视觉检测方法和装置 | |
JP2017102622A (ja) | 画像処理装置、画像処理方法及びプログラム | |
Chen et al. | Image segmentation based on mathematical morphological operator | |
CN114399731A (zh) | 一种单粗点监督下的目标定位方法 | |
JP6486084B2 (ja) | 画像処理方法、画像処理装置、及びプログラム | |
CN106228553A (zh) | 高分辨率遥感图像阴影检测装置与方法 | |
Zhou et al. | Superpixel-driven level set tracking | |
CN108932729A (zh) | 一种最小障碍距离加权跟踪方法 | |
Zhang et al. | Two-stage absorbing Markov chain for salient object detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |