CN104680553A - 基于双边滤波的可变核函数目标跟踪方法 - Google Patents
基于双边滤波的可变核函数目标跟踪方法 Download PDFInfo
- Publication number
- CN104680553A CN104680553A CN201410697092.3A CN201410697092A CN104680553A CN 104680553 A CN104680553 A CN 104680553A CN 201410697092 A CN201410697092 A CN 201410697092A CN 104680553 A CN104680553 A CN 104680553A
- Authority
- CN
- China
- Prior art keywords
- target
- sigma
- core
- histogram
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供一种基于双边滤波的可变核函数目标跟踪方法,该方法包括:双边滤波提取轮廓、窗宽的确定、基于Mean-Shift算法的目标跟踪、颜色特征空间的引入、模型建立和目标的相似性度量系数等,本方法的具体优点如下:1、核函数的带宽不断改变,根据每一帧的目标物体的轮廓大小改变核带宽。2、克服了只考虑颜色特征提取的局限性,在提高目标跟踪的准确度的同时又提高了跟踪速度。3、在android系统设计智能车目标跟踪系统。4、在普通的手机上就可以实现这套系统。
Description
技术领域:本发明涉及一种在智能手机上实现基于双边滤波的轮廓提取的Mean-Shift可变核函数的智能车目标跟踪方法,即基于双边滤波的可变核函数目标跟踪方法。
背景技术:核函数作为一种基于核密度估计的无参数快速模式匹配算法,其带宽既影响像素的权值又反映了目标的大小和形状,因此带宽大小在Mean-Shift算法中起着很重要作用。现在的智能车目标跟踪系统的Mean-Shift算法大都是核函数的带宽在第一帧的时候确定后整个跟踪过程保持不变。然而,当目标存在明显变化的时候,固定不变的核函数往往会导致目标丢失。并且现有的一些Mean-Shift算法通常只考虑颜色特征的提取,具有一定的局限性。
发明内容:
发明目的:本发明提供一种在智能手机上实现基于双边滤波的轮廓提取的Mean-Shift可变核函数的智能车目标跟踪方法,即基于双边滤波的可变核函数目标跟踪方法,其目的是解决传统算法所存在的当目标存在明显变化的时候,固定不变的核函数往往会导致目标丢失的问题和无法的在普通手机上实现的问题;而且把物体轮廓、RGB颜色和Mean-Shift算法有机的结合在一起,既提高跟踪的准确度又提高了跟踪速度。
技术方案:本发明是通过图1所示技术方案来实现的:
一种基于双边滤波的可变核函数目标跟踪方法,其特征在于:该方法的步骤如下:
双边滤波提取轮廓的过程:
第一步:将原始图像f与改进图像的双边滤波器进行卷积运算,得出平滑后的图像。算法如下:
第二步:用一阶偏导的有限差分计算物体边缘梯度的幅值和方向;
第三步:对梯度幅值进行非极大值抑制;
第四步:用改进的自适应门选取法确定高门限,并计算门限;
第五步:检测和连接边缘。
窗宽的确定方法:
目标边缘检测到后,即可确定出Mean-Shift跟踪窗宽。目标边缘区域内有n个像素点,用{xi}1…n来表示横坐标,用{yi}1…n来表示纵坐标。设(xi,yi)属于R区域内的像素点的坐标,则核函数k(xi,yi)表示为该区域的大小。核函数可取为:
其中,和是判断点(xi,yi)是否属于R区域内。
判断某个点(xi,yi)是否属于R区域,使用的方法是从待判断的点向某一个方向引射线,计算和多边形交点的个数,如果个数是偶数或者零,则点在多边形外。如果是奇数,则在多边形内。
当第一帧的时候提前记录下目标物体的颜色直方图,以后每一帧当跟踪到物体的时候,再一次提取物体的颜色直方图,然后再把两个直方图匹配。当相识度达到一个阈值时,确定这个目标,不然重新跟踪。
跟踪方式为基于Mean-Shift算法的目标跟踪,具体为:在一个视频序列中,均值平移算法在基于Bhattacharyya系数的情况下,有效地在目标候选点位置中发现被跟踪物体的正确位置。
颜色特征空间的引入:本方法假设目标的颜色分布量化为m维,由原来的每个颜色分量的256个灰度级量化为m个灰度级,即定义函数b(x):R2→{1…m}是位置x的像素的函数,直方图的索引b(x)与该点的颜色相对应。
模型建立:我们假定满足两个条件:1)在目标初始帧中已检测且定位出目标;2)目标的颜色特征不会突然发生显著变化。
目标模型的建立:{xi *}i=1…m表示目标模型的像素坐标,其中心坐标为0,则目标的核直方图:
式中:k是目标的核函数;δ是Konekes delta函数;函数b是位于x的像素向颜色索引的映像;C为归一化常量,可以根据条件∑qn=1导出。于是,可以得到:
候选目标模型:假设{xi}i=1…n为当前图像帧中候选目标的像素位置,其中心位置y在窗宽h中运用同样的内核函数k,则候选目标的核直方图定义:
由于像素的位置x和y是给定核窗口区域内的像素点,则C可以由一个给定的内核和不同的窗宽h值预先计算得到。
目标的相似性度量系数:假设目标模型的颜色核直方图是在当前帧中,中心在候选目标的核直方图为在当前帧中找到目标位置的任务就是找到候选目标的核直方图与目标模型的核直方图最相似的候选目标位置y。在这里,目标模型的核直方图和候选目标的核直方图的相似性可以用Bhattacharyya系数来度量。Bhattacharyya系数的定义为:
当达到其最大值的时候,这候选目标可以认为就是被跟踪目标。
Mean-Shift跟踪算法:
式(6)在pu(y0)点泰勒展开可得:
把式(5)代入式(7),整理可得
式中:
对式(8)可以利用Mean-Shift算法进行最优化,为了实现目标跟踪,必须把式(8)最大化,而第一项与位置y无关,第二项表示候选目标在位置y处的密度估计和目标模式的相似性,用式(9)中的权值对数据加权。假定目标模型的分布为目标在当前帧的被估计位置为y,则Mean-Shift跟踪算法过程如下:
1)初始化当前帧目标的位置为y0;
2)用双边滤波检测的方法提取被跟踪目标的轮廓;
3)计算分布 和估计
4)根据式(9),计算权值{wi}I=1…n;
5)根据均值平移矢量计算新的候选目标位置y。公式如下:
6)当令y←(y0+y)/2。
7)如果||y–y0||<ε,停止循环;否则,令y0←y,返回第1)步。最终循环停止时,y就是被跟踪目标的新位置。
8)然后再对位于y位置的被跟踪目标进行双边滤波检测的方法提取被跟踪目标的新的轮廓,作为下一帧的被跟踪目标的区域。
整个目标跟踪的过程就是把上述的算法过程应用到视频序列的每一帧上,根据Bhattacharyya系数,找到被跟踪目标的位置,再周而复始。
优点及效果:本发明提供一种在智能手机上实现基于双边滤波的轮廓提取的Mean-Shift可变核函数的智能车目标跟踪方法,即基于双边滤波的可变核函数目标跟踪方法,本方法的具体优点如下:
1、核函数的带宽不断改变,根据每一帧的目标物体的轮廓大小改变核带宽。用双边滤波的方法提取物体轮廓,双边滤波的方法可以消除噪声而获得更多的边缘细节。
2、把物体轮廓、RGB颜色和Mean-Shift算法有机的结合在一起,克服了只考虑颜色特征提取的局限性,在提高目标跟踪的准确度的同时又提高了跟踪速度。
3、在android系统设计智能车目标跟踪系统。
4、在普通的手机上就可以实现这套系统。
附图说明:
图1技术方案实施过程框图。
具体实施方式:下面对本发明做进一步的说明:
本发明提供一种在智能手机上实现基于双边滤波的轮廓提取的Mean-Shift可变核函数的智能车目标跟踪方法,即基于双边滤波的可变核函数目标跟踪方法,该方法的步骤如下:
双边滤波提取轮廓的过程:
第一步:将原始图像f与改进图像的双边滤波器进行卷积运算,得出平滑后的图像。算法如下:
第二步:用一阶偏导的有限差分计算物体边缘梯度的幅值和方向;
第三步:对梯度幅值进行非极大值抑制;
第四步:用改进的自适应门选取法确定高门限,并计算门限;
第五步:检测和连接边缘。
窗宽的确定方法:
目标边缘检测到后,即可确定出Mean-Shift跟踪窗宽。目标边缘区域内有n个像素点,用{xi}1…n来表示横坐标,用{yi}1…n来表示纵坐标。设(xi,yi)属于R区域内的像素点的坐标,则核函数k(xi,yi)表示为该区域的大小。核函数可取为:
其中,和是判断点(xi,yi)是否属于R区域内。
判断某个点(xi,yi)是否属于R区域,使用的方法是从待判断的点向某一个方向引射线,计算和多边形交点的个数,如果个数是偶数或者零,则点在多边形外。如果是奇数,则在多边形内。
当第一帧的时候提前记录下目标物体的颜色直方图,以后每一帧当跟踪到物体的时候,再一次提取物体的颜色直方图,然后再把两个直方图匹配。当相识度达到一个阈值时,确定这个目标,不然重新跟踪。
跟踪方式为基于Mean-Shift算法的目标跟踪,具体为:在一个视频序列中,均值平移算法在基于Bhattacharyya系数的情况下,有效地在目标候选点位置中发现被跟踪物体的正确位置。
颜色特征空间的引入:本方法假设目标的颜色分布量化为m维,由原来的每个颜色分量的256个灰度级量化为m个灰度级,即定义函数b(x):R2→{1…m}是位置x的像素的函数,直方图的索引b(x)与该点的颜色相对应。
模型建立:我们假定满足两个条件:1)在目标初始帧中已检测且定位出目标;2)目标的颜色特征不会突然发生显著变化。
目标模型的建立:{xi *}i=1…m表示目标模型的像素坐标,其中心坐标为0,则目标的核直方图:
式中:k是目标的核函数;δ是Konekes delta函数;函数b是位于x的像素向颜色索引的映像;C为归一化常量,可以根据条件∑qn=1导出。于是,可以得到:
候选目标模型:假设{xi}i=1…n为当前图像帧中候选目标的像素位置,其中心位置y在窗宽h中运用同样的内核函数k,则候选目标的核直方图定义:
由于像素的位置x和y是给定核窗口区域内的像素点,则C可以由一个给定的内核和不同的窗宽h值预先计算得到。
目标的相似性度量系数:假设目标模型的颜色核直方图是在当前帧中,中心在候选目标的核直方图为在当前帧中找到目标位置的任务就是找到候选目标的核直方图与目标模型的核直方图最相似的候选目标位置y。在这里,目标模型的核直方图和候选目标的核直方图的相似性可以用Bhattacharyya系数来度量。Bhattacharyya系数的定义为:
当达到其最大值的时候,这候选目标可以认为就是被跟踪目标。
Mean-Shift跟踪算法:
式(6)在pu(y0)点泰勒展开可得:
把式(5)代入式(7),整理可得
式中:
对式(8)可以利用Mean-Shift算法进行最优化,为了实现目标跟踪,必须把式(8)最大化,而第一项与位置y无关,第二项表示候选目标在位置y处的密度估计和目标模式的相似性,用式(9)中的权值对数据加权。假定目标模型的分布为目标在当前帧的被估计位置为y,则Mean-Shift跟踪算法过程如下:
1)初始化当前帧目标的位置为y0;
2)用双边滤波检测的方法提取被跟踪目标的轮廓;
3)计算分布 和估计
4)根据式(9),计算权值{wi}I=1…n;
5)根据均值平移矢量计算新的候选目标位置y。公式如下:
6)当令y←(y0+y)/2。
7)如果||y–y0||<ε,停止循环;否则,令y0←y,返回第1)步。最终循环停止时,y就是被跟踪目标的新位置。
8)然后再对位于y位置的被跟踪目标进行双边滤波检测的方法提取被跟踪目标的新的轮廓,作为下一帧的被跟踪目标的区域。
整个目标跟踪的过程就是把上述的算法过程应用到视频序列的每一帧上,根据Bhattacharyya系数,找到被跟踪目标的位置,再周而复始。
Claims (3)
1.一种基于双边滤波的可变核函数目标跟踪方法,其特征在于:该方法的步骤如下:
双边滤波提取轮廓的过程:
第一步:将原始图像f与改进图像的双边滤波器进行卷积运算,得出平滑后的图像;算法如下:
第二步:用一阶偏导的有限差分计算物体边缘梯度的幅值和方向;
第三步:对梯度幅值进行非极大值抑制;
第四步:用改进的自适应门选取法确定高门限,并计算门限;
第五步:检测和连接边缘;
窗宽的确定方法:
目标边缘检测到后,即可确定出Mean-Shift跟踪窗宽;目标边缘区域内有n个像素点,用{xi}1…n来表示横坐标,用{yi}1…n来表示纵坐标;设(xi,yi)属于R区域内的像素点的坐标,则核函数k(xi,yi)表示为该区域的大小;核函数可取为:
其中, 和 是判断点(xi,yi)是否属于R区域内;
判断某个点(xi,yi)是否属于R区域,使用的方法是从待判断的点向某一个方向引射线,计算和多边形交点的个数,如果个数是偶数或者零,则点在多边形外;如果是奇数,则在多边形内;
当第一帧的时候提前记录下目标物体的颜色直方图,以后每一帧当跟踪到物体的时候,再一次提取物体的颜色直方图,然后再把两个直方图匹配;当相识度达到一个阈值时,确定这个目标,不然重新跟踪。
2.根据权利要求1所述的基于双边滤波的可变核函数目标跟踪方法,其特征在于:
跟踪方式为基于Mean-Shift算法的目标跟踪,具体为:在一个视频序列中,均值平移算法在基于Bhattacharyya系数的情况下,有效地在目标候选点位置中发现被跟踪物体的正确位置;
颜色特征空间的引入:本方法假设目标的颜色分布量化为m维,由原来的每个颜色分量的256个灰度级量化为m个灰度级,即定义函数b(x):R2→{1…m}是位置x的像素的函数,直方图的索引b(x)与该点的颜色相对应;
模型建立:我们假定满足两个条件:1)在目标初始帧中已检测且定位出目标;2)目标的颜色特征不会突然发生显著变化;
目标模型的建立:{xi *}i=1…m表示目标模型的像素坐标,其中心坐标为0,则目标的核直方图:
式中:k是目标的核函数;δ是Konekes delta函数;函数b是位于x的像素向颜色索引的映像;C为归一化常量,可以根据条件∑qn=1导出;于是,可以得到:
候选目标模型:假设{xi}i=1…n为当前图像帧中候选目标的像素位置,其中心位置y在窗宽h中运用同样的内核函数k,则候选目标的核直方图定义:
由于像素的位置x和y是给定核窗口区域内的像素点,则C可以由一个给定的内核和不同的窗宽h值预先计算得到;
目标的相似性度量系数:假设目标模型的颜色核直方图是在当前帧中,中心在候选目标的核直方图为在当前帧中找到目标位置的任务就是找到候选目标的核直方图与目标模型的核直方图最相似的候选目标位置y;在这里,目标模型的核直方图和候选目标的核直方图的相似性可以用Bhattacharyya系数来度量;Bhattacharyya系数的定义为:
当达到其最大值的时候,这候选目标可以认为就是被跟踪目标。
3.根据权利要求2所述的基于双边滤波的可变核函数目标跟踪方法,其特征在于:
Mean-Shift跟踪算法:
式(6)在pu(y0)点泰勒展开可得:
把式(5)代入式(7),整理可得
式中:
对式(8)可以利用Mean-Shift算法进行最优化,为了实现目标跟踪,必须把式(8)最大化,而第一项与位置y无关,第二项表示候选目标在位置y处的密度估计和目标模式的相似性,用式(9)中的权值对数据加权;假定目标模型的分布为目标在当前帧的被估计位置为y,则Mean-Shift跟踪算法过程如下:
1)初始化当前帧目标的位置为y0;
2)用双边滤波检测的方法提取被跟踪目标的轮廓;
3)计算分布 和估计
4)根据式(9),计算权值{wi}I=1…n;
5)根据均值平移矢量计算新的候选目标位置y;公式如下:
6)当 令y←(y0+y)/2;
7)如果||y–y0||<ε,停止循环;否则,令y0←y,返回第1)步;最终循环停止时,y就是被跟踪目标的新位置;
8)然后再对位于y位置的被跟踪目标进行双边滤波检测的方法提取被跟踪目标的新的轮廓,作为下一帧的被跟踪目标的区域;
整个目标跟踪的过程就是把上述的算法过程应用到视频序列的每一帧上,根据Bhattacharyya系数,找到被跟踪目标的位置,再周而复始。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410697092.3A CN104680553B (zh) | 2014-11-26 | 2014-11-26 | 基于双边滤波的可变核函数目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410697092.3A CN104680553B (zh) | 2014-11-26 | 2014-11-26 | 基于双边滤波的可变核函数目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104680553A true CN104680553A (zh) | 2015-06-03 |
CN104680553B CN104680553B (zh) | 2019-08-02 |
Family
ID=53315546
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410697092.3A Active CN104680553B (zh) | 2014-11-26 | 2014-11-26 | 基于双边滤波的可变核函数目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104680553B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105608673A (zh) * | 2015-12-16 | 2016-05-25 | 清华大学 | 图像颜色量化与抖动方法和系统 |
CN106023168A (zh) * | 2016-05-12 | 2016-10-12 | 广东京奥信息科技有限公司 | 一种视频监控中边缘检测的方法及装置 |
CN106096128A (zh) * | 2016-06-08 | 2016-11-09 | 吴雨欢 | 一种发型匹配的方法及系统 |
CN108447073A (zh) * | 2017-11-22 | 2018-08-24 | 西北工业大学 | 一种基于dsp的无人空中加受油激光视觉跟踪方法 |
CN108470352A (zh) * | 2017-02-23 | 2018-08-31 | 南宁市富久信息技术有限公司 | 车载自主测速方法 |
CN109916914A (zh) * | 2019-04-10 | 2019-06-21 | 清华大学深圳研究生院 | 一种产品缺陷检测方法及装置 |
CN111796265A (zh) * | 2020-06-12 | 2020-10-20 | 中国船舶重工集团公司第七二四研究所 | 基于改进区域双边平滑的低速目标检测方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103440669A (zh) * | 2013-09-10 | 2013-12-11 | 武汉大学 | 一种基于压缩域融合的Mean shift核窗宽动态更新方法 |
-
2014
- 2014-11-26 CN CN201410697092.3A patent/CN104680553B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103440669A (zh) * | 2013-09-10 | 2013-12-11 | 武汉大学 | 一种基于压缩域融合的Mean shift核窗宽动态更新方法 |
Non-Patent Citations (3)
Title |
---|
章为川: "基于各向异性高斯核的图像边缘和角点检测", 《中国博士学位论文全文数据库 信息科技辑》 * |
赵高鹏 等: "多特征提取的红外和可见光目标跟踪方法", 《兵工学报》 * |
陈龙: "辅助视觉中的图像处理关键技术研究", 《中国博士学位论文全文数据库 信息科技辑》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105608673A (zh) * | 2015-12-16 | 2016-05-25 | 清华大学 | 图像颜色量化与抖动方法和系统 |
CN105608673B (zh) * | 2015-12-16 | 2020-09-25 | 清华大学 | 图像颜色量化与抖动方法和系统 |
CN106023168A (zh) * | 2016-05-12 | 2016-10-12 | 广东京奥信息科技有限公司 | 一种视频监控中边缘检测的方法及装置 |
CN106096128A (zh) * | 2016-06-08 | 2016-11-09 | 吴雨欢 | 一种发型匹配的方法及系统 |
CN108470352A (zh) * | 2017-02-23 | 2018-08-31 | 南宁市富久信息技术有限公司 | 车载自主测速方法 |
CN108447073A (zh) * | 2017-11-22 | 2018-08-24 | 西北工业大学 | 一种基于dsp的无人空中加受油激光视觉跟踪方法 |
CN108447073B (zh) * | 2017-11-22 | 2020-09-08 | 西北工业大学 | 一种基于dsp的无人空中加受油激光视觉跟踪方法 |
CN109916914A (zh) * | 2019-04-10 | 2019-06-21 | 清华大学深圳研究生院 | 一种产品缺陷检测方法及装置 |
CN111796265A (zh) * | 2020-06-12 | 2020-10-20 | 中国船舶重工集团公司第七二四研究所 | 基于改进区域双边平滑的低速目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104680553B (zh) | 2019-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104680553A (zh) | 基于双边滤波的可变核函数目标跟踪方法 | |
CN103714541B (zh) | 一种利用山体轮廓区域约束识别定位建筑物的方法 | |
CN104200485A (zh) | 一种面向视频监控的人体跟踪方法 | |
CN103364410B (zh) | 一种基于模板搜索的水工混凝土结构水下表面裂缝检测方法 | |
CN103164858A (zh) | 基于超像素和图模型的粘连人群分割与跟踪方法 | |
CN103077539A (zh) | 一种复杂背景及遮挡条件下的运动目标跟踪方法 | |
CN104658011A (zh) | 一种智能交通运动目标检测跟踪方法 | |
CN104318258A (zh) | 一种基于时域模糊和卡尔曼滤波器的车道线检测方法 | |
Li et al. | Road lane detection with gabor filters | |
CN102982304B (zh) | 利用偏光图像检测车辆位置的方法和系统 | |
CN107169972B (zh) | 一种非合作目标快速轮廓跟踪方法 | |
CN102254319A (zh) | 一种多层次分割的遥感影像变化检测方法 | |
CN103903278A (zh) | 运动目标检测与跟踪系统 | |
CN104463911A (zh) | 基于复杂背景估计的红外运动小目标检测方法 | |
CN102298781A (zh) | 基于颜色和梯度特征的运动阴影检测方法 | |
CN104134077A (zh) | 一种基于确定学习理论的与视角无关的步态识别方法 | |
CN104867133A (zh) | 一种快速的分步立体匹配方法 | |
Lian et al. | A novel method on moving-objects detection based on background subtraction and three frames differencing | |
CN103077531A (zh) | 基于边缘信息的灰度目标自动跟踪方法 | |
CN104680158A (zh) | 一种基于对尺度块局部多值模式的人脸识别方法 | |
CN104574417B (zh) | 一种图像边缘灰度起伏性度量与自适应检测方法 | |
CN103871039A (zh) | 一种sar图像变化检测差异图生成方法 | |
CN114299002A (zh) | 一种路面抛洒异常行为智能检测系统与方法 | |
CN103440669A (zh) | 一种基于压缩域融合的Mean shift核窗宽动态更新方法 | |
CN105447488B (zh) | 基于素描线段拓扑结构的sar图像目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |